2023 年中国计算机大会(CNCC2023)以“发展数字基础设施,支撑数字中国建设”为主题,将于 10 月 26 - 28 日在沈阳新世界博览馆举办。
NVIDIA 携手合作伙伴丽台科技受邀为大会带来三大技术论坛,并在展位开设持续两天的开发者小课堂,为计算机行业的学者、研究人员、开发者和高校的同学们带来 NVIDIA 的最新技术应用实践。欢迎莅临我们的展位(沈阳新世界博览馆 4 楼 C 展馆 T13),与我们一起探索 AI 和加速计算的未来,开启生成式 AI 新时代!
NVIDIA 在 CNCC2023 的活动概览:
主题
地点
10 月 26 日
13:30 - 17:30
NVIDIA AI 全栈技术解决方案研讨会
沈阳皇朝万鑫酒店 8 层 - 16
10 月 27 日
13:30 - 17:30
基于超大模型的推理和部署实践
沈阳新世界博览馆 5 层会议室 503
10 月 28 日
13:30 - 17:30
探索 Omniverse 和 AI 加速创作开发流程
沈阳皇朝万鑫酒店 8 层 - 19
10 月 26 日
– 27 日
开发者小课堂
沈阳新世界博览馆 4 楼 C 展馆 T13
10 月 26 – 27 日,NVIDIA 将举办两场技术论坛:NVIDIA AI 全栈技术解决方案研讨会和基于超大模型的推理和部署实践分论坛,我们将分享 AI 领域最新的发展趋势,探讨大语言模型的崛起如何为 AI 技术的应用开拓新领域。
论坛详情
NVIDIA AI 全栈技术解决方案研讨会
地点:沈阳皇朝万鑫酒店 8 层 - 16
AI 正迎来有史以来最辉煌的时刻,新的 AI 技术和迅速发展的应用正在改变各行各业。从自主机器人开发、自动驾驶系统和软件、GPU 加速的大语言模型以及火热的生成式 AI 背后的智能网络技术。在 NVIDIA AI 全栈技术解决方案论坛,NVIDIA 专家将为您揭示 AI 技术新趋势。
具体议程
面向生成式 AI 的端到端高性能网络关键技术
演讲简介:分享 Spectrum-X 平台技术创新及其在 AI Cloud 行业的应用介绍 Quantum 平台及网络计算技术对大规模生成式 AI 应用的加速。
冯高锋 | NVIDIA HPC-AI 技术市场高级总监
构建 LLM 大规模训练推理基础架构的最佳实践(网络篇)
演讲简介:以当前火热的大语言模型(LLM)生成式人工智能为切入点,探索其成功背后的全栈智能网络技术,并介绍 NVIDIA BlueField-3 DPU 和 NVIDIA DOCA 2.0 为加速计算提供高性能、高效率和高安全性的云计算基础设施。
王淼 | NVIDIA 解决方案总监、NVIDIA 互联网行业 Infra 方向技术负责人
构建 LLM 大规模训练推理基础架构的最佳实践(GPU 篇)
演讲简介:介绍 NVIDIA 在 LLM 训练和推理场景的基础架构层面的最佳产品和方案。NVIDIA DGX SuperPOD 架构是实现 LLM 训练的最高性能基础架构,由 NVIDIA 实现全栈交付,极致满足客户算力需求。同时,NVIDIA Hopper NVL 产品可灵活适配主流服务器,在 LLM 推理场景帮助客户实现更高收益。
艾静 | NVIDIA 解决方案架构师、市场高级总监
NVIDIA 加速边缘计算和自主机器开发
演讲简介:智能机器人和边缘计算是现在人工智能的一个热点,NVIDIA 提供软硬件全栈解决方案,从仿真开发到部署,助力边缘计算和智能机器人应用的实现。同时,丰富强大的生态帮助开发者和用户加速开发过程,轻松应对全行业应用。
李雨倩 | NVIDIA 开发者关系总监
NVIDIA 全栈加速自动驾驶开发
演讲简介:围绕着自动驾驶整个数据闭环开发,NVIDIA 提供全栈的解决方案,从硬件、系统到软件,从数据中心到车端,助力自动驾驶高效开发、快速迭代。
程帅 | NVIDIA 解决方案架构师
基于超大模型的推理和部署实践分论坛
地点:沈阳新世界博览馆5层会议室503
大语言模型的兴起为 AI 技术的应用开辟了更广阔的空间,越来越多研究和实践证明超大模型在各类任务上的卓越能力与重要性。在 CNCC2023 大会上,腾讯、百度和阿里云将携手 NVIDIA 带来《基于超大模型的推理和部署实践》论坛。
通过本次论坛,您将了解到腾讯的生成式 AI 如何高效地部署;百度飞桨在 LLM 分布式训练方面的最新技术;阿里云 PAI 大语言模型推理服务实践;NVIDIA 在 GPU LLM 训练与推理部署优化解决方案以及构建 LLM 大规模训练推理基础架构的最佳实践分享。
具体议程
生成式 AI 高效部署实践
演讲简介:自 OpenAI 推出 ChatGPT 后,市场反应强烈。国内外科技公司快速跟进,到今年三月份,各公司逐步推出其专属的 ChatGPT 版本,并基于此开发逐步研发相关的商业应用。而 GPT 超大的模型结构在部署时产生的高延迟,高成本是其商业化路上的最大障碍。我们将从小型化算法、推理框架及服务化部署等多个方面和大家分享工业级 GPT 高效部署优化方案。
刘凯 | 腾讯高级工程师
基于飞桨的 LLM 训练和应用实践
演讲简介:介绍飞桨在 LLM 分布式训练方面的最新技术,针对 LLM 的开发、训练、Tuning、推理全流程工具设计,以及实际大规模训练和部署的应用实践。
曾锦乐 | 百度资深工程师
GPU LLM 训练与推理部署优化实践与解决方案
演讲简介:介绍大语言模型训练推理中常用的优化支持和技巧(数据并行、Tensor 并行、Pipline 并行、Sequence并行、selective activation recompute、NCCL、TRTLLM 等)以及 Nemo framework 的全链路支持方案。
高慧怡 | NVIDIA 解决方案架构师
阿里云 PAI 大语言模型推理服务实践
演讲简介:大语言模型的兴起为人工智能技术的应用开辟了更广阔的空间。然而,大语言模型的训练和推理都需要大量的计算资源和时间,因此,性能和成本是大语言模型普及路上的重要挑战。演讲将主要介绍阿里云 PAI 平台为了应对这一挑战所做的工作,包括:
1)如何基于推理加速技术在 GPU 特别是 NVIDIA 平台上实现了大语言模型推理的高效推理;
2)如何利用云平台天然的弹性特性,通过资源调度降低用户的成本;
3)如何在保证性能和成本的前提下保持灵活性,支持社区百花齐放的大语言模型。
邱侠斐 | 阿里云机器学习平台(PAI)系统优化团队负责人
构建 LLM 大规模训练推理基础架构的最佳实践(基础架构篇)
演讲简介:介绍 NVIDIA 在 LLM 训练和推理场景的基础架构层面的最佳产品和方案。NVIDIA DGX SuperPOD 架构是实现 LLM 训练的最高性能基础架构,由 NVIDIA 实现全栈交付,极致满足客户算力需求。同时,NVIDIA Hopper NVL 产品可灵活适配主流服务器,在 LLM 推理场景帮助客户实现更高收益。
艾静
NVIDIA 解决方案架构师
报名参会
扫描下方二维码,即刻报名参与论坛。
期待您莅临现场,一起领略更多精彩!
您可以从 《CNCC2023 | 开启生成式 AI 新时代!NVIDIA 多场论坛下周重磅登场》全面了解 NVIDIA 在 CNCC 的活动概览。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.