在每周的预告中,你可以:
了解一周的在线研讨会时间及详细内容,选择感兴趣的研讨会并提前安排收听时间;
找到每场研讨会的参会方式,保存并转发到朋友圈及微信群,与朋友分享精彩内容。
基于 Triton Inference Server 部署优化 Stable Diffusion Pipeline
内容
作为一款文本到图像生成模型,Stable Diffusion 能够在几秒钟内创作出令人惊叹的艺术作品。而 Stable Diffusion 的出现,也引爆了 AI 绘画的风口,AI 绘画平台 Midjourney 更是仅靠订阅服务费就年赚 1 亿美金。
当然,也因为 Stable Diffusion 是完全开源的,因此个人也能够部署 Stable Diffusion 实现文本到图像的生成,具有很大的可玩性。然而,如何对 Stable Diffusion 进行部署并进行优化呢?
今年 3 月份,NVIDIA 推出了可用于 LLM 和生成式 AI 的推理 GPU 平台,可以将 Stable Diffusion 的性能提高 7 倍。这些平台的软件层采用的是 NVIDIA AI Enterprise 软件套件,包括了用于高性能深度学习推理的软件开发套件 NVIDIA TensorRTTM,以及帮助实现模型部署标准化的开源推理服务软件 NVIDIA Triton Inference Server。
Triton Inference Server 可以在任何基于 GPU 或 CPU 的基础设施上部署、运行和扩展任意框架中经过训练的 AI 模型,进而精简 AI 推理。因此,我们可以使用 Triton Inference Server 更快速、高效地部署和优化 Stable Diffusion Pipeline ,提高推理性能。
4 月 25 日,智东西公开课联合 NVIDIA 策划推出「Stable Diffusion Pipeline 部署优化公开课」。本次公开课邀请到 NVIDIA 资深解决方案架构师卢翔龙参与,主讲基于 NVIDIA Triton Inference Server 的扩散模型部署及优化。
通过本次在线研讨会您将了解以下内容:
使用 Triton 对 Stable Diffusion Pipeline 进行部署及优化K8s 上多 Triton 推理实例的自动部署和编排NVIDIA AI Enterprise 端到端 AI 研发工作流及应用场景
日程
4 月 25 日,星期二,19:00-20:00
演讲嘉宾
卢翔龙 | NVIDIA 资深解决方案架构师
扫描上方二维码注册参加本次在线研讨会
相关资料
扫描上方二维码了解 Triton Inference Server
利用 GPU 加速人工智能图像生成模型推理实战之利用 TensorRT 加速 Stable Diffusion 模型推理
内容
随着 AI 技术的发展, 数字内容创建业务也变得越来越火热。生成式 AI 模型的发布, 让我们看到了人工智能在各行各业的潜力。您只需要用语言简单描述自己希望看到的画面, AI 便可以自动生成画作。生成式 AI 模型的广泛应用,不仅提高了我们的工作效率,也为社会发展带来了巨大的推动力, 而支撑起生成式 AI 模型强大的计算需求的就是GPU。
Stable Diffusion 模型是目前利用 AI 生成图像最火热的模型之一, 它能通过文字的输入生成高质量的图像。NVIDIA TensorRT 在 AI 模型加速推理上的能力, 可以帮助 Stable Diffusion 模型生成图像的推理过程变得更快。
本次在线研讨会将帮助有基于视觉人工智能开发需求的开发者,通过本次在线研讨会您可以了解到以下内容:
生成式 AI 应用简介Stable Diffusion 模型剖析NVIDIA TensorRT 简介及最新特性利用 TensorRT 加速 Stable Diffusion 模型推理代码实例:利用 TensorRT 加速 Stable Diffusion 模型推理环境配置及代码运行
日程
4 月 25 日,星期二,20:00-21:30
演讲嘉宾
何琨 (Ken He)
NVIDIA 企业级开发者社区高级经理,拥有多年的 GPU 和人工智能开发经验。自 2017 年加入 NVIDIA 开发者社区以来,完成过上百场培训,帮助上万个开发者了解人工智能和 GPU 编程开发。在计算机视觉,高性能计算领域完成过多个独立项目。并且,在机器人和无人机领域,有过丰富的研发经验。对于图像识别,目标的检测与跟踪完成过多种解决方案。曾经参与 GPU 版气象模式 GRAPES,是其主要研发者。
扫描上方二维码注册参加本次在线研讨会
相关资料
#NVIDIA#