AI浏览器工具

报名 | 如何突破Decoder性能瓶颈?英伟达专家揭秘FasterTransformer2.0的原理与应用 –NLP公开课

  • 时间:2025-07-18 14:07:59
  • 来源:AI浏览器工具
  • 作者:啊哈哈哈
  • 您的位置:首页 > AI教程资讯 > 报名 | 如何突破Decoder性能瓶颈?英伟达专家揭秘FasterTransformer2.0的原理与应用 –NLP公开课

    自从 “Attention is All You Need” 在2017年提出以来,Transformer已成为 NLP 领域中非常热门的深度学习网络架构。但是在推理部署阶段,其计算性能往往难以满足在线业务对于低延迟和高吞吐的要求。

    在英伟达开源的FasterTransformer 1.0版本中,针对BERT中的 Transformer Encoder进行了优化和加速,经过高度优化之后,降低了用户使用transformer编码的时延。

    在解决了Encoder性能问题之后,英伟达将重点放到了同样重要的Transformer Decoder推理上。

    因此,英伟达推出了FasterTransformer 2.0版本,提供针对解码器进行高度优化的transformer layer。同时,还提供了优化过后的整个翻译流程,满足想要在翻译场景中大幅降低时延的用户们。

    那么,FasterTransformer 2.0背后的优化原理是什么?如何针对decoder和decoding进行优化?

    4月9日,英伟达x量子位将举办一场线上公开课,英伟达GPU计算专家、FasterTransformer 2.0 开发者之一的薛博阳老师将为大家详细讲解,欢迎大家报名,与薛老师一起探讨和交流。

    课程安排

    主题:FasterTransformer 2.0 的原理与应用

    时间:2020年4月9日(周四),20:00-21:30

    环节:讲解+问答

    课程内容:

    FasterTransformer 2.0 新增加功能介绍如何针对decoder和decoding进行优化如何使用decoder和decodingDecoder和decoding能够带来什么样的加速效果

    嘉宾介绍

    薛博阳,NVIDIA GPU 计算专家,拥有多年GPU开发经验和深度学习开发经验。曾参与计算机视觉、游戏人工智能等项目开发。FasterTransformer 2.0 开发者之一,目前主要负责 FasterTransformer 2.0 的进一步的优化。

    报名方式

    点击链接注册(https://info.nvidia.com/312648-reg.html),直播前将给您注册使用的邮箱发送直播链接,后续将发送直播回放、PPT资料。

    也欢迎大家加入直播交流群,添加量子位小助手(qbitbot12),并备注“英伟达”即可。

    — 完 —

    量子位 QbitAI · 头条号签约作者

    关注我们,第一时间获知前沿科技动态

    点击排行榜

    近期热点

    本类最新

    本站所有软件文章图片来源于网友上传,如果侵权请联系[AI浏览器工具],我们24小时内撤销

    Copyright©2025 2025 All rights reserved. 版权所有 AI浏览器工具