根据《科创板日报》9月14日的报道,在2023全球AI芯片峰会上,NVIDIA解决方案与架构技术总监张瑞华对NVIDIA最新发布的开源软件TensorRT-LLM进行了详细介绍。她指出,TensorRT-LLM能够有效应对当前模型发展迅速、更新频繁以及用户量庞大的挑战。该软件支持GPU多节点,编程简便,与Triton的结合能够有效降低多用户延迟,从而最大化GPU资源利用率并降低成本。
为了应对大模型的训练需求,NVIDIA推出了NeMo Framework,这是一个端到端、云原生训练框架,旨在构建、定制和部署生成式AI模型,几乎涵盖了整个大模型训练生命周期。同时,为防止大模型产生不恰当的输出,NVIDIA还提供了一套名为Guardrails的安全防护机制,助力大模型更好地泛化知识。张瑞华女士认为,AI模型拥有广阔的用户市场,未来不仅限于研究机构,更可能普及到每个人的手机或电脑中。
本文链接:https://www.8btc.com/article/6832880 转载请注明文章出处
标签:
文章来源: 酷玩网
版权声明: 本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任