根据IT之家7月25日的报道,AI领域的创业企业MosaicML近期推出了其70亿参数的先进模型MPT-7B-8K。这一模型具备一次处理高达8000字文本的能力,特别在长文本的摘要制作和问答方面表现出色。此外,MosaicML平台还支持针对特定任务进行模型的进一步精细化调整。
该系列模型基于150万个Token构建,并利用256块H100 GPU,经过3天的训练完成了模型的构建。MosaicML此次推出的模型共有三个版本,分别是MPT-7B-8k、MPT-7B-8k-Instruct和MPT-7B-8k-Chat。
本文链接:https://www.8btc.com/article/6827372 转载请注明文章来源
标签:
文章来源: 酷玩网
版权声明: 本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任