据IT之家报道,于9月27日,DeepMind的研究团队对大型语言模型(LLM)的压缩性能进行了深入探究。他们发现,这些模型在压缩能力上表现得相当卓越,不仅能压缩常规的文本资料,甚至能处理图像和音频文件。相关研究成果已发表在ArXiv上。
在此次研究中,DeepMind团队采用了一个名为“Chinchilla 70B”的模型。尽管该模型主要以文字数据进行训练,研究人员却惊喜地发现,它同样适用于压缩ImageNet图像,能够将文件压缩到原始大小的43.3%,甚至可以将LibriSpeech语音样本压缩到原始大小的16.4%。
研究进一步表明,模型的“预测”能力与“压缩”能力之间存在着一种内在的等价性。因此,研究人员可以利用各种压缩算法,构建出更为强大的条件生成模型。此外,研究还揭示了一个有趣的现象:并非模型越大越好,过大的模型可能会对压缩性能产生不利影响。
本文链接:https://www.8btc.com/article/6834164 转载请注明文章出处
标签:
文章来源: 酷玩网
版权声明: 本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任