酷玩网

贾佳亚韩松联合团队提出大模型微调方法 LongLoRA,可轻松让大模型上下文窗口倍增

linx
欧意最新版本

欧意最新版本

欧意最新版本app是一款安全、稳定、可靠的数字货币交易平台。

APP下载  官网地址

据量子位于10月1日报道,香港中文大学与麻省理工学院联合研究团队,由贾佳亚和韩松领衔,提出了一种基于LoRA(Low-Rank Adaptation)的创新大模型微调技术——LongLoRA,该技术荣登GitHub热门排行榜。据悉,仅需两行代码和11小时的微调时间,LongLoRA便可以将大模型的4k窗口长度提升至32k。在规模上,该技术最高可扩展至10万token,从而一次阅读即可涵盖长篇小说的多章节或中短篇小说。据悉,在一台由8个A100显卡组成的单机上进行窗口长度扩展,其速度比全量微调快上数倍。

本文链接:https://www.8btc.com/article/6834438,转载时请标明文章来源。

标签: