据IT之家9月12日报道,微软研究院近期推出了名为phi-1.5的全新预训练语言模型,该模型拥有高达13亿个参数,其应用场景涵盖QA问答、聊天对话以及代码编写等多种领域。phi-1.5模型的数据来源丰富,包括Stack Overflow平台上Python板块的问答内容、code_contests的竞赛代码、合成Python教科书以及gpt-3.5-turbo-0301生成的文本等,同时还包括了由各种自然语言处理合成文本组成的新数据源。
微软透露,在测试常识、语言理解和逻辑推理的基准测试中,phi-1.5的表现显著优于参数数量低于100万的大多数模型。在AGIEval的测试中,phi-1.5的得分甚至超过了参数数量为70亿的Meta的llama-2模型;而在搭载LM-Eval Harness的GPT4 AL跑分套件中,phi-1.5的表现亦能与参数数量为70亿的llama-2相媲美。
本文链接:https://www.8btc.com/article/6832634 转载请注明文章出处
标签:
文章来源: 酷玩网
版权声明: 本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任