图片来源:视觉中国
蓝鲸新闻7月24日讯(记者 朱俊熹)在很长一段时间内,占据大模型评测榜单最前列的大多是一些闭源模型,直到Meta再次发布了最新的开源模型。当地时间7月23日,Meta推出最新的开源大模型系列Llama 3.1,称“正迎来一个由开源引领的新时代”。
Meta将此次发布的Llama 3.1 405B模型称作“世界上功能最强大的公开基础模型”,在一系列任务中能够与目前的领先模型相媲美,包括OpenAI的GPT-4、GPT-4o,以及Anthropic的Claude 3.5 Sonnet。
例如,在评估大语言模型性能的MMLU基准测试中,Llama 3.1 405B模型得分为88.6,GPT-4o为88.7,Claude 3.5 Sonnet为88.3。而在部分数学、推理等能力测试中,Meta新模型的分数要高于GPT-4o等闭源模型。
Llama 3.1 405B模型也是Meta迄今为止参数规模最大的模型,同步推出的还有今年4月面世的8B和70B模型的升级版本。但相较而言,Meta新模型的参数规模仍比不过其他竞争对手。OpenAI的GPT-4拥有1万亿个参数,亚马逊此前也传正在训练一个拥有2万亿参数的大模型。
虽然Meta一直是开源模型阵营的执旗者,其所采取的开源模式却不同于传统的定义。Meta并不会公布Llama系列模型的训练数据和训练代码,虽然它们比闭源模型更开放和可访问,但在使用时仍需遵守特定的许可条款。而Meta此次也修改了模型许可证,允许开发者使用其模型的输出来改进其他模型。
拥有4050亿参数的最新模型是在超过16000个英伟达H100 GPU上进行训练的。在彭博社的采访中,Meta创始人兼首席执行官马克·扎克伯格透露称,Llama 3模型在训练计算能力方面花费了数亿美元,预计未来模型的训练成本将会继续升高,达数十亿美元。
“我认为现在很多公司都存在过度建设的情况,当你回头看时,会觉得‘哦,我们可能都花了比实际多几十亿美元的钱’。另一方面,我认为所有投资的公司都在做出理性的决定,因为落后的弊端在于,你在未来10到15年最重要的技术领域失去了位置。”扎克伯格表示。
但Meta在人工智能领域上的加大投资引发了投资者对成本飙升的担忧。在4月公布一季度财报时,Meta表示为支持AI产品开发及数据中心设施建设,将全年资本支出从300-370亿美元上调为350-400亿美元,同时二季度的业绩展望也不及预期。这导致Meta股价大跌,当日市值缩水近2000亿美元。
顶着AI领域的巨额支出,Meta为何一直支持开源模型?
7月23日,在Llama 3.1发布之时,扎克伯格发表了一篇名为“开源人工智能是前进的道路”的署名公开信,从开源模型为何有益于开发者、Meta、世界等多个角度展开阐述。
其中,扎克伯格提到,他的经验之一,是在苹果平台上构建Meta服务时受到限制,包括苹果对开发者征税的方式、适用的规则等。这让他意识到不能陷入竞争对手的封闭生态系统,同时还要确保自己能够使用最佳的技术。
在与彭博社的采访中,扎克伯格补充道,“如果AI在未来会变得和移动平台一样重要,那么我不想通过竞争对手来获取AI。我们是一家科技公司,需要不仅在应用层,而是在所有底层上都能构建东西。对我们来说,为此进行大规模投资是值得的。”
此外,推出开源模型有助于Meta扩大其AI生态系统。Meta表示,将有超过25个合作伙伴提供Llama 3.1模型的相关服务,包括亚马逊、英伟达、大数据公司Databricks等,支持开发者及企业等微调和蒸馏自己的模型。
Meta的开源模型也被集成到旗下多款应用中。目前在Facebook、Messenger和Instagram等应用上,AI助手Meta AI已支持使用Llama 3.1 70B模型。扎克伯格称,Meta AI已有数亿用户,预计到今年年底将超过ChatGPT成为最受欢迎的AI助手。