开源版 OpenAI 再出神作:小模型吊打 Meta Llama 3,Ministral 系列开启边缘 AI 革命
Mistral 7B发展至一周年,法国 AI 初创企业Mistral再次推出两款轻量级模型Ministral 3B和Ministral 8B,性能超越Llama 3 8B。
Mistral 7B仅发布一年,法国AI初创小模型「les Ministraux」便超越它,被誉为全球最佳边缘模型。
Ministral 3B和Ministral 8B是专为边缘设备设计的轻量级模型。它们现已成为Mistral旗下产品之一,加入了Mixtral、Pixtral、Codestral和Mathstral的行列。
这两款模型虽只有30亿参数,但在指令跟随基准方面超越了Llama 3 8B和前辈模型Mistral 7B。此外,Ministral 3B和Ministral 8B在大模型竞技场测试中表现出色,拿下了与Gemma 2、Llama 3.1等开源模型相匹敌的成绩。
首屈一指的边缘模型
Ministral 3B和Ministral 8B支持高达128k上下文(当前在vLLM上为32k)。
在知识、常识、推理、函数调用和效率等方面,它们为低于10B参数的模型设立了新的标准。
此外,Ministral 8B还配备了滑动窗口注意机制(sliding-window attention),以实现更快、更高效的推理。
无论是管理复杂的AI智能体工作流,还是创建专门的任务助手,它们都可以根据各种用例进行微调。
超越开源模型,战胜Mistral 7B
研究人员在多项基准测试中评估了Les Minimrau的性能,包括知识、常识、代码和数学等方面。
Minstral 3B在以上基准上取得了最优成绩,与Llama 3.1 8B、Mistral 7B相比,除了代码能力有些差距外,其他方面皆是性能最优的模型。
预训练模型
Minstral 3B在以上基准上取得了最佳成绩,超越了Gemma 2 2B和Llama 3.2 3B。
Minstral 8B在代码、数学、多语言四大方面性能优秀,仅在大模型竞技场中稍逊于Gemma 2 9B。
以下柱状图直观展示了,Minstral 8B在各项评测中处于领先地位。
指令模型
微调后的指令模型性能优越,Minstral 3B在不同基准上表现最佳。Minstral 8B在Wild bench上略逊于Gemma 2 9B。
此外,在代码、数学和函数调用方面,这两款新模型性能大幅超越其他模型。
以下图可直观显示,微调后的Minstral 3B相比更大的Mistral 7B有所改进。
下面图表展示了微调后的Minstral 8B与其他模型性能的对比。
适用于各种边缘计算,成本仅需0.1美元每百万token
如今,相比大模型,小模型更适用于实际应用。越来越多用户希望对关键应用程序进行本地优先推理,例如设备翻译、离线智能助手、自动机器人等。
Mistral的Les Minimraux为这些场景提供了高计算效率和低延迟的解决方案。
结合Mistral Large等大型模型使用时,les Ministraux可成为多步智能体工作流中高效调用函数的中介。
通过微调,它们能够基于用户意图以极低延迟和成本跨多个上下文处理输入解析、任务路由和调用API。
价格
根据官方公布,Minstral 8B的输入输出价格为每百万token的0.1美元,而Minstral 3B为每百万token的0.04美元。
开源版OpenAI,不再是Open
Mistral成立以来曾以磁力链方式开源多款媲美OpenAI的模型,深受AI社区认可。
总部位于巴黎的Mistral由Meta和谷歌DeepMind前员工创立。
几个月前,Mistral估值为60亿美元,并完成6.4亿美元新融资,推出GPT-4级别模型Mistral Large 2。
今年,他们还发布了专家混合模型Mixtral 8x22B,包括编码模型Codestral和数学推理模型。
然而,这家明星公司今年却陷入争议,因为开源承诺不再存在。
消息称微软将收购Mistral股份,并在Azure AI进行托管,甚至有Reddit用户发现Mistral已移除开源承诺。
在一些模型调用上,Mistral开始收费,引发争议。
对于初创公司来说,始终坚持开源是一大挑战;Mistral、Stability AI等公司都曾面临此问题。
为了持续发展优秀模型,只有坚持这种选择。
更多详情,请参考:
https://x.com/dchaplot/status/1846575384718172448
https://x.com/GuillaumeLample/status/1846566817650679966
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考。