- A+
综上所述,
新智元报道
来自XM外汇官网:
编辑:桃子 好困
综上所述,
【新智元导读】OpenAI深夜扔出开源核弹,gpt-oss 20B和120B两款模型同时上线。它们不仅性能比肩o3-mini和o4-mini,而且还能在消费级显卡甚至手机上轻松运行。GPT-2以来,奥特曼终于兑现了Open AI。
值得注意的是,
他来了!他来了!
其实,
就在今夜,奥特曼带着两款全新的开源模型走来了!
,它们分别是总参数1170亿,激活参数51亿的「gpt-oss-120b」和总参数210亿,激活参数36亿的「gpt-oss-20b」。
不可忽视的是,
终于,OpenAI再次回归开源。
总的来说,
-
gpt-oss-120b适用于需要高推理能力的生产级和通用型场景
大家常常忽略的是,
gpt-oss-120b适用于需要高推理能力的生产级和通用型场景
XM外汇认为:
在核心推理基准测试中,120B模型的表现与OpenAI o4-mini相当,并且能在单张80GB显存的GPU上高效运行(如H100)。
-
gpt-oss-20b适用于低延迟、本地或专业化场景
令人惊讶的是,
gpt-oss-20b适用于低延迟、本地或专业化场景
与其相反的是,
在常用基准测试中,20B模型的表现与OpenAI o3-mini类似,并且能在仅有16GB显存的边缘设备上运行。
概括一下,
除此之外,两款模型在系统执行、少样本函数调用、CoT推理以及HealthBench评测中也表现强劲,甚至比OpenAI o1和GPT-4o等专有模型还要更强。
其他亮点如下:
据业内人士透露,
-
宽松的Apache 2.0许可证:可自由用于构建,无copyleft限制或专利风险——是实验、定制和商业化部署的理想勾选。
-
可配置的推理投入:可根据使用者的具体用例和延迟需求,轻松调整推理投入(低、中、高)。
XM外汇消息:
-
完整的思维链:可完整访问模型的推理过程,从而简化调试并提升输出结果的可信度。
-
接受微调:接受参数级微调,可根据您的特定用例对模型进行完全定制。
XM外汇用户评价:
-
智能体能力:利用模型原生的函数调用、网页浏览、Python代码执行和结构化输出等能力。
反过来看,
-
原生MXFP4量化:在训练时,模型的混合专家(MoE)层便采用了原生的MXFP4精度,使得gpt-oss-120b在单张H100 GPU上即可运行,而gpt-oss-20b仅需16GB内存。
宽松的Apache 2.0许可证:可自由用于构建,无copyleft限制或专利风险——是实验、定制和商业化部署的理想勾选。
可配置的推理投入:可根据使用者的具体用例和延迟需求,轻松调整推理投入(低、中、高)。
综上所述,
完整的思维链:可完整访问模型的推理过程,从而简化调试并提升输出结果的可信度。
接受微调:接受参数级微调,可根据您的特定用例对模型进行完全定制。
与其相反的是,
智能体能力:利用模型原生的函数调用、网页浏览、Python代码执行和结构化输出等能力。
从某种意义上讲,
原生MXFP4量化:在训练时,模型的混合专家(MoE)层便采用了原生的MXFP4精度,使得gpt-oss-120b在单张H100 GPU上即可运行,而gpt-oss-20b仅需16GB内存。
XM外汇报导:
值得一提的是,OpenAI还特地准备了一个playground网站供大家在线体验。
简要回顾一下,
体验地址:https://gpt-oss.com/
GitHub项目:https://github.com/openai/gpt-oss
XM外汇报导:
Hugging Face(120B):https://huggingface.co/openai/gpt-oss-120b
说出来你可能不信,
Hugging Face(20B):https://huggingface.co/openai/gpt-oss-20b
有分析指出,
GPT-2以来,首次开源
可能你也遇到过,
gpt-oss系模型,是OpenAI自GPT-2以来首次开源的语言模型。
今天,OpenAI同时放出了34页技术报告,模型采用了最先进的预训练和后训练技术。
令人惊讶的是,
模型卡:https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf
预训练与模型架构
请记住,
相较于此前开源的Whisper和CLIP,gpt-oss模型在推理能力、效率以及在广泛部署环境中的实用性上更强。
每个模型都采用了Transformer架构,并融入MoE设计,减少处理输入时激活参数量。
更重要的是,
如上所述,gpt-oss-120b总参数1170亿,每token激活51亿参数,gpt-oss-20b总参数210亿,每token激活36亿参数。
此外,模型还借鉴了GPT-3设计理念,采用了交替的密集注意力和局部带状稀疏注意力模式。
容易被误解的 XM外汇平台 是,
为了提升推理和内存效率,模型还采用了分组多查询注意力机制,组大小为8,以及旋转位置编码(RoPE),原生接受128k上下文。
大家常常忽略的是,
gpt-oss模型的训练数据以「英语」为主,聚焦STEM、编程和通用知识领域。
XM外汇资讯:
OpenAI采用了o200k_harmony分词器对数据进行分词,它是OpenAI o4-mini和GPT-4o所用分词器的「超集」。
尤其值得一提的是,
今天,这款分词器同步开源。
值得注意的是,
利好开发者的是,gpt-oss两款模型与Responses API兼容,专为智能体工作流打造,在指令遵循、系统执行、推理上极其强大。
XM外汇用户评价:
比如,它能自主为需要多变推理,或是目标是极低延迟输出的任务调整推理投入。
很多人不知道,
同时完全可定制,并给予完整的思维链(CoT),以及接受结构化输出。
据相关资料显示,
据悉,gpt-oss模型整个预训练成本,低于50万美元。
大家常常忽略的是,
后训练
令人惊讶的是,
在后训练阶段,gpt-oss模型的流程与o4-mini相似,包含了「监督微调」和「高算力强化学习」阶段。
训练过程中,团队以「OpenAI模型规范」为目标对齐,并教导模型在生成答案前,执行CoT推理和系统。
通过采用与专有o系推理模型的相同技术,让gpt-oss在后训练中展现出卓越能力。
大家常常忽略的是,
与API中的OpenAI o系列推理模型相似,这两款开源模型接受三种推理投入——低、中、高。
开发者只需在系统提示词中加入一句话,即可在延迟与性能间灵活切换。
OpenAI官方放出的一个demo中,惊艳展示了gpt-oss如何一步步执行系统,通过CoT推理构建一个视频游戏。
开源小模型,比肩旗舰o3/o4-mini
概括一下,
在多个基准测试中,gpt-oss-120b堪比旗舰级o系模型的性能。
据业内人士透露,
具体来说,在编程竞赛(Codeforces)、通用疑问处理(MMLU和HLE)以及系统调用(TauBench)方面,它直接超越了o3-mini,达到甚至超越了o4-mini的水平。
需要注意的是,
此外,在健康相关查询(HealthBench)、数学竞赛(AIME 2024 & 2025)基准中,它的表现甚至优于o4-mini。
值得注意的是,
尽管gpt-oss-20b规模较小,但在相同的评估中,其表现与o3-mini持平或更优,甚至在AIME、健康领域基准上的表现超越了o3-mini。
XM外汇资讯:
在AIME数学测试中,gpt-oss-120b和gpt-oss-20b随着推理token的增加,准确率折线逐渐逼近。
简要回顾一下,
在博士级知识问答基准中,gpt-oss-120b的性能始终领先于gpt-oss-20b。
XM外汇资讯:
此外,OpenAI近期研究表明,未经直接监督训练的CoT有助于发现模型潜在不当行为。
XM外汇报导:
这一观点也得到了业内其他同行的认同。
来自XM外汇官网:
同样,遵循o1-preview的设计原则,研究团队并未对gpt-oss模型CoT直接监督,让模型更加透明。
通常情况下,
OpenAI,Open AI了
gpt-oss-120b和gpt-oss-20b的开源,标志着OpenAI终于在开源模型上,迈出了关键一步。
综上所述,
在同等规模下,它们在推理性能上,可与o3-mini、o4-mini一较高下,甚至是领先。
大家常常忽略的是,
OpenAI开源模型为所有开发者,给予了强大的系统,补充了托管模型的生态,加速前沿研究、促进创新。
其实,
更关键的是,模型开源降低了一些群体,比如新兴市场、缺少算力小企业的准入门槛。
尽管如此,
一个健康的开放模型生态系统,是让AI普及并惠及所有人的一个关键方面。
对于这次的开源,奥特曼骄傲地表示:gpt-oss是OpenAI「数十亿美元」研究成果的结晶,是全世界最出色、最实用的开放模型!
必须指出的是,
还等什么?赶快下载下来享用吧!
参考资料:
https://openai.com/index/introducing-gpt-oss/返回搜狐,查看更多