您现在的位置:Botrun机器人网>> Bot信息 AI技术>>正文内容

OpenAI官宣重磅开源!“开放权重模型”是什么?

Sam Altman亲自发文:GPT-2之后首次开源,开发者狂欢倒计时

划重点

1️⃣ OpenAI宣布将发布开源大模型(open-weight),这是自GPT-2后首次开源

2️⃣ 新模型主打强推理能力,Sam Altman直言“要让它变得非常、非常优秀”

3️⃣ 开发者可提前参与反馈,旧金山、欧洲、亚太线下活动即将启动

4️⃣ 安全是核心:已启动对抗性微调等专项测试,绝不发布高风险模型

OpenAI CEO Sam Altman刚刚发文扔出一枚“核弹”:“我们计划在未来几个月内发布一款强大的开源大模型”

距离ChatGPT引爆全球已过去26个月,那是Altman亲眼见证过的最疯狂的现象级传播事件之一,当时OpenAI在短短五天内就吸引到了一百万用户

而就在刚刚过去的一个小时里,OpenAI又新增了一百万用户

Altman认证“史上最疯狂传播时刻”,而这次OpenAI选择回归开源初心——这是自2019年GPT-2之后,OpenAI首次开源语言模型

为什么现在开源?

Altman“坦诚”:早想做了,但优先级一直排不上。如今时机成熟,团队认为“这件事变得重要起来”,这里必须要疯狂@DeepSeek了😁

新模型两大特点:

• 开源(open-weight)

• 强化推理能力

虽然未透露具体参数,但官方连用两个“very”强调目标:“要让它成为非常、非常优秀的模型”

开发者注意!

OpenAI已启动全球预热:

1️⃣ 旧金山首发线下活动

2️⃣ 欧洲、亚太场次接棒

3️⃣ 提前注册通道开放(文末链接)

目的是收集反馈,并让开发者提前体验原型。官方明确喊话:想看看大公司和政府如何自主部署模型。

安全牌打满

从预训练到发布,OpenAI祭出三重防护:

🔒 沿用自研的“Preparedness Framework”评估框架

🔒 重点研究开源模型特有风险(如对抗性微调)

🔒 内测+第三方专家双保险

Altman斩钉截铁:“绝不发布可能造成灾难性风险的模型”。

说人话版总结:

OpenAI这次开源,既是向开发者递橄榄枝,也是给行业喂定心丸——“开源与安全可以兼得”。至于模型到底多强?评论区聊聊你的期待!

附:官方反馈链接

https://openai.com/open-model-feedback

全文:

山姆·奥特曼 (Sam Altman)

OpenAI

26个月前 ChatGPT 刚发布时,那是我亲眼见证过的最疯狂的现象级传播事件之一,当时我们在短短五天内就吸引到了一百万用户。 而就在刚刚过去的一个小时里,我们又新增了一百万用户

长话短说: 我们很高兴将在未来几个月内发布一款具备推理能力的、强大的新型开源权重语言模型。我们希望与开发者们交流,探讨如何让这款模型发挥最大作用:https://openai.com/open-model-feedback 我们非常期待能将它打造成一个非常、非常出色的模型!

我们正计划发布自 GPT-2 以来的首个开源权重语言模型。

这件事我们已经考虑了很久,但此前有其他更优先的事项。现在我们觉得是时候(或者说,认为很重要)来做这件事了。

在发布之前,我们会像对待其他任何模型一样,依据我们的安全准备框架 (Preparedness Framework) 对该模型进行评估。并且,考虑到我们知道这款模型在发布后可能会被修改,我们还会做额外的工作。 我们还有一些决策尚未最终确定,因此我们将举办开发者活动来收集反馈,并在后续让大家试用早期原型。活动将在几周后于旧金山 (SF) 启动,随后会在欧洲和亚太地区 (APAC) 举办。如果您有兴趣参加,请通过上方链接报名。 我们很期待看到开发者们会创造出什么,以及那些倾向于自行部署运行模型的大型企业和政府机构将如何使用它。

安全是我们开发这款开源权重模型的核心关注点,贯穿从预训练到发布的整个过程。 尽管开源模型带来了独特的挑战,但我们会遵循我们的安全准备框架,并且不会发布我们认为可能构成灾难性风险的模型。 我们尤其专注于研究对抗性微调 (adversarial fine-tuning) 以及其他开源模型特有的风险。与所有模型的发布一样,在公开发布之前,我们正在进行广泛的安全测试,这包括内部测试以及与值得信赖的第三方专家合作进行的测试。


并非完全开源模型

2月18日,奥尔特曼在X平台上发起对OpenAI下一个开源项目的民意调查:是做一个虽然体积小、但仍需要GPU运行的o3-mini级别模型,还是做一个适配手机的轻量模型?

投票结果偏向前者,这也预示了这次开放模型可能是o3-mini级别模型。但从奥尔特曼发起投票时的措辞来看,不会直接是o3-mini,而是一个与o3-mini类似,但有所不同的模型。

即便是开放模型,OpenAI依旧会保留一些“秘方”——例如模型训练数据、预训练细节或者关键架构组件等。换句话说,这是一个开放权重模型,但不是一个完全开源的模型。

事实上,由于AI模型不仅包括代码,还涉及数据、参数和权重等,开源模型的定义并不像开源软件般清晰,目前尚未形成统一定义。

Linux基金会提出的模型开放性框架(MOF)把开放模型分为了三个逐步扩展的层级——第三级“开放模型”、第二级“开放工具”和第一级“开放科学”。

DeepSeek、Qwen2.5等模型只通过了MOF第三级评估,第三级“开放模型”开放范围包括模型架构、模型参数(最终参数)、模型卡、数据卡、技术报告和评估结果,距离最开放的第一级“开放科学”仍有空间。

而OpenAI将发布的开放模型是否能达到第三级,目前还不得而知。

开放权重模型意味着什么?

奥尔特曼在X上表示,“我们希望与开发者深入探讨如何最大化发挥其作用,我们很高兴能将它打造为一个非常非常优秀的模型。”

他还透露,OpenAI将在旧金山、欧洲和亚太地区举办开发者活动,以收集反馈并提供早期原型试用机会。

奥尔特曼称,很期待看到开发人员的成果,以及大公司和政府如何使用它来运行自己的模型。

这似乎表明,这次开放模型主要针对开发人员、企业和政府,而不是个人用户。

开放模型可以本地部署,在特殊应用场景中具有更大的优势。企业和政府可以在自己的服务器上运行开放模型,无需连接外网或接入云端算力,在本地处理数据,利用特定领域的数据进行训练,能够保护隐私,还可以摆脱对OpenAI平台的依赖,避免云服务带来的延迟、安全和成本问题,同时提供紧急情况下的快速响应。

而且,开放模型可控性和可审计性增强,开发者可以深入理解模型运行机制,更容易调试和调整策略。

此外,开发者可以基于自有数据对模型进行开放模型微调,开发专属的垂直领域应用,构建衍生模型,甚至将其提炼为在智能手机等智能终端上就能单机运行起来的AI模型。

英伟达也推出了个人AI超级计算机,使企业和开发者能够以相对较低的成本运行开放模型。

不过,对于普通个人用户而言,能够流畅运行开放模型的硬件成本仍然较高,云端模型依然具有更高的实用性,尤其在面对复杂任务时,云端模型在算力和易用性方面仍拥有明显优势。



感动 同情 无聊 愤怒 搞笑 难过 高兴 路过
【字体: 】【收藏】【打印文章】 【 打赏 】 【查看评论

相关文章

    没有相关内容