本栏推荐

相关阅读

快讯信息

您现在的位置是:主页 > 科技圈快讯 > 最新 >

微软论文意外泄露,揭示GPT核心秘密:4o-mini仅8B,o1仅300B!

发布时间:2025年01月02日 11:04:17 最新 人已围观

简介微软在最新的论文中意外泄露了OpenAI的机密信息,具体提到o1-preview约有300亿参数,GPT-4o约有200亿参数,而GPT-4o-mini则为8亿参数。英伟达计划在2024年初发布的B200中确认,GPT-4的规格为1....

微软又曝出OpenAI的相关数据泄露?在一项论文中显而易见地提到:

o1-preview大约300B参数,GPT-4o大约200B,GPT-4o-mini约8B……?

英伟达在2024年初推出B200时,明确表示GPT-4的参数为1.8T MoE,也就是1800B,而微软提供的数字则更精确,显示为1.76T

此外,论文中也指出了OpenAI的mini系列以及Claude3.5 Sonnet的参数,具体总结如下:

- o1-preview大约300B;o1-mini大约100B

- GPT-4o约200B;GPT-4o-mini约8B

- Claude 3.5 Sonnet 2024-10-22版本约175B

- 微软自己的Phi-3-7B,这个明确就是7B

虽然论文末尾有免责声明:

一些数据尚未正式发布,以上大部分数字仅为估算。

但是,依然有不少人对此表示怀疑。

例如,为什么唯独没有披露谷歌Gemini模型的参数估计?或许他们对发布数据的准确性相当自信。

也有人推测,大部分模型都在英伟达GPU上运行,因此可以通过token生成速度来进行估算。

而谷歌的模型则采用TPU运行,这就使得估算变得困难。

此外,微软这样的事情并非第一次。

在2023年10月,微软在一篇论文中“意外”泄露了GPT-3.5-Turbo的20B参数,而后在更新版本中又将此信息删除。

那么,你觉得这是故意的还是偶然的呢?

微软论文提及的内容

其实,该论文介绍的是一个与医疗相关的基准测试——MEDEC。

该研究于12月26日发布,但由于其较为专业,可能不相关领域的读者并未关注,直到年后被相关网友挖掘出来。

研究的动机是,由于美国医疗机构的调查显示,有五分之一的患者在阅读临床记录时发现错误,而其中40%的患者认为这些错误可能会影响他们的治疗。

与此同时,大语言模型(LLMs)在医学文档处理中的应用正日益增加(如生成治疗方案)。

因此,MEDEC设定了两个任务:一是检测并识别临床记录中的错误;二是能够进行纠正。

Tags: ChatGPT  微软 

上一篇:中国高铁总长度达4.8万公里,领跑世界!

下一篇:没有了