GPT-5屡训屡败,Ilya宣判后曝光,训练耗时数月,数据需人工重建

GPT-5屡训屡败,Ilya宣判后曝光,训练耗时数月,数据需人工重建

乐祥轩 2024-12-24 未命名 274 次浏览 0个评论

明敏·克雷西 发自 凹非寺

量子位 | 公众号 QbitAI

近日,OpenAI连续12场发布会刚刚结束,但大家最为期待的GPT-5/4.5的影子都没有出现。随后,华尔街日报爆料称,GPT-5的预训练之路走得颇为坎坷。

据透露,GPT-5已经完成了至少2轮训练,每次训练都长达数月之久,但每次训练后都会遇到新的问题。OpenAI正在专门雇人编写代码、解决数学难题,为GPT-5从头创建数据,甚至使用o1合成数据,但效率仍然不够高,想要满足GPT-5的预训练需求显得尤为困难。

市场估算,仅一次长达6个月的训练就需要花费5亿美金。GPT-5两次训练进展都不顺,背后的成本自然也是个天文数字。

Ilya前不久在NeurIPS 2024上宣判的预训练即将终结的言论,似乎再次得到了论证。同时,这也与The Information此前爆料的OpenAI正在尝试调整战略的消息相呼应,比如o1、o3系列的推出。

目前,OpenAI对最新爆料尚无回应。但GPT-5究竟是OpenAI藏着不发,还是不能发?答案似乎更确定了一点。

巨量数据算力堆不好GPT-5的预训练

在华尔街日报的爆料中,OpenAI对GPT-5寄予厚望。它能够进行科学探索发现,并完成例行的人类任务,比如预约、订航班。而且希望它能够犯更少的错误,或者能够承认错误存在,也就是减少幻觉。

这与之前透露出的信息相呼应。OpenAI前CTO Mira曾将GPT-5的智能水平比作博士生。这意味着GPT-5能够在某些特定领域取得高水平成绩,能像研究生、博士那样可以深刻理解、推理,并具备专业知识。

今年10月,OpenAI最新筹集到的66亿美元融资,估值飙升到1570亿美元。投资者的再一次加码,也被认为是因为相信GPT-5将能完成重大飞跃。

但是GPT-5的发布一直悬而未决。奥特曼此前表示,GPT-5不会有明确的发布时间,等什么时候准备好了,就什么时候发。这个时间可能是2025,也可能是2026。

如今回溯来看,GPT-5的推出一直都坎坷不断。在2023年,OpenAI被曝光放弃了一个代号为Arrakis的模型。放弃原因是该模型不能实现在保持性能的同时减少对计算资源的需求,没有达到预期的训练效率。

这其实反向证明,如果想要训练规模更大规模的模型,还是需要更庞大的计算资源、更长的时间。从设定来看,GPT-5显然会是个“巨无霸”。

GPT-5的开发启动于GPT-4发布时。至今已经超过18个月了。它在内部的代号是猎户座Orion。按照原本计划,微软是想在2024年年中看到GPT-5的。

华尔街日报披露,GPT-5的大规模训练至少进行了2轮。每次都需要几个月,每次也都遇到了新问题。最好的情况下,Orion比OpenAI目前的产品表现都要好。但与所消耗的成本相比,这种提升并不明显。

另一方面,想要更好的模型,就需要更多的数据。公共资源的数据消耗殆尽,OpenAI决定雇人从头构建数据。据爆料,它专门找了一些软件工程师、数学家来写代码、解数学题,供GPT-5学习。同时OpenAI也和一些物理学家合作,让GPT-5学习科学家如何理解领域内的问题。但问题就是,这样太慢了。

AI合成数据的路子OpenAI也走。据说GPT-5就使用了o1合成的数据。这种范式可能已经被论证。隔壁Anthropic也被爆料使用AI合成数据训练模型。

以上,大概就是GPT-5最新相关信息。

不过话说回来,最近谁还在乎GPT-5呢?毕竟OpenAI凭借o1、o3系列开启了推理Scaling Law。刚刚发布的o3在ARC-AGI上刷新成绩。最新结果报告显示,在400项公共任务上,o3的最好成绩已经达到91.5%。在核心机制上,o3也给出新启发。它通过LLM在token空间内搜索和执行,实现了在测试时内的知识重组。

o3屠榜ARC-AGI测试,离AGI还有多远?

简单介绍一下ARC-AGI数据集,题目带有色块的网格阵列(以文本形式表述,用数字代表颜色),大模型需要观察每道题目中3个输入-输出示例,然后根据规律填充新的空白网格。

这几个示例比较简单,但实际面临的问题可能是这样的:

ARC-AGI测试集一共包含400道公开试题和100个私有问题。在公开问题中,o3高效率版的准确率为82.8%,消耗了1.11亿Token,平均每个任务成本为17美元。低效率版本(计算量是高效版的172倍),准确率高达91.5%,不过消耗的Token数也达到了惊人的95亿。

另外OpenAI还做了一个专门针对ARC-AGI的版本,使用了75%的公开数据集进行了训练。这个版本拿到私有测试集上测试,结果地计算量模式取得了76%的准确率,高计算量模式则为88%。并且,低计算量版本的成本在ARC-AGI-Pub的规则范围内(<$10k),成为了公共排行榜上的第一名。

88%的高计算量版本则过于昂贵,但仍然表明新任务的性能确实随着计算量的增加而提高。在此之前,GPT-3的准确率是零,GPT-4o为5%,o1最好也刚刚超过30%。

ARC挑战的发起者之一、前谷歌资深工程师、Keras之父François Chollet认为,o3能够适应以前从未遇到过的任务,可以说在ARC-AGI领域接近人类水平。当然成本也十分昂贵,即使是低计算量模式,每个任务也需要17-20美元,而发起方雇佣真人解决此类问题的成本,平均到每个问题只有5美元。

但抛开成本问题,Chollet指出,o3对GPT系列的改进证明了架构的重要性,认为无法在GPT-4上通过投入更多计算来获得这样的成绩。所以,通过ARC-AGI测试,意味着o3实现AGI了吗?Chollet认为并不是。

通过测试发现,o3在一些非常简单的任务上仍然失败,这表明其与人类智能存在根本差异。另外,ARC-AGI的下一代ARC-AGI-2也即将推出,早期测试表明其将对o3构成重大挑战,即使在高计算量模式下,其得分也可能会降低到30%以下(而聪明人仍然能够得分超过95%)。

但无论是否达到AGI,o3能够实现的成绩都是前所未有的,甚至有人认为,针对ARC这样的任务而言,人类的优势其实是在于视觉推理,如果改成像模型看到的那样用文本形式描述图形,那人类做的不一定会比AI好。

One More Thing

作为12天发布的一部分,OpenAI在最后一天发布o3的同时,也发了一篇关于安全问题的论文。

论文引入了一种名为慎重对齐的对齐方式,直接向推理模型传授人工编写、可解释的安全规范,并训练他们在回答之前对这些规范进行明确的推理。

结果,训练出的模型不需要人工标记的CoT或答案,就可以高度精确地遵守OpenAI的安全政策。

OpenAI发现,o1在一系列内部和外部安全基准方面显著优于GPT-4o等其他最先进模型,并且在许多具有挑战性的(安全)数据集上的性能达到饱和。这一发现,揭示了推理将成为提高模型安全性的一条新途径。

转载请注明来自长春市晟峰源景观工程有限公司,本文标题:《GPT-5屡训屡败,Ilya宣判后曝光,训练耗时数月,数据需人工重建》

百度分享代码,如果开启HTTPS请参考李洋个人博客
每一天,每一秒,你所做的决定都会改变你的人生!
Top