自从OpenAI推出最新的高级推理模型o1,已逝去了10天左右的时间。
模型刚推出的时候,很多率先使用的用户会认为这个预览版模型(o1-preview)的纯文本模式和类似规划代理的生成效果略感平淡,就像我在前一篇专栏中写过的情况。
也有一些研究者试图从OpenAI介绍的内容中针对自我对弈强化学习、数据合成等做多元化的分析,以突出这个模型的特别提升之处。
在此期间,各种说法林林总总,不一而足。我则认为值得进一步分析的是随后很快出现的o1模型开源复现版,以及最新的智商测试结果。
这个开源平替版用到了Llama-3.1-Instruct模型,用户都能够选择405B、70B、8B三个开源模型版本,再设置思考步骤的限制(从1至100之间),然后就能轻松实现类似o1模型的思考过程。
实现原理很清楚,作者给Llama-3.1-Instruct开源模型增加了额外的系统提示词,共包括八个阶段,要求模型仔细阅读问题,按照思考步骤数量设置计数器,并要求模型进行自我反思,完成全部解答阶段后进行重新组织,形成最终输出答案。
客观来看,这样的解决方法比较讨巧,直接借用成熟的提示框架对开源模型的输出结果进行限定,以生成类似的思考效果,却不涉及上述的自我对弈强化学习过程。不过,这想必也不是开源复现版作者的本意。因为SambaNova作为AI推理加速服务商,更多是想展示它们在多步推理中的加速效果,而非高级推理能力。
如何更加直观体现o1模型的推理能力,有人想到了进行智商测试。美国Tracking AI负责人Maxim Lott使用了门萨智商测试(Mensa Norway)对12个主流模型进行了测试,定期更新测试结果。
在最近的测试结果中,o1模型在35道题中答对了25道,智商达到121,是所有模型中唯一一个智商超过平均值(100)的模型。其它模型的智商多数普遍在80至90左右。
但是必须看到,由于这12个被测模型中既包括o1这样的纯文本模型,也包括GPT-4o、Gemini Advanced、Claude-3 Opus等多模态模型,而35道智商测试题中又有相当部分题目是复杂图形推理题,因此测试者需要把题目和选项转成非常全面的文本描述输入给纯文本模型,这个人工转换过程或多或少会让纯文本模型在测试结果上获得一定优势。
当然,就算排除掉这一点优势因素,o1模型在智商测试中所反映出来的复杂推理能力依然处于明显的领先位置。
OpenAI的CEO Sam Altman在最近的表态中,将o1模型比喻成过去GPT系列模型的GPT-2,这似乎侧面印证了o1模型虽然表现出了显著的能力提升,但同时也存在着明显的缺点。
回顾过去,在发展GPT系列模型时,也是一直演进到GPT-3.5的阶段,才推出了ChatGPT引发了巨大关注。
展望后续的发展路线模型已经来到了OpenAI之前提出5层通用AI的第2层(推理者,Reasoner),并将继续向之后第3层至第5层的智能代理(Agent)、创新者(Innovator)和组织者(Organizer)持续攀登。
以上内容与证券之星立场无关。证券之星发布此内容的目的是传播更多详细的信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关联的内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至,我们将安排核实处理。