OpenAI人工智能推理研究主管Noam Brown近日在英伟达GTC大会的小组讨论中表示,某些形式的“推理”AI模型本可以提前20年出现,如果研究人员当时“知道正确的方法和算法”的话。他指出,这个研究方向之所以被忽视,存在多种原因。
Brown回忆起他在卡内基梅隆大学从事博弈AI研究的经历,包括曾击败顶级人类扑克职业选手的Pluribus。他表示,当时他帮助创建的AI的独特之处在于,它能够“推理”解决问题,而不是依赖纯粹的暴力计算。Brown提到,人类在棘手的情况下会花费大量时间思考,这或许对人工智能非常有益。
Brown也是OpenAI的AI模型o1的架构师之一。该模型采用了一种名为“测试时推理”的技术,使其在响应查询之前进行“思考”。测试时推理通过对运行中的模型应用额外的计算来驱动某种形式的“推理”。一般来说,所谓的推理模型比传统模型更准确、更可靠,尤其是在数学和科学等领域。
在小组讨论中,当被问及鉴于高校普遍缺乏计算资源,学术界是否还有可能进行像OpenAI这样规模的实验时,Brown承认,近年来随着模型对计算资源的需求越来越高,这变得更加困难。但他同时指出,学术界可以通过探索对计算要求较低的领域,例如模型架构设计,来发挥重要作用。
Brown强调,前沿实验室和学术界之间存在合作的机会。他表示,前沿实验室会关注学术出版物,认真评估其提出的论点是否具有足够的说服力,即如果进一步扩大规模,相关研究是否会非常有效。如果论文提出了令人信服的论点,这些实验室将会对此进行深入研究。
此外,Brown还特别提到了AI基准测试领域,认为学术界可以在其中发挥重要影响。他批评当前AI基准测试的现状“非常糟糕”,指出这些基准测试往往考察的是深奥的知识,其得分与大多数人关心的任务的熟练程度相关性较差,从而导致了对模型能力和改进的广泛误解。Brown认为,改进AI基准测试不需要大量的计算资源。
值得注意的是,在本次讨论中,Brown最初的言论指的是他在加入OpenAI之前从事博弈AI的研究工作,例如Pluribus,而不是像o1这样的推理模型。
划重点:
- 🤔 OpenAI的Noam Brown认为,如果更早发现正确方法,“推理”AI本可提前20年出现,此前的研究方向存在被忽视的情况。
- 🤝 Brown强调学术界和前沿AI实验室之间存在合作机会,学术界可在模型架构设计和AI基准测试等低计算需求领域发挥重要作用。
- 📈 采用“测试时推理”等技术的推理模型比传统模型更准确可靠,尤其在数学和科学领域。
评论 (0)