随着人工智能(AI)达到当前大型语言模型的极限,OpenAI等公司正在探索模仿人类思维过程的新训练技术。这些方法已被纳入OpenAI最新的o1模型中,预计将重新定义AI格局,并影响从能源到芯片类型等资源的需求。
AI科学家、研究人员和投资者已经发现,通过增加更多数据和计算能力来扩展AI模型的传统方法已经达到了瓶颈。
Safe Superintelligence (SSI)联合创始人、前OpenAI高管Ilya Sutskever承认需要转变策略,强调"扩展正确的东西比以往任何时候都更重要。"
研究人员现在正专注于"测试时计算",这是一种在推理阶段增强AI模型的技术。这种方法允许AI模型通过生成和评估多种可能性,然后选择最合适的解决方案,从而更有效地处理复杂任务。
OpenAI的研究员Noam Brown强调了这种方法的效率,他表示允许机器人"思考"20秒可以匹配10万倍规模扩大所带来的性能提升。
OpenAI的o1模型(之前被称为Q*和Strawberry)利用了这种创新技术,使其能够通过类似人类的多步推理来解决问题。该模型还受益于博士和行业专家提供的精选数据和反馈。
其他AI实验室,包括Anthropic、xAI和NASDAQ:GOOGL DeepMind,也在开发这种技术的自己版本,旨在增强他们的AI能力。
向测试时计算和更高效的推理技术的转变可能会影响AI硬件的竞争格局。作为领先的AI芯片供应商,Nvidia的产品需求旺盛,其CEO Jensen Huang讨论了推理技术的重要性以及他们最新AI芯片Blackwell的强劲需求。
这种从大规模预训练集群向推理云的转变可能会重塑市场,Sequoia Capital的Sonya Huang指出了向分布式、基于云的服务器进行推理的潜在转变。
随着AI行业的发展,像OpenAI这样的公司通过不断创新并保持领先于同行几步,有望保持竞争优势。
路透社对本文有所贡献。
本文由人工智能协助翻译。更多信息,请参见我们的使用条款。