一家名为Core Automation的新兴AI公司近日引发行业关注。这家成立仅数月的初创企业,凭借其创始团队背景和技术路线迅速成为焦点——其核心成员包括前OpenAI研究副总裁Jerry Tworek,以及来自Anthropic、Google DeepMind等顶尖实验室的多位资深研究员。
Tworek在OpenAI任职近七年,主导了o1、o3两代推理模型的开发,并深度参与GPT-4后训练及GPT-5部署工作。今年1月离职时,他在内部信中坦言,希望探索"在OpenAI体系内难以实现的研究方向"。这种转向在几周后播客访谈中更为明确——他直言OpenAI在模型竞争中落后于Gemini 3,根源在于头部企业同时面临三重压力:追求模型性能、承担巨额GPU成本、维持用户增长,导致对高风险研究的投入意愿降低。
Core Automation的技术路线与此形成鲜明对比。公司官网声明指出,单纯扩大模型规模、数据量或采用静态部署的"现有配方"已触及瓶颈。其核心目标分为两层:技术层面探索替代Transformer的新架构与持续学习算法,组织层面构建全球自动化程度最高的AI实验室。这种双重突破的野心,体现在其首个重点项目Ceres上——该模型试图通过100倍减少训练数据量,实现运行中持续更新权重,彻底改变当前每隔数月重新训练的范式。
持续学习(continual learning)领域长期存在"灾难性遗忘"难题:模型学习新任务时容易丢失旧知识。现有解决方案依赖定期重新训练,不仅成本高昂,且每次更新都会部分牺牲先前能力。若Core Automation的技术突破成功,在机器人控制、工业自动化等需要长期适应具体环境的场景中,将显著降低训练成本与响应延迟。这种潜力使其融资计划甫一曝光便引发震动——成立数周即启动5亿至10亿美元融资,估值超50亿美元。
公司当前团队规模仅十余人,与OpenAI、DeepMind数千人的研发团队形成巨大反差。这种"小团队对抗巨头"的策略,建立在极端自动化流程之上:通过AI代理系统自动生成研究假设、编写代码、运行实验、撰写论文甚至完成同行评审。尽管学界已有类似探索,但现有成果仅能处理简单机器学习问题,距离前沿模型训练尚有差距。Core Automation宣称要突破这一界限,其官网将这套循环系统同时定义为产品逻辑与组织原则——用自动化释放人力,聚焦更具野心的研究,再通过研究成果反哺自动化能力。
这种技术路线选择并非孤例。近期涌现的多个新实验室均试图突破Scaling Law框架:Mira Murati创立的Thinking Machines Lab聚焦多模态智能体可靠性,Ilya Sutskever的Safe Superintelligence押注安全优先的超级智能,Yann LeCun的AMI Labs则主攻世界模型。尽管技术方向各异,但共同点在于:创始团队均拥有主导前沿项目的经验,融资规模与估值直接对标头部实验室,且都需在数年内证明其技术路线的不可替代性——要么推出能与GPT、Gemini竞争的模型,要么创造巨头无法复制的核心技术。
对于Core Automation而言,时间压力尤为显著。其探索的持续学习与自动化研究领域,恰是谷歌、OpenAI等巨头公开布局的方向,只是尚未取得规模化突破。资本市场对这类"技术叛逃者"展现的慷慨,本质是对前沿研究溢出效应的押注——当顶级研究员脱离大厂体系,其积累的行业认知与技术判断力,可能催生颠覆性创新。但这种信任需要快速兑现:融资材料中提及的"自复制工厂""生物机器"等远期愿景尚显遥远,近期目标已足够艰巨——在算力与人才成本持续攀升的背景下,证明小团队通过极端自动化,同样能参与AI军备竞赛。
