天脉资讯
财经视野 科技数码 探索发现 教育学习 娱乐红人 时尚秘籍 文化艺术 游戏天地 星座解读 宠物小乖 营养美食 大燕公益 商业快讯

OpenAI模型安全测试时间骤减,AI竞赛加速背后隐忧浮现

2025-04-12来源:天脉网编辑:瑞雪

近期,金融时报的一篇报道揭示了OpenAI在大型语言模型(LLM)安全测试方面的重大变化。据报道,OpenAI最新的大型语言模型o3的安全测试时间被大幅缩短,从以往的数月减少到了仅几天。

据多位知情人士透露,这一变化背后的主要驱动力是市场竞争。OpenAI正面临着来自meta、Google及xAI等科技巨头的激烈竞争,为了保持市场领先地位,公司不得不加速新模型的推出。因此,o3模型的安全测试时间被大幅压缩,留给员工和第三方测试团队的时间仅有数天,与之前GPT-4长达六个月的测试期形成了鲜明对比。

一位曾参与GPT-4测试的人士表示,过去的安全测试更为彻底,某些潜在的危险能力在测试两个月后才被发现。然而,现在的竞争压力迫使OpenAI追求速度,从而可能忽视了潜在的风险。这一变化引发了人们对新模型安全性的担忧。

在全球范围内,AI安全测试标准尚未统一。然而,欧盟的《AI法案》预计将于今年晚些时候生效,该法案要求企业对其最强大的模型进行安全测试。尽管如此,由于缺乏强制性的监管措施,企业可能不会主动披露模型的潜在危险能力。AI Futures Project的负责人Daniel Kokotajlo指出,竞争压力进一步加剧了这一风险。

OpenAI曾承诺会构建定制模型版本,以测试其潜在滥用风险,例如模型是否能协助制造更具传染性的生物病毒等。然而,这种测试需要投入大量资源,包括聘请外部专家、创建特定数据集并进行微调。据报道,OpenAI仅对较旧的模型进行了有限的微调,而最新模型如o1和o3-mini则未进行全面测试。

安全测试通常基于早期的检查点,而非最终发布的模型。这一做法引发了质疑,因为发布未经充分测试的更新模型可能会带来安全隐患。一位前OpenAI技术人员表示,这种做法是不良的。然而,OpenAI辩称,其检查点与最终模型基本一致,并通过自动化测试提高了效率,确保了安全性。

对于OpenAI的这一变化,外界反应不一。一些人认为,这是市场竞争的必然结果,为了保持领先地位,企业不得不做出妥协。然而,另一些人则担忧,这种妥协可能会牺牲模型的安全性,给社会带来潜在的风险。因此,如何在保持竞争力的同时确保AI模型的安全性,成为了业界亟待解决的问题。