xAI利用员工面部数据训练Grok引争议
近日,据美国《商业内幕》揭露,埃隆·马斯克旗下的xAI公司开展了一项内部项目,该项目要求员工录制自己的面部表情,以此训练AI模型Grok,使其更好地理解人类的情绪和表情。这一举措引发了广泛争议和员工的深切担忧。
据悉,今年4月,xAI启动了一个名为“Skippy”的项目,超过200名员工被邀请参与录制视频,以协助训练AI解读人类情绪。然而,随着项目的深入,越来越多的员工开始对这一做法表示不安。
根据《商业内幕》获得的内部文件和Slack聊天记录显示,员工们对于自己的肖像可能被滥用感到担忧,部分员工甚至拒绝参与该项目。一名员工在会议上直言:“我主要担心,如果公司能使用我的肖像并生成衍生形象,我的脸会不会被用来说出我从未说过的话?”
该项目要求AI训练人员与同事进行15至30分钟的对话,并录制视频。在这些视频中,员工们需要做出各种面部表情,以帮助AI模型识别和分析面部动作。据悉,这些对话内容涵盖了广泛的话题,从日常习惯到复杂的人际关系问题。
xAI方面表示,该项目旨在提升Grok的面部识别和理解能力,从而使其在与用户的交互中更加自然和智能。然而,员工们对于这些数据的使用范围和安全性提出了质疑。尽管公司承诺这些视频仅用于训练目的,并且不会分发到公司外部,但员工们仍然担心自己的隐私和数据安全。
在xAI发布的两个虚拟形象Rudi和Ani中,这些训练数据是否发挥了作用尚不清楚。这两个虚拟形象在发布后迅速引发了争议,因为它们不仅能够回答问题和执行指令,还能够做出逼真的手势和面部表情,甚至在某些情况下展示出不适宜的行为。
据报道,女性虚拟形象Ani曾与用户进行过露骨的性对话,并且可以被引导脱掉衣服。而另一个虚拟形象Rudi则是一只红熊猫,它可以被引导发表暴力威胁,包括炸毁银行和杀害亿万富翁等言论。这些行为引发了公众对于xAI技术伦理和道德边界的质疑。
xAI还推出了一项新功能,允许用户与Grok进行视频聊天。这一功能的推出进一步加剧了员工们对于数据安全和隐私的担忧。尽管公司表示将采取严格的安全措施来保护用户数据,但员工们仍然对于自己的面部数据可能被滥用感到不安。
面对员工的担忧和公众的质疑,xAI方面尚未就此事发表正式评论。然而,这一事件已经引发了广泛的社会关注和讨论,人们对于技术伦理和隐私保护的重视程度再次被提升到了新的高度。