近年来,AI深度合成技术在网络上引发的侵权问题日益凸显,从恶搞企业家雷军到假冒张文宏医生进行带货,甚至有不法分子利用该技术制作高度逼真的视频进行诈骗。这些事件不仅侵犯了个人的肖像权和声音权,也严重扰乱了社会秩序。
据报道,一些不法分子已经盯上了AI深度合成技术的“商机”。他们通过网络购物平台,以低廉的价格提供名人音视频定制服务。记者调查发现,只需花费几十元,就能获得高度仿真的名人音视频。这种技术的普及,使得侵权变得更加容易和隐蔽。
那么,这些高度逼真的AI深度合成音视频是如何制作出来的呢?记者了解到,网络上存在大量开源的软件和工具,可以实现换声和换脸的效果。这些软件虽然有一定的技术门槛,但经过一些网络主播的教学,普通网民也能轻松掌握使用方法。一些短视频平台上的主播甚至公开教授如何使用相关软件进行换脸和换声操作。
专家指出,未经授权深度合成制作发布他人信息,已经触犯了相关法律法规。网店接单制作名人视频的行为,属于典型的侵权行为,应承担相应的法律责任。事实上,国内已经审结了首例AI生成声音人格权侵权案,法院最终认定被告的行为构成侵权。
面对AI深度合成技术的普及和侵权问题的频发,专家呼吁公众提高防范意识。从技术角度来看,可以利用AI技术来对抗和检测AI。目前已经有一些典型的AI技术能够对图片或音视频进行检测,判断其是否经过后期加工和合成。防范AI侵权问题还需要从法律、平台和公众等多个层面综合施策。
法律层面需要进一步完善相关立法,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,并加强执法力度。平台层面则需要强化相关政策法规的宣贯和执行,应用技术手段规避AI克隆侵权问题的发生,同时建立健全内容审核和侵权举报机制。公众层面也应提高自我保护意识,不轻信未经证实的音视频信息。
法律专家强调,法律并不是禁止使用AI合成技术,而是禁止不合法不合理的使用。尤其是禁止不进行任何显著标识和提示的AI合成信息的发布和传播。公众应理性看待AI技术的发展,共同维护一个健康、安全的网络环境。