返回   上一版    下一版
   
 
 
网站首页 | 数字报首页 | 版面导航 
  往期回顾:    高级检索   出版日期: 2025-02-17
2025-02-17 第03版:三版 【字体】大 |默认 |

AI声音滥用亟需警惕和治理

作者: ■龙敏飞 来源:中华工商时报 字数:1073

    亲耳听到的就是真的吗?未必。网络平台上,AI声音随处可见。从“张文宏医生”推销蛋白棒视频“走红”网络,后被本人“打假”,到多位配音演员称声音被AI“偷走”,公开维权……调查发现,随着人工智能技术和语音大模型应用的发展,AI合成声音App大量出现,最快只需十几秒便可“克隆”出来。与此同时,AI声音滥用现象愈发突出,不时引发争议。
    一些短视频博主用AI模仿知名企业家声音吐槽堵车、调休、游戏等热门话题,甚至飙脏话,这引起极大关注;一些商家在带货时通过AI模仿知名明星、知名医生的声音,给消费者带来极大困扰……随着AI技术的不断发展与进步,AI“克隆声音”的能力与水平也在不断提升,短则十几秒,长则几分钟,一个逼真的“原声”就能堂而皇之地出现在大众视野。
    何以至此?利益作祟。专业人士透露,通过“克隆”名人声音制作的恶搞、猎奇视频等,在相关平台上能获得不错的播放量和点赞量,这可带来实实在在的粉丝增长、广告收益等。此外,若是通过“克隆”声音带货,那同样能吸引关注,产生直接的经济效益。“技术搭台经济唱戏”的AI“克隆声音”,蕴藏巨大的社会风险,不仅是对个人信息安全的一种侵害,也是对网络空间与市场秩序的一种破坏,这必须引起高度警惕。
    用AI“克隆”声音是否违法违规?这值得关注。从常理上来说,个人声音中包含的声纹信息具备极强的可识别性,能关联到唯一的自然人,是重要的生物识别信息。从法律上来看,个人声音属于个人信息保护法规定的敏感个人信息之一,不能被随意“克隆”。这方面,也有现实的判例:2024年4月,北京互联网法院宣判全国首例“AI声音侵权案”,法官认为,未经权利人许可,擅自使用或许可他人使用录音制品中的声音构成侵权。
    常理和法理都显而易见,但侵权行为依然时有发生,必须有更进一步的反思与作为。对相关部门来说,要进一步完善法律法规,对人工智能应用产生的造谣侵权、刑事犯罪、道德伦理等问题,要通过典型案例、司法解释等方式给予更为明确的规范指引。对技术开发者和相关平台来说,应进一步增强社会责任感,加强技术研发的伦理审查,确保技术的正向应用,如开发声音识别验证技术,以技术手段辅助鉴别真伪声音等。对全社会来说,要加强科普教育,让每一个人都自觉当网络空间健康生态的积极维护者。
    AI技术日新月异,我们既要拥抱技术进步带来的便利,也要警惕技术异化带来的冲击。声音权益保护不仅关乎个人利益,也关乎健康网络秩序的营造,只有多措并举,通过科学合理的监管和引导,才能让AI技术的进步成为推动社会进步的正能量。
 
地址:北京市东城区北河沿大街95号
邮编:100006 电话:010-56317399
技术支持:北京紫新报通科技发展有限公司
 
技术支持:北京紫新报通科技发展有限公司