关注AI技术应用的法律边界
与法同行丨AI换脸,能“想换就换”吗?


点击播报本文,约
近年来,随着人工智能技术的不断进步,AI合成技术逐渐兴起。与此同时,对肖像权、个人信息权益的侵害问题却不容忽视。滥用AI合成技术可能面临哪些法律风险?如何规范人工智能技术及应用?人民网采访了北京互联网法院副院长孙铭溪进行解答。
未经授权对含原告肖像视频AI换脸 法院判定侵权
近日,北京互联网法院发布了一起未经授权对包含他人肖像的视频进行AI换脸的案件。原告廖某是一名古风短视频博主,被告某科技文化有限公司在未经其授权同意的情况下,使用原告出镜的系列视频制作换脸模板,并上传至涉案软件中,提供给用户付费以此牟利。原告认为被告的行为侵犯其肖像权与个人信息权益,要求被告书面赔礼道歉、并赔偿原告经济损失与精神损失。
法院认为,本案中,被告虽然使用原告的视频制作视频模板,但并未利用原告的肖像,而是通过技术手段将原告面部特征替换,模板中所保留的妆容、发型、服饰、灯光、镜头切换等要素并非与特定自然人不可分割,一般公众通过替换后的视频识别的主体为案外人而非本案原告。同时,被告将视频模板提供给用户使用的行为并未丑化、污损、伪造原告肖像。因此,被告的行为不构成对原告肖像权的侵害。
但是,被告收集了包含原告人脸信息的出镜视频,将该视频中的原告面部替换成自己提供的照片中面部,该合成过程需要将新的静态图片中的特征与原视频部分面部特征、表情等通过算法进行融合。上述过程,涉及对原告个人信息的收集、使用、分析等,属于对原告个人信息的处理。被告处理该信息未经过原告同意,因此构成对原告个人信息权益的侵害。
法院判决,被告向原告书面致歉,赔偿原告精神损失及精神抚慰金。该判决已生效。
“无底线”使用AI合成技术 将承担哪些法律责任?
AI合成技术的发展给日常的生活和工作带来了便利,但使用相关技术应遵守法律法规规定。孙铭溪介绍,以上述案件为例,软件运营主体未经自然人知情同意,利用AI合成技术将收集的包含自然人人脸信息的出镜视频用于制作换脸模板视频进行商业化利用,其行为侵害了自然人的个人信息权益。
而实践中,AI合成技术的滥用问题屡见不鲜,其中不乏利用AI换脸、合成声音等进行恶搞、制作虚假信息的行为。孙铭溪介绍,从责任类型维度看,这些行为可能涉及到民事责任、行政责任乃至刑事责任。
一是民事侵权的法律责任。未经授权使用他人肖像、声音合成内容,直接侵害人格权,行为人需承担停止侵害、赔礼道歉及赔偿损失等民事责任。
二是行政违法的法律责任。未对合成内容进行显著标识触犯网络信息管理规定,将受到警告、罚款乃至停业整顿等行政处罚。
三是刑事犯罪的法律责任。非法获取、泄露生物识别信息可构成侵犯公民个人信息罪;利用伪造视频实施诈骗、敲诈勒索则分别构成相应财产犯罪;制作传播淫秽合成内容还可能涉嫌制作、传播淫秽物品罪。
寻找规范AI合成技术“最优解” 多方发力不可缺
面对滥用AI合成技术问题,如何寻找规范技术应用的 “最优解”?孙铭溪认为,应推动有关部门完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引,明确开发者、服务提供者、使用者等各类主体的权利、义务与责任边界。
孙铭溪建议,人工智能技术开发者应当坚持社会主义核心价值观,严格遵守技术伦理规范,确保数据和基础模型来源合法。此外,人工智能服务提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务,落实生成内容标识义务。网络用户也要提升法律意识与数字素养,明确自身行为边界,依法维护自身合法权益。
“网络用户利用人工智能进行创作时及时留存、记录创作过程,如发生个人信息被泄露、肖像及声音未经许可被人工智能处理、人工智能生成内容未经许可被他人使用等情形,应立即保存好相关证据,包括但不限于网页网址、截图、录屏、录音、相关聊天记录等,为后续维权提供证据支持。”孙铭溪表示。
分享让更多人看到
- 评论
- 关注