AI换脸诈骗案:3人团伙激活368张电话卡,致损600万!
时间:2025-09-13 访问量:28 作者:广东豪航律师事务所科技的另一面是阴影,AI换脸技术正成为诈骗分子的新工具,法律之网正在收紧。
近年来,利用AI换脸技术实施的诈骗案件呈现高发态势。2025年湖北南漳县查办的一起典型案件中,3人犯罪团伙通过AI合成人脸动态视频,骗过电信运营商的人脸核验系统,非法激活电话卡368张,造成群众财产损失超过600万元。
该案揭示了一条“技术+物流”的新型犯罪产业链:技术人员利用网络黑市获取的公民身份证照片制作动态视频;物流组通过快递中途改址或专人转寄等方式“洗白”运输痕迹;中间商则将激活的电话卡以每张450-550元的价格卖给卡商,最终流入诈骗团伙手中。
一、犯罪手段与技术特征
AI换脸技术又称人脸深度伪造技术,是一种基于人工智能深度学习和计算机视觉的前沿技术应用,具有高仿真性、高效自动化、数据依赖性、可扩展性、即时性、大众化等特征。
该技术能够精准地进行面部特征转移,捕捉并复现面部细节,如表情、光照与肌肉运动等,使得最终合成结果与真实人脸极为相似,通常肉眼难以分辨。
在此类诈骗案件中,犯罪分子主要利用AI换脸技术实施以下行为:未经授权采集、处理人脸特征数据;滥用换脸技术冲击知识产权保护机制;利用深度合成技术伪造身份认证信息、传播虚假舆情或实施非接触式诈骗。
南漳县案件中,犯罪分子使用AI换脸工具制成包含眨眼、张嘴等活体动作的动态视频,辅以无人直播插件骗过电信运营商人脸核验系统,非法激活电话卡。
二、法律责任认定标准
根据我国现行法律规定,利用AI换脸技术实施诈骗行为可能面临多重法律责任:
民事责任:未经他人同意,擅自将他人的肖像用于视频、图片或其他形式的传播,将构成对他人肖像权的侵犯。违规使用者可能侵犯隐私权、肖像权、著作权、名誉权等,需承担相应的民事赔偿责任。
行政责任:违法滥用AI换脸技术可能面临多方面行政处罚。如未经授权采集、使用或泄露人脸信息,违反了个人信息保护法中关于敏感个人信息保护的相关规定;未对换脸内容进行显著标识或制作、发布、传播虚假信息,违反了关于网络信息管理的相关要求,可能面临警告、罚款、责令停产停业等行政处罚。
刑事责任:根据2025年5月最高法明确的规定,利用AI换脸技术实施诈骗的,按诈骗罪从重处罚。涉案金额超5万元或受害人超10人即升格量刑。
此外,根据不同犯罪情节,还可能构成侵犯公民个人信息罪、制作、传播淫秽物品罪、敲诈勒索罪等。
三、风险防范与合规建议
为有效防范AI换脸技术带来的风险,个人和企业应当采取以下措施:
个人防范方面:要保护好个人身份信息,切勿随意上传手持身份证照片或视频;定期通过运营商官方渠道查询自己名下的电话卡,若发现信息被冒用或遭遇可疑诈骗,要及时保留证据并报警。
进行身份验证时,可要求对方做一个连贯的转头动作,或者用手掌完全遮住脸再快速移开。目前的AI技术在模拟这些复杂的面部遮挡和光影变化时,容易出现卡顿、模糊或扭曲。
仔细听语音细节。AI生成的语音有时会缺乏自然的呼吸停顿、情感起伏,或者带有轻微的机械感、背景杂音异常。
企业合规方面:AI服务提供者应履行规定的安全评估、备案、标识等义务。根据《互联网信息服务深度合成管理规定》,要求深度合成服务提供者提供深度合成服务,可能导致公众混淆或者误认的,必须在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
平台若是对平台使用者的侵权行为不予恰当处理,则可能承担连带责任。平台具有一定的审查、监督职责,在被告知或发现此类违法行为后,应当积极响应权利人的请求,及时撤销、下架相关侵权图片、视频。
下一篇:取保候审的条件是什么?


19120691514
4000520817
