警惕AI换脸诈骗!单张照片能实时视频换脸:肉眼所见不一定为真

来源:互联网 更新时间2024-08-19 10:58:56 点击数:

据央视新闻报道,湖北黄石最近破获的一起案件中,犯罪团伙利用AI换脸技术解锁并倒卖社交账号,非法获利。受害人王先生在加入一个炒股直播间后,被诱导投资并最终遭遇提现难题,对方账号因涉嫌诈骗被冻结,资金无法取出。

警方在调查中发现,涉案社交账号被解冻并重新登录,推测有团伙帮助解封。经过侦查,黄石警方在河南抓获三名嫌疑人,并查获大量电子设备和电话卡。嫌疑人高某与许某自2023年9月底开始在网上贩卖和帮助他人解锁社交账号,利用AI换脸技术制作的动态视频,解锁被平台冻结的账号,每解锁一个账号收费15至30元,共解锁2107个账号,非法获利40万元。

64b6550ec922a.jpg

工业和信息化部反诈专班专家指出,不法分子通过公开渠道获取受害人的肖像或视频,利用AI技术进行学习模仿,实现以假乱真的效果。AI换脸技术不仅能让静态照片上的人像活化,还能实现实时视频通信状态下的换脸,甚至仿冒声音。

目前,有关部门正在开发AI换脸诈骗检测与预警技术,与手机终端企业合作推出风险提醒功能,保护用户数据不泄露,并在用户授权后提供预警提醒。

根据《互联网信息服务深度合成管理规定》,深度合成服务提供者需对合成内容添加水印,提示公众内容由AI生成或合成,同时便于追溯来源。专家提醒,要加强个人隐私保护,不轻易提供生物信息,不随意公开分享动图、视频,尤其涉及转账汇款要求时,要通过多种途径核实确认,避免上当受骗。


Tag: AI视频
首页 AI对话 资讯 我的