AI鉴伪技术开始反制AI“换脸”诈骗
发布时间:2025-01-24 21:44:40  来源:科技日报  作者:admin  点击:1117次

当前,基于生成式人工智能(AIGC)伪造技术的电信网络诈骗手段不断升级,呈现范围扩大化、套路多样化、形式隐蔽化等特点,危害社会安全。科研人员正在开发更先进的人工智能工具和技术,识别并阻止人工智能滥用行为。

“不管是以往的PS篡改识别,还是如今的AIGC鉴伪,都属于人工智能鉴伪的被动检测方式。”在第十三届中国创新创业大赛创新挑战赛(浙江)暨2024年浙江省技术需求“揭榜挂帅”大赛总决赛上,杭州电子科技大学网络空间安全学院副教授、浙江—法国数字媒体取证联合实验室负责人乔通展示了其团队研发的“面向电诈场景的音视频鉴伪溯源技术”,这种技术变“被动检测”为“主动防御”,有望为人工智能鉴伪提供新思路。

特殊水印实现“事前防御”

上网搜索“AI换脸”,相关应用软件和影音图像作品比比皆是。同时,深度人脸伪造带来的安全威胁也逐渐显现。

此前,香港警方曾披露一起人工智能“多人换脸”诈骗案:不法分子利用人工智能深度伪造技术,通过某跨国公司在社交平台的资料,仿造多位高层管理人员的形象和声音,在视频会议中进行冒充,诱骗该公司香港分公司财务职员进行转账操作,涉案金额达2亿港币。

此前,针对人脸伪造,人们往往采用“事后鉴别”的被动检测、被动取证方法,但这种方法难以及时、有效遏制伪造人脸图像的传播。主动防御方法由于“事前防御”的属性,得到越来越多学者关注。

然而,目前大多数主动防御方法只能针对单一或特定的几种伪造模型进行防御,面对日益多样化和不断升级的人脸伪造技术,会显得力不从心。

为此,乔通团队开发出了一种可扩展通用对抗性(SUA)水印,将其嵌入在需要保护的视频、图像或语音素材中。当素材被用于人工智能加工,就会触发SUA水印的“引信”,直接破坏生成后的内容。

这一技术路线此前已有所应用,但局限性较大。乔通介绍,以往单个水印只能针对一种模型,一段素材可能要嵌入多个水印才能起效,而SUA水印则无须基于所有伪造模型进行重新训练。大量实验证明,SUA水印不仅能节省算力,还能有效扩展主动防御范围,显著提高主动防御效果,能大大提高鉴伪效率。

“火眼金睛”进行人脸识别

2024年9月,杭州公安通报了一起利用人工智能技术侵犯公民个人信息案件:有不法分子使用人工智能换脸大模型突破头部平台人脸认证,窃取用户隐私信息。

“登录银行或者其他App时,用户会被要求做摇头、眨眼的动作,即进行人脸活体检测。”乔通说,不法分子通过黑色产业链,可以获取目标对象的人脸照片、音频素材,伪造多模态媒体素材,然后实施诈骗。

为保证平台安全,乔通建议,进行人脸识别前应再加一道无形的核验环节。据了解,针对目前市场上主流的人工智能伪造工具,乔通团队开发的人工智能鉴伪系统,能秒速级识别出人工智能图像及视频,并给出相应分析报告,准确率95%以上。

“相比大型银行,地方中小银行对防伪技术的投入相对不足。”乔通说,团队目前在与地方公安、小型金融机构等进行合作,研发定制化技术,在活体检测环节为相关平台装上“火眼金睛”,判定屏幕那端“是人还是妖”。

在乔通看来,人工智能鉴伪和深度伪造是此消彼长的关系,需要更多机构、企业参与,推动人工智能鉴伪技术突破和应用落地,共同搭建人工智能时代的网络安全防火墙。“我们团队正积极对接企业,探索商业化模式。”乔通说,“要筑牢人工智能安全底座,让反诈举措更加柔性。”