21世纪经济报道见习记者 郭聪聪 北京报道
人工智能技术广泛应用于金融领域,在提高金融服务效率和质量的同时,其黑暗面也日渐显现。由人工智能技术演化而来的Deepfake(深度伪造)技术欺诈日益猖獗,集团发布的《2024人工智能安全报告》中显示,在2023年,基于AI的深度伪造欺诈暴增了3000%。在这过程中,首当其冲的就是广泛适用“人脸识别”系统的金融行业。
为提升金融信息系统的安全性,9月6日北京国家金融科技认证中心联合10多家金融机构发布的《虚假脸检测金融应用技术规范》(下称《应用规范》)正式施行。《应用规范》规定了面向金融领域应用的虚假数字人脸检测服务的技术框架、功能要求、性能要求等,并提出对应的测试评估方法,为金融机构防御虚假数字人脸攻击提供了重要参考,这是国内首个面向Deepfake进行安全检测的标准。
Deepfake正在冲击银行“人脸识别”系统
Deepfake由“Deep learning”和“fake”组成,最早出现在 2017 年。其名称最初源于一个名为“Deepfakes”的用户在Reddit社交网站上,发布了一系列名人的深度伪造视频,并声称这是一个新的合成技术。
作为一种新兴的黑产攻击手段,Deepfake能够快速学习被仿冒者的样貌及声音,十分狡猾且具迷惑性,在其背后支撑的是日益精进化的人工智能技术。在金融账户开户、账户登录、移动支付、理财保险身份鉴别等各种金融应用场景中都需要“人脸识别”的今天,Deepfake对“人脸识别”系统的攻击给金融行业带来了巨大的潜伏风险。
就以银行业为例, Deepfake就成为了攻击银行外围防火墙的工具。通常银行网上银行的登录系统往往需要个人信息、验证码、密码与人脸识别,作为最后一层保障,人脸识别系统正在面临Deepfake的冲击。
今年2月,国外某安全公司就发现了名为“GoldPickaxe”的恶意手机木马软件。不同于传统的窃取资金方式,不法分子通过该木马软件窃取手机使用者的面部肖像等生物识别数据、拦截短信等,继而伪造人脸动态视频,登录用户的银行账号进行转账、消费、修改账号密码等操作。目前,GoldPickaxe木马病毒活跃在越南和泰国,支持iOS和Android版本,十分值得警惕。
本报记者也曾对国内部分银行的手机银行展开了一次Deepfake测试。利用Deepfake技术,持卡人的肖像特征被抓取,再通过技术合成到非持卡人的面庞之上,非持卡人能够顺畅的以持卡人的面容执行“张嘴、点头、摇头”等指令,不过并未能突破银行的防御机制。但实现这一操作,仅拿到持卡人的一张照片就可做到。
国内首个金融领域“Deepfake”检测标准
信息技术管理部创新科学家张然是《应用规范》的起草者之一,在接受本报记者采访时他提到:“《应用规范》是国内金融领域首个虚假数字人脸检测标准,实现了从0 到1的突破,是数字金融方向的重要研究成果。该标准目前属于团体标准,但在未来将在此标准的基础上申请国家标准及国际标准。”
该标准的核心特点在于其为金融领域的虚假数字人脸检测提供了系统化的技术框架、功能要求、性能评估方法等,专门针对通过生成式人工智能、深度伪造等技术制作的虚假人脸内容进行检测。
同时,《应用规范》注重识别不同类型的虚假人脸内容,包括图像、视频等形式,提出了基于深度学习、卷积神经网络等技术的检测方法,并强调了对检测准确性、鲁棒性和泛化性的全面评估(如下图)。
张然在介绍《应用规范》的具体应用场景时提到,《应用规范》在身份识别、交易验证的场景中均制定了相应评估方法。
在谈到《应用规范》对于银行业的影响时,张然说:“银行业对于《应用规范》的反馈很好,、、等银行将参与应用。”
张然表示,该标准的应用将持续提升银行业在防范虚假身份认证和金融欺诈方面的能力。虚假数字人脸检测技术可以有效抵御深度伪造等技术的攻击,确保用户身份的真实性,保护银行系统免受伪造人脸攻击的威胁。此外,通过这种技术的应用,银行可以进一步优化远程服务和数字化交易的安全性,为用户提供更安全的线上金融服务体验。