一段视频、一段语音未必是真人拍摄或者录制。在你不知道的手机App后台、支付界面、门禁闸机,或许有人正在盗刷你的脸……去年以来,多地发生“变脸”诈骗案。“新华视点”记者调查发现,随着深度合成技术迅猛发展、落地场景激增,一些不法分子趁机牟利。音频、视频等合成技术滥用,对人脸、声纹、指纹等个人敏感信息保护形成挑战。(4月14日《经济参考报》)
人脸识别如今已成为一种广泛应用的生物识别技术。在个人完成人脸识别的过程中,系统无论是提醒“眨眨眼”还是“摇摇头”“张张嘴”等,看上去这些动作只能自己完成,能证明“你是你”,别人无法替代。然而很多人大概没有想到,有人可以利用深度合成技术,截取面部视频进行“换脸”,模拟动态人物做出一系列极为逼真的表情,进而实施诈骗。
报道显示,浙江温州、安徽合肥以及江苏、河南等地,均发生了“变脸”诈骗案件,受害者遭受了经济损失,而嫌疑人储存了大量的人脸、声音等信息用于合成、诈骗。而且,网上还有商家叫卖合成软件的教程,这为那些低端诈骗分子提供了“自学成才”掌握“变脸”操作、实施诈骗的机会。如果对“变脸”诈骗现象不采取更为有效的打击,恐怕会变成“诈骗常态”。
虽然相关地方公安机关已经在打击这种诈骗现象,也有地方法院对这种诈骗分子追究刑责,对这类犯罪行为会产生一定震慑效应,也对公众是一种提醒,不过作用有限。要想防止更多人利用深度合成技术“变脸”诈骗,一方面要进一步严防公民个人相关信息泄露,如面部、声音等信息。另一方面,涉及人脸识别技术的相关平台和机构,须对“变脸”诈骗进行技术设防。
诈骗分子实施“变脸”的一个前提是要有相关“素材”或“物料”。在短视频时代,不少人通过录制短视频来展示自己争取粉丝,这就给某些人获取人脸、声音等信息提供了机会。所以,如何防范这些个人信息泄露,既是个人需要思考的问题,也是平台等方面亟待解决的问题,比如能否给个人短视频打上特殊印记或者设置截取门槛,以防止个人相关信息被用于犯罪。
更重要的是,涉及人脸识别的相关平台或机构,要意识到人脸识别目前还并不是完美、安全的技术,而是存在技术漏洞,犯罪分子可以利用技术漏洞进行“变脸”实施诈骗。因此,人脸识别设计机构应当针对“变脸”诈骗案频发的问题采取相应措施,譬如,能否增加人脸识别复杂性,以增加“变脸”难度,或者在人脸识别之外增加辅助性识别手段进行印证,值得思考。
作为人脸识别具体实施机构,不能把所有希望寄托在技术系统,或者说不要太相信这种识别技术,在技术识别之后还应该加强人工审核。也就是说,只有人脸识别设计机构和实施机构,采取相应技术性设防手段,才有望防止“变脸”诈骗分子钻漏洞。专家也建议,应以技术规制技术,利用技术创新、技术对抗等方式,提升和迭代检测技术的能力。
比较欣慰的是,我国首个国家层面的科技伦理治理指导性文件《关于加强科技伦理治理的意见》近日印发,凸显了国家对技术伦理治理的高度重视。在今年最高法工作报告中,包括人脸安全在内的个人信息安全等多次被提及。
只有形成多方共治局面,我们才能战胜“变脸”防范诈骗。
冯海宁 【编辑:于晓】