仿真·易容术——整容手术
整容手术虽然是一种新(xīn)型手术學(xué)科(kē),但也有(yǒu)近百年的历史。尤其是二战时期,轴心國(guó)与同盟國(guó)的谍报部门、特工部门為(wèi)了搞敌后搞破袭战,也有(yǒu)使用(yòng)易容术的方法来让己方特工人员冒充敌方人员实施破坏。
鉴于那个时代还未出现计算机和识别技术,易容后的特工容易蒙混过关,只需要拿(ná)着伪造的证件和冲洗暗房制作的旧式“PS”照片,利用(yòng)相似的長(cháng)相,就可(kě)以轻易糊弄敌人。
在最近上映的俄罗斯纪录片《破袭者》第一集当中,讲述了苏联内務(wù)人民(mín)委员会(NKVD)特工尼古拉·伊万诺维奇·库兹涅佐夫冒充成德军中尉保罗·威廉·西尔贝特混入德占區(qū)搞暗杀破坏的故事。
影片中展现的苏联选拔特工的方法代表了那个时代的特点,无外乎就是長(cháng)相相似,易容手术难度低,可(kě)以熟练掌握敌國(guó)语言的人。被千挑万选出来的特工,靠着一张脸便可(kě)以如入无人之境,穿梭于敌后。那是一个易容术称霸没有(yǒu)人脸识别技术的时代。
今天有(yǒu)了人脸识别技术,并且识别能(néng)力日趋增强,网上已经能(néng)看到不少能(néng)够识别整容手术的人脸识别成功案例,但是“道高一尺,魔高一丈”的过关骗术也不在少数。毕竟,脸是一直露在外面的,可(kě)以任你涂抹和修改。
作為(wèi)人工智能(néng)技术的一个代表,人脸识别技术今天已经出现在大量应用(yòng)场景中。随着这项科(kē)技的应用(yòng)逐步增多(duō),围绕人脸识别技术的种种质疑和争议也多(duō)了起来。
下面仅演示两个例子,来探讨一下人脸识别技术的现实困境。
全息投影·易容术——复活的邓丽君
邓丽君逝世23周年之际,日本节目《金SMA》利用(yòng)全息投影技术,使用(yòng)全息投影复活了邓丽君。在节目的画面中,人们可(kě)以在360度全景摄影棚中看到邓丽君1986年在《日本作曲大赏》演唱《我只在乎你》日文(wén)版的经典片段。已经去世23年的邓丽君“复活”,栩栩如生,即便是摄像机随意调换角度,靠近邓丽君的投影,连着台下观众真人一起拍摄,也让人难辨真假。
全息投影技术用(yòng)于怀念故去的亲人,用(yòng)于唤起一代粉丝对歌星的记忆,是一件很(hěn)有(yǒu)意义的事,它可(kě)以為(wèi)人类保存更多(duō)优秀的文(wén)化元素,让文(wén)艺之星或伟大人物(wù)“永垂不朽”。
换个角度,在此筆(bǐ)者开了个脑洞,如果全息投影被应用(yòng)于移动终端设备上,那有(yǒu)歪脑筋的人就有(yǒu)可(kě)能(néng)利用(yòng)它投射的人像,破解人脸识别设备,从事犯罪活动。
假设邓丽君去世的1995年,有(yǒu)了人脸识别技术应用(yòng)于银行存取款用(yòng)户识别,那财迷心窍的人就会把邓丽君的各种录像带信息复制加工成全息投影,选取需要的部分(fēn)来攻破人脸识别系统,盗取邓丽君的巨额遗产。
PS做一张邓丽君的图片也花(huā)费一番功夫,更何况这是实景演播室!
摄像机靠邓丽君投影那么近也看不出什么不对。
如此一来,那些明星大腕三天两头出现在電(diàn)视屏幕中和影剧院屏幕中,留下了大量视频素材,那他(tā)们的个人财产安全就有(yǒu)可(kě)能(néng)因為(wèi)人脸识别的技术漏洞,而变得非常脆弱。
虽然上述内容是假想,但是全息投影的技术现实给破解人脸识别技术,也许会带来不可(kě)预知的挑战,人脸识别技术的安全隐患和不可(kě)靠性值得进一步探讨。
视频·易容术—— “Face2Face”AI直播换脸技术
德國(guó)纽伦堡大學(xué)在2016年发表了一篇face2face的论文(wén),从技术上已经实现了遠(yuǎn)程用(yòng)模拟他(tā)人人脸进行身份认证。也就是说,黑客根本不需要你的人脸生物(wù)特征数据,就可(kě)完成人脸进行身份认证。
美國(guó)斯坦福大學(xué)的研究团队也在当年研发出一款人脸跟踪软件Face2Face,它可(kě)以通过摄像头捕捉用(yòng)户的动作和面部表情,然后使用(yòng)Face2Face软件驱动视频中的目标人物(wù)做出一模一样的动作和表情,效果极其逼真。研究人员分(fēn)别模仿了布什、奥巴马、特朗普、普京,筆(bǐ)者看后觉得细思极恐,毫无PS痕迹!
由于其精准的捕捉效果和实时化能(néng)力,Face2Face在诞生之日起就引起了轩然大波。在其演示视频下,无数网友质疑这项技术将成為(wèi)网络诈骗、绑架勒索的帮凶,质疑如果视频電(diàn)话的另一端,竟然不是你认识的那个人,那将会是多(duō)么恐怖的一件事。
“AI假脸王”开源:新(xīn)一代GAN攻破几乎所有(yǒu)人脸识别系统
还记得英伟达去年推出的StyleGAN吗?全新(xīn)的生成器架构让这个“新(xīn)一代GAN”生成的人脸真实到可(kě)怕。现在,StyleGAN已经开源,包括源代码和官方TensorFlow实现,都附有(yǒu)详细使用(yòng)说明。
以假乱真的精细人脸生成,令不少研究人员都惊呼:已经无法分(fēn)辨虚拟和现实!
上述人脸全部由计算机生成,StyleGAN的全新(xīn)风格迁移生成器架构能(néng)控制发色、眼睛大小(xiǎo)等脸部特征。
之前,大多(duō)数研究都集中在如何提高“换脸”技术上,也就是如何让计算机生成超逼真的人脸。
谁料,这种技术发展的滥用(yòng)造成了反效果,也即所谓的“DeepFake”。现在,DeepFake已被用(yòng)于指代所有(yǒu)看起来或听起来像真的一样的假视频或假音频。
去年底,Idiap 生物(wù)识别安全和隐私小(xiǎo)组负责人、瑞士生物(wù)识别研究和测试中心主任 Sébastien Marcel 和他(tā)的同事、Idiap 研究所博士后 Pavel Korshunov 共同撰写了论文(wén),首次对人脸识别方法检测 DeepFake 的效果进行了较為(wèi)全面的测评。
他(tā)们经过一系列实验发现,当前已有(yǒu)的先进人脸识别模型和检测方法,在面对 DeepFake 时基本可(kě)以说是束手无策——性能(néng)最优的图像分(fēn)类模型 VGG 和基于 Facenet 的算法,分(fēn)辨真假视频错误率高达 95%;基于唇形的检测方法,也基本检测不出视频中人物(wù)说话和口型是否一致。
看到这几条新(xīn)闻,我们不禁要反思,人脸识别等高科(kē)技的应用(yòng)是不是要认真考虑一下社会舒适度和个人有(yǒu)效保护隐私的内心需要。到底怎样的身份识别能(néng)够引领未来,这些林林总总的问题都需要每一个科(kē)技研发团队、社会科(kē)學(xué)學(xué)者、法律人士认真思考。
科(kē)技在发展的过程中,不可(kě)能(néng)是一片坦途,回顾科(kē)技发展史,尤其是充满躁动的20世纪,两次世界大战前后的许多(duō)发明都是以井喷和“你方唱罢我登场”的速度演绎着科(kē)技发明的“进化论”,很(hěn)难说谁永遠(yuǎn)对,谁一时错,但有(yǒu)一条基本的原则是不变的,那就是能(néng)够推动人类社会进步,更好地维护人的权利和隐私,让这个世界变得更美好,这样的发明能(néng)够走得更遠(yuǎn),发展得更好。