眼见未为凭 AI假片左右民意(组图)

发布 : 2019-4-21  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈

AI技术可将演员艾力宝云(左)的表情放到美国总统特朗普(右)脸上,几可乱真。(网上图片)



运用AI技术,可使图右人士讲的话,巧妙套在图左奥巴马的口里。(网上图片)



左图为一名扮演普京的演员,AI技术可将他的表情跟普京真人片段融为一体,令右图的普京做出跟演员一样的神情。(网上图片)



图左为美国女歌手Beyonce原本片段截图,右是运用AI技术把她丑化的「深伪」片段。(网上图片)


人工智能(AI)日益进步下,近年有愈来愈多不法之徒制作疑幻似真的假影片,令人忧虑有人会藉发放这类影片左右民意,影响美国2020年总统大选,甚至造成世界大乱。有美国国会议员就去信当局要求正视,美国国防部亦正与国内一些科研机构研究打击假影片。有专家表示,除了识别假影片外,阻截假影片发放和教育民众也很关键。

这些统称为「深伪」(Deepfake)的影片,是电脑专家利用AI将内容移花接木,令观众出现错觉,以往就曾有人将明星样貌移植到成人影片主角中,但更令人忧虑的是,近期已开始有人利用AI令影片主角说出一些他/她从没说过的话。纽约州立大学奥尔巴尼分校研究深伪影片的电脑科学系副教授吕思伟(Siwei Lyu)说:「若我们能控制某人说出某些话,那是颇为恐怖的事。那将事实与谎言的界线模糊。若我们不能够相信一些资讯,那么完全没有资讯可能会更好。」

「深伪」影片可激发暴力影响市场

研究这个议题的美国得州大学法学教授切斯尼(Robert Chesney)说:「虽然我们尚未到达深伪影片武器化的阶段,但那一刻即将到来。」他认为,深伪影片可能会加剧当今虚假信息带来的混乱。

切斯尼和马里兰大学教授西特伦(Danielle Citron)在美国智库外交关系协会一则博客帖文说:「一段时机合适且精心策划的深伪影片或一连串深伪影片,可能会左右一场选举结果,也可在一座充满混乱的城市激发暴力事件。」此外,有心人更可仿制上市公司总裁的影片,假冒他们发放股价敏感消息,影响市场。

外界担心,随著美国大选明年举行,这类深伪影片可能会像2016年美国大选和英国脱欧公投时充斥的网上假消息一样,令民心转向。

专门研究人工智能和安全议题的智库「新美国安全中心」(Center for a New American Security)高级研究员沙尔(Paul Scharre)警告,在未来选举中,使用深伪影片几乎是不可避免的事。他表示,假影片可以用来抹黑候选人,或是让人们对真实影片捕捉到的真实事件起疑。他说,随著容易让人相信的假影片在外流通,「人们可以选择相信他们想要的任何版本或描述,那才是真正值得担心的」。

包括众议院情报委员会主席希夫(Adam Schiff)在内的3名国会议员,早前去信国家情报总监科茨(Dan Coats),表达对国外可能有人利用深伪影片威胁美国利益的忧虑,要求了解政府如何应对,并向国会发表报告。他们指出,假冒的影片、照片和声带,都可以被用作攻击某人,以作勒索或其他不轨企图,更大的问题是,有人可以藉此发放假消息影响国家安全。

假影片散播迅速 侦测真假成效小

国防部的高级研究计划局(DARPA)正与一些私人企业和研究员合作,研究更好地侦测假影片的方法。吕思伟的研究方向,是透过监测影片中人眨眼频率来推测。不过,他坦言在现时上网模式下,侦测真假并不足够,因为假影片会以飞快速度散播,因此堵截影片流传显得更重要。沙尔则认为,现时深伪影片制造者技术日益改善,对付这些影片的其中一个方法是加强大众认知,让他们打破以往认为「影片必定可信」的迷思。

(法新社/CNN)