指AI毁灭性空前 学者倡多重机制制衡(组图)

发布 : 2019-4-24  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈

加关注


明声网温哥华 微信公众号

香港科技大学计算机科学及工程学系教授德恺(De Kai,图)忧虑AI技术会被用作散播不实资讯,成操纵舆论的「武器」,直言AI对人类社会影响难以预料。(陈籽颖摄)



有国家研究将AI技术应用到无人机等武器上,甚至研发自主武器系统「杀手机械人」(Killer Robot),成为AI道德一大隐忧。图为俄罗斯研发的机械人「FEDOR」,它被训练以双手持枪射击并保持平衡。(网上图片)


人工智能(AI)近年发展得如火如荼,已深入日常生活各范畴,惟同时其发展亦掀起不少道德争议,包括军事应用及数据歧视等。企业及政府近期都希望对AI加以监管,研究AI的香港科技大学计算机科学及工程学系教授德恺(De Kai)是Google顾问组织8名成员之一,他接受本报访问时强调,「AI比我们过往制造的任何东西对人类社会都更具毁灭性,影响难以预料」,惟现时的人类社会规范未能追上急促的科技发展,促请各界建构多重的机制讨论AI道德问题。

德恺表示,他忧虑AI技术渐趋武器化,尤其是用作散播不实资讯,成为操纵舆论的「武器」。他称,AI武器化分成两个层面,除了用作制造实体武器,亦有人利用有关技术散播不实资讯,以挑动仇恨甚至操控选举,形容AI是容易接触到的「大规模毁灭性武器」。

技术趋武器化 操纵舆论制假新闻

现时AI的机器学习(machine learning)技术一日千里,促成合成技术「deepfake」,以制作出像真度极高的虚假影片,亦有研究人员研发出可自行撰写文章的AI,令人忧虑有关技术会被利用制作假新闻。机器学习亦可以提高数据分析的效率,包括准确预测人们的性取向、种族及宗教信仰等私人信息,有助针对性地投放广告,让用户在不知情之下接收偏颇的政治资讯,成为选举的「宣传工具」。

AI学习是建基于人类社会的大数据,因此亦难免存在人类的偏见。去年有报道指出,亚马逊公司曾利用过去10年收到的履历,让AI学习招聘模式,惟业界一直由男性主导,令AI判断男性求职者比女性优秀;该公司的AI程式Rekognition亦被揭曾把多名美国非白人国会议员误认为疑犯。

社会规范未追上科技发展

德恺认为,AI「只是反映人类的好与坏」,又指出科技企业内部一般设有审查委员会,负责检查数据是否存在偏见,再作出修正。他认为数据偏见是应解决的迫切问题,但强调只是冰山一角,真正要急切解决的问题在于现有的社会规范未能追上科技发展。他形容,人类现时拿著AI犹如「一群4岁的小孩拿著机关枪」。

AI道德问题促使各科技巨擘相继采取行动,包括成立道德委员会、制定守则或设立研究中心等,惟有批评认为这些行动没有落实机制,缺乏实质效果。德恺是Google上月底成立的顾问组织成员之一,旨在为AI发展提供建议,惟其成员名单引起争议,成立仅9天即被解散。他虽对顾问组织解散感遗憾,但指出该组织只是Google处理AI道德问题的其中一环,其他内部监管机制仍继续运作,Google亦有持续更新并公开其道德守则,惟媒体及公众较少关注。他认为科技公司应让公众了解其管治架构,而业界以外亦需要建立多重机制,包括独立组织、非政府及政府机构等,在商讨AI道德问题上各司其职。

不过,德恺强调,无论怎样立法监管AI,由于AI发展太快,监管难免难以追上;最重要的是要改变社会规范,而人们亦要对AI的真正影响力有透彻的认识。