专家忧AI伦理风险 倡设国际框架管控(图)

发布 : 2019-5-22  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈

昨日在北京召开的「人工智能伦理与治理网络构建」研讨会,来自英、美、香港和内地多所高校及机构20多名专家与会。(郑海龙摄)


【明报专讯】人工智能(AI)近年引起全球争相研发,如何规范发展和AI伦理研究亦被各国政府及专业机构关注。在昨日举行的一个有关人工智能研讨会上,与会专家认为AI将在未来10年内使现时的世界发生颠覆变化。专家担心AI在非法的军事运用是否会危害人类社会,以及当人工超智能出现时,人类将如何面对等。

明报记者 郑海龙

昨日在北京召开的「人工智能伦理与治理网络构建」研讨会,来自英、美、香港和内地多所高校及机构20多名专家认为,AI未来发展潜力巨大,但同时亦存在伦理风险,故需于国际框架下建设治理机制,协调各国研发机构与企业,以免人工智能脱离管控形成危害。

在今年2月有份成立人工智能治理特别委员会的清华大学苏世民书院院长薛澜教授指出,在过去几年中国有超过1000多个人工智能公司出现,数量规模仅次于美国。「很多风投进入到该领域。从大概2013年到2018年,中国吸引了人工智慧60%的投资进入中国。」他称,与美国相比,中国在研发AI的优势在于国家重视,鼓励科研、人才的资本,确定了优先领域,以及在社会和伦理方面,已经产生了相关的意识。

亚马逊AWS首席云计算技术顾问费良宏亦表示,AI的飞速发展将在未来10年内使现时的世界发生颠覆。

「人工智能的飞速发展有赖于不断加速的深度学习,再经过各种算法和复杂的推理最终形成一个模型。但全世界科学家也无法去探明当某一权重发生变化后,会对这个模型造成什么影响及程度。这种不透明会带来很大隐患。」费良宏质疑,AI对传统劳动力市场的冲击会造成大量低端产业人口失业、依赖人类提供资料学习的AI会否因资料的不公正而产生偏见、AI所获授权究竟有无边界、非法和准军事方面的运用会否危害社会安全、当人工超智能出现人类需与机器如何相处?当产生行为责任应由谁承担?这些都是政府亟待考虑和解决的人AI伦理问题。

亚马逊顾问质疑产生偏见用于军事

中科院自动化研究所类脑智能研究中心副主任曾毅则认为,拥有自我意识的AI有助于其建立伦理性。而中国科技部所设的人工智能委员会,亦进行全国AI伦理的治理,「但中国也需要国际委员会,进行关于人工智能伦理的治理和联系」。

耶鲁大学生物伦理学中心科技与伦理学科主任 Wendell Wallach教授则表示,目前全球有42个国家在进行人工智能的相关研究,各国各有自己的一套方案,一时难以统一,因此应思考是否需要建设一个国际框架下的机制进行协调和协作。