AI道德谁来监管?怕落后中国 美政府拒严管(图)

发布 : 2018-3-19  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈

加关注


明声网温哥华 微信公众号



人工智能(AI)科技日新月异,但面对这种新科技,人类正陷于重大的矛盾,既担心它会过于聪明而让人类无法驾驭,终演变出科幻电影般的末日灾难。与此同时,人类又忧虑AI不够聪明,应用于自动驾驶、机械臂手术等情况时或会突然失灵,又或欠缺人类的灵活应变。上月初美股急挫拖累环球跌市,很可能由于程式交易已占美股成交的多部分。交易机构使用的AI演算法相近,触及某些条件便会同时大举沽货,酿成AI股灾。

政府监管机构正有意对这种既聪明,又愚蠢的AI技术加以规范。不过科技企业正争取在监管机构出手前,塑造AI的发展模式。IBM、英特尔(Intel)及代表业界的组织,正寻求建立行为守则及道德规范。然而,批评者认为,科技行业此举将妨碍各级政府的外部监管,质疑科技企业应否自订游戏规则。

IBM英特尔寻求自设规范

总括来说,AI是指模仿智能行为的电脑,分析了大量数据后,计算出如何避免车祸,以至下次可能发生罪案的地点等。对于企业来说,这些AI演算法用途广泛,可用于评估客户的贷款风险、工作申请、中风概率等,进而设计出一些财政、医疗等方案,可说是生金蛋的宝库。因此当纽约市去年8月要求科技企业发布从政府机关使用的演算法源代码时,科技公司都有所迟疑,称要保护专利。纽约市最终在12月通过了一个简化版规范法,没要求科技企业交出源代码。

商业秘密作盾牌 监管机构拒门外

向美国国会提供有关AI建议的华盛顿大学法学教授Ryan Calo向《华尔街日报》称,科技企业以商业秘密为名,令外界无法得知他们在做什么。然而,这些AI演算法不一定有清楚的逻辑。倘某些AI程式一直拒绝向某个性别,或某个种族的人士提供贷款,那应否被视作歧视?监管机构是否有权审查这些为人类生活作出各种决定的AI演算法?如果算法不知道如何解释自己的逻辑,那应怎么办?奥巴马前政府曾试图解决这些问题,由科学和技术政策办公室发布了有关AI的道德影响白皮书。至特朗普政府上场后,该办公室仍没有领导人,员工数目亦由约130人降至45人左右。

规管过严 美政府恐削创新能力

特朗普政府如今希望商业带领AI发展。科学和技术政策办公室的官员Michael Kratsios称,政府担心全面的规管会限制创新,使美国竞争力下降。Kratsios称,由于中国也在推进AI技术,却没有理会太多道德议题,美国政府不会寻求为AI建立广泛的高层次指导方针,关键是创造一个框架,确保下一代伟大技术在美国诞生。

过去6个月,英特尔、IBM和总部位于首都华盛顿的信息技术行业委员会(成员包括facebook、苹果和Google)等,发布了有关道德使用AI的原则。 微软1月亦发布了一本关于AI及其社的作用的书籍。2016年,一些科技巨擘在三藩市成立了一个道德组织,名为人工智能伙伴贡献人类与社会。其他同类组织还包括Open AI、AI Now研究所等。

欧盟已制AI演算法规定

这些组织建议,AI的规范包括要任何AI演算法能向消费者解释其决策的逻辑。不过此举相当复杂,因为公司往往无法解释其被称为「深度神经网络」的AI系统如何得出答案。华盛顿大学去年一份报告称,一种自行学习如何区分狼和赫斯基狗的演算法,似乎只是分析狼图片上的地面积雪,对动物并没有任何洞察力。民主、共和两党去年12月引入法案,以建立一个谘询委员会,研究AI的潜在影响。欧盟已制定AI演算法的规定,并将于5月生效。