AI犯错谁之过?

发布 : 2018-3-19  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈

加关注


明声网温哥华 微信公众号
在国际象棋、围棋、金融市场交易等领域,AI已有与人脑匹敌或超越人脑的运算能力。当前几乎所有从事AI研究的科学家都认为,机器最终将在不同领域取代人类,一切只是迟早问题。不过部分分析认为,AI很大程度也受到编程的限制,因此AI也可能犯错。AI在应用中,往往需要利用数据训练演算法。如果输入的数据代表性不足,甚至存在偏差,AI的运算就可能出错。倘AI作出错误的决策并带来不良的后果,谁应该为此负责?是AI、AI开发者,还是采用AI的企业?人类和AI的角色和责任将如何界定?

一般来说,AI的决策是根据编程和自我学习,人类的角色就是设计部门,确保AI在学习和决策过程的质量。有法律界的观点认为,人类在应用AI的预测结果时应态度谨慎,在重要领域不应将AI的运算结果,视为必然的决策依据,人为审查也是关键的一环。

和其他技术一样,AI产品也有事故和产品责任的问题,但要分清是人为操作不当,还是AI的缺陷并不容易,举证尤其困难。倘AI的错误造成不良后果,相关的法律责任可能由AI产品的生产者承担。

倘AI产品的人工智能系统由他人提供,AI开发者可能要承担责任。如果技术开发者主动设立有问题的算法规则,其要承担的法律责任也较大。如果AI是采用深度学习等算法,由系统自身探索,并形成演算规则,开发者的责任也相对较小。