谁对机器人和人工智能造成的事故负责?
当自动驾驶车撞上行走者时,谁应被视为合法责任?目标是否应针对驱动车辆的人工智能软件的所有者、制造商或工程师?
当机器人或人工智能做出决定时,确定"风险"的问题是一个有趣而重要的话题,因为这一创新在行业中越来越广泛地应用,并开始越来越直接地影响我们的日常生活。
可以肯定的是,随着人工智能和机器学习创新的应用不断发展,我们可以观察到它如何改变人们对工作、组织、商业和社会的看法。但是,虽然人工智能有能力颠覆和提高更大的效率,但它也有自己的缺点:"当事情出错时,谁有风险?"就是其中之一。
道路交通事故是意外死亡的主要原因之一,也是为什么应该更快采用自动驾驶汽车的主要论据之一。尽管新加坡、韩国和欧洲等许多地方的准备工作正在取得进展,但分担灾害风险的努力,包括人工智能等尖端技术,已成为全球对话的主流。
在第三届技术法律年会上,专家们表示,新加坡的法律目前没有充分规定风险,因为事故带来的不幸或损害,包括人工智能或机器人技术。
新加坡法律协会机器人和人工智能小组委员会的联席主席CharlesLim说:"自主机器人和人工智能框架在不需要人类贡献的情况下独立工作的非凡能力,已经混淆了责任的范围。
一个月前,一个由11人组成的机器人和人工智能团队发布了一份报告,说明在此类案件中应如何确定民事责任。尽管新加坡在2019年国际发展研究中心(Centre For International Development Research)的政府人工智能准备指数中排名第一,但它实际上没有一个法律框架来监管机器人或人工智能的责任,包括自动驾驶汽车(Avs)的民事责任。
有许多不同的因素(例如,在工作、人工智能框架的基本软件代码、准备的信息以及框架的外部环境方面),"他说。林是新加坡法学院机器人和人工智能小组委员会的法律顾问和共同主席。
这种情况令人费解,究竟事故是由无所事事的错误、最新的软件更新,还是由为事故铺平道路的功能选择造成的。林以个人身份在网络研讨会上表示,按照事件的确切顺序为事故铺平道路,以证明责任可能是不可预测的,也是代价高昂的。
另一位小组成员,机器人和人工智能小组委员会的成员Josie Lee认为,这里的立法者的第一步可能是在驾驶座上对那个人讲话。
我们建议称这个人为‘负责人’,因为他可能无法完成驾驶任务,但有能力在必要时接管车辆,"他说。"这可以应用于无人驾驶的车辆,比如医学诊断,在今天的许多情况下。
2018年,英国法律委员会(British Law Commission)首次引入了"用户责任"(User Responsibility)一词,推迟了将这些用户置于一个完全自动化的环境中,置于独立监管制度之下的提议。
贝弗利·林姆是一名律师,也是人工智能和机器人小组委员会的成员。他在一次网络研讨会上表示,不应被置于危险之中的人应该是驾驶座上的司机,因为他会认为,当他买车时,人工智能会是一个相对可靠的司机。