论人工智能致人损害的民事责任问题
发布时间:2020-08-12 06:57
【摘要】:目前,科技的迅速发展使我们进入了人工智能发展的新时代。通过算法、人工神经网络和其他工具,人工智能具有自主性、不可预测性和不可控制性等特点。人工智能的迅速发展也带来了一系列的政治、经济、伦理道德和法学问题。本文关注的问题是:当具有自主性的人工智能实体造成损害时,谁应当承担责任,现有的民事法律框架是否足以分配责任?本文通过两种不同的方法研究了传统类型的民事责任的适用。第一种方法将人工智能纳入传统类别的产品,动物和儿童方面,但是遇到了困难:最后两个不足以包括AI,而第一个则遇到人工智能自主性的固有问题。然而,AI正在从简单的自动化事物发展到具有高度自主性的新实体,完成了从自动到自主的质的转变。与体内的软件相比,它们是独一无二的。但是目前AI系统的智能还不足以能够赋予它们独立的法律主体地位,所以尽管它们是独一无二的,但还是属于产品的范畴。第二种方法使用不同的工具来处理人工智能的法律影响,例如:用于分配风险的合同。而保险可以解决与受害者赔偿有关的不同问题。然而,这种保险的成本会影响使用者,这可能导致阻碍新技术的发展。在人工智能实体导致损害的时候,赔偿基金是一种解决受害者获得赔偿的不错选择。此外,信息权在这一领域发挥着重要作用,不仅在销售期间,而且在与消费者接触的所有阶段,包括广告阶段。在人工智能民事责任的两种不同方法中,结构性方法将传统的责任类型适用于AI,包括合同责任、产品责任和侵权责任。在合同责任方面,欧洲主要规定如果出卖人没有履行义务,则买受人拥有主张赔偿损害的权利,但出卖人仅对他可预见或可合理预期的一种可能的不履行的结果承担责任。在美国,制造商则应对于因违反担保条款而造成的人员和财产伤害负责,这种担保可以是明示的,也可以是默示的;在产品责任方面,制造商应对因其产品缺陷给买方造成的损害负责。产品缺陷可能是:a)制造缺陷;b)设计缺陷;c)警示缺陷。但是由于人工智能具有的高度自主性,很难相信有可能划定造成损害的界限:是来自AI的意志,即源于其自我决定或是来自于产品自身缺陷造成的损害,因此,对于原告来说,很难证明AI存在产品缺陷;在侵权责任方面,目前比较好的建议是实施严格责任原则,把在某些环境中使用AI视为“异常危险的活动”。在功能性方法中,讨论了AI的风险和预防以及民事责任各要素之间的相互关系。与AI有关的风险被纳入特定类别的风险:不安的风险。这些类型的风险是不合理的,尽管还没有科学的证明。因此,这种风险是可疑的,但尚未确定。为了防止AI的风险,有必要对风险进行评估以指导对AI的监管,欧盟采取了预防原则。然而,预防原则应用于AI也可能会导致过度保护主义,从而阻碍AI的创新。但预防原则可能对AI致害的因果关系评估有所帮助,在预防原则下,必须包含一项举证责任倒置的条款,并使生产者,制造商或进口商承担举证责任。在有很多制造商参与AI生产的情况下,制造商对外要承担连带责任。在内部,基于预防逻辑,损害可能会在制造商之间根据其应采取的预防措施来按比例分担。基于以上的分析,对处理我国人工智能致害民事责任的建议是,基于现有的《合同法》、《产品质量法》、《消费者权益保护法》和《侵权责任法》为受害者寻找适当的请求权基础。当人工智能发展到完全具有自主性的时候,应单独对其进行立法,赋予其独立的法律主体地位,并建立与之配套的责任财产制度。
【学位授予单位】:西南政法大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:D923
本文编号:2790207
【学位授予单位】:西南政法大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:D923
【参考文献】
相关期刊论文 前1条
1 阿尔多·贝杜奇;黄风;;罗马商法的若干基本原则[J];环球法律评论;1993年04期
相关重要报纸文章 前1条
1 王利明;;人工智能对民法的挑战[N];中国城市报;2017年
相关硕士学位论文 前1条
1 沈建铭;论人工智能实体的法律主体资格[D];华中师范大学;2017年
本文编号:2790207
本文链接:https://www.wllwen.com/falvlunwen/minfalunwen/2790207.html