论文部分内容阅读
人工智能是继互联网之后的下一代产业趋势,现已广泛应用于各个行业,极大提高了社会效率,改变了人们的生活方式,而在人工智能社会化程度日益提高的同时,与之而来的风险同样引起了人们的关注。在人类与人工智能共存的环境下,不可避免的发生会侵权责任事故,而人工智能载体的自主性特征致使传统侵权责任制度在处理人工智能载体侵权责任出现一系列法律疑难问题。人工智能技术的发展首先引起了人们对其法律地位的探讨,是否需要赋予人工智能载体以法律主体地位成为研究人工智能相关法律制度所必须面对的问题。法律主体与人格有关,人工智能载体所展现出的智能与人格所代表的理性是否同质,成为界定人工智能载体法律地位最为核心的问题。同时,由于人工智能系统具备高度的自主性与独立性,使得人工智能载体可以少人甚至无人的情况正常运转,对于其所引发的侵权责任事故,由于人的参与程度较低甚至不需要人的参与,使过错责任原则缺乏适用空间,而无过错责任原则以及公平责任原则能否适用于人工智能载体侵权事故中需要结合法律的规定和人工智能载体侵权责任的特点进行分析。同时,在因果关系证明方面,作为学界通说的“相关因果关系”理论能否处理人工智能载体侵权事故需要进一步论证。人工智能载体侵权责任与一般侵权责任有着明显区别,以现有的侵权责任制度尤其是产品责任制度还不足以处理人工智能载体侵权所引发的责任分担问题,美国和欧盟基于在人工智能技术的优势,最先遭遇如何对人工智能载体侵权责任进行规制的难题,因而也是最先涉足有关人工智能载体侵权责任的探讨以及立法尝试。本文参考美国、欧盟的立法经验,结合我国的科技水平和法律制度,认为现阶段人工智能载体还不具备独立承担责任的能力,但为了妥善处理人工智能载体侵权责任产生的法律难题,仍需对现有的法律制度进行调整,如建立人工智能载体的分类体系以及相应的归责原则、引入举证责任倒置制度、建立强制保险制度、安装“黑匣子”以及保护隐私权等。