人民网
人民网>>传媒

数字化时代的法治问题②

人工智能的法律三问 人工智能侵权责任如何认定?

本报记者 倪 弋
2018年05月02日08:45 | 来源:人民网-人民日报
小字号
原标题:人工智能的法律三问(数字化时代的法治问题②)

  “你怎么知道自己是机器人?”

  “索菲亚”回答:“你不必担心我们机器人,你们人类又怎么知道自己就是人类呢?”去年,人工智能机器人“索菲亚”成为全球首位被赋予法律公民身份的机器人。

  当前,科学技术巨大进步推动人工智能迅猛发展。人工智能带来的生产生活方式深刻变革,给法律制度带来哪些挑战?现行法治体系又该如何调整和应对?

  人工智能生成物是否具有知识产权?

  “微明的灯影里,我知道她的可爱的土壤,使我的心灵成为俘虏了……”这段诗句的创作者不是传统意义上的“人”,而是人工智能产品“微软小冰”。2017年5月,“微软小冰”创作诗集《阳光失了玻璃窗》出版,作为历史上第一部完全由人工智能创作的诗集,它的出版带来一个新问题——人工智能生成物是否具有知识产权?

  中南财经政法大学知识产权研究中心主任曹新明认为,根据现行法律,知识产权成果是指“人类创造出来的成果”,人工智能并不能成为知识产权意义上的权利主体。“但是,如果将‘人工智能’创造活动类同于科学研究的‘电脑’,即把人工智能生成物视为通过人工智能创造的智慧成果,那么人工智能生成物又确实具备‘知识产权作品’的某些属性。”

  “问题的关键在于对‘人工智能’的法律定性。”曹新明表示,目前学界对这一问题主要有“工具”和“虚拟人”两种观点。“工具”即把人工智能视为人的创造物和权利客体;“虚拟人”是法律给人工智能设定一部分“人”的属性,赋予其能够享有一些权利的法律主体资格。

  “即便承认人工智能生成物具有知识产权,其权利归属也是一个亟待解答的问题。”曹新明认为,如果将人工智能视为“工具”,人工智能生成物的权利可归属于设计开发者,或者所有权人,或者使用权人以及多个权利人共有。如果将人工智能视为“虚拟人”,则可以把人工智能生成物看作民法意义上的“孳息”,比如将人工智能视为“母鸡”,那么人工智能生成物就是“母鸡”下的“蛋”,“蛋”自然归“母鸡”所有者拥有。

  此外,创造人工智能生成物,往往会通过一些程序进行“深度学习”,其中可能收集、储存大量的他人已享有的知识产权信息,这就可能构成对他人知识产权的侵害。曹新明认为,“在这种涉嫌构成侵害知识产权的情形下,究竟应当由谁承担责任,也是一个新问题。”

  人工智能可以替代司法者吗?

  近年来,人工智能在司法领域的应用逐渐深入:2016年12月,名为“睿法官”的北京法院智能研判系统上线,为法官提供办案规范和量刑分析等精准信息,用大数据推进法律适用和裁判尺度的统一;2017年5月,全国首个“刑事案件智能辅助办案系统”在上海诞生,在对上海几万份刑事案件的卷宗、文书数据进行“深度学习”后,已具备初步的证据信息抓取、校验和逻辑分析能力……

  “利用人工智能,可以帮助司法者得到类似案件的全部先例以及法律、法规、司法解释等裁判规则,从而减轻他们的工作负累、促进准确适用法律。”中国社会科学院法学研究所研究员支振锋认为,通过数据采集、整理、分析、综合,人工智能在促进司法者依法、全面、规范收集和审查证据,统一司法尺度、助力司法公正等方面,的确大有可为。

  但是,这是否意味着人工智能将替代司法者,实现独立断案?显然不可以。

  “人工智能只是实现司法正义的辅助手段,切不可本末倒置,这是我们始终应该铭记的一条基本原则。”在上海交通大学凯原法学院院长季卫东教授看来,如果过分依靠人工智能自动生成判决、根据大数据矫正法律决定的偏差等,难免形成审判主体的多重结构,事实上形成程序员、软件工程师、数据处理商等主体和司法者共执司法的局面。

  “此外,如果让人工智能超出辅助性手段范畴,全面应用于审判案件,那就有可能把司法引入歧途。”季卫东认为,在案件事实曲折、人际关系复杂、掺杂伦理和感情因素的场合,如何依据法理、常识和人情做出判断并进行妥善裁决,其实是一种微妙的艺术,需要依靠法官的理性综合分析。“即使人工智能嵌入了概率程序,具有深度学习能力,也难以保证做出公正合理、让人信服的个案裁判。”

  支振锋也认为,就目前的发展情形看,人工智能还没有取代司法者的可能,尤其是作为涉及情感与理性、规范与价值的法律诉讼,如果交给人工智能,这在法律和伦理上,都很难得到支持。“应防范对人工智能形成‘路径依赖’,人工智能越发达,越应强调司法者的职业伦理。”支振锋说。

  人工智能侵权责任如何认定?

  2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为“小胖”的机器人突然发生故障,在没有指令的情况下,自行砸坏了部分展台,并导致一人受伤。

  人工智能应用范围的日益普及,其引发的侵权责任认定和承担问题,是对现行侵权法律制度提出的又一个新的挑战。

  “从现行法律上看,侵权责任主体只能是民事主体,人工智能本身还难以成为新的侵权责任主体。即便如此,人工智能侵权责任的认定也面临诸多现实难题。”在清华大学法学院教授程啸看来,侵权发生后,谁是人工智能的所有者,就应当由谁负责,在法律上似乎并不存在争议。“然而人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,值得商榷。”

  与之类似的,当无人驾驶汽车造成他人损害侵权时,是由驾驶人、机动车所有人担责,还是由汽车制造商、自动驾驶技术开发者担责?法律是否有必要为无人驾驶汽车制定专门的侵权责任规则?这些问题都值得进一步研究。

  “现实中,人工智能侵权责任的归责原则,可能更多涉及危险责任或无过错责任。”程啸认为,例如无人驾驶汽车致害,无论从产品责任还是机动车交通事故责任上看,都可以适用无过错责任。但未来需要考虑的是,人工智能技术的运用,其本身是否属于高度危险作业(如无人机),从而决定了是否适用高度危险作业致害责任。

  “当前,人工智能侵权责任中的因果关系、过错等要件的判断也变得日趋复杂。”程啸还举例说,此前曝光的一些APP“大数据杀熟”和“算法歧视”,由于代码的不透明,加之算法本身的自我学习和适应能力,使得“将算法歧视归责于开发者”变得很困难。

  在程啸看来,针对人工智能带来的新问题、新挑战,在法律制度的研究方面未雨绸缪,将为以后的司法实践赢得主动。“人工智能已经到来,只是在生产生活的各个领域分布不均。我们不应等到未来分布均匀、人工智能已完全融入生产生活的方方面面时,才想起来从法律进行规范。”程啸说。

(责编:赵光霞、宋心蕊)

分享让更多人看到

传媒推荐
  • @媒体人,新闻报道别任性
  • 网站运营者 这些"红线"不能踩!
  • 一图纵览中国网络视听行业
返回顶部