首页 > 智能 > 正文

未来不排除机器人拥有人的主体地位 人工智能时代“三大法律问题”

2019-02-25 10:51:41来源:澎湃新闻  

AlphaGo战胜李世石,人工智能之“聪明”让世人刮目相看。聊天机器人“微软小冰”除了能陪人聊天外,其创作的27首小诗刷新了人们的想象……不过,人工智能有“硬核技术”之外,也潜藏着风险和问题,比如另一款聊天机器人Tay,则是一个“不良少女”,上线24小时内,即出现一些偏激言论。

论坛现场。澎湃新闻记者 邱海鸿 图

2月24日,北京大成(南京)律师事务所20周年法律服务创新论坛在南京举行。澎湃新闻(www.thepaper.cn)注意到,在论坛上,知名法学家、中南财经政法大学教授吴汉东发表《人工智能时代的社会风险与法律问题》专题演讲时,表达了对未来人工智能发展引发的一系列风险和问题的忧思。

“‘这是一个最好的时代’,正是由于人工智能技术的出现,并且广泛运用于社会领域,人类可以说在万物皆互联的环境中,精准、精细地生产、生活和交往。”吴汉东引用了英国作家狄更斯小说《双城记》的开头说。

吴汉东还表示,必须说“这也是一个最坏的时代”,这是因为人工智能技术既是人类社会的高技术,也毫无避免为这个社会带来潜在的现实风险。未来的人工智能社会将会充满着风险,人类的生命和健康、尊严和隐私,安全和自由都会遭遇到前所未有的挑战。

他建议,人工智能所引发的法律、伦理和社会问题,必须要引入一个监督的机制,对问题进行社会规范的调整,进一步要加强监管。

人工智能时代“三大法律问题”

中国人工智能的发展,目前主要在机器学习、自然语言处理、图像识别、人机交互等方面展开,可以说人工智能渗透到了社会的各个领域。吴汉东将人工智能存在风险的特点概括为“共生性、时代性、全球性”,他在演讲中连抛了人工智能的“三大法律问题”。

第一,主体资格问题,智能机器人是人还是机器?2017年,沙特阿拉伯授予美国汉森机器人公司研发的女性机器人索菲亚公民资格,这虽是一个个别的法律事实,却是已开启的法律现象,还没有成为一个法律共识和法律立法的趋向,但这是一个非常现实的问题。

第二,隐私保护问题。人工智能时代是一个隐私保护问题最为严峻的时代,这是由于移动互联网加上大数据,再加上机器计算,使得自然人的个人隐私无处逃遁。今天这个时代恐怕是一种个人隐私的“集体裸露”,在这种情况下,我们如何来保护个人的隐私?

第三,法律责任承担问题。人工智能直接造成的损害谁来承担?如果涉及到人工智能产品的缺陷,可以适用产品责任法,联合国的建议是按照技术产品缺陷来追究其设计人、生产人、使用人的法律责任。但还有另外一种情况就是根据技术中立的原则,一项技术没有上述缺陷,同时又不能归于技术本身的情况下,如何来分配责任,这都是未来存在的一个法律难题。

“未来不排除机器人拥有人的主体地位”

沙特阿拉伯授予索菲亚身份证一事,引发法律界普遍热议。讨论集中于“机器人是不是人?应不应该具备人的属性?”……围绕人工智能的一系列法律问题,多名专家学者进行了圆桌主题研讨。

南京大学法学院教授、中国法学会经济法学研究会副会长李友根表示,现在大部分学者认为,人工智能不能具备法律主体的资格和地位,是根据现在对法律主体标准的要求而认定的。但是,现在的法律主体认定的标准是基于我们已经有的自然人、法人这种主体确定的。

根据李友根的叙述,当年确定法人是否具备法律主体资格的时候,有一种观点认为不可以,这是因为主体是有血有肉的自然人,才是具备法律主体,但是后来将法人确定为法律拟制的主体。

因此,李友根认为,从历史的角度总结人类法律历史上法律主体的变迁,从中可以获得一些借鉴。到人工智能真正普及发展以后,人们对法律主体的认定标准或许会发生变化,从而自动地把人工智能纳为法律主体的一个部分。即使人工智能不是完全的法律主体,回顾历史上可以发现,法律在处理不同的事物时,会有各种处理技术。

“当下我认为还是一个弱人工智能时代,智能机器人还不足以在自然人和法人之外,取得第三个司法主体的地位,提出这种结论为时尚早。”吴汉东如是表示。

不过,吴汉东说,未来应该留有相对的制度空间,我们比较多地谈到司法问题,比如人工智能独立生成发明的专利法之问,这主要表现为,遗传、基因编辑、人工神经网络、机器人科学家,很多发明是机器独立完成的,那么能不能叫发明呢?现在的《专利法》是以人类发明者中心主义指导专利立法的,如果赋予它们独立法人的地位,跟现行法的宗旨相冲突。

因此,吴汉东认为,法学工作者对人工智能的主体资格问题,应该未雨绸缪开展探索,并不排除未来机器人真的有可能取得相应的主体地位,“这是未来,而不是现在”。

无人驾驶交通事故,可用保险来解决法律问题

按照现有的法律框架,并没有明晰机器人或者人工智能造成损害后,如何承担侵权责任;那么,在人工智能的主体资格未被承认的前提下,一辆无人驾驶汽车发生交通事故,如何来划分法律责任呢?

腾讯研究院法律研究中心、未来科技中心高级研究员曹建峰认为,目前,我国还没有达到完全的自动驾驶,主要是驾驶员的辅助技术,车由人和系统一起控制。在这种情况下,就需要判断交通事故的节点,如果人类驾驶员控制的,看其有无过错,如果是系统控制的,系统其实作为一个汽车的产品,可以通过产品责任法要求销售者和制造商承担产品责任。

值得一提的是,由消费者证明产品的瑕疵非常困难,而自动驾驶用的人工智能算法,工程师也没有无法计算,出现事故之后,车辆制造商有可能推卸责任,维权陷入困境。针对这个问题,曹建峰说,英国使用了新的保险制度,去缓解自动驾驶对交通事故带来的冲击。

李友根则认为,可以比照现代法律体系加以借鉴。比如饲养的动物伤人了,跟完全人工智能的汽车撞人,是否可适用相应的法律,其中相关管理人员包括车主和设计者、生产公司等等。

李友根也赞同曹建峰所提引入保险制度加以解决的意见。李友根称,侵权责任法如果主要是基于救济受害者的话,合理的保险制度完全可以分担这个问题。“现有的法律文明、制度设计有很多的经验。面对未来人工智能可能出现的挑战,如果现在仍然解决不了,在真正人工智能的时代,仍然会有很多的制度设计解决这些问题,所以总体上我是比较乐观的。”李友根说。

标签: 机器人 人工智能 法律

相关阅读

相关词

推荐阅读