- 西南知识产权评论(第九辑)
- 李雨峰主编 张惠彬执行主编
- 3993字
- 2021-05-07 18:10:34
四 人工智能的风险及其规制
正如华中农业大学刘旭霞教授所说,目前人工智能面临的主要是安全问题。人工智能对人类安全之威胁主要体现在隐私和法律伦理两个层面。就隐私而言,数据是人工智能的基石,无海量数据支撑的人工智能无法进行深度学习继而及时作出准确判断;人工智能的每一次应用均涉及对数据的收集、处理和利用,这些数据大多涉及社会公众、消费者、网络用户的个人数据和个人信息。在此背景之下,如何规制对个人数据和个人信息使用,破除人工智能对隐私的威胁,便成了问题的关键。就法律伦理而言,人工智能的多种面孔对人类社会带来了某些不确定性,这些不确定性时刻影响着人类社会的安全。对此,我们应当准确界定人工智能及其应用的边界,以适当的伦理价值和规则引导它朝良性的方向发展。对于上述安全问题,刘旭霞教授认为解决之道在于加强事前监管,即在研发阶段、生产应用阶段、市场准入阶段均对其风险予以评估并采取适当措施。
(一)人工智能的隐私风险及其规制
南京师范大学梁志文教授认为,个人数据保护正面临两大困境。第一,以同意为前提的个人数据使用规则已经被架空。就互联网企业对个人数据的收集、处理和使用而言,绝大多数用户基本不会阅读那些复杂且充满法律术语的个人数据条款,加之如果用户不点击同意将无法使用相关软件,因此用户点击“同意”的行为徒留于形式并不能代表其同意数据条款的真实意思表示。第二,个人数据的匿名化处理具有一定局限性。个人信息分为敏感信息与普通信息,在对个人数据进行使用之前要对其中的敏感信息进行脱敏处理,但是用户画像技术依然可以利用脱敏数据确定某一特定主体。对于上述两大困境的解决,梁志文教授认为,应当从个人数据的性质入手,将个人数据定性为具有一定价值的经济数据而不仅仅是一种关涉隐私的数据,如此便可从权利客体的规制转向行为的规制。具体而言,首先区分个人数据的收集、处理与个性化的利用,收集、处理是纯粹的经济利用,个性化利用可能涉及个人隐私;然后区分数据处理责任与算法责任,通过对算法监控来实现对个人隐私的保护并对侵犯个人隐私的数据利用行为苛以相应的责任。
清华大学吴伟光副教授从顶层设计的高度及人与隐私之间的伦理关系阐释了化解人工智能与隐私利益之冲突的途径。他认为,隐私利益是人类在竞争中产生的信息独占关系,只要有竞争就有隐私利益。人与人之间的合作程度和效率越高,其隐私利益越小,因为互换信息是合作的前提。人工智能将提升社会合作的广度和深度,继而使合作者互换信息,提高信息沟通的水平和效率,从而降低人的隐私利益期待。在此背景下,对隐私权的保护不仅需要事后救济还需要事前监督。他进一步谈道,社会由能量和信息两部分组成,能量可以改变世界,但是如何使用能量是由信息决定的。在前人工智能时代,人是能量和信息之间的联结点,只要控制住人,就控制了信息与能量的结合。例如,欲控制汽车,控制司机即可。但在人工智能时代,能量和信息可以直接结合,人被从能量与信息的结合中解放出来。当人类跳出信息和能量结合点之外,我们可以控制更多能量体,个体对社会的干扰程度将获得巨大提升,相应地,个体对社会的破坏率亦得以提升。此时,仅靠法律不足以保护个人之隐私,必须基于海量的信息对人工智能进行事前监管。
中国科学院大学尹锋林教授从行业规范的角度阐释了人工智能时代个人信息保护的路径。他认为人工智能技术的发展促进了对个人信息数据的收集和利用,同时也对个人信息的保护提出了挑战。关于该挑战之应对措施,尹锋林教授认为应当构建个人信息保护行业规范。因为无论从诉讼成本还是侵权赔偿数额,个体均没有充足的动力保护其自身的个人信息,在此情况之下,只能依靠政府、行业和相关企业建立个人信息保护规范及标准。目前我国已有相关的实践,最早见于2012年工信部制定的《信息安全技术公共及商用服务信息系统个人信息保护指南》,之后国家标准委员会又制定了《信息安全技术移动智能终端个人信息保护技术要求》,这两个规范确立了多项个人信息保护原则,在这些原则中尹锋林教授认为至少要遵守以下三个。其一,目的明确原则,即收集、利用、转移个人信息必须有正当、合法、明确的目的。其二,选择同意原则或者知情同意原则,即个人信息的收集、利用、转移应当取得权利人的同意。其三,最少够用原则,即在满足需求的情况下不能过多收集个人信息。他还指出了上述规范之标准存在的亟待解决的四个问题。第一,现行标准均是倡导性的而非强制性的,它没有为个人信息保护提出一个最低限度的要求。第二,在企业没有制定个人信息保护标准的情况下,如果发生诉讼,法院能否参考这些倡导性的标准作出判决。第三,如果企业的行为不符合上述标准,是否构成违约或侵权。第四,如果构成违约或者侵权,它应当承担什么责任及如何承担这些责任。
深圳大学朱谢群教授认为,个人信息和隐私是两个层次的问题,当下我国对个人信息保护的探讨超过了其应有的热度,个人信息是否应当入民法总则还可以进一步商榷。其理由有三。第一,个人信息保护是由隐私延伸而来,从历史到现在我国一直保持群体主义或集体主义的传统,这种传统下的隐私观念以及对隐私的理解应当有别于欧美国家。第二,我国不能只看美国法律对隐私权保护一端,而过度强调隐私。第三,隐私扩张至个人信息是欧洲国家和美国在技术水平不一样的情况下政策博弈之结果,如果我国个人信息保护程度过高,无疑会束缚我国产业的发展。因此他认为,人工智能产业发展必然导致数据利用,这种数据不是个人信息或个人数据,而是脱敏以后不可识别的大数据。所以即将到来的5G和物联网时代才是大数据发挥作用的世界,在物联网情况下,数据都是机器交互产生的而不具有个体特殊性,如此才能真正为人工智能提供更多支撑。朱谢群教授进一步谈道,现在的个人数据保护争议主要源于个人信息泄露、算法上的缺陷或者算法的提前操作,导致了诸如诈骗、恶意干扰等严重后果和目前仍无法救济的真正的伤害——精准推送。朱谢群教授认为破解之道不在于规制客体本身,即规制个人信息的获取,而在于客体背后的行为,即规制对个人信息的不正当利用。
西南政法大学张建文教授认为保护隐私是为了保障个体不被监视且按照其意愿生活,如果不保护隐私和个人信息,互联网企业及其开发的技术将不能获得公众的信任。西南政法大学人工智能法律研究院叶明副院长认为隐私、个人信息和个人数据三者之间应当有所区别,人工智能的发展需要这些信息和数据,与此同时也应当保护人的权利。
西南政法大学知识产权学院牟萍副教授认为,人工智能不能仅依赖于算法,还必须有数据,并且未脱敏的个人数据在人工智能的研发中更有价值,当下各种投资、融资、企业并购之所以如此活跃正是为了解决数据来源及数据单一化问题,尤其是在我国数据交易市场不景气的情况下更是如此。牟萍副教授进一步谈道,虽然有时我们会为了便利而放弃隐私,但并不等于放弃了所有的个人信息利益,对个人数据的保护应该把握好一个度,因为太严格的个人数据保护会阻碍人工智能的研发或成为人工智能产业发展的绊脚石,太宽松的个人数据保护将不利于人格利益之保护。因此,问题的关键在于界定个人信息保护的边界。为此,牟萍副教授以知识产权与个人信息之共性为出发点提出了平衡权利保护与产业发展的制度构想——建立个人信息合理使用制度。
汪庆华教授认为,人工智能的本质即算法,算法引发了安全、偏见和隐私三个问题,美国主张制定专门规则予以规制,欧盟采取源头治理方案。汪庆华教授认为,对算法的规制应当从以下两方面着手:其一,以体系化和全球化的思维超越公私法的界限明确宪法、行政法、民商经济法等不同部门法的分工;其二,立足于本国并参考域外法经验,同时注意算法的跨界性和溢出效应,以免出现授人以柄的情况。
(二)人工智能的伦理风险及其规制
腾讯研究院曹建峰高级研究员认为人工智能的法律伦理主要体现在两个方面:其一,技术应用是否有边界,能否将技术应用于人类,即人本身能否成为技术应用的对象;其二,技术会影响人类的伦理认知,例如每年交通事故频发,但从来没有人认为人类驾驶汽车是不道德的行为,而对自动驾驶的看法则不一样,因为它对人类构成了威胁。曹建峰先生进一步谈道,对人工智能的伦理认知涉及对人工智能的信任,需要建立一套规则体系,亦需要灵活且有弹性的监管方式,因为技术发展具有不确定性,无法对其实施强制性的法律规制,可以采取伦理科技向善思路和包容审慎思路。比如自动驾驶侵权责任可以通过产品责任来解决。以前立法者关注人的行为、为人类立法,今后可能需要关注机器的行为,为机器立法。可见,法律可规制科技,科技亦可促进法律的发展。
清华同方法务部苏云鹏总经理认为,高科技企业对人工智能道德伦理规制具有不可推卸的责任,具体而言应当从以下两方面着手。其一,高科技企业、人工智能企业成立伦理道德委员会,该委员会成员由不同学科、不同行业的专家组成,所有人工智能高科技产品在推向市场之前,需先经过道德伦理委员会的论证,并实行一票否决制度。其二,成立人工智能行业协会,引导企业朝着不违背道德伦理的方向发展。从另一个角度来讲,苏云鹏总经理亦认为,立法应当具备一定的包容性,给人工智能行业预留一定的发展空间。
The Future has Come and will be Here:The Anxiety and Rationality of Law under the Artificial Intelligence—The Summary of the Seminar about “Artificial Intelligence:Dialogue between Science and Law”
Abstract:On May 11th,2019,the seminar of “Artificial Intelligence:Dialogue between Science and Law” was held in Chongqing Yinxin Century Hotel.Judges,experts,scholars and corporate elites from all over the country focus on the “development status of artificial intelligence”,“the subjectivity of artificial intelligence”,“the attributes and attribution of artificial intelligence generated content ” and “risk and regulation of artificial intelligence” from the dimensions of science technology and law have been comprehensively and deeply discussed.This seminar explores the risk prevention and legal regulation of artificial intelligence from different aspects,which is of great significance to the academic research and industrial development of artificial intelligence.
Keywords:Artificial Intelligence;Subjectivity;Artificial Intelligence Generated Content
[1]本文系重庆市社会科学规划博士项目“创新驱动发展战略下专利激励机制研究”(2015BSO45)的阶段性成果。本综述由笔者根据现场速录整理而成,未经发言人审核,文责由笔者自负。
[2]陈伟,西南政法大学民商法学院知识产权法专业博士研究生,重庆知识产权保护协同创新中心助理研究员。