189 8069 5689

邵国松黄琪:人工智能中的隐私保护问题

内容摘要:人工智能的快速发展引发了人们对其侵犯隐私的担忧。人工智能以大数据技术为支撑,其与大数据的结合使个人隐私更容易被侵犯,且责任也难以被追究,当事人的合法权益难以得到救济。本文通过揭开人工智能侵犯隐私背后的神秘面纱,在现行法律框架内为隐私被侵犯提供可行的救济路径。

望花网站建设公司创新互联,望花网站设计制作,有大型网站制作公司丰富经验。已为望花数千家提供企业网站建设服务。企业网站搭建\外贸营销网站建设要多少钱,请找那个售后服务好的望花做网站的公司定做!

关键词:人工智能;隐私保护;个人信息;大数据

进入新世纪以来,人工智能(Artificial Intelligence)与人类生活的联系越来越紧密。原本存在于科幻书籍中的人工智能,正大规模成为现实,从语音助手、人脸识别,到虚拟机器人聊天等,无不显示着人工智能的存在。犹如一枚硬币的正反面,人工智能在给人类社会生活带来巨大变革的同时,亦对隐私保护带来前所未有的挑战。本文首先介绍人工智能的兴起及其特征,之后介绍人工智能中隐私保护的对象,人工智能侵害隐私的方式,以及可能的法律救济手段,最后对全文进行总结。

一、人工智能的兴起

人工智能并非当前互联网时代的新兴产物,其已有较长的发展历史。20世纪50年代,图灵(AlanMathison Turing)发表了一篇论文《机器能思考吗》,并提出了“图灵测试(The Turing Test)”,表明了当时顶尖科学家对人工智能的思考与探索。[1]关于人工智能的源起,现在已基本无异议1956年,以麦卡锡、明斯基等为首的一批年轻科学家在达特茅斯召开了关于人工智能的研讨会,首次提出“人工智能”这一术语,这标志着“人工智能”的正式诞生。

人工智能的兴起与发展,与人工智能理论以及计算机硬件的发展密切相关。尤其是进入21世纪,大数据的广泛应用、超算与深度学习已成为人工智能突飞猛进的关键推手。在某些领域,人工智能被认为是超过了“人类智能”。比如,过去两年间,人工智能AlphaGo接连战胜围棋世界冠军李世石以及中国围棋职业九段棋手柯洁,人机对弈的结果引发了人工智能将如何改变人类社会的广泛讨论,也一定程度上催生了人工智能可能威胁人类存在的忧虑。

人工智能其实是个很宽泛的概念,从人脸识别到机器翻译,从手机上的智能软件到可穿戴设备,从无人驾驶汽车再到未来可能改变世界的重大变革,人工智能可以用来描述很多东西。发展至今,对何谓“人工智能”,人们尚未取得共识。有学者从计算机应用系统的角度出发,认为人工智能是延伸人们智能的科学,以制造智能机器或智能系统的研究为中心,从而达到与人类智能活动能力相拟制的状态。[2]也有学者认为,人工智能是一门扩展和延伸人类智能的理论、技术以及应用的新技术科学,其目的在于生产一种智能机器,机器人、专家系统、自然语言处理、语音识别等均为其研究领域。[3]还有学者通过对比人类智能与人工智能,认为人工智能就是让机器人或人所创造的其他人工方法或系统来模拟人类智能。[4]综上所述,我们可以认为人工智能首先是一门科学,其次是利用科学技术创造出来的“类人脑”或“超人脑”的智能机器、智能系统或智能软件。

提及人工智能,人们普遍将其与机器人等同起来,这是个认识误区。人工智能主要分为三个领域,即机器人技术(Robotics),自然语言处理(Natural Language)与专家系统(Expert Systems,ES)。[5]尽管人工智能与机器人在某些领域存在交叉,但为两个不同的概念。犹如人的大脑与躯体,人的智能存在于大脑中,而大脑通过指导躯体来行动。人工智能是机器人内部的核心部分,机器人只是其载体,而且这个载体可能表现为不同的形态,在某种情况下,可能连这个载体都不需要。比如,苹果公司的Siri背后的软件和数据就是人工智能,其并没有机器人这个载体部分。此外,不同于传统意义上的机器人,人工智能是一种深度学习,其与大数据分析息息相关,在不需要人类介入的情况下能自主学习与进化,通过发现模式和关联性来做出预测和决定。[6]而之前很长一段时期,科学家致力于穷尽编纂现有体系中的所有知识与程序,将其嵌入机器中,从而让机器按照人为设定的规则或程序进行运作。

此外,科学家依据其能力高低,已将人工智能分为三大类:弱人工智能(Artificial NarrowIntelligence)、强人工智能(Artificial General Intelligence)与超强人工智能(Artificial Super Intelligence)。弱人工智能在单个方面很擅长,如上文提到的能战胜围棋世界冠军的人工智能。强人工智能在各方面都能和人类比肩,人类能干的脑力活它都能干。目前人类还做不到创造强人工智能。超强人工智能则被人工智能思想家波斯卓(Nick Bostrom)定义为在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。[7]就目前发展阶段而言,我们尚处于弱人工智能时代,其优势主要在于规则非常明确的领域。[8]比如,无人驾驶汽车、智能翻译、垃圾邮件过滤器、搜索引擎、智能客服等等,这些均在日常生活中较为常见。强人工智能和超强人工智能尚未真正来到。在某种程度上讲,人类并不希望其来到,以免对人类本身构成威胁。[9]

二、人工智能中隐私保护的对象

何谓隐私?不首先明确这一问题,则人工智能中的隐私保护就无从谈起。美国法学家沃伦(Samuel D.Warren)与布兰代斯(Louis D.Brandies)于1890年发表《论隐私权》一文,首次提出隐私概念,并将其界定为一种免受外界干扰的独处的权利。[10]随着时间的推移,隐私权在美国各州及世界各地逐渐推广开来,隐私权的内容也随之不断丰富。比如,《布莱克法律辞典》将隐私定义为个体控制属于其个人的行为或决定不被外在所侵扰或干扰的权利。[11]《牛津法律辞典》认为,隐私是一个不被干扰的权利,它包括通讯的隐私(例如,电话、信件等),住宅与办公场所的隐私等。[12]王利明教授认为,隐私指自然人的私人秘密和私生活安宁不被外界公开和干扰的状态。[13]由此可见,隐私本质特征在于由所有者独自控制,不对外公开,外界亦不得侵犯。

目前学界主要将隐私分为信息隐私、空间隐私、自决隐私等领域。[14]对于前两种隐私比较容易理解,而自觉隐私则是指个人不受外界干扰、可自主决定其隐私生活的权利,比如,对于个人信息,有权决定如何使用、哪些信息可公开、哪些不公开,它建立在权利人意思自由的基础上。[15]在我们看来,上述三种隐私均存在被人工智能侵犯的风险。对信息隐私与空间隐私的侵犯,以人工智能目前所达到的水准是没有技术障碍的。而对于自决隐私,人工智能完全可以在当事人不知情的情况下进行收集、处理、利用与披露,当事人的“自决”在人工智能面前基本上形同虚设。

若人工智能侵犯隐私,何者可成为隐私被侵犯的对象?这涉及到隐私权主体的确定问题。隐私权属于人格权,隶属于民事权利。在民事法律关系中,权利主体不外乎个人(自然人)、法人与其他组织,这是否意味着它们均享有隐私权呢?我们认为,隐私权的主体只能是个人,而不能是法人或其他组织。隐私在本质上属于自然人的精神领域的利益,若隐私被侵犯,则自然人在心理上或精神上将产生不适或痛苦。虽然法人或其他组织也会有隐私,但那种隐私究其实质属于商业秘密或经营秘密,而商业秘密或经营秘密是一种财产利益,受知识产权法和反不正当竞争法保护,不属于人格权范畴。[16]

在隐私保护问题上,个人信息的定位不得不关注,其与隐私之间的关系问题是隐私保护不可回避的问题。个人信息与隐私在覆盖范围上存在重叠。个人信息既包括公开的个人信息(比如,姓名、出生年月日等),也包括隐秘的个人信息(即隐私,包括婚姻家庭状况、财务与信用状况、活动踪迹等),至于它们之间的界限,则取决于信息所有者对它们所采取的控制措施。其中,公开的个人信息主要着眼点在于合理利用(公开的个人信息并不意味着可以被无限制传播与利用)[17],而隐私则在于为所有者独自控制、支配,不可能存在允许他人利用的情形,否则就不构成隐私。因此,隐私属于一种没有公开或所有者不愿意被公开的个人信息。

三、人工智能侵犯隐私的方式

随着互联网向物联网逐渐过渡和发展,“人人相连”的网络格局逐渐呈现出“人物相连”与“物物相连”的现象。因此,人工智能对人实施侵犯并非不可能。对于人工智能侵犯隐私,有学者认为带有科幻色彩。[18]其实,人工智能侵犯隐私的情形主要存在两种原因。一是侵权人可以非法控制智能系统,比如黑客、病毒等,二是智能系统本身可能存在瑕疵。[19]通过明确人工智能侵权的原因,揭开人工智能侵犯隐私背后的“神秘面纱”,无疑对侵权人责任之承担或权利人权益之救济具有指导价值。目前来说,人工智能至少可通过三种方式侵犯隐私,即非法监控、非法侵入个人空间或住宅以及非法干扰个人行为。

1.非法监控

监控不仅包括对物理空间的监控,也包括对虚拟空间的监控。虚拟空间是指网络空间,它独立于物理空间而存在。尽管非法监控与非法侵入个人空间或住宅存在交叉,但不论是对物理空间还是对网络空间的监控,非法监控所涉及的隐私领域主要是信息隐私,而非法侵入个人空间或住宅主要涉及空间隐私。在非法监控中,对物理空间或网络空间的侵入只是手段,终极目的在于获取未公开的个人信息。

物理空间包括私人空间与公共空间。私人空间的信息隐私主要是未对外公布的体现个人秘密的物(可以是信件、个人喜好的物件等)或个人语音,人工智能一般通过侵入互联网进而控制家庭的摄像头或通讯设备,从而对个人隐私进行监控。如果人类家庭未安装家用摄像头、通讯设备以及其他任何可能泄漏隐私的电子设备且隐私只存在于大脑中未对任何人透露,我们相信人工智能基本上无计可施。而在公共空间,通过全天候的天眼监控摄像头、全方位的信息联动系统,个人的活动踪迹(比如,出行记录、住宿记录等)也会被人工智能一览无遗。

网络空间的信息隐私以互联网为载体。互联网为个人信息的大量收集、储存与利用提供了便利条件。通过采取一定可行措施,可以规避物理空间的信息隐私被侵犯的风险。而在网络空间,只要个人信息上传到互联网上(不管主动还是被动),即使采取了加密措施或只在极小范围特定领域内传播或利用,人工智能也能轻易地突破“封锁”,隐私被侵犯的威胁仍然存在。在网络空间,存在一种所谓的“数字化人格”,即根据数字化信息建立起来的人格。[20]在传统方法上,需要通过长期的交流与合作才能了解一个人的人格。在互联网时代,通过收集与处理广泛而零碎的个人信息可勾画一个人在网络空间的形象,而无需通过亲身接触与体验。在很大程度上,数字化人格是一种被动建立的人格,它可能建立在个人信息的不合理利用或侵犯隐私的基础上。

人工智能提高了我们的监控能力。曾经监听电话需要一个接听者监听每一个电话,而语音识别技术的发展可以让替代的电脑同时监听上千个电话;曾经需要上百个智能分析师在巨量的记录中搜寻关系,而人工智能知识管理技术能自动地寻找到模式并让它们引起特工的注意,这些技术发展极大地增强数据收集和分析的潜力,从而加强了无处不在的监控。[21]且人工智能侵犯隐私的技术无比强大,比如,对图像或视频作模糊处理在人工智能面前毫无用处,用户信息“匿名”成为保护隐私华而不实的“挡箭牌”,这些引发了诸如“个人隐私无处安放”[22],“大数据之下你我赤裸相见”[23]之类的社会担忧。

对于人工智能非法监控、侵犯信息隐私如何进行救济,是学者关注的一个问题。比如,卡罗(M.Ryan Calo)教授认为,为更好得保护隐私,公共政策制定者应对军事部门与执法部门利用机器人监控公民施以限制。[24]对隐私被侵犯进行法律救济涉及到侵权主体/监控主体的确定问题。如上文所述,人工智能非法监控个人隐私一般存在两种原因:人工智能被人利用与人工智能存在瑕疵的自主行为。在前一种情况下,人工智能仅是一种工具,由侵权人承担法律责任是毋庸置疑的,此外,根据我国《刑法修正案(七)》(2009)增设的“非法获取公民个人信息罪”,监控个人信息、侵犯隐私情节严重的还可能构成刑事犯罪。对于后一种情况,可能存在两种事由:人工智能制造者的技术缺陷以及人工智能逾越原行为方案的“自主行为”。对于人工智能的技术缺陷,可视为一种产品缺陷,包括设计或制造缺陷、信息缺陷或没有成功指导人安全和适当地使用产品。[25]此种缺陷致损,可适用侵权责任法,由设计者、制作者或销售者承担产品责任。对于人工智能逾越原行为方案的“自主行为”,如何确定责任,则涉及民事法律主体资格的确认问题。虽然人工智能越来越强大,在某些领域甚至超越人类智能,但对其是否属于法律主体争议较大。人(主体)与物(客体)是民法体系的两大基石,它们之间存在严格的区分,民法上的人包括自然人与法人,具有权利能力与行为能力。民法上的物包括有形物与无形物,泛指人以外的没有思想、精神的物。若人工智能仍是物,则其责任承担一般就比较明确谁控制/使用谁承担。若将人工智能拟制为“人”,并赋予主体资格,则冲击现有民法体系中的主客体架构。[26]就人类设计、创造人工智能的本质目的来看,是为了让人工智能更好地服务人类,而不可能希望其脱离人类的控制并对人类权益造成损害,故人工智能逾越原行为方案的“自主行为”究其实质乃是人工智能设计者、创造者意料之中的一种“不自觉行为”,若人工智能没有“自主行为”,其与传统的机器人就不存在任何区别。因而,人工智能的智慧与行为与自然人不能简单等同,其仍然被民事主体控制,不存在独立的法律主体地位。所以,人工智能逾越原行为方案的“自主行为”致损仍不可能由人工智能本身独自承担责任。对于人工智能的“自主行为”,设计者或制造者并不存在主观过错,被侵权人也没有过错,在这种情形下,可以适用侵权责任法上的公平责任,由双方当事人根据实际情况分担损失,这样既弥补了被侵权人一部分损失,又不致打击设计者或制造者的积极性、抑制技术进步,在权益救济与促进技术进步之间达成一种平衡。另外,还应注意的是,若人工智能的管理人、使用人或所有人已发现“自主行为”且放任侵权行为,那么应由他们承担全部责任。[27]

2.非法侵入个人空间或住宅

这里的个人空间仅指物理空间,不包括网络空间。传统的侵入个人空间或住宅的方式较为有限,比如,监视、窃听、刺探、秘密进入等,且这些方式均需通过人力才能完成。而人工智能可能只需通过侵入个人空间或住宅内的监控视频、通信网络设备、智能家居系统等就可侵入个人空间或住宅,且不留下任何外力痕迹。可以说,人工智能的出现使得侵入个人空间或住宅有了新的方式。[28]需要注意的一点是,对个人空间范围的界定,目前并没有统一的标准,我们可以将其界定为具有一定面积的封闭的物理空间。个人空间不仅包括住宅空间,个人短期使用的私人空间(比如,旅馆、宾馆)以及公共场所的私人空间(比如,公共卫生间、商场换衣间)也包括在内。

如上文所述,人工智能对个人空间或住宅的侵入侵犯的是个人的空间隐私。空间隐私主要体现的是个人的私密行为,意味着当事人不愿意让他人知晓或他人不便知晓。即使当事人在个人空间或住宅未进行任何私密行为,也不意味着侵入就不属于侵犯个人隐私。

我国《宪法》第39条规定“中华人民共和国公民的住宅不受侵犯。禁止非法搜查或者非法侵入公民的住宅。”这是我国法律对住宅隐私进行保护的最根本的依据。但这只是对住宅隐私进行保护的原则性规定,对于个人空间或住宅隐私被侵犯后的法律救济缺乏可操作性,对于人工智能非法侵入公民住宅可能更是未曾料及。此外,我国《刑法》第245条也对非法侵入住宅进行了规定,并确定了具体的定罪量刑标准。[29]我国《宪法》与《刑法》上的侵入住宅的“侵入”主要体现的是一种强行进入或秘密进入,主体为自然人,并且对公民住宅的保护以及对侵入住宅的惩罚在很大程度上所体现是对公民的人身权利或民主权利或财产权利的保护,而非狭义上的隐私保护。故人工智能非法侵入个人空间或住宅引发的隐私救济与现有法律的权利保护秩序并非完全一致,但这并不意味着我国《宪法》与《刑法》在人工智能非法侵入公民住宅的问题上完全没有适用的余地。

如上文所述,若人工智能被人利用侵入个人空间或住宅,则由控制人或使用人承担民事或刑事责任。若人工智能自发侵入个人空间或住宅,因非法侵入公民住宅罪的主体为自然人且主观上须为故意,故人工智能本身不符合承担刑事责任的构成要件,而民事责任的承担与法律救济的路径在上文已有详细论述,在此不再赘述。

3.非法干扰个人行为

人工智能非法干扰个人行为,在某种意义上,可称为人工智能代替个人进行决策,其所侵犯的是个人的自决隐私。人工智能侵犯自决隐私与大数据息息相关。大数据指的是大小超出常规的数据库工具获娶存储、管理和分析能力的数据集。[30]它主要是对互联网中巨量的个人信息、企事业单位信息以及其他主体的信息通过搜集、存储、分析、挖掘、处理等方式而形成。由此可见,尽管大数据在本质上属于信息,但它是一种经加工后有组织的信息,与广泛而零散的信息不能等同。

个人隐私并不仅仅局限于大数据中被采取加密措施的个人信息,通过对个人信息的“预测性分析”得到的个人不曾公开的信息亦属隐私。互联网上存在大量的实名或未实名的用户数据,人工智能通过一定的技术手段对用户数据进行收集与分析,可以准确分析出用户的兴趣爱好、行为踪迹等信息,并进行信息推荐,而这些信息用户并未主动提供,显而易见,用户是根本不愿意这些信息被其他主体知晓,这势必侵犯个人自决隐私。很典型的例子为,通过分析网购历史记录,某商户比父亲更早知道其女儿已怀孕的隐私,并向其提供护婴产品信息。既然商户尚能如此,那么人工智能更不存在技术上的障碍。于人工智能而言,获得未加工的数据更加容易与以一种有效的方式处理、核对数据。[31]在实践中,人工智能对信息的获取更加主动,不再单纯地依赖于信息主体的提供,而且对信息的利用也更加高效。

我国《刑法》先于民法等其他法律对个人信息保护进行了规定,《全国人大常委会关于加强网络信息保护的决定》(2012)确立了我国个人信息保护最基本的规则,即个人同意规则。此规则贯彻到之后的《消费者权益保护法》(2013)与《网络安全法》(2016),但新近颁布的《民法总则》第111条对个人信息保护没有出现同意规则,有学者认为这为个人信息保护确定正确的规则开辟了空间。[32]根据相关统计,我国目前存在近270部法律、法规、规章涉及个人信息保护。[33]虽然在个人数据保护层面,我国缺少基本立法,但上述法律、法规、规章及相关司法解释基本对国际上有关个人数据保护的基本原则和规范进行了采纳,[34]只是在理解上存在偏差。

人工智能通过对大数据的使用非法干扰个人行为,侵犯个人自决隐私。有学者认为,在个人数据收集和使用的过程中存在许多乱象,非法使用或盗卖个人数据的现象十分严重,呼吁我国制定出个人数据保护法,以规范个人数据处理行为。[35]我们认为,我国已经存在许多关于个人信息保护的法律法规,单独制定的个人数据保护的立法内容难以与已经存在的法律法规存在本质区别,而且我国个人信息保护的法律法规已基本上采纳了个人数据保护的基本原则与规范,故制定个人数据保护法不仅没有多大价值,而且还有可能引起法律适用上的混乱。

之前学者讨论个人数据保护隐含的前提是防止自然人/企业/其他组织不合理使用大数据侵犯个人隐私、攫取不正当利益。而人工智能的发展必须依靠大数据,充足的数据资源是人工智能发展的条件。若阻碍大数据的流通与利用,无疑不符合当前的时代潮流。对于人工智能通过对大数据的使用非法干扰个人行为、侵犯个人自决隐私,可通过上述责任承担/法律救济规则予以解决,在此不再赘述。至于解决人工智能的自主行为对个人自决隐私的侵犯,部分可考虑通过技术的发展自行纠正。

四、结语

人工智能伴随着现代科技的发展而大发展,并快速应用于人类的生产与生活,逐渐改变着人们的生活方式与认知方式。本文在阐述人工智能的兴起与分析其概念的过程中,站在前人研究成果的基础上,认为人工智能目前尚处于弱人工智能阶段,即使后面进化到更高级的阶段,仍不可能完全脱离人的影响。毕竟,人工智能的目的是为了让人的生活更美好,而不是让人工智能有朝一日统治人类。通过对人工智能侵犯隐私的原因进行总结,可以发现主要存在侵权人非法控制智能系统以及智能系统本身存在瑕疵两种情形。后一种又可以分为技术缺陷与“自主行为”。通过对每种原因进行分析,有针对性的对侵权人的责任承担或权利人的利益救济寻找相应的解决规则。另外,人工智能一般通过非法监控、非法侵入个人空间或住宅以及非法干扰个人行为三种方式侵犯隐私,这三种方式分别对应隐私领域的信息隐私、空间隐私与自决隐私。通过展示人工智能侵犯隐私的主要方式,本文力图在现行法律规则范围内为隐私被侵犯提供一条可行的救济路径。但即便人工智能可能给个人隐私造成侵犯,其仍是有价值的追求,人类需要做的是谨慎部署,使之能更好得为人类提供服务。

*本文系国家社科基金项目“大数据时代个人数据法律保护研究”(项目编号:15BXW030)的阶段性研究成果。

注释:

[1]图灵测试是指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测

试者随意提问。进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这

台机器就通过了测试,并被认为具有人类智能。

[2]田金萍:《人工智能发展综述》,《科技广撤,2007年第1期。

[3]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报),2017年第5

期。

[4]蔡曙山、薛小迪:《人工智能与人类智能从认知科学五个层级的理论看人机大战》,《北京大学学报》(哲学社会科学版),2016年第4期。

[5]Vicky Harris.ArtificialIntelligence & the Law-InnovationIn A Laggard Market?Journal of Law and

Information Science, vol.3, no.2, 1992.pp.287-299.

[6]StephenKai-yi Wong,Barrister.Big Data,Artificial Intelligence And Privacy.Privacy Commissioner for

Personal Data,Hong Kong.pp.1-36.

[7]《一张图看懂新一代人工智能知识体系大全》,软件定义世界(SDX),

https://608782.kuaizhan.com/83/59/p448842399e4ead,2017年7月24日。

[8]杜严勇:《人工智能安全问题及其解决出路》,《哲学动态》,2016年第9期。

[9]【以】尤瓦尔赫拉利:《未来简史》,林俊宏译,中信出版社2017年版,第251页。

[10]王利明:《人格权法研究》,中国人民大学出版社2005年版,第559页。

[11]Bryan A.Garver.Black's Law Dictionary(8th ed).Thomson West.2004.p.3783.

[12]Elizabeth A.Martin.Oxford Dictionary Of Law(5th ed).OxfordUniversity Press. 2002. p.381.

[13]同注10。

[14]同注10。

[15]邵国松:《“被遗忘的权利”:个人信息保护的新问题及对策》,《南京社会科学》,2013年第2期。

[16]王利明:《人格权法研究》,中国人民大学出版社2005年版,第567页。

[17]雷震文:《大数据时代的个人信息合理利用问题研究》,《判解研究》,2016年第3辑。

[18]李欲晓:《物联网安全相关法律问题研究》,《法学论坛》,2014年第6期。

[19]同注3。

[20]同注3。

[21]M.Ryan Calo.Peeping Hals: Making Sense of ArtificialIntelligence and Privacy. European Journal of Legal Studies, vol.2,no.3,2010. pp.168-192.

[22]蔡铭耿:《莫让公民隐私无处安放》,《台州晚报》,2015年9月18日,第5版。

[23]《大数据之下你我赤裸相见》,http://www.woshipm.com/operate/34782.html,2013年7月16日。

[24]M.Ryan Calo.ArtificialIntelligence.Elsevier. 2011. p.941.

[25]David C. Viadeck.Machines Without Principals:Liability RulesAnd Artificial Intelligence.Washington Law Review, vol.89:117, 2014. pp.117-150.

[26]同注3。

[27]同注3。

[28]同注24。

[29]我国《刑法》第245条:“非法搜查他人身体、住宅,或者非法侵入他人住宅的,处三年以下有期徒刑或者拘役。司法工作人员滥用职权,犯前款罪的,从重处罚。”

[30]同注17。

[31]同注21。

[32]《消除个人数据保护的五大误区》,搜狐新闻,http://www.sohu.com/a/157757131_260616,2017年7月17日。

[33]同注15。

[34]比如欧盟的《数据保护指令》与《统一数据保护条例》。

[35]同注32。

(作者邵国松系上海交通大学媒体与设计学院副院长、教授、博士生导师;黄琪系南京财经大学法学院研究生)


新闻标题:邵国松黄琪:人工智能中的隐私保护问题
本文路径:http://cdxtjz.com/article/cpscop.html

其他资讯