周欣怡|滥用预测算法行为的侵权法规制

文章正文
发布时间:2024-08-06 01:15

将滥用预测算法行为纳入侵权法规制,有利于在法律框架内救济受害者。侵权损害后果包括个人信息泄露和价格歧视,面临判定难、归因难与公法越位等问题。滥用预测算法侵权行为过错程度分为故意与过失,并排除自甘风险免责原则。突破现行法律规范,采取举证责任倒置与过错推定原则更加切合实际。就抽象的算法歧视后果,以法律衡平的视野符合社会需要。

一、问题的提出

伴随着互联网技术的更新升级,预测算法逐步渗入社会生活的方方面面,滥用预测算法的侵权行为也愈发普遍。预测算法是根据过去的行为模式去预测未来的技术,依靠大量数据的抽取,与传统数据抽取样本分析有极大的不同。传统的统计分析依靠复杂的技术抽取具有代表性的样本,并从样本中归纳分析出相关的具体特征,并类推至整体。随着数据的指数级增长,研究人员逐渐可以使用预测算法来观察整个人口,通过观察分析推演出未来的行动模式和发展特点,并对含有意义的数据进行专业化处理实现数据的增值。

在商业领域,技术监控显得更加普遍和平凡,各大互联网平台大量收集用户相关信息和行为数据,按照偏好向其投放广告,并根据消费者习惯识别出最具有价值的消费者达成利益最大化。预测算法的技术利用表面构成双赢,无论是针对消费者的个性化定制还是商家攫取最佳利润,都有助于商品要素流动,提高商业运行效率。然而,滥用预测算法的行为层出不穷,无论是未经允许擅自读取用户基本个人信息,还是算法黑箱下的歧视和偏见引导个人消费环境恶化,都对个人权利与社会公平正义价值构成挑战。

法律规制滥用预测算法的行为由多个视角切入,最为常见的包括数据确权、算法备案类的事前规制,也包括在传统民商法框架下的侵权事后惩戒。细数近年司法判决中关于预测算法的相关案例,无论是“广州某某会电子商务有限公司与周某个人信息保护纠纷案”“上海某程商务有限公司与胡某侵权责任纠纷上诉案”,还是更早之前的“cookie第一案”,法院大多被动式地将案件纳入侵权法律关系框架,向互联网平台追责以提供救济途径。该行动模式是有迹可循的。在技术水平日新月异的现今,我国法律出台速度远远不比算法的更新换代,甚至为科技发展放慢规制脚步,对各种新兴概念的界定模糊、专业组织欠缺,借助事前规制手段尚缺乏可操作基础,将滥用预测算法行为纳入定型化的侵权法规制,有利于为受害人救济提供理论支撑。

二、滥用预测算法行为的类型

以侵权法的视角看待预测算法,需对滥用预测算法行为做出定性分析,即明确双方法律关系从而划定权利义务。滥用预测算法的侵权行为借助网络技术和网络平台实施,其主观过错、损害预防能力和侵权后果上都存有重大差异,类型化处理有助于对症下药。

1.预测算法运用底层逻辑




预测算法的底层路径由“收集信息-导入模型-生成预测”构成。

第一步数据采集的核心是cookie技术,即网站为了辨别用户身份,通过跟踪用户本地终端上的数据并由用户计算机暂时或者永久保存的信息技术。举例而言,一个网络站点为每一访问者产生唯一的ID并以cookie文件的形式保存在用户的机器上。预测算法借由用户的“知情统一”,读取用户电脑上每一网络站点上的用户浏览时间、浏览习惯、浏览历史,将数据导入推荐模型,进入下一步操作。

推荐算法模型有多种形式,最常见的是协同过滤推荐,又分为基于用户(user-based)的协同过滤,基于项目(item-based)的协同过滤,基于模型(model-based)的协同过滤。其基本原理是利用数据分析用户、购物商品的相似关系,通过基础数据、第三方数据、产品中操作数据(例如评论、点赞),输出概率、偏好、排名、倾向、风险和估值等具有明确指向性的评分与结果。

最后一步是输出结果,例如人口规模分析、预测特定机械设备出现故障的时间、搜索引擎生成排序界面等。预测算法的预测不是就特定个人进行预测和推荐,而是将个人纳入与他相似的子集中,借由与他相似的个人行为进行推荐和呈现特定内容。其核心在于对不特定消费人群的特征做出判断,实现对目标人群的重新识别和聚合,从而对类型化的消费者生成预测结果。

2.预测算法侵权损害结果认定




使用预测算法导致个人信息泄露与价格歧视的现象是由其底层逻辑衍生的。对于用户电脑个人信息的读取,预测算法所使用的cookie技术通常不需要获得特别许可即可储存用户信息,网络平台向第三方公司提供接口也轻而易举,用户个人信息存在非自愿、不知情而用于商业交易的情形。而在预测算法的输出结果中,又会因为算法黑箱效应而招致价格歧视。商家借助预测算法将客户细分,将具有特定偏好、特征、购买历史的消费者进行更加微妙的划分,并依据他们彼此的消费水平制定出不同的价格,并实时变化着。

(1)侵害个人信息权的判定

可以说,使用预测算法则必然对个人信息有所泄露,但在什么程度上可以运用法律规制侵权行为,仍不得而知。2021年个人信息保护法出台,明确个人信息定义和法律责任,迈出对数据侵权的第一步,但纳入侵权法框架仍有相关问题:一是传统侵权法采取财产性损害的判定,而个人信息泄露往往发生在财产性损害之前,甚至并非财产性损害的直接原因。二是侵权法上的非财产损害,赔偿大多以法律特别规定为前提,并需要达成精神严重损害的程度,这是极其难以达成的。典型案例如“北京某度网讯科技公司与朱某隐私权纠纷案”,原告朱某诉称,百度未经其知情同意而收集其网页浏览记录,并对其实施精准营销从而使其紧张不安,侵害了其私生活安宁。法院认定隐私侵权不成立,重要理由之一是:原告没有证明个性化推荐服务“对其造成了事实上的实质性损害”。

第一个问题实质是预测算法的归因问题。即如果因为侵犯个人信息并间接造成财产损失,那么这种本应由直接责任者承担的侵权后果可以在多大程度上归因于滥用预测算法的网络平台或者信息主体。依照《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》中第5条,出售或提供的轨迹信息被用于犯罪的,不问出售者或提供者对此是否或应否知情,一律构成侵犯公民个人信息罪。根据该条可知,在刑法的规制框架下,法律特别强调保护个人信息的刑法利益,无视因果关系。然而,在民法上,后续犯罪所致损害可否归因于信息出售者或提供者,仍然值得探讨。例如在侵权问题上,是否需要预测算法使用者明知或应知个人信息的泄露会被用于后续侵权行为。

第二个问题在实务中则是以刑事附带民事的公益诉讼案件,以“公法”的形式实现“私法”想要解决的问题。在广东省深圳市宝安区人民检察院诉付某等人侵犯公民个人信息刑事附带民事公益诉讼一案中,检察院借助公益诉讼程序,起诉相关物流企业侵犯公民个人信息,最终使其支付侵犯公民个人信息的赔偿金,并要求管理漏洞整改治理,依法规范个人信息收集、管理措施。该案例在一定程度上表明,就私人角度而言难以以侵权法加以规定的非财产性损失,但因大规模的侵权行为而极具恶劣性与社会破坏性,也可从公法进行规制。值得探讨的是,目前就检察院作为个人信息侵犯的追责主体只是个例,以公法机构打击滥用预测算法行为仍值得实践探索。

(2)价格歧视损害标准

从法理的角度分析,价格歧视损害呈现出更为复杂的损害标准认定。有学者认为由预测算法引起的价格歧视现象目前污名化严重,预测算法实质上大大改善了信息不对称的现状,有利于更为充分的市场竞争状态和社会整体福利水平的提高。这种说法在经济学的角度合情合理,却难以实现社会公平正义。人与人的相同与不同由预测算法进行分析判断,而粗略的预测模型很可能将人错误地分类——很多时候预测性分析不是针对这个人的行为,而是针对他还没发生的行为,甚至与他类似人的行为。在这种情况下,被错分的人可能面对的是过高的价格,更低的选择,并被推动着进行无力支付的费用,损害其消费环境。同时,在价格歧视下,每一个消费者都只会看到提供给他们的商品,而看不到商家提供给他人的价格,从而使传统的消费环境中的讨价还价、价格比对等捍卫消费者利益的行为渐渐失效,难以对消费者的自主选择权加以保护。

就目前个人就价格歧视诉讼的判例而言,滥用预测算法所造成的侵权财产损失以时间顺序为标准,即互联网平台所推出的同一商品、服务在不同时间呈现出不同价格,从而造成消费者的财产权损失。相对的,较少有人以其他人网页商品推荐不同于自己而诉至法院。典型的有“上海某程商务有限公司与胡某侵权责任纠纷”,法院认为携程公司是否构成“大数据杀熟”不影响其存在侵害消费者个人信息的认定,即如果发生如价格歧视类似的侵害结果,可倒退至价格歧视的前一步—收集用户信息从而形成用户画像,在此过程中构成侵权。

换言之,价格歧视在我国的现行侵权法规制中并不构成侵权结果。从比较法的视角而言,欧盟数据条例第22条规定,原则上禁止单纯依据数据画像等自动数据处理系统来对个人进行会产生法律后果的评价决策,自动数据处理系统的决策不得基于敏感类型数据(种族、基因数据、健康数据等)作出。这就是对预测算法的收集信息阶段做出规定,进行类型化处理并区分敏感信息,从预测模型的根源进行判定:凡含有对敏感类型数据所作的模型都是违法。我国个人信息保护法第二章第二节专门设定了敏感个人信息的处理规则,强调处理敏感信息应当取得个人的单独同意、告知其影响或者取得书面同意等,在一定程度上可以规避由收集敏感信息构建的可能含有歧视的预测模型。

3.预测算法侵权形态




借由侵权法律关系中的主观过错和主体区别,滥用预测算法行为可分为积极作为的故意侵权行为与消极作为的侵权行为,以及借由用户知情同意而免责的侵权行为。

(1)算法技术设计者恶意纰漏

尽管预测算法在互联网大型平台的使用越发普遍,但并不排除从设计之初就恶意收集敏感信息进行预测的算法模型,从而使现有的社会偏见制度化。尽管预测算法的基础理论没有偏见,但由可操作的人却可作出不同的选择——目标变量可能存在歧视,训练数据的选择也可能含有敏感信息。如果训练数据其中部分来自社会歧视,则现有的歧视也会被纳入预测模型,即“偏见进,偏见出”原则。

技术平台如果在程序运行中使用了歧视性的敏感信息或者可能造成歧视性后果的数据,符合侵权责任法第36条第1款的规定,推定其为主观过错,应承担侵权责任。

(2)算法技术使用者披露过失

滥用预测算法的过失主要取决于互联网平台的作为义务。排除违反法律规定擅自收集敏感信息的侵权行为,算法黑箱、算法系统部分代替人们决策都会在一定程度上招致算法歧视,从而在风险控制的视角下令使用预测算法的平台作为义务扩张以减轻风险。部分超大平台在全国范围内几亿人使用,应承担相应的社会责任,对可能招致风险的“危险行为”做出一定的可能保护措施,并及时披露给接受算法输出结果的用户。

对于预测算法的审查义务,平台使用者应当依据法律规定及时予以有关部门填报备案手续并公示。我国2022年通过的《互联网信息服务算法推荐管理规定》,在第二章对算法推荐服务者的相关责任做出相应规定,包含了定期审核评估、加强信息安全管理、用户模型标签管理等,并建立算法分级分类安全管制,具有舆论属性或者社会动员能力的算法推荐服务者需要在相关的服务系统里填报备案手续并公示,有些特定的算法程序需要按照国家有关规定开展安全评估。不满足条件的预测算法需要承担法律责任,并处罚款。这对预测算法平台使用者的审查义务提出要求,以规避歧视风险为角度,违反相关规定可判定为使用者过失,纳入侵权规制体系。

对于预测算法的披露义务,则是更加强调应以显著方式告知用户提供算法推荐服务的情况,并提供适当的关闭算法推荐的方式。在商业自动化决策下,告知相关信息和进行算法解释可以作为确认是否有过错的决策依据,其签订合约也可视为尊重消费者的知情权。例如,在动态定价中,如果推荐给用户的价格偏高,可能构成对用户权益的重大影响,此时可考察在使用服务之前双方签订的相关条款,判断过错方,如果构成侵犯民事权益的,算法推荐服务提供者应根据法律规定承担相应责任。这种规制方式与欧盟为代表的相关国家地区相似,即都是要求对平台使用者对预测算法做出披露和解释,从而缓解用户和商家的知情权不对等的地位,在一定程度上有利于打开算法黑箱,实现预测算法的可追责性。

(3)算法使用者自甘风险免责

将预测算法归于侵权法框架下,必然无法逃开的话题之一就是“自甘风险”的辩护理由,即接受预测算法的受害人通过用户知情同意书、服务协议或者免责条款对预测算法的适用有所知晓,进而主张自身免责。自甘风险原则不等同于受害人同意:所谓自愿,是指受害人并非他人强迫,而是基于自主意思参与;所谓风险,是指受害人自愿将自己陷入危险境地。然而,同样的准则似乎在预测算法的服务者中失效了,即便算法运营商和技术开发商将所有潜在危害一一写入条款,预测算法的服务对象们也有极大的可能会“知情同意”,一旦免责则对所有算法侵害网开一面。在网络时代参与享受各大网站的活动与便利已经是不可逆转的潮流,工作、生活无一离不开人工智能应用,脱离算法侵害则意味着几乎丧失在网络空间的个人基本生活权利和选择,其后果是不可想象的。这就决定了自甘风险原则在预测算法领域中几乎失效,平台运营固然可以主张该原则,但对于其“自愿”主张要打上大大的问号。相应的,算法平台如果并无过错,也尽到相应的信息披露和审核义务,却造成算法使用者的巨大损失,法院利用公平责任规则给予消费者一定补偿是合情合理的——从社会公平正义的角度而言,即便一个完美的预测算法决策也可能对某个个人权利产生误伤。

三、滥用预测算法行为的举证责任

目前而言,我国举证责任分配秉持着“谁主张,谁举证”的一般原则,“法律另有规定的除外”作为特殊规则。目前就预测算法民事侵权的举证责任国内并无特殊法律规定,适用一般侵权责任,即由受害人对其主张的法律事实承担证明责任,然而在实践中却常常陷入困境。

1.个人举证难以为继




司法实践证明算法受害者举证常常无法得到法院支持其诉讼请求。研究人员以从北京审判信息网导出的2011年至2018年审结的信息抓取类民事案件的1383份“APP越界索权”裁判文书为分析样本,认为信息抓取类隐私权纠纷胜率偏低,侵权责任认定标准较高,自然人举证能力与证明标准严重失衡。从收集证据的资金、技术等成本上看,用户与运营商技术力量和信息掌握程度均不对等。与此同时,胜诉的受害人的诉求难以全部得到满足,提供的证据往往只足以部分被告承担责任,隐私权被侵犯从而造成的精神损害也难以证明。

与隐私侵犯类似,算法歧视的受害人同样难以举证。在“刘某诉北京某科技有限公司侵权责任纠纷”一案中,刘某与同事在前后十分钟内向同一商家订购午餐,同事配送费却比刘某少1元。终审判决的理由是刘某配送费多收1元的证据无法证明该科技公司存在价格欺诈行为,无法满足“利用大数据区别定价,侵犯了其公平交易权。”在赵某某与浙江某网络公司网络服务合同纠纷一案中,一审判决驳回的理由是原告未举证说明该合同纠纷存在故意或者重大过失,请求证据不足。

在少数的胜诉判例中,法官大多也未采取严格的证明分配原则,而是依据双方举证的现实能力,降低或者倒置证明责任从而缓解主体举证能力的不足。这相当于在司法领域突破了证明责任分配的一般规则,从公平正义出发回避了举证困境。受害人作为网络服务的外部使用者难以获取平台内部的算法信息,平台也可利用系统故障、早晚高峰价格波动等理由进行抗辩,受害人处于弱势地位,极难举证网络平台的侵权行为。除此之外,高昂的维权成本与诸如“公平交易权”之类难以确定数额的赔偿结果严重错位,个人举证的成本、困难程度都有损公民抵制滥用预测算法的积极性和动力。

2.证明责任特殊分配的合理性




侵权行为特点决定其诉讼证明的特殊性,证明责任的特殊分配即实现举证责任倒置。它解决的是当案件真伪不明的时候,主张该事实的当事人不承担证明责任,而是由对方当事人证明该事实是否存在并承担相关风险。我国目前特别法规定的适用举证责任倒置的侵权行为,包括产品致害、环境污染、专利侵权等,其共同特点在于其受害人对特定的证明事由出现举证障碍,获取相关证据的难度较大。从学理的角度上,危险领域说的出现也印证了以上几种特殊举证责任的产生,即如果侵权事实发生在侵权人控制范围内的危险领域中,被告应当对免责事实承担证明责任。例如,医疗事故中,医疗证据均在医院掌控范围内,受害人离过错证据距离较远,因此对过错事实应由持有证据的院方承担。

滥用预测算法的互联网平台侵权行为具有隐蔽性、控制性的特点,其特殊性决定了采用证明责任特殊分配的方式更有利于解决相关侵权问题。

首先,个人信息或公平交易权被侵犯在数字化的时代常常难以发觉,特别是没有发生任何财产损失的时候,受害人往往只能通过骚扰电话、短信等难以找寻源头的相关信息推测隐私被泄露。现代社会工作生活与网络服务紧密绑定,接受网络平台的便利等同于同意平台的收集信息条款,网络活动留下的踪迹无处不在,网页个性化推荐依据相关信息诱导决策,看似自主选择实则陷入信息茧房。当受害人无法识别明确的侵权结果之时,自然也不清楚如何收集相关证据。

其次,对个人信息的侵犯发生在网络传播交流中收集、存储、传输、处理的任意环节中,每个环节也可能存在不同的侵权方式,并且利用算法模型将一切环节纳入黑箱中,受害者难以确认哪一环节或哪一主体承担侵权责任。预测算法的使用环节包含多个主体,从使用的软件本身到与软件签署协议的第三方sdk,每一环节对应不同主体,而每个流程中批量控制数据并经多次转让处理,受害人难以跟进数据处理流程,也难以确定在哪一环节出现侵权行为,甚至无法区分是源于恶意收集还是算法失误,就此确定主体进行举证的过程扑朔迷离。采用举证责任倒置,至少可以就个人信息的变动流程和第三方合约详情进行公开,明确责任主体,更加接近事实真相。

最后,互联网平台的滥用预测算法行为大多不透明,双方的权力关系不对等,受害人难以控制证据。算法技术难以使用书证物证等具有意义的物理载体证明,利用证据固定算法侵权极其困难,往往即便有损害证据,也难以证明该损害与使用预测算法的网络平台存在因果关系。同时,“算法黑箱”的存在让侵权行为真正进入危险领域,算法侵权过程结果都几乎掌握在算法平台手中。无论是挖掘海量数据的潜在关联为目的的预测算法还是在决策程序中使用的预测算法,其运用原理、技术都几乎是不为人所知的——甚至对于毫无解码能力的普通使用者,公开与否无意义。在这种情况下,受害人很难取得一直处在算法黑箱内运行的关键证据,作为数据个体举证拥有强大技术经济实力、享有充分话语权的平台方存在过错,几乎毫无可能。此时,举证责任倒置则可以解决部分问题,平台方为自证本身并未侵权,会尽量将预测算法内部运行公开并进行解释,确定自身算法运行合法合规,符合传统视角下保护弱势方的法理逻辑,减轻受害人的法律成本。

四、法益衡量视野下滥用预测算法行为的侵权法规制路径

任何的法律判决都蕴含一定的价值取向追求,将预测算法纳入侵权法重构必须先行确定算法规制的目标。预测算法应用所涉及的法律价值颇为广泛,在其广为应用的今天,其公平、自由、效率等属性与社会需求紧密相连。一方面,预测算法的使用产生负面法益,包括对个人信息、重要数据的安全风险,价格歧视所产生的公平危机,对消费者知情权和公平选择权的挑战;另一方面,预测算法又确实提高了社会资源分配的效率和流动性,技术进步的不可逆和其高效的利润价值也同样无法为平台使用者所放弃。在此情境下,把握规制预测算法行为的尺度,使用法益衡量的视野进行路径重构和解释有其必要性。

1.过错推定原则与公平原则




目前我国法律尚未对滥用预测算法侵权行为的归责原则做出特殊规定,依照侵权责任法的一般原则,无法律明确规定一般采取过错责任。归责原则与举证责任紧密联系,首先要确定是否以过错作为判定侵权行为的必要要件之一,随之而来的就是对过错事实的举证责任由何方承担其举证不能的后果。然而依照前文所言,滥用预测算法侵权行为采用过错责任所面临的举证过错问题极难解决,急需新的规制道路。

基于法律衡平的视角,预测算法并不适用无过错责任,尽管它充分保护了消费者的权益。网络海量数据和多重算法模型决定了利用国家力量不可能一一列出完美范本和具体标准,从而让平台借助范本确认模型未构成侵权,这将耗费极大的审查成本和运营成本,最终把成本转嫁给用户,在如今预测算法几乎势不可挡的情况下,反而会阻碍预测算法使用者的正常生活。另一方面,无过错责任意味着一旦服务使用者权益受到损害,网络平台无需过错都构成侵权,那势必会发生过多的诉讼案件。预测算法将本来并无极大价值的数据信息整合分析,过程中至少包含海量数据,如果参与其中人人存在损害结果即可获赔侵权损害赔偿,网络秩序将难以维系。

将视野转向仍以过错为必要要件的过错责任,在现代社会的发展中衍生出新的过错推定原则。过错推定原则由过错原则推演而来,所谓过错推定是指行为人必须先推定为存在过错后,才可适用过错责任,即加害人对自身无过错无法举证证明的情况下以加害人主观过错构成侵权要件。我国民法典1165条第2款中明确规定过错推定原则,“依照法律规定推定行为人有过错,其不能证明自己没有过错的,应当承担侵权责任。”在具体算法规制的法律中也有相关规定,如2022年通过的《互联网信息服务算法推荐管理规定》中第17条第3款,“算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。”一方面赋予了预测算法服务提供者相应的解释权,另一方面也要求提供者就侵权事实做出相关说明。以比较法的视野来看,德国2017年出台的联邦数据保护法第83条第1款规定:“如果控制者因违反本法或其他适用于处理个人数据的法律而使数据主体遭受损害,则有义务向数据主体进行赔偿。如果在非自动处理的情况下,损害不是由控制者的过错造成的,则提供赔偿的义务不适用。”该法将数据处理者二分,自动化控制处理数据遵循无过错原则,而非自动处理侵权赔偿需要以具有过错为前提。

将预测算法适用于过错推定原则,一是符合了前文中的举证责任倒置的需求,二是可与算法事前规制相衔接,构建完整法律体系,三是遵循利益衡平需求,最大程度上实现社会公平公正。

2.利益衡平与比例规则




相较于损害结果容易量化的个人信息侵权,利用预测算法所造成的各类歧视至今难以规制,甚至就其本身是否具有规制的必要仍在学界有较大争议。针对价格歧视问题,可参考美国法中设立的FTC所管理的相关事项,即联邦电子商务联盟,它负责对欺骗性与不公平的扰乱商业秩序的行为进行管理。

对可能造成消费者重大伤害且消费者自己无法合理避免的行为,FTC可以使用预测性算法的三个部分测试。首先,需要确定对消费者的实质性伤害,不包括投机性的和情感性的伤害,例如借用价格歧视将单个消费者排除在整个消费者群体之外;其次,需要确定该行为消费者本身无法合理回避:大多数预测算法都阻碍了消费者的自由决策,大多数消费者甚至不知道该预测模型的存在,知道这种算法存在的消费者则会尽力避免使用,由于大多数消费者无力避免预测分析的影响,联邦贸易委员会很容易就能证明这种损害是不可避免的;最后FTC对消费者的伤害和可得性利益做出评估,例如一个预测性的价格歧视模型可能会通过提高价格伤害一些消费者,但是这种模式可能会以较低的价格使其他消费者受益,并使商家的利润最大化,从而有利于整体竞争。在这种情况下,利大于弊,但必须排除违背传统的如人种公平、男女平等的法律价值。

就此,美国相关的预测算法规制与反歧视法息息相关,并且分散在关于借贷、不动产、安全等方面的州法律。对于借贷方面,最典型的有1974年颁布的平等信贷机会法案(Equal Credit Opportunity Act,简称ECOA)。在有关于借用算法技术以确定信贷资格的条款,确定了算法不能产生歧视的影响的规定,禁止债权人在信贷交易中基于种族、肤色、宗教、性别等区别对待。对于受害的申请人,证明责任仅限于证明其预测性分析引发了不同的影响,而不需要证明商家平台存在故意歧视,基本路径沿着“提出歧视的直接证据、展现针对不同用户的差别待遇,最后罗列出差别影响。”在ECOA所设立的框架下,一旦原告确定了网络平台实施了不同的价格歧视,被告必须证明被质疑的做法和职业有关,并且符合商业需要。“商业需要”是一个模糊的概念,CFPB设置了相关的打分系统,样本数据基于申请信贷的有信用人士和无信用人士的数据,目的必须是有关于债权人的合法利益。与借贷相关的预测算法相似,不动产预测性分析的证明路径需要原告首先证明其行为会造成可预见的歧视性影响,接着被告必须证明被质疑的行为对于实现其他人的利益是有必要的,最后,指控方仍可在质疑做法的实质合理性,即该行为可以由另一个歧视性较小的行为来取代。

就比较双方的负面法益而言,美国法相当于设立了一种较为新颖的定量分析方式去判定预测算法所带来的价格歧视以及差别待遇问题。尽管对所有领域都采取该种方式并无可实践性,但对预测算法结果输出判定有相应的指导作用,在对预测算法侵权高发的领域里有利于保护当事人权益。

结语

滥用预测算法行为作为网络时代的新型侵权方式,有必要采取相关手段规制其发展空间,促进技术手段的有序与健康发展。在现行事前预防法律文件逐步规范完善的同时,对预测算法的事后规制也需要及时跟上社会需求,从侵权法体系角度对预测算法的相关要件进行解释和重构,探讨法律价值与原则适用,有利于协调技术进步与权利保护的双重关系,实现数字社会的良好发展态势。

往期精彩回顾

陈佳欣|大数据时代下隐私的群体形态及法律回应

潘迪|论已公开个人金融信息的处理规则

薛佳伟|个人信息保护与平台数据流通的平衡构建——信息与数据区分视角下“三重授权原则”再解构

杨洋|数据确权之证成及权利关系进路分析

董明非|体育数据权益的主体与客体

郭雨婷|自动化行政决策的分类法律控制研究

上海市法学会官网