张凌寒:平台治理与算法问责

张凌寒

张凌寒,女,法学博士,北京科技大学副教授,康奈尔大学访问学者。本硕博均毕业于吉林大学法学院,北京航空航天大学法学院博士后。中国法学会网络与信息研究会理事,中国法学会婚姻法学研究会理事。国家人工智能伦理与道德标准小组成员,国家工信部重点法治实验室研究员,中央网信办网络安全治理基地特聘研究员,中国信息安全法律大会专家委员会委员。研究方向为民商法,网络法,近年来专注于数据治理与算法规制方向,发表论文二十余篇,其中多篇被《人大报刊复印资料》《高等学校文科学术文摘》全文转载,主持国家社科基金、教育部、司法部、中国法学会、博士后基金等人文社科项目。出版专著《网络虚拟财产侵权责任研究》《权力之治:人工智能时代的算法规制》,参编参译多部教材专著。

平台治理与算法问责

一、平台治理将走向何方?

今年,美国,欧盟和我国同时出手,对网络平台尤其是超大型平台的治理手段大大加强。美国曾发布行政令,推动社交媒体平台进行自我审查的政治中立性,而且平台不当使用算法技术也存在被问责的可能。欧盟最新颁布的《数字服务法案》包含平台治理的一揽子计划,例如要求平台承担监管非法内容和商品的责任,对消费者公平、合理地使用算法,法案也允许对大型在线平台进行事前监管。在我国,行政机关频频发布各种规章、文件对平台施加更重的责任,监管部门也有突破立法原意、过度扩张平台义务的潜在动力。我们可以看到,整体上,全球平台责任呈现出加重的趋势。

发生这样的变化的原因是什么?众所周知,平台的运行有赖于各种技术的运用,近几年来,算法被广泛使用来推进平台运行的自动化,人工干预大大减少。例如电商平台利用算法进行商品定价、社交媒体平台利用算法进行信息分发与推送。但平台的自动化似乎必然导向了更轻的平台主观过错,进而导向更轻的平台责任。如此一来,人工智能时代下的平台主观过错的认定机制变得模糊不清。也正是基于这样的大背景,各国近年来都不约而同地加强了平台责任,平台责任“严格化”有愈演愈烈的趋势。

二、平台在社会生产中的地位

我们对平台治理的手段围绕着平台在社会生产中的地位展开。在平台责任的理论研究中,网络中介、基础设施、平台等术语经常被交替使用。但实际上,平台已经不是单纯的网络服务提供者角色,也不再局限于经济基础设施,而是一个兼具多重角色的社会经济组织概念。平台在社会生产中的地位主要体现为三个角色:

首先,平台是数据生产要素的提炼加工者。如果把数据比作是农作物小麦,平台则是小麦被收集、研磨、精炼为面粉的加工厂。对用户来说,数据只是互联网浏览的副产品,但对平台来说,则是重要的生产资料。各种各样的数据控制者都会以平台或者接入平台的方式参与数据活动。不论是公共服务还是商业服务者,都逐渐按照平台的模式,向不特定人开放介入,动态地收集数据,并利用算法进行分析和匹配,挖掘数据蕴含的价值。

其次,平台是数字经济的基础设施。传统的经济基础设施,比如公路、网络基站是看得见、摸得着的物理形态,它们作为公共基础设施为社会提供普遍性服务,保证基本服务质量并保持中立性。平台一方面作为数字经济基础设施,为社会提供存储、连接与计算等各类服务,另一方面平台作为竞争参与者通过算法利用这种基础设施获得竞争优势,因此也出现了利益的冲突而受到指责。如淘宝因为修改商家排序算法受到围攻,搜索引擎谷歌因为屏蔽搜索王而被起诉,本质都是平台这两种角色造成的利益冲突。

最后,平台也是数字经济交易的多边市场。平台是社会生产中各类生产资源链接、交易的多边市场。平台通过提供数字经济基础设施技术,以一站式入口方式将多个服务集成在一个客户端软件或应用程序上,实现多方资源在平台的链接与融合。如网约车平台早期依靠大量经济补贴,将乘客、司机与车辆吸引到平台上,通过推动市场交易便利化使市场信息更对称,形成了多边市场的网络效应,就进一步享有了不断扩大服务范围和市场数量的话语权。网约车平台可凭其海量乘客与司机以及车辆资源换取其更大让步,而因其司机与车辆资源的市场份额优势,也可通过算法个性化定价压榨更多的消费者剩余。

三、平台算法问责

我们可以看到,平台在这些角色中,算法分别扮演了不同的角色。所以平台治理的未来走向,理应聚焦于对算法的问责,尤其是针对事前的、主观的问责。刚才曾提到,算法使平台运行日益“自动化”,这一现象让平台事前的主观过错认定产生了困难,导致现有平台监管追责机理变得模糊化、治理节点滞后、责任设置不符合比例原则。人工智能时代的平台监管,既应符合平台底层的技术逻辑,也应符合主客观相一致、责罚相适应的法律原则。因此,应穿透网络平台运行的“技术面纱”,将平台监管的触角和追责视角直接指向背后的算法责任。那如何对平台进行主观方面的问责呢?在此跟大家分享三点:

首先,在事前阶段,通过算法备案制度,对平台算法的过错点进行事前固定。平台因为算法被问责,通常是因为没有履行法律和道德义务,以及无法向利益相关方作出解释并证明自己没有主观过错。合理的平台算法问责离不开清晰的主观过错认定,通过算法评估、备案与审计对平台事前和运行中的问责点进行固定,能够有效评估平台是否可以评估、控制、纠正算法带来的危害。

其次,在过错的事后认定阶段,设置独立的算法解释环节。监管部门可依据算法事前备案内容,来判断平台是否具有故意或过失的主观过错,并结合客观的损害结果直接进行行政处罚与问责。在此过程中平台需进行算法解释,算法解释是认定主观过错进行平台问责的必经程序。解释环节不仅具有行政程序上的必要性、功能上的必要性,这个环节本身也理应成为监管考察的对象。

最后,在法律责任方面,应根据平台主观过错的程度轻重分层次设置。对于故意和过失的平台算法的主观过错,施以主客观相一致的实质责任。对于提供虚假算法备案与虚假解释的平台,则施加类似于证券虚假陈述责任的虚假备案与虚假解释责任。

如何打造“负责任”的人工智能?平台的算法问责应该是制度建设迈出的第一步。平台算法问责制的目标不是要实现完美无误的算法,而是要将风险降至最低——正如汽车安全标准不要求汽车百分之百安全,而是尽可能合理地安全一样。如何建立具备足够的包容之心和适应能力的动态治理机制,是人工智能时代的学者和政策制定者必须思考的问题。

上海市法学会欢迎您的投稿

fxhgzh@vip.163.com

2021世界人工智能大会法治论坛成功举办

智慧法治学术影响力top100|作品•作者•期刊

2021世界人工智能大会法治青年论坛成功举办

崔亚东:数字时代  智能社会治理

刘艳红:人工智能法学的时代三问

乔凡尼•科曼德:人工智能/数据科学在法律中的应用——关注合法性的方法

邰江丽:人工智能的法律挑战与创新应用

安托万•加拉邦:人工智能与法治的困境

菲利波·法罗西尼:向可信赖人工智能迈进

迪诺·希莫纳斯:数字时代的法治问题——沙箱监管

薛澜:人工智能国际治理秩序的框架与路径

凯文·沃巴赫:人工智能、信任与法治

康允德|计算法学:希望与忧患

责任编辑:王   健    金惠珠

上观号作者:上海市法学会