胡凌:刷脸——身份制度、个人信息与法律规制 | 前沿
2021-11-05
来源:中国民商法律网
人脸识别技术已经在越来越多的场景下得到应用,进入火车站、小区、校园都逐渐开始需要“刷脸”,这些场景既涉及公共服务场所和设施,也涉及私人服务行为,关联甚广。但关于使用这一技术的法律、伦理与文化基础,迄今尚未在我国本土语境下得到充分讨论。对此,上海财经大学法学院胡凌副教授在《刷脸:身份制度、个人信息与法律规制》一文中,深入刷脸嵌套和应用的具体场景,分析刷脸的身份认证功能,指出刷脸意味着认证权力过程从分布式转向集中化,并提供了网格和网络作为治理之理想类型的二分视角。
一、
作为身份法律制度的刷脸
(一)人脸是通用身份标识符
从社会性角度来看,人脸从来都是一种互相识别和验证的通用身份标识符。
在传统的熟人社会中,人们主要不是像其他动物那样通过声音和气味互相识别同类,而是认脸。到了现代社会,人脸代表的对稳定小规模社群成员的认证意义,被国家和单位组织提供的大规模认证职能所替代。由此,刷脸在社会意义上获得了新的价值,其技术层面逐渐凸显,反映了新型数字基础设施的构建。抛开技术应用的外壳,数字时代的刷脸仍持续体现出强烈的身份法律制度属性。刷脸技术的使用,首先需要服从于制度的目标,即流动性的社会和法律治理。
(二)刷脸如何嵌入国家治理:从区隔到联通
将网络和网格中的刷脸及其特征进行对比,能够进一步凸显不同场景技术-法律制度的治理意义:
网络社会中无处不在的摄像头代表了“权力的眼睛”,可能会给社会主体带来压迫感,但问题不在于技术本身,而是由于大规模流动性导致稳定的社会秩序和社会关系难以短期形成均衡,从而很难让传统熟人社会中的各种机制和不成文规范再次发生作用并降低风险。因此,刷脸不过是嵌入当代社会治理过程的技术-法律制度形态。它是为了应对流动性而存在的,是总体安全和信任的一部分,而不单纯是一种中立技术。
二、
刷脸与认证权力的集中化
(一)当认证权力遇见刷脸
认证制度是国家的核心法律制度之一,通过为公民创设唯一的权威身份、颁发身份证件,并通过这一证件对人口、税收、公共服务等方面的统计调查,实现国家的有效治理。刷脸认证的逻辑过程涉及两类人脸数据,一类是基于在先法律关系所收集的人脸照片,另一类是实时生成的人脸数据文件。就通过信息系统的认证而言,刷脸意味着认证基础设施的升级,在一定程度上能降低传统身份证在认证过程中发生泄露的风险。
(二)刷脸认证的两种思路
认证方式已经出现了分散认证(网格化)和集中认证(网络化)的明显路径区分。对前者而言,任何物理空间以及设备都可能通过刷脸进行用户身份认证,因此可能产生不同的人脸数据文件,分散在不同的认证主体服务器上,监管起来成本较高。对后者而言,依托于平台的特定APP都可以集中使用手机硬件或平台提供的人脸识别功能,平台作为认证代理人,既能够降低监管成本,也能降低中小APP的运营合规成本。刷脸技术在嵌入上述两种认证思路的过程中变相推动了集中认证。由此,刷脸客观上促成了社会中认证主体数量的减少和认证权力的集中。
三、
行为识别与人脸数据的法律性质
(一)公共机关与人脸识别
基于公共安全而设置的刷脸,超越了私法意义上个人信息使用的“知情同意”原则,但仍需要在形式上告知展示,这里涉及更多的是对公民在公共场所行为信息的收集和处理,已经进入了公共数据的范畴。
公共机关的刷脸识别行为,会改变传统技术装置下的公私权力关系。首先,它进一步延伸了自边沁、福柯以来的“全景敞视监狱”监视逻辑,增加了对潜在犯罪行为的威慑。其次,人脸识别有能力无差别地适用于刑事违法行为和普通违法行为。再次,刷脸背后的数据库接入与分析,无疑能扩大公共机关(特别是公安机关)的执法和取证能力。这更需要做好程序上的知情展示和民众沟通参与。最后,即使是在非私人空间中,也存在一定程度的隐私期待。人们可以接受公共场所针对不特定人的监控,但却无法接受直接针对自己或私人空间的摄录行为。由此有必要规范公共安全视频安装的位置和数量,增强信息披露和公共空间内可见的威慑。
(二)私人服务与人脸识别
私人服务提供者基于默认的用户协议生成、获取和使用人脸数据文件,并可能主张这一文件因为企业投入技术劳动而创设,有权排他性地使用这些作为生产资料的数据。只要使用过程能精确识别和还原到特定主体,对同一人的行为进行追踪,那么对人脸数据文件的使用就可被认定为使用个人信息。私人服务提供者通过刷脸帮助用户开启新账户以后,产生的行为数据就会在事前对用户未来的活动产生约束,这就回到了数字经济的生产过程。通过刷脸而积累活动数据,使得身份识别只有在网络在线场景下才具有更大价值。
四、
个人信息、刷脸风险与法律应对
(一)刷脸的风险与一般性规制
在数据采集环节,实际上只要满足形式上的知情同意规范,说明采集的目的与用途,就很难完全阻止针对人脸或照片的数据采集。在数据存储环节,讨论者普遍认为可能会发生人脸数据泄露风险,考虑到人脸具有唯一性,一旦泄露,则会带来难以弥补和想象的损失。这一假想存在问题:首先,泄露风险程度模糊。其次,需要区分事先收集的人脸照片和实时生成的3D数据文件的不同风险。第三,至少是目前,伪造面部模型行动的成本太高,几乎难以大规模进行。因此,人脸数据失窃更多地是由于人们心理敏感,并在大众媒体的宣传中被放大,实际上人脸失窃概率极低。
除了极端情况下的人脸数据文件被伪造冒用,刷脸的真实风险主要在于实质性知情同意的落空。在人脸数据的采集和储存环节可以进行如下制度性规制:首先,在需要确保信息安全的领域,应当强制要求多重因子登录识别。其次,按照分类分级原则系统规划不同场景中认证的方式,防止基础身份和次级身份混同。再次,可以限制留存实时生成的人脸数据文件的时间,降低泄露概率。最后,强化对人脸识别软硬件的专业认证措施,采取类似网络安全分级制度进行分级管理。
在数据分析环节,目前出现的数字歧视行为表明,表面上的去身份化的刷脸服务,可能会在技术平等的意识形态下掩盖黑箱中持续的身份歧视,人脸识别只不过为服务商或认证主体提供了更加广泛和低成本的登入服务而已,只是客观上用统一的账户体系取代多元化账户体系。
(二)场景化规制的方法论反思
规制刷脸技术不可能也没有必要凌驾于既有行为目标和规范之上。第一步是要看到数字身份在社会转型中的重要意义,将其放置于网络/网格模式二分中进行讨论。第二步是将认证/识别设定为划分更为具体的场景的标准,鉴别出达成共识的某种法律关系,进而区分出公共机关与私人服务提供者的不同制度性约束。最后一步需要在强化个体权利时,进一步讨论具体个人信息保护与算法监管的规则细节,根据成本-收益分析评估风险,形成解决方案和政策建议。刷脸涉及的一些具体的问题,则需回溯至该场景的基本法律关系和原则共识。
其一,教育与情感计算。在诸如学校课堂的教育领域,适用摄像头和人工智能记录和分析学生的表现,会侵犯学生们自主学习的潜在能力,应当对学校的类似活动进行法律限制。其二,雇主监视。在开放的灵活用工平台上,平台所有者通过刷脸对平台上数字劳动者加强控制力,其行为可以被解释为人身/经济从属性的一种司法标准,从而为数字劳动者争取权益。其三,社会规范。违法行为(例如闯红灯)监控往往通过头像展示和嵌入社会信用的方式加以约束。不能仅因为实施成本低就盲目使用刷脸技术和扩张权力对个体行为的约束空间,而是应看到个体认知成本的约束,将一部分底层社会行动空间继续交由个体熟悉的社会规范,否则普通人将会因无法认知大量规范而持续违规,威慑也难以起到作用。
五、
结语
首先,刷脸是一种身份法律制度,起到身份认证功能,延续了人脸作为通用标识符的社会功能,这意味着认证权力的极大增强。其次,刷脸意味着认证权力过程从分布式转向集中化,认证信息与载体的分离。在法律上仍然需要区分对为公共安全目的和为私人目的进行的刷脸监控的不同约束。再次,尽管无须恐慌,但我们仍需要关注刷脸的可能风险,特别是其背后的个人信息的自动化整合,以及可能的使用方式与歧视、异化的问题。最后,网格和网络作为治理之理想类型的二分,为理解刷脸提供了有益的视角,也是场景理论的一个具体应用和延伸。