近日,法学院朱宝丽教授在《金融时报》刊发题为《刷脸支付的规制挑战与治理框架构建》的理论文章,原文如下:

支付手段的演进是社会技术变迁的缩影,每一次支付工具的革新都深刻重塑着交易信任的建立机制。刷脸支付,作为生物识别技术与金融业务深度融合的产物,凭借其“无媒介”的极致便捷性,已从前沿概念迅速渗透至日常经济生活,成为数字社会建设的关键基础设施。然而,与之相伴的学术与公共讨论却在一定程度上陷入“便捷性迷恋”,对其潜在风险的剖析往往停留在技术安全与个人隐私的表层,缺乏对系统性规制挑战的深刻洞察。
刷脸支付的本质是将人体不可变更的生物特征转化为可被存储、传输、估值和资本化的关键数据资产。这一转化过程不仅是一个技术应用问题,更是一个触及数据主权、身份认同及金融权力再分配的深层治理议题。当面部特征取代传统密码成为金融交易的授权凭证时,其所引发的挑战已非单纯的信息泄露风险,而是个体生物特征被深度卷入金融资本循环后所引发的系统性规制困境。因此,亟须超越传统的风险认知,以更具整体性和前瞻性的视角,审视其交织叠加的多维风险,并推动监管范式从被动的应急响应转向主动的体系化塑造。
刷脸支付的多维风险审视
(一)技术本体风险:安全性的固有脆弱性。技术构成风险是基础层面的风险,需要我们深刻认识到其内在脆弱性。首先,生物特征数据具有唯一性和永久性,作为自然人身份标识优势的同时,也构成了安全性的“原罪”。一旦泄露,将导致终身性、不可逆的身份安全威胁,这与可随时变更的传统密码存在本质区别。其次,安全攻防处于动态博弈之中。活体检测技术与生成式人工智能(AI)驱动的深度伪造攻击之间,持续着激烈的攻防博弈。由于攻击手段的迭代速度常领先于防御技术的更新,导致安全边界长期处于不确定的脆弱平衡之中。以技术为基础的刷脸支付面临着同样的风险。最后,算法决策的“黑箱”特性与固有偏见构成深层隐患。人脸识别算法的决策过程缺乏透明度,而训练数据集的偏差则可能导致算法对不同肤色、性别、年龄群体的识别准确率产生系统性差异,此种“算法歧视”不仅带来使用不公,更可能固化和加剧社会既有偏见。
(二)数据治理风险:从个人失控到平台权力。刷脸支付风险的核心是数据治理,体现在数据生命周期的失控与权利失衡的可能。其一,“告知—同意”框架在实践中面临失效。刷脸支付流程中,通常都是在冗长复杂的用户协议中蕴含“告知—同意”的条款,用户的同意多为非自愿的“捆绑式”同意,难以体现对处理面部信息等敏感数据的真实、具体授权,使得数据处理的合法性基础受到侵蚀。其二,数据聚合产生叠加风险。单一面部数据价值有限,但当支付平台将其与用户的消费习惯、地理位置、社交关系等行为数据深度融合后,能够勾勒出极度精准的用户数字画像,其产生的监控潜力远超支付业务本身所需。其三,存在数据资本化的权利侵蚀。平台企业通过提供“免费”支付服务获取宝贵的生物特征数据,并将其转化为可产生利润的数据资本。用户在使用服务时无形中出让了自身生物数据的所有权与控制权,却未能公平分享数据资本产生的增值收益,导致权利与义务的严重不对等。
(三)社会伦理风险:身份物化与公平性挑战。首先是刷脸支付的普及引发了深远的社会伦理关切。最突出的在于身份认同的物化危机。当“脸”这一人格核心要素被数字化并作为商业流通的标的物时,人的主体性存在被降格为可分割、可交易的数据客体,冲击着传统的身份认知与尊严观念。其次是无处不在的监控潜力可能引发“寒蝉效应”。商业机构乃至公权力部门理论上能够通过结合刷脸支付与线下传感器网络,实现对个体行为的持续追踪与预测,这种监控能力可能抑制社会行为的自由性与多样性。此外,接入性公平面临挑战。刷脸支付对智能终端、网络环境及用户数字素养的依赖,可能将老年人、残障人士、低收入群体等数字弱势群体排斥在主流金融服务之外,加剧社会资源分配的不平等。
(四)金融稳定风险:技术依赖与系统性关联。刷脸支付的风险最终可能传导至宏观金融体系,影响整体金融稳定。一方面,操作风险高度集中。刷脸支付业务高度依赖少数几家大型科技公司提供的技术平台,形成单点故障隐患。一旦核心系统发生广泛性故障或遭遇协同性网络攻击,风险可能沿支付网络快速传导,引发局部甚至系统性梗阻。另一方面,风险形态发生异化。传统金融风险与新型技术风险相互耦合,可能产生新的风险变种。例如,若将有偏见的人脸识别算法应用于信贷审批环节,可能引发基于算法的系统性金融歧视,扭曲资源配置。同时,跨境支付场景下的刷脸应用也对国际监管协作提出新课题。不同司法管辖区在数据出境、隐私保护等方面的标准差异,可能为洗钱、恐怖融资等跨境金融犯罪提供监管套利空间。
刷脸支付规制的现状与困境
(一)顶层设计与监管执法结构性错配。尽管《个人信息保护法》等高位阶法律已将生物识别信息明确列为敏感个人信息,并确立了处理活动的基本原则,但在金融支付这一具体应用场景中,规制职责分散于金融监管部门、网信部门、市场监管部门等多个部门。这种多头监管格局容易导致职责交叉与监管空白并存,在执法环节可能出现标准不一、协调成本高等问题,难以形成监管合力。
(二)抽象原则与具体规则之间衔接缺失。现行法律体系确立了“合法、正当、必要、诚信”以及“最小必要”等原则性要求,最高人民法院也出台了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》,对人脸识别技术所涉经营场所及公共场所进行了列举,但仍以原则性表述进行笼统约束。在刷脸支付的具体业务中,对于何为“必要”场景、生物特征模板应采用何种不可逆的加密格式存储、数据的存储期限应如何设定等关键操作性问题上,仍缺乏清晰、统一、可审计的技术标准与实施细则。这种原则与细则的脱节,给企业合规带来了不确定性,也为监管执法造成了困难。
(三)监管科技能力滞后于行业发展速度。刷脸支付作为前沿技术应用,数据流转速度快、算法模型迭代频繁,对监管的实时性、穿透性提出了极高要求。当前监管手段仍较多依赖于传统的事后报告与现场检查,在运用大数据、人工智能等监管科技实现对数据流向、算法决策的实时动态监测与风险预警方面存在明显滞后。这种监管技术能力与行业发展速度之间的代差,使得监管难以有效嵌入业务全流程,从而难以对潜在风险进行事前预警和事中干预。
(四)事后惩戒与事前事中预防割裂。当前的规制模式仍带有较强的“命令—控制”色彩和事后追责特征。对于刷脸支付这类技术迭代迅速、风险动态变化的领域,依赖于出现问题后再进行查处惩戒的滞后性模式,难以实现对风险的有效前置防范和事中控制。缺乏嵌入业务全流程的、持续性的穿透式监管工具,使得规制体系在面对快速演进的潜在系统性风险时显得应对不足。
规制路径的国际比较与反思
(一)欧盟:权利本位的统一立法模式。欧盟以《通用数据保护条例》为核心,构建了以个人权利保障为优先的强监管框架。该模式将生物识别数据视为特殊类别的个人数据,原则上禁止处理,除非符合明确例外情形。其特点在于赋予数据主体广泛的权利,如访问权、更正权、被遗忘权,并设立高额罚款机制(最高可达全球营业额的4%),以威慑违规行为。欧盟模式体现了预防性原则,强调在技术不确定性面前优先保护公民基本权利,虽在某种程度上可能限制创新,但为个人信息提供了较高水平的保障。
(二)美国:联邦与州并行的分散规制模式。美国在联邦层面尚未制定统一的个人信息保护法,其规制体系呈现碎片化特征。联邦贸易委员会(FTC)主要依据《联邦贸易委员会法》对不公平或欺骗性行为进行事后执法,而各州则自行推进相关立法,其中以伊利诺伊州《生物信息隐私法》(BIPA)最为严格。BIPA要求企业在收集生物信息前获得知情同意,并禁止商业性交易此类信息。该模式倚重司法诉讼推动合规,尤其是集体诉讼机制有效强化了法律执行。其优势在于灵活适应各地需求,但法规不一致也增加了企业的合规成本与法律风险。
(三)日本:基于修订与行业引导的协同治理模式。日本通过修订《个人信息保护法》,将面部识别数据纳入规制范围,并要求企业在处理此类数据时履行告知义务。其规制体系融合了立法约束与行政指导,经济产业省等机构会发布行业指南,推动企业自主合规。日本模式注重政府与行业之间的协作,通过柔性指引细化法律要求,促进技术在合规框架内发展。这种做法的优点在于兼顾法律刚性与实施弹性,但在标准统一性与执法透明度方面仍有提升空间。
(四)新加坡:风险导向的实验性适应模式。新加坡以《个人信息保护法案》为基础,其治理模式的核心是风险导向与动态适应。该模式不预先对生物信息设定僵化规则,而是在“比例原则”指导下,根据数据处理活动的实际风险等级采取相应监管措施。其最具特色的实践是金融管理局(MAS)推行的“监管沙盒”机制,该机制为创新企业提供了一个“安全试验区”,允许其在监管机构的监督下,对新产品、新服务进行真实环境测试。通过这种小步快跑、持续反馈的“实验”过程,监管规则得以在与市场的互动中不断调试和优化,体现了其在规范与发展之间寻求动态平衡的高度适应性和实用主义色彩。
上述四种模式反映了不同的价值取向与规制逻辑,每种模式各有优劣。我国在构建刷脸支付规制体系时,应结合本土实际,吸收欧盟的严格保护理念、美国的程序规制经验、日本的协同治理思路以及新加坡的实验式监管方法,形成符合自身发展需要的规制路径。
构建刷脸支付的科学治理体系
(一)确立以风险为本的治理原则。治理原则是构建具体制度的指导思想,应确立以下三项核心原则:一是预防性原则。对生物特征数据应用可能带来的未知风险和长远影响保持审慎,尤其是在技术后果尚不完全明朗时,监管应体现前瞻性,采取适应性强的预防措施。二是比例原则。规制措施的强度必须与刷脸支付具体应用场景所蕴含的风险等级相称。对于低风险小额交易,可适用宽松规则;对于高风险场景,则需施加更严格的监管要求,避免“一刀切”对技术创新造成不当抑制。三是协同治理原则。建立政府监管机构、行业企业、技术专家、社会公众等多方主体共同参与、责任共担的协同共治格局,形成治理合力。
(二)推动关键监管工具与机制的创新。推行“监管沙盒”的升级应用。将现有侧重于单一产品测试的沙盒,升级为对数据治理规则、算法伦理标准和新型商业模式进行综合试验的平台。需设定清晰的沙盒准入、风险测试、动态评估与有序退出机制,为创新提供安全的测试空间。
建立强制性算法审计与认证制度。引入独立的第三方专业机构,对商用刷脸支付算法的准确性、公平性、鲁棒性及可解释性进行定期审计,并逐步建立算法安全与伦理认证体系,破解算法“黑箱”难题。
实施基于风险的分级分类管理。根据交易金额、应用场景(如大额转账与小额零售)的风险差异,实施精细化的分级管理。对高风险场景强制要求采用多因子认证(如刷脸+支付密码),并设置合理的交易限额,实现安全与效率的平衡。
(三)夯实支撑治理落地的法律与标准基础。一方面,要完善法律责任与消费者保护制度。在盗刷等安全事件中,明确适用“举证责任倒置”原则,并推行“支付机构先行赔付”制度,切实压实企业主体责任,有效保护金融消费者权益。另一方面,强化行业自律与标准体系建设。积极推动支付行业协会、标准化组织等制定高于法律一般性要求的生物信息处理行业标准、技术规范与伦理公约,形成多层次、高标准的规范体系。
(四)营造有利于科学治理的外部环境。要进一步提升公众数字素养与权利意识,通过广泛的宣传教育,提升用户对刷脸支付风险的认知水平和自我保护能力。同时,拓宽社会参与和监督渠道,在相关技术标准、政策法规的制定过程中,引入公众评议、听证会等机制,保障公众的知情权、参与权和监督权,增强治理体系的公信力与包容性。
▐ 编辑:曲博鑫
▐ 编审:王 慧
▐ 审核:刘艳飞
▐ 终审:朱宝丽