随着大数据、人工智能等信息技术的快速发展,我们正在进入“算法经济时代”。以深度学习为代表的人工智能算法在互联网信息传播、数字经济发展、信息产业服务等诸多方面发挥了重要作用,产生了溢出性极强的经济效益。

然而,当前人工智能算法通常依赖于数据驱动的方式,其行为不可控、决策机理难解释,带来了公平性、隐私性等相关安全问题。更严重的是,人工智能算法“黑箱”特性导致了算法治理困难,加剧了算法被资本利用的可能,给算法经济的发展带来一定负面影响。事实上,近年来算法“黑箱”特性的负面作用正在凸显。一些平台利用算法决策侵犯受众权益的问题层出不穷,传统监管手段失效,极易引发监管机构信任危机。

监管信任危机的根源在于企业在数据和算法上的非对称优势。当前,基础数据的所有权和控制权主要集中在互联网平台企业,这些企业全程操纵算法设计、运行、测试和分析,由此占据着优势地位。监管部门在“算法社会”中已经呈现出被边缘化的趋势,极易失去对关键数据和关键算法的监督权和控制权。这意味着,算法“黑箱”的存在势必导致私人利益主观上俘获公共利益,以及资本主观上规避公权力约束等风险的产生。同时,算法“黑箱”客观上隐藏了算法自身存在的缺陷,并可能触发安全风险,让监管机构难以审查算法信息。监管机构规制算法的内容与手段均受到限制,难以及时针对算法问题进行问责和纠偏。

例如,一些平台基于用户信息,对用户进行“大数据杀熟”,即对于同样的商品或服务,新用户的价格比老用户便宜许多,暗中形成市场歧视,践踏市场公平,侵害消费者权益和政府公信力。而互联网平台企业使用的动态定价算法存在的潜在缺陷,则可能造成算法共谋,即在多个动态定价算法同时被使用时,在人们不知情的情况下通过算法对市场进行垄断,从而提高市场价格,产生寡头。除了商业领域,“黑箱”让诸多算法流程处于出不透明的状态,公民的知情权在相当程度上失去保障。

我国“十四五”国家信息化规划提出,应建立健全规范有序的数字化发展治理体系。2022年1月份发布的《互联网信息服务算法推荐管理规定》,明确反对算法歧视、大数据杀熟、诱导沉迷等算法的不合理应用。而算法治理法律法规、监管标准规范、监管技术及平台的缺失缺位,是建立健全算法治理体系中的三大挑战。

应对挑战,尤其需要从法律责任、行政责任、道德责任三方面构建算法治理法律法规体系,推动社会各方之间的合作互信。在法律责任层面,国家应制定、完善相关法律法规,在多元主体之间建立起监管算法“黑箱”的共同准则。在行政责任层面,着眼于行政审查、行政监管与行政问责,制定技术标准和操作守则,要求平台企业使用的算法符合法律法规要求、符合公共利益,削弱或消除算法“黑箱”造成的负面影响;在道德责任层面,着眼于算法伦理的嵌入,监管部门应该要求平台在算法设计上符合社会一般道德观念、价值与规范。

针对算法设计、应用、监管等全流程治理问题,需要构建算法基础标准、风险评估标准、安全等级标准以及监管标准等完整的标准规范体系,分级分类,设立全面、清晰、可操作的技术指标体系,做到实时可控可监管。算法企业应积极主动配合国家算法治理过程,依据相关标准要求,制定和公开算法相关信息,提升算法透明度。与此同时,发挥社会组织监督作用,加强第三方监督,平衡算法信息的不对称。

针对算法“黑箱”风险难定义、难监管、难预防、难取证、难追责等问题,需要推动研究院所、企业、高校和政府的技术合作,突破度量评估、行为监测、风险防护、博弈演化、突变溯因等原创理论与核心技术,创建并丰富监管技术手段,确保算法在各个阶段中的安全风险可控。为实现算法治理自动化、标准化,还应当开展算法全周期、立体化智能评测和监测技术的研发,构建可解释性、隐私保护、公平性、鲁棒性兼顾的安全可信的算法监管平台。

(刘祥龙 作者系北京航空航天大学软件开发环境国家重点实验室副主任,计算机学院教授、博士生导师)

责任编辑:白雨