人工智能时代的政府治理困境

2019年05月29日 12:54 来源:中国社会科学网-中国社会科学报 作者:吕俊延

  机器算法作为政府数字化治理的工具,使人类面临技术统治的风险。这一风险主要体现为算法技术的反向适应性:机器算法并不积极回应人类的指导,反而要求人类适应现代技术系统。

  人工智能时代,技术的昌明进步使得政府治理的工具和手段逐渐多样化和智能化。特别是在机器算法广泛应用的今天,技术革新影响并改变着政府治理的方式。然而,政府将算法技术作为治理工具,容易片面追求技术效率,而忽视公民福祉、社会公平等价值理念。数据算法强化了政府的工具理性,增强了政府监控社会的能力。但是,如何驯服人工智能时代的“赛维坦”,是政府治理不可回避的难题。

技术与政治关系之辨

  关于技术对政治变革影响的研究,在国外已经逐渐发展为一门显学,即科学技术关系学。匈牙利著名哲学家卢卡奇指出,科学技术发展越好,它离人本身就越远,极易发展为片面的、统治人的工具。马尔库塞认为,技术发展本应成为解放人性的力量,但在资本主义社会,科学技术已经沦为一种新的控制方式。在马尔库塞看来,技术转变为控制社会的方式意味着技术的异化。技术手段占用公民的自由和劳动时间,造成公民单面且简化的思维方式。哈贝马斯更进一步指出“科学技术即意识形态”,并对技术的异化进行了批判。哈贝马斯认为技术体现的不是中性的价值,而是承载着政治价值。技术的发展容易使政治陷入技术专家治国的怪圈。在现代社会,科学技术逐渐上升为制度框架,并对政治产生深刻影响。

  科技发展与政治秩序的重构也密切相关。从根本上讲,技术本身含有异化的可能和倾向。段伟文就认为,科技有控制政治的危险。他指出人工智能在处理决策问题方面,可以经由精确的数据和算法确定最优的解决方案。这就弱化了参与的主体性,进而影响政府决策的合法性来源。人工智能很可能成为负有决策责任的新型“国家机器”。在这种情况下,不仅会弱化民众民主协商的政治意义,甚至会极大损害现代民主理念。因此,周濂提出用政治限定科技来解决技术发展的困境。具体而言,政府部门需要对技术的发展加以界定,以更好地利用技术进步来造福人类。周濂认为,用政治“锁死”科技,不仅是为了捍卫人类的尊严,更是为了引领社会朝向更有利的方向发展。

 技术自主性与治理失灵

  机器算法作为政府数字化治理的工具,使人类面临技术统治的风险。这一风险主要体现为算法技术的反向适应性:机器算法并不积极回应人类的指导,反而要求人类适应现代技术系统。技术具有自主性,而人却丧失自由。人类将服从算法的规范,适应算法技术的运行环境,进而造成政府治理的失灵。具体而言,这种治理失灵主要体现在三个方面。

  第一,算法黑箱与政府决策失误。一方面,算法黑箱降低政府决策的合法性。算法能够被看到和理解的,只有输入和输出两个环节,其信息处理过程是一个无从知晓的“隐层”。算法黑箱的存在,使人工智能在政治领域的行为缺乏有效的解释力。将政府的最终决策权转移给“没有感情”的算法,这种决策不仅可能因“大数据傲慢”而出现重大失误,更违背了政治民主的理念。政治是人的艺术,政府决策往往没有绝对的对与错,“对错”背后的依据通常是关于决策的解释能否被大部分人接受。政治理论大师孟德斯鸠认为,只有在基本共识下,慎思明辨才可能发生,而当前的人工智能恰恰缺乏这个能力。另一方面,算法黑箱降低政府决策的有效性。福山在其新作《身份》中指出,社交媒体和互联网促成了一些自给自足的社区,它们不是被物理壁垒,而是被共同的身份隔离开来。算法让人们更容易听到志同道合的论断,却也造就了良好的自我感觉,从而难以吸收反对者的声音。这就是美国学者桑斯坦所谓的“信息茧房”:人们只关注自己感兴趣的,却对外面的世界越来越缺乏了解。“茧房”桎梏下的人们加强了内部认同,使得孤立群体的意见形成了一股碾压一切的力量,政府治理可能走向被群体力量反噬的结局。此外,“茧房”下的人们也缺乏公共意识,难以形成共同的视角,从而造成政府决策的偏差。

  第二,算法监测与政府伦理失范。作为一种人类组织,政府决策的最终裁量权应该交由人类。但在人工智能时代,社会被快速数据化,伦理问题随之显现。机器算法由于掌握了大量个人信息,可通过对个体赋值以作为决策的依据。此外,逐渐普及的智能设备也成为个人数据的全面记录者。当机器算法监测到足够多的数据,是否会使人类社会滑向全面性的“数字独裁”,进而形成无处不在的歧视?政府伦理失范的另一表现是对公民隐私的侵犯。机器算法的准确度取决于信息的完整性,而人们出于对便捷和高效的追求,往往牺牲自己的隐私,从而不断陷入边沁所谓的“环形监狱”,即看不到监视者,但确知自己是被监控的。在算法时代,个人将失去对个人信息的完整控制权。算法通过将个人的记忆向外延伸并永久存储,从而加大被人调用的风险。

  第三,算法偏见与政府权力失位。算法可能加大权力极化,甚至成为极端主义的温床。民众在数字信息领域的贫富差距不断加大,进而演变为政治上的新霸权。诚如托夫勒在《权力的转移》中所言,人工智能时代削弱了国家的政治聚合力和国家中心意识,最终导致少数技术超人和企业精英操纵全球经济和政治,普通人不仅成为失业者,还会成为失权者。掌握海量数据的人工智能公司极可能成为超国家组织,进而对政府权威提出挑战。机器算法依赖于大数据,但大数据并非客观中立。大数据可以精确分析出个体倾向,并把不同个体归入不同群体之中。算法推荐给我们的信息愈具有针对性,就愈能够引导我们的行动和决定,而我们却逐渐失去自我。这是因为算法根据个人数据,通过有针对性的信息筛选,形成所谓的“过滤泡泡”。这种过滤方法会对人产生诱导效应,并使人们陷入自我满足的封闭幻想。这一“回音机制”也会刺激人们的消费冲动,并以此作为推动消费的燃料。现在的电商平台正是运用这一“消费逻辑”来增加销量,而政府在方面的监管尚处于缺位状态。

 驯服“赛维坦”

  社会上形形色色的价值、感想和思维方式是上层建筑的重要组成部分,而技术作为物质条件的重要基础创造并发展了这一切。当下,技术的发展倒逼政府治理创新。这要求政府部门转变治理理念,主动根据技术变革的需求推动治理方式重塑,以充分发挥技术在治理变革中应有的作用。

  需要警惕的是,机器算法可能超越技术的价值而成为一种崭新的权力形态。若继续放任算法对政府治理的僭越,就会带来政府治理的失灵,最后结果将是政府责任的终幕。霍布斯用巨兽的形象描述一个具有极大威慑力的“利维坦”。但他对待“利维坦”的态度是积极的,主张通过政治手段,将所有人置于一个想象共同体的价值网络,以结束“人人自危”的自然状态。随着科技的突飞猛进,以前温文尔雅、带领人们走向光明的“赛先生”,逐渐成了力量极其庞大却又找不到方向的巨型怪兽——“赛维坦”。

  为了避免机器算法这一“赛维坦”成为指向政府的达摩克利斯之剑,我们应将对技术的控制权牢牢掌握在手中,并充分做好应急预案。通过搭建一个针对算法决策的“熔断”机制,筑起一道防范机器为恶的防火墙,将风险降至最低。如此,才是驯服“赛维坦”的善治之道。

  (作者单位:华东政法大学政治学研究院)