美国约翰斯·霍普金斯大学教授亨利·法雷尔(Henry Farrell)、乔治城大学教授亚伯拉罕·纽曼(Abraham Newman)和康奈尔大学政府学副教授杰里米·华莱士(Jeremy Wallace)发表文章指出,人工智能会扭曲政治系统中的的决策,从而危害美国这样的民主国家和中国这类权威政体,因此中美应当寻求国际合作以应对人工智能对政治决策中的不利影响。
在政策圈里,关于人工智能的讨论总是围绕中国与美国争夺技术霸权展开。但此类从争夺主导权的角度的思考却忽略了人工智能正在从根本上改变全球政治这一事实。人工智能不会改变大国之间的竞争,因为它会改变对手本身。美国是一个民主国家,而中国是一个权威政体,机器学习以自己的方式挑战每个政治制度。在这两种政治体制中,政府制定政策,然后试图弄清楚这些政策是成功还是失败。美国等民主国家通过投票支持率和舆论得到公众关于政策是否有效的反馈。机器学习则增加虚假信息、助长偏见,产生大规模令人信服的虚假言论从而加剧社会两极分化。中国这类权威政体面临的挑战更加微妙也更具腐蚀性。统治者通过机器学习而不是调查和公开辩论和选举来了解民意。因此机器学习可能会混淆专制制度的统治者,造成共识的假象,并掩盖潜在的社会裂痕直至酿成大祸。
因此,最紧迫的问题不是美国或中国在人工智能主导地位的竞争中是赢还是输,而是人工智能将如何改变民主国家和专制国家用来管理其社会的不同反馈循环的方式。机器学习会导致权威正确在错误的决定上越走越远,同时机器学习产生的大量虚假信息会扰乱民主国家的反馈机制。许多学者认为,随着机器学习普及,它将不可避免地损害民主政体。例如,在他们看来,优化参与度的社交媒体算法可能会破坏公民反馈的质量,从而破坏民主。当人们一个接一个地点击视频时,YouTube 的算法会提供令人震惊和令人震惊的内容来保持他们的参与度。该内容通常涉及阴谋论或极端政治观点,将公民引诱到一切都颠倒的黑暗仙境中。相比之下,机器学习应该通过促进对人民的更大控制来帮助独裁政权。历史学家 Yuval Harari 和许多其他学者声称人工智能“有利于暴政”。人工智能集中了数据和权力,允许领导人通过向普通公民提供信息来操纵他们的“情绪按钮”。这种无休止的反馈和响应过程应该会产生一种无形而有效的社会控制形式。另一方面,在权威政体中,政府将越来越依赖机器学习。统治者会将自己推入一个建立技术放大的偏见之上的想象世界。不幸的是,没有虚拟墙将民主制度和专制制度分开。不仅糟糕的数据和疯狂的信念可能会从威权社会泄漏到民主社会,而且可怕的威权决策也可能对民主国家产生不可预测的后果。当政府考虑人工智能时,他们需要意识到我们生活在一个相互依存的世界中,威权政府的问题很可能会蔓延到民主国家。
对此,作者认为,在中美竞争日益激烈的背景下,应当通过寻求国际治理合作来减弱人工智能带来的弊端。制定广泛的国际监管原则可能有助于传播有关人工智能政治风险的知识。
2022年9/10月刊
https://www.foreignaffairs.com/world/spirals-delusion-artificial-intelligence-decision-making