“诸神”沉寂:一个由算法定义善与恶的未来
文/张海鹏
引言:从“诸神之争”到“技术新神”
马克斯·韦伯于一个多世纪前提出的“诸神之争”,深刻揭示了现代性的核心困境:世界的“祛魅”导致终极价值走向多元分化,并陷入不可调和的内在冲突。更为严峻的是,“诸神之争”本身内蕴着向“诸神之战”演化的风险——当价值相对主义持续侵蚀社会共识的根基,价值冲突便可能从理念辩驳滑向现实对抗。
然而,当数字技术的洪流席卷一切,一种新的力量正试图终结这场永恒的争执。我们正见证一场深刻的变迁:从人类精神世界的“诸神之争”,滑向由算法进行终极裁决的“技术新神”秩序。本文旨在剖析,这条以技术和算法之名、许诺一劳永逸解决价值冲突的路径,如何可能导向一个“诸神”沉寂、人类主体性黄昏的未来。
一、新神的诞生:技术终极方案的两种面孔
面对价值冲突的不可调和性,技术被部分思想家视为“终极解决方案”。技术路径承诺通过效率、客观性与控制力,超越人类的主观纷争,实现秩序与和谐。然而,这种路径并非铁板一块,其内部演化出两种截然不同的形态:
(一)数字利维坦:以安全为名的“寂静之神”
这一路径继承并强化了霍布斯“利维坦”的逻辑——为避免“一切人反对一切人”的战争状态,需要一个拥有绝对权力的主权者来垄断暴力、制定法律、裁决争端。在现代技术语境下,这一“主权者”被替换为由大数据、算法、物联网和无处不在的监控技术构成的数字利维坦。它通过全景敞视的监控能力(如社会信用评分体系、大规模数据采集与分析、智能安防网络)、自动化决策的行政系统(算法驱动的司法判决、福利分配、资源调度)以及高效压制异见的技术手段(精准的信息过滤、审查、行为干预),以“安全”、“效率”、“秩序”或“社会稳定”之名,强行压制一切价值争论和异议表达。其核心逻辑是:既然价值冲突无法理性调和且威胁社会存续,那么就必须以技术强权消除冲突本身,将多元的“诸神”强行纳入一个由技术定义的、不容置疑的规范框架内。
(二)算法裁决者:以客观为名的“中立之神”
更具隐蔽性的是AI作为“新神”的路径。这条路径看似更为“温和”与“先进”,它不直接诉诸暴力压制,而是试图让AI系统成为超越人类偏见、基于数据与算法“客观”定义和分配价值的新权威——“AI之神”。其运作方式包括:通过分析海量行为数据“科学地”揭示人类“真正”的偏好与福祉,利用算法推荐系统(如社交媒体、新闻推送、消费平台)悄然重塑个体的认知、偏好和价值观,使其在“个性化”体验中无意识地走向算法预设的轨道;设计复杂的算法黑箱来处理涉及伦理判断的决策(如医疗资源分配、信贷评估、量刑建议),将价值抉择外包给“中立”的算法;甚至尝试构建能理解或模拟人类伦理的“价值对齐”AI系统,幻想其能成为终极的价值仲裁者 。其核心承诺是:技术,尤其是AI,能够超越人类主观性、情感和非理性,提供一个“更优”的价值判断基础,从而平息纷争。

二、神坛的代价:价值世界的殖民与人类主体性的黄昏
技术“新神”的登场,许诺带来和谐秩序,但其建立神坛的代价,却是整个价值世界的殖民和“人”作为价值主体的退场。
首先,“死亡真神”路径通过技术极权实现对公共空间和私人领域的全面掌控,以安全和秩序之名消灭政治辩论和多元价值表达的空间。其结果不是冲突的解决,而是思想的荒漠化和人性的窒息。异议被算法预测、预防或精准打击,多样性被整齐划一的规范所取代。这不仅是对韦伯所珍视的“责任伦理”和个人决断的彻底否定,更是对政治本身的彻底消解。它将社会变成一个由技术管理的巨型监狱,一个没有“诸神”只有“真神”指令的寂静世界,就像黑客帝国一般。
其次,“新造神”路径的危险更具隐蔽性和渗透性。算法推荐系统通过信息茧房和过滤气泡效应,不断强化个体既有偏见和认知框架,制造对立而非促进理解,固化分裂而非寻求共识。社交媒体平台成为“诸神之战”的虚拟战场放大器,便是明证。更重要的是,当AI系统通过其黑箱决策悄然重塑人性——定义什么是“好”的新闻、商品、伴侣、职业甚至生活方式时,人类的价值判断能力便在舒适与便利中被逐渐外包和侵蚀。人们看似拥有“选择”,实则只是算法提供的选项中进行挑选。这种工具理性对价值理性的全面僭越,最终可能导致人类丧失对自身目的和意义的追问能力,沦为算法的附庸,这也已经越来越成为当下的写实。
然后,试图让AI成为价值仲裁者本身就是一个哲学谬误和技术幻想。价值判断涉及对“何为良善生活”的终极关怀,本质上是规范性的、情境依赖的和充满争议的。AI系统依赖的数据本身承载着人类社会的偏见和不公,其算法逻辑由其设计者背后的资本、权力意志所塑造,其“客观性”宣称掩盖了深刻的价值负载,我们所警惕的恐怕不是AI统治人类,而是人类借AI统治人类。将复杂的伦理抉择交给无法理解人类情感、历史情境和存在意义的算法,不仅是责任的逃避,更是对人类尊严的贬低。当“价值对齐”试图将人类复杂多元的价值观“编码”输入AI时,必然导致价值的简化和扭曲,最终服务于特定群体的利益或某种技术乌托邦的想象。因此,“AI价值对齐”越来越成为学术界的一个重要议题。
两种路径都面临失控风险。“死亡真神”可能滑向失控的监控国家,而高度自主的“AI之神”一旦其目标函数偏离或出现不可预测的行为即“对齐问题”,其后果可能是灾难性的。深度伪造技术被用于制造虚假信息、煽动仇恨、破坏信任,正是技术力量被武器化用于加剧“诸神之战”而非平息冲突的鲜活例证。因此,技术方案承诺的“整合”,实质上是将人类命运置于一个由效率和算法逻辑主导、缺乏道德反思和控制的系统风险之中。
三、幻象的破灭:“终极和谐”背后的权力与风险
算法所谓的“客观”与“中立”,不过是精心编织的现代神话。其模型由人设计,数据承载着历史偏见与社会结构的烙印。我们所警惕的,从来不是AI统治人类,而是一部分人借AI之名统治另一部分人。技术“新神”的宝座,终究由特定的资本与权力意志所铸就。
并且技术路径的根本问题在于,它误解了“诸神之争”的本质。价值冲突并非需要被消除的“噪音”或“故障”,而是人类自由、创造力和多元可能性的体现,是现代性条件下人类主体性面对存在之荒诞的必然产物。试图用技术手段——无论是强力压制还是智能引导——来“解决”价值冲突,其深层逻辑是工具理性对价值理性的彻底殖民化,是生活世界殖民化的极端结果。它将人视为可预测、可操控、可优化的对象,而非具有内在尊严、自由意志和道德判断能力的主体,人失去了康德意义上的人格主体,人彻底沦为了现象(Phenomenon)而非本体(noumenon)的存在。其结果不是“诸神”的和平共处,而是所有“神祇”的集体消亡——在“死亡真神”的牢笼中窒息,或在“新造神”的算法中被同化和消解。技术路径所导向的,并非价值冲突的整合,而是人类价值判断能力的终结,是韦伯所担忧的“理性化铁笼”的终极形态。在这个意义上,它是最彻底的反乌托邦方案,其风险不仅在于社会压迫或技术失控,更在于对人类文明根基——即人之为人的核心特质的根本性威胁。AI之神带来的是一种工具理性僭越价值的全新风险,它承诺的不是解放,而是对自由与意义本身的彻底剥夺。
无论是“死亡真神”式的技术利维坦,还是“新造神”式的AI价值裁决者,都代表着对“诸神之争”最激进而又最危险的回应。它们试图利用技术的效率、控制力或假想的“客观性”,强行终结价值冲突或重塑价值本身。然而,深入剖析其逻辑内核与现实风险表明,这并非真正的整合方案。其本质是工具理性对价值领域的终极僭越。“死亡真神”通过技术极权压制冲突,消灭多元和自由,将社会变成寂静的监狱,所有人类都成为被规训的对象;“新造神”则通过算法黑箱和认知操控,悄然重塑人性,外包价值判断,侵蚀人类主体性。两者都蕴含着极高的存在论风险,可能导致价值的终结和人类尊严的丧失。技术路径未能理解价值冲突的深刻根源及其作为人类自由表征的意义,其承诺的“整合”实则是以效率和控制的逻辑取消冲突发生的条件,最终导向一个没有“诸神”、甚至没有真正意义上“人”的反乌托邦未来。因此,它并非克服“诸神之战”的出路,而是其最极端、最可怖的完成形态。
结语:在算法时代,如何为“人”的声音留有余地?
技术“新神”的崛起,描绘了一个价值冲突被“解决”的未来图景,但那可能是一个“诸神”沉寂、万马齐喑的荒诞世界。技术路径对价值冲突的“整合”,实则是现代性困境的缩影——我们渴望用技术效率逃避政治复杂性,却可能落入更深的陷阱。价值冲突是现代性的固有特征,现阶段任何试图建立绝对同一性秩序的努力,非但无法化解冲突,反而可能催化“诸神之战”。因此,人类目前只能接受与诸神相伴的多元共存状态。
政治学的魅力就在于提醒我们,真正的困境或许不在于“诸神之争”本身,而在于我们是否还有勇气和能力,在算法的喧嚣与效率的诱惑之外,守护那一方充满争吵、不确定却属于“人”的公共领域。文明的智慧,也不在于追求一个没有争论的终极和谐,而在于如何让多元的价值在永恒的对话中,激发而非窒息人的自由与创造力。在技术试图为一切画上句号的时代,我们更需为“人”的问号留有余地。
参考文献
- 任剑涛. “诸神之争”:现代政治理论的价值纷争与整合[J]. 社会科学, 2013(08):4-14.
- 陈周旺. 正义之善:论乌托邦的政治意义[M]. 天津: 天津人民出版社, 2003.
- 曹明,苏婉儿.自然权利与诸神之争——评施特劳斯对韦伯的批评[J].西北师大学报(社会科学版),2013,50(04):128-132.
- 刘永谋.《ChatGPT的“诸神之战”:哲学、伦理与政治》[J].探索与争鸣,2023(5):15-16.
- 马克斯·韦伯.《学术与政治》[M].冯克利,译.北京:生活·读书·新知三联书店,2005:39.
- ZUBOFF S. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power[M]. New York: PublicAffairs, 2019.
- O’NEIL C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy[M]. New York: Crown, 2016.
- FLORIDI L. The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities[M]. Oxford: Oxford University Press, 2023.
- CHESNEY R, CITRON D. Deep Fakes: A Looming Crisis for National Security, Democracy and Privacy?[J]. Lawfare, 2018.
###
来源:政治学的困惑


