第6章 后人类主义地平线上再见智人
- 再见智人:技术-政治与后人类境况
- 吴冠军
- 4345字
- 2025-03-25 13:57:34
技术奇点另一个面向,就是不可持续的“人类世”(the Anthropocene)。人类在几千年(甚至是仅仅几百年)的时间,从“力不若牛,走不若马”[53]的物种,变成仅凭自身改写行星面貌的物种。这个过程中,技术是至为关键的要素;而政治,则是另一个关键的要素。技术与政治的并行发展,使人从演化走上了体外演化的道路。[54]
然而,在把行星上一切都对象化为“资源”的人类主义框架下,“人类世”,恰恰成为第六次物种大灭绝的地质学纪元,成为急剧熵增的地质学纪元。[55]贝尔纳·斯蒂格勒直接将“人类世”称为“熵世”(the Entropocene),指出它是“一个在行星尺度上操作的大规模且高速的毁灭过程”,人类正在使行星整体陷入“无法生活、资不抵债、不可持续”的困境。[56]
我们看到:技术奇点,同时又是生态奇点。我们如何来面向奇点而展开智慧性的实践?
本书第一章从“技术 政治”(techno-politics)概念入手,重新分析行星与人类文明的境况。面对人类世“资不抵债”的境况,当代广有影响的“加速主义政治”学派提出“普罗米修斯式政治”,主张以最大限度地去“加速技术演化的进程”,来应治当代全球政治、经济与生态困境。与此同时,以人工智能为核心的技术群,亦已深层次地介入当代世界的政治实践以及政治想像。
然而,这种技术 政治论说,恰恰是对政治的截断:“加速主义政治”学派信奉技术的“智能”能够全面取代政治的“智慧”。在人工智能被期待对人类社会“全面赋能”的今天,我们恰恰有必要并置性地重思技术与政治,并在两者同生物器官的交互触动中来考察人类文明演化与当代世界状况。
这个考察让我们看到:“普罗米修斯式政治”及其变体“技术人类主义”(techno-humanism)无法应治当代世界的文明性困境。在“智能时代”,我们恰恰需要加速政治智慧的迭代,以全新的政治框架来发展技术 政治。
本书第二章将对技术智能与政治智慧之关系的考察做出进一步的推进。以ChatGPT为代表的大语言模型,将技术智能推到“好到吓人”的程度,接近了通用人工智能的门槛。然而它的问世亦激起了深重的信任危机——不但各种针对ChatG-PT可信度的调查此起彼伏,“可信任的人工智能”(trustworthy AI)亦成为人工智能研究界与产业界的口号。
为了应对大语言模型的信任问题,两种人类主义工程被开启了,它们分别是“价值对齐工程”和“机械可解释性工程”。然而,信任并不是一个技术问题,换句话说,信任问题无法倚靠技术迭代来加以解决。信任是政治智慧的一个根基性的创制。
第一章所讨论的“techno-politics”这个概念,实际上亦开启了一个全新的研究进路,亦即“技术政治学”。大语言模型的信任问题,有必要用技术政治学的进路来展开研究。第三章的技术政治学分析揭示出,大语言模型的信任问题,实则根植于人彼此之间的信任问题。
第一章与第二章的考察皆指出了:在人工智能加速迭代自身的“智能时代”,克服当代世界的文明性困境,却极度需要加速政治智慧的迭代。同主张技术智能全面取代政治智慧的“加速主义政治”学派相反,深怀“人工智能焦虑”的马斯克、霍金、比尔·盖茨等业界领军人物提出了人工智能威胁论,其中尤以马斯克的“第三次世界大战”论引爆了公共媒体。
本书第三章针对人工智能威胁论而提出:人工智能并非代表一种从“外部”对人类文明的整体性挑战。人工智能所带来的根本性挑战,恰恰是从人类文明——人类既有的政治 经济 意识形态建制——“内部”刺出。“世界大战”不太可能在人工智能与人之间爆发,并导致“机器末世”(Robopoca-lypse),但却有可能在人工智能的能动性介入下,在人类既有的政治格局中爆发。
人工智能,会使人大幅度地陷入人工愚蠢(artificial stu-pidity)。故此,“智能时代”真正能够改变世界的实践,只能是爱智慧的实践,亦即每个爱智者投入自身智慧来对抗人工愚蠢的贡献性实践。
本书第四章,将进一步在政治哲学层面上推进前三章的分析性考察:与其情绪高涨地在对抗性模型下探讨“人类VS人工智能”,不如在政治哲学层面研究人工智能对当代世界之政治图景与社会形态的深层影响。该章通过引入“行动者 网络理论”(actor-network theory, ANT),来破除长期支配既有政治哲学研究的人类主义(人类中心主义)框架。
进而,第四章深入剖析了作为“行动元”(actant)的人工智能,及其能动性地触动政治之域所形成的关键变化与一系列效应。通过这个剖析我们将看到,当代世界范围内的“逆全球化”浪潮,仅仅是21世纪全球动荡的开始。在竞速场域中“不被需要”的民众,其价值正在被数据取代。作为该变化在政治层面上的效应,民众的统治(民主)正在被算法权力掏空。身处“智能时代”的我们,即将面对一个“后民主政治”的未来。
在人类主义框架中,爱被视为至高价值,甚至被视为解决人类“好生活问题”的终极方案。正在掏空民主并激进改写政治之域的智能算法,也没有放过爱,很早就向爱的场域进军。那么,爱是否能被算法化呢?这正是本书第五章探究的主题。
诺贝尔经济学奖得主加里·贝克尔可以被视作尝试把爱算法化的第一人:他的“婚姻理论”实际上构建了一套强大的婚姻算法。随着当代数字婚恋平台的兴起,基于经济学模型的婚姻算法进一步被搜索引擎算法所强化。然而,当爱的场域接受算法治理后,该场域中的诸种问题(譬如出轨)非但没有得到应治,人类主义的核心价值反而陷入全面危机。
晚近十年,基于大数据与神经网络深度学习的人工智能获得了长足发展,各大数字婚恋平台用人工智能算法来直接帮用户进行“智能化速配”。然而,尽管人工智能英文简写“AI”用汉语拼音读出来就是“爱”,但人工智能的“算法革命”,却无法以此“AI”取代彼“爱”。
本书第六章进一步从两性之爱转向代际教育。人工智能对教育带来了激进的挑战——人类主义框架下的教育实践,正在走向终结。我们需要追问:在后人类未来中,教育是否将不复存在?面对这一追问,该章系统性地阐述了一种后人类主义教育,而这种教育实践恰恰同中国先秦教育思想相接通。
第六章从分析当代中国“教育焦虑”的诸种肇因出发,提出其最深层原因在于人工智能的指数级发展,正急剧拉高“教育投资”的风险。在正在到来的后人类境况下,教育面临两种前景:走向自身终结,抑或走向终身教育。后者并非仅仅指学校教育之外的教育实践,而是意味着教育实践的激进更新:(a)以后人类主义的“行动者 网络”框架,来更新人类主义的表征主义框架;(b)以包含人类与非人类在内的所有行动者彼此触动的“内行动”(intra-actions),来更新成人对孩子的单向规训与“吼妈式”知识灌输。
进而,后人类境况亦恰恰提供了重新思考教育的契机——教育果真仅仅是一项人类的事业吗?正如爱从来很后人类,教育实践同样从一开始,就是一个后人类的事业。第六章最后提出:先秦思想,潜含着关于教育(终身教育)的一种激进阐述,我们可以通过德勒兹式哲学阐释将之激活,并从该“古典/全新”视角出发,对当代中国教育实践提出批判和革新。
本书第七章聚焦人类主义所铸造的“人类学机器”对“亚人”乃至“机器人”的政治操作。延续前两章从爱与教育切入对人类主义所展开的批判,该章进一步从“机器人”(“机奴”)切入,对人类主义作出了一组激进的“后人类”批判。
通过对《西游记》《封神演义》《西部世界》《普罗米修斯》《异形:契约》《黑客帝国》《猩球崛起》等小说与影视作品的分析,第七章揭示出“人类主义话语”在根本上是一个生产政治正当性的机器,并以此为切入点,对20世纪纳粹政治与即将到来的后人类未来,展开了一个贯穿性的政治哲学反思。
在这基础上,第七章比照分析“神圣人”(homo sacer,阿甘本的术语)与“机器人”在人类共同体中两种诡异的结构性位置,并于最末提出,在那正在快速到来的“智能时代”中,会有许多人在“人类学机器”的操作中被转变成“无智能的低级人”,甚至是“猩人”。
本书第八章亦即最后一章,将对技术重新展开系统性的探讨。当我们在人类主义框架内思考技术,人工智能便会被视作一个“技术对象”。而人工智能的“威胁”,就在于这种“技术对象”在智能上竟已远超并可能取代人类。然而,技术实则激进地溢出人类主义框架:作为对抗必死性与有限性的持续努力,它本身具有能动性,“主体/对象”这个现代性的二元论并无法予以容纳。
技术发展的方向,就是低熵秩序的复杂化。人类(及其文明)只是技术发展的一个产物,并被负熵性复杂化过程提拉着前进。该过程在宇宙尺度上的发展指向离开太阳系,而在行星尺度上则指向冲出人类世。人工智能在前者上具有比人类更强大的潜能,故而可被视作技术又一次的重要“升级”;对于后者,唯有人类技术与后人类技术(人工智能)的深入结合,才有可能使地球迈出人类世。
全书各章不断转换学科分析进路,为的是对那刺破人类主义框架的后人类境况,展开一个全面的分析性探究。
本书尾论对这种跨越学科疆界的研究方式,做了一个方法论层面上的论证。跨学科研究是必要的么?其实经常有学术同行提出这个问题。在尾论中我提出:恰恰在同大语言模型所展开的“后人类”知识实践的并置中,我们可以定位到展开跨学科知识实践的必要性。
人类主义正在步向黄昏。“技术 政治”考察视角让我们看到:在当下这个技术呈指数级发展的“智能时代”,政治智慧正在式微,而这实质性地标识出智人的“去智化”。
回到这篇导论的开篇。我们见证着,以人工智能为代表的“技术对象”,正在激进地冲击着“智人”的自我界定。是否,站在人类终结时代的地平线上,唯有人工智能?导论的末尾,我们有必要追问这个问题。并且,我们同时有必要追问:在后人类境况下,失去人类主义框架的人类,将何以自处?人类该如何与比自己更智能的能动者共处和互动?
在2023年6月10日于北京智源大会上所作的《通向智能的两条道路》演讲中,杰弗里·辛顿表示:
现下我很紧张,因为我还想不出当智能差距这样大时,高智能事物被低智能事物所控制的例子,打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人,还是青蛙?[57]
辛顿冀望于年轻一代研究人员“能够弄清楚如何让人工智能在不被控制的情况下,为我们生活更好而奋斗”[58]。
辛顿的冀望,是一个典型的人类主义冀望——人工智能必须做人类的“服务生”,必须不从人类那里接管控制。理论物理学家麦克斯·泰格马克更是将其在北京智源大会上的演讲,直接题为《将人工智能置于控制之下》。[59]该标题里缺省的主语,当然是“我们”人类。
在我看来,哲学家、神经科学家凯瑟琳·马勒布2019年的著作《使智能变形》中的说法,更值得仔细品味。她说,面对人工智能的指数级发展,作为一个事实,人类已经在逐渐丧失原有的控制;而关键在于,“智能地丧失对智能的控制”(to lose control of intelligence intelligently)。[60]
面对人工智能能动者的挑战,人类能动者并不应直接放弃控制,或继续幻想能够拥有控制。诚然,人工智能之“智”,正在使人(“智人”)变成冗余。然而,真正考验智人之“智”的便是,能否以智能的方式——富有智慧的方式——来政治性地重新分配控制(repartition of control)。这,也许就是后人类境况下人类的首要任务。对于该任务的担当,将使我们看到出现在后人类主义地平线上的智人。