科学家的消亡 - AI 会终结科学,还是会引发一场新的革命?
这不是又一篇"AI 会不会取代科学家"的讨论。
作者 萨拉·伊马里·沃克(Sara Imari Walker) 是亚利桑那州立大学和圣塔菲研究所的天体生物学家和理论物理学家,致力于发展旨在刻画生命起源的理论和实验。在她的著作《无人知晓的生命:生命涌现的物理学》(Riverhead Books,2024年)中,她提出研究生命起源需要激进的新思维。
在「The Death Of The Scientist」中,她从一个极少被触及的角度提出了根本性的追问:科学到底是什么? 如果我们连这个问题都没搞清楚,就急着讨论 AI 能否"做科学",那我们可能正在犯一个时代级别的认知错误。
巴特说"作者已死"——文本一旦发表,就脱离了作者的意图,进入读者的诠释。科学也一样:当科学家发表时,他们"死去",但他们的工作开始了社会性的生命——同行评审、辩论、共创。AI 的输出一开始就已经"死了"——它产生时没有任何意义创造的具身行为,没有与直觉搏斗的内在过程。
这篇文章融合了计算理论、意识哲学、科学史和文化理论,试图揭示科学作为一种人类文化系统的深层本质——以及 AI 在其中真正能扮演和不能扮演的角色。
以下是全文的完整中文翻译:
科学家的消亡
The Death Of The Scientist
AI 会扼杀科学,还是会孕育一场科学革命?答案取决于一个无人知晓的问题:什么是科学?
作者:萨拉·伊马里·沃克 (Sara Imari Walker) 2025年12月11日 发表于《Noema》杂志
一种挥之不去的傲慢感染着我们物种科学与技术发展的每一个时代。它通常表现为个人或机构的自信——他们坚信在经过数千年的文化进化和数十亿年的生物进化之后,我们终于触及了现实的最底层。我们终于站在了能够解释一切的悬崖边上。
这种傲慢最新的化身出现在围绕人工智能的讨论中。至少在这里,人们承认人类由于受限于记忆和信息处理能力,将永远无法真正知道一切。尽管如此,这种新发现的、更为谦逊的立场又被另一种假设所补充:我们是唯一能够创造出那种可以知晓一切的技术的高等生物物种。
谷歌 DeepMind 开发的 AI 系统 AlphaFold 代表了 AI 在科学领域最著名的成就之一。在对超过 15 万个经过实验确定的蛋白质结构进行训练后,AlphaFold 3 现在可以预测超过 2 亿种蛋白质以及其他生物分子的结构。这种规模在以前是不可想象的。早期的数学模型可以预测蛋白质结构的一些特征,但远远达不到这种量级。乐观情绪是显而易见的:如果 AI 能在如此规模上解决蛋白质折叠问题,它还能完成什么创举?有人宣称 AI 将攻克所有疾病,让科学家变得多余,甚至断言超级人工智能将解决科学的所有问题。
然而,许多人认为蛋白质折叠问题仍未得到真正解决。AlphaFold 预测的是 3D 结构,但它并没有解释其背后的物理机制、折叠路径或动态的构象系综。它对于地球生物学中由 20 种左右氨基酸组成的蛋白质效果很好。但要研究陨石物质中由数百种氨基酸组成的蛋白质,或者设计新型的治疗性蛋白质,这个模型就需要额外的输入。其局限性不在于算法或规模:而是所需的数据根本不存在。
这种张力揭示了关于什么是科学以及科学为何难以精确定义的深刻内涵。如果我们将科学纯粹地视为科学方法——观察、假设、测试、分析——那么自动化似乎是不可避免的。事实证明,AI 算法可以执行这些步骤中的许多(如果不是全部的话),并且在科学家的指导下,它们在这方面做得越来越好。但正如哲学家保罗·费耶阿本德(Paul Feyerabend)在《反对方法》(Against Method)一书中所论证的那样,所谓普遍的科学方法的观念本身就是一种误解。大多数科学家只有在为同行评审撰写文章时才会援引科学方法,将其作为允许可重复性的一种标准化手段。从历史上看,科学方法是在发现做出之后才产生的,而不是在之前。
问题的关键不在于 AI 能否执行某套方法中的步骤,而在于科学产生知识的方式在本质上是否包含着更多的东西。
如果我们所需要的仅仅是规模,那么当前的 AI 将为科学提供一个平凡的解决方案:由于拥有更大规模的模型,我们能够做得更多。然而,围绕 AI 的乐观情绪不仅关乎自动化和规模化,还关乎心智理论。像 ChatGPT、Gemini 和 Claude 这样的大语言模型(LLM)重塑了许多人对智能的看法,因为凭借其设计,与这些算法的交互赋予了它们类似心智的表象。然而,正如神经科学家阿尼尔·塞斯(Anil Seth)敏锐观察到的那样,AlphaFold 依赖于与 LLM 相同的底层 Transformer 架构,但没有人会把 AlphaFold 误认为是一个心智。
我们是否应该这样理解:这样一个在硅芯片上实例化的算法,将以与我们完全相同的方式理解世界,并如此有效地用我们的语言与我们沟通,以至于能按照我们的理解来描述世界?还是说,我们应该相信,在数十亿年的智能进化之后,要在如此短的空间和时间物理尺度内编码我们自己的预测性和动态表征图谱,也许比我们想象的要容易得多?
思考一下你自己的心智是如何构建你对现实的独特表征的。我们每个人的头骨里都容纳着一个能够产生整个内在世界的空间。对于任何其他实体(无论是否有生命),我们都无法以同样的确定性说出这一点。你的感觉器官将物理刺激转化为电信号。在视觉中,光感受器对光做出反应,并沿着你的视神经发送信号。你的大脑在特定区域处理这些信号,在不同的区域检测边缘、运动和颜色对比,然后将这些零碎的感知结合成一个统一的意识客体——被称为"知觉(percept)"——这构成了你对世界的意识体验。
这就是所谓绑定问题(the binding problem):分布式的神经活动如何创造单一的、连贯的意识。不同于我们内在体验背后的未解之谜——“意识的困难问题”(the hard problem of consciousness),我们确实对绑定是如何完成的有了一些科学的认识:同步的神经活动和注意力机制协调大脑各个区域的信息,从而构建你对世界独特的心理模型。这个模型实际上就是你对真实事物的意识理解的总和。
“问题的关键不在于 AI 能否执行某套方法中的步骤,而在于科学产生知识的方式在本质上是否包含着更多的东西。”
我们每个人都是这样一个心理模型的居住者。身处一种世界的物理表征内部(就像我们都在自己的意识体验中一样)是什么感觉,要用科学来解释绝非易事(有人认为甚至可能根本无法解释)。
科学社会面临着一个类似的绑定问题。正如个体的头脑收集感觉数据来对世界建模一样,社会也通过博古睿研究院(Berggruen Institute)未来人类项目主任克莱尔·伊莎贝尔·韦伯(Claire Isabel Webb)所谓的"感知技术"来做同样的事情:望远镜揭示了宇宙的深处,放射性测年法揭示了深度时间,显微镜暴露了亚原子结构,而现在 AI 在海量数据中发现了模式。
丹麦天文学家第谷·布拉赫凭借机械钟和复杂的测角仪实现了精确的天文测量,这些测量提供了感觉数据,随后德国天文学家约翰内斯·开普勒将其转化为椭圆轨道的数学模型。一个跨越时空收集观测结果的社会——以哥白尼、布拉赫、开普勒、伽利略等人的工作为代表——最终被绑定成一个单一的、关于现实的科学共识表征(一种社会知觉),其形式即为描述运动和引力意味着什么的理论。
但这里有一个根本的区别。你的主观体验——哲学家称之为"感受质"(qualia)——是不可简化的私密体验。在非常真实的意义上,它可能是我们宇宙创造出的最私密的信息,因为它与你身体存在的特征有着独特而密切的联系,而这些特征是无法在其他任何东西中复制的。当你看到红色时,一种特定的体验从你的神经结构中产生,它响应的是波长在 620 到 750 纳米之间的光。我可以指着一个红色的东西,你也可以承认你同样看到了红色,但我们无法将红色的实际体验从你的意识转移到我的意识中。我们无法知道我们是否分享了相同的内在体验。我们所能分享的只有描述。
这就是科学与经验截然不同之处:科学从根本上说具有主体间性(intersubjective)。如果某种事物只存在于一个人的头脑中而无法分享,它就不能成为科学知识。科学要求验证彼此的观察结果,在过去发现的谱系基础上积累,建立对现实的代际共识。因此,科学模型必须能够用符号、数学和语言来表达,因为它们必须能够在不同的头脑之间被复制和解释。
科学在定义上是不稳定的,因为它不是现实的客观特征;相反,更准确地说,它被理解为一个不断演变的文化系统,由共识表征孕育而成,并不断适应我们所产生的新知识。
当艾萨克·牛顿爵士定义 F = ma 时,他并不是在分享他关于力或加速度的内在体验。他创造了三个核心抽象概念(力、质量、加速度,每一个都是通过计量标准化发展而来的)之间关系的符号表征。这个公式之所以成为普遍的文化知识,是因为任何头脑或机器都可以解释和应用它,无论各自在内部是如何体验这些概念的。
这揭示了科学知识最根本的挑战:我们分享科学思想的主要界面是符号表征。我们交流的是世界的模型,而不是世界本身。
科学哲学家南希·卡特赖特(Nancy Cartwright)认为,科学理论是拟像(simulacra);也就是说,它们是数学和概念形式的有用虚构,旨在帮助我们组织、预测和操纵现象。理论是一种文化技术。当我们使用理想气体状态方程 (PV = nRT) 时,我们将气体建模为互不作用的点。这不应被解释为一种声明,即真实气体就是字面意义上没有体积且从不相互作用的点,它仅仅是一种在许多情况下都足够有效的简化。
这些简化的模型很重要,因为它们在人类的头脑之间是可以理解和分享的,并且在我们计算机器之间是可以复制的。科学知识必须可共享的要求,迫使我们在每个描述层面上创造拟像。
科学的主体间性对理论的形式施加了严格的物理限制。我们的科学模型必须能够用符号表达,并能在人类的头脑之间进行解释。因此,它们必然是抽象的,永远无法捕捉到现实的全部结构。它们永远无法完全捕捉现实,因为没有任何人类大脑具有足够的信息处理能力和记忆力来编码整个外部世界。即使是人类社会也有其局限性。AI 也将有其局限性。
这些限制不仅仅体现在可用算力方面(为支持 AI 经济需要更多数据处理基础设施的需求加剧了这种限制)。更根本的是,目前围绕 AI 和通用人工智能(AGI)的乐观甚至有时是傲慢的对话表明,这些算法在理解和解释世界的能力上将是"超越人类"的,从而打破了一些人认为的人类生物学对智能的限制。
“我们的科学模型永远无法完全捕捉现实,因为没有任何人类大脑具有足够的信息处理能力和记忆力来编码整个外部世界。”
但从计算理论的基础以及这些技术直接继承的人类抽象概念的谱系来看,这是不可能的。正如物理学家大卫·多伊奇(David Deutsch)所写的那样,如果宇宙确实是可以解释的,那么人类已经是"通用解释器(universal explainers)",因为我们有能力理解任何计算系统所能理解的东西:就计算曲目(computational repertoire)而言,计算机和大脑同样具有普遍性。
计算机科学中的其他基础定理,如物理学家大卫·沃尔珀特(David Wolpert)和威廉·马克雷迪(William Macready)提出的"没有免费的午餐"定理表明,当对所有可能的问题取平均性能时,没有任何优化算法(包括机器学习算法)会普遍优于任何其他算法。换句话说,让一个算法在某一类问题上表现异常出色,必然导致权衡取舍,使其在其他问题上的表现低于平均水平。物理世界并不包含所有可能的问题,但它所包含的问题结构会随着生物和技术的进化而改变。
正如没有哪个人能够理解所有人类已经知道或将要知道的事情一样,也不可能存在永远优于所有其他算法的算法(无论是 AGI 还是其他形式)。更根本的是,通用计算的可能性源于一个基本限制;通用计算机只能描述可计算的事物,而永远无法描述不可计算的事物——这是我们建造的任何计算机固有的局限。这种局限并不适用于个体的人类大脑,只适用于我们通过语言共享的东西,而这正是我们产生新社会知识的关键。
当我们共享的表征图谱崩溃时,也就是当现有的概念不足以涵盖我们新遇到的现象或我们希望解释的旧现象时,科学革命就会发生。然后我们必须发明新的语义表征,来捕捉旧框架无法捕捉的规律性。在这些时候,不墨守成规在知识创造中扮演着极其重要的角色。
考虑一下从自然神学到进化论的转变。旧的范式假设生物是由造物主设计的,物种是固定不变的,地球是年轻的。随着我们学会通过碳年代测定、系统发育以及观察物种通过选择性繁殖和灭绝而发生的变化来解读更深远的历史,我们发现自己从未目睹过生物形态的自发形成。更深层的历史记忆迫使新的描述出现。进化论和地质学揭示了深远时间(deep time)的概念,天文学引入了深邃空间(deep space)的概念,而现在,正如历史学家托马斯·莫伊尼汉(Thomas Moynihan)指出的那样,我们正在进入一个揭示充满可能性的深层宇宙的时代。
我们的世界并没有突然改变或变老,而是我们的理解改变了。我们一再发现自己发展出全新的词汇和概念,以反映我们在世界上发现的新意义。
科学哲学家托马斯·库恩(Thomas Kuhn)将这些转变视为范式转移(paradigm shifts),他指出,剧烈的变革时期迫使科学家重新概念化我们看待所属领域的方式:我们提出什么问题,我们使用什么方法,我们认为什么是合法的知识。涌现出来的是描述世界的全新表征,通常包括对我们自以为理解的日常事物的全新描述。
在库恩看来,科学是混乱的、社会性的、也是深刻的人性化的。在这个我们开始担心人工智能对齐(alignment)、对齐之后(after alignment)以及与我们自己的技术产物重新对齐的时代,范式转移或许可以最好地被描述为我们社会知觉的表征对齐(representational alignment)——在这个过程中,我们必须寻找新的方法,使我们的表征与在我们数千年的文化进化中所呈现出来的、不断变化的现实结构保持同步。
范式转移揭示了科学思想的力量并不在于理论的字面真相,而在于我们识别出描述世界新方法的能力,以及我们所描述的结构如何在不同的表征体系中持久存在。科学的文化有助于区分接近因果机制的拟像(有时被称为客观现实)和那些将我们引向歧途的拟像。
至关重要的是,发现现实的新特征需要建立新的描述。当框架未能捕捉重要的世界特征时(例如当我们识别出模式却无法清晰表达时),就必须出现新的框架和表征图谱。
阿尔伯特·爱因斯坦对广义相对论的发展说明了这一点。他意识到物理学需要超越线性的洛伦兹变换(出现在狭义相对论中)才能走向广义相对论,这中间隔了七年的时间。在他自己的反思中,他评论说原因是"要摆脱坐标必须有直接的度量意义这个想法并不容易。“作为模型强加的数学结构没有捕捉到意义:它们遗漏了爱因斯坦直觉中必然存在的特征。一旦他将自己的直觉编码,它就变成了主体间的,并在人类心智之间可以共享。
“科学思想不仅诞生于个人的头脑,也诞生于对这些头脑创造之物的共识解释。”
这把我们带到了为什么 AI 不能取代人类科学家的原因。在科学中对语言和表征的争议与辩论不是系统缺陷(bugs);它们是一个社会系统决定其需要哪些模型的功能特性(features)。风险很高,因为我们的描述性语言实际上构建了我们体验世界和与世界互动的方式,塑造了我们后代继承的现实。
毫无疑问,AI 将在"常规科学”(库恩将其定义为对现有范式的技术完善)中发挥突出作用。我们的世界正变得越来越复杂,需要相应的复杂模型。唯规模论并非我们所需的一切,但规模肯定会有所帮助。AlphaFold 3 的数十亿个参数表明,简约性和简单性可能不是科学的唯一途径。如果我们希望模型尽可能紧密地映射世界,复杂性可能是必要的。
这与逻辑实证主义者奥托·纽拉特(Otto Neurath)、鲁道夫·卡尔纳普(Rudolph Carnap)和维也纳学派的观点一致:“在科学中没有’深处’;到处都是表面。“如果我们拥有对一切事物的准确、预测性模型,也许就没有更深层次的真相需要被揭开了。
这种表面观点错失了科学知识创造的一个深刻特征。拟像会改变,但我们通过操纵符号而发现的潜在模式仍然存在,无法言说但持续不变,独立于我们的语言。在我们物种有了科学之前,引力的概念是不为人知的,尽管纵观人类历史,我们一直通过感官与其产生直接接触,并且从我们之前近 40 亿年的生命演化谱系中继承了对其的记忆。每一个物种都意识到引力的存在,甚至有些微生物利用这种意识来导航。在牛顿提出数学描述之前,我们就知道它是一种规律,而且这种知识通过爱因斯坦彻底的概念重塑得以延续。
在牛顿那一代人之前,托勒密的模型是行星运动研究中被最广泛采用的,它主导了近 1500 年。它包含了行星的圆形轨道,为了提高预测能力,还为每颗行星添加了本轮(epicycles),使得模型中的每颗行星在一个小圆上运动的同时,也在一个围绕地球的大圆上运动。添加更多的本轮是为了提高预测的准确性,这与在机器学习模型中增加节点及其伴随的过度拟合风险如出一辙。
我们向牛顿模型的转变并不是因为它的预测能力,而是因为它解释了更多的东西。现代引力概念是通过这种抽象过程发明的,是通过将我们对引力的地面体验与我们对它的天文观察在解释层面统一起来而发明的。一旦我们学会了用一种抽象概念来描述引力,我们的物种——更准确地说是我们物种的社会——可能永远不会忘记它,即使描述它的符号可能会发生根本的改变。
正是这种固有于我们理论中的深度含义,让科学在构建新的社会知觉的过程中被发现。这无法用仅仅创造预测性地图、缺乏深度和意义的表面视角来捕捉。
法国文学评论家罗兰·巴特在 1967 年那篇发人深省的文章《作者的死亡》中提出,文本包含了超越创作者意图的多个层次和含义。正如费耶阿本德一样,这也是一种对"方法论的直接反驳”。对巴特而言,这种对方法的反驳是为了驳斥文学批评依赖作者身份来解释文本最终意义或真理的传统方法论实践。相反,巴特主张放弃定义性的作者意图概念,转而支持一种更具社会建构性和不断演变的意图。
同样地,可以说科学家在我们的著作中"死亡"了。当我们发表论文时,我们把工作交由同行进行解释、批评和使用。目前的同行评审过程是 AI 自动化的目标,这源于一种误解:认为同行评审严格来说只是关于事实核查。实际上,同行评审是同行之间的辩论和讨论,它让学者有机会共同创造新科学成果在文献中的呈现方式。这种辩论和共同创造对科学的文化体系至关重要。只有在同行评审之后,我们才进入一个允许复现的方法阶段。
科学思想不仅诞生于个人的头脑中,也诞生于对这些头脑创造之物的共识解释中。
在这个关键意义上,AI 模型的输出已经处于"死亡"状态:它们的产生缺乏一种具身化创造意义的行动,而这种行动伴随着过去四百年左右我们已经习惯的科学发现模式。当科学家提出一个理论时,甚至在同行评审之前,就存在一种解释的意向性行为,一种与直觉及其表征搏斗的内在行为。相比之下,AI 模型通过统计模式识别产生预测,这是一个完全不同的过程。
“AI 会改变科学吗?当然会。它会取代科学家吗?当然不会。”
科学和 AI 都是文化技术;两者都是社会用来组织知识的系统。在思考 AI 在科学中的作用时,我们不应该将单个 AI 模型与单个的人类科学家或他们的心智进行比较,因为这些是不可比较的。相反,我们必须问的是:AI 技术和科学的文化系统将如何相互作用。
科学家的消亡是创造出思想的内部世界的丧失,但这也是思想变得可以被共享时,辩论和争议这一社会体系的内部世界活跃起来的时刻。当人类科学家在他们发表的作品中消亡时,他们孕育了共同理解的可能性。当这导致社会以全新的方式理解世界,迫使我们共同看到表征图谱下新的结构——我们以前无法识别其存在的结构时,范式转移就发生了。
一个 AI 模型可以整合前所未有的大量观测结果。它可以执行假设检验,在海量数据中识别模式,并以人类个体无法比拟的规模进行预测。但是,当前的 AI 仅在人类赋予它的表征模式内运作,并在规模上对它们进行完善和扩展。认识到我们的地图是不充分的,并建立全新的、社会性的、符号化的框架来描述以前无法描述的事物,这一创造性行为仍然极具挑战性,不可能简化为方法论步骤,而且迄今为止,这是人类所独有的。
目前尚不清楚 AI 将如何参与建立科学共识的主体间过程。还没有人能预见,在社会集体决定采纳哪种对现实的描述、哪些新的符号框架将取代那些已经消亡的框架、以及哪些模式重要到需要新语言来清晰表达时,AI 将扮演什么角色。
更深层次的问题不是 AI 能否做科学研究,而是人类社会能否与缺乏意向性意义创造的算法建立共享的表征和共识意义,而这种意向性的意义创造一直是科学解释的核心。
本质上,科学本身也在进化,这引出了一个问题:在这个科学作为文化制度被彻底改变的时代,科学之后的科学(science after science)会是什么样子。我们应该问的是:当我们发现我们的物种仍然渴望在算法实例化之外寻求意义和理解时,科学将会变成什么?
AI 会改变科学吗?当然会。它会取代科学家吗?当然不会。
如果我们误解了科学是什么,把方法的自动化误认为是人类集体构建、辩论和完善符号表征(我们借此来理解现实)的宏大工程,那么 AI 可能会预示着科学的死亡:我们将错失把 AI 融入科学文化系统的真正机会。
科学不仅仅是关于预测和自动化的;历史告诉我们它远不止于此。它是关于解释性共识的,是我们共同决定采纳哪种世界描述的持续不断的人类协商。这种协商,这种将观察结果在主体间绑定为共享意义的过程,在根本上是属于社会的,并且在目前看来,在根本上是属于人类的。
精华收获
核心洞察:科学不是一套可自动化的方法,而是一个主体间的文化系统。它的核心在于人类社会集体构建、辩论和更新对现实的符号描述。AI 可以极大地增强这个系统中的"正常科学"部分,但无法替代范式转换所需要的创造性意义生成和社会共识构建。
关键概念:社会知觉(societal percept)——社会通过集体感知和辩论形成的对现实的共识表征;拟像(simulacra)——科学理论作为有用的虚构,帮助组织和预测现象但永远无法完全捕捉现实。
对 AI 发展的启示:真正的机遇不是用 AI 取代科学家,而是思考如何将 AI 整合进科学的文化系统中——让 AI 成为新的"感知技术”,帮助人类看到以前看不到的模式,同时保留人类在意义创造和社会共识中不可替代的角色。
出处:本文由 @indigox 翻译并发布于 X。原文为 Sara Imari Walker 发表于《Noema》杂志的 The Death Of The Scientist(2025年12月11日)。
如果这篇文章对你有帮助,欢迎请我喝杯咖啡,支持我继续创作更多内容。
Buy me a coffee