HaoLiu's blog

当 AI 公司开始招聘哲学家

2026 04 14 draft 2 fusion option1 cover.png
Published on
/
6 mins read
/
––– views

cover

DeepMind 招聘哲学家,这事乍看像个噱头,细看其实很说明问题。

剑桥学者 Kieran Oberman 自己在 X 上说得很直接:

Big personal news: I’ve been recruited by Google DeepMind for a new Philosopher position (actual title), focusing on machine consciousness, human-AI relationships, and AGI readiness, starting in May. — @dioscuri

机器意识、人和 AI 的关系、AGI readiness——这几个词以前更多出现在研究讨论里。现在它们被直接写进正式岗位,本身就说明前沿实验室关心的问题在变。

过去大家讨论模型公司,主要还是围着能力转:模型更强了没有,推理更稳了没有,成本降了没有。现在麻烦的地方在于,模型一旦越来越像人、越来越会说人话、越来越容易让用户产生投射,很多问题就不再只是工程问题了。

Polymarket 那条转述会传得这么快,也正因为它把这种气氛说透了:

JUST IN: Google DeepMind hires a philosopher as it prepares for machine consciousness. — @Polymarket

“prepares for machine consciousness” 这话当然很猛,甚至有点故意把火拱大。但它能引发反应,不只是因为标题党,而是因为大家已经模模糊糊意识到:模型正在进入一个更暧昧的位置。它会聊天,会安慰人,会长期协作,也会让一部分用户不自觉地把它当成“有点像谁”的存在。

问题也就跟着来了。陪伴型 AI 到底是工具,还是关系对象?模型能不能故意表现得很懂你、很在乎你?用户对模型产生依赖时,公司要顺着这种关系往下做,还是应该主动踩刹车?这些问题表面上像伦理问题,实际会一路落到产品设计、品牌判断和治理边界上。

所以 Erik Voorhees 那句推文才会被很多人转:

The world doesn’t realize this yet but AI will finally make philosophy a highly marketable skill — @ErikVoorhees

这句话不夸张。AI 确实在把一些原本很抽象的问题,硬生生推成现实问题。以前“意识”“主体性”“责任”“边界”这些词,更多留在论文和辩论里;现在它们会影响产品怎么做、监管怎么问、用户怎么感受、公司怎么回应。

从这个角度看,哲学家进 DeepMind,不代表他们觉得机器明天就会有灵魂。更像是他们已经意识到,外界迟早会用这些语言来讨论模型,而公司内部不能到时候只有工程和公关在那儿临时接招。

这条消息还有一个很有意思的外溢方向,就是伦敦。@chimpfone 的说法虽然带点调侃,但意思很明确:

deepmind = london openai = first office in london anthropic = will move to london — @chimpfone

swyx 那句更夸张,也更像一个流传很快的圈内判断:

btw ~80% of the world’s agents and ai engineering is done in these 3 square miles — @swyx

这当然不是严谨统计,但它点中了另一件事:AI 竞争越来越像一种人才地理竞争。之后谁更强,看的可能不只是工程师有多少,还要看工程、研究、政策、设计,甚至像哲学这种原来看起来很边缘的能力,能不能被塞进同一个组织里,一起工作,一起定义问题。

所以,这次招聘真正值得看的是,模型公司已经开始提前布置另一类能力:不是把模型继续做大一点、快一点,而是准备处理那些会跟着更强模型一起出现的问题。

说到底,这条新闻最有意思的地方,不在“机器是不是快有意识了”,而在公司已经开始为“如果外界越来越把机器当回事,我们怎么办”这件事做准备。

模型还没学会当人,组织已经先开始学着怎么面对越来越像人的模型了。