AI中国网 https://www.cnaiplus.com
导读:2016年韩国首尔围棋人机大战,李世石1-4不敌AlphaGo(图:视觉中国)2026年是“人机大战”十周年。2016年3月,全球超过两亿人在线观看了AlphaGo(谷歌旗下DeepMind开发的人工智能围棋软件)与李世石九段的“人机五番棋大战”。 AlphaGo以4比1的总比分击败李世石,震惊了世界。那场人机较量也是人工智能在沉寂多年后重新掀动公共想象的开始。十年后的同一天,李世石再次回到那个 ......
2016年韩国首尔围棋人机大战,李世石1-4不敌AlphaGo(图:视觉中国)
2026年是“人机大战”十周年。2016年3月,全球超过两亿人在线观看了AlphaGo(谷歌旗下DeepMind开发的人工智能围棋软件)与李世石九段的“人机五番棋大战”。 AlphaGo以4比1的总比分击败李世石,震惊了世界。那场人机较量也是人工智能在沉寂多年后重新掀动公共想象的开始。
十年后的同一天,李世石再次回到那个赛场。对面不再是AlphaGo,而是一款韩国初创公司开发的AI系统。这一次,他与AI对话,而非对弈。
这十年,李世石从“神之一手”的创造者,到宣布退役时说“AI让围棋不再是艺术”,再到如今主动参与策划围棋应用、与AI协作探索他的个人轨迹,恰如围棋社群与AI共存的缩影。
青年学者贺久恒自小学习围棋。2016年的“人机大战”激发了他重拾围棋的兴趣,他的棋力也快速升至国内业余5段、野狐7D。对围棋社群和人机关系的关注,让他确定以此作为自己的博士论文研究方向。
博士毕业于康奈尔大学科学技术学系、现为上海纽约大学博士后研究员的贺久恒,以围棋社群为田野,完成了博士论文《围棋社群与AlphaGo:一项人机相遇的民族志研究》。他访谈了44位受访者,除了包括古力九段在内的28位职业棋手,还有围棋AI工程师、高水平业余棋手、围棋老师、围棋比赛组织者。这些丰富的样本共同呈现了一个行业、社群在面对AI冲击前后的完整图景。
2023年,贺久恒在美国分享自己的博士论文研究成果(图:受访者提供)
“围棋世界的改变有AlphaGo这个标志性事件,全世界都看到了那个瞬间。”贺久恒说。而这种断裂,在2022年年底ChatGPT3.5横空出世后,正在全社会范围内以更隐蔽、更分散的方式重演。
在边界模糊、评价标准不统一的领域,AI的渗透更像是缓慢的渗水,而不是决堤。“没有一个单一的时刻让所有人同时意识到‘AI已经超过我们了’。写作领域不会有一个‘AlphaGo时刻’,教育领域也不会有。这也意味着这些领域的挣扎可能会更漫长、更隐蔽,也更难被外界看到。”
贺久恒和其他STS学者的田野调查证明,“AI并不是均等地改变所有人,它在加剧已有的不平等。谁能成功重新定位自己,谁只能被动承受,很大程度上取决于你在变局到来之前就已经拥有的资源、地位和社会关系。这一点放在围棋界成立,放到更大的社会图景中恐怕也一样成立。”
“AI是不可阻挡的趋势”这句话在今天似乎已经不是一个需要论证的命题,而是所有讨论的前提。
贺久恒说,这个判断本身其实就是一种“技术决定论”好像技术发展的方向是注定的,人只能顺从。“一旦你接受了这个前提,所有对话就只能围绕‘怎么适应AI’展开,而‘要不要发展AI’‘能不能放慢速度’‘某些领域是否应该限制AI的介入’就变成了幼稚的、落后的、不值得讨论的问题。”
“STS这个学科几十年来一直在做的事情,就是把这些被自然化的前提重新变成可以追问的问题。技术的发展方向从来不是注定的,它是被选择的:被资本选择、被政策选择、被特定的利益结构选择。既然是选择,就可以被追问、被讨论、被改变。”
贺久恒感叹AI技术的发展速度突破了既往讨论和管控的框架设计:“技术以什么方式部署、应用在什么场景、由谁来监管,这些都不是注定的,都是可以被讨论和塑造的。问题在于,进行这种讨论需要空间。”
贺久恒希望能将学者们被拦在学术期刊付费墙后面的观察与思考,以更大声量向社会传播:“当前AI的公共叙事很大程度上由科技公司主导。真正需要的是让更多不同立场的人拥有对技术的解释权。社会学家、哲学家、人类学家的角色,是帮助把这些分散的、日常的声音连接起来,赋予它们理论的力量和公共的能见度,让它们不至于被技术乐观主义的叙事轻易消解。”
贺久恒(图:受访者提供)
AI从奇观到日常,焦虑的对象从机器转向了自身南方人物周刊:十年前AI战胜人类棋手的时候,还有不少类似于机器是否会对人类构成威胁的讨论,那个时候AI更像一个对手。
但当ChatGPT横空出世,AI技术有了一个超级应用,一个“明星产品”,人们从最开始的嘲弄,转变为爱上这个工具,更关心它好不好用,甚至拿它当朋友、咨询师。
AI安全和社会冲击的议题,越来越局限于少数技术专家和社会学者,这里面是否有出乎你意料的地方?这个演变路径在技术对社会的形塑中是普遍性的吗?
贺久恒:说实话,这个演变方向并不让我意外,但速度超出了我的预期。
从STS的角度来看,新技术进入公众视野通常会经历一个从“奇观”到“日常”的过程。2016年AlphaGo挑战李世石,那是一个精心策划的媒体事件,全球两亿多人在线观看,它以一种戏剧化的方式把AI推到公众面前。那时候人们讨论的是很宏大的问题:机器会不会超越人类、AI是不是一种威胁。但这种讨论之所以可能,恰恰是因为AI当时还是一个“奇观”,是一个可以被围观、被审视的对象,大家可以站在外面去评判它。
ChatGPT的出现改变了这个格局。它的特殊性在于,从奇观到日常的转化速度空前地快,渗透的领域空前地广。
围棋AI再强大,它只影响围棋这一个社群。但大语言模型几乎同时进入了写作、编程、教育、医疗、法律等所有领域。当一个技术变成你每天都在用的工具,你就很难再站在外部去质疑它了。
我想指出的是,你提到人们“爱上了这个工具”,这个说法值得推敲。表面上看,大家确实从恐惧变成了拥抱,但我认为这不是焦虑的消失,而是焦虑的内化。
今天很多人拼命学AI工具、刷AI课程,本质上是一种FOMO(错失恐惧症),害怕被时代抛下、害怕在职场中被取代。
2016年人们害怕的是一个外在的“他者”,AI作为对手;今天人们害怕的是自己的不足,怕自己跟不上AI的节奏。焦虑的对象从机器转向了自身。
2025年10月15日,在北京市海淀区第四实验小学《多彩的活动》主题语文公开课上,老师借助AI评改指导学生(图:新华社)
南方人物周刊:你的博士论文是关于AI对围棋社群的改变和影响,在你对职业棋手群体的大量访问和田野调查中,有类似的改变轨迹吗?
贺久恒:我在围棋社群的田野调查中非常清楚地观察到了这个过程。AlphaGo之后,职业棋手们很快就开始用AI辅助训练、用AI做比赛解说。
这看起来是主动的拥抱,但背后是非常现实的生存压力:如果你不研究AI推荐的下法,你在比赛中就会落后;如果你不会借助AI做解说,你的位置就可能被别人取代。棋手们并不是真的“爱上”了AI,而是清楚地意识到,不学会与AI共处,就会失去自己的职业合法性。
围棋社群其实是整个社会面对AI的一个微缩预演。我们今天在各行各业看到的焦虑、适应和转型,围棋界在2016年之后就已经经历过。
真正值得关注的是,当AI从奇观变成基础设施之后,批判和反思的空间反而收缩了。你没有余裕去思考AI到底好不好,因为你忙着追赶。“要不要用AI”不再是一个问题,“你会不会用AI”才是。这本身就是一种深层的社会冲击,只不过它不再以公共辩论的形式出现,而是以每个人内心的焦虑来呈现。
2026年3月9日,韩国首尔,围棋棋手李世石(右)演示AI初创企业Enhance开发的AI围棋模型(图:视觉中国)
南方人物周刊:李世石十年后重新回到当年比赛的地方,为一个AI智能体做推广,他从那么深的痛苦中也恢复了过来,接受AI作为探索围棋的“协作伙伴”。围棋社群其实几乎没有什么挣扎,就迅速接受了AI对其秩序的改变,因为这个群体是争胜的,“弱肉强食”的。
三年前ChatGPT刚出来,还算不上一个好用的工具。那时候我们有一次深度交谈,你说,在其他竞争性没有那么强的领域,人类的行业秩序可能没有那么容易被AI改变,你现在怎么看?
贺久恒:首先我想稍微修正一下这个前提。从外部看,围棋社群好像很快就接受了AI,没什么挣扎。但我做了一年的田野调查,观察到的实际情况要复杂得多。
AlphaGo赢了之后,围棋界经历了非常剧烈的震荡。举一个具体的例子:AlphaGo第二局下出了一步棋叫“Move 37”,当时整个围棋界都震惊了,很多职业棋手觉得这是一步超越人类理解的“神之一手”,赋予它近乎神话般的意义。但后来随着更多AI系统出现,大家发现这步棋其实在统计上并不特殊,也并不是什么神来之笔。这个从神话化到祛魅的过程本身就是一种挣扎,它意味着职业棋手需要不断重新校准自己的判断框架。
再比如AI普及之后,围棋界出现了大量的作弊争议。因为人的下法与AI的下法越来越像,你很难判断一个人是真的下得好还是偷偷在用AI。这种信任危机对围棋社群的冲击是非常深的。还有职业棋手的角色转型,他们过去是围棋知识的最高权威,现在要学会去做AI输出的“翻译者”和“解读者”,这个转变也不是一帆风顺的。
李世石本人的经历恰恰说明了这一点。他花了将近十年,才从那场比赛的冲击中走出来,走到今天能够接受AI作为协作伙伴的位置。如果“接受”真的那么容易,就不需要十年。
围棋社群看起来适应得快,核心原因不是因为他们没有挣扎,而是因为围棋这个领域有一个非常特殊的性质:规则边界清晰,胜负标准明确。AI比你强就是比你强,没有太多可以争辩的空间。结果上你不得不接受,即使情感上、认知上、制度上的调适是漫长的。
2026年3月17日,在湖南湘江新区雷锋小学体育课上,老师通过平板电脑监测学生的心率(图:新华社)
至于我三年前的那个判断,现在看来需要修正,但也没有完全错。
需要修正的部分是,我当时低估了大语言模型(LLM)的渗透力。LLM的特殊之处在于,它不需要通过打败你来改变你。围棋AI改变围棋界,靠的是在竞技层面碾压人类,这需要一个很强的竞争逻辑。但GPT改变写作、教育、翻译这些领域,靠的不是“比你写得好”,而是“够好了而且特别快”。它绕过了竞争这个变量,直接从效率和实用性的层面嵌入了日常工作。所以,即使在竞争性不那么强的领域,改变也在深刻地发生。
没有完全错的部分是,改变的方式确实不同。围棋的改变是断裂式的有一个明确的“之前”和“之后”。围棋界有AlphaGo这个标志性事件,全世界都看到了那个瞬间。但在边界模糊、评价标准不统一的领域,AI的渗透更像是缓慢的渗水,而不是决堤。
没有一个单一的时刻让所有人同时意识到“AI已经超过我们了”。写作领域不会有一个“AlphaGo时刻”,教育领域也不会有。这也意味着这些领域的挣扎可能会更漫长、更隐蔽,也更难被外界看到。围棋的痛苦是集中的、剧烈的、有明确时间标记的,而其他领域的痛苦可能是缓慢的、弥散的,甚至难以命名的。哪一种更深重,其实很难说。
2026年3月21日,美国旧金山,人们参加“停止AI竞赛”抗议活动,呼吁主要人工智能公司暂停前沿AI系统的开发(图:Petr Salba)
南方人物周刊:技术与资本的高度结合,科技大佬们的竞争雄心是否使得普罗大众更加容易成为时代的“人质”,被裹挟着前往新的应用场景?关于AI将要大面积取代人类工作的分析文章很多,并且已经快速变成现实。但人们除了被动接受,似乎没有什么更好的办法,我们都很像超市的收银员,一边积极教授顾客学会扫码自助付费,一边等着被机器替代。
贺久恒:这个收银员的比喻非常生动。我想从两个方面来回应:一方面承认这背后确实存在真实的权力不对称,另一方面指出这个比喻可能遮蔽了一些更复杂的东西。
先说权力不对称的部分。技术的推进从来不是纯粹的技术逻辑在驱动,而是资本和制度力量介入的结果。AlphaGo的挑战赛就是一个很好的例子那不是一场自然发生的比赛,而是DeepMind和谷歌精心策划的媒体事件,目的是向全世界展示它们的AI能力。
今天大语言模型的推广也是一样的,大量的资本投入、媒体叙事和平台策略在共同塑造着一种“你必须拥抱AI”的氛围。我们前面讨论的FOMO,那种焦虑感不全是自然产生的,在相当程度上它是被制造出来的。当科技公司和媒体不断告诉你“不用AI就会被淘汰”的时候,你很难不焦虑。从这个意义上说,“人质”这个说法有它合理的部分。
但我不太同意“除了被动接受没有更好的办法”这个判断。这个判断本身其实就是一种“技术决定论”好像技术发展的方向是注定的,人只能顺从。
STS这个学科几十年来一直在做的一件事,就是打破这种“没有别的办法”的叙述。技术以什么方式部署、应用在什么场景、由谁来监管,这些都不是注定的,都是可以被讨论和塑造的。问题在于,进行这种讨论需要空间,而当下“赶紧学AI否则就被淘汰”的叙事恰恰在压缩这个空间。你忙着追赶的时候,就没有余裕去问“真的一定要这样吗”。
回到我的围棋研究,我观察到的情况比“收银员”的比喻要复杂。职业棋手面对AI的时候,并不是坐在那里等着被替代。他们主动地重新定义了自己的角色从围棋知识的最高权威,变成了AI输出的翻译者、解读者、教育者。他们在一个被极大压缩的空间里,进行了创造性的谈判与适应。
这里有一个很重要的限定,我不想把这说成一个“人类终将适应”的励志故事,因为在围棋社群内部,适应的能力是高度不平等的。能够成功转型的往往是头部棋手世界冠军级别的选手,他们有名气,有社会资本,可以成为AI时代的解说明星或教育者。但大量中低段位的职业棋手,他们原本就处在这个职业体系的边缘,AI的到来让他们的处境更加艰难。对这些棋手来说,他们的经历可能确实更接近那个收银员的比喻。
这不是一个“乐观还是悲观”的问题,而是一个分化的问题。面对同样的技术冲击,不同位置的人拥有的重新谈判的空间是极不平等的。
AI并不是均等地改变所有人,它在加剧已有的不平等。谁能成功重新定位自己,谁只能被动承受,很大程度上取决于你在变局到来之前就已经拥有的资源、地位和社会关系。这一点放在围棋界成立,放到更大的社会图景中恐怕也一样成立。
2017年5月26日,2017年乌镇围棋峰会人机大战团队赛,五位围棋国手联手仍不敌AlphaGo(图:视觉中国)
哪些力量让AI疯狂加速南方人物周刊:如同哈萨比斯所说,他和科学家朋友的AI梦想发展进步如此神速,他原本应该十分开心,但是他心中也有很多的担心,因为“事情发展得如此疯狂,如此仓促”。AI竞争不会停步,国家竞争更使得AI的发展远远超出科学研究所能控制的节奏。AI安全作为一个公共必需品“悬停”在空中,这种现象历史上是否常见
贺久恒:这种现象在历史上不仅常见,甚至可以说是一种规律。技术治理领域有一个经典的概念叫科林格里奇困境(Collingridge dilemma,一种关于技术治理的两难),是1980年提出的,核心意思非常简单:当一项技术还在早期、容易管控的时候,你看不清它的影响,所以没有动力去管;而当影响已经清楚了,技术已经深度嵌入社会,你又管不动了。
管得动的时候看不清,看得清的时候管不动。核能、基因工程、社交媒体,几乎所有重大技术都经历过这个循环。所以AI安全作为公共必需品“悬停”在空中,从历史的角度看并不是例外。
但AI安全的“悬停”有几个特殊性值得关注。
第一是速度。哈萨比斯自己说“事情发展得如此疯狂”,这不是修辞。核能从理论到应用,发展了几十年,基因编辑从CRISPR技术出现到引发广泛的伦理恐慌也有一段缓冲期。这些缓冲期虽然不够长,但至少给了社会一些反应时间学术界可以展开研究,公众可以形成意见,立法机构可以开始讨论。但大语言模型从实验室产品到全民应用只用了几个月,所有传统的治理机制立法、监管、行业自律都是为更慢的节奏设计的,根本来不及响应。安全议题不是没有人想接住,而是现有的制度工具跟不上这个速度。
第二是国家竞争的维度。这一点非常关键。冷战时期的核技术治理之所以最终建立了一套框架虽然不完美,部分原因是双方都有动机避免互相毁灭,恐怖平衡反而催生了军控协议。但AI竞争的逻辑不同,它更像是一场谁都不敢先停下来的“军备竞赛”每个国家、每个公司都在说:“我也担心安全,但如果我放慢速度,对手就会超过我。”
哈萨比斯的矛盾心态恰恰体现了这种结构性困境:个人层面的担忧和系统层面的激励方向是错位的。你是一个真诚地关心AI安全的科学家,同时也是一个不得不参与竞速的公司领导者。这两者之间的张力不是靠个人道德可以解决的,它是一个结构性的问题。
第三,我想稍微推进一下你用的“悬停”这个意象。说AI安全“悬停在空中”,好像暗示它是一个等待降落的东西,只要条件成熟,安全框架就会自然到位。更准确的说法可能是,安全议题不是在“悬停”,而是被多方力量托举在那个位置,阻止它降落。资本不希望安全框架限制创新速度,国家竞争不允许任何一方单方面减速,而公众的FOMO我们前面讨论过的又在消解批判和反思的空间。这三股力量合在一起,让安全议题始终停留在“大家都觉得重要但没有人真正落实”的状态。
2026年3月6日,人们在深圳腾讯大厦北广场排队等待安装“龙虾”(OpenClaw)。4月1日,OpenClaw发布消息称,国内社交平台QQ实现原生接入;同日,国家知识产权局发布风险提示,OpenClaw等智能体工具易引发严重安全风险(图:新华社)
南方人物周刊:圈内人其实也有疑问:“我们一定要发展AI吗?人类做得很好的事情,非要AI来取代吗?”这个阶段让AI讨论重回公共舆论场,有能力了解和参与其中的社会学家和哲学家发出更大的声音特别重要。面对复杂的局面,我们如何打破技术的解释垄断和商业的焦点转移,以及媒体和社会关注的“预警疲劳”,让AI安全和伦理的讨论在公共舆论中始终保持热度,并且有一个适当的公共讨论空间?
贺久恒:“我们一定要发展AI吗?人类做得很好的事情,非要AI来取代吗?”我觉得这个问题非常重要,但它在公共空间中几乎不会被认真讨论。
不是因为它不重要,而是因为它在当前的话语结构中被预设为一个不可问的问题。“AI是不可阻挡的趋势”这句话在今天已经不是一个需要论证的命题,而是一个讨论的前提。
一旦你接受了这个前提,所有对话就只能围绕“怎么适应AI”展开,而“要不要发展AI”“能不能放慢速度”“某些领域是否应该限制AI的介入”就变成了幼稚的、落后的、不值得讨论的问题。
STS这个学科几十年来一直在做的事情,就是把这些被自然化的前提重新变成可以追问的问题。
技术的发展方向从来不是注定的,它是被选择的:被资本选择、被政策选择、被特定的利益结构选择。既然是选择,就可以被追问、被讨论、被改变。
2025年9月5日,2025世界智能产业博览会在重庆开幕,中国移动展台的AI+智慧酒店机器人在为观众调制咖啡(图:新华社)
关于技术的解释垄断,当前AI的公共叙事很大程度上由科技公司主导。我在论文中详细分析过,AlphaGo挑战赛本身就是DeepMind和Google精心策划的媒体事件: 选择什么样的对手、怎么做直播、赛后怎么发布论文和纪录片,这些都是叙事的建构。今天大语言模型的推广也是一样的,科技公司不仅在建造技术,更在定义我们理解技术的方式。打破这种垄断,需要的不是让所有人都去“懂技术”。这又回到了上一个问题讲的“AI素养”的陷阱。
真正需要的是让更多不同立场的人拥有对技术的解释权。围棋棋手、教师、律师、工人,他们对AI的感受和判断,包括职业棋手表达出来的职业意义感和价值感的丧失,包括亚特兰大培训课上那个工人说的“感觉像胡萝卜吊在前面”,这些都是关于AI的有效知识,不比工程师的知识低一等。
社会学家、哲学家、人类学家的角色,是帮助把这些分散的、日常的声音连接起来,赋予它们理论的力量和公共的能见度,让它们不至于被技术乐观主义的叙事轻易消解。
我想诚实地说,学者在这方面能做的事情是有限的,而且学术界自身的结构也在制约这种介入。“有能力了解和参与其中的社会学家和哲学家的声音特别重要”,我完全同意。但现实是,当前的学术奖励系统并不鼓励学者做这样的公共介入。
学术界评价一个学者,看的是你发了多少篇论文、发在什么级别的期刊上、拿了多少引用。写一篇面向公众的文章、接受一次媒体采访、参与一场政策讨论,在学术评价体系中几乎没有价值,甚至可能被视为“不务正业”。这就造成了一个矛盾:社会最需要学者发声的时候,恰恰是学术体制最不鼓励学者发声的时候。很多学者不是不关心AI安全和伦理,而是他们在职业生存的压力下,不得不把精力集中在学术圈内部的产出上。而且,AI也加速了学术内部产出的竞争。
还有一个更深的矛盾好的社会研究需要时间。比如我的论文做了一年的田野调查,最近数据与社会研究所(Data & Society Research Institute)发布了一份报告叫“(404) Job Not Found”,研究的是亚特兰大的非洲裔工人在AI时代面临的就业困境,研究者Akanegbu在亚特兰大做了六个月的民族志。
但AI的发展速度和公共讨论的节奏要求你现在就给出判断、现在就提供答案。学术研究的节奏与公共对话的节奏是错位的。所以经常出现的情况是:在公共讨论中发声的,要么是科技公司的人,因为他们有动力也有资源来塑造叙事;要么是对技术细节并不了解的泛评论者。而真正在做深入研究的学者,他们的声音要么滞后、要么被锁在付费期刊的防火墙后面,无法进入公共空间。
所以要让AI安全和伦理的讨论在公共空间中保持热度,光呼吁学者发声是不够的,还需要改变让学者能够发声的条件。包括学术评价体系对公共参与的认可、研究资助对快速响应研究的支持,以及媒体和学术界之间更有效的对接机制。这不是学者个人的责任问题,这本身也是一个结构性的问题。
2025年7月2日,浙江东阳,学员独立驾驶装有AI教学系统的AI智能教练车进行科目二练习,驾校教练通过实时监控关注AI智能教练车行驶情况,并可随时与学员语音交流(图:新华社)
社会技术想象不是中性的,有它的代价承担者南方人物周刊:三年前,我们谈到棋手与AI的“双向奔赴”,本质上还是棋手群体承担了巨大的压力,他们在巨大的知识混乱面前,用从小养成的坚韧和勤奋,快速掌握和消化AI所创造的围棋知识,这对人类社会也是一个预演。如果全社会AI化,局面可能还要惨烈。
贺久恒:你说得对,棋手群体确实承受了巨大的压力,他们的坚韧和勤奋是真实的。但我想补充一些从田野调查中看到的更深层的东西。
首先,棋手们面对的不仅仅是“需要学习更多的知识”。在AlphaGo之前,围棋知识是一套有美学标准、有师承谱系、有直觉判断的完整体系。一步棋好不好,职业棋手是用几十年积累的感觉来判断的。但AI带来的知识是完全不同的没有解释、没有理由,只有一个胜率数字。棋手们真正面对的冲击不是“有更多东西要学”,而是“我过去理解知识的整个方式可能需要被重新校准”。这种认识论层面的震荡,比单纯的技能更新要深重得多。用我论文里的话说,“这是一种知识体系的去稳定化,不只是知识内容的更新。”
围棋社群之所以看起来适应得相对好,有两个很重要的条件。一个是围棋有极其清晰的反馈机制你学了AI推荐的下法,去比赛,赢了就说明学对了,输了就继续调整,这个反馈回路是即时的、明确的。另一个是围棋的游戏规则本身没有变,棋盘还是19×19,“赢”的定义没有改变,变的是策略和知识,但竞技的框架是稳定的。
推到全社会,这两个条件都不具备。在大多数职业领域,“你有没有成功适应AI”根本没有清晰的答案。一个律师用了AI辅助写文书,他的工作质量提高了还是降低了?一个教师用了AI备课,学生学得更好还是更差了?反馈是模糊的、滞后的、充满噪音的。
AI在很多行业改变的不只是“怎么做”,还有“做什么”,甚至“这个岗位还需不需要存在”。围棋棋手至少不需要担心“围棋”这个东西会消失,但很多职业的从业者面对的恰恰是这种存在性的威胁。所以你说“局面可能还要惨烈”,从这个意义上说,是有根据的。
我最想强调的一点是:围棋的经验告诉我们,最终决定适应结果的不是个人的勤奋和坚韧,而是制度安排和社会支持。
围棋界之所以还能运转,不只是因为棋手们努力,更因为赛事体系还在、围棋协会还在运作、在线平台提供了新的生态位、观众还愿意看人类棋手比赛。如果这些制度性支撑不存在,个人再坚韧也无处施展。
2026年3月1日,一名务工人员在位于福州市达明美食街的智慧就业舱内体验。舱内智慧系统可根据求职者简历,提供解读求职需求、精准匹配岗位、AI模拟面试、求职进度跟踪等服务(图:新华社)
数据与社会研究所那份研究亚特兰大非洲裔工人就业困境的报告,提供了一个非常有说服力的案例来说明这一点。亚特兰大有大量的数字技能培训项目,鼓励工人去“upskill”和“reskill”,就是咱们说的提升技能学AI、学编程、考证书。
这些项目的逻辑与围棋社群里“赶紧学AI否则就落后”的逻辑是一样的,都是把适应的责任放到个人身上。
报告发现,很多工人根本无法参加这些培训,不是因为他们不想学,而是因为培训时间与工作时间冲突、没有人帮忙带孩子、拿不到足够的生活补贴。一个课程免费,但你上课期间不能工作、不能挣钱,这对很多人来说就是参加不了。报告里有一个受访者说得很直接:课程固然免费,“但你也挣不到钱,你的账单还在那里。”
更深层的问题是,即便这些工人完成了培训、拿到了证书,也不一定能找到稳定的工作。雇主可能还是偏好四年制大学学历,AI相关岗位的定义本身就是模糊的连什么算“AI素养”都没有统一标准。报告用了一个很精准的概念叫“strategic abstraction”,意思是战略性模糊:告诉你要学AI、要跟上时代,但从来不告诉你具体学什么、学到什么程度才够,这个模糊本身就是一种权力的运作。
围棋社群内部的不平等已经很明显了,但围棋毕竟是一个小社群,大家彼此认识,资源虽然有限但相对集中。推到全社会,当数以百万计的人被告知“你要学AI”,而制度支撑跟不上的时候,结果就是:有资源的人适应得很好,没有资源的人不仅没有得到帮助,反而还要承受“你为什么不学AI”的道德压力。这其实就是把结构性的问题转嫁为个人的责任。
所以,仅仅告诉每个人“你要坚韧、你要勤奋、你要学习AI”是远远不够的。如果社会不提供相应的制度性支持,个人的勤奋只会变成另一种形式的自我消耗。
2025年7月6日,浙江省金华市金华之光文化广场科技馆内,小朋友与智能机器狗互动(图:新华社)
南方人物周刊:三年前,你给我讲了一个词Sociotechnical Imaginaries(社会技术想象)。过去十年,是否也可以理解为关于这种技术想象的一个验证过程?在AI带来第四次工业革命,AGI(通用人工智能)将让人类社会进入“智慧量产”的想象背后,会否是巨大的社会代价和复杂的社会后果?
贺久恒:2016年AlphaGo时期,AI的社会技术想象是相对聚焦的:“AI可以在特定领域超越人类最强大脑。”这个想象通过挑战赛被戏剧化地呈现了,而且它有一个非常重要的特征:它是被精心建构的。前面提过,AlphaGo挑战赛不是一场自然发生的比赛,而是DeepMind和谷歌精心策划的一场展示。选择谁做对手、比赛在哪里举行、怎么做直播和媒体传播,所有这些决定都在塑造公众对AI的想象。所以,“AI超越人类”这个想象不是技术发展的自然结果,它是被特定的行动者有意识地生产出来的。
到了ChatGPT时代,想象急剧膨胀。从“AI可以下围棋”变成了“AI可以做一切”,从narrow AI(狭义人工智能)变成了AGI的宏大叙事,从“机器在特定领域很强”变成了“智慧量产”和“第四次工业革命”。想象的规模和野心完全不同了。而且建构这些想象的行动者也更多了,不只是一家公司,而是OpenAI、Google、Meta等企业及各国政府,在竞争中共同推高了想象的天花板。每一个行动者都有动机把AI的未来描述得尽可能宏大,因为宏大的想象能吸引资本、影响政策、争夺话语权。
Jasanoff(社会技术想象的提出者)的框架最有力的地方在于它提醒我们:每一种社会技术想象都有它的受益者,也有它的代价承担者。想象不是中性的,它是有选择性的。“AI带来第四次工业革命”这个想象呈现的是技术进步、效率提升、人类能力的扩展,但它系统性地遮蔽了一个问题:代价是什么样、代价由谁来承担?围棋界承担了“AI超越人类智慧”这个想象的代价,职业棋手的权威被动摇、公平竞技的规则被侵蚀、一个有两千多年传统的知识体系需要在几年之内重新校准。柯洁说“感觉过去二十多年的付出毫无意义”,这就是被想象叙事遮蔽的那一面。
2017年乌镇围棋峰会,柯洁0比3不敌AlphaGo(图:视觉中国)
南方人物周刊:你在博士后阶段开始了提示词工程师的社会研究,有什么洞见?
贺久恒:做完围棋AI的博士论文之后,我一直在思考一个问题:我在围棋社群中观察到的那些动态事情是不是正在其他领域以更大的规模发生?围棋是一个AI冲击既有专业社群的案例,但ChatGPT时代还出现了一个围棋时代没有的现象:AI不仅在改变旧的职业,还在催生全新的职业。其中最引人注目的就是“prompt engineer”,提示词工程师。
这个职业特别吸引我,因为它处在一个非常有趣的位置。围棋棋手是被AI挑战的一方,他们需要重新定义自己与AI的关系。而prompt engineer是一个因AI而诞生的角色:他们的工作就是与AI对话,让AI按照人类的意图来工作。在某种意义上,围棋棋手和prompt engineer面对的是同一个问题的两面:在人类与AI之间,谁在掌控?掌控意味着什么?掌控的权威从何而来?
我现在在做两个相互关联的研究。第一个从话语分析的角度,研究人们是如何理解和想象“prompting(训练语言模型来完成特定任务的方法)”这个行为的。我发现存在三种竞争性的隐喻。一种是“工程”隐喻:把与AI对话理解为一种技术优化问题,强调可控性、可靠性、标准化,这背后是一种技术乐观主义。第二种是“魔法”隐喻:把AI看作一个神秘的、不可完全理解的存在,prompting就像是念咒语或者“低语”,强调的是AI的不透明性。第三种是“手艺”隐喻:把prompting理解为一种需要经验积累和直觉判断的实践技能,类似于木匠与材料之间的关系。这三种隐喻不只是修辞上的差异,它们决定了非常实际的问题:谁有权与机器对话、谁为AI的输出负责,以及AI劳动的未来被想象为一个科学学科、一门神秘艺术还是一种技能行当。
第二个研究更加经验性。我收集了在LinkedIn(领英,职业社交网站)上发布的prompt engineer招聘广告,做了系统的话语分析。这个研究有几个发现我觉得对公众来说会特别有意思。
第一个发现是这个职业内部惊人的分化。同一个“prompt engineer”的头衔下,薪酬差距有着天壤之别。在光谱的一端,AI巨头公司招的prompt engineer年薪可以到40万美元,工作内容是设计AI的核心行为规则。在光谱的另一端,数据标注平台也在招“prompt engineer”,时薪只有15美元,工作内容是反复给AI的回答打分、排序,本质上是数据标注的零工劳动。
第二个发现是“工程”这个词本身就在做政治工作。当企业把与AI对话的行为称为“工程”,它同时在做好几件事:对外,它让AI的不确定性看起来是可控的,客户和监管者可以放心“我们有工程师在管理这件事”;对内,它让劳动重组看起来是技术进步,把原来的文案写作、行政助理、内容编辑的工作重新包装成“AI驱动的工程岗位”,实际上是在提高产出要求、压缩人力成本,但这些变化被“工程”的光环掩盖了,显得像是创新而不是裁员。
第三个发现,也是我个人觉得最有传播力的一个观点:prompt engineer这个职业很可能会走上与20世纪打字员相同的命运。打字员这个职业消失了,不是因为打字技能过时了,恰恰相反,打字变成了所有办公室工作者都必须会的基本技能,它太普遍了,所以不再需要一个专门的从业者来做这件事。
2025年10月14日,浙江义乌,两名外籍客商在义乌全球数贸中心体验AI翻译互动屏(图:新华社)
Prompt engineering现在被当作一种专门的技术能力,但随着AI工具变得越来越易用,与AI对话会变成每个知识工作者的日常操作,就像今天没有人会把“会用鼠标”当作一项专业技能一样。到那时候,“prompt engineer”这个独立的职业头衔就会消失。不是因为这个技能不重要了,而是因为它变成了空气一样的存在。
从围棋到prompt engineering,我一直在关注的核心问题其实没有变:在AI时代,什么算专业知识?谁有权定义它?这些定义的背后有着怎样的权力安排?围棋给了我一个已经走过一个完整周期的案例,而prompt engineering让我看到同样的动态正在实时展开,只不过规模更大、速度更快、涉及的利益更复杂。
南方人物周刊记者 徐梅
责编 陈雅峰
AI中国网 https://www.cnaiplus.com
本文网址:




