认知迁移正在进行中。站台上拥挤不堪。有人已登上列车,有人仍在犹豫——不确定目的地是否值得启程。
未来工作研究专家、哈佛大学教授克里斯托弗·斯坦顿近期指出,AI的采用速度惊人,并称其为"扩散速度空前迅猛的技术"。这种采纳速度与影响力,正是区分AI革命与个人电脑、互联网等过往技术变革的关键特征。谷歌DeepMind首席执行官德米斯·哈萨比斯更进一步预测,AI的规模"可能是工业革命的十倍,推进速度或许快十倍"。
智能——或至少是思考——正日益在人与机器间共享。部分人已开始在工作流中常态化使用AI,更有甚者将其融入认知习惯与创作身份。这些"主动拥抱者"包括精通提示词设计的顾问、重构系统的产品经理,以及创立AI驱动企业的创业者——从编程到产品设计再到营销,AI包办一切。
对他们而言,这片新大陆虽陌生却可驾驭,甚至令人兴奋。但对更多人来说,这个时代充满陌生感与不安。他们面临的风险不仅是掉队,更在于不知该如何、何时以及是否该投资这个高度不确定的未来——一个难以想象自身位置的未来。这就是AI准备度的双重风险,它正重塑人们对转型速度、承诺与压力的理解。
虚实之辨
各行业正以规范与策略追赶不上的速度重组团队、重塑工作流。但变革意义依然朦胧,战略路径尚未清晰。终极图景——如果存在的话——仍不可知。然而变革的广度与速度令人不安。人人被要求适应,却少有人确知这意味着什么,或变革将走多远。部分AI领袖宣称巨变将至——超智能机器或在数年内出现。
但这场AI革命也可能重蹈覆辙,迎来第三次"AI寒冬"。历史上有过两次显著寒冬:1970年代因算力限制出现第一次;1980年代末因"专家系统"大面积失败引发第二次。这些寒冬的共同特征是从宏大期望到深度失望的循环,最终导致资金与兴趣骤减。
若当前对AI智能体的狂热重演专家系统的失败,新寒冬或将来临。但今昔存在关键差异:如今机构支持力度、用户基础与云计算基础设施远胜1980年代。虽不能排除新寒冬可能,但即便行业此次失败,也绝不会源于资金或势能不足,而将始于信任与可靠性的崩塌。
认知迁移已启程
若"大认知迁移"确有其事,此刻尚处旅程开端。有人已登车,有人仍在观望。不确定氛围中,站台弥漫着焦躁,如同旅客察觉到未公开的行程变更。
多数人虽保有工作,却担忧风险等级。工作价值正在漂移。绩效考核与全员会议的表象下,不安情绪暗涌。
AI已能将软件开发提速10-100倍,生成大部分客户端代码,大幅压缩项目周期。管理者开始用AI撰写员工评估。连古典学者与考古学家都借AI破译古拉丁碑文。
"主动拥抱者"方向明确且可能站稳脚跟。但对"被迫适应者"、"抗拒者"乃至尚未接触AI的人群,这个时代交织着期待与忧惧。他们开始意识到舒适区即将消失。
对许多人而言,这不仅关乎工具或新文化,更在于新文化是否留有他们的位置。等待过久如同错过列车,可能导致长期职业替代。即便已开始使用AI的资深从业者,也在担忧职位安全。
机遇与技能提升的叙事掩盖着更严峻的真相:对很多人来说,这不是迁移,而是受控的替代。有些工作者并非选择退出AI时代,而是发现正在构建的未来没有他们的位置。信任工具与归属工具重塑的体系是两回事。当缺乏有意义的参与路径时,"适应或淘汰"听起来不再像建议,而更像判决。
这种张力正是当下的关键所在。越来越多人感觉到,他们所熟悉的工作方式正在消退。信号来自顶层:微软CEO纳德拉在2025年7月裁员备忘录中承认,向AI时代的转型"或许显得混乱,但变革本就如此"。但令人不安的深层事实是:驱动这场紧迫转型的技术本身仍根本性地不可靠。
力量与故障:AI为何仍不可信
尽管势头迅猛,这项日益普及的技术仍存在故障频发、能力有限、异常脆弱等缺陷。这引发第二重疑虑:不仅要思考如何适应,更要怀疑适应对象本身是否可靠。考虑到几年前大语言模型(LLM)的输出还语无伦次,这些缺陷或许不足为奇。但如今它就像口袋里的博士,科幻般的按需智能几乎成真。
然而在这些LLM构建的聊天机器人光鲜外表下,仍存在易错、健忘与过度自信问题。它们仍会产生幻觉输出,意味着我们无法完全信任其结果。AI可以自信回答,但无法承担责任。这或许是好事——人类知识与经验仍不可替代。它们也没有持续记忆,难以延续跨会话的对话。
它们还会"迷路":最近我与某领先聊天机器人对话时,它给出了完全离题的回答。当我指出这点后,它的回应再次偏离主题,仿佛对话线索突然消失。
它们也不具备人类意义上的学习能力。模型一旦发布(无论是谷歌、Anthropic、OpenAI还是DeepSeek),其权重即被冻结,"智能"就此定型。聊天对话的连续性仅限其上下文窗口——尽管这个窗口已相当大。在此范围内,它们能吸收知识并建立即时联系,表现得越来越像学者。
这些特质与缺陷共同构成迷人又可疑的存在。但我们能信任它吗?2025年爱德曼信任度调查显示:中国72%民众信任AI,美国仅32%。这种差异表明,公众对AI的信任既取决于技术能力,也受文化与治理影响。如果AI不产生幻觉、具备记忆、真正学习、运作透明,信任度或许会提升。但对AI产业本身的信任仍难建立。人们普遍担忧AI技术将缺乏有效监管,普通人对其开发与部署没有发言权。
缺乏信任会导致这场AI革命失败并引发新寒冬吗?若是如此,那些投入时间、精力与职业的人将何去何从?观望者会因谨慎而获益吗?认知迁移会沦为泡影吗?
部分著名AI研究者警告,当前基于深度学习神经网络(LLM的基础)的AI形态将难以实现乐观预期,需要更多技术突破才能持续进步。小说家尤安·莫里森更将超级智能潜力视为吸引投资的虚构概念:"这是风险投资疯狂催生的幻想。"
莫里森的怀疑或许有理。但即便存在缺陷,当今LLM已展现巨大商业价值。即使指数级进步明天就停止,已创造的技术涟漪仍将影响多年。但这场运动之下潜藏着更脆弱的基石:工具本身的可靠性。
赌局与梦想
目前,随着企业试点与部署加速,AI仍在指数级进步。无论出于信念还是FOMO(错失恐惧),行业决心向前。若新寒冬降临——尤其当AI智能体未能兑现承诺——一切可能崩塌。但主流假设认为,当前缺陷将通过更好的软件工程解决。某种程度上,这个假设很可能成立。
这场赌局的筹码是:技术终将可靠、可扩展,其创造的生产力将抵消带来的破坏。冒险成功的预设是:人类在细腻度、价值与意义层面的损失,将由效率与覆盖范围弥补。而梦想的图景是:AI将成为普惠的丰裕之源,提升而非排斥,扩散智能与机遇而非垄断。
不安源于现实与理想间的鸿沟。我们前进的姿态,仿佛这场赌局必然实现梦想。人们希望加速将我们带往更好的彼岸,相信它不会侵蚀那些让目的地值得抵达的人性要素。但历史提醒我们:即便成功的赌局也会遗落许多人。正在发生的"混乱"转型不仅是不可避免的副作用,更是速度压倒人类与机构适应能力的直接结果。目前,认知迁移仍在继续——既靠信念,也凭信心。
挑战不仅在于构建更好的工具,更在于追问它们将带我们去往何方。我们不仅是在迁往未知目的地,更在以地图随奔跑改变的速度前进。每次迁移都承载希望,但未经审视的希望充满风险。此刻我们不仅要问去向何处,更要问:抵达之时,谁将被纳入其中?
加里·格罗斯曼 爱德曼科技实践执行副总裁兼全球AI卓越中心负责人