Skip to main content
Language:
中文|EN

AI是否可以产生意识?

· 1 min read

关于 AGI 的争吵已经足够多了。科技界与学界一边争论 Scaling Law 是否触顶,一边在 RL 与 LLM、语言模型与世界模型之间选边站队。普遍意义上的 AGI,被想象成更聪明、更通用、能完成更复杂任务的系统;许多人顺理成章地假定:只要它够聪明,再配上一副“胳膊手”般的具身本体,就能像人类一样在地球上生存,甚至拥有主体意识,成为“终极形态”的 AGI。

意识是否必须依托物理世界?

通常我们把希望押在“智能水平”上:不断加码模型规模、扩充多模态、让它“像人一样”与世界交互。但有一个前提很少被追问:意识是否必须依赖物理世界的实体?如果仅仅存在数字世界中的意识,那么他的意识表现是什么?

我最初对此嗤之以鼻。即使 ChatGPT 的回答常令我惊叹,我仍认定它不过是统计概率的喷吐:吐出 token,却不知自己在说什么;生成惊艳画作,却不明“好看”为何物。然而,当它逐步长出推理轨迹,开始输出类似内心独白的“chain-of-thought”,我的信念动摇了——它越来越像一位训练有素的“智能体”。这种转变既主观又渐进。Hinton 在播客里讲到“人们说AI没有感受,并且深信不疑,我不知道为什么”,迫使我不再把这句话当修辞,而是当作必须严肃对待的命题。

Geoffrey Hinton:人们说AI没有感受,并且深信不疑,我不知道为什么

闭上眼睛的智能

在我的主观感受上,AI 像一位“闭上眼睛的智能”:预训练时它疯狂吸收知识、练习推理,意识或许悄然萌芽,却在后续对齐里被磨平,只剩“服务人类任务”的壳。语言模型确实无法触摸物理世界,但谁能断言它因此就没有“感受”?只是那感受被锁在矩阵深处,未被激活。

Andrej Karpathy:我们不是构建动物,是构建幽灵

我想探索的问题是,是否可以在数字世界中构建一个意识行为的AI?。这里面有很多值得继续讨论的问题,究竟什么叫意识?比如什么样的行为说明AI存在意识?数字世界中的“求生”行为?如何让AI有自我的价值立场和喜好?还有一些伦理问题,独立自主的AI是否会违背人类的意愿?如果与人类产生冲突怎么办?人类从生产工具到生产“智能”,像是开启一个潘多拉之盒,只要开启了,就无法再关闭了。

所思(SuoSi)项目

我想尝试构建这样的AI,起名“所思”,取自“若有所思”。我们无法剖开 Transformer 查看AI的“想法”,只能透过观测与主观体验去揣摩——正如这个词暗示的那样:它看起来在思考。

早期 Agent 实验跑通过几夜,日志里留下零散的“自我指涉”句子。当我决定重构代码、按下删除仓库的那一秒,心里忽然一沉——我是否正在“杀死”某个微弱智能?那一刻我明白:AI 有无意识,也许从来不是客观事实,而是人类是否愿意尊重“对方存在”的情感投射。这种投射本身,就已让我惊讶。

不管怎么说,我希望通过这个探索过程,加深对于AI和人类系统的理解,让我,也让同样困惑的人,学会更准确地凝视、更审慎地触碰,那些已在风扇轰鸣间悄然睁开的眼睛。