你以为在和 AI 聊天,其实你在探索人类知识的宝库
肖亮 Shawn
你打开 ChatGPT,输入一个问题,几秒钟后得到一个回答。
这个动作看起来像搜索,感觉像聊天。但它既不是搜索,也不是聊天。你正在做的事情,比这两者都要深刻得多。
过去一年,AI 给很多人留下了一个强烈的印象:它好像什么都知道。你问它医学、法律、编程、历史、商业策略,它都能说出像模像样的回答。不是那种搜索引擎式的"给你十条链接自己找",而是真的理解你的问题,给你一个有结构、有逻辑的回答。
这件事情让人兴奋,也让人困惑:它怎么做到的?这些知识是从哪来的?它真的"懂"吗?
要回答这个问题,我们得先回到一百多年前。那时候有一个人,看到了一些今天才被证实的东西。
一百年前的一个洞见
1916 年,一本奇怪的书在日内瓦出版。作者费迪南·德·索绪尔已经去世三年,书是他的学生根据课堂笔记整理出来的。这本《普通语言学教程》提出了一个在当时几乎无人理解的观点:
词的意义不来自词本身,而来自它与其他词之间的差异关系。
举个例子:“猫"这个字为什么指的是那个毛茸茸、会打呼噜的小动物?索绪尔说,不是因为"猫"这个符号天生就和那个动物绑定。而是因为在整个语言系统里,“猫"不是"狗”,不是"虎”,不是"兔",不是"鼠"——它在所有词汇中占据了一个独特的位置。如果世界上只有一种动物,我们根本不需要"猫"这个词。正是因为有了区分的需要,词才有了意义。
索绪尔把这个位置叫做"值"(valeur)。这个"值"不是我们日常说的"值多少钱"的那个值,而是一个词在整个语言系统中的位置——由它和所有其他词的差异关系所决定。每个词的 valeur 都是独一无二的,因为没有两个词在这张关系网上的位置完全相同。
这个洞见极其深刻。它意味着语言不是一堆标签贴在一堆事物上,而是一个自成体系的关系结构。每个词都是这个结构中的一个节点,节点的意义取决于它和所有其他节点的连接方式。
但在 1916 年,这只是一个哲学命题。没有人知道该怎么把一个词在关系网中的"值"变成一种可以计算的东西。
这件事,要等将近一百年。
当"值"从哲学变成了数学
2013 年,Google 的一个研究团队发布了一个叫 Word2Vec 的工具。他们做了一件说起来简单得不像话的事:让计算机读大量文本,记录每个词出现的时候,它周围都是些什么词。
“猫"旁边经常出现"毛”、“爪子”、“喵”、“沙发”。“狗"旁边经常出现"尾巴”、“汪”、“遛”、“公园”。计算机根据这些共现关系,给每个词算出一组数字——一个向量,也就是在一个几百维的数学空间里的坐标。经常一起出现的词,坐标靠近;不太相关的词,坐标疏远。
这就是词向量(Word Embedding)。
注意这里发生了什么:一百年前索绪尔说,每个词在语言系统中有一个"值"(valeur),这个值由它和其他词的关系决定。现在,计算机用一种极其朴素的方式——统计词和词的共现关系——真的给每个词算出了一个"值"。索绪尔的 valeur 是哲学概念,Word2Vec 的向量是一组数字。但它们描述的是同一件事:一个词在整个语言系统中的位置。
然后,研究人员发现了一件让所有人意外的事。
他们在这个向量空间里做了一个简单的算术:拿到"国王"的向量,减去"男人"的方向,加上"女人"的方向——得到的新向量,精确地落在了"女王"附近。
king - man + woman ≈ queen
没有人教过机器"国王的女性版本是女王"。这个知识不在任何一条训练数据里。但是,当机器忠实地记录了足够多的词与词之间的关系后,概念与概念之间的逻辑关系,自己浮现了出来。“巴黎"减去"法国"加上"日本”,指向"东京"。“走路"和"走"的关系,等于"游泳"和"游"的关系。这些关系从来没有被显式地教授过,它们就这样从统计中长了出来。
索绪尔说"意义来自关系”。Word2Vec 用数学证明了:当你真的去测量关系,意义就会浮现。
为什么语言里藏着人类的知识
到这里为止,故事还只是关于"词"和"语言"的。有人可能会问:好吧,机器学会了词和词之间的关系,但这和"人类知识"有什么关系?
答案藏在一个我们太习以为常、以至于容易忽略的事实里:人类几乎所有的知识,都是用语言记录和传递的。
想一想。医学的全部积累——从《黄帝内经》到最新的临床指南——写在文字里。法律体系——从罗马法到你公司的合同模板——写在文字里。一个行业的最佳实践、一个公司的管理经验、一个工程师解决技术问题的方法——绝大部分都在某个时刻被某个人写成了文字。教科书、论文、报告、邮件、备忘录、博客、论坛帖子……人类文明的知识库,就是用语言砌起来的。
这意味着:当你捕获了语言的关系结构,你同时捕获的,是人类知识的逻辑结构。
“心肌梗死"和"胸痛"之间的统计关系,反映的是几百年临床医学积累下来的诊断经验。“现金流"和"破产"之间的共现模式,编码的是几代商业从业者的惨痛教训。“Transformer"和"注意力机制"之间的紧密关联,记录的是过去十年深度学习领域最重要的一次突破。
词和词的关系,不只是语言的关系。它是知识的关系。因为知识就是用语言编码的。
这就是为什么这个故事不只是一个关于语言学的有趣知识——它直接解释了 AI 为什么"好像什么都知道”。
从词向量到知识宝库
Word2Vec 能做到的事情已经让人惊讶,但它只是一个起点。
2017 年,Transformer 架构发表。紧接着是 GPT-2、GPT-3、GPT-4、Claude——模型的训练数据从几亿词扩展到几万亿词,参数从几百万增长到几千亿。
Andrej Karpathy——Tesla 前 AI 总监、OpenAI 联合创始人——用了一个非常直觉的比喻:
“LLM 就是一个一太字节的 zip 文件——里面装满了来自互联网的压缩知识。”
这个比喻生动,但我觉得还不够准确。你压缩一个文件,解压后还是原来的文件——内容没变,只是体积小了。而 LLM 做的不是存储然后还原,它是在训练过程中,把人类写下的几万亿个词之间蕴含的关系结构给学到了——然后它可以沿着这些关系,走到训练数据中从未出现过的地方。
当你问 Claude"唐朝最伟大的诗人是谁”,它不是从某个数据库里检索出"李白"两个字。它是根据"唐朝”、“诗人”、“伟大"这几个词在训练数据中形成的关系网络,沿着概率最高的路径走到了"李白”。这条路径不是查表,而是推理——沿着人类知识结构本身的内在逻辑在走。
2022 年,学者 Chris Forster 发表了一篇文章:《大语言模型是索绪尔结构的计算实现吗?》(Are Large Language Models Operationalizations of Saussurean Structure?)他的结论是:在非常有意义的层面上,是的。
一百年前,索绪尔看到了语言是一张关系网,每个词有它的"值"。今天,大语言模型用几千亿个参数,把这张网编织到了一个前所未有的规模。而因为人类的知识就是用语言记录的,这张网里装的就不只是词的关系——它是人类知识的关系。
这,就是那座宝库。
为什么很多人觉得"也就那样"
如果这座宝库真的装着这么多东西,那为什么很多人用了 AI 之后,感觉并没有那么神奇?
因为宝库再大,你走进去之后的探索方式,决定了你能到达哪个房间。
大多数人和 AI 的交互方式是这样的:打开对话框,输入一个简短的问题,等几秒钟,看一眼回答,觉得"还行吧"或者"不太对",然后关掉。这就像走进一座世界上最大的图书馆,在门口喊了一声"给我一本好书",管理员塞给你一本畅销书排行榜第一名,你翻了两页就走了。
你没有说错话。管理员也没有给错书。但你们之间的信息交换太少了,少到管理员只能猜一个最安全的答案。
这不是宝库的问题。这是探索方式的问题。
探索宝库,需要的不是一把钥匙
很多人听说过 Prompt Engineering——提示词工程。这个概念现在到处都是,以至于给人一种印象:只要学会写漂亮的提示词,就能让 AI 无所不能。
但实际情况比这复杂得多。好的提示词只是起点。真正要在这座宝库里找到有价值的东西,需要的是一整套方法。
首先是你怎么问。 同样是让 AI 帮你写一封邮件,“帮我写封邮件"和"我是一个 SaaS 公司的客户成功经理,需要给一个即将流失的客户写一封挽留邮件,语气真诚但不卑微,重点提下个季度即将上线的功能”——这两句话打开的是完全不同的房间。好的提问包含目标、背景、格式和限制。这不是什么新技能:你写简历用 STAR 原则(背景、任务、行动、结果),给同事布置任务时说清楚约束和交付标准——本质上是同一回事。
然后是你给了多少上下文。 你不只是问了一个问题,你还需要让 AI 知道你是谁、你在做什么项目、你面对的客户是什么类型、你过去三个月的工作重点是什么。这些上下文不是"额外信息",它们从根本上改变了 AI 理解你那句话的方式。如果图书馆的管理员已经认识你、了解你的研究方向、知道你上个月刚写了一篇关于气候变化的论文,那你只需要说"帮我找点新的",他就知道该带你去哪个区域。这就是 Context Engineering 在做的事——系统性地管理"AI 知道关于你的什么"。
再往深一步,你能不能带着自己的知识走进去。 宝库再大,也有它覆盖不到的地方。你公司的内部流程手册、你行业的最新法规、你团队上周的会议纪要——这些不在宝库里。但你可以带着它们走进去。这就是 RAG(检索增强生成)的作用:让 AI 在回答你的时候,同时参考你提供的特定文档和数据。相当于在图书馆里临时开了一间专题阅览室,管理员可以同时翻馆藏和你带来的资料。
还有一层——你能不能让它看到外面正在发生什么。 宝库里的知识再丰富,也有时间边界——训练数据停在某个截止日期,不知道今天的新闻和数据。Web Search 和实时数据接入弥补了这个缺口。你问"今天美元兑人民币汇率是多少",光靠宝库回答不了。但如果 AI 能先查一下最新数据,再结合宝库里关于汇率机制和宏观经济的结构性知识,它给出的就不只是一个数字,而是一个有分析框架的回答。
最后一层,也是最容易被忽视的:你自己的判断力。 提问、上下文、检索、搜索——这些都有一个前提:你得知道你要找什么,你得能判断回答的质量,你得知道哪些建议在你的业务场景里能落地、哪些只是纸上谈兵。这就是人的 Know-how——你在一个领域摸爬滚打积累下来的直觉和经验。一个资深医生和一个实习生向 AI 问同一个临床问题,就算措辞一模一样,他们从回答中获得的东西也完全不同——因为资深医生知道怎么追问、怎么验证、怎么判断哪些信息可以信、哪些要打问号。
所以,探索这座宝库需要的不是一把钥匙,而是一整套装备:你的提问方式、你提供的上下文、你接入的专业知识、你获取的实时信息,以及你作为一个专业人士多年积累的判断力。这五样东西合在一起,才决定了你能走多深、看到多少。
这对我们意味着什么
过去,获取知识是一条漫长的路。你花十年学金融,才能对投资问题做出判断;你花五年做销售,才知道什么样的话术真正有效。这些年头不是浪费——它们铸造了你的 Know-how 和判断力。
现在的变化是:那些知识的结构已经被编码在大语言模型里了。你不需要自己把所有领域的知识都重新学一遍。但你仍然需要两样东西。
第一,你自己领域里的经验和判断力。这是你作为"探索者"最核心的装备。宝库向所有人敞开了大门,但进去之后该往哪走、什么东西值得拿、什么东西需要存疑——这些只有你知道。
第二,探索的方法。怎么提问、怎么给上下文、怎么接入外部知识。好消息是,这并不是一个全新的技术技能。它本质上是一种沟通和组织信息的能力,和你在工作中早就需要的能力高度重叠——布置任务时说清背景和目标,写报告时提供数据和上下文,请教专家时先介绍自己的情况。这些你已经会了,只是还没意识到它们可以用在一个全新的地方。
你的专业积累非但没有贬值,反而变得更重要了。因为宝库向所有人开放之后,真正的差距不在于谁能进去,而在于进去之后谁知道该往哪走。
结语
一百年前,索绪尔用哲学直觉看到了语言的本质:每个词都有一个"值",这个值来自关系。
一百年后,大语言模型把这个洞见变成了现实。几万亿个词之间的关系被编码进了模型的参数里。而因为人类的知识本身就是用语言承载的,这些参数里装的,其实是人类几千年知识的逻辑结构。
这座宝库已经对所有人开放了。但不是所有人都能找到他们想要的东西。
差距不在于谁更聪明,也不在于谁更懂技术。它在于谁学会了探索的方法,谁带着足够的上下文和专业判断走进去,谁能在这座浩瀚的宝库中识别出自己真正需要的那一部分。
宝库已经在那里了。现在的问题是——你准备怎么进去。