如果你最近关注科技新闻,或者在工作中开始接触人工智能,你一定见过一堆让人摸不着头脑的缩写词和术语。LLM、RAG、RLHF、AGI……这些词看起来像某种暗号,让人不好意思开口问。其实不用紧张,即使是这个领域的专家,也经常争论这些词的确切含义。这篇文章会用最直白的话,把AI领域常见的专业术语解释清楚。我们会尽量避免使用复杂的比喻和修饰,只说事实。同时,隐去了具体的人名、公司名和品牌名,只谈概念本身。

基础概念:AI到底是什么?
在深入具体术语之前,先明确一点:今天大家讨论的AI,绝大多数是指“机器学习”或者“深度学习”驱动的系统。简单说,就是让计算机从大量数据中自己找规律,而不是由程序员一条一条写规则。这种方法的威力很大,但也有很多局限。
通用人工智能(AGI)
这是一个经常出现在新闻里的词,但它的定义并不固定。大致来说,AGI指的是那种在大多数任务上能做到和普通人一样好、甚至更好的AI。有人把它形容为“可以雇来当同事的普通人”。也有组织把它定义为“在大多数有经济价值的工作上超过人类的高度自主系统”。还有研究机构认为AGI是“在大多数认知任务上至少和人类一样有能力的AI”。你看,不同的地方说法不一样。目前还没有公认的标准来判断一个AI是不是达到了AGI的水平。所以当你听到这个词时,知道它代表一种“终极目标”或者“愿景”就可以了,不用太纠结具体定义。
AI智能体(AI Agent)
智能体是比普通聊天机器人更能干的一类工具。普通聊天机器人你问一句它答一句,而智能体可以帮你完成一系列操作。比如你告诉它“帮我订这周五晚上两个人在某家餐厅的位置”,它就会自己打开浏览器、搜索餐厅、选择时间、填写预订信息、甚至处理支付。当然,目前这类技术还在发展中,不同人对“智能体”的理解也不同。但核心思路是一样的:它是一个可以自主执行多步骤任务的系统。
API端点
这个术语听起来很技术,但其实不难理解。你可以把API端点想象成软件上面的一个按钮。其他程序按一下这个按钮,软件就会执行某个操作。比如你手机上的天气应用,它会按一下天气服务网站上的某个端点按钮,然后拿到温度数据。开发者用这些按钮来让不同的软件互相配合。对于AI智能体来说,如果它能找到并按下这些按钮,就能自动操作很多服务,而不用你手动点来点去。
思维链(Chain of Thought)
人类解决复杂问题时,经常需要把问题拆成几步,一步一步想。比如一道数学题:农场里有鸡和牛,总共40个头、120条腿,问鸡和牛各有多少?你会在纸上写方程,先算出来再回答。AI大语言模型也是这样。如果你直接问它,它可能瞎猜一个答案。但如果你让它“一步一步想”,它就会输出中间步骤,最后的答案往往更准确。这个过程就叫思维链。专门为这种思考方式优化过的模型,叫做推理模型。它们回答问题比较慢,但在数学、编程等需要逻辑的领域表现更好。
编码智能体(Coding Agents)
这是专门用来写程序的AI智能体。它不是简单地给你一段代码让你自己复制粘贴,而是可以自己写代码、运行测试、找出错误、修改代码,再运行测试,直到代码能正常工作。它可以在整个项目的代码里工作,查找问题、修复漏洞。你可以把它想象成一个很勤快、从不睡觉的实习生。不过它的工作还是需要人来检查,因为它也会犯错。
算力(Compute)
这个词在AI行业经常出现,意思很简单:就是让AI模型运行所需要的计算能力。AI模型越大、越复杂,需要的算力就越多。算力通常来自一些特殊的硬件芯片,比如图形处理器(GPU)或者专门为AI设计的芯片。这些芯片可以同时做很多简单的数学计算,比普通电脑的中央处理器快很多。训练一个大型AI模型需要的算力非常大,所以大公司会建装满这些芯片的数据中心。
深度学习(Deep Learning)
深度学习是机器学习的一个分支。它的核心是“人工神经网络”,这种网络的结构有点像人类大脑里的神经元连接方式。深度学习的“深”字,指的是网络有很多层(通常几十层甚至上百层)。层数越多,模型能学到的模式就越复杂。深度学习的好处是,你不用告诉模型应该注意哪些特征(比如猫的耳朵、胡须),它自己能找出来。缺点是它需要海量的数据来训练,而且训练时间很长,成本很高。
扩散模型(Diffusion)
这是目前很多画图、作曲、生成音频的AI所用的核心技术。它的想法来自于物理学中的“扩散”现象。比如你把一块糖放进咖啡里,糖会慢慢扩散、溶解,最后消失。这个过程是单向的——糖不会自己重新变成立方体。扩散模型先学习怎么给一张清晰的图片一步步加上噪声(就像糖溶解一样),直到图片变成完全的雪花点。然后它反过来学:从雪花点开始,一步步去掉噪声,最后复原出一张清晰的图片。训练好的模型就能根据用户的要求,从随机噪声中“画”出一张新图。
知识蒸馏(Distillation)
训练一个大模型很贵,但大模型能力强。知识蒸馏是一种把大模型的本事传给小模型的方法。具体做法是:用大模型回答很多问题,记录下来答案。然后用这些答案去训练一个小模型,让它学会模仿大模型的回答方式。这样得到的小模型虽然能力稍微弱一点,但运行速度快很多,占用的内存也少。有些公司会用蒸馏来追赶竞争对手的模型,但这通常违反服务条款。
微调(Fine-tuning)
一个通用的AI模型(比如能做很多事的语言模型),如果你想让它在某个特定领域(比如医疗问答或者法律文书)表现更好,就需要微调。微调就是在通用模型的基础上,再用该领域的专门数据继续训练一小段时间。这样模型就能学会这个领域的术语和常见模式。很多公司都采用“通用大模型 + 微调”的方式来打造自己的产品,因为从头训练一个模型太贵了。
生成对抗网络(GAN)
GAN也是一种生成图片或视频的技术。它用了两个神经网络互相竞争。一个叫“生成器”,它负责产生假图片;另一个叫“判别器”,它负责判断图片是真的还是假的。生成器努力让判别器相信它是真的,判别器努力揪出假的。两者反复对抗,最后生成器造出来的图片会逼真到人眼看不出。GAN适合做比较窄的任务,比如生成逼真的人脸照片,但不适合做通用的AI。

幻觉(Hallucination)
这个词在AI领域不是指真正的幻觉,而是指AI胡编乱造。你问它一个问题,它不知道答案,但不会说不知道,而是会编一个看起来像模像样的假答案。比如问一个历史上的日期,它可能给出完全错误的信息。这是因为AI模型只是在根据统计规律猜词,并没有真正的“知道”或“不知道”的概念。幻觉是目前AI很大的一个问题,尤其在医疗、法律等需要准确回答的领域。减少幻觉的一个办法是使用更专门化的模型——只在一个很小的领域里训练,知识盲区就少。
推理(Inference)
训练一个模型需要很多算力和时间,但训练完之后,你用它来回答问题或处理新数据的过程,就叫推理。推理也需要计算,但比训练少得多。比如你训练了一个识别猫的模型,训练过程花了几天几夜;但训练好后,你随便给它一张照片让它判断有没有猫,这个过程就是一次推理。推理可以在很多设备上运行,从手机到云端服务器。模型越大,推理就越慢。
大语言模型(Large Language Model, LLM)
这就是目前流行的一类AI助手的核心。像大家常用的那些聊天机器人,背后都是一个大语言模型。它由几十亿甚至几千亿个“参数”(后面会讲什么是参数)组成。训练时,它读了互联网上大量的书籍、文章、对话,学会了词语之间的关系。当你输入一句话(提示),它就会根据学到的模式,一个字一个字地生成回复。大语言模型的特点是能理解自然语言,也能生成看起来很通顺的文字。但它并不真正“理解”内容,只是在做数学上的模式匹配。
记忆缓存(Memory Cache)
这是一种让AI推理更快的技术。AI在回答问题时,需要做很多复杂的数学计算。有些计算是重复的——不同用户问类似的问题,中间的计算步骤可能一样。缓存技术会把算过的结果暂时存起来。下次再遇到类似的计算,就直接把存的结果拿出来用,不用重新算。这就像你记下了一个常用电话号码,每次打就不用再查电话本。缓存可以大大加快响应速度,同时节省算力。
神经网络(Neural Network)
神经网络是深度学习的骨架。它由很多层组成,每层有很多个“神经元”(其实就是一个数学函数)。数据从第一层输入,经过一层一层的计算,最后输出结果。这个结构确实受到了生物大脑的启发,但现在的神经网络和真正的大脑已经差别很大了。神经网络之所以能成为主流,很大程度上是因为图形处理器(GPU)的发展。本来GPU是为电脑游戏设计的,但人们发现它特别适合做神经网络需要的矩阵运算。于是GPU成了AI行业的标准硬件。
开源(Open Source)
如果一个AI模型是开源的,意味着它的代码和训练好的参数都公开了,任何人都可以下载、使用、修改、研究。这样做的好处是大家可以互相借鉴,进步更快,而且安全审计也更透明,因为任何人都能看代码里有没有问题。闭源则相反——你可以使用产品,但看不到它是怎么工作的。开源和闭源是AI行业一个重要的争论点。开源的代表是一些公开的模型系列,闭源的则是某些公司的模型。
并行化(Parallelization)
一次性做很多事情,而不是一件一件做。比如你要搬一堆砖,一个人一次搬一块,搬完100块需要很长时间;但如果叫100个人同时搬,一次就搬完了。AI训练和推理中大量使用并行化。图形处理器(GPU)之所以快,就是因为它里面有几千个小核心,可以同时做几千个简单的计算。随着模型越来越大,单块芯片已经装不下了,还需要在多块芯片、多台机器之间并行。如何更好地并行化,本身已经成了一个研究领域。
内存危机(RAMageddon)
这是一个有点玩笑味道的词,但反映的是真实问题。近年来AI行业爆发式增长,各大公司疯狂抢购一种叫“随机存取存储器”(RAM)的芯片,用来给数据中心提供算力。结果导致全球RAM芯片供不应求,价格飞涨。其他行业——比如电脑游戏、智能手机、普通企业计算——都跟着遭殃,因为他们买不到足够的内存,或者要花更高的价格。这个短缺什么时候能缓解,目前还不清楚。
强化学习(Reinforcement Learning)
这是一种训练AI的方法。让AI在一个环境里尝试各种动作,做对了就给一个“奖励”(就是一个正数),做错了就给一个惩罚(负数)。AI的目标是获得尽可能多的奖励。它会不断试错,慢慢学会哪些动作能得到奖励。这种方法和训练宠物有点像——宠物做对动作给零食,做错不理睬。强化学习在训练AI玩游戏、控制机器人手臂、以及改进大语言模型的推理能力方面效果很好。还有一种相关的技术叫“人类反馈强化学习”,就是让人工来给AI的回答打分,然后用这些分数来训练AI,让它变得更符合人类的偏好。
词元(Token)
人类用文字交流,计算机用二进制数字。词元是介于两者之间的东西。当你要让大语言模型处理一段文字时,模型会先把文字拆分成一个个词元。一个词元通常不是一个完整的单词,而是单词的一部分,比如“running”可能被拆成“run”和“ning”。这样模型处理起来更灵活。另外,使用AI服务时,费用通常按词元数量计算。你输入的内容和模型输出的内容,都要换算成词元再计费。
词元吞吐量(Token Throughput)
这个词衡量的是一个AI系统在单位时间内能处理多少词元。吞吐量越高,意味着这个系统一次能服务更多的用户,同时每个用户的响应速度也更快。对于搭建AI服务的团队来说,提高吞吐量是一个核心目标。因为硬件资源是有限的,如果不充分利用,就会造成浪费。
训练(Training)
训练是开发AI模型的核心过程。简单说,就是拿大量的数据给模型看,让模型从中找出规律,然后调整自己的内部参数,使得下次看到类似数据时能做出正确的预测。比如训练一个识别猫的模型,需要给它看几万张猫的照片和几万张不是猫的照片。模型每看一张,就猜一次,猜错了就调整一下参数。反复几万次之后,它就能学会什么是猫。训练非常消耗算力和时间,尤其是大语言模型,训练一次可能要花费数百万甚至数千万美元。
迁移学习(Transfer Learning)
这是一种省力的方法。你先训练一个模型做任务A(比如识别汽车),这个模型已经学会了很多通用的视觉特征(比如形状、边缘、颜色)。然后你想做一个任务B(比如识别卡车),你不必从头训练,而是把任务A学到的参数拿过来,只在任务B的数据上稍微调整一下。因为识别汽车和识别卡车有很多共同点,所以迁移学习能节省大量时间和数据。当任务B的数据很少时,这种方法特别有用。
权重(Weights)
权重是神经网络里最核心的东西。你可以把它理解为模型对某个输入特征的“重视程度”。比如预测房价时,模型会给“卧室数量”这个特征分配一个权重,比如0.8;给“房子颜色”分配一个很小的权重,比如0.01。权重越大,这个特征对最终结果的影响就越大。训练的过程,本质上就是不断调整这些权重,使得模型给出的预测越来越准。一个大的语言模型有几千亿个权重,每个权重就是一个数字。模型存储下来就是这些数字。
验证损失(Validation Loss)
训练AI模型时,我们需要一个指标来看它学得好不好。验证损失就是这样一个数字。越低表示模型越好。具体做法是:把数据分成训练集和验证集。训练集用来调整模型的权重,验证集从来不给模型看,只在训练过程中偶尔用验证集来测试模型。如果模型在训练集上表现很好,但在验证集上表现很差,说明模型“过拟合”了——它只是死记硬背了训练数据,并没有真正学会规律。验证损失帮助我们及时发现过拟合,及时停止训练或调整方法。
以上就是AI领域常见的一些专业术语。当然,随着技术的发展,新词还会不断出现。但掌握了这些基础概念,你再读到相关文章或听到别人讨论时,就不会只能点头附和了。记住一点:很多术语的边界是模糊的,不同的人有不同的理解,这很正常。最重要的是理解它大致在说什么,而不是死记硬背一个“标准定义”。