一、一个老人的警告

一位78岁的老人坐在摄像头前,对着几百位代表说出了几句话。会场安静了几秒。
他说,我们不知道人类能不能和超级智能AI共存。
但我们正在建造它。
这位老人就是2024年诺贝尔物理学奖得主Geoffrey Hinton,被很多人叫做“AI教父”。他在一次全球数字大会上再次发出了警告。
他用几乎是恳求的语气说,他们想要一辆没有方向盘的超级快车。
二、钱都花在了哪里
Hinton算了一笔很清楚的账。
全球AI产业正在以人类历史上前所未有的速度膨胀。一份数据显示,2023年全球AI市场规模是1890亿美元。到2033年,这个数字预计会涨到4.8万亿美元。
也就是说,人类只用了十年时间,就从零造出一个比很多国家经济总量还大的产业。
这些钱用在了哪里?绝大部分用在了造更大的模型,跑更多的算力。
那么花在安全上的钱有多少呢?Hinton给出的数字是大约1%。
全球AI研发投入里,只有大约1%花在了“怎么让这东西不出事”上。
他的评论是:这太疯狂了。
他解释说,AI科技游说集团正在花大价钱投广告,想让所有人都接受一个类比——AI是油门,监管是刹车。他们的意思是别踩刹车,会拖慢我们。
他说这个类比完全是错的。
油门是进步,没错。但监管不是刹车,监管是方向盘。他们想要一辆极速狂飙的车,但没有方向盘。
坐在他旁边的另一位学者立刻接了一句:你开过一辆没有刹车的车吗?下坡的时候你就知道有多惨了。但更惨的是,我们连方向盘都没有。
油门踩到底,方向盘拆掉。这就是当下全球AI竞赛的真实状态。
三、一个“愚蠢”的术语
有人问了一个很多人想知道的问题:怎么定义通用人工智能?什么样的测试能说明通用人工智能已经来了?
Hinton的回答很直接。他说“通用人工智能”是一个愚蠢的术语。
理由很简单。它假设智能是一维的,像温度计一样,数值越高越聪明。
但智能是高度多维的。所以不存在一个点,AI在那个点上等于人类。AI相对于人类的能力是锯齿状的——在某些方面已经远远超过我们,在另一些方面还不如我们。
他举了一个例子。你现在去问任何一个大模型,某个国家的报税截止日期是哪天,或者怎么给门做防潮处理,它都答得头头是道。在通识知识这个维度上,AI早就把人类甩了几条街。但在某些推理任务上,它还没完全追上。
所以,“通用人工智能”这个词没有意义。
那什么词有意义?在他看来,真正有意义的是“超级智能”。它的定义很清楚——在几乎所有人类能做的智力任务上都比我们强。我们相信它正在到来。
四、三种风险
Hinton把AI风险分成了三类。
第一类是有人故意用AI干坏事。比如制造深度伪造视频来破坏民主,制造致命病毒来引发大流行病,发动网络攻击。这是最直接的威胁。
第二类是有人试图用AI赚钱时产生的副作用。比如用AI把女性照片生成非法照片。比如推荐算法不断推送比你刚看过的更极端的视频,最终制造出两个完全没有共同语言的群体。他们只是在赚钱,但副作用就是撕裂社会。

第三类是AI自主接管的存在性威胁。
他认为第三类威胁或许会得到国际合作,因为所有人都害怕。但对于前两类,特别是第一类,则不会得到合作。各国会嘴上说要合作,但实际上都在互相攻击,这要难处理得多。
他讲了一个类比。看看烟草和石棉的历史。生产烟草和石棉的发达国家在本国引入了保护公民的法规,但它们继续把这些东西卖给第三世界国家。所以我们真的要担心:即使我们在开发AI的国家制定了正确方向的法规,这些国家仍然可能把AI卖到其他国家,在那里产生恶劣后果——即使这些事情在他们自己国家是不被允许的。太阳底下无新事,烟草和石棉的剧本,很可能会再次上演。
五、一个大模型是不是死胡同
有人带来了一个尖锐的问题。一位知名学者说大语言模型是通往超级智能的死胡同,你怎么看?
他把这个问题拆成了两半。
首先是一个哲学问题:一个只预测下一个词的系统,能不能理解空间?答案是能。这非常令人惊讶。
然后是一个实际问题:这是理解空间的高效方式吗?答案是不能。如果你有摄像头,能操控物体,你理解空间和基本物理常识的效率会高得多。
所以在实际层面,一个多模态AI——有摄像头、能操控物体、还能说话——会比纯语言模型用更少的数据更快地理解很多东西。但在哲学层面,纯语言模型给它足够多的语言数据,可能也够了。
六、4.8万亿美元的蛋糕谁在切
这次大会暴露的另一个问题是分配。
一位国际组织的官员在同期举行的科技发展委员会上直接点破:AI的建造能力和塑造权,集中在极少数经济体和机构手里。
另一位国际组织的负责人给出了一个刺眼的对比:发达地区对于AI的采用速度,几乎是发展中国家的两倍。
如果不解决这个问题,这将是第二次大分流。
造AI的地方和只能消费AI的地方之间,鸿沟正在以肉眼可见的速度撕开。
4.8万亿美元的市场,基础设施、投资、人才全部集中在北半球那几个点上。剩下的世界,甚至没有资格参与规则制定。
这个后果很可怕。
七、两个世界
把时间线拉长一点就会发现,Hinton的这场对话,其实是他过去三年吹哨行动的一次集大成。
三年前从一家大公司离职时,他说的是“我为自己的毕生工作感到后悔”。前两年拿诺贝尔奖时,他在领奖台上呼吁重视AI安全。去年他在多个场合反复强调监管的紧迫性。
到了今年,他的措辞变得更具体了。
而他在技术讨论中展现的另一面同样值得注意。
这个78岁的老人,在聊完AI末日风险之后,能立刻切回去讲几十年前的算法为什么是正确的贝叶斯推理、为什么当前的图像生成模型只用了某个算法的一半、怎么把生成模型和识别模型结合起来才是下一步正确方向。
他同时住在两个世界里——一个在思考AI怎样变得更强大,一个在思考人类怎样不被更强大的AI毁灭。这两件事在他的大脑里并行运转,互不矛盾。
这大概就是为什么他的警告格外有分量。这是亲手造出这个东西的人在说:我知道它能做什么,所以我知道该怕什么。
八、方向盘在谁手里
那辆车,现在油门已经踩到底了。4.8万亿美元的引擎在轰鸣。方向盘在不在,取决于接下来的几年里,坐在驾驶座上的人——不管是政府、企业还是科学家——愿不愿意伸手。
如今,我们正站在一个极其特殊的时间节点上。在AI变得比我们聪明之前,是人类唯一还能决定游戏规则的窗口。
Hinton三年前从一家大公司离职时说的那番话,当时很多人觉得是杞人忧天。
三年过去了,他还在说同样的话。不过,现在已经有很多人真实地理解了他的担忧。
只是,那辆没有方向盘的车,还在加速。
我们最终能不能给它装上一个方向盘,决定了这辆车是把我们带到想去的地方,还是带下悬崖。
从目前的投入比例来看,1%对99%,这个数字本身就说明了一切。绝大多数精力都花在了让车跑得更快上,而不是让车跑得更稳上。
这不是技术问题,这是选择问题。我们选择把资源放在哪里,决定了我们得到什么样的未来。
如果继续这样下去,等到车真的失控的那一天,再想装方向盘就来不及了。因为到时候坐在驾驶座上的,可能已经不是人了。
这就是为什么那位78岁的老人还要坐在摄像头前,对着几百位代表说那些话。因为他知道,窗口期不会一直开着。
油门已经踩到底了。方向盘呢?