凯文 · 凯利(Kevin Kelly)被科技拥趸称为“KK”,在30年前就预见到了云计算、虚拟现实、物联网等趋势。他写出《失控》《科技想要什么》《5000天后的世界》等书,被誉为“硅谷精神之父”。

15_副本

您在科技领域是一个哲学思考者。在最近的AI浪潮中,您的科技哲学理念是否有迭代或改变?

我的科技哲学观并没有改变,如果出现一些新的现象,我会认为它是在不断证实和强化我的哲学观。毕竟,到目前为止,我还没有看到任何可能改变我对技术的看法的事件出现。我认为,技术演进如同生物演化一般,而我在AI领域看到的一切现象都没有改变我的这一观点。

您的官网页面的最上方有一行小字:OVER THE LONG TERM, THE FUTURE IS DECIDED BY OPTIMISTS”(从长远来看,未来由乐观主义者决定)。最近AI的一系列进展和快速迭代的浪潮,以及您提到的百年人类身份认同危机(AI的影响将持续数百年,人类将面临长达一个世纪的认同危机),您会担忧吗?

总的来说,我不是特别担心。有些事情我的确很在意,但我相信我们会解决,只是有些问题我们暂时还不知道如何解决。

针对气候变化问题,我们知道应该怎么做,但在AI领域存在一些我们不知道该如何解决的问题,而这些问题有可能在未来给我们带来困扰,比如AI的武器化:我们应该拥有机器人士兵吗?我们应该让AI具备杀伤力吗?这些是我们不知道的,但又真的很难决定。所以,这才是我真正担心的事。

当然,我也很关心AI是开源的还是闭源的、是公开的还是只属于公司所有。我认为它应该是公开的,这是我很关心的事。

您仍然是乐观主义者。

我非常乐观。我相信我们最终会解决这些AI相关问题,只是现在我们还不知道该怎么做。也就是说,结果是确定的,只是路径还不清晰,所以我乐观。当然,也有一些别人担心的事情我并不担心,就像失业。另外,我也不担心人工智能会对我们构成威胁。

您认为迄今为止,OpenAI做出的最好和最差的决定分别是什么?

最差的决定是OpenAI并没有开放它的大模型,这是一个很糟糕的决定,还有另一个最差的决定是(曾经)解雇创始人萨姆 · 奥尔特曼(Sam Altman)。

最好的决定是OpenAI一直坚持快速发展、快速迭代,并且不断创新;越来越快的发展使得它能够重新雇佣萨姆;还有,它很坚定,强调在发展中不用过于认真谨慎,而是要真正尝试快速成长。

您提到了两种类型的创造力——爬山型创造力(Hill Climbing,强调在现有知识框架下进行改进和优化)和造山型创造力(Hill Making,强调创造全新的认知领域)——还说AI擅长爬山,而不是造山。这两者的区别是什么?

大语言模型的创造力其实只有一种,就是在现有的知识框架下运作。它们在已知空间内探索一切,并没有创造全新的领域。而突破基本上是在创造新领域,不是在现有领域内寻找解决方案。

这些大语言模型现在做的主要是在我们已知的范围内寻找答案。超过这个范围,事情就会变得非常困难。例如,你可以让Midjourney或Dall-E生成宇航员骑马的图像,但你无法让它生成马骑着宇航员的图像,因为这在它们的“已知范围”之外。

您是规模法则(Scaling law)的拥趸吗?

是的,有一定程度上的认同。我先解释一下,Scaling law是在说模型的规模、损失因素与它达到的最佳性能之间存在一种数学比例关系。

到目前为止,规模法则似乎是有效的。当增加计算资源时,模型性能会变得更好。我们不知道的是,这是不是无限制的。我可以永远继续下去吗?它会到达一个平台期吗?我认为证据表明它会到达平台期。这和互联网不同。

当然,证据并非来自Scaling law本身——它本身是一个假设。

最近有一种观点在AI行业非常流行:一切都与数据集有关,假以时日,AI效果和算法或者其他方法关系都不会很大,只有数据集才是重要的。对此,您怎么看?

有一篇论文说,数据的质量比算法影响力更大。我认为这非常有可能。

我预测我们将会看到AI公司宣传他们的AI是基于训练数据的。所以,你会听到有人说:我们没有用过什么算法训练,我们只用了最好的数据进行训练;我们用高质量的书籍和其他优质材料来训练AI;我们没有使用Reddit(一个娱乐、社交及新闻网站)数据。

这就像教育。如果你有孩子,你会如何教育他们?你打算让他们看Twitter还是读经典?有人会说:我们的AI只读经典。它们读最高质量的书籍和科学期刊。它们没有读Reddit、Twitter或微博。它们在读好东西。它们接受了最好的训练。未来,有些人会基于这种筛选训练数据的理念来推销他们的AI。

您的知名度很大程度上来自您预言家的身份。关于AI,您提到过七个判断:AI比看起来的还要慢;大语言模型趋于人类的平均智慧水平;AI不会取代人类;AI在创造新事物,而非替代物;先云,后AI;AI将重塑组织;一切才刚刚开始。这七个判断不是完备的,您能给我们一些您从未在其他地方提到过的预测吗?

我的预测是,10年后,数据将不再重要。

现在所有大语言模型都依赖海量数据进行扩展,但还存在其他类型的认知智能。人类幼儿在看到12个例子后就能区分猫和狗,他们不需要1200万个例子才能知道。

所以我认为,10年后我们不需要数百万个数据就能拥有推理的能力。这对初创企业来说是一个巨大的优势,因为他们不需要拥有那么多数据。

您能否分享一些关于人类与AI本质的见解?

问题是,我们也不知道人类的本质是什么,找出答案的方法就是制造AI,并赋予它创造力。然后我们会意识到:我们曾以为创造力是令我们与众不同的原因,但现在我们改变了主意,因为AI也有创造力。接着我们会说:好吧,我们曾以为意识是令我们与众不同的原因。然后,我们又会把意识赋予AI……

这个“赋予”的过程会在哪里结束?

在技术和AI的推动下,我们将不断重新定义自己。我认为更重要的问题不是“我们是谁”,而是“我们想成为谁”。我们希望人类成为什么样子?这是一个更有力的问题,因为在这个问题上我们可以有一点点选择。对我来说,这是令人兴奋的地方,也是AI的终极魅力所在。AI不仅揭示了“我们是谁”,也激励着我们思考该成为什么样的人。

加速计算正在触及科学的无人区。这条道路的极限是什么?

我们没有关于智能的理论,也没有关于人类的理论。AI领域也是一样,正因为如此,我们无法预测AI的走向。如果你有理论,理论就会产生预测。比如,如果你这样做,就会发生那样的事;如果你增加所有的计算资源,就会得到那样的结果。但我们现在没有任何这样的理论,这很不寻常。

在物理学领域,我们有理论——如果你做了一个足够大的对撞机,你就会发现某种粒子。但在智能领域,我们目前还没有这种理论。不过,令人兴奋的是,我们会和AI一起发现作为人类的意义是什么。

_____________________

本文作者张一甲是甲子光年创始人及首席执行官