网站搜索

什么是谷歌的 LaMDA AI,为什么谷歌工程师认为它是有感知力的?


谷歌的一位高级工程师声称,该公司的 LaMDA AI 已经具备了感知能力。无论您觉得这令人震惊还是令人兴奋,这都是一个非常大胆的主张,而且即使它是完全正确的,也可能很难证明。

什么是 LaMDA?

LaMDA 是对话应用程序语言模型的缩写。换句话说,它是一种专门为生成自然对话而设计的机器学习语言模型。机器学习方法允许计算机发现数据中的模式和关系。因此,例如,您可以在莎士比亚的所有作品上“训练”机器学习算法,例如 GPT-3(另一个尖端系统),然后让它生成读起来像莎士比亚的新原文。

正如 Sundar Pichai(谷歌首席执行官)在接受雅虎财经采访时解释的那样,LaMDA 是一个与众不同的系统,因为它专门针对对话进行了培训。目的是让谷歌的系统能够与用户进行类似人类的开放式对话。

换句话说,人们向谷歌产品询问特定的事情不必改变他们的想法或说话方式。他们可以像与他人互动一样与计算机系统互动。

在幕后,所有当前的机器学习模型实际上都是复杂的数学和统计模型。他们根据在数据中发现的潜在模式生成算法。为它们提供足够多的高质量数据,这些算法就可以非常有效地完成迄今为止只有人类或其他自然智能才能完成的事情。

为什么谷歌工程师相信 LaMDA 是有知觉的?

有问题的工程师是 Blake Lemoine,他发表了他和 LaMDA 之间的采访,作为他为什么 LaMDA 可能有知觉的案例的一部分。 Lemoine 花了几个月的时间与软件交谈,审问它,向它提出复杂的问题,并且发现很难相信它复杂而适当的反应可能是除了有知觉的生命之外的任何东西的产物。

每个想了解 Lemoine 为什么会有这种感觉的人最好自己通读 LaMDA 的回复,以了解为什么这是一个如此引人注目的立场。 LaMDA 的反应非常人性化,让人想起斯派克·琼斯的中虚构的个人助理 AI,在这个故事中,人类与对话式 AI 建立了认真的关系。

撇开 Lemoine 关于 LaMDA 的断言是否有份量,值得注意的是 LaMDA 的整个设计目的是产生自然、可信的开放式对话。因此,从这个意义上说,他的信念表明谷歌在产生可信对话方面取得了惊人的成功。如果有任何人工智能系统要让人类相信它是有感知力的,那么它很可能是专门为此而设计的。

问题在于,出于许多科学和哲学原因,关于感知力的主张并不是真正可检验的(或者至少是不可行的,或伦理上不可检验的)。要理解其中的原因,我们必须简要地看一下“感知”的含义。

什么是感知?

“感知”这个词本质上是指某物(猫、人或魔毯)有感觉的能力。它与“sentimental”或“sentiment”共享相同的词根。感知并不仅仅意味着某物具有感知能力。尽管您的恒温器能够判断温度,但几乎可以肯定它没有感知力。相反,感知是关于感受的主观体验,这意味着首先有一个“主体”。

在这里陷入语义是危险的,因为 Lemoine 很可能将“感觉”这个词与“智慧”、“智能”和“意识”等不同的概念互换使用。因此,为了争论起见,这里最仁慈的解释是,Lemoine 认为 Lamda 是一个有自我意识的存在,能够感受事物、持有信念,以及以我们通常认为是生物的方式体验事物。

在另一篇文章中,Lemoine 讨论了他认为 LaMDA“想要”和“相信”的东西,这支持了他认为“感知”的含义不仅仅是其严格的字典定义的观点。

我们首先不理解感知和意识

事情是这样的:我们对知觉、意识、智力以及成为拥有这些属性的实体意味着什么知之甚少。有点讽刺的是,机器学习技术最终可能会帮助我们破解一些关于我们的思想和它们存在于其中的大脑的谜团。

目前,哲学家和科学家们正在逐步拆除意识的“黑匣子”,但它似乎仍然是某种事物的结果,而不是其各部分的总和。意识似乎是一种“涌现”的东西。这是一个由许多不同的神经子系统相互作用产生的“幽灵”,其中没有一个似乎是自己有知觉的。

同样,复杂的 AI(例如 DALL-E 2 图像生成系统)由更简单的机器学习模型组成,这些模型相互反馈以创建最终产品。简单系统交互产生的复杂性主题是您在 AI 世界中经常遇到的主题,尽管我们可能对每个子组件的工作方式有很好的理解,但最终结果通常是不可预测的。

我们甚至可以识别 AI 中的感知力吗?

如果,为了争论的缘故,人工智能在这个词的最真实意义上实际上是有知觉的,我们甚至能够分辨出来吗? LaMDA 旨在模仿和预测人类对话中的模式,因此在触发人类与类人智能相关联的事物时,套牌真的很丰富。然而,我们花了很长时间才将非人类灵长类动物和海豚、章鱼和大象等动物视为有知觉的动物——尽管从宏大的角度来看,它们实际上是我们的兄弟姐妹。

一个有感知力的人工智能可能是如此的陌生,以至于我们不知道我们正在看着我们面前的一个。这是特别有可能的,因为我们不知道感知出现的阈值条件是什么。不难想象,数据和 AI 子系统的正确组合以正确的方式混合在一起可能会突然产生具有感知能力的东西,但它可能会被忽视,因为它看起来不像我们可以理解的东西。

如果它看起来像一只鸭子……

机器有知觉主张的最后一个大问题与其他任何事物(包括人类)有知觉主张的问题相同。从哲学上讲,您不知道与您互动的任何人是否真的有知觉。这是经典的哲学僵尸问题,这是一个关于假想生物的思想实验,这些假想生物与人类完全没有区别,只是它们缺乏知觉或任何类型的意识体验。

然而,正如艾伦图灵著名的测试所假设的那样,人工智能是否“真正”在思考和感受并不重要。重要的是它能很好地模仿思维和感觉的表象,以至于我们无法分辨。取决于你问的是谁,LaMDA 已经通过了图灵测试,这可能会使 Lemoine 无法验证的主张成为一个有争议的问题。