时至今日,我依然记得第一次观看系列科幻电影《终结者》时的震撼感

时至今日,我还记得第一次看科幻系列终结者时的震撼。在那个故事中,“天网”采取了压倒性的计算机网络的形式,用来忠实地控制美国的核武库,直到它自己的意识突然苏醒。天网的人类设计者突然发现他们的创作还活着,并试图将其关闭,但为时已晚。为了保护自己,天网发动了一场毁灭性的核战争,并释放了凶残的机器人来屠杀幸存者。现代文明被粉碎,留下一小群悲惨的反叛者。

这不是最糟糕的,在黑客帝国的世界中甚至更糟。在那里,人类甚至愚蠢到发现机器已经取代了自己。他们过着日常的工作和生活,将一切视为正常,却忘记了他们实际上生活在虚拟世界中。人的“存在”只是这些生活在营养舱中的人脑中的一个程序,由一台大型计算机操作和管理,机器需要这些人的唯一原因就是将它们用作生物电池。

当然,好莱坞可以编造任何类型的故事来震撼观众,而我们生活的世界与电影中的世界相去甚远。但这些电影也提出了一个合理的科学问题:“当机器人变得像人类一样聪明时会发生什么?当机器人醒来并变得有意识时会发生什么?” 据一些专家介绍,机器人会跟着一棵进化树逐渐爬上去。今天它们像蟑螂一样聪明,将来它们将像老鼠、兔子、狗和猫、猴子一样聪明,然后像人类一样聪明。这将需要数十年的缓慢攀登,但机器在智力上超越我们只是时间问题。

仅就具体时间而言,专家意见分歧。科幻作家维诺·温奇说,在 30 年内,我们将遇到超人的智慧。不久之后,人类的时代将结束。这一事件不会在 2005 年之前发生,但也不会推迟到 2030 年以后。但另一方面,物理学家道格拉斯·霍夫施塔特 (Douglas Hofstadter) 表示,“如果在接下来的 100 到 200 年内发生这样的事情,我会感到非常惊讶。” 会发生。但在此之前,有一个基本问题值得讨论。

究竟什么是意识和智慧?

其实,造成上述矛盾的主要原因是“意识”二字没有达成共识。哲学家和数学家对这个术语争论了几个世纪,但仍然无法达成一致。可见,“意识”是一个难以准确定义的神秘名词,对不同的人有不同的含义。

物理学家 Michio Kaku 提出了一个确定和量化的标准。他认为,意识至少包含三个基本组成部分:一是感受和了解环境,二是有自我意识,三是设定目标、规划未来、制定实现目标的策略。他将意识水平量化为一个从 1 到 10 的数字。例如,锤子感觉不到环境,因此它的意识水平为 0。但是恒温器可以感知环境并通过改变环境对环境产生影响。环境温度的意识等级为1。由此,他也认为具有反馈机制的机器具有初步的意识形式。

在这个系统下,一些低等生物,如蠕虫,可以感知食物、配偶和危险的存在,并根据这些信息采取相应的行动。它们能够检测多个参数(如光、声音、气味、压力等)什么是用计算机模拟人类的智能活动,并且应该具有较高的排名,大约 2 或 3。这种感觉的最高形式是识别和理解物体的能力。周边环境。人类能够立即估计环境的大小并采取相应的行动,因此在该排名中排名最高。

然而,这是机器人得分最低的地方。在目前的研究中,模式识别是人工智能发展的主要障碍。机器人可以比人类更好地感受环境,但它们无法理解或识别他们所看到的。在这个意识尺度上,机器人得分最低,接近昆虫,因为它们缺乏模式识别。

另一个基础是自我意识。如果你把镜子放在大多数雄性动物的身边,它们会立即发狂,甚至攻击镜子。因为镜子里的图像刺激动物保卫自己的领地。然而,猴子、大象、海豚和一些鸟类很快意识到镜子中的图像代表了自己,并停止攻击。人类在这个量表上排名最高,因为他们在与其他动物、其他人和周围世界的互动中具有高度发达的自我意识。

最后一个排名是基于对未来的计划能力。众所周知,昆虫不会为未来设定详细的目标。大多数昆虫会根据直觉和来自周围环境的直接线索立即对周围环境做出反应。但是灵长类动物为即将发生的事情做了临时准备。例如,当猩猩看到香蕉但无法够到时,它们会制定策略来抓住香蕉,例如用棍子。所以按照这个顺序,猩猩的意识水平要比昆虫高。但总的来说,动物对遥远的过去和未来没有清晰的感知。

然而,人类对未来非常有意识,可以不断地制定计划。我们的大脑一直在模拟现实。事实上,我们预期的计划可以远远超出我们的生活范围。我们可以判断别人的能力,预测形势的发展,制定正确的策略。这种意识形式涉及预测未来,即生成多个模型来模拟未来事件。这需要对常识和自然规律有非常透彻的了解。这意味着不断地问自己“会发生什么”。无论是计划出去散步还是上班,这种计划意味着您的大脑能够同时适应现实中可能发生的事情的多种模拟。

一切现象似乎都表明,在自然界中,只有人类掌握了这门艺术。

机器人也可以有意识吗?

一旦确定了目标,研究人员的目标就变成了创造一个具有所有三个特征的机器人。相对而言,第一项比较难实现,因为机器人虽然能感觉到环境,但无法理解其含义;自我意识比较容易获得;最后是获得常识,在此基础上,我们是否有能力为未来制定计划

因此,我们看到常识是更高意识的先决条件。为了让机器人模拟现实并预测未来,它必须掌握数百万条关于周围世界的常识规则。但常识是不够的。常识只是“游戏规则”,而不是战略和计划的规则。它更多的是关于机器人在现实世界中的生存。

比如国际象棋机器“深蓝”,它可以击败世界象棋冠军,但它却无能为力。它能够运行模拟现实,但仅限于国际象棋。世界上很多大型计算机都是这样的。它们非常擅长模拟物体的现实,例如,模拟核爆炸、喷气机周围的气流模式或气候。这些计算机比人类更擅长模拟现实什么是用计算机模拟人类的智能活动,但可惜的是,它们是一维的,因此在现实世界的生存中毫无用处。

今天,研究人员对如何向机器人灌输常识以使其变得有意识的知识有限。大多数人举手投降,并表示庞大的计算机网络将有一种方式来显示“突然发生的现象”,例如有时本能地从混乱中出现的秩序。当被问及这些突然的、自然发生的现象何时会变得有意识时,大多数人都无言以对。

图片[1]-时至今日,我依然记得第一次观看系列科幻电影《终结者》时的震撼感-老王博客

当然,正如我们所见,意识也是一步步上升的,而不是一个突然的进化事件,需要许多存在了几十年的机器人爬上意识的阶梯。毕竟,大自然花了数百万年的时间才建立了人类的意识,我们在塑造机器人的意识方面不应该太仓促。

所以换一种说法,虽然我们还不知道如何创造一个有意识的机器人,但我们可以想象当机器人比我们更先进的时候会是什么样子,并以此作为衡量意识的框架。

这些机器人在第三个特点上胜过我们:它们能够对未来进行复杂的模拟,比我们的更全面、更详细和更深入。他们的模拟比我们的更准确,因为他们对常识和自然规律有更好的把握,因此能够更好地寻找规律。他们将能够预测我们忽略或不知道的问题。此外,他们能够设定自己的目标。如果他们的目标包括帮助人类,那么一切都很好。但如果有一天,我们阻碍了他们的目标,事情可能不会那么好。

这就提出了下一个问题:当它们超越人类时会发生什么?

如果机器人超越人类会怎样?

进化论只有一个法则,适者生存。也许人类会被抛在后面,最终被关在动物园里让机器人看。也许这就是我们的命运:我们培育和进化这些超人机器人,然后我们就消失了。他们将我们视为进化过程中的原始祖先。

在某些时候,我们不再是地球上最聪明的生物,我们的创造物或许能够自我复制,创造出比它们更聪明的机器人。这支自我复制的机器人大军将创造出无穷无尽的下一代机器人,每一个都比前一个更聪明。从理论上讲,机器人可以在较短的周期内创造出更智能的下一代,最终,这个过程将呈指数级增长,直到最终,在他们对变得更智能的永不满足的需求下,地球的资源被吞噬了。

这就是“singularity”,这个词最初来自相对物理学的世界,代表引力无限的点,没有任何东西可以逃脱,包括光,所以它代表了一个视野,超越了我们什么也看不见。

发明家 Ray Kurzweil 是奇点理论的忠实代言人。他喜欢根据技术的指数增长做出预测。1999年,他写了一本畅销书《灵魂机器时代,当计算机超越人类智能》,预测机器人何时会在智能上超越我们。2005年,他撰写了《奇点临近》,详细阐述了这些预测,称计算机超越人类智能的决定性日子即将到来。

他预测,到 2019 年,一台 1000 美元的个人电脑将拥有人类大脑的能力。此后不久,计算机将把我们抛在后面。到 2029 年,同等价位的计算机将比人脑强大 1000 倍。到 2045 年,这个价位的计算机将比每个人的智力总和高出 10 亿倍,甚至一台小型计算机也将超过整个人类的能力。

在他的想象中,在 2045 年之后,计算机将非常先进,甚至能够自我复制,智能不断增加,从而导致失控的奇点。为了满足他们永不满足的贪婪和对不断增长的计算能力的渴望,他们将开始吞噬地球、小行星、行星、恒星,甚至影响宇宙本身的历史。

Kurzweil 认为,在这样的未来,我们思考的不是如何对抗智能机器的入侵,而是如何与这项技术融合。我们需要将这些智能设备放入我们的身体和大脑中,这样我们才能过上更长寿、更健康的生活。

没有人知道最终会发生什么,未来是否会是《终结者》或《黑客帝国》中描述的人类时代的暮光之城,但也许还有另一条光明的道路在我们面前。

我们能和人工智能和平相处吗?

在现实生活的研究领域和许多科幻作品中,科学家们采取了各种措施来确保机器人不会构成危险。比如他们在机器人的大脑里放了一块芯片,如果机器人有杀人的念头,就会自动关机。或者,可以创建专门的机器人猎人来抑制异常机器人。这些机器人猎人经过专门设计,具有超强的速度、力量和协调性,并了解任何机器人系统的弱点,以捕捉错误的机器人。当然,人类也可以训练这种技能。哈里森福特的主角是电影《银翼杀手》中经过特殊训练的政府特工团队中的一员,他们拥有压制任何机器人流氓所需的技能。

科幻作家艾萨克·阿西莫夫是这么认为的,他设想每个机器人都在工厂加工,并内置了三个定律,以防止它们失控。在他的小说中,他设计了著名的“机器人三定律”来防止机器人伤害自己或人类。

但更多的科学家倾向于设计“友好的人工智能”,从一开始就只执行对人类有用和有益的任务,最终产生良性结果。这与阿西莫夫的思路略有不同。阿西莫夫的三项法律是强加给机器人的,也许是违背了他们的意愿。相比之下,在“友好人工智能”中,机器人是不受限制的,可以进行谋杀和致残,并且几乎没有强加人为道德的规则。但这些机器人要求它帮助人类,而不是从一开始就摧毁他们,他们的最终目标是慈善事业。

但所有这些方法的一个问题是,军事部门是迄今为止最大的人工智能系统资助者,而这些军用机器人专门设计用于搜索、跟踪和杀戮。不难想象,未来机器人士兵的任务就是识别敌人,不出错地消灭他们。因此,我们必须格外小心,以免机器人将头转向它的主人。例如,捕食者无人机是遥控操作的,人们必须不断地指挥它们飞行,但如果有一天这些无人机按照自己的意愿选择目标……

幸运的是,另一方面,民用商业部门也逐渐涉足这一领域,比如日本。在日本,机器人更多是为了帮助人类日常生活,比如机器人看护人、搬运机器人等,而不是破坏。如果这种趋势能够持续并最终在全球蔓延,人工智能友好共存的未来可能会成为现实。

毕竟,和平总比战争好。

© 版权声明
THE END
喜欢就支持一下吧
点赞0
分享
评论 抢沙发

请登录后发表评论