孩子到了5岁可以听懂口语,将猫和狗区分开

到 5 岁时,孩子可以听懂口语、区分猫狗和玩捉迷藏游戏。

计算机现在可以做这些事情,甚至可以击败世界上最好的围棋选手。但是我们的计算机科学家还没有弄清楚如何使用计算机来做和感知事物,这是机器人技术的基本任务。

50 年来,计算机科学家一直在努力让计算机变得智能,但大多数人都忽略了一件事,即智能的来源:人脑。即使是所谓的神经网络编程技术,也是从一种非常简单的大脑操作方式开始的。

1950年,二战英国破译密码工作背后的计算机先驱艾伦·图灵提出了对人工智能的重新定义,并提出了人类是否可以与机器区分开来的问题,后来被称为图灵测试。简而言之,计算机能否以与人类无法区分的方式交谈。

到目前为止,答案是肯定的。图灵对问题的行为框架使研究人员远离了最有希望的研究途径:人脑。许多人很清​​楚,大脑必须以与数字计算机完全不同的方式工作。那么,为什么要建造智能机器,不了解大脑的工作原理,你怎么能建造智能机器呢?

然而,HTM 技术利用了大脑的思考方式,让机器几乎可以像人脑一样思考。

计算机科学家专注于大脑的新皮层,并在理解大脑如何工作方面取得了重大进展。并得到了“分层时间记忆”或“HTM”理论。这使计算机能够像人脑一样进行记忆。

HTM 是动态的,它不能预先确定节点应该学习什么

负责几乎所有高阶思维和感知的新皮层约占大脑体积的 60%。新皮质是一片薄薄的细胞,它们折叠起来形成卷积,这些卷积已成为大脑本身的视觉同义词。虽然皮层的各个部分以不同的方式处理视觉、听力、语言、音乐和运动控制等问题,但新皮层本身却非常一致。在宏观和微观层面上,大多数大脑部分看起来几乎相同。

由于新皮质具有统一的结构,神经科学家长期以来一直怀疑它的所有部分都可以使用通用算法,大脑使用单一灵活的工具来听、看、理解语言,甚至下棋。许多实验证据支持新皮质是一种通用学习机器的观点。它学到了什么以及它能做什么取决于新皮层表的大小、贴在表上的感觉以及它接受了哪些训练。HTM 是新皮质算法的理论。

虽然整个新皮质相当统一,但它被分成几十个区域,做不同的事情。例如,一些领域负责语言,另一些领域负责音乐,还有一些领域负责视觉。它们由神经纤维束连接。如果你画连接图,你会发现它们是一个层次化的设计。感官将输入直接馈送到某些区域,这些区域将信息馈送到其他区域,而这些区域又将信息发送到其他区域。信息也沿着层级向下流动,但由于上下渠道不同,层级排列清晰,有据可查。

HTM理论下的计算机记忆功能模仿了大脑新皮层的层次结构。

通常,层次结构中较低级别的神经元代表输入中的简单结构,而较高级别的神经元代表输入中更复杂的结构。例如,来自耳朵的输入穿过一系列区域,每个区域代表声音的日益复杂的方面。当信息到达语言的中心时,独立于说话者或语气对单词和短语做出反应的单元开始发挥作用。

由于最接近感觉输入的皮层区域相对较大,我们可以将层次结构可视化为树的根系统,感觉输入在更广泛的基部进入,而更高层次的思维发生在树干。层次结构是大脑皮层结构及其信息存储的基本要素。

类似地,HTM 是围绕节点的层次结构构建的。层次结构及其工作原理是 HTM 理论最重要的特征。在 HTM 中,知识分布在层次结构中上下的许多节点中。狗的外观记忆不存储在任何一个位置。皮毛、耳朵和眼睛等低级视觉细节存储在低级节点中,而头部或躯干等高级结构存储在高级节点中。

AI神经网络问题解决

分层结构解决了许多困扰 AI 和神经网络的问题。系统经常失败是因为它们无法处理大而复杂的问题。计算机经常遇到诸如训练系统花费太长时间或占用过多内存等问题。另一方面,层次结构允许我们“重用”知识,减少培训工作。在训练 HTM 时,低层节点先学习,然后高层节点共享之前在低层节点中学习到的内容,极大地复用了知识,提高了系统运行效率。

计算机系统可能需要大量的时间和内存来学习狗的外貌,但是一旦使用 HTM 理论,它将能够在更少的时间和更少的内存中学习猫的外貌。原因是猫和狗有很多低级特征,比如皮毛、爪子和尾巴,它们不必每次面对新动物时都重新学习。这成为深度学习的理论基础。

HTM 和新皮质之间的第二个基本相似之处是它们使用时间来理解从外部世界接收到的快速流动的数据。在最基本的层次上,层次结构中的每个节点都学习一个共同的顺序模式,类似于学习旋律。当出现新序列时,节点会将输入与先前学习的模式进行匹配,类似于识别旋律。然后,该节点输出一个表示最佳匹配序列的常量模式,类似于命名旋律。假设一个节点的输出成为下一个节点的输入,层次结构将机器学习序列化。

这就是 HTM 如何将层次结构底部快速变化的感觉模式转变为顶部相对稳定的思想和想法。信息可以沿着层次结构向下流动,扩展序列。例如计算机怎样使用记忆加,当你发表演讲时,你从一系列高级概念开始,每个概念扩展为一系列句子,每个句子扩展为一系列单词,最后是字母。

Concept -> Sentence -> Word -> Letter,这是一个清晰明了的层次结构。

HTM 使用时间的另一种更微妙的方式是它决定学习什么。系统主动学习,无需程序员或其他任何人告诉神经元该做什么。计算机科学家试图预先确定一个节点应该做什么,例如让节点 A 学习识别眼睛和耳朵计算机怎样使用记忆加,让节点 B 学习鼻子和皮毛。但是,这种方法行不通。随着节点的学习,它们会改变它们的输出,这会影响其他节点的输入。由于 HTM 中的内存是动态的,因此无法预先确定节点应该学习什么。

那么节点如何知道要学习什么?在这里,时间起着至关重要的作用,并且是 HTM 的独特方面之一。在时间上并排出现的模式通常有一个共同的原因。例如,当我们一遍又一遍地听到一系列音符时,我们学会了将它们识别为旋律。我们对视觉和触觉模式也是如此。例如,看到一条狗在我们面前移动,一条向左的狗实际上和一条面向右侧的狗是一样的,虽然视网膜上的实际信息有时会有所不同,HTM 节点学习是类似的,HTM 以时间为师. 事实上,训练 HTM 的唯一方法是输入随时间变化。如何做到这一点是 HTM 理论和实践中最具挑战性的部分。

HTM存储结构

因为 HTM 和人类一样,可以识别静态图片等空间模式,所以您可能认为时间没有必要。但是,如果不首先对运动图像进行训练,我们就无法学会识别图像。当你遇到一个新的、令人困惑的物体时,你可以把它捡起来并在你的眼前移动,你会从不同的方向、顶部和底部观察它。当一个物体移动并且视网膜上的图案发生变化时,你的大脑会假设未知物体没有改变。HTM 中的节点组合了不同的输入模式,并且及时重复出现的两种模式可能共享一个公共对象。时间是 HTM 的老师,用时间训练模型让计算机更智能。

HTM 的内存也不同寻常。这将 HTM 与编程系统区分开来。构建基于 HTM 的系统的大部分工作是通过将系统暴露于感知数据来训练系统,而不是编写代码或配置网络。有些人认为记忆意味着记忆的一个实例,例如“我午餐吃了什么”。其他人将内存与计算机内存联系起来。对于 HTM,两者都不是。HTM 是一个分层的动态存储系统。

HTM 与其他机器学习方法有何不同?

HTM 并不是独一无二的,因为它是一个新概念。HTM 结合了几种现有技术中最好的技术和一些特殊的东西。例如,在称为“分层隐马尔可夫模型”的技术中有分层表示,但是,马尔可夫模型使用比 HTM 中的更简单的层次结构。尽管马尔可夫模型可以学习复杂的时间模式,但它们不能很好地处理空间变化。例如,您可以学习旋律,但在使用其他键弹奏它们时无法识别它们。

HTM 的另一个独特之处在于它既是生物模型又是数学模型。HTM 详细模拟了大脑的新皮质结构。据我所知,没有其他模型能接近 HTM 的生物学。

HTM 在机器学习的应用中扮演着重要的角色。“如果我们真正了解一个系统,我们将能够构建它,”加州理工学院杰出的电气工程师 Carver Mead 说。“相反,在我们展示一个工作模型之前,我们不会完全理解这个系统。” 我们已经构建并测试了足够多的复杂 HTM 以查看它们是否有效。它们至少可以处理一些困难和有用的问题,例如处理视觉图像中的失真和差异。因此,我们可以从简单的图像中识别狗本身,无论它们是右脸还是左脸、大小、从正面还是背面看,甚至是颗粒状或部分遮挡的图像。

HTM 理论可以应用于我们尚未尝试过的许多其他问题。

目前,已经开发了HTM工具。这个工具让任何人都可以尝试 HTM 并使用 HTM 解决实际问题。HTM 工具是一组 C++ 例程,用于在标准计算机硬件上管理 HTM 网络的创建、训练和运行。它具有高度可扩展性,这意味着您可以在任何设备上运行整个平台,从具有单个 CPU 的笔记本电脑到具有多个内核的 PC 再到大型计算机集群。

人脸识别、图像识别等问题,HTM工具都是很好的帮手。

© 版权声明
THE END
喜欢就支持一下吧
点赞0
分享
评论 抢沙发

请登录后发表评论