大脑对人工智能来说是一个有用的模型吗?
782字
2020-06-30 12:47
41阅读
火星译客

2009年夏天,以色列神经科学家亨利·马克拉姆大步走上英国牛津大学的TED讲台,提出了一个并不谦虚的提议:他说,他和同事将在10年内在一台超级计算机内构建一个完整的人脑模拟系统。他们已经花了数年的时间来绘制新大脑皮层的细胞图谱,新大脑皮层被认为是思考和感知的地方。马克拉姆解释说:“这有点像给一片热带雨林进行分类。”“它有多少棵树?树的形状是什么?” 现在,他的团队将在硅中创建一个虚拟雨林,他们希望人工智能将由此有机地出现。他打趣地说,如果一切顺利,也许模拟大脑会在全息影像的照射下进行一次后续的TED演讲。

马克拉姆的想法——我们可以通过模仿生物智能的形式来把握生物智能的本质——植根于一个悠久的传统,可以追溯到西班牙解剖学家、诺贝尔奖得主圣地亚哥·拉蒙·卡哈尔的工作。在19世纪后期,卡哈尔对大脑进行了一项微观研究,他将其比作一片茂密的森林,“树干、树枝和树叶可以接触到任何地方”。通过细致地描绘成千上万的神经元,卡哈尔能够推断出它们如何工作的惊人数量。他发现它们实际上是单向的输入-输出设备:它们在树突中接收电化学信息,然后通过细长的轴突(类似于“导体的接点”)传递信息。

卡哈尔观察神经元的方式成为科学家研究大脑功能的透镜。它还激发了重大的技术进步。1943年,心理学家沃伦·麦卡洛克和他的门徒、无家可归的十几岁数学天才沃尔特·皮茨提出了一个优雅的框架,来解释脑细胞如何编码复杂的思维。他们推测,每个神经元执行一种基本的逻辑操作,将多个输入组合成单个二进制输出:对或错。这些操作,就像字母表中的字母一样简单,可以串成单词、句子和认知段落。麦卡洛克和皮茨的模型并没有很好地描述大脑,但它却成为第一台现代计算机结构的关键部分。最终,它演变成了现在普遍用于深度学习的人工神经网络。

这些网络可以更确切地被称为“神经网络”。就像麦卡洛克-皮茨神经元一样,它们是大脑中发生的事情的印象肖像。假设你被一只黄色的拉布拉多靠近,为了识别这只狗,你的大脑必须将来自视网膜的原始数据通过大脑皮层中特殊神经元的层层传递,这些神经元挑选出狗的视觉特征,并组合出最后的场景。深度神经网络学着以类似的方式解构世界。原始数据流从一个大数组的神经元通过几个较小的组神经元,每个池输入与前一层的方式增加了整体的复杂性:第一层发现边缘和亮点,接下来结合成纹理,这下组装成一个鼻子,等等,直到出现一只拉布拉多。

尽管有这些相似之处,大多数人工神经网络显然不是像大脑那样的,部分原因是它们学习的数学技巧对于生物系统来说,即使不是不可能,也是很难实现的。然而,大脑和人工智能模型确实有一些基本的共同点:研究人员仍然不明白为什么它们工作得这么好。

计算机科学家和神经科学家追求的是一种普遍的智能理论——一套在组织和硅中都适用的原则。相反,他们所拥有的是一堆混乱的细节。在马克拉姆提出他的模拟大脑已经11年了,耗资13亿美元,但并没有对智能研究做出根本性的贡献。

作家刘易斯·卡罗尔在一个多世纪前就指出了这个问题的一部分。卡罗尔想象的这个国家是如此痴迷于制图的细节,以至于不断扩大地图的比例——6码到1英里,100码到1英里,最后一英里到1英里。一个国家大小的地图的确令人印象深刻,但它教给了你什么呢?即使神经科学家能够通过忠实地模拟大脑中的每一个分子来重新创造智力,他们也无法找到认知的基本原理。正如物理学家理查德·费曼的著名论断:“我不能创造的东西,我也不理解。”对此,马克拉姆和他的制图同事们可能会补充说:“而我所能创造的,我并不一定了解。”

0 条评论
评论不能为空