西西河

主题:【原创】围绕脑科学而发生的若干玄想 -- 鸿乾

共:💬461 🌺824 🌵2
全看树展主题 · 分页首页 上页
/ 31
下页 末页
家园 学习与创新

关于大脑容量的问题,应该除了总的神经元数量与相对应的链接数量外,有个信息路径的优化问题。从生物与物理角度讲,前者无疑是有个上限,但是对这个上限的未知,我想除了有其数量的庞大与计算上(比如链接与知识的储存关系仍然没有完全理解)的困难外,很大程度上应该是其路径优化与知识之间的关系的未知。

从经验上看,人对抽象知识的学习能力似乎没有上限,现代人与古代人的区别主要在于此。而人的基本生物本能,这些经历过千万年进化的基本技能基本上没有太多的学习容量,我们常说的体育靠天才就是这个意思。

已知的是人脑对重复信息输入的加强,这个广义上的“输入”也包括人脑自身回想对信息的再处理加工,所以一个人对某些知识的了解的越多越深入,加入自己东西的可能性就越多。另外,同样的外界信息输入,在每个人大脑中储存想当然也不尽相同,因为语言文字不过是信息的载体,即使是图像实物,每个人的接受也不会相同,何况一个人的知识通过这些载体传达到另一个的大脑中,因此这个“Garbage"是存在很大的定义空间的。

如果用计算机来比喻的话,脑神经显然不是CPU,也许逻辑门还类似。但是与计算机的主要区别,至少Von Neumann计算机的区别是,大脑的智力产生是靠的神经元之间的链接,信号的传递是大规模并行处理的,不但我们所谓的记忆是存在与这些信号传递的路径中,甚至我们造出计算机的逻辑也不过是存在于某种抽象层次上的链接方式上。

显然这个路径的优化是有着去除噪音,加快反应的益处的。但同时也可能丧失刺激触发对其他知识的连锁反应的可能。我们所谓的"jump the gun", 就是一种优化太简单过于轻易下结论的现象,有时这样的回路过于固化以至于人失去了学习的欲望与能力,不能有效处理新的知识,比如人们常说的思维僵化等,但是这是大脑优化的自然伴随结果,因为优化是大脑应付知识吸收的必然过程,只有不断的归纳分门别类才能不断接受新知识,容纳储存更多的信息。

创新现在是人工智能的死穴,当然也可能是因为人工智能的总能力还没有达到一定高度所致,也许随着智能的提高,概括总结能力自然就随之而来了创新,这个现在还没有结论。但是明显的,与学习有着不同的行为模式。学习的过程是个吸收储存并形成固定的输出模式的过程,这里有低级的技能,也有复杂的技能,但总是在大脑中形成一个相对固定的信号传递模型,从而对未来的信号输入可以产生“靠谱”的预测。比如看过一个例子是眼睛失明的人,在实验中通过在舌头味蕾上接触电极通过视频,训练大脑的味觉区域达到“看”的目的,获得了一定程度的成功。

而创新的过程,在于人的计划能力,目的设置能力(虽然这些能力也可以通过学习获得)上的一个重要组成部分,简单说就是问题的解决能力。自然这里面很重要的一个部分是利用学习到的知识,但是创新的主要区别在于主动的去构建自己的知识模型。当然这里面的边界也很广泛,考试答题也一定程度上经过这个“改变自己的行为模式”才能举一反三,来对付那些测试灵活运用知识的考试。但是,我们常说的创新,自然是在更复杂更广泛意义上的,但基本道理仍然是人类解决问题的过程相同的,虽然是人类学习适应环境生存的学习过程的一部分,或者也可以称为最高级的学习方式,但其本质上与常说的学习含义不是一回事。

家园 我的感想1:生物脑的原理应该是基于一个简单原理的大量重复

不能把脑的原理想得太复杂。

回溯历史,人一直把生物体想得过于复杂神秘化。

开始的时候,认为生物体和非生物体是完全不同的材料组成。直到发现人工氨制成,才破除对生命体材料的神秘感。

后来遗传机制也想象得很神秘很复杂。后来直到发现DNA结构才恍然大悟,原来其原理极其简单,就是4位编码大量重复。

根据这些历史规律,我有理由推理,生物脑只是基于一个简单原理的大量重复。应该没有什么特异的算法,生物脑的算法原理应该是很简单的。

如果想从生物方向研究人脑,应当退回去研究线虫的神经或果蝇的神经系统。从线虫得到的基本原理,将会解开所有生物脑功能的基本原理。

感想2:人工智能不应当去模仿人脑。

即使有一天,我们从果蝇身上发现了脑细胞运作的基本原理(这必然是一个极简单的原理的大量重复,猜想也是效率极低的),也对人工智能没有任何帮助。因为这种基于化学信号为基础的,链接可随意变更的系统,我们没有任何办法模仿。

如同下面有人提到的,我们不能模仿鸟飞翔一样。

人工智能应当抛弃模仿生物脑的想法。

感想3:过去一些人工智能误区

曾经很多人想出稀奇古怪的算法为目标。认为人脑一定是基于一些稀奇古怪的神秘算法来运作的。

发明很多没有明确的内涵外延的稀奇古怪的词,智能,灵感,艺术,自主意识,自我意识。。。并以此为追求。

这些词和想法,在科幻小说中很吸引人,但其实并无实质含义。谁也说不清在找什么,属于车库中隐身喷火龙。

感想4: 人工智能应当以功能为导向。

应当抛弃一些虚无缥缈的想法,模拟人脑,自我意识。甚至“人工智能”这个词本身就应当抛弃。“人工智能”这个词就不是有科学含义的概念,只是一个吸引人,骗经费的噱头。应当以一个个具体的功能为导向。语言识别,图像识别,人脸识别,空间定位,机械手控制,电脑医生,自动驾驶。。。

这些功能就是人工智能,但并不存在一个笼统的泛称的“人工智能”。“智能”这个虚幻的词本身就把公众搞得神秘化。

这些功能的组合就是人工智能。如果一黑盒子,看上去像智能,听上去像智能,摸上去像智能,那就是智能了。

(图灵的黑盒测试想法,非常有深刻的远见,图灵和过去一般认识的所谓“智能,灵感,创造”是不同的。)

所以,我认为,现在Google,IBM这种基于大量信息搜索的办法,就是人工智能,虽然和几十年前的我们心目中的“人工智能”完全不同。

感想5: 一些所谓的“灵感,创造,艺术,自我意识”,到那时候就自然出现了。

我们现在做的如同蚯蚓智能。蚯蚓,并没有刻意去发明什么自我意识和灵感,创造。蚯蚓只是千方百计去做一个更好的蚯蚓。

只要我们不断去做一个更好的蚯蚓,更复杂的蚯蚓,终有一天,我们就不知不觉地发现,那个黑盒子好像感觉起来有了“自我意识和创造力”。

通宝推:明心灵竹,牛栏山二锅头,不远攸高,

本帖一共被 1 帖 引用 (帖内工具实现)
家园 前几天不是有新闻说宇宙与大脑的相似性

甚至说宇宙就是一台计算机么。

除了google与IBM这样的机器学习外,现在说的人工智能一般是指Artificial General Intelligence.与功能导向的“智能”比如自动驾驶,图像识别等已经不是一个范畴了。当然传统意义上讲都叫人工智能。

图灵回答了智能来源问题,但是其局限性在于其定义智能由人来决定的。如果是黑盒子在测试人呢。

脑科学的reverse engineering除了人脑外,也包括对小白鼠,苍蝇什么的脑的研究。这个不是问题,问题是如何“山寨”上,或者在什么程度上仿制的问题。飞机的制造至少是在弄清鸟类飞行的物理学原理后才可能的,大脑智能的产生原理现在还不清楚,机器学习是把大脑当成数学计算来模仿,但是大脑显然也不是在做数理统计来运行的,人的意识是deterministic的,一旦有了决定绝不犹豫。不过显然也不是专家系统那么简单,至少现在机器学习所得到的结果还要好很多。

google几个月前与斯坦福的那个华人教授一起做的机器学习能够自我学习识别猫脸,热炒了一阵子,后来据说效果也不好不了了之了。这两天又把Kurzweil弄去了当个什么director,大概要试试他这套了。总之,一个核聚变,一个人工智能,谁先做到,谁就是未来的主宰了。

家园 这就是机器学习的想法

简单而明晰的规则,大量数据采样而学习,从而遇到新样本给出判断.

小样本也可以学习,但最终还是由统计走向智能.

家园 人工智能孜孜以求突破的瓶颈 至少有两个

1,计算的复杂度,以及是否可计算的判断

这是算法研究的根基。任何算法,都必须建立在当前可行的计算模式/硬件实现上。而算法的分类从某种意义上讲就是直接对算法可执行度的标记。无法利用现有的模式/硬件在有意义的时间内完成的算法 ---- 一个瓶颈

2,计算的可靠度

针对上一个瓶颈,大量的新的计算模式被提了出来。超越摩尔定律,把不可计算的算法变得可计算,并行计算,光计算,细胞生物计算,化学计算,乃至目前比较火热的量子计算 ---- 但是,所有的这些,都必须经过计算可靠度的评判。---- 这又是一个瓶颈。

家园 人脑并不追求最优解

根据目前的情况,权衡得失作出判断,这个才是人脑的思维模式。达到这个水平的人工智能,是有可能的。

退一万步说,人造智能是不是能够到达正常人的智力水平,并没有在理论上被证否。

人和动物的区别在于会不会制造工具。自动化生产表明冯纽曼机的实现是完全有可能实现的。目前的问题是机器会不会有自我意识。其实这个是伪命题。因为自我意识是可以描述的,所以也可以编码实现。

当然,人工智能和人的智慧是不同的东西,肯定有不如人的地方和超过人的地方。

家园 有名的Moravec's Paradox

说的就是这个人与机器各有长短的地方,历史上早有结论了。

家园 最近的研究发现是数字模式

触突之间的信号通过spike的有无,也可以看作是1与0,而不在于spike的强度,不知道这样理解对不对。

家园 一个关于“智能”的笑话

上大学时听的一个笑话。说我们系里的教授这些老一辈人搞人工智能的聚在一起谈感想,到底嘛叫“智能”?“智能”到底是个嘛玩艺?他们为这个问题简直是伤透了脑筋。

有一天某教授经过在人工智能领域上若干年的苦心孤诣,又经过若干日的苦思冥想,终于悟了,告诉了大家这个带有幻灭感的终极答案:

“智能”原来是个.......和尚!

家园 有几个论述要澄清一下

后来直到发现DNA结构才恍然大悟,原来其原理极其简单,就是4位编码大量重复。

这个DNA不是4位编码吧?3连体编码才是DNA指令蛋白质合成的规则的最小单位。

问一个问题,为什么遗传密码是3位体而不是其它位数?换句话问,遗传密码的最小位数应该是多少?

这些功能的组合就是人工智能

智能同功能是一回事吗?智能的定义是什么?

生物脑只是基于一个简单原理的大量重复

是那么简单吗?生物脑至少应该用布尔逻辑这样的原理运算吧?生物脑是不是一个电器官或电元件?为什么生物脑神经运行时有电信号伴随?

家园 玄想2:从信息处理机到学习机,从学习机到。。。

终于可以坐下来写帖子了。

首先感谢各位在过去几周的回复。总之,读了各位的回复,我是感到我很值得了。写的东西不怎么样,但是大家回复都很认真,信息量很大,我受教多多。特别是Fuhrer河友,他推荐的书很有趣。我在旅途中读了一些。感到很受启发。因此也愿意再次推荐给各位。不过也愿意推荐一个对这本书提出相当严苛批评的文章,链接是:http://www.newyorker.com/online/blogs/books/2012/11/ray-kurzweils-dubious-new-theory-of-mind.html

正反两方面的意见都读,比较有意思。其实批评无非是说那个Ray的论调早就不是最新科技,很过时。这个对于我们外行来说,不是问题。

正因为读了这本书,也算是应当几位河友的回复,就先来谈玄想:从信息处理机到学习机,再从学习机到更高深的机器。本来的想法是先谈其他认识论方面的玄想。不过,事情已经发展到了这里,先谈学习机,正对时景。也希望同样可以获得河友们的积极讨论,而有很好的收获。

我个人的意见,我们可以按照这样的层次来划分人脑的活动:1)信息处理活动;2)学习活动;3)其他更深层次的活动。这样的分类,当然非常粗糙,而且显得功利性极强。不过,我就是因为功利而这样分的。权且这样分吧。不过,我还是有些相信,这样的分类事实上反映人脑的活动和功能的某种内在的指标。

那么什么是信息处理活动,什么又是学习活动,什么又是更深层次的活动?

信息处理活动当然范围很广,但是,最典型的信息处理活动,可以用图书馆管理员的活动来标示。分类,整理,简单的算术,登记,等等。很多更深层次的脑力活动,例如,计算初等代数,计算微积分,二值逻辑运算和推理,等等,其实也应该算到信息处理活动里面。我想,这里的深入讨论恐怕需要相当的精力,还是让我们利用论坛的特点,先把下面的话说了,以后再在互动讨论中来细致讨论。总之,信息处理活动,基本上就是现有的计算机可以做的,而且做得很好的那部分。人脑的这部分的能力,其实是相当晚近才发展起来的能力,也就是文明时代才逐渐发展起来的能力。在信息处理方面,机器已经比人做得好得太多,现代计算机已经在这方面全面超越了人脑的能力。

计算机具备处理信息的能力来源于编程。而人具备处理信息的能力来源于学习。因此学习活动是比信息处理活动更高层次的活动。现代技术机仍然具备上不具备学习能力。虽然有了若干成功的学习机器,例如,Siri,Watson等等。这些机器(或者说程序)已经在实际上具备一定的学习能力,也就是说,可以在训练过程中获得一定的处理信息的能力,然后在使用过程中,运用这种能力。但是,如果更深入看,这些机器的基本能力其实还是来源于编程,其学习过程事实上是一种获取外部数据而充实到自己的内部的过程。人脑的那种学习活动,目前还没有机器可以比较完善地实现。人脑的学习活动,我们还不需要走得很深,从婴幼儿的发育说起。我们仅以一个比较简单的例子,小学生学习算术,来说明。老师讲几个原则(其实这几个原则以及远远超过了皮亚诺公理,如果人脑是电脑的话,这几个原则就可以编程人脑的算术能力了),发一些练习,学生做作业,老师批改作业,逐渐地,学生就能够理解原则,可以举一反三,做所有数的算术了。当然这个逐渐是好几年,甚至有些人永远都不能获得这种算术能力。这就是学习,而不是编程。

超过学习活动的人脑活动,我们可以认为是更深层次的,我们目前还不能触及,也没有必要触及。人工智能其实是一个比较不很实际的课题。在目前的情况下,我们没有必要非常深入探究人脑智力的全部,我们完全可以局限在信息处理,和学习这两层上。现代计算机已经可以很好做信息处理,但是还不能做学习。下一步的发展就是要让计算机能够学习,或者说具备类似学习的功能能力。计算机发展了这两层能力,离开真正的智能,其实还差很远。提出人工智能其实不过是计算机发展初期人类的一种意识混淆,一种人为恐惧而已。机器发展离开人工智能还非常远。我们用不着操这个心,也操不了这个心,操心了不能产生什么成果,围绕这个话题的大量的工作其实并不很有效,很有生产力。

但是,让计算机器具备学习能力,是已经推上日程的重大课题。这是几个方面共同促成的。一方面,很多信息处理任务已经很难为有效的编程来达成。玩Jeopardy的那个Watson就是很好的例子。自动驾驶也是这样的例子。另一方面,最近若干年,计算机的机器学习技术也有了很大的提高。虽然我认为,大的理论的突破还是没有的,但是很多方面的确有很好的进展。这里给一个链接,是斯坦福的公开课程,还是很有意思的。https://www.coursera.org/course/ml 看视频学新技术,不费力,还好玩,我是下载后,在旅途中等等时间片段,看看这些视频,感到很好。还有就是市场需求也正在积累,对具备学习功能的机器和程序的要求也越来越大。因此,我深感下一步的重大发展就是让计算机器具备学习能力。

其实即使是计算机器具备了学习能力,例如理想地讲,可以从空白开始学习算术,这种计算机器也并不能和人的智能匹配。人的智能远比这种学习能力要深。我们没有必要现在就陷入这个题目。等到几十年后,学习机已经很发展了,那时再来谈机器智能也不迟。

那么如何实现这种具备学习能力的机器?还是必须要从两个方面进行。一个方面是理论的,学习的理论,一个是实际的,就是建造一些的确具备某种学习能力的机器,哪怕是很粗陋的机器很低级的学习能力。另外,我认为,重要的是建立通用的学习机。目前的那些学习机,例如Siri,Watson等,都是非常专用的,是采用了特殊数学模型的,采用了特殊编程的机器。这样的机器,和通用的学习机将很不相同。通用的学习机和现有的那些专用学习机比较,恐怕就像通用计算机和历史上的那些专用计算机(例如计算弹道的模拟计算机等)比一样。

究竟怎么入手考虑通用的学习机?下个帖子再继续了。非常欢迎各种设想和意见,反正我们是玄想,什么想法都是好的。

家园 有关Kurzweil新书的那个评论当时也读过

但是我认为他的评论中除了指出Kurzweil观点的来历与一些其他人的研究成果外,这个评论其本身观点也有很多问题。

比如,Kurzweil不是唯一提出hierarchical pattern-recognition的人,以前的不了解但是几年前Jeff Hawkins的那本On Intelligence(现在国内有中文译本了)就是总结了许多前人的经验提出过HTM的架构理论(youtube上有的是他的演讲),类似的批评一直就没断过(他的书一出来我就读过,2005年的光景),无非就是Hawkins本人不是行业内人有抄袭之嫌等等,但是把AI与神经科学领域多年(八,九十年代的AI是低潮)的零散发现,研究总结概括并作为一个单独的理论结构推向大众,Hawkins的工作还是很有意义的,虽然他据此的实践(numenta)这几年的发展并不像他早年的Palm手机那样成功。

Kurzweil的书中也提到了Hawkins并比较过两者的区别。Kurzweil不同的是他本人是行业中人,而且还是著名的语言识别软件Nuance的founder,他提出的观点自然比Hawkins的信用度要高得多。重要的是多人的肯定甚至批评者也没有否定的是这个hierarchical的大脑皮层结构以及模式识别的基本原理在多个层次中的重复理论(recursive)。Kurzweil本人对这个架构的数学实现据他书中提到的也是八十年代九十年代的事情了。因此这个当然不是什么新的理论,只不过他没有出书宣讲就是了,他自己这么多年在做什么,还都要拿出来讲么,出书的肯定是最基本的原理部分,能告诉大家都就是仍然还是那个原理就是了。

这个原理的意义是说,这些都是在大量脑科学临床,科研多年的发现基础上得来的结论,不但比较公认而且是很基础的。我的理解是类似飞机是如何飞到空中这样的空气动力学基本问题,是中学物理中就会教的。但是因为属于科学中比较近期的发展,以后可能会进入中学课本,但是现在只是做为一个比较基础的原理存在,别人就可以不必在脑科学这些基本原理上重复做发现工作了,因此没有所谓过不过时的问题,只是一个基础性的工作而已。至少大家不需要把大脑想的很神秘,或者对大脑神经元的信息流动与知识/思想/意识是如何产生的去重复以前这几十年的发现工作。人工智能仍在发展,但是脑科学已经有了不少重要的基础性原理了,只是仍需普及罢了。

我在读到这个原理时印象最深的部分是这个hierarchical的塔形结构,实际上是世间万物的结构,人脑的认识,后者智能的产生于自然界中这个结构上分不开的,因此意识也只能是如此构造的,包括人的语言。比如刚看到一个问题,http://www.cchere.com/article/3834387, 提到以人的思想去理解思想的产生,这是一个悖论。似乎听起来有理,但是如果理解了人的思想产生本身就是人对外界(包括自身)这样的结构的映射,就不会产生类似悖论的困惑了。

至于在此基础上使用的数学模型,大概就不能简单的把问题归因于这个基本理论上了。 不同的人实践不同,产生的结果也不同。比如google这个识别猫脸的实验,记得哪里看到过是做的deep-belief NN,以此来评论Kurzweil的基本观点,似乎不妥,因为NN的实现虽然与这个hierarchical的模式识别类似,但结果不理想更多可能是实现起来的做法与模型上的问题,到不了推翻理论的程度。这方面现在实践的很多,加拿大多伦多大学最近的那个做的就不错。

猫脸实验后google把Kurzweil找去,更说明了google在这个实验上的态度,我们大可拭目以待。


本帖一共被 1 帖 引用 (帖内工具实现)
家园 花!

我觉得楼下油老板说得有道理,未必要最优解,也就未必追求复杂可算,实在算不了就快刀斩乱麻。同时也未必要求可靠性多高,能归纳多少就归纳多少,运气不好的就自然淘汰。也许我对您的意思理解不对,那就多多包涵了。

花!
家园 咳,咳,你太客气了

问题在于,我们,或者说,几乎所有对人工智能报有兴趣,期望的人,并不是说人工智能的目的在于克隆出一个机器的人类社会 -- 这里边有聪明的机器,有白痴的机器,有学习快的机器,也有退化的机器。。。 -- 我们人类社会不就是这样的么。

相反,几乎所有的对人工智能报有兴趣,期望的人,都是在潜意识里边希望每一项得到的人工智能都达到不低于人脑所能达到的高度(以替代人脑) -- 换句话说,是否最优解姑且不论,至少是要真的在无人干预的情况下解决问题 -- 这样一来,计算的复杂度和计算的可靠性就自然而然地成为这门学科的目标。

家园 倒是没想到您说的这个思路

不过我想也应该先做出点低于人类高于好比说狗的东西来玩玩吧。忽然想到,要是我没记错的话,您不是真的搞人工智能的吧,好象您是搞人眼的,或者说是红外或微波成像的,您上回说的那东西最后结果如何?

全看树展主题 · 分页首页 上页
/ 31
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河