主题:【原创】围绕脑科学而发生的若干玄想 -- 鸿乾
结果很不错啊。近几个月在概念上和技术上进一步确认了我们的想法。由于我们自己不做基础研究的,所以在寻找基础研究方面的合作伙伴。
我嘛,嗯,算是有半只脚站在人工智能这个圈子里边吧。不过更偏向算法一块。
我工作的公司有很大一块是在眼科的诊断设备,治疗设备上。自己这两天在想方设法地分析人的泪膜。
因为我这里提到DARPA,因此在这里给个链接:
解密DARPA的机制与文化
http://www.1000plan.org/qrjh/article/24773
希望大家有兴趣读。就我自己的经验看,这个记者的描述还基本上接近实际情况。美国人的这个科研经费管理和科研方向和进度管理的制度有其独特的优势(当然也有其很大的劣势)。中国需要,至少是部分需要,类似这样的一种能够创新能够突破的制度。目前的各种计划都不是能够创新能够突破的制度,还是紧跟和山寨的根子。
本帖一共被 1 帖 引用 (帖内工具实现)
虽然比较难以启齿。 面对这个知识爆炸的年代,我需要人工智能代替我去google,学习新知识,只要告诉我最好哪个方案最好,甚至给我当军师,当老师,为我做重要决策,处理日常方案,比如一般性的事物工作,技术工作,这样把从80%的日常工作中解脱出来, 我可以去做更重要的事,比如如何提高人工智能的水平,或者延长寿命等,或者干脆就去旅行,做撒手掌柜,专心做人该做的事,养儿育女。
最好的是人工智能可以自我衡量,然后通过自我更改来提高,这样就真的不用去管了。而且还可以有不同分工的智能,有的精通历史,有的精通数学,有的专门管理,类似人类的术业专攻。
当这一天到来时,真正的问题是这一切与我是什么关系。 如何才能保证我是得益者,或者说握有控制权。
现在我们知道,从40年代兴起,而在70年代达到高潮的人工智能热,是基本上想错了方向(当然,其中产生的成果是非常丰厚,非常值得的)。人工智能按照那些方向,是基本上不可能的事情。
你说:“几乎所有的对人工智能报有兴趣,期望的人,都是在潜意识里边希望每一项得到的人工智能都达到不低于人脑所能达到的高度”。这就是基本的错误思路。
其实,我们应该把人的智能(或者说人的脑力活动)分成若干层次。第一层,即我说的信息处理层次,计算机已经比人做得好,好很多。第二层次,即学习能力,计算机才刚刚开始,或者说这方面的工作才刚刚开始。我认为,这个层次的人脑能力,完全有可能为计算机掌握。过几十年后,我们完全可以期望计算机可以有至少小学生的学习能力。这样的计算机再加上人工编程介入的能力,将在事实上超越目前的大多数人的智力(请注意不是智能)。
但是人脑的能力,远不仅止于学习这一层。从这样分层的角度看,那种眉毛胡子一把抓的各种图灵实验各种人工智能实验,其实没有抓住问题的实质。这是我的基本想法。
是认为人脑的基础过程是hierarchical pattern-recognition,而且他估计人脑大概有3亿个基本的pattern recognizer,而这些基本的pattern recognizer通过相当复杂和灵活度相当大的链接组成更复杂的更高层次的pattern recognizer。
这个思想当然不是他的最初原创。事实上Hawkins的书也如此说明过。不过我认为他比Hawkins说得更加明确和直接。其实谁有最先发现权这个问题不是大问题,我们应该留给这方面的专家去评论。对我们来说,核心的是,是否接受这种关于人脑内部的基础过程的见解?
其实这种接受与否,很难说是科学的,很大程度上是一种信念,一种相信,一种说不清楚的情绪。坦率讲,我个人是信的。那么,如果相信这种见解,是否可以利用这种见解来做什么事情?这才是更令我们关心的事情。
我完全同意你的比拟。十九世纪末期,人们观察鸟的飞行,幻想能够像鸟一样飞行。但是,各种努力都失败了。成功的是怀特兄弟,他们认识到,其实最核心的已经不是像鸟一样飞行,核心的是如何利用气动升力(在他们之前,人们对气动升力已经有了足够的理解)来获得对飞行器的控制力。一旦思路对了,很快也就获得突破。现在的情况,我想也是如此。核心的已经不是全面模拟人的智能(事实上是还非常早,基本上还不可行),核心的是,如何从简单的pattern recognizer入手,以及这些pattern recognizer的上层,更上层结构入手,来达成一些比较实际的目标。如同怀特兄弟时代一样,谁能够先掌握这样的基础结构,谁就能先行飞起来。
如题。
非常好的文字,但是我几乎没有能够看到,因为没有人回复,被掩埋到了下面。
【原创】智慧的诞生 [ 看树的老鼠 ] 链接出处
他很多地方比我写得好很多。我赞同他的好些说法。
我自己的工作算是较浅的机器学习。和真正的人工智能只算是稍微擦点边。所以,发表的东西只好说成是胡思乱想了。
不过,现在严肃的学术期刊上也较少提真正的人工智能(如果我们把本楼中的各种畅想当作真正的人工智能),因为没法量化定义,实用主义的倾向比较重。
河里有一个好帖,可以带我们感受一下学术界的气氛。
[URL=【原创】抛砖!模式识别和机器学习、数据挖掘的区别与联系]/article/3014945[/URL]
有时间的时候,我会看看能不能结合现在的学术研究进展,做一些尽量严肃的猜测。
本帖一共被 1 帖 引用 (帖内工具实现)
的想法混合的帖子。不过要等几天了。
其实,不提人工智能就对了。因为现在我们已经很清楚,当初的那个人工智能热,其实是偏了方向,至少是文不对题。但是,实用主义就对了。如果能够从人脑的一些线索出发,获得一些有实用价值的软件硬件产品,就很好,事实上是对人工智能的有力促进。
你提的那个帖子没有读过。谢谢推荐。看来是好帖,需要仔细读读。
下面就看你的了,请介绍你的这些想法:“那些参数是在试图抽象什么东西”。这是非常有趣的。
这个贴子没有看到过,其中尤其对几本书的推荐很不错。
还有一个不错的入门介绍,感谢这两年的网上开放课程兴起,Stanford的Andrew Ng那门机器学习课程基本把这些内容都概括了,这个领域发展太快,每年都是一大堆新书与paper,但是这个课程让人至少对分门别类,名词解释有个了解,少走点弯路。https://class.coursera.org/ml/lecture/index
Google从Youtube上找了许多视频截图,然后把这些视频截图送入一个多层的autoencoder。
什么叫autoencoder? 视频截图有200*200个点,每个点上的颜色又可以是255个灰度值。也就是说,所有可能的截图数量是255的400次方,大概是10的323次方。Wow,好复杂的世界!但是人会抽象啊,人在这些图上看到的不过是:克林顿、希拉里、汤姆汉克斯之类的东西。更抽象一点,看到的不过是人、汽车、猫之类的东西。
那么好,机器能不能抽象出这些概念?autoencoder就能干这个事情。它是一个三层神经网络,第一层是200*200个神经元,第二层吝啬一点,只给1000个神经元,第三层又是200*200个神经元。相邻层之间有连接,第一层和第三层之间没有。然后逼着机器学,给你一堆截图,你必须用1000个神经元尽量记住这堆截图,我不管你怎么记,反正在第三层你得尽量给我把截图给还原出来。
机器会很苦闷,但是还是被逼着学。基本上学出来的是一些线条。人可能会大失所望,我要你学概念呢,你怎么学出线条来了?机器会想,要是你脑子只有1000个神经元,你也会和我一样傻!你不觉得线条很有美感吗?这是艺术家的头脑啊!
不管怎么说,人是不满意的。于是仿造人脑,多给机器几层神经元、多给机器一些神经元。毕竟人脑的每个脑区有6层,这些脑区还有上下级关系,至少也是几十层。现在第一层不变,第二层20000神经元,第三层10000,第四层5000,第五层4000,第六层2000,后面层依次是2000、4000、5000、10000、20000神经元。(每层的数量是随手写的,但思路没错)
好了,现在有一个这么复杂的大脑,机器该聪明一些了吧?
事实果然如此。在训练完这个大脑之后,Google的研究人员在这个大脑中寻找这样一个神经元:它每次看到人脸就兴奋,看到其他图像就发呆。如果这样的神经元存在,我们能不能说抽象产生了,概念产生了,知识产生了?我觉得可以。
这个神经元……很遗憾……哈哈……我在开玩笑!这个神经元真的存在,它能够达到大概~80%的正确率!!
写到这里,我真的是非常非常的兴奋,我们可没有告诉机器,说你要给我抽象出个人脸,我们只是让机器不断的看,机器也没什么方向,它只是觉得,我得找到一种最好的抽象的关于图像的模型,让最后一层我还原出来的图像和输入图像一模一样,免得你又骂我!结果,“人脸”出现了!
为什么会如此神奇?也许是因为,我们的算法和上帝的算法一样,我们的大脑和人脑结构一样。同样的输入,自然会产生同样的结果。如果上帝的算法变了,也许人都无法形成“人脸”这个概念。
另外,还有两个副产品是猫脸和人上半身的图片,反正机器形成了这个概念,我们也不知道它怎么想的。
本帖一共被 2 帖 引用 (帖内工具实现)
Spaun我之前一直都偷懒没看。多亏你介绍,我才又想起这回事。Spaun也挺有意思的。
看的出你对这个方向有着长期的跟踪,是兴趣还是专业啊?我记得你不是学哲学的吗?
我不是这个专业里的,但是华人圈子里做这方面的人很多,自然就经常会聊到这个话题。更主要是早年做股指的过程中开始对此感兴趣的,那时AI还是低潮期,机器学习与模式识别可能是在自动化领域里的提法,计算机方面概率统计比较多,专门找机器学习与模式识别方面的信息还不容易,不像现在机器学习与模式识别成了流行词。
类似楼主,我们的希望都是交流拓展,吸引你这样的专业中人增长知识,因为知识更新的很快,跟踪也是难题。一个原因是,随着年龄的增长,做任何事都越来越讨厌走弯路,大概意识到人生的短暂时间的有限,而科技发展的高速很大程度与互联网开始以后的广泛交流有关。举个例子,前几天看到一个词,叫现在的人为“Google”一代,意思是说我们都已经习惯与把最基础的知识交给google了,用的时候找一下就好,这样每个人的知识领域都可以扩大许多,而扩充眼界的一个好处是一个领域要解决的问题可以从更多更高的角度着眼,得到事半功倍的效果。有趣的是,这个曾经被当作问题仅仅在两年前还被广泛辩论过会不会让人变傻,如今人们不但习以为常而且接受了这个事物。这种意识上的快速发展有时让人有时不我待的感觉。
从这个角度出发,要感谢的是我与楼主,能够让这个话题跨越已经比较普及的常识阶段,比较快的进入一些有深度的话题,比如你提供的那个河里的链接,虽然是两年前的,但是他的那个有关predication与data mining的解释作用的分类方法就很开眼界,如果他能够继续讲一些什么样的问题比较适合用哪些算法,尤其是比较新的发展就更好了,我想这些对你们这个专业中的人也是有用的。
我一般常去看看quora那样的网站,与一些相关的新闻聚合,可以节省不少力气。更重要的是,每个行业里都有重要的战略方向的争论,往往是许多专业fulltime的人在第一线的经验,这个是局外人很难接触到的。好在这两年这个话题忽然热起来,各行各业的人都开始介入,对知识分享与传播的好处大大,但是同时一些本来透明的project,大牛却忽然开始销声匿迹起来,不由让人更加好奇,也许是商业化价值的出现让人如此,那就很可惜了,因为我认为这个领域还有不短的一段路要走,泡泡有好处,但是现在许多半生不熟的产品挂个机器学习的牌子就出来卖钱,噪音太多,promise太多,但是对真正做的不错的产品神秘感又太强,引起许多没必要的争论。
谢谢。这个描述很好。是否有公开文献?还是仅是内部的知识?如果是这样的话,那就更加宝贵了。
你讲到的这个实验,这么多元的神经元(什么样的神经元暂且不说),这么多层次,不是小实验室能够做得出来的,花费其实很大。元之间的连接是关键,如何连接,如何提取参数,如何监视,如何训练,都是特殊技术。这些都是需要逐渐摸索的。而一旦谁摸索出一套可行的方式,谁就可以占到极强的先手。
我想,如果更深入挖,可能还可以显示里面的统计实质。据说,很多神经网络连接,在深挖后,多少和隐马尔科夫有关系。如果能够通过深挖而获得理论性的进展,就可能更进一步,那时上帝的算法就成了人的算法,飞跃就产生了。
祝贺你,能够亲自经历这样的发现,是难得的快事。我们能够尽快听到这样的发现,也是快事。希望多多分享。
我很向往这种境界。花时间在自己感兴趣的事,不怕慢,反正人生的意义只有自己懂。不在乎非要达到什么高度,反正天赋勤奋摆在那里。思考学习中有一点收获,就窃喜不已。能和人分享最好,但也不为了证明什么。
老兄的帖给我这种感觉,冲淡平和,自强不息。