西西河

主题:辛顿,李飞飞,和AI之问 -- qq97

共:💬35 🌺176
全看树展主题 · 分页首页 上页
/ 3
下页 末页
家园 辛顿,李飞飞,和AI之问

(这只是个话题帖,这个帖的内容没做过认真考证,如果我对辛顿、李飞飞以及AI的理解有浅薄谬误之处,请内行的河友指出来)。

这个帖本来是

AI有真正的人类智能吗?AI会有类似的人类智能

的回帖,不过那栋楼已经歪到了华女嫁洋人去了,想了想,重新起个楼也无妨。

在那个楼里,我问了个问题:

AI有真正的人类智能吗?这个问题现在似乎还是没有公认的答案。曾经跟同事讨论这个问题,大模型有人类的智能吗?依据什么标准?

我的看法是,大模型归根到底还是基于对海量数据进行统计分析做出的规则,即使大模型能发现某些人们尚未发现的规律,也是因为它的统计能力更强得出的归纳,AI相当于一个特别特别特别博闻强记的人,但它能不能发现两个统计相关的事物之间的内在逻辑?

说到底这还是对人类的疑问,人类还有没有超出博闻强记、海量统计归纳的能力?比如,AI能不能发现相对论,量子力学?穿越回1928年,AI能不能写出《红色政权为什么能够存在》《星星之火,可以燎原》?

我的看法,倾向于否定,起码在目前的大模型阶段。

对这个问题,AI教父辛顿的回答很肯定,他认为大模型具备人类智能,且可能还会超过人类。辛顿是研究心理和人类认知学出身的,他认为神经网络深度学习模拟的就是人类大脑的运作方式,人类大脑的神经元就是在不断的外界信息刺激下不断地建构神经元之间的连接强度,神经网络深度学习和大模型就是这个过程的完全模拟,换句话说,对世界纷繁事务之间的关系的统计就是人类对外部世界的理解和学习的真实过程。所以,人类能做到的,大模型也应该能做到,甚至做得更好。

而AI教母李飞飞的回答则没那么肯定,作为一个计算机科学家,她认为神经网络深度学习大模型不过是计算机算法对人们以为的人类大脑运作模式的一种模拟,但人的大脑到底是怎么运作的,谁TM的知道?!所以她的回答只能是,AI在未来具有真正的人类智能是可能的。

我一直觉得这个问题实际上是个哲学问题,需要哲学层面的回答。

在技术层面上,我的看法跟李飞飞更接近:起码目前大模型的这种方式不能具备真正的人类智能,就算是辛顿说的统计即理解的看法是正确的,目前从AI到真正的人类仍有着无法逾越的技术障碍:

一,大模型是AI对大数据的统计、学习,数据从哪里来?数据都是人类喂给AI的,也就是大数据都是人类将真实世界的现象、规律做汇总、整理、建模才变成数据的,也就是说计算机里并不存在真实世界,它的所谓“真实世界”都是人类对真实世界的收集和建模,这里就会夹杂着大量的人类的认知、扭曲和谬误,更有着大量的空白。所以大模型是对人类“建模世界”的学习,而人类是对“真实世界”的学习,这里有着不可逾越的鸿沟。就算AI能看到大量的苹果掉下来,但如果没有人做过自由落体的时间距离试验,AI也发现不了万有引力。也许未来AI也有了自己感应系统和行动执行系统,能感知真实世界和改变真实世界,才谈得上具备人类智能的可能。

二,大模型需要大数据,但在真正的、人类认知不足的区域,是没有什么大数据的可以供AI学习训练的,现实生活中可有广义相对论的现象?更不用说大数据了。而人在这个领域是依靠综合的分析能力,包括各种规律的总结运用、逻辑演绎能力,甚至直觉,来认知这个领域。

三,这就牵涉到辛顿的基本观点,人类的理解和学习真的就只是对大数据的“关联统计和规律归纳”吗?与AI不同,人类是有主动性的,当他发现真实世界缺乏他需要的数据时,人类可以通过演绎推理、通过主动试验、改变世界并总结世界来得出规律,比如广义相对论现有理论假说,后有观测试验验证理论成立,1928年的毛委员也是一边在井冈山武装割据,一边反围剿一边建立政权、扩大根据地,一边写的《红色政权为什么能够存在》《星星之火,可以燎原》。如果不是在1928年,而是在建国后的1950年,大模型也许能写出这样的文章。

最后顺便说一句,不像第一代深度学习AI很快就找到了大量的产业应用,我现在对大模型对产业能带来多大的促进作用还心存疑虑,感觉被炒的太过火热了,也许背后有美国的资本和某些势力的推动。

通宝推:桥上,偶卖糕的,自由呼吸F0,青青的蓝,广宽,

本帖一共被 1 帖 引用 (帖内工具实现)
家园 【讨论】以语言为对象的数据统计游戏

GPT-4 的规模是 GPT-3 的 10 倍以上,是目前人类工程巅峰项目。据估计分析报道 ,它有约 1.8 万亿个参数,这些参数分布在 120 个 transformer 层上,作为对比,GPT-3 的参数为大约 1750 亿个。(GPT-3 仅有 12 个 transformer 层,层数是 GPT-4 的 1/10。)

然而这种所谓artificial intelligence,只是表象上的对人智能的模仿,我判断断基于注意力机制的Transformer模型计算模型的发展也不可延续当前发展路径。

我以前的讨论:

两个看法 https://talkcc.net/article/4861135-10522

可以再想,但把它当成游戏就好 https://talkcc.net/article/4887154

生活在中西文化新旧时代夹缝里的钱穆。我认为钱穆(此人自学成才,由经史训诂而通义理的)学术研究脉络比较清晰,与计算机AI有相通的地方

https://talkcc.net/article/4963737

题外话:

你“现在对大模型对产业能带来多大的促进作用产生疑虑”,这个思考层次是对的,但很有可能识者寥寥。不要迷信流行和权威,独立思考。

以下是我翻出来对马前卒影评的评论,同样识者寥寥。

https://talkcc.net/article/3885389

https://talkcc.net/article/3889541

https://talkcc.net/article/4920555

https://talkcc.net/article/4920560

家园 但是呢,有没有可能缩短了理解星星之火的运用呢?

这个缩短的时间就是AI对人类推动。

更灵活的也许还不能做,但是快速运用也许是机会吧。

比如围棋,大家似乎更相信AI,几乎自己都不怎么考虑了呢。

甚至中国象棋,国际象棋,灵光一现的新招越来越少了,越来越依靠计算了。

家园 请教一下

下面这段有原文吗?

他[辛顿]认为神经网络深度学习模拟的就是人类大脑的运作方式,人类大脑的神经元就是在不断的外界信息刺激下不断地建构神经元之间的连接强度,神经网络深度学习和大模型就是这个过程的完全模拟。

现在有“数理神经科学”,你找本这方面的教材;再找本深度学习方面的教材。你都不用真懂里面的数学,把数学公式当画看,你都能看出来“完全模拟”有多完全。

家园 请教不敢

我的信息来自若干对辛顿的访谈,说辛顿相信目前的AI是对人类大脑的模拟,是因为辛顿当初提出神经网络深度学习,就是对基于神经突触学说的大脑活动的模拟,而在此之前的人工智能研究基本上都是基于逻辑推理的,而对大模型,辛顿认为大模型基于理解预测下一个符号,而这个理解与人类大脑的理解方式是一样的。

我说“完全”模拟,是指辛顿奠定的整个AI算法是对人类大脑运作和认知模式的模拟(或者换个词叫“仿真”?),当然也是为了区别于李飞飞说的“模拟”。

当然,跟人类大脑比,当前的“完全模拟”仍然是很不完全的,比如辛顿提到突触的暂时变化,即临时记忆,在现在的神经模型上就没有处理,当然,这只是个小的技术问题,既然识别出来了,在技术上实现也是可能的。

家园 估计是这个一段

https://mp.weixin.qq.com/s/yM35u0Nfjx4zOSFQCdXirA

我个人猜测,下一个AI大事件肯定是脉冲神经网络的学习算法。它能够解决是否进行脉冲的离散判定,以及何时进行脉冲的连续性决策,这样就可以利用脉冲时间来进行有趣的计算,这在非脉冲神经网络中其实很难做到。之前没能深入研究脉冲神经网络的学习算法,这是我研究生涯的一大遗憾。

家园 感觉你讨论的问题更像是名词之争

在AI这个问题上,中国人应该有自信,能沉下心来深入一个个具体的场景,去解决一个个具体的问题。建立主体性,走自己的路。讲故事这种事,美国人在行,就让他们去玩吧。

家园 参考恐龙变鸡,鸡是当今世上数量最多的禽类,因为抱上了人类的大

腿,人们爱(吃)它。

上个世代的霸主,如果注定无法适应新环境,紧紧抱住新霸主的大腿,也是生存之道。

人和机器的关系,越来越从人为主,机器辅助变为机器为主,人在关键时刻介入。典型例子:民航客机。人和机器的关系,从机器作为人的手脚的延伸,正在转变为人作为机器大脑的仲裁者。

家园 人的思考不需要边界在行动时需要,而电脑需要边界,

再微小的错误也会使电脑触发灾难,电脑没有道德约束。且不说不同文化不同年代的道德发展差异,情绪感受并不能被真实清楚地划出底线,社会生产关系如此庞大复杂,简单的挖矿算比特币都极费能源 何况推演社会发展。

家园 所谓AI和所谓人类智能

估计Hinton写不了中文,假设这就是他说的,光看字面的意思,好像是说我后悔没这样,而不是说现在就是这样。不过,想着试这条路的人肯定是有的,正在试的估计也是有的。但我个人觉得,总而言之,对一般人来说现在这个所谓AI其实不是最好的用来吹牛的材料。

说为什么之前,首先声明我不是专家,现在这些方法用的数学大致能放到自己的知识框架里顺个思路出来;如果有人发明一个新的算法,我这儿的兄弟们给实现到一个程序里,我也大概能顺出个思路。但也就能顺个思路出来而已,基本就是皇军让我给您捎个信这动静;您要是问皇军能不能多给三千大洋,我就得先回去一趟。真的专家肯定不来趟这趟混水,所谓“放下助人情节、尊重TA人命运”;不过老本前几天贴过一个好像给人大代表科普的,我个人觉得还是不错的宏观介绍,我理解他强调的是我们应该怎么做、而不是未来会怎么样。

其次,把天聊死。现在要从所谓AI往所谓人类智能跳跃,我个人的看法基本上就是莱特哥俩(好像还有一个巴西的老哥也打这官司)刚让飞机飞上天,你现在来跟他们说咱们这飞机飞到月亮或者火星上前景怎么样。你要是有钱能往里扔或者能找到人往里扔钱,人家肯定不能让你跑了,大致要跟你坐下来谈,谈出来的前景肯定一片光明。你要是没钱还天天去,十有八九是警察来之前能见到的就是保安。你要是一没路费坐车、二来腿脚也不好使,天天在家就跟老婆娃说这些,那就谁也管不着了,起码比喝酒打老婆或者喝完被老婆胖揍强。你要是靠媒体吃饭,不管是被人雇的、还是自媒体、或者未来学家小方向哲学家,谁也不能拦着你自食其力。你但凡能找着个时间地点说,不管你说什么还真不能就说你一定不对,而且以后飞到月亮火星上了、说不定你的哪个主意还真就和某个国家的宇航局的某位从业人员某个时间上想的一模一样。比如说,你要是建议我们找个魔幻激活函数就能让神经网络迈一大步。印度宇航局的一个懒厨😂听到了,说我们虽然没啥肉,连土豆也不多,但我们用个神奇的咖喱配方,从此宇航局修下水道的就只需要一个礼拜吃一顿,省下来的钱都用去造火箭。这还真就没法否认你预见到了印度航天事业发展的方向、为印度航天事业做过贡献。

再次,把天聊得更死。想要基本弄懂现在所谓AI到底是什么、需要数学和计算机科学知识,可能得比罗教主懂得还要多。有了这些知识以后,还得多少去看看具体是怎么应用的,这要不是混饭所迫,一般人谁去花那个力气。同时现在所谓AI还没有什么成熟的消费者应用,所以还没有发展出一套像音响、汽车之类可以用来吹牛的维度、参数、指标。比如一个码code的AI、要想billable hours多就得用恒河水发的电,而一个做讼棍的AI、要想billable hours多就得用泡汤没开河水发的电。结果呢,要吹AI,一般只能先虚晃两枪十八亿参数、大脑结构什么的,然后就得一竿子捅到世界未来,人类命运。

你要是说,这天还没聊死,那得先定义什么是你说的AI,什么是你说的人类智能。定义完了以后,与其聊AI怎么达到人类智能,还不如聊AI下一步往哪儿走。但是全世界现在这么多做这方面的研究的人在这个不成熟的领域,路子肯定是啥方向的都有;要是真想了解,肯定会有千百个博士开题之前,会搞个文献综述,过去若干年内AI研究方向概述;最后哪几个方向能突出来、还是大家相互携扶着往前走,肯定不是Hinton、李飞飞像欧洲杯淘汰赛那么玩。不过像我这样的,一是看不懂、二是不需要看,所以最后还得回到AI将要改变人类数万年以来形成的基本道德准则。

通宝推:广宽,审度,
家园 为什么结婚晚因为谈恋爱费时费力,俩AI能谈恋爱才算智能了。
家园 南寒兄的聊天风趣有品位,怎会聊死?

我也说说我对AI的理解,历来都有两条路线,一条是模拟大脑产生智能,另一条认为可以用逻辑符号表达智能。

按照我粗浅的认知,Hinton说的,是前者的路线,模拟脑神经的刺激,逐步产生记忆,再转换成知识,在生物上,过程就会极为缓慢,但电脑模拟的就不一样了,理论上的速度可非常快。

LLM走的也是前者,只不过不是通过模拟脑神经的刺激,模拟的仅是大脑的工作原理,方法是通过极大规模的数据统计,逐步筛选组合,输出结果。上了规模之后,目前的效果看来不错。

个人认为,但前者路线存在问题也是出自娘胎的,既然是模拟人脑,结果跟人脑一样,必然也不敢保证精确,在商业应用上,这点很致命,记得有个律师,用了chatGTP查案例,呈堂的时候,被法官发现是胡诌的,输了官司。

后者的路线我没有跟进,虽然精确,但好像走不下去了?

至于未来的发展,我个人认为通用型的人工智能这条路走不通,但是,各行各业的专用型AI是很有可能的,例如legalGPT,lazyChefGPT,javaGTP, pythonGPT (注意不是CoPilot这样的通用编程助手),在特定的专业领域的精确程度达到商用水平还是很有希望的。

家园 中国曾经拥有过鼻祖最出色的家族传承者,她多活几年你也许可以直

接问她。

辛顿,李飞飞,和AI之问

家园 李菲菲的绝大多数时间

表现得都像是个“社会学者”而不是科学家,像是要扮演哲学家或是卡珊德拉

没有特别关注过她的团队,唯一印象是n多年前关于无监督、半监督学习,但也更像是一种畅想,没有怎么做更没有做了得到什么。

辛顿等等则不同,对于技术是有更加直观的触摸的,谈论人工智能更有细节,哪怕胶囊网络应者寥寥,那也是有完全的细节的。

通宝推:qq97,
家园 这个辛顿好像就是把英伟达市值抬上天的那个

万年看客河友翻译的那篇李飞飞的演讲稿也提到了他。

李飞飞那篇主要讲的计算机视觉,认为计算机视觉已经超过人类视觉。确实如此,购物的时候我看每个收款码看起来都是一样的,计算机却能区分这是5块的、那是十块的。还有人脸识别的应用,临床上计算机读病理切片等应用……这些都说明计算机对图像数据的分析超过了人脑对眼睛看到的数据的分析。

玩电脑游戏的朋友都知道游戏要玩得丝滑,就得买块高级点的英伟达显卡GPU。当年英伟达发明了一种分割式图像显示的算法,让英特尔CPU干脆把图像显示的任务全丢给了GPU。后来英伟达把“图像显示分割”的理念进一步发展到“任务分割”,进而把GPU从图形加速器打造成了今天的AI计算加速器。

杰夫-辛顿的用英伟达的GPU训练Alexnet模型赢得2012的imagenet竞赛冠军,他发现英伟达的GPU比其他公司的快3倍?10倍?,并推荐大家使用英伟达GPU。辛顿顶着深度学习教父的头衔,这一推荐,让英伟达GPU完成了今天AI领域的生态占领。

====

回到李飞飞那篇演讲稿。她提到了一个150毫秒的读图实验。对于实验结果的解读,不知道是老万翻译的问题还是李飞飞本身的认识问题,我觉得那个150毫秒的意义是——光子达到视网膜产生刺激需要150毫秒,而不是文中认为的“光子落在视网膜上到大脑做出准确决定”大约需要150毫秒。

文中这段话包含了视觉在大脑中的形成。这是人类认知的未知领域,虽然视觉、听觉、嗅觉等只是人类意识最具像化的一部分。

今天AI领域所谓的神经网络,只是一种形似的比喻。当年曾是异端邪说,辛顿在当初的论文中不得不把它叫做深度信念网络。处理器几个输入端口、一个输出端口的设置,很像人类神经元——几个刺激传入的树突、一个冲动传出的触突。

但是,100亿个大脑神经元到产生意识,中间这个飞跃,连真正的神经生物学、生理学家都没搞清楚,何况计算机领域的冒牌神经网络😄😄😄

所以,我同意楼主“现阶段还没有”的看法。

据说现在的生成式AI这个词是投资者给取的,是为了区别于分析式AI。因为分析式AI已经把该赚的钱都赚了,二维码、面部识别、自动驾驶……应用得如火如荼。如果不给新的AI取个好名字,如何赚钱?今天,看看黄仁勋身价有多高就知道。

全看树展主题 · 分页首页 上页
/ 3
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河