西西河

主题:辛顿,李飞飞,和AI之问 -- qq97

共:💬35 🌺176
分页树展主题 · 全看首页 上页
/ 3
下页 末页
  • 家园 辛顿,李飞飞,和AI之问

    (这只是个话题帖,这个帖的内容没做过认真考证,如果我对辛顿、李飞飞以及AI的理解有浅薄谬误之处,请内行的河友指出来)。

    这个帖本来是

    AI有真正的人类智能吗?AI会有类似的人类智能

    的回帖,不过那栋楼已经歪到了华女嫁洋人去了,想了想,重新起个楼也无妨。

    在那个楼里,我问了个问题:

    AI有真正的人类智能吗?这个问题现在似乎还是没有公认的答案。曾经跟同事讨论这个问题,大模型有人类的智能吗?依据什么标准?

    我的看法是,大模型归根到底还是基于对海量数据进行统计分析做出的规则,即使大模型能发现某些人们尚未发现的规律,也是因为它的统计能力更强得出的归纳,AI相当于一个特别特别特别博闻强记的人,但它能不能发现两个统计相关的事物之间的内在逻辑?

    说到底这还是对人类的疑问,人类还有没有超出博闻强记、海量统计归纳的能力?比如,AI能不能发现相对论,量子力学?穿越回1928年,AI能不能写出《红色政权为什么能够存在》《星星之火,可以燎原》?

    我的看法,倾向于否定,起码在目前的大模型阶段。

    对这个问题,AI教父辛顿的回答很肯定,他认为大模型具备人类智能,且可能还会超过人类。辛顿是研究心理和人类认知学出身的,他认为神经网络深度学习模拟的就是人类大脑的运作方式,人类大脑的神经元就是在不断的外界信息刺激下不断地建构神经元之间的连接强度,神经网络深度学习和大模型就是这个过程的完全模拟,换句话说,对世界纷繁事务之间的关系的统计就是人类对外部世界的理解和学习的真实过程。所以,人类能做到的,大模型也应该能做到,甚至做得更好。

    而AI教母李飞飞的回答则没那么肯定,作为一个计算机科学家,她认为神经网络深度学习大模型不过是计算机算法对人们以为的人类大脑运作模式的一种模拟,但人的大脑到底是怎么运作的,谁TM的知道?!所以她的回答只能是,AI在未来具有真正的人类智能是可能的。

    我一直觉得这个问题实际上是个哲学问题,需要哲学层面的回答。

    在技术层面上,我的看法跟李飞飞更接近:起码目前大模型的这种方式不能具备真正的人类智能,就算是辛顿说的统计即理解的看法是正确的,目前从AI到真正的人类仍有着无法逾越的技术障碍:

    一,大模型是AI对大数据的统计、学习,数据从哪里来?数据都是人类喂给AI的,也就是大数据都是人类将真实世界的现象、规律做汇总、整理、建模才变成数据的,也就是说计算机里并不存在真实世界,它的所谓“真实世界”都是人类对真实世界的收集和建模,这里就会夹杂着大量的人类的认知、扭曲和谬误,更有着大量的空白。所以大模型是对人类“建模世界”的学习,而人类是对“真实世界”的学习,这里有着不可逾越的鸿沟。就算AI能看到大量的苹果掉下来,但如果没有人做过自由落体的时间距离试验,AI也发现不了万有引力。也许未来AI也有了自己感应系统和行动执行系统,能感知真实世界和改变真实世界,才谈得上具备人类智能的可能。

    二,大模型需要大数据,但在真正的、人类认知不足的区域,是没有什么大数据的可以供AI学习训练的,现实生活中可有广义相对论的现象?更不用说大数据了。而人在这个领域是依靠综合的分析能力,包括各种规律的总结运用、逻辑演绎能力,甚至直觉,来认知这个领域。

    三,这就牵涉到辛顿的基本观点,人类的理解和学习真的就只是对大数据的“关联统计和规律归纳”吗?与AI不同,人类是有主动性的,当他发现真实世界缺乏他需要的数据时,人类可以通过演绎推理、通过主动试验、改变世界并总结世界来得出规律,比如广义相对论现有理论假说,后有观测试验验证理论成立,1928年的毛委员也是一边在井冈山武装割据,一边反围剿一边建立政权、扩大根据地,一边写的《红色政权为什么能够存在》《星星之火,可以燎原》。如果不是在1928年,而是在建国后的1950年,大模型也许能写出这样的文章。

    最后顺便说一句,不像第一代深度学习AI很快就找到了大量的产业应用,我现在对大模型对产业能带来多大的促进作用还心存疑虑,感觉被炒的太过火热了,也许背后有美国的资本和某些势力的推动。

    通宝推:桥上,偶卖糕的,自由呼吸F0,青青的蓝,广宽,

    本帖一共被 1 帖 引用 (帖内工具实现)
    • 家园 诺贝尔物理奖捞过界

      辛顿获最新的诺贝尔物理奖,出乎意料。

      辛顿最合适的奖项,应该是图灵奖(2018年辛顿获图灵奖),哪怕是菲尔兹奖,都比物理奖合适,或者其它综合性的奖项。

      物理学捞过界,这是什么情况——

      物理学的发展实在找不出有影响力的突破?

      诺贝尔奖受限于100多年前的学科限制,需要在对现代生活有影响力的新兴学科找存在感?

      美国All-in-AI,AI领先而AI的回报却未知,走夜路吹口哨,美国需要一个重量级的科学奖为AI背书?

    • 家园 也许还需要自身的内部激励体制
      通宝推:qq97,
    • 家园 说点容易理解的,从宇树科技王兴兴的观点说起

      近日,宇树科技CEO王兴兴发表了这样的观点:

      “具身智能是实现AGI的最有效途径,OpenAI的大方向大概率是错的。”

      王兴兴表示,对于具身智能而言,能够理解时间、空间以及物理规律的世界模型非常重要,“现在的大语言模型等很像活在梦里”,AGI需要有实物机器人的物理交互才能加深模仿和强化学习,同时也需要参与到人类的生活中,来体验和理解人类的情绪和性格。

      这与主帖的观察视角有点相近——

      所以大模型是对人类“建模世界”的学习,而人类是对“真实世界”的学习,这里有着不可逾越的鸿沟。

      也许,王兴兴认为在他的人形机器人面前,这道鸿沟未必是不可逾越的。

      由此联想一下,武汉上线的萝卜快跑被称为勺萝卜,自动驾驶虽然不是基于大模型,而是基于上一代的深度学习的技术,但同样有类似的问题。

      人类的驾驶,不仅基于在汽车上路行驶时的学习,更基于人类在无数的各种各样的日常生活的场景中的学习,各种目标的识别,甚至于后者的重要性远远超过前者,那些在马路上不停地巡游训练的算法,能做到吗?

      一点题外话:王兴兴对大模型OpenAI的点评,颇为戳了一些奉美国人OpenAI为圭臬的自媒体的肺管子,挺有意思。

      • 家园 首先机器人自己也要有情绪和性格
        通宝推:qq97,
        • 家园 在真实世界学习的起点需要基础价值观或本能价值观

          首先机器人自己也要有情绪和性格

          也许还需要自身的内部激励体制

          “具身智能”(暂且就用王兴兴的这个定义吧)与当下的AI(深度学习和大模型)的本质区别,就是AI在人类的“建模世界”中学习,而具身智能与人类一样,是在“真实世界”的学习,(当然,具身和人类也能在“建模世界”中学习。)

          要在真实世界中学习,具身智能首先要行动能力,能在真实世界中移动,否则只能学习一个局部,还有具有感知系统,比如视觉、听觉、嗅觉、触觉、力的感觉,可以感知周边的真实世界。

          但这还只是必要条件,具身和人类(或其它生物)要在真实世界中学习,还有具有对错判断、好坏判断等基本的价值观,这种对错判断优劣判断的能力,在AI中是以人类对学习材料进行标注来实现的。

          而真实生物(包括人类),一般都具有保全自己身体完整性、保证自己生存的本能(基础)价值观(根据进化论,不具备这样价值观的生物早就灭绝了),这样它就能学会如何躲避让自己缺胳膊少腿的危险,就能学到真实世界的一些特性,如更凶猛的动物、锋利的石头、高耸的悬崖、不能呼吸的水下、高空坠落的石头、补充能量的美食。。。

          而生物(包括人类)还应该有保证交配繁衍以及进化后代的基础价值观,同样,不具备这样价值观的生物种群也无法延续,有了这样的价值观,它就能学会选择或争夺优秀者而交配、如何展现自己的魅力。。。

          有了这些价值观和对错判断、好坏判断能力,生物就能具备情绪,遇到好的就高兴,经历坏的就悲伤。。。

          但具身智能一开始具备这样的基本价值观吗?如果不具备,那它就学不会什么叫“痛”,什么叫好和坏,腿断了就断了,脑袋扁了就扁了,电池没电就没电了,因为不知道“痛”,不知道“伤”和“死”,也就不知道这是“坏”。

          所以,我认为具身智能的这种基本价值观,还是需要靠人类注入,具备了这样的基本价值观,具身智能才可能趋利避害,在这个过程中学习真实世界。

          由此想到了阿西莫夫提出的机器人三大定律。

          人类可以除了给具身智能注入一般生物的生存优先价值观,这样它可以学习成为一只普通的具身智能,

          人类也可以给它输入“利人”优先的价值观,这样就能打造出道德高尚的具身智能,

          而如果输入了“损人”优先的基本价值观,打造出来的当然是邪恶的具身智能。

          。。。咦,写着写着就歪了,终究还是落入了俗套。

          通宝推:桥上,
          • 家园 “痛”一类恐怕确实需要预先注入 -- 有补充

            但不一定就是“痛”,或者肯定不能只有“痛”,对于真实的生物而言,预先注入的东西其实很多。

            另外,我是觉得我们对于这些东西其实了解得还非常少,应该进行某种模拟试验,先别说人一类这么复杂的生物,就搞些简单的来模拟也是有意义的。

            好比如您所说,那些在自然选择中被淘汰的预先注入性能究竟是为什么被淘汰了呢?诸如什么样的性能会导致怎样的结果呢?

            作者 对本帖的 补充(1)
            家园 在动物研究中, -- 补充帖

            我记得曾有一个方法判断某种动物的智能程度,就是看这个动物在看到镜子中的自己时能否治到镜子中是自己的影像而不是另外的动物,也许机器人的研究也可以用这个判据,看机器人能否通过这个考验,来评价其“自我”的水平,这并不简单,起码要有很强的视觉能力。

            • 家园 如何避免脑补是个问题

              一堆布头或者塑料,小女孩拉在怀里也要盖被子、穿衣服,叫做“娃娃”。不是因为它真的如何“人”了,而是脑补来的。

              机器就是机器,“机器人”这个概念本身就是脑补来的,类似于妖怪。

          • 见前补充 5008339
        • 家园 为啥?

          机械力取代人力的时候,也没要求蒸汽机“要有情绪和性格”。

          • 家园 上文说要“参与到人类的生活中”

            则机器人要有自我,这就会包含情绪之类,当然首先要有自己的好恶或者说欲望,这才谈得上自我,才有交流的前提,而不是都是别人的东西。

            以上表达不知说明白了没有。

    • 家园 这个辛顿好像就是把英伟达市值抬上天的那个

      万年看客河友翻译的那篇李飞飞的演讲稿也提到了他。

      李飞飞那篇主要讲的计算机视觉,认为计算机视觉已经超过人类视觉。确实如此,购物的时候我看每个收款码看起来都是一样的,计算机却能区分这是5块的、那是十块的。还有人脸识别的应用,临床上计算机读病理切片等应用……这些都说明计算机对图像数据的分析超过了人脑对眼睛看到的数据的分析。

      玩电脑游戏的朋友都知道游戏要玩得丝滑,就得买块高级点的英伟达显卡GPU。当年英伟达发明了一种分割式图像显示的算法,让英特尔CPU干脆把图像显示的任务全丢给了GPU。后来英伟达把“图像显示分割”的理念进一步发展到“任务分割”,进而把GPU从图形加速器打造成了今天的AI计算加速器。

      杰夫-辛顿的用英伟达的GPU训练Alexnet模型赢得2012的imagenet竞赛冠军,他发现英伟达的GPU比其他公司的快3倍?10倍?,并推荐大家使用英伟达GPU。辛顿顶着深度学习教父的头衔,这一推荐,让英伟达GPU完成了今天AI领域的生态占领。

      ====

      回到李飞飞那篇演讲稿。她提到了一个150毫秒的读图实验。对于实验结果的解读,不知道是老万翻译的问题还是李飞飞本身的认识问题,我觉得那个150毫秒的意义是——光子达到视网膜产生刺激需要150毫秒,而不是文中认为的“光子落在视网膜上到大脑做出准确决定”大约需要150毫秒。

      文中这段话包含了视觉在大脑中的形成。这是人类认知的未知领域,虽然视觉、听觉、嗅觉等只是人类意识最具像化的一部分。

      今天AI领域所谓的神经网络,只是一种形似的比喻。当年曾是异端邪说,辛顿在当初的论文中不得不把它叫做深度信念网络。处理器几个输入端口、一个输出端口的设置,很像人类神经元——几个刺激传入的树突、一个冲动传出的触突。

      但是,100亿个大脑神经元到产生意识,中间这个飞跃,连真正的神经生物学、生理学家都没搞清楚,何况计算机领域的冒牌神经网络😄😄😄

      所以,我同意楼主“现阶段还没有”的看法。

      据说现在的生成式AI这个词是投资者给取的,是为了区别于分析式AI。因为分析式AI已经把该赚的钱都赚了,二维码、面部识别、自动驾驶……应用得如火如荼。如果不给新的AI取个好名字,如何赚钱?今天,看看黄仁勋身价有多高就知道。

分页树展主题 · 全看首页 上页
/ 3
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河