西西河

主题:如果要走向强人工智能,openai的路线根本就是错的 -- 亮子

共:💬91 🌺314 🌵1
分页树展主题 · 全看首页 上页
/ 7
下页 末页
  • 家园 如果要走向强人工智能,openai的路线根本就是错的

    从gpt到Sora,一堆人搁那吹“理解,认知”,直接吹成强人工智能了,真的挺无奈。

    原因很简单,人脑的功率只有30-40w,一张4090的显卡无论算力还是功率都远超人脑,结果现在为什么需要成千上万张显卡去叠?

    因为你走错路了啊!

    一万辆自行车堆一块能变成汽车吗?

    一个人从丫丫学语到大学毕业,这中间人脑所消耗的能源不会超过几万美元,结果gpt一次训练所需要的电费就要百万美元。目前openAI的路线算法层面的改进基本已经到顶了,剩下的就比谁能更加大力出奇迹。

    • 家园 人脑的功率小,但是算力不一定小

      显卡只是模拟神经元细胞的活动,你看看神经元的复杂程度就知道这种模拟本身要消耗很多能量。具体说就是一个神经元的活动消耗的能量为1个单位的话,计算机模拟这种活动要消耗的能量可能是1w个单位。所以简单的对比显卡的能耗和人脑的能耗是不可取的,更不能得出结论说openAI的路线是错的。

      虽然我也很不齿openAI,但无疑他们是AI的领跑者

    • 家园 强人工智能现在谁也没有谱的事

      何来谁对谁错一说呢😂。AI的历史可谓不短,中间好几种路径,还有冬天,沉沦,然后开始有了部分实用价值,如果不是openai,AI在2022时眼瞅着马上又要进入冬天了😂,从围棋之后就没有什么抓眼球的突破么,全是学术界的各种刷论文,不要太无聊。

      前几天看见陈王还在提那个NLP老古董。其实一个疫情让好多人都没注意AI,之前都是李飞飞,Andrew ng那些人,其实这几年年轻一代出来好多,openAI收集了一大票,但有多少人一直坚持关注。 我关注了AI二十年,疫情中两年没看,直接后果就是到了2023初就没去买英伟达股票😂,光想着买卡装大模型,那时记得在河里还说过不少,所以一念之差就错过了一个亿😂。

      至于是不是AGI就要降临了,要注意openai 奥特曼这个人很会带节奏,那嘴炮不是河里的嘴炮党们这个数量级的😂,人家是在忽悠阿拉伯王爷的上兆美刀那个数量级的。 我看过他给人讲解某天openai内部某人给他展示那个Q*的事情,某种涌现吧,奥特曼的那个口气与解说掌控,我的天,绝对是带货王😂。 本来听传闻看推特我对AGI还有点将信将疑,看完他的亲自表演,直接劝退了😂。

      当然Yann Lecun是专业黑奥特曼的,各种paper狂出,什么AGI世界模型理论等,自创一个路径,反正大家都是嘴炮,我的意见是韭菜们就别管那些AGI了,这水太深,一般人估计连可行性的边都摸不着,但看媒体的话其实都是买菜大妈们写的稿子😂,就更摸不着边了。

      换个话题的话,这两天倒是看了一个消息,美国在研制一种新的空对地导弹,好像项目叫SiAW,军迷们也许可以狗一下。我理解是美帝被中俄的地对空一体防空网技术给吓尿了,隐形之外的庞大空中力量完全无法突破,比如对南海那些中国种的岛,所以在加班加点的研制这个专门针对云云。我觉得河里对这些东西比AGI那些更应该关注。另一个我最近才知道的消息是,氢气在全世界有庞大的储量,比尔盖茨都在投资,当然马斯克是一直黑氢能源,但好像最近有个氢燃料电池量产的消息,充十分钟跑600里地等,要看的东西太多,我就没仔细去查。

      • 家园 氢能源就是噱头,安全性是死穴

        地下停车场多停几辆氢能源汽车,储氢没做好稍微有点火星那就不是什么起火自燃的问题了。问题人类现在就是对氢原子束手无策,那玩意穿过分子间隙跟玩似的,谁要能解决这个问题,高低得拿几个诺贝尔奖。

        日本人当初把氢能源好吃的肉全都注册上专利,最难啃的骨头比如储氢和安全等着冤大头来买单😄。这么无赖的吃法当然中美欧都不带他玩

    • 家园 关于深度学习我一直有个疑问

      深度学习的基本单元是神经元,每一个神经元的输入输出关系模型是最简单的线性关系 y=ax+b,结合几个简单函数比如sigmoid,斜线段函数引入非线性。然后通过网络结构来不停试错,求极值的结果。甚至网络结构都往简单了选,层层递进,而不是完全互联。

      如果在这个基础上就发展出来的AI,能够超越自然进化出来的人类大脑,我想当不甘心,为人类不值…人脑这么简单?还有很多更高级的数学没用上呢,发展出他们纯属浪费脑细胞了。

      这里面用到的数学函数都简单得不能更简单,没有看到任何人解释过为什么选这些而不是别的。我特别想知道有没有文献考察过这个历史。

      我隐约觉得,现在的计算量这么大,如果有更合适的数学函数,会极大提高效率…就像牛顿简化了万有引力公式,这可能要到下一次人工智能周期了。

      通宝推:青青的蓝,exprade,
      • 家园 阿法狗下围棋≈高精地图AI?

        大家都说阿法狗是“深度学习算法”。。

        我们也都信了

        在这个浑浊的世界里,这说法或当不得真

        项立刚揭露了台积电的芯片骗局

        我看阿法狗也有可能不是深度学习算法而是穷举算法。

        延伸到自动驾驶,基于高精地图的自动驾驶,那也是“穷举算法”,穷举的确有用,能赢柯洁,但是不令人震撼,不跨越式,不划时代……

        不就是用十的六次方个排列组合试出我的银行卡密码嘛,虽然厉害,但是也low,low并厉害着😅😅😅

      • 家园 从入门的角度来说一下

        我希望老兄你不是行业一派掌门、在问一个体系终结问题,那我的回答就是个笑话啦。这儿借用一下那个怎么把大象放入冰箱的问题:打开冰箱门,把大象放进去,然后把冰箱门关上。如果你对大象和冰箱的相对体积没有概念的话,你可能会说:这个冰箱门设计的是比较奇怪,但这件事真的有那么难吗?

        深度学习难,可以提能把因果链搞得相对比较简短的三点,但我并不是说这是最重要的三点。第一,非线性是毒药,不需要有太多,整个系统就质变了。第二,深度学习和其它很多学习模型一样,最后要解一个最优化问题; 非线性同时也导致了一个求非凸函数的极值的问题。人类的数理发展到今天,还没有什么相对没那么难或者一般化的方法来解非凸函数的极值。第三,雪上加霜的是我们同时还面临着一个高维度的问题。当然,谁要说,非线性、非凸、高维度那又能怎么样,你不还是一个简单的函数吗,那就没有什么讨论的共同基础啦。

        另外一个可以借用的故事就是那个往象棋盘上放麦子的问题,开始小规模的问题很快会变成规模超大的问题。这也是开始的时候要用一个非常简单的非线性函数的部分原因。

        希望不远的未来,数学家们和计算机学家(从事基础研究的计算机学家也都是数学极厉害的人)能找到更有效率的方法来解决这些问题。但如果我妄下断言一下,即使真能找到一个神奇函数、它也只能解决这些问题中非常非常小的一部分。

        通宝推:偶卖糕的,唐家山,透明,
        • 家园 我倒不觉得会有一个终极公式

          而是觉得目前堆重复计算,天量的计算规模是一种征兆,这条路到头了,这一波AI高潮要落幕了。

          下一次或许起源一个从加法跃迁到乘法的小高斯时刻,往符号学派回归吸取养分。

          • 家园 我倒认为会有这样的公式,只是暂时(几十年)没人能总结出来

            神经网络用一种看起来很简单机械的方式,实现了求解复杂问题的非常好的效果。这种实践突破了以往人们对“可计算性”的理解。背后的数学基础,在我看来至少是抽象代数级别的。

            • 家园 深度学习的基础没那么复杂

              就是人工神经网络,模仿生物的神经网络。这可是经过几亿/几十亿年才演化出来的系统,很坚实的基础。

              • 家园 现在深度学习里的人工神经网络<>现在人们认识的动物的脑

                看到老兄提到人脑,我再啰嗦一句,现在深度学习里的人工神经网络<不等于、也并不是模拟>现在人们认识的动物的脑。如果你看一个比较严肃的介绍【例如Goodfellow2016】,一般作者会表述为,人工神经网络是受人脑的工作机制启发而来。几十年前,当时人们对人脑以及动物脑的认知有限,认为人工神经网络是在模仿人脑。但近几十年,人们对人脑的工作机制有了新的更深入的认识,但人工神经网络并没有“与时俱进”😄去模仿这个人脑工作的新知识。这儿需要加一句,这个“没有去模仿”并没有简单、绝对的好坏对错。

                当然作为普通人,并没有必要知道细节,就像我坐飞机,我并不知道飞机到底是怎么飞起来的;虽然我不知道飞机是不是模拟鸟儿飞,但我说人类看到鸟儿飞几万年了、飞机还能复杂到哪儿去,哪个航空公司也不能把我从飞机上赶下去。

                • 家园 如果要很严格地说的话

                  是模仿生物的神经元及突触形成的神经网络。也就是1)模仿基本单元 2)模仿基本结构。其实我们并不完全知道动物的大脑是如何工作的,所以实际上也无法完全模仿。也因为这个原因,光靠模仿基本单元和结构,并没有取得很好的成果,人工神经网络很长时间都没有啥进展,相关论文少得可怜。加拿大的Geoffrey E. Hinton,可以说是深度学习之父,后来他提出的反向传播算法,是训练神经网络的基础。连他的导师都认为他的研究毫无前途。后来他转到多伦多大学,至少坐了10多年的冷板凳。直到2012年他的实验室在图像识别大赛一举夺魁,超越其他方法,人工神经网络才又成为热门。

                  神经网络基本的结构是模仿动物的“信息处理结构”,但运行于上面的“软件”,有些相同,有些是不同的,甚至可能非常不同,比如人类具有的少量样本学习能力,神经网络没有;人类的理解规则,并推理的能力,神经网络没有。

                  但是这个基本结构也是非常优秀的,可以作为坚实的基础。

                  通宝推:心有戚戚,
分页树展主题 · 全看首页 上页
/ 7
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河