主题:辛顿,李飞飞,和AI之问 -- qq97
首先机器人自己也要有情绪和性格
也许还需要自身的内部激励体制
“具身智能”(暂且就用王兴兴的这个定义吧)与当下的AI(深度学习和大模型)的本质区别,就是AI在人类的“建模世界”中学习,而具身智能与人类一样,是在“真实世界”的学习,(当然,具身和人类也能在“建模世界”中学习。)
要在真实世界中学习,具身智能首先要行动能力,能在真实世界中移动,否则只能学习一个局部,还有具有感知系统,比如视觉、听觉、嗅觉、触觉、力的感觉,可以感知周边的真实世界。
但这还只是必要条件,具身和人类(或其它生物)要在真实世界中学习,还有具有对错判断、好坏判断等基本的价值观,这种对错判断优劣判断的能力,在AI中是以人类对学习材料进行标注来实现的。
而真实生物(包括人类),一般都具有保全自己身体完整性、保证自己生存的本能(基础)价值观(根据进化论,不具备这样价值观的生物早就灭绝了),这样它就能学会如何躲避让自己缺胳膊少腿的危险,就能学到真实世界的一些特性,如更凶猛的动物、锋利的石头、高耸的悬崖、不能呼吸的水下、高空坠落的石头、补充能量的美食。。。
而生物(包括人类)还应该有保证交配繁衍以及进化后代的基础价值观,同样,不具备这样价值观的生物种群也无法延续,有了这样的价值观,它就能学会选择或争夺优秀者而交配、如何展现自己的魅力。。。
有了这些价值观和对错判断、好坏判断能力,生物就能具备情绪,遇到好的就高兴,经历坏的就悲伤。。。
但具身智能一开始具备这样的基本价值观吗?如果不具备,那它就学不会什么叫“痛”,什么叫好和坏,腿断了就断了,脑袋扁了就扁了,电池没电就没电了,因为不知道“痛”,不知道“伤”和“死”,也就不知道这是“坏”。
所以,我认为具身智能的这种基本价值观,还是需要靠人类注入,具备了这样的基本价值观,具身智能才可能趋利避害,在这个过程中学习真实世界。
由此想到了阿西莫夫提出的机器人三大定律。
人类可以除了给具身智能注入一般生物的生存优先价值观,这样它可以学习成为一只普通的具身智能,
人类也可以给它输入“利人”优先的价值观,这样就能打造出道德高尚的具身智能,
而如果输入了“损人”优先的基本价值观,打造出来的当然是邪恶的具身智能。
。。。咦,写着写着就歪了,终究还是落入了俗套。
- 相关回复 上下关系8
🙂也许还需要自身的内部激励体制 2 桥上 字0 2024-07-23 02:28:12
🙂说点容易理解的,从宇树科技王兴兴的观点说起 9 qq97 字1428 2024-07-22 04:53:29
🙂首先机器人自己也要有情绪和性格 2 桥上 字0 2024-07-23 02:37:21
🙂在真实世界学习的起点需要基础价值观或本能价值观
🙂“痛”一类恐怕确实需要预先注入 1 桥上 字497 2024-08-24 02:25:14
🙂如何避免脑补是个问题 2 疾走他乡爱故乡 字256 2024-08-27 03:14:48
🙂在动物研究中, 1 桥上 字360 2024-08-27 00:23:16
🙂为啥? 1 zwx650 字84 2024-07-23 13:19:28