主题:【原创】货币锚定国债,不是建金融防火墙,而是建金融抽水机 -- nobodyknowsI
你看你列的五点,三点都是“XX识别”,这个都是最初的深度学习——计算机视觉,图像领域一定是基于大模型、人工标注海量数据、训练的大规模算力、预测时候高性能AI芯片。
最终决策的难点是其实不是技术上的,因为技术上的局限性但最终导致的是伦理上和法律责任上的问题:第一、危机处理,事故的时候自动驾驶如果判断错误带车往人身上撞的伦理问题。第二、上述问题的法律责任问题。
--
李世石对弈的是alpha-go,柯洁对弈的是AlphaGo-master,但【一台4TPU的服务器来允许程序】一定不是训练,而是对弈,具体我已经忘了。
【ChatGPT的不着调】ChatGPT之外的绝大多数AI都是靠谱的,问题只是准不准。ChatGPT是特殊的,ChatGPT的不着调是因为:
它是一个基于语言模型的聊天机器人,即使ChatGPT因为大模型表现得多么令人震惊,它的本质依然是聊天机器人,而不是问答机器人,你要明白这两者的区别。
下面直接抄我之前写过的一个回复:https://www.cchere.net/article/5020474
(1)划重点,聊天机器人就是话术机器人,特点就是——谎话连篇、胡编乱造一流,这一点ChatGPT也不例外。
(2)语言类大模型因为融合了大量的资料,让你可以自己从这些资料中获得想要的答案,并不代表模型能够理解问题或得出答案。
(3)所有的语言类大模型都不负责理解问题,也不负责生成答案,真正学习的是问题和答案之间的统计关系,也就是共现性,而对于自然语言领域,最常见的共现性就是各种话术,例如百度体、小编也想知道……
各种零信息量的话术,才是语言类大模型最最擅长的领域。
(4)语言类大模型使用的时候,好坏的标准在于是否糊弄住用户,注意是糊弄——如果是一个网上已有问题和正确回答,它就给你复述一遍,这种情况下你当然很满意;如果是一个相对陌生的问题,它就利用话术根据相对熟悉的问题给你编一个。
(5)前者是搜索,后者是糊弄,但大多数人看不懂其中的区别,对于糊弄的警觉性也不高。事实上,大多数糊弄的话术,只要不涉及你专业领域,你就拆穿不了。更何况,大多数用户根本没有所谓的“专业领域”,他们的提出的问题大多数时候只会触发前者,也就是“搜索”。
@唐门凤去 老哥,你能够意识到这一点,一定是有自己的专业领域。所有AI相关的人对chatGPT的看法跟你是一样的,chatGPT的不靠谱是因为话术机器人的特征,它就是用来跟你聊天的,chatGPT能够融合很多资料的特性带来很多惊喜,但它依然不是真正的问答机器人。
真正的问答机器人,现在AI还做不到——在特定领域可能实现,但像聊天机器人有这么高的普适性,当前是绝对不可能的,还有太长太长的路要走。
聊天机器人的普适性来自于它不需要真正理解问题,不需要真正回答问题,所以它才会带来惊喜;一旦你要求它的准确性,它对于绝大多数问题就只能回答不知道,然后帮你搜一堆不知道是否准确的参考资料,这就退化成搜索引擎了。问答机器人要求准确性,所以它会把它的能力明明白白告诉你,包括它只是人工智障这一点,所以,就不像先今那些聊天机器人,被媒体赋予人工智能等各种吹嘘之词而出圈了——这是一个娱乐至死的时代。
ps:键政时谈到建国后,我对那些马恩派的肉喇叭特别讨厌的,也是因为他们本质上是一些话术机器人,他们真的很“普适”,普适性远远超过了技术官僚,道理一摸一样:只要不真正解决问题,谁都能做到普世性。
- 相关回复 上下关系8
压缩 9 层
🙂了解下谷歌 1 唐门凤去 字258 2024-11-04 09:41:22
🙂没什么元规则的演绎,那个在机器学习中叫强化学习 5 nobodyknowsI 字1577 2024-11-05 07:34:41
🙂受教了 2 唐门凤去 字955 2024-11-05 10:53:34
🙂自动驾驶主要难点是计算机视觉,当然最终决策也是难点
🙂路线怕明确不了 4 审度 字1072 2024-06-08 11:42:25
🙂文斗不行,最终会演变成武斗的 3 晚春荷塘 字108 2024-06-14 03:20:42
🙂“人民算法”作为一种治理模式, 2 等而下之 字607 2024-06-12 03:44:38
🙂人民是被拿来喊口号的,政策安排里面施舍给人民的不多 13 晚春荷塘 字1270 2024-06-21 05:50:30