西西河

主题:chatGPT是我朝面临的巨大挑战!应鼓励天才和尖子,刻不容 -- 玄铁重剑

共:💬92 🌺481 🌵17 新:
全看分页树展 · 主题 跟帖
家园 人工智能判断的标准恰恰是可以杜撰的

人工智能的判断标准,开始是人为判断的,就是最古老的搜索引擎,只要关键字对,就全给上,不管是否真的有关。

接着,就是新型的搜索引擎,典型的是谷歌,利用关联连接,这和学术文论的引用率是一致的,使得信息的关联度大涨,信息正确率大幅提升。然而,后来的搜索引擎优化技术,使得这个方法也失效了,就是海量的无关垃圾信息,靠人造的关联度,使其占据了主要的搜索位置。

现在,基于新一代人工智能出来的这个,是可以学习进化的,除了原先的自带模式,也可根据多个行为关联而学习。这也是有漏洞的,就是反复错误学习,可以令其失能。而这用机器自动批量做,比人类强得太多了。

就比如中文论坛里出现的海量1450,其只是几个关键词触发的批量处理程序,就已经造成了整个中文互联网海量信息失衡,舆论方向乱窜,比如去年河里的新冠讨论,自动处理程序不间断发帖回帖,全是一个讨论各种角度反复说,让真人辩论得不亦疲惫乎。如果其再加入学习进化模式,那原先反复刷固定文本片段的行为,将进化为自动演进文本,到时人类和人工智能辩论,绝对可以被气死。

考据?你要考据过就知道寻找一条谣言的信息来源有多难了,何况人工智能加了几道弯,相当于加了密。

换到学术领域,同理。现在的人为制造的垃圾引用关联,已经造成了很大的精力浪费了。楼上那位从事学术的,说他只需提交需求描述,人工智能就能给他提供有效的建议,这是 幸存者偏差,他刚好遇到几个他平时没注意的情况,他是如何判断是有效的?当然是平时自己的经验积累,其实他用原来的搜索引擎用合适关键词也是能做到的。但如果是一个学业未精的呢?其如何判断人工智能提供的意外建议是有启发性还是虚假的?实际上还是要经常遍历论文,积累到足够的经验了,才能做到楼上所说的效果,但当经验积累够的时候,有时候仅凭片段描述或者无关的一些信息,也能获得巨大的提示,这是人的能力提升,不是人工智能的能力提升。

另外,围棋人工智能,上个月就被一个业余棋手用不断下无理手的办法,14:1,给干翻了。

对其模式的优点和缺陷足够了解,才能知道其能力有多强,而不是瞎激动。

通宝推:方平,心远地自偏,脑袋,青青的蓝,青青的蓝,唐家山,桥上,孟词宗,
全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河