西西河

主题:【原创】【讨论】征集图灵测试题目 -- 任爱杰

共:💬76 🌺268 🌵3 新:
分页树展主题 · 全看首页 上页
/ 6
下页 末页
            • 家园 只能说不存在端粒缩短这种问题吧?

              一次漏电、一个病毒就死掉了。某种程度上比人类更脆弱。但是数据的边际成本极低,可以随便换身体。

              我记得还有一些科幻故事专门写人被机器或者数据完全替换,然后中毒挂掉。又或者病毒可以完美拟态甚至数据上等于之前那人,你不知道如何看待。

              机器人同样也有性能或智力(算法)发展。他们要也学会自私,保护自己的特有数据,那么繁殖是必然的。甚至因为底层或者软件不同,导致无法兼容,只能通过第三方媒介传递。

              通宝推:桥上,
              • 家园 无法兼容才有差异和交流
                • 家园 为了兼容,有种虚拟机套娃的感觉

                  看各种不同的书说相同的事情,也有这个感觉。

                  比如开Windows,虚拟Linux,再开Genera模拟器……好吧,最常见的其实是Windows开Android模拟器,然后再开游戏机模拟器。

                  在这种情况下,其实是有通用语言和实现的,问题只是具体某个设备或软件已经非常复杂,沟通起来变得困难。重新实现某个功能,还不如搞个模拟器方便。

                  这和沟通成本是一回事哈哈。这不重要,这意味着就算是机器人,软件的修正和发展会带来巨额的沟通成本导致差异出现,哪怕是可以兼容的。这样就出现了所谓个体特性。人类不就这么回事么。

                  然后为了维持这种个体特性,最好的办法就是制造一个同构的机器人,安装类似的软件,将这种差异延续下去。而且为了发展,最好是保留核心部分作为基础,其余的仍由他自己发展。这不就是种群了吗?

                  通宝推:桥上,
                  • 家园 很多差异是在社会性交流中产生的,

                    所以双胞胎都不会相同。

                    • 家园 这说的其实是价值

                      差异=专向=喜好=价值。而这主要是社会中各种因素的产物。

                      设备和软件,是功能决定的,功能就是需求,需求也就是价值。

                      然后我们来到了机器人问题的核心,他能不能自己给自己价值?

                      如果能,那么图灵机的基本预设就失效了。因为这意味着它可以自行检验自己的智能,而不需要外部给予和确定。

                      以社会为背景,自定价值+因缘际会=不同的发展。进而也就带来多样性,并且形成种群。

                      可惜图灵机的基本设定就决定了不可能出现这种人工智能😋

                      • 家园 我觉得这个设定可能未必准确

                        谁知道呢

                        • 家园 这是现代计算机的基础,没办法

                          其实人类也不是都能明白价值是什么的,也会有机械唯物,就别说机器了。

                          • 家园 就像结论包含在前提里,

                            这好像是结果被前提所限制了,所以这种设定似乎需要改一改了。

                            • 家园 我们的所有结果都是如此。

                              移动平台,行为散乱,先行致歉。括号里的最后再看。

                              ———

                              这是知识边界决定的,一切存在背后都有前提。

                              其实问题只是,图灵机是对人类行动的模仿,而且只是那些能够数学化、流程化的模仿。现在人类的价值如何出现,有各种学说,不仅是基因、神经、脑皮层里面会有,更关键的是有原初经验告诉我们什么是好,来确定什么是好。另一方面就是语义的确定。语言并不像某些理论说的可以还原为一个基本单位,因为连基本单位也是随着情境变动的(自带预设),除非能够统一人类的意识和语言。

                              楼下问意识是什么,我说的比较麻烦。其实意识结构很清楚,先秦就已明确,而计算机基本符合这个结构。人工智能也是如此,因为它本来就是对人意识过程的模拟,不确定意识是什么是不可能的。但它只是信息过程,目前的问题是价值、选择,也就是自由意志,这是人工智能不具备的。

                              这就导致,机器人本质上只是对人类部分行为和思维模式的思考,缺乏人类细致反应的基础,故而不可能拥有智能。直到机器人复杂到我们无法真正掌控为止。(信息过程就是外部交流信息、内部处理信息的过程,也就是输入→计算→输出。但这个过程整体是被给定的。)

                              ———

                              题外:图灵测试其实基本推翻了,因为他限定在了语言上。而语言是有限的,除非是黑话,否则可以通过统计来趋近。我们只能玩黑话来对抗。

                              作为一个语言学民科,我们可以看看意识的基本结构,也就是语言哲学。

                              点看全图

                              不够精准,但理解够了。核心是现象那里。那基本就是现象学的说法。

                              意识行为=感觉材料+意识活动+意识对象。

                              感觉材料倾向于直观的感知形式,是最基本的经验材料。比如白马的白。意识活动倾向于相应的感知方式。比如白色要看。意识对象倾向于一个给定的概念,意味着相关的预设。比如白马的马。给予方式倾向于概念相应的框架,意味着完整的体系。比如动物知识。

                              其实这就是心学的「身之主宰便是心,心之所发便是意,意之本体便是知,意之所在便是物」。(比如物是我们定义出来的,所以我们可以调整定义。)

                              我们再来看看计算机不能完成什么部分。

                              感觉材料:材料输入

                              意识活动:算法模型

                              意识对象:数据类型

                              给予方式:系统环境

                              这只是大致的说法,明白即可。

                              比如感觉材料包括键盘、音源等常见设备,还有专门传感器等特定设备。也包括输入的各种不同类型的数据。问题是目前的处理能力有限。因为只能对专项数据进行处理,处理图像的只能处理图像,最多加上文本。综合两个以上不同类型的少之又少。

                              而人类是统合的,同时接受至少六感。这还是不考虑本体感受器(位置、肌肉)和机械感受器(平衡、肺部)对人类感觉的控制。同时,人类对于以上以上四者都是随时调整的。虽然材料输入已经被人类的感知形式框住,但人类还有想象力。

                              还有更关键的,人工智能是无法决定给予方式的。他只能决定自己的算法模型和数据类型,就像现在的机器学习能自我更新。

                              这样说可能有点模糊,多说一下给予方式。给予方式其实就是逻辑。就像某一学科的专业理论。他是一个完整的规则,从内部看,我们可以根据这些规则认识和判断对象。但是当规则本身出现问题的时候,人是可以对规则进行调整的,机器做不到。

                              在机器那里,所有的给予方式都是不可动摇的超验存在(通过人类赋予,包括系统和软件环境)。而人类可以通过理论研究让他降级为先验预设。我们既可以研究理论,也可以研究应用。还可以短时间内联系起来验证。这是目前人工智能无法做到的。他不可能一边研究操作系统或软件环境,一边研究系统应用和具体算法。而这其实就是有无相生。(这意味着人本身就是一个先验存在,至少对于意识而言如此。即存在先于本质。)

                              问题在于,给予方式并不是凭空出现的。他自己也有边界,要么是人类目前知识的极限,要么是人类目前价值的极限。两者往往是一回事。因为你想要这个世界能够变成稳定可以理解,必须要让某些东西固定下来,哪怕他本质上是不断变化的。也就是,必须形成一个秩序,让整个系统可以重复表现出这种秩序,而不用在意具体条件的变动。(秩序预设了系统)

                              单单是具体条件的变动,机器就无法实现。自指只能有限的操作,无法统合各种类型的数据,何况像人类这样跨越几千年?

                              这说的其实就是价值。最典型的仁义,他是因人而异、因地制宜、因时而进、因势而新的,你怎么得出什么它是什么的?这就是之前《芬奇》影评里说的善的来源问题。要么有一个超验存在,要么你可以比较得出。前者意味着什么不必多说,哪怕不是真实存在,也要求你能够自我沟通。后者意味着至少有大量机器人的说法可以比较,这等于回避了来源问题。

                              就别说人类目前对自己认识依然不清楚了。而机器人是人类的分有,是人类的局部,更是我们自我认识的局部。所以想要接近人类,从一开始就不可能,只能是拥有类人的表现。(何况机器还有自己的感知形式,人类不具备。)

                              ———

                              简单讲,现象学其实只是意向性行为,也就是关于某物的认识。这是计算机可以做到的。真正的问题在于启明性经验,也就是价值是怎么来的。他不是固定的某物,但却可以决定物是什么,决定我们研究什么物和发展什么物。这是计算机做不到的。(这其实也是还原论和整体论之争。)

                              通宝推:桥上,
                              • 家园 缩减一下,就是逻辑问题。

                                逻辑是一个给予方式中自我封闭的关系系统。它只能证明自己能证明的,可证明的一定为真,但是真不一定能证明。前者是它所定义的真,后者是外部对象的真。也就是必须引入外部标准才有结论。

                                也就是说,逻辑的真实性是人决定的,等价说法就是机器人的智能是人决定的,没有人就没有智能。因为机器人只是复制了人的逻辑结构。

                                你能把逻辑等于你自己吗?显然不能。同样的,若机器人决定图灵测试,他觉得你是机器人,你就能把自己当机器人吗?

                                以上说法等价转换一下:形式系统认为你是形式化对象,你就能把自己当一个形式来生活吗?也即著名的,如何证明你妹是你妹、如何证明你是你自己?

                                这其实就是国家机器的问题,你只是一个对象或数字,而不是真实的生存着。越是强调形式化、强调理性的地方越是如此。比如这个说法的起点,形式化法律

                                这也就是有名无名不完备定理。简单讲,概念(逻辑、形式化的语言系统)只是把握现实的工具,它无法等于现实。而人工智能正是用这些东西组织起来的。想让它等于现实只能是你觉得他是

                                注:这也是经院哲学的误区,因为神和语言、逻辑捆绑到一起,混淆神的言语和经验实在的结果就是 语言=现实。即太初有道。这也是机械唯物主义的起源,认为精确的科学概念可以等于现实。如物理主义。所以这里的一个问题,其实是一堆问题。比如物化等于光有形式没有你了,权力源于对形式系统(名教)的掌控。这也是哲学系自以为是、古人是万物同构的根源。

            • 家园 繁殖就有生长过程

              生长过程只有有机体才能实现。

              机器人可以生产更多的机器人,但是它们不需要爱情😁。

              通宝推:桥上,
              • 家园 机器人的机体不需要生长过程,

                但他们的意识需要。

                至于爱情,首先要分公母,在制造新机器人的时候处于不同位置,还得是按自己的面貌生产。

                对于设定太复杂了,何况人的设定是进化而来的。

                如果开始,似乎更适合从简单设定开始,先不分公母。

        • 家园 图灵测试好像不是测有没有自我意识

          而是测人工智能在多大程度上能够伪装成人类。有没有自我意识不是能否伪装成功的关键。

          绝大多数图灵测试问题实际上是知识问题而不是逻辑问题。在没有互联网的时代,知识问题可以问倒 AI。但在互联网时代,AI 可以在网上搜索答案。这样即使回答是错误的知识也无法辨别是不是 AI 回答。

          例如楼主举的 AI 作文里有一个明显的矛盾。一方面说自己是自己是老二,另一方面又说自己没有兄弟姐妹。

          但这个错误人类也会犯。例如那位“大饥荒的死剩种”--丁来峰同学在文章里说58年他爷爷坐了10年牢回到家乡,当时他爸8岁,他姑5岁,他叔3岁。家里除了他爸都饿死了。(详见 大饥荒的死剩种)。初看没啥,但仔细一看,他父亲那辈的三个孩子都不是他爷爷亲生的,他是他奶奶出轨的后代。😁

          丁来峰同学的这篇文章有没有用 AI 辅助写作?或者丁来峰本人是不是给机器人冒名顶替了?这个无法判断。但是我们知道确凿是人类的著名作家也有犯类似错误的。例如金庸作品里黄蓉的年龄就是一个谜。

          知识测试在图灵测试中似乎越来越无效。逻辑测试反而可能更有效。

          例如下面这个问题:世界上有绝对真理吗?

          猜猜 AI 的回答会是什么?😁

      • 家园 如果我回答壁炉很温暖,我会被判不通过么?

        😄😄

分页树展主题 · 全看首页 上页
/ 6
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河