主题:【原创】货币锚定国债,不是建金融防火墙,而是建金融抽水机 -- nobodyknowsI
官僚体系到了这个地步,怎么搞的?
你这还是青天大老爷思想。
你这么反对那个人,只不过因为他不是你心目中的青天大老爷。
(比如本屁股 - 屁股决定脑袋-不感冒稻宗,最大的原因是他没带我发财)
你要多唱几遍国际歌。
PS:联储主席前段时间发牢骚,说了句唐宋以来都不重视普罗大众(大意如此),希望当前困境能倒逼肉食者重视起来。唉, 又想起主席人人为尧舜的宏愿。
我们生活的这个时代,客观来说,就是一个单一领导的领导力非常重要的时代——或者如你所说——“青天大老爷”思想。
你看看海对面如火如荼的总统选举,是不是也在说:“选我,我是青天大老爷”?
而我们国家,从“九龙治水”变成了“两个维护”,这一点究竟是尊尊自己贪恋权力,还是真有其必要性,我们又如何评价?
-
倒逼这种事,不是说不可能,但实际上的确不太可能。
最大的问题,我之前也说过,就是尊尊的智商,你再怎么倒逼,也逼不出正确的结果。
反腐不对吗?扶贫不对吗?环保不对吗?防疫不对吗?做大做强国企不对吗?
可他就是能打着正确的大旗,把事情一个个做得一地鸡毛。
对这种人,你说,怎么倒逼?
防疫倒是倒逼了,结果呢?明明可以倒逼成“不要层层加码”,或者倒逼成“用工业技术防疫”,可他偏偏让倒逼成了“捂嘴反智掩耳盗铃”
-
从这你就能看出来,当前全世界的政治体制下,没有靠谱的“青天大老爷”,就是要坏事。
也就是说:现代人比古人,在治理上,可能没有太跨越式的进步。
这个词成为社会习语以后,才有女人采用的。
不管男人还是女人,都喜欢强者。当然,随着社会身份不同,对『强』的定义不同。对于官太太,芮成钢的小白脸比省委书记都强;但对于劳动女性,即使县委书记都比芮成钢强多了,这就是所谓的饱暖思淫欲。个人偏向虽有不同,大方向一致。你的『仿佛一夜之间』,有中国女性社会地位上升快的因素,更有互联网普及,你能看到听到现实生活中不能取得的私密想法的因素。比如『我想把省篮球队的队员全睡一遍』,有女人想,但大多不会对男人说,但是到了网络匿名,就会说了。类似的,有了网络普及,女人才知道想嫁富婆少奋斗二十年的男生居然如此之多。《玫瑰的故事》里,白晓荷才是现实女人里的王者。
很多女人宁可单身也不肯进行所谓的下嫁,就证明了我的观念。在生活中发泼的女人更多,本人就在地铁上遇到一位老人咳嗽了几下,可能吐痰了,一个小仙女就大怒,说老人不讲卫生,还找地铁工作人员,成功的把老人彻底激怒而重来不想老人的身体,生活习惯不同等原因,可以心平气和的解决问题,说穿了就是刻薄两字。同样遇到很多农民工,弱势群体,男人的表现大多数都和和善,愿意沟通交流。而女性大多是都是看你一眼都觉得亏了的感觉,这你能否认么?所以我觉得中国男人总体上比中国女人好多了,勤劳,识大体。
你们这段的讨论价值非常高。
绝对是白领的那段话:很多事情就是这样,只要开始,就会自我演化下去,在没有受到铁拳的强力打击之前,都不会停止。等过了某个临界点,就会产生自我意识,变成一种自我驱动的运动,根本就不需要什么核心人物来启动,随便一点小事,就会引发强大的风暴,不为少数人个人意志所转移,远的有日本军国主义的兴衰,近的有各国颜色革命。
放在我老婆身上非常合适:我娃就是个耍耍,总是不听我的,我非要把孩子收拾一顿,和别人不停的倾述,强化这种认知,然后晚上就真的收拾孩子一顿!
孩子想,你一天都不信任我,只知道打我,然后自己天天耍手机,我为什么要信你的!为什么要听你的!
然后孩子继续不听话!
不仅仅是我老婆,很多人也有这种倾向:
员工:老板不喜欢我,你看总是针对我,所以我不喜欢老板(老师),结果老师就真的不喜欢你,然后,你看印证了吧!我说的是对的!
老板(老师):那个员工怎么是和刺头,好像不大尊重我,然后平时就不待见这个员工,结果这个员工就真的不喜欢这个领导。
领导说:你看我说的一点没错吧!
哎!
古人说君子不器,其实何止是君子,人人都应该不器,不要被观念驱使!
少说多做,少说多总结!
但是奈何。
被社会认同小的人(年轻人,非独立女性等弱势群体),总是希望别人认同自己,总是希望把自己的想法无限的放大,来证明自己可悲的存在。
所以人世间种种因果,如何诉说!!!
对姜萍,我当然是一笑置之。
对河友,我倒是想问问,不限于姜萍,不限于82事件,不限于发钱,不限于任何事。问1,你们言之凿凿的东西,是自己思考分析的,还是看了某个媒体自媒体之后不加分析全釆了人家的说法。问2,你们言之凿凿时,是基于感情还是基于心愿还是基于消息基于事实。
无论是当年打败柯洁的AlphaGo Master,还是后来谷歌AI在生物化学方面的创新应用,其本质更多的是基于元规则的演绎而不是基于统计。
ChatGPT如果真的只能拼大模型,拼算力的话,那前途是有限的。
(1)统计学习通常用于各种与人类相关的领域,利用人标注的数据,然后完成人能够完成的任务。
(2)强化学习(对抗学习)在算法中属于强搜(brute-force暴力搜索)的变体启发式搜索。完全可以用最基本算法中的“剪枝”来说明,整个解空间是一个多叉树,然后用一些概率性算法来剪枝——这种概率性算法与统计学习是没有区别的。
--
强化学习和常规的统计学习的区别不是在算法上,而是在输入输出上面:常规的统计学习是需要人为标注的,但对抗学习不需要,就像alpha-zero和alpha-master,两个机器棋手,只需要终盘点目准确,就能判断输赢。强化学习就是这样,没有标注,通过两个机器棋手+最终点目程序,就可以自动不断迭代模型。
严格说来,从第一代狗到第三代狗:
(1)ahpha-go是统计学习,有标注,也就是人类棋谱。
(2)alpha-go是强化学习,无标注。
(3)alpha-master是上述两者的混合,既有人类棋谱,也有两个机器棋手的对抗学习。
最后,所有从deep learning(深度学习)开始都是三拼:拼大模型,拼算力,拼数据——没有任何例外。
即使是alpha-zero顶多是因为强化学习,不需要人工标注数据,用两位机器棋手不断自己对弈产生棋谱,在这个过程中自己就能产生大量的数据,然后用点目给这些棋谱标注胜负,才有一种“没有拼数据”的错觉,但实际上对局数也海了去了。
我对AI基本不懂。
记得alphaGo对李世石的时候是几十台的cluster。后来对柯洁的时候,黄博士说他们只用一台4TPU的服务器来允许程序,并且介绍了新版本不需要人工干预,只要教给它规则,它就可以自行学习,听起来就是基于公理的演绎体系。
至少在算法上是大大提高了。
我的理解是AlphaGo Master/Zero基于强化学习后的输出具有极高的可信度,有别于ChatGPT的不着调,其中有着本质的不同。
推广到现在热门的自动驾驶上,其实AI需要解决的问题可以分解为几个问题:
1. 设备的自我管理
2. 道路/车道识别
3. 信号灯识别
4. 障碍物识别
5. 根据以上反馈执行
其中1,2,3,5基本可以算是有限规则限定,4比较开放,单纯拼算力不是好办法,还是要加一些规则约束才容易收敛。
我感觉,答案还是在类似AlphaGo的路径,而不是ChatGPT。
你看你列的五点,三点都是“XX识别”,这个都是最初的深度学习——计算机视觉,图像领域一定是基于大模型、人工标注海量数据、训练的大规模算力、预测时候高性能AI芯片。
最终决策的难点是其实不是技术上的,因为技术上的局限性但最终导致的是伦理上和法律责任上的问题:第一、危机处理,事故的时候自动驾驶如果判断错误带车往人身上撞的伦理问题。第二、上述问题的法律责任问题。
--
李世石对弈的是alpha-go,柯洁对弈的是AlphaGo-master,但【一台4TPU的服务器来允许程序】一定不是训练,而是对弈,具体我已经忘了。
【ChatGPT的不着调】ChatGPT之外的绝大多数AI都是靠谱的,问题只是准不准。ChatGPT是特殊的,ChatGPT的不着调是因为:
它是一个基于语言模型的聊天机器人,即使ChatGPT因为大模型表现得多么令人震惊,它的本质依然是聊天机器人,而不是问答机器人,你要明白这两者的区别。
下面直接抄我之前写过的一个回复:https://www.cchere.net/article/5020474
(1)划重点,聊天机器人就是话术机器人,特点就是——谎话连篇、胡编乱造一流,这一点ChatGPT也不例外。
(2)语言类大模型因为融合了大量的资料,让你可以自己从这些资料中获得想要的答案,并不代表模型能够理解问题或得出答案。
(3)所有的语言类大模型都不负责理解问题,也不负责生成答案,真正学习的是问题和答案之间的统计关系,也就是共现性,而对于自然语言领域,最常见的共现性就是各种话术,例如百度体、小编也想知道……
各种零信息量的话术,才是语言类大模型最最擅长的领域。
(4)语言类大模型使用的时候,好坏的标准在于是否糊弄住用户,注意是糊弄——如果是一个网上已有问题和正确回答,它就给你复述一遍,这种情况下你当然很满意;如果是一个相对陌生的问题,它就利用话术根据相对熟悉的问题给你编一个。
(5)前者是搜索,后者是糊弄,但大多数人看不懂其中的区别,对于糊弄的警觉性也不高。事实上,大多数糊弄的话术,只要不涉及你专业领域,你就拆穿不了。更何况,大多数用户根本没有所谓的“专业领域”,他们的提出的问题大多数时候只会触发前者,也就是“搜索”。
@唐门凤去 老哥,你能够意识到这一点,一定是有自己的专业领域。所有AI相关的人对chatGPT的看法跟你是一样的,chatGPT的不靠谱是因为话术机器人的特征,它就是用来跟你聊天的,chatGPT能够融合很多资料的特性带来很多惊喜,但它依然不是真正的问答机器人。
真正的问答机器人,现在AI还做不到——在特定领域可能实现,但像聊天机器人有这么高的普适性,当前是绝对不可能的,还有太长太长的路要走。
聊天机器人的普适性来自于它不需要真正理解问题,不需要真正回答问题,所以它才会带来惊喜;一旦你要求它的准确性,它对于绝大多数问题就只能回答不知道,然后帮你搜一堆不知道是否准确的参考资料,这就退化成搜索引擎了。问答机器人要求准确性,所以它会把它的能力明明白白告诉你,包括它只是人工智障这一点,所以,就不像先今那些聊天机器人,被媒体赋予人工智能等各种吹嘘之词而出圈了——这是一个娱乐至死的时代。
ps:键政时谈到建国后,我对那些马恩派的肉喇叭特别讨厌的,也是因为他们本质上是一些话术机器人,他们真的很“普适”,普适性远远超过了技术官僚,道理一摸一样:只要不真正解决问题,谁都能做到普世性。
当然限宽墩是纸糊的,仅模拟。场景是两车道左右两侧放置了长方形限宽墩,车辆需要从正常行驶车道跨实线通过限宽墩。测试结果是只有华为智驾顺利通过(全程未减速),如此拙劣的表现再次确认了你的AI是人工智障的判断。再读你的科普,发现L5的路确实遥遥无期。
我之前提到自动驾驶要解决的几个问题,确实2,3,4都可以归于一个问题——环境感知。只是从拟人的角度去看问题就更直观,而且从人类驾驶的感受看,2. 道路/车道识别 3. 信号灯识别 4. 障碍物识别,这三个问题其实等级难度都差不多,决策执行的优先级差不多,而且从算法剪枝处理来看要简单许多。一个大问题(通用性的问题)分解为几个小问题(区域性场景)计算量应该削减很多,甚至很多小问题可以得到近乎100%的答案。
回到限宽墩的场景,首先要解决障碍物识别测量问题,这个领域,没有安装前置激光雷达,毫米波雷达(最好是高精度4D毫米波雷达)的基本上先pass掉了,纯视觉方案理论上可行,但实际应用智障的厉害,也列在失败行列;另外虽然安装了这些传感器,但是无法做好信号融合处理的也失败了。障碍物识别测量做好后,决策执行控制车辆调整姿态通过就相对容易。意外的是,好几辆车子表现得是因为不愿意压实线而失败,决策系统看上去都非常智障。
初步了解了一下自动驾驶常用的几种传感器特征参数后,我大致的判断是自动驾驶传感器起码需要配置4D毫米波雷达,激光雷达和双目(或更先进)摄像头才有可能实现。然而如你所言,哪怕配齐了这些传感器,设备算力也足够大,对于一些非常longtail的障碍物识别依然是巨大的挑战,比如一些细小的东西,如钉子,碎玻璃,钢丝类物体,一些飘动的如塑料袋,飞絮类物体如何界定,感觉蛮怀疑的。因为一旦亚毫米级识别精度的激光雷达都无法识别,而重新借助视觉辅助判断的话,那又回到了听天由命的概率中去。我猜测现在敢给萝卜快跑放行,应该是基于AI的识别/决策能力足够避免恶性事故(可能好于人类驾驶),虽然不免出现各种智障场景。
感觉上,相比纯开放环境的L5级自动驾驶,似乎封闭场景机器人应用的实现短期内更值得期待。
最近同事用ChatGPT/CoPilot的比较多了,吐槽也多起来了。基本上有关C++/python/C#的问题这些个AI工具还算好用,答案基本是准的。但是比较冷门的工具,比如SWIG,pybind11那就不好说了。答案看上去还行,一用就知道这里那里有问题。所以本质上是糊弄,是聊天这话是真没错。其实这种事情,这些AI机器人如果能回答我不知道,或者有这么那么些个选择,我不是很确定,就会好用很多。但事实是还没做哪个机器人是这样回答问题的。
再加上人口减少, 原来少分的人后来可以多分点。
这不是技术上的问题,而是社会的问题啊,社会选择了聊天机器人,机器人只有会糊弄,才会出圈,才会有人用。
真正的问答机器人是个困难的问题,当前的问答机器人老回答不知道的话用户体验极差,反而是会糊弄才会给用户更好的体验。
当前社会不就是这个样子的吗?当所有人都不准备去解决真正的问题的时候,那当然是一窝蜂地在优化用户体验,前者性价比极低,后者性价比极高。
这就是社会的选择啊,所有人都无法做出短期利益之外的选择了——我要说多了就会涉及到我之前写的“淘汰型社会”上面去。