西西河

主题:茗谈149:赤雁 -- 本嘉明

共:💬319 🌺1677 🌵36新 💬56 🌺6 待认可2
分页树展主题 · 全看首页 上页
/ 22
下页 末页
                • 家园 咱们小时候叫秘密武器

                  黑科技是本世纪流行的新词,以前叫秘密武器。

                  小朋友对于秘密武器有迷之好感。譬如两边打闹,一方突然拿出臭鸡蛋(那时候还没有挪威鲱鱼这种真-黑科技),那就是真的秘密武器,另一方立刻屁滚尿流。

                  可见秘密武器不一定多么高科技,而是要跳脱常人思维之外。像川普一开口就索要格陵兰,大家目瞪口呆,那就是秘密武器。

                  我打赌川普大嘴里秘密武器还有好几打。老本说的美国遥领先,可能就是这个。论起大嘴无敌,美国领先中国几个数量级,世界第二,仅次于印度。

              • 家园 中国应当对于人类的黑科技有较大的贡献

                现在那边进入黑科技空档期,我们这边进入涌现期,那还是可以拔高一下的,不仅是早年的动画片,三体里面的黑科技也很炫啊。

        • 家园 页岩气页岩油污染太大,美国可以无视污染,中国做不到

          所以其实是自己放弃了。可燃冰都放弃了,不要说页岩气页岩油了。

          直升机现在看来不是以后军事科技发展的趋势,战场生存力堪忧,已经不是发展的重点,所以落后就落后吧。

          总的说来美国科技现在是真的不行了。

      • 家园 俺早就说过

        以前是中国粉天天梦想着从山洞里掏出个黑科技,现在是美国粉天天梦想着从山洞里掏出个黑科技。

        就四个字:唯心主义。。。

        通宝推:潜望镜,
      • 家园 【讨论】国师又再顾左右而言他

        颠倒黑白到令人发指的地步,啥时候openai是开源的?

        网友都尊称openai为closeai,被你这样殖犬吹到天上的chatgpt同理,不但不开源,还踏马的是收费的。

        现在deepseek来了,倒逼这些巨头降低费用,同时这样巨头还是闭源的。

        国师你就舔它们开源?

        谁给你的b脸啊???

        也别急着狡辩,多养生,可以看到这些老巨头倒闭的一天的。

        并且我保证,这些资本家是宁愿倒闭也不开源的。

        不信,且看着吧。

        同理还有银杏叶和沈六代,东大真正的黑科技是山寨美帝不存在的六代机,估计是时空机吧。

        穿越到未来,抄袭波音的六代机,然后拿到这个位面来的。

        通宝推:潜望镜,河兮兮,玉米菜,投桃报李,心远地自偏,李根,
        • 家园 【讨论】OpenAI吃了一个闷亏

          已经在查内鬼、堵漏洞了。

          看看Deepseek有没有能力迭代出新版本就知道了,它到底是不是AI届的淄博烧烤。

          我已经让了你两帖了,希望你能进步一点点,说人话。结果是狗嘴就是狗嘴。

          我记得马斯克公开分析过,Deepseek至少需要5万片辉达的H100,这玩意儿对中国禁运,北京市出现的黑市价肯定是6位数(更新款的H200,在北京出货的黑市价25万人民币)。就算把马大嘴的话打打折,就算按以前国内报道的,幻方只积存了1万片比较低级的辉达芯片,不计入这1万片的买价?你说550万美元够开发吗?要把这一万片芯片的功能,最大潜力同时发挥出来,Ds这140人的开发团队,脑子够用吗?人人都是殷郊吗?

          DS就是歼-35,你想想清楚就明白了,它不是没有内秀,没有中国智慧,但只靠沈飞那点技术积累和自筹资金,怎么有信心开始搞?不就是弄了本秘籍?那人家把第二本藏藏好呢?

          美国中部千万人口城市是哪个?特斯拉市?

          • 家园 脑袋进了不少水,搬来不少垃圾,当然也应该谢谢你。
          • 家园 又露怯了。老本看来不懂AI

            550万美元是“训练R1的费用”,也就是R1这个模型从头到尾训练一次的费用,其中显卡的费用是按“租用单价”*训练时间来算的,不是买断卡的钱。

            deepseek r1训练用了2048个h800 GPU,共消耗278万GPU小时。每小时h800的费用大约2美元,这个是市场上租用的价格,含电费的。算下来就是550万美元左右。

            btw: 所谓deepseek有5万张h100,不是马斯克说的。是一个华裔做生意的人亚历山大.wang说的,马斯克是采信而已。如果用2048个h800就能搞定,那老马的10万个h100的集群显得太傻了。

          • 家园 你就这么看好美国的执行力?

            已经在查内鬼、堵漏洞了。

            想了=做了=做到了

            建议重新了解下一年多前openai的内斗

          • 家园 【讨论】国师你不是自我打脸嘛

            前一贴信誓旦旦,closeai是一个“开源”的东西。

            今天就变成了出了内鬼,机密泄露。

            别说跟其他1450统一话术,你踏马的能不能跟自己统一话术。

            我都怕所谓的closeai找不到所谓的内鬼,又说closeai开源了。

            合着薛定谔的开源是吧?

            还有脸提歼35,那都是沈飞的上一代产品了。

            现在的沈六代,还有下图这个大杀器,你解释解释,波音是怎么通过时空传输机送给中国人的?

            点看全图

            通宝推:心远地自偏,
          • 家园 huggingface上有完整复制deepseek的训练

            https://github.com/huggingface/open-r1

            这个项目目前15.2k星,绝对的明星级项目。Huggingface大本营的更新:

            https://huggingface.co/blog/open-r1/update-1

            在AI开源的大本营, huggingface上有人根据deepseek论文提到的方法,成功重新复现了训练,对论文中没有提到的部分,进行了填补。再把结果和公开部署的deepseek进行benchmark测试对比,我看了一下,各项得分有高有低,但基本一致。学界还有一些人也做了复现,得出的结论完全肯定。

            上面的信息充分说明deepseek不是玩假的,从数据到方法,甚至计算原理全部和盘托出,在写代码的人当中,没有一个人敢贬低deepseek。你看,这几天从微软的Azure到Nvidia,都自行部署deepseek R1,无他,推理效率太高了。按照它的价格,不光不亏钱,还赚钱。

            至于部分信息杂着chatGPT的东西,很正常。毕竟训练数据是公开的,chatGPT已经公开2年了,网上已经有大量它制造的数据,会污染训练数据源,何况deepseek还允许联网搜索,更可能污染。另一方面,大模型的训练过程中,肯定会和各大模型对接,时不时对同一问题对自己做对比测试,并且把测试结果作为强化训练的一部分,各大模型包括不限于chatGPT,但这和蒸馏无关。这个数据量肯定不到总数据量的1%,我估计0.1%以下,再多,付不起钱啊。就好像一个人学艺归来,找人切磋,学习?是的,但这个学习是双向的。

            deepseek的6千多亿参数不可能靠蒸馏而来,任何有脑子的码农都不会相信。因为那要多大的带宽和多大的数据量才能完成啊?光账单就不止1亿美刀了。

            再说,openAI这几天公布的o3 mini,思维链频现中文思考过程,它又是偷谁的呢?

            对自己不懂的东西千万不要随便听那些殖人,他们恨不得中国完蛋,这种雷霆万钧的突破,在它们那里都变成了蒸馏,盗窃,甚至欺骗,其他科技进步呢?

            这些人完全就是用屁股思考。

            通宝推:死扛着,曾伴浮云,青青的蓝,尖石,黄序,exprade,strain2,和平共处,河兮兮,我思故我在,毛毛球,透明,玉米菜,唐家山,草原狼,西电鲁丁,脊梁硬,
分页树展主题 · 全看首页 上页
/ 22
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河