主题:【原创】深入谈一下chatGPT对我们我国的重大影响 -- 东东山
谷歌的TPU芯片1代最早的那个,就是28nm+700Mhz的,int8也有92TOPs
哪怕是迭代之后的TPU V2/V3,16nm制程就可以满足123TFLOPS的性能。
作为对比,现在最先进的A100是int8-624TOPS,FP16是312TFPLOS
可以看到并没有拉开太大的差距,靠堆芯片解决算力问题完全可行。
而且28nm和16nm的之间的门槛相对于半导体全产业化的难度来说简直可以说不存在。
/
理论上如果国家没吹牛的话,这个水平的AI芯片我们应该是完全可以自主爆量生产的,产量够大的话成本可以平摊到低到不可思议的水平。
想象一下随便哪个阿猫阿狗企业都有100B参数模型的情况吧。OpenAI还只会是独苗么?
/
但是现在完全没有类似的迹象。百度搞个AI还得借卡。
几百张卡的大模型算起来斤斤计较。
所以别说5nm/3nm这些尖端制程了,先把28/16nm这些成熟制程的产能爆起来,都可以有效的缓解国内的芯片饥渴。
/
半导体不能再等了,这真的是原子弹级别的生死存亡的技术。
算力短缺就别重复电子产业发展史了,先把算力补上才是最重要的。
弄显卡的话一堆图形学专利卡着门槛,弄AI芯片这种全新赛道必须有当年斯大林攻坚石油工业的投入,弄好了可以躺着吃几十年。
- 相关回复 上下关系8
压缩 4 层
🙂不需要高端显卡 1 孟词宗 字70 2023-03-18 20:28:47
🙂你可能忘记了专利仅仅在市场经济条件下才适用 4 潇洒 字358 2023-03-16 08:15:51
🙂好几年前就有个寒武纪芯片 2 东方白 字51 2023-03-15 07:17:41
🙂不用寒武纪这么高制程的芯片
🙂啥呀,真就是离开了cuda不会用了? 14 狙个梨子 字681 2023-03-06 02:58:28
🙂百度3.16号明天发布的大模型,展示芯片用的是 8 pattern 字440 2023-03-15 10:35:26
🙂百度是国内这个领域最强的,结果就弄了个 PPT 2 随晨而安 字115 2023-03-17 04:54:11
🙂可能你的预期太高,我看了各种评测 4 pattern 字265 2023-03-17 10:59:28