主题:人艰不拆讲笑话之七 2024年新楼 -- 骨头龙
谷歌双子星会把秦始皇画成黑人?😄😄😄
你这么做,算不算实名不正经?😄😄😄
因为打你就是打假呀,毕竟你名字是 伪造者😏
坐一坐,坐一坐,不服你去坐一趟厦门航班,听听人家咋说嘛
大刘的原文:
罗辑的白日梦部分:
但这次他的想象失败了,她仍在外面的风雪中行走着,像一株随时都会被寒风吹走的小草,她穿着那件白色的大衣,围着那条红色的围巾,飞扬的雪尘中也只能隐约看到红围巾,像在风雪中挣扎的小火苗。
她那件洁白的大衣和红色的围巾放在旁边的座位上,只穿着一件米黄色的高领毛衣……下课后,他和她并肩走在那条没有林荫的林荫道上,他能听到她蓝色的靴子踩在雪上的吱吱声。
.
.
有人嘲讽是直男审美,有人嘲讽是文革审美
.
然后就真有人COSPLAY了一个出来
只有你想不到的,没有它做不到的。
谷歌内部有个特殊团队,Responsible AI, “负责任AI”,团队成员不用做开发工作,他们就是负责审核。他们提出的任何意见基本上就是最终决定,产品开发团队没有权力辩解,谁要是多嘴,稍微解释一下,马上就会接到一顶“种族主义者”大帽子。
不难想象,作为具体做事情的,却一点发言权没有,所以慢慢地大家都转到破罐子破摔的态度,这就一点不奇怪了。
有性
有政治
有大人物
有文学修辞
哪里不正经了?
恶心最劣质的节目。全部裁撤一点都不可惜。
米国现在这个哪儿都是,技术问题政治解决,最后就是宦官内臣彻底专权。比如说我混饭吃的这儿,搞各种所谓模型,以前是做模型的各山寨的兄弟们自己带来的种种奇怪的名字,也没人真来管。现在原来AI的叫AI、原来不叫AI的也都叫AI;这么一全民AI以后,就有人来查你这个、那个模型是否歧视某个种族了。这实际上是个技术问题,常见的原因简单地说有两个:一个就是你的样本分布和总人群分布不一样、或者里面某个人群的样本量太小,这个应该很直观;另一个就是隐性目标变量,稍微乱一点,比如说你卖油炸臭豆腐,一个人群以前只能往菜里加点油星,所以油炸臭豆腐的消费量为零,但你不能说他们油炸臭豆腐的需求量为零。这些问题其实学术界早有解决的方法,只是以前工业界基于成本的考虑做得粗糙。现在搞个政审团来监督解决,里面的人专业知识等于零都是优秀的,基本上是远远远远远远远远远远远远地小于零,一半的团员趋于负无穷。我这儿有些梗的兄弟就不服,开会有时候就和政审团的人吵。我这样家里还有两个娃都在交大学学费的只好去劝:这油炸臭豆腐本来也没啥好,吃多了十有八九致癌,被多卖了点大概率不是好事,你较什么真;你跟这些人开会完全可以当作是个互动性小品现场,也来点发散性思维天马行空,就当是西西河里某些人发帖,享受一下又有什么不好,回来以后你想怎么解决他们根本搞不清楚;你要是真愿意下点功夫,把这些学术界的方法搞个应用,申请个专利啥的,然后我们包装成解决AI社会公平问题的科学方法,要是年终奖金pool能由此搞大了,我先分你10%。
白色
红色
蓝色
一个小美女
那更应该把那条狗赎回来,然后让他知道叛徒的下场