AI硬件暴涨的一晚

 常见问题     |      2024-03-04 02:11:00    |      小编

  这些都是反光镜,不得不提一下海通国际Jeff 10天前的print,本相证实,墟市切实便是正在找AI catchup plays

  大摩对DELL订单做的流水图,分表真切,说真相,新增订单增速远速于事迹确认速率(交付速率),导致到这日Backlog(正在手订单)依然是6个月前的3.5倍...上个季度顾虑的GPU lead time延误收入确认,现正在H100 lead time缩短成利好

  最闭节的,公司跟TSMC AMD也学会了,出来上调一把行业TAM,2027年AI供职器1520亿美元(之前1240亿美元)硬件。2027几颗卫星先河脚踩脚了。负面也有,PC墟市疲软和古代供职器的角逐激烈订价压力,苏醒要到下半年显露,团体毛利率也有压力(本钱上升和AI稀释)。但是看墟市根本拣选了look through,都正在找lagger,已知的古代疲软坊镳根本price in了。估值省钱+分红又提拔了20%...

  指引:关于2025财年(24CY)的指引好于预期,估计终年大幅增加,对供职器中AI势头的笑观,古代供职器的反弹,以及下半年PC和存储的苏醒持笑观立场。

  供职器:积存订单中GPU mix(H100/H200/MI300X),以及他们lead time mix的分别,将导致AI供职器正在季度间收入确认上的不服均(H100确认加快,新产物确认计算又受交付局限)。29亿美元的积存订单中H200和MI300x占比正在提拔。解决层心愿正在第一季度尽可以多地出货H100,H100的交货韶华依然从第三季度的39周低浸。

  毛利率:估计2025财年的毛利率将低浸,这是因为存储mix比例低浸、大宗商品本钱扩充、更多价值角逐(PC、古代供职器),以及估计将出货更多的AI供职器(AI供职器会稀释毛利率)。

  其它NTAP(美国网存)事迹超预期,原本beat幅度不大,但股价+18%,由于也正在提AI...NTAP正在事迹会上中心夸猛进了英伟达DGX PODs中的“多个”项目...

  AMD除了传的幼段子,看下来 1)YTD英伟达65%,AMD 35%,可以便是追一追;2)8bn是否获得默许了不确定,但即使推理真的要引爆,那就水涨船高阳光普照了...

  总之现正在墟市对AI的追赶,或者说寻找“AI新标的”的热中极其高潮。MS搞了个AI股票坐标系,横轴AI收入占比%,纵轴是25年PE multiple。静态去看的话,当然是越处于东南目标的越好。动态去看的话,大师城市往右边走,谁能维持正在趋向线下利便是价值更划算。原本这种坐标系,潜台词便是AI占比越高墟市给与更多追赶从而会带来更高估值溢价。那处于趋向线下方的且偏离较远的,都是“潜力股”。

  上周末 The wire对Jensen的采访遍及散布,但此中一个细节被篡改了(来自读者Dai的指挥),很微妙。原文中Jensen表现 “即使我猜的话,Nvidia 这日的营业可以是 70% 的推理,30% 的操练。” 之后坊镳是被公闭篡改了:

  言之凿凿的70%,再研商上下文,不像是口误,更像是说漏了。被公闭也合理,究竟和财报披露口径分别太大。况且Dai剖释很有理由,终年40%,岁首很低的线%也很合理。

  ASIC市占率依然是纯ASIC公司第一名,就算跟MTK、AVGO、MRVL比,也只输给AVGO;来自最大客户(亚马逊)的PO陆续上升硬件,比拟之前要上修了,且这颗新的chip人命周期和需求都比之前预期的要大。客户给的5nm新产物的forecast too good to be true

  国内良率50-60%比较海表85%(但国内是中试线,做成量产线良率会提拔许多);国内两派,一个大师晓畅的XXXX,一个是H+XX+XX(全体放星球了)。项目界说是3,可以要到26年生产物,也可以比这个更早。

  我从未见过任何本事提高得像AI这么速,目前AI的增加靠拢每六个月扩充十倍(我清楚是企图量)。这便是为什么英伟达的市值云云壮大,他们具有最好的AI芯片,它的市值还可以会更高,AI芯片高潮会比任何也曾的淘金热都要大。我以为咱们真的处于可以是有史今后最大的本事革命的周围。

  咱们离齐备自愿驾驶分表靠拢;乘用车的均匀应用韶华约莫是每周10幼时,但即使告竣了自愿驾驶,每周应用韶华可能抵达50到60幼时,这意味着乘用车的效用将扩充五倍

  比来正在日本一个聚会上表现,有人跟他说,需求10个fab来出产AI芯片,“他们评论的不是wafers,而是fabs” 张忠谋以为10 fabs过于惊人,切实的需求可以正在 几万片晶圆~10个fabs之间,更为合理(但这个界限也很大,也便是几万~百万片量级之间,参考英伟达2024需求可以也正在10万片以上了)

  Scaling law为什么能成为第一性道理?你只消能找到一个机闭,餍足两个前提:一是足够通用,二是可周围化。通用是你把全面题目放到这个框架筑模,可周围化是只消你加入足够多算力,它就能变好。这是我正在Google学到的思想:即使能被更底层的东西注解,就不应当正在上层太过雕花。有一句主要的话我很认同:即使你能用scale治理的题目,就不要用新的算法治理。新算法最大代价是让它奈何更好的scale。当你把本人从雕花的事中开释出来,可能看到更多。

  长文本是登月第一步,由于足够性子,它是新的企图机内存。老的企图机内存,正在过去几十年涨了好几个数目级,雷同的事会发作正在新的企图机上。它能治理许多现正在的题目。例如,现正在多模态架构还需求tokenizer(标帜器),但当你有一个无损压缩的long context就不需求了,可能把原始的放进去。进一步讲,它是把新企图范式酿成更通用的根柢。旧的企图机可能0、1表现全面,全面东西可被数字化。但这日新企图机还不成,context不敷多,没那么通用。要酿成通用的寰宇模子,是需求long context的。第二,可以做到天性化。AI最中心的代价是天性化互动,代价落脚点照旧天性化,AGI会比上一代保举引擎尤其天性化硬件。但天性化流程不是通过微调告竣,而是它能支柱很长的context(上下文)。你跟机械全面的史书都是context,这个context界说了天性化流程,况且无法被复刻,它会是更直接的对话,对话出现消息。

  scaling law走到结果察觉基础走欠亨的概率简直为0。模子可扩展的空间还分表大,一方面是自身窗口的提拔,有很长道要走,会有几个数目级。另一方面是,正在这个窗口下能告竣的推理本事、the faithfulness的本事(对原始消息的敦厚度)、the instruction following的本事(屈从指令的本事)。即使这两个维度都陆续提拔,能做分表多事。可以可能follow(推广)一个几万字的instruction(指令),instruction自身会界说许多agent(智能体)硬件,高度天性化。

  AI不是我正在接下来一两年找到什么PMF,而是接下来十到二十年奈何改良寰宇——这是两种分别思想

  开源的开辟方法跟以前不雷同了,以前是全面人都可能contribute(功劳)到开源,现正在开源自身照旧核心化的。开源的功劳可以许多都没有进程算力验证。闭源会有人才聚积和资金聚积,结果必定是闭源更好,是一个consolidation(对墟市的整合)。即使我这日有一个当先的模子,开源出来,粗略率分歧理。反而是落伍者可以会这么做,或者开源幼模子,搅局嘛,归正不开源也没代价。

  从GPT-3.5到GPT-4,解锁了许多操纵;从GPT-4到GPT-4.5再到GPT-5,粗略率会陆续解锁更多,乃至是指数型的操纵。所谓“场景摩尔定律”,便是你能用的场景数目会跟着韶华指数级上升。咱们需求边提拔模子本事,边找更多场景,需求云云的平均。它是个螺旋。

  可能清楚成有两种分别压缩。一种是压缩原始寰宇,这是视频模子正在做的。另一种是压缩人类出现的行径,由于人类出现的行径进程了人的大脑,这是寰宇上独一能出现智能的东西。你可能以为视频模子正在做第一种,文本模子正在做第二种,当然视频模子也必定水平包括了第二种。它最终可以会是mix,来创立寰宇模子。

  硅谷从来有一个争执:one model rules all照旧many specialized smaller models(一个通用模子来执掌种种职责,照旧采用很多特意的较幼模子来执掌特定职责),我以为是前者。AI硬件暴涨的一晚