芯片出现售罄的情况并不常见,但在一些特定情况下会发生。比如2021年全球芯片缺货潮,在这一年,全球
最近,英伟达的 BlackwellGPU未来12个月的供应量已全部售罄。
据摩根士丹利分析师与英伟达管理层会面后得到的消息,英伟达的传统客户(如亚马逊、戴尔、Google、Meta、微软等)已经购买了英伟达及其合作伙伴台积电在未来几个季度将能够生产的所有 Blackwell GPU。这在某种程度上预示着现在下订单的新买家必须等到明年年底才能收到货。
Blackwell GPU 系列是英伟达在今年3月发布的。Blackwell GPU 采用定制的双光罩极限 4NP TSMC 工艺制造,GPU 芯片通过 10TBps 芯片到芯片链路连接到单个统一的 GPU,拥有 2080 亿个晶体管。这比 Hopper 系列的 800 亿个有所增加,并包括第二代变压器引擎和新的 4 位浮点 AI 推理功能。
8 月,Nvidia 首席财务官ColetteKress在公司2024 年第三季度财务报表电话会议上告诉分析师,公司预计 2024 年最后一个季度将实现“数十亿美元的 Blackwell 收入”。Blackwell GPU的售罄能够某些特定的程度上反映出AI的持续热度。
前不久,富士康母公司鸿海精密还宣布正在墨西哥打造全球最大的英伟达GB200芯片制造工厂,以应对AI市场对Blackwell芯片的火爆需求。鸿海董事长刘扬伟表示,市场对Blackwell芯片的需求达到“疯狂程度”。计划到2025年产能达到20000台英伟达NVL72机柜。
英伟达上一次售罄是去年的H100 GPU。当时自 ChatGPT 引发生成式 AI 热潮后,擅长训练大模型的英伟达 H100 GPU 需求大增。2023 年 4 月开始,GPU 市场供应变得紧张,到 8 月左右,英伟达 H100 GPU 出现大量短缺,即使当时立即订购,也要等到 2024 年第一季度甚至第二季度才能用上。
OpenAI、Meta 等 AI 公司,亚马逊、微软等云计算公司以及众多想训练自家大模型的科技公司,对 H100 GPU 的需求量巨大。据估算,当时 H100 的缺口高达 43 万张。
随着AI的热潮来袭,售罄的不只英伟达,还有与高性能AI芯片相匹配的HBM。在今年2月,SK海力士管理层表示,虽然计划在 2024 年让 HBM 的产能实现翻番,但该年(2024年)的生产配额已经全部售罄,公司已开始积极筹备 2025 年的订单。其销售和营销副总裁也表示,海力士提前预见了 HBM 内存的高需求,已提前做好提高产能的准备,以满足市场需求并保护其领先地位。
到了5月份,SK海力士CEO 在新闻发布会上又宣布按量产计划2025 年生产的 HBM 产品也基本售罄。
今年3月份,美光CEO Sanjay Mehrotra 在财报电线 年美光的 HBM 产能已销售一空。这主要是因为人工智能服务器的需求推动了 HBM 的迅速增加,使得市场对 HBM 的需求极为旺盛。当时,Sanjay Mehrotra 提到 2025 年的绝大多数 HBM 产能也已被预订。到了6月,美光科技再次表示2024 - 2025 年的 HBM 内存芯片已全部售出。
芯片封装订单。并且由于先进封装产能远不足以满足需求,英伟达GPU长期以来供不应求。
第三季度净利润 3252.6 亿元新台币,同比增长 54.2%,环比增长 31.2%。
总体而言,先进制程(包含 7 纳米及更先进制程)的营收达到全季晶圆销售金额的 69%。
日前,一则有关“2美元/小时出租H100:GPU泡沫破灭前夜”的报道引发国内市场高度关注。与之相类似的文章指出:英伟达H100 GPU在2023年3月上市之后,因需求激增供不应求,其租赁价格从最初的每小时4.7美元一度飙升至每小时8美元以上。但今年以来,H100开始“供过于求”,每小时租赁价格降至2美元左右。AI的投机泡沫会否再次上演?这样的一个问题牵动着每一位AI投资者的神经。这样的一个问题的回答能结合不同预测机构、大厂和市场需求来看。
最新预测数据,到2025年,美国四家规模最大科技巨头的数据中心相关资本支出预计将同比增长至少40%。相关的庞大资本支出基本上与AI挂钩,这代表花旗认为ChatGPT等AI应用的算力需求仍然庞大。
网络的增长机遇正在从数据中心内部的单个服务器系统之间连接扩展到通过DCI连接多个旗舰型数据中心的大型人工智能算力平台。”该分析师团队由华尔街明星分析师阿提夫·马利克(Atif Malik)所领导。
Arm、台积电)相对于历史而言似乎相对昂贵,但对AI的需求可能会导致大型科技股在该领域的资本支出上超过投资者和分析师目前的预期。”
总体而言,大型科技公司将在2024年和2025年分别花费2150亿美元和2500亿美元用于人工智能资本支出。
预计未来两到三年内,在HBM等与AIECO紧密相关的业务领域,集团将进行历史性的大规模投资。”
DRAM芯片薄40%,维持同等整体厚度的同时,容量却提高了50%。这款产品将于年内供货。
TIMES Research 的一份报告,预计到 2024 年,能够开发和运行 ChatGPT 级生成式 AI 的高端 AI 服务器出货量仅占所有服务器的 3.9%。分析师认为这个出货量根本没办法满足云服务提供商的需求。
“到目前为止,英伟达的GPU 狂热还只是起步。全面的生成式人工智能热潮即将到来。”
他撰文计算到,2022年高端 AI 服务器出货量为3.4万台,因此只能构建一套 ChatGPT 级AI系统(这正是 ChatGPT)。次年,即2023年,高端AI服务器出货量达到 20 万台,因此能构建6 到 7 ChatGPT级AI系统。预计今年,有可能构建18至19个 ChatGPT级AI系统。这个出货量,对于美国的足云服务提供商来说是不满意的。
黄仁勋这位英伟达“掌舵人”也在日前现身说法。在接受Altimeter Capital采访时他强调,对英伟达的持续看涨与互联网泡沫顶峰时期围绕思科的狂热完全不同。英伟达正在“重塑计算”,未来将是“高度机器学习”的时代。
本号对所有原创、转载文章的陈述与观点均保持中立,推送文章仅供读者学习和交流。文章、图片等版权属于原本的作者享有,如有侵权,联系删除。
电子发烧友网报道(文/黄山明)近日,据外国媒体报道,包括英飞凌、恩智浦、意法半导体等多家全球性
都公开表示,希望能与中国买家建立更密切的联系,因此不少公司开始将生产环节放到中国本土,来更好地服务
的问题把。 关于模拟开关与ADS1256的连接图,由于目前在测试,用的都是已经焊接好的模块经过杜邦线来连接的,所以没有连接的电路图,实在
推出首款自研5G调制解调器。这一举措对高通而言,无疑构成了巨大的挑战。
=0xd1,读出来也是6, 以下我我的log信息 左边是写入,右边是回读的, 需要帮忙分析一下!谢谢!
,我写错了,0x51读取出来为7是正确的。 1)PCM3168工作在I2S从模式下
近日,有消息称英特尔为应对内部策略调整及终端需求变化,已对其旗下AI服务器
的上表面(标记信号的面)用导热硅胶粘上散热片的方式可不可行?OPA544
热冲压工艺(Hot Stamping)近年来在汽车制造域越来越流行,以前较高端车型使用的热冲压件才超过白车身重量的30%,而现在大部分的新能源车都能做到30%以上的比例了,甚至很多车型的热冲压件占比不到30%都
使用rf studio的时候需要配置偏置模式,这个偏置电路是由内部还是外部提供的?
问一个非常基础的问题,当使用rf studio的时候需要配置偏置模式,包括内部偏置和外部偏置,这个偏置是指
工作的时候偏置电路是由内部还是外部提供的吗? 比如下面这个cc1352r
。这一成绩主要归功于人工智能(AI)技术的蓬勃发展,极大地推动了市场对HBM
的RISC-V之路 /
。” 值得注意的是,此前市场研究机构Yolo Group报告说明,2023年HBM
的五倍。然而,市场热度在AIGC的带动下依然有增无减。 SK海力士靠
SM4500过程中,时常会出现数据不稳定情况,如下图1,客户设备与不同的RS-485设备通讯时,有的设备通讯稳定,有的
说自己做过RS-485总线开发! /
带动下,鸿蒙开发者数量激增,近期鸿蒙开发者新增注册过万。招聘市场上,鸿蒙开发相关岗位月薪
鸿蒙原生页面高性能解决方案上线OpenHarmony社区 助力打造高性能原生应用
VirtualLab Fusion应用:具有高数值孔径的反射显微镜系统


