辉达揭最强AI晶片「H200」!股价连十涨创历史新高, 微软、Google Cloud..率先启用

辉达(Nvidia)13 日宣布推出最新 AI 晶片 NVIDIA HGX H200,相比其前身 NVIDIA A100,其内存容量和频宽分别提高了近 1 倍和 2.4 倍。预计在 2024 年第二季度,开始向全球系统制造商和云端服务供应商供货。
(前情提要:急杀》比特币清晨重挫34800、以太坊失守2000,10月CPI降温反带崩市场?)
(背景补充:美国再扩大晶片禁令,增列40多国!Nvidia盘中重挫8%,官宣对财报影响不大)

美国劳工统计局(BLS)昨(14)日晚间发布 10 月 CPI(消费者物价指数)报告,年增率 3.2% 低於预期、核心 CPI 4% 也创 2021 年 9 月以来的新低。降温的通膨数据推动了美国科技股大幅上涨,其中辉达(Nvidia)股价更是创下历史新高。

NVDA price|Google 财经

辉达本周宣布推出 H200

除了预期联准会本轮升息循环很可能已经结束之外,辉达在本周 13 日也发布新闻稿,正式推出最新 AI 晶片「 NVIDIA HGX H200」。

据了解,H200 配备了 NVIDIA H200 Tensor Core GPU 和先进的内存技术,能够处理大量数据,满足生成式 AI 和高性能计算(HPC)工作负载的更庞大需求。

NVIDIA HGX™ H200

NVIDIA 表示 H200 是首款提供 HBM3e 内存的 GPU,相比其前身 NVIDIA A100,其内存容量和频宽分别提高了近 1 倍和 2.4 倍,达到 141 GB 内存和每秒 4.8TB 的传输速度,帮助进行「推论」任务,这意味着它可以使用已经训练好的大型语言模型来创造文字、图片或进行预测。

辉达通过测试表明,当使用 Meta 的开源AI模型「Llama 2」时,他们新推出的 H200 在推论任务上的速度几乎是前代 H100 的两倍,更值得一提的是 H200 与 H100 是兼容的,也意味着目前使用 H100 来训练 AI 模型的企业,可以毫无障碍地升级到 H200,无需更改他们现有的伺服器系统或软体规格。

2024 年 Q2 开始供货

预计在 2024 年的第二季度,辉达将开始向全球系统制造商和云端服务供应商供货 H200,这款处理器的主要竞争对手是超微(AMD)的MI300X GPU,MI300X 也增加了额外的记忆体,同样可协助大型 AI 的模型执行推论功能。

辉达进一步宣布,包括亚马逊 AWS、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 在内的云端服务提供商将成为首批部署 H200 的公司。此外, CoreWeave、Lambda 和 Vultr 等公司也计划加入这一行列。

📍相关报导📍

AI大未来!这6个加密专案加入了 NVIDIA Inception 计划

市场快读》Nvidia陪美股全线跳水;比特币无短期利好、投资人止步观望

Nvidia遭殃!美国拟禁令AI晶片输出中东,完成金砖国封锁网

Leave a Reply

Your email address will not be published. Required fields are marked *