首页 > 游戏攻略 >

AI芯片新突破!SK海力士全球首个实现12层HBM3E产品量产 (ai芯片 知乎)

发布时间:2024-09-29 08:40:41来源:网络转载

本周四,韩国SK海力士宣布,已开始量产全球首款12层HBM3E产品,容量为36GB,这是迄今为止现有HBM的最大容量。SK海力士声称,12层HBM3E产品在速度、容量和稳定性方面均达到全球最高标准。该公司计划在年内向客户提供量产产品。

受此消息影响,SK海力士股价周四在韩股市场上大涨。截至发稿,该公司股价日内涨幅已达到8.89%。

SK海力士率先实现12层HBM量产

今年3月,SK海力士向客户交付8层HBM3E产品,创下业界首位。时隔6个月后,SK海力士再次业界首个实现12层HBM3E芯片量产,再次证明其技术优势。

SK海力士是自2013年推出世界首款HBM以来,开发并供应从第一代(HBM1)到第五代(HBM3E)全部HBM系列的唯一企业。如今,SK海力士实现在业界率先量产12层HBM3E后,将满足人工智能企业日益增长的需求,并继续保持其在人工智能存储器市场的领先地位。

SK海力士总裁Justin Kim表示:SK海力士再次突破了AI内存领域的技术限制,展示了我们在AI内存领域的行业领先地位…为了克服人工智能时代的挑战,我们将稳步准备下一代内存产品,继续保持全球第一的地位。

速度、容量、稳定性均达最高标准

据该公司介绍,12层HBM3E产品在速度、容量、稳定性等人工智能存储器所必需的所有领域都符合世界最高标准。

  • 速度:SK海力士将内存运行速度提高到9.6Gbps,这是目前可用的最高内存速度。如果大型语言模型Llama370b由单个搭载4个HBM3E产品的GPU驱动,每秒可读取总计700亿个参数35次。
  • 容量:SK海力士的12层产品和此前同等厚度的8层产品相比,容量增加了50%。为了实现这一目标,该公司将每个DRAM芯片比以前薄40%,并使用TSV技术垂直堆叠。
  • 稳定性:该公司还通过应用其核心技术Advanced MR-MUF工艺,解决了由于将更薄的芯片堆叠得更高而产生的结构问题。这使得新一代产品散热性能比上一代产品高10%,并通过增强翘曲控制来确保产品的稳定性和可靠性。

北京时间11月13号晚,英伟达在SC2023全球超算大会上推出H200 AI芯片,旨在加速AI大模型训练。 H200作为H100的升级版,基于Hopper架构,适用于数据中心与超级计算机,处理复杂任务。 该芯片首次采用HBM3e高带宽内存,提供高达141GB的内存,内存速度与容量均显著提升,满足大型数据集的需求,特别是开发大型语言模型的关键所在。 与A100相比,H200在内存容量与带宽方面分别增加至接近两倍与2.4倍,为AI领域带来性能飞跃,尤其是在Llama 2等大模型推理方面,速度比H100快一倍。 HGX H200计算模块集英伟达NVLink与NVSwitch高速互连技术,提供四路与八路配置,与HGX H100系统兼容,可提供超过32 Petaflops的FP8深度学习计算能力与1.1TB超高显存带宽。 当与Grace CPU结合使用时,形成GH200 Grace Hopper超级芯片,专为大型HPC与AI应用设计。 H200性能提升主要体现在大模型推理性能上,Llama 2等大语言模型的推理速度较H100提高约10%。 对于模拟、科学研究与人工智能等显存密集型HPC应用,H200的高显存带宽确保高效数据访问与操作,与CPU相比,结果生成时间最多可加快110倍。 预计大型计算机制造商与云服务提供商将于明年第二季度开始使用H200。 GH200 Grace Hopper超级芯片结合了H200 GPU与基于Arm的Grace CPU,专为超级计算机设计,旨在加速复杂AI与HPC应用程序的运行,解决挑战性问题。 GH200将应用于全球40多台AI超级计算机。 英伟达股价在新产品发布后上涨约1%,股价累计涨幅超过230%,自一年前增长了171%。 H200作为H100的升级款,性能提升显著,但面临出口政策限制与高昂价格问题。 美国出口政策对我国AI、半导体等产业造成影响,但消费级产品如4090显卡暂未受限。 科研用户可考虑购买4090涡轮版以应对可能的市场变动。 在此背景下,希望我国能加速技术自主研发,减少对外依赖。

本文链接:http://www.tiefuzhen.com/game/202409/135334.html

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。