โซล : บริษัทซัมซุง อิ เล็กโทรนิคส์ กล่าวว่า บริษัทกำลังดำเนินการตามแผนที่จะเริ่มส่งมอบผลิตภัณฑ์หน่วยความจำความเร็วสูง HBM4 รุ่นใหม่ในไตรมาสแรกของปี 2026 โดยบริษัทระบุว่า กลุ่มผลิตภัณฑ์ HBM4 จะรวมถึงผลิตภัณฑ์ที่มีประสิทธิภาพ 11.7 กิกะบิตต่อวินาที ซึ่งเป็นการขยายยอดขายหน่วยความจำที่ใช้ในเซิร์ฟเวอร์และตัวเร่งความเร็วปัญญาประดิษฐ์ ซัมซุงไม่ได้ระบุชื่อลูกค้าสำหรับการส่งมอบ HBM4 ครั้งแรก และไม่ได้เปิดเผยปริมาณการจัดส่งในเอกสารรายงานผลประกอบการ

ในรายงานผลประกอบการไตรมาสที่สี่และปี 2025 ซัมซุง ระบุว่าธุรกิจหน่วยความจำของบริษัททำรายได้และกำไรจากการดำเนินงานสูงสุดเป็นประวัติการณ์ โดยได้รับการสนับสนุนจากยอดขายผลิตภัณฑ์ที่มีมูลค่าสูงที่เพิ่มขึ้น เช่น HBM, DDR5 สำหรับเซิร์ฟเวอร์ และไดรฟ์โซลิดสเตทสำหรับองค์กร บริษัทกล่าวว่าข้อจำกัดด้านอุปทานยังคงเป็นปัจจัยสำคัญ แม้ว่าความต้องการด้านการประมวลผล AI จะยังคงกระตุ้นให้เกิดการบริโภคหน่วยความจำและอุปกรณ์จัดเก็บข้อมูลขั้นสูงที่ใช้ในศูนย์ข้อมูลเพิ่มขึ้นก็ตาม
หน่วยความจำแบนด์วิดท์สูง (HBM4) เป็น เทคโนโลยี DRAM แบบเรียงซ้อนในแนวตั้งที่ออกแบบมาเพื่อเพิ่มปริมาณการรับส่งข้อมูลเมื่อเทียบกับ DRAM ทั่วไป และ HBM4 เป็นรุ่นใหม่ล่าสุดต่อจาก HBM3E ในการนำเสนอข้อมูลแก่นักลงทุนพร้อมกับการประกาศผลประกอบการ ซัมซุงกล่าวว่า บริษัทวางแผนที่จะเริ่มส่งมอบ "ผลิตภัณฑ์จำนวนมาก" ที่ใช้ HBM4 รวมถึงรุ่น 11.7 Gbps และอ้างถึง "การจัดส่งที่ทันท่วงที" ของ HBM4 เป็นส่วนหนึ่งของแนวโน้มระยะสั้นสำหรับผลิตภัณฑ์ที่เกี่ยวข้องกับ AI
Nvidia ผู้จัดจำหน่ายตัวเร่งความเร็วศูนย์ข้อมูล AI รายใหญ่ที่สุด ได้เปิดตัวแพลตฟอร์ม Rubin ซึ่งระบุว่าใช้ HBM4 ในการกำหนดค่าระบบหลายแบบ ในหน้าข้อมูลจำเพาะของผลิตภัณฑ์ Nvidia สำหรับระบบ Vera Rubin NVL72 ระดับแร็ค บริษัทระบุว่ามี HBM4 ขนาด 20.7 เทราไบต์ พร้อมแบนด์วิดท์ 1,580 เทราไบต์ต่อวินาที และ HBM4 ขนาด 288 กิกะไบต์ พร้อมแบนด์วิดท์ 22 เทราไบต์ต่อวินาที สำหรับ GPU Rubin ตัวเดียว โดยระบุว่าตัวเลขเหล่านี้เป็นข้อมูลเบื้องต้นและอาจมีการเปลี่ยนแปลงได้
ข้อกำหนดด้านหน่วยความจำของแพลตฟอร์ม Rubin
แถลงการณ์ผลประกอบการของซัมซุงยังชี้ให้เห็นถึงการทำงานที่กว้างขวางยิ่งขึ้นในด้านการผลิตและการบรรจุภัณฑ์เซมิคอนดักเตอร์ขั้นสูงที่เชื่อมโยงกับการประมวลผล AI บริษัทกล่าวว่าธุรกิจโรงหล่อของบริษัทได้เริ่มการผลิตผลิตภัณฑ์ 2 นาโนเมตรเจเนอเรชั่นแรกในปริมาณมาก และเริ่มจัดส่งผลิตภัณฑ์ HBM base-die ขนาด 4 นาโนเมตร ซึ่งเป็นส่วนประกอบที่ใช้ในชั้นตรรกะของหน่วยความจำแบนด์วิดท์สูง ซัมซุง กล่าวว่าบริษัทวางแผนที่จะนำเสนอโซลูชันที่เหมาะสมที่สุดผ่านการบูรณาการเทคโนโลยีตรรกะ หน่วยความจำ และการบรรจุภัณฑ์ขั้นสูง
ผู้ผลิตหน่วยความจำรายใหญ่อื่นๆ ก็ได้เผยแพร่กำหนดการสำหรับความพร้อมของ HBM4 เช่นกัน SK hynix กล่าวในเดือนกันยายน 2025 ว่าได้พัฒนาและเตรียม HBM4 เสร็จสมบูรณ์แล้ว และได้เตรียมระบบการผลิตจำนวนมากไว้แล้ว Micron กล่าวในการนำเสนอข้อมูลแก่ นักลงทุน ในเดือนธันวาคม 2025 ว่า HBM4 ของบริษัท ซึ่งมีความเร็วมากกว่า 11 Gbps กำลังอยู่ในขั้นตอนการผลิตที่เพิ่มขึ้นด้วยผลผลิตสูงในไตรมาสที่สองของปี 2026 ซึ่งสอดคล้องกับแผนการผลิตของแพลตฟอร์มของลูกค้า
แผนงาน HBM4 ที่แข่งขันกัน
ในการอธิบายโครงการ HBM4 ของตนเอง Micron กล่าวว่า HBM4 ใช้ เทคโนโลยี CMOS และการเคลือบโลหะขั้นสูงบนชิปตรรกะพื้นฐานและชิป DRAM ซึ่งได้รับการออกแบบและผลิตภายในบริษัท และชี้ให้เห็นว่าความสามารถในการบรรจุภัณฑ์และการทดสอบมีความสำคัญอย่างยิ่งต่อประสิทธิภาพและเป้าหมายด้านพลังงาน SK hynix อธิบายว่า HBM4 เป็นส่วนหนึ่งของความก้าวหน้าในหน่วยความจำแบบเรียงซ้อนที่สร้างขึ้นสำหรับ AI ประสิทธิภาพสูงเป็นพิเศษ ซึ่งแบนด์วิดท์และประสิทธิภาพการใช้พลังงานเป็นข้อกำหนดหลักสำหรับการทำงานของศูนย์ข้อมูล
เอกสารรายงานผลประกอบการของ Samsung ไม่ได้เชื่อมโยงกำหนดการส่งมอบ HBM4 กับโครงการประมวลผล AI หรือการใช้งานของลูกค้ารายใดโดยเฉพาะ การประกาศและข้อมูลจำเพาะที่เผยแพร่ของ Nvidia เกี่ยวกับ Rubin ก็ไม่ได้ระบุซัพพลายเออร์ของ HBM4 และ Nvidia ก็ไม่ได้เปิดเผยการจัดสรรซัพพลายเออร์สำหรับ HBM4 ที่ใช้ในระบบ Rubin Samsung ยืนยันกำหนดเวลาดังกล่าวในรายงานผลประกอบการว่า การส่งมอบ HBM4 คาดว่าจะเริ่มภายในไตรมาสแรกของปี 2026 – โดย Content Syndication Services
บทความเรื่อง "ซัมซุงตั้งเป้าส่งมอบ HBM4 ในไตรมาสแรกเพื่อรองรับการเติบโตของ AI" เผยแพร่ครั้งแรกใน UAE Gazette
