Xuất xưởng HBM4, Samsung lấy lại vị thế dẫn đầu chip AI

Samsung chính thức trở thành đơn vị đầu tiên trên thế giới bắt đầu xuất xưởng thương mại dòng bộ nhớ băng thông cao thế hệ thứ 6 (HBM4), linh kiện cốt lõi trong ngành công nghiệp AI.
Với sức mạnh vượt trội, dòng chip HBM4 của Samsung được cho là đã sớm vượt qua những bài kiểm tra chất lượng khắt khe từ khách hàng chiến lược Nvidia. (Nguồn: Reuters)

Samsung Electronics ngày 12/2 xác nhận đã bắt đầu sản xuất hàng loạt và xuất xưởng HBM4 với hiệu năng được đánh giá là mạnh mẽ nhất trong ngành hiện nay.

Như vậy, Samsung đã chính thức trở thành đơn vị đầu tiên trên thế giới bắt đầu xuất xưởng thương mại dòng bộ nhớ băng thông cao thế hệ thứ 6 (HBM4), linh kiện cốt lõi trong ngành công nghiệp trí tuệ nhân tạo (AI).

Đây được xem là bước đi chiến lược nhằm chiếm lĩnh thị trường thế hệ mới, trong bối cảnh gã khổng lồ bán dẫn Hàn Quốc từng đối mặt với những nghi ngại về khủng hoảng kinh doanh sau khi bị hụt hơi trong cuộc đua HBM ở các thế hệ trước.

Đáng chú ý, Samsung đã đẩy nhanh lịch trình sớm hơn khoảng một tuần so với kế hoạch ban đầu (vốn dự kiến là ngay sau kỳ nghỉ Tết Nguyên đán) sau khi đạt được thỏa thuận với các đối tác.

Với sức mạnh vượt trội, dòng chip HBM4 của Samsung được cho là đã sớm vượt qua những bài kiểm tra chất lượng khắt khe từ khách hàng chiến lược Nvidia.

Ngay từ giai đoạn phát triển, Samsung đã đặt mục tiêu tạo ra một sản phẩm vượt xa các tiêu chuẩn của Hội đồng điều hành kỹ thuật thiết bị điện tử (JEDEC).

Để hiện thực hóa điều này, Samsung đã tung ra "quân bài chiến lược" khi lần đầu tiên kết hợp đồng thời công nghệ DRAM 1c (tiến trình 10nm thế hệ thứ 6) và quy trình đúc chip (foundry) 4nm.

Sự kết hợp độc nhất vô nhị này cho phép HBM4 đạt tốc độ xử lý dữ liệu lên tới 11,7 Gbps, vượt 37% so với tiêu chuẩn JEDEC (8 Gbps) và nhanh hơn 22% so với thế hệ HBM3E tiền nhiệm (9,6 Gbps).

Bên cạnh tốc độ, thông số kỹ thuật của HBM4 cũng gây kinh ngạc khi băng thông bộ nhớ trên mỗi stack tăng gấp 2,4 lần, đạt mức tối đa 3 TB/s.

Với công nghệ xếp chồng 12 lớp, mỗi chip cung cấp dung lượng lên tới 36GB và dự kiến có thể mở rộng lên 48GB nếu áp dụng kỹ thuật xếp chồng 16 lớp trong tương lai.

Giới chuyên gia cho biết không chỉ tối ưu hóa hiệu suất tính toán, thiết kế tiết kiệm điện năng của sản phẩm còn giúp giảm đáng kể chi phí làm mát và tiêu thụ điện cho những hệ thống máy chủ cũng như trung tâm dữ liệu quy mô lớn./.

(TTXVN/Vietnam+)

Tin cùng chuyên mục