Micron đã bắt đầu gửi mẫu bộ nhớ HBM3 Gen2 thế hệ tiếp theo của mình cho khách hàng, bao gồm NVIDIA, những người đã khen ngợi hiệu năng và hiệu suất của nó. Trong cuộc gọi thu nhập vào thứ Tư, Micron dự đoán khoản lỗ "lớn hơn" trong quý tới do nhu cầu giảm từ thị trường bộ nhớ tiêu dùng. Tuy nhiên, Micron cũng tiết lộ rằng công ty đã hợp tác chặt chẽ với NVIDIA và bộ nhớ HBM3 Gen2 băng thông cao của họ dự kiến sẽ ra mắt trong các GPU AI và HPC sắp tới của Team Green trong nửa đầu năm 2024.
Micron hy vọng cơn sốt AI sẽ "giải cứu" họ khỏi các quý tài chính tiêu cực vì Giám đốc điều hành Sanjay Mehrotra của công ty đã dự đoán doanh thu "hàng triệu đô la" từ ngành công nghiệp AI. Công nghệ HBM3 thế hệ tiếp theo của Micron có tên là "HBM3 Gen2". Về thông số kỹ thuật, nó có quy trình chế tạo 1β, mang lại tốc độ nhanh hơn nhiều và dung lượng lớn hơn.
Mẻ đầu tiên của HBM3 thế hệ thứ 2 có thiết kế 8-Hi, cung cấp dung lượng lên đến 24 GB và băng thông vượt quá 1.2 TB/s với hiệu suất trên watt lên đến 2.5 lần so với thế hệ trước. DRAM sẽ hoạt động ở tốc độ 9.2 Gb/s, tăng 50% so với "HBM3" tiêu chuẩn, hoạt động ở tốc độ khoảng 4.6 Gb/s. Micron cũng đã công bố thiết kế "12-Hi", dự kiến sẽ ra mắt sau này.
Nếu nhìn vào tình hình của ngành, SK Hynix đã thống lĩnh thị phần chủ yếu nhờ mối quan hệ chặt chẽ với các công ty như NVIDIA và AMD, nhưng điều này có vẻ sẽ thay đổi trong tương lai. Micron có kế hoạch thống trị thị trường HBM bằng cách nhanh chóng áp dụng các tiêu chuẩn thế hệ tiếp theo, điều này được thể hiện rõ ràng trong sự phát triển ngày nay. Đây cũng là tin tốt cho các nhà sản xuất chip AI vì hiện họ sẽ có nhiều lựa chọn hơn từ các mô-đun Micron, Samsung và SK Hynix HBM3 Gen2/HBM3e.
Giám đốc kinh doanh Sumit Sadana của Micron cho biết: "Chúng tôi đã có các mẫu trong tay khách hàng, so với các mẫu từ đối thủ cạnh tranh của chúng tôi, chúng đều vượt trội hơn. Trên thực tế, mức tiêu thụ điện năng thấp hơn nhiều cho hiệu suất cao hơn đến mức một số khách hàng của chúng tôi không tin vào dữ liệu cho đến khi họ thực sự thử nghiệm nó."
NVIDIA hiện đang có nhu cầu rất lớn từ lĩnh vực AI đối với các chip máy tính của mình, vì vậy công ty đang cố gắng mở rộng chuỗi cung ứng của mình. Đó là nơi các công ty như Micron và Samsung tham gia, nhằm mục đích tìm kiếm cơ hội phù hợp.
Kết luận:
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất. Micron dự kiến bộ nhớ HBM3 Gen2 sẽ ra mắt trong các GPU AI và HPC sắp tới của NVIDIA trong nửa đầu năm 2024. Micron hy vọng cơn sốt AI sẽ giúp công ty thoát khỏi các quý tài chính tiêu cực. Micron có kế hoạch thống trị thị trường HBM bằng cách nhanh chóng áp dụng các tiêu chuẩn thế hệ tiếp theo.
© newsliver.com. All Rights Reserved.