Logo

Tìm kiếm: HBM

Micron Cách Mạng Bộ Nhớ HBM: HBM4e Tùy Chỉnh Đột Phá Công Nghệ!
Micron Cách Mạng Bộ Nhớ HBM: HBM4e Tùy Chỉnh Đột Phá Công Nghệ!

Micron vừa công bố thông tin cập nhật cực kỳ ấn tượng về chương trình HBM4 và HBM4e của mình, hứa hẹn một cuộc cách mạng trong lĩnh vực bộ nhớ. HBM4 thế hệ tiếp theo, với giao diện 2048-bit, dự kiến sẽ được sản xuất hàng loạt vào năm 2026. Nhưng điểm nhấn thực sự nằm ở HBM4e!

Tác giả: Tuấn Anh Tuấn Anh
344
Mỹ rót 458 triệu USD vào nhà máy chip AI của SK Hynix, tạo 1000 việc làm!
Mỹ rót 458 triệu USD vào nhà máy chip AI của SK Hynix, tạo 1000 việc làm!

Bộ Thương mại Mỹ vừa công bố khoản đầu tư 458 triệu USD trực tiếp cho dự án nhà máy đóng gói và nghiên cứu phát triển chip trị giá 3,87 tỷ USD của SK Hynix tại West Lafayette, Indiana. Nhà máy này sẽ sản xuất chip HBM - cốt lõi của công nghệ trí tuệ nhân tạo (AI), giúp lấp đầy khoảng trống quan trọng trong chuỗi cung ứng bán dẫn của Mỹ. Thêm vào đó, SK Hynix còn nhận được khoản vay lên tới 500 triệu USD, tất cả đều đến từ "Đạo luật Ván mạch" (Chips Act). Dự án này dự kiến tạo ra 1000 việc làm mới tại Indiana và thúc đẩy nghiên cứu phát triển nhờ sự hợp tác với Đại học Purdue lân cận.

Tác giả: Phong Lâm Phong Lâm
405
Siêu Chip Monaka 144 Nhân của Fujitsu: Sức Mạnh Tính Toán Thế Hệ Mới Cho Trung Tâm Dữ Liệu
Siêu Chip Monaka 144 Nhân của Fujitsu: Sức Mạnh Tính Toán Thế Hệ Mới Cho Trung Tâm Dữ Liệu

Fujitsu vừa trình làng mẫu chip Monaka 144 nhân dựa trên kiến trúc ARMv9, hứa hẹn một cuộc cách mạng về sức mạnh tính toán cho các trung tâm dữ liệu. Đây là một con chip khổng lồ, được phát triển hợp tác cùng Broadcom, sử dụng công nghệ đóng gói 3.5D tiên tiến.

Tác giả: Kiên Đăng Kiên Đăng
887
Nvidia
Nvidia "kẹt giữa hai lửa" trong cuộc chiến thương mại Mỹ - Trung

Cuộc chiến thương mại Mỹ - Trung đang leo thang, và Nvidia, gã khổng lồ chip đồ họa, đang bị đặt vào thế "ngàn cân treo sợi tóc". Chính phủ Trung Quốc cáo buộc Nvidia vi phạm luật chống độc quyền, tập trung vào thương vụ mua lại Mellanox năm 2020 trị giá 7 tỷ USD.

Tác giả: Tuấn Anh Tuấn Anh
631
Mỹ Thắt Chặt Kiểm Soát Xuất Khẩu Công Nghệ Bán Dẫn, Nhắm Trúng Trung Quốc Nhưng Ít Nghiêm Khắc Hơn Dự Kiến
Mỹ Thắt Chặt Kiểm Soát Xuất Khẩu Công Nghệ Bán Dẫn, Nhắm Trúng Trung Quốc Nhưng Ít Nghiêm Khắc Hơn Dự Kiến

Chính quyền Biden sắp ban hành các quy định mới nhằm kiềm chế sự phát triển công nghệ bán dẫn của Trung Quốc. Tuy nhiên, các biện pháp trừng phạt này sẽ nhẹ nhàng hơn so với dự đoán ban đầu.

Tác giả: Phong Lâm Phong Lâm
747
CAMM2: Tiêu chuẩn mới cho RAM laptop chính thức ra đời!
CAMM2: Tiêu chuẩn mới cho RAM laptop chính thức ra đời!

CAMM, một hình thức hoàn toàn mới cho RAM laptop, đã chính thức trở thành tiêu chuẩn của JEDEC.

Tác giả: Thùy Linh Thùy Linh
6426
SK hynix Phát Triển Bộ Nhớ DRAM Mới Với Tốc Độ Cao Và Chi Phí Thấp
SK hynix Phát Triển Bộ Nhớ DRAM Mới Với Tốc Độ Cao Và Chi Phí Thấp

SK hynix, một trong những nhà sản xuất chip nhớ lớn nhất thế giới, đang phát triển một loại bộ nhớ DRAM mới kết hợp giữa băng thông rộng và chi phí thấp hơn so với các giải pháp HBM hiện tại. Loại bộ nhớ mới này sẽ sử dụng công nghệ đóng gói 2.5D fan-out và có thể được sử dụng cho các ứng dụng đồ họa hoặc di động.

Tác giả: Diễm Phương Diễm Phương
3598
SK hynix chiếm lĩnh 35% thị phần DRAM nhờ nhu cầu bùng nổ của AI
SK hynix chiếm lĩnh 35% thị phần DRAM nhờ nhu cầu bùng nổ của AI

Ngành công nghiệp DRAM đang chứng kiến sự tăng trưởng mạnh mẽ nhờ nhu cầu ngày càng tăng về phần cứng AI, vốn tiêu tốn một lượng bộ nhớ tương đối lớn. SK hynix dường như đã đạt được thành công đáng kể trong môi trường mới này, đạt mức cao nhất mọi thời đại về thị phần.

Tác giả: Mai Ngọc Mai Ngọc
2854
NVIDIA GeForce RTX 50
NVIDIA GeForce RTX 50 "Blackwell": GPU thế hệ tiếp theo mang đến hiệu năng và hiệu quả cao hơn

NVIDIA đang chuẩn bị cho các GPU thế hệ tiếp theo của mình, GeForce RTX 50 "Blackwell", và những rò rỉ mới nhất cho thấy chúng sẽ được trang bị công nghệ tiên tiến. Theo các nguồn tin đáng tin cậy, GPU Blackwell sẽ được xây dựng trên tiến trình 3nm của TSMC, mang lại những cải tiến đáng kể về hiệu quả năng lượng, hiệu suất và mật độ bóng bán dẫn.

Tác giả: Diễm Phương Diễm Phương
2716
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá

AMD đang chuẩn bị ra mắt dòng tăng tốc Instinct MI300 thế hệ tiếp theo vào tháng tới, hứa hẹn sẽ mang đến hiệu suất đột phá cho các ứng dụng AI và HPC. Dòng sản phẩm mới này bao gồm hai phiên bản: MI300X, được thiết kế dành riêng cho các ứng dụng AI chuyên dụng, và MI300A, kết hợp GPU và CPU để mang đến sự cân bằng giữa hiệu suất và tính linh hoạt.

Tác giả: Tuấn Anh Tuấn Anh
2555
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC

Samsung đang chuẩn bị giải pháp đóng gói chip tiên tiến của riêng mình để cạnh tranh với công nghệ đóng gói Cowos (chip-on-wafer-on-substrate) phổ biến rộng rãi của TSMC. Samsung dự định công bố giải pháp của mình vào năm tới và sẽ gọi nó là SAINT hoặc Samsung Advanced Interconnection Technology. SAINT sẽ được sử dụng để tạo ra nhiều giải pháp đóng gói khác nhau, bao gồm:

Tác giả: Kiên Đăng Kiên Đăng
2549
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA

Jupiter là siêu máy tính Exaflop đầu tiên của châu Âu, được trang bị siêu chip Grace Hopper GH200 của NVIDIA. Siêu máy tính này có thể được sử dụng cho cả mô phỏng và khối lượng công việc AI, điều này khác biệt với phần lớn các siêu máy tính được cài đặt ngày nay. Ngoài ra, NVIDIA cho biết GH200 của họ cung cấp năng lượng cho 40 siêu máy tính trên toàn thế giới và hiệu suất kết hợp của chúng là khoảng 200 exaflop 'AI'.

Tác giả: Mai Ngọc Mai Ngọc
2398
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
2629
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt

TSMC, nhà sản xuất chip theo hợp đồng lớn nhất thế giới, sẽ tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu ngày càng tăng từ các khách hàng lớn như NVIDIA, Apple, AMD, Broadcom và Marvell. Theo báo cáo của UDN, TSMC sẽ tăng mục tiêu sản xuất CoWoS hàng tháng của năm tới lên 20%, tương đương 35.000 wafer mỗi tháng.

Tác giả: Kiên Đăng Kiên Đăng
2314
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ

Theo chinastarmarket.cn, NVIDIA đang chuẩn bị ba GPU mới dành cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ. Các GPU mới này được cho là dựa trên kiến trúc Hopper và Ada Lovelace.

Tác giả: Phương Anh Phương Anh
2419
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt

Có dấu hiệu cho thấy Nvidia và các đối tác đang chuẩn bị tiếp thị GPU A800 cho Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt. A800 của Nvidia là một GPU kiến trúc Ampere được thiết kế để tuân thủ các lệnh trừng phạt của Mỹ thông qua việc sử dụng bộ tính năng được cắt giảm. Tuy nhiên, do các lệnh trừng phạt đã được tăng cường trong những tuần gần đây, nên CPU này không thể được bán trên thị trường Trung Quốc nữa.

Tác giả: Huyền Ngọc Huyền Ngọc
2335
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
2835
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super

Nvidia gần đây đã thêm 10de:2703 (nvidia_dev.2703), một mục được mô tả là GeForce RTX 4080 Super vào trình điều khiển thử nghiệm R515, như được stefang3d từ LaptopVideo2Go phát hiện. Sản phẩm được cho là dựa trên bộ xử lý đồ họa AD103 của Nvidia, mặc dù không rõ liệu GPU có đi kèm với tất cả 10.240 lõi CUDA của nó được kích hoạt, giữ lại 9.728 lõi CUDA của GeForce RTX 4080 nhưng sử dụng xung nhịp cao hơn hay có cấu hình khác.

Tác giả: Diễm Phương Diễm Phương
2486
Samsung giới thiệu công nghệ bộ nhớ thế hệ mới tại Memory Tech Day 2023
Samsung giới thiệu công nghệ bộ nhớ thế hệ mới tại Memory Tech Day 2023

Samsung đã chính thức giới thiệu các công nghệ bộ nhớ thế hệ mới của mình bao gồm HBM3E, GDDR7, LPDDR5X CAMM2, và nhiều hơn nữa tại sự kiện Memory Tech Day 2023.

Tác giả: Tuấn Anh Tuấn Anh
2339
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
1700
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025

Samsung đã tiết lộ rằng họ dự kiến ra mắt bộ nhớ HBM4 vào năm 2025. Bộ nhớ mới sẽ có giao diện 2048-bit trên mỗi ngăn xếp, gấp đôi so với 1024-bit của HBM3.

Tác giả: Phương Anh Phương Anh
1710
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025

Samsung Electronics đã công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025, nhằm đa dạng hóa dịch vụ sản xuất để đáp ứng nhu cầu của ngành. Sang Joon Hwang, giám đốc nhóm sản phẩm và công nghệ DRAM tại Samsung Electronics, đã tiết lộ sự phát triển này trong một bài đăng trên blog tại phòng tin tức của Samsung, cho biết rằng công ty có kế hoạch nâng cao bộ phận nhớ của mình.

Tác giả: Mai Ngọc Mai Ngọc
2423
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu

Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu, có tên gọi Monaka. Bộ vi xử lý này được cho là sẽ có hiệu năng mạnh mẽ với 150 lõi Armv9 được cải tiến và khả năng sử dụng các bộ tăng tốc. Là một trong những bộ vi xử lý trung tâm dữ liệu 2nm đầu tiên, Monaka dự kiến sẽ ra mắt vào năm tài chính 2027, bắt đầu từ ngày 1 tháng 4 năm 2026 và kết thúc vào ngày 31 tháng 3 năm 2027.

Tác giả: Phương Linh Phương Linh
2435
Micron trình làng bộ nhớ DDR5 16Gb mới cho máy chủ và PC, tốc độ lên đến 7200 MT/s nhờ quy trình 1β
Micron trình làng bộ nhớ DDR5 16Gb mới cho máy chủ và PC, tốc độ lên đến 7200 MT/s nhờ quy trình 1β

Micron Technology vừa công bố đã mở rộng công nghệ quy trình nút 1β (1-beta) hàng đầu trong ngành với việc giới thiệu bộ nhớ DDR5 16Gb. Với chức năng trong hệ thống đã được chứng minh ở tốc độ lên đến 7.200 MT/s, DRAM DDR5 1β của Micron hiện đang được vận chuyển đến tất cả các khách hàng trung tâm dữ liệu và PC.

Tác giả: Tuấn Anh Tuấn Anh
1776
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2358
NVIDIA GeForce RTX 50
NVIDIA GeForce RTX 50 "Blackwell" GPU: Những tin đồn đầu tiên

NVIDIA GeForce RTX 50 "Blackwell" là thế hệ GPU tiếp theo của NVIDIA, dự kiến sẽ được phát hành vào năm 2025. Mới đây, những tin đồn đầu tiên về dòng GPU này đã bắt đầu xuất hiện từ các nguồn đáng tin cậy như Kopite7kimi.

Tác giả: Diễm Phương Diễm Phương
2244
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất

Micron đã bắt đầu gửi mẫu bộ nhớ HBM3 Gen2 thế hệ tiếp theo của mình cho khách hàng, bao gồm NVIDIA, những người đã khen ngợi hiệu năng và hiệu suất của nó. Trong cuộc gọi thu nhập vào thứ Tư, Micron dự đoán khoản lỗ "lớn hơn" trong quý tới do nhu cầu giảm từ thị trường bộ nhớ tiêu dùng. Tuy nhiên, Micron cũng tiết lộ rằng công ty đã hợp tác chặt chẽ với NVIDIA và bộ nhớ HBM3 Gen2 băng thông cao của họ dự kiến sẽ ra mắt trong các GPU AI và HPC sắp tới của Team Green trong nửa đầu năm 2024.

Tác giả: Diễm Phương Diễm Phương
2422
Tenstorrent hợp tác với Samsung Foundry phát triển chiplet AI RISC-V thế hệ mới
Tenstorrent hợp tác với Samsung Foundry phát triển chiplet AI RISC-V thế hệ mới

Tenstorrent, một công ty sản xuất chip AI, đã công bố hợp tác với Samsung Foundry để phát triển các chiplet AI RISC-V thế hệ mới. Tenstorrent sẽ sử dụng quy trình SF4X của Samsung, đây là quy trình 4nm tiên tiến nhất hiện nay. Tenstorrent cũng đã huy động được 100 triệu USD từ Hyundai và Samsung để phát triển chip AI cạnh tranh với NVIDIA.

Tác giả: Huy Hoàng Huy Hoàng
2681
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2554
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
1555
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2637
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
2344
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM

Trung Quốc đang nỗ lực phát triển bộ nhớ có băng thông cao (giống HBM) cho các ứng dụng trí tuệ nhân tạo và điện toán hiệu suất cao, theo báo cáo của South China Morning Post. ChangXin Memory Technologies (CXMT) được cho là đi đầu trong sáng kiến này.

Tác giả: Huy Hoàng Huy Hoàng
1566
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1547
SK Hynix chiếm lĩnh thị phần trong ngành công nghiệp HBM
SK Hynix chiếm lĩnh thị phần trong ngành công nghiệp HBM

SK Hynix đang giữ vị trí dẫn đầu trong ngành công nghiệp bộ nhớ cao băng thông (HBM). Theo thông tin từ báo cáo, thị phần của SK Hynix tăng lên 94% vào quý cuối cùng của năm 2021. Điều này chứng tỏ sự tăng trưởng và thành công của hãng này trong việc cung cấp các sản phẩm HBM chất lượng cao.

Tác giả: Huy Hoàng Huy Hoàng
2215
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: HBM

Micron Cách Mạng Bộ Nhớ HBM: HBM4e Tùy Chỉnh Đột Phá Công Nghệ!
Micron Cách Mạng Bộ Nhớ HBM: HBM4e Tùy Chỉnh Đột Phá Công Nghệ!

Micron vừa công bố thông tin cập nhật cực kỳ ấn tượng về chương trình HBM4 và HBM4e của mình, hứa hẹn một cuộc cách mạng trong lĩnh vực bộ nhớ. HBM4 thế hệ tiếp theo, với giao diện 2048-bit, dự kiến sẽ được sản xuất hàng loạt vào năm 2026. Nhưng điểm nhấn thực sự nằm ở HBM4e!

Tác giả: Tuấn Anh Tuấn Anh
344
Mỹ rót 458 triệu USD vào nhà máy chip AI của SK Hynix, tạo 1000 việc làm!
Mỹ rót 458 triệu USD vào nhà máy chip AI của SK Hynix, tạo 1000 việc làm!

Bộ Thương mại Mỹ vừa công bố khoản đầu tư 458 triệu USD trực tiếp cho dự án nhà máy đóng gói và nghiên cứu phát triển chip trị giá 3,87 tỷ USD của SK Hynix tại West Lafayette, Indiana. Nhà máy này sẽ sản xuất chip HBM - cốt lõi của công nghệ trí tuệ nhân tạo (AI), giúp lấp đầy khoảng trống quan trọng trong chuỗi cung ứng bán dẫn của Mỹ. Thêm vào đó, SK Hynix còn nhận được khoản vay lên tới 500 triệu USD, tất cả đều đến từ "Đạo luật Ván mạch" (Chips Act). Dự án này dự kiến tạo ra 1000 việc làm mới tại Indiana và thúc đẩy nghiên cứu phát triển nhờ sự hợp tác với Đại học Purdue lân cận.

Tác giả: Phong Lâm Phong Lâm
405
Siêu Chip Monaka 144 Nhân của Fujitsu: Sức Mạnh Tính Toán Thế Hệ Mới Cho Trung Tâm Dữ Liệu
Siêu Chip Monaka 144 Nhân của Fujitsu: Sức Mạnh Tính Toán Thế Hệ Mới Cho Trung Tâm Dữ Liệu

Fujitsu vừa trình làng mẫu chip Monaka 144 nhân dựa trên kiến trúc ARMv9, hứa hẹn một cuộc cách mạng về sức mạnh tính toán cho các trung tâm dữ liệu. Đây là một con chip khổng lồ, được phát triển hợp tác cùng Broadcom, sử dụng công nghệ đóng gói 3.5D tiên tiến.

Tác giả: Kiên Đăng Kiên Đăng
887
Nvidia
Nvidia "kẹt giữa hai lửa" trong cuộc chiến thương mại Mỹ - Trung

Cuộc chiến thương mại Mỹ - Trung đang leo thang, và Nvidia, gã khổng lồ chip đồ họa, đang bị đặt vào thế "ngàn cân treo sợi tóc". Chính phủ Trung Quốc cáo buộc Nvidia vi phạm luật chống độc quyền, tập trung vào thương vụ mua lại Mellanox năm 2020 trị giá 7 tỷ USD.

Tác giả: Tuấn Anh Tuấn Anh
631
Mỹ Thắt Chặt Kiểm Soát Xuất Khẩu Công Nghệ Bán Dẫn, Nhắm Trúng Trung Quốc Nhưng Ít Nghiêm Khắc Hơn Dự Kiến
Mỹ Thắt Chặt Kiểm Soát Xuất Khẩu Công Nghệ Bán Dẫn, Nhắm Trúng Trung Quốc Nhưng Ít Nghiêm Khắc Hơn Dự Kiến

Chính quyền Biden sắp ban hành các quy định mới nhằm kiềm chế sự phát triển công nghệ bán dẫn của Trung Quốc. Tuy nhiên, các biện pháp trừng phạt này sẽ nhẹ nhàng hơn so với dự đoán ban đầu.

Tác giả: Phong Lâm Phong Lâm
747
CAMM2: Tiêu chuẩn mới cho RAM laptop chính thức ra đời!
CAMM2: Tiêu chuẩn mới cho RAM laptop chính thức ra đời!

CAMM, một hình thức hoàn toàn mới cho RAM laptop, đã chính thức trở thành tiêu chuẩn của JEDEC.

Tác giả: Thùy Linh Thùy Linh
6426
SK hynix Phát Triển Bộ Nhớ DRAM Mới Với Tốc Độ Cao Và Chi Phí Thấp
SK hynix Phát Triển Bộ Nhớ DRAM Mới Với Tốc Độ Cao Và Chi Phí Thấp

SK hynix, một trong những nhà sản xuất chip nhớ lớn nhất thế giới, đang phát triển một loại bộ nhớ DRAM mới kết hợp giữa băng thông rộng và chi phí thấp hơn so với các giải pháp HBM hiện tại. Loại bộ nhớ mới này sẽ sử dụng công nghệ đóng gói 2.5D fan-out và có thể được sử dụng cho các ứng dụng đồ họa hoặc di động.

Tác giả: Diễm Phương Diễm Phương
3598
SK hynix chiếm lĩnh 35% thị phần DRAM nhờ nhu cầu bùng nổ của AI
SK hynix chiếm lĩnh 35% thị phần DRAM nhờ nhu cầu bùng nổ của AI

Ngành công nghiệp DRAM đang chứng kiến sự tăng trưởng mạnh mẽ nhờ nhu cầu ngày càng tăng về phần cứng AI, vốn tiêu tốn một lượng bộ nhớ tương đối lớn. SK hynix dường như đã đạt được thành công đáng kể trong môi trường mới này, đạt mức cao nhất mọi thời đại về thị phần.

Tác giả: Mai Ngọc Mai Ngọc
2854
NVIDIA GeForce RTX 50
NVIDIA GeForce RTX 50 "Blackwell": GPU thế hệ tiếp theo mang đến hiệu năng và hiệu quả cao hơn

NVIDIA đang chuẩn bị cho các GPU thế hệ tiếp theo của mình, GeForce RTX 50 "Blackwell", và những rò rỉ mới nhất cho thấy chúng sẽ được trang bị công nghệ tiên tiến. Theo các nguồn tin đáng tin cậy, GPU Blackwell sẽ được xây dựng trên tiến trình 3nm của TSMC, mang lại những cải tiến đáng kể về hiệu quả năng lượng, hiệu suất và mật độ bóng bán dẫn.

Tác giả: Diễm Phương Diễm Phương
2716
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá

AMD đang chuẩn bị ra mắt dòng tăng tốc Instinct MI300 thế hệ tiếp theo vào tháng tới, hứa hẹn sẽ mang đến hiệu suất đột phá cho các ứng dụng AI và HPC. Dòng sản phẩm mới này bao gồm hai phiên bản: MI300X, được thiết kế dành riêng cho các ứng dụng AI chuyên dụng, và MI300A, kết hợp GPU và CPU để mang đến sự cân bằng giữa hiệu suất và tính linh hoạt.

Tác giả: Tuấn Anh Tuấn Anh
2555
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC

Samsung đang chuẩn bị giải pháp đóng gói chip tiên tiến của riêng mình để cạnh tranh với công nghệ đóng gói Cowos (chip-on-wafer-on-substrate) phổ biến rộng rãi của TSMC. Samsung dự định công bố giải pháp của mình vào năm tới và sẽ gọi nó là SAINT hoặc Samsung Advanced Interconnection Technology. SAINT sẽ được sử dụng để tạo ra nhiều giải pháp đóng gói khác nhau, bao gồm:

Tác giả: Kiên Đăng Kiên Đăng
2549
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA

Jupiter là siêu máy tính Exaflop đầu tiên của châu Âu, được trang bị siêu chip Grace Hopper GH200 của NVIDIA. Siêu máy tính này có thể được sử dụng cho cả mô phỏng và khối lượng công việc AI, điều này khác biệt với phần lớn các siêu máy tính được cài đặt ngày nay. Ngoài ra, NVIDIA cho biết GH200 của họ cung cấp năng lượng cho 40 siêu máy tính trên toàn thế giới và hiệu suất kết hợp của chúng là khoảng 200 exaflop 'AI'.

Tác giả: Mai Ngọc Mai Ngọc
2398
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
2629
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt

TSMC, nhà sản xuất chip theo hợp đồng lớn nhất thế giới, sẽ tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu ngày càng tăng từ các khách hàng lớn như NVIDIA, Apple, AMD, Broadcom và Marvell. Theo báo cáo của UDN, TSMC sẽ tăng mục tiêu sản xuất CoWoS hàng tháng của năm tới lên 20%, tương đương 35.000 wafer mỗi tháng.

Tác giả: Kiên Đăng Kiên Đăng
2314
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ

Theo chinastarmarket.cn, NVIDIA đang chuẩn bị ba GPU mới dành cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ. Các GPU mới này được cho là dựa trên kiến trúc Hopper và Ada Lovelace.

Tác giả: Phương Anh Phương Anh
2419
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt

Có dấu hiệu cho thấy Nvidia và các đối tác đang chuẩn bị tiếp thị GPU A800 cho Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt. A800 của Nvidia là một GPU kiến trúc Ampere được thiết kế để tuân thủ các lệnh trừng phạt của Mỹ thông qua việc sử dụng bộ tính năng được cắt giảm. Tuy nhiên, do các lệnh trừng phạt đã được tăng cường trong những tuần gần đây, nên CPU này không thể được bán trên thị trường Trung Quốc nữa.

Tác giả: Huyền Ngọc Huyền Ngọc
2335
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
2835
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super

Nvidia gần đây đã thêm 10de:2703 (nvidia_dev.2703), một mục được mô tả là GeForce RTX 4080 Super vào trình điều khiển thử nghiệm R515, như được stefang3d từ LaptopVideo2Go phát hiện. Sản phẩm được cho là dựa trên bộ xử lý đồ họa AD103 của Nvidia, mặc dù không rõ liệu GPU có đi kèm với tất cả 10.240 lõi CUDA của nó được kích hoạt, giữ lại 9.728 lõi CUDA của GeForce RTX 4080 nhưng sử dụng xung nhịp cao hơn hay có cấu hình khác.

Tác giả: Diễm Phương Diễm Phương
2486
Samsung giới thiệu công nghệ bộ nhớ thế hệ mới tại Memory Tech Day 2023
Samsung giới thiệu công nghệ bộ nhớ thế hệ mới tại Memory Tech Day 2023

Samsung đã chính thức giới thiệu các công nghệ bộ nhớ thế hệ mới của mình bao gồm HBM3E, GDDR7, LPDDR5X CAMM2, và nhiều hơn nữa tại sự kiện Memory Tech Day 2023.

Tác giả: Tuấn Anh Tuấn Anh
2339
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
1700
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025

Samsung đã tiết lộ rằng họ dự kiến ra mắt bộ nhớ HBM4 vào năm 2025. Bộ nhớ mới sẽ có giao diện 2048-bit trên mỗi ngăn xếp, gấp đôi so với 1024-bit của HBM3.

Tác giả: Phương Anh Phương Anh
1710
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025

Samsung Electronics đã công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025, nhằm đa dạng hóa dịch vụ sản xuất để đáp ứng nhu cầu của ngành. Sang Joon Hwang, giám đốc nhóm sản phẩm và công nghệ DRAM tại Samsung Electronics, đã tiết lộ sự phát triển này trong một bài đăng trên blog tại phòng tin tức của Samsung, cho biết rằng công ty có kế hoạch nâng cao bộ phận nhớ của mình.

Tác giả: Mai Ngọc Mai Ngọc
2423
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu

Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu, có tên gọi Monaka. Bộ vi xử lý này được cho là sẽ có hiệu năng mạnh mẽ với 150 lõi Armv9 được cải tiến và khả năng sử dụng các bộ tăng tốc. Là một trong những bộ vi xử lý trung tâm dữ liệu 2nm đầu tiên, Monaka dự kiến sẽ ra mắt vào năm tài chính 2027, bắt đầu từ ngày 1 tháng 4 năm 2026 và kết thúc vào ngày 31 tháng 3 năm 2027.

Tác giả: Phương Linh Phương Linh
2435
Micron trình làng bộ nhớ DDR5 16Gb mới cho máy chủ và PC, tốc độ lên đến 7200 MT/s nhờ quy trình 1β
Micron trình làng bộ nhớ DDR5 16Gb mới cho máy chủ và PC, tốc độ lên đến 7200 MT/s nhờ quy trình 1β

Micron Technology vừa công bố đã mở rộng công nghệ quy trình nút 1β (1-beta) hàng đầu trong ngành với việc giới thiệu bộ nhớ DDR5 16Gb. Với chức năng trong hệ thống đã được chứng minh ở tốc độ lên đến 7.200 MT/s, DRAM DDR5 1β của Micron hiện đang được vận chuyển đến tất cả các khách hàng trung tâm dữ liệu và PC.

Tác giả: Tuấn Anh Tuấn Anh
1776
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2358
NVIDIA GeForce RTX 50
NVIDIA GeForce RTX 50 "Blackwell" GPU: Những tin đồn đầu tiên

NVIDIA GeForce RTX 50 "Blackwell" là thế hệ GPU tiếp theo của NVIDIA, dự kiến sẽ được phát hành vào năm 2025. Mới đây, những tin đồn đầu tiên về dòng GPU này đã bắt đầu xuất hiện từ các nguồn đáng tin cậy như Kopite7kimi.

Tác giả: Diễm Phương Diễm Phương
2244
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất

Micron đã bắt đầu gửi mẫu bộ nhớ HBM3 Gen2 thế hệ tiếp theo của mình cho khách hàng, bao gồm NVIDIA, những người đã khen ngợi hiệu năng và hiệu suất của nó. Trong cuộc gọi thu nhập vào thứ Tư, Micron dự đoán khoản lỗ "lớn hơn" trong quý tới do nhu cầu giảm từ thị trường bộ nhớ tiêu dùng. Tuy nhiên, Micron cũng tiết lộ rằng công ty đã hợp tác chặt chẽ với NVIDIA và bộ nhớ HBM3 Gen2 băng thông cao của họ dự kiến sẽ ra mắt trong các GPU AI và HPC sắp tới của Team Green trong nửa đầu năm 2024.

Tác giả: Diễm Phương Diễm Phương
2422
Tenstorrent hợp tác với Samsung Foundry phát triển chiplet AI RISC-V thế hệ mới
Tenstorrent hợp tác với Samsung Foundry phát triển chiplet AI RISC-V thế hệ mới

Tenstorrent, một công ty sản xuất chip AI, đã công bố hợp tác với Samsung Foundry để phát triển các chiplet AI RISC-V thế hệ mới. Tenstorrent sẽ sử dụng quy trình SF4X của Samsung, đây là quy trình 4nm tiên tiến nhất hiện nay. Tenstorrent cũng đã huy động được 100 triệu USD từ Hyundai và Samsung để phát triển chip AI cạnh tranh với NVIDIA.

Tác giả: Huy Hoàng Huy Hoàng
2681
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2554
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
1555
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2637
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
2344
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM

Trung Quốc đang nỗ lực phát triển bộ nhớ có băng thông cao (giống HBM) cho các ứng dụng trí tuệ nhân tạo và điện toán hiệu suất cao, theo báo cáo của South China Morning Post. ChangXin Memory Technologies (CXMT) được cho là đi đầu trong sáng kiến này.

Tác giả: Huy Hoàng Huy Hoàng
1566
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1547
SK Hynix chiếm lĩnh thị phần trong ngành công nghiệp HBM
SK Hynix chiếm lĩnh thị phần trong ngành công nghiệp HBM

SK Hynix đang giữ vị trí dẫn đầu trong ngành công nghiệp bộ nhớ cao băng thông (HBM). Theo thông tin từ báo cáo, thị phần của SK Hynix tăng lên 94% vào quý cuối cùng của năm 2021. Điều này chứng tỏ sự tăng trưởng và thành công của hãng này trong việc cung cấp các sản phẩm HBM chất lượng cao.

Tác giả: Huy Hoàng Huy Hoàng
2215
Chọn trang