Logo

Tìm kiếm: H100

Vượt Qua Lệnh Cấm: GPU NVIDIA H100 & H200 Lén Lút Vào Trung Quốc
Tác giả: Kiên Đăng Kiên Đăng
915
Mỹ siết chặt xuất khẩu GPU, chặn đường
Mỹ siết chặt xuất khẩu GPU, chặn đường "lách luật" của Trung Quốc

Mỹ đang gia tăng sức ép nhằm ngăn chặn Trung Quốc tiếp cận các GPU AI tiên tiến của Nvidia, đặc biệt là dòng H100 và H200, vốn bị cấm xuất khẩu trực tiếp. Dù đã có lệnh cấm, nhưng Trung Quốc vẫn "lách luật" thông qua mạng lưới buôn lậu tinh vi, sử dụng các quốc gia trung gian như một số nước Trung Đông, Malaysia, Singapore và Đài Loan.

Tác giả: Phương Anh Phương Anh
674
Loongson LG200: GPU Trung Quốc cạnh tranh với NVIDIA và AMD?
Loongson LG200: GPU Trung Quốc cạnh tranh với NVIDIA và AMD?

Loongson, một nhà phát triển CPU nổi tiếng của Trung Quốc, vừa giới thiệu bộ tăng tốc LG200 mới có thể xử lý các khối lượng công việc AI, HPC và đồ họa. LG200 hỗ trợ OpenCL 3.0 và OpenGL 4.0, nhưng hiệu suất tính toán của nó chỉ đạt 256 GFLOPS đến 1 TFLOPS trên mỗi nút. Điều này thấp hơn nhiều so với hiệu suất của các GPU cạnh tranh từ NVIDIA và AMD.

Tác giả: Phương Linh Phương Linh
3857
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC

Tesla đang tự tin tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC, theo một báo cáo được công bố bởi Economic Daily của Đài Loan. Mạch tích hợp ứng dụng cụ thể (ASIC) tùy chỉnh của Tesla được thiết kế để cung cấp năng lượng cho siêu máy tính Dojo của mình, để huấn luyện các mô hình AI hỗ trợ người lái và tự lái, nhưng cũng được kỳ vọng sẽ tìm thấy nhiều ứng dụng hơn trong robo-taxi và các dịch vụ liên quan.

Tác giả: Huy Hoàng Huy Hoàng
2519
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?

Vào giữa tháng 10 năm 2023, Bộ Thương mại Hoa Kỳ đã công bố các quy định xuất khẩu mới cho chip AI và HPC được sử dụng trong các khối lượng công việc AI và HPC. Các quy định này nghiêm ngặt đến mức hầu hết các phần cứng hiệu suất cao không thể được gửi đến Trung Quốc và các quốc gia khác.

Tác giả: Tuấn Anh Tuấn Anh
2507
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
2654
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ

Theo chinastarmarket.cn, NVIDIA đang chuẩn bị ba GPU mới dành cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ. Các GPU mới này được cho là dựa trên kiến trúc Hopper và Ada Lovelace.

Tác giả: Phương Anh Phương Anh
2429
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
2859
NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến
NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến

NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến vào ngày 17 tháng 11. Các đối tác bo mạch bổ sung (AIB) của công ty đang nỗ lực sản xuất các sản phẩm RTX 4090 cho thị trường Trung Quốc trước ngày 16 tháng 11. Tuy nhiên, không rõ liệu việc xuất khẩu SKU có thực sự bị hạn chế hay không.

Tác giả: Hương Trang Hương Trang
2565
Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, chuyển từ GPU Nvidia sang CPU Intel do thiếu hụt và giá cả tăng cao
Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, chuyển từ GPU Nvidia sang CPU Intel do thiếu hụt và giá cả tăng cao

Mảng kinh doanh AI của Nvidia đang phát triển mạnh mẽ đến nỗi nhà sản xuất chip không thể đáp ứng nhu cầu của tất cả khách hàng. Kết quả là, Korea Economic Daily đưa tin rằng Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, đã chuyển từ GPU Nvidia sang CPU Intel, với lý do thiếu hụt và giá cả tăng cao của GPU AI.

Tác giả: Diễm Phương Diễm Phương
2627
Chính phủ Mỹ ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và Trung Đông
Chính phủ Mỹ ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và Trung Đông

Chính phủ Mỹ đã ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và các nước Trung Đông một cách nhanh chóng đến nỗi Nvidia không thể vận chuyển khoảng 5 tỷ USD GPU AI và HPC cho các đối tác Trung Quốc của mình. Theo tường thuật của Wall Street Journal, hậu quả của quyết định đột ngột này, Nvidia đã phải hủy đơn đặt hàng từ Alibaba, Baidu và ByteDance và phân bổ lại những GPU đó cho các công ty khác.

Tác giả: Phương Linh Phương Linh
2241
NVIDIA và MediaTek bắt tay nhau phát triển CPU ARM cao cấp cho máy tính xách tay
NVIDIA và MediaTek bắt tay nhau phát triển CPU ARM cao cấp cho máy tính xách tay

Theo các báo cáo gần đây, NVIDIA đang có kế hoạch thâm nhập thị trường PC với CPU ARM của riêng mình. Mới đây, các chi tiết mới đã xuất hiện cho thấy NVIDIA sẽ hợp tác với MediaTek và sử dụng công nghệ đóng gói 2.5D từ CoWoS cho bộ vi xử lý đầu tiên của mình để cạnh tranh với Apple và Intel.

Tác giả: Linh Hương Linh Hương
2324
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super

Nvidia gần đây đã thêm 10de:2703 (nvidia_dev.2703), một mục được mô tả là GeForce RTX 4080 Super vào trình điều khiển thử nghiệm R515, như được stefang3d từ LaptopVideo2Go phát hiện. Sản phẩm được cho là dựa trên bộ xử lý đồ họa AD103 của Nvidia, mặc dù không rõ liệu GPU có đi kèm với tất cả 10.240 lõi CUDA của nó được kích hoạt, giữ lại 9.728 lõi CUDA của GeForce RTX 4080 nhưng sử dụng xung nhịp cao hơn hay có cấu hình khác.

Tác giả: Diễm Phương Diễm Phương
2505
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI

Nhu cầu về AI đang rất lớn hiện nay. Công ty Schneider Electric của Pháp ước tính rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ đạt khoảng 4,3 GW vào năm 2023, thấp hơn một chút so với mức tiêu thụ điện năng của quốc gia Cyprus (4,7 GW) vào năm 2021. Công ty dự đoán rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ tăng trưởng với tốc độ tăng trưởng kép hàng năm (CAGR) từ 26% đến 36%, điều này cho thấy rằng vào năm 2028, các khối lượng công việc AI sẽ tiêu thụ từ 13,5 GW đến 20 GW, nhiều hơn mức tiêu thụ của Iceland vào năm 2021.

Tác giả: Mai Ngọc Mai Ngọc
1851
Mỹ đột ngột cấm xuất khẩu GPU AI và HPC của Nvidia sang Trung Quốc
Mỹ đột ngột cấm xuất khẩu GPU AI và HPC của Nvidia sang Trung Quốc

Hoa Kỳ thường cho các công ty Mỹ vài tuần để vận chuyển hàng hóa đã đặt hàng và đôi khi đã thanh toán cho các đối tác của họ khi hạn chế xuất khẩu một số hàng hóa nhất định ở đâu đó. Nhưng thay vì cho Nvidia và các công ty khác thêm thời gian để vận chuyển GPU AI và HPC của họ đến Trung Quốc, Bộ Thương mại Hoa Kỳ đã quyết định đẩy nhanh việc thực hiện các hạn chế xuất khẩu mới nhất của mình. Do đó, Nvidia không còn có thể vận chuyển GPU A100, A800, H100, H800 và L40S sang Trung Quốc, có hiệu lực ngay lập tức.

Tác giả: Huyền Diễm Huyền Diễm
2274
AMD Sắp Ký Hợp Đồng Lớn Về AI Với Oracle và IBM
AMD Sắp Ký Hợp Đồng Lớn Về AI Với Oracle và IBM

Trái ngược với đối thủ Nvidia, AMD vẫn chưa tận dụng đáng kể sự phát triển của trí tuệ nhân tạo (AI), nhưng có vẻ như công ty sắp giành được một số hợp đồng lớn với các nhà cung cấp dịch vụ đám mây hàng đầu. Theo MT Newswires (thông qua Reddit) trích dẫn UBS, Oracle sẽ sử dụng GPU AI và HPC Instinct MI300X của AMD cho các dịch vụ đám mây của mình. Và IBM dự kiến sẽ sử dụng các giải pháp FPGA Xilinx của AMD cho khối lượng công việc AI, theo Medium (thông qua Ming-Chi Kuo).

Tác giả: Linh Hương Linh Hương
2690
Các quy định xuất khẩu mới của Hoa Kỳ hạn chế việc xuất khẩu chip cao cấp sang Trung Quốc và các nước khác
Các quy định xuất khẩu mới của Hoa Kỳ hạn chế việc xuất khẩu chip cao cấp sang Trung Quốc và các nước khác

Theo các quy định xuất khẩu mới nhất do chính phủ Hoa Kỳ áp đặt, AMD, Intel và Nvidia không còn được phép vận chuyển một số bộ xử lý hiệu suất cao của họ sang Trung Quốc và một số quốc gia khác mà không có giấy phép xuất khẩu từ Bộ Thương mại Hoa Kỳ. Trên thực tế, các hạn chế nghiêm ngặt đến mức các lô hàng bộ xử lý AD102 của Nvidia cũng bị hạn chế, điều này có thể ảnh hưởng đến nguồn cung cấp card đồ họa GeForce RTX 4090.

Tác giả: Mai Ngọc Mai Ngọc
2609
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
1714
ZTE ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel
ZTE ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel

ZTE đã ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, R6900 G5, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel. Máy chủ này được thiết kế dành riêng cho việc huấn luyện mô hình quy mô lớn, với hiệu suất tính toán tuyệt vời, khả năng giao tiếp mạng tốc độ cao và hiệu suất tiết kiệm năng lượng sáng tạo, đã mang lại những bước đột phá mới trong các lĩnh vực như trí tuệ nhân tạo và học sâu.

Tác giả: Minh Quân Minh Quân
2163
Trung Quốc: Thị trường máy chủ và AI bùng nổ, dự báo đạt 16 tỷ USD vào năm 2027
Trung Quốc: Thị trường máy chủ và AI bùng nổ, dự báo đạt 16 tỷ USD vào năm 2027

Năm 2023 là một năm sôi động đối với ngành máy chủ tính toán, và IDC đã tổng hợp những tiến bộ nhanh chóng mà thị trường máy chủ và AI của Trung Quốc đạt được.

Tác giả: Tuấn Anh Tuấn Anh
1900
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2391
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025

Trung Quốc đang đặt mục tiêu tăng cường 50% khả năng tính toán của nước này vào năm 2025, lên tổng cộng 300 ExaFLOPS. Đây là một phần trong chiến lược của nước này nhằm duy trì sức cạnh tranh trong lĩnh vực công nghệ cao, đặc biệt là trong lĩnh vực trí tuệ nhân tạo (AI) và máy tính hiệu năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2616
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
2628
AMD CEO Lisa Su: Thị trường AI sẽ thay đổi trong 10 năm tới, tiếp cận mã nguồn mở là lợi thế
AMD CEO Lisa Su: Thị trường AI sẽ thay đổi trong 10 năm tới, tiếp cận mã nguồn mở là lợi thế

Trong một cuộc phỏng vấn gần đây, CEO AMD Lisa Su đã chia sẻ về sự quan tâm của AMD đối với thị trường AI và kế hoạch cạnh tranh với NVIDIA trong lĩnh vực này. Bà Su cũng đã có những nhận xét về sự phát triển của AI trong 10 năm tới và lợi thế của việc tiếp cận mã nguồn mở.

Tác giả: Diễm Phương Diễm Phương
2550
EU công bố siêu máy tính exaFLOP đầu tiên sử dụng kiến trúc ARM và NVIDIA, đánh dấu bước đột phá trong phát triển AI của khu vực
EU công bố siêu máy tính exaFLOP đầu tiên sử dụng kiến trúc ARM và NVIDIA, đánh dấu bước đột phá trong phát triển AI của khu vực

Liên minh Châu Âu (EU) đã công bố siêu máy tính exaFLOP đầu tiên của mình, Jupiter, sẽ sử dụng kiến trúc ARM và NVIDIA. Đây là một bước đột phá trong phát triển AI của khu vực, vì nó cho thấy EU đang ngày càng trở nên độc lập về công nghệ và có thể tự chủ sản xuất các sản phẩm siêu máy tính hàng đầu thế giới.

Tác giả: Diễm Phương Diễm Phương
2749
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100

Ngành công nghiệp AI đang chuyển dịch sang các giải pháp nội bộ, và mới đây, Microsoft và OpenAI đã được báo cáo là sẽ sớm ra mắt chip AI của mình, cạnh tranh với các sản phẩm như NVIDIA H100.

Tác giả: Diễm Phương Diễm Phương
2747
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn

Microsoft cho biết chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn.

Tác giả: Huy Hoàng Huy Hoàng
2364
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2554
CEO OpenAI và cựu giám đốc thiết kế của Apple thảo luận về việc phát triển phần cứng AI
CEO OpenAI và cựu giám đốc thiết kế của Apple thảo luận về việc phát triển phần cứng AI

Sam Altman, CEO của OpenAI (công ty đứng sau ChatGPT), và cựu giám đốc thiết kế của Apple, Jony Ive, đã có những cuộc thảo luận về việc tạo ra phần cứng cho trí tuệ nhân tạo, theo một báo cáo từ The Information. Bài báo, trích dẫn hai nguồn tin ẩn danh, tuyên bố rằng CEO SoftBank, Masayoshi Son, cũng tham gia vào các cuộc đàm phán, nhưng "không rõ liệu ông ấy có tiếp tục tham gia hay không." Ive, OpenAI và SoftBank đã không trả lời ngay lập tức yêu cầu bình luận của ấn phẩm.

Tác giả: Huy Hoàng Huy Hoàng
2749
Bộ Thương mại Hoa Kỳ ban hành quy định cuối cùng về trợ cấp sản xuất chip bán dẫn
Bộ Thương mại Hoa Kỳ ban hành quy định cuối cùng về trợ cấp sản xuất chip bán dẫn

Bộ Thương mại Hoa Kỳ đã ban hành các quy định cuối cùng nhằm hạn chế việc sử dụng trợ cấp sản xuất chip bán dẫn của các quốc gia như Trung Quốc và Nga, những quốc gia được coi là mối đe dọa tiềm tàng đối với an ninh quốc gia Hoa Kỳ, theo Reuters. Động thái này mở đường cho chính quyền Biden phân bổ 39 tỷ USD tiền trợ cấp sản xuất chất bán dẫn như một phần của Đạo luật CHIPS and Science rộng lớn hơn, dành 52,7 tỷ USD cho lĩnh vực này.

Tác giả: Huy Hoàng Huy Hoàng
1944
Nvidia sẽ theo chân AMD và Intel trong việc sử dụng thiết kế đa chiplet?
Nvidia sẽ theo chân AMD và Intel trong việc sử dụng thiết kế đa chiplet?

Không giống như các đối thủ AMD và Intel, Nvidia vẫn chưa triển khai thiết kế đa chiplet cho GPU máy tính hiệu năng cao, nhưng có vẻ như công ty đang trên đà cuối cùng sử dụng thiết kế bố trí này với thế hệ GPU Blackwell tiếp theo của mình. Ít nhất đó là những gì mà leaker phần cứng nổi tiếng @kopite7kimi đã nói, người có xu hướng có thông tin chính xác về ý định của Nvidia. Hiện tại, tất cả chỉ là suy đoán.

Tác giả: Huy Hoàng Huy Hoàng
2318
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2045
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
1569
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2660
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
2566
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
2359
Gaudi 2 của Intel vượt trội so với Nvidia trong việc tăng tốc AI Vision-Language
Gaudi 2 của Intel vượt trội so với Nvidia trong việc tăng tốc AI Vision-Language

Mặc dù Nvidia thống trị thị trường AI acceleration (thông qua tầm nhìn xa tuyệt vời, một ngăn xếp phần mềm được suy nghĩ và tài liệu tốt, và hiệu suất xử lý thuần túy), các nhà chơi khác cũng muốn chiếm lấy một phần thị trường AI cho riêng mình. Và ít nhất đối với BridgeTower, silicon Gaudi 2 của Intel (được thiết kế và sản xuất thông qua việc Intel mua lại Habana trị giá 2 tỷ USD vào năm 2019) đã được Hugging Face chứng minh rằng nó vượt trội so với A100 80 GB của Nvidia một cách đáng kinh ngạc 2,5 lần - và thậm chí nó còn đánh bại đứa con cưng của Nvidia là H100 1,4 lần

Tác giả: Huy Hoàng Huy Hoàng
1707
Chính phủ Mỹ hạn chế bán GPU Nvidia sang Trung Đông
Chính phủ Mỹ hạn chế bán GPU Nvidia sang Trung Đông

Theo một hồ sơ quy định của công ty vào tuần này, Nvidia cho biết chính phủ Hoa Kỳ đã hạn chế bán GPU tính toán hiệu suất cao của họ sang Trung Đông và một số quốc gia khác. Một trong những lý do khiến chính quyền Biden quyết định yêu cầu giấy phép xuất khẩu đối với các sản phẩm và máy chủ A100 và H100 của Nvidia là ngăn chặn sự phát triển AI của Trung Quốc bằng cách ngăn GPU được bán lại cho Trung Quốc, theo báo cáo của The Guardian.

Tác giả: Huy Hoàng Huy Hoàng
2157
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4

Tại Diễn đàn Doanh nhân Trung Quốc 2023, Liu Qingfeng, người sáng lập HKUST Xunfei (một công ty AI của Trung Quốc) đã tiết lộ rằng ông đã hợp tác với Huawei để tăng tốc AI.

Tác giả: Huy Hoàng Huy Hoàng
2499
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1558
Nvidia sẽ tăng gấp ba sản lượng GPU lên 2 triệu H100 vào năm 2024
Nvidia sẽ tăng gấp ba sản lượng GPU lên 2 triệu H100 vào năm 2024

Theo một báo cáo của Financial Times, Nvidia đang lên kế hoạch tăng gấp ba sản lượng GPU tính toán của mình lên 2 triệu chiếc vào năm 2024. Điều này sẽ giúp đáp ứng nhu cầu ngày càng tăng đối với các GPU này trong các lĩnh vực như trung tâm dữ liệu, điện toán đám mây và trí tuệ nhân tạo.

Tác giả: Huy Hoàng Huy Hoàng
1374
Nvidia kiếm được lợi nhuận khổng lồ từ GPU AI H100
Nvidia kiếm được lợi nhuận khổng lồ từ GPU AI H100

Nvidia đã kiếm được lợi nhuận khổng lồ từ các GPU AI H100 mới của mình. Theo một báo cáo của The Information, Nvidia đang kiếm được hơn 1.000% cho mỗi GPU H100. Đây là một mức lợi nhuận rất lớn, đặc biệt là khi so sánh với các GPU đồ họa tiêu dùng của Nvidia, vốn chỉ kiếm được vài trăm đô la cho mỗi chiếc.

Tác giả: Huy Hoàng Huy Hoàng
2206
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: H100

Vượt Qua Lệnh Cấm: GPU NVIDIA H100 & H200 Lén Lút Vào Trung Quốc
Tác giả: Kiên Đăng Kiên Đăng
915
Mỹ siết chặt xuất khẩu GPU, chặn đường
Mỹ siết chặt xuất khẩu GPU, chặn đường "lách luật" của Trung Quốc

Mỹ đang gia tăng sức ép nhằm ngăn chặn Trung Quốc tiếp cận các GPU AI tiên tiến của Nvidia, đặc biệt là dòng H100 và H200, vốn bị cấm xuất khẩu trực tiếp. Dù đã có lệnh cấm, nhưng Trung Quốc vẫn "lách luật" thông qua mạng lưới buôn lậu tinh vi, sử dụng các quốc gia trung gian như một số nước Trung Đông, Malaysia, Singapore và Đài Loan.

Tác giả: Phương Anh Phương Anh
674
Loongson LG200: GPU Trung Quốc cạnh tranh với NVIDIA và AMD?
Loongson LG200: GPU Trung Quốc cạnh tranh với NVIDIA và AMD?

Loongson, một nhà phát triển CPU nổi tiếng của Trung Quốc, vừa giới thiệu bộ tăng tốc LG200 mới có thể xử lý các khối lượng công việc AI, HPC và đồ họa. LG200 hỗ trợ OpenCL 3.0 và OpenGL 4.0, nhưng hiệu suất tính toán của nó chỉ đạt 256 GFLOPS đến 1 TFLOPS trên mỗi nút. Điều này thấp hơn nhiều so với hiệu suất của các GPU cạnh tranh từ NVIDIA và AMD.

Tác giả: Phương Linh Phương Linh
3857
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC

Tesla đang tự tin tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC, theo một báo cáo được công bố bởi Economic Daily của Đài Loan. Mạch tích hợp ứng dụng cụ thể (ASIC) tùy chỉnh của Tesla được thiết kế để cung cấp năng lượng cho siêu máy tính Dojo của mình, để huấn luyện các mô hình AI hỗ trợ người lái và tự lái, nhưng cũng được kỳ vọng sẽ tìm thấy nhiều ứng dụng hơn trong robo-taxi và các dịch vụ liên quan.

Tác giả: Huy Hoàng Huy Hoàng
2519
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?

Vào giữa tháng 10 năm 2023, Bộ Thương mại Hoa Kỳ đã công bố các quy định xuất khẩu mới cho chip AI và HPC được sử dụng trong các khối lượng công việc AI và HPC. Các quy định này nghiêm ngặt đến mức hầu hết các phần cứng hiệu suất cao không thể được gửi đến Trung Quốc và các quốc gia khác.

Tác giả: Tuấn Anh Tuấn Anh
2507
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
2654
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ

Theo chinastarmarket.cn, NVIDIA đang chuẩn bị ba GPU mới dành cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ. Các GPU mới này được cho là dựa trên kiến trúc Hopper và Ada Lovelace.

Tác giả: Phương Anh Phương Anh
2429
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
2859
NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến
NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến

NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến vào ngày 17 tháng 11. Các đối tác bo mạch bổ sung (AIB) của công ty đang nỗ lực sản xuất các sản phẩm RTX 4090 cho thị trường Trung Quốc trước ngày 16 tháng 11. Tuy nhiên, không rõ liệu việc xuất khẩu SKU có thực sự bị hạn chế hay không.

Tác giả: Hương Trang Hương Trang
2565
Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, chuyển từ GPU Nvidia sang CPU Intel do thiếu hụt và giá cả tăng cao
Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, chuyển từ GPU Nvidia sang CPU Intel do thiếu hụt và giá cả tăng cao

Mảng kinh doanh AI của Nvidia đang phát triển mạnh mẽ đến nỗi nhà sản xuất chip không thể đáp ứng nhu cầu của tất cả khách hàng. Kết quả là, Korea Economic Daily đưa tin rằng Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, đã chuyển từ GPU Nvidia sang CPU Intel, với lý do thiếu hụt và giá cả tăng cao của GPU AI.

Tác giả: Diễm Phương Diễm Phương
2627
Chính phủ Mỹ ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và Trung Đông
Chính phủ Mỹ ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và Trung Đông

Chính phủ Mỹ đã ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và các nước Trung Đông một cách nhanh chóng đến nỗi Nvidia không thể vận chuyển khoảng 5 tỷ USD GPU AI và HPC cho các đối tác Trung Quốc của mình. Theo tường thuật của Wall Street Journal, hậu quả của quyết định đột ngột này, Nvidia đã phải hủy đơn đặt hàng từ Alibaba, Baidu và ByteDance và phân bổ lại những GPU đó cho các công ty khác.

Tác giả: Phương Linh Phương Linh
2241
NVIDIA và MediaTek bắt tay nhau phát triển CPU ARM cao cấp cho máy tính xách tay
NVIDIA và MediaTek bắt tay nhau phát triển CPU ARM cao cấp cho máy tính xách tay

Theo các báo cáo gần đây, NVIDIA đang có kế hoạch thâm nhập thị trường PC với CPU ARM của riêng mình. Mới đây, các chi tiết mới đã xuất hiện cho thấy NVIDIA sẽ hợp tác với MediaTek và sử dụng công nghệ đóng gói 2.5D từ CoWoS cho bộ vi xử lý đầu tiên của mình để cạnh tranh với Apple và Intel.

Tác giả: Linh Hương Linh Hương
2324
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super

Nvidia gần đây đã thêm 10de:2703 (nvidia_dev.2703), một mục được mô tả là GeForce RTX 4080 Super vào trình điều khiển thử nghiệm R515, như được stefang3d từ LaptopVideo2Go phát hiện. Sản phẩm được cho là dựa trên bộ xử lý đồ họa AD103 của Nvidia, mặc dù không rõ liệu GPU có đi kèm với tất cả 10.240 lõi CUDA của nó được kích hoạt, giữ lại 9.728 lõi CUDA của GeForce RTX 4080 nhưng sử dụng xung nhịp cao hơn hay có cấu hình khác.

Tác giả: Diễm Phương Diễm Phương
2505
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI

Nhu cầu về AI đang rất lớn hiện nay. Công ty Schneider Electric của Pháp ước tính rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ đạt khoảng 4,3 GW vào năm 2023, thấp hơn một chút so với mức tiêu thụ điện năng của quốc gia Cyprus (4,7 GW) vào năm 2021. Công ty dự đoán rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ tăng trưởng với tốc độ tăng trưởng kép hàng năm (CAGR) từ 26% đến 36%, điều này cho thấy rằng vào năm 2028, các khối lượng công việc AI sẽ tiêu thụ từ 13,5 GW đến 20 GW, nhiều hơn mức tiêu thụ của Iceland vào năm 2021.

Tác giả: Mai Ngọc Mai Ngọc
1851
Mỹ đột ngột cấm xuất khẩu GPU AI và HPC của Nvidia sang Trung Quốc
Mỹ đột ngột cấm xuất khẩu GPU AI và HPC của Nvidia sang Trung Quốc

Hoa Kỳ thường cho các công ty Mỹ vài tuần để vận chuyển hàng hóa đã đặt hàng và đôi khi đã thanh toán cho các đối tác của họ khi hạn chế xuất khẩu một số hàng hóa nhất định ở đâu đó. Nhưng thay vì cho Nvidia và các công ty khác thêm thời gian để vận chuyển GPU AI và HPC của họ đến Trung Quốc, Bộ Thương mại Hoa Kỳ đã quyết định đẩy nhanh việc thực hiện các hạn chế xuất khẩu mới nhất của mình. Do đó, Nvidia không còn có thể vận chuyển GPU A100, A800, H100, H800 và L40S sang Trung Quốc, có hiệu lực ngay lập tức.

Tác giả: Huyền Diễm Huyền Diễm
2274
AMD Sắp Ký Hợp Đồng Lớn Về AI Với Oracle và IBM
AMD Sắp Ký Hợp Đồng Lớn Về AI Với Oracle và IBM

Trái ngược với đối thủ Nvidia, AMD vẫn chưa tận dụng đáng kể sự phát triển của trí tuệ nhân tạo (AI), nhưng có vẻ như công ty sắp giành được một số hợp đồng lớn với các nhà cung cấp dịch vụ đám mây hàng đầu. Theo MT Newswires (thông qua Reddit) trích dẫn UBS, Oracle sẽ sử dụng GPU AI và HPC Instinct MI300X của AMD cho các dịch vụ đám mây của mình. Và IBM dự kiến sẽ sử dụng các giải pháp FPGA Xilinx của AMD cho khối lượng công việc AI, theo Medium (thông qua Ming-Chi Kuo).

Tác giả: Linh Hương Linh Hương
2690
Các quy định xuất khẩu mới của Hoa Kỳ hạn chế việc xuất khẩu chip cao cấp sang Trung Quốc và các nước khác
Các quy định xuất khẩu mới của Hoa Kỳ hạn chế việc xuất khẩu chip cao cấp sang Trung Quốc và các nước khác

Theo các quy định xuất khẩu mới nhất do chính phủ Hoa Kỳ áp đặt, AMD, Intel và Nvidia không còn được phép vận chuyển một số bộ xử lý hiệu suất cao của họ sang Trung Quốc và một số quốc gia khác mà không có giấy phép xuất khẩu từ Bộ Thương mại Hoa Kỳ. Trên thực tế, các hạn chế nghiêm ngặt đến mức các lô hàng bộ xử lý AD102 của Nvidia cũng bị hạn chế, điều này có thể ảnh hưởng đến nguồn cung cấp card đồ họa GeForce RTX 4090.

Tác giả: Mai Ngọc Mai Ngọc
2609
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
1714
ZTE ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel
ZTE ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel

ZTE đã ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, R6900 G5, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel. Máy chủ này được thiết kế dành riêng cho việc huấn luyện mô hình quy mô lớn, với hiệu suất tính toán tuyệt vời, khả năng giao tiếp mạng tốc độ cao và hiệu suất tiết kiệm năng lượng sáng tạo, đã mang lại những bước đột phá mới trong các lĩnh vực như trí tuệ nhân tạo và học sâu.

Tác giả: Minh Quân Minh Quân
2163
Trung Quốc: Thị trường máy chủ và AI bùng nổ, dự báo đạt 16 tỷ USD vào năm 2027
Trung Quốc: Thị trường máy chủ và AI bùng nổ, dự báo đạt 16 tỷ USD vào năm 2027

Năm 2023 là một năm sôi động đối với ngành máy chủ tính toán, và IDC đã tổng hợp những tiến bộ nhanh chóng mà thị trường máy chủ và AI của Trung Quốc đạt được.

Tác giả: Tuấn Anh Tuấn Anh
1900
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2391
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025

Trung Quốc đang đặt mục tiêu tăng cường 50% khả năng tính toán của nước này vào năm 2025, lên tổng cộng 300 ExaFLOPS. Đây là một phần trong chiến lược của nước này nhằm duy trì sức cạnh tranh trong lĩnh vực công nghệ cao, đặc biệt là trong lĩnh vực trí tuệ nhân tạo (AI) và máy tính hiệu năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2616
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
2628
AMD CEO Lisa Su: Thị trường AI sẽ thay đổi trong 10 năm tới, tiếp cận mã nguồn mở là lợi thế
AMD CEO Lisa Su: Thị trường AI sẽ thay đổi trong 10 năm tới, tiếp cận mã nguồn mở là lợi thế

Trong một cuộc phỏng vấn gần đây, CEO AMD Lisa Su đã chia sẻ về sự quan tâm của AMD đối với thị trường AI và kế hoạch cạnh tranh với NVIDIA trong lĩnh vực này. Bà Su cũng đã có những nhận xét về sự phát triển của AI trong 10 năm tới và lợi thế của việc tiếp cận mã nguồn mở.

Tác giả: Diễm Phương Diễm Phương
2550
EU công bố siêu máy tính exaFLOP đầu tiên sử dụng kiến trúc ARM và NVIDIA, đánh dấu bước đột phá trong phát triển AI của khu vực
EU công bố siêu máy tính exaFLOP đầu tiên sử dụng kiến trúc ARM và NVIDIA, đánh dấu bước đột phá trong phát triển AI của khu vực

Liên minh Châu Âu (EU) đã công bố siêu máy tính exaFLOP đầu tiên của mình, Jupiter, sẽ sử dụng kiến trúc ARM và NVIDIA. Đây là một bước đột phá trong phát triển AI của khu vực, vì nó cho thấy EU đang ngày càng trở nên độc lập về công nghệ và có thể tự chủ sản xuất các sản phẩm siêu máy tính hàng đầu thế giới.

Tác giả: Diễm Phương Diễm Phương
2749
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100

Ngành công nghiệp AI đang chuyển dịch sang các giải pháp nội bộ, và mới đây, Microsoft và OpenAI đã được báo cáo là sẽ sớm ra mắt chip AI của mình, cạnh tranh với các sản phẩm như NVIDIA H100.

Tác giả: Diễm Phương Diễm Phương
2747
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn

Microsoft cho biết chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn.

Tác giả: Huy Hoàng Huy Hoàng
2364
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2554
CEO OpenAI và cựu giám đốc thiết kế của Apple thảo luận về việc phát triển phần cứng AI
CEO OpenAI và cựu giám đốc thiết kế của Apple thảo luận về việc phát triển phần cứng AI

Sam Altman, CEO của OpenAI (công ty đứng sau ChatGPT), và cựu giám đốc thiết kế của Apple, Jony Ive, đã có những cuộc thảo luận về việc tạo ra phần cứng cho trí tuệ nhân tạo, theo một báo cáo từ The Information. Bài báo, trích dẫn hai nguồn tin ẩn danh, tuyên bố rằng CEO SoftBank, Masayoshi Son, cũng tham gia vào các cuộc đàm phán, nhưng "không rõ liệu ông ấy có tiếp tục tham gia hay không." Ive, OpenAI và SoftBank đã không trả lời ngay lập tức yêu cầu bình luận của ấn phẩm.

Tác giả: Huy Hoàng Huy Hoàng
2749
Bộ Thương mại Hoa Kỳ ban hành quy định cuối cùng về trợ cấp sản xuất chip bán dẫn
Bộ Thương mại Hoa Kỳ ban hành quy định cuối cùng về trợ cấp sản xuất chip bán dẫn

Bộ Thương mại Hoa Kỳ đã ban hành các quy định cuối cùng nhằm hạn chế việc sử dụng trợ cấp sản xuất chip bán dẫn của các quốc gia như Trung Quốc và Nga, những quốc gia được coi là mối đe dọa tiềm tàng đối với an ninh quốc gia Hoa Kỳ, theo Reuters. Động thái này mở đường cho chính quyền Biden phân bổ 39 tỷ USD tiền trợ cấp sản xuất chất bán dẫn như một phần của Đạo luật CHIPS and Science rộng lớn hơn, dành 52,7 tỷ USD cho lĩnh vực này.

Tác giả: Huy Hoàng Huy Hoàng
1944
Nvidia sẽ theo chân AMD và Intel trong việc sử dụng thiết kế đa chiplet?
Nvidia sẽ theo chân AMD và Intel trong việc sử dụng thiết kế đa chiplet?

Không giống như các đối thủ AMD và Intel, Nvidia vẫn chưa triển khai thiết kế đa chiplet cho GPU máy tính hiệu năng cao, nhưng có vẻ như công ty đang trên đà cuối cùng sử dụng thiết kế bố trí này với thế hệ GPU Blackwell tiếp theo của mình. Ít nhất đó là những gì mà leaker phần cứng nổi tiếng @kopite7kimi đã nói, người có xu hướng có thông tin chính xác về ý định của Nvidia. Hiện tại, tất cả chỉ là suy đoán.

Tác giả: Huy Hoàng Huy Hoàng
2318
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2045
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
1569
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2660
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
2566
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
2359
Gaudi 2 của Intel vượt trội so với Nvidia trong việc tăng tốc AI Vision-Language
Gaudi 2 của Intel vượt trội so với Nvidia trong việc tăng tốc AI Vision-Language

Mặc dù Nvidia thống trị thị trường AI acceleration (thông qua tầm nhìn xa tuyệt vời, một ngăn xếp phần mềm được suy nghĩ và tài liệu tốt, và hiệu suất xử lý thuần túy), các nhà chơi khác cũng muốn chiếm lấy một phần thị trường AI cho riêng mình. Và ít nhất đối với BridgeTower, silicon Gaudi 2 của Intel (được thiết kế và sản xuất thông qua việc Intel mua lại Habana trị giá 2 tỷ USD vào năm 2019) đã được Hugging Face chứng minh rằng nó vượt trội so với A100 80 GB của Nvidia một cách đáng kinh ngạc 2,5 lần - và thậm chí nó còn đánh bại đứa con cưng của Nvidia là H100 1,4 lần

Tác giả: Huy Hoàng Huy Hoàng
1707
Chính phủ Mỹ hạn chế bán GPU Nvidia sang Trung Đông
Chính phủ Mỹ hạn chế bán GPU Nvidia sang Trung Đông

Theo một hồ sơ quy định của công ty vào tuần này, Nvidia cho biết chính phủ Hoa Kỳ đã hạn chế bán GPU tính toán hiệu suất cao của họ sang Trung Đông và một số quốc gia khác. Một trong những lý do khiến chính quyền Biden quyết định yêu cầu giấy phép xuất khẩu đối với các sản phẩm và máy chủ A100 và H100 của Nvidia là ngăn chặn sự phát triển AI của Trung Quốc bằng cách ngăn GPU được bán lại cho Trung Quốc, theo báo cáo của The Guardian.

Tác giả: Huy Hoàng Huy Hoàng
2157
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4

Tại Diễn đàn Doanh nhân Trung Quốc 2023, Liu Qingfeng, người sáng lập HKUST Xunfei (một công ty AI của Trung Quốc) đã tiết lộ rằng ông đã hợp tác với Huawei để tăng tốc AI.

Tác giả: Huy Hoàng Huy Hoàng
2499
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1558
Nvidia sẽ tăng gấp ba sản lượng GPU lên 2 triệu H100 vào năm 2024
Nvidia sẽ tăng gấp ba sản lượng GPU lên 2 triệu H100 vào năm 2024

Theo một báo cáo của Financial Times, Nvidia đang lên kế hoạch tăng gấp ba sản lượng GPU tính toán của mình lên 2 triệu chiếc vào năm 2024. Điều này sẽ giúp đáp ứng nhu cầu ngày càng tăng đối với các GPU này trong các lĩnh vực như trung tâm dữ liệu, điện toán đám mây và trí tuệ nhân tạo.

Tác giả: Huy Hoàng Huy Hoàng
1374
Nvidia kiếm được lợi nhuận khổng lồ từ GPU AI H100
Nvidia kiếm được lợi nhuận khổng lồ từ GPU AI H100

Nvidia đã kiếm được lợi nhuận khổng lồ từ các GPU AI H100 mới của mình. Theo một báo cáo của The Information, Nvidia đang kiếm được hơn 1.000% cho mỗi GPU H100. Đây là một mức lợi nhuận rất lớn, đặc biệt là khi so sánh với các GPU đồ họa tiêu dùng của Nvidia, vốn chỉ kiếm được vài trăm đô la cho mỗi chiếc.

Tác giả: Huy Hoàng Huy Hoàng
2206
Chọn trang