Logo

Tìm kiếm: Nvidia H100

Vượt Qua Lệnh Cấm: GPU NVIDIA H100 & H200 Lén Lút Vào Trung Quốc
Tác giả: Kiên Đăng Kiên Đăng
915
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC

Tesla đang tự tin tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC, theo một báo cáo được công bố bởi Economic Daily của Đài Loan. Mạch tích hợp ứng dụng cụ thể (ASIC) tùy chỉnh của Tesla được thiết kế để cung cấp năng lượng cho siêu máy tính Dojo của mình, để huấn luyện các mô hình AI hỗ trợ người lái và tự lái, nhưng cũng được kỳ vọng sẽ tìm thấy nhiều ứng dụng hơn trong robo-taxi và các dịch vụ liên quan.

Tác giả: Huy Hoàng Huy Hoàng
2519
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?

Vào giữa tháng 10 năm 2023, Bộ Thương mại Hoa Kỳ đã công bố các quy định xuất khẩu mới cho chip AI và HPC được sử dụng trong các khối lượng công việc AI và HPC. Các quy định này nghiêm ngặt đến mức hầu hết các phần cứng hiệu suất cao không thể được gửi đến Trung Quốc và các quốc gia khác.

Tác giả: Tuấn Anh Tuấn Anh
2507
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
2859
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025

Trung Quốc đang đặt mục tiêu tăng cường 50% khả năng tính toán của nước này vào năm 2025, lên tổng cộng 300 ExaFLOPS. Đây là một phần trong chiến lược của nước này nhằm duy trì sức cạnh tranh trong lĩnh vực công nghệ cao, đặc biệt là trong lĩnh vực trí tuệ nhân tạo (AI) và máy tính hiệu năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2616
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
2650
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100

Ngành công nghiệp AI đang chuyển dịch sang các giải pháp nội bộ, và mới đây, Microsoft và OpenAI đã được báo cáo là sẽ sớm ra mắt chip AI của mình, cạnh tranh với các sản phẩm như NVIDIA H100.

Tác giả: Diễm Phương Diễm Phương
2747
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2063
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
1569
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: Nvidia H100

Vượt Qua Lệnh Cấm: GPU NVIDIA H100 & H200 Lén Lút Vào Trung Quốc
Tác giả: Kiên Đăng Kiên Đăng
915
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC

Tesla đang tự tin tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC, theo một báo cáo được công bố bởi Economic Daily của Đài Loan. Mạch tích hợp ứng dụng cụ thể (ASIC) tùy chỉnh của Tesla được thiết kế để cung cấp năng lượng cho siêu máy tính Dojo của mình, để huấn luyện các mô hình AI hỗ trợ người lái và tự lái, nhưng cũng được kỳ vọng sẽ tìm thấy nhiều ứng dụng hơn trong robo-taxi và các dịch vụ liên quan.

Tác giả: Huy Hoàng Huy Hoàng
2519
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?

Vào giữa tháng 10 năm 2023, Bộ Thương mại Hoa Kỳ đã công bố các quy định xuất khẩu mới cho chip AI và HPC được sử dụng trong các khối lượng công việc AI và HPC. Các quy định này nghiêm ngặt đến mức hầu hết các phần cứng hiệu suất cao không thể được gửi đến Trung Quốc và các quốc gia khác.

Tác giả: Tuấn Anh Tuấn Anh
2507
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
2859
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025

Trung Quốc đang đặt mục tiêu tăng cường 50% khả năng tính toán của nước này vào năm 2025, lên tổng cộng 300 ExaFLOPS. Đây là một phần trong chiến lược của nước này nhằm duy trì sức cạnh tranh trong lĩnh vực công nghệ cao, đặc biệt là trong lĩnh vực trí tuệ nhân tạo (AI) và máy tính hiệu năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2616
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
2650
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100

Ngành công nghiệp AI đang chuyển dịch sang các giải pháp nội bộ, và mới đây, Microsoft và OpenAI đã được báo cáo là sẽ sớm ra mắt chip AI của mình, cạnh tranh với các sản phẩm như NVIDIA H100.

Tác giả: Diễm Phương Diễm Phương
2747
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2063
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
1569
Chọn trang