Logo

Tìm kiếm: GPU H100

Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, chuyển từ GPU Nvidia sang CPU Intel do thiếu hụt và giá cả tăng cao
Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, chuyển từ GPU Nvidia sang CPU Intel do thiếu hụt và giá cả tăng cao

Mảng kinh doanh AI của Nvidia đang phát triển mạnh mẽ đến nỗi nhà sản xuất chip không thể đáp ứng nhu cầu của tất cả khách hàng. Kết quả là, Korea Economic Daily đưa tin rằng Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, đã chuyển từ GPU Nvidia sang CPU Intel, với lý do thiếu hụt và giá cả tăng cao của GPU AI.

Tác giả: Diễm Phương Diễm Phương
2627
NVIDIA và MediaTek bắt tay nhau phát triển CPU ARM cao cấp cho máy tính xách tay
NVIDIA và MediaTek bắt tay nhau phát triển CPU ARM cao cấp cho máy tính xách tay

Theo các báo cáo gần đây, NVIDIA đang có kế hoạch thâm nhập thị trường PC với CPU ARM của riêng mình. Mới đây, các chi tiết mới đã xuất hiện cho thấy NVIDIA sẽ hợp tác với MediaTek và sử dụng công nghệ đóng gói 2.5D từ CoWoS cho bộ vi xử lý đầu tiên của mình để cạnh tranh với Apple và Intel.

Tác giả: Linh Hương Linh Hương
2324
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI

Nhu cầu về AI đang rất lớn hiện nay. Công ty Schneider Electric của Pháp ước tính rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ đạt khoảng 4,3 GW vào năm 2023, thấp hơn một chút so với mức tiêu thụ điện năng của quốc gia Cyprus (4,7 GW) vào năm 2021. Công ty dự đoán rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ tăng trưởng với tốc độ tăng trưởng kép hàng năm (CAGR) từ 26% đến 36%, điều này cho thấy rằng vào năm 2028, các khối lượng công việc AI sẽ tiêu thụ từ 13,5 GW đến 20 GW, nhiều hơn mức tiêu thụ của Iceland vào năm 2021.

Tác giả: Mai Ngọc Mai Ngọc
1851
AMD Sắp Ký Hợp Đồng Lớn Về AI Với Oracle và IBM
AMD Sắp Ký Hợp Đồng Lớn Về AI Với Oracle và IBM

Trái ngược với đối thủ Nvidia, AMD vẫn chưa tận dụng đáng kể sự phát triển của trí tuệ nhân tạo (AI), nhưng có vẻ như công ty sắp giành được một số hợp đồng lớn với các nhà cung cấp dịch vụ đám mây hàng đầu. Theo MT Newswires (thông qua Reddit) trích dẫn UBS, Oracle sẽ sử dụng GPU AI và HPC Instinct MI300X của AMD cho các dịch vụ đám mây của mình. Và IBM dự kiến sẽ sử dụng các giải pháp FPGA Xilinx của AMD cho khối lượng công việc AI, theo Medium (thông qua Ming-Chi Kuo).

Tác giả: Linh Hương Linh Hương
2690
ZTE ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel
ZTE ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel

ZTE đã ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, R6900 G5, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel. Máy chủ này được thiết kế dành riêng cho việc huấn luyện mô hình quy mô lớn, với hiệu suất tính toán tuyệt vời, khả năng giao tiếp mạng tốc độ cao và hiệu suất tiết kiệm năng lượng sáng tạo, đã mang lại những bước đột phá mới trong các lĩnh vực như trí tuệ nhân tạo và học sâu.

Tác giả: Minh Quân Minh Quân
2163
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
2650
AMD CEO Lisa Su: Thị trường AI sẽ thay đổi trong 10 năm tới, tiếp cận mã nguồn mở là lợi thế
AMD CEO Lisa Su: Thị trường AI sẽ thay đổi trong 10 năm tới, tiếp cận mã nguồn mở là lợi thế

Trong một cuộc phỏng vấn gần đây, CEO AMD Lisa Su đã chia sẻ về sự quan tâm của AMD đối với thị trường AI và kế hoạch cạnh tranh với NVIDIA trong lĩnh vực này. Bà Su cũng đã có những nhận xét về sự phát triển của AI trong 10 năm tới và lợi thế của việc tiếp cận mã nguồn mở.

Tác giả: Diễm Phương Diễm Phương
2550
EU công bố siêu máy tính exaFLOP đầu tiên sử dụng kiến trúc ARM và NVIDIA, đánh dấu bước đột phá trong phát triển AI của khu vực
EU công bố siêu máy tính exaFLOP đầu tiên sử dụng kiến trúc ARM và NVIDIA, đánh dấu bước đột phá trong phát triển AI của khu vực

Liên minh Châu Âu (EU) đã công bố siêu máy tính exaFLOP đầu tiên của mình, Jupiter, sẽ sử dụng kiến trúc ARM và NVIDIA. Đây là một bước đột phá trong phát triển AI của khu vực, vì nó cho thấy EU đang ngày càng trở nên độc lập về công nghệ và có thể tự chủ sản xuất các sản phẩm siêu máy tính hàng đầu thế giới.

Tác giả: Diễm Phương Diễm Phương
2749
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2063
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2660
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
2566
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1558
Nvidia sẽ tăng gấp ba sản lượng GPU lên 2 triệu H100 vào năm 2024
Nvidia sẽ tăng gấp ba sản lượng GPU lên 2 triệu H100 vào năm 2024

Theo một báo cáo của Financial Times, Nvidia đang lên kế hoạch tăng gấp ba sản lượng GPU tính toán của mình lên 2 triệu chiếc vào năm 2024. Điều này sẽ giúp đáp ứng nhu cầu ngày càng tăng đối với các GPU này trong các lĩnh vực như trung tâm dữ liệu, điện toán đám mây và trí tuệ nhân tạo.

Tác giả: Huy Hoàng Huy Hoàng
1383
Nvidia kiếm được lợi nhuận khổng lồ từ GPU AI H100
Nvidia kiếm được lợi nhuận khổng lồ từ GPU AI H100

Nvidia đã kiếm được lợi nhuận khổng lồ từ các GPU AI H100 mới của mình. Theo một báo cáo của The Information, Nvidia đang kiếm được hơn 1.000% cho mỗi GPU H100. Đây là một mức lợi nhuận rất lớn, đặc biệt là khi so sánh với các GPU đồ họa tiêu dùng của Nvidia, vốn chỉ kiếm được vài trăm đô la cho mỗi chiếc.

Tác giả: Huy Hoàng Huy Hoàng
2230
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: GPU H100

Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, chuyển từ GPU Nvidia sang CPU Intel do thiếu hụt và giá cả tăng cao
Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, chuyển từ GPU Nvidia sang CPU Intel do thiếu hụt và giá cả tăng cao

Mảng kinh doanh AI của Nvidia đang phát triển mạnh mẽ đến nỗi nhà sản xuất chip không thể đáp ứng nhu cầu của tất cả khách hàng. Kết quả là, Korea Economic Daily đưa tin rằng Naver Corporation, công ty đứng sau cổng tìm kiếm hàng đầu Hàn Quốc Naver, đã chuyển từ GPU Nvidia sang CPU Intel, với lý do thiếu hụt và giá cả tăng cao của GPU AI.

Tác giả: Diễm Phương Diễm Phương
2627
NVIDIA và MediaTek bắt tay nhau phát triển CPU ARM cao cấp cho máy tính xách tay
NVIDIA và MediaTek bắt tay nhau phát triển CPU ARM cao cấp cho máy tính xách tay

Theo các báo cáo gần đây, NVIDIA đang có kế hoạch thâm nhập thị trường PC với CPU ARM của riêng mình. Mới đây, các chi tiết mới đã xuất hiện cho thấy NVIDIA sẽ hợp tác với MediaTek và sử dụng công nghệ đóng gói 2.5D từ CoWoS cho bộ vi xử lý đầu tiên của mình để cạnh tranh với Apple và Intel.

Tác giả: Linh Hương Linh Hương
2324
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI

Nhu cầu về AI đang rất lớn hiện nay. Công ty Schneider Electric của Pháp ước tính rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ đạt khoảng 4,3 GW vào năm 2023, thấp hơn một chút so với mức tiêu thụ điện năng của quốc gia Cyprus (4,7 GW) vào năm 2021. Công ty dự đoán rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ tăng trưởng với tốc độ tăng trưởng kép hàng năm (CAGR) từ 26% đến 36%, điều này cho thấy rằng vào năm 2028, các khối lượng công việc AI sẽ tiêu thụ từ 13,5 GW đến 20 GW, nhiều hơn mức tiêu thụ của Iceland vào năm 2021.

Tác giả: Mai Ngọc Mai Ngọc
1851
AMD Sắp Ký Hợp Đồng Lớn Về AI Với Oracle và IBM
AMD Sắp Ký Hợp Đồng Lớn Về AI Với Oracle và IBM

Trái ngược với đối thủ Nvidia, AMD vẫn chưa tận dụng đáng kể sự phát triển của trí tuệ nhân tạo (AI), nhưng có vẻ như công ty sắp giành được một số hợp đồng lớn với các nhà cung cấp dịch vụ đám mây hàng đầu. Theo MT Newswires (thông qua Reddit) trích dẫn UBS, Oracle sẽ sử dụng GPU AI và HPC Instinct MI300X của AMD cho các dịch vụ đám mây của mình. Và IBM dự kiến sẽ sử dụng các giải pháp FPGA Xilinx của AMD cho khối lượng công việc AI, theo Medium (thông qua Ming-Chi Kuo).

Tác giả: Linh Hương Linh Hương
2690
ZTE ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel
ZTE ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel

ZTE đã ra mắt máy chủ GPU hàng đầu đầu tiên dành cho Trung Quốc, R6900 G5, sử dụng GPU AI H800 của NVIDIA và CPU Xeon Scalable của Intel. Máy chủ này được thiết kế dành riêng cho việc huấn luyện mô hình quy mô lớn, với hiệu suất tính toán tuyệt vời, khả năng giao tiếp mạng tốc độ cao và hiệu suất tiết kiệm năng lượng sáng tạo, đã mang lại những bước đột phá mới trong các lĩnh vực như trí tuệ nhân tạo và học sâu.

Tác giả: Minh Quân Minh Quân
2163
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
2650
AMD CEO Lisa Su: Thị trường AI sẽ thay đổi trong 10 năm tới, tiếp cận mã nguồn mở là lợi thế
AMD CEO Lisa Su: Thị trường AI sẽ thay đổi trong 10 năm tới, tiếp cận mã nguồn mở là lợi thế

Trong một cuộc phỏng vấn gần đây, CEO AMD Lisa Su đã chia sẻ về sự quan tâm của AMD đối với thị trường AI và kế hoạch cạnh tranh với NVIDIA trong lĩnh vực này. Bà Su cũng đã có những nhận xét về sự phát triển của AI trong 10 năm tới và lợi thế của việc tiếp cận mã nguồn mở.

Tác giả: Diễm Phương Diễm Phương
2550
EU công bố siêu máy tính exaFLOP đầu tiên sử dụng kiến trúc ARM và NVIDIA, đánh dấu bước đột phá trong phát triển AI của khu vực
EU công bố siêu máy tính exaFLOP đầu tiên sử dụng kiến trúc ARM và NVIDIA, đánh dấu bước đột phá trong phát triển AI của khu vực

Liên minh Châu Âu (EU) đã công bố siêu máy tính exaFLOP đầu tiên của mình, Jupiter, sẽ sử dụng kiến trúc ARM và NVIDIA. Đây là một bước đột phá trong phát triển AI của khu vực, vì nó cho thấy EU đang ngày càng trở nên độc lập về công nghệ và có thể tự chủ sản xuất các sản phẩm siêu máy tính hàng đầu thế giới.

Tác giả: Diễm Phương Diễm Phương
2749
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2063
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2660
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
2566
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1558
Nvidia sẽ tăng gấp ba sản lượng GPU lên 2 triệu H100 vào năm 2024
Nvidia sẽ tăng gấp ba sản lượng GPU lên 2 triệu H100 vào năm 2024

Theo một báo cáo của Financial Times, Nvidia đang lên kế hoạch tăng gấp ba sản lượng GPU tính toán của mình lên 2 triệu chiếc vào năm 2024. Điều này sẽ giúp đáp ứng nhu cầu ngày càng tăng đối với các GPU này trong các lĩnh vực như trung tâm dữ liệu, điện toán đám mây và trí tuệ nhân tạo.

Tác giả: Huy Hoàng Huy Hoàng
1383
Nvidia kiếm được lợi nhuận khổng lồ từ GPU AI H100
Nvidia kiếm được lợi nhuận khổng lồ từ GPU AI H100

Nvidia đã kiếm được lợi nhuận khổng lồ từ các GPU AI H100 mới của mình. Theo một báo cáo của The Information, Nvidia đang kiếm được hơn 1.000% cho mỗi GPU H100. Đây là một mức lợi nhuận rất lớn, đặc biệt là khi so sánh với các GPU đồ họa tiêu dùng của Nvidia, vốn chỉ kiếm được vài trăm đô la cho mỗi chiếc.

Tác giả: Huy Hoàng Huy Hoàng
2230
Chọn trang