Logo

Tìm kiếm: A100

Baidu đặt hàng 1.600 bộ xử lý Ascend 910B của Huawei để giảm sự phụ thuộc vào Nvidia
Baidu đặt hàng 1.600 bộ xử lý Ascend 910B của Huawei để giảm sự phụ thuộc vào Nvidia

Baidu đã đặt hàng 1.600 bộ xử lý Ascend 910B của Huawei để giảm sự phụ thuộc vào Nvidia cho các ứng dụng trí tuệ nhân tạo (AI).

Tác giả: Thùy Linh Thùy Linh
2618
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC

Tesla đang tự tin tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC, theo một báo cáo được công bố bởi Economic Daily của Đài Loan. Mạch tích hợp ứng dụng cụ thể (ASIC) tùy chỉnh của Tesla được thiết kế để cung cấp năng lượng cho siêu máy tính Dojo của mình, để huấn luyện các mô hình AI hỗ trợ người lái và tự lái, nhưng cũng được kỳ vọng sẽ tìm thấy nhiều ứng dụng hơn trong robo-taxi và các dịch vụ liên quan.

Tác giả: Huy Hoàng Huy Hoàng
2519
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
2654
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ

Theo chinastarmarket.cn, NVIDIA đang chuẩn bị ba GPU mới dành cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ. Các GPU mới này được cho là dựa trên kiến trúc Hopper và Ada Lovelace.

Tác giả: Phương Anh Phương Anh
2429
Loongson ra mắt GPU 9A1000, dự kiến ra mắt vào Q3 2024
Loongson ra mắt GPU 9A1000, dự kiến ra mắt vào Q3 2024

Loongson Technology, một trong những nhà sản xuất chip không fabless của Trung Quốc, đã cung cấp thông tin cập nhật về card đồ họa 9A1000 sắp tới tại cuộc gọi thu nhập quý 3 của công ty. 9A1000, được báo cáo cung cấp hiệu suất tương đương với Radeon RX 550, sẽ được đưa vào sản xuất hàng loạt vào quý 3 năm 2024.

Tác giả: Linh Hương Linh Hương
2724
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt

Có dấu hiệu cho thấy Nvidia và các đối tác đang chuẩn bị tiếp thị GPU A800 cho Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt. A800 của Nvidia là một GPU kiến trúc Ampere được thiết kế để tuân thủ các lệnh trừng phạt của Mỹ thông qua việc sử dụng bộ tính năng được cắt giảm. Tuy nhiên, do các lệnh trừng phạt đã được tăng cường trong những tuần gần đây, nên CPU này không thể được bán trên thị trường Trung Quốc nữa.

Tác giả: Huyền Ngọc Huyền Ngọc
2360
NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến
NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến

NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến vào ngày 17 tháng 11. Các đối tác bo mạch bổ sung (AIB) của công ty đang nỗ lực sản xuất các sản phẩm RTX 4090 cho thị trường Trung Quốc trước ngày 16 tháng 11. Tuy nhiên, không rõ liệu việc xuất khẩu SKU có thực sự bị hạn chế hay không.

Tác giả: Hương Trang Hương Trang
2565
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip

Nvidia đã ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip. Công cụ này hứa hẹn sẽ đơn giản hóa nhiều khía cạnh của thiết kế chip bằng cách trả lời các câu hỏi, tóm tắt các báo cáo lỗi và tạo ra các tập lệnh cho các công cụ thiết kế điện tử tự động (EDA).

Tác giả: Minh Quân Minh Quân
2581
Chính phủ Mỹ ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và Trung Đông
Chính phủ Mỹ ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và Trung Đông

Chính phủ Mỹ đã ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và các nước Trung Đông một cách nhanh chóng đến nỗi Nvidia không thể vận chuyển khoảng 5 tỷ USD GPU AI và HPC cho các đối tác Trung Quốc của mình. Theo tường thuật của Wall Street Journal, hậu quả của quyết định đột ngột này, Nvidia đã phải hủy đơn đặt hàng từ Alibaba, Baidu và ByteDance và phân bổ lại những GPU đó cho các công ty khác.

Tác giả: Phương Linh Phương Linh
2241
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI

Nhu cầu về AI đang rất lớn hiện nay. Công ty Schneider Electric của Pháp ước tính rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ đạt khoảng 4,3 GW vào năm 2023, thấp hơn một chút so với mức tiêu thụ điện năng của quốc gia Cyprus (4,7 GW) vào năm 2021. Công ty dự đoán rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ tăng trưởng với tốc độ tăng trưởng kép hàng năm (CAGR) từ 26% đến 36%, điều này cho thấy rằng vào năm 2028, các khối lượng công việc AI sẽ tiêu thụ từ 13,5 GW đến 20 GW, nhiều hơn mức tiêu thụ của Iceland vào năm 2021.

Tác giả: Mai Ngọc Mai Ngọc
1851
Mỹ đột ngột cấm xuất khẩu GPU AI và HPC của Nvidia sang Trung Quốc
Mỹ đột ngột cấm xuất khẩu GPU AI và HPC của Nvidia sang Trung Quốc

Hoa Kỳ thường cho các công ty Mỹ vài tuần để vận chuyển hàng hóa đã đặt hàng và đôi khi đã thanh toán cho các đối tác của họ khi hạn chế xuất khẩu một số hàng hóa nhất định ở đâu đó. Nhưng thay vì cho Nvidia và các công ty khác thêm thời gian để vận chuyển GPU AI và HPC của họ đến Trung Quốc, Bộ Thương mại Hoa Kỳ đã quyết định đẩy nhanh việc thực hiện các hạn chế xuất khẩu mới nhất của mình. Do đó, Nvidia không còn có thể vận chuyển GPU A100, A800, H100, H800 và L40S sang Trung Quốc, có hiệu lực ngay lập tức.

Tác giả: Huyền Diễm Huyền Diễm
2274
Trò chơi Người Nhện 2 của Marvel: Tiềm năng cho một trò chơi Venom phụ
Trò chơi Người Nhện 2 của Marvel: Tiềm năng cho một trò chơi Venom phụ

Trò chơi lớn nhất trong năm của Sony, Marvel's Spider-Man 2, đã ra mắt trên PlayStation 5 hôm nay. Phần tiếp theo của trò chơi phiêu lưu/hành động tập trung vào hai nhân vật phản diện, Kraven the Hunter và Venom. Là một nhân vật thú vị như Sergei Kravinoff, Venom có một lượng người hâm mộ lớn hơn nhiều, những người chắc chắn sẽ quan tâm đến một trò chơi phụ tiềm năng.

Tác giả: Diễm Phương Diễm Phương
2418
Các quy định xuất khẩu mới của Hoa Kỳ hạn chế việc xuất khẩu chip cao cấp sang Trung Quốc và các nước khác
Các quy định xuất khẩu mới của Hoa Kỳ hạn chế việc xuất khẩu chip cao cấp sang Trung Quốc và các nước khác

Theo các quy định xuất khẩu mới nhất do chính phủ Hoa Kỳ áp đặt, AMD, Intel và Nvidia không còn được phép vận chuyển một số bộ xử lý hiệu suất cao của họ sang Trung Quốc và một số quốc gia khác mà không có giấy phép xuất khẩu từ Bộ Thương mại Hoa Kỳ. Trên thực tế, các hạn chế nghiêm ngặt đến mức các lô hàng bộ xử lý AD102 của Nvidia cũng bị hạn chế, điều này có thể ảnh hưởng đến nguồn cung cấp card đồ họa GeForce RTX 4090.

Tác giả: Mai Ngọc Mai Ngọc
2609
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
1714
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
2628
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100

Ngành công nghiệp AI đang chuyển dịch sang các giải pháp nội bộ, và mới đây, Microsoft và OpenAI đã được báo cáo là sẽ sớm ra mắt chip AI của mình, cạnh tranh với các sản phẩm như NVIDIA H100.

Tác giả: Diễm Phương Diễm Phương
2747
OpenAI cân nhắc phát triển chip AI tùy chỉnh do chi phí cao và khan hiếm GPU của Nvidia
OpenAI cân nhắc phát triển chip AI tùy chỉnh do chi phí cao và khan hiếm GPU của Nvidia

OpenAI, công ty phát triển ChatGPT, một mô hình ngôn ngữ lớn và rất phổ biến, đang cân nhắc phát triển chip AI tùy chỉnh do chi phí cao và khan hiếm GPU của Nvidia và các bộ xử lý khác cho suy luận và huấn luyện AI. Theo Reuters, OpenAI thậm chí còn đang xem xét các vụ mua lại tiềm năng để có được IP cần thiết và đẩy nhanh quá trình.

Tác giả: Huy Hoàng Huy Hoàng
2503
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2554
Bộ Thương mại Hoa Kỳ ban hành quy định cuối cùng về trợ cấp sản xuất chip bán dẫn
Bộ Thương mại Hoa Kỳ ban hành quy định cuối cùng về trợ cấp sản xuất chip bán dẫn

Bộ Thương mại Hoa Kỳ đã ban hành các quy định cuối cùng nhằm hạn chế việc sử dụng trợ cấp sản xuất chip bán dẫn của các quốc gia như Trung Quốc và Nga, những quốc gia được coi là mối đe dọa tiềm tàng đối với an ninh quốc gia Hoa Kỳ, theo Reuters. Động thái này mở đường cho chính quyền Biden phân bổ 39 tỷ USD tiền trợ cấp sản xuất chất bán dẫn như một phần của Đạo luật CHIPS and Science rộng lớn hơn, dành 52,7 tỷ USD cho lĩnh vực này.

Tác giả: Huy Hoàng Huy Hoàng
1944
Nvidia sẽ theo chân AMD và Intel trong việc sử dụng thiết kế đa chiplet?
Nvidia sẽ theo chân AMD và Intel trong việc sử dụng thiết kế đa chiplet?

Không giống như các đối thủ AMD và Intel, Nvidia vẫn chưa triển khai thiết kế đa chiplet cho GPU máy tính hiệu năng cao, nhưng có vẻ như công ty đang trên đà cuối cùng sử dụng thiết kế bố trí này với thế hệ GPU Blackwell tiếp theo của mình. Ít nhất đó là những gì mà leaker phần cứng nổi tiếng @kopite7kimi đã nói, người có xu hướng có thông tin chính xác về ý định của Nvidia. Hiện tại, tất cả chỉ là suy đoán.

Tác giả: Huy Hoàng Huy Hoàng
2318
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2045
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
2566
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
2359
Gaudi 2 của Intel vượt trội so với Nvidia trong việc tăng tốc AI Vision-Language
Gaudi 2 của Intel vượt trội so với Nvidia trong việc tăng tốc AI Vision-Language

Mặc dù Nvidia thống trị thị trường AI acceleration (thông qua tầm nhìn xa tuyệt vời, một ngăn xếp phần mềm được suy nghĩ và tài liệu tốt, và hiệu suất xử lý thuần túy), các nhà chơi khác cũng muốn chiếm lấy một phần thị trường AI cho riêng mình. Và ít nhất đối với BridgeTower, silicon Gaudi 2 của Intel (được thiết kế và sản xuất thông qua việc Intel mua lại Habana trị giá 2 tỷ USD vào năm 2019) đã được Hugging Face chứng minh rằng nó vượt trội so với A100 80 GB của Nvidia một cách đáng kinh ngạc 2,5 lần - và thậm chí nó còn đánh bại đứa con cưng của Nvidia là H100 1,4 lần

Tác giả: Huy Hoàng Huy Hoàng
1707
Chính phủ Mỹ hạn chế bán GPU Nvidia sang Trung Đông
Chính phủ Mỹ hạn chế bán GPU Nvidia sang Trung Đông

Theo một hồ sơ quy định của công ty vào tuần này, Nvidia cho biết chính phủ Hoa Kỳ đã hạn chế bán GPU tính toán hiệu suất cao của họ sang Trung Đông và một số quốc gia khác. Một trong những lý do khiến chính quyền Biden quyết định yêu cầu giấy phép xuất khẩu đối với các sản phẩm và máy chủ A100 và H100 của Nvidia là ngăn chặn sự phát triển AI của Trung Quốc bằng cách ngăn GPU được bán lại cho Trung Quốc, theo báo cáo của The Guardian.

Tác giả: Huy Hoàng Huy Hoàng
2157
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4

Tại Diễn đàn Doanh nhân Trung Quốc 2023, Liu Qingfeng, người sáng lập HKUST Xunfei (một công ty AI của Trung Quốc) đã tiết lộ rằng ông đã hợp tác với Huawei để tăng tốc AI.

Tác giả: Huy Hoàng Huy Hoàng
2499
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1558
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: A100

Baidu đặt hàng 1.600 bộ xử lý Ascend 910B của Huawei để giảm sự phụ thuộc vào Nvidia
Baidu đặt hàng 1.600 bộ xử lý Ascend 910B của Huawei để giảm sự phụ thuộc vào Nvidia

Baidu đã đặt hàng 1.600 bộ xử lý Ascend 910B của Huawei để giảm sự phụ thuộc vào Nvidia cho các ứng dụng trí tuệ nhân tạo (AI).

Tác giả: Thùy Linh Thùy Linh
2618
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC

Tesla đang tự tin tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC, theo một báo cáo được công bố bởi Economic Daily của Đài Loan. Mạch tích hợp ứng dụng cụ thể (ASIC) tùy chỉnh của Tesla được thiết kế để cung cấp năng lượng cho siêu máy tính Dojo của mình, để huấn luyện các mô hình AI hỗ trợ người lái và tự lái, nhưng cũng được kỳ vọng sẽ tìm thấy nhiều ứng dụng hơn trong robo-taxi và các dịch vụ liên quan.

Tác giả: Huy Hoàng Huy Hoàng
2519
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
2654
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ
NVIDIA chuẩn bị ba GPU mới cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ

Theo chinastarmarket.cn, NVIDIA đang chuẩn bị ba GPU mới dành cho thị trường Trung Quốc, đáp ứng yêu cầu xuất khẩu của Mỹ. Các GPU mới này được cho là dựa trên kiến trúc Hopper và Ada Lovelace.

Tác giả: Phương Anh Phương Anh
2429
Loongson ra mắt GPU 9A1000, dự kiến ra mắt vào Q3 2024
Loongson ra mắt GPU 9A1000, dự kiến ra mắt vào Q3 2024

Loongson Technology, một trong những nhà sản xuất chip không fabless của Trung Quốc, đã cung cấp thông tin cập nhật về card đồ họa 9A1000 sắp tới tại cuộc gọi thu nhập quý 3 của công ty. 9A1000, được báo cáo cung cấp hiệu suất tương đương với Radeon RX 550, sẽ được đưa vào sản xuất hàng loạt vào quý 3 năm 2024.

Tác giả: Linh Hương Linh Hương
2724
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt

Có dấu hiệu cho thấy Nvidia và các đối tác đang chuẩn bị tiếp thị GPU A800 cho Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt. A800 của Nvidia là một GPU kiến trúc Ampere được thiết kế để tuân thủ các lệnh trừng phạt của Mỹ thông qua việc sử dụng bộ tính năng được cắt giảm. Tuy nhiên, do các lệnh trừng phạt đã được tăng cường trong những tuần gần đây, nên CPU này không thể được bán trên thị trường Trung Quốc nữa.

Tác giả: Huyền Ngọc Huyền Ngọc
2360
NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến
NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến

NVIDIA được cho là đang tăng tốc vận chuyển RTX 4090 đến Trung Quốc trước lệnh hạn chế xuất khẩu dự kiến vào ngày 17 tháng 11. Các đối tác bo mạch bổ sung (AIB) của công ty đang nỗ lực sản xuất các sản phẩm RTX 4090 cho thị trường Trung Quốc trước ngày 16 tháng 11. Tuy nhiên, không rõ liệu việc xuất khẩu SKU có thực sự bị hạn chế hay không.

Tác giả: Hương Trang Hương Trang
2565
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip

Nvidia đã ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip. Công cụ này hứa hẹn sẽ đơn giản hóa nhiều khía cạnh của thiết kế chip bằng cách trả lời các câu hỏi, tóm tắt các báo cáo lỗi và tạo ra các tập lệnh cho các công cụ thiết kế điện tử tự động (EDA).

Tác giả: Minh Quân Minh Quân
2581
Chính phủ Mỹ ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và Trung Đông
Chính phủ Mỹ ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và Trung Đông

Chính phủ Mỹ đã ban hành lệnh hạn chế xuất khẩu GPU AI cao cấp sang Trung Quốc và các nước Trung Đông một cách nhanh chóng đến nỗi Nvidia không thể vận chuyển khoảng 5 tỷ USD GPU AI và HPC cho các đối tác Trung Quốc của mình. Theo tường thuật của Wall Street Journal, hậu quả của quyết định đột ngột này, Nvidia đã phải hủy đơn đặt hàng từ Alibaba, Baidu và ByteDance và phân bổ lại những GPU đó cho các công ty khác.

Tác giả: Phương Linh Phương Linh
2241
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI
Mức tiêu thụ điện năng khổng lồ của các trung tâm dữ liệu AI

Nhu cầu về AI đang rất lớn hiện nay. Công ty Schneider Electric của Pháp ước tính rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ đạt khoảng 4,3 GW vào năm 2023, thấp hơn một chút so với mức tiêu thụ điện năng của quốc gia Cyprus (4,7 GW) vào năm 2021. Công ty dự đoán rằng mức tiêu thụ điện năng của các khối lượng công việc AI sẽ tăng trưởng với tốc độ tăng trưởng kép hàng năm (CAGR) từ 26% đến 36%, điều này cho thấy rằng vào năm 2028, các khối lượng công việc AI sẽ tiêu thụ từ 13,5 GW đến 20 GW, nhiều hơn mức tiêu thụ của Iceland vào năm 2021.

Tác giả: Mai Ngọc Mai Ngọc
1851
Mỹ đột ngột cấm xuất khẩu GPU AI và HPC của Nvidia sang Trung Quốc
Mỹ đột ngột cấm xuất khẩu GPU AI và HPC của Nvidia sang Trung Quốc

Hoa Kỳ thường cho các công ty Mỹ vài tuần để vận chuyển hàng hóa đã đặt hàng và đôi khi đã thanh toán cho các đối tác của họ khi hạn chế xuất khẩu một số hàng hóa nhất định ở đâu đó. Nhưng thay vì cho Nvidia và các công ty khác thêm thời gian để vận chuyển GPU AI và HPC của họ đến Trung Quốc, Bộ Thương mại Hoa Kỳ đã quyết định đẩy nhanh việc thực hiện các hạn chế xuất khẩu mới nhất của mình. Do đó, Nvidia không còn có thể vận chuyển GPU A100, A800, H100, H800 và L40S sang Trung Quốc, có hiệu lực ngay lập tức.

Tác giả: Huyền Diễm Huyền Diễm
2274
Trò chơi Người Nhện 2 của Marvel: Tiềm năng cho một trò chơi Venom phụ
Trò chơi Người Nhện 2 của Marvel: Tiềm năng cho một trò chơi Venom phụ

Trò chơi lớn nhất trong năm của Sony, Marvel's Spider-Man 2, đã ra mắt trên PlayStation 5 hôm nay. Phần tiếp theo của trò chơi phiêu lưu/hành động tập trung vào hai nhân vật phản diện, Kraven the Hunter và Venom. Là một nhân vật thú vị như Sergei Kravinoff, Venom có một lượng người hâm mộ lớn hơn nhiều, những người chắc chắn sẽ quan tâm đến một trò chơi phụ tiềm năng.

Tác giả: Diễm Phương Diễm Phương
2418
Các quy định xuất khẩu mới của Hoa Kỳ hạn chế việc xuất khẩu chip cao cấp sang Trung Quốc và các nước khác
Các quy định xuất khẩu mới của Hoa Kỳ hạn chế việc xuất khẩu chip cao cấp sang Trung Quốc và các nước khác

Theo các quy định xuất khẩu mới nhất do chính phủ Hoa Kỳ áp đặt, AMD, Intel và Nvidia không còn được phép vận chuyển một số bộ xử lý hiệu suất cao của họ sang Trung Quốc và một số quốc gia khác mà không có giấy phép xuất khẩu từ Bộ Thương mại Hoa Kỳ. Trên thực tế, các hạn chế nghiêm ngặt đến mức các lô hàng bộ xử lý AD102 của Nvidia cũng bị hạn chế, điều này có thể ảnh hưởng đến nguồn cung cấp card đồ họa GeForce RTX 4090.

Tác giả: Mai Ngọc Mai Ngọc
2609
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
1714
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
2628
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100

Ngành công nghiệp AI đang chuyển dịch sang các giải pháp nội bộ, và mới đây, Microsoft và OpenAI đã được báo cáo là sẽ sớm ra mắt chip AI của mình, cạnh tranh với các sản phẩm như NVIDIA H100.

Tác giả: Diễm Phương Diễm Phương
2747
OpenAI cân nhắc phát triển chip AI tùy chỉnh do chi phí cao và khan hiếm GPU của Nvidia
OpenAI cân nhắc phát triển chip AI tùy chỉnh do chi phí cao và khan hiếm GPU của Nvidia

OpenAI, công ty phát triển ChatGPT, một mô hình ngôn ngữ lớn và rất phổ biến, đang cân nhắc phát triển chip AI tùy chỉnh do chi phí cao và khan hiếm GPU của Nvidia và các bộ xử lý khác cho suy luận và huấn luyện AI. Theo Reuters, OpenAI thậm chí còn đang xem xét các vụ mua lại tiềm năng để có được IP cần thiết và đẩy nhanh quá trình.

Tác giả: Huy Hoàng Huy Hoàng
2503
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2554
Bộ Thương mại Hoa Kỳ ban hành quy định cuối cùng về trợ cấp sản xuất chip bán dẫn
Bộ Thương mại Hoa Kỳ ban hành quy định cuối cùng về trợ cấp sản xuất chip bán dẫn

Bộ Thương mại Hoa Kỳ đã ban hành các quy định cuối cùng nhằm hạn chế việc sử dụng trợ cấp sản xuất chip bán dẫn của các quốc gia như Trung Quốc và Nga, những quốc gia được coi là mối đe dọa tiềm tàng đối với an ninh quốc gia Hoa Kỳ, theo Reuters. Động thái này mở đường cho chính quyền Biden phân bổ 39 tỷ USD tiền trợ cấp sản xuất chất bán dẫn như một phần của Đạo luật CHIPS and Science rộng lớn hơn, dành 52,7 tỷ USD cho lĩnh vực này.

Tác giả: Huy Hoàng Huy Hoàng
1944
Nvidia sẽ theo chân AMD và Intel trong việc sử dụng thiết kế đa chiplet?
Nvidia sẽ theo chân AMD và Intel trong việc sử dụng thiết kế đa chiplet?

Không giống như các đối thủ AMD và Intel, Nvidia vẫn chưa triển khai thiết kế đa chiplet cho GPU máy tính hiệu năng cao, nhưng có vẻ như công ty đang trên đà cuối cùng sử dụng thiết kế bố trí này với thế hệ GPU Blackwell tiếp theo của mình. Ít nhất đó là những gì mà leaker phần cứng nổi tiếng @kopite7kimi đã nói, người có xu hướng có thông tin chính xác về ý định của Nvidia. Hiện tại, tất cả chỉ là suy đoán.

Tác giả: Huy Hoàng Huy Hoàng
2318
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2045
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
2566
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
2359
Gaudi 2 của Intel vượt trội so với Nvidia trong việc tăng tốc AI Vision-Language
Gaudi 2 của Intel vượt trội so với Nvidia trong việc tăng tốc AI Vision-Language

Mặc dù Nvidia thống trị thị trường AI acceleration (thông qua tầm nhìn xa tuyệt vời, một ngăn xếp phần mềm được suy nghĩ và tài liệu tốt, và hiệu suất xử lý thuần túy), các nhà chơi khác cũng muốn chiếm lấy một phần thị trường AI cho riêng mình. Và ít nhất đối với BridgeTower, silicon Gaudi 2 của Intel (được thiết kế và sản xuất thông qua việc Intel mua lại Habana trị giá 2 tỷ USD vào năm 2019) đã được Hugging Face chứng minh rằng nó vượt trội so với A100 80 GB của Nvidia một cách đáng kinh ngạc 2,5 lần - và thậm chí nó còn đánh bại đứa con cưng của Nvidia là H100 1,4 lần

Tác giả: Huy Hoàng Huy Hoàng
1707
Chính phủ Mỹ hạn chế bán GPU Nvidia sang Trung Đông
Chính phủ Mỹ hạn chế bán GPU Nvidia sang Trung Đông

Theo một hồ sơ quy định của công ty vào tuần này, Nvidia cho biết chính phủ Hoa Kỳ đã hạn chế bán GPU tính toán hiệu suất cao của họ sang Trung Đông và một số quốc gia khác. Một trong những lý do khiến chính quyền Biden quyết định yêu cầu giấy phép xuất khẩu đối với các sản phẩm và máy chủ A100 và H100 của Nvidia là ngăn chặn sự phát triển AI của Trung Quốc bằng cách ngăn GPU được bán lại cho Trung Quốc, theo báo cáo của The Guardian.

Tác giả: Huy Hoàng Huy Hoàng
2157
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4

Tại Diễn đàn Doanh nhân Trung Quốc 2023, Liu Qingfeng, người sáng lập HKUST Xunfei (một công ty AI của Trung Quốc) đã tiết lộ rằng ông đã hợp tác với Huawei để tăng tốc AI.

Tác giả: Huy Hoàng Huy Hoàng
2499
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
1558
Chọn trang