Logo

Tìm kiếm: Nhà phát triển

Nintendo Switch 2: Nâng cấp phần cứng với kiến trúc Ampere của Nvidia
Nintendo Switch 2: Nâng cấp phần cứng với kiến trúc Ampere của Nvidia

Nhiều người sẽ đồng ý rằng Nintendo Switch, ra mắt vào năm 2017, đã đến lúc cần nâng cấp phần cứng. Đã có nhiều tin đồn rằng Nintendo Switch 2 có thể tận dụng kiến ​​trúc Ampere của Nvidia để mang đến cho game thủ trải nghiệm chơi game cầm tay mới. Bản cập nhật GitHub mới (qua Kepler_L2) mang lại một số giá trị cho những tin đồn ban đầu.

Tác giả: Huy Hoàng Huy Hoàng
3326
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
3352

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: Nhà phát triển

Nintendo Switch 2: Nâng cấp phần cứng với kiến trúc Ampere của Nvidia
Nintendo Switch 2: Nâng cấp phần cứng với kiến trúc Ampere của Nvidia

Nhiều người sẽ đồng ý rằng Nintendo Switch, ra mắt vào năm 2017, đã đến lúc cần nâng cấp phần cứng. Đã có nhiều tin đồn rằng Nintendo Switch 2 có thể tận dụng kiến ​​trúc Ampere của Nvidia để mang đến cho game thủ trải nghiệm chơi game cầm tay mới. Bản cập nhật GitHub mới (qua Kepler_L2) mang lại một số giá trị cho những tin đồn ban đầu.

Tác giả: Huy Hoàng Huy Hoàng
3326
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
3352