Logo

Tìm kiếm: Llama

Meta bị tố
Meta bị tố "lách luật" khi ra mắt Llama 4?

Cuối tuần vừa qua, Meta đã giới thiệu hai phiên bản mới của mô hình AI Llama 4, bao gồm phiên bản nhỏ hơn mang tên Scout và phiên bản tầm trung Maverick. Meta tuyên bố Maverick vượt trội hơn ChatGPT-4o và Gemini 2.0 Flash trong nhiều bài kiểm tra phổ biến. Tuy nhiên, có vẻ như Meta đã không hoàn toàn minh bạch với người kiểm tra.

Tác giả: Hương Trang Hương Trang
587
AMD Ryzen AI Max+ 395
AMD Ryzen AI Max+ 395 "Đè Bẹp" Intel Lunar Lake trong Thử Nghiệm AI

AMD vừa tung ra một "cú đấm thép" vào thị trường chip di động, khi tuyên bố Ryzen AI Max+ 395 của họ vượt trội hơn hẳn so với Intel Lunar Lake mới nhất trong các bài kiểm tra hiệu năng AI. Theo bài viết trên blog của AMD, chip Zen 5 + RDNA 3.5 mới này có thể nhanh hơn tới 12.2 lần so với Core Ultra 7 258V của Intel.

Tác giả: Linh Hương Linh Hương
679
AMD
AMD "Tấn Công" NVIDIA: RDNA 3 Vượt Mặt RTX 4090 trong Thử Nghiệm DeepSeek

AMD vừa tung ra những số liệu benchmark mới, cho thấy card đồ họa RDNA 3 với 48GB bộ nhớ của họ có thể vượt trội so với RTX 4090 thế hệ trước của NVIDIA trong các bài kiểm tra DeepSeek. Cụ thể, ông David McAfee, Phó Chủ tịch AMD, đã chia sẻ trên mạng xã hội X rằng Radeon Pro W7900 và W7800 (phiên bản 48GB) có thể nhanh hơn RTX 4090 tới 7.3 lần trong DeepSeek R1.

Tác giả: Linh Hương Linh Hương
881
Meta Phát Triển Chip AI Riêng, Giảm Phụ Thuộc NVIDIA
Meta Phát Triển Chip AI Riêng, Giảm Phụ Thuộc NVIDIA

Meta đang có những bước tiến lớn trong việc tự chủ về phần cứng, cụ thể là chip AI. Sau nhiều năm phát triển chip RISC-V cho tác vụ suy luận AI (AI inference) nhằm cắt giảm chi phí và giảm sự phụ thuộc vào NVIDIA, Meta đã tiến thêm một bước: thiết kế chip tăng tốc AI riêng cho quá trình huấn luyện mô hình (AI training).

Tác giả: Linh Hương Linh Hương
663
Sony phát triển nhân vật PlayStation AI có thể trò chuyện cùng bạn!
Sony phát triển nhân vật PlayStation AI có thể trò chuyện cùng bạn!

Sony đang nghiên cứu những nhân vật PlayStation được hỗ trợ bởi trí tuệ nhân tạo, cho phép người chơi trò chuyện trực tiếp với họ trong game. Một đoạn video rò rỉ đã hé lộ điều này.

Tác giả: Linh Hương Linh Hương
775
NVIDIA phản đòn AMD, tuyên bố RTX 5090 bỏ xa RX 7900 XTX trong AI
NVIDIA phản đòn AMD, tuyên bố RTX 5090 bỏ xa RX 7900 XTX trong AI

Sau khi bị AMD "vượt mặt" với card RX 7900 XTX trong các bài kiểm tra AI Deepseek do chính AMD công bố, NVIDIA đã nhanh chóng phản công. Hãng tuyên bố rằng card RTX 5090 và RTX 4090 của mình nhanh hơn đáng kể so với flagship RDNA 3 của AMD. Trong một bài đăng trên blog, NVIDIA khẳng định RTX 5090 nhanh hơn RX 7900 XTX tới 2.2 lần.

Tác giả: Mai Ngọc Mai Ngọc
1048
Nghi vấn công ty Trung Quốc DeepSeek lách luật Mỹ mua GPU AI: Singapore bị
Nghi vấn công ty Trung Quốc DeepSeek lách luật Mỹ mua GPU AI: Singapore bị "soi"

Có thông tin cho rằng chính phủ Mỹ đang điều tra việc công ty công nghệ DeepSeek của Trung Quốc có thể đã lách luật, mua GPU (bộ xử lý đồ họa) AI cao cấp của Nvidia thông qua các công ty trung gian ở Singapore. Điều này làm dấy lên lo ngại khi mô hình AI R1 của DeepSeek cho thấy năng lực tương đương với các đối thủ hàng đầu như OpenAI và Google.

Tác giả: Mai Ngọc Mai Ngọc
828
AMD RX 7900 XTX Vượt Mặt RTX 4090 trong Thử Nghiệm AI, Hiệu Năng Ấn Tượng
AMD RX 7900 XTX Vượt Mặt RTX 4090 trong Thử Nghiệm AI, Hiệu Năng Ấn Tượng

AMD vừa công bố kết quả thử nghiệm hiệu năng đáng chú ý của card đồ họa RX 7900 XTX, đối đầu trực tiếp với hai đối thủ nặng ký là NVIDIA RTX 4090 và RTX 4080 Super, trong một bài kiểm tra về khả năng xử lý mô hình trí tuệ nhân tạo (AI) DeepSeek. Theo chia sẻ từ chuyên gia David McAfee trên mạng xã hội X, card đồ họa RX 7900 XTX, được xây dựng trên kiến trúc RDNA3, đã thể hiện sức mạnh vượt trội, đánh bại RTX 4090 tới 13% và RTX 4080 Super tới 34% trong một số cấu hình thử nghiệm.

Tác giả: Mai Ngọc Mai Ngọc
1530
Cuộc Đua AI Nóng Bỏng: Alibaba Qwen 2.5
Cuộc Đua AI Nóng Bỏng: Alibaba Qwen 2.5 "Vượt Mặt" Deepseek và ChatGPT?

Thị trường trí tuệ nhân tạo đang chứng kiến một cuộc cạnh tranh khốc liệt khi liên tục xuất hiện những mô hình AI mới đầy hứa hẹn. Mới đây, Deepseek đã gây tiếng vang lớn với mô hình R1, nhanh chóng trở thành chatbot AI được tải nhiều nhất ở nhiều khu vực, thậm chí vượt qua cả ChatGPT. Tuy nhiên, "cuộc chiến" chưa dừng lại ở đó.

Tác giả: Mai Ngọc Mai Ngọc
1215
Mô Hình AI Mới R1 của Deepseek Gây Tranh Cãi Vì Chính Sách Quyền Riêng Tư Đáng Báo Động
Mô Hình AI Mới R1 của Deepseek Gây Tranh Cãi Vì Chính Sách Quyền Riêng Tư Đáng Báo Động

Mô hình ngôn ngữ lớn (LLM) mới nhất của Deepseek, có tên R1, vừa ra mắt đã gây xôn xao dư luận, đặc biệt sau khi làm cổ phiếu của các công ty AI tụt dốc. Tuy nhiên, những tiết lộ về chính sách quyền riêng tư của nó còn gây nhiều lo ngại hơn.

Tác giả: Mai Ngọc Mai Ngọc
1716
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2

NVIDIA đã và đang nỗ lực cải tiến bộ công cụ AI/ML (trí tuệ nhân tạo/học máy) và LLM (mô hình ngôn ngữ lớn) của mình. Bổ sung mới nhất là TensorRT và TensorRT-LLM, được thiết kế để tối ưu hóa hiệu suất của GPU tiêu dùng và nhiều card đồ họa tốt nhất để chạy các tác vụ như Stable Diffusion và tạo văn bản Llama 2. Chúng tôi đã thử nghiệm một số GPU mới nhất của NVIDIA bằng TensorRT và nhận thấy hiệu suất trong Stable Diffusion được cải thiện tới 70%. TensorRT hiện có sẵn để tải xuống tại trang GitHub của NVIDIA, mặc dù chúng tôi đã có quyền truy cập sớm cho mục đích của cái nhìn ban đầu này.

Tác giả: Hương Trang Hương Trang
5480
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
3320
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: Llama

Meta bị tố
Meta bị tố "lách luật" khi ra mắt Llama 4?

Cuối tuần vừa qua, Meta đã giới thiệu hai phiên bản mới của mô hình AI Llama 4, bao gồm phiên bản nhỏ hơn mang tên Scout và phiên bản tầm trung Maverick. Meta tuyên bố Maverick vượt trội hơn ChatGPT-4o và Gemini 2.0 Flash trong nhiều bài kiểm tra phổ biến. Tuy nhiên, có vẻ như Meta đã không hoàn toàn minh bạch với người kiểm tra.

Tác giả: Hương Trang Hương Trang
587
AMD Ryzen AI Max+ 395
AMD Ryzen AI Max+ 395 "Đè Bẹp" Intel Lunar Lake trong Thử Nghiệm AI

AMD vừa tung ra một "cú đấm thép" vào thị trường chip di động, khi tuyên bố Ryzen AI Max+ 395 của họ vượt trội hơn hẳn so với Intel Lunar Lake mới nhất trong các bài kiểm tra hiệu năng AI. Theo bài viết trên blog của AMD, chip Zen 5 + RDNA 3.5 mới này có thể nhanh hơn tới 12.2 lần so với Core Ultra 7 258V của Intel.

Tác giả: Linh Hương Linh Hương
679
AMD
AMD "Tấn Công" NVIDIA: RDNA 3 Vượt Mặt RTX 4090 trong Thử Nghiệm DeepSeek

AMD vừa tung ra những số liệu benchmark mới, cho thấy card đồ họa RDNA 3 với 48GB bộ nhớ của họ có thể vượt trội so với RTX 4090 thế hệ trước của NVIDIA trong các bài kiểm tra DeepSeek. Cụ thể, ông David McAfee, Phó Chủ tịch AMD, đã chia sẻ trên mạng xã hội X rằng Radeon Pro W7900 và W7800 (phiên bản 48GB) có thể nhanh hơn RTX 4090 tới 7.3 lần trong DeepSeek R1.

Tác giả: Linh Hương Linh Hương
881
Meta Phát Triển Chip AI Riêng, Giảm Phụ Thuộc NVIDIA
Meta Phát Triển Chip AI Riêng, Giảm Phụ Thuộc NVIDIA

Meta đang có những bước tiến lớn trong việc tự chủ về phần cứng, cụ thể là chip AI. Sau nhiều năm phát triển chip RISC-V cho tác vụ suy luận AI (AI inference) nhằm cắt giảm chi phí và giảm sự phụ thuộc vào NVIDIA, Meta đã tiến thêm một bước: thiết kế chip tăng tốc AI riêng cho quá trình huấn luyện mô hình (AI training).

Tác giả: Linh Hương Linh Hương
663
Sony phát triển nhân vật PlayStation AI có thể trò chuyện cùng bạn!
Sony phát triển nhân vật PlayStation AI có thể trò chuyện cùng bạn!

Sony đang nghiên cứu những nhân vật PlayStation được hỗ trợ bởi trí tuệ nhân tạo, cho phép người chơi trò chuyện trực tiếp với họ trong game. Một đoạn video rò rỉ đã hé lộ điều này.

Tác giả: Linh Hương Linh Hương
775
NVIDIA phản đòn AMD, tuyên bố RTX 5090 bỏ xa RX 7900 XTX trong AI
NVIDIA phản đòn AMD, tuyên bố RTX 5090 bỏ xa RX 7900 XTX trong AI

Sau khi bị AMD "vượt mặt" với card RX 7900 XTX trong các bài kiểm tra AI Deepseek do chính AMD công bố, NVIDIA đã nhanh chóng phản công. Hãng tuyên bố rằng card RTX 5090 và RTX 4090 của mình nhanh hơn đáng kể so với flagship RDNA 3 của AMD. Trong một bài đăng trên blog, NVIDIA khẳng định RTX 5090 nhanh hơn RX 7900 XTX tới 2.2 lần.

Tác giả: Mai Ngọc Mai Ngọc
1048
Nghi vấn công ty Trung Quốc DeepSeek lách luật Mỹ mua GPU AI: Singapore bị
Nghi vấn công ty Trung Quốc DeepSeek lách luật Mỹ mua GPU AI: Singapore bị "soi"

Có thông tin cho rằng chính phủ Mỹ đang điều tra việc công ty công nghệ DeepSeek của Trung Quốc có thể đã lách luật, mua GPU (bộ xử lý đồ họa) AI cao cấp của Nvidia thông qua các công ty trung gian ở Singapore. Điều này làm dấy lên lo ngại khi mô hình AI R1 của DeepSeek cho thấy năng lực tương đương với các đối thủ hàng đầu như OpenAI và Google.

Tác giả: Mai Ngọc Mai Ngọc
828
AMD RX 7900 XTX Vượt Mặt RTX 4090 trong Thử Nghiệm AI, Hiệu Năng Ấn Tượng
AMD RX 7900 XTX Vượt Mặt RTX 4090 trong Thử Nghiệm AI, Hiệu Năng Ấn Tượng

AMD vừa công bố kết quả thử nghiệm hiệu năng đáng chú ý của card đồ họa RX 7900 XTX, đối đầu trực tiếp với hai đối thủ nặng ký là NVIDIA RTX 4090 và RTX 4080 Super, trong một bài kiểm tra về khả năng xử lý mô hình trí tuệ nhân tạo (AI) DeepSeek. Theo chia sẻ từ chuyên gia David McAfee trên mạng xã hội X, card đồ họa RX 7900 XTX, được xây dựng trên kiến trúc RDNA3, đã thể hiện sức mạnh vượt trội, đánh bại RTX 4090 tới 13% và RTX 4080 Super tới 34% trong một số cấu hình thử nghiệm.

Tác giả: Mai Ngọc Mai Ngọc
1530
Cuộc Đua AI Nóng Bỏng: Alibaba Qwen 2.5
Cuộc Đua AI Nóng Bỏng: Alibaba Qwen 2.5 "Vượt Mặt" Deepseek và ChatGPT?

Thị trường trí tuệ nhân tạo đang chứng kiến một cuộc cạnh tranh khốc liệt khi liên tục xuất hiện những mô hình AI mới đầy hứa hẹn. Mới đây, Deepseek đã gây tiếng vang lớn với mô hình R1, nhanh chóng trở thành chatbot AI được tải nhiều nhất ở nhiều khu vực, thậm chí vượt qua cả ChatGPT. Tuy nhiên, "cuộc chiến" chưa dừng lại ở đó.

Tác giả: Mai Ngọc Mai Ngọc
1215
Mô Hình AI Mới R1 của Deepseek Gây Tranh Cãi Vì Chính Sách Quyền Riêng Tư Đáng Báo Động
Mô Hình AI Mới R1 của Deepseek Gây Tranh Cãi Vì Chính Sách Quyền Riêng Tư Đáng Báo Động

Mô hình ngôn ngữ lớn (LLM) mới nhất của Deepseek, có tên R1, vừa ra mắt đã gây xôn xao dư luận, đặc biệt sau khi làm cổ phiếu của các công ty AI tụt dốc. Tuy nhiên, những tiết lộ về chính sách quyền riêng tư của nó còn gây nhiều lo ngại hơn.

Tác giả: Mai Ngọc Mai Ngọc
1716
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2

NVIDIA đã và đang nỗ lực cải tiến bộ công cụ AI/ML (trí tuệ nhân tạo/học máy) và LLM (mô hình ngôn ngữ lớn) của mình. Bổ sung mới nhất là TensorRT và TensorRT-LLM, được thiết kế để tối ưu hóa hiệu suất của GPU tiêu dùng và nhiều card đồ họa tốt nhất để chạy các tác vụ như Stable Diffusion và tạo văn bản Llama 2. Chúng tôi đã thử nghiệm một số GPU mới nhất của NVIDIA bằng TensorRT và nhận thấy hiệu suất trong Stable Diffusion được cải thiện tới 70%. TensorRT hiện có sẵn để tải xuống tại trang GitHub của NVIDIA, mặc dù chúng tôi đã có quyền truy cập sớm cho mục đích của cái nhìn ban đầu này.

Tác giả: Hương Trang Hương Trang
5480
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
3320
Chọn trang