Logo

Tìm kiếm: LLM

Giá sử dụng AI cao cấp giảm mạnh, Mỹ và Trung Quốc cạnh tranh gay gắt
Giá sử dụng AI cao cấp giảm mạnh, Mỹ và Trung Quốc cạnh tranh gay gắt

Báo cáo AI Index 2025 của Đại học Stanford cho thấy chi phí để sử dụng các mô hình AI cao cấp (LLM) đã giảm mạnh từ 20 đô la xuống chỉ còn 0.07 đô la cho mỗi triệu token trong vòng 18 tháng.

Tác giả: Hương Trang Hương Trang
664
AMD ra mắt Gaia: Chạy AI trực tiếp trên máy tính Windows, không cần 'mây'!
AMD ra mắt Gaia: Chạy AI trực tiếp trên máy tính Windows, không cần 'mây'!

AMD vừa tung ra Gaia, một dự án mã nguồn mở cho phép bạn chạy các mô hình ngôn ngữ lớn (LLM) trực tiếp trên máy tính Windows của mình, mà không cần phải phụ thuộc vào dịch vụ đám mây. Điều này có nghĩa là gì? Tưởng tượng bạn có một trợ lý ảo mạnh mẽ, có thể tóm tắt văn bản, giải quyết các vấn đề phức tạp, thậm chí kể chuyện cười, và tất cả đều diễn ra trên máy tính của bạn, ngay cả khi không có kết nối internet!

Tác giả: Linh Hương Linh Hương
754
AMD Ryzen AI Max+ 395
AMD Ryzen AI Max+ 395 "Đè Bẹp" Intel Lunar Lake trong Thử Nghiệm AI

AMD vừa tung ra một "cú đấm thép" vào thị trường chip di động, khi tuyên bố Ryzen AI Max+ 395 của họ vượt trội hơn hẳn so với Intel Lunar Lake mới nhất trong các bài kiểm tra hiệu năng AI. Theo bài viết trên blog của AMD, chip Zen 5 + RDNA 3.5 mới này có thể nhanh hơn tới 12.2 lần so với Core Ultra 7 258V của Intel.

Tác giả: Linh Hương Linh Hương
679
NVIDIA phản đòn AMD, tuyên bố RTX 5090 bỏ xa RX 7900 XTX trong AI
NVIDIA phản đòn AMD, tuyên bố RTX 5090 bỏ xa RX 7900 XTX trong AI

Sau khi bị AMD "vượt mặt" với card RX 7900 XTX trong các bài kiểm tra AI Deepseek do chính AMD công bố, NVIDIA đã nhanh chóng phản công. Hãng tuyên bố rằng card RTX 5090 và RTX 4090 của mình nhanh hơn đáng kể so với flagship RDNA 3 của AMD. Trong một bài đăng trên blog, NVIDIA khẳng định RTX 5090 nhanh hơn RX 7900 XTX tới 2.2 lần.

Tác giả: Mai Ngọc Mai Ngọc
1048
Mô Hình AI Mới R1 của Deepseek Gây Tranh Cãi Vì Chính Sách Quyền Riêng Tư Đáng Báo Động
Mô Hình AI Mới R1 của Deepseek Gây Tranh Cãi Vì Chính Sách Quyền Riêng Tư Đáng Báo Động

Mô hình ngôn ngữ lớn (LLM) mới nhất của Deepseek, có tên R1, vừa ra mắt đã gây xôn xao dư luận, đặc biệt sau khi làm cổ phiếu của các công ty AI tụt dốc. Tuy nhiên, những tiết lộ về chính sách quyền riêng tư của nó còn gây nhiều lo ngại hơn.

Tác giả: Mai Ngọc Mai Ngọc
1749
Card đồ họa Nvidia RTX Blackwell: Không chỉ dành cho game thủ
Card đồ họa Nvidia RTX Blackwell: Không chỉ dành cho game thủ

Card đồ họa Nvidia RTX Blackwell không chỉ dành riêng cho game thủ. Từ lâu, card đồ họa Nvidia đã hỗ trợ mạnh mẽ các tính năng chuyên nghiệp cho người sáng tạo nội dung, từ chỉnh sửa video, ảnh, dựng hình 3D cho đến âm thanh. Với kiến trúc Blackwell mới, nhiều tính năng tiên tiến sẽ được hỗ trợ bởi trí tuệ nhân tạo (AI).

Tác giả: Phong Lâm Phong Lâm
1192
Trí tuệ nhân tạo tạo nên xã hội thu nhỏ trong Minecraft: 1000
Trí tuệ nhân tạo tạo nên xã hội thu nhỏ trong Minecraft: 1000 "người chơi" AI mô phỏng hành vi con người!

Công ty khởi nghiệp AI Altera vừa gây chấn động giới công nghệ với "Project SID" - một thử nghiệm ấn tượng: xây dựng một xã hội thu nhỏ gồm 1000 "người chơi" AI trong thế giới Minecraft! Những AI này không chỉ tương tác với môi trường mà còn tự động hình thành các vai trò xã hội như nông dân, thương nhân, lính canh, nghệ sĩ, thậm chí cả đầu bếp và nhà hoạt động môi trường!

Tác giả: Tuấn Anh Tuấn Anh
1197
Trung Quốc tái chế card đồ họa RTX 3090 thành AI Accelerator để vượt qua lệnh cấm của Mỹ
Trung Quốc tái chế card đồ họa RTX 3090 thành AI Accelerator để vượt qua lệnh cấm của Mỹ

Gần đây, các nhà máy Trung Quốc đã tháo rời card đồ họa GeForce RTX 4090 bị cấm để biến chúng thành AI Accelerator. Giờ đây, các card RTX 3090 thế hệ trước cũng đang bị nhắm tới. Giống như GPU từng là hàng hóa nóng nhất trong thời kỳ bùng nổ tiền điện tử, GPU Nvidia cao cấp với phần cứng AI nhanh và nhiều bộ nhớ đã trở thành lựa chọn lý tưởng cho khối lượng công việc AI, ngay cả khi Hoa Kỳ siết chặt xuất khẩu sang Trung Quốc.

Tác giả: Linh Hương Linh Hương
3597
Grok: Trí tuệ nhân tạo đột phá của XAI vượt trội hơn cả ChatGPT-3.5 và Claude 2
Grok: Trí tuệ nhân tạo đột phá của XAI vượt trội hơn cả ChatGPT-3.5 và Claude 2

Grok, mô hình ngôn ngữ lớn (LLM) mới được phát triển bởi XAI, đã chứng tỏ khả năng vượt trội hơn cả các đối thủ nặng ký như ChatGPT-3.5 và Claude 2 trong một thử nghiệm toán học gần đây. Theo kết quả đánh giá, Grok đã đạt được điểm số 59%, đứng thứ hai trong số các LLM được thử nghiệm, chỉ sau GPT-4 của OpenAI với điểm số 68%.

Tác giả: Thùy Linh Thùy Linh
3287
OpenAI ra mắt GPT-4 Turbo: Khả năng xử lý ngôn ngữ đột phá với bối cảnh mở rộng và kiến thức mới nhất
OpenAI ra mắt GPT-4 Turbo: Khả năng xử lý ngôn ngữ đột phá với bối cảnh mở rộng và kiến thức mới nhất

OpenAI vừa công bố bản cập nhật đột phá nhất cho ChatGPT tại hội nghị dành cho nhà phát triển đầu tiên của mình. Công ty đã giới thiệu những cải tiến đáng kể cho mô hình ngôn ngữ lớn GPT-4 Turbo. Bản cập nhật mới nhất mở rộng khả năng của GPT-4 với bối cảnh mở rộng và cơ sở dữ liệu kiến thức được cập nhật.

Tác giả: Hương Trang Hương Trang
3929
Elon Musk ra mắt Grok, mô hình tạo văn bản AI mới
Elon Musk ra mắt Grok, mô hình tạo văn bản AI mới

Công ty của Elon Musk, xAI, đã chính thức ra mắt mô hình tạo văn bản AI mới mang tên Grok. Được mệnh danh là đối thủ của ChatGPT phổ biến, Grok được thiết kế để trở thành một mô hình ngôn ngữ mạnh mẽ và linh hoạt hơn.

Tác giả: Phương Linh Phương Linh
3138
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip

Nvidia đã ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip. Công cụ này hứa hẹn sẽ đơn giản hóa nhiều khía cạnh của thiết kế chip bằng cách trả lời các câu hỏi, tóm tắt các báo cáo lỗi và tạo ra các tập lệnh cho các công cụ thiết kế điện tử tự động (EDA).

Tác giả: Minh Quân Minh Quân
3744
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2

NVIDIA đã và đang nỗ lực cải tiến bộ công cụ AI/ML (trí tuệ nhân tạo/học máy) và LLM (mô hình ngôn ngữ lớn) của mình. Bổ sung mới nhất là TensorRT và TensorRT-LLM, được thiết kế để tối ưu hóa hiệu suất của GPU tiêu dùng và nhiều card đồ họa tốt nhất để chạy các tác vụ như Stable Diffusion và tạo văn bản Llama 2. Chúng tôi đã thử nghiệm một số GPU mới nhất của NVIDIA bằng TensorRT và nhận thấy hiệu suất trong Stable Diffusion được cải thiện tới 70%. TensorRT hiện có sẵn để tải xuống tại trang GitHub của NVIDIA, mặc dù chúng tôi đã có quyền truy cập sớm cho mục đích của cái nhìn ban đầu này.

Tác giả: Hương Trang Hương Trang
5480
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
3229
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn

Microsoft cho biết chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn.

Tác giả: Huy Hoàng Huy Hoàng
3523
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
3729
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
3642
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
3320
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4

Tại Diễn đàn Doanh nhân Trung Quốc 2023, Liu Qingfeng, người sáng lập HKUST Xunfei (một công ty AI của Trung Quốc) đã tiết lộ rằng ông đã hợp tác với Huawei để tăng tốc AI.

Tác giả: Huy Hoàng Huy Hoàng
3197
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: LLM

Giá sử dụng AI cao cấp giảm mạnh, Mỹ và Trung Quốc cạnh tranh gay gắt
Giá sử dụng AI cao cấp giảm mạnh, Mỹ và Trung Quốc cạnh tranh gay gắt

Báo cáo AI Index 2025 của Đại học Stanford cho thấy chi phí để sử dụng các mô hình AI cao cấp (LLM) đã giảm mạnh từ 20 đô la xuống chỉ còn 0.07 đô la cho mỗi triệu token trong vòng 18 tháng.

Tác giả: Hương Trang Hương Trang
664
AMD ra mắt Gaia: Chạy AI trực tiếp trên máy tính Windows, không cần 'mây'!
AMD ra mắt Gaia: Chạy AI trực tiếp trên máy tính Windows, không cần 'mây'!

AMD vừa tung ra Gaia, một dự án mã nguồn mở cho phép bạn chạy các mô hình ngôn ngữ lớn (LLM) trực tiếp trên máy tính Windows của mình, mà không cần phải phụ thuộc vào dịch vụ đám mây. Điều này có nghĩa là gì? Tưởng tượng bạn có một trợ lý ảo mạnh mẽ, có thể tóm tắt văn bản, giải quyết các vấn đề phức tạp, thậm chí kể chuyện cười, và tất cả đều diễn ra trên máy tính của bạn, ngay cả khi không có kết nối internet!

Tác giả: Linh Hương Linh Hương
754
AMD Ryzen AI Max+ 395
AMD Ryzen AI Max+ 395 "Đè Bẹp" Intel Lunar Lake trong Thử Nghiệm AI

AMD vừa tung ra một "cú đấm thép" vào thị trường chip di động, khi tuyên bố Ryzen AI Max+ 395 của họ vượt trội hơn hẳn so với Intel Lunar Lake mới nhất trong các bài kiểm tra hiệu năng AI. Theo bài viết trên blog của AMD, chip Zen 5 + RDNA 3.5 mới này có thể nhanh hơn tới 12.2 lần so với Core Ultra 7 258V của Intel.

Tác giả: Linh Hương Linh Hương
679
NVIDIA phản đòn AMD, tuyên bố RTX 5090 bỏ xa RX 7900 XTX trong AI
NVIDIA phản đòn AMD, tuyên bố RTX 5090 bỏ xa RX 7900 XTX trong AI

Sau khi bị AMD "vượt mặt" với card RX 7900 XTX trong các bài kiểm tra AI Deepseek do chính AMD công bố, NVIDIA đã nhanh chóng phản công. Hãng tuyên bố rằng card RTX 5090 và RTX 4090 của mình nhanh hơn đáng kể so với flagship RDNA 3 của AMD. Trong một bài đăng trên blog, NVIDIA khẳng định RTX 5090 nhanh hơn RX 7900 XTX tới 2.2 lần.

Tác giả: Mai Ngọc Mai Ngọc
1048
Mô Hình AI Mới R1 của Deepseek Gây Tranh Cãi Vì Chính Sách Quyền Riêng Tư Đáng Báo Động
Mô Hình AI Mới R1 của Deepseek Gây Tranh Cãi Vì Chính Sách Quyền Riêng Tư Đáng Báo Động

Mô hình ngôn ngữ lớn (LLM) mới nhất của Deepseek, có tên R1, vừa ra mắt đã gây xôn xao dư luận, đặc biệt sau khi làm cổ phiếu của các công ty AI tụt dốc. Tuy nhiên, những tiết lộ về chính sách quyền riêng tư của nó còn gây nhiều lo ngại hơn.

Tác giả: Mai Ngọc Mai Ngọc
1749
Card đồ họa Nvidia RTX Blackwell: Không chỉ dành cho game thủ
Card đồ họa Nvidia RTX Blackwell: Không chỉ dành cho game thủ

Card đồ họa Nvidia RTX Blackwell không chỉ dành riêng cho game thủ. Từ lâu, card đồ họa Nvidia đã hỗ trợ mạnh mẽ các tính năng chuyên nghiệp cho người sáng tạo nội dung, từ chỉnh sửa video, ảnh, dựng hình 3D cho đến âm thanh. Với kiến trúc Blackwell mới, nhiều tính năng tiên tiến sẽ được hỗ trợ bởi trí tuệ nhân tạo (AI).

Tác giả: Phong Lâm Phong Lâm
1192
Trí tuệ nhân tạo tạo nên xã hội thu nhỏ trong Minecraft: 1000
Trí tuệ nhân tạo tạo nên xã hội thu nhỏ trong Minecraft: 1000 "người chơi" AI mô phỏng hành vi con người!

Công ty khởi nghiệp AI Altera vừa gây chấn động giới công nghệ với "Project SID" - một thử nghiệm ấn tượng: xây dựng một xã hội thu nhỏ gồm 1000 "người chơi" AI trong thế giới Minecraft! Những AI này không chỉ tương tác với môi trường mà còn tự động hình thành các vai trò xã hội như nông dân, thương nhân, lính canh, nghệ sĩ, thậm chí cả đầu bếp và nhà hoạt động môi trường!

Tác giả: Tuấn Anh Tuấn Anh
1197
Trung Quốc tái chế card đồ họa RTX 3090 thành AI Accelerator để vượt qua lệnh cấm của Mỹ
Trung Quốc tái chế card đồ họa RTX 3090 thành AI Accelerator để vượt qua lệnh cấm của Mỹ

Gần đây, các nhà máy Trung Quốc đã tháo rời card đồ họa GeForce RTX 4090 bị cấm để biến chúng thành AI Accelerator. Giờ đây, các card RTX 3090 thế hệ trước cũng đang bị nhắm tới. Giống như GPU từng là hàng hóa nóng nhất trong thời kỳ bùng nổ tiền điện tử, GPU Nvidia cao cấp với phần cứng AI nhanh và nhiều bộ nhớ đã trở thành lựa chọn lý tưởng cho khối lượng công việc AI, ngay cả khi Hoa Kỳ siết chặt xuất khẩu sang Trung Quốc.

Tác giả: Linh Hương Linh Hương
3597
Grok: Trí tuệ nhân tạo đột phá của XAI vượt trội hơn cả ChatGPT-3.5 và Claude 2
Grok: Trí tuệ nhân tạo đột phá của XAI vượt trội hơn cả ChatGPT-3.5 và Claude 2

Grok, mô hình ngôn ngữ lớn (LLM) mới được phát triển bởi XAI, đã chứng tỏ khả năng vượt trội hơn cả các đối thủ nặng ký như ChatGPT-3.5 và Claude 2 trong một thử nghiệm toán học gần đây. Theo kết quả đánh giá, Grok đã đạt được điểm số 59%, đứng thứ hai trong số các LLM được thử nghiệm, chỉ sau GPT-4 của OpenAI với điểm số 68%.

Tác giả: Thùy Linh Thùy Linh
3287
OpenAI ra mắt GPT-4 Turbo: Khả năng xử lý ngôn ngữ đột phá với bối cảnh mở rộng và kiến thức mới nhất
OpenAI ra mắt GPT-4 Turbo: Khả năng xử lý ngôn ngữ đột phá với bối cảnh mở rộng và kiến thức mới nhất

OpenAI vừa công bố bản cập nhật đột phá nhất cho ChatGPT tại hội nghị dành cho nhà phát triển đầu tiên của mình. Công ty đã giới thiệu những cải tiến đáng kể cho mô hình ngôn ngữ lớn GPT-4 Turbo. Bản cập nhật mới nhất mở rộng khả năng của GPT-4 với bối cảnh mở rộng và cơ sở dữ liệu kiến thức được cập nhật.

Tác giả: Hương Trang Hương Trang
3929
Elon Musk ra mắt Grok, mô hình tạo văn bản AI mới
Elon Musk ra mắt Grok, mô hình tạo văn bản AI mới

Công ty của Elon Musk, xAI, đã chính thức ra mắt mô hình tạo văn bản AI mới mang tên Grok. Được mệnh danh là đối thủ của ChatGPT phổ biến, Grok được thiết kế để trở thành một mô hình ngôn ngữ mạnh mẽ và linh hoạt hơn.

Tác giả: Phương Linh Phương Linh
3138
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip

Nvidia đã ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip. Công cụ này hứa hẹn sẽ đơn giản hóa nhiều khía cạnh của thiết kế chip bằng cách trả lời các câu hỏi, tóm tắt các báo cáo lỗi và tạo ra các tập lệnh cho các công cụ thiết kế điện tử tự động (EDA).

Tác giả: Minh Quân Minh Quân
3744
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2

NVIDIA đã và đang nỗ lực cải tiến bộ công cụ AI/ML (trí tuệ nhân tạo/học máy) và LLM (mô hình ngôn ngữ lớn) của mình. Bổ sung mới nhất là TensorRT và TensorRT-LLM, được thiết kế để tối ưu hóa hiệu suất của GPU tiêu dùng và nhiều card đồ họa tốt nhất để chạy các tác vụ như Stable Diffusion và tạo văn bản Llama 2. Chúng tôi đã thử nghiệm một số GPU mới nhất của NVIDIA bằng TensorRT và nhận thấy hiệu suất trong Stable Diffusion được cải thiện tới 70%. TensorRT hiện có sẵn để tải xuống tại trang GitHub của NVIDIA, mặc dù chúng tôi đã có quyền truy cập sớm cho mục đích của cái nhìn ban đầu này.

Tác giả: Hương Trang Hương Trang
5480
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
3229
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn

Microsoft cho biết chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn.

Tác giả: Huy Hoàng Huy Hoàng
3523
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
3729
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
3642
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
3320
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4

Tại Diễn đàn Doanh nhân Trung Quốc 2023, Liu Qingfeng, người sáng lập HKUST Xunfei (một công ty AI của Trung Quốc) đã tiết lộ rằng ông đã hợp tác với Huawei để tăng tốc AI.

Tác giả: Huy Hoàng Huy Hoàng
3197
Chọn trang