OpenAI đang ráo riết hoàn thiện thiết kế chip AI riêng và dự kiến giao cho TSMC sản xuất hàng loạt vào năm 2026. Bước đi này cho thấy OpenAI không muốn tụt hậu so với các đối thủ lớn như Google, Meta và Microsoft trong cuộc đua giảm chi phí vận hành AI. Chip AI tùy chỉnh của OpenAI được thiết kế theo kiến trúc systolic array, một mạng lưới các đơn vị xử lý (PE) giống hệt nhau, sắp xếp thành hàng và cột, cho phép dữ liệu truyền qua như một đường ống. Chip này được cho là sẽ sử dụng bộ nhớ HBM, nhưng chưa rõ là HBM3E hay HBM4. OpenAI có thể sẽ sử dụng quy trình sản xuất N3-series (3nm) của TSMC. Broadcom được cho là đối tác của OpenAI trong dự án chip AI này. Thông thường, các công ty hợp tác với Broadcom sẽ tự phát triển hoặc thiết kế những phần IP quan trọng, còn Broadcom sẽ đảm nhận những phần còn lại như CPU, bộ nhớ, bộ điều khiển I/O và các giao diện vật lý. Dự án này của OpenAI do Richard Ho, cựu kỹ sư TPU của Google, dẫn dắt. Đội ngũ của Ho đã tăng lên 40 người, nhưng vẫn còn nhỏ so với Amazon Web Services hay Google. Mục tiêu của OpenAI khi tự phát triển chip AI là để tăng cường vị thế đàm phán với các nhà cung cấp hiện tại, chủ yếu là NVIDIA. Nếu thành công, OpenAI sẽ tiếp tục nâng cấp chip AI của mình theo thời gian. Phiên bản đầu tiên dự kiến được sản xuất với số lượng nhỏ, chủ yếu để chạy các mô hình AI. Phát triển chip AI hiệu năng cao là một dự án tốn kém. Ước tính chi phí cho một mẫu chip có thể lên tới hàng trăm triệu đô la, và cơ sở hạ tầng hỗ trợ có thể đội chi phí lên gấp đôi. Tuy nhiên, chi phí trên mỗi chip sẽ giảm khi phát triển nhiều hơn một mẫu cho mỗi nền tảng. Ngay cả những gã khổng lồ như AWS, Google, Meta và Microsoft cũng gặp khó khăn trong việc tạo ra chip riêng có thể đánh bại GPU của NVIDIA về hiệu năng. Tuy nhiên, họ đã thành công trong việc tạo ra những chip rẻ hơn, tiết kiệm điện hơn, phù hợp với khối lượng công việc của họ, từ đó bù đắp chi phí phát triển. Nhu cầu chip AI đang tăng mạnh khi các công ty công nghệ lớn cần số lượng lớn bộ vi xử lý để huấn luyện và vận hành các mô hình AI ngày càng phức tạp. Meta đã phân bổ 60 tỷ đô la cho cơ sở hạ tầng AI trong năm nay, trong khi Microsoft dự định đầu tư 80 tỷ đô la vào năm 2025. OpenAI có thể sẽ chi hàng chục tỷ đô la cho phần cứng, phần mềm và cơ sở hạ tầng trong năm nay. Nếu OpenAI hoàn thành thiết kế chip AI đầu tiên trong vài tháng tới, họ có thể bắt đầu sản xuất hàng loạt vào giữa năm 2026 và triển khai vào nửa cuối năm 2026.
© newsliver.com. All Rights Reserved.