Logo

OpenAI Bị Chỉ Trích Vì "Viết Lại Lịch Sử" An Toàn AI, Ưu Tiên Lợi Nhuận Hơn An Toàn?


Tham vọng của OpenAI trong lĩnh vực trí tuệ nhân tạo (AI) là không thể phủ nhận, đặc biệt trong bối cảnh DeepSeek nổi lên như một đối thủ đáng gờm. Công ty này đang dồn sức phát triển trí tuệ nhân tạo tổng quát (AGI), thậm chí còn tuyên bố "siêu AI" sẽ là xu hướng lớn tiếp theo.
Từ khi thành lập, OpenAI luôn cố gắng cân bằng giữa an toàn và cạnh tranh. Tuy nhiên, cách tiếp cận gần đây của họ về an toàn AI đã vấp phải nhiều ý kiến trái chiều. Đặc biệt, một cựu thành viên chủ chốt đã lên tiếng chỉ trích hướng đi của công ty, đặt câu hỏi liệu OpenAI có đang "viết lại" câu chuyện của chính mình.
Gần đây, OpenAI đã chia sẻ với cộng đồng về phương pháp triển khai lặp lại, cẩn trọng các mô hình AI của mình. Họ lấy ví dụ về việc phát hành GPT-2 một cách thận trọng. Tuy nhiên, ví dụ này lại gây ra phản ứng từ Miles Brundage, cựu nhà nghiên cứu chính sách của OpenAI. Ông cáo buộc công ty đang "viết lại lịch sử" về an toàn AI.
Trong tài liệu được công bố, OpenAI nhấn mạnh cách tiếp cận thận trọng với các hệ thống hiện tại, nhắc đến GPT-2 như một phần của chiến lược phát hành này. Họ bày tỏ niềm tin vào việc học hỏi từ các công cụ hiện có để đảm bảo an toàn cho các hệ thống tương lai.
Tuy nhiên, Miles Brundage, người từng đứng đầu bộ phận nghiên cứu chính sách của OpenAI trong nhiều năm, khẳng định rằng việc phát hành GPT-2 cũng tuân theo một cách tiếp cận tăng dần. Các chuyên gia bảo mật đã ghi nhận và đánh giá cao sự thận trọng của công ty. Ông cho rằng việc phát hành dần dần GPT-2 phù hợp với chiến lược triển khai lặp lại hiện tại, và sự thận trọng trong quá khứ không hề quá mức mà là cần thiết và có trách nhiệm.
Brundage cũng bày tỏ lo ngại về tuyên bố của OpenAI rằng AGI sẽ được phát triển theo từng bước dần dần thay vì một bước đột phá bất ngờ. Ông cho rằng việc công ty trình bày sai lệch lịch sử phát hành GPT-2 và "viết lại" lịch sử an toàn là đáng lo ngại. Ông lo ngại rằng OpenAI đang cố gắng tạo ra một tiêu chuẩn mới, xem nhẹ các mối lo ngại về an toàn, và điều này có thể gây ra rủi ro lớn, đặc biệt khi các hệ thống AI ngày càng tiến bộ.
Đây không phải là lần đầu tiên OpenAI bị chỉ trích vì ưu tiên tiến bộ và lợi nhuận hơn an toàn dài hạn. Các chuyên gia như Brundage đặt câu hỏi liệu sự đánh đổi này có hợp lý hay không, đồng thời bày tỏ lo ngại về tương lai nếu vấn đề an toàn AI không được xử lý một cách thận trọng.
OpenAI Bị Chỉ Trích Vì
Tác giả: Linh Hương Linh Hương

0 Bình luận

Hãy để lại bình luận gì đó

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.