Logo

Sam Altman Trở Lại OpenAI Sau Cuộc Tranh Cãi Nóng Bỏng

Sau một cuối tuần đầy biến động ở Thung lũng Silicon, nơi chứng kiến sự đổi mới mới nhất của AI, Sam Altman, cựu Giám đốc điều hành của OpenAI, đã trở lại công ty của mình một cách đầy vinh quang.

Mối bất hòa của Altman với hội đồng quản trị của OpenAI đã gây ra nhiều tranh luận trên các phương tiện truyền thông xã hội và truyền thống, với những bất đồng được cho là xuất phát từ sự chia rẽ giữa OpenAI và bản chất lợi nhuận/ phi lợi nhuận của công ty mẹ.

Tuy nhiên, phương thức hoạt động vì lợi nhuận có thể không phải là lý do duy nhất gây ra sự chia rẽ, vì một báo cáo mới từ New York Times cho biết rằng một nguồn gốc mâu thuẫn chính là một bài nghiên cứu do thành viên hội đồng quản trị Helen Toner viết.

Bài báo của bà Toner tập trung cụ thể vào các hành động của OpenAI xung quanh việc ra mắt mô hình GPT-4. Theo các tác giả của bài báo, trong khi bản thân mô hình là một thành tựu công nghệ đáng kể, thì sự liên quan của nó đến việc báo hiệu lại thông qua các tài liệu bổ sung.

Các tài liệu này bao gồm một thẻ hệ thống giải thích các rủi ro của GPT-4 và cách OpenAI đã giảm thiểu chúng khi họ vội vàng tung ra mô hình GPT-4 đầu tiên trên thị trường. Các tác giả cho biết họ tin rằng nó tương đối không thành công như một công cụ giao tiếp cho cam kết an toàn của OpenAI.

Trong khi bản thân thẻ hệ thống đã được đón nhận tốt trong số các nhà nghiên cứu quan tâm đến việc hiểu rõ hồ sơ rủi ro của GPT-4, thì dường như nó đã kém thành công hơn như một dấu hiệu rộng hơn về cam kết an toàn của OpenAI. Lý do cho kết quả không mong muốn này là công ty đã thực hiện các hành động khác làm lu mờ tầm quan trọng của thẻ hệ thống: đáng chú ý nhất là việc phát hành thành công của ChatGPT bốn tháng trước đó.

Sau đó, các nhà nghiên cứu đã so sánh cách tiếp cận của OpenAI với cách tiếp cận của đối thủ Anthropic và nền tảng Claude của họ. Họ khen ngợi quyết định của Anthropic về việc trì hoãn việc ra mắt Claude để ngăn chặn "tiến bộ với tốc độ tiến bộ năng lực AI" và định nghĩa quyết định này là "dấu hiệu kìm nén tốn kém."

Bằng cách trì hoãn phát hành Claude cho đến khi một công ty khác đưa ra một sản phẩm có khả năng tương tự, Anthropic đã thể hiện sự sẵn lòng tránh chính xác loại cắt góc điên cuồng mà việc phát hành ChatGPT dường như thúc đẩy. Anthropic đã đạt được mục tiêu này bằng cách tận dụng chi phí trả góp, hoặc chi phí cố định không thể bù đắp theo thời gian. Trong khuôn khổ của nghiên cứu này, Anthropic đã nâng cao uy tín của các cam kết về an toàn AI của mình bằng cách giữ mô hình của mình không được phát hành sớm và hấp thụ các khoản lỗ thu tiềm năng trong tương lai. Động lực trong trường hợp này không phải là thu hồi những khoản lỗ đó bằng cách giành được thị phần rộng hơn, mà là để thúc đẩy các chuẩn mực trong ngành và đóng góp vào các kỳ vọng chung về phát triển và triển khai AI có trách nhiệm.

Báo cáo của NYT cho biết rằng Altman không hài lòng với Holt sau khi bài báo được công bố, và ông đã chia sẻ lo ngại của mình với các nhân viên OpenAI qua email.

**Ngoài ra, một diễn biến khá thú vị đã diễn ra ngay sau đó, với việc Giám đốc nghiên cứu của OpenAI, Ilya Sutskever, ban đầu tranh luận về việc liệu có nên loại Toner ra khỏi hội đồng quản trị hay không. Tuy nhiên, đáng ngạc nhiên là sau đó anh ta đã chọn chống lại Altman

Tác giả: Diễm Phương Diễm Phương

0 Bình luận

Hãy để lại bình luận gì đó

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.