OpenAI tham vọng biến ChatGPT thành 'hệ điều hành AI' toàn cầu
OpenAI đang hướng ChatGPT vượt ra khỏi vai trò chatbot thông thường để trở thành cổng kết nối chính của người dùng với internet, tương tự như iOS hay Android.
hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
Từ tháng 12 tới, người dùng ChatGPT sẽ có thể trò chuyện về những chủ đề nhạy cảm hơn, nếu họ đã xác minh là người trưởng thành. Đây là bước thay đổi lớn của OpenAI trong cách quản lý nội dung.
Theo The Verge, OpenAI dự kiến sẽ thêm tính năng trò chuyện dành cho người lớn vào ChatGPT từ tháng 12, trùng thời điểm ra mắt hệ thống kiểm soát và xác minh độ tuổi người dùng.
CEO Sam Altman cho biết công ty muốn “đối xử với người lớn như người lớn”, đồng thời đảm bảo việc mở rộng nội dung đi kèm biện pháp kiểm soát nghiêm ngặt.
“Sau khi hoàn thiện hệ thống xác minh độ tuổi, chúng tôi sẽ cho phép một số loại nội dung mới, chẳng hạn như nội dung người lớn đã được xác minh,” Altman viết trên X ngày 15/10.
Bên cạnh tính năng mới, OpenAI cũng cho phép các nhà phát triển tạo ứng dụng ChatGPT riêng dành cho người trưởng thành, dựa trên cùng hệ thống kiểm soát độ tuổi. Giới chuyên gia nhận định đây là hướng đi nhằm mở rộng phạm vi ứng dụng của ChatGPT, đồng thời thăm dò nhu cầu thật sự của người dùng trưởng thành trong không gian AI.
Không chỉ OpenAI, nhiều công ty khác cũng đang khai thác mảng trò chuyện người lớn. Chẳng hạn, xAI của Elon Musk đã ra mắt “bạn đồng hành AI” có thể tán tỉnh và trò chuyện như người thật, xuất hiện dưới dạng nhân vật hoạt hình 3D trong ứng dụng Grok.
Song song đó, OpenAI sẽ ra mắt một phiên bản ChatGPT mới được đánh giá là “tự nhiên và thân thiện” hơn, giống GPT-4o. Trước đó, khi công ty chuyển sang GPT-5 làm mặc định, nhiều người dùng phản ánh chatbot mới “thiếu cảm xúc và ít gần gũi hơn”.
Altman thừa nhận OpenAI từng kiểm soát ChatGPT quá chặt để tránh ảnh hưởng xấu đến sức khỏe tâm thần, nhưng điều đó khiến chatbot “trở nên ít thú vị và kém hữu ích” với người bình thường. Gần đây, công ty đã phát triển công cụ giúp phát hiện sớm dấu hiệu người dùng gặp khủng hoảng tinh thần, đồng thời lập Hội đồng về Hạnh phúc và AI gồm 8 chuyên gia để tư vấn chính sách xử lý các tình huống nhạy cảm.
Tuy vậy, theo Ars Technica, hội đồng này chưa có chuyên gia phòng chống tự tử – điều từng được nhiều tổ chức khuyến nghị nhằm tăng cường bảo vệ người dùng. Altman cho biết OpenAI sẽ tiếp tục hoàn thiện cơ chế hỗ trợ để đảm bảo việc nới lỏng nội dung được thực hiện “một cách an toàn và có trách nhiệm”.