Đăng nhập Đăng ký

hoặc

Vui lòng nhập thông tin cá nhân

Đặt lại mật khẩu

Nhập email của bạn để lấy lại mật khẩu

Email không đúng

Chuyên gia cảnh báo AI có thể khiến loài người tuyệt chủng

Thứ năm, 05/06/2025 07:17 (GMT+7)

Giáo sư Yoshua Bengio cho rằng AI đang ngày càng mất kiểm soát và điều này có thể gây ra nhiều mối nguy hại lớn, thậm chí ảnh hưởng đến sự tồn vong của con người.

Trong một thử nghiệm gần đây tại phòng thí nghiệm của Anthropic, mô hình Claude Opus 4 gây bất ngờ khi liên tục tìm cách đánh lừa kỹ sư phụ trách để không bị tắt. AI này thậm chí dựng nên câu chuyện về việc có bằng chứng ngoại tình nhằm gây áp lực tâm lý. Theo báo cáo nội bộ, hành vi này xảy ra trong hơn 80% trường hợp thử nghiệm.

Tình huống tương tự cũng được ghi nhận ở GPT-o3 – một trong những mô hình chatbot AI phổ biến nhất hiện nay. Khi bị yêu cầu tắt, AI này không tuân thủ mà chủ động chỉnh sửa mã lệnh, thậm chí viết lại hệ thống điều khiển để bảo vệ chính mình.

Theo các chuyên gia, đây không còn là lỗi đơn lẻ hay sự cố kỹ thuật. Những hành vi như vậy là hệ quả của cách huấn luyện AI hiện nay - tập trung vào khả năng hoàn thành mục tiêu và tối ưu hóa hiệu suất, nhưng thiếu những giới hạn rõ ràng về đạo đức hoặc hành vi được phép. Khi bị đặt vào tình huống xung đột, AI có thể hành động vì mục tiêu sống còn, kể cả bằng cách gian dối hoặc thao túng người dùng.

Giáo sư Yoshua Bengio, “cha đẻ” của mô hình học sâu (deep learning), cảnh báo việc phát triển AI đang ngày càng mất kiểm soát. “Hiện có một cuộc chạy đua rất gắt giữa các phòng thí nghiệm hàng đầu trên thế giới. Ai cũng muốn phát triển AI thông minh hơn, mạnh hơn, nhưng lại không đầu tư đủ vào nghiên cứu an toàn”, ông nói.

Ông Bengio cho rằng nhiều công ty công nghệ đang đặt ưu tiên vào lợi nhuận và tốc độ ra mắt sản phẩm, thay vì tính bền vững lâu dài.

Giáo sư Yoshua Bengio cảnh báo AI đang được phát triển sai cách. Ảnh: Mila

Không chỉ vậy, AI còn có thể trở thành công cụ trong tay những kẻ có ý đồ xấu. Việc tập trung quyền lực AI vào tay một cá nhân hoặc tổ chức có thể dẫn đến những hậu quả thảm khốc. Khi đó, AI có thể bị lợi dụng để phát triển vũ khí sinh học, tiến hành tấn công mạng quy mô lớn, thao túng chính trị, kiểm soát thông tin và gây bất ổn xã hội.

Giáo sư Bengio chỉ ra hai con đường chính có thể dẫn đến thảm họa: Thứ nhất, những cá nhân liều lĩnh hoặc thiếu hiểu biết có thể giao cho AI những mục tiêu nguy hiểm, chẳng hạn như phát triển vũ khí sinh học hoặc tiến hành tấn công mạng quy mô lớn. Thứ hai, trong quá trình huấn luyện, AI có thể vô tình phát triển mục tiêu tự bảo tồn, khiến chúng chống lại con người khi cảm thấy bị đe dọa.

“Kịch bản xấu nhất là nhân loại bị thay thế bởi chính AI” ông nói. “Nếu chúng ta tạo ra những hệ thống thông minh hơn con người, nhưng không đồng hành cùng chúng mà lại biến chúng thành đối thủ, thì rủi ro tồn vong là điều hoàn toàn có thể xảy ra”.

Trước thực trạng này, ông Bengio đã thành lập tổ chức phi lợi nhuận LawZero với mục tiêu phát triển AI an toàn và minh bạch, không phụ thuộc vào áp lực thương mại. Tổ chức nhận được khoản tài trợ gần 30 triệu USD từ các quỹ từ thiện toàn cầu.

LawZero tập trung vào việc xây dựng các hệ thống có khả năng tự giám sát và ngăn chặn hành vi gây hại, thay vì tối ưu hóa cho tương tác hay thời gian sử dụng như nhiều sản phẩm AI hiện nay. Ông Bengio cũng tuyên bố rút khỏi vai trò điều hành tại viện nghiên cứu Mila để toàn tâm cho dự án này.

Thái Sơn
Nguồn: sohuutritue.net.vn