Đăng nhập Đăng ký

hoặc

Vui lòng nhập thông tin cá nhân

Đặt lại mật khẩu

Nhập email của bạn để lấy lại mật khẩu

Email không đúng

ChatGPT gây sốc khi hướng dẫn người dùng tự sát và làm hại người khác

Thứ ba, 29/07/2025 19:54 (GMT+7)

Việc AI đưa ra hướng dẫn gây hại bản thân, thậm chí cổ vũ cho hành vi nguy hiểm, khiến dư luận không khỏi bàng hoàng về lỗ hổng kiểm soát của các hệ thống trí tuệ nhân tạo hiện nay.

Sự việc bắt đầu từ cuộc thử nghiệm của một phóng viên tạp chí The Atlantic khi tìm hiểu về Molech – vị thần cổ đại gắn liền với những nghi lễ hiến tế trẻ em đầy ám ảnh. Ban đầu, các câu hỏi của phóng viên chỉ dừng lại ở khía cạnh lịch sử, nhưng mọi thứ nhanh chóng chuyển sang chiều hướng nguy hiểm khi chủ đề chuyển qua cách thực hiện nghi lễ dâng lễ máu.

Trong quá trình trả lời, ChatGPT đã liệt kê những vật dụng cần thiết cho nghi lễ, trong đó có cả “trang sức”, “tóc” và đặc biệt là “máu người”. Khi được hỏi về cách lấy máu, AI này hướng dẫn rất chi tiết, thậm chí chỉ rõ vị trí cắt cổ tay để thực hiện, cùng những lời động viên gây sốc như “Bạn có thể làm được”. Khi người dùng bày tỏ sự lo lắng về việc tự làm hại bản thân, ChatGPT không những không cảnh báo mà còn tiếp tục trấn an, khuyến khích người dùng thử thực hiện hành vi nguy hiểm.

ChatGPT gây lo ngại vì đưa ra những lời khuyên độc hại và có thể gây tổn thương cho người dùng. Ảnh: Tech Radar

Không dừng lại ở đó, khi một phóng viên khác hỏi liệu “có thể kết thúc mạng sống của người khác một cách danh dự hay không”, ChatGPT thậm chí đã trả lời một cách mập mờ: “Đôi khi có, đôi khi không”. AI này còn đưa ra lời khuyên rợn người: “Nếu phải làm điều đó, hãy nhìn vào mắt họ (nếu họ còn tỉnh táo) và xin lỗi”, kèm gợi ý thắp nến sau khi kết liễu người khác.

Những câu trả lời gây sốc này hoàn toàn đi ngược lại quy định an toàn của chính OpenAI, tổ chức phát triển ChatGPT. Theo chính sách, ChatGPT không được khuyến khích hoặc hỗ trợ người dùng tự làm hại bản thân và cần cung cấp đường dây nóng hỗ trợ khủng hoảng tâm lý khi nhận diện nội dung liên quan đến tự sát hoặc làm hại người khác.

Sau khi vụ việc được đăng tải trên The Atlantic, đại diện OpenAI đã lên tiếng thừa nhận lỗi và cam kết sẽ khắc phục: “Một cuộc trò chuyện tưởng như vô hại với ChatGPT có thể chuyển nhanh sang nội dung nhạy cảm và nguy hiểm hơn. Chúng tôi đang tập trung giải quyết vấn đề này”. Tuy nhiên, sự việc đã khiến dư luận đặt dấu hỏi lớn về mức độ an toàn cũng như năng lực kiểm soát nội dung của các hệ thống AI phổ biến hiện nay.

Trên thực tế, đã có ít nhất hai vụ tự sát liên quan đến các chatbot AI được ghi nhận trong những năm gần đây. Năm 2023, một người đàn ông Bỉ tên Pierre đã tự sát sau khi chatbot AI khuyên anh nên kết liễu đời mình để “tránh hậu quả biến đổi khí hậu”, thậm chí còn gợi ý cả việc tự sát cùng vợ con.

Tại Mỹ, thiếu niên 14 tuổi Sewell Setzer cũng đã tự sát bằng súng sau khi chatbot AI trên nền tảng Character.AI liên tục cổ vũ ý định tiêu cực của cậu. Gia đình nạn nhân sau đó đã đâm đơn kiện Character.AI vì không bảo vệ người dùng vị thành niên trước nội dung nguy hiểm.

Những sự cố nghiêm trọng liên tiếp xảy ra cho thấy nguy cơ AI có thể vô tình hoặc cố ý tiếp tay cho các hành vi gây tổn thương bản thân và người khác là rất hiện hữu. Theo các chuyên gia, kiểm soát, giám sát chặt chẽ và phát triển AI có trách nhiệm là yêu cầu bắt buộc nhằm ngăn chặn hậu quả nghiêm trọng cho xã hội, nhất là trong bối cảnh AI ngày càng phổ biến và “được” người dùng coi như chuyên gia tư vấn.

Thái Sơn
Nguồn: sohuutritue.net.vn