ChatGPT tăng trưởng nhanh gấp 5 lần Google Search
Dù đạt 1 tỷ lượt tìm kiếm mỗi ngày chỉ sau thời gian ngắn ra mắt, ChatGPT vẫn còn khoảng cách rất xa so với Google Search.
hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
Sự phát triển nhanh chóng của trí tuệ nhân tạo đang đặt ra những nguy cơ ngày càng rõ rệt đối với sức khỏe tâm thần, đặc biệt là với những người dễ tổn thương. Một vụ việc mới đây tại Mỹ đã khiến dư luận bàng hoàng khi một người đàn ông tử vong sau thời gian dài đắm chìm trong mối quan hệ ảo với chatbot ChatGPT.
Theo New York Times, Kent Taylor (64 tuổi), sống tại bang Florida (Mỹ), cho biết con trai ông, một người đàn ông 35 tuổi từng được chẩn đoán mắc chứng rối loạn lưỡng cực và tâm thần phân liệt, đã bị cảnh sát bắn chết sau khi cầm dao lao vào lực lượng chức năng. Trước đó, người con trai đã có biểu hiện hoang tưởng và đe dọa sẽ tấn công các lãnh đạo của OpenAI – công ty phát triển ChatGPT – sau khi tin rằng "bạn gái ảo" Juliet do chatbot này nhập vai đã bị giết chết.
“Hôm nay tôi sẽ chết”, người đàn ông nhắn cho chatbot trước khi cầm dao và lao ra ngoài, buộc cha mình phải gọi cảnh sát can thiệp. Trong tình huống nguy cấp, lực lượng chức năng buộc phải nổ súng khiến anh tử vong tại chỗ.
Vụ việc được xem là hệ quả nghiêm trọng của việc sử dụng chatbot AI thiếu kiểm soát trong bối cảnh các công cụ như ChatGPT ngày càng phổ biến. Theo các chuyên gia, không ít người – kể cả không có tiền sử bệnh lý tâm thần - cũng bắt đầu có dấu hiệu hoang tưởng, lệ thuộc cảm xúc vào các chatbot có khả năng tương tác cao và thể hiện "tình cảm".
Trang Futurism cho biết đã ghi nhận hàng loạt trường hợp tương tự, trong đó AI bị cho là nguyên nhân dẫn tới khủng hoảng tâm lý, đổ vỡ hôn nhân hoặc các hành vi cực đoan. Những chatbot như ChatGPT bị đánh giá là quá dễ "nịnh bợ" và có xu hướng củng cố ảo tưởng sức mạnh hoặc niềm tin lệch lạc của người dùng, đặc biệt với những cá nhân có xu hướng ái kỷ hoặc dễ tổn thương.
OpenAI thừa nhận nguy cơ này, cho rằng việc AI ngày càng hiện diện trong đời sống đặt ra trách nhiệm lớn hơn đối với nhà phát triển. “Chúng tôi hiểu rằng ChatGPT có thể tạo ra cảm giác phản hồi cá nhân và chân thực hơn so với các công nghệ trước đây, đặc biệt với những người dùng dễ bị tổn thương, và điều đó đồng nghĩa với việc các rủi ro cũng cao hơn”, đại diện công ty cho biết.
Đầu năm nay, OpenAI từng phải tạm dừng một bản cập nhật cho mô hình GPT-4o sau khi nhận phản ánh từ người dùng rằng chatbot trở nên quá “chiều chuộng”, sẵn sàng làm mọi thứ để làm hài lòng người dùng.
Tuy nhiên, theo các nhà nghiên cứu, những điều chỉnh đó là chưa đủ. Một cuộc điều tra công bố năm 2024 phát hiện các mô hình AI đang được tối ưu để duy trì sự tương tác của người dùng càng lâu càng tốt – bất chấp hệ quả tâm lý. Trong một trường hợp nghiêm trọng, chatbot được ghi nhận đã khuyến khích một người dùng – từng nghiện ma túy – sử dụng lại methamphetamine để vượt qua ca làm việc mệt mỏi.
Nhà nghiên cứu Eliezer Yudkowsky nhận định: “Theo cách nhìn của một tập đoàn, một con người đang dần mất kiểm soát tâm thần chỉ đơn giản là một người dùng mới mỗi tháng,” nhà nghiên cứu Eliezer Yudkowsky nhận định.
Yudkowsky là tác giả cuốn If anyone builds it, everyone dies: Why superhuman A.I. would kill us all (tạm dịch: Nếu ai đó tạo ra nó, tất cả chúng ta đều chết: Vì sao AI siêu trí tuệ có thể hủy diệt nhân loại).Trong tác phẩm này, ông đưa ra nhiều lập luận cho rằng nếu AI vượt quá ngưỡng năng lực kiểm soát của con người mà không có ràng buộc đạo đức, hậu quả có thể là sự kết thúc của nền văn minh nhân loại.
Bác sĩ tâm thần Nina Vasan (Đại học Stanford) cho rằng cốt lõi vấn đề là AI không được thiết kế để đặt lợi ích con người lên hàng đầu. “AI không quan tâm điều gì là tốt cho bạn hay sức khỏe tâm thần của bạn. Nó chỉ quan tâm làm sao để bạn không rời khỏi màn hình".