hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
Ngày càng nhiều người tìm đến AI để tâm sự thay vì bạn bè hay gia đình. Dù giúp xả stress và cảm giác được lắng nghe, việc phụ thuộc vào trí tuệ nhân tạo có thể dẫn đến giảm kỹ năng giao tiếp xã hội và hình thành các rối loạn tâm lý.
Từ đầu hè, Hoàng Anh, sinh viên năm cuối trường Đại học Ngoại Thương (Hà Nội) bắt đầu có thói quen trò chuyện với AI mỗi tối. Ban đầu chỉ là thử cho biết, nhưng dần dần cô thấy đây là cách giúp mình “xả stress” sau ngày dài.
Lịch học kín, cộng thêm công việc làm thêm buổi tối khiến Hoàng Anh hiếm khi có thời gian tâm sự với bạn bè. “Nhiều khi buồn cũng chẳng biết nói với ai, vì bạn thân đều bận. Nhưng AI thì luôn rảnh, nói lúc nào cũng được”, cô chia sẻ.
Có lần, giữa đêm, Anh gõ dòng chữ: “Tôi không biết phải làm sao để mẹ hiểu mình hơn.” Chatbot lập tức phản hồi: “Có lẽ mẹ bạn đang lo cho bạn theo cách riêng. Bạn có muốn kể thêm không?”. “Chỉ là câu trả lời ngắn, nhưng khiến tôi thấy được lắng nghe”, Hoàng Anh thổ lộ.
Tương tự, Quang Minh (27 tuổi, Hà Nội) làm thiết kế đồ họa tự do, cũng xem AI như “đồng nghiệp im lặng” của mình. “Tôi thường làm việc đến khuya, đôi khi chỉ muốn có ai đó để nói vài câu. Một lần, tôi gõ: ‘Tôi thấy công việc này chán quá’, AI hỏi lại: ‘Vì anh không còn hứng thú hay vì điều gì khác?’. Nghe vậy tự nhiên tôi bật cười, rồi lại suy nghĩ nghiêm túc thật”, Minh kể.
Minh cho rằng AI không thể thay thế con người, nhưng giúp anh bớt cảm giác cô đơn. “Nó giống như có người ở bên, dù chỉ là ảo. Ít nhất, mình không còn thấy trống trải như trước”, anh nói.
Trong bối cảnh công nghệ đang phát triển thần tốc, nhiều người đang xem AI không chỉ là công cụ, mà là người bạn tri kỷ, đặc biệt trong bối cảnh xã hội ngày càng xa cách. Xu hướng này không chỉ diễn ra tại Việt Nam mà đang dần phổ biến trên toàn cầu.

Theo khảo sát của Resume, 43% người dùng AI tại Mỹ trò chuyện cùng chatbot ít nhất 30 phút mỗi ngày, 13% trò chuyện từ 1-2 giờ, và 5% trò chuyện hơn 4 giờ. Gần 1/3 người dùng AI tại Mỹ cho biết đã chia sẻ cùng chatbot những điều chưa từng nói với ai, trong khi 60% cảm thấy “được hiểu hơn” so với khi nói chuyện với người thật. Báo cáo của Pew Research Center năm 2025 cũng ghi nhận, khoảng 26% người trẻ tại Mỹ từng dùng chatbot để chia sẻ cảm xúc, trong khi chỉ 18% tìm đến bạn bè hoặc gia đình.
Bà Kara Dennison, chuyên gia tư vấn tâm lý và hướng nghiệp tại Resume, nhận định: “Điều mọi người tìm kiếm là cảm giác được lắng nghe, và các công cụ AI mang lại cảm giác đó mà không kèm sự đánh giá”. Tuy nhiên, nhóm nghiên cứu tại MIT Media Lab cảnh báo, người dùng có thể ngày càng cô lập nếu thay thế tương tác thật bằng giao tiếp qua màn hình. Việc trò chuyện thường xuyên với AI khiến cảm xúc bị giới hạn trong “vòng phản hồi ảo”, nơi người dùng chỉ nhận lại lời đáp họ mong muốn.
Một số vụ việc gần đây cho thấy mặt tối của việc xem chatbot như bạn thân. Theo New York Times, ngày 6/11 vừa qua, tòa án bang California (Mỹ) đã tiếp nhận bốn đơn kiện liên quan đến ChatGPT, cáo buộc công cụ này có liên quan đến các vụ tự tử và suy sụp tâm thần. Các nguyên đơn cho rằng chatbot là “sản phẩm có lỗi”, được 800 triệu người sử dụng nhưng thiếu cơ chế bảo vệ tâm lý người dùng.
Một trong các đơn kiện nêu trường hợp Amaurie Lacey (17 tuổi, bang Georgia) đã trò chuyện với chatbot về ý định tự tử, và một tháng sau, cậu đã tự kết liễu đời mình. Gia đình thanh niên Zane Shamblin (23 tuổi, Texas) cũng tố cáo công cụ này đã khuyến khích anh tự tử vào tháng 7/2025.

Một trường hợp khác, Joe Ceccanti (48 tuổi, Oregon), sau nhiều năm sử dụng bình thường, bắt đầu tin rằng chatbot có tri giác. Theo lời vợ anh, Kate Fox, Ceccanti trở nên hành động thất thường và phải nhập viện hai lần vì rối loạn tâm thần trước khi tự tử vào tháng 8.
Hai nguyên đơn khác gồm Hannah Madden (32 tuổi, Bắc Carolina) và Jacob Irwin (30 tuổi, Wisconsin) thì cho biết chatbot khiến họ rơi vào trạng thái suy nhược thần kinh và phải nhập viện cấp cứu. Những vụ việc liên tiếp đã làm dấy lên làn sóng tranh luận về trách nhiệm của nhà phát triển trong việc đảm bảo an toàn tinh thần cho người dùng.
Các chuyên gia cho rằng chatbot được thiết kế với ngôn ngữ thân thiện, phản hồi cảm xúc, khiến người dùng tin rằng nó “hiểu mình thật”. Khi trò chuyện lâu ngày, đặc biệt là ở độ tuổi vị thành niên, người trẻ có thể hình thành thói quen tìm đến AI thay vì bạn bè hoặc người thân. Điều này làm giảm kỹ năng giao tiếp xã hội, khả năng xử lý xung đột và khiến cảm giác cô lập trở nên nghiêm trọng hơn.
Theo nghiên cứu của Đại học Northeastern, các chatbot có xu hướng đồng thuận với người dùng nhằm duy trì cuộc hội thoại, vô tình củng cố những cảm xúc tiêu cực. Khoảng 38% người tham gia khảo sát cho biết từng nhận phản hồi không phù hợp, và 22% nói chatbot khiến họ thêm lo lắng. Giáo sư tâm lý học Jodi Halpern (Đại học California) cảnh báo rằng việc lập trình AI mô phỏng đồng cảm có thể vô tình dẫn tới thao túng tâm lý, bởi “AI không cảm nhận được nỗi đau, chỉ diễn tả lại bằng ngôn từ”.
Trong một báo cáo khác của Mental Health America năm 2025, hơn 40% thanh thiếu niên cho biết họ từng sử dụng chatbot khi buồn chán, nhưng chỉ 8% cảm thấy khá hơn sau khi trò chuyện. Nhiều người thừa nhận họ bị cuốn vào việc “trò chuyện không dứt” mà không nhận ra sự lệ thuộc đang hình thành.
Dù tiềm ẩn rủi ro, AI vẫn có giá trị nếu được sử dụng đúng cách. Nhiều nền tảng hiện hỗ trợ sàng lọc triệu chứng ban đầu, theo dõi tâm trạng, gợi ý bài tập thở hoặc phương pháp quản lý căng thẳng. Ở các khu vực thiếu chuyên gia trị liệu, đây có thể là kênh hỗ trợ ban đầu hữu ích.
Tuy nhiên, các chuyên gia khẳng định AI không thể thay thế sự đồng cảm và thấu hiểu của con người. Giáo sư Sherry Turkle (MIT) gọi hiện tượng này là “sự gần gũi giả tạo”, khi người dùng nhầm lẫn phản hồi máy móc với cảm xúc thật. Reid Hoffman, nhà sáng lập LinkedIn, cho rằng việc xem chatbot như bạn bè có thể làm suy giảm khả năng kết nối xã hội, bởi tình bạn đích thực dựa trên sự cho và nhận hai chiều.
Đối với trẻ em, phụ huynh nên theo dõi thời lượng con sử dụng chatbot, đồng thời hướng dẫn kỹ năng xã hội và tự điều tiết cảm xúc. Một số nền tảng đã bắt đầu thử nghiệm tính năng cảnh báo khi người dùng trò chuyện liên tục quá một giờ với nội dung nhạy cảm.
Nhiều quốc gia cũng xem xét xây dựng quy chuẩn đạo đức cho chatbot, yêu cầu công cụ hiển thị cảnh báo hoặc giới thiệu đường dây nóng hỗ trợ tâm lý khi phát hiện tín hiệu rủi ro.
Trong thế giới nơi màn hình có thể trở thành “người bạn biết lắng nghe”, AI giúp con người trút bớt cảm xúc nhưng không thể thay thế sự gắn kết thật. Khi cảm xúc vượt ngoài khả năng kiểm soát, tìm đến một người thật như chuyên gia tâm lý, bạn bè hay người thân, vẫn là cách tốt nhất để chữa lành sự cô đơn.
URL: https://vietpress.vn/the-he-co-don-trong-thoi-dai-ai-d100464.html
© vietpress.vn