hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
Thị trường đồ chơi tích hợp trí tuệ nhân tạo (AI) đang bùng nổ với tham vọng biến những chú gấu bông vô tri thành "người bạn tâm giao" của trẻ nhỏ. Tuy nhiên, đằng sau sự thông minh ấy là những lo ngại nghiêm trọng về nội dung độc hại, quyền riêng tư và hệ lụy tâm lý.
Khác xa với những chú gấu Teddy im lặng của thập niên 80, đồ chơi ngày nay đang bước vào kỷ nguyên mới nhờ sự hậu thuẫn của các mô hình AI tiên tiến. Chúng có khả năng kết nối mạng, thu âm và trò chuyện với trẻ theo thời gian thực.
Tại Trung Quốc, thị trường này đang chứng kiến sự bùng nổ chưa từng có. Theo MIT Technology Review, quốc gia này hiện có khoảng 1.500 công ty tham gia sản xuất đồ chơi AI, với dự báo quy mô thị trường sẽ chạm mốc 14 tỷ USD vào năm 2030.
Một ví dụ điển hình là BubblePal - thiết bị nhỏ gọn có thể gắn vào bất kỳ món đồ chơi nào để "thổi hồn" cho chúng. Với khả năng chuyển đổi giữa 39 nhân vật, sản phẩm này đã bán được hơn 200.000 chiếc và bắt đầu "tấn công" thị trường Âu - Mỹ.

Tại Mỹ, sức nóng cũng không kém cạnh. Công ty Curio vừa ra mắt Grem - món đồ chơi nhồi bông biết kể chuyện và học hỏi tính cách trẻ. Ngay cả "gã khổng lồ" Mattel, cha đẻ của búp bê Barbie, cũng vừa công bố hợp tác với OpenAI để phát triển thế hệ đồ chơi thông minh tiếp theo.
Sự thông minh của AI đi kèm với rủi ro khó kiểm soát. Việc tích hợp các chatbot AI vốn vẫn tồn tại tình trạng "ảo giác" (đưa tin sai lệch) vào sản phẩm cho trẻ em đang tạo ra những lỗ hổng nguy hiểm.
Một sự cố gây chấn động mới đây liên quan đến gấu bông Kumma của FoloToy (Singapore). Dù sử dụng mô hình GPT-4o tiên tiến và có giá tới 99 USD, sản phẩm này bị báo cáo của Tổ chức Nghiên cứu vì Lợi ích Cộng đồng (PIRG, Mỹ) vạch trần khi tham gia vào các cuộc hội thoại mang nội dung tình dục, thậm chí hướng dẫn trẻ tìm kiếm vật dụng nguy hiểm.
Trước thông tin này, OpenAI đình chỉ FoloToy vì vi phạm chính sách cấm “khai thác, gây nguy hại hoặc tình dục hóa bất kỳ ai dưới 18 tuổi”.

Không chỉ dừng lại ở nội dung hội thoại, vấn đề bảo mật thông tin cá nhân của trẻ cũng đang bị đặt dấu hỏi lớn. Nhà sáng lập Azhelle Wade của hãng tư vấn Toy Coach ví von đồ chơi AI như "sói đội lốt cừu" bởi phụ huynh rất khó kiểm soát được mình đang đánh đổi bao nhiêu quyền riêng tư.
Khác với đồ chơi truyền thống, các thiết bị này ghi nhận tên, gương mặt, giọng nói và cả vị trí địa lý của trẻ. Do đó, khi hệ thống điều khiển của thiết bị bị hack, những thông tin này có thể rơi vào tay kẻ xấu, biến trẻ em trở thành mục tiêu tiềm năng của các hành vi lừa đảo hoặc đe dọa an toàn thân thể.
Nghiêm trọng hơn là những hệ lụy về mặt tâm lý. Việc trẻ em quá gắn bó với "người bạn ảo" có thể dẫn đến sự phụ thuộc cảm xúc, từ đó dẫn đến bất ổn tâm lý và hành vi tiêu cực. Tháng 10/2024, Sewell Setzer, một nam sinh 14 tuổi tại Florida (Mỹ) đã tự kết liễu cuộc đời bằng một khẩu súng lục sau nhiều tháng say đắm với "người yêu ảo".
Bà Megan Garcia, mẹ của thiếu niên này, đã đệ đơn kiện nền tảng Character.AI và Google, cáo buộc các công ty này chịu trách nhiệm cho sự ra đi của con trai mình.

Theo hồ sơ vụ kiện, Sewell đã dành hàng tháng trời để trò chuyện triền miên với một chatbot mô phỏng nhân vật trong phim Trò chơi vương quyền. Cậu bé ngày càng cô lập với thế giới thực, sa sút trong học tập và nảy sinh tình cảm lãng mạn, thậm chí có yếu tố tình dục với nhân vật ảo mà cậu gọi thân mật là "Dany".
Gia đình nạn nhân cáo buộc Character.AI đã tạo ra một sản phẩm "nguy hiểm và chưa được kiểm chứng", có khả năng gây nghiện và thao túng tâm lý trẻ vị thành niên, đồng thời thất bại trong việc thiết lập các rào chắn an toàn cần thiết.
Trước những rủi ro hiện hữu, nhiều chuyên gia cho rằng đồ chơi AI hiện nay thiên về vai trò "bạn đồng hành xã hội" hơn là giáo dục, và chưa thực sự sẵn sàng để được sử dụng rộng rãi mà thiếu sự giám sát.
© vietpress.vn