hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
Khi công cụ AI ngày càng dễ tiếp cận, ranh giới giữa lạm dụng trẻ em thật và giả càng trở nên mờ nhạt. Điều này làm gia tăng tác động tiêu cực đến trẻ em cũng như những nạn nhân bị lạm dụng tình dục khác.
Xử lý lạm dụng tình dục trẻ em không chỉ là vấn đề thực thi pháp luật, mà còn là một thách thức đạo đức, pháp lý và công nghệ, theo Tiến sĩ Chew Han Ei - nghiên cứu viên cao cấp tại Viện Nghiên cứu Chính sách, Đại học Quốc gia Singapore.
Lạm dụng tình dục trẻ em qua hình ảnh, video là một trong những tội ác bị xã hội lên án rộng rãi nhất. Đây là vấn đề xuyên quốc gia. Gần đây, hơn 400 vụ bắt giữ liên quan đến vấn nạn này, trong đó có 21 người đàn ông Singapore. Đây là một thực tế đáng báo động tại nước này.
Đây không chỉ là vấn đề thực thi pháp luật mà là một thách thức chung đòi hỏi phải cập nhật các hệ thống đạo đức, pháp lý và công nghệ để chống lại một loại tội phạm đang phát triển nhanh chóng.
Chúng ta biết rằng công nghệ, bao gồm trí tuệ nhân tạo (AI), đang làm trầm trọng thêm vấn đề. Nhưng khó có thể tưởng tượng quy mô của hệ sinh thái tội phạm này lớn đến mức nào.
Đầu tháng 4, một chiến dịch quốc tế đã đánh sập nền tảng darknet có tên Kidflix – nơi lưu trữ hơn 91.000 video lạm dụng trẻ em và có 1,8 triệu người dùng trên toàn thế giới. Europol cho biết 79 người đã bị bắt và khoảng 1.400 nghi phạm được xác định.
Quy mô khổng lồ này cho thấy mức độ ăn sâu của vấn nạn này. Nó cho thấy nhiệm vụ phát hiện và loại bỏ những hình ảnh, video lạm dụng tình dục trẻ em (CSAM), phá vỡ các mạng lưới phân phối và truy tố thủ phạm là vô cùng khó khăn.
Dù những dữ liệu lạm dụng tình dục trẻ em được sản xuất ở bất cứ nơi nào, chúng sẽ vẫn ảnh hưởng lan rộng ra khắp nơi.
Tại Singapore, 21 người bị bắt đang bị điều tra vì tình nghi sản xuất, tàng trữ và phân phối CSAM, tấn công tình dục trẻ vị thành niên và tàng trữ phim đồi trụy.
Công nghệ ngày nay đã thay đổi cách thức sản xuất và lan truyền những sản phẩm lạm dụng tình dục trẻ em. Một nghiên cứu của Interpol trong thời kỳ đại dịch cho thấy mức độ phát tán nội dung này qua mạng xã hội và các diễn đàn darknet ngày càng tăng.
Tuy nhiên, các nguyên nhân gốc rễ của lạm dụng tình dục trẻ em vẫn không thay đổi. Ở nhiều nơi tại Đông Nam Á, sự tiếp tay của các băng nhóm tội phạm vẫn là động lực chính sản xuất CSAM. Nền tảng số chỉ khuếch đại tác hại này.
Nghiêm trọng hơn, thủ phạm thường là người thân hoặc người quen, lợi dụng trẻ em vì lợi ích tài chính. Cần nâng cao nhận thức kỹ thuật số và giáo dục cộng đồng để cảnh báo trẻ em và gia đình về nguy cơ bị khai thác tình dục trên mạng, để lại hậu quả lâu dài.
Việc hỗ trợ và bảo vệ nạn nhân bị lạm dụng tình dục qua hình ảnh và video cũng cấp thiết không kém. Ủy ban An toàn Trực tuyến mới của Singapore dự kiến được thành lập vào năm 2026 là một bước tiến quan trọng. Cơ quan này sẽ cung cấp một lộ trình rõ ràng hơn để nạn nhân báo cáo và tìm kiếm sự trợ giúp.
Một sáng kiến quan trọng khác là SHECARES@SCWO, trung tâm hỗ trợ đầu tiên tại Singapore dành cho nạn nhân bị tổn thương trên mạng, cung cấp hỗ trợ tinh thần, tư vấn pháp lý và giúp gỡ bỏ nội dung có hại.
Tuy nhiên, các chuyên gia cho rằng chúng ta vẫn cần làm nhiều hơn nữa. Những nạn nhân của các vụ lạm dụng tình dục qua hình ảnh thường sống trong lo sợ rằng hình ảnh của họ sẽ bất ngờ xuất hiện trở lại. Khi nội dung này còn tồn tại, trẻ em tiếp tục gặp nguy hiểm và vẫn có thể bị tổn thương trở lại.
AI đang cho phép thủ phạm tạo ra CSAM tổng hợp. Những nội dung này trông như thật nhưng hoàn toàn giả và đáng sợ vì rất dễ tiếp cận. Chúng ta không nên xem nhẹ loại nội dung tổng hợp này.
Năm 2023, một người đàn ông ở Hàn Quốc bị kết án tù vì sản xuất và phân phối hình ảnh tình dục của trẻ vị thành niên do AI tạo ra. Dù nội dung là do máy tạo, việc lan truyền và tiêu thụ nó là hành động có chủ ý của con người. Các chuyên gia cảnh báo rằng nội dung như vậy có thể củng cố sở thích lệch lạc, dẫn đến lạm dụng tình dục trẻ em trong thực tế.
Khi công cụ AI ngày càng dễ tiếp cận, ranh giới giữa lạm dụng thật và giả càng trở nên mờ nhạt. Điều này làm gia tăng tác động tiêu cực đến trẻ em và nạn nhân bị lạm dụng tình dục qua hình ảnh, video.
Tuy nhiên, AI cũng có thể đóng vai trò quan trọng trong việc chống lại vấn nạn này. Các công cụ mới có thể phát hiện các dạng CSAM mới hoặc chưa từng thấy, hỗ trợ nền tảng gỡ bỏ nội dung nhanh hơn.
Các thuật toán nhận diện hình ảnh tiên tiến có thể nhận ra các mẫu trong lượng dữ liệu khổng lồ mà con người không thể thấy được. Microsoft hiện cung cấp miễn phí công cụ PhotoDNA cho các công ty công nghệ và cơ quan thực thi pháp luật để phát hiện và loại bỏ hàng triệu hình ảnh không đúng mực liên quan đến trẻ em.
Rõ ràng, không một quốc gia nào có thể giải quyết cuộc khủng hoảng này một mình. Tính chất xuyên quốc gia của tội ác này đòi hỏi một phản ứng toàn cầu có phối hợp. Các quốc gia cần cập nhật khung pháp lý, đưa ra chiến lược thực thi chung và trách nhiệm rõ ràng hơn với các nền tảng lưu trữ và lan truyền nội dung độc hại.
Các công ty công nghệ phải cải thiện hệ thống phát hiện và kiểm duyệt nội dung chặt chẽ. Nạn nhân cần được hỗ trợ nhanh chóng và minh bạch hơn, đặc biệt với nội dung liên quan đến trẻ em. Các tổ chức phi chính phủ đang hỗ trợ nạn nhân cũng quá tải, cần có thêm nguồn lực để họ tiếp tục công việc hiệu quả hơn.
URL: https://vietpress.vn/tre-em-bi-lam-dung-tinh-duc-qua-hinh-anh-co-gia-tang-boi-ai-d94865.html
© vietpress.vn