Tội phạm ấu dâm đang sử dụng AI để biến ảnh trẻ em trên mạng xã hội thành nội dung lạm dụng tình dục

By Nguyễn Thị Thảo Nhi

Ảnh: Getty

Nếu bạn đăng ảnh con mình lên mạng xã hội, nguy cơ ảnh bị kẻ xấu sử dụng AI để biến thành nội dung khiêu dâm trẻ em (CSAM) đang ngày càng tăng.

Làn sóng AI tạo sinh (Generative AI) không chỉ mang đến những hình ảnh kỳ lạ hay huyền ảo mà còn kéo theo một điều rất đáng sợ: số lượng hình ảnh khiêu dâm trẻ em được tạo ra từ những bức ảnh vô tội trong gia đình đang ngày càng nhiều.

Hiện nay, với sự phổ biến rộng rãi của các ứng dụng được gọi là “nudifier” – những công cụ có thể dùng AI để “cởi đồ” nhân vật trong ảnh – tình trạng tạo ra nội dung lạm dụng tình dục trẻ em bằng AI đang bùng nổ, trong khi lực lượng chức năng thì khó theo kịp.

Ông Mike Prado, Phó Cục trưởng Đơn vị Tội phạm mạng thuộc Bộ An ninh Nội địa Hoa Kỳ (DHS ICE), cho biết ông đã từng thấy các trường hợp hình ảnh trẻ em được đăng lên mạng xã hội sau đó bị chỉnh sửa bằng AI thành nội dung khiêu dâm. Ông Joe Scaramucci, một phó cảnh sát tại Văn phòng Cảnh sát Quận McLennan và là giám đốc hợp tác với lực lượng thực thi pháp luật tại tổ chức chống buôn người Skull Games, cũng xác nhận rằng việc sử dụng AI để chỉnh sửa ảnh trẻ em thành nội dung đồi trụy đang “bùng nổ”. “Đây là một trong những thay đổi công nghệ nghiêm trọng nhất trong việc tạo ra nội dung khiêu dâm trẻ em mà chúng tôi từng chứng kiến trong một thế hệ”, ông nói.

Ảnh: Internet

Tệ hơn, ông Prado còn cho biết có những kẻ đã chụp ảnh trẻ em ngoài đường và sau đó dùng AI để biến chúng thành tài liệu phạm pháp. Năm ngoái, tạp chí Forbes đã đưa tin một người đàn ông đã chụp ảnh trẻ em tại công viên Disney World và bên ngoài một trường học rồi dùng AI biến chúng thành ảnh khiêu dâm.

“Chúng tôi đang chứng kiến việc này xảy ra ngày càng thường xuyên, và nó đang tăng lên theo cấp số nhân”,Prado chia sẻ. “Nó không còn là mối đe dọa trong tương lai – mà là thực tế mà chúng tôi phải đối mặt hàng ngày”.

Năm ngoái, một người từng có tiền án về tội ấu dâm đã bị cáo buộc lấy ảnh trẻ em từ Facebook của một phụ huynh rồi đăng lên một nhóm trò chuyện trên ứng dụng nhắn tin mã hóa Teleguard – hắn nói dối rằng đó là con riêng của mình. Tại đó, theo nguồn tin từ cuộc điều tra chia sẻ, các thành viên khác trong nhóm đã sử dụng AI để biến ảnh thành hình ảnh khiêu dâm. Người đàn ông này sau đó đã bị bắt và bị buộc tội sở hữu hàng nghìn bức ảnh CSAM, trong đó có hàng trăm ảnh được tạo bằng AI.

Sự phát triển nhanh chóng của AI và việc thiếu quy định chặt chẽ xung quanh các mô hình AI, cùng với quy mô khổng lồ của vấn đề, khiến công tác điều tra trở nên khó khăn hơn bao giờ hết. “Chúng tôi đã ghi nhận nhiều trường hợp CSAM được tạo bằng AI từ các nền tảng AI tạo sinh, bao gồm ứng dụng ghép mặt, ghép cơ thể và các ứng dụng ‘lột đồ’”, bà Madison McMicken – người phát ngôn của Văn phòng Tổng chưởng lý bang Utah – cho biết. “Hình ảnh thường được lấy từ mạng xã hội rồi bị chuyển đổi thành nội dung khiêu dâm trẻ em”.

Tệ hơn nữa là các nạn nhân – những người bị lấy ảnh – có thể sẽ không bao giờ biết mình đã trở thành nạn nhân. Một điều tra viên chuyên về tội phạm tình dục trẻ em, không được phép tiết lộ danh tính, đã nói rằng: “Trớ trêu thay, với CSAM được tạo bằng AI, thậm chí cả nạn nhân cũng không biết rằng mình đang là nạn nhân”.