Trong bối cảnh truyền thông Hàn Quốc cảnh báo mọi phụ nữ đều có nguy cơ trở thành nạn nhân bị làm giả hình ảnh và video khiêu dâm, Tổng thống Yoon Suk Yeol chỉ trích ứng dụng Telegram vì để những nội dung này có cơ hội lan truyền trên Internet.
Deepfake là công nghệ sử dụng trí tuệ nhân tạo để làm giả khuôn mặt hoặc thậm chí giọng nói trên các hình ảnh hoặc video có sẵn.
Cả nạn nhân lẫn hung thủ đằng sau nhiều ảnh và video khiêu dâm deepfake lan truyền ở Hàn Quốc đều phần lớn là trẻ vị thành niên. Ảnh: Unsplash. |
Bắt đầu từ 28/8, cảnh sát sẽ bắt đầu chiến dịch quyết liệt truy dấu những người tạo và phát tán dạng nội dung khiêu dâm nói trên, đặc biệt là các đối tượng lạm dụng trẻ em và trẻ vị thành niên, hãng Yonhap đưa tin.
"Những video deepfake nhắm vào các cá nhân chưa xác định đã lan truyền nhanh chóng qua các mạng xã hội", ông Yoon nói trong một buổi họp nội các. "Nhiều nạn nhân là trẻ vị thành niên, đồng thời phần lớn thủ phạm cũng được xác định là thanh thiếu niên".
Tổng thống Yoon kêu gọi các nhà chức trách "điều tra kỹ lưỡng và giải quyết triệt để hành vi khiêu dâm phạm pháp trên không gian kỹ thuật số để loại bỏ chúng hoàn toàn".
Theo giới chức Hàn Quốc, trong 7 tháng đầu năm 2024, 297 trường hợp phát tán nội dung khiêu dâm sử dụng deepfake đã được ghi nhận, gần gấp đôi so với năm 2021. Trong số 178 người bị cáo buộc, 113 người là trẻ vị thành niên.
Một phòng chat Telegram với khoảng 220.000 thành viên đã tạo và lan truyền nội dung khiêu dâm can thiệp bởi deepfake. Truyền thông Hàn Quốc cho biết các nạn nhân bao gồm sinh viên đại học, giáo viên và nhân viên quân sự.
Các thủ phạm được cho là đã sử dụng mạng xã hội như Instagram để lưu hoặc chụp ảnh màn hình nạn nhân, sau đó lợi dụng deepfake để tạo nội dung khiêu dâm.
Theo luật Hàn Quốc, hành vi lạm dụng deepfake nhằm tạo ảnh hoặc video khiêu dâm với mục đích phát tán bị phạt tù 5 năm hoặc 37.500 USD.