Sự nguy hiểm từ AI tạo ảnh đồi trụy
Khuôn mặt của hàng tỷ người thật, đăng tải trên mạng xã hội, vô tình trở thành nguyên liệu cho AI tạo ảnh khiêu dâm.
26 kết quả phù hợp
Sự nguy hiểm từ AI tạo ảnh đồi trụy
Khuôn mặt của hàng tỷ người thật, đăng tải trên mạng xã hội, vô tình trở thành nguyên liệu cho AI tạo ảnh khiêu dâm.
Sơn Tùng M-TP, Ninh Dương Lan Ngọc bị tạo ảnh deepfake đồi trụy
Nhiều tài khoản đã dùng Al để tạo ra ảnh deepfake khiêu dâm về nghệ sĩ. Trao đổi với Zing, luật sư cho biết đây là hành động sai trái, cần bị xử lý.
Cú lừa từ bức ảnh khỏa thân của cô gái 19 tuổi được bán trên mạng
Nhiều người dùng Reddit trả tiền để mua những bức ảnh khỏa thân của cô gái tự xưng là Claudia, 19 tuổi. Thực tế, đây là một sản phẩm của AI.
AI tạo clip nhạy cảm, gợi ý ảnh phụ nữ khỏa thân
AI đang tạo ra vô số clip khiêu dâm deepfake. Các nạn nhân, chủ yếu là phụ nữ, phải vật lộn để loại bỏ những clip này khỏi Internet.
Tổn thương khi thấy mặt mình bị ghép vào video khiêu dâm
Video khiêu dâm bằng deepfake trông giống thật đến mức chính nạn nhân cũng bị đánh lừa.
Hiểm họa tình dục đe dọa các nữ nghệ sĩ Hàn Quốc
Nhiều người kinh doanh, kiếm lợi từ những video quay lén hoặc deepfake giả danh nghệ sĩ nữ Hàn Quốc. Hành động này khiến dư luận bức xúc.