Sơn Tùng M-TP đang bị TikToker quấy rối?
Chuyên gia công nghệ và luật sư nhận định việc Sơn Tùng M-TP bị ghép mặt vào clip ôm hôn của TikToker là hành vi vi phạm.
220 kết quả phù hợp
Sơn Tùng M-TP đang bị TikToker quấy rối?
Chuyên gia công nghệ và luật sư nhận định việc Sơn Tùng M-TP bị ghép mặt vào clip ôm hôn của TikToker là hành vi vi phạm.
Công cụ được coi là phiên bản 'đen tối' của ChatGPT
Mặt tối của AI có thể được sử dụng để tạo ra các trò lừa đảo tinh vi, nội dung khiêu dâm giả mạo và vũ khí sinh hóa.
Nhà Trắng lên tiếng về loạt ảnh deepfake khiêu dâm của Taylor Swift
Karine Jean-Pierre, thư ký báo chí Nhà Trắng cho rằng Taylor Swift bị ghép mặt vào hình ảnh khiêu dâm là tình trạng “rất đáng báo động” và kêu gọi Quốc hội có hành động cứng rắn.
Mạo danh kiểm sát viên gọi điện lừa đảo, chiếm đoạt 500 triệu đồng
VKSND huyện Con Cuông (Nghệ An) vừa tiếp công dân phản ánh về việc bị một đối tượng lạ mạo danh kiểm sát viên VKSND tối cao lừa đảo chiếm đoạt tài sản trên không gian mạng.
Ai cũng có thể là nạn nhân của deepfake khiêu dâm
Nhiều người, kể cả ngôi sao và người thường bị ghép hình vào các video khiêu dâm, khiến cuộc sống khốn khổ. Liệu có giải pháp công nghệ nào chống được deepfake?
Clip nhạy cảm do AI dàn dựng tràn lan trên Twitter
AI đang tạo ra vô số clip deepfake. Sau nhóm diễn viên, ca sĩ nổi tiếng, đến lượt các ngôi sao mạng trở thành nạn nhân.
Minh tinh Trung Quốc điêu đứng vì bị ghép mặt vào phim khiêu dâm
Nhiều sao nữ Trung Quốc đang bị tội phạm công nghệ deepfake khai thác hình ảnh, danh tính để sản xuất video khiêu dâm. Hành vi này khiến người bị lạm dụng bức xúc.
Tình trạng của Cảnh Điềm sau vụ bị bạn trai cũ gán nợ bằng clip nóng
Cảnh Điềm hoạt động năng nổ trở lại, bộ phim mới của cô đóng cùng Hứa Khải sắp lên sóng. Trong khi đó, Trương Kế Khoa bị làm mờ, cắt cảnh trong chương trình truyền hình.
Dùng AI nhân bản chính mình để lừa ngân hàng
Phóng viên Joanna Stern của WSJ đã thử dùng AI để tạo ra một phiên bản mô phỏng chính mình. Kết quả, bản sao này đánh lừa được cả gia đình cô và hệ thống ngân hàng.
Trải nghiệm kinh hoàng với giọng nói tống tiền bằng AI
Jennifer DeStefano chết lặng khi nghe giọng nói cầu cứu giống hệt con gái lớn Brianna, 15 tuổi. Sau khi điều tra, tất cả chỉ là một trò lừa đảo với sự giúp sức của AI.
Người mẫu Trung Quốc là nạn nhân của video deepfake khiêu dâm
Loạt video người lớn xuất hiện gương mặt của Lai Lai bị lan truyền trên mạng xã hội. Cô cho biết bản thân là nạn nhân của sản phẩm deepfake khiêu dâm.
Cảnh báo lừa đảo gọi video call để định danh tài khoản ma
Kẻ xấu lợi dụng deepfake và các phần mềm hỗ trợ tinh vi khác để can thiệp tới bước định danh cá nhân, tiếp đó mở tài khoản ma để thực hiện các hành vi trục lợi bất chính.
Mối họa từ những bức ảnh khỏa thân giá 25.000 đồng ở Việt Nam
Với một số tiền nhỏ, kẻ gian có thể thuê các dịch vụ deepfake để tạo ảnh giả, trực tiếp xâm phạm danh dự, nhân phẩm của người khác.
Mất nhiều năm để gỡ video khiêu dâm bị ghép mặt
Với những nạn nhân, đấu với deepfake khiêu dâm là một cuộc chiến không thể giành chiến thắng. Họ mất nhiều năm liên hệ với nhiều website để có thể gỡ hình ảnh bị ghép.
Nỗi đau suốt đời của những cô gái bị ghép mặt vào clip nóng
Noelle Martin cho rằng những bức ảnh nhạy cảm, video khiêu dâm đã được công nghệ chỉnh sửa có khả năng tồn tại vĩnh viễn. Điều đó sẽ gây nên nỗi đau suốt đời cho nạn nhân.
Kiếm triệu USD từ video deepfake đồi trụy về người nổi tiếng
Không chỉ sao Việt, nhiều người nổi tiếng trên thế giới cũng trở thành nạn nhân trên các trang web deepfake. Thủ phạm tạo ảnh, video đồi trụy của ca sĩ, diễn viên để kiếm tiền.
Sự nguy hiểm từ AI tạo ảnh đồi trụy
Khuôn mặt của hàng tỷ người thật, đăng tải trên mạng xã hội, vô tình trở thành nguyên liệu cho AI tạo ảnh khiêu dâm.
Liên Bỉnh Phát mong khán giả tỉnh táo, không mua ảnh deepfake đồi trụy
Nhiều nghệ sĩ là nạn nhân của tình trạng tạo ảnh deepfake đồi trụy trên mạng xã hội. Trao đổi với Zing, đại diện Liên Bỉnh Phát mong khán giả tỉnh táo, không truy cập nội dung cấm.
Sơn Tùng M-TP, Ninh Dương Lan Ngọc bị tạo ảnh deepfake đồi trụy
Nhiều tài khoản đã dùng Al để tạo ra ảnh deepfake khiêu dâm về nghệ sĩ. Trao đổi với Zing, luật sư cho biết đây là hành động sai trái, cần bị xử lý.
Câu lạc bộ Al-Feiha đăng tải hình ảnh chế giễu Cristiano Ronaldo khi siêu sao người Bồ Đào Nha tịt ngòi trong trận đấu tại vòng 23 Saudi Pro League hôm 10/4.