Bạn có thể chuyển sang phiên bản mobile rút gọn của Tri thức trực tuyến nếu mạng chậm. Đóng

Sự nguy hiểm của trào lưu ảnh khỏa thân tạo bằng AI

Chỉ cần nhập từ khóa, người dùng sẽ có thể tạo ra những hình ảnh nhạy cảm của bất kỳ ai. Tính năng này đã bị nhiều người lợi dụng để thỏa mãn nhu cầu cá nhân.

Hôm 22/8, công ty Stability AI ra mắt ứng dụng tạo lập hình ảnh từ văn bản nhờ trí tuệ nhân tạo có tên là Stable Diffusion. Khác với các ứng dụng khác trên thị trường, Stable Diffusion có khả năng sáng tác bất cứ hình ảnh nào theo yêu cầu của con người. Tuy nhiên, tính năng này đã bị một số người lợi dụng để tạo ra hình ảnh đồi trụy.

Thỏa mãn nhu cầu

Theo Motherboard, mặc dù công ty đã cấm lan truyền hình ảnh khỏa thân và gợi dục, nhiều người vẫn sử dụng những từ khóa nhạy cảm hòng thỏa mãn nhu cầu cá nhân với công cụ này.

Đầu tháng 8, những tấm ảnh khỏa thân, khêu gợi được tạo ra bằng bản thử nghiệm của Stability AI xuất hiện trên các diễn đàn và trang mạng xã hội. Điều này buộc Stability AI phải cảnh báo người dùng trên trang Twitter cá nhân của mình. “Xin đừng tạo ra những tấm ảnh đáng xấu hổ”, công ty nói.

Anh khoa than tu AI anh 1

Nhiều tấm ảnh đồi trụy tạo ra từ AI đã được chia sẻ trên nhiều trang web. Ảnh: Business News.

Những hình ảnh xuất hiện trên ứng dụng Stable Diffusion trải dài từ hentai, ảnh nhạy cảm của người nổi tiếng đến cả ảnh khỏa thân của trí tuệ nhân tạo. Nhiều tấm trông rất giống thật nhưng cũng có những hình ảnh nhìn khá đáng sợ với những đường cong kỳ dị và khuôn mặt biến dạng.

Theo Motherboard, trên website của Stable Diffusion bản beta và DreamStudio, ứng dụng giúp tạo lập ảnh, họ khẳng định cấm những nội dung khiêu dâm, tục tĩu và có bộ lọc để ngăn chặn những nội dung này. Nhưng đến khi được công bố rộng rãi, nhiều người đã lợi dụng công cụ này chỉ để thỏa mãn nhu cầu cá nhân.

Điểm làm nên sự khác biệt giữa Stable Diffusion và các ứng dụng tạo hình ảnh bằng AI khác như DALL-E hay Midjourney là nó có khả năng truy cập mở. Người dùng có thể sử dụng ứng dụng này bất cứ đâu, không phụ thuộc vào máy chủ của công ty. Điều này tạo điều kiện giúp họ dễ dàng tạo lập và lan truyền những hình ảnh đồi trụy theo sở thích.

Trên Reddit đã xuất hiện nhiều mục nội dung khiêu dâm đến từ ứng dụng AI. Các chủ đề này sở hữu gần 2.000 thành viên theo dõi.

Anh khoa than tu AI anh 2

Ảnh khỏa thân của Kylie Kardashian tạo ra từ deepfake được đăng tải trên 4chan. Ảnh: Business News.

Trong khi đó, mục nội dung chính của Stable Diffusion cũng chỉ có 8.000 lượt theo dõi. Trong thời gian gần đây, những người yêu thích dự án AI đã bàn luận và không ít lần tranh cãi về những nội dung người lớn này. Nhiều người dùng beta thậm chí còn đăng tải những tấm ảnh khỏa thân lên trang Reddit này.

Sức hấp dẫn khó cưỡng của ảnh khỏa thân

Không chỉ dừng lại ở Reddit, chủ đề này còn được chia sẻ sang Discord. “Mặc dù một vài hình ảnh chỉ đơn giản là chứa nội dung người lớn, đa số còn lại đều có tính nghệ thuật cao mà người dùng không thể tìm thấy ở đâu”, kênh Unstable Diffusion chia sẻ với Motherboard.

Họ cho biết họ tạo ra trang này vì muốn thay đổi định kiến của mọi người về ảnh khỏa thân và giúp họ tiếp xúc với những hình ảnh đầy tính nghệ thuật này.

“Được xem những nội dung người lớn được tạo ra AI là một trải nghiệm rất mới”, người dùng johnnyornot, điều hành kênh r/stablediffusionnsfw, nói.

Song, Emad Mostaque, nhà sáng lập của Stability AI, cho rằng những hình ảnh đồi trụy này đang bị lạm dụng. “Những hình ảnh người lớn thu hút quá nhiều sự chú ý. Trong khi đó, ứng dụng AI này còn có nhiều tiềm năng và lợi ích khác”, anh nói.

Chính khả năng truy cập mở của Stable Diffusion cũng khiến công ty sản xuất ứng dụng này khó lòng áp đặt các quy định lên nội dung do người dùng sáng tạo. Ứng dụng AI này vốn được thiết kế dựa trên nhu cầu của người dùng, Mostaque nói.

Anh khoa than tu AI anh 3

Nhiều người tạo ảnh khiêu dâm bằng AI chỉ để thỏa mãn nhu cầu cá nhân. Ảnh: TechCrunch.

Theo Motherboard, hiện những tấm ảnh được tạo ra bởi Stable Diffusion vẫn chưa gây ra nhiều vấn đề. Song, người dùng sẽ khó có thể kiềm chế nhu cầu tạo ra ảnh khiêu dâm từ người thật, đặc biệt là người nổi tiếng.

Nhiều người đã không thể cưỡng lại sức hấp dẫn của những hình ảnh sai trái này và đăng tải chúng lên các hội nhóm Stable Diffusion. Đây là một vấn đề gây nhức nhối trong cộng đồng yêu thích AI trong nhiều năm qua.

“Tôi cho rằng việc tạo ra ảnh khiêu dâm của người thật sẽ ảnh hưởng đến danh tiếng của họ. Những tấm ảnh này nên được dán nhãn là AI hoặc người dùng nên cảnh giác mỗi khi tiếp nhận thông tin trên Internet”, người dùng johnnyornot chia sẻ.

Nhưng Ashley22 lại cho rằng điều này là bình thường. “Nếu tôi tự vẽ một bức tranh khỏa thân của người nổi tiếng, tôi không hề vi phạm luật. Trường hợp này tương tự với ảnh do AI tạo ra”, anh nói. Theo Ashley22, mọi người thường không quan tâm đến điều này trừ khi những tấm ảnh được sử dụng cho mục đích thương mại.

Vòng cổ sử dụng AI để ‘dịch’ cảm xúc cún cưng

Một công ty Hàn Quốc đã tạo ra chiếc vòng đeo cổ sử dụng trí thông minh nhân tạo để biến tiếng sủa của thú cưng thành cảm xúc.

AI chỉ cần mô tả là vẽ tranh cho người dùng

Chỉ cần nhập dòng mô tả đơn giản, Midjourney sẽ phân tích và tạo nên những bức ảnh đầy nghệ thuật.

Thúy Liên

Bạn có thể quan tâm