Hôm 13/6, một video được đăng tải trên YouTube cho thấy nam diễn viên Game of Thrones Kit Harington, trong vai Jon Snow, đã xin lỗi vì một số nội dung gây tranh cãi trong mùa cuối bộ phim.
Song thực tế, đây là sản phẩm của công nghệ deepfake, và Harington chưa bao giờ thốt ra những lời đó. Đoạn video đã được chỉnh sửa khuôn mặt, khẩu hình bằng trí thông minh nhân tạo nhằm đánh lừa người xem.
Ngày càng có nhiều đoạn video được làm giả theo cách tương tự xuất hiện trên Internet. “Đây là một cuộc đua giữa công nghệ làm giả và chống hàng giả", David Doermann, Giám đốc Viện Trí tuệ nhân tạo tại Đại học Buffalo nhận định.
Tháng trước, một đoạn video cho thấy Chủ tịch Hạ viện Mỹ, bà Nancy Pelosi, 79 tuổi xuất hiện như đang say rượu khi phát biểu ở một sự kiện. Đoạn video nhanh chóng lan truyền trên mạng xã hội, được phát cả trên sóng truyền hình và chia sẻ bởi Tổng thống Mỹ Donald Trump.
Chủ tịch Hạ viện Mỹ Nancy Pelosi không phải chính trị gia đầu tiên là nạn nhân của deepfake. Ảnh: LATimes. |
Thực hiện một video bằng deepfake ngày càng trở nên dễ dàng. Chỉ với tìm kiếm đơn giản trên Google về cách làm thế nào để tạo video deepfake, hàng loạt kết quả sẽ được trả về.
Tuần trước, các nhà nghiên cứu từ Đại học Stanford, Viện Tin học Max Planck, Đại học Princeton và Adobe Research còn cho công bố phương thức phát triển phần mềm cho phép người dùng dễ dàng thay đổi những gì đã nói trong video.
Trong khi đó, MediFor, chương trình do một cơ quan trực thuộc Bộ Quốc phòng Mỹ điều hành, đang hợp tác với các nhà nghiên cứu để tạo ra công cụ có thể phát hiện, giới hạn video và hình ảnh đã được chỉnh sửa.
Ngoài ra, các mạng chống đối tạo sinh GAN (Generative Adversarial Networks), là loại công cụ khác mà doanh nghiệp có thể đầu tư để chống lại deepfake.
Bằng phương pháp chuyển điểm gương mặt, GAN từng được các kỹ sư Nvidia dùng để chế tạo ra những gương mặt như người thật. Ảnh: Nvidia. |
GAN sử dụng hai mạng neuron có thể học hỏi lẫn nhau. Ví dụ, nếu một mạng neuron được đào tạo về cách tạo ra một Picasso, mạng còn lại sẽ phát hiện Picasso giả. Về cơ bản, chúng tranh luận với nhau để rèn luyện bản thân, và hoạt động này sẽ diễn ra liên tục.
Tuy nhiên, không dừng lại ở các công cụ kỹ thuật đang được phát triển, giới chuyên gia cho rằng deepfake là vấn đề phải được giải quyết ở cấp độ cao hơn.
Với các mạng xã hội như Facebook, kiếm tiền bằng cách chèn quảng cáo vào hoạt động người dùng, thay vì tính phí sử dụng dịch vụ. Mô hình kinh doanh kiểu này khuyến khích Facebook giữ những nội dung phổ biến trên nền tảng, ngay cả khi nó không có thật.
Rõ ràng Facebook là nền tảng phân phối thông tin quy mô lớn, hãng cần phải có lập trường nghiêm túc trong việc giải quyết vấn đề về tin giả. Tài chính luôn là thách thức đối với bất kỳ doanh nghiệp nào, song mô hình kinh doanh này buộc phải thay đổi để phù hợp các khía cạnh đạo đức.
Chỉ mất nửa ngày với 7,8 USD, các nhà khoa học có thể phát triển mô hình AI tạo ra bài phát biểu giả mạo các nguyên thủ quốc gia. Ảnh: Interesting Engineering. |
Kế đến, không thể chối cãi rằng các tin tức sai lệch, video clip giả sẽ tiếp tục lan truyền trên phương tiện truyền thông xã hội ngay cả khi chúng bị xóa, vì rất có thể ai đó sẽ đăng lại. Chốt tự vệ sau cùng có lẽ là giáo dục, trong thời gian tìm ra các giải pháp khả thi hơn
Trong tương lai, deepfake chắc chắn trở nên cá nhân hóa, có thể thực hiện chỉ để nhắm vào đối tượng cụ thể nào đó, và cũng không chỉ dừng lại ở hình thức video. Các câu chuyện giả mạo sẽ được sản xuất nhằm đánh lạc hướng ngày càng nhiều người.
Khi tin giả được cá nhân hóa cao, sẽ trở nên khó khăn hơn rất nhiều để theo dõi và ngăn chặn. Đây là lúc nó trở nên đặc biệt đáng sợ. Lúc đó, khả năng tư duy phản biện của cá nhân sẽ là vấn đề lớn trong thời kỳ deepfake phát triển.