Theo 2 nhà nghiên cứu của Liên Hợp Quốc (LHQ) Joseph Bullock và Miguel Luengo-Oroz, mô hình AI của họ được đào tạo bằng các văn bản Wikipedia, cùng hơn 7.000 bài phát biểu từ Đại hội đồng có thể dễ dàng làm giả phát biểu của lãnh đạo các nước.
Nhóm nghiên cứu cho hay họ chỉ phải cung cấp cho AI một vài từ ngữ để tạo ra văn bản mạch lạc, "chất lượng cao". Ví dụ, khi các nhà nghiên cứu đưa ra tiêu đề "Tổng thư ký lên án mạnh mẽ các vụ tấn công khủng bố chết người xảy ra ở Mogadishu", AI có thể tạo ra bài phát biểu thể hiện sự ủng hộ đối với quyết định của LHQ.
Văn bản được tạo bởi AI gần như không có gì khác biệt so với con người. Tuy nhiên, không phải kết quả nào cũng thành công. Chỉ cần thay đổi một số từ trong tiêu đề cũng có thể đưa ra bài phát biểu có quan điểm khác biệt.
Nhóm nghiên cứu nhấn mạnh khả năng mô hình AI này có thể được sử dụng cho mục đích xấu. Ví dụ, khi đưa ra cụm từ "Người nhập cư phải chịu trách nhiệm", người ta nhận về văn bản nội dung người nhập cư phải chịu trách nhiệm cho sự lây lan HIV/AIDS.
Nghiên cứu cũng làm dấy lên lo ngại về tin tức giả mạo, trong bối cảnh công nghệ deepfake có những phát triển đáng kể. Việc quá dễ dàng tiếp cận dữ liệu là con dao hai lưỡi giúp ngay cả những người có kiến thức cơ bản cũng có thể tạo ra AI. Nhóm nghiên cứu cho biết họ chỉ mất 13 giờ với chỉ 7,8 USD để đào tạo nên mô hình AI này.
Một số nhóm nghiên cứu, tổ chức phi lợi nhuận như OpenAI do tỷ phú Elon Musk hậu thuẫn, phải hạn chế thông tin mô hình AI do nhóm phát triển nhằm tránh việc sử dụng sai mục đích.