Facebook cho biết đang xây dựng một nền tảng thu nhỏ mô phỏng mạng xã hội này, trên đó chỉ có những con bot sở hữu khả năng bắt chước các hành vi lừa đảo, lạm dụng, xâm phạm...
Nền tảng này có tên gọi Web Enable Simulation (WES). Về cơ bản, chương trình nghiên cứu này là một “cái bóng” của Facebook, nơi những người dùng "không có thật" (do bot đóng vai) có thể thích, chia sẻ, kết bạn hay thậm chí lừa đảo và quấy rối lẫn nhau.
Ví dụ, một bot lừa đảo được lập trình và luyện tập để kết nối với bot mục tiêu. Sau đó chúng sẽ hành động giống với những gì nạn nhân bị lừa đảo trên Facbook gặp phải. Trong khi các loại bot khác có thể tìm kiếm nội dung vi phạm chính sách của Facebook.
"Người dùng" bot của WES có hành vi mô phỏng người thật. Ảnh: Getty Images. |
Điều này có thể giúp Facebook hạn chế nhiều vấn đề. Ví dụ, những bot trên WES được lập trình với mục đích duy nhất là đánh cắp thông tin từ các bot khác, sau đó làm lỗi hệ thống.
Sau khi cập nhật phần mềm, nếu bot tìm ra cách để truy cập vào nhiều dữ liệu hơn thì người lừa đảo thật cũng có thể làm như vậy. Điều này giúp hệ thống xử lý lỗi trước khi người dùng thật bị ảnh hưởng.
Đáng ngạc nhiên, một vài bot có thể đăng nhập vào Facebook thật với chế độ chỉ đọc, miễn không truy cập dữ liệu vi phạm quyền riêng tư. Với trường hợp này, Facebook đã có thể biết mình sơ hở ở đâu và chủ động khắc phục trước khi bị hacker ngoài đời thật phát hiện ra.
Facebook đang phát triển thêm công cụ kiểm tra tự động thế hệ đầu gọi là Sapienz. Khác với WES, các bot không chỉ mô phỏng lại chức năng mà còn diễn tả những gì xảy ra trên mạng xã hội thật sự. Chúng không lướt các trang mạng hay ứng dụng mà gửi lời mời kết bạn thông qua một mã Facebook, từ đó kích hoạt chuỗi hành động như người dùng thật.
Các bot bị cô lập trong mô phỏng để hạn chế tương tác ngoài ý muốn với con người. Ảnh: The Verge. |
Facebook muốn xây dựng hệ thống mô phỏng xã hội song song. Trong thế giới giả tưởng đó, họ cô lập và triển khai các bot hành động và quyết định tùy ý. Nhờ vậy, họ có thể mô phỏng phản hồi từ người dùng về sự thay đổi của mạng xã hội. Trước đây Facebook chỉ đo lường được điều này bằng việc thực hiện các kiểm tra ngầm với một số nhỏ người dùng thật.
Các nhà nghiên cứu chỉ ra mặc dù thực hiện trên mã của nền tảng thật, bot hoàn toàn bị cô lập để mô phỏng không dẫn đến sự tương tác ngoài ý muốn với con người. Ngoài lý do bảo vệ người dùng thật, việc giới hạn tương tác là nỗ lực của các nhà nghiên cứu để ngăn chặn những cuộc khủng hoảng có thể xảy ra.