*Zing.vn lược dịch bài viết của New Yorker về cách thức Facebook xử lý video phát trực tiếp vụ xả súng tại New Zealand.
9h30 tối ngày 14/3, Jay - một người đàn ông 38 tuổi - nhân viên của Facebook đang ngồi trong phòng khách của mình tại Austin, Texas. Anh ta vừa bật TV xem một chương trình nấu ăn trên Netflix và mở laptop để gửi email. Trên bảng tin của Facebook, Jay biết rằng đã có một vụ xả súng vào nhà thờ ở thành phố Christchurch, New Zealand.
Vụ xả súng tại New Zealand đã xuất hiện trực tiếp trên Facebook. Ảnh: AP. |
Không như mọi người, đón nhận thông tin này với sự đau buồn hoặc hoảng loạn, Jay nghĩ ngay đến công việc. "Ngay khi thấy tin tức về cuộc tấn công tối hôm đó, tôi biết ngay đây sẽ là điều mà nhóm của mình phải làm", anh ấy chia sẻ.
Công việc dễ gây sang chấn tâm lý
Jay, tên nhân vật đã được thay đổi, là một luật sư. Năm 2015, anh rời bỏ công việc để gia nhập Facebook, điều hành nhóm “leo thang toàn cầu” (global-escalations), có trách nhiệm loại bỏ các hình ảnh và video phản cảm ra khỏi nền tảng.
Tại đây, sự kiểm soát của con người có hỗ trợ của máy tính sẽ sàng lọc nội dung trên các bài viết bị người dùng báo cáo vi phạm. Công việc này có thể gây tổn thương đối với người trực tiếp tham gia và nhóm của Jay chịu trách nhiệm ở những nội dung độc hại nhất. "Để làm công việc này, họ phải có khả năng phục hồi tinh thần", Jay nói. Đó cũng là lý do khiến anh ta luôn tỏ ra mệt mỏi hơn so với số tuổi của mình.
Internet không hoạt động theo lịch từ 9h sáng đến 5h chiều. Vì vậy Facebook phải luôn duy trì các nhóm xử lý khủng hoảng ở các chi nhánh khắp thế giới. Họ làm việc theo ca 8 giờ và đảm bảo rằng luôn có người giải quyết vấn đề.
Khi vụ khủng bố nổ ra tại New Zealand, những người điều hành việc quản lý nội dung tại Singapore đã nhắn tin cho Jay để anh cập nhật tình hình. Họ có giao thức xử lý điểm nóng theo 3 bước, đầu tiên là tìm hiểu. Họ dành nhiều giờ để thu thập thông tin trước khi đưa ra bất kỳ quyết định nào. Jay biết rằng kẻ nổ súng dường như đang cố lan truyền rộng rãi vụ thảm sát: hắn ta đã đăng các liên kết đến một bản tuyên ngôn dài 73 trang, trong đó ca ngợi về người đa trắng tối thượng và phát trực tiếp vụ xả súng trên Facebook trong một video kéo dài 17 phút. Jay buộc phải xem đi xem lại video đó trên trang cá nhân của kẻ khủng bố. "Đây là điều tôi không thể yêu cầu người khác làm, tôi cần phải tự mình xem", Jay tâm sự.
Facebook vất vả quản lý tính năng phát trực tiếp (Facebook Live) ra mắt từ năm 2016. Lúc ban đầu, nó được dùng để chia sẻ trò đùa của trẻ em bên người thân của chúng, phát các chương trình nấu ăn tại nhà hoặc dạy học. Tuy nhiên Facebook Live cũng bị lạm dụng để đăng tải nội dung bạo lực.
Facebook đang vất vả kiểm soát công cụ do họ tạo ra. Ảnh: Medium. |
Năm 2017, một nhóm thiếu niên đã bắt cóc, tra tấn một người khuyết tật và chia sẻ video trực tiếp với bạn bè trên Facebook. Những vụ cướp bóc, giết người, tự tử đôi khi cũng xuất hiện trên nền tảng này.
Với những video được đăng tải thông thường, hầu hết Facebook sàng lọc tự động bằng AI, nhưng với tính năng phát trực tiếp thì vấn đề phức tạp hơn. Mặc định chúng sẽ được đăng tải mà không chịu sự kiểm soát nào. Facebook chỉ dựa vào phản hồi của người dùng để đánh dấu và gỡ video không hợp lệ. Tuy nhiên, không phải lúc nào người xem cũng có ý thức cộng đồng cao. 4.000 người đã theo dõi video trực tiếp vụ xả súng tại Christchurch nhưng không ai báo cáo về nó cho đến phút thứ 29 kể từ thời điểm phát.
Jay đã thức đến 4 giờ sáng để theo dõi diễn biến vụ việc. Trong giai đoạn "tìm hiểu", Facebook xác định video được xếp vào loại nội dung khủng bố theo quan điểm nguy hiểm của cá nhân hoặc tổ chức. Nhóm của Jay đã gỡ bỏ video và tiến hành xóa tài khoản của tay súng ngay khi danh tính của hắn được xác nhận.
Những vấn đề hóc búa
Nhưng, sau nhiều năm thực hiện công việc này, Jay biết rằng video sẽ tiếp tục lan truyền trong các góc tối của Facebook, cùng với lời khen ngợi về vụ thảm sát. "Ví dụ, chúng tôi biết rằng mọi người sẽ bắt đầu tạo tài khoản giả với tên của kẻ giết người", Jay chia sẻ. "Chúng tôi biết mọi người bắt đầu nhập vai giết người hàng loạt và sẽ có việc mua bán lợi dụng thảm kịch này. Việc gỡ video xuống chỉ là một phần".
6h sáng tại Dublin, tức 5 tiếng sau khi xảy ra vụ nổ súng, Cormac Keenan kiểm tra tin tức trên điện thoại và vội vã đến văn phòng. Người đàn ông 39 tuổi này đứng đầu một nhóm thị trường địa phương của Facebook.
Có vài trăm người như vậy trên toàn thế giới, họ nói khoảng 80 ngôn ngữ khác nhau, hiểu được những từ lóng, đặc điểm văn hóa và bối cảnh riêng biệt ở những quốc gia. Nhóm này sẽ hỗ trợ cho nhóm “leo thang toàn cầu” trong việc xác định ngữ cảnh, hiểu ý nghĩa của từ ngữ trong từng văn hóa cụ thể để xem nó có tính thù địch hay chỉ là trò đùa vô hại. "Khi tôi đến văn phòng, công việc sẽ chiếm hết cả ngày", Keenan nói.
Vào thời điểm Keenan tham gia, Facebook đã chuyển sang giai đoạn thứ hai của giao thức xử lý khủng hoảng: "cô lập" và cố gắng ngăn chặn sự lan truyền của nội dung. "Ở giai đoạn đó, đã sau 6 tiếng, vì vậy rất nhiều phản hồi được đưa ra", anh nói. Keenan và đội của Jay đã theo dõi và xóa các bài đăng từ khắp nơi trên thế giới có nội dung ca ngợi cuộc tấn công hoặc thúc giục bạo lực hơn nữa và xóa các bản sao của video.
Trong khi các phần tử xấu đưa video trên trang web để truyền bá nội dung cực đoan hoặc thể hiện quyền lực của chúng, nhiều người khác đăng để lên án các cuộc tấn công, để bày tỏ sự thông cảm cho các nạn nhân. Để thống nhất và tuân theo yêu cầu từ chính phủ New Zealand, nhóm đã xóa bài viết bất kể vì mục đích gì.
Tình hình diễn ra tiếp theo gây bất lợi cho Facebook. Các chính trị gia nhanh chóng lên án công ty vì đã truyền bá của chủ nghĩa cực đoan, những người dùng đã đăng video với thiện chí cảm thấy bị kiểm duyệt một cách vô lý.
Nhiều người đã vô tình hoặc cố ý làm mờ video để vượt qua tường lửa của Facebook. Ảnh: Herald Sun. |
Sherif Ahmed, người đàn ông 42 tuổi làm việc trong nhóm "Tổ chức nguy hiểm" có trách nhiệm ngăn chặn các tổ chức khủng bố và các nhóm kỳ thị sử dụng nền tảng Facebook để truyền bá tư tưởng của chúng. Ahmed phải xem kỹ nội dung video và đánh giá từ góc nhìn của kẻ giết người.
Để xóa ảnh hoặc video vi phạm, các nền tảng sử dụng "băm điện tử" (digital hashing). Công nghệ này hoạt động giống như lấy dấu vân tay cho nội dung trực tuyến: khi xác định một video cần chặn, những người kiểm soát lấy một bộ pixel độc quyền từ video đó và sử dụng nó để tạo băm điện tử. Sau đó băm được đặt trong cơ sở dữ liệu và khi người dùng tải lên một video mới, một hệ thống sẽ tự động (và gần như ngay lập tức) sàng lọc dựa trên cơ sở dữ liệu và chặn nếu nó khớp. Bên cạnh nội dung khiêu dâm trẻ em, công nghệ băm cũng được sử dụng để ngăn chặn việc sử dụng trái phép tài liệu có bản quyền và sự lan truyền của nội dung cực đoan.
Vào thời điểm công việc xử lý video ở Christchurch chuyển sang các đội ở Mỹ, khoảng 12 giờ sau, kỹ thuật viên đã phát hiện ra một vấn đề mà trước đây họ không gặp phải ở quy mô như vậy. Khi họ cố gắng tạo một cơ sở dữ liệu băm cho video, người dùng bắt đầu cố tình hoặc vô tình chỉnh sửa video, tạo ra các phiên bản hơi mờ hoặc bị cắt để che khuất băm và có thể vượt qua tường lửa của Facebook.
Ahmed đã quyết định thử một loại công nghệ băm mới, lấy từ một thuộc tính khác của video, đó là audio. Âm thanh của nó có khả năng giữ nguyên trên các phiên bản khác nhau. Kỹ thuật này, kết hợp với các kỹ thuật khác, đã làm tốt công việc. Trong 24 giờ đầu tiên, 1,5 triệu bản sao của video đã bị xóa khỏi trang web, với 1,2 triệu trong số đó đã bị xóa tại thời điểm tải lên.
Trách nhiệm của truyền thông xã hội
Cuộc tấn công ở Christchurch đã gây kinh hoàng không chỉ vì bạo lực mà còn vì cách chúng diễn ra trong lĩnh vực kỹ thuật số. Tác giả Kevin Roose của NYT mô tả vụ việc này là hành động giết người hàng loạt đầu tiên xuất hiện trực tiếp trên Internet.
Sau khi xảy ra vụ nổ súng, Facebook đã phải đối mặt với những lời chỉ trích rộng rãi vì không nhanh chóng gỡ video, không minh bạch trong cách xử lý bạo lực chủ nghĩa cực đoan và không làm nhiều hơn để chống khủng bố cũng như các phát ngôn thù hận trên mạng xã hội.
Tư tưởng độc hại, phân biệt đối xử đã được truyền bá rộng rãi hơn qua mạng xã hội. Ảnh: Vice. |
Những cáo buộc tương tự đã được đưa ra đối với các công ty truyền thông xã hội khác như Reddit, gần đây đã loại bỏ các nhóm bàn luận về video mô tả cái chết của con người và Twitter, từ lâu đã để xảy ra tình trạng quấy rối, châm chọc. Sau vụ tấn công, Bennie Thompson, nghị sỹ đảng Dân chủ tại Mississippi, đã gửi thư cho một số công ty công nghệ lớn kêu gọi họ đàn áp nội dung cực đoan.
Facebook và các công ty công nghệ khác không phải lúc nào cũng làm đủ để giải quyết các phát ngôn thù hận. Nhiều chính sách ban đầu đã đưa ra nhằm đề cao quan điểm tự do ngôn luận, cho phép sự khác biệt về tư tưởng được tự do phát triển, tuy nhiên từ đó lại trở thành nơi phân biệt đối xử với phụ nữ và người da màu, thúc đẩy sự lan truyền của các quan điểm cực đoan.
Đúng vào ngày lễ Phục Sinh (21/4), hơn một tháng kể từ vụ khủng bố tại Christchurch, hàng trăm người đã thiệt mạng ở Sri Lanka trong một loạt vụ đánh bom tự sát liên tiếp tại các nhà thờ Thiên chúa giáo và các khách sạn sang trọng. Các quan chức chính phủ đã xác định vai trò của Facebook trong việc truyền bá thông tin sai lệch và đóng cửa nền tảng này tại Sri Lanka sau vụ tấn công.
Hiện tại, hơn ai hết, chính Facebook rất muốn ngăn chặn hoàn toàn nội dung bạo lực trên nền tảng của họ, ít nhất là để tránh các tai tiếng liên tiếp. 24 giờ sau khi video xả súng được đăng tải, hàng trăm người đã làm việc cật lực để ngăn chặn sự lan truyền. Nhưng vụ nổ súng ở Christchurch có thể chứng minh rằng, một khi phương tiện truyền thông xã hội tồn tại, chắc chắn sẽ có những vụ việc tương tự vượt khỏi tầm kiểm soát.