Trả lời trang Business Insider, Sarah Katz, 27 tuổi, từng làm việc với tư cách là người kiểm duyệt nội dung cho Facebook tại trụ sở Menlo Park, California, Mỹ trong 8 tháng cho biết mỗi ngày cô đã phải xem hơn 8.000 bài viết trong đó có nhiều nội dung khiêu dâm trẻ em.
Điều này đã làm cho cô dần vô cảm với những vấn đề vốn dĩ khiến người bình thường phải ghê sợ. Cô làm việc thông qua Vertisytem, nhà thầu bên thứ ba. Công việc của Katz nghe khá đơn giản là tìm hiểu xem các bài đăng trên Facebook có vi phạm tiêu chuẩn cộng đồng hay không.
Duyệt 8.000 bài đăng vi phạm mỗi ngày
Tuy nhiên công việc này không dễ dàng như người ta vẫn nghĩ. Nó tạo ra một áp lực kinh khủng. Sau mỗi 10 giây, Katz phải đưa ra quyết định có duyệt một bài đăng hay không. Mỗi bài đăng được duyệt gọi là "ticket" (vé). Một nhân viên đối mặt với khoảng 8.000 vé như vậy mỗi ngày.
Sarah Katz, cựu nhân viên kiểm duyệt nội dung của Facebook. Ảnh: Business Insider. |
Để giải quyết khối lượng công việc này, Facebook đã có 4.500 nhân viên kiểm duyệt như Katz vào năm 2017. Tháng 5/2017, Facebook tuyên bố sẽ tuyển thêm 3.000 người nữa để chiến đấu với các nội dung tiêu cực, khiêu dâm nhằm ngăn chúng tiếp cận người dùng. Ngoài ra mạng xã hội cũng đầu tư thêm trí tuệ nhân tạo để hỗ trợ các kiểm duyệt viên.
Trong báo cáo minh bạch được Facebook công bố tháng 5/2018, công ty cho biết họ đã xóa 21 triệu bài đăng chứa ảnh khỏa thân, tình dục. Bên cạnh đó mạng xã hội này cũng loại bỏ 3,4 triệu bài có hình ảnh bạo lực và hàng triệu bài với nội dung kích động, thù hận, khủng bố ra khỏi nền tảng của mình.
Những kiểm duyệt viên tại Facebook phải ký một tài liệu, buộc người lao động cam kết làm công việc kiểm duyệt những nội dung có thể ảnh hưởng tiêu cực đến họ và đứng về phía Facebook khi có kiện cáo xảy ra.
Theo Katz, khi tiếp xúc với những nội dung này, người kiểm duyệt có thể thông báo ngay với Facebook nếu không thể chịu nổi và muốn nghỉ việc.
"Facebook có hàng tỷ người dùng và không phải ai cũng biết cách sử dụng mạng xã hội. Bởi vậy có rất nhiều nội dung khiêu dâm, tình dục, bạo lực bằng hình ảnh được đăng tải. Có hàng tá nội dung bạn không muốn xem nhưng nó vẫn xuất hiện trên Facebook", Katz nói với Business Insider.
Bị đuổi sau ba lần không đủ chỉ tiêu
Katz làm việc trong một văn phòng thiết kế mở ở Menlo Park. Tại đây cô và những nhân viên khác được phục vụ đồ ăn nhẹ miễn phí. Môi trường làm việc tại đây khá thân thiện và gắn bó giữa các thành viên trong nhóm.
Nơi làm việc của Katz tại Menlon Park, California, Mỹ. Ảnh: Reuters. |
Nếu không hoàn thành tốt công việc của mình, Katz và các cộng sự sẽ phải chịu những hình thức kỷ luật tại đây. Facebook sẽ nhắc nhở nếu kiểm duyệt viên không xử lý đủ số bài một đến hai lần. "Nếu để đến lần thứ 3, bạn sẽ bị cho thôi việc", Katz nói. Cô chưa từng chứng kiến điều này nhưng các nhân viên tại đây phải tự hiểu nó là luật bất thành văn.
"Sau một thời gian tôi nhận ra đây là một công việc đơn điệu. Bạn chắc chắn sẽ trở nên vô cảm với những nội dung như vậy khi xem quá nhiều lần. Những bài đăng này có xu hướng lặp đi lặp lại", Katz chia sẻ.
Nội dung vi phạm lặp lại nhiều lần
Katz kể về một bức ảnh và video có nội dung vô cùng độc hại xuất hiện rất nhiều lần. Cụ thể bài đăng có hình ảnh hai đứa trẻ, tuổi 9-12 đang đứng đối diện với nhau trong tình trạng khỏa thân. "Chắc chắn có ai đó đứng đằng sau máy ảnh và biết bọn trẻ đang làm gì", Katz nói.
Theo Katz, bức ảnh này chắc chắn sẽ phải biến mất khỏi Facebook. Tuy nhiên, nó sẽ lại xuất hiện nhiều lần trong ngày. "Mỗi lần một vị trí khác nhau. Có ngày nó được đăng ở Pakistan, có ngày lại xuất hiện tại Mỹ. Thật khó để biết nguồn gốc thật sự của nó ở đâu", cựu nhân viên Facebook nói thêm.
Công việc của Katz khi thấy nội dung này là báo cáo cho tài khoản biết họ đang chia sẻ những nội dung vi phạm. "Nếu tài khoản của người dùng ít hơn 30 ngày tuổi, chúng tôi sẽ hủy kích hoạt tài khoản như một tài khoản giả mạo. Nếu tài khoản sử dụng hơn 30 ngày, chúng tôi chỉ cần xóa nội dung và vẫn để tài khoản hoạt động", Katz nói.
Công việc không dành cho AI
Facebook từng ký một thỏa thuận với Microsoft vào năm 2011 để sử dụng công nghệ PhotoDNA quét tất cả hình ảnh trên Facebook và Instagram. Sau đó công cụ này sẽ đánh dấu các vấn đề liên quan đến khiêu dâm trẻ em và ngăn chúng không thể đăng tải một lần nữa.
Facebook dự định tuyển thêm 3.000 vị trí kiểm duyệt viên. Ảnh: Reuters. |
Sau khi rời khỏi Facebook, Katz làm công việc phân tích an ninh mạng cho công ty điện toán ServiceNow. Cô đã viết một cuốn tiểu thuyết khoa học viễn tưởng có tên "Apex Five". Cuốn sách lấy cảm hứng từ khoảng thời gian làm việc cho Facebook của cô. Cô rất lạc quan về những trải nghiệm công việc của mình. Tuy nhiên Katz cho biết nhược điểm của công việc này là bị ám ảnh khi nghĩ mình luôn phải bảo vệ người dùng.
"Cần phải có nhiều người hơn để làm được công việc này và nó không thể giải quyết bởi trí tuệ nhân tạo được. Chúng ta luôn phải giữ quan điểm của con người. AI sẽ giúp theo dõi tất cả nội dung từ hàng tỷ người dùng. Nhưng sau đó, yếu tố con người cần phải sử dụng để làm tốt phần việc còn lại. Đây là công việc cần nhân viên toàn thời gian lâu dài chứ không phải thời vụ", Katz nói.
Ngoài ra cô cũng mong muốn các công ty công nghệ nên có nhiều ưu đãi hơn cho các nhân viên kiểm duyệt. Điều này khuyến khích họ gắn bó hơn với công việc.
Phát ngôn viên của Facebook cho biết: "Những người kiểm duyệt nội dung toàn cầu của chúng tôi đóng một vai trò quan trọng giúp tạo ra môi trường an toàn cho cộng đồng Facebook. Đó là ưu tiên số một của chúng tôi. Chúng tôi nhận thấy công việc này khó khăn, vì vậy chúng tôi hỗ trợ về thể chất lẫn tinh thần cho nhân viên của mình".