Bạn có thể chuyển sang phiên bản mobile rút gọn của Tri thức trực tuyến nếu mạng chậm. Đóng

LONGFORM

News Feed của Facebook: Thứ tà thuật đang ám ảnh thế giới

Lần đầu tiên, News Feed, thuật toán tạo nên sự giàu có và quyền lực của Facebook, được phân tích dưới góc nhìn chuyên môn của WIRED. Zing lược dịch bài viết đặc biệt này.

News Feed cua Facebook anh 1News Feed cua Facebook anh 2

News Feed cua Facebook anh 3

Đ

ã bao giờ bạn tự hỏi vì sao Facebook toàn hiện ra những "thánh chém" suốt ngày chửi đời, chửi người? Hay đơn giản hơn, mỗi lần bạn trò chuyện với ai đó về một chiếc túi xách CK, ít phút sau, hình ảnh của nó chễm chệ trên News Feed, mời gọi bạn mua hàng? 

Thông tin về hoạt động của News Feed được đóng dấu "mật" trong nhiều năm. Facebook hầu như không giải thích về thuật toán này. Các nhân viên tiết lộ thông tin cho báo chí bị sa thải. Mark Zuckeberg, CEO Facebook, đang phải trình diện ở khắp nơi.

News Feed cua Facebook anh 4

Chỉ trong hơn một tháng qua, Mark Zuckerberg đã phải giải thích mô hình kinh doanh của mình trước Quốc hội Mỹ, điều trần trước Nghị viện châu Âu và trả lời rất nhiều câu hỏi khó từ báo chí. Các chuyên gia trong ngành lao vào những cuộc tranh luận trên Twitter. Trong khi đó, Facebook chạy quảng cáo cho các trận tranh vé vớt của giải bóng rổ nhà nghề NBA.

News Feed cua Facebook anh 5

Facebook vừa đưa ra 3 thông báo quan trọng về vấn đề tin giả (fake news). Nicholas Thompson, một chuyên gia kì cựu của Wired bước đầu phân tích các động thái này. Ông cũng có một cuộc trao đổi độc quyền & chi tiết với 9 kĩ sư của News Feed về những công việc hàng ngày của họ. Những việc ảnh hưởng đến hàng tỉ người dùng Facebook.

Thông báo số một: Facebook sẽ sớm xem xét các đề cương nghiên cứu từ các học giả muốn nghiên cứu về tin giả.

Nếu được chọn, nhà nghiên cứu sẽ được cung cấp kinh phí và dữ liệu cần thiết; công chúng thì sẽ được cung cấp câu trả lời quý giá về sự tồn tại và mức độ ảnh hưởng của tin giả.

Thông báo số hai: Họ sắp phát động một chiến dịch giáo dục công chúng về tin giả.

Chiến dịch này sẽ được công bố trên “top” của trang chủ Facebook - có lẽ là vị trí quyền lực nhất trên internet hiện nay. Người dùng sẽ được học về tin giả và cách để ngăn chặn sự lan truyền của chúng. Thực chất, Facebook hiểu rằng mình đang bước vào một cuộc chiến và mong muốn lôi kéo công chúng về phe của mình. 

Thông báo số ba - đây có vẻ là kế hoạch mà Facebook hào hứng nhất, họ vừa công bố bộ phim dài 12 phút mang tên Facing Facts (Đối mặt với sự thật).

Đây là bộ phim tài liệu về những người đang tham gia cuộc chiến chống lại tin giả, được đạo diễn bởi Morgan Neville, người từng được trao giải Oscar cho 20 Feet from Stardom, bộ phim tài liệu mang chủ đề về những người hát bè. Facing Facts về cơ bản cũng như vậy.

Đó là một góc nhìn hiếm hoi về những người đang vận hành News Feed: những người vô danh đang kiểm soát thuật toán quyền lực nhất thế giới. Trong Stardom, Neville kể chuyện thông qua những phỏng vấn và chèn cảnh các nhân vật chính lắc hông trên sân khấu. Ở đây cũng vậy, ông lại phỏng vấn cận cảnh và chèn cảnh các nhân vật chính nhìn chằm chằm vào màn hình.

Không quá khi nói rằng News Feed chính là Facebook. Đây là một thuật toán bao gồm hàng nghìn tham số xác định những gì bạn sẽ nhìn thấy khi mở Facebook lên mỗi ngày: ảnh trẻ con, ảnh selfies của bạn bè, tin rác, hay thông tin tuyên truyền chính trị. Facebook áp dụng bảo mật cao nhất cho những thông tin này, không khác gì cách quân đội Mỹ bảo vệ Fort Knox, căn cứ quân sự cực kì quan trọng của họ. Điều này khiến cho bộ phim trở nên đáng giá.

News Feed cua Facebook anh 6

Ngay từ khi bắt đầu, Neville báo hiệu rằng ông không tiếp cận vấn đề một cách hời hợt. Phần nhạc mở đầu u ám, tiếp đến là giọng của John Dickerson (CBS News), kể về những câu chuyện bịa đặt tràn lan trên nền tảng Facebook trong cuộc bầu cử Mỹ năm 2016. Những tin tức quan trọng bùng nổ, những nhân viên của Facebook, người ôm ván trượt, người đeo túi tote của New Yorker, chậm rãi bước lên cầu thang dẫn vào trụ sở chính.

Thông điệp ở đây rất rõ ràng: Facebook đã sai và họ muốn mọi người biết rằng họ biết họ đã sai. Công ty này đang thú nhận lỗi lầm và mong được tha thứ. “Chuyện đó thật khó khăn, thật đau đớn. Nhưng tôi nghĩ những chỉ trích khắt khe về cơ bản là có ích”, Adam Mosseri, cựu quản lý vận hành News Feed nói. Ông vừa chuyển sang bộ phận quản lý Instagram cách đây không lâu.

Hết phần xin lỗi, phim chuyển sang phần trình bày, khi các kĩ sư giải thích về tầm quan trọng của cuộc chiến chống tin giả và sự phức tạp của công việc đó. Người xem được tham quan văn phòng của Facebook, nơi mọi người đang làm việc rất chăm chỉ. Trên tường có một bức tranh khổng lồ về Alan Turing được ghép từ các mảnh domino. Nhiều nhân viên gãi cằm, đếm được ít nhất 9 lần trong suốt bộ phim dài 12 phút.

Phần rõ ràng và sinh động nhất trong Facing Facts là cảnh quay bên chiếc bảng trắng. Phân cảnh dài 3 phút rưỡi trong đó Eduardo Ariño de la Rubia, quản lý dữ liệu của News Feed, vẽ ra hai trục X và Y. Ông bắt đầu giảng bài một cách lôi cuốn: những bài đăng trên Facebook có thể chia làm 4 nhóm, dựa vào ý đồ của tác giả và tính xác thực của nội dung: (1) trong sáng - sai, (2) trong sáng - đúng; (3) đen tối - sai; (4) đen tối - đúng. Nhóm thông tin cuối cùng - bao gồm ví dụ về những con số thống kê phiến diện là đáng lo lắng nhất.

Vài phút sau, Dan Zigmond, một kĩ sư khác giải thích ba mức độ xử lý với những bài đăng có vấn đề: xoá bỏ (remove), cắt giảm (reduce), thông báo (inform). Những gì vi phạm quy định của Facebook bị xoá. Những bài đăng câu khách bị giảm bớt. Nếu một bài viết có vẻ mờ ám, người đọc sẽ được thông báo bởi ban kiểm định thông tin. Có thể họ sẽ được xem thêm thông tin về nơi đăng tải hay những bài đăng liên quan. Cách ứng xử tương tự một phụ huynh không giật điếu thuốc từ tay con mình nhưng đưa cho nó một cuốn sách về ung thư phổi.

Thông điệp trung tâm của bộ phim là: Facebook thực sự rất quan tâm đến vấn đề tin giả. Công ty này đã chậm trễ trong việc nhận ra sự độc hại của News Feed, nhưng giờ họ cam kết để giải quyết nó. Họ có một đội ngũ trẻ tuổi, tận tụy và thông minh chuyên trách việc này. John Hegeman, người đang điều hành News Feed chính là người xây dựng hệ thống cho bộ phận quảng cáo Facebook, thứ đã biến nó thành một trong những doanh nghiệp sinh lời nhất mọi thời đại.

News Feed cua Facebook anh 7

Tuy vậy, câu hỏi cho Facebook không còn là việc họ có quan tâm hay không. Câu hỏi là liệu vấn đề có thể được giải quyết không. News Feed đã được điều chỉnh qua nhiều năm nay để gia tăng sự chú ý và cả sự phẫn nộ của chúng ta. Chính những tính năng đã từng khuyến khích người dùng đăng tin câu khách cũng tạo điều kiện cho tin giả lan tràn. Một cách ví von, News Feed đã tập trung chăm sóc những đồn điền mía đường trong suốt cả thập kỉ. Liệu họ có thể thực sự trồng được lúa mì hay táo?

News Feed cua Facebook anh 8

9

kĩ sư của Facebook ngồi xung quanh chiếc bàn hình chữ nhật trong phòng họp của Facebook và giải thích cho WIRED về công việc phức tạp của họ. Công ty này đã đưa ra vô số thông báo từ tháng 12 năm 2016 về cuộc chiến chống lại tin giả. Họ hợp tác với các nhà kiểm định để giới hạn việc kiếm tiền từ những tin tức lá cải. Họ xây dựng hệ thống machine-learning để chống tin giật gân.

Trong quá trình này, Facebook đã nhận ra rằng việc áp dụng nghiêm ngặt luật lệ "Blocking and tackling" giúp loại bỏ nhiều nguồn tin tức sai lệch trên nền tảng này. Những người phát tán tin giả thường tạo một tài khoản ảo hoặc vi phạm tiêu chuẩn cộng đồng (Community Standard) của Facebook. Khi đó, đội ngũ này sẽ áp dụng phương thức "thà giết nhầm còn hơn bỏ sót". Họ hành động như một lực lượng cảnh sát giải quyết nạn buôn bán thuốc phiện bằng cách giam giữ tất cả những người lang thang. 

Tuy nhiên, về dài hạn, Facebook biết rằng hệ thống machine-learning phức hợp mới đem lại tác động bền vững.  Để thực sự ngăn chặn tin giả, cần phải tìm kiếm chúng trước, và cần đến máy móc để làm việc ấy vì không có đủ người. Vì thế, Facebook bắt đầu tích hợp hệ thống đã được sử dụng bởi Instagram để chống lại những nội dung mang thù hằn, dựa trên bộ dữ liệu do con người chọn lọc và một sản phẩm machine-learning tên là DeepText.

Nó hoạt động thế này: Hàng trăm người được tập trung lại để kiểm tra hàng trăm nghìn post nhằm nhận diện và phân loại tin giật gân. Họ quyết định tít bài nào là giật gân còn tít nào thì không. Sau đó, Facebook xây dựng thuật toán machine - learning xử lý trên những dữ liệu mà con người đã phân loại.

Những thuật toán sẽ học những mẫu ngôn ngữ mà con người nhận diện là giật gân, sau đó phân tích những kết nối mạng xã hội của những tài khoản đã đăng nó. Cuối cùng, sau khi thu thập đủ dữ liệu, trải qua huấn luyện và sửa chữa, hệ thống machine-learning sẽ trở nên chính xác giống như những người dạy nó lúc đầu, nhưng nhanh hơn nhiều lần.

Ngoài việc nhận diện tin giật gân, họ còn sử dụng hệ thống này để tìm cách nhận diện tin giả. Việc này nó khó hơn rất nhiều. Fake-news là vấn đề phân định thật - giả, và sự thật thì khó để phân định hơn nhiều so với nhận diện các thủ thuật câu khách, giật gân trong một cụm ngắn như tiêu đề bài viết.

Để xử lý, Facebook tạo ra một cơ sở dữ liệu của tất cả những bài viết được cảnh báo bởi các tổ chức kiểm định thông tin (fact-checker) mà họ cộng tác từ cuối năm 2016. Sau đó, họ kết nối với những dấu hiệu khác, bao gồm cả bình luận của người đọc để huấn luyện mô hình này. Hệ thống cũng rà soát để phát hiện thấy sự lặp lại.

Các kĩ sư nói: “Việc duy nhất tồi tệ hơn tạo ra tin tức giả là sao chép cái tin giả đó.” Như vậy, Facebook không thực sự đọc nội dung của bài viết và kiểm chứng nó. Hay ít nhất là không phải lúc này.

Các nhân viên của Facebook giải thích rằng, tất cả tin giật gân và tin giả được xử lý giống nhau, không phân biệt là từ trang nào. Hãy xem xét 3 câu chuyện đã được lan truyền trên Facebook trong năm ngoái.

“Nhân viên của Morgue bị thiêu nhầm khi đang ngủ trưa.” 

“Tổng thống Trump ra lệnh thi hành án với 5 con gà tây đã được Obama ân xá."

"Trump cử điệp viên bắt giữ các lãnh đạo vụ Sanctuary City."

Câu đầu tiên vô hại; câu thứ hai có yếu tố chính trị, nhưng gây cười, cũng gần như vô hại. Câu thứ ba thì có thể làm cho người ta sợ hãi thực sự và dẫn tới biểu tình trên đường. Về mặt lý thuyết, Facebook có thể xử lý từng loại tin giả ở trên một cách khác nhau, nhưng họ không làm thế. Tất cả headlines sẽ đi qua cùng một hệ thống và được đánh giá theo cùng một cách thức. Trên thực tế, cả ba ví dụ trên đều đã được cho qua và bắt đầu lan truyền.  

Sau tất cả, chúng ta đối mặt với một câu hỏi lớn. Liệu điều gì là tốt hơn: tiếp tục thêm những hệ thống mới lên trên các thuật toán cũ đã tạo ra News Feed, hay thay đổi hoàn toàn News Feed?

News Feed cua Facebook anh 9

N

ews Feed dựa trên hàng trăm, thậm chí hàng ngàn yếu tố, và bất kì ai từng vận hành một trang Facebook fanpage đều biết, thuật toán này đề cao sự bức xúc.

Một bài viết có tựa đề: "Nhân viên của Donald Trump siêu dốt trí tuệ nhân tạo" sẽ rất hot trên Facebook. Trong khi đó, một bài viết mang tên “Nhân viên của Donald Trump bắt đầu nghiên cứu trí tuệ nhân tạo” chắc chỉ được 10 like. Cả hai bài viết đều có thể là sự thật, nhưng sự khác biệt ở đây là nhan đề đầu tiên kích thích cảm xúc của chúng ta, nhan đề thứ hai thì không.

News Feed cua Facebook anh 10

Trong rất nhiều năm, News Feed - không khác gì những tờ báo lá cải - đã đặc biệt ưu tiên những loại bài viết kiểu này. Các nội dung được xếp hạng phần lớn dựa trên khả năng tạo ra sự giận dữ và những phản ứng tâm lý tức thời.

Hiện nay, theo Adam Mosseri, cựu quản lý của News Feed, thuật toán đang được điều chỉnh để chú trọng các yếu tố nghiêm túc hơn, dựa trên chất lượng bài viết chứ không chỉ khả năng kích thích cảm xúc. Ông chỉ rõ, các yếu tố như lượt tương tác (click, like) sẽ không được coi trọng như trước.

Bù lại, họ sẽ ưu tiên những yếu tố như: công chúng sẽ dành bao lâu để xem video, dành bao lâu để đọc một bài viết, họ đánh giá mức độ giàu thông tin của bài viết như thế nào. News Feed phiên bản mới có thể sẽ coi trọng những bài viết công phu, chất lượng về Trump và trí tuệ nhân tạo hơn xưa.

News Feed cua Facebook anh 11

C

ó lẽ câu hỏi hóc búa nhất dành cho Facebook là: Liệu có phải bản chất không thể thay đổi của Facebook là giúp lan truyền tin giả hay không?

Facebook làm ra tiền bằng việc bán quảng cáo đến khán giả mục tiêu, có nghĩa là nó phải biết cách để nhắm đối tượng. Nó thu gom nhiều dữ liệu nhất có thể về mỗi người dùng. Những dữ liệu này sẽ lần lượt được các nhà quảng cáo khai thác để nhắm đến các khách hàng tiềm năng, những người sẽ đón nhận thông điệp của họ.

Ví dụ, công ty Pampers chỉ muốn bán tã giấy cho những phụ huynh của trẻ sơ sinh, Facebook có thể giúp họ nhắm đến đúng nhóm này một cách hiệu quả. Nhưng khả năng này có thể trở nên rất nguy hại trong trường hợp nhà quảng cáo lại là một kẻ chuyên tung tin giả và muốn tìm những người cả tin để lan truyền đi thông điệp của mình.

Trong một cuộc phỏng vấn với Bloomberg, Cyrus Massoumi, người lập nên trang Mr. Conservative và lan truyền đủ loại tin giả trong cuộc bầu cử Mỹ 2016 giải thích họ đã làm điều đó dễ dàng như thế nào.

"Bạn vào trang facebook.com/ads/manager để tạo quảng cáo, như bình thường thôi. Tạo một bức ảnh, ví dụ, ảnh của Obama nhé, kèm theo dòng chữ ‘Bấm like nếu bạn nghĩ Obama là Tổng thống tệ nhất trong lịch sử'. Hoặc, với Trump, ‘Like nếu bạn nghĩ Trump nên bị bỏ tù’. Sau đó bạn trả tiền để Facebook giúp tiếp cận những người phù hợp, thế là bạn có được họ thôi".

May mắn là việc này đã bị ngăn chặn. Arino de la Rubia, quản lý dữ liệu của News Feed cho biết rằng công ty họ theo dõi bất kì trang nào bị nghi ngờ là tung tin giả và trang của Massoumi nằm trong số đó. 

Tuy vậy, các kĩ sư buộc phải thừa nhận rằng không thể giải quyết triệt để được vấn nạn này. Thông tin sai lệch có thể đến từ bất kì ngóc ngách nào trên internet. Xoá bỏ hẳn các group có nội dung chính trị cũng là một phương án được cân nhắc, nhưng như thế đồng nghĩa với việc xoá bỏ luôn một lượng lớn tranh luận dân sự cần thiết cho sự phát triển của xã hội.

Những nỗ lực của Facebook có đáng ghi nhận không? Tất nhiên. Minh bạch luôn tốt. Sự kiểm định của báo chí hoặc giới học thuật cũng vậy. Nhưng vấn đề cần được lưu ý là Facebook thực hiện những việc này rất muộn màng. Nói như Ben Scott, một chuyên gia tại Open Technology Institute tại New America Foundation thì, người ta không khen một chiếc xe hơi vì nó có dây an toàn.

“Chúng ta không tán thưởng Jack Daniels vì đã dán biển cảnh báo về việc uống rượu khi đang mang thai. Chúng ta cũng không khen ngợi GM vì đã lắp đặt dây an toàn và túi khí trong xe hơi. Làm thế là tốt, nhưng đó chẳng phải những yêu cầu cơ bản của ngành hay sao?"

Câu hỏi tối quan trọng dành cho Facebook là: liệu những thay đổi này mang lại hiệu quả thế nào. Những nhánh sông có được lọc đủ sạch để con người có thể tắm? Facebook đã loại bỏ nhiều lỗi, nhưng điều gì sẽ xảy ra với cuộc bầu cử Mỹ mùa thu này? Liệu kịch bản tin giả tương tự có xảy ra trong cuộc bầu cử ở Mexico mùa hè này?

Và sẽ ra sao nếu vấn đề trở nên phức tạp hơn? Vấn nạn tin giả ngày càng nghiêm trọng. Nó lan từ chữ nghĩa sang hình ảnh, video đến công nghệ thực tế ảo, và một ngày nào đó là những giao diện computer-brain. Facebook hiểu chuyện đó. Đó là lý do mà công ty này đang tập trung giải quyết vấn đề và không từ cơ hội nào để nói về nỗ lực đó.

“Hai tỉ người dùng Facebook trên thế giới đang trông cậy vào chúng tôi ”, Dan Zigmond nói.

News Feed cua Facebook anh 12

Hiền Minh

Đồ hoạ: Phượng Nguyễn

Bạn có thể quan tâm