Sự trỗi dậy của hàng loạt công cụ AI khiến con người lơ là về quyền riêng tư. Ảnh: NurPhoto. |
2023 là năm trí tuệ nhân tạo lên ngôi với sự xuất hiện của hàng loạt sản phẩm như ChatGPT, DALL-E, Bard… Chúng ta nói rất nhiều về AI hỗ trợ con người trong công việc, khả năng tạo hình ảnh, văn bản rất ấn tượng, nhưng lại ít khi nhắc đến những rủi ro tiềm ẩn phải đánh đổi khi sử dụng.
Chính vì quá dễ dùng và xuất hiện nhan nhản khắp nơi, nên người dùng không để ý đến số dữ liệu bị thu thập hàng ngày bởi các hệ thống AI. Trên thực tế, nhiều quốc gia và tổ chức đã bày tỏ lo ngại khi những cỗ máy trí tuệ nhân tạo khổng lồ luôn bí mật sử dụng thông tin người dùng để học hỏi và nâng cấp tính năng hàng ngày, hàng giờ.
“Các công ty công nghệ luôn lấy thông tin từ chúng ta, phục vụ cho những bộ máy đánh cắp công việc của họ, đồng thời xâm hại đến quyền riêng tư đến mức khó tin”, Ryan Clarkson - Giám đốc hãng luật Clarkson từng kiện OpenAI, Microsoft và Google - khẳng định.
Không có bữa ăn nào là miễn phí
Về cơ bản, các mô hình AI tạo sinh dựa hoàn toàn vào các dữ liệu đã có. Do đó, để thông minh và giống con người từ cách viết, nói năng và suy nghĩ, các hệ thống trí tuệ nhân tạo đòi hỏi ngày càng nhiều dữ liệu thực hơn.
Các công ty công nghệ dễ dàng lấy thông tin từ khắp mọi nơi trên Internet, từ bài đăng của bạn trên Facebook, ảnh bạn đăng trên Instagram hay video trên TikTok… để cho vào sản phẩm của mình.
Nhiều công cụ AI được huấn luyện dựa trên dữ liệu Internet. Ảnh: Bloomberg. |
Thậm chí, nhiều công ty tìm cớ “lách luật” bằng cách liên tục thay đổi chính sách quyền riêng tư, yêu cầu người dùng đồng ý sử dụng dữ liệu cho các sản phẩm khác. Điều này đồng nghĩa những thông tin của họ hoàn toàn có thể bị mang đi để phục vụ cho một mô hình AI nào đấy mà họ còn chẳng hay biết.
Ngay cả những tên tuổi lớn trong ngành cũng mập mờ về quy trình này. Đơn cử như danh sách dữ liệu nguồn của mô hình LLaMA do Meta phát triển liệt kê những website rất quen thuộc như Github, Wikipedia… Đây là những trang web chứa rất nhiều thông tin cá nhân. Hay như OpenAI cũng thừa nhận rằng họ sử dụng dữ liệu người dùng để dạy mô hình máy học của mình.
Cái giá của sự miễn phí có quá cao?
Với những người làm sáng tạo như nhà văn, họa sĩ, nhạc sĩ, việc cho phép AI sử dụng dữ liệu rất nhạy cảm. Điều này đồng nghĩa với nguy cơ vi phạm bản quyền, thậm chí đe dọa sinh kế của họ vì các hệ thống ngày càng thông minh, vượt khỏi kiểm soát con người.
Hồi tháng 1, 3 nghệ sĩ Sarah Andersen, Kelly McKernan và Karla Ortiz đã đâm đơn kiện Stability AI và Midjourney - hai mô hình AI tạo hình ảnh bằng văn bản nổi tiếng - vì sử dụng hình ảnh trên Internet cho máy học, vi phạm bản quyền hàng triệu người.
Nhưng với những người thường, không sở hữu bất kỳ tài sản trí tuệ, liệu họ có cần quan tâm đến điều này hay không? Câu trả lời chắc chắn là có. Họ vẫn phải đặt câu hỏi rằng làm thế nào những công ty như OpenAI bảo vệ quyền riêng tư của mình trong khi bộ máy khổng lồ của họ liên tục thu thập và xử lý chúng.
Người dùng cần tỉnh táo khi sử dụng công cụ AI. Ảnh: The Canadian Press. |
Đứng về phía người dùng, nhiều nhà làm luật và chính quyền các nước đã bày tỏ lo ngại về điều này. Hồi tháng 4, Italy đã trở thành nước phương Tây đầu tiên cấm ChatGPT do lo ngại về rò rỉ dữ liệu cá nhân trong quá trình rèn luyện hệ thống. Chatbot này cũng không được sử dụng ở một số khu vực như Trung Quốc, Hong Kong, Nga…
Song, giữa thời điểm AI là xu thế chung như hiện nay, việc nói không với các công cụ AI để bảo vệ thông tin là một điều bất khả thi. Thay vào đó, người dùng nên cảnh giác hơn mỗi khi cấp quyền cho bất cứ AI nào truy cập và sử dụng thông tin của mình.
“Nếu bạn không phải trả tiền, thì thực tế bạn chính là sản phẩm” - câu nói này vẫn đúng cả trong lĩnh vực AI. Đừng quên cân nhắc trước khi sử dụng bất cứ công cụ AI nào để không trở thành con tốt trong ván bài của các ông lớn.
Xuất bản học thuật phủ nhận tác quyền của ChatGPT
Hiện có một làn sóng lo ngại rằng AI, với những nghiên cứu thiếu sót hay thậm chí bịa đặt, có thể gây nguy hại cho các tài liệu học thuật. Springer-Nature, một đơn vị xuất bản gần 3.000 tạp chí, đã cập nhật chính sách của mình, tuyên bố rằng ChatGPT không thể được liệt kê là tác giả. Nhiều đơn vị xuất bản khác đã thực hiện những cập nhật tương tự.