Bạn có thể chuyển sang phiên bản mobile rút gọn của Tri thức trực tuyến nếu mạng chậm. Đóng

Nghiên cứu hộp sọ cảnh báo điều gì khi phát triển AI?

Khi các hệ thống AI được chứng minh là tạo ra những kết quả phân biệt đối xử, các công ty phải đối mặt với áp lực cải thiện công cụ hoặc đa dạng hóa dữ liệu của họ.

Di sản của Morton báo trước những vấn đề về nhận thức luận trong việc đo lường và phân loại của trí tuệ nhân tạo. Sự tương quan giữa hình dạng hộp sọ và trí tuệ và các yêu sách về quyền lợi pháp lý đóng vai trò như một dạng bằng chứng ngoại phạm về mặt kỹ thuật cho chủ nghĩa thực dân và chế độ nô lệ.

Mặc dù có xu hướng tập trung vào các sai lầm trong việc đo lường hộp sọ và cách sửa chữa chúng, nhưng sai lầm lớn hơn nhiều nằm ở thế giới quan cơ bản đã khơi nguồn phương pháp này. Do đó, trong trường hợp này, mục đích không phải là kêu gọi đo lường hộp sọ chính xác hơn hoặc “công bằng” hơn để củng cố các mô hình phân biệt chủng tộc về trí tuệ, mà là lên án hoàn toàn phương pháp này.

AI anh 1

Ảnh minh hoạ. Nguồn: BBC.

Các phương pháp phân loại mà Morton sử dụng vốn dĩ mang tính chính trị, và những giả định sai lầm của ông về trí tuệ, chủng tộc và sinh học đã gây ra những tác động xã hội và kinh tế rộng lớn.

Phân loại là một hoạt động cốt lõi trong lĩnh vực trí tuệ nhân tạo. Cách thức phân loại dữ liệu ảnh hưởng đến quá trình nhận dạng và xây dựng trí thông minh nhân tạo, từ các phòng thí nghiệm đại học đến các tập đoàn công nghệ.

Như chúng ta đã thấy trong chương trước, các vật thể trong thế giới thực được chuyển thành dữ liệu thông qua các bước thu thập, đo lường, dán nhãn và sắp xếp, và bất kể có chủ ý hay không thì những dữ liệu này cũng trở thành thứ dữ liệu thực tế dễ dãi để nạp vào các hệ thống kỹ thuật được huấn luyện dựa trên dữ liệu đó.

Khi các hệ thống AI được chứng minh là tạo ra những kết quả phân biệt đối xử theo các yếu tố như chủng tộc, giai cấp, giới tính, khuyết tật hoặc tuổi tác, các công ty phải đối mặt với áp lực lớn là phải cải thiện các công cụ hoặc đa dạng hóa dữ liệu của họ.

Nhưng kết quả thu về thường chỉ là những phản ứng hạn hẹp, thông thường là một nỗ lực nào đó để khắc phục các lỗi kỹ thuật và dữ liệu thiên lệch để khiến hệ thống AI trông có vẻ công bằng hơn.

Một loạt câu hỏi cơ bản hơn thường không được đặt ra ở đây, như: Quy trình phân loại hoạt động như thế nào trong học máy? Yếu tố nào sẽ bị tác động tiêu cực khi chúng ta phân loại? Các quy trình phân loại tương tác với đối tượng được phân loại theo những cách nào? Và những lý thuyết xã hội và chính trị không được nói ra nào đang ẩn dưới và được hỗ trợ bởi những cách phân loại thế giới này?

Trong nghiên cứu quan trọng của mình về cách thức phân loại, hai nhà nghiên cứu Geoffrey Bowker và Susan Leigh Star viết rằng “các phương pháp phân loại là những kiểu công nghệ quyền lực. Được nhúng sâu vào các cơ sở hạ tầng đang hoạt động, chúng trở nên tương đối vô hình nhưng không hề mất đi sức mạnh”.

Phân loại là một hành vi sử dụng quyền lực, bất kể đó là dán nhãn cho hình ảnh trong bộ dữ liệu huấn luyện AI, theo dõi mọi người bằng nhận dạng khuôn mặt, hay đổ đạn chì vào hộp sọ. Nhưng các cách thức phân loại có thể biến mất, giống như Bowker và Star nhận định, “thành cơ sở hạ tầng, thành thói quen, thành những thứ được mặc định sẵn”.

Chúng ta có thể dễ dàng quên rằng những phân loại được lựa chọn một cách tùy tiện để định hình một hệ thống kỹ thuật có thể đóng một vai trò đáng kể trong việc định hình thế giới xã hội và vật chất.

Xu hướng tập trung vào vấn đề thiên vị trong trí tuệ nhân tạo đã khiến chúng ta xa rời việc đánh giá các cách thức phân loại cốt lõi trong AI, cùng với các vấn đề chính trị đi kèm. Để thấy điều đó diễn ra như thế nào, trong chương này, chúng ta sẽ khám phá một số bộ dữ liệu huấn luyện của thế kỷ 21 và quan sát cách các lược đồ sắp xếp xã hội của chúng biến các hệ thống phân cấp thành điều bình thường và khuếch đại bất bình đẳng ra sao.

Chúng ta cũng sẽ xem xét những hạn chế của các cuộc tranh luận về thiên vị trong AI, nơi mà người ta thường đề xuất ra các giải pháp về mặt toán học để tạo ra các “hệ thống công bằng hơn” thay vì đứng lên chống lại các cấu trúc xã hội, chính trị và kinh tế tiềm ẩn. Nói tóm lại, chúng ta sẽ xem xét cách trí tuệ nhân tạo sử dụng phân loại để mã hóa quyền lực như thế nào.

Kate Crawford/NXB Trẻ

Bình luận

SÁCH HAY