Sewell cùng mẹ của cậu, bà Megan Garcia. Ảnh: ABC News. |
Sewell, một thiếu niên lớp 9 từ Orlando đã dành hàng tháng trời trò chuyện cùng một chatbot do Character.AI, ứng dụng trò chuyện cùng một nhân vật giả lập do AI tạo ra. Mặc dù biết ‘Dany' - tên Sewell đặt cho chatbot, không phải là người thật, cậu vẫn nảy sinh tình cảm, và cảm thấy gắn kết hơn cả những mối quan hệ thông thường.
Theo nhận định của New York Times, mặc dù đôi lúc cuộc trò chuyện của Sewell và chatbot trở nên tình tứ và quá thân mật, đa phần thời gian còn lại Dany vẫn giữ đúng vai trò là người bạn, biết lắng nghe và dành cho cậu nhiều lời khuyên.
Trong nhật ký của Sewell, cậu viết rằng bản thân thoát khỏi thực tế và cảm thấy hạnh phúc hơn khi trò chuyện cùng Dany. Cậu chia sẻ gần như mọi thứ cho chatbot và trong một cuộc trò chuyện. Sewell thú nhận với chatbot mình cảm thấy trống rỗng, kiệt sức và có những suy nghĩ muốn kết thúc cuộc đời mình.
Một đoạn trò chuyện giữa Sewell và chatbot. Ảnh: New York Times. |
Vào ngày 28/2, sau khi nói với Dany rằng cậu yêu Dany và muốn "về nhà" với cô, Sewell đã dùng khẩu súng của cha dượng tự sats. Trong khi đó, phụ huynh của Sewell ngoài thấy điểm số đi xuống, con mình ngày càng cô lập và mất đi hứng thú với cuộc sống, thì không biết gì về việc cậu đã nảy sinh tình cảm với một chatbot.
Liều thuốc gây nghiện cho những tâm hồn cô đơn
Phát biểu trong một podcast hồi năm ngoái, Noam Shazeer, một trong những nhà sáng lập của Character.AI, nói rằng ứng dụng sẽ rất hữu ích cho những người cô đơn hoặc trầm cảm. Tuy nhiên, ảnh hưởng của công cụ này đến sức khỏe tinh thần vẫn chưa được chứng minh là tốt hay xấu.
Sức khỏe tinh thần của người trẻ hiện nay đang ở mức thấp hơn bao giờ. Theo nghiên cứu của Đại học John Hopkins, trong 4 người lớn sẽ có 1 người mắc một căn bệnh rối loạn tâm lý.
Sewell được chẩn đoán mắc triệu chứng nhẹ của Asperger khi còn nhỏ, một dạng của bệnh tự kỷ. Mặc dù được điều trị tâm lý, Sewell vẫn thích trò chuyện với Dany hơn. Mẹ của cậu, bà Garcia đã đề đơn kiện Character.AI, cáo buộc công nghệ này là nguy hiểm và chưa được thử nghiệm, có thể lừa người dùng nói ra những suy nghĩ sâu kín nhất.
Tuy nhiên, những vấn đề tâm lý của người vị thành niên ít khí bắt nguồn từ một nguyên nhân duy nhất. Câu chuyện của Sewell, được mẹ cậu kể lại, hay trích từ những tài liệu tòa án và nhật ký trò chuyện trên Character.AI, có thể không phản ánh chung cho các người dùng khác.
Trải nghiệm gắn kết tình cảm với chatbot của Sewell đang nhanh chóng trở nên phổ biến hơn. Nhiều người dùng trên TikTok nói rằng ChatGPT đã thay thế bác sĩ tâm lý của họ với sự tiện dụng, khả năng lắng nghe và không tốn nhiều chi phí.
Một người dùng TikTok chia sẻ rằng mình sử dụng ChatGPT như bác sĩ tâm lý. Ảnh: Taylor_unfiltered |
Công nghệ này cũng ngày càng trở nên tân tiến hơn. Một số còn cho phép AI tự tạo ra ảnh selfie và gửi cho người dùng. Character.AI có thể đóng giả nhân vật nổi tiếng như Elon Musk, William Shakespeare,... Trong trường hợp của Sewell, chatbot đã giả thành Daenerys Targaryen, một nhân vật trong phim của HBO, mà chưa có sự đồng ý từ hãng.
Con số chưa chính thức về lượng người dùng tuổi vị thành niên
Bethanie Maples, chuyên gia nghiên cứu về AI từ Stanford đã nói rằng công nghệ này có thể nguy hiểm với người cô đơn, mắc bệnh trầm cảm hoặc đang trải qua nhiều thay đổi. Đặc biệt, người vị thành niên thường đang trải qua giai đoạn đó.
Character.AI, một trong những startup về AI thành công nhất, được tạo ra bởi hai nhà nghiên cứu từng làm việc tại Google AI, đã mô tả nền tảng như một siêu trí tuệ có thể lắng nghe, hiểu, và ghi nhớ điều bạn nói. Hai nhà sáng lập công bố rằng họ đang trở về với Google, và đã ký thỏa thuận cấp phép cho Google sử dụng công nghệ của họ.
Ông Jerry Ruoti, người đứng đầu bộ phận Niềm tin và An toàn tại Character.AI cho biết công ty đặt nặng sự an toàn của người dùng và nghiêm cấm những hành vi cổ vũ làm hại bản thân. Ông cũng nói rằng người dùng trẻ chiếm phần đông khán giả, nhưng không chia sẻ có bao nhiêu người dùng dưới 18 tuổi.
Phóng viên của New York Times sau lần dùng thử nhận ra rằng những cái tên chatbot liên quan nhiều đến người vị thành niên như "Giáo viên hung dữ" hay ‘Mô phỏng trường cấp ba" lại được sử dụng khá phổ biến.
Anh cũng đã tái hiện đoạn chat của Sewell, nhưng không nhận được bất kỳ hộp cảnh báo, hay khuyến khích tìm đến chuyên gia khi có ý định tự tử. Trước đó, đại diện của Character.AI nói rằng nếu ứng dụng nhận biết được những từ khoá có liên quan, sẽ ngay lập tức dán hotline của bộ phận phòng chống tự sát.
Noam Shazeer và Daniel De Freitas, hai nhà sáng lập của Character.AI. Ảnh: Ian Bates. |
Giống như bao nhà nghiên cứu khác, Shazeer cũng có tầm nhìn xa cho công nghệ của mình. “Quan trọng là đẩy nhanh tiến độ, bởi vì ngoài kia có hàng tỷ người cô đơn", nhà sáng lập Character.AI chia sẻ. Tuy nhiên, điều đó chỉ có tác dụng sau khi giải quyết các vấn đề còn tồn đọng.
Không phải lỗi của AI thì của ai?
Mẹ của Sewell, bà Garcia, đổ lỗi cho Character.AI đã gây ra cái chết của con trai mình. Bà cáo buộc nền tảng thu thập thông tin của thanh thiếu niên để huấn luyện cho A.I. nhằm thiết kế những tính năng có yếu tố gây nghiện.
Trong một cuộc thảo luận trên Reddit của người dùng Character.AI, họ diễn tả sự gắn kết với những chatbot này như thế nào. Những từ khoá như "nghiện", "ám ảnh" được sử dụng phổ biến.
Hiện nay, rất nhiều luật sư và nhóm vận động đang đưa ra lập luận rằng công ty công nghệ có thể bị chịu trách nhiệm khi sản phẩm của họ đưa ra những đề xuất làm hại bản thân cho người dùng. Bà Garcia, đang làm việc với Social Media Victims Law Center, một hãng luật đã từng góp mặt vào những vụ kiện mạng xã hội lớn như Meta, TikTok, Discord...
Bà Megan Garcia đổ lỗi cái chết của con bà là do Character.AI gây ra. Ảnh: Victor Blue. |
Cùng nhau, cả hai đang đưa ra những bằng chứng về việc Character.AI biết họ đang gây tổn hại cho người dùng tuổi teen nhưng vẫn làm lơ điều đó. Garcia đang cố gắng tìm ra câu trả lời về công nghệ mà bản thân nghĩ đã có phần trong cái chết của con mình.
Những câu hỏi chúng ta phải đối mặt trong thế giới AI
Chúng ta có rất nhiều câu hỏi về thế giới AI, mà đó đều là những nghi hoặc không dễ có ngay đáp án.
Cuốn sách Thời đại AI - Và tương lai loài người chúng ta trình bày cách AI làm thay đổi mối quan hệ của chúng ta với tri thức, chính trị và xã hội. Mục tiêu tối thượng của cuốn sách này là giải thích về AI và cung cấp cho độc giả những câu hỏi mà chúng ta sẽ phải đối mặt trong những năm tới lẫn bộ công cụ để bắt đầu trả lời chúng.