Bạn có thể chuyển sang phiên bản mobile rút gọn của Tri thức trực tuyến nếu mạng chậm. Đóng

'Thảm họa' Claude Code

Anthropic âm thầm xóa Claude Code khỏi gói Pro mà không thông báo trước, khiến giới lập trình viên phẫn nộ. Công ty sau đó xác nhận đây là thử nghiệm với khoảng 2% người dùng mới.

Claude Code bất ngờ bị xoá khỏi một số tài khoản Claude Pro. Ảnh: Bloomberg.

Ngày 22/4, trang giá dịch vụ của Anthropic bất ngờ thay đổi nội dung khi gói Pro 20 USD mỗi tháng không còn bao gồm Claude Code, công cụ lập trình AI của công ty. Thay đổi diễn ra mà không có thông báo trước tới người dùng.

Sự việc nhanh chóng lan rộng trên các diễn đàn lập trình viên và mạng xã hội. Nhiều người dùng gói Pro bày tỏ bức xúc vì họ đã đăng ký dịch vụ một phần dựa trên tính năng này. Số khác cho rằng Anthropic đang "khuyến khích" họ chuyển sang dùng các mô hình AI giá rẻ của Trung Quốc như Minimax, Qwen hay Kimi.

Trước làn sóng phản ứng, Amol Avasare, Giám đốc tăng trưởng của Anthropic, đăng bài giải thích trên X.

"Chúng tôi đang chạy thử nghiệm nhỏ với khoảng 2% người dùng mới đăng ký gói Pro. Những người đang dùng gói Pro và Max hiện tại không bị ảnh hưởng", ông cho biết.

Avasare thừa nhận cách truyền thông của Anthropic trong sự việc này chưa tốt và cam kết sẽ cải thiện. "Khi chúng tôi quyết định điều chỉnh gì đó ảnh hưởng đến người dùng hiện tại, các bạn sẽ được thông báo đầy đủ", ông Avasare viết.

Avasare cũng giải thích lý do căn bản dẫn đến thử nghiệm kể trên. Khi Anthropic ra mắt gói Max một năm trước, Claude Code chưa tồn tại. Các tác nhân AI chạy nhiều giờ liên tục cũng chưa phổ biến. Từ đó đến nay, mức độ sử dụng của mỗi người đăng ký tăng vọt sau khi Claude Opus 4.6 ra mắt và công cụ OpenClaw bùng nổ, kéo theo hàng triệu lập trình viên tạo các tác nhân AI chạy liên tục bằng mô hình Claude.

Vấn đề cốt lõi dường như là các gói đăng ký của Anthropic đang tính phí thấp hơn giá trị thực tế của lượng token tiêu thụ, đôi khi chênh lệch gấp 10 lần trở lên. Anthropic đã giới thiệu giới hạn sử dụng vào tháng trước để khuyến khích người dùng thao tác vào giờ thấp điểm, tương tự cách các công ty điện lực quản lý tiêu thụ điện. Thử nghiệm lần này cho thấy công ty đang tính đến các biện pháp hạn chế sử dụng mạnh hơn.

Điều đáng chú ý là sự thay đổi chưa được cập nhật đồng bộ trên toàn bộ hệ thống của Anthropic. Trang sản phẩm Claude Code vẫn ghi rằng gói Pro có quyền truy cập công cụ này.

"Sự thiếu nhất quán này làm dấy lên câu hỏi về khả năng quản lý sản phẩm và truyền thông nội bộ của Anthropic trong giai đoạn tăng trưởng nóng", tác giả Claburn của The Register viết.

Những câu hỏi chúng ta phải đối mặt trong thế giới AI

Chúng ta có rất nhiều câu hỏi về thế giới AI, mà đó đều là những nghi hoặc không dễ có ngay đáp án.

Cuốn sách Thời đại AI - Và tương lai loài người chúng ta trình bày cách AI làm thay đổi mối quan hệ của chúng ta với tri thức, chính trị và xã hội. Mục tiêu tối thượng của cuốn sách này là giải thích về AI và cung cấp cho độc giả những câu hỏi mà chúng ta sẽ phải đối mặt trong những năm tới lẫn bộ công cụ để bắt đầu trả lời chúng.

Claude lại gây chấn động

Mô hình AI mới Claude Mythos của Anthropic bị đánh giá quá nguy hiểm, chỉ hơn 40 công ty có quyền truy cập nhằm vá lỗ hổng bảo mật phần mềm toàn cầu.

Bộ Chiến tranh Mỹ dùng AI trong quyết định tấn công Iran

Quân đội Mỹ được cho đã dùng AI Claude của Anthropic để phân tích tình báo, xác định mục tiêu trong một cuộc tấn công vào Iran, vài giờ sau khi ông Trump ra lệnh cấm hệ thống này.

Bong bóng AI sắp vỡ?

Cơn sốt AI đẩy định giá OpenAI, Anthropic lên hàng trăm tỷ USD, nhưng các nhà đầu tư cảnh báo SPV đang thổi bùng rủi ro bong bóng và gian lận.

Minh Hoàng

Bạn có thể quan tâm