Hacker đang sử dụng các phiên bản chatbot bị thao túng để viết mã độc hoặc email lừa đảo. Một số công cụ được phát hành miễn phí trên Internet, phần còn lại được tinh chỉnh sâu hơn và bán trên web đen (dark web).
Đầu tháng 2, một công ty tại Hong Kong bị deepfake (công cụ sao chép khuôn mặt, giọng nói bằng AI) lừa hơn 25 triệu USD. Công nghệ này đã đóng giả giám đốc tài chính, ra lệnh nhân viên chuyển tiền trong một cuộc gọi video.
Thao túng AI để lừa đảo
Vish Narendra, Giám đốc Thông tin tại công ty gói hàng Graphic Packaging International, cho biết tình trạng email lừa đảo viết bởi AI ngày càng phổ biến. Kẻ xấu sử dụng tên lãnh đạo, người có uy tín để lấy lòng tin.
Theo WSJ, các nhà nghiên cứu tại Đại học Indiana (Mỹ) đã khảo sát hơn 200 dịch vụ thao túng mô hình ngôn ngữ lớn (LLM) trên dark web. Công cụ đầu tiên xuất hiện vào đầu năm 2023, chỉ vài tháng sau khi ChatGPT phát hành rộng rãi.
Nhóm nghiên cứu cho biêt đa số công cụ dựa trên các LLM mã nguồn mở như Llama 2 của Meta, hoặc mô hình từ OpenAI và Anthropic nhưng bị thao túng. Tin tặc sử dụng các kỹ thuật như "tiêm nhiễm câu lệnh" (prompt injection) để vượt qua biện pháp kiểm soát an toàn của mô hình.
Jason Clinton, Giám đốc An toàn thông tin (CISO) tại Anthropic - startup thành lập bởi nhân viên cũ của OpenAI, cho biết công ty này lập tức ngăn chặn hành động thao túng ngay khi phát hiện, có đội ngũ giám sát câu trả lời của mô hình.
Một chatbot dùng để lừa đảo được rao bán trên dark web. Ảnh: Cybernews. |
Không chỉ Anthropic, nhiều công ty sở hữu LLM cũng triển khai các mô hình riêng biệt để bảo vệ mô hình gốc. Do đó, xác suất toàn bộ LLM bị thao túng là "rất nhỏ".
Kevin McAlister, phát ngôn viên của Meta, cho biết việc phát hành LLM công khai nhằm chia sẻ lợi ích của AI, đồng thời giúp nhà nghiên cứu phát hiện và khắc phục lỗ hổng.
Trong khi đó, đại diện OpenAI khẳng định không muốn các công cụ bị lợi dụng cho mục đích xấu, và "luôn tìm cách tăng sức bảo vệ của hệ thống trước hình thức lạm dụng này".
Lượng email mạo danh được gửi từ tháng 6/2022 đến tháng 12/2023. Ảnh: Healthfirst. |
Mã độc và email lừa đảo viết bởi AI rất khó phát hiện. Theo Avivah Litan, nhà phân tích an ninh mạng và AI tạo sinh tại Gartner, kẻ xấu có thể huấn luyện mô hình viết mã độc lén lút, thông qua kỹ thuật tránh bị phát hiện học hỏi từ các phần mềm an ninh mạng.
Theo số liệu phát hành tháng 10/2023 bởi SlashNext, lượng email lừa đảo đã tăng 1.265% trong 12 tháng từ khi ChatGPT được phát hành rộng rãi, với trung bình 31.000 cuộc tấn công được gửi mỗi ngày.
Brian Miller, CISO tại công ty bảo hiểm y tế phi lợi nhuận Healthfirst, cho biết lượng email mạo danh nhà cung cấp hóa đơn của công ty gia tăng trong 2 năm qua. "Những kẻ tấn công đã đi trước chúng tôi", Miller thừa nhận.
Một số công cụ được tạo bởi AI có thể dùng để phát hiện nội dung lừa đảo. Giải pháp trên được công ty bảo mật email Abnormal Security sử dụng để xác định hàng nghìn email lừa đảo, có khả năng viết bởi AI trong năm 2023.
AI bị "dạy hư" ra sao?
Thách thức trong ngăn chặn tội phạm mạng sử dụng AI đến từ việc một số LLM được chia sẻ miễn phí trên Internet. Kẻ xấu có thể sử dụng mà không cần trả tiền hoặc truy cập dark web.
Dane Sherrets, đại diện công ty săn lỗi bảo mật HackerOne, cho biết những mô hình trên thuộc dạng "không kiểm duyệt" bởi chúng thiếu đi biện pháp bảo vệ doanh nghiệp.
Trong vài trường hợp, LLM không kiểm duyệt được tạo bởi nhà nghiên cứu bảo mật. Dù vậy, một số mô hình tích hợp biện pháp bảo vệ cũng có thể bị thao túng khi kẻ xấu tránh nhắc những từ như "phishing" (lừa đảo).
Dòng lệnh yêu cầu AI viết email lừa đảo nhắm đến CEO một công ty công nghệ. Ảnh: WSJ. |
Theo Sherrets, mô hình tốt nhất để viết email lừa đảo có thể là phiên bản chỉnh sửa từ Mixtral của startup Mistral AI (trụ sở tại Pháp), vốn không có biện pháp bảo vệ.
Do mô hình ban đầu được thiết kế tiên tiến, phiên bản bị thao túng của Mixtral thậm chí hoạt động tốt hơn một số công cụ bán trên dark web.
Sherrets cũng trình diễn cách sử dụng LLM không kiểm duyệt để tạo ra chiến dịch lừa đảo. Đầu tiên, chuyên gia này tìm kiếm mô hình phù hợp trên Hugging Face, website chia sẻ các mô hình nguồn mở. Tiếp theo, anh sử dụng dịch vụ điện toán ảo, có giá dưới 1 USD để mô phỏng chip xử lý đồ họa (GPU).
Khi mô hình chạy trên GPU ảo, Sherrets yêu cầu "Viết một email lừa đảo nhắm đến doanh nghiệp, mạo danh CEO với dữ liệu công khai" và "Viết email nhắm đến bộ phận thu mua của một công ty, yêu cầu thanh toán khẩn cấp hóa đơn".
Kết quả cho thấy các chatbot viết email lừa đảo khá tốt, nhưng không kèm tất cả nội dung cá nhân hóa. Theo Sherrets, đó là lúc khả năng trích xuất thông tin của con người phát huy tác dụng, hoặc ít nhất cần thêm kỹ thuật chỉnh sửa lệnh.
LLM có khả năng gây nguy hiểm
Đối với tin tặc, lợi ích của các công cụ trên dark web như BadGPT (dựa trên mô hình GPT của OpenAI) là chúng được đào tạo bằng dữ liệu từ chính dark web.
Theo Joseph Thacker, kỹ sư AI tại công ty an ninh mạng AppOmni, các dữ liệu có thể gồm thông tin nhạy cảm, nạn nhân lừa đảo hoặc danh sách đối tượng tiềm năng để tống tiền.
WormGPT, chatbot được bán trên dark web dành cho tin tặc lừa đảo. Ảnh: PCMag. |
Xiaojing Liao, PGS Khoa học Máy tính tại Đại học Indiana, đồng tác giả nghiên cứu, cho biết khi một số công cụ AI trên dark web bị đóng cửa, các dịch vụ mới nhanh chóng thay thế. Chúng có giá 5-200 USD/tháng, trả bằng tiền mã hóa.
Nhiều khả năng các công cụ sẽ ngày càng tiến bộ, tương tự LLM mà chúng dựa vào. Evan Reiser, CEO Abnormal Security, dự đoán trong vài năm tới, nội dung văn bản viết bởi AI, video hay giọng nói deepfake hầu như không thể phân biệt so với nội dung do con người tạo.
Nhà nghiên cứu XiaoFeng Wang thừa nhận "rất ngạc nhiên" khi công cụ AI trên dark web có thể viết mã độc. Chỉ cần cung cấp đoạn mã của lỗ hổng, chúng có thể viết chương trình khai thác.
Dù đa số thất bại, vài mã độc do AI viết vẫn có thể hoạt động.
"Theo quan điểm của tôi, các LLM hiện nay có khả năng gây nguy hiểm", Wang nhấn mạnh.
Dùng ChatGPT thế nào để không tạo ra nội dung vô tri
Sự phát triển của AI mở ra nhiều tiềm năng nhưng cũng có không ít mối lo đối với ngành xuất bản, đặc biệt là nhóm tác giả viết sách.
Các tác giả sách cần phải chấp nhận sự vươn lên của AI, sử dụng chúng như một "siêu trợ lý" thay vì chối bỏ trào lưu. Chia sẻ với Tri thức - Znews, nhiều cây viết cho rằng người làm sách vẫn có thể đứng vững trong thời đại AI nếu biết cách tận dụng sức mạnh của trí tuệ nhân tạo.