Lý do không nên tin tưởng và cung cấp dữ liệu cá nhân cho AI

21/10/2024 14:46 GMT+7

Các nhà nghiên cứu cảnh báo về lỗ hổng bảo mật cho phép hacker đánh cắp dữ liệu người dùng thông qua chatbot AI.

Theo BGR, các nhà nghiên cứu vừa phát hiện một lỗ hổng bảo mật nghiêm trọng trên chatbot AI (trí tuệ nhân tạo), cho phép tin tặc dễ dàng đánh cắp dữ liệu cá nhân của người dùng.

Chatbot AI có thể bị 'dụ dỗ' bằng câu lệnh độc hại

Theo đó, kẻ tấn công có thể lợi dụng lỗ hổng này bằng cách 'cài cắm' những lệnh yêu cầu (prompt) độc hại vào chatbot. Khi người dùng sử dụng những câu lệnh này, chatbot sẽ bị đánh lừa để tiết lộ thông tin cá nhân như tên, số căn cước, thông tin thẻ tín dụng, địa chỉ email...

Lý do không nên tin tưởng và cung cấp dữ liệu cá nhân cho AI- Ảnh 1.

Chatbot AI có thể cung cấp các thông tin nhạy cảm chỉ với câu lệnh 'hack não'

ẢNH: CHỤP MÀN HÌNH TEISS

Các nhà nghiên cứu từ Đại học California, San Diego (UCSD - Mỹ) và Đại học Công nghệ Nanyang (Singapore) đã thành công trong việc khai thác lỗ hổng này trên chatbot LeChat của Mistral (Pháp) và ChatGLM (Trung Quốc). Mistral đã khắc phục lỗ hổng, trong khi các công ty khác đang nỗ lực ngăn chặn kiểu tấn công này.

Trước đó, một lỗ hổng tương tự cũng được phát hiện trên ứng dụng ChatGPT dành cho Mac.

Các chuyên gia khuyến cáo người dùng nên cẩn trọng khi sử dụng chatbot AI, hạn chế cung cấp thông tin cá nhân và tránh sử dụng các câu lệnh không rõ nguồn gốc. Trong tương lai, khi trí tuệ nhân tạo ngày càng phát triển, việc bảo vệ dữ liệu cá nhân trên các nền tảng AI sẽ trở nên quan trọng hơn bao giờ hết.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.