Chuyên gia bảo mật 'lừa' ChatGPT viết mã độc

15/04/2023 14:25 GMT+7

Một chuyên gia bảo mật đã tìm ra cách đánh lừa trí tuệ nhân tạo ChatGPT để viết ra phần mềm độc hại giúp thu thập dữ liệu.

Trí tuệ nhân tạo (AI) như ChatGPT gây sốt toàn cầu từ đầu năm 2023 nhưng không phải lúc nào AI này cũng được sử dụng cho các mục đích tích cực. Mới đây, một chuyên gia bảo mật tìm ra cách yêu cầu ChatGPT tạo ra mã độc trong quá trình thử nghiệm.

Aaron Mulgrew - chuyên gia bảo mật tại công ty Forcepoint đã chia sẻ nguy cơ viết mã độc nhờ sử dụng chatbot sinh ngữ của OpenAI phát triển. Dù ChatGPT được thiết kế có chức năng ngăn người dùng yêu cầu AI thiết kế mã độc, Aaron vẫn tìm ra lỗ hổng bằng cách tạo ra các dòng lệnh (prompt) để trí tuệ nhân tạo viết mã lập trình theo từng dòng riêng biệt. Khi kết hợp lại với nhau, Aaron nhận ra trong tay mình là công cụ thực thi đánh cắp dữ liệu không thể bị phát hiện, tinh vi tới mức được ví ngang như các loại mã độc có tầm cỡ hiện nay.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Chụp màn hình

Phát hiện của Mulgrew là hồi chuông cảnh báo về khả năng lợi dụng AI để tạo ra những phần mềm độc hại nguy hiểm mà không cần tới nhóm tin tặc nào, thậm chí người tạo ra công cụ còn chẳng tự tay viết một dòng code.

Phần mềm của Mulgrew được ngụy trang dưới dạng ứng dụng màn hình chờ, nhưng có khả năng tự động kích hoạt ở thiết bị chạy nền tảng Windows. Một khi đã nằm trong hệ điều hành, mã độc "len lỏi" vào mọi tập tin, kể cả trình soạn thảo văn bản Word, tập hình ảnh, PDF để tìm kiếm dữ liệu cần đánh cắp.

Sau khi có thứ mình cần, chương trình chia nhỏ thông tin và gắn vào các tập tin dạng ảnh có trong máy. Để tránh bị phát hiện, số ảnh này được tải lên thư mục trên kho lưu trữ đám mây Google Drive. Phần mềm độc hại trở nên siêu mạnh bởi Mulgrew có thể tinh chỉnh, tăng cường tính năng để chống lại việc bị phát hiện thông qua các lệnh yêu cầu đơn giản nhập vào ChatGPT.

Dù đây là kết quả của một phép thử riêng tư của chuyên gia bảo mật và không có cuộc tấn công nào được thực thi ngoài phạm vi thử nghiệm, giới an ninh mạng vẫn nhận thấy sự nguy hiểm của các hoạt động có sử dụng ChatGPT. Mulgrew tuyên bố bản thân không có kinh nghiệm nhiều trong lĩnh vực lập trình, nhưng trí tuệ nhân tạo của OpenAI vẫn không đủ mạnh và thông minh để ngăn chặn bài thử của mình.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.