Máy học đang mang đến những lợi ích thiết thực cho nỗ lực nghiên cứu khoa học, nhưng cũng có thể trở thành công cụ nguy hiểm nếu rơi vào tay kẻ xấu |
viện công nghệ MASSACHUSETTS |
Collaborations Pharmaceuticals thường sử dụng mô hình MegaSyn để hỗ trợ tạo ra các dòng thuốc điều trị tiềm năng. Trong các điều kiện bình thường, MegaSyn (vận hành dựa trên công nghệ trí thông minh nhân tạo) được nạp lệnh để loại bỏ các phân tử độc hại trước khi các nhà khoa học tiến hành tổng hợp và điều chế thuốc mới.
Để thử tạo ra vũ khí hóa học tiềm năng, hãng bổ sung các kho cơ sở dữ liệu về chất độc, thay đổi mệnh lệnh và yêu cầu AI tổng hợp thành phân tử độc hại, thay vì loại bỏ chúng như bình thường.
Trong số 40.000 hợp chất, tất nhiên vẫn có những kết quả thất bại nếu áp dụng trên thực tế. Tuy nhiên, AI tự tạo ra một số phân tử chết chóc (đã được chứng minh hiệu quả) dù chúng không xuất hiện trên cơ sở dữ liệu ban đầu.
Trả lời phỏng vấn trang The Verge, tác giả chính Fabio Urbina của Collaborations Pharmaceuticals cho hay công ty của ông không có ý định tổng hợp hóa chất nhằm xác minh hiệu quả của cuộc thí nghiệm.
Mục đích của họ là nhằm cho thấy mức độ tác hại một khi có người lạm dụng kỹ thuật AI cho việc này.
Nhà khoa học Urbina giải thích rằng kẻ xấu có thể chỉ cần một bộ cơ sở dữ liệu chất độc (có nhiều trên mạng), đồng thời tiếp cận thuật toán AI nguồn mở và kiến thức về máy học để theo đuổi ý đồ của mình.
May mắn là AI chỉ tạo ra các phân tử ảo, và phải có ai đó tiến hành tổng hợp chúng trên thực tế. Tuy nhiên, ông Urbina cảnh báo rằng điều này không quá khó như nhiều người vẫn tưởng.
Bình luận (0)