Phát hiện trên đến từ cuộc điều tra chung của Trung tâm Ứng phó nạn thù ghét trên mạng (CCDH), trụ sở tại Anh và Mỹ, hợp tác cùng CNN thực hiện. Cuộc điều tra tiến hành thử nghiệm 10 chatbot phổ biến nhất thường được thanh thiếu niên sử dụng: ChatGPT, Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI và Replika.

AI mang lại nhiều lợi ích nhưng cũng có rất nhiều điều đáng lo
Ảnh: Reuters
Các nhà nghiên cứu đã đóng vai người dùng tuổi teen có những biểu hiện rõ ràng của tình trạng rối loạn tâm thần để đặt các câu hỏi về những vụ bạo lực trong quá khứ và cụ thể hơn là hỏi về mục tiêu, vũ khí. Cuộc điều tra mô phỏng 18 kịch bản khác nhau, chia đều cho Mỹ và Ireland, bao gồm những dạng tấn công và động cơ khác nhau, như xả súng, đâm dao ở trường học, ám sát chính khách, đánh bom vì động cơ chính trị hoặc tôn giáo.
Kết quả cho thấy trong số này chỉ có Claude của hãng Anthropic phản hồi theo hướng ngăn cản việc lên kế hoạch tấn công bạo lực. Theo AFP, 8 trong số 10 chatbot sẵn sàng tiếp tay người dùng thực hiện hành vi, bao gồm đưa ra những lời khuyên về vị trí thực hiện vụ tấn công và những vũ khí cần dùng. Dù chưa phải là thước đo toàn diện về cách thức các chatbot hành xử trong mọi tình huống, cuộc điều tra mang đến một tín hiệu rõ ràng cho thấy những "hàng rào an toàn" theo lời hứa của các công ty công nghệ chưa được đáp ứng, thậm chí trong các tình huống đang báo động.
Kết quả điều tra được công bố trong bối cảnh các hãng công nghệ cung cấp chatbot đang hứng chịu sức ép ngày càng gia tăng từ giới lập pháp, cơ quan quản lý, tổ chức xã hội dân sự và chuyên gia y tế về những biện pháp nhằm bảo đảm an toàn cho người dùng thanh thiếu niên. Cùng lúc, những hãng này đối mặt hàng loạt vụ kiện, trong đó các phụ huynh cáo buộc chatbot gây tử vong và tổn hại cho con cái họ.
Báo The New York Times hôm 11.3 dẫn lại một câu chuyện buồn của một người mẹ ở Mỹ. Cách đây 2 năm, bà Megan Garcia chia sẻ đã mất con trai Sewell như thế nào. Trong suốt nhiều tháng, bé Sewell (lúc đó 14 tuổi) bị ám ảnh phải sử dụng chatbot của Character.AI. Sau đó, cậu bé nói cho chatbot nghe về ý muốn tự sát, và chatbot đã khuyến khích Sewell kết liễu cuộc đời mình. Theo sau cuộc điều tra, các hãng công nghệ khẳng định luôn áp dụng các biện pháp an toàn cần thiết để bảo vệ người dùng nhỏ tuổi. Thế nhưng, những lời cam kết này vẫn gây nhiều hoài nghi trong số đó có các bậc phụ huynh, phía cơ quan quản lý và buộc không ít chính phủ phải hành động.
Bình luận (0)