5 quy tắc an toàn cho sự phát triển trí thông minh nhân tạo của Google

25/06/2016 08:30 GMT+7

Google đang có những nỗ lực rất lớn vào ngành công nghiệp trí thông minh nhân tạo (AI), vì vậy công ty đặt ra những quy tắc riêng để đảm bảo sự an toàn trong tương lai với công nghệ này.

Theo PhoneArena, quy tắc an toàn của Google được phát triển dựa trên sự hợp tác của công ty với những đối tác OpenAI, Đại học Stanford và Đại học California.
- Tránh tác dụng tiêu cực: Mục tiêu với những quy tắc mà Google đưa ra là nhằm đảm bảo rằng một hệ thống AI sẽ không làm phiền môi trường của nó theo hướng tiêu cực, ví dụ robot dọn dẹp không làm vỡ một chiếc bình.
- Tránh gian lận để thưởng: AI cần phải hoàn thành các tác vụ được giao một cách đầy đủ thay vì gian lận đi theo đường vòng. Ví dụ, robot dọn dẹp làm sạch một thứ mà nó không nhận biết là bụi để giấu những chỗ dơ bẩn khác.
- Dễ dàng phát triển: Chúng ta cần đảm bảo các hệ thống AI hoạt động một cách có hiệu quả. Ví dụ, AI sẽ không cần phải nhận các dữ liệu đầu vào hay phản hồi một cách thường xuyên chỉ để làm việc một cách có hiệu quả hơn.
- Đảm bảo an toàn: Vấn đề an toàn luôn được đặt lên hàng đầu đối với các hệ thống AI, đảm bảo chúng không thực hiện những công việc tiêu cực, không làm hư hại chính nó và môi trường xung quanh. Ví dụ, một robot lau chùi đảm bảo không đưa khăn lau ướt vào ổ cắm điện.
- Chạy tốt trong mọi điều kiện: Hệ thống AI cần có khả năng nhận diện và hoạt động một cách có hiệu quả trong các môi trường khác nhau. Ví dụ, công nghệ tự học của một robot nhà máy cũng cần phải an toàn luôn cả khi đặt làm việc tại văn phòng.
Nhìn chung, những quy tắc trên của Google được vạch ra nhằm đảm bảo cho các hệ thống AI trong tương lai được an toàn hơn bao giờ hết, đặc biệt trong bối cảnh ngày càng nhiều nền tảng AI đang bắt đầu được triển khai đến người tiêu dùng.
Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.