Những tiến bộ nhanh chóng trong trí tuệ nhân tạo (AI) - chẳng hạn như công cụ ChatGPT của công ty OpenAI - đang làm phức tạp thêm nỗ lực của các chính phủ trong việc đạt đồng thuận về luật điều chỉnh cho việc sử dụng công nghệ này.
Vậy các cơ quan quản lý của từng quốc gia cũng như các tổ chức quốc tế đang làm gì để điều chỉnh các công cụ AI?
Tại Mỹ, chính phủ liên bang đang trong quá trình thu thập ý kiến đóng góp về các quy định.
Người đứng đầu Ủy ban Thương mại Liên bang cho biết cơ quan này cam kết sử dụng các luật hiện hành để kiểm soát những mối nguy đến từ AI như giúp tăng cường sức mạnh cho các công ty thống trị cũng như tạo điều kiện mạnh mẽ cho gian lận.
Anh cho biết họ có kế hoạch phân chia trách nhiệm quản lý AI giữa các cơ quan quản lý nhân quyền, sức khỏe và an toàn cũng như cạnh tranh, thay vì tạo ra một cơ quan mới.
Phát biểu tại một hội nghị kinh doanh vào tháng 4, Thủ tướng Rishi Sunak cho biết các chính phủ cần “năng lực chủ quyền” đối với AI để quản lý rủi ro đối với an ninh quốc gia.
Vào tháng 4, cơ quan quản lý không gian mạng của Trung Quốc đã công bố các biện pháp dự thảo để quản lý các dịch vụ AI tạo sinh.
Chính phủ muốn các công ty nộp đánh giá bảo mật trước khi giới thiệu các dịch vụ này cho công chúng. Đồng thời, cơ quan quản lý công nghệ thông tin và kinh tế của nước này cho biết Bắc Kinh sẽ hỗ trợ các doanh nghiệp hàng đầu trong việc xây dựng các mô hình AI có thể thách thức ChatGPT.
Trong khi đó, Liên minh châu Âu (EU) đang xem xét các quy tắc mới sẽ củng cố các quy định về phát triển và sử dụng AI. Nếu được thông qua, Đạo luật AI của châu Âu sẽ trở thành đạo luật toàn diện đầu tiên trên thế giới điều chỉnh công nghệ này.
Bình luận (0)