Chuyên gia cảnh báo nguy cơ về 'đạo đức trí tuệ nhân tạo' khi ‘máy học người’

0 Thanh Niên Online

Một số rủi ro tiềm ẩn hoặc vấn đề đạo đức đã được các nhà khoa học hàng đầu về trí tuệ nhân tạo nêu ra trong tọa đàm "Tương lai của trí tuệ nhân tạo".

Hôm nay 19.1, tại Hà Nội, Quỹ VinFuture tổ chức tọa đàm Khoa học vì cuộc sống. Một trong 2 phiên buổi sáng bàn về chủ đề tương lai của trí tuệ nhân tạo, trong đó vấn đề “đạo đức trí tuệ nhân tạo” được các nhà khoa học thảo luận sôi nổi.

Chủ trì cuộc tọa đàm chủ đề “Tương lai của trí tuệ nhân tạo” là TS Padmanabhan Anandan, nhà sáng lập AI Matters Advisors LLC và Chủ tịch Hội đồng Quản trị tại Telangana AI Mission (T-AIM).

Tham gia thảo luận có các chuyên gia hàng đầu thế giới về trí tuệ nhân tạo (AI), hoặc giáo sư trong các lĩnh vực liên quan của những đại học danh tiếng thế giới… Trong đó, GS Jennifer Tour Chayes (Đại học California, Berkeley, Mỹ) và TS Xuedong David Huang (Giám đốc Công nghệ, Tập đoàn Microsoft) tham gia trực tuyến. GS Vũ Hà Văn (Đại học Yale, Mỹ), GS Albert P. Pisano (Đại học California, San Diego, Mỹ), TS Bùi Hải Hưng (Giám đốc sáng lập VinAI) tham gia trực tiếp.

Chuyên gia cảnh báo nguy cơ về 'đạo đức trí tuệ nhân tạo' khi ‘máy học người’ - ảnh 1

Quang cảnh phiên tọa đàm chủ đề "Tương lai của trí tuệ nhân tạo"

Quý Hiên

Cảnh báo về “đạo đức trí tuệ nhân tạo”

Mở đầu phiên tọa đàm, TS Anandan đặt vấn đề về sự hiện diện đương nhiên của AI trong đời sống nhân loại ngày nay, tham gia vào mọi khía cạnh của cuộc sống từ sức khỏe, giáo dục, việc làm cho đến mua sắm, nghỉ dưỡng…, liệu các tiến bộ về AI có thực sự nâng cao chất lượng cuộc sống? AI sẽ góp phần tạo ra lợi thế cạnh tranh, xóa bỏ khoảng cách giữa các quốc gia như thế nào? Có vấn đề rủi ro tiềm ẩn hoặc khía cạnh đạo đức nào mà các nhà khoa học cần xem xét trong quá trình nghiên cứu, ứng dụng AI vào đời sống?

“Tôi mong muốn nhận được ý kiến của các nhà khoa học về tiến bộ của khoa học, sự công bằng trong tiếp cận, khả năng áp dụng trong cuộc sống và trách nhiệm của cộng đồng và công dân trong lĩnh vực trí tuệ nhân tạo”, TS Anandan bày tỏ.

Trong các thảo luận tiếp theo, GS Albert Pisano, Viện trưởng Viện Kỹ thuật Jacobs của Đại học California, San Diego (Mỹ), là người đầu tiên “lái” câu chuyện sang vấn đề “đạo đức AI”.

“Về lý thuyết, AI không gây nguy hại cho ai. Nhưng chẳng hạn trong một tình huống cụ thể, ví dụ về một quyết định đầu tư tài chính, trách nhiệm sẽ phải của một cá nhân cụ thể, AI được chỉ định thay mặt một cá nhân đó thì AI đóng vai trò thế nào? Rõ ràng, ở một khía cạnh nào đó, các thuật toán được viết ra là để AI làm việc thay mặt cho một ai đó cụ thể, chứ không thể là làm việc của hệ thống AI. Từ đó, AI sẽ làm việc vì lợi ích của cá nhân hoặc của tổ chức mà cá nhân đó đại diện. Nhưng dường như chúng ta chưa nhìn thấy sự công bằng trong câu chuyện này”, GS Pisano bày tỏ.

Chuyên gia cảnh báo nguy cơ về 'đạo đức trí tuệ nhân tạo' khi ‘máy học người’ - ảnh 2

Tọa đàm "Tương lai của trí tuệ nhân tạo" thu hút sự quan tâm của giới nghiên cứu về CNTT Việt Nam. Trong ảnh là PGS Huỳnh Thị Thanh Bình, một chuyên gia CNTT Trường đại học Bách khoa Hà Nội.

Thanh Lâm

Ngay lập tức, GS Jennifer Tour Chayes, Trưởng khoa Thông tin, Viện phó Trường Điện toán, khoa học xã dữ liệu và xã hội, Đại học California, Berkeley, Mỹ, đã bày tỏ sự đồng cảm với băn khoăn của GS Pisano.

“Ai đảm bảo trách nhiệm khi AI đưa ra quyết định? Phải suy nghĩ nhiều hơn về khía cạnh này. Ngay cả bây giờ, thời kỳ tiền kỹ thuật số - trí tuệ nhân tạo, chúng ta đã phải tạo một mạng lưới tin cậy lẫn nhau, để có niềm tin vào những việc ở đó chưa có sự hiện diện của chúng ta nhưng đã có ai đó quyết định thay chúng ta”, GS Chayes chia sẻ.

Nguy cơ khi “máy học người”

Theo GS Chayes, người tạo ra thuật toán của AI sẽ tạo ra một trường mặc định trong dữ liệu mà trong đó hàm chứa ý chí của cá nhân mình. Ví dụ, khi giao cho AI việc tuyển dụng nhân sự vào một vị trí trong công ty công nghệ, thuật toán của AI sẽ xây dựng một thang giá trị dựa vào trường mặc định đó, kết quả thực chất sẽ thể hiện đánh giá của người xây dựng thuật toán.

Hoặc ở Mỹ, thuật toán ngày càng được sử dụng nhiều trong việc phân bổ nguồn lực, cho y tế, cho giáo dục, cho phúc lợi xã hội. Ví dụ, xét 2 người cùng có một điều kiện tương đương nhau về bảo hiểm, trong đó một người da đen một người da trắng, nguy cơ là người da đen sẽ thiệt thòi do trong dữ liệu (thông tin) có trường mặc định phân biệt chủng tộc.

“Nếu không thận trọng thì AI sẽ thay vì hỗ trợ chúng ta lại khiến chúng ta đưa ra quyết định với một số thông tin đã bị phóng đại. Khi có thuật toán AI chúng ta cần phải đảm bảo tránh nguy cơ này”, GS Chayes cảnh báo.

GS Chayes còn kể lại một câu chuyện đã xảy ra vài năm ở Mỹ: có án tử hình đã được áp dụng trong một số trường hợp, do tòa sử dụng phần mềm xét xử mà việc kiểm soát dữ liệu được nhập vào hồ sơ thường khó khăn. Trong ứng dụng AI, người ta vẫn sử dụng một số phần mềm nằm ngoài phạm vi của ý định khoa học ban đầu của nhà khoa học.

“Chúng ta sẽ gặp những câu chuyện tương tự không chỉ ở Mỹ mà khắp nơi trên toàn thế giới. Cho nên, phải làm sao để AI đưa ra quyết định đúng?”, GS Chayes chia sẻ.

TS Anandan cũng đồng ý với cảnh báo trên: “Con người vốn có sẵn thiên lệch. Vậy điều này có ảnh hưởng tới AI khi con người viết ra AI? Chuyện gì sẽ xảy ra nếu rồi đây con người phụ thuộc vào quá nhiều vào AI? “Máy học người” trong khi không phải người lúc nào cũng hành xử tốt”.

AI cần bù đắp khiếm khuyết cố hữu của con người

GS Chayes tiếp tục bình luận: “Cần phải đưa ra thuật toán ít có tính thiên lệch cố hữu của con người, đặc biệt là trong lĩnh vực giáo dục. Làm sao tránh hành vi phi đạo đức, không công bằng, đảm bảo có sự công bằng hơn so với sự quyết định của con người, giúp mọi người khi sử dụng AI thì bù đắp được khiếm khuyết cố hữu thiếu công bằng của con người? Tôi mong muốn nhà khoa học phải có ý thức về điều này khi nghiên cứu “và ứng dụng AI”.

Theo GS Pisano, cần có những sự thận trọng nhất định để tạo ra việc vận hành xã hội được tốt đẹp hơn, trong đó có việc điều chỉnh một số mô hình AI khiếm khuyết, đặc biệt là khiếm khuyết về đạo đức. Cần có một hệ thống kiểm soát có vai trò như những phiên tòa, có bồi thẩm đoàn để chúng ta tin cậy, đưa ra đánh giá. AI phải có một quy trình, hình thức tích hợp nào đó để không có can thiệp của cá nhân.

TS Bùi Hải Hưng thì cho rằng ông khá lạc quan về vấn đề này. Dẫu sự thiên lệch cố hữu trong mỗi con người nhưng trong lĩnh vực AI các nhà khoa học đều nghĩ về sự công bằng khi xây dựng thuật toán. “Vấn đề không phải là thuật toán ra quyết định mà là con người”.

Ý kiến này được GS Chayes trả lời: “Không phải là tôi không lạc quan. Tôi đặt vấn đề là để chúng ta quan tâm đào tạo, huấn luyện con người sử dụng thuật toán thế nào để đạt tới công bằng. Vấn đề là phải nhận thức được nguy cơ”.

VIDEO ĐANG XEM NHIỀU

Đọc thêm