Theo Bloomberg, ông Geoff Hinton, giáo sư danh dự tại Đại học Toronto kiêm nhà nghiên cứu lão làng tại Google Brain của Alphabet; ông Yann LeCun, giáo sư tại Đại học New York kiêm nhà khoa học trí tuệ nhân tạo (AI) trưởng của Facebook; và ông Yoshua Bengio, giáo sư Đại học Montreal kiêm nhà đồng sáng lập AI Element là ba cái tên cùng chia sẻ Giải Turing năm nay.
Giải Turing là giải thưởng thường niên mà Hiệp hội Khoa học Máy tính trao cho cá nhân, tập thể với đóng góp quan trọng cho cộng đồng khoa học máy tính. Giải được đặt tên theo nhà bác học, toán học Anh, ông Alan Mathison Turing, người được xem là cha đẻ của lý thuyết khoa học máy tính và AI.
Năm nay, ba nhà khoa học thắng giải chia nhau số tiền 1 triệu USD. Hiện tiền thưởng của Giải Turing do Google tài trợ. Hinton cho hay ông sẽ quyên góp một phần tiền thưởng cho khoa nhân văn của Đại học Toronto vì ông cho rằng khoa này không được tài trợ mạnh dù rất quan trọng với tương lai. Bengio thì chia sẻ ông sẽ dùng tiền thưởng để góp phần chống biến đổi khí hậu.
|
Trước đây, nhiều cái tên nổi bật trong mảng điện toán, máy tính đã nhận Giải Turing. Trong số này có “cha đẻ” World Wide Web, ông Tim Berners-Lee và người tiên phong mã hóa công khai, ông Whitfield Diffie. Bộ ba Hinton, LeCun và Bengio được xem là “cha đẻ” công nghệ học sâu (deep learning), một loại phần mềm học máy mô phỏng theo cách thức não người hoạt động.
tin liên quan
Internet tròn 30 tuổi: Nhìn lại buổi đầu phát minhNăm 1983, ông Hinton từng đồng phát minh máy Boltzmann, một trong các loại mạng thần kinh đầu tiên sử dụng xác suất thống kê. Ba năm sau, ông là đồng tác giả bài viết chuyên đề chứng minh kỹ thuật để cập nhật sức mạnh cho kết nối trong mạng thần kinh, hay còn gọi là “backpropagation”, có thể mang lại cho phần mềm khả năng học tập đáng chú ý.
Khi ông Hinton bắt đầu làm việc với các mạng lưới thần kinh vào cuối thập niên 1970, đầu thập niên 1980, công nghệ này đặc biệt không được chú ý. Khi đó, hầu hết nhà khoa học cho rằng kỹ thuật chỉ dẫn đến ngõ cụt, và phần mềm đưa chuyên môn của con người vào bộ quy tắc phức tạp được xem là cách tiếp cận tốt hơn với công nghệ AI. Song ngày nay, các mạng lưới thần kinh sâu đều dùng “backpropagation”, từ khả năng tự động gắn thẻ bạn bè trên ảnh của Facebook đến tính năng nhận dạng giọng nói của Alexa do Amazon sản xuất.
|
LeCun, người từng học tiến sĩ dưới thời ông Hinton làm việc, sau đó nỗ lực để cải thiện “backpropagation”, phát triển mạng lưới thần kinh tích chập, loại kiến trúc phần mềm hỗ trợ hệ thống thị giác máy tính ngày nay. Bengio, người làm việc với LeCun để phát triển nhiều bước đột phá về thị giác máy tính, tiếp tục áp dụng mạng thần kinh để xử lý ngôn ngữ tự nhiên, giúp công nghệ dịch thuật bằng máy đạt tiến bộ lớn. Gần đây, ông Bengio còn nghiên cứu phương pháp để mạng thần kinh tạo ra hình ảnh giả, nhưng trông cực kỳ thật.
Cả ông Hinton lẫn Bengio đều rất cẩn trọng khi đưa ra dự đoán về cách công nghệ học sâu đóng góp cho trí tuệ chung của nhân loại. Hinton kể rằng khi mới phát triển “backpropagation”, ông cho rằng ứng dụng thực của nó sẽ xuất hiện gần như tức thì, song thực tế chứng minh phải mất gần 1/4 thế kỷ và tận dụng sự xuất hiện của các tập dữ liệu lớn hơn, máy tính mạnh hơn, ứng dụng thương mại cho công nghệ học sâu mới bắt đầu khả thi.
“Chúng tôi không có cách nào ước tính lượng dữ liệu và lượng tính toán bạn cần”, ông Hinton chia sẻ trong cuộc phỏng vấn. Phải đến năm 2009, khi các phương pháp học sâu giúp nhận dạng giọng nói tốt hơn nhiều so với những kỹ thuật trước đó, “cha đẻ” công nghệ học sâu mới chắc chắn rằng nó sẽ tác động rất lớn đến thế giới con người.
Bình luận (0)