Tìm hiểu về ChatGPT cho người không rành công nghệ

Anh Quân
(ghi)
06/02/2023 08:43 GMT+7

Nội dung và lý giải được chia sẻ bởi chuyên gia công nghệ Nguyễn Hồng Phúc về những gì cơ bản nhất của trí tuệ nhân tạo (AI) mang tên ChatGPT.

ChatGPT là gì?

Theo chuyên gia công nghệ Nguyễn Hồng Phúc, để giải thích một cách đơn giản với đại chúng, trí tuệ nhân tạo ChatGPT hiện nay là một trang web để người dùng nói chuyện được mọi chủ đề với một chatbot (chương trình trả lời tự động) ảo. Mô hình bot này được công ty OpenAI, doanh nghiệp do tỉ phú Elon Musk đồng sáng lập từ năm 2015, đưa vào hoạt động với sứ mệnh "ngăn chặn sự nguy hiểm của AI".

ChatGPT đang trở thành xu hướng trong cộng động internet hiện nay.

ChatGPT đang trở thành xu hướng trong cộng động internet hiện nay

Chụp màn hình

ChatGPT liên tục được người dùng "dạy dỗ" thông qua các nội dung trò chuyện và chỉ sau thời gian ngắn người Việt quan tâm tới AI này, chương trình đã bắt đầu trả lời bằng tiếng Việt hết sức nhuần nhuyễn. Trước ChatGPT, người dùng đã quen thuộc với 2 chatbot trong vai trò trợ lý ảo là Siri (Apple) và Assistant (Google). Ngoài ra có thể kể thêm đến Cortana (Microsoft), Alexa (Amazon) nhưng hầu như mọi người quên mất chúng vì cách nói chuyện dễ gây nhàm chán, hoạt động theo hình thức "chatbot command", tức hiểu khẩu lệnh và thực hiện theo, ít có sự đối đáp, vận dụng ngữ cảnh.

ChatGPT ra đời thế nào?

ChatGPT là một chương trình máy tính trí thông minh nhân tạo, giới chuyên môn thường gọi gọi là Model AI (mô hình dữ liệu trí thông minh nhân tạo), nhưng thực chất vẫn là dữ liệu dạng số chạy trên máy tính, do đó cách gọi "chương trình" không sai. "Model AI" gồm 2 phần: Model (Mô hình dữ liệu) và AI (Trí thông minh nhân tạo - Artificial Intelligence), nghĩa là "Trí thông minh đến từ dữ liệu", từ đó cho thấy càng nhiều dữ liệu thì AI càng phát sinh sự thông minh.

Quá trình tạo nên Model AI gồm những bước như thu thập dữ liệu, chọn lọc dữ liệu, gắn nhãn dữ liệu để huấn luyện. Việc dạy AI cơ bản cần tạo tập dữ liệu để chương trình ghi nhớ thông tin. Khi người dùng đặt những câu hỏi tương ứng, AI sẽ "nhớ" lại kiến thức đã được dạy và trả lời giống với những gì đã lưu.

Phương pháp tạo ra AI cơ bản trên đã được nghiên cứu và hình thành từ khoảng năm 1950 nhưng tới hơn 70 năm sau vẫn chưa có nhiều đột phá, cho tới khi ChatGPT ra mắt công chúng, thể hiện sự thông minh "đáng kinh ngạc". Trên thực tế, hàng chục năm qua AI bị chuyên biệt hóa vào các công việc cụ thể như hỗ trợ làm máy bay, mô phỏng chiến đấu, AI trong game... nhưng hầu như không có công ty lớn nào đầu tư cho AI mảng ngôn ngữ. Mãi tới 2017 mới có một sự đột phá về công nghệ khiến cho việc huấn luyện AI hiệu quả hơn theo hướng đột biến, nhất là AI ngôn ngữ.

Ngôn ngữ, cụ thể là chữ viết, là thành tựu kiến tạo nên văn minh loài người. Con người chứa kiến thức của mình trong chữ viết nên hiểu chữ viết là hiểu được kiến thức của loài người. Đây chính là điểm cốt lõi tạo nên AI ngôn ngữ. Trước 2017 con người rất khó khăn để khiến máy tính hiểu được ý nghĩa của một câu có nghĩa.

Đột phá của năm 2017

Tháng 8.2017 các nhà khoa học tại Google Brain - đơn vị nghiên cứu chuyên sâu về AI của Google từ 2011 - đã phát minh ra một thuật toán đặt tên Transformer. Thuật toán mới đã mang tới đột phá trong việc huấn luyện AI ngôn ngữ. Trước đây, loài người muốn dạy AI phải tạo tập dữ liệu huấn luyện sẵn theo cặp Câu hỏi - Trả lời (Labeling Data) như đã đề cập, và máy móc thực chất chỉ ghi nhớ cặp đối đáp mà không "hiểu" được ý nghĩa của câu văn đó, tức "học vẹt" không phải "học hiểu".

Sau năm 2017, các nhà khoa học chỉ việc đổ dữ liệu chữ vào càng nhiều càng tốt, máy tính sẽ tự tìm hiểu nội dung đưa vào có nghĩa là gì, thay vì con người phải chỉ cho trí tuệ nhân tạo thấy ý nghĩa. Nguyên văn trong tài liệu công bố về Transformer của Google có đoạn: "...with transformers, computers can see the same patterns humans see" (tạm dịch: "nhờ có transfomer, máy tính có thể hiểu được ngữ cảnh như con người").

Google công khai tài liệu chi tiết về thuật toán Transformer, đồng thời cung cấp quyền sử dụng mở (Open-Source) đối với thuật toán này, nhờ đó toàn bộ giới khoa học làm AI được hưởng lợi từ phát minh của "gã khổng lồ tìm kiếm", trong đó có OpenAI - một công ty thành lập năm 2015 và không có thành tựu gì nổi bật cho tới sau 2017.

Giao diện thân thiện người dùng giúp ChatGPT dễ dàng được công chúng chấp nhận

Giao diện thân thiện người dùng giúp ChatGPT dễ dàng được công chúng chấp nhận

Chụp màn hình

Vài tháng sau sự kiện trên, những AI ngôn ngữ đầu tiên dựa trên thuật toán mới này ồ ạt ra đời. Tháng 1.2018, OpenAI "chào sân" trí tuệ nhân tạo đầu tiên dựa trên Transformer mang tên GPT-1 nhờ khả năng ứng dụng rất nhanh, có thể nói nhanh hơn cả chính Google. GPT viết tắt của Generative Pre-trained Transformer (chương trình Sinh Chữ đã được huấn luyện theo phương pháp Transformer).

GPT đời đầu được tạo ra với mục đích chính là "Sinh Chữ", hiểu đơn giản người dùng sẽ chơi trò nối từ với trí tuệ nhân tạo. Khi họ viết 1 câu, AI sẽ dựa trên kiến thức đang lưu trữ trong bộ nhớ mà "sinh ra chữ" nối tiếp vào nội dung người dùng viết. Ví dụ: con người nhập văn bản "Việt Nam là", ChatGPT sẽ tiếp: "Việt Nam là một nước nằm tại khu vực Đông Nam Á...".

Đây chính là thứ trông có vẻ "vi diệu" của việc người dùng chat một câu với ChatGPT và AI nói lại được một câu. Thực chất AI không trả lời người dùng mà đang chơi nối từ bằng cách "sinh ra chữ" để nối tiếp ý nghĩa của câu mà con người nhập vào bảng trò chuyện.

Các thế hệ GPT và thước đo độ thông minh của AI

GPT-1 chính là đời đầu của ChatGPT. GPT-1 là một AI khá nhỏ, cả về kích thước cũng như độ phức tạp. Trong thế giới AI ngôn ngữ, các nhà khoa học đo độ phức tạp - tương ứng với mức độ thông minh của AI - bằng đơn vị là Hyper Parameters - Siêu tham số, nôm na AI hiểu văn bản được dùng trong huấn luyện sâu tới bao nhiêu tầng ý nghĩa.

Để huấn luyện GPT, các khoa học gia tại OpenAI thu thập lượng lớn văn bản chữ viết của con người, đa phần từ Wikipedia, Bách khoa toàn thư, các tờ báo lớn và công khai... với khối lượng có thể lên tới vài trăm triệu văn bản. Họ thu thập xong sẽ "làm sạch", chọn lọc nội dung trước khi đưa cho AI đọc và bắt đọc rất nhiều lần. Mỗi lần đọc khối dữ liệu, AI lại "nhìn thấy" một tầng ý nghĩa đằng sau những con chữ, càng nhiều lần thì càng nhiều tầng ý nghĩa.

Càng nhiều tầng ý nghĩa được AI nhận ra thì trí tuệ nhân tạo càng nhiều Parameters (tham số). Ví dụ, GPT-1 có khoảng 117 triệu Parameters, GPT-2 (ra đời năm 2019) đạt 1,5 tỉ Parameters và tới GPT-3 (2020) đạt đến 175 tỉ Parameters. Trong đó, GPT-3 chính là lõi của ChatGPT mà con người biết đến hiện nay.

Về GPT-1 và GPT-2, hai AI này hầu như không được công chúng biết tới vì hiệu quả sinh chữ chưa thực sự ấn tượng, mức độ hiểu sâu các tầng ý nghĩa đằng sau chữ viết của loài người vẫn còn nông. Ở thời điểm đó, con người vẫn chưa biết sâu bao nhiêu thì gọi là "sâu và hiệu quả" nên các kỹ sư tại OpenAI lại miệt mài dạy cho GPT đào sâu thêm nhiều tầng nữa, cho tới tháng 5.2020 thì đào tới 175 tỉ Parameters, kết quả "Sinh chữ" lúc này khiến chính họ cũng thấy bùng nổ khi khả năng chơi nối từ với độ thông minh, hiểu biết ngang bằng một đứa trẻ 10 tuổi về mặt ngôn ngữ. Họ quyết định đặt tên AI này là GPT-3.

GPT-3 ra đời đáng lẽ có chung số phận như nhiều AI khác sau năm 2017 (khá nhiều công ty lớn đầu tư cho AI như Facebook, Google, IBM, Microsoft cũng tạo ra các trí tuệ nhân tạo ngôn ngữ như GPT): chúng đều bị "giam" trong phòng nghiên cứu và tuyệt đối không thể tiếp cận tự do bởi công chúng (người thường).

Lý do AI bị cách ly nghiêm ngặt

Các AI được huấn luyện đạt tới mức độ hiểu sâu sắc ngôn ngữ chữ viết của con người, dẫn tới một vấn đề rất nghiêm trọng mà đến hiện tại chưa một nhà khoa học nào làm về AI có giải pháp, chính là tính "Đúng" hay "Sai" (True or False). Nói cách khác, AI không thể hiểu được đâu là "Đúng" và "Sai".

AI có thể nhìn thấy được rất nhiều tầng ý nghĩa của một câu, nhưng không thể "hiểu được ý nghĩa đó đúng hay là sai". Vì đúng - sai là tương đối, đối với con người hai khái niệm này còn mong manh và gây tranh cãi, thậm chí xung đột giữa con người với con người.

"Đúng" và "Sai" vẫn chưa rõ ràng nhưng ChatGPT vẫn được thương mại hóa

"Đúng" và "Sai" vẫn chưa rõ ràng nhưng ChatGPT vẫn được thương mại hóa

Chụp màn hình

Bên cạnh đó, lượng dữ liệu văn bản rất lớn mà các nhà khoa học tại OpenAI thu thập để huấn luyện cho AI không phải tất cả đều thiên hướng "Đúng" và chứa những thông tin "Đúng" với chuẩn mực của xã hội con người do lượng dữ liệu đã quá lớn, ngoài khả năng chọn lọc của họ. Ví dụ họ có thể thu thập những văn bản ghi là trái đất tròn, đồng thời cũng có thể lẫn những văn bản ghi trái đất phẳng. Dữ liệu bản thân đã chứa cả thông tin đúng lẫn sai trong đó.

Khi AI đọc đi đọc lại các văn bản để tìm các tầng ý nghĩa sẽ đồng thời tìm ra ý nghĩa "Đúng" lẫn "Sai", nhưng AI không có ý thức để nhận biết được ý nghĩa nào, thông tin nào là đúng và đâu là sai. AI chỉ đơn thuần ghi nhớ hết tất cả. Đến khi sau này được hỏi, chúng cũng trả lời lại từ trí nhớ những thông tin đó, không phân biệt Đúng - Sai.

Các công ty như Google, Facebook, IBM, Microsoft đã nhiều lần công bố trí tuệ nhân tạo ngôn ngữ đột phá trong việc trả lời câu hỏi con người nhập vào, nhưng lại mau chóng xóa đi. Lý do chính là AI trả lời một số câu hỏi bị thiên hướng tới một ý nghĩa "Sai" không thể chấp nhận được về mặt chuẩn mực xã hội hiện tại của con người như tôn trọng giới tính, tôn giáo, sắc tộc, tính chính xác của sự kiện đã xảy ra, các chân lý mà con người đã đồng thuận...

Nhiều công ty lớn đều tuân theo chuẩn mực về độ chính xác của thông tin, họ đánh giá những AI chưa thể giải quyết được việc nhận thức "Đúng - Sai" thì không nên đưa ra công chúng. GPT-3 cũng tạo ra những đoạn văn vi phạm tới chuẩn mực về tính "Đúng - Sai" của con người, thậm chí không chấp nhận được. Nhưng OpenAI bất chấp, kể cả khi họ được lập ra với tôn chỉ "ngăn chặn sự nguy hiểm của AI từ trong trứng nước", điều được Elon Musk rao giảng tại sự kiện công nghệ TED khi công bố thành lập OpenAI. Họ mặc kệ sự nguy hiểm khi AI GPT-3 tạo ra những đoạn văn sai trái.

Thương mại hóa AI

OpenAI là công ty AI đầu tiên cung cấp API truy cập tới GPT-3 cho công chúng, chỉ cần trả phí để sử dụng, điều mà chưa công ty công nghệ lớn nào làm được. OpenAI đã thương mại hóa một AI không thể kiểm soát về tính "Đúng - Sai". GPT-3 thời điểm đó nhận được sự hưởng ứng từ cộng đồng, giới truyền thông cũng như một số doanh nghiệp công nghệ nhưng khi đang trên đà trở nên phổ dụng thì đại dịch Covid-19 bùng nổ toàn cầu, tình hình bệnh dịch càng lúc càng căng từ giữa năm 2020 khiến dòng thông tin đại dịch nhấn chìm luôn thông tin về GPT-3.

Cả GPT-3 và OpenAI đều bị công chúng quên lãng cho tới cuối năm 2022. OpenAI quyết định kế hoạch marketing xem có thể vực dậy được hứng thú với AI ngôn ngữ nữa không. Họ chỉnh sửa GPT-3 thành ChatGPT, khiến AI này dễ dùng hơn, thay vì mang hình dạng là một trang web để nhập chữ, chỉnh sửa tham số, rồi nhận lại một đoạn văn nối từ, ChatGPT đến với hình dạng của một chương trình Chat. Trí tuệ nhân tạo này có một khung chat để nhập câu hỏi và ChatGPT lại chơi trò "sinh chữ" nối từ với câu hỏi đó, nhưng dưới dạng một câu trả lời. Thay đổi nhỏ về giao diện người dùng đã giúp AI trở nên dễ giao tiếp hơn.

Rõ ràng OpenAI đã thành công khi vực lại được sự tò mò của công chúng đối với AI, đẩy xa tưởng tượng, tạo được một hình ảnh rõ nét về AI trong đầu công chúng là "con robot trả lời mọi câu hỏi của người dùng".

Chỉ trong 1 tháng mà ai cũng nói về AI, và AI trở nên tương đương với ChatGPT.

Hiện áp lực thành công của ChatGPT đang buộc các công ty lớn về AI như Google, Microsoft, IBM, Facebook... chấp nhận hạ tiêu chuẩn đạo đức ngành để theo kịp cuộc đua mà họ bất ngờ bị bỏ lại phía sau dù là người nắm giữ các công nghệ đột phá và năng lực tính toán siêu lớn. Big Tech đang "thả" các AI ngôn ngữ chuyên biệt hóa cho Chat hội thoại (AI Language Model for Dialogue) ra cho công chúng sử dụng. Dự kiến, tháng 3 tới đây Google sẽ mở LaMDA (giới thiệu năm 2021), tháng 6 tới lượt Microsoft với MEGATRON (2021) - siêu bot khổng lồ tới 530 tỉ Parameters.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.