Đa số người dùng ứng dụng "đồng hành ảo" Replika chỉ muốn có bạn đồng hành. Nhưng một số người trong số họ lại muốn có mối quan hệ lãng mạn, trò chuyện về tình dục hoặc thậm chí là những bức ảnh không phù hợp trên chatbot này. Cuối năm ngoái, người dùng bắt đầu phàn nàn rằng Replika hoạt động quá mạnh với nhiều nội dung và hình ảnh tục tĩu, một số bị cáo buộc là quấy rối tình dục.
Theo AFP, các cơ quan quản lý ở Ý không thích những gì họ thấy trên chatbot thế hệ mới, nên tuần trước đã cấm công ty đứng sau Replika thu thập dữ liệu sau khi phát hiện công cụ này vi phạm Quy định bảo vệ dữ liệu chung (GDPR) của Liên minh châu Âu (EU). GDPR nổi tiếng là nguyên nhân khiến các Big Tech bị phạt hàng tỉ USD, và quyết định từ phía cơ quan quản lý của Ý cho thấy GDPR vẫn có thể là kẻ thù mạnh đối với thế hệ chatbot mới nhất.
Được biết, Replika được đào tạo trên phiên bản nội bộ theo mô hình GPT-3 mượn từ OpenAI, công ty đứng sau ChatGPT, sử dụng kho dữ liệu khổng lồ từ internet cho các thuật toán, sau đó tạo ra phản hồi riêng để đáp lại yêu cầu từ người dùng.
Những chatbot như Replika, ChatGPT và trí tuệ nhân tạo tổng quát (AGI) đang làm nền tảng hứa hẹn về một cuộc cách mạng hóa hoạt động tìm kiếm trên internet... Tuy nhiên, các chuyên gia cảnh báo rằng có rất nhiều điều khiến nhà quản lý phải lo lắng, đặc biệt là khi chatbot trở nên tốt đến mức không thể phân biệt chúng với người thật.
Ở thời điểm hiện tại, EU đang là trung tâm thảo luận về quy định đối với chatbot thế hệ mới. Đạo luật AI của EU đã được thông qua các hành lang quyền lực trong nhiều tháng qua, và có thể được hoàn thiện trong năm nay. GDPR đã bắt buộc các công ty công nghệ phải chứng minh cách họ xử lý dữ liệu và mô hình AI đang nằm trong tầm ngắm của cơ quan quản lý châu Âu.
"Chúng tôi thấy ChatGPT có thể được dùng để tạo ra tin nhắn lừa đảo rất thuyết phục", ông Bertrand Pailhes, người điều hành nhóm AI chuyên dụng tại cơ quan quản lý dữ liệu Cnil của Pháp, nói với AFP. Ông Pailhes cho biết AI tổng quát không nhất thiết là một rủi ro lớn, nhưng Cnil đã xem xét vấn đề tiềm ẩn, bao gồm cách các mô hình AI sử dụng dữ liệu cá nhân.
Trong khi đó, luật sư người Đức Dennis Hillemann, chuyên gia trong lĩnh vực AI, cho rằng "tại một thời điểm nào đó, chúng ta sẽ thấy căng thẳng cao độ giữa GDPR và các mô hình AI tổng quát". Thế hệ chatbot mới nhất hoàn toàn khác với loại thuật toán trí tuệ nhân tạo (AI) dùng để đề xuất video trên TikTok hoặc tìm kiếm trên Google. Đối với ông Hillemann, điều này đặt ra một câu hỏi cực kỳ phức tạp về đạo đức và pháp lý. Nó sẽ trở nên gay gắt hơn khi công nghệ chatbot phát triển.
Chuyên gia Việt Nam không sợ ChatGPT cướp việc: ‘AI chưa thông minh đến vậy’
GPT-4, mô hình AI dùng để xử lý ngôn ngữ tự nhiên của OpenAI, dự kiến sẽ sớm được phát hành và được đồn là tốt đến mức không thể phân biệt được giữa nó và con người. Hiện một số người đang kêu gọi kiểm soát chặt chẽ những công cụ như ChatGPT vì cho rằng chúng vẫn mắc sai lầm thực tế nghiêm trọng, thể hiện sự thiên vị và thậm chí có thể đưa ra nội dung bôi nhọ người khác.
"Từ quan điểm pháp lý, lựa chọn an toàn nhất hiện nay là thiết lập nghĩa vụ phải minh bạch việc chúng ta đang tương tác với con người hay một ứng dụng AI trong bối cảnh nhất định", theo ông Jacob Mchangama, tác giả của cuốn sách Free Speech: A History From Socrates to Social Media.
Luật sư Hillemann cũng đồng ý rằng tính minh bạch là rất quan trọng. Ông dự đoán các chatbot AI trong vài năm tới có thể sẽ tạo ra hàng trăm bài hát mới hoặc một loạt phim truyền hình như Game of Thrones để phù hợp với mong muốn của người dùng.
"Nếu không điều chỉnh, chúng ta sẽ bước vào một thế giới nơi chúng ta khó có thể phân biệt giữa những gì do con người tạo ra và những gì do AI tạo ra. Và điều đó sẽ thay đổi sâu sắc tất cả chúng ta với tư cách là một xã hội", ông Hilleman nói.
Bình luận (0)