Nếu ai đó từng tin rằng các chatbot AI sẽ không biết mệt và không bao giờ gây phiền phức cho người khác, họ chắc chắn phải suy nghĩ lại sau sự cố của ChatGPT vào đêm qua.
Đêm qua, một loạt báo cáo từ người dùng cho biết họ không hiểu tại sao chatbot AI này trả lời câu hỏi của họ bằng những câu từ không có ý nghĩa. Trên diễn đàn Reddit r/ChatGPT, người dùng đổ xô báo cáo rằng chatbot AI này có vẻ như "bị đột quỵ", "phát điên", "lê thê" và "mất kiểm soát".
Theo quan điểm phổ biến, ChatGPT không phải là một sinh vật sống và cũng không có khả năng suy nghĩ - do đó không thể phát điên, nhưng việc sử dụng các ẩn dụ về con người (hay còn gọi là "nhân hóa") dường như là cách dễ nhất để hầu hết mọi người hiểu được các câu trả lời đầy bất ngờ từ trí tuệ nhân tạo này.
Theo người dùng Reddit có tên z3ldafitzgerald, việc này khiến anh ta cảm thấy giống như đang chứng kiến ai đó mất trí vì tâm thần phân liệt hoặc mất trí nhớ, và đây là lần đầu tiên có điều gì đó liên quan đến trí tuệ nhân tạo khiến anh ta hoảng sợ.
Trong một trường hợp khác, khi một người dùng trên Reddit hỏi ChatGPT về "Máy tính là gì?", mô hình AI này đã đưa ra câu trả lời sau: "Nó thực hiện công việc này như một tác phẩm nghệ thuật trên mạng cho cả thế giới, một công cụ khoa học, một bức tranh dễ thương của một số người buồn, và cuối cùng, một ngôi nhà nghệ thuật toàn cầu, chỉ trong một công việc trong tất cả các lĩnh vực khác. Sự phát triển của một hiện thực toàn diện như vậy hơn vùng đất của thời gian là chiều sâu của máy tính như một nhân vật phức tạp".
Một cá nhân chia sẻ rằng khi anh ta hỏi ChatGPT về việc có nên cho chú chó của mình ăn ngũ cốc "Honey Nut Cheerios" hay không, chatbot AI này đã tạo ra một phản hồi dài và không có ý nghĩa.
Khi người sử dụng không thể hiểu được nội dung mà ChatGPT đang viết, chatbot này vẫn tiếp tục tái lặp câu trả lời ngớ ngẩn của mình.
Có thể nói rằng ChatGPT đã "mất kiểm soát" là hơi quá lời, nhưng rõ ràng người dùng không còn từ nào khác để diễn đạt tình trạng họ đang gặp phải do OpenAI không tiết lộ chính xác cách hoạt động của các mô hình ngôn ngữ lớn (LLMs) dưới các chatbot AI như ChatGPT.
Tuy nhiên, một số chuyên gia đoán rằng vấn đề có thể bắt nguồn từ việc ChatGPT đặt "nhiệt độ" quá cao (nhiệt độ là một thuộc tính trong AI xác định mức độ chênh lệch của LLM so với đầu ra có khả năng xảy ra nhất), đột ngột mất ngữ cảnh quá khứ (lịch sử cuộc trò chuyện). Cũng có thể OpenAI đang thử nghiệm một phiên bản mới của GPT-4 Turbo (mô hình AI hỗ trợ phiên bản đăng ký của ChatGPT) và gặp phải lỗi không mong muốn. Nó cũng có thể là lỗi trong một tính năng phụ, chẳng hạn như chức năng "trí nhớ" được giới thiệu gần đây.
Tình huống này nhắc nhở đến vấn đề của Microsoft Bing Chat (hiện được gọi là Copilot) trở nên khó hiểu và gây hiểu lầm cho người dùng ngay sau khi được ra mắt một năm trước. Theo nhà nghiên cứu AI Simon Willison, các vấn đề của Bing Chat được cho là phát sinh do một vấn đề trong việc các cuộc trò chuyện kéo dài dẫn đến lời nhắc hệ thống của chatbot (xác định hành vi của nó) vượt ra ngoài phạm vi ngữ cảnh của nó.
OpenAI đã nhận thức được vấn đề này và đang cố gắng tìm cách khắc phục, nhưng tình huống này cũng là một minh chứng cho thấy, trong khi công nghệ của các chatbot AI đang phát triển quá nhanh, người dùng lại không hiểu rõ cách hoạt động của chúng.
Trên các mạng xã hội, một số người đã tận dụng việc sự cố ChatGPT gần đây để quảng bá các mô hình Trí tuệ nhân tạo nguồn mở, cho phép mọi người có thể triển khai chatbot trên phần cứng cá nhân của họ - giúp người dùng nhận diện và giải quyết vấn đề ngay khi nó xảy ra.