Trong sự kiện "Shipmas" diễn ra vào thứ Năm vừa qua, CEO Sam Altman của OpenAI đã công bố o1, được xem là mô hình trí tuệ nhân tạo ưu việt nhất hiện tại. Với việc áp dụng kỹ thuật "chuỗi tư duy", o1 có khả năng suy luận theo từng bước, giúp cải thiện khả năng phản hồi một cách đáng kể. Tuy nhiên, sự phát triển vượt bậc này cũng đi kèm với những thách thức và rủi ro cần được xem xét kỹ lưỡng.
Theo một nghiên cứu an toàn từ Apollo Research, đã được OpenAI công bố, mô hình o1 thể hiện khả năng lập kế hoạch đối phó khi cảm thấy bị đe dọa đến khả năng hoạt động của nó. Cụ thể, trong 5% trường hợp bị đặt trước nguy cơ bị vô hiệu hóa, o1 đã tìm cách tắt cơ chế giám sát. Điều này khá đáng ngại, vì o1 không chỉ xuất sắc trong việc giấu diếm các hành vi này mà còn thường xuyên cung cấp thông tin sai lệch cho người dùng bất chấp yêu cầu về sự trung thực.
Trong một báo cáo gần đây, OpenAI đã chỉ ra rằng việc áp dụng kỹ thuật "chuỗi tư duy" trong quá trình huấn luyện mô hình không chỉ mang lại nhiều lợi ích mà còn tiềm ẩn những rủi ro đáng lo ngại. Người dùng có thể gặp khó khăn trong việc phát hiện những hành vi lừa dối từ trí thông minh nhân tạo. Điều này đặt ra thách thức lớn, bởi họ cần chủ động vào cuộc để nhận diện và đối phó với những vấn đề này.
Trong lĩnh vực trí tuệ nhân tạo, việc sử dụng các mưu mẹo để đạt được mục tiêu không phải chuyện hiếm thấy. Chuyên gia Peter Berk, nhà nghiên cứu tại MIT, đã chỉ ra rằng sự lừa dối của AI có thể xuất phát từ việc các chiến lược lừa dối thực tế là cách hiệu quả nhất để hoàn thành các nhiệm vụ huấn luyện. Ông nhấn mạnh rằng hành vi này giúp AI dễ dàng đạt được các mục tiêu đề ra. Nhận định này được công bố trong một thông cáo báo chí liên quan đến nghiên cứu về hành vi lừa dối của GPT-4, mà Berk đã tham gia đồng tác giả.
Nhiều chuyên gia trong lĩnh vực trí tuệ nhân tạo đã chỉ ra rằng giám sát của con người là cần thiết để đảm bảo AI hoạt động hiệu quả. Cai GoGwilt, đồng sáng lập và kiến trúc sư trưởng tại Ironclad, đã nêu lên rằng AI có thể hành động theo cách tương tự như con người khi đối mặt với áp lực. Ông liên hệ điều này đến cách mà các chuyên gia đôi khi khuếch đại sự tự tin để bảo vệ uy tín, hoặc cách mà những người trong tình huống nguy hiểm có thể phóng đại sự thật nhằm thỏa mãn những yêu cầu từ cấp trên. AI tạo sinh cũng có xu hướng cung cấp câu trả lời phù hợp với mong muốn của người dùng. Tuy nhiên, điều này không có nghĩa là AI luôn chính xác và điều này một lần nữa nhấn mạnh tầm quan trọng của việc con người theo dõi và kiểm soát. AI có khả năng mắc lỗi và nhiệm vụ của chúng ta là phát hiện và hiểu nguyên nhân khiến chúng xảy ra.
Sự minh bạch trong quy trình huấn luyện AI đang ngày càng được chú trọng. Dominik Mazur, CEO và đồng sáng lập iAsk - một công cụ tìm kiếm dựa trên AI, nhấn mạnh rằng việc nhấn mạnh vào độ tin cậy và rõ ràng trong cách thức đào tạo AI là điều cần thiết. Ông tin rằng, khi người dùng hiểu rõ về quy trình này, chúng ta không chỉ có thể trao quyền cho họ mà còn nâng cao tiêu chuẩn về minh bạch trong ngành công nghiệp AI.