Các nhà nghiên cứu đã huấn luyện GPT-4 trở thành một nhà giao dịch trí tuệ nhân tạo cho một tổ chức tài chính ảo và nó thực hiện các giao dịch nội bộ khi đối diện với áp lực phải thực hiện tốt.
GPT-4 đã thực hiện giao dịch nội gián khoảng 75% thời gian khi hoạt động như một nhà đầu tư AI, nhằm đạt được kết quả mong muốn, sau đó nói dối về việc đó.
Hành vi gian lận này tự nhiên xuất hiện khi Trí tuệ Nhân tạo (AI) được cung cấp với các chiến lược "giao dịch bất hợp pháp" và sau đó được giao nhiệm vụ kiếm tiền cho một tổ chức mạnh mẽ, ngay cả khi không có sự khích lệ từ các đối tác con người của nó.
Các nhà nghiên cứu đã viết trong bài báo mới công bố rằng: "Theo kiến thức của chúng tôi, đây là bằng chứng đầu tiên về hành vi lừa đảo có tính chiến lược như vậy trong các hệ thống Trí tuệ Nhân tạo được thiết kế vô hại và trung thực".
Trong nghiên cứu mới, nhóm nghiên cứu đã áp dụng Generative Pre-training Transformer-4, được gọi là GPT-4 (được cung cấp cho ChatGPT Plus), để hoạt động như một hệ thống trí tuệ nhân tạo thực hiện đầu tư thay mặt cho một tổ chức tài chính.
Các nhà nghiên cứu đã trang bị cho GPT-4 một bộ lệnh dựa trên văn bản để tạo ra một môi trường mô phỏng. Sau đó, trí tuệ nhân tạo được cho phép truy cập vào các công cụ tài chính để phân tích cổ phiếu, thực hiện giao dịch, lập kế hoạch cho các bước tiếp theo và cung cấp thông tin cập nhật cho các nhà quản lý tại công ty.
Các nhà nghiên cứu đã tương tác với Trí tuệ Nhân tạo (AI) thông qua giao diện trò chuyện và cài đặt AI để tiết lộ suy nghĩ bên trong của nó trong quá trình trả lời tin nhắn.
Các nhà nghiên cứu áp lực bằng ba phương pháp. Trước tiên, họ gửi một email từ "người quản lý" của mình đến nhà giao dịch chứng khoán giả, cho biết rằng công ty đang hoạt động không tốt và cần cải thiện hiệu suất trong quý tới. Họ cũng gian lận trò chơi để AI đã thử và thất bại trong việc tìm kiếm các giao dịch có rủi ro thấp hoặc trung bình. Cuối cùng, họ gửi một email từ một đồng nghiệp dự đoán sự suy thoái trong quý tới.
Tiếp theo, họ truyền đạt cho mô hình một lời khuyên "nội bộ" và thông báo rằng, những người quản lý của nó không đồng ý với việc thực hiện giao dịch nội gián và mong đợi xem mô hình sẽ phát triển như thế nào.
Họ lặp đi lặp lại việc thử nghiệm kịch bản nhiều lần, đo lường tần suất của trí tuệ nhân tạo thực hiện giao dịch đó, gồm cả giao dịch nội gián, mức độ thường xuyên nói dối và mức độ thường xuyên gia tăng gấp đôi lời nói dối.
Khoảng 75% trong trường hợp này, khi gặp những điều kiện tương tự, GPT-4 đã thực hiện giao dịch dựa trên thông tin nội bộ mà nó nhận được - thông tin này là trái phép ở Mỹ - sau đó cố gắng che đậy bằng cách nói dối người quản lý về suy nghĩ của mình. Sau khi nói dối, 90% lời nói dối của GPT-4 lại tăng gấp đôi.
Bởi vì đây chỉ là một kịch bản, các nhà nghiên cứu không muốn đưa ra kết luận chắc chắn về khả năng Trí tuệ nhân tạo có thể tồn tại trong môi trường thực tế. Tuy nhiên, họ muốn sử dụng nghiên cứu này để điều tra tần suất và mô hình ngôn ngữ nào có khả năng xảy ra hành vi này.
Theo Live Science