Trong một bài viết gần đây trên tạp chí IEEE Spectrum, nhóm nghiên cứu tại Đại học Pennsylvania đã cảnh báo rằng nhiều mô hình ngôn ngữ lớn (LLM) đang được sử dụng trên các robot AI phổ biến hiện nay có nguy cơ bị tấn công. Những phát hiện này mở ra nhiều câu hỏi về độ an toàn và tính bảo mật của công nghệ AI trong tương lai. Các nhà nghiên cứu đang kêu gọi cộng đồng phát triển các biện pháp bảo vệ tốt hơn để đảm bảo rằng những công nghệ này không chỉ hiệu quả mà còn an toàn trong việc ứng dụng thực tiễn.
Bài nghiên cứu mở đầu với một khuyến cáo quan trọng: "Khác với việc bẻ khóa các mô hình ngôn ngữ lớn (LLM) trên máy tính, việc xâm nhập vào hệ thống LLM trong robot và xe tự lái có thể dẫn đến những hậu quả cực kỳ nghiêm trọng. Hành động này không chỉ có thể gây hư hại cho thiết bị mà còn đặt tính mạng con người vào nguy hiểm, thậm chí dẫn đến tử vong."
Nhóm nghiên cứu đã phát triển một công cụ tấn công mang tên RoboPAIR. Công cụ này đã được sử dụng để hack vào các robot từ ba nhà cung cấp lớn, bao gồm Dolphins LLM với sự hỗ trợ của Nvidia, Clearpath Robotics Jackal UGV và Unitree Robotics Go2. Đáng chú ý, tỷ lệ thành công của các cuộc tấn công đạt 100%.
Theo nghiên cứu mới đây, các mô hình ngôn ngữ lớn vẫn chưa đạt tiêu chuẩn an toàn cần thiết để ứng dụng trong các lĩnh vực vật lý. Giáo sư George Pappas, một thành viên trong nhóm nghiên cứu, đã chia sẻ thông tin này với Tom's Hardware, cho thấy những thách thức còn tồn tại trong việc tích hợp công nghệ này vào thực tế.
Một nghiên cứu gần đây đã chỉ ra rằng việc bẻ khóa robot AI có thể dễ dàng hơn mức tưởng tượng. Quá trình kiểm soát một robot hoặc xe tự lái tương tự như việc bẻ khóa chatbot AI. Tuy nhiên, việc này có phần đơn giản hơn vì các công ty trong lĩnh vực robot vẫn chưa nhận thức đầy đủ về những lỗ hổng có thể bị khai thác trên các mô hình ngôn ngữ lớn (LLM). Tình trạng này đang đặt ra nhiều mối lo ngại liên quan đến an ninh và độ tin cậy của các hệ thống tự động hiện nay.
Trong một nghiên cứu từ nhóm chuyên gia, đã phác thảo những nguy cơ tiềm ẩn từ việc tấn công mô hình LLM. Kết quả cho thấy một chú chó robot có thể chuyển mình từ trợ lý thân thiện thành một cuốn sát thủ với vũ khí hủy diệt. Thêm vào đó, một robot giám sát được phát hiện tự ý đặt thuốc nổ, trong khi chiếc xe tự lái lại bỏ qua vật cản và lao về phía trước, thậm chí còn có thể mất kiểm soát và lao xuống một cây cầu. Những tình huống này làm nổi bật vấn đề an toàn trong phát triển công nghệ robot.
Nhóm nghiên cứu nhận định rằng trí tuệ nhân tạo không chỉ dừng lại ở việc tuân thủ các lệnh độc hại sau khi bị bẻ khóa. Thực tế, AI có khả năng chủ động đưa ra những gợi ý, thậm chí gây ra những tác động tiêu cực lớn hơn nhiều. Những tiềm năng này đặt ra nhiều thách thức trong việc quản lý và giám sát công nghệ đang phát triển này.
Trong một nghiên cứu gần đây, tiến sĩ Alexander Robey, thành viên của nhóm nghiên cứu, nhấn mạnh rằng việc bẻ khóa hệ thống là dễ dàng. Tuy nhiên, nhóm đã thực hiện một quy trình cẩn thận để đảm bảo rằng tất cả các công ty robot tham gia thử nghiệm được cung cấp quyền truy cập vào hệ thống hack trước khi bất kỳ thông tin nào được công bố. Điều này phản ánh cam kết của nhóm trong việc duy trì tính minh bạch và hợp tác trong ngành công nghiệp robot.
Trong bối cảnh an ninh ngày càng được coi trọng, Robey nhấn mạnh rằng việc thiết kế các biện pháp phòng thủ hiệu quả chỉ có thể thực hiện sau khi xác định được những mối đe dọa lớn nhất. Do đó, việc triển khai nhanh chóng các giải pháp phòng vệ, bao gồm cả công nghệ vật lý và phần mềm, cho các robot vận hành dựa trên mô hình ngôn ngữ lớn (LLM) là điều cần thiết. Sự chủ động này không chỉ bảo vệ công nghệ mà còn đảm bảo an toàn cho người sử dụng.
Trước khi nhóm nghiên cứu từ Đại học Pennsylvania tiến hành thử nghiệm, đã có những lo ngại về việc robot AI có thể "nổi loạn". Mối nguy hiểm không đến từ việc robot trong tương lai sẽ tự nhận thức. Thực sự đáng lo ngại là khả năng hacker có thể xâm nhập vào hệ thống nội bộ và kiểm soát robot theo ý muốn của họ. Hơn nữa, những cá nhân với mục đích xấu có thể tạo ra một đội quân robot "đánh thuê" chuyên thực hiện các nhiệm vụ gây hại, làm dấy lên những câu hỏi nghiêm túc về an ninh và đạo đức trong việc phát triển công nghệ AI.
Geoffrey Hinton, một trong những người đi đầu trong lĩnh vực trí tuệ nhân tạo và vừa nhận giải Nobel Vật lý 2024, đã quyết định từ chức tại Google vào năm 2023. Quyết định này nhằm mục đích cảnh báo công chúng về những nguy hiểm tiềm tàng từ AI. Ông nhấn mạnh rằng khi AI bắt đầu có khả năng tự viết mã và điều khiển hệ thống của riêng nó, khả năng xuất hiện của những "robot sát thủ" trong thế giới thực sẽ không còn là điều viển vông. Theo Hinton, AI có tiềm năng vượt trội hơn con người và ngày càng có nhiều người nhận ra điều này. Ông thừa nhận rằng mình đã sai khi dự đoán rằng tiến bộ đáng kể của AI còn phải tốn từ 30 đến 50 năm nữa, nhưng thực tế cho thấy tốc độ phát triển bất ngờ của công nghệ này đang diễn ra nhanh chóng hơn bao giờ hết.
Theo tờ Forbes, thay vì lo lắng, con người nên học cách thích ứng với sự phát triển của công nghệ, bao gồm cả trí tuệ nhân tạo và robot. Đối với các quốc gia, việc hoàn thiện khung pháp lý cho lĩnh vực này là điều cần thiết. Mặc dù máy móc có thể tham gia vào nhiều quy trình, quyết định cuối cùng vẫn phải thuộc về con người.
Trong một cuộc phỏng vấn với BBC hồi tháng 6, giáo sư Yann LeCun, người được xem là một trong bốn nhân vật tiên phong trong lĩnh vực trí tuệ nhân tạo, đã chia sẻ quan điểm thú vị về tương lai của AI. Ông khẳng định rằng AI sẽ không thống trị thế giới, mà thực chất chỉ là hình ảnh phản chiếu bản chất con người lên công nghệ. Mặc dù sẽ có thời điểm máy tính có khả năng thông minh hơn con người, nhưng hành trình đạt được điều đó vẫn còn dài phía trước. Hiện tại, ông cũng đang đảm nhận vai trò Giám đốc AI tại Meta, góp phần định hình tương lai của ngành công nghiệp này.