Dù việc các mô hình AI thế hệ mới như ChatGPT và Gemini có thể đến một lúc nào đó trở nên có khả năng nhận thức hoặc gây ra sự mất việc làm cho nhiều người, nhưng vẫn có những vấn đề cấp bách hơn nhiều cần phải quan tâm.
Ba chuyên gia an ninh từ Mỹ và Israel đã gần đây phát triển một loại sâu máy tính độc hại có khả năng tấn công các dịch vụ Trí tuệ Nhân tạo để thực hiện các hành động xấu như trộm thông tin cá nhân, phát tán tin giả hoặc thực hiện các cuộc tấn công lừa đảo.
Được đặt tên là Morris II, theo tên của loại sâu máy tính Morris đầu tiên của năm 1988. Các nhà nghiên cứu đã tạo ra sâu máy tính này để cảnh báo các công ty công nghệ về các mối đe dọa tiềm ẩn khi các công cụ AI ngày càng trở nên phổ biến. Tuy nhiên, phần mềm độc hại AI mà nhóm này phát triển vẫn tiềm ẩn những nguy hiểm.
Theo đó, kẻ tấn công có thể tận dụng một loại mã độc hại để tấn công các dịch vụ trí tuệ nhân tạo bằng cách tiêm các lệnh (Command) có khả năng tự nhân bản, khi đó các hệ thống xử lý và đưa ra kết quả, lúc đó chúng có thể được sử dụng để thực hiện các hành động gây hại.
Trong quá trình nghiên cứu, nhóm nghiên cứu đã thực hiện thử nghiệm phần mềm độc hại bằng cách tập trung vào các trợ lý email được hỗ trợ bởi trí tuệ nhân tạo. Trong đó, họ có khả năng chuyển đổi một tệp đính kèm trong email thành một công cụ spam dành cho người dùng cuối. Trong một trường hợp khác, họ đã sử dụng nội dung văn bản trong email để xâm nhập vào cơ sở dữ liệu của ứng dụng email của khách hàng và lấy cắp thông tin nhạy cảm.
Các chuyên gia giải thích rằng nghiên cứu này không nhằm phủ nhận việc phát triển, triển khai và tích hợp các khả năng của trí tuệ nhân tạo vào thực tế. Không có ý định tạo ra sự lo lắng cho người dùng. Họ chỉ muốn nhấn mạnh về một mối đe dọa cần được đánh giá trước trong tương lai.