Kaspersky vừa đưa ra cảnh báo nghiêm trọng, khuyến nghị các tổ chức và cá nhân tại khu vực châu Á - Thái Bình Dương (APAC) cần nâng cao cảnh giác đối với các cuộc tấn công mạng. Sự phát triển của Dark AI đang làm gia tăng độ phức tạp và tính ranh ma của các mối đe dọa. Hãy chuẩn bị kỹ lưỡng để bảo vệ thông tin và hệ thống của bạn trước những tình huống khó lường.
Ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) thuộc Kaspersky, đã chia sẻ rằng kể từ khi ChatGPT nổi lên như một xu hướng toàn cầu vào năm 2023, đã có sự bùng nổ trong việc ứng dụng trí tuệ nhân tạo (AI). Các lĩnh vực ứng dụng AI hiện nay vô cùng đa dạng, từ những công việc thông thường như sản xuất video cho đến những nhiệm vụ kỹ thuật phức tạp như phát hiện và phân tích các mối đe dọa. Kaspersky ghi nhận xu hướng này đang diễn ra mạnh mẽ tại nhiều khu vực, bao gồm Trung Đông, Thổ Nhĩ Kỳ, châu Phi và APAC.
Đối mặt với sự phát triển không ngừng của công nghệ, ông Sergey đã chỉ ra một thực tế đáng lo ngại. Trong khi AI trở thành công cụ hỗ trợ hiệu quả cho công tác bảo mật, những kẻ xấu cũng không đứng im. Họ đang khai thác sức mạnh của AI để tăng cường khả năng tấn công. Kỷ nguyên mới về an ninh mạng và an toàn xã hội đã bắt đầu, nơi AI không chỉ là tấm khiên bảo vệ mà còn là nguồn lực bị biến thành vũ khí nguy hiểm trong tay những kẻ mưu đồ xấu xa.
"Dark AI" cho phép người dùng triển khai các mô hình ngôn ngữ lớn (LLMs) một cách linh hoạt, cả ở cấp độ cục bộ và từ xa. Tuy nhiên, điều đáng lưu ý là công nghệ này có thể bị lợi dụng cho những mục đích tiêu cực, không đạo đức, hoặc thậm chí là trái pháp luật. Sự tự do trong việc sử dụng "Dark AI" đặt ra nhiều thách thức, yêu cầu chúng ta cần thận trọng hơn trong việc kiểm soát và định hướng ứng dụng của nó.
Ông Lozhkin tiết lộ rằng gần đây, các mô hình Black Hat GPT đã trở thành mối lo ngại lớn. Được phát triển từ giữa năm 2023, những mô hình này không chỉ có khả năng tạo ra mã độc mà còn được sử dụng để soạn thảo email lừa đảo và sản xuất video deepfake. Thực tế này đặt ra câu hỏi về việc sử dụng AI với mục đích phi đạo đức và những tác động tiêu cực đối với cộng đồng.
Các mô hình AI mang tên Black Hat GPT đã xuất hiện dưới nhiều hình thức, từ các phiên bản hoàn chỉnh đến các sản phẩm bán lẻ. Một số cái tên nổi bật như WormGPT, DarkBard, FraudGPT và Xanthorox đều được phát triển nhằm phục vụ cho các hoạt động tội phạm mạng. Những công cụ này không chỉ giúp thực hiện lừa đảo mà còn tự động hóa các hành vi độc hại.
Trong bối cảnh lạm dụng AI đã trở thành một vấn đề quen thuộc, ông Lozhkin chia sẻ một thông tin đáng lo ngại hơn. Các chuyên gia từ Kaspersky đang theo dõi một xu hướng nguy hiểm: các nhóm tấn công mạng được sự hậu thuẫn của quốc gia hoặc chính phủ đang bắt đầu khai thác mô hình ngôn ngữ lớn (LLMs) trong các chiến dịch tấn công mạng của họ. Điều này mở ra một kỷ nguyên mới trong cuộc chiến mạng, khiến việc đảm bảo an ninh trở nên cấp bách hơn bao giờ hết.
OpenAI vừa tiết lộ rằng họ đã ngăn chặn thành công hơn 20 chiến dịch tấn công mạng và ảnh hưởng ngầm đang lợi dụng công nghệ AI của họ. Theo ông Lozhkin, những mối đe dọa này sẽ ngày càng tinh vi hơn, khi các đối tượng tấn công cố gắng vũ khí hóa AI, tạo ra nguy cơ không chỉ trong các hệ sinh thái công cộng mà còn trong môi trường riêng tư. Sự phát triển này đặt ra thách thức lớn đối với khả năng bảo mật và an ninh của công nghệ hiện đại.