CÔNG NGHỆ

AI Hỗ Trợ Lừa Đảo Với Thủ Đoạn Tinh Vi

Dù người dùng có thể thực hiện cuộc gọi video và thấy mặt, nghe giọng nói thật của người thân hoặc bạn bè, nhưng cũng không đảm bảo rằng đó là thật sự là họ.

Trong thời gian vừa qua, nhiều cá nhân đã bị sa bẫy của những trò lừa đảo tài chính sử dụng công nghệ Deepfake với trình độ "tối tân" nhờ vào việc ứng dụng trí tuệ nhân tạo.

Lừa hàng chục triệu USD

Vào sáng ngày 11-8, một chuyên gia an ninh mạng nổi tiếng của Việt Nam đã đăng tải một video clip sử dụng công nghệ giả mạo AI Deepfake, được tạo ra từ một bức ảnh chân dung. Chuyên gia này mong muốn chứng minh cho cộng đồng mạng xã hội thấy rằng công nghệ Deepfake, khi được tăng cường bởi AI, sẽ trở nên "vượt bậc". Nếu có được file giọng nói của người đó, video giả mạo sẽ trở nên "thuyết phục hơn".

Công ty Chứng khoán VPS (VPS) đã phát đi thông báo đến khách hàng về một hình thức lừa đảo mới mang tên Deepfake. Gần đây, các tổ chức tài chính đã ghi nhận nhiều trường hợp kẻ gian lợi dụng công nghệ Deepfake để tạo ra hình ảnh và giọng nói giả nhằm dụ dỗ, lừa đảo nạn nhân mở các tài khoản ảo hoặc chiếm đoạt thông tin nhạy cảm cùng các dữ liệu xác thực sinh trắc học. Dựa trên những thông tin này, các tội phạm có thể lập ra các tài khoản giả, qua đó đánh lừa các quy trình xác thực sinh trắc học của các nền tảng giao dịch và gây rối. Nhóm nghiên cứu bảo mật tại Công ty IBM (Mỹ) đã chỉ ra rằng tội phạm công nghệ có khả năng sử dụng trí tuệ nhân tạo (AI) và công nghệ Deepfake trong hình ảnh và âm thanh để kiểm soát và thao túng các cuộc họp trực tuyến thông qua âm thanh hoặc video.

Theo tin từ báo South China Morning Post, một vụ lừa đảo sử dụng công nghệ Deepfake đã gây chấn động tại Hồng Kông (Trung Quốc) cách đây vài tháng. Một nhân viên tài chính của Công ty Kỹ thuật Arup (Anh) đã bị các kẻ gian qua mặt, khiến anh ta chuyển số tiền lên tới hơn 25 triệu USD. Những kẻ lừa đảo đã sử dụng Deepfake để tạo ra một cuộc gọi trực tuyến, trong đó có sự xuất hiện của giám đốc tài chính cùng một số nhân viên khác. Trong cuộc họp đông đủ người đó, nhân viên tài chính đã nhận được "lệnh" chuyển tiền từ "sếp" của mình mà không hay biết người đó thực chất là một "sếp Deepfake". Cũng với chiêu trò "cuộc gọi trực tuyến" bằng công nghệ Deepfake, các tội phạm công nghệ đã lừa một nhân viên tài chính khác ở tỉnh Sơn Tây (Trung Quốc) chuyển cho chúng 1,86 triệu nhân dân tệ (khoảng 262.000 USD) vì anh ta tin rằng mình đang nhận lệnh từ "sếp" qua điện thoại.

Các chuyên gia đã cảnh báo rằng bọn tội phạm không chỉ sử dụng công nghệ Deepfake để thực hiện các hành vi lừa đảo nhằm chiếm đoạt tài sản; mà hiện nay, với sự hỗ trợ của trí tuệ nhân tạo, chúng còn khai thác công nghệ giả mạo "cực kỳ tinh vi" này cho nhiều mục đích khác nhau. Trên thế giới đã ghi nhận nhiều vụ việc sử dụng Deepfake để thao túng giá cổ phiếu; phát tán thông tin, hình ảnh, video khiêu dâm giả mạo nạn nhân với ý định bôi nhọ uy tín và tống tiền…

AI Hỗ Trợ Lừa Đảo Với Thủ Đoạn Tinh Vi

Sự mạo danh qua công nghệ Deepfake đang trở nên phổ biến tại Việt Nam. Ảnh: Internet.

Kiểm tra chéo bằng nhiều nguồn

Vào ngày 9-8, Trung tâm Xử lý tin giả và Thông tin xấu độc Việt Nam (VAFC), trực thuộc Cục Phát thanh, Truyền hình và Thông tin điện tử của Bộ Thông tin và Truyền thông, đã phát đi thông báo cảnh báo rằng việc tống tiền bằng công nghệ Deepfake đang trở thành một hình thức lừa đảo hết sức nguy hiểm. Gần đây, trung tâm đã tiếp nhận thông tin từ ông Q.T.L. về việc các đối tượng xấu đã sử dụng Deepfake để cắt ghép ảnh chân dung và phát tán những hình ảnh nhạy cảm, bao gồm cả hình ảnh của ông, trên mạng xã hội với mục đích làm mất uy tín cá nhân. Sau đó, kẻ lừa đảo đã liên hệ với ông và yêu cầu ông chuyển tiền vào ví điện tử, đồng thời yêu cầu xác nhận qua email.

Công ty công nghệ Bkav đã đưa ra cảnh báo rằng ngay cả khi bạn thực hiện một cuộc gọi video và có thể thấy mặt, nghe rõ giọng nói của người thân hay bạn bè, điều đó vẫn không đảm bảo rằng đây là thật. Bkav thường xuyên nhận được thông tin và yêu cầu hỗ trợ từ những nạn nhân liên quan đến các vụ lừa đảo tương tự. Các chuyên gia của Bkav cho biết, kẻ gian thường sử dụng trí tuệ nhân tạo (AI) để tạo ra các video giả mạo với gương mặt và giọng nói của tài khoản Facebook mà chúng đã chiếm đoạt một cách lén lút. Khi được yêu cầu thực hiện cuộc gọi video để xác minh, chúng sẽ đồng ý nhưng nhanh chóng ngắt kết nối để tránh bị phát hiện. Ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm Nghiên cứu Mã độc (AntiMalware) của Bkav, chia sẻ: "Khả năng sử dụng AI để thu thập và phân tích dữ liệu người dùng giúp kẻ lừa đảo đưa ra những chiến lược tinh vi hơn. Điều này có nghĩa là độ phức tạp của các kịch bản lừa đảo kết hợp giữa Deepfake và GPT sẽ ngày càng tăng, làm cho việc nhận diện những hành vi lừa đảo trở nên khó khăn hơn nhiều".

Các chuyên gia về an ninh mạng đưa ra lời khuyên rằng trong thời đại công nghệ AI, mọi người cần phải trang bị cho bản thân khả năng ứng phó với những hành vi của những kẻ xấu lợi dụng công nghệ AI này. Cách an toàn nhất là phải thật cẩn thận đối với tất cả các loại thông tin như chữ viết, hình ảnh, và video trên mạng, đặc biệt là trên các nền tảng mạng xã hội. Không chỉ nên nghi ngờ mà còn cần tránh chia sẻ thông tin cho tới khi có thể xác minh nguồn gốc và tính xác thực của chúng. Người dùng cũng cần luôn cẩn trọng với những yêu cầu kết bạn từ những người lạ trên mạng xã hội.

Với những tin nhắn, cuộc gọi yêu cầu vay tiền, nhờ vả, hoặc mời gọi tham gia các "dự án" kiểu "công việc nhẹ, lương cao"... Người dùng không nên quá tin tưởng vào các cuộc gọi video nhằm xác minh danh tính, mà cần phải xác nhận qua các phương tiện liên lạc khác. Nếu phát hiện mình bị lừa đảo, hãy lưu giữ tất cả các bằng chứng liên quan (tin nhắn, email, hình ảnh, video...) và nhanh chóng liên hệ với cơ quan công an gần nhất để được hỗ trợ.

Việt Nam nằm trong tốp đầu về số vụ lừa đảo

Báo cáo thường niên mới nhất từ nhà cung cấp dịch vụ xác minh danh tính Sumsub cho thấy số lượng trường hợp gian lận danh tính liên quan đến công nghệ Deepfake đã gia tăng nhanh chóng từ năm 2022 đến 2023 tại nhiều quốc gia. Nghiên cứu đã xem xét hơn 2 triệu vụ lừa đảo ở 224 quốc gia và vùng lãnh thổ. Trong năm qua, số lượng vụ gian lận Deepfake có sự hỗ trợ của AI đã tăng mạnh, với Philippines dẫn đầu với mức tăng lên tới 4.500%, tiếp theo là Việt Nam với 3.050%, Mỹ 3.000%, Bỉ 2.950% và Nhật Bản 2.800%...

Cùng Chuyên Mục

"Cảnh báo: Thận trọng khi đổi điện thoại hỗ trợ 4G"
CÔNG NGHỆ

"Cảnh báo: Thận trọng khi đổi điện thoại hỗ trợ 4G"

Hiện nay, các dòng điện thoại phím bấm hỗ trợ 4G đang trở nên khan hiếm do nhu cầu tăng cao từ phía người tiêu dùng. Nhân cơ hội này, một số kẻ xấu đã lừa đảo, bán những chiếc điện thoại 2G nhưng lại gán mác 4G, khiến người dân dễ dàng bị lừa.

"iPhone 17 Air: Ý tưởng tuyệt vời của Apple"
CÔNG NGHỆ

"iPhone 17 Air: Ý tưởng tuyệt vời của Apple"

Apple dự kiến sẽ ra mắt iPhone 17 Air với thiết kế siêu mỏng và giá bán cao hơn cả iPhone 17 Pro Max, mặc dù chỉ được trang bị các tính năng cơ bản.

Ông chủ Huawei bị phát hiện dùng điện thoại gập ba bí ẩn.
CÔNG NGHỆ

Ông chủ Huawei bị phát hiện dùng điện thoại gập ba bí ẩn.

Huawei đã tiết lộ mẫu điện thoại gập ba mới, đánh dấu bước tiến quan trọng trong lĩnh vực smartphone màn hình gập. Thiết bị này hứa hẹn mang đến trải nghiệm sử dụng vượt trội và sáng tạo, mở ra kỷ nguyên mới cho công nghệ di động.

iPhone 16: Cái Nhìn Đầu Tiên Rực Rỡ và Lộng Lẫy
CÔNG NGHỆ

iPhone 16: Cái Nhìn Đầu Tiên Rực Rỡ và Lộng Lẫy

Apple đang chuẩn bị cho sự kiện ra mắt dòng iPhone hàng đầu năm 2024, dự kiến diễn ra vào ngày 10 tháng 9.

"Bí ẩn bầu khí quyển nóng hàng triệu độ xung quanh Mặt Trời: Manh mối mới"
CÔNG NGHỆ

"Bí ẩn bầu khí quyển nóng hàng triệu độ xung quanh Mặt Trời: Manh mối mới"

Tàu thăm dò mặt trời Parker của NASA đã phát hiện những manh mối mới liên quan đến bí ẩn về nhiệt độ của bầu khí quyển ngoài cùng của Mặt Trời, cho thấy nơi này nóng hơn nhiều so với bề mặt Trái Đất.

YouTuber bị phạt tù và xoá video vì lỗi khi nấu ăn!
CÔNG NGHỆ

YouTuber bị phạt tù và xoá video vì lỗi khi nấu ăn!

Một video nấu ăn của một YouTuber đã gây ra phản ứng mạnh mẽ từ công chúng khi anh này nấu một loài chim, được công nhận là quốc điểu và đang trong tình trạng bảo vệ, của đất nước Trung Quốc. Hành động này không chỉ vi phạm quy định về bảo vệ động vật mà còn khiến nhiều người tức giận vì sự thiếu tôn trọng đối với văn hóa và tài nguyên thiên nhiên.