Bộ Công an cảnh báo mới về lừa đảo qua mạng

Tình trạng đáng lo ngại là tội phạm mạng đang lợi dụng AI để nâng cấp các hình thức lừa đảo, khiến chúng trở nên khó phát hiện và nhận biết.

Bộ Công an cảnh báo mới về lừa đảo qua mạng- Ảnh 1.

Theo thông báo mới đây của Bộ Công an, xuất hiện tình trạng tội phạm lợi dụng các hình ảnh, video của người dân được công khai trên không gian mạng để chỉnh sửa, cắt, ghép tạo nội dung nhạy cảm nhằm đe dọa, tống tiền.

Trước tình hình trên, nhằm chủ động trong công tác phòng ngừa các hành vi có thủ đoạn nêu trên và bảo đảm an ninh chính trị nội bộ cơ quan, đơn vị, Bộ Công an khuyến cáo người dân cần cảnh giác khi nhận được các tin nhắn, cuộc gọi có nội dung như trên; không chuyển tiền khi bị đe dọa; khi phát hiện dấu hiệu bị lừa đảo, cưỡng đoạt tài sản cần nhanh chóng trình báo Cơ quan Công an nơi gần nhất và phản ánh qua ứng dụng VNeID.

Lừa đảo deepfake ngày càng nguy hiểm

Theo báo cáo của Kaspersky, số vụ tấn công mạng trên thế giới đã tăng vọt trong năm qua. Trong đó, mối đe dọa hàng đầu vẫn là lừa đảo (phishing), với gần một nửa số người được hỏi cho biết họ từng là nạn nhân. Tình trạng đáng lo ngại là tội phạm mạng đang lợi dụng AI để nâng cấp các hình thức lừa đảo, khiến chúng trở nên khó phát hiện và nhận biết.

Trong đó, công nghệ deepfake là một nhánh nổi bật của AI. Nhờ khả năng tái tạo âm thanh và hình ảnh của một người với độ chính xác cao, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng lên các video, cuộc gọi nhằm lừa đảo tài chính, hoặc chỉnh sửa, cắt, ghép tạo nội dung nhạy cảm nhằm đe dọa, tống tiền.

Ngay cả những chuyên gia bảo mật giàu kinh nghiệm cũng có thể trở thành nạn nhân của các cuộc tấn công được hỗ trợ bởi AI. Mức độ chân thực và tính cá nhân hóa cao của nội dung lừa đảo đôi khi vượt qua sự hoài nghi, vốn là “lá chắn” giúp họ cảnh giác.

Hơn nữa, các chiêu trò này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, hay các yếu tố nhạy cảm, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.

Giọng nói giả mạo (voice fakes) cũng đã được sử dụng trong các vụ lừa đảo nhắm vào cá nhân, cũng như trong các cuộc tấn công nhằm vào các ngân hàng sử dụng hệ thống xác thực bằng giọng nói. Báo cáo Identity Fraud năm 2025 cho biết, trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra.

Link nội dung: https://doanhnhanvatieudung.com/bo-cong-an-canh-bao-moi-ve-lua-dao-qua-mang-a124595.html