Dịp Tết Nguyên đán 2026 ghi nhận sự bùng nổ của các vụ lừa đảo sử dụng công nghệ Deepfake. Bằng việc sử dụng trí tuệ nhân tạo (AI) để giả dạng hình ảnh, video và giọng nói của người thân, kẻ gian đã khiến nhiều nạn nhân sập bẫy với số tiền chiếm đoạt lên tới hàng tỷ đồng. Đây không còn là những kịch bản tin nhắn rác đơn thuần mà đã biến tướng thành những cuộc gọi video “mặt đối mặt” đầy tinh vi.
Gần đây, một cụ bà gần 80 tuổi tại Hà Nội đã bị lừa đảo bằng công nghệ deepfake. Dù không sử dụng tài khoản ngân hàng, bà thường liên lạc với người thân qua Zalo và Facebook. Sau khi điện thoại bị xâm nhập, kẻ gian theo dõi các cuộc trò chuyện và tạo tài khoản Facebook giả mạo cháu trai đang du học ở nước ngoài. Chúng sử dụng deepfake để gọi điện, dựng kịch bản cần tiền mua máy tính học tập, lợi dụng lòng tin của bà. Tin vào hình ảnh và giọng nói do AI tạo ra, bà đã gom tiền và để đối tượng đến tận nhà nhận.

Lừa đảo bằng công nghệ deepfake gia tăng trong dịp tết
Trước đó, một trường hợp khác tại Hà Nội cũng bị lừa hơn 1,3 tỉ đồng theo kịch bản tương tự. Người mẹ nhận được cuộc gọi video hiển thị hình ảnh con gái đang du học. Sau khi cuộc gọi bị ngắt với lý do “sóng yếu”, đối tượng tiếp tục nhắn tin yêu cầu chuyển tiền đổi ngoại tệ, viện dẫn chi phí chiết khấu. Tin tưởng là con gái mình, bà đã chuyển tiền mà không kiểm chứng lại qua kênh khác, đến khi phát hiện toàn bộ tin nhắn bị xóa mới biết mình đã bị lừa.
Theo các chuyên gia công nghệ, deepfake không chỉ nhắm tới người nổi tiếng hay chính trị gia. Khoảng 34% nạn nhân là người dân bình thường, xuất phát từ thói quen chia sẻ hình ảnh, video và giọng nói cá nhân trên mạng xã hội, vô tình tạo ra “nguồn dữ liệu” cho tội phạm.
>>> Xem thêm: Tin tức
Các chuyên gia an ninh mạng nhận định, trước – trong – sau Tết Nguyên đán là thời điểm tội phạm công nghệ cao hoạt động mạnh. Nhu cầu du lịch, mua sắm, chuyển tiền và liên lạc với người thân tăng cao khiến người dùng dễ mất cảnh giác.
Thủ đoạn phổ biến hiện nay là cuộc gọi video hoặc thoại giả mạo theo thời gian thực, kết hợp cả hình ảnh và giọng nói của người thân để thao túng tâm lý nạn nhân, tạo cảm giác khẩn cấp và buộc phải chuyển tiền ngay.

Hình thức lừa đảo ngày càng tinh vi với các cuộc gọi video theo thời gian thực
Deepfake thường đi kèm kịch bản:
Trong bối cảnh đó, hình ảnh, giọng nói và video không còn là căn cứ đủ tin cậy để xác thực danh tính, nếu không có bước kiểm chứng bổ sung.
>>> Xem thêm: Cảnh báo thủ đoạn mạo danh cán bộ đăng kiểm để lừa đảo
Từ góc nhìn của GMNC – hệ thống nội dung chuyên phân tích và cảnh báo các hiện tượng lừa đảo trực tuyến, deepfake đang trở thành một trong những công cụ nguy hiểm nhất vì nó đánh trực tiếp vào niềm tin cá nhân chứ không chỉ vào kỹ thuật.

Hướng dẫn an toàn, phòng tránh lừa đảo deepfake từ GMNC
GMNC đưa ra các khuyến nghị sau để người dùng tự bảo vệ mình:
GMNC cảnh báo rằng, trong kỷ nguyên trí tuệ nhân tạo, niềm tin mù quáng vào hình ảnh và giọng nói có thể trở thành điểm yếu lớn nhất. Việc duy trì thói quen kiểm chứng thông tin qua nhiều lớp và giữ kỷ luật trong giao dịch tài chính là cách hiệu quả nhất để tránh rơi vào bẫy deepfake trong dịp Tết.