Khuyến mãi
Search

Deepfake: Khi “mắt thấy tai nghe” không còn là sự thật dịp cận Tết

Wednesday, 18/03/2026

Dịp Tết Nguyên đán 2026 ghi nhận sự bùng nổ của các vụ lừa đảo sử dụng công nghệ Deepfake. Bằng việc sử dụng trí tuệ nhân tạo (AI) để giả dạng hình ảnh, video và giọng nói của người thân, kẻ gian đã khiến nhiều nạn nhân sập bẫy với số tiền chiếm đoạt lên tới hàng tỷ đồng. Đây không còn là những kịch bản tin nhắn rác đơn thuần mà đã biến tướng thành những cuộc gọi video “mặt đối mặt” đầy tinh vi.

Những vụ việc điển hình: Khi hình ảnh và giọng nói bị lợi dụng

Gần đây, một cụ bà gần 80 tuổi tại Hà Nội đã bị lừa đảo bằng công nghệ deepfake. Dù không sử dụng tài khoản ngân hàng, bà thường liên lạc với người thân qua Zalo và Facebook. Sau khi điện thoại bị xâm nhập, kẻ gian theo dõi các cuộc trò chuyện và tạo tài khoản Facebook giả mạo cháu trai đang du học ở nước ngoài. Chúng sử dụng deepfake để gọi điện, dựng kịch bản cần tiền mua máy tính học tập, lợi dụng lòng tin của bà. Tin vào hình ảnh và giọng nói do AI tạo ra, bà đã gom tiền và để đối tượng đến tận nhà nhận.

Lừa đảo bằng công nghệ deepfake gia tăng trong dịp tết

Lừa đảo bằng công nghệ deepfake gia tăng trong dịp tết

Trước đó, một trường hợp khác tại Hà Nội cũng bị lừa hơn 1,3 tỉ đồng theo kịch bản tương tự. Người mẹ nhận được cuộc gọi video hiển thị hình ảnh con gái đang du học. Sau khi cuộc gọi bị ngắt với lý do “sóng yếu”, đối tượng tiếp tục nhắn tin yêu cầu chuyển tiền đổi ngoại tệ, viện dẫn chi phí chiết khấu. Tin tưởng là con gái mình, bà đã chuyển tiền mà không kiểm chứng lại qua kênh khác, đến khi phát hiện toàn bộ tin nhắn bị xóa mới biết mình đã bị lừa.

Theo các chuyên gia công nghệ, deepfake không chỉ nhắm tới người nổi tiếng hay chính trị gia. Khoảng 34% nạn nhân là người dân bình thường, xuất phát từ thói quen chia sẻ hình ảnh, video và giọng nói cá nhân trên mạng xã hội, vô tình tạo ra “nguồn dữ liệu” cho tội phạm.

>>> Xem thêm: Tin tức

Hình thức lừa đảo chuyển sang mức độ tinh vi hơn

Các chuyên gia an ninh mạng nhận định, trước – trong – sau Tết Nguyên đán là thời điểm tội phạm công nghệ cao hoạt động mạnh. Nhu cầu du lịch, mua sắm, chuyển tiền và liên lạc với người thân tăng cao khiến người dùng dễ mất cảnh giác.

Thủ đoạn phổ biến hiện nay là cuộc gọi video hoặc thoại giả mạo theo thời gian thực, kết hợp cả hình ảnh và giọng nói của người thân để thao túng tâm lý nạn nhân, tạo cảm giác khẩn cấp và buộc phải chuyển tiền ngay.

Hình thức lừa đảo ngày càng tinh vi với các cuộc gọi video theo thời gian thực

Hình thức lừa đảo ngày càng tinh vi với các cuộc gọi video theo thời gian thực

Deepfake thường đi kèm kịch bản:

  • Tạo áp lực thời gian: Viện cớ gấp gáp như học phí, viện phí, đổi ngoại tệ.
  • Đánh vào tình cảm gia đình: Mạo danh con cháu, người thân ở xa.
  • Tránh bị xác minh: Lấy lý do mạng yếu, camera hỏng, không thể gọi lại bằng số quen thuộc.

Trong bối cảnh đó, hình ảnh, giọng nói và video không còn là căn cứ đủ tin cậy để xác thực danh tính, nếu không có bước kiểm chứng bổ sung.

>>> Xem thêm: Cảnh báo thủ đoạn mạo danh cán bộ đăng kiểm để lừa đảo

Lời khuyên và cách phòng tránh lừa đảo deepfake từ GMNC

Từ góc nhìn của GMNC – hệ thống nội dung chuyên phân tích và cảnh báo các hiện tượng lừa đảo trực tuyến, deepfake đang trở thành một trong những công cụ nguy hiểm nhất vì nó đánh trực tiếp vào niềm tin cá nhân chứ không chỉ vào kỹ thuật.

Hướng dẫn an toàn, phòng tránh lừa đảo deepfake từ GMNC

Hướng dẫn an toàn, phòng tránh lừa đảo deepfake từ GMNC

GMNC đưa ra các khuyến nghị sau để người dùng tự bảo vệ mình:

  • Không coi hình ảnh và giọng nói là bằng chứng xác thực tuyệt đối. Khi nhận yêu cầu chuyển tiền hoặc cung cấp thông tin, cần dừng lại và xác minh qua một kênh độc lập khác (gọi trực tiếp số điện thoại quen thuộc, hỏi người thân trong gia đình).
  • Cảnh giác với kịch bản khẩn cấp. Deepfake thường gắn với câu chuyện cần tiền gấp. Việc tạo áp lực thời gian nhằm khiến nạn nhân bỏ qua bước kiểm chứng.
  • Hạn chế chia sẻ dữ liệu cá nhân. Hình ảnh, video, giọng nói đăng công khai trên mạng xã hội có thể trở thành “nguyên liệu” cho các công cụ giả mạo.
  • Chỉ thực hiện giao dịch tài chính qua kênh chính thức. Không chuyển tiền theo hướng dẫn riêng lẻ, ngoài hệ thống, hoặc qua liên kết không rõ nguồn gốc.
  • Chủ động xác minh khi có nghi vấn. Nếu nhận được cuộc gọi, tin nhắn đáng ngờ, nên liên hệ trực tiếp với người được cho là đang yêu cầu tiền, hoặc trao đổi với cơ quan chức năng để được hỗ trợ.

GMNC cảnh báo rằng, trong kỷ nguyên trí tuệ nhân tạo, niềm tin mù quáng vào hình ảnh và giọng nói có thể trở thành điểm yếu lớn nhất. Việc duy trì thói quen kiểm chứng thông tin qua nhiều lớp và giữ kỷ luật trong giao dịch tài chính là cách hiệu quả nhất để tránh rơi vào bẫy deepfake trong dịp Tết.

Thần Bài Miền Tây
15.254.201K