Cảnh báo tội phạm
Đăng ngày: 15/05/2025 - Lượt xem: 1204
Cảnh giác cao độ trước nạn lừa đảo bằng công nghệ Deepfake và AI, nhận diện thủ đoạn và cách phòng ngừa

Sự phát triển như vũ bão của công nghệ thông tin, đặc biệt là trí tuệ nhân tạo (AI), bên cạnh những lợi ích to lớn cho đời sống xã hội, cũng đang đặt ra những thách thức mới về an ninh an toàn mạng. Một trong những mối đe dọa nổi lên gần đây, với mức độ tinh vi và khả năng gây thiệt hại nghiêm trọng, chính là các hành vi lừa đảo sử dụng công nghệ Deepfake và AI. Các đối tượng xấu đang lợi dụng những công nghệ này để tạo ra các sản phẩm giả mạo hình ảnh, giọng nói, video một cách chân thực đến khó tin, nhằm thực hiện các hành vi lừa đảo chiếm đoạt tài sản, gây hoang mang dư luận và ảnh hưởng tiêu cực đến an ninh trật tự. Việc nâng cao cảnh giác, trang bị kiến thức để nhận diện và phòng tránh các thủ đoạn này là vô cùng cấp thiết đối với mỗi người dân.

Deepfake và AI - "Vũ Khí" Mới Trong Tay Tội Phạm Mạng:

"Deepfake" là một thuật ngữ dùng để chỉ các sản phẩm công nghệ (video, hình ảnh, âm thanh) được tạo ra bằng cách sử dụng AI, đặc biệt là các thuật toán học sâu (deep learning), để giả mạo hoặc thay thế khuôn mặt, giọng nói của một người bằng khuôn mặt, giọng nói của người khác một cách rất tự nhiên. AI còn được tội phạm mạng khai thác để:

- Tạo kịch bản lừa đảo thuyết phục: AI có thể phân tích dữ liệu lớn để tạo ra các thông điệp lừa đảo "cá nhân hóa", đánh trúng tâm lý của từng nạn nhân.

- Tự động hóa tấn công: Một số công đoạn trong quá trình lừa đảo có thể được tự động hóa bằng AI, giúp tội phạm thực hiện các chiến dịch lừa đảo trên quy mô lớn.

- Vượt qua các biện pháp xác thực truyền thống: Các sản phẩm deepfake ngày càng tinh vi có thể qua mặt được một số hệ thống nhận diện khuôn mặt hoặc giọng nói cơ bản.

So với các hình thức lừa đảo truyền thống, lừa đảo sử dụng Deepfake và AI nguy hiểm hơn hẳn bởi tính chân thực và khả năng đánh lừa thị giác, thính giác của nạn nhân, khiến họ dễ dàng tin tưởng và làm theo yêu cầu của kẻ gian.

Các Hình Thức Lừa Đảo Sử Dụng Deepfake và AI Phổ Biến Hiện Nay:

Tội phạm mạng liên tục thay đổi, nâng cấp thủ đoạn lừa đảo bằng Deepfake và AI. Một số hình thức phổ biến bao gồm:

1. Giả mạo người thân, bạn bè gọi điện video/thoại: Đây là thủ đoạn rất phổ biến. Kẻ gian sử dụng Deepfake để tạo video call hoặc cuộc gọi thoại giả giọng người thân, bạn bè, đồng nghiệp với các lý do khẩn cấp (tai nạn, bệnh tật, cần tiền gấp để giải quyết công việc...) và yêu cầu nạn nhân chuyển tiền ngay lập tức.

2. Tạo video, hình ảnh nhạy cảm giả mạo (Deepfake Pornography): Kẻ xấu sử dụng hình ảnh của nạn nhân (thường lấy từ mạng xã hội) để ghép vào các nội dung khiêu dâm, sau đó dùng để đe dọa, tống tiền hoặc bôi nhọ danh dự.

3. Giả mạo người nổi tiếng, chuyên gia: Tạo các video Deepfake giả mạo người nổi tiếng, chuyên gia uy tín để quảng cáo các sản phẩm, dịch vụ kém chất lượng, các dự án đầu tư lừa đảo (tiền ảo, sàn giao dịch ma) nhằm chiếm đoạt tài sản.

4. Tạo tin giả dạng video/audio: Sản xuất các đoạn video, âm thanh giả mạo phát ngôn của các nhà lãnh đạo, người có ảnh hưởng để lan truyền thông tin sai lệch, gây hoang mang dư luận, phục vụ các mục đích chính trị xấu hoặc gây bất ổn xã hội.

Dấu Hiệu Nhận Diện Lừa Đảo Deepfake và AI:

Mặc dù ngày càng tinh vi, các sản phẩm Deepfake vẫn có thể có những điểm bất thường nếu chúng ta quan sát kỹ chất lượng, nội dung video/audio như:

Hình ảnh: Khuôn mặt có thể trông phẳng, thiếu cảm xúc tự nhiên; da mặt quá mịn hoặc có những vùng mờ bất thường; chuyển động của đầu, môi, mắt thiếu đồng bộ hoặc giật cục; ánh sáng trong video không nhất quán với môi trường xung quanh.

Âm thanh: Giọng nói có thể đều đều, thiếu ngữ điệu tự nhiên, có tiếng vọng lạ, hoặc không khớp hoàn toàn với khẩu hình của người nói trong video.

Nội dung yêu cầu bất thường: Đối tượng thường tạo ra tình huống khẩn cấp, gây áp lực, yêu cầu chuyển tiền ngay lập tức, cung cấp thông tin cá nhân nhạy cảm (mật khẩu, mã OTP) một cách bất ngờ và thiếu logic.

Kênh liên lạc không chính thống hoặc bất thường: Cuộc gọi đến từ số lạ, tài khoản mạng xã hội mới tạo hoặc ít tương tác.

Thời gian tương tác ngắn: các đối tượng thường cố gắng kết thúc cuộc gọi nhanh để tránh bị phát hiện.

Trước tình trạng này, Công an tỉnh Hưng Yên khuyến cáo người dân:

1. Nâng cao cảnh giác tối đa: Luôn giữ thái độ hoài nghi, cẩn trọng trước bất kỳ yêu cầu đột ngột nào liên quan đến tiền bạc hoặc thông tin cá nhân, ngay cả khi đó dường như là người thân, bạn bè.

2. Xác minh thông tin đa kênh: Nếu nhận được cuộc gọi/video call yêu cầu chuyển tiền từ người thân, hãy kết thúc cuộc gọi và chủ động gọi lại cho người đó qua số điện thoại đã lưu trong danh bạ (không gọi lại vào số vừa gọi đến) để xác thực. Có thể đặt những câu hỏi mang tính cá nhân, riêng tư mà chỉ người thật mới biết để kiểm tra.

3. Hạn chế chia sẻ thông tin cá nhân, hình ảnh, video riêng tư lên mạng xã hội: Càng ít dữ liệu cá nhân công khai, tội phạm càng khó thu thập để tạo ra các sản phẩm Deepfake nhắm vào bạn. Cài đặt quyền riêng tư cho các tài khoản mạng xã hội.

4. Cập nhật thường xuyên kiến thức về các thủ đoạn lừa đảo mới: Theo dõi thông tin cảnh báo từ các cơ quan chức năng và từ các phương tiện truyền thông chính thống.

5. Sử dụng các biện pháp bảo mật cơ bản: Cập nhật hệ điều hành, phần mềm diệt virus; sử dụng mật khẩu mạnh và khác nhau cho các tài khoản; kích hoạt xác thực hai yếu tố (2FA).

6. Báo cáo ngay cho cơ quan Công an: Khi nghi ngờ hoặc phát hiện hành vi lừa đảo, hoặc đã trở thành nạn nhân, cần nhanh chóng trình báo với cơ quan Công an nơi gần nhất để được hỗ trợ kịp thời và giúp ngăn chặn tội phạm.

Lừa đảo sử dụng công nghệ Deepfake và AI là một thách thức an ninh mạng nghiêm trọng và ngày càng phức tạp. Cuộc chiến chống lại loại tội phạm này đòi hỏi sự tỉnh táo, hiểu biết và hành động quyết liệt từ mỗi cá nhân cũng như sự phối hợp chặt chẽ của toàn xã hội. Mỗi cá nhân cần phải trang bị cho mình những kiến thức, kỹ năng để bảo vệ bản thân trong thời đại công nghệ số./. 

Trần Tuấn Đạt - Phòng An ninh mạng và PCTP sử dụng công nghệ cao

Tin liên quan