Cách nhận diện lừa đảo deepfake
09/11/2023 03:36 PM
Hiện tại bài viết chưa được cập nhật nội dung Âm thanh. Xin cảm ơn.
Theo Bộ Thông tin và Truyền thông, Deepfake không còn được dùng cho mục đích giải trí, nó đang dần bị các tội phạm mạng khai thác trở thành công cụ lừa đảo. Trong bối cảnh các tiến bộ công nghệ liên tục định hình mạng xã hội và phương tiện truyền thông đại chúng, deepfake đang trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng deepfake ngày càng gia tăng.
Ảnh minh họa (Nguồn Internet)
Khi cầu vượt cung, các chuyên gia của Kaspersky dự đoán rằng các vụ lừa đảo bằng deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn. Từ cung cấp một video mạo danh chất lượng cao với đầy đủ dịch vụ sản xuất cho đến việc sử dụng hình ảnh người nổi tiếng trong luồng phát trực tuyến giả mạo (fake livestream) trên mạng xã hội và hứa hẹn sẽ thanh toán gấp đôi số tiền nạn nhân đã gửi họ.
Theo Regula, một hệ thống tham chiếu thông tin, có tới 37% doanh nghiệp trên toàn thế giới va chạm các vụ lừa đảo deepfake bằng giọng nói và 29% trở thành nạn nhân của video deepfake. Deepfake đã trở thành mối đe dọa đối với an ninh mạng Việt Nam, nơi tội phạm mạng thường sử dụng các cuộc gọi video deepfake để mạo danh một cá nhân và vay mượn người thân, bạn bè của họ những khoản tiền lớn cho những trường hợp cấp bách.
Hơn nữa, một cuộc gọi điện video deepfake có thể được thực hiện chỉ trong vòng 1 phút nên nạn nhân rất khó phân biệt giữa cuộc gọi thật và giả.
Mặc dù AI đang bị các tội phạm lạm dụng cho những mục đích xấu, các cá nhân và doanh nghiệp vẫn có thể tận dụng AI để nhận diện deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo.
Kaspersky chia sẻ các giải pháp để người dùng tự bảo vệ mình khỏi các trò lừa đảo deepfake:
Công cụ phát hiện nội dung AI: Những phần mềm phát hiện nội dung do AI tạo ra sử dụng thuật toán AI tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh.
Đối với video deepfake, một số công cụ giúp nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại. Một số công cụ phát hiện lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu.
Nội dung AI được đánh dấu watermark: Hình mờ (watermark) đóng vai trò là dấu hiệu nhận biết trong hình ảnh, video… giúp tác giả bảo vệ bản quyền cho các tác phẩm AI. Tuy nhiên, công cụ này có thể trở thành vũ khí chống lại deepfake vì hình thức này có thể giúp truy tìm nguồn gốc của nền tảng tạo ra AI.
Truy xuất nguồn gốc nội dung: Vì AI thu thập lượng lớn dữ liệu từ nhiều nguồn khác nhau để tạo nội dung mới, phương pháp này nhằm mục đích truy tìm nguồn gốc của nội dung đó.
Xác thực video: là quá trình xác thực nội dung video không bị thay đổi so với giai đoạn đầu được tạo. Đây là quá trình được người sáng tạo video quan tâm nhất. Một số công nghệ mới nổi sử dụng thuật toán mã hóa để chèn các giá trị băm theo các khoảng thời gian đặt trong video. Nếu video đã qua chỉnh sửa, giá trị băm sẽ bị thay đổi.
Bên cạnh việc sử dụng các công cụ AI để nhận diện deepfake, người dùng cũng cần có những biện pháp phù hợp để bảo vệ bản thân trước deepfake./.
Trung tâm CNTT
Chi tiết >>
Video: BHXH Việt Nam tổ chức Hội nghị giao ban ...
BHXH Việt Nam tăng cường hợp tác quốc tế nâng cao ...
Các ca khúc đạt giải Đặc biệt, giải A và giải B ...
Khẩn trương hoàn thành nhiệm vụ năm 2024, tạo tiền ...
Đảm bảo quyền lợi BHXH, BHYT cho các nạn nhân vụ cháy quán ...
Hoạt động hiến máu tình nguyện năm 2024: Lan tỏa tinh thần ...
Ngành BHXH Việt Nam: Nhiều hoạt động ý nghĩa hướng tới kỷ ...
BHXH Việt Nam tăng hạng, xếp thứ 2 về Chỉ số phục vụ người ...
Bạn có thể cho biết ý kiến về thông tin cung cấp trên Cổng thông tin của BHXH Việt Nam?
Bạn có hài lòng với nội dung thông tin cung cấp trên Cổng thông tin BHXH Việt Nam?