Deepfake là gì?
Dù bạn không phải là một chuyên gia công nghệ, thì cụm từ “deepfake” chắc chắn cũng gợi cho bạn nhớ đến một loại công nghệ nào đó. Gần đây, khái niệm này đã trở nên phổ biến trên các phương tiện truyền thông.

Theo Kaspersky, một công ty bảo mật có nguồn gốc từ Nga, deepfake là một từ ghép từ “deep” trong deep-learning (học sâu) và “fake” (giả mạo). Deepfake là một phương pháp trí tuệ nhân tạo (A.I) tiên tiến sử dụng nhiều lớp thuật toán máy học để trích xuất dần dần các đặc trưng cao cấp từ dữ liệu gốc, thường là không cấu trúc, ví dụ như khuôn mặt con người. Nó còn có khả năng học hỏi từ dữ liệu không cấu trúc như chuyển động của con người.
Dữ liệu hình ảnh sau đó được xử lý để tạo ra video deepfake thông qua việc sử dụng GAN (Mạng lưới đối thủ sáng tạo), một hệ thống máy học đặc biệt. GAN sử dụng hai mạng thần kinh để cạnh tranh với nhau trong việc học các đặc trưng từ dữ liệu có sẵn, chẳng hạn như ảnh chụp khuôn mặt, sau đó tạo ra dữ liệu mới với các đặc trưng tương tự.

Khả năng học hỏi của các hệ thống trí tuệ nhân tạo luôn được kiểm tra và so sánh với dữ liệu gốc để mục đích huấn luyện, làm cho hình ảnh được tạo ra bởi A.I ngày càng trở nên thuyết phục hơn. Điều này làm cho deepfake đang trở thành một mối đe dọa lớn hơn bao giờ hết. Không chỉ hình ảnh, A.I còn có thể giả mạo các dữ liệu khác, với một số công nghệ deepfake đã có khả năng giả mạo giọng nói.
Sử dụng deepfake để tung tin giả?
Khá khó để giải thích cụ thể về cách hoạt động của deepfake từ góc kỹ thuật. Tuy nhiên, một cách đơn giản, deepfake sử dụng khả năng học hỏi từ dữ liệu về khuôn mặt, hình ảnh và giọng nói của con người để tạo ra những hình ảnh hoặc video trông rất giống thật, đến mức khó để phân biệt nếu chỉ nhìn qua một lần.
Vào năm 2017, một công ty khởi nghiệp trí tuệ nhân tạo mang tên Lyrebird đã phát hành bản sao giọng nói của các vị lãnh đạo nổi tiếng như ông Trump, ông Obama và bà Hilary Clinton. Từ đó, chất lượng đã được cải thiện đáng kể và thậm chí công chúng cũng có thể sử dụng công cộng.
Một ví dụ khác thể hiện tính nguy hiểm của deepfake là video được thực hiện bởi nam diễn viên Jordan Peele, trong đó đội ngũ kỹ thuật viên đã sử dụng cảnh quay thực của ông Barack Obama kết hợp với kỹ thuật tạo video deepfake để tạo ra một bài phát ngôn giả mạo, trong đó ông Obama sử dụng những từ ngữ không tốt đẹp để đánh giá ông Trump.
Ngay sau đó, Jordan Peele đã đăng tải hai nửa của video được tạo ra, trình bày cách họ thực hiện để cảnh báo mọi người về sự nguy hiểm của deepfake và cách chúng có thể tạo ra thông tin giả mạo trên internet. Được biết, đội ngũ của nam diễn viên đã mất khoảng 60 tiếng để tạo ra video giả mạo trông rất thực tế.
Ông Obama không phải là người duy nhất bị tạo ra video deepfake giả mạo, thậm chí người sáng lập mạng xã hội Facebook, Mark Zuckerberg, cũng đã bị đánh lừa bằng deepfake. Từ một bài phát biểu ban đầu, deepfake đã tạo ra một video với giọng nói giả mạo của Mark Zuckerberg và những nội dung giả mạo về việc Facebook đánh cắp dữ liệu người dùng và kiểm soát tương lai. Mặc dù đoạn video này không hoàn hảo, nhưng vẫn đủ để tạo nên một thông điệp giả mạo.

Ảnh NBC News
Tất cả các ví dụ đã được đề cập đều có độ phân giải và chi tiết cao. Tuy nhiên, không phải lúc nào hình ảnh càng sắc nét thì deepfake càng dễ lừa đảo, và điều này có thể gây hiểu lầm. Một ví dụ điển hình là bà Nancy Pelosi, người từng trở thành nạn nhân của một video deepfake với phát ngôn giả mạo, trong đó bà được tạo thành một người đang trong tình trạng say xỉn. Video giả mạo này có chất lượng cực kém, nhưng nhanh chóng thu hút hàng triệu lượt xem trên mạng xã hội và buộc bà Nancy Pelosi phải lên tiếng để làm sáng tỏ tình hình.
Deepfake – Lừa đảo và tống tiền
Công nghệ deepfake không chỉ dừng lại ở việc sử dụng để tạo ra các tin tức giả trong lĩnh vực chính trị hoặc trả thù cá nhân. Nhiều đối tượng lừa đảo còn sử dụng công nghệ này để thực hiện các hành vi như tống tiền hoặc chiếm đoạt tài sản.

Ví dụ đáng chú ý khác về sự lạm dụng của công nghệ deepfake là khi CEO của một công ty năng lượng đã bị lừa đảo mất 243.000 USD. Kẻ lừa đảo đã sử dụng giọng nói deepfake giả mạo người đứng đầu công ty, yêu cầu việc chuyển tiền ngay lập tức. Sự thuyết phục của giọng nói giả mạo đã khiến CEO không nghi ngờ và không thực hiện kiểm tra chéo. Tiền đã không được chuyển đến trụ sở chính của công ty mà thay vào đó được chuyển đến một tài khoản ngân hàng bên thứ ba. CEO chỉ bắt đầu nghi ngờ khi “sếp” yêu cầu thêm một lần chuyển tiền khác. Tuy kẻ lừa đảo sau đó đã bị phát hiện, nhưng đã quá muộn để lấy lại số tiền 243.000 USD mà CEO đã chuyển trước đó.
Tại Pháp, một người tên là Gilbert Chikli đã sử dụng sự giả mạo cùng việc sao chép tỉ mỉ văn phòng của Bộ trưởng Ngoại giao Jean-Yves le Drian và trang thiết bị trong đó để lừa dối nhiều giám đốc điều hành và chiếm đoạt hàng triệu EURO. Kẻ lừa đảo Gilbert Chikli sau đó đã cải trang thành bộ trưởng để yêu cầu các cá nhân giàu có và các giám đốc điều hành công ty đưa tiền chuộc để giải thoát các con tin, họi sau đó đã bị truy tố và phải hầu tòa vì hành vi của mình.

Mark Zuckerberg, CEO của Facebook, cũng đã trở thành mục tiêu của công nghệ deepfake với sự giả mạo cả khuôn mặt và giọng nói của ông.
Cách deepfake được sử dụng để tạo ra các video khiêu dâm là một trong những tình huống đáng lo ngại. Nó đã được áp dụng để tống tiền nhiều phóng viên và nhà báo, bao gồm trường hợp của Rana Ayyub tại Ấn Độ. Cô bị ghép mặt vào các video khiêu dâm và sau đó kẻ lừa đảo đã sử dụng những video giả này để tống tiền cô.
Công nghệ deepfake ngày càng phát triển và trở nên dễ tiếp cận hơn, đồng thời chi phí thực hiện cũng ngày càng giảm. Điều này khiến cho mức độ nguy hiểm của deepfake ngày càng cao. Nếu không có đủ kiến thức và thông tin, việc phát hiện deepfake trở nên khó khăn.
Làm thế nào để tự bảo vệ trước deepfake?
Trước sự nguy hiểm của các chiêu trò ngày càng tinh vi và vì không phải ai cũng có đủ kiến thức về công nghệ để phát hiện deepfake, các chuyên gia về bảo mật thường đưa ra các lời khuyên để ngăn ngừa tình huống xấu có thể xảy ra, đặc biệt là trong việc bảo vệ tài khoản trực tuyến.
Tin tưởng nhưng vẫn cần xác minh: Khi nhận được một cuộc gọi hoặc tin nhắn thoại đặc biệt, đặc biệt là những yêu cầu về vay tiền hoặc mượn tài sản cá nhân, dù giọng nói nghe rất quen thuộc và thực sự giống thật, tốt nhất bạn nên xác minh lại bằng cách gọi lại số điện thoại mà bạn biết là chính xác để xác minh rằng người đó đã thực sự gửi yêu cầu bằng cuộc gọi hay tin nhắn thoại.

Không vội vàng truy cập các đường link: Khi nhận được một đường link với cấu trúc lạ hoặc đáng ngờ, không nên nhấp vào đó ngay lập tức. Điều này có thể là một mẹo để lừa đảo và chiếm quyền kiểm soát tài khoản trực tuyến của bạn. Thay vào đó, hãy xác minh với người gửi tin nhắn để đảm bảo tính hợp lệ của đường link.
Lưu ý vào những chi tiết nhỏ: Nếu bạn nhận được cuộc gọi hoặc cuộc video call liên quan đến việc chuyển tiền, dù là từ người bạn quen biết, hãy kiểm tra kỹ thông tin như số điện thoại, email hoặc tên tài khoản xem chúng có khớp với người thực hiện yêu cầu hay không. Thường thì kẻ lừa đảo sẽ yêu cầu chuyển tiền vào một tài khoản bên thứ ba hoặc tài khoản có tên gần giống.
Giới hạn sự hiện diện của bạn trực tuyến: Để ngăn chặn việc lấy dữ liệu hình ảnh và âm thanh của bạn để tạo deepfake, hãy hạn chế việc chia sẻ hình ảnh và âm thanh của bạn trên mạng xã hội hoặc đặt tài khoản của bạn ở chế độ riêng tư, chỉ chấp nhận yêu cầu từ những người mà bạn tin tưởng.
Ngoài ra, có một số cách để xác định sự hiện diện của deepfake ngay lập tức, bao gồm:
- Các phần video bị nhảy cục hoặc lỗi
- Thay đổi ánh sáng không liên tục giữa các khung hình
- Thay đổi liên tục trong tông màu da
- Sự nhấp nháy hoặc sự thay đổi lạ thường
- Không đồng bộ giữa khẩu hình miệng và lời nói
- Xuất hiện các đối tượng kỹ thuật số trong hình ảnh
- Chất lượng thấp của âm thanh và/hoặc video
- Người nói không nháy mắt và liên tục nói
Deepfake – Hình thức lừa đảo nguy hiểm sẽ phổ biến hơn trong tương lai?
Vào tháng 6 năm 2019, IBM chỉ phát hiện khoảng 3.000 video deepfake. Tuy nhiên, vào tháng 1 năm 2020, con số này đã tăng lên 100.000. Và đến tháng 3 năm 2020, đã có hơn một triệu video deepfake được lan truyền trên internet.
Theo một nghiên cứu khác từ Deeptrace, vào tháng 12 năm 2018, có khoảng 15.000 video deepfake. Tuy nhiên, con số này tăng lên 558.000 vào tháng 6 năm 2019 và tiếp tục tăng đột ngột lên trên một triệu vào tháng 2 năm 2020.

Ảnh CNBC
Cũng trong nghiên cứu của Deeptrace, đến 96% các video deepfake được tạo ra để phục vụ các mục đích không hợp pháp. Những con số chính thống này đang đưa ra cảnh báo về một tương lai không mấy đẹp. Với sự phát triển ngày càng nhanh chóng của công nghệ và sự dễ dàng tiếp cận deepfake, việc lây lan thông tin giả mạo, các hình thức lừa đảo sử dụng deepfake có thể lan rộng trên mạng.
Do đó, cần tận hưởng internet một cách thận trọng, đặc biệt là trên các nền tảng mạng xã hội, nơi mà chúng ta thường chia sẻ nhiều thông tin cá nhân, tạo điều kiện thuận lợi cho các kẻ xấu lợi dụng để thực hiện các hành vi lừa đảo.
Vì “deepfake” đang dễ dàng giả mạo danh tính, giọng nói, và trở thành một công cụ hữu ích cho những kẻ có ý đồ xấu để thực hiện các hành vi lừa đảo trị giá hàng tỷ đồng.
IT Xanh cảm ơn đã đọc bài viết, mong các thông tin trên có thể giúp ích cho bạn – Kham khảo thêm nhiều thủ thuật hay và bổ ích cùng IT Xanh