
Một ngày đẹp trời, bạn bỗng dưng đọc được lời mời gọi từ những tài khoản mang tên, hình ảnh, thậm chí là video của các chuyên gia có tên tuổi trong lĩnh vực tài chính, chứng khoán, ngân hàng như TS Cấn Văn Lực, Võ Trí Thành, Nguyễn Trí Hiếu... bạn có sẵn sàng nghe theo những lời kêu gọi, tư vấn ấy? Hãy cảnh giác, vì với sự phát triển của AI, những vụ lừa đảo deepfake đã trở nên dễ dàng hơn nhiều...
Phát biểu tại Hội nghị GSMA bàn về tương lai số của Việt Nam giữa tháng 4/2025, ông Julian Gorman, Giám đốc khu vực Châu Á - Thái Bình Dương của Hiệp hội Di động Toàn cầu (GSMA) chia sẻ "Trong thế giới thực, một đối tượng có thể móc túi chỉ một đến hai nạn nhân. Nhưng trong thế giới số có thể móc túi hàng trăm ngàn người và ai cũng có thể là nạn nhận của lừa đảo".
"CHIÊU" CŨ: DÙNG HÌNH ẢNH CHUYÊN GIA ĐỂ "DỤ DỖ"
TS. Cấn Văn Lực, Chuyên gia Kinh tế trưởng Ngân hàng BIDV, Thành viên Hội đồng Tư vấn chính sách tài chính - tiền tệ Quốc gia có lẽ là người gặp nhiều rắc rối nhất với những chiêu mạo danh ông để "dụ dỗ" các nhà đầu tư tài chính. Ông đã nhiều lần phải lên tiếng đính chính khi bị nhiều trang mạng xã hội sử dụng hình ảnh của ông để quảng cáo với nội dung "tham gia nhóm zalo của tôi, mỗi ngày chọn một cổ phiếu chất lượng; chọn cổ phiếu tăng giá...".
TS. Cấn Văn Lực cho biết ông không dùng Facebook và không bao giờ tham gia những chương trình đào tạo và huấn luyện đầu tư đa cấp theo cách giảm giá như vậy.
Các nhà đầu tư và người dân phải hết sức lưu ý khi có những thông tin quảng cáo như vậy, tốt nhất là phải kiểm tra chéo. Có thể gọi điện thoại hoặc là nhắn tin trực tiếp cho tôi để kiểm tra", TS Cấn Văn Lực nhấn mạnh.
Một tên tuổi khác trong lĩnh vực tài chính, TS. Nguyễn Trí Hiếu cũng đã phải lên tiếng trên mạng xã hội cảnh báo đến nhà đầu tư khi hình ảnh của ông liên tục bị mạo danh. Theo ông, trên nhiều trang mạng xã hội có chạy quảng cáo với các chương trình dạy đầu tư miễn phí và mời chào đầu tư với lời giới thiệu là do TS Nguyễn Trí Hiếu, đứng ra giảng dạy và tổ chức.
“Các quảng cáo này đã lợi dụng tên, hình ảnh và những phát biểu của tôi, để thu hút nhà đầu tư. Tất cả những quảng cáo này mang tính lừa đảo và gian lận" - TS Nguyễn Trí Hiếu khẳng định. Vị chuyên gia cho biết, chưa bao giờ tổ chức những chương trình giảng dạy đầu tư chứng khoán hay kêu gọi đầu tư chứng khoán.
Đứng trước "vấn nạn" này Ủy ban Chứng khoán Nhà nước đã từng phải ra thông báo khuyến cáo người dân nâng cao ý thức cảnh giác khi nhận cuộc gọi điện thoại của người lạ; cẩn trọng, cân nhắc tránh bị lôi kéo, tham gia các ứng dụng (app), diễn đàn, hội nhóm trên không gian mạng với mục đích đầu tư chứng khoán. Tuy nhiên, vẫn chỉ dừng ở mức khuyến cáo, và vẫn có rất nhiều nhà đầu tư cá nhân, vì tin vào những hình ảnh của các chuyên gia uy tín mà mắc lừa.
"CHIÊU" MỚI: DÙNG AI PHỤ GIÚP CHO LỪA ĐẢO DEEPFAKE
Martin Wolf, nhà bình luận kinh tế có tiếng của tờ Financial Times là một trong những nạn nhân mới của các vụ lừa đảo deepfake.
Vốn nổi tiếng với những phân tích chuyên môn, xuất hiện trong nhiều video tài chính được đăng trên các tài khoản mạng xã hội hợp pháp của Financial Times, Martin Wolf đã bị những kẻ lừa đảo tạo ra một loạt hình ảnh video deepfake rất thuyết phục trên Instagram, trong đó ông dường như đang cung cấp lời khuyên đầu tư.
“Hiện tại, ba cổ phiếu này đang ở bước ngoặt quan trọng và có thể tăng đáng kể trong hai tháng tới”, Wolf nói trong một video quảng cáo được tạo bởi deepfake với sự "tiếp tay" của AI, mời mọi người tham gia “nhóm đầu tư WhatsApp độc quyền” của ông để tìm hiểu thêm.
Mặc dù Meta, chủ sở hữu WhatsApp và Instagram, đã xóa và vô hiệu hóa quảng cáo này, nhưng tờ Financial Times vẫn phải đưa ra cảnh bảo với các độc giả của mình với những hình thức lừa đảo kiểu này khi lừa đảo deepfake đang trở nên ngày càng phổ biến.
Deepfake là một công nghệ sử dụng học sâu và trí tuệ nhân tạo để thay thế khuôn mặt của một người bằng khuôn mặt của một người khác trong các video, hình ảnh hoặc âm thanh. Công nghệ này được sử dụng để tạo ra các nội dung giả mạo, bao gồm cả nội dung lừa đảo.
Sự phát triển nhanh chóng của AI (trí tuệ nhân tạo) tạo ra. Công nghệ cần thiết để tạo video và hình ảnh tổng hợp rất rẻ, dễ kiếm và dễ sử dụng đối với những kẻ lừa đảo để tạo ra nội dung có sức thuyết phục cao. Deepfake của những người nổi tiếng bao gồm Taylor Swift, Elon Musk và các ngôi sao của Dragons' Den đã được tạo ra để quảng cáo mọi thứ, từ đồ dùng nhà bếp đến lừa đảo tiền điện tử và thuốc giảm cân.
Năm 2024, một người đàn ông Anh đã mất 76.000 bảng Anh cho một vụ lừa đảo deepfake, vì nghe theo một video giả mạo Martin Lewis, người sáng lập Money Saving Expert, quảng cáo cho một chương trình đầu tư bitcoin không tồn tại.
Nick Stapleton, người dẫn chương trình Scam Interceptors (một chương trình truyền hình thực tế của Anh về gian lận trên Internet) từng đoạt giải thưởng của BBC và là tác giả của cuốn sách How to Beat Scammers, cho biết những kẻ lừa đảo hiện có một lợi thế quan trọng.
"Deepfake đang tạo ra một thiên đường đối với những kẻ lừa đảo, bởi vì nhiều người dùng phương tiện truyền thông xã hội nhưng lại không biết AI có khả năng tạo ra các video mạo danh thuyết phục", ông nói. "Họ xem một video như deepfake của Martin Wolf và tin rằng nó là thật bởi tâm lý "Trăm nghe không bằng một thấy".
Người nổi tiếng không phải là những người duy nhất có hình ảnh có thể bị sao chép. Các chuyên gia về gian lận cho biết deepfake ngày càng được sử dụng nhiều hơn trong các cuộc gọi video để mạo danh các nhân viên cấp cao tại các tổ chức doanh nghiệp, thuyết phục các nhân viên khác xử lý các khoản thanh toán không có thực.

Năm 2024, công ty kỹ thuật Arup của Anh (một công ty tư vấn kỹ thuật hàng đầu, với 18.500 nhân viên tại 34 văn phòng trên toàn thế giới. Công ty góp mặt tại các công trình nổi tiếng như sân vận động Tổ chim, nơi diễn ra Thế vận hội Olympic Bắc Kinh 2008 hay nhà hát Opera Sydney) đã mất 25 triệu USD. Theo đó, ban đầu, nhân viên tại Hồng Kông có nghi ngờ khi nhận được email (lừa đảo) từ trụ sở văn phòng của công ty tại Anh, vì email này yêu cầu phải thực hiện một giao dịch bí mật. Tuy nhiên, sau một cuộc gọi video với "Giám đốc tài chính" tại trụ sở chính, nhân viên này đã gạt bỏ nghi ngờ và thực hiện 15 giao dịch chuyển khoản tổng cộng 200 triệu HKD - khoảng 25,6 triệu USD cho những kẻ lừa đảo.
Sự đáng sợ của deepfake là những người có sức ảnh hưởng thường có rất nhiều hình ảnh (và cả clip) được đăng trên các phương tiện truyền thông hoặc do chính họ đăng tải trên các nền tảng mạng xã hội. Và càng có nhiều hình ảnh thì càng có nhiều nội dung để đào tạo AI tạo ra những bản sao giống thật "hơn cả thật".
LÀM THẾ NÀO ĐỂ KHÔNG TRỞ THÀNH NẠN NHÂN CỦA LỪA ĐẢO DEEPFAKE?
Các nền tảng truyền thông xã hội cho biết họ sẽ sử dụng nhận dạng khuôn mặt để phát hiện và gỡ bỏ quảng cáo giả mạo, nhưng như thế là chưa đủ.
Trả lời bức xúc của Martin Wolf: “Làm sao một công ty như Meta với nguồn lực khổng lồ, bao gồm các công cụ trí tuệ nhân tạo, lại không thể tự động xác định và ngăn chặn những vụ gian lận như vậy, đặc biệt là khi đã biết về sự tồn tại của chúng?” bản thân phía Meta cũng phải thừa nhận: “Những kẻ lừa đảo hoạt động không ngừng nghỉ và liên tục phát triển các chiến thuật để cố gắng trốn tránh bị phát hiện. Đó là lý do tại sao chúng tôi liên tục phát triển những cách thức mới để khiến kẻ lừa đảo khó lừa đảo người khác hơn - bao gồm cả việc sử dụng công nghệ nhận dạng khuôn mặt”.

Tuy nhiên, theo Stapleton thì: “Khi những video này được đăng trên mạng xã hội dưới dạng quảng cáo, chúng sẽ trải qua quá trình thẩm định. Và nếu Meta chỉ cần cân nhắc đầu tư nhiều hơn lợi nhuận khổng lồ của họ vào việc thẩm định tốt hơn và kiểm duyệt các bài đăng chung tốt hơn, thì vấn đề này sẽ nhanh chóng trở nên ít nghiêm trọng hơn”.
Theo Đạo luật An toàn Trực tuyến mới của Vương quốc Anh, các công ty công nghệ phải đặt ra các mục tiêu hiệu suất để xóa tài liệu bất hợp pháp nhanh chóng khi họ biết về nó và thử nghiệm các thuật toán để khiến nội dung bất hợp pháp khó phát tán hơn.
Trong khi chờ những ông lớn công nghệ làm tốt việc của mình, làm thế nào để người dùng có thể phát hiện ra một video có khả năng là deepfake?
Mẹo hàng đầu của Stapleton để phát hiện ra hình ảnh được chỉnh sửa kỹ thuật số là nhìn vào miệng của người được cho là đang nói chuyện trên camera: Liệu nó có thực sự tạo ra hình dạng của các từ không? Tiếp theo, hãy nhìn vào làn da của họ: Nó có phẳng về kết cấu, không có độ nét hoặc nếp nhăn không? Và hãy nhìn vào mắt họ: Họ có chớp mắt khi nói không, hay chớp mắt quá nhiều?
Cuối cùng, hãy lắng nghe tông giọng của họ. “AI gặp khó khăn với phạm vi giọng nói của con người, vì vậy deepfake có xu hướng tạo ra âm thanh nghe rất đều đều và không có cảm xúc”, ông nói.
Trên thực tế, video deepfake của Wolf trên Financial Times trông không giống ông lắm, giọng nói lại càng không giống. Nhưng vì rất nhiều người dùng mạng xã hội xem video ở chế độ im lặng và đọc phụ đề nên những kẻ lừa đảo lại có thêm lợi thế.
Cuối cùng, lời khuyên mà các chuyên gia đưa ra là hãy đặc biệt cảnh giác với các quảng cáo trên mạng xã hội. Với những quảng cáo "có vẻ hấp dẫn" hãy tìm cách kiểm chứng thông tin. Nếu không thể tìm thấy thông tin đó ở bất kỳ nơi nào khác, thì gần như chắc chắn đó là thông tin giả. Hơn nữa, khi gặp những quảng cáo có dấu hiệu lừa đảo, người dùng nên báo cáo vụ lừa đảo cho phương tiện truyền thông xã hội, sử dụng các công cụ báo cáo của nền tảng. Ngoài ra, hãy cho bạn bè và người theo dõi của bạn biết về tài khoản giả mạo để họ không bị lừa.