Làm thế nào để nhận biết video do AI tạo ra trên mạng xã hội?

Được thúc đẩy bởi các công nghệ và các công cụ dành cho người tiêu dùng như Veo, Sora và Grok, số lượng video do AI tạo ra đang bùng nổ trên mạng. Bạn đã từng xem một clip và thấy xúc động. Nhưng chưa chắc đó là một câu chuyện thực, mà chỉ là một sản phẩm do AI tạo ra để... câu view.

"Đây có phải là video do AI tạo ra hay không?" Chắc hẳn bạn đã từng nghe câu hỏi này về các video trên Instagram, TikTok, Facebook hoặc YouTube. Điều đó hoàn toàn dễ hiểu khi mà các ứng dụng tạo video hỗ trợ AI phổ biến nhất: Veo, Sora, CapCut, Grok, Movie Gen… đã có những bước tiến vượt bậc, và ngày càng nhiều người sử dụng chúng để đăng tải nội dung lên mạng xã hội.

Người ta vẫn cho rằng các chuyên gia về thông tin và hình ảnh có thể có con mắt tinh tường để phân biệt deepfake hoặc video được tạo ra bằng trí tuệ nhân tạo. Tuy nhiên, các chuyên gia đều nhất trí rằng: nhiệm vụ này hiện nay rất khó khăn, nếu không muốn nói là bất khả thi, đối với những đoạn phim chân thực nhất. Điều này đặc biệt đúng đối với các video ngắn trên các nền tảng mạng xã hội.

Tuy nhiên, tới thời điểm này, theo các chuyên gia thì vẫn còn một số mẹo hiệu quả giúp bạn tự nhận biết các video được tạo bằng AI. Tuy nhiên, các chuyên gia cũng khuyến cáo rằng: Các mẹo này chỉ dựa trên trình độ công nghệ vào tháng 12/2025, và với những thành tựu khủng khiếp của AI thì chúng có thể nhanh chóng trở nên lỗi thời.

Dấu bản quyền

Hầu hết các phần mềm phổ biến đều thêm "dấu bản quyền", tức là logo hoặc tên của họ, vào các video AI mà chúng tạo ra. Các dấu bản quyền này có thể dễ dàng thấy với Veo, Grok và Sora 2, ứng dụng được OpenAI ra mắt tại Hoa Kỳ (các video của ứng dụng này đã xuất hiện trên mạng rất nhiều).

Vấn đề là các dịch vụ miễn phí khác, như Meta AI, lại không có dấu bản quyền. Và khi có, hình mờ thường rất khó nhìn thấy. Hơn nữa, có các dịch vụ trực tuyến cho phép xóa chúng chỉ trong vài cú nhấp chuột, điều mà một số người "sáng tạo thiếu lương tâm" nhanh chóng lợi dụng.

Một ví dụ cụ thể: Trong một clip ngắn được viral trên Instagram với caption rất truyền cảm hứng "Bên trong một hang thỏ ấm áp, thỏ mẹ đang lặng lẽ cho những chú thỏ con bé bỏng của mình bú. Giữa bầy thỏ con lông mềm mại, một chú mèo con nhỏ đã hòa mình vào đó, tận hưởng sự ấm áp giống như những con khác. Bất ngờ, mèo mẹ xuất hiện ở cửa hang, nhẹ nhàng bế mèo con lên và mang nó về nhà - một khoảnh khắc dịu dàng, ấm lòng khi hai gia đình gặp nhau dưới lòng đất".

Rất nhanh chóng, clip này đã nhận được tới hơn 2.000.000 lượt thích và hơn 10.000 lượt bình luận. Tuy nhiên, những bình luận nhận được nhiều lượt thích nhất lại là nhũng bình luận phản đối. Vì "Clip quá hoàn hảo, quá kỳ diệu để có thực. Chắc chắn là một sản phẩm của AI".

Có thể hiểu tại sao bình luận đó lại nhận được nhiều lượt ủng hộ như vậy nếu chú ý, bạn có thể thấy các dấu bản quyền (hình chìm) đã bị ẩn đi một cách khéo léo, nhưng vẫn để lại dấu vết tại góc dưới bên trái, ở giữa bên phải và góc trên bên trái.

Hãy để ý đến thời lượng của clip

Nhìn chung, các video do AI tạo ra vẫn còn rất ngắn. Ở phiên bản miễn phí, phần mềm được sử dụng rộng rãi nhất chỉ có thể tạo ra các đoạn video dài vài giây (tối đa sáu giây đối với Grok, AI của Elon Musk; tám giây đối với Veo, công nghệ của Google; 15 giây đối với Sora 2, trình tạo video của Open AI, hoặc MovieGen, phần mềm do Meta thiết kế cho Meta AI).

Vấn đề là, để xử lý vấn đề này, người ta đã tạo ra các công cụ video AI cho phép ghép nối các chuỗi AI ngắn lại với nhau. Và độ dài của video do AI tạo ra có thể tăng lên nếu người tạo nội dung có đăng ký trả phí (lên đến 25 giây đối với người đăng ký phiên bản chuyên nghiệp của Sora và 60 giây đối với một số tích hợp Veo trong phần mềm của bên thứ ba).

Kiểm tra nhãn AI

Quy định về trí tuệ nhân tạo của châu Âu, có hiệu lực từ năm 2024, đã đưa ra các nghĩa vụ đối với "các công cụ tạo nội dung" được sử dụng tại châu Âu. Trong số đó có yêu cầu "phải ghi rõ ràng rằng nội dung được tạo ra là do trí tuệ nhân tạo tạo ra".

Tại Meta (công ty mẹ của Facebook và Instagram), TikTok và YouTube, quy tắc lý thuyết cũng rõ ràng như nhau: các video được tạo ra bằng AI phải được các tài khoản chia sẻ chúng nhận diện rõ ràng là video AI. Các nhãn này có thể được đặt trực tiếp trên hình ảnh, trong chú thích video hoặc trong phần giới thiệu tài khoản. Ngoài ra còn có các nhãn "AI" cụ thể phải được hiển thị ở đầu hoặc cuối video.

Ví dụ về thông tin được sử dụng để nhận diện AI trong một video trên Instagram. Một nhãn "Thông báo AI" tự động đã được áp dụng, bên cạnh thông tin được người tạo video viết trong phần chú thích.

Tuy nhiên, đó mới là quy định, và nếu người tạo video không cung cấp thông tin cần thiết, các nền tảng sẽ dựa vào tính năng phát hiện tự động để gắn nhãn AI. Các hệ thống này phân tích, trong số những thứ khác, siêu dữ liệu của nội dung (ngày tháng, phần mềm được sử dụng, v.v.) được nhúng trong tệp được tải lên trực tuyến. Một số hệ thống này hiện đang được sử dụng để xác định sự hiện diện của AI, đáng chú ý là hệ thống do C2PA tạo ra.

Tuy nhiên, tính năng tự động nhận diện này hoạt động không hiệu quả. Trong một nghiên cứu được công bố vào tháng 10, trang web chuyên ngành Indicator báo cáo rằng, trong số 233 bức ảnh và video được tạo bởi AI trên YouTube, TikTok và Instagram mà họ thử nghiệm, chỉ có một phần ba được các nền tảng này dán nhãn chính xác là do AI tạo ra.

Tìm dấu vết của trí tuệ nhân tạo trong các hình ảnh

Để xác định một video bằng trí tuệ nhân tạo, vẫn có thể phân tích từng khung hình và tìm kiếm những điểm không nhất quán.

Tuy nhiên, để làm điều này, họ có thể sử dụng phần mềm phát hiện AI chuyên dụng. Điều đáng nói, phần mềm này không miễn phí, chỉ dành cho các chuyên gia và độ tin cậy còn khá thiếu thuyết phục. Do đó, nhiều tòa báo quốc tế, các nhà báo vẫn tiếp tục xác minh hình ảnh bằng mắt thường, và các cuộc thảo luận nhóm về chủ đề này diễn ra thường xuyên. Nghiên cứu này tập trung đặc biệt vào:

  • Các chi tiết không phù hợp (văn bản khó đọc, phụ kiện hoặc bộ phận cơ thể biến mất, yếu tố nền kỳ quặc…);
  • Tỷ lệ không được tuân thủ (một yếu tố quá lớn hoặc quá nhỏ…);
  • Những điều phi lý về mặt vật lý (chân ghế bị cong, vật thể bay…);
  • Lỗi hội thoại (chuyển động môi không khớp, lưỡi lẫn vào nhau...);
  • Những giọng nói hoặc âm thanh nghe "giống robot" hoặc giả tạo.

Dưới đây là một ví dụ được tìm thấy trên tài khoản Instagram có tích xanh "realdonaldtrump": một video quay cảnh Tổng thống Donald Trump chơi bóng đá với Cristiano Ronaldo. Clip đã nhận hơn 4.500.000 lượt thích, hơn 120.000 lượt bình luận. Mặc dù không có bằng chứng cụ thể nào cho thấy đó là sản phẩm của trí tuệ nhân tạo, nhưng khuôn mặt của cầu thủ bóng đá, chuyển động của quả bóng và các cầu thủ, việc thiếu âm thanh, và hiệu ứng hình ảnh kém chất lượng của cảnh kính vỡ ở cuối video đều cho thấy đây là một video được tạo ra bằng trí tuệ nhân tạo.

Bạn có thể tìm thấy các ví dụ cụ thể hơn trong "Hướng dẫn dành cho con người để phát hiện hình ảnh do AI tạo ra" từ tổ chức phi chính phủ châu Âu AI Forensics. Tài liệu này (bằng tiếng Anh) liệt kê nhiều trường hợp sai lệch hình ảnh kinh điển trong phần mềm AI tạo sinh. Nó cũng khuyên nên học cách nhận biết phong cách đồ họa điển hình của các video được tạo ra theo cách này. AI Forensics đặc biệt đề cập đến "độ bóng mượt và cách điệu, điển hình của hình ảnh do AI tạo ra".

Vấn đề là một số người tạo nội dung đã tìm cách xóa bỏ các dấu hiệu trực quan của trí tuệ nhân tạo bằng cách lựa chọn các phong cách video cụ thể. Ví dụ, trường hợp này xảy ra với những hình ảnh tái tạo độ nhiễu của máy quay chất lượng thấp (máy quay phim cũ, cảnh quay camera giám sát, v.v.): vốn dĩ mờ, bị vỡ hạt hoặc bị biến dạng, những hình ảnh này làm cho các dấu vết rõ ràng của AI trở nên khó nhận thấy hơn và có thể dễ dàng đánh lừa người xem. Trong một ví dụ gần đây, đoạn phim camera giám sát giả mạo về một cuộc tấn công tên lửa ở Iran, được tạo ra bởi AI và chia sẻ trên mạng xã hội X, đã đánh lừa người dùng của mạng xã hội này.

Theo Lemonde

Có thể bạn quan tâm