Mặc dù tất cả chúng ta thường có xu hướng sử dụng Wikipedia như “thư viện thông tin” trực tuyến, nhưng thực chất lại rất khó để xác minh xem nội dung trên nền tảng này có chính xác 100% hay không. Và Meta đang hướng tới cách giải quyết vấn đề đó bằng phần mềm AI mới kiểm tra độ chính xác của thông tin trên Wikipedia.
Công nghệ AI mới của Meta sử dụng kỹ thuật được gọi là “hiểu ngôn ngữ tự nhiên” ( natural language understanding - NLU) để xác thực các trích dẫn trên Wikipedia.
“Công cụ tự động có thể giúp xác định ngay những câu nói vô nghĩa hoặc thiếu trích dẫn, nhưng việc giúp người biên tập xác định liệu nguồn trích dẫn có thật sự minh chứng cho thông tin hay không là một nhiệm vụ phức tạp hơn nhiều - một công việc đòi hỏi sự hiểu biết và phân tích sâu sắc của hệ thống AI”, Meta chia sẻ trong một bài đăng trên blog thông báo về AI.
Với hơn 17.000 bài viết mới được thêm vào Wikipedia mỗi tháng, gần như là bất khả thi để mộ con người có thể kiểm tra thực tế từng nguồn riêng lẻ, nhất là khi các bài viết được trích dẫn từ hàng trăm nguồn khác nhau. Thay vào đó, AI sẽ so sánh các trích dẫn với 134 triệu trang web trên Sphere, một thư viện trực tuyến có mã nguồn mở.
Để đào tạo công nghệ AI mới, Meta cho biết họ đã “cung cấp cho các thuật toán 4 triệu tuyên bố từ Wikipedia, dạy chúng cách khai thác trên một nguồn duy nhất từ một nhóm các trang web rộng lớn để xác thực từng tuyên bố.” Sau đó, mô hình sẽ đánh giá văn bản theo từng phần và xem xét đoạn văn phù hợp nhất khi xác định xem có nên đề xuất bài viết trên Wikipedia hay không.
Dự án hiện vẫn đang trong giai đoạn nghiên cứu và chưa được sử dụng để cập nhật các bài viết trên Wikipedia.