OpenAI đã phải tạm dừng dịch vụ ChatGPT ở Italia sau khi Cơ quan bảo vệ dữ liệu (Garante) của chính phủ đưa ra lệnh cấm đối với chatbot. Cơ quan đồng thời tiến hành một cuộc điều tra về các công cụ trí tuệ nhân tạo bị nghi ngờ vi phạm quy tắc về quyền riêng tư.
Trước đó, Garante đã cáo buộc OpenAI - công ty startup được Microsoft hậu thuẫn - đã không kiểm tra tuổi người dùng ChatGPT, vốn có quy định là trên 13 tuổi.
Cơ quan của Italia cũng cho rằng ChatGPT không có bất kỳ cơ sở pháp lý nào để biện minh cho lý do thu thập và lưu trữ dữ liệu cá nhân để huấn luyện chatbot.
OpenAI sẽ có 20 ngày để đưa ra phản hồi và biện pháp khắc phục, nếu không công ty có thể chịu phạt tới 20 triệu euro (21,68 triệu USD) hoặc 4% doanh thu hàng năm trên toàn thế giới.
OpenAI cho biết họ đã vô hiệu hóa ChatGPT cho người dùng ở Italia theo yêu cầu của Garante. “Chúng tôi đã nỗ lực làm việc để giảm thiểu việc thu thập dữ liệu cá nhân trong quá trình đào tạo các hệ thống AI vì chúng tôi muốn AI của mình tìm hiểu về thế giới chứ không phải về các cá nhân riêng tư”, công ty trả lời trong một tuyên bố.
Thực tế, OpenAI chưa bao giờ cung cấp chi tiết về cách đào tạo mô hình AI của mình.
Johanna Björklund, nhà nghiên cứu AI và phó giáo sư tại Đại học Umeå ở Thụy Điển cho biết: “Sự thiếu minh bạch là vấn đề đáng quan ngại. Nếu bạn đã và đang thực hiện nghiên cứu phát triển về AI, bạn nên minh bạch về cách thức thực hiện”.
Kể từ khi được phát hành vào năm ngoái, ChatGPT của OpenAI đã gây ra một cơn sốt công nghệ, khiến các đối thủ phải vội vã tung ra sản phẩm tương tự và các công ty nhanh chóng tìm cách tích hợp nó vào các ứng dụng và sản phẩm của họ.
ChatGPT ước tính đã đạt 100 triệu người dùng hoạt động hàng tháng vào tháng 1/2023, chỉ hai tháng sau khi ra mắt, khiến nó trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử, theo một nghiên cứu của UBS được công bố vào tháng trước.
Vào hôm 29/3 vừa qua, tỷ phú công nghệ Elon Musk cùng một nhóm các chuyên gia trí tuệ nhân tạo và các giám đốc điều hành trong ngành đã kêu gọi tạm nghỉ sáu tháng phát triển các hệ thống tiên tiến hơn GPT-4 mới ra mắt của OpenAI, trong đó viện dẫn những rủi ro tiềm ẩn cho xã hội.
Sự phát triển với tốc độ đáng kinh ngạc của trí tuệ nhân tạo đã thu hút sự chú ý của các nhà lập pháp ở một số quốc gia. Nhiều chuyên gia cho rằng cần có các quy định mới để quản lý AI vì công cụ này có thể gây ra tác động tiềm ẩn đối với an ninh quốc gia, việc làm và giáo dục.
Hiện tại, Italia là quốc gia phương Tây đầu tiên có hành động chống lại một chatbot trí tuệ nhân tạo.
Ở một số nơi khác trên thế giới, như Trung Quốc đại lục, Hồng Kông, Iran, Nga và một số khu vực của châu Phi, các chatbot nói chung đều không khả dụng và người dân cũng không thể tạo tài khoản OpenAI.
“Chúng tôi hy vọng tất cả các công ty đang hoạt động tại EU tôn trọng các quy tắc bảo vệ dữ liệu của EU”, người phát ngôn của Ủy ban châu Âu cho biết.
Về vấn đề này, phó chủ tịch điều hành Ủy ban châu Âu Margrethe Vestager chia sẻ: “Đối với bất kỳ công nghệ nào, chúng ta cần phải biết và bảo vệ các quyền riêng tư của mình. Chúng tôi không có ý định điều chỉnh công nghệ AI mà chúng tôi muốn điều chỉnh việc sử dụng AI”.