Nhiều chuyên gia công nghệ kêu gọi tạm dừng phát triển hệ thống AI

Elon Musk cùng hàng nghìn chuyên gia kêu gọi tạm dừng phát triển hệ thống AI mới trong 6 tháng do lo ngại những rủi ro cho xã hội và nhân loại…

Elon Musk cùng một nhóm các chuyên gia trí tuệ nhân tạo cũng như các giám đốc điều hành lĩnh vực công nghệ đang kêu gọi tạm dừng 6 tháng trong việc phát triển hệ thống AI mạnh hơn GPT-4 mới ra mắt của OpenAI. Trong đó họ nhấn mạnh những rủi ro tiềm ẩn đối với xã hội và nhân loại.

Bức thư do tổ chức phi lợi nhuận Viện Cuộc sống Tương lai phát hành với chữ ký của hơn 1.000 người đang kêu gọi tạm dừng phát triển hệ thống AI tiên tiến cho đến khi các giao thức an toàn chung cho các thiết kế như vậy được thiết lập.

Ngoài Elon Musk, những người đồng ký kết trong bức thư bao gồm Giám đốc điều hành Stability AI ông Emad Mostaque, các nhà nghiên cứu tại trung tâm phát triển AI DeepMind thuộc sở hữu của Alphabet, nhà đồng sáng lập Apple ông Steve Wozniak, nhà đồng sáng lập Skype ông Jaan Tallinn cũng như các chuyên gia về AI khác như Yoshua Bengio và Stuart Russell.

Bức thư viết: "Việc phát triển hệ thống AI mạnh mẽ chỉ nên được tiến hành khi chúng ta có thể tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được".

Bức thư nêu chi tiết những rủi ro tiềm ẩn đối với xã hội và nền văn minh do các hệ thống AI cạnh tranh với con người trong lao động, gây nên gián đoạn kinh tế và chính trị. Đồng thời, bức thư kêu gọi nhà phát triển AI hợp tác với các nhà hoạch định chính sách về quản trị và các cơ quan quản lý.

Những lo ngại xoay quanh sự phát triển của công nghệ trí tuệ nhân tạo xuất hiện khi lực lượng cảnh sát EU Europol lên tiếng về những lo ngại về đạo đức và pháp lý đối với công nghệ AI tiên tiến như ChatGPT, cảnh báo về khả năng lạm dụng hệ thống trong các nỗ lực lừa đảo, thông tin sai lệch và tội phạm mạng.

Trong khi đó, chính phủ Vương quốc Anh đã công bố các đề xuất về khung pháp lý "thích ứng" xung quanh việc phát triển AI.

Cách tiếp cận của chính phủ Vương quốc Anh, được nêu trong một bài báo chính sách được xuất bản vào 29/3, là phân chia trách nhiệm quản lý trí tuệ nhân tạo (AI) giữa các cơ quan quản lý nhân quyền, cơ quan quản lý sức khỏe và an toàn cũng như cơ quan quản lý cạnh tranh, thay vì tạo ra một cơ quan mới dành riêng cho công nghệ.

Ông chủ của Tesla, hãng ô tô điện đã ứng dụng AI vào hệ thống tự lái của họ, Elon Musk cũng đã nhiều lần lên tiếng về những lo ngại của mình về AI.

Tháng trước, tại Hội nghị thượng đỉnh Chính phủ Thế giới ở Dubai, Các Tiểu vương quốc Ả Rập Thống nhất, ông Elon Musk đã phát biểu: “Một trong những rủi ro lớn nhất đối với tương lai của nền văn minh là AI".

Gary Marcus, giáo sư tại Đại học New York cho biết: “Bức thư không hoàn hảo, nhưng tinh thần là đúng: chúng ta cần chậm lại [việc phát triển AI] cho đến khi hiểu rõ hơn về những hệ quả của nó. Nó có thể gây ra tác hại nghiêm trọng... những người chơi lớn trong lĩnh vực ngày càng trở nên bí mật về những gì họ đang làm, điều này khiến xã hội khó có thể chống lại bất kỳ tác hại nào có thể xảy ra".

Như đã lưu ý trong bức thư, ngay cả bản thân OpenAI trước đó cũng đã bày tỏ nhu cầu tiềm ẩn về việc “đánh giá độc lập” các hệ thống AI trong tương lai để đảm bảo chúng đáp ứng các tiêu chuẩn an toàn.

Có thể bạn quan tâm