Tội phạm có thể lợi dụng ChatGPT để lấy cắp dữ liệu người dùng

Một kỹ thuật tấn công mạng mới đã được công bố, cho thấy cách tin tặc có thể lợi dụng trí tuệ nhân tạo để đánh cắp dữ liệu nhạy cảm mà không cần bất kỳ hành động nào từ phía người dùng...

Người dùng có thể bị ăn cắp dữ liệu riêng tư dễ dàng thông qua ChatGPT
Người dùng có thể bị ăn cắp dữ liệu riêng tư dễ dàng thông qua ChatGPT

Tại hội nghị hacker Black Hat diễn ra tại Las Vegas (Mỹ), hai nhà nghiên cứu Michael Bargury và Tamir Ishay Sharbat đã công bố một phương thức tấn công mạng mới mang tên AgentFlayer.

Đây là dạng tấn công không cần bất kỳ hành động nào từ phía người dùng như nhấp liên kết, mở tập tin nhưng vẫn có thể chiếm quyền truy cập tài khoản và đánh cắp dữ liệu nhạy cảm.

Cuộc tấn công này khai thác lỗ hổng trong connectors, tính năng cho phép ChatGPT liên kết với các dịch vụ bên ngoài như Google Drive, Gmail hay Microsoft Calendar. Kẻ tấn công có thể lợi dụng lỗ hổng này để khiến ChatGPT gợi ý người dùng tải về phần mềm chứa vi rút, đưa ra lời khuyên kinh doanh sai lệch hoặc truy cập các tệp tin lưu trữ trên Google Drive nếu tài khoản của người dùng được kết nối.

Cụ thể, quá trình tấn công khi việc kẻ xấu chia sẻ vào Google Drive của nạn nhân một tài liệu đã bị cài mã độc. Tài liệu này chứa một lời nhắc độc hại dài khoảng 300 từ, được viết bằng chữ trắng cỡ chữ 1, gần như vô hình với mắt thường nhưng máy tính vẫn đọc được.

Bên ngoài, văn bản được ngụy trang như ghi chú cuộc họp. Thực chất, nó chứa hướng dẫn cho ChatGPT tìm và trích xuất các khóa API nhạy cảm trong tài khoản Google Drive của nạn nhân.

Thay vì tóm tắt nội dung như người dùng yêu cầu, lời nhắc ẩn này buộc AI gửi các khóa API tìm được tới máy chủ bên ngoài thông qua một liên kết Markdown. Dữ liệu bị trích xuất dưới dạng hình ảnh, cho phép máy chủ ghi lại toàn bộ thông tin.

Thậm chí, đoạn lệnh ẩn còn cho phép hacker tiếp tục điều khiển AI như một "tay trong", âm thầm tìm kiếm thông tin mật và gửi về cho kẻ tấn công, cho đến khi nạn nhân gỡ kết nối giữa ChatGPT và Google Drive.

Bên cạnh ChatGPT, các nền tảng AI khác cũng bị phát hiện tồn tại rủi ro tương tự. Tại Copilot Studio của Microsoft, các nhà nghiên cứu đã phát hiện cách thức rò rỉ toàn bộ cơ sở dữ liệu CRM.

Đối với Salesforce Einstein, tin tặc có thể tạo các yêu cầu dịch vụ giả mạo để chuyển hướng toàn bộ liên lạc của khách hàng về các địa chỉ email do chúng kiểm soát.

Trong khi đó, Google Gemini và Microsoft 365 Copilot cũng bị biến thành các tác nhân thù địch, lợi dụng email và sự kiện lịch để thực hiện hành vi lừa đảo và rò rỉ thông tin.

Một ví dụ khác là công cụ phát triển phần mềm Cursor khi tích hợp với Jira MCP cũng bị lợi dụng để đánh cắp thông tin đăng nhập của lập trình viên thông qua các ticket giả mạo.

Sau khi nhận báo cáo từ Bargury, một số công ty như OpenAI và Microsoft đã nhanh chóng phát hành bản vá. Tuy nhiên, vẫn có những công ty từ chối xử lý, cho rằng hành vi được phát hiện là chức năng thiết kế chứ không phải lỗ hổng bảo mật.

“Cần phát triển các cơ chế bảo vệ mạnh mẽ trước những cuộc tấn công tiêm mã độc diễn ra nhanh chóng”, ông Andy Wen, Giám đốc cấp cao phụ trách quản lý sản phẩm bảo mật tại Google Workspace nhấn mạnh.

Dù phần lớn lỗ hổng đã được khắc phục, vụ việc cho thấy rõ rủi ro đáng kể khi kết nối các mô hình ngôn ngữ lớn (LLM) với những hệ thống bên ngoài. Khi AI ngày càng được tích hợp sâu vào đời sống và công việc, bề mặt tấn công mà tin tặc có thể khai thác cũng mở rộng đáng kể.

Các chuyên gia cảnh báo, hình thức tiêm mã lệnh nhắc nhở gián tiếp có thể trở thành mối đe dọa nghiêm trọng, cho phép kẻ tấn công chiếm quyền điều khiển các hệ thống AI từ nhà thông minh đến hạ tầng doanh nghiệp.

Nhà nghiên cứu Bargury kết luận rằng, việc tích hợp LLM với nguồn dữ liệu bên ngoài mang lại sức mạnh lớn, nhưng như mọi công nghệ AI khác, càng mạnh thì cũng đồng nghĩa với rủi ro càng lớn.

Xem thêm

Cảnh báo: Lạm dụng AI có thể dẫn tới chứng loạn thần

Cảnh báo: Lạm dụng AI có thể dẫn tới chứng loạn thần

Chatbot AI ngày càng phổ biến trong cuộc sống nhưng việc sử dụng quá mức có thể gây ra các vấn đề tâm lý nghiêm trọng ở một số người. Các chuyên gia cảnh báo cần thận trọng từ phía người dùng và yêu cầu các công ty AI chịu trách nhiệm hơn trong việc bảo vệ sức khỏe tinh thần cộng đồng…

Có thể bạn quan tâm

Elon Musk tố OpenAI phản bội sứ mệnh và cảnh báo rủi ro từ AI

Elon Musk tố OpenAI phản bội sứ mệnh và cảnh báo rủi ro từ AI

Phiên tòa giữa Elon Musk và OpenAI đang dần trở thành một trong những cuộc đối đầu pháp lý đáng chú ý nhất của ngành công nghệ. Không chỉ xoay quanh tiền bạc hay quyền lực, vụ việc còn chạm đến câu hỏi lớn về cách kiểm soát tương lai của trí tuệ nhân tạo...

Vivo Y600 Pro ra mắt, dung lượng pin lên tới 10.200 mAh

Vivo Y600 Pro ra mắt, dung lượng pin lên tới 10.200 mAh

Vivo Y600 Pro vừa được giới thiệu như một đại diện mới của dòng Y, hướng đến người dùng cần một thiết bị hoạt động ổn định trong thời gian dài, thích nghi tốt với nhiều điều kiện môi trường nhưng vẫn đảm bảo cấu hình hiện đại và trải nghiệm hiển thị chất lượng cao...

Suy giảm tới 55% hoạt động não vì để AI suy nghĩ thay

Suy giảm tới 55% hoạt động não vì để AI suy nghĩ thay

Khi các mô hình ngôn ngữ lớn ngày càng đảm nhiệm nhiều công việc liên quan đến tư duy và xử lý thông tin, các nhà nghiên cứu bắt đầu cảnh báo rằng việc con người giao phần lớn hoạt động trí óc cho AI có thể phải trả một cái giá nhất định...

Top những máy ảnh giá rẻ nhưng không hề rẻ chất lượng

Top những máy ảnh giá rẻ nhưng không hề rẻ chất lượng

Trong thế giới máy ảnh hiện đại, không phải cứ giá rẻ là đồng nghĩa với chất lượng thấp. Ngược lại, nhiều lựa chọn trong phân khúc phổ thông vẫn đủ sức đáp ứng tốt nhu cầu từ chụp ảnh cơ bản, du lịch đến làm nội dung sáng tạo...

Honor 600 Series có bản Pro mang thiết kế giống iPhone 17 Pro

Honor 600 Series có bản Pro mang thiết kế giống iPhone 17 Pro

Honor tiếp tục mở rộng dòng sản phẩm cận cao cấp với bộ đôi Honor 600 và Honor 600 Pro, mang đến nhiều nâng cấp đáng chú ý cả về thiết kế lẫn hiệu năng. Đặc biệt, phiên bản Pro đang thu hút sự quan tâm khi sở hữu ngoại hình gợi nhớ đến iPhone 17 Pro...