Các plugin ChatGPT của bên thứ ba có thể bị tin tặc lạm dụng để chiếm đoạt tài khoản người dùng
25/03/2024 02:40 PM
Hiện tại bài viết chưa được cập nhật nội dung Âm thanh. Xin cảm ơn.
Các nhà nghiên cứu bảo mật đã phát hiện ra rằng các plugin của bên thứ ba hiện có dành cho OpenAI ChatGPT có thể bị lạm dụng như một bề mặt tấn công mới cho các tác nhân đe dọa muốn truy cập trái phép vào dữ liệu nhạy cảm.
Theo nghiên cứu mới từ Salt Labs, các lỗ hổng bảo mật được tìm thấy trực tiếp trong ChatGPT và hệ sinh thái này có thể cho phép kẻ tấn công cài đặt các plugin độc hại trong khi không có sự đồng ý của người dùng và chiếm đoạt tài khoản trên các trang web bên thứ ba như GitHub.
Các plugin ChatGPT là các công cụ được thiết kế để chạy trên mô hình ngôn ngữ lớn (LLM) với mục đích truy cập thông tin cập nhật, thực hiện các tính toán hoặc truy cập các dịch vụ của bên thứ ba.
OpenAI kể từ đó cũng đã giới thiệu GPTs, là phiên bản riêng của ChatGPT được thiết kế riêng cho các trường hợp cụ thể, đồng thời giảm sự phụ thuộc vào dịch vụ của bên thứ ba. Kể từ ngày 19 tháng 3 năm 2024, người dùng ChatGPT sẽ không thể cài đặt plugin mới hoặc tạo cuộc trò chuyện mới bằng các plugin hiện có nữa.
Một trong những lỗ hổng được Salt Labs phát hiện liên quan đến việc khai thác luồng hoạt động OAuth (OAuth workflow) để lừa người dùng cài đặt một plugin bất kỳ bằng cách lợi dụng việc ChatGPT không xác thực xem có phải người dùng thực sự đã bắt đầu cài đặt plugin hay không.
Điều này có thể cho phép các tác nhân đe dọa chặn và lấy cắp tất cả dữ liệu được chia sẻ bởi nạn nhân, có thể chứa thông tin độc quyền.
Công ty bảo mật cũng phát hiện ra các vấn đề với PluginLab có thể bị các tác nhân đe dọa lợi dụng để thực hiện các cuộc tấn công chiếm đoạt tài khoản mà không cần sự tương tác của người dùng, cho phép chúng giành quyền kiểm soát tài khoản của tổ chức trên các trang web của bên thứ ba như GitHub và truy cập vào kho lưu trữ mã nguồn của họ.
Nhà nghiên cứu bảo mật Aviad Carmel giải thích rằng "API 'auth.pluginlab[.]ai/oauth/authorized' không yêu cầu xác thực, điều đó có nghĩa là kẻ tấn công có thể chèn một memberId khác (Id của nạn nhân) và lấy mã (code) đại diện cho nạn nhân". “Với mã đó, hắn có thể sử dụng ChatGPT và truy cập GitHub của nạn nhân”.
MemberId của nạn nhân có thể được lấy bằng cách truy vấn API "auth.pluginlab[.]ai/members/requestMagicEmailCode." Không có dấu hiệu nào cho thấy dữ liệu của người dùng đã bị xâm phạm bởi lỗ hổng này.
Cũng được phát hiện trong một số plugin, bao gồm Kesem AI, là lỗi thao túng chuyển hướng OAuth có thể cho phép kẻ tấn công lấy cắp thông tin xác thực tài khoản được liên kết với chính plugin đó bằng cách gửi một liên kết độc hại cho nạn nhân.
Sự phát triển này diễn ra vài tuần sau khi Imperva tiết lộ chi tiết về hai lỗ hổng XSS trong ChatGPT có thể bị xâu chuỗi để chiếm quyền kiểm soát bất kỳ tài khoản nào.
Vào tháng 12 năm 2023, nhà nghiên cứu bảo mật Johann Rehberger đã minh họa cách các tác nhân độc hại có thể tạo custom GPTs để lừa đảo đánh cắp thông tin xác thực của người dùng./.
Trung tâm CNTT
Video: BHXH Việt Nam tổ chức Hội nghị giao ban ...
BHXH Việt Nam tăng cường hợp tác quốc tế nâng cao ...
Các ca khúc đạt giải Đặc biệt, giải A và giải B ...
Thủ tướng bổ nhiệm và bổ nhiệm lại nhân sự Hội đồng quản lý ...
Bộ Chính trị ban hành Nghị quyết về đột phá phát triển khoa ...
Phê duyệt cấp độ an toàn hệ thống thông tin “Bồi dưỡng trực ...
BHXH Việt Nam đạt kết quả vượt bậc trong chi trả chế độ ...
BHXH Việt Nam ban hành Kế hoạch Cải cách hành chính năm ...