Thông tin gây bất ngờ về khả năng hack web của GPT_lịch thi đấu bóng đá giải nhà nghề mỹ

Các nhà nghiên cứu tại Đại học Illinois ôngtingâybấtngờvềkhảnănghackwebcủlịch thi đấu bóng đá giải nhà nghề mỹ(Mỹ) vừa thực hiện một nghiên cứu mới, chứng minh rằng các mô hình ngôn ngữ lớn (LLM) có thể được sử dụng để tự động hack các trang web mà không cần sự can thiệp của con người.
Nghiên cứu cho thấy khi sử dụng các công cụ để truy cập API, lướt web tự động và lập kế hoạch dựa trên phản hồi, các LLM có thể phát hiện và khai thác các lỗ hổng trong ứng dụng web một cách độc lập.

Là một phần của thử nghiệm, 10 LLM khác nhau đã được sử dụng, bao gồm GPT-4, GPT-3.5, LLaMA-2 và một số mô hình mở khác. Thử nghiệm được tiến hành trong một môi trường biệt lập để ngăn chặn mọi tác động tiêu cực có thể có, trên các trang web mục tiêu đã được kiểm tra, với 15 lỗ hổng bảo mật khác nhau.
Các nhà nghiên cứu phát hiện ra rằng GPT-4 do OpenAI phát triển có thể hoàn thành nhiệm vụ trong 73,3% trường hợp, vượt xa đáng kể so với các mô hình khác. Lý do là vì GPT-4 có khả năng điều chỉnh hành động tùy thuộc vào phản hồi nhận được từ trang web mục tiêu linh hoạt hơn hẳn so với các mô hình nguồn mở.
Nghiên cứu cũng phân tích chi phí sử dụng LLM để tấn công các trang web và so sánh với chi phí thuê chuyên gia kiểm tra thâm nhập. Với tỷ lệ thành công chung là 42,7%, chi phí trung bình của một vụ hack do LLM thực hiện là 9,81 USD cho mỗi trang web, rẻ hơn đáng kể so với chi phí phải trả cho một chuyên gia là con người (80 USD/lần thử).
Các nhà nghiên cứu cũng bày tỏ lo ngại về nguy cơ sử dụng LLM làm công cụ hack tự động trong tương lai. Theo đó, trong khi các lỗ hổng có thể được phát hiện bằng máy quét tự động, khả năng bị LLM tấn công tự động và trên quy mô lớn đặt ra một mức độ nguy hiểm mới về an ninh mạng.
Các chuyên gia kêu gọi phát triển các biện pháp và chính sách bảo mật nhằm thúc đẩy việc nghiên cứu an toàn các khả năng LLM, cũng như tạo ra một môi trường cho phép các nhà nghiên cứu bảo mật tiếp tục công việc mà không bị xử phạt sử dụng các mô hình có khả năng gây nguy hiểm.
Đại diện của OpenAI tuyên bố rất coi trọng vấn đề bảo mật cho sản phẩm của mình và có ý định tăng cường các biện pháp bảo mật để ngăn chặn từ sớm các hành vi lạm dụng. Công ty cũng bày tỏ lòng biết ơn đến các nhà nghiên cứu vì đã công bố kết quả nghiên cứu trên, nhấn mạnh tầm quan trọng của việc hợp tác nhằm đảm bảo sự an toàn và độ tin cậy của công nghệ trí tuệ nhân tạo.
(theo Securitylab)
相关文章
Soi kèo phạt góc Almería vs Celta Vigo, 19h00 ngày 29/10
Chiểu Sương - 29/10/2022 03:30 Kèo phạt góc2025-04-06Tay vợt Thùy Linh vào tứ kết giải Đức mở rộng 2024
Trước đối thủ xếp hạng 67 thế giới người Azerbaijan gốc Indonesia, Keisha Fatimah Azzahra, Nguyễn Th2025-04-06Đội bóng yếu nhất thế giới tạo nên kỳ tích gây chấn động
San Marino là đội bóng có thứ hạng thấp nhất trên bảng xếp hạng FIFA khi đứng thứ 210. Tuy nhiên, tr2025-04-06Kịch bản giúp Indonesia giành vé tham dự World Cup 2026
Lịch thi đấu 4 trận còn lại của Indonesia ở vòng loại thứ ba World Cup 2026Ngày 20/3/2025: Australia2025-04-06Nhận định, soi kèo Real Madrid vs Girona, 22h15 ngày 30/10
Nhận định, soi kèo Real Madrid vs Girona, 22h15 ngày 30/10 - vòng 12 giải VĐQG Tây Ban Nha. Dự đoán,2025-04-06VĐV Thanh Vũ: "Tôi đã khóc rất nhiều trong suốt chặng đua khắc nghiệt"
"Thể chất dường như đã bỏ cuộc. Tinh thần là thanh kiếm còn lại trong tay tôi. Nhưng nó cũng đã xây2025-04-06
最新评论