AI hiện diện khắp nơi, nhưng các CISO vẫn bảo vệ nó bằng kỹ năng và công cụ lỗi thời, nghiên cứu cho thấy

Phần lớn các nhà lãnh đạo an ninh mạng đang gặp khó khăn trong việc bảo vệ các hệ thống AI bằng các công cụ và kỹ năng không phù hợp với thách thức, theo Báo cáo Thử nghiệm đối kháng và AI Benchmark 2026 từ Pentera. Báo cáo, dựa trên khảo sát 300 CISO và các nhà lãnh đạo an ninh cấp cao tại Hoa Kỳ, đã xem xét cách các tổ chức đang bảo mật hạ tầng AI và nêu bật những khoảng trống quan trọng liên quan đến tình trạng thiếu hụt kỹ năng và sự phụ thuộc vào các biện pháp kiểm soát bảo mật không được thiết kế cho kỷ nguyên AI.
pentera report cover

Phần lớn các nhà lãnh đạo an ninh mạng đang gặp khó khăn trong việc bảo vệ các hệ thống AI bằng các công cụ và kỹ năng không phù hợp với thách thức, theo Báo cáo Thử nghiệm đối kháng và AI Benchmark 2026 từ Pentera.

Báo cáo, dựa trên khảo sát 300 US CISOs và các nhà lãnh đạo an ninh cấp cao, đã xem xét cách các tổ chức đang bảo mật hạ tầng AI và nêu bật những khoảng trống quan trọng liên quan đến tình trạng thiếu hụt kỹ năng và sự phụ thuộc vào các biện pháp kiểm soát bảo mật không được thiết kế cho kỷ nguyên AI.

Tốc độ triển khai AI vượt xa khả năng hiển thị bảo mật

Các hệ thống AI hiếm khi được triển khai độc lập. Chúng được phân lớp và tích hợp vào công nghệ hiện có của doanh nghiệp, từ nền tảng cloud và hệ thống nhận dạng đến các ứng dụng và đường dẫn dữ liệu. Với việc quyền sở hữu phân tán giữa các nhóm khác nhau, khả năng giám sát tập trung hiệu quả đã bị suy yếu.

Kết quả là, 67% các CISO báo cáo có tầm nhìn hạn chế về cách AI đang được sử dụng trong tổ chức của họ. Không ai trong số những người được hỏi cho biết họ có tầm nhìn đầy đủ; thay vào đó, họ thừa nhận rằng họ biết hoặc chấp nhận một số hình thức sử dụng AI không được quản lý hoặc không được cấp phép.

Nếu không có cái nhìn rõ ràng về nơi các hệ thống AI hoạt động hoặc các tài nguyên chúng có thể truy cập, các nhóm bảo mật sẽ gặp khó khăn trong việc đánh giá rủi ro một cách hiệu quả. Các câu hỏi cơ bản, như các danh tính mà hệ thống AI dựa vào, dữ liệu chúng có thể tiếp cận hoặc cách chúng hoạt động khi các biện pháp kiểm soát thất bại, thường vẫn chưa được trả lời.

Kỹ năng, không phải ngân sách, là rào cản chính

Mặc dù bảo mật AI hiện là một chủ đề thường xuyên trong các cuộc họp hội đồng quản trị và thảo luận điều hành, nghiên cứu cho thấy những thách thức lớn nhất không phải là về tài chính.

Các CISO đã xác định những điều sau đây là trở ngại hàng đầu của họ trong việc bảo mật hạ tầng AI:

  • Thiếu chuyên môn nội bộ (50%)
  • Tầm nhìn hạn chế về việc sử dụng AI (48%)
  • Các công cụ bảo mật không đủ mạnh được thiết kế đặc biệt cho hệ thống AI (36%)

Chỉ 17% viện dẫn hạn chế ngân sách là mối quan tâm chính. Điều này cho thấy nhiều tổ chức sẵn sàng đầu tư vào bảo mật AI, nhưng chưa có các kỹ năng chuyên biệt cần thiết để đánh giá các rủi ro liên quan đến AI trong môi trường thực tế.

Các hệ thống AI giới thiệu các hành vi mà các nhóm bảo mật vẫn đang học cách đánh giá, bao gồm ra quyết định tự động, các đường dẫn truy cập gián tiếp và tương tác đặc quyền giữa các hệ thống. Nếu không có chuyên môn phù hợp và thử nghiệm chủ động, sẽ khó đánh giá liệu các biện pháp kiểm soát hiện có có hiệu quả như mong đợi hay không.

Các biện pháp kiểm soát cũ đang gánh phần lớn công việc

Trong bối cảnh thiếu các phương pháp hay nhất, kỹ năng và công cụ chuyên biệt cho AI, hầu hết các doanh nghiệp đang mở rộng các biện pháp kiểm soát bảo mật hiện có để bao gồm hạ tầng AI.

Nghiên cứu cho thấy 75% các CISO dựa vào các biện pháp kiểm soát bảo mật cũ, chẳng hạn như công cụ bảo mật endpoint, ứng dụng, cloud hoặc API, để bảo vệ các hệ thống AI. Chỉ 11% báo cáo có các công cụ bảo mật được thiết kế đặc biệt để bảo vệ hạ tầng AI.

Cách tiếp cận này phản ánh một mô hình quen thuộc được thấy trong các thay đổi công nghệ trước đây, nơi các tổ chức ban đầu điều chỉnh các biện pháp phòng thủ hiện có trước khi các thực hành bảo mật được tùy chỉnh hơn xuất hiện. Mặc dù điều này có thể cung cấp phạm vi bảo vệ cơ bản, các biện pháp kiểm soát được xây dựng cho các hệ thống truyền thống có thể không tính đến cách AI thay đổi các mẫu truy cập và mở rộng các đường tấn công tiềm năng.

Một thách thức quen thuộc, giờ đây áp dụng cho AI

Tổng hợp lại, các phát hiện cho thấy rằng các thách thức bảo mật AI bắt nguồn từ những khoảng trống cơ bản hơn là do thiếu nhận thức hoặc ý định.

Khi AI trở thành một phần cốt lõi của hạ tầng doanh nghiệp, báo cáo gợi ý rằng các tổ chức sẽ cần tập trung vào việc xây dựng chuyên môn và cải thiện cách họ xác thực các biện pháp kiểm soát bảo mật trên các môi trường nơi AI đã và đang hoạt động.

Để tìm hiểu toàn bộ các phát hiện, hãy tải xuống Báo cáo Thử nghiệm đối kháng và AI Benchmark 2026 để thảo luận sâu hơn về dữ liệu và các điểm chính.