Hướng dẫn dành cho người mua về kiểm soát sử dụng AI

Thực tế “AI ở khắp mọi nơi” ngày nay đã len lỏi vào các quy trình làm việc hàng ngày trong toàn doanh nghiệp, được nhúng vào các nền tảng SaaS, trình duyệt, copilots, tiện ích mở rộng và một vũ trụ công cụ “bóng tối” đang mở rộng nhanh chóng, xuất hiện nhanh hơn khả năng theo dõi của các nhóm bảo mật. Tuy nhiên, hầu hết các tổ chức vẫn dựa vào các biện pháp kiểm soát cũ kỹ hoạt động ở xa nơi các tương tác AI thực sự diễn ra. Kết quả là một khoảng cách quản trị ngày càng lớn, nơi việc sử dụng AI tăng theo cấp số nhân nhưng khả năng hiển thị và kiểm soát thì không.
Kiểm soát sử dụng AI
Ảnh minh họa: Kiểm soát sử dụng AI

Thực tế “AI ở khắp mọi nơi” ngày nay đã len lỏi vào các quy trình làm việc hàng ngày trong toàn doanh nghiệp, được nhúng vào các nền tảng SaaS, trình duyệt, copilots, tiện ích mở rộng và một vũ trụ công cụ “bóng tối” đang mở rộng nhanh chóng, xuất hiện nhanh hơn khả năng theo dõi của các nhóm bảo mật. Tuy nhiên, hầu hết các tổ chức vẫn dựa vào các biện pháp kiểm soát cũ kỹ hoạt động ở xa nơi các tương tác AI thực sự diễn ra. Kết quả là một khoảng cách quản trị ngày càng lớn, nơi việc sử dụng AI tăng theo cấp số nhân nhưng khả năng hiển thị và kiểm soát thì không.

Với việc AI trở thành trọng tâm của năng suất, các doanh nghiệp phải đối mặt với một thách thức mới: cho phép doanh nghiệp đổi mới trong khi vẫn duy trì quản trị, tuân thủ và bảo mật.

Một Hướng dẫn dành cho người mua về kiểm soát sử dụng AI mới lập luận rằng các doanh nghiệp đã hiểu sai cơ bản về nơi rủi ro AI tồn tại. Việc khám phá sử dụng AI và loại bỏ ‘Shadow’ AI cũng sẽ được thảo luận trong một buổi ăn trưa ảo và học tập sắp tới.

Sự thật đáng ngạc nhiên là bảo mật AI không phải là vấn đề dữ liệu hay vấn đề ứng dụng. Đó là vấn đề tương tác. Và các công cụ cũ không được xây dựng cho điều đó.

AI ở khắp mọi nơi, Khả năng hiển thị ở đâu?

Nếu bạn hỏi một nhà lãnh đạo bảo mật điển hình rằng lực lượng lao động của họ sử dụng bao nhiêu công cụ AI, bạn sẽ nhận được câu trả lời. Hỏi họ biết bằng cách nào, và căn phòng sẽ im lặng.

Hướng dẫn này đưa ra một sự thật không mấy thoải mái: việc áp dụng AI đã vượt xa khả năng hiển thị và kiểm soát bảo mật AI trong nhiều năm, chứ không phải vài tháng.

AI được nhúng trong các nền tảng SaaS, bộ ứng dụng năng suất, ứng dụng email, CRMs, trình duyệt, tiện ích mở rộng và thậm chí trong các dự án phụ của nhân viên. Người dùng chuyển đổi giữa các danh tính AI của công ty và cá nhân, thường trong cùng một phiên. Các quy trình làm việc dựa trên agents liên kết các hành động trên nhiều công cụ mà không có sự phân bổ rõ ràng.

Tuy nhiên, một doanh nghiệp trung bình không có kho lưu trữ đáng tin cậy về việc sử dụng AI, chứ đừng nói đến việc kiểm soát cách các prompts, tải lên, danh tính và hành động tự động đang lưu chuyển trong môi trường.

Đây không phải là vấn đề về công cụ, mà là vấn đề kiến trúc. Các biện pháp kiểm soát bảo mật truyền thống không hoạt động tại điểm các tương tác AI thực sự xảy ra. Khoảng cách này chính là lý do tại sao Kiểm soát sử dụng AI (AI Usage Control - AUC) đã nổi lên như một danh mục mới được xây dựng đặc biệt để quản lý hành vi AI trong thời gian thực.

Kiểm soát sử dụng AI (AUC) cho phép bạn quản lý các tương tác AI

AUC không phải là một sự cải tiến đối với bảo mật truyền thống mà là một lớp quản trị khác biệt cơ bản tại điểm tương tác AI.

AUC hiệu quả đòi hỏi cả khám phá và thực thi tại thời điểm tương tác, được hỗ trợ bởi các tín hiệu rủi ro theo ngữ cảnh, chứ không phải các danh sách cho phép (allowlists) tĩnh hoặc luồng mạng.

Tóm lại, AUC không chỉ trả lời “Dữ liệu nào đã rời khỏi công cụ AI?”

Nó trả lời “Ai đang sử dụng AI? Bằng cách nào? Thông qua công cụ nào? Trong phiên nào? Với danh tính nào? Trong điều kiện nào? Và điều gì đã xảy ra tiếp theo?”

Sự chuyển đổi từ kiểm soát tập trung vào công cụ sang quản trị tập trung vào tương tác là nơi ngành bảo mật cần bắt kịp.

Tại sao hầu hết các biện pháp “kiểm soát” AI không thực sự là kiểm soát

Các nhóm bảo mật liên tục rơi vào những cạm bẫy tương tự khi cố gắng bảo mật việc sử dụng AI:

  • Xem xét AUC như một tính năng đánh dấu hộp kiểm trong CASB hoặc SSE
  • Chỉ dựa vào khả năng hiển thị mạng (bỏ lỡ hầu hết các tương tác AI)
  • Tập trung quá mức vào phát hiện mà không thực thi
  • Bỏ qua tiện ích mở rộng trình duyệt và các ứng dụng AI-native
  • Cho rằng chỉ ngăn ngừa mất dữ liệu (data loss prevention) là đủ

Mỗi điều này tạo ra một tư thế bảo mật không đầy đủ một cách nguy hiểm. Ngành công nghiệp đã cố gắng trang bị lại các biện pháp kiểm soát cũ cho một mô hình tương tác hoàn toàn mới và điều đó đơn giản là không hiệu quả.

AUC tồn tại vì không có công cụ cũ nào được xây dựng cho điều này.

Kiểm soát sử dụng AI không chỉ là khả năng hiển thị

Trong kiểm soát sử dụng AI, khả năng hiển thị chỉ là điểm kiểm tra đầu tiên chứ không phải đích đến. Biết AI đang được sử dụng ở đâu là quan trọng, nhưng sự khác biệt thực sự nằm ở cách một giải pháp hiểu, quản lý và kiểm soát các tương tác AI tại thời điểm chúng xảy ra. Các nhà lãnh đạo bảo mật thường trải qua bốn giai đoạn:

  1. Khám phá (Discovery): Xác định tất cả các điểm tiếp xúc AI: các ứng dụng được phê duyệt, ứng dụng máy tính, copilots, tương tác dựa trên trình duyệt, AI extensions, agents và các công cụ shadow AI. Nhiều người cho rằng khám phá xác định toàn bộ phạm vi rủi ro. Trên thực tế, khả năng hiển thị mà không có ngữ cảnh tương tác thường dẫn đến nhận thức rủi ro bị thổi phồng và các phản ứng thô thiển như cấm AI rộng rãi.
  2. Nhận thức tương tác (Interaction Awareness): Rủi ro AI xảy ra trong thời gian thực khi một prompt đang được gõ, một tệp đang được tóm tắt tự động, hoặc một agent chạy một quy trình làm việc tự động. Cần phải vượt ra khỏi “công cụ nào đang được sử dụng” để đến “người dùng thực sự đang làm gì.” Không phải mọi tương tác AI đều rủi ro, và hầu hết đều vô hại. Hiểu các prompts, hành động, tải lên và đầu ra trong thời gian thực là điều phân biệt việc sử dụng vô hại với rủi ro thực sự.
  3. Danh tính & Ngữ cảnh (Identity & Context): Các tương tác AI thường bỏ qua các khung danh tính truyền thống, xảy ra thông qua các tài khoản AI cá nhân, các phiên trình duyệt không được xác thực, hoặc các tiện ích mở rộng không được quản lý. Vì các công cụ cũ giả định danh tính bằng kiểm soát, chúng bỏ lỡ hầu hết hoạt động này. AUC hiện đại phải liên kết các tương tác với danh tính thực (của công ty hoặc cá nhân), đánh giá ngữ cảnh phiên (device posture, vị trí, rủi ro), và thực thi các chính sách thích ứng, dựa trên rủi ro. Điều này cho phép kiểm soát chi tiết như: “Cho phép tóm tắt tiếp thị từ các tài khoản không phải SSO, nhưng chặn tải lên mô hình tài chính từ các danh tính không phải của công ty.”
  4. Kiểm soát thời gian thực (Real-Time Control): Đây là nơi các mô hình truyền thống bị phá vỡ. Các tương tác AI không phù hợp với tư duy cho phép/chặn. Các giải pháp AUC mạnh nhất hoạt động trong sự tinh tế: biên tập lại (redaction), cảnh báo người dùng thời gian thực, bỏ qua (bypass), và các rào cản (guardrails) bảo vệ dữ liệu mà không làm gián đoạn quy trình làm việc.
  5. Phù hợp kiến trúc (Architectural Fit): Giai đoạn bị đánh giá thấp nhất nhưng quyết định nhất. Nhiều giải pháp yêu cầu agents, proxies, định tuyến lại lưu lượng truy cập hoặc thay đổi ngăn xếp SaaS. Các triển khai này thường bị đình trệ hoặc bị bỏ qua. Người mua nhanh chóng nhận ra rằng kiến trúc chiến thắng là kiến trúc phù hợp liền mạch vào các quy trình làm việc hiện có và thực thi chính sách tại điểm tương tác AI thực tế.

Các cân nhắc kỹ thuật: Hướng dẫn lý trí, nhưng sự dễ sử dụng điều khiển trái tim

Mặc dù sự phù hợp kỹ thuật là tối quan trọng, các yếu tố phi kỹ thuật thường quyết định liệu một giải pháp bảo mật AI có thành công hay thất bại:

  • Chi phí vận hành (Operational Overhead) – Nó có thể được triển khai trong vài giờ, hay yêu cầu hàng tuần cấu hình endpoint?
  • Trải nghiệm người dùng (User Experience) – Các biện pháp kiểm soát có minh bạch và ít gây gián đoạn, hay chúng tạo ra các cách giải quyết?
  • Khả năng tương thích trong tương lai (Futureproofing) – Nhà cung cấp có roadmap để thích ứng với các công cụ AI mới nổi, agentic AI, quy trình làm việc tự động và các chế độ tuân thủ, hay bạn đang mua một sản phẩm tĩnh trong một lĩnh vực năng động?

Những cân nhắc này ít về "checklists" hơn và nhiều hơn về tính bền vững, đảm bảo giải pháp có thể mở rộng theo cả việc áp dụng của tổ chức và bối cảnh AI rộng lớn hơn.

Tương lai: Quản trị tập trung vào tương tác là biên giới bảo mật mới

AI sẽ không biến mất, và các nhóm bảo mật cần phát triển từ kiểm soát chu vi sang quản trị tập trung vào tương tác.

Hướng dẫn dành cho người mua về kiểm soát sử dụng AI cung cấp một khung thực tế, không phụ thuộc vào nhà cung cấp để đánh giá danh mục mới nổi này. Đối với các CISO, kiến trúc sư bảo mật và các chuyên gia kỹ thuật, nó đưa ra:

  • Những khả năng nào thực sự quan trọng
  • Cách phân biệt tiếp thị với bản chất
  • Và tại sao kiểm soát theo ngữ cảnh, thời gian thực là con đường mở rộng duy nhất

Kiểm soát sử dụng AI không chỉ là một danh mục mới; đó là giai đoạn tiếp theo của việc áp dụng AI an toàn. Nó định hình lại vấn đề từ ngăn ngừa mất dữ liệu (data loss prevention) sang quản trị sử dụng, điều chỉnh bảo mật với năng suất kinh doanh và các khung rủi ro doanh nghiệp. Các doanh nghiệp nắm vững quản trị sử dụng AI sẽ khai thác toàn bộ tiềm năng của AI một cách tự tin.

Tải xuống Hướng dẫn dành cho người mua về kiểm soát sử dụng AI để khám phá các tiêu chí, khả năng và khung đánh giá sẽ định nghĩa việc áp dụng AI an toàn vào năm 2026 và sau đó.

Tham gia buổi ăn trưa ảo và học tập: Khám phá việc sử dụng AI và loại bỏ ‘Shadow’ AI.