5 Bài học từ Hướng dẫn thị trường về Guardian Agent đầu tiên của Gartner

Vào ngày 25 tháng 2 năm 2026, Gartner đã công bố Hướng dẫn thị trường (Market Guide) đầu tiên về Guardian Agents, đánh dấu một cột mốc quan trọng cho danh mục mới nổi này. Đối với những người chưa quen với các loại báo cáo của Gartner, “một Market Guide định nghĩa một thị trường và giải thích những gì khách hàng có thể mong đợi nó sẽ làm trong ngắn hạn. Với trọng tâm vào các thị trường mới nổi, hỗn loạn hơn, một Market Guide không đánh giá hoặc định vị các nhà cung cấp.
Ảnh minh họa cho Gartner Market Guide for Guardian Agents
Ảnh minh họa: Báo cáo Gartner Market Guide for Guardian Agents

Vào ngày 25 tháng 2 năm 2026, Gartner đã công bố Hướng dẫn thị trường (Market Guide) đầu tiên về Guardian Agents, đánh dấu một cột mốc quan trọng cho danh mục mới nổi này. Đối với những người chưa quen với các loại báo cáo của Gartner, “một Market Guide định nghĩa một thị trường và giải thích những gì khách hàng có thể mong đợi nó sẽ làm trong ngắn hạn. Với trọng tâm vào các thị trường mới nổi, hỗn loạn hơn, một Market Guide không đánh giá hoặc định vị các nhà cung cấp trong thị trường, mà thường phác thảo các thuộc tính của các nhà cung cấp tiêu biểu đang cung cấp các dịch vụ trên thị trường để cung cấp cái nhìn sâu sắc hơn về chính thị trường đó.”

Và nếu Guardian Agent là một thuật ngữ lạ lẫm, Gartner định nghĩa nó khá đơn giản: “Guardian agents giám sát các AI agents, giúp đảm bảo các hành động của agent phù hợp với mục tiêu và giới hạn.” Các nhà lãnh đạo bảo mật doanh nghiệp và quản lý identity có thể yêu cầu một bản sao giới hạn của Gartner Market Guide for Guardian Agents.

Biểu đồ về việc áp dụng AI agents trong doanh nghiệp
Tình hình áp dụng AI agents trong doanh nghiệp

Bài học 1: Tại sao công nghệ Guardian Agent lại quan trọng

Chỉ cần đọc tin tức – trên các báo như Wall Street Journal, The Financial Times, Forbes, Bloomberg, và nhiều nơi khác – để thấy rằng AI agents hiện đã trở thành một xu hướng. Nhưng Khảo sát CISO Village năm 2025 của Team8 đã định lượng điều đó, cho thấy:

  • Gần 70% doanh nghiệp đã chạy AI agents (bất kỳ hệ thống nào có thể trả lời và hành động) trong môi trường production.
  • 23% khác đang lên kế hoạch triển khai vào năm 2026.
  • Hai phần ba đang tự xây dựng chúng.

Tuy nhiên, trong Market Guide, Gartner khẳng định rằng việc áp dụng nhanh chóng này trong doanh nghiệp đang vượt xa các kiểm soát quản trị truyền thống. Điều này làm tăng rủi ro rằng “khi các AI agents trở nên tự chủ hơn và được tích hợp vào các quy trình làm việc quan trọng, rủi ro về lỗi vận hành và không tuân thủ sẽ leo thang.”

Chúng tôi đồng tình, sau khi đọc về các sự cố mất điện gần đây của nhà cung cấp cloud xuất phát từ các hành động của AI agent tự chủ, điều này không làm chúng tôi ngạc nhiên. Những gì chúng tôi thấy trong việc áp dụng sớm là, thậm chí hơn cả các service accounts truyền thống, việc triển khai AI agent tạo ra nhiều identity dark matter hơn – lớp danh tính vô hình và không được quản lý. Nó bao gồm các local credentials authentication có thể được cung cấp. Các tokens không bao giờ hết hạn dễ dàng bị quên lãng. Quyền truy cập đầy đủ được cấp, bất kể người dùng hay công việc. Và nhiều hơn nữa.

Không chỉ vậy, như chúng tôi đã chia sẻ trong bài viết về “Lazy LLMs,” các AI agents, theo thiết kế, là những kẻ tìm kiếm đường tắt; luôn tìm kiếm con đường hiệu quả nhất để trả về một kết quả thỏa đáng cho mỗi prompt. Tuy nhiên, khi làm như vậy, chúng thường khai thác identity dark matter – các tài khoản mồ côi, không hoạt động hoặc các tokens lỏng lẻo, thường với local clear-text credentials và excessive privileges – cho phép chúng hoàn thành “công việc,” bất kể liệu chúng có nên được phép làm vậy hay không. Đây là cách các sự cố không mong muốn hoặc không thể tưởng tượng được phát sinh.

Như thể những rủi ro kinh doanh đó chưa đủ, chúng tôi lưu ý rằng Báo cáo Đe dọa Toàn cầu của CrowdStrike năm 2026 còn đi xa hơn, chia sẻ rằng “Adversaries are also actively exploiting AI systems themselves, injecting malicious prompts into GenAI tools at more than 90 organizations and abusing AI development platforms.”

Để tìm hiểu thêm về cách các AI agents vừa mở rộng cái mà chúng tôi gọi là “Identity Dark Matter” và thậm chí tự khai thác nó, hãy xem bài viết trước đây của chúng tôi trên The Hacker News.

Bài học 2: Các khả năng cốt lõi của Guardian Agents

Vì vậy, sau khi đã xác định được sự cần thiết phải giám sát AI agent, câu hỏi tiếp theo đối với chúng tôi là làm thế nào, về mặt kỹ thuật, để giải quyết nhu cầu đó. Đây là nơi, theo ý kiến của chúng tôi, Gartner cực kỳ giá trị – nghiên cứu thị trường và các nhà cung cấp để hiểu những gì có thể và chọn lọc những gì giá trị nhất, dựa trên vấn đề cần giải quyết.

Market Guide vạch ra các tính năng bắt buộc trong 3 lĩnh vực cốt lõi:

  1. Khả năng hiển thị và truy vết AI: Bạn có thể thấy và theo dõi các hành động của mỗi AI agent không?
  2. Đảm bảo và đánh giá liên tục: Làm thế nào để bạn duy trì sự tự tin rằng các agents vẫn an toàn khỏi compromise và tuân thủ trong hành động?
  3. Kiểm tra và thực thi Runtime: “đảm bảo rằng các hành động và đầu ra của AI agents phù hợp với các ý định, mục tiêu và chính sách quản trị đã xác định, ngăn chặn các hành vi không mong muốn.”

Có 9 tính năng chi tiết trên các lĩnh vực cốt lõi này được nêu trong Market Guide. Nhiều tính năng trong số này đã giúp định hình 5 nguyên tắc mà chúng tôi tin là nền tảng cho việc sử dụng AI agents an toàn (và hiệu quả).

  1. Ghép nối AI Agents với Người bảo trợ là con người: Chúng tôi tin rằng mỗi agent không chỉ nên được nhận diện và giám sát, mà còn phải được gắn với một người vận hành là con người chịu trách nhiệm.
  2. Truy cập linh hoạt, nhận biết ngữ cảnh: Chúng tôi tin rằng các AI agents không nên giữ các privileges cố định, vĩnh viễn. Quyền lợi của chúng nên được giới hạn thời gian, nhận biết session và giới hạn ở least privilege.
  3. Khả năng hiển thị và kiểm toán: Theo quan điểm của chúng tôi, khả năng hiển thị không chỉ là “chúng tôi đã ghi nhật ký.” Bạn cần phải gắn các hành động với phạm vi dữ liệu: agent đã truy cập gì, đã thay đổi gì, đã xuất gì, và liệu hành động đó có chạm vào các datasets được quy định hoặc nhạy cảm hay không.
  4. Quản trị ở quy mô doanh nghiệp: Theo chúng tôi, việc áp dụng AI agent nên mở rộng trên cả hệ thống mới và hệ thống cũ trong một khuôn khổ quản trị duy nhất, nhất quán, để các nhóm bảo mật, compliance và hạ tầng không làm việc trong các silos.
  5. Cam kết về IAM Hygiene tốt: Giống như tất cả các identity, các authentication flows, authorization permissions và các controls đã triển khai, IAM hygiene mạnh mẽ – trên cả application server lẫn MCP server – là rất quan trọng để giữ mọi người dùng trong giới hạn phù hợp.
Sơ đồ về các khả năng cốt lõi của Guardian Agents
Các khả năng cốt lõi của Guardian Agents

Bài học 3: Các phương pháp tiếp cận khác nhau của nhà cung cấp đối với Guardian AI

Mặc dù vậy, ngay cả khi các nhà cung cấp cố gắng giải quyết cùng một yêu cầu của Guardian Agent, họ thường giải quyết vấn đề bằng các mô hình kiến trúc rất khác nhau.

Gartner phác thảo sáu phương pháp tiếp cận triển khai và tích hợp mới nổi, điều này, đối với những người áp dụng, quan trọng hơn nhiều so với vẻ ngoài ban đầu. Đây không chỉ là các lựa chọn đóng gói. Chúng xác định nơi quyền kiểm soát tồn tại, mức độ hiển thị thực tế bạn nhận được, mức độ thực thi của chính sách và bao nhiêu phần tài sản agent của bạn sẽ nằm ngoài phạm vi bao phủ.

Dưới đây là đánh giá nhanh của chúng tôi về từng mô hình:

  • Standalone Oversight Platforms thường là nơi dễ bắt đầu nhất. Chúng thu thập logs, telemetry và events vào một nơi và có thể cung cấp khả năng hiển thị tư thế, auditability và phân tích có ý nghĩa. Nhưng nhiều nền tảng này vẫn nghiêng về quan sát hơn là can thiệp. Điều đó hữu ích, nhưng không giống như kiểm soát. Nếu tư thế rủi ro AI của bạn phụ thuộc vào việc ngăn chặn các hành động xấu trước khi chúng xảy ra, chỉ khả năng hiển thị thôi sẽ không đủ.
  • AI/MCP Gateways là mô hình trực quan nhất: đặt một control point ở giữa và buộc lưu lượng truy cập agent đi qua nó. Điều đó có thể tạo ra một lớp tập trung mạnh mẽ để giám sát và policy enforcement trên nhiều agents. Nhưng nó chỉ hoạt động nếu lưu lượng truy cập thực sự đi qua lớp đó. Trong thực tế, gateways có thể trở thành cả một bottleneck và một sự an ủi sai lầm. Nếu các nhóm bypass chúng, hoặc nếu các tương tác của agent xảy ra bên ngoài con đường được quản lý, khả năng hiển thị sẽ nhanh chóng bị phá vỡ.
  • Embedded or In-Line Run-Time Modules nằm gần hơn với quá trình execution, bên trong nền tảng agent, một AI management platform, hoặc một LLM proxy. Điều đó làm cho chúng hấp dẫn vì thường dễ bật hơn và có thể hành động tức thì hơn. Nhược điểm là chúng thường bị ràng buộc bởi nền tảng. Chúng quản lý môi trường chúng sống, chứ không phải doanh nghiệp rộng lớn hơn. Đối với những người áp dụng, điều đó có nghĩa là kiểm soát cục bộ tốt, nhưng tính nhất quán trên toàn doanh nghiệp yếu nếu các agents của bạn trải dài trên nhiều stacks.
  • Orchestration Layer Extensions hấp dẫn trong các môi trường nơi orchestration đã đóng vai trò là operating layer cho các multi-agent workflows. Chúng có thể thêm policy, visibility và oversight ở cấp độ workflow. Nhưng chúng cũng giả định rằng orchestration là nơi meaningful control nên tồn tại. Điều đó chỉ đúng nếu tổ chức thực sự chạy các agents của mình thông qua một common orchestration layer. Nhiều tổ chức sẽ không làm vậy. Vì vậy, đối với những người áp dụng, mô hình này mạnh mẽ trong kiến trúc phù hợp và irrelevant trong kiến trúc sai.
  • Hybrid Edge - Cloud Models là nơi mọi thứ bắt đầu trở nên thực tế hơn. Như Gartner lưu ý, những mô hình này ngày càng trở nên quan trọng khi các agent ecosystems ngày càng tập trung vào endpoint. Mô hình này phân tán oversight giữa các local execution environments và cloud analysis, điều này có thể giảm latency và cải thiện runtime relevance. Đối với những người áp dụng, giá trị rõ ràng: nó tránh việc over-centralizing mọi thứ vào một choke point. Nhưng nó cũng nâng cao mức độ phức tạp. Distributed governance mạnh hơn về lý thuyết, nhưng khó triển khai tốt.
  • Coordination Mechanisms các tiêu chuẩn, APIs và hooks ít là một deployment model hơn là một connective tissue giữa chúng. Và ngày nay, sự kết nối đó vẫn còn immature. Gartner nêu rõ rằng việc integration trên các AI agent platforms vẫn khó khăn vì các standard interfaces vẫn còn thiếu. Điều đó có nghĩa là những người áp dụng nên cẩn thận để không nhầm lẫn giữa “supports standards” với “works seamlessly in production.” Lớp phối hợp là cần thiết, nhưng nó chưa đủ mature để được coi là đã được giải quyết.

Bất kể phương pháp kỹ thuật nào, Gartner đưa ra hướng dẫn rõ ràng về sự cần thiết của một cái gì đó nhiều hơn là governance của các AI agents riêng lẻ được xây dựng trong một cloud provider, identity tool hoặc AI platform. Cụ thể, họ chỉ ra những điều sau:

“Một lớp Guardian Agent trung lập, đáng tin cậy với nhiều Guardian Agent thực hiện các chức năng giám sát riêng biệt nhưng tích hợp sẽ thực thi routing trên tất cả các providers. Do đó, Guardian Agent hoạt động như một missing universal enforcement mechanism.”

Bài học 4: Guardian Agents sẽ trở thành một lớp kiểm soát độc lập của doanh nghiệp

Có lẽ điều quan trọng nhất mà chúng tôi rút ra về lâu dài từ Market Guide là Guardian Agents sẽ không chỉ đơn thuần là một tính năng khác được nhúng trong các nền tảng AI. Theo cách chúng tôi hiểu, Gartner khá rõ ràng: “các doanh nghiệp sẽ yêu cầu các lớp Guardian Agent độc lập hoạt động trên các cloud, platforms, identity systems và data environments.”

Tại sao? Bởi vì bản thân các AI agents không sống ở một nơi duy nhất.

Các agents tương tác với APIs, applications, data repositories, infrastructure và thậm chí cả các agents khác trên nhiều environments. Một cloud provider có thể giám sát các agents chạy trong ecosystem của riêng mình, nhưng một khi các agents đó gọi các tools, delegate tasks hoặc operate trên nhiều providers, không một single platform nào có thể tự mình enforce governance.

Đó là lý do tại sao chúng tôi tin rằng Gartner lập luận rằng các tổ chức sẽ ngày càng triển khai các lớp Guardian Agent thuộc sở hữu doanh nghiệp, nằm phía trên các individual platforms và supervise agents trên toàn bộ enterprise environment.

Nói cách khác, governance không thể chỉ tồn tại bên trong các platforms tạo hoặc host AI agents. Nó cần phải tồn tại phía trên chúng.

Nói một cách đơn giản: tương lai của agent governance sẽ không phải là platform-native supervision. Nó sẽ là enterprise-owned oversight. Và các tổ chức áp dụng kiến trúc đó sớm sẽ có vị trí tốt hơn nhiều để scale AI agentic một cách an toàn, mà không giới thiệu một thế hệ invisible automation risk mới trên infrastructure, data và identity của họ.

Bài học 5: Vẫn còn thời gian, nhưng không phải là mãi mãi

Bất chấp tất cả sự phấn khích về AI agents và những câu chuyện tin tức lớn về việc chúng thay thế công việc, thị trường Guardian Agent vẫn còn ở giai đoạn đầu. Theo Gartner, “Ngày nay, việc triển khai Guardian Agent chủ yếu là prototypes hoặc pilots, mặc dù các tổ chức tiên tiến đã sử dụng các phiên bản ban đầu của chúng để supervise AI agents.”

Nhưng nó đang đến rất nhanh. Họ lưu ý rằng “thị trường Guardian Agent — bao gồm các technologies để oversight, security và governance của autonomous AI agents — đang bước vào giai đoạn tăng trưởng nhanh chóng, được củng cố bởi việc áp dụng nhanh chóng AI agentic trên các industries.”

Thành thật mà nói, chúng tôi cũng sẽ đưa ra một tuyên bố tương tự về thị trường Agentic nói chung. Vâng, chúng tôi đã triển khai AI agents trong Orchid – công ty và sản phẩm. Nhưng các tổ chức, bao gồm cả chúng tôi, mới chỉ chạm đến bề mặt của những gì có thể. Các nhân viên cá nhân đã bắt đầu sử dụng AI agents cá nhân của riêng họ chưa? Có. Nhiều technology vendors có cung cấp built-in AI agents, ngoài simple chatbot không? Có. Một số earliest adopters đã triển khai một corporate standard platform để augment hoặc replace jobs chưa? Có (nhưng với một chút do dự skeptical).

Tuy nhiên, như câu nói xưa, “mất bò mới lo làm chuồng” (it’s too late to bar the door after the horse is out of the barn). Orchid Security khuyến nghị bạn nên đảm bảo AI agent visibility càng sớm càng tốt, và chắc chắn, thiết lập các identity and access management guardrails và governance tương tự như yêu cầu đối với human users là indeed in place để similarly guide their AI companions, trước khi mọi chuyện đã rồi.

Điểm mấu chốt (Chúng tôi sẽ nói lại)

AI agents đã xuất hiện. Chúng đang thay đổi cách các doanh nghiệp vận hành.

Thách thức không phải là có nên sử dụng chúng hay không, mà là cách quản lý chúng.

Việc áp dụng AI agents một cách an toàn đòi hỏi phải áp dụng các nguyên tắc tương tự mà các identity practitioners đã biết rõ – least privilege, lifecycle management và auditability – cho một loại non-human identity mới tuân theo giao thức này.

Nếu identity dark matter là tổng hợp những gì chúng ta không thể thấy hoặc control, thì các unmanaged AI agents có thể trở thành nguồn phát triển nhanh nhất của nó, nếu left unchecked. Các tổ chức hành động ngay bây giờ để đưa chúng ra ánh sáng sẽ là những tổ chức có thể move quickly với AI mà không phải sacrificing trust, compliance hoặc security. Đó là lý do tại sao Orchid Security đang building identity infrastructure để eliminate dark matter, và make Agent AI adoption safe to deploy at enterprise scale.

Yêu cầu bản Gartner Market Guide for Guardian Agents có số lượng giới hạn để tìm hiểu thêm về AI agents và các guardians của chúng.