5 Bài Học Từ Hướng Dẫn Thị Trường Guardian Agents Đầu Tiên Của Gartner

Vào ngày 25 tháng 2 năm 2026, Gartner đã công bố Hướng dẫn Thị trường Guardian Agents đầu tiên, đánh dấu một cột mốc quan trọng cho phân khúc mới nổi này. Đối với những người chưa quen với các loại báo cáo của Gartner, “một Hướng dẫn Thị trường định nghĩa một thị trường và giải thích những gì khách hàng có thể mong đợi nó sẽ làm trong thời gian ngắn. Tập trung vào các thị trường mới nổi, hỗn loạn hơn, Hướng dẫn Thị trường không xếp hạng hoặc định vị.
Ảnh bìa Hướng dẫn Thị trường Guardian Agents của Gartner

Vào ngày 25 tháng 2 năm 2026, Gartner đã công bố Hướng dẫn Thị trường Guardian Agents đầu tiên, đánh dấu một cột mốc quan trọng cho phân khúc mới nổi này. Đối với những người chưa quen với các loại báo cáo của Gartner, họ định nghĩa rằng “một Hướng dẫn Thị trường định nghĩa một thị trường và giải thích những gì khách hàng có thể mong đợi nó sẽ làm trong thời gian ngắn. Tập trung vào các thị trường mới nổi, hỗn loạn hơn, một Hướng dẫn Thị trường không xếp hạng hoặc định vị các nhà cung cấp trong thị trường, mà phổ biến hơn là phác thảo các thuộc tính của các nhà cung cấp tiêu biểu đang cung cấp các dịch vụ trong thị trường để cung cấp cái nhìn sâu sắc hơn về chính thị trường đó.”

Và nếu Guardian Agent là một thuật ngữ không quen thuộc, Gartner định nghĩa nó khá đơn giản. “Guardian agents giám sát các AI agents, giúp đảm bảo hành động của agent phù hợp với mục tiêu và ranh giới.” Các nhà lãnh đạo an ninh và identity doanh nghiệp có thể yêu cầu một bản phân phối giới hạn của Gartner Market Guide for Guardian Agents.

Hình ảnh minh họa về Guardian Agents

Bài học 1: Tại sao công nghệ Guardian Agent lại quan trọng

Chỉ cần đọc tin tức—trên Wall Street Journal, The Financial Times, Forbes, Bloomberg, và nhiều nơi khác—để thấy rằng AI agents hiện đã trở thành một hiện tượng. Nhưng Khảo sát CISO Village 2025 của Team8 đã định lượng điều đó, cho thấy rằng:

  • Gần 70% doanh nghiệp đã vận hành AI agents (bất kỳ hệ thống nào có thể trả lời và hành động) trong production.
  • 23% khác đang lên kế hoạch deployments vào năm 2026.
  • Hai phần ba đang tự xây dựng chúng.

Tuy nhiên, trong hướng dẫn thị trường, Gartner khẳng định rằng việc áp dụng nhanh chóng trong doanh nghiệp này đang vượt xa các kiểm soát governance truyền thống. Điều này làm tăng rủi ro rằng “khi AI agents trở nên tự chủ hơn và được nhúng vào các workflow quan trọng, rủi ro về thất bại operational và noncompliance sẽ leo thang.”

Chúng tôi đồng ý, sau khi đọc về các sự cố ngừng hoạt động gần đây của nhà cung cấp cloud bắt nguồn từ hành động của AI agent tự động, điều này không làm chúng tôi ngạc nhiên. Những gì chúng tôi thấy trong giai đoạn áp dụng ban đầu là, thậm chí nhiều hơn so với các service account truyền thống, việc triển khai AI agent tạo ra nhiều identity dark matter hơn—lớp identity vô hình và không được quản lý. Nó bao gồm xác thực credentials cục bộ có thể được cung cấp. Các token không bao giờ hết hạn dễ bị lãng quên. Quyền truy cập đầy đủ được cấp, bất kể người dùng hay job. Và nhiều hơn nữa.

Không chỉ vậy, như chúng tôi đã chia sẻ trong bài viết về “Lazy LLMs,” AI agents, theo thiết kế, là những kẻ tìm kiếm lối tắt; luôn tìm kiếm con đường hiệu quả nhất để trả về một kết quả thỏa đáng cho mỗi prompt. Tuy nhiên, khi làm vậy, chúng thường khai thác identity dark matter—các tài khoản mồ côi, không hoạt động hoặc các token lỏng lẻo, thường với credentials clear-text cục bộ và privileges quá mức—cho phép chúng đạt được “end of job,” bất kể chúng có nên được phép làm như vậy hay không. Đây là cách các sự cố không mong muốn hoặc không thể tưởng tượng được xảy ra.

Như thể những rủi ro business đó chưa đủ, chúng tôi lưu ý rằng Báo cáo Đe dọa Toàn cầu 2026 của CrowdStrike còn đi xa hơn một bước, chia sẻ rằng “Adversaries cũng đang tích cực khai thác các hệ thống AI, injecting malicious prompts vào các công cụ GenAI tại hơn 90 tổ chức và lạm dụng các platforms phát triển AI.”

Để tìm hiểu thêm về cách AI agents vừa mở rộng cái mà chúng tôi gọi là “Identity Dark Matter” và thậm chí tự khai thác nó, hãy xem bài viết trước đây của chúng tôi trên The Hacker News.

Bài học 2: Các khả năng cốt lõi của Guardian Agent

Vì vậy, sau khi xác định được nhu cầu giám sát AI agent, câu hỏi tiếp theo đối với chúng tôi là về mặt kỹ thuật, làm thế nào để giải quyết nhu cầu đó. Đây là nơi, theo ý kiến của chúng tôi, Gartner cực kỳ giá trị—nhìn nhận toàn bộ thị trường và các nhà cung cấp để hiểu những gì có thể và thu hẹp nó thành những gì có giá trị nhất, dựa trên vấn đề cần giải quyết.

Hướng dẫn thị trường phác thảo các tính năng bắt buộc trong 3 lĩnh vực cốt lõi:

  1. AI Visibility and Traceability: Bạn có thể nhìn thấy và theo dõi các hành động của mỗi AI agent không?
  2. Continuous Assurance and Evaluation: Làm thế nào để bạn duy trì sự tự tin rằng các agent vẫn secure khỏi bị compromise và compliant trong hành động?
  3. Runtime Inspection and Enforcement: “đảm bảo rằng các hành động và outputs của AI agents phù hợp với các intentions, goals và governance policies đã xác định, ngăn chặn các behaviors không mong muốn.”

Có 9 tính năng chi tiết trên các lĩnh vực cốt lõi này được nêu trong hướng dẫn thị trường. Nhiều trong số đó đã giúp định hình nhiều trong số 5 nguyên tắc mà chúng tôi tin là nền tảng cho việc sử dụng AI agents secure (và productive).

  1. Ghép nối AI Agents với Human Sponsors: Chúng tôi tin rằng mỗi agent không chỉ cần được identified và monitored, mà còn phải được gắn với một operator con người chịu trách nhiệm.
  2. Truy cập động, Context-Aware Access: Chúng tôi tin rằng AI agents không nên giữ các privileges cố định, permanent. Entitlements của chúng nên được time-bound, session-aware và giới hạn ở least privilege.
  3. Visibility và Auditability: Theo quan điểm của chúng tôi, visibility không chỉ là “chúng tôi đã logged nó.” Bạn cần liên kết các hành động với data reach: những gì agent đã accessed, những gì nó đã changed, những gì nó đã exported và liệu hành động đó có touched regulated hoặc sensitive datasets hay không.
  4. Governance ở Enterprise Scale: Theo chúng tôi, việc áp dụng AI agent nên mở rộng trên cả các hệ thống mới và legacy trong một single, consistent governance fabric, để các team security, compliance và infrastructure không làm việc trong các silos.
  5. Cam kết về Good IAM Hygiene: Cũng như tất cả các identities, authentication flows, authorization permissions và implemented controls, strong hygiene—trên application server cũng như MCP server—là rất quan trọng để giữ mọi user trong các bounds phù hợp.
Minh họa các khả năng của Guardian Agents

Bài học 3: Các phương pháp tiếp cận Guardian AI khác nhau của nhà cung cấp

Mặc dù vậy, ngay cả khi các nhà cung cấp cố gắng giải quyết cùng một yêu cầu của Guardian Agent, họ thường giải quyết vấn đề bằng các mô hình architectural rất khác nhau.

Gartner phác thảo sáu phương pháp delivery và integration mới nổi, mà đối với những người adopters, chúng quan trọng hơn vẻ ngoài ban đầu. Đây không chỉ là các lựa chọn packaging. Chúng quyết định nơi control tồn tại, mức độ visibility bạn thực sự có được, policy có thể enforceable đến mức nào và bao nhiêu phần trong agent estate của bạn sẽ nằm ngoài coverage.

Đây là nhận định nhanh của chúng tôi về từng mô hình:

  • Standalone Oversight Platforms thường là nơi dễ nhất để bắt đầu. Chúng collect logs, telemetry và các events vào một nơi và có thể cung cấp meaningful posture visibility, auditability và analysis. Nhưng nhiều platforms này vẫn nghiêng về observation hơn là intervention. Điều đó useful, nhưng nó không giống như control. Nếu AI risk posture của bạn phụ thuộc vào việc stopping bad actions trước khi chúng xảy ra, chỉ visibility thôi sẽ không đủ.
  • AI/MCP Gateways là mô hình intuitive nhất: đặt một control point ở giữa và force agent traffic đi qua đó. Điều đó có thể tạo ra một powerful centralized layer để monitoring và policy enforcement trên multiple agents. Nhưng nó chỉ works nếu traffic thực sự đi qua layer đó. Trong practice, gateways có thể trở thành cả một bottleneck và một false comfort. Nếu các teams bypass chúng, hoặc nếu agent interactions xảy ra bên ngoài con đường được governed, visibility sẽ nhanh chóng bị broken down.
  • Embedded hoặc In-Line Run-Time Modules nằm closer to execution, inside the agent platform, một AI management platform, hoặc một LLM proxy. Điều đó làm cho chúng appealing vì chúng thường easier to turn on và có thể act with more immediacy. The downside là chúng thường platform-bound. Chúng govern the environment mà chúng live in, không phải broader enterprise. Đối với adopters, điều đó có nghĩa là great local control, nhưng weak enterprise-wide consistency nếu các agents của bạn span multiple stacks.
  • Orchestration Layer Extensions attractive trong các environments nơi orchestration đã acts as the operating layer cho multi-agent workflows. Chúng có thể add policy, visibility và oversight ở workflow level. Nhưng chúng cũng assume orchestration là nơi meaningful control nên sit. Điều đó chỉ true nếu organization thực sự runs its agents thông qua một common orchestration layer. Nhiều tổ chức sẽ không làm vậy. So for adopters, mô hình này powerful trong right architecture và irrelevant trong wrong one.
  • Hybrid Edge - Cloud Models là nơi mọi thứ bắt đầu trở nên realistic hơn. Như Gartner notes, những mô hình này đang trở nên important hơn khi agent ecosystems ngày càng trở nên endpoint-centric. Mô hình này spreads oversight giữa local execution environments và cloud analysis, có thể reduce latency và improve runtime relevance. Đối với adopters, giá trị clear: nó avoids over-centralizing everything trong one choke point. But it also raises the complexity bar. Distributed governance stronger in theory, nhưng harder to implement well.
  • Coordination Mechanisms standards, API và hooks ít giống một deployment model hơn là connective tissue giữa chúng. Và today, đó tissue immature. Gartner explicit rằng integration across AI agent platforms remains difficult vì standard interfaces vẫn lacking. That means adopters nên careful not to mistake “supports standards” for “works seamlessly in production.” The coordination layer necessary, but it not yet mature enough to be treated as solved.

Bất kể phương pháp kỹ thuật là gì, Gartner đưa ra hướng dẫn rõ ràng về sự cần thiết của một cái gì đó nhiều hơn việc governance của individual AI agents được built into a single cloud provider, identity tool, hoặc AI platform. Cụ thể, họ nêu rõ như sau:

“Một lớp guardian agent trung lập, đáng tin cậy với multiple guardian agents performing separate but integrated oversight functions enforces routing across all providers. Thus, the guardian agent acts as the missing universal enforcement mechanism.”

Bài học 4: Guardian Agent sẽ trở thành một lớp kiểm soát doanh nghiệp độc lập

Có lẽ bài học quan trọng nhất về lâu dài đối với chúng tôi từ Hướng dẫn Thị trường là Guardian Agents sẽ không chỉ đơn thuần là một feature khác được embedded trong các AI platforms. Theo cách chúng tôi hiểu, Gartner khá explicit: “các enterprises sẽ require independent guardian agent layers hoạt động across clouds, platforms, identity systems và data environments.”

Tại sao? Bởi vì bản thân AI agents không sống ở một nơi.

Các agents tương tác với APIs, applications, data repositories, infrastructure và thậm chí cả các agents khác trên multiple environments. Một cloud provider có thể supervise agents running inside its own ecosystem, nhưng once those agents call tools, delegate tasks hoặc operate across providers, no single platform có thể enforce governance alone.

Đó là lý do tại sao chúng tôi tin rằng Gartner argues rằng organizations sẽ increasingly deploy enterprise-owned guardian agent layers mà sit above individual platforms và supervise agents across the full enterprise environment.

Nói cách khác, governance không thể chỉ live inside the platforms mà create hoặc host AI agents. It needs to live above them.

Put simply: the future of agent governance sẽ không phải là platform-native supervision. It will be enterprise-owned oversight. And the organizations that adopt that architecture early will be far better positioned to scale agentic AI safely, without introducing a new generation of invisible automation risk across their infrastructure, data, và identities.

Bài học 5: Vẫn còn thời gian, nhưng không phải là mãi mãi

Với tất cả sự hào hứng về AI agents và những câu chuyện brand news lớn về việc chúng replacing jobs, thị trường Guardian Agent vẫn còn early. Theo Gartner, “Today, guardian agent deployments are mainly prototypes hoặc pilots, although advanced organizations are already using early versions of them to supervise AI agents.”

Nhưng nó đang coming fast. Họ note rằng “thị trường guardian agent — encompassing technologies for the oversight, security, và governance của autonomous AI agents — đang entering a phase of accelerated growth, underpinned bởi rapid adoption của agentic AI across industries.”

Frankly, chúng tôi sẽ make a similar statement about the Agentic market overall. Yes, chúng tôi đã implemented AI agents within Orchid—the company and the product. But organizations, ourselves included, are just scratching the surface của what’s possible. Have individual employees started using their own personal AI agents? Yes. Do many technology vendors offer built-in AI agents, beyond the simple chatbot? Yes. Have some of the earliest adopters implemented a corporate standard platform to augment hoặc replace jobs? Yes (but said with some skeptical hesitation).

Tuy nhiên, as the saying goes, it’s too late to bar the door after the horse is out of the barn. Orchid Security recommends that you ensure AI agent visibility sooner rather than later, và for sure, establish the same identity and access management guardrails và governance required for human users are indeed in place to similarly guide their AI companions, before the horse is out of the barn.

Kết luận (Chúng tôi sẽ nhắc lại)

AI agents đã ở đây. Chúng đã và đang changing how enterprises operate.

The challenge is not whether to use them, but how to govern them.

Safe adoption của AI agents requires applying the same principles that identity practitioners know well, least privilege, lifecycle management, và auditability, to a new class of non-human identities that follow this protocol.

If identity dark matter là the sum of what we can’t see or control, then unmanaged AI agents may become its fastest-growing source, if left unchecked. The organizations that act now to bring them into the light will be the ones who can move quickly with AI without sacrificing trust, compliance, or security. That’s why Orchid Security đang building identity infrastructure để eliminate dark matter, và make Agent AI adoption safe to deploy at enterprise scale.

Yêu cầu bản giới hạn Gartner Market Guide for Guardian Agents để tự tìm hiểu về AI agents và Guardian Agents của chúng.