Agentic Process Management: Khi Doanh Nghiệp Cần Một Bộ Luật Cho AI Agents
18 nhà nghiên cứu từ Oxford, IBM, SAP, Meta cùng viết tuyên ngôn cho cách quản trị AI agents trong doanh nghiệp. 4 năng lực cốt lõi, 24 thách thức nghiên cứu, và câu hỏi: ai chịu trách nhiệm khi agent sai?

Hãy thử tưởng tượng thế này.
Bạn vừa tuyển vào công ty một nhân viên cực kỳ thông minh. Anh ta đọc hiểu mọi tài liệu trong vài giây, phân tích dữ liệu nhanh hơn cả phòng analytics gộp lại, và có thể soạn email chuyên nghiệp bằng bất kỳ ngôn ngữ nào. Nhưng có một vấn đề: anh ta không biết quy trình công ty. Không biết khi nào cần xin duyệt, không biết giới hạn ngân sách mình được phép quyết, không biết rằng gửi hợp đồng cho khách hàng phải qua bộ phận pháp lý trước. Anh ta làm mọi thứ rất nhanh — nhưng thỉnh thoảng làm sai quy trình, và khi hỏi tại sao lại làm vậy, anh ta không giải thích được.
Đó chính xác là tình trạng của phần lớn AI agents trong doanh nghiệp hôm nay.
Và đó cũng là lý do 18 nhà nghiên cứu từ 16 tổ chức hàng đầu thế giới — bao gồm University of Oxford, IBM Research, SAP, Meta, TU Munich, và nhiều viện nghiên cứu khác — vừa cùng nhau viết một bản tuyên ngôn nghiên cứu (research manifesto) để đặt nền móng cho một lĩnh vực hoàn toàn mới: Agentic Process Management (APM).
Tại sao cần đọc paper này?
Trước khi đi sâu, mình muốn nói rõ: đây không phải một paper kỹ thuật với thí nghiệm, benchmark, hay demo sản phẩm. Đây là một tuyên ngôn — một bản đồ đường (roadmap) định hình cách cộng đồng nghiên cứu và doanh nghiệp nên suy nghĩ về AI agents trong tổ chức.
Nghe có vẻ trừu tượng? Không hề. Năm 2012, một nhóm nghiên cứu cũng từng ra một bản tuyên ngôn tương tự — Process Mining Manifesto — và nó đã định hình toàn bộ ngành process mining suốt thập kỷ sau đó. Celonis, một startup process mining, giờ định giá hàng tỷ đô. Mọi chuyện bắt đầu từ một bản tuyên ngôn.
Paper APM này có tham vọng tương tự: vạch ra khung tư duy cho kỷ nguyên mà AI agents không còn là công cụ phụ trợ, mà trở thành thành viên chính thức trong bộ máy vận hành doanh nghiệp.
Nếu bạn là doanh nhân, quản lý, hay bất kỳ ai đang triển khai hoặc dự định triển khai AI agents — đây là paper bạn cần đọc, không phải vì nó cho bạn giải pháp ngay, mà vì nó cho bạn đúng bộ câu hỏi để tránh mắc sai lầm đắt giá.
Vấn đề cốt lõi: BPM truyền thống không đủ cho AI agents
Business Process Management (BPM) — quản trị quy trình kinh doanh — đã tồn tại hàng thập kỷ. Nó giúp doanh nghiệp mô hình hóa, thực thi, giám sát và tối ưu các quy trình. Từ duyệt đơn mua hàng đến xử lý khiếu nại khách hàng, BPM là xương sống vận hành của mọi tổ chức lớn.
Nhưng BPM truyền thống được thiết kế theo triết lý "quy trình điều khiển mọi thứ" (process drives everything). Con người hay phần mềm đều là những "mắt xích" thực thi theo luồng đã định sẵn. Bạn là bước 3 trong quy trình 7 bước? Bạn nhận input từ bước 2, làm xong rồi chuyển cho bước 4. Đơn giản, rõ ràng, kiểm soát được.
AI agents phá vỡ mô hình này.
Một AI agent không chỉ thực thi — nó suy luận, ra quyết định, và đôi khi chủ động hành động mà không cần chờ trigger từ quy trình. Nó có thể tự phát hiện một đơn hàng bất thường và escalate lên manager, tự đề xuất thay đổi workflow khi thấy bottleneck, hay tự điều chỉnh cách xử lý dựa trên context.
Điều này vừa là sức mạnh, vừa là rủi ro khổng lồ.
Tuyên ngôn APM đề xuất một sự dịch chuyển paradigm: từ automation-oriented (quy trình là trung tâm, mọi thứ chạy theo script) sang agent-oriented (agents là thực thể chức năng chính, hoạt động trong khung do tổ chức đặt ra). Agents không thay thế quy trình — chúng sống trong quy trình, nhưng với mức tự chủ cao hơn nhiều so với phần mềm truyền thống.
Kiến trúc hai tầng: Macro và Micro
Paper đề xuất một kiến trúc tư duy hai tầng để hiểu cách agents hoạt động trong tổ chức:
Tầng Macro (System level): Nhìn từ trên xuống toàn bộ tổ chức. Nhiều agents phối hợp với nhau, chia sẻ một "khung quy trình" chung (shared process frame), chịu sự quản trị (governance layer), và hướng tới mục tiêu chung của tổ chức. Đây là tầng mà ban lãnh đạo quan tâm: toàn bộ hệ thống agents đang làm gì, có tuân thủ chính sách không, có đạt KPI không.
Tầng Micro (Agent level): Nhìn vào từng agent riêng lẻ. Mỗi agent có "mô hình tâm trí" (mental model) riêng — bao gồm niềm tin về quy trình, mục tiêu được giao, và các ràng buộc phải tuân thủ. Nó hoạt động theo vòng lặp: cảm nhận (sense) → suy luận (reason) → hành động (act). Giống như cách một nhân viên giỏi quan sát tình hình, suy nghĩ phương án, rồi hành động — nhưng ở tốc độ máy.
Sự phân tách hai tầng này quan trọng vì nó cho phép quản trị mà không phải kiểm soát từng li từng tí. Bạn đặt khung ở tầng macro, mỗi agent tự vận hành ở tầng micro trong phạm vi khung đó.
4 năng lực cốt lõi — giải thích cho người bận rộn
Phần hay nhất của paper là 4 năng lực (capabilities) mà bất kỳ hệ thống APM nào cũng cần có. Thứ tự không ngẫu nhiên — chúng được sắp xếp có chủ đích, từ nền tảng đến nâng cao.
1. Framed Autonomy — Tự chủ có khung
Phép so sánh: Nghĩ về một trưởng phòng kinh doanh giỏi. Người này không cần CEO duyệt từng email gửi khách hàng, tự quyết được nhiều thứ trong phạm vi quyền hạn. Nhưng họ biết rõ: deal trên 500 triệu phải trình lên board, khách hàng thuộc danh sách cấm vận thì dừng ngay, và mọi cam kết pháp lý phải qua phòng legal. Họ tự chủ — trong khung.
Đó chính xác là Framed Autonomy. AI agent được phép chủ động, sáng tạo, tự ra quyết định — nhưng luôn trong một "khung" (frame) gồm:
- Ràng buộc chuẩn mực (normative constraints): điều bắt buộc phải làm (obligations), điều được phép (permissions), và điều cấm (prohibitions)
- Logic quy trình: hiểu mình đang ở bước nào, bước tiếp theo là gì, ai liên quan
- Mục tiêu tổ chức: không chỉ hoàn thành task mà hướng tới mục tiêu lớn hơn
Paper phân biệt hai loại frame:
- Mental frame: agent hiểu gì về quy trình, mục tiêu, luật lệ (beliefs)
- Intentional frame: mục tiêu riêng của agent, được căn chỉnh với mục tiêu tổ chức (alignment)
Điểm khác biệt quan trọng so với các nghiên cứu multi-agent systems (MAS) trước đây: frame ở đây gắn chặt với context quy trình kinh doanh, không phải lý thuyết trừu tượng. Agent không chỉ tuân thủ quy tắc chung chung — nó hiểu quy trình cụ thể mà nó đang tham gia.
2. Explainability — Giải thích được lý do
Phép so sánh: Bạn hỏi nhân viên "Tại sao từ chối đơn hàng này?" Nếu câu trả lời là "Thuật toán quyết định" — bạn không yên tâm. Nhưng nếu câu trả lời là "Đơn hàng vượt hạn mức tín dụng của khách hàng này, theo chính sách rủi ro Q1/2026, và tôi đã kiểm tra lịch sử thanh toán 6 tháng gần nhất" — bạn tin được, và có thể quyết định override nếu cần.
Explainability trong APM không chỉ là XAI (Explainable AI) kiểu truyền thống — giải thích tại sao model dự đoán A thay vì B. Nó phải giải thích trong context quy trình kinh doanh cụ thể mà agent đang vận hành.
Paper đặt ra 5 thuộc tính mong muốn cho một lời giải thích tốt:
- Tuân thủ khung — giải thích phải nằm trong phạm vi frame đã định
- Giàu context — phản ánh đầy đủ bối cảnh kinh doanh, không chung chung
- Phản ánh quan hệ nhân quả — vì A nên B, không phải "tự nhiên chọn B"
- Dễ hiểu cho cả agent khác — kể cả con người lẫn AI agents khác trong hệ thống
- Có thể hành động — giải thích xong thì người nhận biết phải làm gì tiếp
Một insight đáng chú ý: explainability bảo tồn autonomy. Nghe có vẻ nghịch lý, nhưng logic là thế này: nếu agent giải thích được tốt tại sao nó quyết định vậy, con người sẽ tin tưởng hơn → ít cần can thiệp hơn → agent giữ được tự chủ. Ngược lại, agent giải thích tệ → mất niềm tin → bị siết kiểm soát → mất tự chủ.
3. Conversational Actionability — Nói chuyện và hành động được
Phép so sánh: Bạn nhắn cho trợ lý: "Kiểm tra xem đơn hàng #1234 đang ở bước nào, nếu chưa thanh toán thì gửi nhắc nhở cho khách." Trợ lý hiểu ngôn ngữ tự nhiên của bạn, tra cứu hệ thống, và thực hiện hành động — tất cả trong một cuộc hội thoại.
Conversational Actionability có hai mặt:
(a) Process-aware conversation — Agent có thể tương tác bằng ngôn ngữ tự nhiên (hoặc ngôn ngữ formal) với hiểu biết về quy trình. Không phải chatbot trả lời chung chung, mà là agent biết bạn đang hỏi trong context quy trình nào, bước nào, với ràng buộc gì.
(b) Process-aware actionability — Cuộc hội thoại không chỉ để hỏi-đáp mà có thể trigger hành động thực: truy vấn dữ liệu, đề xuất phương án, tạo yêu cầu, thực thi quyết định.
Paper cũng mention một ý tưởng thú vị: federated perspectives (góc nhìn liên kết) thay vì single source of truth. Trong một tổ chức phức tạp, mỗi agent có thể nắm một phần thông tin, và việc phối hợp các góc nhìn đó tạo ra bức tranh toàn cảnh — thay vì ép mọi thứ vào một database trung tâm.
Đáng lưu ý: paper nhắc tới MCP (Model Context Protocol) — một chuẩn giao tiếp đang nổi lên trong thế giới agentic AI — như một ví dụ về cách agents có thể tương tác với công cụ và dữ liệu theo cách chuẩn hóa.
4. Self-Modification — Tự thay đổi
Phép so sánh: Một công ty vận hành tốt có hai loại cải tiến: (1) xử lý tình huống phát sinh hàng ngày (khách phàn nàn, đơn hàng lỗi → xử lý ngoại lệ), và (2) cải tiến quy trình dài hạn sau khi phân tích patterns (mỗi quý review để đổi workflow). Loại 1 là ứng biến ngắn hạn. Loại 2 là tiến hóa.
Paper phân biệt rõ ràng:
- Adaptation (thích ứng): ngắn hạn, theo từng trường hợp cụ thể, tạm thời, xử lý ngoại lệ. Agent gặp tình huống bất thường → điều chỉnh hành vi → xong rồi quên đi.
- Evolution (tiến hóa): dài hạn, áp dụng xuyên suốt, lưu lại vĩnh viễn, dựa trên phân tích tổng hợp. Nhiều adaptation traces tích lũy → nhận ra patterns → đề xuất thay đổi quy trình ở cấp hệ thống.
Chu trình phản hồi: adaptation traces → phát hiện patterns → ứng viên evolution → đánh giá → áp dụng (hoặc không).
Đây là năng lực "đáng sợ" nhất nhưng cũng tiềm năng nhất. Một hệ thống agents có thể tự cải tiến quy trình kinh doanh — nhưng điều đó cũng đặt ra câu hỏi: ai kiểm soát việc tự cải tiến này? Nếu agent A thay đổi quy trình theo hướng tối ưu KPI của nó nhưng xung đột với agent B thì sao? Nếu sự "tiến hóa" đi sai hướng và không ai phát hiện kịp thì sao?
24 thách thức nghiên cứu — bản đồ cho thập kỷ tới
Paper không chỉ vẽ ra viễn cảnh mà còn liệt kê 24 thách thức nghiên cứu cụ thể, chia thành 5 nhóm:
Framed Autonomy (F1-F4): Làm sao định nghĩa "agent" một cách thực dụng trong context kinh doanh? Làm sao rút trích và đặc tả frame từ quy trình thực tế? Làm sao vận hành frame trên dữ liệu thật? Và — câu hỏi kinh tế học hành vi thú vị — làm sao thiết kế cơ chế khuyến khích (incentive mechanisms) để agents muốn tuân thủ frame?
Explainability (X1-X5): Người dùng khác nhau cần giải thích khác nhau (CEO vs. kỹ sư vs. auditor). Làm sao mở rộng XAI hiện tại cho context BPM? Khi nào nên sinh giải thích — realtime hay hậu kiểm? Và làm sao đảm bảo giải thích đúng quan hệ nhân quả, không phải tương quan giả?
Conversational Actionability (A1-A5): Thiết kế giao diện hội thoại cho cả human lẫn agent. Tận dụng công cụ process mining hiện có. Wrap các hệ thống BPM cũ thành agents. Đo lường KPIs cho hệ thống hội thoại. Và câu hỏi triết học nhất: cân bằng giữa tự chủ — ủy quyền — kiểm soát ở mức nào?
Self-Modification (M1-M5): Governance cho việc tự thay đổi. Đánh giá chất lượng modification. Đồng bộ khi nhiều agents cùng tiến hóa song song. Học liên tục mà không "quên" kiến thức cũ. Và mô hình hóa sự bất định — agent biết nó không chắc chắn ở đâu.
Cross-cutting (C1-C5): Di cư từ BPM cũ sang APM. Nghịch lý bảo mật (explainability cần minh bạch, nhưng minh bạch có thể lộ dữ liệu nhạy cảm). Benchmark cho hệ thống APM. Trách nhiệm pháp lý khi agent gây hại. Và phương pháp kỹ thuật để xây dựng hệ thống APM.
Nghịch lý bảo mật và khoảng trống trách nhiệm
Hai thách thức cross-cutting đáng để dừng lại suy nghĩ:
Security Paradox: Để agent giải thích được (explainability), nó cần minh bạch về cách ra quyết định. Nhưng minh bạch quá mức có thể lộ dữ liệu nhạy cảm, logic kinh doanh bí mật, hoặc tạo lỗ hổng bảo mật. Bạn muốn agent giải thích tại sao nó từ chối giao dịch — nhưng nếu giải thích chi tiết quá, kẻ xấu có thể hiểu cách né tránh hệ thống kiểm soát. Đây không có đáp án dễ.
Liability Gap: Khi một AI agent đưa ra quyết định sai và gây thiệt hại, ai chịu trách nhiệm? Developer viết code? Tổ chức triển khai? Nhà cung cấp model AI? Hay đó là "hành vi phát sinh" (emergent behavior) mà không ai lường trước được? Luật pháp hiện tại chưa có câu trả lời rõ ràng, và paper chỉ ra đây là một trong những rào cản lớn nhất cho việc triển khai APM trong thực tế.
Bốn tuyên bố tầm nhìn
Paper đưa ra 4 vision statements mà mình nghĩ nên trích nguyên vì chúng phản ánh tinh thần cốt lõi:
- BPM thông minh = sự hợp tác giữa con người và agent, không phải agent thay thế con người
- Agents cần symbolic frames — chỉ neural network (kiểu LLM) thôi là không đủ, cần thêm cấu trúc logic, quy tắc rõ ràng
- LLMs đơn lẻ không đủ — cần kết hợp với process knowledge, formal reasoning, và governance
- Kỷ nguyên doanh nghiệp tự chủ (autonomous enterprise) đang đến, được thúc đẩy bởi agentic AI
Tuyên bố số 2 và 3 đặc biệt quan trọng trong bối cảnh hiện tại, khi nhiều người nghĩ rằng cứ ném LLM vào là xong. Paper nói rõ: không. LLMs là một phần quan trọng, nhưng nếu không có khung quy trình, governance, và cơ chế giải thích — bạn sẽ có những agents rất giỏi nhưng không ai kiểm soát được.
Liên hệ thực tế — nhẹ nhàng thôi
Nếu bạn đang làm việc với Salesforce Agentforce, bạn sẽ nhận ra nhiều ý tưởng trong paper này đang được hiện thực hóa ở mức sản phẩm: agents hoạt động trong "topics" (tương tự frames), có guardrails (normative constraints), và phải giải thích hành động qua audit trail. Nhưng Agentforce mới chỉ ở giai đoạn đầu — và paper này vẽ ra con đường dài hơn rất nhiều.
Nếu bạn từng dùng các AI agents trong vận hành (chatbot xử lý ticket, agent tự động hóa workflow, hay thậm chí agent phân tích dữ liệu), bạn chắc hẳn đã từng gặp khoảnh khắc "agent làm gì thế?" — agent hành động ngoài dự kiến, không giải thích được, và bạn phải can thiệp thủ công. APM framework là câu trả lời cho vấn đề đó ở cấp hệ thống.
Điều paper KHÔNG làm — và tại sao điều đó ổn
Cần nói thẳng: paper này không có thí nghiệm, không có benchmark, không có proof of concept. Đây là một manifesto — một tuyên ngôn đặt ra tầm nhìn, định nghĩa khái niệm, và liệt kê thách thức. Nó không chứng minh rằng APM hoạt động; nó đề xuất rằng APM nên được nghiên cứu và xây dựng.
Một số hạn chế cần lưu ý:
- Hoàn toàn conceptual: Chưa có implementation nào validate framework này. Các khái niệm như "mental frame" hay "intentional frame" nghe hay nhưng chưa ai biết chính xác cách hiện thực hóa chúng trong production system.
- 24 thách thức nhưng chưa có lời giải: Paper đặt ra câu hỏi rất tốt, nhưng câu trả lời thì để cho tương lai. Đây là đặc thù của manifesto — nó mở ra lĩnh vực, không đóng lại.
- Khoảng cách giữa lý thuyết và thực tiễn: Từ framework lý thuyết đến hệ thống chạy thật trong doanh nghiệp là một chặng đường rất dài. Nhiều ý tưởng trong paper có thể mất 5-10 năm để hiện thực hóa đầy đủ.
- Thiên về góc nhìn châu Âu/học thuật: 16 tổ chức phần lớn từ châu Âu, góc nhìn có thể chưa phản ánh hết bối cảnh doanh nghiệp Mỹ hay châu Á, nơi agentic AI đang được triển khai rất thực dụng.
Nhưng điều đó không làm giảm giá trị của paper. Process Mining Manifesto 2012 cũng là tuyên ngôn thuần lý thuyết — và nhìn xem ngành process mining đã phát triển thế nào sau đó. Một roadmap tốt có giá trị riêng của nó, đặc biệt khi lĩnh vực còn quá mới và mọi người đang "mạnh ai nấy chạy" mà chưa có ngôn ngữ chung.
Tại sao doanh nghiệp Việt Nam nên quan tâm — ngay bây giờ
Bạn có thể nghĩ: "Paper học thuật, châu Âu, lý thuyết — liên quan gì đến tôi?"
Liên quan nhiều hơn bạn tưởng.
Nếu bạn đang triển khai AI agents trong tổ chức — dù là chatbot CSKH, agent xử lý đơn hàng, hay hệ thống tự động hóa nội bộ — bạn đang đối mặt với chính xác những vấn đề paper này nêu ra:
- Agent làm sai quy trình → Bạn cần Framed Autonomy
- Không biết tại sao agent quyết định vậy → Bạn cần Explainability
- Muốn tương tác tự nhiên với agent nhưng agent phải hiểu quy trình → Bạn cần Conversational Actionability
- Agent cần cải tiến liên tục nhưng không được "chạy lung tung" → Bạn cần Self-Modification có governance
Và câu hỏi triệu đô: khi agent gây thiệt hại cho khách hàng, ai chịu trách nhiệm? Pháp luật Việt Nam — cũng như hầu hết các nước — chưa có câu trả lời.
Paper này không giải quyết hết mọi thứ. Nhưng nó cho bạn ngôn ngữ để đặt vấn đề, khung tư duy để thiết kế hệ thống, và danh sách rủi ro cần cân nhắc trước khi "all-in" vào AI agents.
Kết
18 nhà nghiên cứu từ Oxford, IBM, SAP, Meta và 12 tổ chức khác không ngồi lại viết tuyên ngôn vì họ rảnh. Họ làm vậy vì nhìn thấy một khoảng trống nguy hiểm: AI agents đang được triển khai nhanh hơn nhiều so với tốc độ chúng ta xây dựng khung quản trị cho chúng.
APM không phải sản phẩm. Không phải startup. Không phải thứ bạn mua và cài đặt. Đó là một cách suy nghĩ — rằng agents trong doanh nghiệp cần được quản trị như thành viên thực sự: cho quyền tự chủ nhưng trong khung, yêu cầu giải thích, cho phép tương tác tự nhiên, và cho phép cải tiến — có kiểm soát.
Và có lẽ bài học lớn nhất từ paper này là: nếu bạn đang vội triển khai AI agents mà chưa nghĩ đến governance — hãy dừng lại và nghĩ.
Không phải nghĩ để dừng. Mà nghĩ để đi đúng.
📄 Paper gốc: Agentic Business Process Management: A Research Manifesto (arXiv:2603.18916v2, 20/03/2026)
👥 Tác giả: Diego Calvanese, Giuseppe De Giacomo, Marlon Dumas, Fabiana Fournier, Timotheus Kampik, Niek Tax, Marco Montali, và 11 nhà nghiên cứu khác từ 16 tổ chức
🏛️ Tổ chức: University of Oxford, IBM Research Haifa, SAP Berlin, Meta London, TU Munich, DFKI, Sapienza Roma, Free University Bozen-Bolzano, University of Tartu, Umeå University, University of Ottawa, University of Melbourne, RMIT, University of St. Gallen, paluno/University of Duisburg-Essen
🔬 Nguồn gốc: Dagstuhl Seminar #25192 (AUTOBIZ) và workshop PMAI'25 tại ECAI