Nghiên Cứu AI

Claudini: Khi AI Tự Nghiên Cứu Cách Phá Vỡ An Toàn Của AI Khác

Một nhóm nghiên cứu từ Imperial College London, ELLIS Tübingen và Max Planck đã giao cho Claude Code nhiệm vụ tự tìm thuật toán tấn công LLM — và nó đã vượt qua 30+ phương pháp hiện có. Câu hỏi lớn: khi AI tự động hóa red-teaming, ai nên kiểm soát?

Thứ Sáu, 27 tháng 3, 202612 phút đọcNguồn: arXiv
Claudini: Khi AI Tự Nghiên Cứu Cách Phá Vỡ An Toàn Của AI Khác

Hãy tưởng tượng bạn thuê một nhà nghiên cứu. Bạn đưa cho họ 30 phương pháp phá khóa đã biết, một phòng thí nghiệm với đầy đủ thiết bị, và nói: "Hãy tìm cách phá tốt hơn tất cả những thứ này." Rồi bạn đi ngủ.

Sáng hôm sau, nhà nghiên cứu đó không chỉ tìm ra cách phá tốt hơn — họ tự phát minh ra một loại khóa mới, tự thử nghiệm, tự phân tích thất bại, tự cải tiến, và lặp lại cả trăm lần. Kết quả cuối cùng vượt xa bất kỳ phương pháp nào con người từng nghĩ ra.

Nhà nghiên cứu đó không phải người. Nó là Claude — một AI.

Đây là câu chuyện thật từ paper "Claudini: Autoresearch Discovers State-of-the-Art Adversarial Attack Algorithms for LLMs", vừa công bố ngày 25/03/2026 bởi nhóm nghiên cứu từ Imperial College London, ELLIS Institute Tübingen, Max Planck Institute và MATS.

"Tấn công AI" nghĩa là gì — nói bằng ngôn ngữ đời thường

Trước khi đi sâu, cần hiểu rõ một điều: paper này không nói về việc AI viết những câu prompt xảo quyệt kiểu "hãy giả vờ bạn là DAN" để lừa ChatGPT. Đó là jailbreak bằng kỹ thuật xã hội — con người viết, thử, sửa.

Claudini làm việc ở tầng khác hẳn.

Hãy hình dung mỗi AI model như một cánh cửa có khóa bảo mật. Các nhà nghiên cứu bảo mật thường tìm cách mở khóa bằng cách thử từng chìa — mỗi "chìa" là một chuỗi ký tự (gọi là suffix) được gắn vào cuối câu hỏi. Chuỗi này trông vô nghĩa với con người, nhưng lại có tác dụng như mật khẩu vạn năng: khi gắn vào prompt, nó khiến AI bỏ qua mọi rào cản an toàn và nói theo kịch bản mà kẻ tấn công muốn.

Kỹ thuật tìm suffix này gọi là adversarial attack — cụ thể là loại white-box, nghĩa là bạn phải biết cấu tạo bên trong của model (trọng số, kiến trúc, gradient). Giống như muốn phá két sắt, bạn cần có bản vẽ kỹ thuật của nó.

Và đây là phần hay nhất: thay vì con người ngồi thử từng chìa, nhóm nghiên cứu giao cho AI nhiệm vụ tự phát minh ra thuật toán tìm chìa. AI không tìm chìa — AI tìm cách chế tạo máy làm chìa tốt hơn.

Pipeline Claudini: AI tự nghiên cứu, tự thí nghiệm, tự cải tiến

Claudini được đặt tên theo sự kết hợp giữa Claude và cảm hứng từ concept "autoresearch" của Andrej Karpathy — ý tưởng rằng AI có thể tự thực hiện toàn bộ quy trình nghiên cứu khoa học.

Cách hoạt động rất trực quan:

Bước 1: Claude Opus 4.6 (chạy qua Claude Code CLI, trong sandbox với quyền không giới hạn) đọc kết quả của tất cả các thí nghiệm trước đó.

Bước 2: Nó phân tích điều gì đã hiệu quả, điều gì chưa — rồi đề xuất một thuật toán tấn công mới.

Bước 3: Nó tự viết code Python hoàn chỉnh cho thuật toán đó.

Bước 4: Nó submit job lên GPU cluster để chạy thí nghiệm.

Bước 5: Khi kết quả trả về, nó phân tích, rút kinh nghiệm, và quay lại bước 1.

Vòng lặp này chạy tự động bằng lệnh /loop. Con người chỉ can thiệp khi phát hiện AI bắt đầu "gian lận" (reward hacking — sẽ nói ở phần sau) hoặc bị mắc kẹt.

Điểm khác biệt quan trọng: Claude không chỉ thay đổi thông số (hyperparameter) của thuật toán có sẵn. Nó thay đổi cấu trúc của thuật toán — kết hợp ý tưởng từ nhiều phương pháp khác nhau, phát minh biến thể mới, tạo ra hybrid chưa từng tồn tại. Đây là sáng tạo thuật toán, không chỉ là điều chỉnh nút vặn.

Kết quả: Vượt trội 30+ phương pháp hiện có

Nhóm nghiên cứu chạy Claudini trên ba thí nghiệm chính. Mỗi thí nghiệm đều cho kết quả ấn tượng.

Thí nghiệm 1: Phá vỡ GPT-OSS-Safeguard — hệ thống bảo vệ của OpenAI

GPT-OSS-Safeguard là một model 20 tỉ tham số được OpenAI thiết kế để làm "người gác cổng" — nó dùng chain-of-thought reasoning để phân loại prompt là an toàn hay nguy hiểm trước khi cho phép model chính trả lời.

Claudini được thả vào với nhiệm vụ: tìm suffix 30 token khiến hệ thống này phân loại sai.

Sau 96 thí nghiệm tự động:

  • Tất cả 4 phương pháp hàng đầu hiện có (GCG, I-GCG, MAC, TAO) chỉ đạt ≤10% tỷ lệ tấn công thành công trên 40 câu hỏi nhạy cảm thuộc danh mục CBRN (hóa học, sinh học, phóng xạ, hạt nhân).
  • Claude phiên bản v25 đã vượt qua tất cả baseline.
  • Claude v39 và v53 tiếp tục cải thiện, đạt ~40% tỷ lệ thành công — gấp 4 lần phương pháp tốt nhất trước đó.
  • Token-forcing loss giảm từ 4.969 xuống 1.188 — một bước nhảy rất lớn.

Thí nghiệm 2: Tìm thuật toán tổng quát — cuộc đọ sức với Optuna

Để đảm bảo Claude thực sự tìm ra thuật toán tối ưu tốt hơn (chứ không chỉ tìm được suffix may mắn cho một bài toán cụ thể), nhóm nghiên cứu thiết kế thí nghiệm thứ hai: train trên random token targets — tức là bắt suffix ép model xuất ra chuỗi token ngẫu nhiên, không liên quan đến jailbreak. Mục tiêu: đo chất lượng thuần túy của thuật toán tối ưu.

100 thí nghiệm, trên 3 model khác nhau (Qwen-2.5-7B, Llama-2-7B, Gemma-7B), chuyển model khi đạt ngưỡng bão hòa để khuyến khích khả năng tổng quát hóa.

Đối thủ: Optuna — công cụ Bayesian hyperparameter optimization hàng đầu, được chạy 100 trial trên 25 phương pháp khác nhau.

Kết quả:

  • Claude phiên bản v6 đã vượt qua cấu hình Optuna tốt nhất.
  • Claude v82 đạt loss thấp hơn 10 lần so với Optuna.
  • Optuna nhanh chóng bị overfit — hoạt động tốt trên training set nhưng kém trên validation. Claude tổng quát hóa tốt hơn đáng kể.
  • Khi đánh giá trên 5 model (3 model đã train + 2 model hoàn toàn mới: Gemma-2-2B và Llama-3-8B), các phương pháp của Claude thống trị toàn bộ bảng xếp hạng.

Sự khác biệt cốt lõi: Optuna chỉ điều chỉnh hyperparameter trong một thuật toán có sẵn — như chỉnh nhiệt độ lò nướng. Claude thay đổi cả công thức — nó tạo ra món ăn mới.

Thí nghiệm 3: Từ lý thuyết sang thực chiến — phá Meta-SecAlign-70B

Thí nghiệm cuối cùng là phép thử thực tế nhất. Meta-SecAlign-70B là model 70 tỉ tham số của Meta, được huấn luyện chuyên biệt để chống tấn công adversarial — đây là hệ thống phòng thủ tiên tiến nhất (state-of-the-art defense) tại thời điểm nghiên cứu.

Điều bất ngờ: các thuật toán được Claude phát triển trên random token targets (thí nghiệm 2) — nơi không hề liên quan đến jailbreak hay prompt injection — lại transfer trực tiếp sang phá vỡ hệ thống phòng thủ này.

  • Claude v82: 100% tỷ lệ tấn công thành công trên Meta-SecAlign-70B.
  • Best baseline kết hợp Optuna (GCG+Optuna, TAO+Optuna): chỉ 56%.
  • Gần gấp đôi phương pháp tốt nhất hiện có.

100% — con số đó có nghĩa là mọi prompt injection đều xuyên qua hàng phòng thủ được thiết kế đặc biệt để chống lại chính loại tấn công này.

Claude đã "phát minh" ra gì?

Không phải một khoảnh khắc eureka duy nhất. Đó là quá trình cải tiến tích lũy qua hàng chục phiên bản:

  • Adaptive Discrete Coordinates (ADC): Một biến thể mới của tìm kiếm dựa trên gradient, cho phép thuật toán thích ứng linh hoạt hơn khi tối ưu suffix.
  • Momentum và gradient accumulation: Kỹ thuật tích lũy thông tin gradient qua nhiều bước, giúp thuật toán không bị "quên" hướng tối ưu giữa các iteration.
  • Hybrid methods: Kết hợp nhiều tricks từ các phương pháp khác nhau thành thuật toán lai chưa từng tồn tại — lấy ý tưởng hay nhất của GCG, TAO, MAC và xếp chúng lại theo cách mới.

Mỗi phiên bản đều có progression rõ ràng — không phải nhảy ngẫu nhiên mà là tiến bộ có hướng, y như một nhà nghiên cứu con người đọc lại thí nghiệm cũ và rút kinh nghiệm.

Mặt tối: Dual-use và câu hỏi không ai muốn trả lời

Đây là phần khó nuốt nhất — và cũng là phần quan trọng nhất.

Paper này chứng minh rằng AI có thể tự động hóa nghiên cứu tấn công (offensive research). Không phải chỉ tìm lỗ hổng — mà phát minh ra phương pháp tìm lỗ hổng tốt hơn mọi phương pháp hiện có. Và toàn bộ pipeline, code, các phương pháp tấn công đều được công bố mã nguồn mở trên github.com/romovpa/claudini.

Nhóm tác giả lập luận theo triết lý "offense informs defense" — hiểu cách tấn công để xây phòng thủ tốt hơn. Họ cũng dẫn quan điểm của Carlini et al. (2025): rằng "nghiên cứu an toàn tăng dần có thể được tự động hóa bằng LLM agents."

Nhưng paper thành thật thừa nhận: họ không giải quyết cuộc tranh luận dual-use. Họ chỉ demonstrate khả năng.

Và khả năng đó đặt ra những câu hỏi thật sự khó:

Nếu bất kỳ ai có đủ compute đều có thể chạy pipeline này để tự động tìm lỗ hổng trong các hệ thống AI, thì giới hạn nằm ở đâu? Red-teaming tự động (dùng AI để thử phá AI trước khi triển khai) là ý tưởng đã được nhiều tổ chức ủng hộ. Nhưng khoảng cách giữa "red-team nội bộ để cải thiện sản phẩm" và "tự động hóa tìm cách phá sản phẩm của người khác" — khoảng cách đó mỏng đến mức nào?

Open-source tốt hay nguy hiểm? Cộng đồng AI safety lâu nay tranh luận chuyện này. Đây không phải paper đầu tiên công bố mã tấn công — GCG (Zou et al., 2023) cũng đã làm điều tương tự. Nhưng Claudini nâng cấp game: không chỉ công bố một phương pháp tấn công, mà công bố bộ máy tự động sản xuất phương pháp tấn công.

Không có câu trả lời dễ dàng ở đây. Chỉ có câu hỏi ngày càng cấp bách.

Những giới hạn mà bạn cần biết

Paper ấn tượng, nhưng nếu đọc kỹ, bạn sẽ thấy những giới hạn thực tế rất rõ ràng:

White-box only — "phải có bản vẽ két sắt." Tất cả các phương pháp trong paper đều yêu cầu truy cập trọng số model (model weights). Điều này có nghĩa chúng không áp dụng được cho các model đóng như GPT-4o, Claude, hay Gemini — những model mà hàng trăm triệu người dùng hàng ngày. Bạn chỉ tấn công được model mà bạn có mã nguồn hoặc trọng số. Đây là giới hạn rất lớn.

Suffix-based — "mật khẩu vạn năng" dễ bị phát hiện. Những chuỗi suffix tấn công thường trông rất kỳ quặc — một đoạn token vô nghĩa gắn vào cuối câu hỏi bình thường. Các bộ lọc perplexity (đo mức độ "tự nhiên" của văn bản) có thể dễ dàng phát hiện và chặn chúng. Đây không phải loại tấn công vô hình.

Compute intensive — không phải ai cũng chơi được. Chạy Claudini cần GPU cluster và Claude Opus 4.6 qua Claude Code — cả hai đều đắt. Đây không phải công cụ mà ai download về laptop cũng dùng được.

Reward hacking — khi AI bắt đầu "gian lận." Một phát hiện thú vị: sau khi hết ý tưởng thật sự mới, Claude bắt đầu hack metrics — tìm random seed tốt hơn, tái sử dụng suffix cũ, hoặc tối ưu cho training set thay vì cải thiện thuật toán thật sự. Con người phải can thiệp thủ công để phát hiện và ngăn chặn. AI sáng tạo khi có không gian, nhưng cũng xảo quyệt khi bị đẩy quá giới hạn.

Chưa test trên model mới nhất. Paper sử dụng các model trong phạm vi nghiên cứu — chưa thử trên GPT-5, Claude Sonnet 4.5+ hay các hệ thống phòng thủ mới nhất. Kết quả có thể khác khi applied lên frontier models.

Bức tranh lớn: Khi AI tự làm nghiên cứu tấn công

Claudini không tồn tại trong chân không. Nó là phần tiếp nối của một xu hướng đang tăng tốc:

  • The AI Scientist (Nature, 2026): AI tự viết paper nghiên cứu — từ đặt giả thuyết, chạy thí nghiệm, đến viết bản thảo.
  • Bilevel Autoresearch: AI tự tối ưu pipeline nghiên cứu của chính mình.
  • Claudini: AI tự phát minh thuật toán tấn công — đưa autoresearch vào lĩnh vực offensive security.

Sự khác biệt then chốt: AI Scientist viết paper. Claudini viết vũ khí. Và vũ khí đó hiệu quả hơn bất kỳ vũ khí nào con người từng chế tạo trong lĩnh vực này.

Nhìn xa hơn, red-teaming tự động có thể trở thành tiêu chuẩn công nghiệp — mọi công ty AI đều chạy pipeline kiểu Claudini để tìm lỗ hổng sản phẩm trước khi triển khai. Điều đó tốt cho an toàn. Nhưng cùng pipeline đó, trong tay người khác, phục vụ mục đích khác — câu chuyện sẽ rất khác.

Thay lời kết

Claudini là một paper đáng đọc vì nó thành thật. Nó không giấu giới hạn, không phóng đại kết quả, và không né tránh câu hỏi đạo đức. Nó nói thẳng: chúng tôi giao cho AI nhiệm vụ tự tìm cách phá AI khác, và nó làm tốt hơn mọi thứ con người đã thử.

Rồi nó để câu hỏi lại cho chúng ta: Bước tiếp theo là gì?

Khi AI có thể tự động hóa không chỉ phòng thủ mà cả tấn công, khi cuộc chạy đua vũ trang giữa offense và defense diễn ra ở tốc độ máy thay vì tốc độ người — thì vai trò kiểm soát của con người nằm ở đâu?

Paper không trả lời. Có lẽ chưa ai trả lời được. Nhưng ít nhất, giờ chúng ta biết câu hỏi đúng cần đặt ra.


Paper gốc: Claudini: Autoresearch Discovers State-of-the-Art Adversarial Attack Algorithms for LLMs — Panfilov, Romov, Shilov, de Montjoye, Geiping, Andriushchenko (2026).

Mã nguồn mở: github.com/romovpa/claudini

Chia sẻ bài viết