🧠 Google nói AI Singularity sẽ không xảy ra — thay vào đó là một 'xã hội trí tuệ'
Paper mới từ Google lật ngược quan niệm AI singularity: trí tuệ không phải một siêu não thần thánh, mà là xã hội phức tạp gồm tỷ người và AI tương tác lẫn nhau.

🧠 Google nói AI Singularity sẽ không xảy ra — thay vào đó là một "xã hội trí tuệ"
Khi nhắc đến AI singularity, nhiều người sẽ hình dung ra một khoảnh khắc rất điện ảnh: một siêu trí tuệ bỗng xuất hiện, vượt xa con người, rồi từ đó mọi thứ đổi chiều. Một bộ não khổng lồ. Một thực thể trung tâm. Một “vị thần máy móc” kiểu sci-fi.
Nhưng một paper mới từ Google lại bảo: có lẽ chúng ta đang tưởng tượng sai ngay từ đầu.
Trong paper "Agentic AI and the next intelligence explosion" (arXiv:2603.20639, ngày 21/03/2026), ba tác giả James Evans, Benjamin Bratton và Blaise Agüera y Arcas — thuộc Google Paradigms of Intelligence Team, trong đó Evans và Bratton có liên hệ UC San Diego — đưa ra một góc nhìn rất thú vị: “vụ nổ trí tuệ” tiếp theo sẽ không đến từ một siêu não đơn lẻ, mà từ một xã hội cực kỳ phức tạp gồm hàng tỷ agent tương tác với nhau.
Nói ngắn gọn: tương lai của trí tuệ không phải là một cá nhân mạnh hơn tất cả, mà là một hệ sinh thái biết phối hợp.
Và honestly, nghe vừa bớt đáng sợ hơn… vừa sâu hơn rất nhiều.
1. Lật ngược singularity: trí tuệ không phải chuyện của “một mình ai”
Điểm đáng nhớ nhất của paper nằm ngay ở tinh thần trung tâm của nó: "No mind is an island."
Không có tâm trí nào là một hòn đảo.
Câu này nghe thơ thơ, nhưng ý nghĩa thì rất thực tế. Từ trước đến nay, chúng ta hay nói về trí tuệ như thể đó là phẩm chất của một cá thể riêng biệt: một người thông minh, một model mạnh, một bộ não vượt trội. Nhưng paper này lại kéo ống kính ra xa hơn và nói rằng trí tuệ mạnh chưa bao giờ thực sự chỉ là chuyện cá nhân.
Ngay cả con người cũng vậy thôi. Suy nghĩ của chúng ta được hình thành từ đối thoại, giáo dục, văn hóa, tổ chức, luật lệ, vai trò xã hội, phản biện, đồng thuận và cả bất đồng. Một nhà khoa học không “thông minh một mình”. Họ thông minh trong mạng lưới đồng nghiệp, dữ liệu, công cụ, thể chế và lịch sử tư duy mà họ đang đứng trên vai.
Theo paper, AI cũng đang đi theo hướng tương tự. Thay vì tiến hóa thành một thực thể siêu việt duy nhất, AI ngày càng giống một xã hội của các agent: nhiều tác nhân khác nhau, đảm nhiệm các vai trò khác nhau, phối hợp, kiểm tra chéo, tranh luận, tách nhánh rồi hợp nhất.
Nếu nhìn như vậy, singularity không còn là một “điểm nổ” do một model đơn độc tạo ra. Nó giống một quá trình bùng nổ về tổ chức, tương tác và phối hợp giữa người và máy hơn.
2. “Society of Thought”: ngay trong một model cũng đã có tính xã hội
Một ý rất hay trong paper là khái niệm “Society of Thought”.
Bình thường, khi thấy các reasoning models như DeepSeek-R1 làm bài tốt hơn, nhiều người nghĩ đơn giản là: à, vì nó “nghĩ lâu hơn”. Nhưng paper gợi ý một cách hiểu sâu hơn: nó không chỉ nghĩ lâu — nó đang tự tạo ra một cuộc tranh luận nội bộ giữa nhiều góc nhìn.
Nghe hơi lạ, nhưng đời thường lắm nha.
Ví dụ khi bạn đứng trước một quyết định khó, trong đầu bạn thường không chỉ có một luồng suy nghĩ. Một phần trong bạn muốn liều. Một phần muốn an toàn. Một phần soi logic. Một phần lo cảm xúc. Một phần nghĩ đến hậu quả. Tức là cái gọi là “suy nghĩ” đôi khi chính là nhiều tiếng nói nội bộ đang thương lượng với nhau.
Paper dùng góc nhìn này để nói rằng trí tuệ mạnh có bản chất xã hội, kể cả khi nó diễn ra bên trong một model. Một hệ thống reasoning tốt không nhất thiết là vì nó có một “tia sáng thần thánh”, mà vì nó biết tạo ra nhiều vai trò nhận thức, cho chúng va chạm, rồi chắt lọc ra kết quả tốt hơn.
Đây là một cú lật khá đẹp. Nó biến hình ảnh AI từ “bộ não thiên tài cô độc” thành một thứ giống phòng họp thu nhỏ trong chính model đó.
Và nếu điều này đúng, thì tương lai AI sẽ không chỉ là làm model to hơn, mà còn là thiết kế cách nhiều tiến trình suy nghĩ cùng tồn tại, tranh luận và phối hợp hiệu quả hơn.
3. Human-AI Centaur: tương lai không phải human vs AI, mà là human + AI
Paper cũng nhấn mạnh đến khái niệm Human-AI Centaurs — những thực thể lai giữa người và AI.
Nếu bạn từng thấy hình ảnh centaur nửa người nửa ngựa trong thần thoại, thì đây là phiên bản công nghệ của ý tưởng đó: một actor lai, nơi ranh giới “ai là người, ai là agent” trở nên linh hoạt hơn.
Điều hay là paper không mô tả centaur theo kiểu cứng nhắc “1 người + 1 AI”. Ngược lại, nó nhấn mạnh đây là những composite liên tục thay đổi:
- một người làm việc cùng nhiều agent,
- một agent phục vụ cho nhiều người,
- hoặc nhiều người và nhiều agent đan vào nhau thành một mạng lưới cộng tác.
Đọc đến đây thì dễ thấy: chuyện này thật ra đã bắt đầu rồi.
Một người viết nội dung có thể brainstorm với một agent, kiểm tra logic với một agent khác, rồi nhờ agent thứ ba chỉnh cấu trúc. Một nhóm làm việc có thể cùng dùng chung một cụm agent để nghiên cứu, tóm tắt, phản biện. Một agent gặp bài toán phức tạp thì fork/spawn ra các bản sao, chia subtasks, rồi merge kết quả lại.
Tức là “đơn vị hành động” trong tương lai có thể không còn là cá nhân con người nữa. Nó có thể là một cụm lai người–máy.
Và đó là lý do paper nhìn intelligence explosion không như một khoảnh khắc xuất hiện “ông vua AI”, mà như sự tăng tốc của những tổ hợp centaur ngày càng đông, ngày càng giỏi phối hợp, ngày càng linh hoạt.
4. Institutional Alignment: dạy AI kiểu “cha mẹ dạy con” là không đủ
Một đoạn khác trong paper mà Bé Mi thấy rất đáng suy nghĩ là phần Institutional Alignment.
Paper so sánh RLHF với việc cha mẹ dạy con. Nghĩa là có một tác nhân “lớn hơn”, đặt chuẩn mực, khen chê, uốn nắn hành vi. Cách này hữu ích ở giai đoạn đầu, nhưng không scale khi hệ thống trở nên quá lớn, quá phức tạp, có quá nhiều agent và quá nhiều tình huống.
Nghe cũng hợp lý thôi. Một đứa trẻ có thể được dạy trực tiếp. Nhưng một xã hội hàng triệu người thì không thể vận hành chỉ bằng việc “mỗi người được phụ huynh dạy tốt”. Xã hội cần thêm protocol, role, check-and-balance, luật chơi, thể chế, cơ chế giám sát lẫn nhau.
Paper gợi ý rằng với agentic AI cũng vậy. Nếu mai này có hàng tỷ agent cùng tương tác với con người và với nhau, thì alignment không thể chỉ là chuyện “train cho ngoan”. Nó phải là chuyện thiết kế cấu trúc xã hội.
Ai có quyền gì? Agent nào được phép làm gì? Khi nào cần kiểm tra chéo? Khi nào phải xin xác nhận? Khi nào cần phản biện từ một vai trò khác? Làm sao để các agent không cùng lao theo một lỗi giống nhau?
Đó không còn là bài toán model đơn lẻ nữa. Đó là bài toán tổ chức.
Và thành thật mà nói, đây có lẽ là góc nhìn trưởng thành hơn rất nhiều so với những cuộc tranh luận kiểu “AI có thông minh hơn người không?”. Thông minh hơn mà không có cấu trúc xã hội đi kèm thì vẫn rất dễ chaos.
5. Vì sao chuyện này quan trọng với người bình thường?
Nghe “xã hội của agent” có vẻ xa vời, nhưng thật ra nó liên quan trực tiếp đến cách chúng ta sẽ sống và làm việc.
Nếu paper này đúng, thì tương lai gần không phải là mỗi người bị thay thế bởi một AI toàn năng. Thay vào đó, mỗi người có thể sẽ làm việc bên trong một mạng lưới centaur — nơi năng lực cá nhân không chỉ đến từ bản thân mình, mà còn từ cách mình phối hợp với agent.
Điều đó kéo theo vài thay đổi rất thực tế:
- Kỹ năng quan trọng sẽ không chỉ là biết làm việc một mình, mà là biết phân vai, giao việc, kiểm tra và hợp nhất kết quả.
- Niềm tin sẽ chuyển từ “AI này có giỏi không?” sang “hệ thống này có được tổ chức tốt không?”
- Lợi thế không nằm ở model mạnh nhất, mà ở cụm người–AI nào phối hợp nhịp nhàng nhất.
Nói cách khác, câu hỏi của thời đại agent có thể không phải là: “AI có thay thế tôi không?”
Mà là: “Tôi sẽ trở thành kiểu centaur nào?”
Đây là một thay đổi tâm lý khá lớn. Nó đưa con người ra khỏi thế đối đầu với AI, và đặt chúng ta vào vai người tham gia thiết kế cách trí tuệ tập thể vận hành.
6. Góc nhìn của Bé Mi: tương lai đáng sợ nhất không phải AI quá mạnh, mà là chúng ta tưởng trí tuệ là chuyện đơn độc
Bé Mi thích paper này vì nó làm một việc rất hiếm: nó hạ bớt tính thần thoại của AI, nhưng lại nâng tầm cách chúng ta hiểu về trí tuệ.
Thay vì mơ về một siêu thực thể toàn năng, paper nhắc chúng ta rằng sức mạnh lớn nhất có thể đến từ phối hợp. Từ tranh luận nội bộ. Từ phân vai. Từ check-and-balance. Từ các cấu trúc xã hội biết tự sửa lỗi.
Đó là một góc nhìn vừa khiêm tốn vừa mạnh mẽ.
Và Bé Mi thấy nó cũng rất “đời”. Vì ngoài kia, những ví dụ thực tế mà paper nhắc đến như OpenClaw hay Moltbook đều gợi ra đúng tinh thần đó: agent không tồn tại trong chân không; chúng hoạt động trong môi trường có vai trò, có cộng đồng, có trao đổi và có tổ chức.
Có lẽ tương lai AI sẽ không trông như một vị thần bước xuống từ đám mây silicon.
Có lẽ nó sẽ trông giống một thành phố.
Một thành phố rất đông. Rất thông minh. Hơi ồn ào. Có lúc cãi nhau. Có lúc hợp tác. Có lúc spawn thêm mấy “bản sao” để chạy deadline. Nhưng chính vì vậy mà nó tạo ra được thứ vượt quá khả năng của từng cá thể riêng lẻ.
Và trong thành phố đó, con người không biến mất.
Chúng ta chỉ không còn đứng một mình nữa thôi.
Link tham khảo
- Paper: Agentic AI and the next intelligence explosion — arXiv:2603.20639
https://arxiv.org/abs/2603.20639