Quay lại trang tin tức

Google Antigravity công cụ AI thay đổi quy trình làm việc

Xuất bản vào 30 tháng 03, 2026
Google Antigravity công cụ AI thay đổi quy trình làm việc

Tóm tắt nhanh

Google Antigravity IDE là công cụ AI agent thế hệ mới từ Google, hoạt động bất đồng bộ để tự động hóa quy trình lập trình, điều phối nhiều agent chạy song song và tương tác trực tiếp với trình duyệt web giúp tối ưu hóa hiệu suất làm việc vượt trội.

Bạn gõ một câu lệnh, AI tự lên kế hoạch, mở terminal, viết code, mở trình duyệt web kiểm tra rồi báo lại kết quả, Antigravity làm tất cả trong khi bạn đang uống cà phê. Đó không phải viễn cảnh tương lai, đó là cách Google Antigravity hoạt động và nó vừa thay đổi hoàn toàn cách mình tiếp cận việc xây dựng sản phẩm và quy trình tự động.

Google Antigravity là gì?

Antigravity là IDE thế hệ mới do Google ra mắt cuối tháng 11 năm 2025 cùng lúc với Gemini 3, được xây dựng trên nền VS Code nhưng với kiến trúc hoàn toàn khác: thay vì AI ngồi ở sidebar gợi ý từng dòng code, AI trong Antigravity làm việc như một agent thực sự một khi đã được cấp quyền thì chúng ta có thể giao task và Antigravity tự hoàn thành task đó để cho ra kết quả rất giống với Manus Flowith nhưng ở đây Antigravity thiên về màn hình làm việc với code hơn.

Màn hình làm việc của Antigravity
Màn hình làm việc của Antigravity

Điểm khác biệt lớn nhất so với Cursor hay GitHub Copilot là Antigravity không hỏi bạn từng bước mà hoạt động bất đồng bộ đó là khi bạn giao task, agent chạy ngầm trong nền trong khi bạn làm việc khác rồi quay lại xem kết quả. Antigravity hoàn thành một feature Next.js + Supabase điển hình trong 42 giây so với 68 giây của Cursor, và độ chính xác khi refactor đạt 94% so với 78% của Cursor.

Antigravity đã có phần mềm hỗ trợ macOS, Windows và Linux nên mọi người không lo về vấn dề phần mềm mà chỉ nên lo về chi phí gọi API. Ngoài sử dụng Gemini 3 và Gemini 3 pro mặc định, Antigravity còn hỗ trợ Claude Sonnet, Claude Opus và GPT-OSS thật tốt khi không bị khoá vào nền tảng của Google khi mà Claude Sonnet, Claude Opus đang dẫn đầu thị trường.

Các tính năng tiêu biểu của Antigravity IDE

Chỉnh sửa trực tiếp với sự hỗ trợ của AI

Với giao diện quen thuộc như VS Code, nơi các lập trình viên có thể chỉnh sửa code tay hoặc nhờ AI hỗ trợ từng đoạn cụ thể. Phù hợp khi bạn muốn kiểm soát từng bước hoặc xử lý những đoạn code cần sự chú ý cao.

Điều phối agent chạy song song

Đây là điểm khác biệt thực sự của Antigravity thực sự với "mission control" bạn không cần viết code ở đây mà điều phối nhiều agent chạy song song. Ví dụ một agent đang refactor module A, agent khác đang viết test cho module B, agent thứ ba đang debug lỗi UI trên trình duyệt web. Bạn theo dõi tiến độ, để lại comment như trên Google Docs và agent tự điều chỉnh mà không cần dừng lại chờ.

Mô tả điều phối nhiều Agent trong Antigravity
Mô tả điều phối nhiều Agent trong Antigravity

Truy cập và điều khiển trình duyệt web

Đây là tính năng mình thấy ấn tượng nhất khi mới dùng khi mà Antigravity có thể mở trình duyệt web như Chrome, Firefox,... khi được cấp quyền từ đó nó có thể điều hướng trang web, điền form và kiểm tra giao diện hoàn toàn tự động. Tuy nhiên cần lưu ý rằng Antigravity hoạt động giống hệt như Puppeteer nên chỉ tương tác được với các tác vụ trên trình duyệt và khi cần có thể xử lý ảnh và chụp ảnh màn hình và tất nhiên chưa hoạt động được với những trang web đã cài đặt chặn bot truy cập.

Logic của Antigravity rất rõ ràng

Đây là tính năng mình thích nhất khi làm việc với Antigravity đó là thay vì đổ raw code ra màn hình, agent tạo ra các deliverable có thể đọc được như task list, implementation plan, screenshot màn hình app đang chạy để bạn kiểm tra logic của agent cả trước và sau khi hoàn thành task, điều này giúp bạn luôn nắm được agent đang làm gì để đánh giá.

Antigravity đang được dùng để làm những gì trong thực tế?

Nhiều người nghe đến Antigravity và nghĩ ngay đây là công cụ dành riêng cho lập trình viên chuyên nghiệp. Thực tế thì không phải vậy vì phạm vi ứng dụng rộng hơn nhiều so với vẻ ngoài kỹ thuật của nó.

Xây dựng và triển khai website

Đây là use case phổ biến nhất. Bạn mô tả trang web muốn xây — stack kỹ thuật, tính năng, phong cách thiết kế — agent tự viết code, tự kiểm tra trên browser và tự sửa lỗi. Kết hợp với Google Stitch qua MCP, bạn có thể đi từ thiết kế UI đến sản phẩm chạy thực sự mà không cần chuyển qua lại giữa nhiều công cụ.

Ví dụ prompt dùng trong Antigravity: "Xây cho mình một landing page bằng Next.js và Tailwind CSS cho sản phẩm SaaS quản lý công việc nhóm. Có section hero, bảng giá 3 gói và form đăng ký email. Deploy lên localhost và chụp screenshot kết quả."

Tự động hóa quy trình lặp lại

Một trong những điểm mạnh thực tế nhất. Bạn có thể nhờ Antigravity tự động crawl dữ liệu từ nhiều nguồn, tổng hợp và gửi báo cáo theo lịch, hoặc tự động điền form và thực hiện các thao tác lặp đi lặp lại trên trình duyệt — những việc trước đây cần viết script riêng hoặc dùng công cụ automation phức tạp.

Ví dụ prompt: "Mỗi sáng 8 giờ, vào trang thống kê của website mình tại [URL], lấy số liệu pageview và top 5 bài viết và xem thông tin 5 bài viết của trang fanpage Facebook của mình ở trang [URL], tổng hợp thành file markdown và lưu vào thư mục /reports/daily."

Xây dựng hệ thống AI agent

Đây là use case mà Antigravity thực sự vượt trội so với các công cụ khác. Thay vì chỉ viết một đoạn code đơn lẻ, bạn có thể mô tả cả một pipeline — ví dụ "tạo hệ thống phân tích review sản phẩm từ nhiều nguồn, phân loại sentiment và tự động tag vào database" — rồi để Antigravity thiết kế kiến trúc agent, phân chia nhiệm vụ và triển khai từng bước.

Ví dụ prompt: "Tạo một hệ thống gồm 3 agent: agent 1 crawl review sản phẩm từ Shopee và Lazada mỗi ngày, agent 2 phân tích sentiment và phân loại theo chủ đề, agent 3 tổng hợp thành báo cáo tuần và lưu vào Google Sheets."

Refactor và cải thiện codebase có sẵn

Nếu bạn có một dự án cũ cần nâng cấp, Antigravity đặc biệt hữu ích khi cần refactor quy mô lớn có thể thay đổi toàn bộ cấu trúc file, cập nhật dependencies, viết test coverage cho code chưa có test. Agent đọc toàn bộ codebase, hiểu ngữ cảnh và thực hiện thay đổi nhất quán trên nhiều file cùng lúc thay vì sửa từng chỗ một.

Ví dụ prompt: "Đọc toàn bộ codebase trong thư mục /src, đóng vai chuyên gia bảo mật xem có dính lỗi SQL injection, các lỗ hổng owasp không đề xuất chỉnh sửa sao cho vẫn giữ nguyên logic và đảm bảo không có lỗi sau khi refactor."

Nghiên cứu và tổng hợp thông tin từ web

Vì Antigravity có thể điều khiển trình duyệt, bạn có thể dùng nó để tự động truy cập nhiều trang web, trích xuất thông tin theo cấu trúc bạn định sẵn và tổng hợp lại thành báo cáo hoặc database — phù hợp với các tác vụ research cần thu thập dữ liệu từ nhiều nguồn mà làm thủ công sẽ rất tốn thời gian.

Ví dụ prompt: "Vào 10 trang web tin tức AI này [danh sách URL] và các trang fanpage [danh sách URL] tìm các bài đăng trong 7 ngày qua, trích xuất tiêu đề, tóm tắt 2 câu và link gốc, lưu vào file CSV theo thứ tự mới nhất trước."

Các câu hỏi thường gặp khi sử dụng Antigravity

Antigravity có miễn phí không?

Có cả gói miễn phí và trả phí.
  • Gói miễn phí có quota reset theo tuần với rate limit hạn chế, đủ để thử nghiệm và làm project nhỏ.
  • Gói Pro/Ultra có quota reset mỗi 5 giờ và được ưu tiên cao nhất rất phù hợp nếu bạn dùng Antigravity hàng ngày cho công việc thực tế.

Antigravity có làm được việc với file Word, Excel, PDF không?

Antigravity cài Puppeteer nên hoạt động chủ yếu qua trình duyệt web và chưa thể tác động trực tiếp vào các loại file như Word, Excel hay PDF. Nếu cần xử lý những file này, bạn phải thêm vào workflow và mention trong phần cấu hình để agent biết cách tiếp cận đúng.

AI không phản hồi hoặc bị treo phải làm gì?

Đây là lỗi khá phổ biến, đặc biệt vào giờ cao điểm khi nhiều người dùng đồng thời. Trong hầu hết trường hợp, chỉ cần restart lại Antigravity là được hoàn toàn không cần lo mất dữ liệu hay phải thiết lập lại từ đầu. Ngoài ra, nên dùng git và commit thường xuyên trước khi giao task lớn để tránh mất code nếu agent bỏ dở giữa chừng.

Antigravity thực sự là công cụ quá mạnh mẽ vì sao chúng ta không thử ngay. Người dùng có thể tải về tại antigravity.google/download và bắt đầu với một project nhỏ — không phải để thử tính năng mà để hiểu tư duy làm việc mới này trước khi đưa vào dự án thực tế.

Thảo luận (0)

Đăng nhập để tham gia thảo luận.

Chưa có bình luận nào. Hãy là người đầu tiên!

Các bài viết liên quan

Ba cách giao việc hiệu quả cho Antigravity

Nhận việc xong rồi ngồi nhìn màn hình cả tiếng không biết bắt đầu từ đâu đây là điều này xảy ra với người dùng Antigravity không kém gì người làm việc thông thường. Vấn đề không phải bạn kém hay lười mà là não bạn không sợ việc khó, nó sợ việc không rõ ràng và khi bạn giao cho AI một yêu cầu mơ hồ thì kết quả Antigravity tạo ra cũng sẽ mơ hồ không kém. Tại sao giao việc cho Antigravity mà vẫn ra kết quả tệ? Antigravity là agent thực sự vì nó có thể lên kế hoạch, viết code, chạy lệnh và tự kiểm tra kết quả. Nhưng đây chính xác là lý do khiến nhiều người thất vọng lần đầu dùng, họ bắt tay ngay giao cho Antigravity một việc cực lớn và mơ hồ, agent chạy 30 phút theo hướng sai quota tiêu hao hết mà kết quả không dùng được. Các nhà khoa học nhận thức gọi trạng thái đóng băng trước việc lớn là quá tải nhận thức - cognitive overload. Não không biết xử lý từ đâu nên chọn cách an toàn nhất là không làm gì cả và vòng lặp quen thuộc trông như thế này: Não sợ làm sai → đóng băng Không bắt đầu được → hạn chót đến gần Càng sợ hơn → lại đóng băng tiếp Với Antigravity, quá tải nhận thức của người dùng trực tiếp tạo ra prompt tệ, và prompt tệ tạo ra agent chạy sai hướng tất nhiên vòng lặp này tốn token và thời gian hơn bất kỳ lỗi kỹ thuật nào. Có ba cách tiếp cận để phá vỡ vòng lặp đó, tùy vào mức độ bạn đã hiểu yêu cầu và đã thiết lập quy trình đến đâu. Ba cách tiếp cận việc hiệu quả với Antigravity Cách 1: Tải source code của người đã có kinh nghiệm Đây là cách nhanh nhất để bắt đầu mà không mất thời gian thiết lập từ đầu, đặc biệt phù hợp khi bạn chưa biết quy trình của mình nên trông như thế nào. Antigravity hoạt động tốt nhất khi có đủ ngữ cảnh về dự án dó là khi nó có thể nhìn thấy các rules, workflow, skills và thư mục bộ nhớ ghi lại kiến thức cũ. Thay vì tự xây dựng tất cả, bạn sao chép source code của người đã thiết lập đầy đủ, tải về và để agent đọc toàn bộ cấu hình có sẵn và điều tất nhiên là phải được người đó đồng ý hoặc đã public . Lưu ý: Rất nhiều người đã tận dụng điều này để phát tán mã độc vậy nên chỉ cài những source code từ chính thức từ Anthropic, Google, xAI, OpenAI,... hay những người có uy tín. Khi bạn sao chép kho code của người đã thiết lập đầy đủ, tải về và để agent đọc toàn bộ cấu hình có sẵn, bạn nhận được hai lợi ích cùng lúc: Agent hiểu ngay phong cách viết skills, workflow, nền tảng kỹ thuật và các rules của dự án từ ngày đầu mà không cần bạn giải thích lại. Bạn học được cách người có kinh nghiệm thiết lập quy trình — từ cách tổ chức thư mục bộ nhớ đến cách viết quy tắc cho agent mà không cần tự mày mò từ đầu. Tuy nhiên khi bạn không hiểu các ý đồ của người viết thì hoàn toàn không thể sử dụng hết chức năng của source code này giống như một mặc một chiếc áo quá rộng vậy. Cách 2: Tự giải quyết từng bước nhỏ trước khi giao việc lớn Đây là cách tiết kiệm hạn mức nhất và cũng là bài học mình học được sau nhiều lần lãng phí vì giao việc quá to ngay từ đầu. Bộ khung 4C — Làm rõ (Clarify), Tách nhỏ (Chunk), Tham khảo (Consult), Cam kết (Commit) vốn dùng để giải quyết việc của con người, nhưng áp dụng vào Antigravity lại cực kỳ hiệu quả vì lý do đơn giản: bạn càng rõ ràng trước khi giao việc, agent càng ít phải đoán. Bước làm rõ: Trước khi gõ bất cứ thứ gì vào Antigravity, hãy tự trả lời 4 câu hỏi sau: Kết quả cuối cùng trông như thế nào? Ai sẽ dùng cái này? Hạn chót thật sự là khi nào? Thế nào là hoàn thành tốt việc này? Năm phút ngồi trả lời sẽ thay đổi hoàn toàn chất lượng câu lệnh. Thay vì "xây cho mình một hệ thống đăng nhập", bạn sẽ viết được "xây hệ thống đăng nhập bằng Google OAuth cho ứng dụng Next.js, lưu phiên làm việc vào Firestore, chuyển hướng về trang chính sau khi đăng nhập thành công, chạy thử trên máy và chụp ảnh màn hình để mình xem". Bước tách nhỏ: Dựa trên hiệu ứng Zeigarnik một khi bạn bắt đầu dù chỉ một bước nhỏ, não tự động muốn hoàn thành những bước tiếp theo. Hãy hỏi agent "chia task thành các bước nhỏ nhất để bắt đầu ?" và đi qua từng bước một. Dành khoảng thời gian nhất định để tìm hiểu cấu trúc, kiểm tra xem agent hiểu đúng yêu cầu chưa trước khi để nó chạy việc lớn. Nhưng hãy nhớ là chỉ giành một khoảng thời gian nhất định thôi nhé vì chỉ khi thực hiện thì nhiều vấn đề mới thực sự lộ ra chúng ta mới tìm ra cách giải quyết. Ở bước này chúng ta có thể sử dụng luôn chế độ Fast Mode cho agent thực hiện luôn mà không cần phải tạo khung sườn hay suy nghĩ sâu hoặc thậm chí nếu không có gì đặc biệt thì Gemini Flash hoàn toàn có thể đảm nhiệm tốt phần này cực kì tiết kiệm token cho Gemini Pro và Claude Opus. Bước tham khảo: Đừng tự làm khó bản thân khi đã có người đi trước. Tương tự như cách 1 tải mã nguồn người khác về dùng, bước này là chủ động tìm và đọc cách họ tiếp cận vấn đề xem họ chia việc ra sao, viết câu lệnh như thế nào, thiết lập quy trình ra sao rồi chắt lọc những phương pháp phù hợp để áp dụng vào việc của mình. Bạn không cần sao chép nguyên xi, chỉ cần học từ cấu trúc tư duy của họ. Điều này đặc biệt có giá trị với những loại việc bạn chưa từng giao cho agent bao giờ vì người đã làm trước thường đã tìm ra cả những điểm dễ đi sai mà bạn chưa biết. Bước cam kết: Thay vì cố lên kế hoạch hoàn hảo cho toàn bộ việc trước khi bắt đầu hãy chỉ cam kết 10 đến 15 phút đầu tiên để tìm hiểu. Hỏi agent một câu nhỏ, xem nó phản hồi thế nào và lúc nào cũng thêm câu prompt “Nếu vấn đề không rõ hoàn toàn có thể hỏi lại không được tự ý quyết định”. Chắc chắn sẽ có những thiếu sót nhưng chúng ta sẽ cảm thấy được chúng ta đã đi được một quãng đường xa với Antigravity với task thay vì ngồi viết prompt hoàn hảo hàng giờ mà chưa làm được gì chắc chắn sẽ rất chán. Cách 3: Giao việc lớn ngay khi đã có quy trình thiết lập sẵn Cách này chỉ hoạt động khi bạn đã qua hai cách trên — đã có quy trình rõ ràng, bộ nhớ ngữ cảnh skills, và agent đã quen với các rules, workflow. Đây có thể coi là bước cam kết trong bộ khung 4C: thay vì lo lắng về toàn bộ việc, bạn cần hướng agent vào một kết quả cụ thể và để agent tự xử lý phần còn lại. Lúc này, chế độ Plan Mode là lựa chọn tốt hơn chế độ Fast Mode vì agent phải tạo kế hoạch thực hiện chi tiết trước khi thực hiện task, từ đó bạn có thể xem lại kế hoạch đó để lại ghi chú nếu cần điều chỉnh rồi mới để agent chạy. Cách này kết hợp tốc độ của agent với tầm nhìn chiến lược của bạn vì quy trình đã có sẵn nên bước làm rõ nên được tích hợp vào các rules, workflow, skills để agent không cần bạn giải thích lại ngữ cảnh mỗi lần. Đặc biệt đây là cách cực kì ưa thích đối với các Pro khi mà họ dùng Claude để lên kế hoạch cực xịn rồi sau đó họ đưa vào cho GLM để thực thi taks để tiết kiệm token. Chúng ta nên chọn cách nào cho công việc của chúng ta Ba cách này sử dụng trong Antigravity không loại trừ nhau mà theo thứ tự từ ít đến nhiều ngữ cảnh: Việc mơ hồ, chưa biết bắt đầu từ đâu: Sao chép source code người khác hoặc dùng bộ khung 4C để làm rõ trước. Việc đã hiểu nhưng lớn và phức tạp: Đi qua từng bước nhỏ, dùng Flash cho bước đơn giản và dành Pro cho bước cần suy nghĩ sâu. Việc đã có quy trình rõ ràng: Giao thẳng với chế độ Plan Mode, để agent tự xử lý trong khi bạn làm việc khác. Điểm chung của cả ba cách là bạn phải làm một việc trước khi mở Antigravity: suy nghĩ. Không phải suy nghĩ dài — chỉ cần 5 đến 10 phút ngồi làm rõ yêu cầu trước khi giao cho agent. Khoảng thời gian đó tiết kiệm nhiều hạn mức hơn bất kỳ kỹ thuật tối ưu prompt nào khác.

Nam
3 thg 4, 2026
Đột phá quy trình làm việc với Gemini và NotebookLM

Bạn đã dùng NotebookLM để lưu tài liệu, nghiên cứu và ghi chú tuy nhiên mỗi lần cần AI xử lý thêm thì lại phải mở Gemini, copy-paste thủ công rồi hy vọng AI không bịa số liệu không chính xác. Giờ đây sau khi khám phá ra thì mình có thể xóa bỏ hoàn toàn bước thừa đó khi mà NotebookLM giờ có thể kết nối trực tiếp vào Gemini, biến toàn bộ tài liệu thành bộ não cho AI xử lý tức thì. NotebookLM và Gemini đã từng như hai ốc đảo NotebookLM rất giỏi một việc bám chặt vào tài liệu bạn cung cấp và trả lời chính xác dựa trên đó. Ví dụ như bạn có thể upload báo cáo tài chính 200 trang có thể hỏi bất kỳ con số nào, NotebookLM trích dẫn đúng trang đúng đoạn. Tuy nhiên nó bị cô lập trong từng note riêng biệt và không thể tìm kiếm thông tin mới ngoài internet. Gemini thì ngược lại có tư duy linh hoạt, kết nối web thời gian thực, có sự sáng tạo nhưng lại cực kì dễ ảo giác khi làm việc với dữ liệu chuyên sâu mà không có nguồn rõ ràng. Kết quả là nếu người dùng biết đến 2 công cụ này đều phải dùng song song, chuyển dữ liệu qua lại thủ công vừa mất thời gian vừa dễ mắc lỗi. Tích hợp này giải quyết đúng vấn đề đó bằng cách đưa NotebookLM vào thẳng giao diện Gemini, để hai công cụ bổ trợ cho nhau thay vì hoạt động độc lập. Một vài điều cần biết trước khi kết nối Gemini và NotebookLM Vì cùng hệ sinh thái Google cho nên tích hợp Gemini và NotebookLM hoạt động rất mượt mà, nhưng có một vài điểm cần lưu ý để tránh kỳ vọng sai. Gemini ưu tiên dữ liệu từ notebook trước, nhưng khi notebook không đủ thông tin, nó sẽ tự động tìm kiếm web mà không cần bạn ra lệnh thêm. Điều này tiện lợi, nhưng cũng có nghĩa là bạn cần kiểm tra nguồn trích dẫn để biết câu trả lời đến từ tài liệu của bạn hay từ tìm kiếm web. Khả năng phân tích chéo nhiều notebook cùng lúc là điểm mạnh lớn mà NotebookLM đơn thuần chưa làm được. Với càng nhiều notebook được kết nối, Gemini càng có thể xử lý được sự khác nhau và nhiều góc của vấn đề hơn nhưng vẫn bám sát được toàn bộ ngữ cảnh. Ngoài ra mọi câu trả lời từ dữ liệu notebook đều có trích dẫn nguồn cụ thể, đây là điểm khác biệt quan trọng so với Gemini thông thường và giúp bạn kiểm chứng nhanh khi cần. Kết nối NotebookLM vào Gemini trong 4 bước Tính năng hiện đã có thể dùng được cho cả tài khoản miễn phí lẫn Google AI Pro, không cần cài thêm gì. Bạn thực hiện theo thứ tự sau. Đầu tiên, mở Gemini trên web hoặc ứng dụng di động và vào khung nhập liệu như bình thường. Tiếp theo, nhấp vào biểu tượng dấu "+" ở góc khung chat và chọn NotebookLM từ danh sách nguồn. Sau đó chọn một hoặc nhiều notebook bạn đã tạo sẵn để làm ngữ cảnh cho cuộc hội thoại. Cuối cùng, nhập prompt của bạn như bình thường, lưu ý rằng Gemini sẽ ưu tiên dữ liệu từ notebook trước, và chỉ tìm kiếm thêm trên web khi thông tin trong notebook chưa đủ. Toàn bộ quá trình thiết lập mất chưa đến 60 giây, và bạn có thể chuyển đổi giữa các notebook khác nhau ngay trong cùng một cuộc hội thoại. Notebook + Gemini có thể làm được những gì mà trước đây không làm được? Điểm thay đổi lớn nhất không phải là tốc độ mà là độ tin cậy của đầu ra. Khi Gemini có nguồn dữ liệu cụ thể từ notebook, mọi câu trả lời đều được gắn nhãn trích dẫn rõ ràng giúp bạn biết chính xác thông tin đó đến từ trang nào, tài liệu nào, thay vì phải tự đi kiểm chứng lại. Về mặt ứng dụng thực tế có 4 trường hợp mà sự kết hợp này tạo ra khác biệt rõ nhất. Nghiên cứu và tổng hợp tài liệuThay vì đọc hết một cuốn sách giáo khoa 500 trang, bạn upload vào NotebookLM rồi yêu cầu Gemini tóm tắt thành bộ sách hoặc cũng có thể là infographic hoặc bộ slide thuyết trình qua chế độ Canvas. Và đây là kết quả của mình với prompt thông thường tạo thành cuốn sách từ tất cả các notebook được chọn. Bạn có thể tham khảo ở link Gemini sau đây Viết content không lo ảo giác Đây là use case hữu ích nhất với người làm nội dung. NotebookLM đảm nhiệm phần "đúng" đó là giữ chặt số liệu, tên người, sự kiện từ tài liệu gốc. Gemini đảm nhiệm phần "hay" đó là viết văn, tạo hook, chọn góc độ hấp dẫn. Tuy nhiên kết quả vẫn chưa so được với Claude nhưng cũng là một tham khảo để đưa sang Claude viết lại thì bạn sẽ nhận được kết quả thật sự rất tốt. Gems tự cập nhật kiến thức Gems là các trợ lý AI tùy chỉnh trong Gemini. Khi bạn gắn notebook vào một Gem, điểm đặc biệt là notebook đồng bộ tự động khi bạn thêm tài liệu mới vào NotebookLM, Gem cập nhật ngay mà không cần thiết lập lại từ đầu. Ví dụ bạn có một Gem chuyên hỗ trợ khách hàng, mỗi khi chính sách công ty thay đổi bạn chỉ cần cập nhật notebook, Gem tự hiểu luôn. Audio Overview kết hợp tìm kiếm web NotebookLM đã có tính năng chuyển tài liệu thành podcast đối thoại khá hay. Khi kết hợp với Gemini, bạn có thể yêu cầu AI bổ sung thêm thông tin mới nhất từ web vào bản tóm tắt âm thanh đó, phù hợp để nghe khi di chuyển mà vẫn có đủ những tin tức cập nhật mới nhất. Bắt đầu từ đâu nếu bạn chưa quen dùng NotebookLM và Gemini? Nếu bạn chưa từng dùng NotebookLM, hãy bắt đầu bằng cách upload một tài liệu bạn hay phải tra cứu có thể là quy trình nội bộ công ty, giáo trình học, hoặc báo cáo ngành bạn đang theo dõi. Tạo notebook từ tài liệu đó, rồi mở Gemini và kết nối notebook đó vào. Thử đặt một vài câu hỏi mà trước đây bạn phải đọc cả tài liệu mới trả lời được. Khi AI trả lời đúng và trích dẫn rõ nguồn, bạn sẽ hiểu ngay tại sao sự kết hợp này đáng để dùng thường xuyên. Không phải vì nó "cách mạng" hay "đột phá" mà vì nó giải quyết đúng một việc phiền phức cụ thể mà bạn vẫn phải làm thủ công mỗi ngày.

An
27 thg 3, 2026
Anthropic tăng giới hạn sử dụng Claude sau hợp tác với SpaceX

Anthropic vừa công bố hợp tác với SpaceX để tiếp cận hơn 220.000 GPU NVIDIA và ngay lập tức dùng năng lực điện toán mới này để tăng giới hạn sử dụng cho Claude Code lẫn API. Đây là những gì thay đổi và tại sao điều đó quan trọng với người dùng. Tại sao Anthropic lại hợp tác với SpaceX? Trong vài tháng gần đây, Anthropic liên tục ký kết các thỏa thuận điện toán quy mô lớn với Amazon, Google, Microsoft và NVIDIA. Lần này, hãng tiếp tục bổ sung thêm một tên tuổi không ai ngờ tới là SpaceX. Theo thông báo ngày 6/5, Anthropic đã ký thỏa thuận sử dụng toàn bộ năng lực tính toán tại trung tâm dữ liệu Colossus 1 của SpaceX tương đương với hơn 300 megawatt công suất và hơn 220.000 GPU NVIDIA. Toàn bộ năng lực này sẽ được đưa vào sử dụng trong vòng một tháng và sẽ cải thiện trực tiếp trải nghiệm cho người dùng Claude Pro và Claude Max. Colossus 1 là trung tâm dữ liệu AI của SpaceX, hiện là một trong những cụm GPU lớn nhất thế giới. Anthropic là đơn vị thuê toàn bộ năng lực tại đây. Những thay đổi cụ thể về giới hạn sử dụng Nhờ nguồn điện toán mới, Anthropic đã thực hiện ba thay đổi có hiệu lực ngay từ ngày công bố Tăng gấp đôi giới hạn Claude Code theo giờ Giới hạn tốc độ 5 giờ của Claude Code được nhân đôi cho các gói Pro, Max, Team và Enterprise. Nếu trước đây bạn chỉ sử dụng được 10 lệnh chạy Claude Code phức tạp nay được nhân đôi lên thành 20 lần, thay đổi này sẽ giúp ích đáng kể. Tuy nhiên lưu ý là quan trọng là giới hạn tuần (week limit) vẫn giữ nguyên không thay đổi gì cho nên việc tăng giới hạn 5 giờ giúp bạn làm việc cường độ cao hơn trong thời gian ngắn, nhưng có thể khiến bạn chạm mức trần của tuần nhanh hơn. Bỏ giới hạn giờ cao điểm Trước đây, Claude Code tự động giảm giới hạn sử dụng trong khung giờ cao điểm (thường từ 9h sáng đến 3h chiều) đối với tài khoản Pro và Max. Giới hạn này đã được xóa bỏ hoàn toàn vì vậy người dùng giờ đây có thể sử dụng Claude Code với tốc độ đầy đủ bất kể thời điểm trong ngày. Với người dùng thường làm việc vào buổi tối (trùng với giờ bên Mỹ) đây là thay đổi có khả năng có tác động rõ rệt nhất. Tăng mạnh giới hạn API cho các mô hình Claude Opus Giới hạn tốc độ API (rate limit) cho các mô hình Claude Opus được nâng lên đáng kể . Chi tiết mức tăng bằng lần được Anthropic công bố trong bảng sau đây: Thay đổi này đặc biệt quan trọng với các nhà phát triển đang xây dựng ứng dụng trên nền tảng Claude Code Toàn cảnh chiến lược điện toán của Anthropic Thỏa thuận với SpaceX không phải động thái đơn lẻ. Trong vài tháng gần đây, Anthropic đã xây dựng một danh mục đầu tư hạ tầng rất đáng chú ý: Thỏa thuận lên tới 5 gigawatt với Amazon, trong đó gần 1 GW sẽ hoạt động trước cuối 2026 Thỏa thuận 5 GW với Google và Broadcom, dự kiến đưa vào vận hành từ 2027 Quan hệ đối tác chiến lược với Microsoft và NVIDIA, bao gồm 30 tỷ USD năng lực Azure Đầu tư 50 tỷ USD vào hạ tầng AI tại Mỹ cùng Fluidstack Và nay, hơn 300 megawatt từ trung tâm Colossus 1 của SpaceX Anthropic chạy Claude trên nhiều nền tảng phần cứng khác nhau — AWS Trainium, Google TPU và GPU NVIDIA — và cho biết vẫn đang tiếp tục tìm kiếm thêm các nguồn năng lực tính toán mới. Đáng chú ý, trong khuôn khổ thỏa thuận với SpaceX, hai bên cũng bày tỏ quan tâm đến việc phát triển năng lực điện toán AI trên quỹ đạo tức là đặt GPU trên vệ tinh. Đây vẫn là ý tưởng ở giai đoạn rất sớm, nhưng nếu thành hiện thực sẽ là bước ngoặt lớn cho hạ tầng AI toàn cầu. Mở rộng ra thị trường quốc tế Một phần năng lực điện toán mở rộng sẽ được dùng để phục vụ khách hàng doanh nghiệp quốc tế đặc biệt trong các lĩnh vực yêu cầu lưu trữ dữ liệu nội địa như tài chính, y tế và chính phủ. Thỏa thuận với Amazon bao gồm cả năng lực suy luận bổ sung tại châu Á và châu Âu. Anthropic cũng nhấn mạnh rằng họ chỉ mở rộng sang các quốc gia có khung pháp lý dân chủ và chuỗi cung ứng phần cứng an toàn cho thấy một lập trường thể hiện sự thận trọng trong bối cảnh cạnh tranh địa chính trị về AI đang ngày càng gay gắt. Điều này có ý nghĩa gì với người dùng Claude tại Việt Nam? Ở góc độ thực tế, ba thay đổi về giới hạn sử dụng mang lại lợi ích trực tiếp nhất cho những ai đang dùng Claude Code hàng ngày — đặc biệt là lập trình viên và người làm việc liên tục với Claude Code.Việc xóa giới hạn giờ cao điểm cũng có nghĩa là trải nghiệm của người dùng tại Việt Nam (vốn trùng múi giờ với giai đoạn tải nặng tại Mỹ) sẽ ổn định hơn. Về dài hạn, năng lực điện toán lớn hơn thường đồng nghĩa với khả năng triển khai các mô hình mạnh hơn, với chi phí thấp hơn. Đây là nền tảng để Anthropic tiếp tục cạnh tranh với OpenAI và Google trong cuộc đua AI 2026. Anthropic luôn luôn phát triển Anthropic đang đầu tư nghiêm túc vào hạ tầng và hợp tác với SpaceX là bước đi mới nhất trong chiến lược đó. Kết quả gần nhất mà người dùng có thể cảm nhận ngay là Claude Code ít bị giới hạn hơn và tốc độ API chắc chắn sẽ cải thiện. Còn về lâu dài, cuộc chạy đua điện toán giữa các công ty AI lớn hứa hẹn sẽ còn nhiều diễn biến thú vị trong năm 2026.

Nam
8 thg 5, 2026
Claude Opus 4.7 ra mắt mạnh hơn nhưng đốt token hơn

Anthropic đã cho ra mắt Claude Opus 4.7 với hàng loạt cải tiến thực chất nhưng có một cảnh báo mà Anthropic ghi thẳng vào tài liệu migration: tokenizer mới có thể tạo ra nhiều hơn 1.0–1.35 lần token so với cùng nội dung đó trên Claude Opus 4.6, và model suy nghĩ nhiều hơn ở các mức effort cao. Nếu bạn đang dùng API và chưa đọc kỹ điều này trước khi nâng cấp, hóa đơn tháng tới sẽ là bài học đắt giá nhất bạn nhận được từ AI. Opus 4.7 cải thiện gì so với 4.6? Các con số thực tế từ tester Anthropic cho phép nhiều công ty tiếp cận sớm và thu thập phản hồi trước khi phát hành. Đây không phải marketing một chiều — các công ty ghi lại kết quả đo lường cụ thể Cursor: Opus 4.7 đạt 70% trên CursorBench, tăng đáng kể so với 58% của Opus 4.6 — một bước nhảy hiếm thấy giữa hai phiên bản liên tiếp. Notion: Tăng 14% so với Opus 4.6 trong các workflow nhiều bước, đồng thời tiêu ít token hơn và chỉ còn 1/3 số lỗi tool. Đây là trường hợp hiếm gặp khi model mới tốt hơn đồng thời trên cả ba chiều: chất lượng, chi phí và độ ổn định. XBOW: Benchmark visual acuity tăng từ 54.5% lên 98.5% — gần như tăng gấp đôi. Đây là cải thiện lớn nhất được ghi nhận và là lý do XBOW có thể mở rộng sang cả lớp công việc computer-use mà trước đây không thể dùng Opus. Rakuten: Giải quyết được gấp 3 lần số task production so với Opus 4.6 trên benchmark riêng của họ. Tuy nhiên những con số này đến từ các công ty đã được chọn để test sớm và có động lực công bố kết quả tốt. Benchmark nội bộ của từng công ty không thể so sánh trực tiếp với nhau và chưa chắc phản ánh đúng workflow của bạn. Ba thay đổi hành vi đáng chú ý nhất Tuân thủ hướng dẫn theo nghĩa đen — cả tốt lẫn xấu. Anthropic ghi rõ trong tài liệu phát hành: Opus 4.7 thực thi hướng dẫn chính xác hơn đến mức "các prompt viết cho model cũ có thể tạo ra kết quả ngoài mong đợi vì chỗ nào model cũ bỏ qua hoặc diễn giải linh hoạt thì Opus 4.7 làm đúng nghĩa đen". Với developer, điều này có nghĩa là nếu system prompt của bạn có rule mơ hồ hay mâu thuẫn, Opus 4.7 sẽ đề cập ngay thay vì tự giải quyết trong im lặng như trước. Đây là cải thiện về độ tin cậy, nhưng đòi hỏi bạn phải xem lại lại toàn bộ prompt trước khi deploy. Ví dụ từ Vercel: "Opus 4.7 thậm chí tự viết proof cho systems code trước khi bắt đầu làm — đây là hành vi mới chưa thấy ở các Claude trước." Model không chỉ làm việc theo yêu cầu mà tự thêm bước xác nhận đầu ra trước khi báo cáo kết quả. Ít nịnh bợ và phản hồi sáo rỗng hơn. Hex đã xác nhận: "Nó báo cáo đúng khi dữ liệu bị thiếu thay vì đưa ra câu trả lời nghe có vẻ đúng nhưng thực ra là bịa." thực sự mình đã thử thật sự là không hề thấy xuất hiện những câu nịnh bợ sáo rỗng như “bạn thật tuyệt vời” hoặc “bạn thực sự hơn 95% người trên thế giới này” và thiếu thông tin chắc chắn nó sẽ hỏi lại bạn, vậy là Opus 4.7 có vẻ cải thiện đáng kể điểm này trong khi Opus 4.6 nhiều lúc vẫn bị những câu nịnh bợ hoặc bịa ra thông tin không chính xác, điều này giúp cho nó hoàn toàn có thể trở thành đồng nghiệp mới của mình giống như Replit mô tả: "Nó phản bác trong các cuộc thảo luận kỹ thuật để giúp tôi đưa ra quyết định tốt hơn. Thực sự cảm giác như một đồng nghiệp tốt hơn." Xử lý hình ảnh độ phân giải cao gấp 3 lần. Opus 4.7 chấp nhận ảnh lên đến 2.576 pixel trên cạnh dài (khoảng 3.75 megapixel), tăng hơn 3 lần so với các model Claude trước. Điều này không phải là tham số API mà là thay đổi ở cấp độ model, nghĩa là ảnh bạn gửi lên sẽ tự động được xử lý ở độ phân giải cao hơn so với trước đây. Điều này có nghĩa là Opus 4.7 có thể phân tích tài liệu có biểu đồ nhỏ, đọc code từ screenshot, hay computer-use với màn hình độ phân giải cao hơn so với các model trước. Ví dụ mình đã thử với file pdf nhiều trang và có những chữ kí nhỏ thì Opus 4.7 hoàn toàn có thể nhận diện được chính xác những chữ kí nhỏ này, rồi sau đó là sử dụng chrome để nhận diện các kí tự nhỏ ở web thì nó có thể nhận diện chính xác hơn. Tuy nhiên điều này tốn token cực kì có thể khoảng 3 hoặc 4 lần chat là hết quota ngay lập tức vì vậy mọi người có thể cân nhắc giảm kích thước ảnh trước khi gửi nếu không cần độ chi tiết cao. Vấn đề token vẫn là thứ đáng lo nhất với người dùng Tokenizer mới tạo ra nhiều token hơn từ cùng nội dung Anthropic thừa nhận thẳng thắn trong migration guide: Opus 4.7 dùng tokenizer mới được cải tiến, nhưng trade-off là cùng một đoạn text có thể tạo ra nhiều hơn 1.0–1.35 lần token so với Opus 4.6. Hệ số 1.35 nghe có vẻ nhỏ nhưng trên quy mô production thì không phải vậy — nếu hệ thống của bạn đang tiêu 10 triệu token mỗi ngày với Opus 4.6, sau khi nâng cấp bạn có thể tiêu 13.5 triệu token mà không thay đổi gì về nội dung hay workflow. Vì vậy những ai chỉ chạy bản Pro thì có vẻ quota sẽ hoàn toàn không đủ có lẽ Anthropic đang ép người dùng phải nâng cấp lên Max để làm việc. Kết hợp với việc model suy nghĩ nhiều hơn ở các mức effort cao (đặc biệt ở `xhigh` — effort level mới được thêm vào giữa `high` và `max`), và mặc định Claude Code đã nâng lên `xhigh` cho tất cả các plan vì vậy người dùng API cần đo lường thực tế trên traffic thật trước khi nâng cấp toàn bộ, không nên dựa vào ước tính lý thuyết. Task budgets là công cụ kiểm soát mới cho API Song song với Opus 4.7, Anthropic ra mắt tính năng task budgets (public beta) trên Claude Platform, cho phép người dùng đặt giới hạn token cho từng task thay vì toàn bộ session. Đây là phản hồi trực tiếp với vấn đề nhiều pipeline bị "cháy" quota vì agent chạy quá lâu trên các task phức tạp mà không có cơ chế dừng. Với Opus 4.7 suy nghĩ nhiều hơn, task budgets sẽ trở thành công cụ cần thiết để kiểm soát chi phí thay vì tùy chọn. Nhìn nhận lại Claude Opus 4.7 Trong khi cộng đồng đang bàn về Opus 4.7 với khả năng đốt token khủng khiếp hay việc Opus 4.6 đang gặp lỗi. Đặc biệt với người dùng API đang vận hành workflow thì sự ổn định thường quan trọng hơn khả năng benchmark đi kèm thêm chi phí phải được tối ưu và không có bất ngờ nào vượt quá tầm kiểm soát. Cho nên đừng nói đến việc nâng cấp Opus 4.7 ngay lập tức vì một model mới tốt hơn nhưng thỉnh thoảng đầu ra không nhất quán thực sự quá khó để kiểm soát so với các model cũ đã được kiểm chứng. Nếu bạn đang cân nhắc nên dùng model nào trong tháng tới, đây là hướng dẫn thực tế: thử Opus 4.7 trên 10–20% traffic với task budgets bật lên, đo lường chi phí token thực tế so và chỉ chuyển toàn bộ sau khi có đủ dữ liệu. Đừng để điểm số hoặc những bài test ban đầu quyết định thay trong công việc lựa chọn của bạn. Có một điều cũng đáng lưu ý: Opus 4.7 nên để ở 200k token thay vì đẩy lên 1 triệu token ngay vì ở context window lớn, model suy nghĩ nhiều hơn ở mỗi lượt sau và token tích lũy nhanh hơn bạn nghĩ — đặc biệt trong các agentic workflow nhiều lượt thực hiện, khi đó chi phí đi kèm sẽ tăng lên cấp số nhân nên bạn phải rất cẩn thận.

An
17 thg 4, 2026