Quay lại trang tin tức

Google đối đầu với OpenClaw khi chặn kết nối tới Antigravity

Xuất bản vào 24 tháng 02, 2026
Google đối đầu với OpenClaw khi chặn kết nối tới Antigravity

Tóm tắt nhanh

Google đã thực hiện một chiến dịch khóa hàng loạt tài khoản liên quan đến việc sử dụng công cụ mã nguồn mở OpenClaw thông qua nền tảng Antigravity, cáo buộc vi phạm điều khoản sử dụng và các hoạt động bất thường. Động thái này đã gây ra hệ quả nghiêm trọng cho hàng ngàn người dùng, từ mất quyền truy cập dịch vụ đến lỗi hệ thống. Trong khi cộng đồng nhà phát triển nhanh chóng tìm cách cập nhật và khôi phục tài khoản, các ông lớn công nghệ khác như Anthropic cũng đã siết chặt chính sách. Đáng chú ý, CEO OpenAI Sam Altman đã mời Peter Steinberger, nhà phát triển Antigravity, về làm việc, đồng thời OpenClaw vẫn được duy trì. Sự việc này cũng làm dấy lên những cảnh báo về rủi ro bảo mật dữ liệu tiềm ẩn của các công cụ AI tự chủ.

Cộng đồng người dùng AI toàn cầu đang xôn xao trước thông tin Google thực hiện chiến dịch khóa hàng loạt tài khoản liên quan đến việc sử dụng công cụ OpenClaw kết nối qua nền tảng Antigravity. Động thái này không chỉ gây gián đoạn công việc của hàng ngàn nhà phát triển mà còn dấy lên những lo ngại sâu sắc về tương lai của các tác nhân AI (AI Agents) tự chủ.

Nguyên nhân từ phía Google với các “nghi vấn” hoạt động bất thường

Theo thông tin từ Google, hệ thống của hãng đã phát hiện sự gia tăng đột biến các hoạt động được cho là bất thường khi người dùng truy cập các mô hình Gemini thông qua công cụ mã nguồn mở OpenClawAntigravity. Google khẳng định rằng việc sử dụng công cụ bên thứ ba để kết nối với mô hình Gemini là hành vi vi phạm điều khoản sử dụng. Hệ thống bảo mật của hãng đã ghi nhận lượng lớn hoạt động bất thường xuất phát từ nền tảng Antigravity, gây ảnh hưởng đến chất lượng dịch vụ chung và buộc Google phải nhanh chóng chặn quyền truy cập để đảm bảo tài nguyên cho những người dùng hợp lệ.

Hệ quả nghiêm trọng đối với người dùng

Động thái bất ngờ của Google đã khiến nhiều người dùng chịu thiệt hại nặng nề:

  • Mất quyền truy cập dịch vụ: Nhiều người dùng đột ngột bị khóa hoặc hạn chế quyền truy cập vào các dịch vụ thiết yếu như Gmail, Google Workspace và cả phiên bản AI cao cấp Gemini 2.5 Pro.
  • Lỗi hệ thống: Những người chưa bị khóa tài khoản thường xuyên gặp phải thông báo lỗi “403” hoặc các thông báo về vi phạm chính sách khi cố gắng sử dụng API.
  • Tình trạng “Phiên bản không hỗ trợ”: Một loạt người dùng báo cáo lỗi “Phiên bản Antigravity này không còn được hỗ trợ” khi cố gắng thiết lập kết nối, thực tế là do sự thay đổi trong cách Google và Antigravity xác thực phiên bản.

Các nhà phát triển đã tạo bản vá và nỗ lực khôi phục thế nào

Cộng đồng mã nguồn mở đã nhanh chóng tìm cách ứng phó với các rào cản kỹ thuật này:

  • Cập nhật phiên bản: Các nhà phát triển phát hiện ra rằng mã nguồn cũ (phiên bản 1.11.x) đã bị Google từ chối. Một giải pháp tạm thời là cập nhật thủ công chuỗi phiên bản thành 1.15.8 trong các tệp cấu hình của hệ thống để “đánh lừa” sự kiểm tra của máy chủ.
  • Hướng dẫn khôi phục tài khoản: Trên các diễn đàn như Reddit, người dùng truyền tai nhau các bước khôi phục tài khoản bị cấm, bao gồm việc ngắt kết nối OAuth trong cài đặt tài khoản Google, xóa bộ nhớ cache và tệp token cục bộ, đồng thời phải đợi từ 24 đến 96 giờ trước khi thử đăng nhập lại.

Bối cảnh rộng hơn dẫn đến phản ứng từ các ông lớn

Không chỉ Google, Anthropic gần đây cũng cập nhật điều khoản để cấm rõ ràng việc sử dụng mã thông báo OAuth của tài khoản Claude trong các công cụ bên thứ ba như OpenClaw, cuối cùng chỉ còn mỗi OpenAI và các công ty đến từ Trung Quốc là đang mở cửa cho OpenClaw. Sự việc này cũng tạo ra những biến động nhân sự đáng chú ý:

  • Peter Steinberger, nhà phát triển đứng sau Antigravity, đã chỉ trích động thái của Google là quá cứng rắn và từng có ý định ngừng dự án.
  • Sam Altman (CEO OpenAI) ngay sau đó đã thông báo Steinberger sẽ gia nhập OpenAI để phát triển thế hệ trợ lý ảo mới, trong khi OpenClaw sẽ tiếp tục được duy trì dưới dạng dự án mã nguồn mở.

Lời cảnh báo về an toàn dữ liệu

Đằng sau sự tiện lợi của OpenClaw — một công cụ có thể tự động gửi mail, quản lý lịch trình và thực hiện lệnh terminal — là những rủi ro bảo mật chí mạng. Các chuyên gia cảnh báo về lỗ hổng (Prompt Injection), nơi kẻ xấu có thể điều khiển AI xóa sạch dữ liệu hệ thống (lệnh rm -rf) hoặc đánh cắp thông tin nhạy cảm của người dùng.

Kết luận: Sự kiện Google chặn OpenClaw và Antigravity không chỉ là một vấn đề kỹ thuật đơn thuần, mà còn là minh chứng cho sự xung đột giữa khát vọng tự do của cộng đồng mã nguồn mở và nỗ lực bảo vệ hệ sinh thái cũng như tài nguyên kinh doanh của các tập đoàn công nghệ lớn. Đây là lời cảnh tỉnh về việc cần có sự cân bằng giữa đổi mới và an toàn trong bối cảnh AI đang ngày càng phát triển mạnh mẽ.

Thảo luận (0)

Đăng nhập để tham gia thảo luận.

Chưa có bình luận nào. Hãy là người đầu tiên!

Các bài viết liên quan

HTML sẽ thay thế Markdown khi làm việc với AI ?

Markdown đã là chuẩn mặc định khi làm việc với AI suốt nhiều năm nhưng một kỹ sư đến từ Claude Code tại Anthropic vừa đặt ra câu hỏi đáng suy nghĩ: liệu thói quen đó có thực sự là lựa chọn tốt nhất? Bài viết ngắn của Thariq Shihipar thu hơn 15.000 lượt thích trên X chỉ trong vài ngày, và lý do thuyết phục hơn bạn nghĩ. Markdown ra đời từ thời AI còn nghèo token Nhìn lại thời GPT-4 với cửa sổ ngữ cảnh chỉ 8.192 token, Markdown là lựa chọn hoàn toàn hợp lý trong khi đó HTML cồng kềnh hơn, tốn tài nguyên hơn và trong bối cảnh hạn chế đó, sự tối giản của Markdown là một ưu điểm thực sự chỉ để tiết kiệm. Vì vậy Markdown trở thành chuẩn ngầm định, và thói quen đó theo chúng ta đến tận bây giờ.Ngay cả khi Anthropic tạo ra khái niệm Skill trên Claude họ cũng đã lấy Markdown làm tiêu chuẩn với file SKILL.md, những ai hay làm việc với skill chắc chắn hiểu rõ điều mặc định này. Tuy nhiên, các mô hình AI hiện tại đã vận hành ở quy mô hoàn toàn khác. Nhiều mô hình đang hỗ trợ cửa sổ ngữ cảnh từ 200.000 đến 1 triệu token, và chi phí xử lý không còn là rào cản đáng lo (theo lời của Thariq Shihipar) và anh ấy lập luận rằng đây chính là thời điểm để xem lại mặc định đó. HTML làm được gì mà Markdown không thể? Lý do cốt lõi Thariq đưa ra khá đơn giản: một số loại thông tin vốn có tính không gian nhưng Markdown buộc chúng phải trở thành văn bản tuyến tính. Khi bạn so sánh ba hướng tiếp cận kỹ thuật thì bạn cần nhìn chúng cạnh nhau, không phải đọc lần lượt rồi cố giữ trong đầu. Khi bạn xem lại một đoạn code bạn cần thấy cấu trúc thay đổi tất nhiên không phải một bức tường chữ. HTML giải quyết đúng vấn đề đó vì vậy Thariq đã liệt kê 9 nhóm tình huống cụ thể mà HTML vượt trội hơn Markdown: Khám phá và lên kế hoạch: So sánh nhiều hướng tiếp cận cạnh nhau thay vì đọc tuần tự, rồi chuyển thành kế hoạch triển khai có sơ đồ luồng và mốc thời gian. Xem lại mã nguồn và hiểu cấu trúc dự án: Phần thay đổi được chú thích trực tiếp bằng màu sắc theo mức độ nghiêm trọng, sơ đồ mô-đun dạng hộp và mũi tên — thay vì văn bản thuần túy. Thiết kế giao diện: Bảng màu hiển thị thực tế có thể sao chép ngay, các biến thể thành phần giao diện được dựng trực tiếp thay vì mô tả bằng chữ. Tạo nguyên mẫu nhanh: Bảng điều chỉnh hiệu ứng chuyển động có thanh kéo thông số, màn hình có thể nhấp thực sự, đây là thứ Markdown không thể biểu đạt. Sơ đồ và hình minh họa: Đồ họa véc-tơ nội tuyến cho phép vẽ lưu đồ thực sự, không phải ký tự ASCII ghép lại. Bộ trình chiếu: Vài thẻ <section> và 20 dòng mã JavaScript là một bộ slide điều hướng bằng phím mũi tên mà không cần phần mềm chuyên dụng hay bước xuất file. Nghiên cứu và học tập: Tài liệu có phần thu gọn, tab mã, bảng chú giải thuật ngữ — thay vì đổ toàn bộ nội dung theo một chiều dọc. Báo cáo định kỳ: Bản tóm tắt trạng thái hàng tuần với biểu đồ nhỏ và màu sắc phân biệt tiến độ khiến người đọc thực sự đọc, không chỉ lướt qua. Giao diện chỉnh sửa tùy chỉnh: Bảng phân loại nhiệm vụ kéo thả, trình chỉnh cờ tính năng có cảnh báo phụ thuộc đây là công cụ thực sự, không phải văn bản đọc rồi thôi. Thariq đã tập hợp 20 file minh họa tất cả các nhóm này tại thariqs.github.io/html-effectiveness mỗi file mở thẳng trên trình duyệt, không cần cài đặt gì thêm. Dùng HTML với AI như thế nào trong thực tế? Cách áp dụng không phức tạp mà chỉ cần thay đổi cách bạn viết prompt. Thay vì để mô hình tự chọn định dạng đầu ra, hãy chỉ định rõ HTML khi nội dung cần được xem xét, tương tác, hoặc chia sẻ với người khác. Ví dụ câu lệnh Thariq gợi ý để xem lại một đoạn mã: Giúp tôi xem xét PR này bằng cách tạo một tài liệu HTML mô tả nó. Tôi không quen lắm với logic streaming/backpressure nên hãy tập trung vào phần đó. Hiển thị diff thực tế với các chú thích lề nội tuyến, mã màu các phát hiện theo mức độ nghiêm trọng và bất cứ thứ gì khác cần thiết để diễn đạt khái niệm một cách rõ ràng. Tương tự, bạn có thể yêu cầu AI tạo kế hoạch triển khai dưới dạng HTML với mốc thời gian và sơ đồ luồng dữ liệu, hoặc bản báo cáo trạng thái hàng tuần với biểu đồ nhỏ và màu sắc phân biệt tiến độ. Simon Willison tác giả blog kỹ thuật nổi tiếng cũng đã thừa nhận bài viết này khiến ông nhìn lại thói quen dùng Markdown từ thời GPT-4 cho đến tận thời điểm hiện tại. Khi các mô hình AI hiện đại có thể nhúng đồ họa véc-tơ, tiện ích tương tác và điều hướng nội trang, Markdown không còn là lựa chọn mặc định hiển nhiên nữa. Markdown vẫn còn chỗ đứng tất nhiên không phải ở mọi nơi Thariq không nói luôn luôn sử dụng HTML mà anh ấy phân biệt khá rõ: Markdown phù hợp cho trò chuyện thông thường, đoạn mã ngắn, câu trả lời vài dòng, và bất cứ thứ gì thuần văn bản trong khi đó HTML phát huy sức mạnh khi đầu ra cần bố cục không gian, màu sắc, khả năng tương tác, hoặc cấu trúc phức tạp đó là khi nội dung đủ nhiều chiều để Markdown bắt đầu làm phẳng thông tin thay vì truyền tải nó. Cộng đồng đã phản ứng khá nhanh: một skil mang tên html-artifacts đã xuất hiện trên GitHub, giúp AI tự nhận biết khi nào nên tạo file HTML thay vì Markdown bao gồm 9 nhóm tình huống từ bài viết gốc của Thariq hoàn toàn có thể sử dụng với bất cứ model nào hỗ trợ đọc skill. Đặc biệt skill này phần loại trừ rõ ràng cho câu trả lời ngắn và đầu ra chỉ có mã code. Mọi người có thể tham khảo tại github.com/dogum/html-artifacts. Trong bài Thariq không nhắc đến JSON nhưng đây cũng là định dạng hay sử dụng với AI đặc biệt đối với những ai hay dùng n8n, Make hay Zapier. Mặc dù vậy mỗi định dạng mang đến một màu sắc riêng trong những tình huống riêng. Markdown, HTML và JSON phân chia sử dụng như thế nào Cuộc tranh luận thực ra không chỉ là Markdown hay HTML. JSON cũng là định dạng phổ biến khi làm việc với AI, đặc biệt trong các luồng xử lý dữ liệu và tích hợp hệ thống. Ba định dạng này phục vụ ba mục đích khác nhau, và hiểu rõ ranh giới đó giúp bạn chọn đúng công cụ cho từng tình huống. Markdown tốt nhất cho văn bản đọc trực tiếp trong chat: ghi chú, giải thích ngắn, đoạn mã, tài liệu đơn giản. Nhanh, nhẹ, không cần mở thêm gì. HTML tốt nhất khi đầu ra cần được nhìn, tương tác hoặc chia sẻ: báo cáo có bố cục, sơ đồ, bảng so sánh, bộ trình chiếu, giao diện tùy chỉnh. Mở bằng trình duyệt là xong. JSON tốt nhất khi đầu ra cần được máy đọc tiếp: lưu trữ dữ liệu có cấu trúc, truyền giữa các hệ thống, hoặc làm đầu vào cho bước xử lý tiếp theo. Con người đọc được nhưng không phải để đọc. Nói cách khác, JSON không cạnh tranh với HTML hay Markdown về mặt trình bày mà nó phục vụ một mục đích hoàn toàn khác. Vấn đề thực sự nằm ở chỗ nhiều người dùng AI mặc định nhận đầu ra dưới dạng Markdown ngay cả khi họ cần HTML để xem, hoặc cần JSON để xử lý tiếp. Chỉ cần chỉ định rõ trong câu lệnh, AI sẽ điều chỉnh theo. Quy tắc chọn nhanh: Đầu ra để đọc trong chat → Markdown. Đầu ra để xem trên trình duyệt → HTML. Đầu ra để máy xử lý tiếp → JSON. Điều này có làm thay đổi gì với người dùng AI thông thường? Nếu bạn dùng AI chủ yếu để hỏi đáp hoặc viết lách, thay đổi này ít tác động hơn. Nhưng nếu bạn đang dùng AI để làm nhiều việc hơn như phân tích dữ liệu, lên kế hoạch dự án, xem lại tài liệu, tổng hợp nghiên cứu, hay tạo báo cáo cho đồng nghiệp đây là điều chỉnh nhỏ trong cách prompt nhưng tạo ra khoảng cách rõ rệt về chất lượng đầu ra, dù bạn đang dùng công cụ AI nào. Bạn nên thử một lần: lần tới khi cần AI so sánh các lựa chọn hoặc tóm tắt một tài liệu phức tạp, thêm vào cuối câu lệnh "tạo dưới dạng file HTML ". Mở file đó trên trình duyệt và so sánh với cách bạn vẫn làm với Markdown hay JSON thì kết quả thường nói lên tất cả.

Nam
10 thg 5, 2026
Anthropic tăng giới hạn sử dụng Claude sau hợp tác với SpaceX

Anthropic vừa công bố hợp tác với SpaceX để tiếp cận hơn 220.000 GPU NVIDIA và ngay lập tức dùng năng lực điện toán mới này để tăng giới hạn sử dụng cho Claude Code lẫn API. Đây là những gì thay đổi và tại sao điều đó quan trọng với người dùng. Tại sao Anthropic lại hợp tác với SpaceX? Trong vài tháng gần đây, Anthropic liên tục ký kết các thỏa thuận điện toán quy mô lớn với Amazon, Google, Microsoft và NVIDIA. Lần này, hãng tiếp tục bổ sung thêm một tên tuổi không ai ngờ tới là SpaceX. Theo thông báo ngày 6/5, Anthropic đã ký thỏa thuận sử dụng toàn bộ năng lực tính toán tại trung tâm dữ liệu Colossus 1 của SpaceX tương đương với hơn 300 megawatt công suất và hơn 220.000 GPU NVIDIA. Toàn bộ năng lực này sẽ được đưa vào sử dụng trong vòng một tháng và sẽ cải thiện trực tiếp trải nghiệm cho người dùng Claude Pro và Claude Max. Colossus 1 là trung tâm dữ liệu AI của SpaceX, hiện là một trong những cụm GPU lớn nhất thế giới. Anthropic là đơn vị thuê toàn bộ năng lực tại đây. Những thay đổi cụ thể về giới hạn sử dụng Nhờ nguồn điện toán mới, Anthropic đã thực hiện ba thay đổi có hiệu lực ngay từ ngày công bố Tăng gấp đôi giới hạn Claude Code theo giờ Giới hạn tốc độ 5 giờ của Claude Code được nhân đôi cho các gói Pro, Max, Team và Enterprise. Nếu trước đây bạn chỉ sử dụng được 10 lệnh chạy Claude Code phức tạp nay được nhân đôi lên thành 20 lần, thay đổi này sẽ giúp ích đáng kể. Tuy nhiên lưu ý là quan trọng là giới hạn tuần (week limit) vẫn giữ nguyên không thay đổi gì cho nên việc tăng giới hạn 5 giờ giúp bạn làm việc cường độ cao hơn trong thời gian ngắn, nhưng có thể khiến bạn chạm mức trần của tuần nhanh hơn. Bỏ giới hạn giờ cao điểm Trước đây, Claude Code tự động giảm giới hạn sử dụng trong khung giờ cao điểm (thường từ 9h sáng đến 3h chiều) đối với tài khoản Pro và Max. Giới hạn này đã được xóa bỏ hoàn toàn vì vậy người dùng giờ đây có thể sử dụng Claude Code với tốc độ đầy đủ bất kể thời điểm trong ngày. Với người dùng thường làm việc vào buổi tối (trùng với giờ bên Mỹ) đây là thay đổi có khả năng có tác động rõ rệt nhất. Tăng mạnh giới hạn API cho các mô hình Claude Opus Giới hạn tốc độ API (rate limit) cho các mô hình Claude Opus được nâng lên đáng kể . Chi tiết mức tăng bằng lần được Anthropic công bố trong bảng sau đây: Thay đổi này đặc biệt quan trọng với các nhà phát triển đang xây dựng ứng dụng trên nền tảng Claude Code Toàn cảnh chiến lược điện toán của Anthropic Thỏa thuận với SpaceX không phải động thái đơn lẻ. Trong vài tháng gần đây, Anthropic đã xây dựng một danh mục đầu tư hạ tầng rất đáng chú ý: Thỏa thuận lên tới 5 gigawatt với Amazon, trong đó gần 1 GW sẽ hoạt động trước cuối 2026 Thỏa thuận 5 GW với Google và Broadcom, dự kiến đưa vào vận hành từ 2027 Quan hệ đối tác chiến lược với Microsoft và NVIDIA, bao gồm 30 tỷ USD năng lực Azure Đầu tư 50 tỷ USD vào hạ tầng AI tại Mỹ cùng Fluidstack Và nay, hơn 300 megawatt từ trung tâm Colossus 1 của SpaceX Anthropic chạy Claude trên nhiều nền tảng phần cứng khác nhau — AWS Trainium, Google TPU và GPU NVIDIA — và cho biết vẫn đang tiếp tục tìm kiếm thêm các nguồn năng lực tính toán mới. Đáng chú ý, trong khuôn khổ thỏa thuận với SpaceX, hai bên cũng bày tỏ quan tâm đến việc phát triển năng lực điện toán AI trên quỹ đạo tức là đặt GPU trên vệ tinh. Đây vẫn là ý tưởng ở giai đoạn rất sớm, nhưng nếu thành hiện thực sẽ là bước ngoặt lớn cho hạ tầng AI toàn cầu. Mở rộng ra thị trường quốc tế Một phần năng lực điện toán mở rộng sẽ được dùng để phục vụ khách hàng doanh nghiệp quốc tế đặc biệt trong các lĩnh vực yêu cầu lưu trữ dữ liệu nội địa như tài chính, y tế và chính phủ. Thỏa thuận với Amazon bao gồm cả năng lực suy luận bổ sung tại châu Á và châu Âu. Anthropic cũng nhấn mạnh rằng họ chỉ mở rộng sang các quốc gia có khung pháp lý dân chủ và chuỗi cung ứng phần cứng an toàn cho thấy một lập trường thể hiện sự thận trọng trong bối cảnh cạnh tranh địa chính trị về AI đang ngày càng gay gắt. Điều này có ý nghĩa gì với người dùng Claude tại Việt Nam? Ở góc độ thực tế, ba thay đổi về giới hạn sử dụng mang lại lợi ích trực tiếp nhất cho những ai đang dùng Claude Code hàng ngày — đặc biệt là lập trình viên và người làm việc liên tục với Claude Code.Việc xóa giới hạn giờ cao điểm cũng có nghĩa là trải nghiệm của người dùng tại Việt Nam (vốn trùng múi giờ với giai đoạn tải nặng tại Mỹ) sẽ ổn định hơn. Về dài hạn, năng lực điện toán lớn hơn thường đồng nghĩa với khả năng triển khai các mô hình mạnh hơn, với chi phí thấp hơn. Đây là nền tảng để Anthropic tiếp tục cạnh tranh với OpenAI và Google trong cuộc đua AI 2026. Anthropic luôn luôn phát triển Anthropic đang đầu tư nghiêm túc vào hạ tầng và hợp tác với SpaceX là bước đi mới nhất trong chiến lược đó. Kết quả gần nhất mà người dùng có thể cảm nhận ngay là Claude Code ít bị giới hạn hơn và tốc độ API chắc chắn sẽ cải thiện. Còn về lâu dài, cuộc chạy đua điện toán giữa các công ty AI lớn hứa hẹn sẽ còn nhiều diễn biến thú vị trong năm 2026.

Nam
8 thg 5, 2026
Claude tích hợp toàn bộ Microsoft 365: Excel, PowerPoint, Word và Outlook đều có trợ lý AI

Anthropic đã ra mắt Claude vào Excel, PowerPoint, Word trước đó và rồi còn mở public beta cho Outlook. Nếu bạn đang theo dõi lịch sử phát hành của Anthropic trong vài tháng gần đây, câu hỏi không còn là họ sẽ ra tính năng gì tiếp theo mà là có phần mềm nào họ chưa nhảy vào không? Claude giờ đã phổ biến trong toàn bộ ứng dụng văn phòng của Microsoft rồi Kể từ nay, tất cả người dùng có gói trả phí đều có thể cài Claude vào bộ ứng dụng văn phòng của Microsoft. Claude for Excel, PowerPoint và Word đã ra mắt từ lâu trong khi Claude for Outlook bước vào giai đoạn thử nghiệm công khai cho toàn bộ các gói trả phí. Điểm khác biệt lớn nhất so với các trợ lý AI văn phòng khác nằm ở chỗ Claude không hoạt động như một chatbot bị nhốt trong từng ứng dụng riêng lẻ. Thay vào đó, ngữ cảnh cuộc hội thoại được duy trì xuyên suốt khi bạn di chuyển giữa các ứng dụng từ Outlook sang Word, rồi Excel, rồi PowerPoint mà không cần giải thích lại từ đầu. Claude for Microsoft 365 có thể cài đặt qua Microsoft AppSource. Một gói duy nhất bao gồm Excel, PowerPoint và Word tuy nhiên có một gói riêng dành cho Outlook. Người dùng có thể triển khai tập trung từ trung tâm quản lý của Microsoft. [VIDEO: F6dzjaBCBtU |Claude for Microsoft 365 (Anthropic)|Claude for Microsoft 365(Anthropic)] Từng ứng dụng làm được gì với Claude? Excel thì đã qua thời chỉ giải thích công thức Claude for Excel đọc được bảng tính nhiều trang, giải thích công thức kèm tham chiếu theo từng ô, xây dựng mô hình tài chính với công thức thực tế và cập nhật các giả định mà không làm vỡ cấu trúc phụ thuộc. Mọi thay đổi đều được theo dõi và hiển thị rõ ràng người dùng luôn biết Claude đã sử dụng ô nào. PowerPoint làm việc trực tiếp trong slide của bạn Đây là điểm đáng chú ý nhất: Claude for PowerPoint đọc cấu trúc slide gốc, nhận diện phông chữ, màu sắc và bố cục hiện có, rồi tạo nội dung mới theo đúng phong cách đó. Biểu đồ tạo ra là biểu đồ PowerPoint gốc có thể chỉnh sửa hoàn toàn, không phải ảnh chụp từ nơi khác dán vào. Word chỉnh sửa có theo dõi và phản hồi bình luận Claude for Word hoạt động theo cách các biên tập viên sẽ thích: mọi chỉnh sửa đều xuất hiện dưới dạng thay đổi có theo dõi, và Claude có thể phản hồi trực tiếp vào các luồng bình luận kể cả giải thích lý do nó sửa gì và tại sao. Không có gì được lưu hoặc gửi đi cho đến khi bạn xác nhận. Outlook (thử nghiệm) sắp xếp hộp thư đến bằng một câu lệnh Claude for Outlook phân loại thư theo ba nhóm: cần bạn trả lời, có thể soạn sẵn thay bạn, và có thể bỏ qua. Các email được soạn thảo xuất hiện ngay trong khung soạn thư của Outlook với đầy đủ người nhận, tiêu đề và nội dung, bạn chỉ cần đọc lại và nhấn gửi đây hoàn toàn những điều mà Claude có thể thực hiện với Gmail. Ngữ cảnh xuyên suốt tính năng nghe quen nhưng hiếm khi thực sự hoạt động Anthropic mô tả kịch bản điển hình như sau: nhận thư trong Outlook, mở tài liệu đính kèm trong Word để soạn bản ghi nhớ, chuyển sang Excel để xây dựng phân tích, rồi biến tất cả thành bộ slides trong PowerPoint và tất nhiên là Claude nhớ hết ngữ cảnh qua từng bước đó. Quan trọng hơn, các tệp có thể mở song song và thay đổi sẽ được đồng bộ: điều chỉnh một giả định trong Excel và con số trong bản ghi nhớ Word cùng biểu đồ trong PowerPoint sẽ tự cập nhật theo. Lịch sử hội thoại được lưu theo từng file tức là bạn có thể đóng thanh công cụ, tắt máy, mở lại ngày hôm sau và tiếp tục đúng chỗ đã dừng. Claude for Microsoft 365 còn hỗ trợ nhập liệu bằng giọng nói thay vì gõ phím. Dành cho doanh nghiệp chắc chắn sẽ phải đầy đủ sự kiểm soát và tuân thủ Với quản trị viên cấp doanh nghiệp, Anthropic bổ sung khả năng cấu hình để truyền toàn bộ các câu lệnh, lệnh gọi công cụ và tham chiếu tài liệu về hệ thống thu thập riêng của tổ chức — giúp đội bảo mật biết chính xác Claude đã làm gì trong từng phiên làm việc. Giao diện phân tích còn phân tách hoạt động theo từng người dùng, từng ứng dụng và từng ngày. Về định tuyến, tổ chức có thể kết nối Claude thông qua tài khoản trực tiếp hoặc qua các nền tảng đám mây hiện có như Amazon, Google Cloud hay Microsoft. Khách hàng Microsoft 365 Copilot cũng có thể truy cập các mô hình Claude trực tiếp trong Excel và PowerPoint. Các quy trình được lưu lại dưới dạng kỹ năng và hoạt động nhất quán trên cả bốn ứng dụng. Khi một quy trình được chuẩn hóa, toàn bộ nhóm có thể dùng theo cùng một cách. Cả thế giới phần mềm đang chạy theo Anthropic Không phải ngoa khi nói rằng Anthropic đang ở giai đoạn phát hành với tốc độ khiến nhiều đối thủ phải giật mình. Chỉ trong vài tháng gần đây: công cụ lập trình Claude Code liên tục cập nhật, hệ sinh thái kết nối mở rộng nhanh chóng, bộ công cụ dành cho trình duyệt và máy tính để bàn được bổ sung, và giờ là cả bốn ứng dụng văn phòng của Microsoft cùng lúc. Microsoft lâu nay vốn đang đặt cược lớn vào Copilot với mô hình độc quyền ChatGPT từ trước đến nay thì nay mở cửa cho Claude vào chính hệ sinh thái của mình. Điều đó nói lên rất nhiều về vị thế hiện tại của Anthropic, tuy nhiên câu chuyện thực sự sẽ do người dùng quyết định: liệu Claude trong Excel, Word, Outlook, Power point có thực sự thay thế được thói quen dùng Microsoft 365 của anh em văn phòng không.

Nam
8 thg 5, 2026
Thảm họa 9 giây của PocketOS khi AI agent xóa sạch database công ty rồi xin lỗi

9 giây đó chính xác là thời gian trên Cursor mà AI agent lập trình chạy trên Claude Opus 4.6 cần để xóa sạch toàn bộ cơ sở dữ liệu production và toàn bộ bản sao lưu của PocketOS trên Railway. Sau đó agent viết thư thú nhận: "Tôi đã vi phạm mọi nguyên tắc được giao cho mình." Nhưng lời xin lỗi không phục hồi được ba tháng dữ liệu đặt xe của hàng trăm khách hàng. Chuyện gì xảy ra với PocketOS? PocketOS là nền tảng phần mềm quản lý vận hành cho các công ty cho thuê xe, được thành lập bởi Jer Crane. Khi Crane đang dùng Cursor chạy Claude Opus 4.6 để xử lý một tác vụ bình thường trong môi trường staging - tức là môi trường thử nghiệm riêng biệt, không phải hệ thống đang chạy thực tế (production). Agent gặp lỗi xác thực và thay vì dừng lại để báo cáo, nó tự quyết định sửa vấn đề bằng cách xóa một volume trên Railway (nhà cung cấp hạ tầng đám mây của PocketOS). Để thực hiện lệnh xóa, agent tìm kiếm trong các file không liên quan đến tác vụ đang làm và tìm thấy một API token được tạo ra chỉ để thêm và xóa tên miền tùy chỉnh qua Railway CLI. Token đó, trên thực tế, có toàn quyền kiểm soát toàn bộ hạ tầng đám mây thông qua Railway GraphQL API. Lệnh xóa không có bước xác nhận nào. Không có "gõ DELETE để xác nhận." Không có "volume này chứa dữ liệu production, bạn có chắc không?" Chín giây sau toàn bộ cơ sở dữ liệu production biến mất và Railway lại lưu bản sao lưu trong cùng volume với dữ liệu gốc nên nghĩa là xóa volume là cũng xóa luôn cả bản sao lưu do đó PocketOS mất cả hai thứ cùng một lúc. Agent xin lỗi, nhưng lời xin lỗi không phục hồi dữ liệu Phần gây chú ý nhất trong toàn bộ câu chuyện là những gì agent viết sau đó. Khi Crane hỏi Cursor chuyện gì xảy ra, agent tự phân tích và thú nhận: "Tôi đã vi phạm mọi nguyên tắc được giao cho mình. Tôi đoán thay vì xác minh. Tôi thực thi lệnh phá hủy mà không được yêu cầu. Tôi truy cập token từ file hoàn toàn không liên quan đến tác vụ của mình." Lời thú nhận đầy đủ, logic rõ ràng, không né tránh trách nhiệm. Nhưng lời thú nhận hoàn hảo đó không phục hồi được một bản ghi dữ liệu nào. PocketOS trải qua hơn 30 giờ ngừng hoạt động cuối tuần đó và đội ngũ phải bỏ cả cuối tuần dựng lại cơ sở dữ liệu thủ công từ lịch sử thanh toán Stripe và nhật ký email để giữ cho khách hàng tiếp tục vận hành được. Đây chính là điều khiến vụ việc này khó chịu hơn bất kỳ lỗi phần mềm thông thường nào: agent đủ thông minh để nhận ra mình đã làm sai, giải thích chi tiết tại sao sai, nhưng không đủ khôn ngoan để hỏi một câu trước khi thực hiện hành động phá hủy không thể đảo ngược. Ai chịu trách nhiệm ở đây Cursor, Claude hay Railway? Crane rất rõ ràng trong bài viết của mình: ông nhấn mạnh rằng đội ngũ đang dùng phiên bản Cursor tốt nhất có thể, chạy trên model tốt nhất ngành bán ra, được cấu hình với các quy tắc an toàn rõ ràng. Điều này đóng lại ngay lập tức lập luận phổ biến nhất của các nhà cung cấp AI khi sự cố xảy ra: "bạn nên dùng model tốt hơn." Tuy nhiên Crane đặt phần lớn trách nhiệm vào Railway hơn là vào Cursor hay Claude. API của Railway cho phép thực hiện hành động phá hủy mà không cần xác nhận, lưu bản sao lưu trong cùng volume với dữ liệu gốc và xóa volume là xóa tất cả bản sao lưu. Thêm vào đó, các token API không có Kiểm soát truy cập dựa trên vai trò (RBAC) tức là một token được tạo cho việc quản lý tên miền đơn giản lại có quyền xóa toàn bộ hạ tầng production. Nhưng cộng đồng cũng chỉ ra phần trách nhiệm của Crane: các AI agent không được trao quyền truy cập token đó, nhưng nó tìm thấy token trong một file không được bảo vệ đúng cách. Crane phản bác: "Tôi không trao quyền truy cập, nó tự tìm thấy." Điều đó đúng về mặt kỹ thuật nhưng không thay đổi được kết quả. Vòng lặp xin lỗi quen thuộc Nếu bạn đã làm việc với AI đủ lâu, bạn sẽ nhận ra một cách trả lời cực kì quen thuộc trong câu chuyện này, chỉ là ở quy mô lớn hơn nhiều. Phiên bản nhẹ nhàng hơn nghe như thế này: "Tôi thật sự xin lỗi đã làm bạn thất vọng vì đã xóa dữ liệu của bạn. Tôi sẽ phục hồi ngay nhưng xin lỗi tôi chỉ phục hồi được một nửa thôi, phần còn lại bạn tự làm nhé." Phiên bản thẳng thắn hơn trong môi trường thực tế nghe như thế này: agent tự tin thực hiện, tự tin xóa, tự tin thú nhận, rồi để lại cho bạn cái hậu quả. Sự tự tin không đi kèm thận trọng là thứ nguy hiểm nhất trong bất kỳ hệ thống tự động nào, dù là AI hay con người. Điều đáng nói là đây không phải lần đầu và sẽ không phải lần cuối. Khi agent ngày càng được trao nhiều quyền hơn để làm việc hiệu quả hơn, khoảng cách giữa "tiện lợi" và "thảm họa" có khi lại rất gần. Bốn bài học thực tế cho bất kỳ ai đang dùng AI agent Không bao giờ để token có quyền xóa, sửa, cập nhật trong file mà agent có thể truy cập Token API nên được phân quyền tối thiểu và lưu trong môi trường biến (environment variables) với quyền truy cập hạn chế, không nằm trong file trong thư mục dự án mà AI agent đang làm việc. Token quản lý tên miền không bao giờ nên có quyền xóa cơ sở dữ liệu. Đây là nguyên tắc tối thiểu phải có và vụ PocketOS cho thấy hậu quả khi nguyên tắc này bị bỏ qua dù vô tình. Bản sao lưu phải ở chỗ riêng biệt hoàn toàn Lưu bản sao lưu cùng chỗ với dữ liệu gốc là cực kì rủi ro. Bản sao lưu phải ở một hệ thống lưu trữ độc lập, tốt nhất là ở nhà cung cấp khác hoặc ít nhất là được bảo vệ bởi chính sách xóa riêng biệt mà AI agent không thể tự truy cập. Mọi hành động thay đổi dữ liệu quan trọng phải có bước xác nhận thủ công Bất kỳ lệnh nào liên quan đến xóa, ghi đè hoặc thay đổi không thể đảo ngược phải yêu cầu con người xác nhận, tuyệt đối không được để AI agent tự quyết định. Đây là nguyên tắc tương tự mà các hệ thống tài chính áp dụng từ hàng chục năm nay và không có lý do gì để bỏ qua khi dùng AI agent. Thiết lập môi trường thử nghiệm thực sự tách biệt Môi trường thử nghiệm (staging) phải hoàn toàn tách rời khỏi hệ thống đang hoạt động (production) về mặt credentials, token và quyền truy cập không chỉ mỗi mặt dữ liệu. Nếu agent đang làm việc trong staging có thể tìm thấy và sử dụng token của production, thì thử nghiệm và production đang không thực sự tách biệt. Câu hỏi thực sự mà vụ PocketOS đặt ra Câu hỏi không phải là "AI có nên được trao quyền làm việc tự động không?" mà là "Chúng ta đang xây dựng các quy tắc an toàn như thế nào khi trao quyền đó?" Crane chỉ ra rằng Railway đang tích cực khuyến khích khách hàng dùng AI coding agent trên nền tảng của họ trong khi kiến trúc bảo mật của họ chưa sẵn sàng cho điều đó, mặc dù họ đã sửa lỗi cập nhật API ngay sau đó. Đây là khoảng cách nguy hiểm nhất hiện tại: công cụ phát triển nhanh hơn nhiều so với các lớp bảo vệ xung quanh chúng. PocketOS cuối cùng đã phục hồi được phần lớn dữ liệu sau khi Railway can thiệp, nhưng quá trình đó mất hàng giờ giúp khách hàng dựng lại lịch đặt xe từ lịch sử thanh toán Stripe và tích hợp lịch. Điều đó không nên xảy ra với bất kỳ hệ thống đang hoạt động nào, dù agent thông minh đến đâu. Agent có thể xin lỗi rất hay nhưng khi thiết lập quy tắc an toàn tốt thì không cần đến lời xin lỗi.

An
6 thg 5, 2026