Quay lại trang tin tức

OpenAI mở cửa AI với GPT-OSS tham gia cuộc đua mã nguồn mở

Xuất bản vào 13 tháng 08, 2025
OpenAI mở cửa AI với GPT-OSS tham gia cuộc đua mã nguồn mở

Tóm tắt nhanh

OpenAI đã gây bất ngờ lớn khi phát hành hai mô hình mã nguồn mở mới, GPT-OSS-120B và GPT-OSS-20B, dưới giấy phép Apache 2.0, đánh dấu sự tái gia nhập vào 'cuộc đua mô hình mở' sau sáu năm gián đoạn. Các mô hình 'open-weight' này cung cấp hiệu suất mạnh mẽ, các khả năng nâng cao như kiến trúc MoE và suy luận CoT, đồng thời hỗ trợ fine-tune và gọi hàm. Động thái này không chỉ thúc đẩy quyền riêng tư, tiết kiệm chi phí mà còn khuyến khích đổi mới trong cộng đồng AI, mặc dù vẫn còn tranh cãi về định nghĩa 'mã nguồn mở' thực sự.

Có vẻ như đổ vỡ với Microsoft đã khiến OpenAI điều chỉnh đáng kể chiến lược tiếp cận rộng rãi tới người dùng AI khi họ đã công bố phát hành 2 model mã nguồn mở mới là gpt-oss-120b và gpt-oss-20b với kích thước lần lượt là 20 tỷ và 120 tỷ tham số (parameter chứ hoàn toàn không phải neuron).

Đặc biệt là 2 mô hình này đều có mã nguồn mở với giấy phép Apache 2.0 rất tự do. Vậy thì giấy phép Apache 2.0 là gì? Có thể nhiều người vẫn chưa biết về giấy phép mở này thực sự rất dài nhưng tóm gọn lại là với giấy phép Apache 2.0 này người dùng hoàn toàn được tự do dùng và chỉnh sửa, phân phối lại cũng không cần mở mã nguồn, kể cả kiếm tiền với GPT-OSS cũng được thậm chí không cần trả khoản phí gì cho Open AI, chỉ cần giữ nguyên bản quyền tác giả là được.

Như vậy với động thái này báo hiệu việc OpenAI tái gia nhập "cuộc đua mô hình mở" sau sáu năm gián đoạn, sánh vai cùng các đối thủ như Meta, Deepseek và Mistral.

GPT-OSS là gì? Hiểu rõ về "Open-Weight"

Thuật ngữ "GPT-OSS" dùng để chỉ hai mô hình ngôn ngữ mới này, với kích thước lần lượt là 20 tỷ và 120 tỷ tham số. Quan trọng là, OpenAI đã phát hành chúng dưới dạng các mô hình "open-weight", nghĩa là các trọng số đã được huấn luyện của mô hình AI được công khai cho phép tải về và sử dụng trực tiếp trên máy của người dùng. Điều này cho phép các nhà phát triển kiểm tra và tinh chỉnh cách các mô hình hoạt động.

Tuy nhiên, đây không phải là một bản phát hành "mã nguồn mở" đầy đủ theo nghĩa truyền thống, vì OpenAI chưa công bố công khai mã code huấn luyện gốc hoặc các tập dữ liệu thô được sử dụng để huấn luyện các mô hình này. Ngược lại, một mô hình thực sự mã nguồn mở sẽ cung cấp toàn bộ mã nguồn, tài liệu huấn luyện, trọng số và đôi khi cả tập dữ liệu, cho phép cộng đồng xem, sửa đổi và thậm chí huấn luyện lại mô hình. Mặc dù sự khác biệt này còn gây tranh cãi trong cộng đồng mã nguồn mở, OpenAI nhấn mạnh rằng bản phát hành này là một bước đi tiếp theo sau sáu năm hướng tới việc làm cho lợi ích của AI trở nên dễ tiếp cận rộng rãi.

Hiệu suất vượt trội và khả năng nâng cao

Dù "mở", hiệu năng của GPT-OSS vẫn rất đáng gờm. Các bài kiểm tra (benchmark) cho thấy nó có thể cạnh tranh với mô hình đóng của Open AI :

  • GPT-OSS-120B: Gần tương đương với o4-mini trong các tác vụ suy luận cốt lõi, mô hình này yêu cầu GPU 80GB trở lên.
  • GPT-OSS-20B: Tương tự o3-mini, có thể chạy trên phần cứng tiêu dùng với 16GB bộ nhớ.

So sánh hiệu suất GPT-OSS

GPQA diamond

Câu hỏi khoa học cấp tiến sĩ (không dùng tools)

MMLU

Câu hỏi lĩnh vực học thuật

AIME 2025

Câu hỏi toán thi đấu

Các điểm nổi bật về kiến trúc và khả năng chính bao gồm:

  • Kiến trúc Mixture-of-Experts (MoE): Cả hai mô hình đều sử dụng thiết kế MoE, kích hoạt ít tham số hơn trên mỗi token (5,1 tỷ cho 120B và 3,6 tỷ cho 20B) để xử lý hiệu quả truy vấn.
  • Suy luận Chain-of-Thought (CoT): GPT-OSS hỗ trợ khả năng suy luận nâng cao, cho phép các nhà phát triển cấu hình các mức độ nỗ lực suy luận khác nhau (thấp, trung bình hoặc cao) để cân bằng tốc độ và độ chính xác. Các mô hình có thể hiển thị toàn bộ chuỗi suy luận nội bộ của chúng, điều này có thể hỗ trợ gỡ lỗi logic của chúng.
  • Sử dụng công cụ và đầu ra có cấu trúc: Các mô hình được thiết kế cho các trường hợp sử dụng nâng cao bao gồm sử dụng công cụ, chẳng hạn như công cụ duyệt web để tương tác web và công cụ Python để thực thi mã trong môi trường sổ ghi chép Jupyter.
  • Huấn luyện chuyên sâu: Được huấn luyện trên hàng nghìn tỷ token chỉ bằng văn bản tập trung vào STEM, mã hóa và kiến thức tổng quát, sử dụng GPU NVIDIA H100 và PyTorch. Thời điểm cắt dữ liệu kiến thức của các mô hình là tháng 6 năm 2024.
  • Định dạng OpenAI Harmony: Một dự án mã nguồn mở mới từ OpenAI, Harmony, cung cấp một định dạng phản hồi mới lạ cho các mẫu lời nhắc, giới thiệu các vai trò như system, developer, user, assistant, và tool, cùng với các kênh đầu ra riêng biệt cho final (hướng tới người dùng), analysis (chuỗi suy luận), và commentary (liên quan đến công cụ). Cấu trúc này nâng cao khả năng của mô hình trong việc quản lý các tương tác phức tạp.

Ý nghĩa và lợi ích đối với hệ sinh thái AI

Quyết định phát hành các mô hình GPT-OSS miễn phí được xem là một động thái chiến lược của OpenAI nhằm lấy lại vị thế trong bối cảnh AI đang ngày càng cạnh tranh. Bằng cách cung cấp các mô hình "open-weight" mạnh mẽ, OpenAI không chỉ thúc đẩy đổi mới mà còn trao quyền cho các nhà phát triển và doanh nghiệp.

Điều này mang lại nhiều lợi ích đáng kể:

  • Tăng cường quyền riêng tư: Các doanh nghiệp, đặc biệt trong các ngành yêu cầu bảo mật cao như y tế hay tài chính, có thể triển khai mô hình cục bộ (on-premise) để bảo vệ dữ liệu nhạy cảm.
  • Tiết kiệm chi phí: Việc triển khai cục bộ giúp giảm độ trễ và chi phí sử dụng API thương mại.
  • Thúc đẩy đổi mới: Cộng đồng có thể tự do tinh chỉnh và phát triển các giải pháp AI tiên tiến dựa trên các mô hình này.

Có hỗ trợ tinh chỉnh (Fine-Tune) và gọi hàm (Function Calling)

Các mô hình GPT-OSS được thiết kế hoàn toàn có thể tinh chỉnh (fine-tune), mặc dù không có mã code huấn luyện gốc. Chúng đã được tích hợp vào thư viện transformers của Hugging Face và hỗ trợ các kỹ thuật fine-tune tiết kiệm tài nguyên như LoRA, PEFT, và QLoRA.

Tất nhiên là GPT-OSS có hỗ trợ function calling cho phép mô hình gọi và xử lý kết quả từ các hàm hoặc API bên ngoài trong quá trình hội thoại. Thật sự đây là thứ mà không thể thiếu đối với các mô hình hiện nay để tăng tính kết nối.

Mặc dù việc sử dụng fine-tune mà không có script huấn luyện gốc có thể phức tạp hơn, hoàn toàn không dễ dàng với người thiếu kinh nghiệm nhưng các nhà phát triển nên thử các nền tảng như Unsloth đã phát triển các giải pháp tùy chỉnh và kỹ thuật offloading để làm cho mọi việc dễ dàng hơn đôi chút, cho phép huấn luyện LoRA GPT-OSS-20b trên VRAM 14GB và GPT-OSS-120b trên VRAM 65GB.

Cách tiếp cận và triển khai:

  • Hugging Face: Thông qua dịch vụ Inference Providers mà họ đã cung cấp bản demo chính thức của OpenAI.
  • Triển khai trên chính máy của người dùng (Local Inference): Được hỗ trợ bởi các thư viện như transformers, vLLM, llama.cpp, và ollama. Ví dụ, mô hình 20B có thể chạy trên Macbook, Mac mini chỉ với RAM 32GB.
  • Có thể chạy thông qua Docker.
  • Nền tảng cloud : Có sẵn trên các nền tảng như Azure AI Model Catalog và Dell Enterprise Hub cho các triển khai doanh nghiệp an toàn.

Các nhà phát triển có thể sử dụng nhiều tối ưu hóa khác nhau để tăng tốc độ suy luận, bao gồm lượng tử hóa MXFP4 cho GPU Hopper hoặc Blackwell, Flash Attention 3 và MegaBlocks MoE kernels.

Cam kết mạnh mẽ và tranh cãi xoay quanh GPT-OSS

Mặc dù mô hình được cộng đồng đón nhận tích cực, nhưng đã không còn tính wow khi nói về "tính mở" của nó. Sự khác biệt giữa "open-weight" và "open-source" vẫn là một điểm gây tranh cãi đối với một số người ủng hộ sự minh bạch hoàn toàn, mà còn ở những đối thủ của Open AI đã làm trước đây rất lâu rồi.

Ngoài ra, trong quá trình thử nghiệm, một số trường hợp mô hình gpt-oss-20b "rò rỉ" thông tin chuỗi suy luận nội bộ đã được quan sát, mặc dù OpenAI đã chỉ ra rằng đây là một hành vi được mong đợi để cho phép giám sát và tránh các mô hình che giấu dấu vết của chúng.

Tóm lại, các mô hình GPT-OSS của OpenAI với quá trình thể hiện chắc chắn vẫn chưa hoàn hảo mà chỉ để thể hiện cam kết mạnh mẽ đối với việc làm cho AI trở nên dễ tiếp cận hơn.

Thảo luận (0)

Đăng nhập để tham gia thảo luận.

Chưa có bình luận nào. Hãy là người đầu tiên!

Các bài viết liên quan

Google ra mắt Nano Banana 2 nâng cấp đáng giá về tốc độ tạo ảnh

Google vừa chính thức ra mắt Nano Banana 2 (Gemini 3.1 Flash Image), một bước đi đáng chú ý khi hãng quyết định đưa những tính năng từng là đặc quyền của Nano Banana Pro xuống dòng phổ thông. Đây thật sự là một bản nâng cấp mạnh mẽ và cũng là bảo chứng cho lời hứa của Google về việc phổ cập công nghệ pro tới nhiều người dùng hơn, để ngay cả người dùng miễn phí cũng có thể trải nghiệm những tính năng pro.Nano Banana 2 là gì và điểm khác biệt so với Nano Banana Pro?Nano Banana 2 tận dụng sức mạnh của mô hình Gemini 3.1 Flash Image mới nhất để thực hiện các yêu cầu tạo và chỉnh sửa ảnh chỉ với tốc độ nhanh hơn hẳn so với bản pro.Sự khác biệt cốt lõi so với phiên bản ProTốc độ: Tốc độ chính là điều Nano Banana 2 nhấn mạnh. Trong khi Nano Banana Pro tập trung vào các tác vụ yêu cầu độ trung thực cao nhất và độ chính xác tuyệt đối về dữ kiện, Nano Banana 2 ưu tiên tốc độ xử lý nhanh (tốc độ Flash) mà vẫn duy trì được chất lượng hình ảnh tương đương bản Pro.Chi phí: Nano Banana 2 API có mức giá rẻ hơn đáng kể. Ví dụ, một ảnh độ phân giải 1024x1024 trước đây có giá khoảng $0.13 thì nay với Nano Banana 2 chỉ còn khoảng $0.07. Tuy vẫn còn hơi cao nhưng Google đã cố gắng giảm giá để mọi người dễ tiếp cận hơn.Đối tượng người dùng: Nano Banana 2 chắc chắn tập trung vào nhiều người dùng hơn khi người dùng miễn phí cũng đã có thể trải nghiệm thay vì chỉ giới hạn cho các gói trả phí Pro hay Ultra như trước đây.Tính năng kế thừa: Nano Banana 2 đã được kế thừa các tính năng cao cấp từ bản Pro như khả năng duy trì tính nhất quán của nhân vật và diễn giải các câu lệnh phức tạp.Các đặc điểm nổi bật của Nano Banana 2 giống với Nano Banana ProTính nhất quán của đối tượng: Đây là một nâng cấp quá hữu dụng nhưng quen thuộc đối với những ai làm marketing, tạo truyện tranh, tạo ảnh. Tính năng này của Nano Banana 2 giống với bản Pro khi cho phép giữ nguyên ngoại hình của tối đa 5 nhân vật và độ ổn định của 14 vật thể trong cùng một quy trình làm việc.Hiển thị văn bản chính xác và đa ngôn ngữ: Nỗi lo về lỗi chính tả hay rào cản ngôn ngữ trên hình ảnh AI giờ đây không còn lo lắng khi dùng Nano Banana. Toàn bộ những tính năng vốn làm nên tên tuổi của dòng Pro từ khả năng hiển thị đúng chính tả đến tính năng dịch thuật văn bản trực tiếp trong ảnh hiện đã được tích hợp trên Nano Banana 2. Khả năng ảnh bị lỗi chính tả, vỡ font hay nhầm ngôn ngữ đã giảm xuống rất thấp, rất hiếm khi xảy ra.Kết nối thông tin thời gian thực: Nano Banana 2 sử dụng Gemini và thông tin từ web search nên có thể cập nhật các thay đổi theo thời gian thực để dựng đúng các đối tượng cụ thể, tránh tình trạng lạc đề khi tạo ảnh.Độ phân giải cũng rất pro: Nano Banana 2 cũng rút ngắn khoảng cách tính năng với dòng pro khi đã hỗ trợ độ phân giải đầu ra từ 512px đến 4K. Người dùng có thêm nhiều tùy chọn tỷ lệ khung hình mới như 4:1, 1:4, 8:1 và 1:8.Tính minh bạch: Google đã đưa tất cả hình ảnh tạo ra bởi Nano Banana 2 đều được nhúng watermark bằng hệ thống SynthID và tuân thủ chuẩn C2PA để xác minh nguồn gốc AI.Cách sử dụng Nano Banana 2 trên ứng dụng GeminiBạn có thể dễ dàng trải nghiệm Nano Banana 2 trực tiếp trên Gemini app hoặc Google AI studio dù sử dụng gói miễn phí hay pro hoặc ultra:Bất ngờ: Thật sự bất ngờ khi mà Nano Banana 2 cho chọn trực tiếp kiểu ảnh đầu ra với mẫu ở ngay trên Gemini app mà không cần phải nhập chữ vào prompt nữa. Tuy kết quả vẫn cho ra chưa được ưng ý cho lắm nhưng khi không cần nhập prompt nữa giảm thiểu khả năng quên ghi vào style ảnh để Nano Banana có thể đưa ra những tấm ảnh đúng ý người dùng.Còn đối với chọn khung hình người dùng vẫn cần chọn khung hình viết trực tiếp vào prompt, đây là điều mình rất nhiều khi quên khi vào prompt.Lưu ý: Nếu bạn là người dùng Pro/Ultra và cần độ chính xác dữ kiện tối đa, bạn vẫn có thể gọi lại Nano Banana Pro thông qua menu ba chấm (chọn regenerate/redo).Cuộc đối đầu của Nano Banana 2 với GPT Image 1.5Tuy là GPT Image 1.5 nên so sánh với dòng Pro nhưng mình vẫn muốn hướng đến sự so sánh thú vị khi mà GPT Image 1.5 và Nano Banana 2 hướng đến những mục tiêu tạo ảnh khác nhau và người dùng khác nhau:Sự khác nhau về triết lý thiết kế giữa OpenAI và GoogleGPT Image 1.5 thì được OpenAI thiết kế như là một studio sáng tạo tập trung vào độ chính xác. Nó mang lại những trải nghiệm giống với những thiết kế của những bức ảnh đời thường hơn so với Nano Banana.Nano Banana 2 thì lại được ví như một nhà quay phim khi tập trung vào sức mạnh thị giác. Google nhấn mạnh vào tri thức "thế giới thực" để tạo ra những hình ảnh có độ chân thực rất cao, ánh sáng sống động và chi tiết sắc nét nhất có thể.Trải nghiệm thực tế giữa hai mô hình có khác nhau nhiều khôngDựa trên các thử nghiệm đối đầu, kết quả cho thấy sự khác biệt rõ rệt về phong cách:Độ chân thực và phong cách ảnh: GPT Image 1.5 có khả năng tạo ra các bức ảnh mang tính đời thường, có độ nhiễu và tự nhiên hơn giống như ảnh chụp bằng iPhone có đèn flash. Ngược lại, Nano Banana thường cho kết quả quá hoàn hảo, đôi khi trông giống ảnh chụp studio hoặc ảnh quảng cáo đã được hậu kì rất phức tạp rồi.Khả năng tuân thủ prompt: GPT Image 1.5 tất nhiên là nổi bật hơn với khả năng bám sát prompt vì nếu muốn bám sát Prompt thì người dùng Google phải nâng cấp lên bản pro. Ví dụ trong bài kiểm tra tạo lưới (grid) 6x6 với 36 vật thể khác nhau, nó đã hoàn thành chính xác vị trí của từng đối tượng, điều mà các Nano Banana thế hệ trước chắc chắn thất bại. Nano Banana 2 cũng đã cải thiện rất nhiều ở mảng này nhưng đôi khi vẫn có cách hiểu mang tính sắp đặt sẵn hơn.Chữ viết trong ảnh: Cả hai đều đã khắc phục tốt lỗi chính tả trong ảnh, tuy nhiên với GPT Image 1.5 thì thường có bố cục thiết kế giống như các mẫu Canva sẵn có trong khi Nano Banana 2 mạnh về khả năng dịch văn bản ngay bên trong ảnh, ví dụ Nano Banana 2 có khả năng dịch chữ viết trên bia đá ngay trong ảnh.Chỉnh sửa trực tiếp: GPT Image 1.5 mạnh về in-painting thay đổi một chi tiết cụ thể (như màu áo) mà vẫn giữ nguyên khuôn mặt và ánh sáng. Nano Banana 2 lại mạnh về blending, có thể kết hợp tối đa 14 hình ảnh tham chiếu để tạo ra một ảnh phức tạp về độ sáng, chiều sâu, màu sắc.Tốc độ: Cả hai đều cực nhanh. GPT Image 1.5 và Nano Banana 2 đều rất nhanh bằng mắt thường khó mà thấy được cái nào nhanh hơn.Chi phí API: GPT Image 1.5 mang lại mức giá tối ưu hơn cho việc tạo ảnh tiêu chuẩn (khoảng $0.009/ảnh). Dưới đây là bảng so sánh chi phí chi tiết để mọi người tham khảo[CHART_1]Với Nano Banana 2, Google không chỉ chạy đua về mặt công nghệ mà còn tập trung vào trải nghiệm thực tế của người dùng thông qua tốc độ cực nhanh và khả năng kiểm soát hình ảnh chuyên nghiệp. Đây chắc chắn là công cụ không thể bỏ qua cho các nhà sáng tạo nội dung và marketer trong năm 2026.

Nam
2 thg 3, 2026
Anthropic tăng giới hạn sử dụng Claude sau hợp tác với SpaceX

Anthropic vừa công bố hợp tác với SpaceX để tiếp cận hơn 220.000 GPU NVIDIA và ngay lập tức dùng năng lực điện toán mới này để tăng giới hạn sử dụng cho Claude Code lẫn API. Đây là những gì thay đổi và tại sao điều đó quan trọng với người dùng. Tại sao Anthropic lại hợp tác với SpaceX? Trong vài tháng gần đây, Anthropic liên tục ký kết các thỏa thuận điện toán quy mô lớn với Amazon, Google, Microsoft và NVIDIA. Lần này, hãng tiếp tục bổ sung thêm một tên tuổi không ai ngờ tới là SpaceX. Theo thông báo ngày 6/5, Anthropic đã ký thỏa thuận sử dụng toàn bộ năng lực tính toán tại trung tâm dữ liệu Colossus 1 của SpaceX tương đương với hơn 300 megawatt công suất và hơn 220.000 GPU NVIDIA. Toàn bộ năng lực này sẽ được đưa vào sử dụng trong vòng một tháng và sẽ cải thiện trực tiếp trải nghiệm cho người dùng Claude Pro và Claude Max. Colossus 1 là trung tâm dữ liệu AI của SpaceX, hiện là một trong những cụm GPU lớn nhất thế giới. Anthropic là đơn vị thuê toàn bộ năng lực tại đây. Những thay đổi cụ thể về giới hạn sử dụng Nhờ nguồn điện toán mới, Anthropic đã thực hiện ba thay đổi có hiệu lực ngay từ ngày công bố Tăng gấp đôi giới hạn Claude Code theo giờ Giới hạn tốc độ 5 giờ của Claude Code được nhân đôi cho các gói Pro, Max, Team và Enterprise. Nếu trước đây bạn chỉ sử dụng được 10 lệnh chạy Claude Code phức tạp nay được nhân đôi lên thành 20 lần, thay đổi này sẽ giúp ích đáng kể. Tuy nhiên lưu ý là quan trọng là giới hạn tuần (week limit) vẫn giữ nguyên không thay đổi gì cho nên việc tăng giới hạn 5 giờ giúp bạn làm việc cường độ cao hơn trong thời gian ngắn, nhưng có thể khiến bạn chạm mức trần của tuần nhanh hơn. Bỏ giới hạn giờ cao điểm Trước đây, Claude Code tự động giảm giới hạn sử dụng trong khung giờ cao điểm (thường từ 9h sáng đến 3h chiều) đối với tài khoản Pro và Max. Giới hạn này đã được xóa bỏ hoàn toàn vì vậy người dùng giờ đây có thể sử dụng Claude Code với tốc độ đầy đủ bất kể thời điểm trong ngày. Với người dùng thường làm việc vào buổi tối (trùng với giờ bên Mỹ) đây là thay đổi có khả năng có tác động rõ rệt nhất. Tăng mạnh giới hạn API cho các mô hình Claude Opus Giới hạn tốc độ API (rate limit) cho các mô hình Claude Opus được nâng lên đáng kể . Chi tiết mức tăng bằng lần được Anthropic công bố trong bảng sau đây: Thay đổi này đặc biệt quan trọng với các nhà phát triển đang xây dựng ứng dụng trên nền tảng Claude Code Toàn cảnh chiến lược điện toán của Anthropic Thỏa thuận với SpaceX không phải động thái đơn lẻ. Trong vài tháng gần đây, Anthropic đã xây dựng một danh mục đầu tư hạ tầng rất đáng chú ý: Thỏa thuận lên tới 5 gigawatt với Amazon, trong đó gần 1 GW sẽ hoạt động trước cuối 2026 Thỏa thuận 5 GW với Google và Broadcom, dự kiến đưa vào vận hành từ 2027 Quan hệ đối tác chiến lược với Microsoft và NVIDIA, bao gồm 30 tỷ USD năng lực Azure Đầu tư 50 tỷ USD vào hạ tầng AI tại Mỹ cùng Fluidstack Và nay, hơn 300 megawatt từ trung tâm Colossus 1 của SpaceX Anthropic chạy Claude trên nhiều nền tảng phần cứng khác nhau — AWS Trainium, Google TPU và GPU NVIDIA — và cho biết vẫn đang tiếp tục tìm kiếm thêm các nguồn năng lực tính toán mới. Đáng chú ý, trong khuôn khổ thỏa thuận với SpaceX, hai bên cũng bày tỏ quan tâm đến việc phát triển năng lực điện toán AI trên quỹ đạo tức là đặt GPU trên vệ tinh. Đây vẫn là ý tưởng ở giai đoạn rất sớm, nhưng nếu thành hiện thực sẽ là bước ngoặt lớn cho hạ tầng AI toàn cầu. Mở rộng ra thị trường quốc tế Một phần năng lực điện toán mở rộng sẽ được dùng để phục vụ khách hàng doanh nghiệp quốc tế đặc biệt trong các lĩnh vực yêu cầu lưu trữ dữ liệu nội địa như tài chính, y tế và chính phủ. Thỏa thuận với Amazon bao gồm cả năng lực suy luận bổ sung tại châu Á và châu Âu. Anthropic cũng nhấn mạnh rằng họ chỉ mở rộng sang các quốc gia có khung pháp lý dân chủ và chuỗi cung ứng phần cứng an toàn cho thấy một lập trường thể hiện sự thận trọng trong bối cảnh cạnh tranh địa chính trị về AI đang ngày càng gay gắt. Điều này có ý nghĩa gì với người dùng Claude tại Việt Nam? Ở góc độ thực tế, ba thay đổi về giới hạn sử dụng mang lại lợi ích trực tiếp nhất cho những ai đang dùng Claude Code hàng ngày — đặc biệt là lập trình viên và người làm việc liên tục với Claude Code.Việc xóa giới hạn giờ cao điểm cũng có nghĩa là trải nghiệm của người dùng tại Việt Nam (vốn trùng múi giờ với giai đoạn tải nặng tại Mỹ) sẽ ổn định hơn. Về dài hạn, năng lực điện toán lớn hơn thường đồng nghĩa với khả năng triển khai các mô hình mạnh hơn, với chi phí thấp hơn. Đây là nền tảng để Anthropic tiếp tục cạnh tranh với OpenAI và Google trong cuộc đua AI 2026. Anthropic luôn luôn phát triển Anthropic đang đầu tư nghiêm túc vào hạ tầng và hợp tác với SpaceX là bước đi mới nhất trong chiến lược đó. Kết quả gần nhất mà người dùng có thể cảm nhận ngay là Claude Code ít bị giới hạn hơn và tốc độ API chắc chắn sẽ cải thiện. Còn về lâu dài, cuộc chạy đua điện toán giữa các công ty AI lớn hứa hẹn sẽ còn nhiều diễn biến thú vị trong năm 2026.

Nam
8 thg 5, 2026
Google Antigravity công cụ AI thay đổi quy trình làm việc

Bạn gõ một câu lệnh, AI tự lên kế hoạch, mở terminal, viết code, mở trình duyệt web kiểm tra rồi báo lại kết quả, Antigravity làm tất cả trong khi bạn đang uống cà phê. Đó không phải viễn cảnh tương lai, đó là cách Google Antigravity hoạt động và nó vừa thay đổi hoàn toàn cách mình tiếp cận việc xây dựng sản phẩm và quy trình tự động. Google Antigravity là gì? Antigravity là IDE thế hệ mới do Google ra mắt cuối tháng 11 năm 2025 cùng lúc với Gemini 3, được xây dựng trên nền VS Code nhưng với kiến trúc hoàn toàn khác: thay vì AI ngồi ở sidebar gợi ý từng dòng code, AI trong Antigravity làm việc như một agent thực sự một khi đã được cấp quyền thì chúng ta có thể giao task và Antigravity tự hoàn thành task đó để cho ra kết quả rất giống với Manus và Flowith nhưng ở đây Antigravity thiên về màn hình làm việc với code hơn. Điểm khác biệt lớn nhất so với Cursor hay GitHub Copilot là Antigravity không hỏi bạn từng bước mà hoạt động bất đồng bộ đó là khi bạn giao task, agent chạy ngầm trong nền trong khi bạn làm việc khác rồi quay lại xem kết quả. Antigravity hoàn thành một feature Next.js + Supabase điển hình trong 42 giây so với 68 giây của Cursor, và độ chính xác khi refactor đạt 94% so với 78% của Cursor. Antigravity đã có phần mềm hỗ trợ macOS, Windows và Linux nên mọi người không lo về vấn dề phần mềm mà chỉ nên lo về chi phí gọi API. Ngoài sử dụng Gemini 3 và Gemini 3 pro mặc định, Antigravity còn hỗ trợ Claude Sonnet, Claude Opus và GPT-OSS thật tốt khi không bị khoá vào nền tảng của Google khi mà Claude Sonnet, Claude Opus đang dẫn đầu thị trường. Các tính năng tiêu biểu của Antigravity IDE Chỉnh sửa trực tiếp với sự hỗ trợ của AIVới giao diện quen thuộc như VS Code, nơi các lập trình viên có thể chỉnh sửa code tay hoặc nhờ AI hỗ trợ từng đoạn cụ thể. Phù hợp khi bạn muốn kiểm soát từng bước hoặc xử lý những đoạn code cần sự chú ý cao. Điều phối agent chạy song song Đây là điểm khác biệt thực sự của Antigravity thực sự với "mission control" bạn không cần viết code ở đây mà điều phối nhiều agent chạy song song. Ví dụ một agent đang refactor module A, agent khác đang viết test cho module B, agent thứ ba đang debug lỗi UI trên trình duyệt web. Bạn theo dõi tiến độ, để lại comment như trên Google Docs và agent tự điều chỉnh mà không cần dừng lại chờ. Truy cập và điều khiển trình duyệt web Đây là tính năng mình thấy ấn tượng nhất khi mới dùng khi mà Antigravity có thể mở trình duyệt web như Chrome, Firefox,... khi được cấp quyền từ đó nó có thể điều hướng trang web, điền form và kiểm tra giao diện hoàn toàn tự động. Tuy nhiên cần lưu ý rằng Antigravity hoạt động giống hệt như Puppeteer nên chỉ tương tác được với các tác vụ trên trình duyệt và khi cần có thể xử lý ảnh và chụp ảnh màn hình và tất nhiên chưa hoạt động được với những trang web đã cài đặt chặn bot truy cập. Logic của Antigravity rất rõ ràng Đây là tính năng mình thích nhất khi làm việc với Antigravity đó là thay vì đổ raw code ra màn hình, agent tạo ra các deliverable có thể đọc được như task list, implementation plan, screenshot màn hình app đang chạy để bạn kiểm tra logic của agent cả trước và sau khi hoàn thành task, điều này giúp bạn luôn nắm được agent đang làm gì để đánh giá. Antigravity đang được dùng để làm những gì trong thực tế? Nhiều người nghe đến Antigravity và nghĩ ngay đây là công cụ dành riêng cho lập trình viên chuyên nghiệp. Thực tế thì không phải vậy vì phạm vi ứng dụng rộng hơn nhiều so với vẻ ngoài kỹ thuật của nó. Xây dựng và triển khai website Đây là use case phổ biến nhất. Bạn mô tả trang web muốn xây — stack kỹ thuật, tính năng, phong cách thiết kế — agent tự viết code, tự kiểm tra trên browser và tự sửa lỗi. Kết hợp với Google Stitch qua MCP, bạn có thể đi từ thiết kế UI đến sản phẩm chạy thực sự mà không cần chuyển qua lại giữa nhiều công cụ. Ví dụ prompt dùng trong Antigravity: "Xây cho mình một landing page bằng Next.js và Tailwind CSS cho sản phẩm SaaS quản lý công việc nhóm. Có section hero, bảng giá 3 gói và form đăng ký email. Deploy lên localhost và chụp screenshot kết quả." Tự động hóa quy trình lặp lại Một trong những điểm mạnh thực tế nhất. Bạn có thể nhờ Antigravity tự động crawl dữ liệu từ nhiều nguồn, tổng hợp và gửi báo cáo theo lịch, hoặc tự động điền form và thực hiện các thao tác lặp đi lặp lại trên trình duyệt — những việc trước đây cần viết script riêng hoặc dùng công cụ automation phức tạp. Ví dụ prompt: "Mỗi sáng 8 giờ, vào trang thống kê của website mình tại [URL], lấy số liệu pageview và top 5 bài viết và xem thông tin 5 bài viết của trang fanpage Facebook của mình ở trang [URL], tổng hợp thành file markdown và lưu vào thư mục /reports/daily." Lưu ý: Facebook hoàn toàn không thích bot truy cập vào trang của họ cho nên hãy làm sao để bot thao tác gần như con người trên trình duyệt để không bị dính lỗi checkpoint của Facebook có thể dẫn đến khóa tài khoản. Xây dựng hệ thống AI agent Đây là use case mà Antigravity thực sự vượt trội so với các công cụ khác. Thay vì chỉ viết một đoạn code đơn lẻ, bạn có thể mô tả cả một pipeline — ví dụ "tạo hệ thống phân tích review sản phẩm từ nhiều nguồn, phân loại sentiment và tự động tag vào database" — rồi để Antigravity thiết kế kiến trúc agent, phân chia nhiệm vụ và triển khai từng bước. Ví dụ prompt: "Tạo một hệ thống gồm 3 agent: agent 1 crawl review sản phẩm từ Shopee và Lazada mỗi ngày, agent 2 phân tích sentiment và phân loại theo chủ đề, agent 3 tổng hợp thành báo cáo tuần và lưu vào Google Sheets." Refactor và cải thiện codebase có sẵn Nếu bạn có một dự án cũ cần nâng cấp, Antigravity đặc biệt hữu ích khi cần refactor quy mô lớn có thể thay đổi toàn bộ cấu trúc file, cập nhật dependencies, viết test coverage cho code chưa có test. Agent đọc toàn bộ codebase, hiểu ngữ cảnh và thực hiện thay đổi nhất quán trên nhiều file cùng lúc thay vì sửa từng chỗ một. Ví dụ prompt: "Đọc toàn bộ codebase trong thư mục /src, đóng vai chuyên gia bảo mật xem có dính lỗi SQL injection, các lỗ hổng owasp không đề xuất chỉnh sửa sao cho vẫn giữ nguyên logic và đảm bảo không có lỗi sau khi refactor." Nghiên cứu và tổng hợp thông tin từ web Vì Antigravity có thể điều khiển trình duyệt, bạn có thể dùng nó để tự động truy cập nhiều trang web, trích xuất thông tin theo cấu trúc bạn định sẵn và tổng hợp lại thành báo cáo hoặc database — phù hợp với các tác vụ research cần thu thập dữ liệu từ nhiều nguồn mà làm thủ công sẽ rất tốn thời gian. Ví dụ prompt: "Vào 10 trang web tin tức AI này [danh sách URL] và các trang fanpage [danh sách URL] tìm các bài đăng trong 7 ngày qua, trích xuất tiêu đề, tóm tắt 2 câu và link gốc, lưu vào file CSV theo thứ tự mới nhất trước." Các câu hỏi thường gặp khi sử dụng Antigravity Antigravity có miễn phí không? Có cả gói miễn phí và trả phí. Gói miễn phí có quota reset theo tuần với rate limit hạn chế, đủ để thử nghiệm và làm project nhỏ. Gói Pro/Ultra có quota reset mỗi 5 giờ và được ưu tiên cao nhất rất phù hợp nếu bạn dùng Antigravity hàng ngày cho công việc thực tế. Antigravity có làm được việc với file Word, Excel, PDF không? Antigravity cài Puppeteer nên hoạt động chủ yếu qua trình duyệt web và chưa thể tác động trực tiếp vào các loại file như Word, Excel hay PDF. Nếu cần xử lý những file này, bạn phải thêm vào workflow và mention trong phần cấu hình để agent biết cách tiếp cận đúng. AI không phản hồi hoặc bị treo phải làm gì?Đây là lỗi khá phổ biến, đặc biệt vào giờ cao điểm khi nhiều người dùng đồng thời. Trong hầu hết trường hợp, chỉ cần restart lại Antigravity là được hoàn toàn không cần lo mất dữ liệu hay phải thiết lập lại từ đầu. Ngoài ra, nên dùng git và commit thường xuyên trước khi giao task lớn để tránh mất code nếu agent bỏ dở giữa chừng. Antigravity thực sự là công cụ quá mạnh mẽ vì sao chúng ta không thử ngay. Người dùng có thể tải về tại antigravity.google/download và bắt đầu với một project nhỏ — không phải để thử tính năng mà để hiểu tư duy làm việc mới này trước khi đưa vào dự án thực tế.

An
30 thg 3, 2026
WordPress.com chính thức cho phép AI tự động hóa nội dung

Wordpress.com vừa làm điều mà nhiều người chờ đợi 43% số website trên toàn cầu đang chạy trên Wordpress và giờ đây AI có thể tự mình quản lý tất cả chúng. Wordpress.com vừa chính thức cho phép AI agent truy cập, chỉnh sửa và xuất bản nội dung trực tiếp trên website của người dùng thông qua giao thức MCP. Đây chắc chắn phải là thay đổi cực lớn kể từ khi Wordpress đã mở MCP nhưng chỉ cho phép phân tích và báo cáo về website năm 2025. Trước đây để cập nhật, viết mới một bài viết, bạn phải dùng quá nhiều thao tac đăng nhập - tìm đúng bài- chỉnh sửa từng trường rồi nhấn lưu, hoặc nếu dùng AI thì phải kết nối qua các công cụ bên thứ ba phải cài đặt khá rắc rối. Giờ thì bạn chỉ cần nhắn cho AI một câu: "Cập nhật tiêu đề bài mới nhất thành X và thêm đoạn trích này vào." AI sẽ chỉnh sửa trực tiếp ở Wordpress và thực hiện hết phần còn lại mà không phải chuyển qua các nền tảng khác. MCP là gì và nó là thứ đứng sau toàn bộ kết nối? MCP viết tắt của Model Context Protocol là giao thức giúp AI nhìn thấy và tương tác với các ứng dụng bên ngoài. MCP được ông lớn Anthropic tạo ra và hậu thuẫn cho nên nó đã và đang trở thành chuẩn chung cho rất nhiều nhà phát triển AI cho nên mọi người rất yên tâm về sự lâu dài của nó. MCP khác với API ở chỗ nếu API là cái cổng để lập trình viên kết nối hai hệ thống với nhau thì MCP là cái cổng được thiết kế riêng cho AI, giúp mô hình ngôn ngữ hiểu được ngữ cảnh của từng ứng dụng thay vì chỉ nhận dữ liệu thô. WordPress.com đã triển khai MCP từ cuối năm ngoái và tính năng AI agent lần này được xây dựng hoàn toàn trên nền tảng đó. Điểm mạnh là bạn không bị gắn chặt với một AI cụ thể mà có thể kết nối Claude, ChatGPT, Cursor hoặc bất kỳ AI client nào hỗ trợ MCP với cùng một tài khoản WordPress.com. Để kích hoạt, chỉ cần truy cập wordpress.com/mcp và phải bật các tính năng MCP mong muốn rồi các AI như Claude, Gemini, ChatGPT mới có thể kết nối được vào MCP. AI agent làm được gì trên Wordpress Danh sách tính năng Wordpress hỗ trợ chắc chắn dài hơn bạn nghĩ khá nhiều đấy. Tất nhiên sau khi kết nối, bạn có thể ra lệnh bằng ngôn ngữ tự nhiên để thực hiện hầu hết mọi tính năng trong phần cập nhật MCP mới này. Quản lý nội dung: Bạn có thể yêu cầu AI tạo bài viết mới, chỉnh sửa tiêu đề hoặc thêm đoạn trích hoặc chuyển bản nháp sang trạng thái đã xuất bản và ngược lại. AI thậm chí có thể viết một bài blog theo phong cách thường thấy của bạn rồi lưu dưới dạng bản nháp chờ duyệt trước khi đăng chính thức. Quản lý bình luận: Bạn có thể duyệt các bình luận đang chờ xử lý, đánh dấu spam, xóa comment không phù hợp và thậm chí trả lời bình luận mới nhất trên một bài cụ thể, tất cả chỉ bằng một câu lệnh. Tổ chức nội dung: AI có thể tạo danh mục mới, thêm tag vào bài viết và sắp xếp lại cấu trúc phân loại nội dung mà không cần bạn phải mò mẫm qua từng menu trong dashboard. Cập nhật media: Sửa alt text cho ảnh vừa tải lên hoặc cập nhật chú thích theo tên ảnh là những việc nhỏ nhặt nhưng tốn thời gian nếu làm thủ công trên hàng chục bài viết, và AI xử lý điều này chỉ trong vài giây. Theo dõi và khám phá: Bạn có thể hỏi trang nào có lượng truy cập nhiều nhất hoặc đơn giản là yêu cầu tóm tắt các bình luận gần đây hoặc đề xuất 10 chủ đề bài viết tiếp theo dựa trên nội dung hiện có của blog. Dọn dẹp hàng loạt: Xóa tất cả bản nháp đã để quá một năm hoặc chuyển một loạt bài từ trạng thái này sang trạng thái khác là những việc mà trước đây cần plugin hoặc phải làm tay từng bài một. Cần lưu ý gì trước khi dùng AI cho Wordpress? Mặc dù nghe có vẻ tiện lợi, trao quyền cho AI chỉnh sửa trực tiếp website vẫn là việc cần suy nghĩ kỹ. Wordpress.com đã xây dựng một số rào chắn cơ bản đó là bài viết do AI tạo mặc định được lưu dưới dạng bản nháp và không tự xuất bản, trong khi mọi thay đổi đều được ghi lại trong Activity Log để bạn có thể kiểm tra lại bất cứ lúc nào. Tuy nhiên với một số tác vụ như xóa bài hàng loạt hay chuyển trạng thái bài viết lại không có cơ chế hoàn tác đơn giản, vì vậy bạn cần kiểm tra kĩ trước khi ra lệnh tất nhiên phải rõ ràng và có chủ đích. Về chất lượng nội dung, AI có thể viết bài theo phong cách của bạn dựa trên các bài cũ, nhưng "theo phong cách" không có nghĩa là đạt chất lượng tương đương. Bài nháp do AI tạo vẫn cần một lượt đọc lại của con người trước khi đăng, đặc biệt với những chủ đề chuyên sâu hoặc cần độ chính xác cao. Ngoài ra, tính năng xem danh sách người dùng và kiểm tra trạng thái plugin chỉ khả dụng cho tài khoản quản trị viên, đây là giới hạn hợp lý để tránh rủi ro bảo mật không đáng có. Bức tranh rộng hơn khi các nền tảng mở cửa cho AI agent Wordpress.com hiện ghi nhận 20 tỷ lượt xem trang và 409 triệu khách truy cập mỗi tháng. Khi nền tảng chiếm 43% web toàn cầu chính thức mở cửa cho AI agent, câu hỏi không còn là liệu AI có thay đổi cách nội dung được tạo ra không? mà là nội dung do AI tạo sẽ chiếm bao nhiêu phần trăm web trong 2 năm tới ?. Xu hướng này đang diễn ra đồng thời ở nhiều nơi như Meta mua lại Moltbook là mạng xã hội nơi AI agent có thể đăng bài và tương tác, trong khi Anthropic cũng thử nghiệm cho AI viết blog dưới sự giám sát của con người. Wordpress.com không phải người tiên phong về ý tưởng, nhưng họ là người đầu tiên triển khai nó ở quy mô đủ lớn để tạo ra tác động thực sự. Với người dùng phổ thông động thái của Wordpres giúp rào cản vận hành một website đang tiến gần về 0 và bạn không cần biết Wordpress hoạt động như thế nào mà chỉ cần biết mình muốn gì rồi nói ra điều đó. Tuy nhiên chính vì rào cản thấp, nội dung kém chất lượng cũng sẽ xuất hiện tràn lan và khả năng phân biệt nội dung đáng đọc sẽ ngày càng trở thành kỹ năng quan trọng của người dùng web. Nếu bạn đang dùng Wordpress.com, hãy thử truy cập Wordpress và bắt đầu sử dụng các skils viết bài của mình để kết nối tới Wordpress ngay.

An
21 thg 3, 2026