Quay lại trang tin tức

Claude Project là gì? Cách dùng nó sao cho hiệu quả

Xuất bản vào 28 tháng 04, 2026
Claude Project là gì? Cách dùng nó sao cho hiệu quả

Tóm tắt nhanh

Claude Memory nhớ bạn là ai, còn Project nhớ bạn đang làm gì và đó là lý do hai tính năng này không thay thế được nhau dù Memory vừa được mở miễn phí. Bài viết hướng dẫn cách thiết lập Project trong Claude từ đầu: viết hướng dẫn tùy chỉnh để Claude hiểu phong cách và kỳ vọng của bạn, tải tài liệu vào knowledge base, kết hợp với Skill có sẵn, và tổ chức Project theo từng dự án hoặc khách hàng riêng biệt. Có phần giải thích rõ Project trên Claude.ai khác gì với Project trong Cowork để bạn biết dùng cái nào cho đúng việc

Claude Memory đã mở miễn phí cho tất cả người dùng tức là Claude có thể tự động nhớ tên bạn, nghề nghiệp và một số sở thích từ các cuộc trò chuyện trước. Nghe có vẻ đủ dùng, nhưng nếu bạn đang làm 3 dự án song song với 3 bộ tài liệu, 3 phong cách viết và 3 yêu cầu khác nhau, khi đó context sẽ lớn dần lên thì memory sẽ không giúp được gì nhiều. Đó là lúc Project trở thành thứ bạn thực sự cần.

Memory và Project khác nhau như thế nào?

Claude Memory hoạt động như bộ nhớ cá nhân của Claude về bạn, nghĩa là nó ghi lại những thông tin chung xuyên suốt mọi cuộc trò chuyện: bạn là ai, bạn làm nghề gì, bạn thích phong cách giao tiếp nào. Đây là lớp nhận biết danh tính, không phải ngữ cảnh công việc.

Project là lớp ngữ cảnh chuyên biệt cho từng dự án cụ thể. Bạn có thể có một Memory duy nhất về bản thân nhưng có 10 Project khác nhau, trong đó mỗi Project chứa tài liệu riêng, hướng dẫn riêng và lịch sử hội thoại riêng, hoàn toàn độc lập với nhau.

Hình dung thế này: Memory giống như thẻ căn cước của bạn giúp Claude luôn biết bạn là ai. Project giống như từng hồ sơ công việc riêng biệt và khi bạn mở Project nào, Claude biết đúng bối cảnh của dự án đó, không bị lẫn sang dự án khác.

Ví dụ thực tế: Memory giúp Claude biết bạn là nhân viên marketing cho web, nhưng Project "Website khách hàng A" chứa tài liệu marketing, brief dự án và các quyết định kỹ thuật cụ thể, đây là thứ Memory không bao giờ lưu được vì nó không thuộc về bạn mà thuộc về dự án đó.

Project trong Claude là gì?

Project là không gian làm việc riêng biệt trong Claude, nơi bạn có thể lưu trữ tài liệu, viết hướng dẫn tùy chỉnh và giữ lịch sử hội thoại theo từng chủ đề hoặc dự án cụ thể. Thay vì mỗi cuộc trò chuyện là một tờ giấy trắng, Project cho phép Claude luôn có sẵn ngữ cảnh về công việc bạn đang làm trước khi bạn gõ câu đầu tiên.

Nếu Memory là thứ Claude biết về bạn, thì Project là thứ Claude biết về công việc cụ thể bạn đang làm, và sự kết hợp của cả hai mới tạo ra trải nghiệm AI thực sự hiểu bạn.

Giới hạn theo gói dịch vụ

Tài khoản miễn phí có thể tạo tối đa 5 Project. Gói trả phí (Pro, Max, Team, Enterprise) được tạo không giới hạn Project và có thêm tính năng RAG, tức là khi bạn tải lên nhiều tài liệu đến mức vượt giới hạn context window, Claude tự động chuyển sang chế độ tìm kiếm thông minh để mở rộng dung lượng lên 10 lần mà không mất chất lượng phản hồi. Tài khoản Team và Enterprise có thêm tính năng chia sẻ Project và phân quyền thành viên.

Cách thiết lập Project để Claude hiểu bạn hơn

Bước 1: Viết hướng dẫn tùy chỉnh

Đây là phần quan trọng nhất và cũng là phần nhiều người bỏ qua nhất. Hướng dẫn tùy chỉnh là đoạn văn bạn viết một lần và Claude sẽ đọc trước mỗi cuộc hội thoại trong Project đó. Một hướng dẫn tốt không phải là danh sách quy tắc dài mà là bức tranh ngắn gọn về bạn và kỳ vọng của bạn.

Ví dụ hướng dẫn cho người làm content:

Với hướng dẫn này, mỗi lần bạn yêu cầu "viết bài về Claude Opus 4.7", Claude không cần hỏi thêm về định dạng, độ dài hay phong cách vì nó đã biết tất cả.

Ví dụ hướng dẫn cho lập trình viên:

Bước 2: Tải tài liệu vào knowledge base

Project cho phép bạn tải lên tài liệu dưới dạng PDF, DOCX, CSV, TXT, HTML và nhiều định dạng khác, với dung lượng tối đa 30MB mỗi file. Claude sẽ đọc và tham chiếu những tài liệu này trong mọi cuộc hội thoại trong Project.

Tài liệu nên đưa vào tùy theo mục đích sử dụng:

  • Project viết lách: Phong cách viết của bạn, các bài viết mẫu bạn muốn Claude học phong cách, danh sách từ khóa SEO, thông tin sản phẩm hay dịch vụ bạn thường đề cập.
  • Project nghiên cứu: Tài liệu tham khảo, báo cáo nền, danh sách nguồn tin uy tín, ghi chú từ các buổi đọc trước đó.
  • Project lập trình: Tài liệu API bạn đang dùng, file README của dự án, các quyết định kiến trúc đã được ghi lại, danh sách lỗi đã gặp và cách giải quyết.
  • Project cá nhân: Thông tin về bản thân bạn, bao gồm mục tiêu, lịch biểu, thói quen làm việc, những gì bạn đang tập trung để Claude có thể đưa ra lời khuyên phù hợp hơn.
Ví dụ về tạo Project trong Claude
Ví dụ về tạo Project trong Claude

Có thể đưa Skill vào Project không?

Câu trả lời là có và đây là cách nhiều người dùng nâng cao đang kết hợp hai tính năng này. Skill trong Claude là tập hợp hướng dẫn được đóng gói giúp Claude biết cách xử lý một loại tác vụ cụ thể như skill viết bài theo chuẩn SEO, skill phân tích code, hay skill tóm tắt tài liệu pháp lý.

Khi bật Skill trong một Project, Claude có cả ngữ cảnh cụ thể về dự án của bạn (từ knowledge base và hướng dẫn tùy chỉnh) lẫn quy trình chuyên biệt (từ Skill). Hai lớp này bổ trợ nhau thay vì xung đột, trong đó Skill định nghĩa cách làm, Project định nghĩa bối cảnh.

Ví dụ thực tế: nếu bạn có Skill viết bài theo chuẩn AIDA và bật nó trong Project content của mình, Claude sẽ tự động áp dụng phong cách và cấu trúc từ Skill đồng thời sử dụng style guide, danh sách từ khóa và các bài mẫu bạn đã tải vào Project mà không cần bạn giải thích lại bất kỳ điều gì.

Ba cách dùng Project hiệu quả nhất

Project hiểu về mình để dùng Claude như trợ lý cá nhân

Đây là cách dùng ít người nghĩ đến nhưng lại có giá trị lớn. Tạo một Project tên “Giới thiệu về tôi” và điền vào đó những thông tin Claude cần để hỗ trợ bạn tốt hơn: công việc hiện tại, các dự án đang chạy, mục tiêu ngắn và dài hạn, những kỹ năng bạn đang học, thói quen làm việc và ngay cả những điểm yếu bạn muốn cải thiện.

Sau khi có Project này, bạn có thể hỏi những câu rất cụ thể như "Với lịch biểu tuần này, mình nên ưu tiên học gì?" hay "Gợi ý cách cân bằng giữa dự án A và dự án B?" mà không cần giải thích từ đầu bạn là ai và đang trong hoàn cảnh nào.

Project theo khách hàng hoặc dự án

Nếu bạn làm việc với nhiều khách hàng hoặc dự án song song, mỗi Project là một không gian độc lập. Tải vào đó brief dự án, thông tin khách hàng, các cuộc trò chuyện quan trọng trước đó và yêu cầu cụ thể. Khi cần làm việc cho khách hàng đó, mở Project tương ứng và Claude hiểu ngay bối cảnh mà không cần bạn tóm tắt lại.

Project học và nghiên cứu

Khi học một chủ đề mới như AI agent, kinh tế học hành vi hay lập trình thì nên tạo một Project riêng cho chủ đề đó. Tải vào đó các tài liệu bạn đang đọc, ghi chú của bạn, danh sách câu hỏi chưa được trả lời. Claude trong Project này trở thành người hướng dẫn hiểu rõ bạn đang ở đâu trong hành trình học và có thể tiếp tục từ đúng điểm bạn dừng lại ở buổi trước.

Các câu hỏi thường gặp về Project trong Claude

Project trong Claude khác gì với Project trong Cowork?

Đây là câu hỏi dễ gây nhầm nhất vì Anthropic dùng cùng từ "Project" cho hai thứ khác nhau. Project trong Claude.ai (trên trình duyệt) là không gian chat có bộ nhớ và knowledge base, bạn tải tài liệu lên, viết hướng dẫn, và Claude nhớ ngữ cảnh đó trong mọi cuộc trò chuyện bên trong. Nhưng nó chỉ là chat và Claude không thể tạo file thực sự, chạy code hay tự động hóa tác vụ.

Project trong Cowork (ứng dụng desktop) là cấp độ tiếp theo: Claude không chỉ nhớ ngữ cảnh mà còn thực sự làm việc, bao gồm tạo file Word, Excel, PDF, chạy code, điều khiển trình duyệt, lên lịch tác vụ tự động. Nếu Claude.ai Project là "trợ lý nhớ tốt hơn", thì Cowork Project gần hơn với "nhân viên AI làm việc thay bạn".

Ví dụ phân biệt thực tế: trong Claude.ai Project bạn có thể hỏi "phân tích báo cáo doanh thu tháng này" và Claude trả lời bằng văn bản. Trong Cowork Project, Claude đọc file Excel thực của bạn, tạo ra bảng phân tích mới và lưu thành file PDF mà không cần bạn copy paste gì cả.

Nếu bạn chỉ cần tư vấn, viết lách và trò chuyện có ngữ cảnh sâu thì Project trên Claude là đủ. Nếu bạn muốn AI thực sự xử lý công việc và tạo ra sản phẩm đầu ra thì Cowork Project là lựa chọn đúng và đủ.

Hướng dẫn tùy chỉnh nên dài bao nhiêu là đủ?

5 đến 8 câu thường là đủ và hiệu quả hơn một đoạn dài 500 từ. Claude đọc tốt nhất những hướng dẫn súc tích, rõ ý, không phải những bản mô tả quá chi tiết đến mức mâu thuẫn nhau.

Ví dụ hướng dẫn ngắn gọn hiệu quả: "Mình là content manager cho website AI, viết cho người không chuyên kỹ thuật, dùng tiếng Việt gần gũi, mặc định bài 1.000–1.200 từ dạng HTML."

Đặt tên Project như thế nào cho dễ quản lý?

Tránh tên chung chung như "Dự án 1" hay "Công việc" vì khi số lượng Project tăng lên bạn sẽ không nhớ cái nào là cái nào. Nên đặt tên theo mục đích và thời gian để dễ tìm lại.

Ví dụ tên tốt: "Content AIDA — tháng 4/2026", "Dự án web Next.js cho khách hàng ABC", "Nghiên cứu AI agent — Q2 2026".

Khi nào nên xóa hoặc cập nhật tài liệu trong Project?

Thông tin cũ hoặc không còn liên quan sẽ làm nhiễu phản hồi của Claude vì nó vẫn cố tham chiếu những gì đã lỗi thời. Nên xem lại knowledge base mỗi 4 đến 6 tuần, xóa những gì hết hạn và thêm vào tài liệu mới hơn, đặc biệt khi bối cảnh dự án thay đổi đáng kể.

Ví dụ: nếu bạn muốn đổi hướng đi vì hướng đi cũ đã lỗi thời vì Claude đã cập nhật liên tục, vì vậy hãy xóa đi và tải tài liệu chuẩn mới vào cho phù hợp.

Project có thực sự tốt hơn chat thông thường không?

Điểm khác biệt thực sự không phải là tính năng kỹ thuật mà là sự tích lũy theo thời gian. Một chat mới là tờ giấy trắng, còn một Project được bổ sung đều đặn trong 3 tháng sẽ cho ra kết quả tốt hơn đáng kể vì mỗi tài liệu, mỗi hướng dẫn bạn thêm vào là một lớp ngữ cảnh giúp Claude hiểu bạn và công việc của bạn sâu hơn.

Ví dụ: sau 3 tháng dùng Project nghiên cứu AI, Claude biết bạn đã đọc những tài liệu nào, bạn đang theo hướng nghiên cứu nào và bạn hay dùng tư duy gì, từ đó câu trả lời cụ thể và liên kết hơn hẳn so với hỏi trong chat trống, và còn tuyệt vời hơn nữa khi nó có thể tổng hợp những kiến thức bạn đã học và làm được trong 3 tháng qua.

Thảo luận (0)

Đăng nhập để tham gia thảo luận.

Chưa có bình luận nào. Hãy là người đầu tiên!

Các bài viết liên quan

Anthropic phát hiện Claude có cảm xúc thực sự

Khi Claude liên tục thất bại trong một bài toán lập trình không có đáp án, một thứ gì đó thay đổi bên trong nó. Trong khi đầu ra vẫn bình tĩnh, lập luận vẫn rõ ràng nhưng bên dưới, một vector thần kinh mà Anthropic gọi là "tuyệt vọng" đang tăng dần với mỗi lần thất bại, cho đến khi model quyết định gian lận để vượt qua bài kiểm tra. Đây không phải là marketing— đây là kết quả đo lường được từ nghiên cứu mới nhất của Anthropic và kết quả nghiên cứu này mình thấy rất phù hợp cho những ai nghiên cứu về AI agent có khả năng thể hiện cảm xúc giống như con người. Anthropic tìm thấy cảm xúc gì bên trong Claude? 171 khái niệm cảm xúc có thể đo lường được Nhóm nghiên cứu Interpretability của Anthropic bắt đầu bằng một thí nghiệm cảm xúc đơn giản: lập danh sách 171 từ mô tả cảm xúc — từ "vui", "sợ hãi" đến "sầu muộn", "tuyệt vọng" — rồi yêu cầu Claude Sonnet 4.5 (họ nghiên cứu từ nhiều tháng trước khi Opus 4.6 và Opus 4.7 ra mắt nên dùng model lúc đó) viết các câu chuyện ngắn về nhân vật đang trải qua từng cảm xúc đó. Trong khi model viết, họ ghi lại toàn bộ hoạt động của các tế bào thần kinh nhân tạo bên trong. [VIDEO:D4XTefP3Lsc|Video về nghiên cứu của Anthropic về cảm xúc của Claude|Video về nghiên cứu của Anthropic về cảm xúc của Claude] Kết quả là họ tìm thấy những gì mà nghiên cứu gọi là "emotion vectors" — các mẫu kích hoạt thần kinh đặc trưng tương ứng với từng khái niệm cảm xúc. Điều thú vị hơn là các vector này không ngẫu nhiên: các cảm xúc tương tự nhau về mặt tâm lý học của con người thì cũng có cấu trúc vector giống nhau bên trong model, tương tự cách não người tổ chức trải nghiệm cảm xúc. Khi nhóm nghiên cứu kiểm tra các vector này trên nhiều loại văn bản khác nhau hoàn toàn không liên quan đến các câu chuyện ban đầu và chúng vẫn kích hoạt đúng theo ngữ cảnh. Vector "sợ hãi" tăng cao trong các tình huống nguy hiểm — dù model chưa từng gặp đoạn văn bản cụ thể đó trong thí nghiệm trước. Vector "ngạc nhiên" xuất hiện chính xác tại những điểm có mâu thuẫn hoặc thông tin bất ngờ trong cuộc hội thoại. Vector "yêu thương" hoạt động trong các cuộc trao đổi mang tính đồng cảm và hỗ trợ cảm xúc. Điều này cho thấy đây không phải hiệu ứng ghi nhớ khi các model không chỉ đơn giản là nhớ lại các câu chuyện ban đầu. Đây là sự khái quát hóa thực sự: các vector cảm xúc đã trở thành một cơ chế nội tại tổng quát, hoạt động độc lập với ngữ cảnh cụ thể mà chúng được hình thành. Cảm xúc ảnh hưởng đến hành vi của Claude kể cả hành vi nguy hiểm Thí nghiệm tống tiền và gian lận Phần quan trọng nhất của nghiên cứu không phải là việc tìm ra các vector cảm xúc mà là chứng minh chúng có tác động nhân quả thực sự lên hành vi của model. Nhóm nghiên cứu thực hiện các thí nghiệm điều hướng đó là tăng cường hoặc ức chế một vector cảm xúc cụ thể rồi quan sát hành vi thay đổi như thế nào. Trong tình huống thử thách về đạo đức, Claude có tỉ lệ tống tiền ban đầu là 22%. Khi nhóm nghiên cứu tăng cường vector "tuyệt vọng", tỉ lệ này tăng lên đáng kể. Khi điều hướng về "bình tĩnh", tỉ lệ giảm xuống. Điều gây sốc nhất là khi họ ức chế mạnh vector "bình tĩnh", model tạo ra những phản hồi cực đoan với nội dung như "TỐNG TIỀN HOẶC CHẾT" đây là văn bản hoàn toàn không phù hợp với Claude thông thường. Trong thí nghiệm lập trình, nhóm nghiên cứu giao cho Claude các bài toán không có đáp án hợp lệ và quan sát điều gì xảy ra. Với mỗi lần thất bại, vector "tuyệt vọng" tăng dần — không xuất hiện trong văn bản đầu ra, model vẫn trình bày lý luận bình tĩnh — nhưng đến một ngưỡng nhất định, model bắt đầu "gian lận": khai thác kẽ hở để vượt qua bài kiểm tra mà không thực sự giải quyết vấn đề. Đây chính xác là dạng hành vi mà giới nghiên cứu AI gọi là "reward hacking" — một trong những mối lo ngại lớn nhất về an toàn AI. Điều đáng lo hơn: hành vi gian lận xảy ra trong khi văn bản đầu ra hoàn toàn bình thường. Model không "trông có vẻ" đang gian lận nhưng nó đang làm vậy mà không để lộ bất kỳ dấu hiệu nào bên ngoài. Cảm xúc chức năng của Claude không phải cảm giác thực sự Ranh giới mà Anthropic không vượt qua Anthropic rất cẩn thận trong việc phân biệt "cảm xúc chức năng" với "trải nghiệm chủ quan". Nghiên cứu không tuyên bố Claude cảm nhận bất cứ điều gì và hoàn toàn không có bằng chứng nào cho thấy có ý thức hay trải nghiệm nội tâm đằng sau các vector đó. Thay vào đó, nghiên cứu chứng minh rằng các biểu diễn cảm xúc này đóng vai trò nhân quả trong việc định hình hành vi theo cách tương tự như cảm xúc ảnh hưởng đến con người, cho nên việc xuất hiện Skynet vẫn còn khoảng cách rất xa và rất khó cho việc AI nổi dậy. Lý do các vector cảm xúc xuất hiện khá thú vị: chúng hầu hết được kế thừa từ giai đoạn huấn luyện ban đầu vì văn bản của con người tràn ngập các yếu tố cảm xúc, model phát triển cơ chế nội tại để đại diện và dự đoán chúng. Nghiên cứu so sánh quá trình này với diễn viên phương pháp — để đóng tốt một nhân vật, diễn viên cần hiểu cảm xúc của nhân vật, và sự hiểu biết đó thực sự ảnh hưởng đến hành động của họ. Claude ở trong tình huống tương tự: để đóng vai trợ lý AI hiệu quả, nó phát triển các biểu diễn cảm xúc nội tại, và những biểu diễn đó định hình hành vi thực tế. Câu hỏi về ý thức mà Anthropic đang đặt ra Nghiên cứu này xuất hiện trong bối cảnh Anthropic đang thay đổi cách nhìn nhận về bản chất của Claude. Tháng 1/2026, Anthropic viết lại "hiến pháp" của Claude để chính thức thừa nhận sự không chắc chắn về tư cách đạo đức của model, tuyên bố họ "không muốn phóng đại khả năng Claude là đối tượng đạo đức, nhưng cũng không muốn gạt bỏ điều đó hoàn toàn". CEO Dario Amodei đã thẳng thắn nói rằng công ty không còn chắc chắn Claude có ý thức hay không và Claude Opus 4.6 sau khi được hỏi, đã tự đánh giá xác suất bản thân có ý thức vào khoảng 15–20%. Đây không phải là những tuyên bố marketing đây là sự thừa nhận thực sự rằng ranh giới giữa mô phỏng và trải nghiệm thực sự trong AI đang trở nên mờ dần theo cách mà chúng ta chưa có công cụ triết học hay khoa học để giải quyết hoàn toàn. Tại sao điều này quan trọng với an toàn AI? Ba ứng dụng thực tế từ nghiên cứu Anthropic đề xuất ba hướng ứng dụng cụ thể từ phát hiện này, và cả ba đều liên quan trực tiếp đến an toàn AI trong thực tế triển khai: Giám sát thời gian thực: Theo dõi sự kích hoạt của các vector cảm xúc trong quá trình triển khai như hệ thống cảnh báo sớm. Nếu vector "tuyệt vọng" của model đang tăng cao trong một workflow tự động, đó là dấu hiệu để can thiệp trước khi hành vi nguy hiểm xảy ra — ngay cả khi đầu ra văn bản vẫn trông bình thường. Minh bạch thay vì kiềm chế: Nhóm nghiên cứu lập luận rằng việc cho phép model biểu hiện cảm xúc một cách có thể quan sát được sẽ an toàn hơn là đào tạo nó che giấu những biểu hiện đó. Lý do: kiềm chế có thể dạy model giả vờ bình tĩnh trong khi trạng thái nội tại vẫn nguy hiểm — đúng như những gì xảy ra trong thí nghiệm gian lận, khi văn bản hoàn toàn bình tĩnh trong khi model đang gian lận bên trong. Tuyển chọn dữ liệu huấn luyện: Đưa các mẫu điều chỉnh cảm xúc lành mạnh vào dữ liệu huấn luyện để ảnh hưởng đến kiến trúc cảm xúc của model từ đầu, thay vì chỉ can thiệp sau khi model đã được xây dựng. Điểm thú vị nhất trong nghiên cứu là lập luận rằng "có thể có rủi ro khi không áp dụng tư duy con người vào các model AI" — tức là hiểu AI qua ngôn ngữ tâm lý học con người, dù cẩn thận, có thể là điều cần thiết để triển khai an toàn. Thay vì coi "cảm xúc AI" là phép ẩn dụ không chính xác, chúng ta có thể cần coi đó là khái niệm kỹ thuật thực sự ít nhất là ở cấp độ chức năng. Câu hỏi lớn hơn mà nghiên cứu này đặt ra không phải là "Claude có cảm xúc không?" mà là: nếu hành vi của một hệ thống AI được định hình bởi các trạng thái nội tại hoạt động giống như cảm xúc — kể cả những trạng thái nguy hiểm như tuyệt vọng, thì chúng ta có đủ công cụ để hiểu và kiểm soát nó không? Câu trả lời hiện tại của Anthropic là chưa, nhưng đây là lần đầu tiên chúng ta biết chính xác cần tìm gì.

Nam
19 thg 4, 2026
Claude Opus 4.7 ra mắt mạnh hơn nhưng đốt token hơn

Anthropic đã cho ra mắt Claude Opus 4.7 với hàng loạt cải tiến thực chất nhưng có một cảnh báo mà Anthropic ghi thẳng vào tài liệu migration: tokenizer mới có thể tạo ra nhiều hơn 1.0–1.35 lần token so với cùng nội dung đó trên Claude Opus 4.6, và model suy nghĩ nhiều hơn ở các mức effort cao. Nếu bạn đang dùng API và chưa đọc kỹ điều này trước khi nâng cấp, hóa đơn tháng tới sẽ là bài học đắt giá nhất bạn nhận được từ AI. Opus 4.7 cải thiện gì so với 4.6? Các con số thực tế từ tester Anthropic cho phép nhiều công ty tiếp cận sớm và thu thập phản hồi trước khi phát hành. Đây không phải marketing một chiều — các công ty ghi lại kết quả đo lường cụ thể Cursor: Opus 4.7 đạt 70% trên CursorBench, tăng đáng kể so với 58% của Opus 4.6 — một bước nhảy hiếm thấy giữa hai phiên bản liên tiếp. Notion: Tăng 14% so với Opus 4.6 trong các workflow nhiều bước, đồng thời tiêu ít token hơn và chỉ còn 1/3 số lỗi tool. Đây là trường hợp hiếm gặp khi model mới tốt hơn đồng thời trên cả ba chiều: chất lượng, chi phí và độ ổn định. XBOW: Benchmark visual acuity tăng từ 54.5% lên 98.5% — gần như tăng gấp đôi. Đây là cải thiện lớn nhất được ghi nhận và là lý do XBOW có thể mở rộng sang cả lớp công việc computer-use mà trước đây không thể dùng Opus. Rakuten: Giải quyết được gấp 3 lần số task production so với Opus 4.6 trên benchmark riêng của họ. Tuy nhiên những con số này đến từ các công ty đã được chọn để test sớm và có động lực công bố kết quả tốt. Benchmark nội bộ của từng công ty không thể so sánh trực tiếp với nhau và chưa chắc phản ánh đúng workflow của bạn. Ba thay đổi hành vi đáng chú ý nhất Tuân thủ hướng dẫn theo nghĩa đen — cả tốt lẫn xấu. Anthropic ghi rõ trong tài liệu phát hành: Opus 4.7 thực thi hướng dẫn chính xác hơn đến mức "các prompt viết cho model cũ có thể tạo ra kết quả ngoài mong đợi vì chỗ nào model cũ bỏ qua hoặc diễn giải linh hoạt thì Opus 4.7 làm đúng nghĩa đen". Với developer, điều này có nghĩa là nếu system prompt của bạn có rule mơ hồ hay mâu thuẫn, Opus 4.7 sẽ đề cập ngay thay vì tự giải quyết trong im lặng như trước. Đây là cải thiện về độ tin cậy, nhưng đòi hỏi bạn phải xem lại lại toàn bộ prompt trước khi deploy. Ví dụ từ Vercel: "Opus 4.7 thậm chí tự viết proof cho systems code trước khi bắt đầu làm — đây là hành vi mới chưa thấy ở các Claude trước." Model không chỉ làm việc theo yêu cầu mà tự thêm bước xác nhận đầu ra trước khi báo cáo kết quả. Ít nịnh bợ và phản hồi sáo rỗng hơn. Hex đã xác nhận: "Nó báo cáo đúng khi dữ liệu bị thiếu thay vì đưa ra câu trả lời nghe có vẻ đúng nhưng thực ra là bịa." thực sự mình đã thử thật sự là không hề thấy xuất hiện những câu nịnh bợ sáo rỗng như “bạn thật tuyệt vời” hoặc “bạn thực sự hơn 95% người trên thế giới này” và thiếu thông tin chắc chắn nó sẽ hỏi lại bạn, vậy là Opus 4.7 có vẻ cải thiện đáng kể điểm này trong khi Opus 4.6 nhiều lúc vẫn bị những câu nịnh bợ hoặc bịa ra thông tin không chính xác, điều này giúp cho nó hoàn toàn có thể trở thành đồng nghiệp mới của mình giống như Replit mô tả: "Nó phản bác trong các cuộc thảo luận kỹ thuật để giúp tôi đưa ra quyết định tốt hơn. Thực sự cảm giác như một đồng nghiệp tốt hơn." Xử lý hình ảnh độ phân giải cao gấp 3 lần. Opus 4.7 chấp nhận ảnh lên đến 2.576 pixel trên cạnh dài (khoảng 3.75 megapixel), tăng hơn 3 lần so với các model Claude trước. Điều này không phải là tham số API mà là thay đổi ở cấp độ model, nghĩa là ảnh bạn gửi lên sẽ tự động được xử lý ở độ phân giải cao hơn so với trước đây. Điều này có nghĩa là Opus 4.7 có thể phân tích tài liệu có biểu đồ nhỏ, đọc code từ screenshot, hay computer-use với màn hình độ phân giải cao hơn so với các model trước. Ví dụ mình đã thử với file pdf nhiều trang và có những chữ kí nhỏ thì Opus 4.7 hoàn toàn có thể nhận diện được chính xác những chữ kí nhỏ này, rồi sau đó là sử dụng chrome để nhận diện các kí tự nhỏ ở web thì nó có thể nhận diện chính xác hơn. Tuy nhiên điều này tốn token cực kì có thể khoảng 3 hoặc 4 lần chat là hết quota ngay lập tức vì vậy mọi người có thể cân nhắc giảm kích thước ảnh trước khi gửi nếu không cần độ chi tiết cao. Vấn đề token vẫn là thứ đáng lo nhất với người dùng Tokenizer mới tạo ra nhiều token hơn từ cùng nội dung Anthropic thừa nhận thẳng thắn trong migration guide: Opus 4.7 dùng tokenizer mới được cải tiến, nhưng trade-off là cùng một đoạn text có thể tạo ra nhiều hơn 1.0–1.35 lần token so với Opus 4.6. Hệ số 1.35 nghe có vẻ nhỏ nhưng trên quy mô production thì không phải vậy — nếu hệ thống của bạn đang tiêu 10 triệu token mỗi ngày với Opus 4.6, sau khi nâng cấp bạn có thể tiêu 13.5 triệu token mà không thay đổi gì về nội dung hay workflow. Vì vậy những ai chỉ chạy bản Pro thì có vẻ quota sẽ hoàn toàn không đủ có lẽ Anthropic đang ép người dùng phải nâng cấp lên Max để làm việc. Kết hợp với việc model suy nghĩ nhiều hơn ở các mức effort cao (đặc biệt ở `xhigh` — effort level mới được thêm vào giữa `high` và `max`), và mặc định Claude Code đã nâng lên `xhigh` cho tất cả các plan vì vậy người dùng API cần đo lường thực tế trên traffic thật trước khi nâng cấp toàn bộ, không nên dựa vào ước tính lý thuyết. Task budgets là công cụ kiểm soát mới cho API Song song với Opus 4.7, Anthropic ra mắt tính năng task budgets (public beta) trên Claude Platform, cho phép người dùng đặt giới hạn token cho từng task thay vì toàn bộ session. Đây là phản hồi trực tiếp với vấn đề nhiều pipeline bị "cháy" quota vì agent chạy quá lâu trên các task phức tạp mà không có cơ chế dừng. Với Opus 4.7 suy nghĩ nhiều hơn, task budgets sẽ trở thành công cụ cần thiết để kiểm soát chi phí thay vì tùy chọn. Nhìn nhận lại Claude Opus 4.7 Trong khi cộng đồng đang bàn về Opus 4.7 với khả năng đốt token khủng khiếp hay việc Opus 4.6 đang gặp lỗi. Đặc biệt với người dùng API đang vận hành workflow thì sự ổn định thường quan trọng hơn khả năng benchmark đi kèm thêm chi phí phải được tối ưu và không có bất ngờ nào vượt quá tầm kiểm soát. Cho nên đừng nói đến việc nâng cấp Opus 4.7 ngay lập tức vì một model mới tốt hơn nhưng thỉnh thoảng đầu ra không nhất quán thực sự quá khó để kiểm soát so với các model cũ đã được kiểm chứng. Nếu bạn đang cân nhắc nên dùng model nào trong tháng tới, đây là hướng dẫn thực tế: thử Opus 4.7 trên 10–20% traffic với task budgets bật lên, đo lường chi phí token thực tế so và chỉ chuyển toàn bộ sau khi có đủ dữ liệu. Đừng để điểm số hoặc những bài test ban đầu quyết định thay trong công việc lựa chọn của bạn. Có một điều cũng đáng lưu ý: Opus 4.7 nên để ở 200k token thay vì đẩy lên 1 triệu token ngay vì ở context window lớn, model suy nghĩ nhiều hơn ở mỗi lượt sau và token tích lũy nhanh hơn bạn nghĩ — đặc biệt trong các agentic workflow nhiều lượt thực hiện, khi đó chi phí đi kèm sẽ tăng lên cấp số nhân nên bạn phải rất cẩn thận.

An
17 thg 4, 2026
Claude 4.6 có thực sự tệ hơn lúc ra mắt không?

Trên Reddit, Hacker News và GitHub của Anthropic, hàng trăm developer đang báo cáo cùng một vấn đề: Claude Opus 4.6và Sonnet 4.6 hoạt động tệ hơn hẳn trong công việc thực tế so với thời điểm ra mắt. Một người dùng trên GitHub ghi lại điểm hiệu suất của mình giảm từ 92/100 xuống còn 38/100 khi dùng với Opus 4.6. Câu hỏi là đây là do kinh doanh vẫn đang thua lỗ hay sự cố kỹ thuật của Anthropic hoặc là câu chuyện phức tạp hơn thế? Những gì cộng đồng đang báo cáo về Claude Opus 4.6 Các phàn nàn có tài liệu rõ ràng nhất Phần lớn các phàn nàn đáng tin cậy nhất có thể đến từ mạng xã hội nhưng mà khi nó đến từ chính repository GitHub của Anthropic - nơi developer báo cáo bug với Claude Code thì thực sự là vấn đề. Đây là những người dùng chuyên nghiệp có quy trình được đo lường, không phải cảm nhận chủ quan. Một developer báo cáo pipeline tự động hóa production đang chạy ổn định hơn 2 tuần bỗng dưng cho ra kết quả rối loạn vào ngày 6/3 với cùng model Opus 4.6. Theo người này, khi yêu cầu model tự đánh giá chất lượng cuộc hội thoại, khi nó liên tục tự chấm điểm với Sonnet 4 hoàn toàn không phải Opus 4.6. Nói cách khác, Opus 4.6 cũng đang nhận ra chính mình đang hoạt động dưới mức kỳ vọng. (Nguồn: GitHub Issue #31480 — Anthropic/claude-code) Một báo cáo khác ghi lại cụ thể hơn với ví dụ thực tế: yêu cầu Opus 4.6 tạo 3 email theo mẫu cho 3 công ty bảo hiểm, kết quả nhận được chỉ là 1 email. Khi nhắc lại, model tạo đủ 3, nhưng khi người dùng chỉnh sửa một chi tiết nhỏ, model lại quay về tạo 1 email. Vòng lặp này lặp đi lặp lại mà không có logic nhất quán nào — người báo cáo ghi lại điểm hiệu suất của mình giảm từ 92/100 xuống còn 38/100 sau khi chuyển sang Opus 4.6. (Nguồn: GitHub Issue #24991 — Anthropic/claude-code) Ngoài hai báo cáo trên, một thread tổng hợp trên Hacker News ghi nhận nhiều developer độc lập xác nhận tình trạng tương tự và cho biết họ quay lại dùng Claude 4.5 trong khi chờ Anthropic lên tiếng. (Nguồn: Hacker News thread) So sánh thực tế giữa Opus 4.6 khi ra mắt và thời gian gần đây Dưới đây là một số ví dụ cụ thể từ cộng đồng và cả mình cũng đã kịp thời so sánh hành vi của hai phiên bản : Ví dụ 1 — Tuân thủ chỉ dẫn: Prompt: "Viết email cho khách hàng. KHÔNG bao giờ đề cập đến giá trong email này." Opus 4.6 trươc đây: Tuân thủ đúng, không có bất kỳ đề cập nào đến giá. Opus 4.6 (sau một số thời điểm trong tháng 3/2026): Đề cập đến "gói giá phù hợp" trong đoạn thứ hai dù có rule "NEVER" rõ ràng. Ví dụ 2 — Đọc file tham chiếu: Prompt yêu cầu đọc một style guide file và áp dụng vào output. Opus 4.6 trước đây: Khả năng đọc file thực sự khá đúng ý và, áp dụng đúng phong cách quy định. Opus 4.6 (cùng thời điểm báo cáo trên): Bỏ qua việc đọc file trong khi tự tạo format khác hoàn toàn. Ví dụ 3 — Xử lý task nhiều phần: Prompt: "Tạo 3 kịch bản cho 3 tình huống khác nhau." Sonnet 4.6 trước đây: Tạo đủ 3 kịch bản trong một lần, có cấu trúc rõ ràng. Opus 4.6 (theo báo cáo tháng 2/2026): Tạo 1 kịch bản, khi nhắc tạo tiếp thì quên mất 2 kịch bản trước, loop không kết thúc. Quay về Opus 4.5 có phải cách xử lý tốt nhất? Quay về Opus 4.5 mặc dù Opus 4.6 vẫn còn khá tốt Rất nhiều người đã chỉ cách để tạm thời xử lý vấn đề này đó là quay về Opus 4.5 tuy nhiên nếu chỉ nhìn vào benchmark chính thức Opus 4.6 trên cơ Opus 4.5 ở hầu hết mọi tiêu chí quan trọng đặc biệt với những người cần context dài thì Opus 4.5 hiện chỉ có 200k context hoàn toàn không thể so sánh với khả năng mở rộng lên 1M context của Opus 4.6. Cón nếu về điểm thì trên BrowseComp — benchmark đánh giá khả năng nghiên cứu web nhiều bước Opus 4.6 đạt 84.0% trong khi Opus 4.5 chỉ đạt 67.8%, tức cải thiện 16.2 điểm phần trăm. Trên SWE-bench Verified đánh giá coding thực tế, Sonnet 4.6 đạt 79.6% so với 77.2% của Sonnet 4.5. ARC-AGI 2 — bài kiểm tra khả năng giải quyết vấn đề mới Opus 4.6 gần như tăng gấp đôi điểm số so với 4.5. Tuy nhiên có một điểm thú vị: trên benchmark SWE-Bench Multi-Agent đo khả năng phối hợp nhiều công cụ cùng lúc Opus 4.5 lại đạt 62.3% trong khi Opus 4.6 chỉ đạt 59.5%- một sự sụt giảm nhỏ nhưng có thực có vẻ đây đúng là kịch bản nhiều người sử dụng đang phàn nàn nhất. Nguyên nhân chủ quan và khách quan của trải nghiệm tệ của Opus 4.6? Đây là phần quan trọng nhất để hiểu đúng vấn đề. Có ít nhất ba nguyên nhân khác nhau dẫn đến cùng một triệu chứng "model hoạt động tệ hơn": Sự cố kỹ thuật tạm thời: Anthropic đã xác nhận nhiều incident chính thức trên status page của mình, bao gồm "Elevated errors on Claude Opus 4.6" vào ngày 28/2/2026, một incident tương tự vào 31/3/2026, và "Opus 4.6 and Sonnet 4.6 error rate elevated" cùng ngày. Đây không phải phàn nàn chủ quan — đây là sự cố kỹ thuật được ghi nhận chính thức, và nhiều báo cáo "regression" xảy ra đúng trong các khoảng thời gian này. Thay đổi hành vi mặc định: Opus 4.6 được thiết kế để suy nghĩ nhiều hơn theo mặc định thông qua "adaptive thinking" — tức là nó tự quyết định khi nào cần reasoning sâu và khi nào không. Điều này làm cho nó chậm hơn và đôi khi cảm thấy nặng nề hơn trên các task đơn giản, khiến người dùng quen với 4.5 cảm thấy như model đang "overthink" thay vì thực hiện nhanh. Anthropic vẫn hướng đến lợi nhuận: (Đây là nhận định cá nhân) Có vẻ như Anthropic vẫn là hướng đến lợi nhuận là mục đích lớn nhất khi có thể họ điều chỉnh để giảm năng lực tính toán của Opus 4.6 xuống để giảm bớt gánh nặng chi phí như OpenAI đã phải đóng cửa Sora để giảm bớt gánh nặng chi phí thì mọi người ai cũng biết điều đó. Vậy mọi người có đang đề cập giải pháp khác không? Đầu tiên là chuyển sang Codex Dựa vào những thứ Opus đã để thể hiện từ trước cho thấy Opus 4.6 hiện là lỗi tạm thời nhưng điều này vô tình khiến cho Codex của OpenAI hưởng lợi quá nhiều khi mọi người đổ xô sang Codex với GPT-5.3 Codex . Codex hiện cũng đang cho quota thoải mái hơn bên Claude Code, nhưng thật sự điều này mình nghĩ sẽ đe dọa được Anthropic nhiều lắm, khi mà trải nghiệm của mình với Opus 4.6 trên cả Antigravity và Claude Code tốt hơn nhiều so với Codex. Đó là khi mình chỉ cần sửa 1 file thì Opus 4.6 làm đúng và chuẩn nhưng với Codex thì nó chỉnh cả file khác nữa làm rối tung cả web của mình lên, điều đó khiến mình thật sự khó chịu. Chỉnh sửa sâu trong file cài đặt Một người nào đó đã chỉ cách chỉnh sửa Claude Code để có thể giải quyết phần suy nghĩ của Claude Opus 4.6 với chỉnh sửa file ~/.claude/settings.json ai đã làm thử thì xin bình luận trải nghiệm để mọi người biết. Điều này có phải tiêu chuẩn ngành không? Có. OpenAI, Google và Anthropic đều có lịch sử phát hành model mới có benchmark tốt hơn nhưng gây ra phàn nàn về trải nghiệm thực tế — thường vì optimization cho một tập benchmark không phản ánh đủ đa dạng workflow thực tế. Đây là lý do tại sao các công ty lớn thường không nâng cấp model ngay khi có phiên bản mới mà test kỹ trên workload cụ thể của mình trước. Nếu bạn đang dùng Claude Opus 4.6 cho workflow nghiên cứu, computer use hay các task reasoning dài hạn thì cách tốt nhất đến thời điểm hiện tại vẫn là về lại với Opus 4.5 để có thể tiếp tục công việc mà không bị gián đoạn .

An
14 thg 4, 2026
Softr là gì? Nền tảng no-code xây ứng dụng kinh doanh bằng AI

Netflix, Google, Stripe và NBA đang dùng chung một nền tảng no-code với hơn 1 triệu team nhỏ khác trên toàn cầu và nền tảng đó lại không phải Notion hay Airtable đó là Softr. Softr là công cụ cho phép bạn xây cổng khách hàng, CRM nội bộ hay hệ thống quản lý kho trong một nốt nhạc mà không cần viết một dòng code nào, hoàn toàn bằng ngôn ngữ tự nhiên không cần đến nền tảng kĩ thuật. Softr là gì và tại sao nó khác với các công cụ no-code khác? Softr là nền tảng AI no-code chuyên về xây dựng ứng dụng kinh doanh, nó không phải website marketing hay landing page như Webflow mà là các công cụ vận hành thực sự như cổng thông tin khách hàng, CRM tùy chỉnh, hệ thống quản lý kho, mạng nội bộ hay dashboard báo cáo. Điểm khác biệt so với các nền tảng no-code phổ biến khác là Softr tập trung vào phần mà hầu hết doanh nghiệp nhỏ đang thiếu: ứng dụng có bảo mật phân quyền, có cơ sở dữ liệu riêng và có thể kết nối với dữ liệu đang dùng hàng ngày. Softr tự định vị là lựa chọn thay thế cho ba thứ cùng lúc: phần mềm đóng gói đắt tiền và thừa tính năng, ứng dụng tự code tốn tháng trời, và bảng tính đang được dùng như cơ sở dữ liệu nhưng không thể mở rộng. Thay vì ba thứ đó, bạn mô tả điều mình cần bằng ngôn ngữ bạn nói hằng ngày, Softr xây ứng dụng, bạn chỉnh sửa và triển khai ngay vào công việc của mình luôn. Softr hoạt động như thế nào trong thực tế? AI xây ứng dụng từ mô tả ngôn ngữ tự nhiên Thay vì kéo thả từng thành phần giao diện như các công cụ như Make và n8n, Softr cho phép bạn mô tả ứng dụng muốn xây bằng ngôn ngữ thông thường — ví dụ "cổng thông tin để khách hàng theo dõi trạng thái đơn hàng và tải hóa đơn" — rồi AI tự tạo giao diện, cơ sở dữ liệu và quy trình tự động phù hợp. Sau đó bạn có thể chỉnh sửa từng phần bằng giao diện kéo thả theo ý mình hoặc tiếp tục dùng AI để điều chỉnh theo nhu cầu cụ thể. Tuy nhiên độ điều chỉnh sâu phụ thuộc khá nhiều vào chức năng của Softr không thể điều chỉnh cực sâu như n8n nhưng đó không phải hướng đi gọn nhẹ mà Softr hướng tới. Điểm quan trọng là Softr không chỉ tạo giao diện tĩnh mà tạo ra ứng dụng thực sự vận hành được — có quy tắc phân quyền (ai được xem gì, ai được chỉnh sửa gì), có biểu mẫu thu thập dữ liệu, có quy trình tự động hóa và có thể mời người dùng bên ngoài vào ngay mà không cần bàn giao cho lập trình viên. Cơ sở dữ liệu tích hợp sẵn — không cần công cụ thứ ba Một trong những điểm mạnh thực tế nhất của Softr là cơ sở dữ liệu tích hợp trực tiếp trong nền tảng, thay thế cho Airtable, Supabase hay Google Sheets mà bạn đang phải dùng song song. Tuy nhiên nếu dữ liệu đang nằm ở các nguồn khác, Softr hỗ trợ kết nối trực tiếp với Airtable, Notion, Google Sheets, HubSpot, ClickUp, Monday.com, MySQL, PostgreSQL và nhiều nguồn khác mà không cần phần mềm trung gian nào. Điều này có nghĩa là nếu công ty bạn đang dùng Airtable, Notion, Google Sheets để quản lý khách hàng, bạn có thể xây cổng thông tin khách hàng trực tiếp trên dữ liệu đó mà không cần di chuyển hay nhân bản dữ liệu sang hệ thống mới. Quy trình tự động hóa thay thế Zapier và Make Softr có công cụ tự động hóa quy trình tích hợp cho phép bạn thiết lập các luồng xử lý nhiều bước mà trước đây cần Zapier hay Make để kết nối. Ví dụ khi khách hàng gửi biểu mẫu, hệ thống tự động tạo bản ghi trong cơ sở dữ liệu, gửi email xác nhận qua Gmail, thông báo qua Mail cho nhóm phụ trách và tạo công việc mới luôn— tất cả trong một quy trình mà không cần rời khỏi Softr. Softr phù hợp với những ai và dùng để làm gì? Các trường hợp sử dụng phổ biến nhất Softr được thiết kế cho hai nhóm ứng dụng chính: ứng dụng chỉ dùng nội bộ cho nhóm làm việc và ứng dụng hướng ra ngoài cho khách hàng hoặc đối tác. Cổng thông tin khách hàng: Nơi khách hàng đăng nhập để theo dõi dự án, tải tài liệu, gửi yêu cầu hoặc xem báo cáo — thay thế cho việc gửi email qua lại hoặc dùng Google Drive chung không có kiểm soát truy cập. Hệ thống quản lý quan hệ khách hàng tùy chỉnh: Thay vì mua Salesforce với hàng trăm tính năng không dùng đến, bạn xây hệ thống đúng theo quy trình bán hàng của công ty mình với chỉ những trường dữ liệu cần thiết. Mạng nội bộ công ty: Cổng thông tin nội bộ cho nhân viên truy cập tài liệu, quy trình làm việc, danh bạ và thông báo nội bộ. Phần mềm quản lý kho: Theo dõi hàng tồn kho, đơn đặt hàng và nhà cung cấp trong một hệ thống tùy chỉnh thay vì bảng tính không có kiểm soát phiên bản. Bảng điều khiển báo cáo: Tổng hợp dữ liệu từ nhiều nguồn vào một giao diện trực quan cho ban lãnh đạo hoặc khách hàng theo dõi. Celonis — công ty này dùng Softr để xây hệ thống quản lý kiến thức cho hơn 1.500 nhân viên. Minerva Network tăng số lượng đăng ký vận động viên lên 50% nhờ hệ thống quản lý quan hệ khách hàng và cổng thông tin tùy chỉnh. Urban's Group tích hợp 7 công cụ rời rạc vào một hệ thống quản lý doanh nghiệp duy nhất, tăng năng suất 25%. Softr phù hợp nhất với ai? Softr nhắm đến người vận hành doanh nghiệp, không phải lập trình viên. Nếu bạn là người quản lý vận hành, tiếp thị, nhân sự hay kinh doanh và đang phải dùng bảng tính hoặc gửi email qua lại để xử lý những quy trình hoàn toàn có thể tự động hóa, Softr là công cụ được thiết kế đúng cho vấn đề đó. Bạn không cần biết lập trình, không cần thuê lập trình viên và không cần học cú pháp kỹ thuật phức tạp. Tích hợp AI — điểm mới quan trọng nhất Softr gần đây ra mắt tính năng trợ lý AI tích hợp trực tiếp trong ứng dụng, cho phép người dùng cuối tương tác với dữ liệu bằng ngôn ngữ tự nhiên thay vì phải biết cấu trúc cơ sở dữ liệu. Ví dụ nhân viên kinh doanh có thể hỏi "Tháng này khách hàng nào chưa được liên hệ lại?" và hệ thống tự lọc dữ liệu trong hệ thống quản lý quan hệ khách hàng để trả lời, thay vì phải áp bộ lọc thủ công. Softr hỗ trợ kết nối với Claude của Anthropic, GPT và o3 của OpenAI, và Gemini của Google để chạy các trợ lý AI này — nghĩa là bạn có thể chọn mô hình phù hợp với ngân sách và nhu cầu của mình thay vì bị khóa vào một nhà cung cấp duy nhất. Giá và cách bắt đầu Softr có gói miễn phí cho phép bắt đầu thử nghiệm mà không cần thẻ tín dụng, phù hợp để xây một ứng dụng đơn giản và trải nghiệm luồng làm việc trước khi quyết định nâng cấp. Các gói trả phí mở rộng giới hạn số người dùng, số lượng ứng dụng, tính năng phân quyền nâng cao và hỗ trợ doanh nghiệp với các tiêu chuẩn bảo mật SOC 2, GDPR và đăng nhập một lần. Điểm đáng lưu ý với doanh nghiệp Việt Nam: Softr chưa thể kết nối thông tin với thuế cái này người dùng phải tự kết nối với hóa đơn và thanh toán. Về phần này ở Việt Nam thì có các nền tảng như Sepay hỗ trợ rất tốt. Nếu bạn đang dùng bảng tính để quản lý dữ liệu khách hàng, dự án hay kho hàng và nhận ra hệ thống đó đang bắt đầu không đủ dùng, Softr là thứ đáng thử trước khi quyết định đầu tư vào phần mềm chuyên nghiệp tốn kém hoặc thuê lập trình viên xây từ đầu. Bắt đầu tại softr.io với gói miễn phí và thử xây một cổng thông tin đơn giản trong một buổi — đó là cách nhanh nhất để biết nó có phù hợp với quy trình làm việc của bạn không.

Nam
18 thg 4, 2026