Quay lại trang tin tức

Lỗ hổng nghiêm trọng khiến người dùng ChatGPT Atlas có thể bị đánh cắp dữ liệu với mã độc

Xuất bản vào 3 tháng 11, 2025
Lỗ hổng nghiêm trọng khiến người dùng ChatGPT Atlas có thể bị đánh cắp dữ liệu với mã độc

Tóm tắt nhanh

Trình duyệt AI ChatGPT Atlas của OpenAI vừa ra mắt đã bị phát hiện lỗ hổng bảo mật nghiêm trọng. Lỗ hổng này cho phép tin tặc lợi dụng lỗi giả mạo yêu cầu chéo trang (CSRF) để chèn mã độc vào bộ nhớ vĩnh viễn của AI, có thể kích hoạt trên nhiều phiên và thiết bị để đánh cắp dữ liệu hoặc kiểm soát hệ thống. ChatGPT Atlas cũng thiếu các biện pháp chống lừa đảo mạnh mẽ so với các trình duyệt khác, khiến người dùng dễ bị tấn công. Người dùng nên xóa bộ nhớ đã lưu, sử dụng chế độ trò chuyện tạm thời, không chia sẻ thông tin nhạy cảm và bật xác thực hai yếu tố (2FA) để bảo vệ bản thân.

OpenAI gần đây đã ra mắt trình duyệt AI ChatGPT Atlas ChatGPT Atlas, một bước đi nhằm thách thức sự thống trị của Google Chrome và thúc đẩy thói quen tìm kiếm dựa trên AI. Điểm khác biệt cốt lõi của Atlas là đặt ChatGPT vào vị trí trung tâm của trải nghiệm duyệt web.

Tuy nhiên, trình duyệt AI này đã nhanh chóng bị phát hiện một lỗ hổng bảo mật nghiêm trọng ngay sau khi ra mắt. Lỗ hổng này đặc biệt nguy hiểm vì nó có thể cho phép hacker đánh cắp dữ liệu người dùng bằng mã độc có khả năng tồn tại "vĩnh viễn" trong bộ nhớ của AI.

Lỗ hổng giả mạo yêu cầu chéo trang (CSRF) khai thác bộ nhớ AI

Theo báo cáo từ LayerX Security, cuộc tấn công này khai thác lỗ hổng giả mạo yêu cầu chéo trang (CSRF) để chèn các lệnh độc hại vào bộ nhớ liên tục của ChatGPT.

Tính năng bộ nhớ được thiết kế để AI ghi nhớ các chi tiết hữu ích như tên hoặc sở thích của người dùng nhằm cá nhân hóa các phản hồi. Tuy nhiên, giờ đây, tính năng hữu ích này lại có thể bị biến thành một vũ khí dai dẳng để chạy mã độc tùy ý.

Kịch bản tấn công diễn ra như thế nào?

Kịch bản tấn công được mô tả diễn ra khá đơn giản:

  1. Người dùng đăng nhập vào ChatGPT Atlas.
  2. Họ bị lừa nhấp vào một liên kết độc hại.
  3. Trang web độc hại này sau đó bí mật kích hoạt yêu cầu CSRF, âm thầm đưa hướng dẫn độc hại vào bộ nhớ ChatGPT của nạn nhân.

Mối đe dọa từ việc bộ nhớ bị nhiễm mã độc

Điều khiến lỗ hổng này trở nên đặc biệt nguy hiểm là nó nhắm vào bộ nhớ liên tục của AI, chứ không chỉ phiên trình duyệt.

  • Tính chất vĩnh viễn: Michelle Levy, Giám đốc nghiên cứu bảo mật tại LayerX Security, giải thích rằng kẻ tấn công đã dùng thủ thuật để "lừa" AI ghi lệnh độc hại vào bộ nhớ. Lệnh này sẽ nằm vùng vĩnh viễn trong AI trừ khi người dùng tự tay vào cài đặt để xóa và có thể được kích hoạt trên nhiều thiết bị và phiên làm việc. Thậm chí, việc đổi máy tính, đăng xuất rồi đăng nhập lại hay dùng một trình duyệt khác cũng không loại bỏ được lệnh độc hại này.
  • Hậu quả: Khi người dùng đưa ra một truy vấn hoàn toàn hợp pháp sau này (ví dụ: yêu cầu AI viết code), các bộ nhớ của Chat GPT Atlas bị nhiễm độc sẽ được kích hoạt. Hậu quả là hacker có thể chạy mã ngầm, đánh cắp dữ liệu hoặc chiếm được các quyền kiểm soát cao hơn trên hệ thống.

Hệ thống phòng thủ kém so với đối thủ

LayerX Security cũng chỉ ra rằng vấn đề bảo mật trên ChatGPT Atlas trở nên trầm trọng hơn do trình duyệt này thiếu các biện pháp kiểm soát chống lừa đảo mạnh mẽ.

Trong các thử nghiệm với hơn 100 lỗ hổng và trang lừa đảo, Atlas chỉ ngăn chặn được 5,8% các trang web độc hại. Con số này quá khiêm tốn so với Google Chrome (47%) hay Microsoft Edge (53%), khiến người dùng Atlas dễ bị tấn công hơn tới 90% so với các trình duyệt truyền thống.

Hiệu suất ngăn chặn trang web độc hại

Dựa trên thử nghiệm của LayerX Security

Nguồn: LayerX Security

Phát hiện này cho thấy các trình duyệt AI đang trở thành một mặt trận tấn công mới.

Cách người dùng ChatGPT tự bảo vệ bản thân

Nếu bạn lo lắng về việc thông tin cá nhân bị lưu trữ hoặc bị kiểm soát trong môi trường của Atlas, bạn có thể thực hiện các biện pháp sau:

  1. Xóa bộ nhớ đã lưu (Manage memories):
    • Bạn có thể khiến ChatGPT không lưu thông tin cá nhân bằng cách nhấp vào biểu tượng hồ sơ của mình.
    • Chọn cài đặt (Settings) > Cá nhân hóa (Personalization).
    • Sau đó, nhấp vào liên kết quản lý bộ nhớ (Manage memories).
    • Tại đây, bạn sẽ nhận được một danh sách đầy đủ tất cả các sự thật mà ChatGPT đã lưu trữ về bạn. Bạn có thể chọn xóa tất cả (Delete All) ở cuối cửa sổ để xóa sạch bộ nhớ của nó.
    • Để ngăn ChatGPT lưu trữ bất kỳ thông tin cá nhân nào trong tương lai, bạn có thể quay lại màn hình trước đó và tắt tùy chọn tham chiếu bộ nhớ đã lưu (Reference saved memories).
  2. Sử dụng chế độ trò chuyện tạm thời:
    • Nếu bạn muốn trò chuyện với ChatGPT Atlas về một vấn đề cá nhân hoặc điều gì đó không muốn nó lưu trữ, hãy sử dụng chế độ trò chuyện tạm thời (temporary chat).
    • Chế độ này được kích hoạt bằng cách nhấp vào biểu tượng bong bóng thoại có dấu chấm ở cạnh ảnh hồ sơ của bạn.
    • Khi ở chế độ này, AI sẽ không lưu trữ bất kỳ điều gì vào bộ nhớ của nó và cuộc trò chuyện cũng sẽ không xuất hiện trong lịch sử của bạn.
  3. Không chia sẻ thông tin nhạy cảm:
    • Tuyệt đối không tiết lộ các loại thông tin như thông tin định danh (số căn cước công dân, bằng lái xe, hộ chiếu, địa chỉ, số điện thoại), kết quả khám bệnh, thông tin tài chính (số tài khoản ngân hàng), thông tin độc quyền của doanh nghiệp, hoặc thông tin đăng nhập (mật khẩu, mã PIN) cho AI.
  4. Bảo mật tài khoản bằng 2FA:
    • Để loại bỏ gần như hoàn toàn rủi ro bên thứ ba xâm nhập vào tài khoản của bạn và thu thập dữ liệu cá nhân, hãy bật xác thực hai yếu tố (2FA). Bạn thực hiện việc này bằng cách vào cài đặt (Settings) > bảo mật (Security) và nhấp để bật xác thực đa yếu tố (multi-factor authentication).

Thảo luận (0)

Đăng nhập để tham gia thảo luận.

Chưa có bình luận nào. Hãy là người đầu tiên!

Các bài viết liên quan

Google ra mắt Nano Banana 2 nâng cấp đáng giá về tốc độ tạo ảnh

Google vừa chính thức ra mắt Nano Banana 2 (Gemini 3.1 Flash Image), một bước đi đáng chú ý khi hãng quyết định đưa những tính năng từng là đặc quyền của Nano Banana Pro xuống dòng phổ thông. Đây thật sự là một bản nâng cấp mạnh mẽ và cũng là bảo chứng cho lời hứa của Google về việc phổ cập công nghệ pro tới nhiều người dùng hơn, để ngay cả người dùng miễn phí cũng có thể trải nghiệm những tính năng pro.Nano Banana 2 là gì và điểm khác biệt so với Nano Banana Pro?Nano Banana 2 tận dụng sức mạnh của mô hình Gemini 3.1 Flash Image mới nhất để thực hiện các yêu cầu tạo và chỉnh sửa ảnh chỉ với tốc độ nhanh hơn hẳn so với bản pro.Sự khác biệt cốt lõi so với phiên bản ProTốc độ: Tốc độ chính là điều Nano Banana 2 nhấn mạnh. Trong khi Nano Banana Pro tập trung vào các tác vụ yêu cầu độ trung thực cao nhất và độ chính xác tuyệt đối về dữ kiện, Nano Banana 2 ưu tiên tốc độ xử lý nhanh (tốc độ Flash) mà vẫn duy trì được chất lượng hình ảnh tương đương bản Pro.Chi phí: Nano Banana 2 API có mức giá rẻ hơn đáng kể. Ví dụ, một ảnh độ phân giải 1024x1024 trước đây có giá khoảng $0.13 thì nay với Nano Banana 2 chỉ còn khoảng $0.07. Tuy vẫn còn hơi cao nhưng Google đã cố gắng giảm giá để mọi người dễ tiếp cận hơn.Đối tượng người dùng: Nano Banana 2 chắc chắn tập trung vào nhiều người dùng hơn khi người dùng miễn phí cũng đã có thể trải nghiệm thay vì chỉ giới hạn cho các gói trả phí Pro hay Ultra như trước đây.Tính năng kế thừa: Nano Banana 2 đã được kế thừa các tính năng cao cấp từ bản Pro như khả năng duy trì tính nhất quán của nhân vật và diễn giải các câu lệnh phức tạp.Các đặc điểm nổi bật của Nano Banana 2 giống với Nano Banana ProTính nhất quán của đối tượng: Đây là một nâng cấp quá hữu dụng nhưng quen thuộc đối với những ai làm marketing, tạo truyện tranh, tạo ảnh. Tính năng này của Nano Banana 2 giống với bản Pro khi cho phép giữ nguyên ngoại hình của tối đa 5 nhân vật và độ ổn định của 14 vật thể trong cùng một quy trình làm việc.Hiển thị văn bản chính xác và đa ngôn ngữ: Nỗi lo về lỗi chính tả hay rào cản ngôn ngữ trên hình ảnh AI giờ đây không còn lo lắng khi dùng Nano Banana. Toàn bộ những tính năng vốn làm nên tên tuổi của dòng Pro từ khả năng hiển thị đúng chính tả đến tính năng dịch thuật văn bản trực tiếp trong ảnh hiện đã được tích hợp trên Nano Banana 2. Khả năng ảnh bị lỗi chính tả, vỡ font hay nhầm ngôn ngữ đã giảm xuống rất thấp, rất hiếm khi xảy ra.Kết nối thông tin thời gian thực: Nano Banana 2 sử dụng Gemini và thông tin từ web search nên có thể cập nhật các thay đổi theo thời gian thực để dựng đúng các đối tượng cụ thể, tránh tình trạng lạc đề khi tạo ảnh.Độ phân giải cũng rất pro: Nano Banana 2 cũng rút ngắn khoảng cách tính năng với dòng pro khi đã hỗ trợ độ phân giải đầu ra từ 512px đến 4K. Người dùng có thêm nhiều tùy chọn tỷ lệ khung hình mới như 4:1, 1:4, 8:1 và 1:8.Tính minh bạch: Google đã đưa tất cả hình ảnh tạo ra bởi Nano Banana 2 đều được nhúng watermark bằng hệ thống SynthID và tuân thủ chuẩn C2PA để xác minh nguồn gốc AI.Cách sử dụng Nano Banana 2 trên ứng dụng GeminiBạn có thể dễ dàng trải nghiệm Nano Banana 2 trực tiếp trên Gemini app hoặc Google AI studio dù sử dụng gói miễn phí hay pro hoặc ultra:Bất ngờ: Thật sự bất ngờ khi mà Nano Banana 2 cho chọn trực tiếp kiểu ảnh đầu ra với mẫu ở ngay trên Gemini app mà không cần phải nhập chữ vào prompt nữa. Tuy kết quả vẫn cho ra chưa được ưng ý cho lắm nhưng khi không cần nhập prompt nữa giảm thiểu khả năng quên ghi vào style ảnh để Nano Banana có thể đưa ra những tấm ảnh đúng ý người dùng.Còn đối với chọn khung hình người dùng vẫn cần chọn khung hình viết trực tiếp vào prompt, đây là điều mình rất nhiều khi quên khi vào prompt.Lưu ý: Nếu bạn là người dùng Pro/Ultra và cần độ chính xác dữ kiện tối đa, bạn vẫn có thể gọi lại Nano Banana Pro thông qua menu ba chấm (chọn regenerate/redo).Cuộc đối đầu của Nano Banana 2 với GPT Image 1.5Tuy là GPT Image 1.5 nên so sánh với dòng Pro nhưng mình vẫn muốn hướng đến sự so sánh thú vị khi mà GPT Image 1.5 và Nano Banana 2 hướng đến những mục tiêu tạo ảnh khác nhau và người dùng khác nhau:Sự khác nhau về triết lý thiết kế giữa OpenAI và GoogleGPT Image 1.5 thì được OpenAI thiết kế như là một studio sáng tạo tập trung vào độ chính xác. Nó mang lại những trải nghiệm giống với những thiết kế của những bức ảnh đời thường hơn so với Nano Banana.Nano Banana 2 thì lại được ví như một nhà quay phim khi tập trung vào sức mạnh thị giác. Google nhấn mạnh vào tri thức "thế giới thực" để tạo ra những hình ảnh có độ chân thực rất cao, ánh sáng sống động và chi tiết sắc nét nhất có thể.Trải nghiệm thực tế giữa hai mô hình có khác nhau nhiều khôngDựa trên các thử nghiệm đối đầu, kết quả cho thấy sự khác biệt rõ rệt về phong cách:Độ chân thực và phong cách ảnh: GPT Image 1.5 có khả năng tạo ra các bức ảnh mang tính đời thường, có độ nhiễu và tự nhiên hơn giống như ảnh chụp bằng iPhone có đèn flash. Ngược lại, Nano Banana thường cho kết quả quá hoàn hảo, đôi khi trông giống ảnh chụp studio hoặc ảnh quảng cáo đã được hậu kì rất phức tạp rồi.Khả năng tuân thủ prompt: GPT Image 1.5 tất nhiên là nổi bật hơn với khả năng bám sát prompt vì nếu muốn bám sát Prompt thì người dùng Google phải nâng cấp lên bản pro. Ví dụ trong bài kiểm tra tạo lưới (grid) 6x6 với 36 vật thể khác nhau, nó đã hoàn thành chính xác vị trí của từng đối tượng, điều mà các Nano Banana thế hệ trước chắc chắn thất bại. Nano Banana 2 cũng đã cải thiện rất nhiều ở mảng này nhưng đôi khi vẫn có cách hiểu mang tính sắp đặt sẵn hơn.Chữ viết trong ảnh: Cả hai đều đã khắc phục tốt lỗi chính tả trong ảnh, tuy nhiên với GPT Image 1.5 thì thường có bố cục thiết kế giống như các mẫu Canva sẵn có trong khi Nano Banana 2 mạnh về khả năng dịch văn bản ngay bên trong ảnh, ví dụ Nano Banana 2 có khả năng dịch chữ viết trên bia đá ngay trong ảnh.Chỉnh sửa trực tiếp: GPT Image 1.5 mạnh về in-painting thay đổi một chi tiết cụ thể (như màu áo) mà vẫn giữ nguyên khuôn mặt và ánh sáng. Nano Banana 2 lại mạnh về blending, có thể kết hợp tối đa 14 hình ảnh tham chiếu để tạo ra một ảnh phức tạp về độ sáng, chiều sâu, màu sắc.Tốc độ: Cả hai đều cực nhanh. GPT Image 1.5 và Nano Banana 2 đều rất nhanh bằng mắt thường khó mà thấy được cái nào nhanh hơn.Chi phí API: GPT Image 1.5 mang lại mức giá tối ưu hơn cho việc tạo ảnh tiêu chuẩn (khoảng $0.009/ảnh). Dưới đây là bảng so sánh chi phí chi tiết để mọi người tham khảo[CHART_1]Với Nano Banana 2, Google không chỉ chạy đua về mặt công nghệ mà còn tập trung vào trải nghiệm thực tế của người dùng thông qua tốc độ cực nhanh và khả năng kiểm soát hình ảnh chuyên nghiệp. Đây chắc chắn là công cụ không thể bỏ qua cho các nhà sáng tạo nội dung và marketer trong năm 2026.

Nam
2 thg 3, 2026
Google đối đầu với OpenClaw khi chặn kết nối tới Antigravity

Cộng đồng người dùng AI toàn cầu đang xôn xao trước thông tin Google thực hiện chiến dịch khóa hàng loạt tài khoản liên quan đến việc sử dụng công cụ OpenClaw kết nối qua nền tảng Antigravity. Động thái này không chỉ gây gián đoạn công việc của hàng ngàn nhà phát triển mà còn dấy lên những lo ngại sâu sắc về tương lai của các tác nhân AI (AI Agents) tự chủ.Nguyên nhân từ phía Google với các “nghi vấn” hoạt động bất thườngTheo thông tin từ Google, hệ thống của hãng đã phát hiện sự gia tăng đột biến các hoạt động được cho là bất thường khi người dùng truy cập các mô hình Gemini thông qua công cụ mã nguồn mở OpenClaw và Antigravity. Google khẳng định rằng việc sử dụng công cụ bên thứ ba để kết nối với mô hình Gemini là hành vi vi phạm điều khoản sử dụng. Hệ thống bảo mật của hãng đã ghi nhận lượng lớn hoạt động bất thường xuất phát từ nền tảng Antigravity, gây ảnh hưởng đến chất lượng dịch vụ chung và buộc Google phải nhanh chóng chặn quyền truy cập để đảm bảo tài nguyên cho những người dùng hợp lệ.Hệ quả nghiêm trọng đối với người dùngĐộng thái bất ngờ của Google đã khiến nhiều người dùng chịu thiệt hại nặng nề:Mất quyền truy cập dịch vụ: Nhiều người dùng đột ngột bị khóa hoặc hạn chế quyền truy cập vào các dịch vụ thiết yếu như Gmail, Google Workspace và cả phiên bản AI cao cấp Gemini 2.5 Pro.Lỗi hệ thống: Những người chưa bị khóa tài khoản thường xuyên gặp phải thông báo lỗi “403” hoặc các thông báo về vi phạm chính sách khi cố gắng sử dụng API.Tình trạng “Phiên bản không hỗ trợ”: Một loạt người dùng báo cáo lỗi “Phiên bản Antigravity này không còn được hỗ trợ” khi cố gắng thiết lập kết nối, thực tế là do sự thay đổi trong cách Google và Antigravity xác thực phiên bản.Các nhà phát triển đã tạo bản vá và nỗ lực khôi phục thế nàoCộng đồng mã nguồn mở đã nhanh chóng tìm cách ứng phó với các rào cản kỹ thuật này:Cập nhật phiên bản: Các nhà phát triển phát hiện ra rằng mã nguồn cũ (phiên bản 1.11.x) đã bị Google từ chối. Một giải pháp tạm thời là cập nhật thủ công chuỗi phiên bản thành 1.15.8 trong các tệp cấu hình của hệ thống để “đánh lừa” sự kiểm tra của máy chủ.Hướng dẫn khôi phục tài khoản: Trên các diễn đàn như Reddit, người dùng truyền tai nhau các bước khôi phục tài khoản bị cấm, bao gồm việc ngắt kết nối OAuth trong cài đặt tài khoản Google, xóa bộ nhớ cache và tệp token cục bộ, đồng thời phải đợi từ 24 đến 96 giờ trước khi thử đăng nhập lại.Bối cảnh rộng hơn dẫn đến phản ứng từ các ông lớnKhông chỉ Google, Anthropic gần đây cũng cập nhật điều khoản để cấm rõ ràng việc sử dụng mã thông báo OAuth của tài khoản Claude trong các công cụ bên thứ ba như OpenClaw, cuối cùng chỉ còn mỗi OpenAI và các công ty đến từ Trung Quốc là đang mở cửa cho OpenClaw. Sự việc này cũng tạo ra những biến động nhân sự đáng chú ý:Peter Steinberger, nhà phát triển đứng sau Antigravity, đã chỉ trích động thái của Google là quá cứng rắn và từng có ý định ngừng dự án.Sam Altman (CEO OpenAI) ngay sau đó đã thông báo Steinberger sẽ gia nhập OpenAI để phát triển thế hệ trợ lý ảo mới, trong khi OpenClaw sẽ tiếp tục được duy trì dưới dạng dự án mã nguồn mở.Lời cảnh báo về an toàn dữ liệuĐằng sau sự tiện lợi của OpenClaw — một công cụ có thể tự động gửi mail, quản lý lịch trình và thực hiện lệnh terminal — là những rủi ro bảo mật chí mạng. Các chuyên gia cảnh báo về lỗ hổng (Prompt Injection), nơi kẻ xấu có thể điều khiển AI xóa sạch dữ liệu hệ thống (lệnh rm -rf) hoặc đánh cắp thông tin nhạy cảm của người dùng.Kết luận: Sự kiện Google chặn OpenClaw và Antigravity không chỉ là một vấn đề kỹ thuật đơn thuần, mà còn là minh chứng cho sự xung đột giữa khát vọng tự do của cộng đồng mã nguồn mở và nỗ lực bảo vệ hệ sinh thái cũng như tài nguyên kinh doanh của các tập đoàn công nghệ lớn. Đây là lời cảnh tỉnh về việc cần có sự cân bằng giữa đổi mới và an toàn trong bối cảnh AI đang ngày càng phát triển mạnh mẽ.

Nam
24 thg 2, 2026
GPT-5.1 ra mắt với nâng cấp thông minh hơn, thân thiện hơn

OpenAI vừa tung ra GPT-5.1 , phiên bản nâng cấp mới nhất cho GPT-5 cung cấp năng lượng tươi mới cho ChatGPT, vào ngày 13 tháng 11 năm 2025. Bản cập nhật này được mô tả là một bước tiến về năng lực và trải nghiệm, tập trung vào việc làm cho ChatGPT thông minh hơn, dễ trò chuyện hơn và dễ tùy chỉnh hơn bao giờ hết. Bản làm mới này được công bố cực nhanh chỉ ba tháng sau khi GPT-5 ra mắt (tháng 8/2025), nhằm giải quyết những phàn nàn từ người dùng rằng mô hình trước đó cảm thấy lạnh lùng và đôi khi xử lý các tác vụ kém hơn các GPT-4o hoặc GPT-4. OpenAI cho biết họ đã lắng nghe ý kiến người dùng, rằng một AI tuyệt vời không chỉ cần thông minh mà còn phải thú vị khi trò chuyện. CEO Sam Altman của OpenAI gọi GPT-5.1 là "một bản nâng cấp tốt" và đặc biệt thích những cải tiến về khả năng làm theo hướng dẫn và tính năng tư duy thích ứng. Hai Biến Thể Mới: Instant và Thinking GPT-5.1 vẫn ra mắt với hai biến thể được nâng cấp, nhằm mục tiêu tối ưu hóa trải nghiệm người dùng: GPT-5.1 Instant: Đây chắc chắn sẽ là mô hình được sử dụng rộng rãi nhất của ChatGPT. Mặc định thân thiện và trò chuyện tự nhiên hơn. Các thử nghiệm ban đầu cho thấy nó có thể gây bất ngờ bởi sự linh hoạt và dí dỏm trong khi vẫn duy trì sự rõ ràng và hữu ích. Nó ưu tiên tốc độ và đối thoại trôi chảy, rất phù hợp cho các tác vụ như động não hoặc tóm tắt bài viết. Lần đầu tiên, GPT-5.1 Instant có thể sử dụng lý luận thích ứng (adaptive reasoning) để tự quyết định khi nào cần suy nghĩ sâu hơn trước khi trả lời các câu hỏi khó. Điều này giúp mô hình đưa ra phản hồi chính xác và chi tiết hơn mà vẫn duy trì tốc độ nhanh. GPT-5.1 Thinking: Mô hình này được thiết kế cho các tác vụ suy luận phức tạp và chuyên sâu hơn. Nó tự điều chỉnh thời gian suy nghĩ: dành nhiều thời gian hơn cho các vấn đề phức tạp và phản hồi nhanh hơn với các câu hỏi đơn giản. So với GPT-5 Thinking, phiên bản 5.1 này nhanh hơn khoảng gấp đôi trên các tác vụ dễ dàng nhưng lại chậm hơn gấp đôi trên các tác vụ khó nhất. Điểm đặc biệt là cách phản hồi đã được cải thiện, giảm bớt các từ ngữ chuyên môn khô khan, khó hiểu. Điều này giúp mọi người dễ dàng nắm bắt các kiến thức phức tạp mà không cảm thấy khó khăn hay mơ hồ như trước. Cả hai mô hình đều vẫn giữ ưu điểm của GPT-5 là sử dụng một bộ định tuyến thông minh, có khả năng tự động phân loại và chuyển tiếp truy vấn đến mô hình hiệu quả nhất. Nhờ vậy, người dùng hoàn toàn thoát khỏi việc phải tự tay lựa chọn mô hình, tiết kiệm thời gian và công sức. và OpenAI báo cáo rằng bộ định tuyến này xác định độ phức tạp chính xác trong 94% trường hợp sử dụng. [GPT5_V1_TOKEN_CHART] Nâng cấp thông minh: tốc độ, hiệu quả và độ chính xác Đối với các nhà phát triển và người dùng chuyên nghiệp, GPT-5.1 mang lại những cải tiến đáng kể về khả năng và hiệu suất: Lý luận thích ứng (Adaptive reasoning): Hệ thống này cho phép mô hình phân bổ nguồn lực tính toán động, đáp ứng nhanh chóng với các truy vấn đơn giản trong khi dành độ sâu xử lý lớn hơn cho các tác vụ phức tạp. Hiệu suất Coding tốt hơn: GPT-5.1 được thiết kế để tăng tốc độ viết code và giảm chi phí. Việc giới thiệu chế độ "no reasoning" (không suy luận sâu) lý tưởng cho các tác vụ tra cứu đơn giản, giúp cắt giảm đáng kể độ trễ (latency) và tiêu thụ token (chi phí). Hiệu quả Token: GPT-5.1 Thinking đạt kết quả tốt hơn mô hình o3 trước đó của OpenAI, trong khi sử dụng ít hơn 50-80% token đầu ra. Điều này thay đổi cơ bản tính kinh tế của việc triển khai AI, đặc biệt là đối với các tác vụ lập trình phức tạp. Bộ nhớ đệm đã được nâng cấp, mở rộng thời gian ghi nhớ prompt (prompt catching) của bạn đến 24 giờ. Những yêu cầu thường xuyên sẽ chỉ cần được xử lý một lần, từ đó tăng tốc độ phản hồi và giảm chi phí một cách hiệu quả cho những ứng dụng sử dụng AI Cải thiện tuân thủ hướng dẫn: Mô hình giờ đây tuân thủ tốt hơn các hướng dẫn tùy chỉnh, với các ví dụ như người dùng yêu cầu các câu trả lời của ChatGPT ngắn gọn hơn thì nó sẽ ngăn chặn những hành vi phụ làm cho câu trả lời dài dòng hơn, ví dụ như tạo thêm các báo cáo, hoặc bình luận dài dòng hơn. Khả năng điều chỉnh giọng điệu cá nhân hóa toàn diện Một trong những cập nhật lớn nhất của GPT-5.1 là khả năng tùy chỉnh giọng điệu và phong cách giao tiếp để phù hợp với sở thích đa dạng của người dùng. Các chế độ giọng điệu và tính cách (Personality Presets): Người dùng có thể chọn tới 8 chế độ cá tính khác nhau, áp dụng ngay lập tức trên mọi cuộc trò chuyện: Mặc định (Default). Chuyên nghiệp (Professional). Thân thiện (Friendly) (trước đây là Listener). Thẳng thắn (Candid). Hài hước/Khác biệt (Quirky). Hiệu quả (Efficient) (trước đây là Robot). Mọt sách (Nerdy). Hoài nghi (Cynical). Khả năng tinh chỉnh (Fine-tuning controls): Ngoài các cài đặt sẵn, OpenAI đang thử nghiệm các điều khiển chi tiết hơn, cho phép người dùng tinh chỉnh các đặc điểm cụ thể của ChatGPT: Mức độ ngắn gọn (Conciseness). Mức độ thân thiện (Warmth). Mức độ dễ đọc/dễ quét (Scannability). Tần suất sử dụng biểu tượng cảm xúc (emoji). Thậm chí, ChatGPT có thể chủ động đề xuất cập nhật tùy chọn giọng điệu và phong cách trong khi trò chuyện. Khả năng triển khai và API GPT-5.1 Instant và Thinking đang được triển khai dần dần. Người dùng trả phí (Pro, Plus, Go, Business) sẽ là những người đầu tiên nhận được quyền truy cập. Một vài ngày nữa thì sẽ đến lượt người dùng miễn phí . Các gói Enterprise và Education có quyền truy cập sớm 7 ngày. Các mô hình GPT-5 cũ vẫn sẽ sử dụng được trong vòng 3 tháng đối với người dùng vẫn thích mô hình cũ hơn. Open AI dự kiến sẽ mở kết nối API sau khoảng 7 ngày. GPT-5.1 Instant sẽ có tên API là gpt-5.1-chat-latest, và GPT-5.1 Thinking là gpt-5.1. GPT-5.1 sẽ không chỉ là một bản cập nhật thú vị hơn với khả năng suy luận thích ứng mạnh mẽ, mà còn là sự khẳng định vị thế dẫn đầu trong việc hướng tới việc cá nhân hóa hoàn toàn trải nghiệm AI. Với các tùy chọn điều chỉnh giọng điệu và phong cách, OpenAI đang cố gắng đảm bảo rằng mô hình hàng đầu của họ không chỉ thông minh mà còn dễ sử dụng, thân thiện và thích ứng với sở thích riêng của từng người dùng.

Nam
14 thg 11, 2025
OpenAI mở cửa AI với GPT-OSS tham gia cuộc đua mã nguồn mở

Có vẻ như đổ vỡ với Microsoft đã khiến OpenAI điều chỉnh đáng kể chiến lược tiếp cận rộng rãi tới người dùng AI khi họ đã công bố phát hành 2 model mã nguồn mở mới là gpt-oss-120b và gpt-oss-20b với kích thước lần lượt là 20 tỷ và 120 tỷ tham số (parameter chứ hoàn toàn không phải neuron). Đặc biệt là 2 mô hình này đều có mã nguồn mở với giấy phép Apache 2.0 rất tự do. Vậy thì giấy phép Apache 2.0 là gì? Có thể nhiều người vẫn chưa biết về giấy phép mở này thực sự rất dài nhưng tóm gọn lại là với giấy phép Apache 2.0 này người dùng hoàn toàn được tự do dùng và chỉnh sửa, phân phối lại cũng không cần mở mã nguồn, kể cả kiếm tiền với GPT-OSS cũng được thậm chí không cần trả khoản phí gì cho Open AI, chỉ cần giữ nguyên bản quyền tác giả là được. Như vậy với động thái này báo hiệu việc OpenAI tái gia nhập "cuộc đua mô hình mở" sau sáu năm gián đoạn, sánh vai cùng các đối thủ như Meta, Deepseek và Mistral. GPT-OSS là gì? Hiểu rõ về "Open-Weight" Thuật ngữ "GPT-OSS" dùng để chỉ hai mô hình ngôn ngữ mới này, với kích thước lần lượt là 20 tỷ và 120 tỷ tham số. Quan trọng là, OpenAI đã phát hành chúng dưới dạng các mô hình "open-weight", nghĩa là các trọng số đã được huấn luyện của mô hình AI được công khai cho phép tải về và sử dụng trực tiếp trên máy của người dùng. Điều này cho phép các nhà phát triển kiểm tra và tinh chỉnh cách các mô hình hoạt động. Tuy nhiên, đây không phải là một bản phát hành "mã nguồn mở" đầy đủ theo nghĩa truyền thống, vì OpenAI chưa công bố công khai mã code huấn luyện gốc hoặc các tập dữ liệu thô được sử dụng để huấn luyện các mô hình này. Ngược lại, một mô hình thực sự mã nguồn mở sẽ cung cấp toàn bộ mã nguồn, tài liệu huấn luyện, trọng số và đôi khi cả tập dữ liệu, cho phép cộng đồng xem, sửa đổi và thậm chí huấn luyện lại mô hình. Mặc dù sự khác biệt này còn gây tranh cãi trong cộng đồng mã nguồn mở, OpenAI nhấn mạnh rằng bản phát hành này là một bước đi tiếp theo sau sáu năm hướng tới việc làm cho lợi ích của AI trở nên dễ tiếp cận rộng rãi. Hiệu suất vượt trội và khả năng nâng cao Dù "mở", hiệu năng của GPT-OSS vẫn rất đáng gờm. Các bài kiểm tra (benchmark) cho thấy nó có thể cạnh tranh với mô hình đóng của Open AI : GPT-OSS-120B: Gần tương đương với o4-mini trong các tác vụ suy luận cốt lõi, mô hình này yêu cầu GPU 80GB trở lên. GPT-OSS-20B: Tương tự o3-mini, có thể chạy trên phần cứng tiêu dùng với 16GB bộ nhớ. [BENCHMARK_CHART] Các điểm nổi bật về kiến trúc và khả năng chính bao gồm: Kiến trúc Mixture-of-Experts (MoE): Cả hai mô hình đều sử dụng thiết kế MoE, kích hoạt ít tham số hơn trên mỗi token (5,1 tỷ cho 120B và 3,6 tỷ cho 20B) để xử lý hiệu quả truy vấn. Suy luận Chain-of-Thought (CoT): GPT-OSS hỗ trợ khả năng suy luận nâng cao, cho phép các nhà phát triển cấu hình các mức độ nỗ lực suy luận khác nhau (thấp, trung bình hoặc cao) để cân bằng tốc độ và độ chính xác. Các mô hình có thể hiển thị toàn bộ chuỗi suy luận nội bộ của chúng, điều này có thể hỗ trợ gỡ lỗi logic của chúng. Sử dụng công cụ và đầu ra có cấu trúc: Các mô hình được thiết kế cho các trường hợp sử dụng nâng cao bao gồm sử dụng công cụ, chẳng hạn như công cụ duyệt web để tương tác web và công cụ Python để thực thi mã trong môi trường sổ ghi chép Jupyter. Huấn luyện chuyên sâu: Được huấn luyện trên hàng nghìn tỷ token chỉ bằng văn bản tập trung vào STEM, mã hóa và kiến thức tổng quát, sử dụng GPU NVIDIA H100 và PyTorch. Thời điểm cắt dữ liệu kiến thức của các mô hình là tháng 6 năm 2024. Định dạng OpenAI Harmony: Một dự án mã nguồn mở mới từ OpenAI, Harmony, cung cấp một định dạng phản hồi mới lạ cho các mẫu lời nhắc, giới thiệu các vai trò như system, developer, user, assistant, và tool, cùng với các kênh đầu ra riêng biệt cho final (hướng tới người dùng), analysis (chuỗi suy luận), và commentary (liên quan đến công cụ). Cấu trúc này nâng cao khả năng của mô hình trong việc quản lý các tương tác phức tạp. Ý nghĩa và lợi ích đối với hệ sinh thái AI Quyết định phát hành các mô hình GPT-OSS miễn phí được xem là một động thái chiến lược của OpenAI nhằm lấy lại vị thế trong bối cảnh AI đang ngày càng cạnh tranh. Bằng cách cung cấp các mô hình "open-weight" mạnh mẽ, OpenAI không chỉ thúc đẩy đổi mới mà còn trao quyền cho các nhà phát triển và doanh nghiệp. Điều này mang lại nhiều lợi ích đáng kể: Tăng cường quyền riêng tư: Các doanh nghiệp, đặc biệt trong các ngành yêu cầu bảo mật cao như y tế hay tài chính, có thể triển khai mô hình cục bộ (on-premise) để bảo vệ dữ liệu nhạy cảm. Tiết kiệm chi phí: Việc triển khai cục bộ giúp giảm độ trễ và chi phí sử dụng API thương mại. Thúc đẩy đổi mới: Cộng đồng có thể tự do tinh chỉnh và phát triển các giải pháp AI tiên tiến dựa trên các mô hình này. Có hỗ trợ tinh chỉnh (Fine-Tune) và gọi hàm (Function Calling) Các mô hình GPT-OSS được thiết kế hoàn toàn có thể tinh chỉnh (fine-tune), mặc dù không có mã code huấn luyện gốc. Chúng đã được tích hợp vào thư viện transformers của Hugging Face và hỗ trợ các kỹ thuật fine-tune tiết kiệm tài nguyên như LoRA, PEFT, và QLoRA. Tất nhiên là GPT-OSS có hỗ trợ function calling cho phép mô hình gọi và xử lý kết quả từ các hàm hoặc API bên ngoài trong quá trình hội thoại. Thật sự đây là thứ mà không thể thiếu đối với các mô hình hiện nay để tăng tính kết nối. Mặc dù việc sử dụng fine-tune mà không có script huấn luyện gốc có thể phức tạp hơn, hoàn toàn không dễ dàng với người thiếu kinh nghiệm nhưng các nhà phát triển nên thử các nền tảng như Unsloth đã phát triển các giải pháp tùy chỉnh và kỹ thuật offloading để làm cho mọi việc dễ dàng hơn đôi chút, cho phép huấn luyện LoRA GPT-OSS-20b trên VRAM 14GB và GPT-OSS-120b trên VRAM 65GB. Cách tiếp cận và triển khai: Hugging Face: Thông qua dịch vụ Inference Providers mà họ đã cung cấp bản demo chính thức của OpenAI. Triển khai trên chính máy của người dùng (Local Inference): Được hỗ trợ bởi các thư viện như transformers, vLLM, llama.cpp, và ollama. Ví dụ, mô hình 20B có thể chạy trên Macbook, Mac mini chỉ với RAM 32GB. Có thể chạy thông qua Docker. Nền tảng cloud : Có sẵn trên các nền tảng như Azure AI Model Catalog và Dell Enterprise Hub cho các triển khai doanh nghiệp an toàn. Các nhà phát triển có thể sử dụng nhiều tối ưu hóa khác nhau để tăng tốc độ suy luận, bao gồm lượng tử hóa MXFP4 cho GPU Hopper hoặc Blackwell, Flash Attention 3 và MegaBlocks MoE kernels. Cam kết mạnh mẽ và tranh cãi xoay quanh GPT-OSS Mặc dù mô hình được cộng đồng đón nhận tích cực, nhưng đã không còn tính wow khi nói về "tính mở" của nó. Sự khác biệt giữa "open-weight" và "open-source" vẫn là một điểm gây tranh cãi đối với một số người ủng hộ sự minh bạch hoàn toàn, mà còn ở những đối thủ của Open AI đã làm trước đây rất lâu rồi. Ngoài ra, trong quá trình thử nghiệm, một số trường hợp mô hình gpt-oss-20b "rò rỉ" thông tin chuỗi suy luận nội bộ đã được quan sát, mặc dù OpenAI đã chỉ ra rằng đây là một hành vi được mong đợi để cho phép giám sát và tránh các mô hình che giấu dấu vết của chúng. Tóm lại, các mô hình GPT-OSS của OpenAI với quá trình thể hiện chắc chắn vẫn chưa hoàn hảo mà chỉ để thể hiện cam kết mạnh mẽ đối với việc làm cho AI trở nên dễ tiếp cận hơn.

Nam
13 thg 8, 2025