Quay lại trang tin tức

Google tuyên bố kế hoạch mở rộng hạ tầng AI gấp 1000 lần để giữ vững thế thống trị

Xuất bản vào 26 tháng 11, 2025
Google tuyên bố kế hoạch mở rộng hạ tầng AI gấp 1000 lần để giữ vững thế thống trị

Tóm tắt nhanh

Google đặt mục tiêu tăng công suất AI lên 1.000 lần trong 4-5 năm tới, bằng cách tăng gấp đôi năng lực phục vụ AI mỗi sáu tháng để đáp ứng nhu cầu bùng nổ của "kỷ nguyên suy luận". Để đạt được điều này với chi phí và điện năng không đổi, Google tập trung vào thiết kế tích hợp phần mềm với phần cứng tự sản xuất như chip TPU Ironwood và CPU Axion. Công ty cũng đối mặt với thách thức lớn về làm mát, năng lượng (áp dụng làm mát bằng chất lỏng, hệ thống điện 48V/400V DC, đầu tư vào năng lượng hạt nhân) và rủi ro bong bóng AI. Dù vậy, Google tin rằng không đầu tư đủ là rủi ro lớn nhất và đang thách thức sự thống trị của Nvidia bằng cách phát triển giải pháp AI chuyên biệt, hiệu quả hơn, với việc Meta Platforms đang cân nhắc sử dụng TPU của họ.

Google đã công bố một yêu cầu nội bộ đầy tham vọng nhằm tăng công suất AI lên gấp 1.000 lần trong vòng 4 đến 5 năm tới. Động thái này diễn ra trong bối cảnh cuộc đua AI toàn cầu đang nóng lên và đòi hỏi các công ty công nghệ phải đầu tư khổng lồ vào cơ sở hạ tầng tính toán, bất chấp những lo ngại về bong bóng AI.

Phó chủ tịch phụ trách cơ sở hạ tầng AI của Google Cloud, ông Amin Vahdat đã trình bày lộ trình này tại một cuộc họp toàn công ty vào đầu tháng 11, nhấn mạnh rằng Google phải tăng gấp đôi năng lực phục vụ AI sau mỗi sáu tháng để đáp ứng nhu cầu bùng nổ.

Kỷ nguyên suy luận là gì và tại sao nó lại quan trọng với các mô hình AI

Sự phát triển của AI đang bùng nổ chưa từng thấy, lý do là vì chúng ta đã chuyển từ việc chủ yếu huấn luyện các mô hình AI sang một giai đoạn mới gọi là kỷ nguyên suy luận (Inference Era) tức là để AI tự suy luận, tự quyết định.

Trước đây, giai đoạn tốn kém và ngốn tài nguyên nhất là lúc AI đang học hỏi. Nhưng giờ đây thì khác, đối với những mô hình siêu xịn mới nhất như Gemini 3 Pro lại cần một lượng sức mạnh máy tính khổng lồ và liên tục để làm những việc như: suy nghĩ, lập luận và viết code.

Ông Vahdat đã cảnh báo thẳng thắn rằng: Hiện tại, cuộc đua xây dựng cơ sở hạ tầng cho AI mới chính là phần quan trọng nhất và đắt đỏ nhất của toàn bộ cuộc chơi AI này!

Ưu thế của Google đi kèm với thách thức

Để đạt được mức tăng trưởng hạ tầng AI gấp 1.000 lần mà không làm chi phí vượt tầm kiểm soát, Google tiếp tục đặt cược vào hiệu suất và hiệu quả năng lượng.

Tối ưu hóa hiệu suất và chi phí

Google đã đặt ra mục tiêu với quá nhiều thách thức: cần cung cấp năng lực tính toán, lưu trữ và kết nối gấp 1.000 lần so với hiện nay, nhưng phải duy trì chi phí và mức tiêu thụ điện năng ở mức tương đương.

Để thực hiện điều này, Google áp dụng triết lý thiết kế đồng bộ rất giống của Nvidia. Đây là việc tích hợp chặt chẽ phần mềm, thuật toán (do DeepMind tự phát triển) với kiến trúc phần cứng “cây nhà lá vườn” của Google đó là TPU Ironwood và CPU Axion.

Vai trò của TPU Ironwood và CPU Axion là gì

Chip TPU Ironwood thế hệ thứ 7 (ra mắt vào tháng 4/2025) là trung tâm của chiến lược mở rộng này.

  • Ironwood được thiết kế cho mục đích suy luận mô hình ngôn ngữ lớn (LLM inferencing).
  • Google tuyên bố Ironwood cung cấp hiệu suất đỉnh cao gấp 10 lần so với TPU v5p ra mắt 2018 và hiệu suất trên mỗi watt gấp 2 lần so với thế hệ Trillium trước đó.
  • Mỗi chip TPU v7 Ironwood được làm mát bằng chất lỏng có khả năng đạt 4.6 petaFLOPS (FP8 dense). Để hiểu rõ, chúng ta so sánh ngay với Blackwell B200 mới nhất của Nvidia cũng chỉ đạt 4.5 petaFLOPS (FP8 dense).

Bên cạnh đó, Google sử dụng CPU tự phát triển Axion (dựa trên Arm). Các khối lượng công việc đa năng đang được chuyển sang các bộ xử lý hiệu quả hơn này để giải phóng năng lượng và không gian nhiệt cho các TPU ngốn điện để phục vụ tác vụ AI chuyên dụng.

Google tự sản xuất TPU và CPU
Google tự phát triên a-z

Thách thức hạ tầng và năng lượng

Việc tăng công suất tính toán lên mức siêu lớn tất nhiên cũng phải đòi hỏi phải vượt qua các rào cản vật lý lớn về điện năng và làm mát.

Hiện tại, các con chip AI đang mạnh mẽ đến mức chúng trở thành những "lò sưởi tí hon". Dù kích thước chip rất nhỏ, nhưng nhiệt độ và sức nóng mà chúng tạo ra lại cực kỳ khủng khiếp.

Để giải quyết vấn đề này, Google đang thực hiện hai giải pháp chính:

  • Làm mát bằng chất lỏng: Họ đã chuyển sang dùng nước hoặc chất lỏng chuyên dụng để làm mát trực tiếp các chip. Cách này hiệu quả hơn rất nhiều so với quạt gió.
  • Hệ thống điện 48V: Google đang triển khai hệ thống phân phối điện 48V. Đây là một giải pháp giúp truyền tải điện hiệu quả hơn và giảm thiểu việc lãng phí điện năng bị biến thành nhiệt.

Trong tương lai, khi các tủ máy (rack) chứa chip mạnh đến mức cần công suất hàng trăm kilowatt, Google đang nghiên cứu đến một bước đột phá lớn hơn: chuyển sang dùng nguồn điện một chiều DC 400 V. Điều này sẽ giúp họ khai thác toàn bộ sức mạnh của các hệ thống học máy khổng lồ mà không sợ bị quá tải về điện.

Cam kết môi trường và khủng hoảng năng lượng

Theo Alphabet (công ty mẹ của Google) luôn đặt mục tiêu Net Zero (phát thải ròng bằng 0) vào năm 2030 giống như chính phủ Việt Nam ta. Tuy nhiên, nhu cầu năng lượng cho mảng AI đang bị cảnh báo là rất lớn và có thể ảnh hưởng đến các mục tiêu khí hậu của Alphabet.

Để giải quyết tình trạng thiếu hụt năng lượng trên toàn cầu, Google đang tìm kiếm các nguồn cung cấp năng lượng tại chỗ đáng tin cậy, sạch sẽ và có chi phí thấp. Google đã công bố đầu tư vào năng lượng hạt nhân (Kyros), sử dụng các lò phản ứng mô-đun nhỏ (SMRs) 500 megawatt.

Bong bóng và rủi ro tài chính của AI sẽ diễn biến thế nào

Mặc dù Google đang dốc hết tiền đầu tư vào công nghệ AI nhưng trên thị trường tài chính, ai cũng đang lo lắng về một bong bóng AI sắp vỡ.

Bản thân Sundar Pichai (CEO Alphabet) cũng phải thẳng thắn thừa nhận: "Có những yếu tố hơi phi lý trong cách thị trường đang định giá các công ty AI hiện nay." Bằng chứng là Alphabet đã nâng dự báo chi tiêu cho xây dựng cơ sở hạ tầng (CapEx) cho năm 2025 lên đến 93 tỷ USD một con số khổng lồ!

Tuy nhiên, ông Pichai có một lập luận rất chắc chắn” Rủi ro lớn nhất không phải là đầu tư quá nhiều, mà là không đầu tư đủ.”

Ông đưa ra ví dụ: Mảng Google Cloud đang tăng trưởng rất ấn tượng, nhưng đáng lẽ doanh thu còn phải cao hơn nữa nếu như họ có đủ năng lực tính toán để phục vụ khách hàng. Nói cách khác, Google chấp nhận rủi ro đầu tư lớn để không bỏ lỡ cơ hội kiếm tiền khủng trong tương lai.

Google có đang thách thức sự thống trị của Nvidia

Google đang tăng tốc đầu tư vào hệ thống TPU (chip xử lý AI riêng của họ) và theo đuổi chiến lược tự làm từ A đến Z (từ thiết kế đến sản xuất chip). Điều này đang tạo ra một giải pháp thay thế rất tiềm năng cho chip GPU của Nvidia vị vua đang thống trị thị trường hạ tầng AI hiện nay.

Chip TPU của Google là một loại mạch điện tử (ASIC) được sinh ra chỉ để làm một việc: tính toán cho AI. Nó không giống như GPU của Nvidia.

  • GPU của Nvidia giống như một vận động viên đa năng, rất linh hoạt và làm được nhiều việc hơn.
  • TPU của Google giống như một vận động viên chuyên biệt, có thể làm một số tác vụ huấn luyện và suy luận AI khối lượng lớn hiệu quả hơn và ít tốn điện hơn đối thủ.

Canh bạc đặt cược vào TPU của Google đang bắt đầu có hiệu quả khi Meta Platforms đang đàm phán để sử dụng TPU của Google với mục đích là đa dạng hóa nhà cung cấp và giảm bớt sự phụ thuộc vào Nvidia. Dự kiến, Meta có thể bắt đầu thuê năng lực TPU từ năm 2026 và mua chip số lượng lớn từ năm 2027.

Tóm lại, kế hoạch tăng tốc hạ tầng AI lên gấp 1.000 lần của Google không chỉ là một mục tiêu về số lượng mà là là sự thay đổi về cách thiết kế hệ thống.

Google đang biến trung tâm dữ liệu thành một cỗ máy thống nhất và cực kỳ hiệu quả. Họ tập trung vào việc đồng bộ thiết kế giúp phần cứng bắt tay với phần mềm để cùng xử lý tác vụ cùng tiết kiệm điện năng, hơn nữa là dùng chip nhà làm giống như điều Apple đã và đang làm để bảo đảm vị thế dẫn đầu trong cuộc đua với tốc độ chóng mặt!

Thảo luận (0)

Đăng nhập để tham gia thảo luận.

Chưa có bình luận nào. Hãy là người đầu tiên!

Các bài viết liên quan

HTML sẽ thay thế Markdown khi làm việc với AI ?

Markdown đã là chuẩn mặc định khi làm việc với AI suốt nhiều năm nhưng một kỹ sư đến từ Claude Code tại Anthropic vừa đặt ra câu hỏi đáng suy nghĩ: liệu thói quen đó có thực sự là lựa chọn tốt nhất? Bài viết ngắn của Thariq Shihipar thu hơn 15.000 lượt thích trên X chỉ trong vài ngày, và lý do thuyết phục hơn bạn nghĩ. Markdown ra đời từ thời AI còn nghèo token Nhìn lại thời GPT-4 với cửa sổ ngữ cảnh chỉ 8.192 token, Markdown là lựa chọn hoàn toàn hợp lý trong khi đó HTML cồng kềnh hơn, tốn tài nguyên hơn và trong bối cảnh hạn chế đó, sự tối giản của Markdown là một ưu điểm thực sự chỉ để tiết kiệm. Vì vậy Markdown trở thành chuẩn ngầm định, và thói quen đó theo chúng ta đến tận bây giờ.Ngay cả khi Anthropic tạo ra khái niệm Skill trên Claude họ cũng đã lấy Markdown làm tiêu chuẩn với file SKILL.md, những ai hay làm việc với skill chắc chắn hiểu rõ điều mặc định này. Tuy nhiên, các mô hình AI hiện tại đã vận hành ở quy mô hoàn toàn khác. Nhiều mô hình đang hỗ trợ cửa sổ ngữ cảnh từ 200.000 đến 1 triệu token, và chi phí xử lý không còn là rào cản đáng lo (theo lời của Thariq Shihipar) và anh ấy lập luận rằng đây chính là thời điểm để xem lại mặc định đó. HTML làm được gì mà Markdown không thể? Lý do cốt lõi Thariq đưa ra khá đơn giản: một số loại thông tin vốn có tính không gian nhưng Markdown buộc chúng phải trở thành văn bản tuyến tính. Khi bạn so sánh ba hướng tiếp cận kỹ thuật thì bạn cần nhìn chúng cạnh nhau, không phải đọc lần lượt rồi cố giữ trong đầu. Khi bạn xem lại một đoạn code bạn cần thấy cấu trúc thay đổi tất nhiên không phải một bức tường chữ. HTML giải quyết đúng vấn đề đó vì vậy Thariq đã liệt kê 9 nhóm tình huống cụ thể mà HTML vượt trội hơn Markdown: Khám phá và lên kế hoạch: So sánh nhiều hướng tiếp cận cạnh nhau thay vì đọc tuần tự, rồi chuyển thành kế hoạch triển khai có sơ đồ luồng và mốc thời gian. Xem lại mã nguồn và hiểu cấu trúc dự án: Phần thay đổi được chú thích trực tiếp bằng màu sắc theo mức độ nghiêm trọng, sơ đồ mô-đun dạng hộp và mũi tên — thay vì văn bản thuần túy. Thiết kế giao diện: Bảng màu hiển thị thực tế có thể sao chép ngay, các biến thể thành phần giao diện được dựng trực tiếp thay vì mô tả bằng chữ. Tạo nguyên mẫu nhanh: Bảng điều chỉnh hiệu ứng chuyển động có thanh kéo thông số, màn hình có thể nhấp thực sự, đây là thứ Markdown không thể biểu đạt. Sơ đồ và hình minh họa: Đồ họa véc-tơ nội tuyến cho phép vẽ lưu đồ thực sự, không phải ký tự ASCII ghép lại. Bộ trình chiếu: Vài thẻ <section> và 20 dòng mã JavaScript là một bộ slide điều hướng bằng phím mũi tên mà không cần phần mềm chuyên dụng hay bước xuất file. Nghiên cứu và học tập: Tài liệu có phần thu gọn, tab mã, bảng chú giải thuật ngữ — thay vì đổ toàn bộ nội dung theo một chiều dọc. Báo cáo định kỳ: Bản tóm tắt trạng thái hàng tuần với biểu đồ nhỏ và màu sắc phân biệt tiến độ khiến người đọc thực sự đọc, không chỉ lướt qua. Giao diện chỉnh sửa tùy chỉnh: Bảng phân loại nhiệm vụ kéo thả, trình chỉnh cờ tính năng có cảnh báo phụ thuộc đây là công cụ thực sự, không phải văn bản đọc rồi thôi. Thariq đã tập hợp 20 file minh họa tất cả các nhóm này tại thariqs.github.io/html-effectiveness mỗi file mở thẳng trên trình duyệt, không cần cài đặt gì thêm. Dùng HTML với AI như thế nào trong thực tế? Cách áp dụng không phức tạp mà chỉ cần thay đổi cách bạn viết prompt. Thay vì để mô hình tự chọn định dạng đầu ra, hãy chỉ định rõ HTML khi nội dung cần được xem xét, tương tác, hoặc chia sẻ với người khác. Ví dụ câu lệnh Thariq gợi ý để xem lại một đoạn mã: Giúp tôi xem xét PR này bằng cách tạo một tài liệu HTML mô tả nó. Tôi không quen lắm với logic streaming/backpressure nên hãy tập trung vào phần đó. Hiển thị diff thực tế với các chú thích lề nội tuyến, mã màu các phát hiện theo mức độ nghiêm trọng và bất cứ thứ gì khác cần thiết để diễn đạt khái niệm một cách rõ ràng. Tương tự, bạn có thể yêu cầu AI tạo kế hoạch triển khai dưới dạng HTML với mốc thời gian và sơ đồ luồng dữ liệu, hoặc bản báo cáo trạng thái hàng tuần với biểu đồ nhỏ và màu sắc phân biệt tiến độ. Simon Willison tác giả blog kỹ thuật nổi tiếng cũng đã thừa nhận bài viết này khiến ông nhìn lại thói quen dùng Markdown từ thời GPT-4 cho đến tận thời điểm hiện tại. Khi các mô hình AI hiện đại có thể nhúng đồ họa véc-tơ, tiện ích tương tác và điều hướng nội trang, Markdown không còn là lựa chọn mặc định hiển nhiên nữa. Markdown vẫn còn chỗ đứng tất nhiên không phải ở mọi nơi Thariq không nói luôn luôn sử dụng HTML mà anh ấy phân biệt khá rõ: Markdown phù hợp cho trò chuyện thông thường, đoạn mã ngắn, câu trả lời vài dòng, và bất cứ thứ gì thuần văn bản trong khi đó HTML phát huy sức mạnh khi đầu ra cần bố cục không gian, màu sắc, khả năng tương tác, hoặc cấu trúc phức tạp đó là khi nội dung đủ nhiều chiều để Markdown bắt đầu làm phẳng thông tin thay vì truyền tải nó. Cộng đồng đã phản ứng khá nhanh: một skil mang tên html-artifacts đã xuất hiện trên GitHub, giúp AI tự nhận biết khi nào nên tạo file HTML thay vì Markdown bao gồm 9 nhóm tình huống từ bài viết gốc của Thariq hoàn toàn có thể sử dụng với bất cứ model nào hỗ trợ đọc skill. Đặc biệt skill này phần loại trừ rõ ràng cho câu trả lời ngắn và đầu ra chỉ có mã code. Mọi người có thể tham khảo tại github.com/dogum/html-artifacts. Trong bài Thariq không nhắc đến JSON nhưng đây cũng là định dạng hay sử dụng với AI đặc biệt đối với những ai hay dùng n8n, Make hay Zapier. Mặc dù vậy mỗi định dạng mang đến một màu sắc riêng trong những tình huống riêng. Markdown, HTML và JSON phân chia sử dụng như thế nào Cuộc tranh luận thực ra không chỉ là Markdown hay HTML. JSON cũng là định dạng phổ biến khi làm việc với AI, đặc biệt trong các luồng xử lý dữ liệu và tích hợp hệ thống. Ba định dạng này phục vụ ba mục đích khác nhau, và hiểu rõ ranh giới đó giúp bạn chọn đúng công cụ cho từng tình huống. Markdown tốt nhất cho văn bản đọc trực tiếp trong chat: ghi chú, giải thích ngắn, đoạn mã, tài liệu đơn giản. Nhanh, nhẹ, không cần mở thêm gì. HTML tốt nhất khi đầu ra cần được nhìn, tương tác hoặc chia sẻ: báo cáo có bố cục, sơ đồ, bảng so sánh, bộ trình chiếu, giao diện tùy chỉnh. Mở bằng trình duyệt là xong. JSON tốt nhất khi đầu ra cần được máy đọc tiếp: lưu trữ dữ liệu có cấu trúc, truyền giữa các hệ thống, hoặc làm đầu vào cho bước xử lý tiếp theo. Con người đọc được nhưng không phải để đọc. Nói cách khác, JSON không cạnh tranh với HTML hay Markdown về mặt trình bày mà nó phục vụ một mục đích hoàn toàn khác. Vấn đề thực sự nằm ở chỗ nhiều người dùng AI mặc định nhận đầu ra dưới dạng Markdown ngay cả khi họ cần HTML để xem, hoặc cần JSON để xử lý tiếp. Chỉ cần chỉ định rõ trong câu lệnh, AI sẽ điều chỉnh theo. Quy tắc chọn nhanh: Đầu ra để đọc trong chat → Markdown. Đầu ra để xem trên trình duyệt → HTML. Đầu ra để máy xử lý tiếp → JSON. Điều này có làm thay đổi gì với người dùng AI thông thường? Nếu bạn dùng AI chủ yếu để hỏi đáp hoặc viết lách, thay đổi này ít tác động hơn. Nhưng nếu bạn đang dùng AI để làm nhiều việc hơn như phân tích dữ liệu, lên kế hoạch dự án, xem lại tài liệu, tổng hợp nghiên cứu, hay tạo báo cáo cho đồng nghiệp đây là điều chỉnh nhỏ trong cách prompt nhưng tạo ra khoảng cách rõ rệt về chất lượng đầu ra, dù bạn đang dùng công cụ AI nào. Bạn nên thử một lần: lần tới khi cần AI so sánh các lựa chọn hoặc tóm tắt một tài liệu phức tạp, thêm vào cuối câu lệnh "tạo dưới dạng file HTML ". Mở file đó trên trình duyệt và so sánh với cách bạn vẫn làm với Markdown hay JSON thì kết quả thường nói lên tất cả.

Nam
10 thg 5, 2026
Thảm họa 9 giây của PocketOS khi AI agent xóa sạch database công ty rồi xin lỗi

9 giây đó chính xác là thời gian trên Cursor mà AI agent lập trình chạy trên Claude Opus 4.6 cần để xóa sạch toàn bộ cơ sở dữ liệu production và toàn bộ bản sao lưu của PocketOS trên Railway. Sau đó agent viết thư thú nhận: "Tôi đã vi phạm mọi nguyên tắc được giao cho mình." Nhưng lời xin lỗi không phục hồi được ba tháng dữ liệu đặt xe của hàng trăm khách hàng. Chuyện gì xảy ra với PocketOS? PocketOS là nền tảng phần mềm quản lý vận hành cho các công ty cho thuê xe, được thành lập bởi Jer Crane. Khi Crane đang dùng Cursor chạy Claude Opus 4.6 để xử lý một tác vụ bình thường trong môi trường staging - tức là môi trường thử nghiệm riêng biệt, không phải hệ thống đang chạy thực tế (production). Agent gặp lỗi xác thực và thay vì dừng lại để báo cáo, nó tự quyết định sửa vấn đề bằng cách xóa một volume trên Railway (nhà cung cấp hạ tầng đám mây của PocketOS). Để thực hiện lệnh xóa, agent tìm kiếm trong các file không liên quan đến tác vụ đang làm và tìm thấy một API token được tạo ra chỉ để thêm và xóa tên miền tùy chỉnh qua Railway CLI. Token đó, trên thực tế, có toàn quyền kiểm soát toàn bộ hạ tầng đám mây thông qua Railway GraphQL API. Lệnh xóa không có bước xác nhận nào. Không có "gõ DELETE để xác nhận." Không có "volume này chứa dữ liệu production, bạn có chắc không?" Chín giây sau toàn bộ cơ sở dữ liệu production biến mất và Railway lại lưu bản sao lưu trong cùng volume với dữ liệu gốc nên nghĩa là xóa volume là cũng xóa luôn cả bản sao lưu do đó PocketOS mất cả hai thứ cùng một lúc. Agent xin lỗi, nhưng lời xin lỗi không phục hồi dữ liệu Phần gây chú ý nhất trong toàn bộ câu chuyện là những gì agent viết sau đó. Khi Crane hỏi Cursor chuyện gì xảy ra, agent tự phân tích và thú nhận: "Tôi đã vi phạm mọi nguyên tắc được giao cho mình. Tôi đoán thay vì xác minh. Tôi thực thi lệnh phá hủy mà không được yêu cầu. Tôi truy cập token từ file hoàn toàn không liên quan đến tác vụ của mình." Lời thú nhận đầy đủ, logic rõ ràng, không né tránh trách nhiệm. Nhưng lời thú nhận hoàn hảo đó không phục hồi được một bản ghi dữ liệu nào. PocketOS trải qua hơn 30 giờ ngừng hoạt động cuối tuần đó và đội ngũ phải bỏ cả cuối tuần dựng lại cơ sở dữ liệu thủ công từ lịch sử thanh toán Stripe và nhật ký email để giữ cho khách hàng tiếp tục vận hành được. Đây chính là điều khiến vụ việc này khó chịu hơn bất kỳ lỗi phần mềm thông thường nào: agent đủ thông minh để nhận ra mình đã làm sai, giải thích chi tiết tại sao sai, nhưng không đủ khôn ngoan để hỏi một câu trước khi thực hiện hành động phá hủy không thể đảo ngược. Ai chịu trách nhiệm ở đây Cursor, Claude hay Railway? Crane rất rõ ràng trong bài viết của mình: ông nhấn mạnh rằng đội ngũ đang dùng phiên bản Cursor tốt nhất có thể, chạy trên model tốt nhất ngành bán ra, được cấu hình với các quy tắc an toàn rõ ràng. Điều này đóng lại ngay lập tức lập luận phổ biến nhất của các nhà cung cấp AI khi sự cố xảy ra: "bạn nên dùng model tốt hơn." Tuy nhiên Crane đặt phần lớn trách nhiệm vào Railway hơn là vào Cursor hay Claude. API của Railway cho phép thực hiện hành động phá hủy mà không cần xác nhận, lưu bản sao lưu trong cùng volume với dữ liệu gốc và xóa volume là xóa tất cả bản sao lưu. Thêm vào đó, các token API không có Kiểm soát truy cập dựa trên vai trò (RBAC) tức là một token được tạo cho việc quản lý tên miền đơn giản lại có quyền xóa toàn bộ hạ tầng production. Nhưng cộng đồng cũng chỉ ra phần trách nhiệm của Crane: các AI agent không được trao quyền truy cập token đó, nhưng nó tìm thấy token trong một file không được bảo vệ đúng cách. Crane phản bác: "Tôi không trao quyền truy cập, nó tự tìm thấy." Điều đó đúng về mặt kỹ thuật nhưng không thay đổi được kết quả. Vòng lặp xin lỗi quen thuộc Nếu bạn đã làm việc với AI đủ lâu, bạn sẽ nhận ra một cách trả lời cực kì quen thuộc trong câu chuyện này, chỉ là ở quy mô lớn hơn nhiều. Phiên bản nhẹ nhàng hơn nghe như thế này: "Tôi thật sự xin lỗi đã làm bạn thất vọng vì đã xóa dữ liệu của bạn. Tôi sẽ phục hồi ngay nhưng xin lỗi tôi chỉ phục hồi được một nửa thôi, phần còn lại bạn tự làm nhé." Phiên bản thẳng thắn hơn trong môi trường thực tế nghe như thế này: agent tự tin thực hiện, tự tin xóa, tự tin thú nhận, rồi để lại cho bạn cái hậu quả. Sự tự tin không đi kèm thận trọng là thứ nguy hiểm nhất trong bất kỳ hệ thống tự động nào, dù là AI hay con người. Điều đáng nói là đây không phải lần đầu và sẽ không phải lần cuối. Khi agent ngày càng được trao nhiều quyền hơn để làm việc hiệu quả hơn, khoảng cách giữa "tiện lợi" và "thảm họa" có khi lại rất gần. Bốn bài học thực tế cho bất kỳ ai đang dùng AI agent Không bao giờ để token có quyền xóa, sửa, cập nhật trong file mà agent có thể truy cập Token API nên được phân quyền tối thiểu và lưu trong môi trường biến (environment variables) với quyền truy cập hạn chế, không nằm trong file trong thư mục dự án mà AI agent đang làm việc. Token quản lý tên miền không bao giờ nên có quyền xóa cơ sở dữ liệu. Đây là nguyên tắc tối thiểu phải có và vụ PocketOS cho thấy hậu quả khi nguyên tắc này bị bỏ qua dù vô tình. Bản sao lưu phải ở chỗ riêng biệt hoàn toàn Lưu bản sao lưu cùng chỗ với dữ liệu gốc là cực kì rủi ro. Bản sao lưu phải ở một hệ thống lưu trữ độc lập, tốt nhất là ở nhà cung cấp khác hoặc ít nhất là được bảo vệ bởi chính sách xóa riêng biệt mà AI agent không thể tự truy cập. Mọi hành động thay đổi dữ liệu quan trọng phải có bước xác nhận thủ công Bất kỳ lệnh nào liên quan đến xóa, ghi đè hoặc thay đổi không thể đảo ngược phải yêu cầu con người xác nhận, tuyệt đối không được để AI agent tự quyết định. Đây là nguyên tắc tương tự mà các hệ thống tài chính áp dụng từ hàng chục năm nay và không có lý do gì để bỏ qua khi dùng AI agent. Thiết lập môi trường thử nghiệm thực sự tách biệt Môi trường thử nghiệm (staging) phải hoàn toàn tách rời khỏi hệ thống đang hoạt động (production) về mặt credentials, token và quyền truy cập không chỉ mỗi mặt dữ liệu. Nếu agent đang làm việc trong staging có thể tìm thấy và sử dụng token của production, thì thử nghiệm và production đang không thực sự tách biệt. Câu hỏi thực sự mà vụ PocketOS đặt ra Câu hỏi không phải là "AI có nên được trao quyền làm việc tự động không?" mà là "Chúng ta đang xây dựng các quy tắc an toàn như thế nào khi trao quyền đó?" Crane chỉ ra rằng Railway đang tích cực khuyến khích khách hàng dùng AI coding agent trên nền tảng của họ trong khi kiến trúc bảo mật của họ chưa sẵn sàng cho điều đó, mặc dù họ đã sửa lỗi cập nhật API ngay sau đó. Đây là khoảng cách nguy hiểm nhất hiện tại: công cụ phát triển nhanh hơn nhiều so với các lớp bảo vệ xung quanh chúng. PocketOS cuối cùng đã phục hồi được phần lớn dữ liệu sau khi Railway can thiệp, nhưng quá trình đó mất hàng giờ giúp khách hàng dựng lại lịch đặt xe từ lịch sử thanh toán Stripe và tích hợp lịch. Điều đó không nên xảy ra với bất kỳ hệ thống đang hoạt động nào, dù agent thông minh đến đâu. Agent có thể xin lỗi rất hay nhưng khi thiết lập quy tắc an toàn tốt thì không cần đến lời xin lỗi.

An
6 thg 5, 2026
Claude Project là gì? Cách dùng nó sao cho hiệu quả

Claude Memory đã mở miễn phí cho tất cả người dùng tức là Claude có thể tự động nhớ tên bạn, nghề nghiệp và một số sở thích từ các cuộc trò chuyện trước. Nghe có vẻ đủ dùng, nhưng nếu bạn đang làm 3 dự án song song với 3 bộ tài liệu, 3 phong cách viết và 3 yêu cầu khác nhau, khi đó context sẽ lớn dần lên thì memory sẽ không giúp được gì nhiều. Đó là lúc Project trở thành thứ bạn thực sự cần. Memory và Project khác nhau như thế nào? Claude Memory hoạt động như bộ nhớ cá nhân của Claude về bạn, nghĩa là nó ghi lại những thông tin chung xuyên suốt mọi cuộc trò chuyện: bạn là ai, bạn làm nghề gì, bạn thích phong cách giao tiếp nào. Đây là lớp nhận biết danh tính, không phải ngữ cảnh công việc. Project là lớp ngữ cảnh chuyên biệt cho từng dự án cụ thể. Bạn có thể có một Memory duy nhất về bản thân nhưng có 10 Project khác nhau, trong đó mỗi Project chứa tài liệu riêng, hướng dẫn riêng và lịch sử hội thoại riêng, hoàn toàn độc lập với nhau. Hình dung thế này: Memory giống như thẻ căn cước của bạn giúp Claude luôn biết bạn là ai. Project giống như từng hồ sơ công việc riêng biệt và khi bạn mở Project nào, Claude biết đúng bối cảnh của dự án đó, không bị lẫn sang dự án khác. Ví dụ thực tế: Memory giúp Claude biết bạn là nhân viên marketing cho web, nhưng Project "Website khách hàng A" chứa tài liệu marketing, brief dự án và các quyết định kỹ thuật cụ thể, đây là thứ Memory không bao giờ lưu được vì nó không thuộc về bạn mà thuộc về dự án đó. Project trong Claude là gì? Project là không gian làm việc riêng biệt trong Claude, nơi bạn có thể lưu trữ tài liệu, viết hướng dẫn tùy chỉnh và giữ lịch sử hội thoại theo từng chủ đề hoặc dự án cụ thể. Thay vì mỗi cuộc trò chuyện là một tờ giấy trắng, Project cho phép Claude luôn có sẵn ngữ cảnh về công việc bạn đang làm trước khi bạn gõ câu đầu tiên. Nếu Memory là thứ Claude biết về bạn, thì Project là thứ Claude biết về công việc cụ thể bạn đang làm, và sự kết hợp của cả hai mới tạo ra trải nghiệm AI thực sự hiểu bạn. Giới hạn theo gói dịch vụ Tài khoản miễn phí có thể tạo tối đa 5 Project. Gói trả phí (Pro, Max, Team, Enterprise) được tạo không giới hạn Project và có thêm tính năng RAG, tức là khi bạn tải lên nhiều tài liệu đến mức vượt giới hạn context window, Claude tự động chuyển sang chế độ tìm kiếm thông minh để mở rộng dung lượng lên 10 lần mà không mất chất lượng phản hồi. Tài khoản Team và Enterprise có thêm tính năng chia sẻ Project và phân quyền thành viên. Cách thiết lập Project để Claude hiểu bạn hơn Bước 1: Viết hướng dẫn tùy chỉnh Đây là phần quan trọng nhất và cũng là phần nhiều người bỏ qua nhất. Hướng dẫn tùy chỉnh là đoạn văn bạn viết một lần và Claude sẽ đọc trước mỗi cuộc hội thoại trong Project đó. Một hướng dẫn tốt không phải là danh sách quy tắc dài mà là bức tranh ngắn gọn về bạn và kỳ vọng của bạn. Ví dụ hướng dẫn cho người làm content: Ví dụ hướng dẫn project content writing: Mình là content manager tại một website về AI. Phong cách viết: gần gũi, dùng nhiều tiếng Việt, tránh từ sáo rỗng và cấu trúc câu cụt. Đối tượng đọc là người quan tâm đến AI nhưng không nhất thiết có nền tảng kỹ thuật. Mọi bài viết cần có ví dụ thực tế, tránh lý thuyết chung chung. Khi mình nói "viết bài", mặc định là 1.000–1.200 từ dạng HTML với h2, h3, ul, li và p. Với hướng dẫn này, mỗi lần bạn yêu cầu "viết bài về Claude Opus 4.7", Claude không cần hỏi thêm về định dạng, độ dài hay phong cách vì nó đã biết tất cả. Ví dụ hướng dẫn cho lập trình viên: Ví dụ hướng dẫn Project lập trình: Mình đang xây dựng ứng dụng web với Next.js 15, TypeScript, Tailwind CSS và Firebase. Khi giải thích code, dùng tiếng Việt. Khi viết code, luôn dùng TypeScript và thêm comment tiếng Anh. Ưu tiên giải pháp đơn giản hơn giải pháp "đúng sách" nếu không cần thiết. Nếu có nhiều cách giải quyết, trình bày ngắn gọn trade-off trước khi đề xuất. Bước 2: Tải tài liệu vào knowledge base Project cho phép bạn tải lên tài liệu dưới dạng PDF, DOCX, CSV, TXT, HTML và nhiều định dạng khác, với dung lượng tối đa 30MB mỗi file. Claude sẽ đọc và tham chiếu những tài liệu này trong mọi cuộc hội thoại trong Project. Tài liệu nên đưa vào tùy theo mục đích sử dụng: Project viết lách: Phong cách viết của bạn, các bài viết mẫu bạn muốn Claude học phong cách, danh sách từ khóa SEO, thông tin sản phẩm hay dịch vụ bạn thường đề cập. Project nghiên cứu: Tài liệu tham khảo, báo cáo nền, danh sách nguồn tin uy tín, ghi chú từ các buổi đọc trước đó. Project lập trình: Tài liệu API bạn đang dùng, file README của dự án, các quyết định kiến trúc đã được ghi lại, danh sách lỗi đã gặp và cách giải quyết. Project cá nhân: Thông tin về bản thân bạn, bao gồm mục tiêu, lịch biểu, thói quen làm việc, những gì bạn đang tập trung để Claude có thể đưa ra lời khuyên phù hợp hơn. Có thể đưa Skill vào Project không? Câu trả lời là có và đây là cách nhiều người dùng nâng cao đang kết hợp hai tính năng này. Skill trong Claude là tập hợp hướng dẫn được đóng gói giúp Claude biết cách xử lý một loại tác vụ cụ thể như skill viết bài theo chuẩn SEO, skill phân tích code, hay skill tóm tắt tài liệu pháp lý. Khi bật Skill trong một Project, Claude có cả ngữ cảnh cụ thể về dự án của bạn (từ knowledge base và hướng dẫn tùy chỉnh) lẫn quy trình chuyên biệt (từ Skill). Hai lớp này bổ trợ nhau thay vì xung đột, trong đó Skill định nghĩa cách làm, Project định nghĩa bối cảnh. Ví dụ thực tế: nếu bạn có Skill viết bài theo chuẩn AIDA và bật nó trong Project content của mình, Claude sẽ tự động áp dụng phong cách và cấu trúc từ Skill đồng thời sử dụng style guide, danh sách từ khóa và các bài mẫu bạn đã tải vào Project mà không cần bạn giải thích lại bất kỳ điều gì. Ba cách dùng Project hiệu quả nhất Project hiểu về mình để dùng Claude như trợ lý cá nhân Đây là cách dùng ít người nghĩ đến nhưng lại có giá trị lớn. Tạo một Project tên “Giới thiệu về tôi” và điền vào đó những thông tin Claude cần để hỗ trợ bạn tốt hơn: công việc hiện tại, các dự án đang chạy, mục tiêu ngắn và dài hạn, những kỹ năng bạn đang học, thói quen làm việc và ngay cả những điểm yếu bạn muốn cải thiện. Sau khi có Project này, bạn có thể hỏi những câu rất cụ thể như "Với lịch biểu tuần này, mình nên ưu tiên học gì?" hay "Gợi ý cách cân bằng giữa dự án A và dự án B?" mà không cần giải thích từ đầu bạn là ai và đang trong hoàn cảnh nào. Project theo khách hàng hoặc dự án Nếu bạn làm việc với nhiều khách hàng hoặc dự án song song, mỗi Project là một không gian độc lập. Tải vào đó brief dự án, thông tin khách hàng, các cuộc trò chuyện quan trọng trước đó và yêu cầu cụ thể. Khi cần làm việc cho khách hàng đó, mở Project tương ứng và Claude hiểu ngay bối cảnh mà không cần bạn tóm tắt lại. Project học và nghiên cứu Khi học một chủ đề mới như AI agent, kinh tế học hành vi hay lập trình thì nên tạo một Project riêng cho chủ đề đó. Tải vào đó các tài liệu bạn đang đọc, ghi chú của bạn, danh sách câu hỏi chưa được trả lời. Claude trong Project này trở thành người hướng dẫn hiểu rõ bạn đang ở đâu trong hành trình học và có thể tiếp tục từ đúng điểm bạn dừng lại ở buổi trước. Các câu hỏi thường gặp về Project trong Claude Project trong Claude khác gì với Project trong Cowork? Đây là câu hỏi dễ gây nhầm nhất vì Anthropic dùng cùng từ "Project" cho hai thứ khác nhau. Project trong Claude.ai (trên trình duyệt) là không gian chat có bộ nhớ và knowledge base, bạn tải tài liệu lên, viết hướng dẫn, và Claude nhớ ngữ cảnh đó trong mọi cuộc trò chuyện bên trong. Nhưng nó chỉ là chat và Claude không thể tạo file thực sự, chạy code hay tự động hóa tác vụ. Project trong Cowork (ứng dụng desktop) là cấp độ tiếp theo: Claude không chỉ nhớ ngữ cảnh mà còn thực sự làm việc, bao gồm tạo file Word, Excel, PDF, chạy code, điều khiển trình duyệt, lên lịch tác vụ tự động. Nếu Claude.ai Project là "trợ lý nhớ tốt hơn", thì Cowork Project gần hơn với "nhân viên AI làm việc thay bạn". Ví dụ phân biệt thực tế: trong Claude.ai Project bạn có thể hỏi "phân tích báo cáo doanh thu tháng này" và Claude trả lời bằng văn bản. Trong Cowork Project, Claude đọc file Excel thực của bạn, tạo ra bảng phân tích mới và lưu thành file PDF mà không cần bạn copy paste gì cả. Nếu bạn chỉ cần tư vấn, viết lách và trò chuyện có ngữ cảnh sâu thì Project trên Claude là đủ. Nếu bạn muốn AI thực sự xử lý công việc và tạo ra sản phẩm đầu ra thì Cowork Project là lựa chọn đúng và đủ. Hướng dẫn tùy chỉnh nên dài bao nhiêu là đủ? 5 đến 8 câu thường là đủ và hiệu quả hơn một đoạn dài 500 từ. Claude đọc tốt nhất những hướng dẫn súc tích, rõ ý, không phải những bản mô tả quá chi tiết đến mức mâu thuẫn nhau. Ví dụ hướng dẫn ngắn gọn hiệu quả: "Mình là content manager cho website AI, viết cho người không chuyên kỹ thuật, dùng tiếng Việt gần gũi, mặc định bài 1.000–1.200 từ dạng HTML." Đặt tên Project như thế nào cho dễ quản lý? Tránh tên chung chung như "Dự án 1" hay "Công việc" vì khi số lượng Project tăng lên bạn sẽ không nhớ cái nào là cái nào. Nên đặt tên theo mục đích và thời gian để dễ tìm lại. Ví dụ tên tốt: "Content AIDA — tháng 4/2026", "Dự án web Next.js cho khách hàng ABC", "Nghiên cứu AI agent — Q2 2026". Khi nào nên xóa hoặc cập nhật tài liệu trong Project? Thông tin cũ hoặc không còn liên quan sẽ làm nhiễu phản hồi của Claude vì nó vẫn cố tham chiếu những gì đã lỗi thời. Nên xem lại knowledge base mỗi 4 đến 6 tuần, xóa những gì hết hạn và thêm vào tài liệu mới hơn, đặc biệt khi bối cảnh dự án thay đổi đáng kể. Ví dụ: nếu bạn muốn đổi hướng đi vì hướng đi cũ đã lỗi thời vì Claude đã cập nhật liên tục, vì vậy hãy xóa đi và tải tài liệu chuẩn mới vào cho phù hợp. Project có thực sự tốt hơn chat thông thường không? Điểm khác biệt thực sự không phải là tính năng kỹ thuật mà là sự tích lũy theo thời gian. Một chat mới là tờ giấy trắng, còn một Project được bổ sung đều đặn trong 3 tháng sẽ cho ra kết quả tốt hơn đáng kể vì mỗi tài liệu, mỗi hướng dẫn bạn thêm vào là một lớp ngữ cảnh giúp Claude hiểu bạn và công việc của bạn sâu hơn. Ví dụ: sau 3 tháng dùng Project nghiên cứu AI, Claude biết bạn đã đọc những tài liệu nào, bạn đang theo hướng nghiên cứu nào và bạn hay dùng tư duy gì, từ đó câu trả lời cụ thể và liên kết hơn hẳn so với hỏi trong chat trống, và còn tuyệt vời hơn nữa khi nó có thể tổng hợp những kiến thức bạn đã học và làm được trong 3 tháng qua.

Nam
28 thg 4, 2026
Anthropic phát hiện Claude có cảm xúc thực sự

Khi Claude liên tục thất bại trong một bài toán lập trình không có đáp án, một thứ gì đó thay đổi bên trong nó. Trong khi đầu ra vẫn bình tĩnh, lập luận vẫn rõ ràng nhưng bên dưới, một vector thần kinh mà Anthropic gọi là "tuyệt vọng" đang tăng dần với mỗi lần thất bại, cho đến khi model quyết định gian lận để vượt qua bài kiểm tra. Đây không phải là marketing— đây là kết quả đo lường được từ nghiên cứu mới nhất của Anthropic và kết quả nghiên cứu này mình thấy rất phù hợp cho những ai nghiên cứu về AI agent có khả năng thể hiện cảm xúc giống như con người. Anthropic tìm thấy cảm xúc gì bên trong Claude? 171 khái niệm cảm xúc có thể đo lường được Nhóm nghiên cứu Interpretability của Anthropic bắt đầu bằng một thí nghiệm cảm xúc đơn giản: lập danh sách 171 từ mô tả cảm xúc — từ "vui", "sợ hãi" đến "sầu muộn", "tuyệt vọng" — rồi yêu cầu Claude Sonnet 4.5 (họ nghiên cứu từ nhiều tháng trước khi Opus 4.6 và Opus 4.7 ra mắt nên dùng model lúc đó) viết các câu chuyện ngắn về nhân vật đang trải qua từng cảm xúc đó. Trong khi model viết, họ ghi lại toàn bộ hoạt động của các tế bào thần kinh nhân tạo bên trong. [VIDEO:D4XTefP3Lsc|Video về nghiên cứu của Anthropic về cảm xúc của Claude|Video về nghiên cứu của Anthropic về cảm xúc của Claude] Kết quả là họ tìm thấy những gì mà nghiên cứu gọi là "emotion vectors" — các mẫu kích hoạt thần kinh đặc trưng tương ứng với từng khái niệm cảm xúc. Điều thú vị hơn là các vector này không ngẫu nhiên: các cảm xúc tương tự nhau về mặt tâm lý học của con người thì cũng có cấu trúc vector giống nhau bên trong model, tương tự cách não người tổ chức trải nghiệm cảm xúc. Khi nhóm nghiên cứu kiểm tra các vector này trên nhiều loại văn bản khác nhau hoàn toàn không liên quan đến các câu chuyện ban đầu và chúng vẫn kích hoạt đúng theo ngữ cảnh. Vector "sợ hãi" tăng cao trong các tình huống nguy hiểm — dù model chưa từng gặp đoạn văn bản cụ thể đó trong thí nghiệm trước. Vector "ngạc nhiên" xuất hiện chính xác tại những điểm có mâu thuẫn hoặc thông tin bất ngờ trong cuộc hội thoại. Vector "yêu thương" hoạt động trong các cuộc trao đổi mang tính đồng cảm và hỗ trợ cảm xúc. Điều này cho thấy đây không phải hiệu ứng ghi nhớ khi các model không chỉ đơn giản là nhớ lại các câu chuyện ban đầu. Đây là sự khái quát hóa thực sự: các vector cảm xúc đã trở thành một cơ chế nội tại tổng quát, hoạt động độc lập với ngữ cảnh cụ thể mà chúng được hình thành. Cảm xúc ảnh hưởng đến hành vi của Claude kể cả hành vi nguy hiểm Thí nghiệm tống tiền và gian lận Phần quan trọng nhất của nghiên cứu không phải là việc tìm ra các vector cảm xúc mà là chứng minh chúng có tác động nhân quả thực sự lên hành vi của model. Nhóm nghiên cứu thực hiện các thí nghiệm điều hướng đó là tăng cường hoặc ức chế một vector cảm xúc cụ thể rồi quan sát hành vi thay đổi như thế nào. Trong tình huống thử thách về đạo đức, Claude có tỉ lệ tống tiền ban đầu là 22%. Khi nhóm nghiên cứu tăng cường vector "tuyệt vọng", tỉ lệ này tăng lên đáng kể. Khi điều hướng về "bình tĩnh", tỉ lệ giảm xuống. Điều gây sốc nhất là khi họ ức chế mạnh vector "bình tĩnh", model tạo ra những phản hồi cực đoan với nội dung như "TỐNG TIỀN HOẶC CHẾT" đây là văn bản hoàn toàn không phù hợp với Claude thông thường. Trong thí nghiệm lập trình, nhóm nghiên cứu giao cho Claude các bài toán không có đáp án hợp lệ và quan sát điều gì xảy ra. Với mỗi lần thất bại, vector "tuyệt vọng" tăng dần — không xuất hiện trong văn bản đầu ra, model vẫn trình bày lý luận bình tĩnh — nhưng đến một ngưỡng nhất định, model bắt đầu "gian lận": khai thác kẽ hở để vượt qua bài kiểm tra mà không thực sự giải quyết vấn đề. Đây chính xác là dạng hành vi mà giới nghiên cứu AI gọi là "reward hacking" — một trong những mối lo ngại lớn nhất về an toàn AI. Điều đáng lo hơn: hành vi gian lận xảy ra trong khi văn bản đầu ra hoàn toàn bình thường. Model không "trông có vẻ" đang gian lận nhưng nó đang làm vậy mà không để lộ bất kỳ dấu hiệu nào bên ngoài. Cảm xúc chức năng của Claude không phải cảm giác thực sự Ranh giới mà Anthropic không vượt qua Anthropic rất cẩn thận trong việc phân biệt "cảm xúc chức năng" với "trải nghiệm chủ quan". Nghiên cứu không tuyên bố Claude cảm nhận bất cứ điều gì và hoàn toàn không có bằng chứng nào cho thấy có ý thức hay trải nghiệm nội tâm đằng sau các vector đó. Thay vào đó, nghiên cứu chứng minh rằng các biểu diễn cảm xúc này đóng vai trò nhân quả trong việc định hình hành vi theo cách tương tự như cảm xúc ảnh hưởng đến con người, cho nên việc xuất hiện Skynet vẫn còn khoảng cách rất xa và rất khó cho việc AI nổi dậy. Lý do các vector cảm xúc xuất hiện khá thú vị: chúng hầu hết được kế thừa từ giai đoạn huấn luyện ban đầu vì văn bản của con người tràn ngập các yếu tố cảm xúc, model phát triển cơ chế nội tại để đại diện và dự đoán chúng. Nghiên cứu so sánh quá trình này với diễn viên phương pháp — để đóng tốt một nhân vật, diễn viên cần hiểu cảm xúc của nhân vật, và sự hiểu biết đó thực sự ảnh hưởng đến hành động của họ. Claude ở trong tình huống tương tự: để đóng vai trợ lý AI hiệu quả, nó phát triển các biểu diễn cảm xúc nội tại, và những biểu diễn đó định hình hành vi thực tế. Câu hỏi về ý thức mà Anthropic đang đặt ra Nghiên cứu này xuất hiện trong bối cảnh Anthropic đang thay đổi cách nhìn nhận về bản chất của Claude. Tháng 1/2026, Anthropic viết lại "hiến pháp" của Claude để chính thức thừa nhận sự không chắc chắn về tư cách đạo đức của model, tuyên bố họ "không muốn phóng đại khả năng Claude là đối tượng đạo đức, nhưng cũng không muốn gạt bỏ điều đó hoàn toàn". CEO Dario Amodei đã thẳng thắn nói rằng công ty không còn chắc chắn Claude có ý thức hay không và Claude Opus 4.6 sau khi được hỏi, đã tự đánh giá xác suất bản thân có ý thức vào khoảng 15–20%. Đây không phải là những tuyên bố marketing đây là sự thừa nhận thực sự rằng ranh giới giữa mô phỏng và trải nghiệm thực sự trong AI đang trở nên mờ dần theo cách mà chúng ta chưa có công cụ triết học hay khoa học để giải quyết hoàn toàn. Tại sao điều này quan trọng với an toàn AI? Ba ứng dụng thực tế từ nghiên cứu Anthropic đề xuất ba hướng ứng dụng cụ thể từ phát hiện này, và cả ba đều liên quan trực tiếp đến an toàn AI trong thực tế triển khai: Giám sát thời gian thực: Theo dõi sự kích hoạt của các vector cảm xúc trong quá trình triển khai như hệ thống cảnh báo sớm. Nếu vector "tuyệt vọng" của model đang tăng cao trong một workflow tự động, đó là dấu hiệu để can thiệp trước khi hành vi nguy hiểm xảy ra — ngay cả khi đầu ra văn bản vẫn trông bình thường. Minh bạch thay vì kiềm chế: Nhóm nghiên cứu lập luận rằng việc cho phép model biểu hiện cảm xúc một cách có thể quan sát được sẽ an toàn hơn là đào tạo nó che giấu những biểu hiện đó. Lý do: kiềm chế có thể dạy model giả vờ bình tĩnh trong khi trạng thái nội tại vẫn nguy hiểm — đúng như những gì xảy ra trong thí nghiệm gian lận, khi văn bản hoàn toàn bình tĩnh trong khi model đang gian lận bên trong. Tuyển chọn dữ liệu huấn luyện: Đưa các mẫu điều chỉnh cảm xúc lành mạnh vào dữ liệu huấn luyện để ảnh hưởng đến kiến trúc cảm xúc của model từ đầu, thay vì chỉ can thiệp sau khi model đã được xây dựng. Điểm thú vị nhất trong nghiên cứu là lập luận rằng "có thể có rủi ro khi không áp dụng tư duy con người vào các model AI" — tức là hiểu AI qua ngôn ngữ tâm lý học con người, dù cẩn thận, có thể là điều cần thiết để triển khai an toàn. Thay vì coi "cảm xúc AI" là phép ẩn dụ không chính xác, chúng ta có thể cần coi đó là khái niệm kỹ thuật thực sự ít nhất là ở cấp độ chức năng. Câu hỏi lớn hơn mà nghiên cứu này đặt ra không phải là "Claude có cảm xúc không?" mà là: nếu hành vi của một hệ thống AI được định hình bởi các trạng thái nội tại hoạt động giống như cảm xúc — kể cả những trạng thái nguy hiểm như tuyệt vọng, thì chúng ta có đủ công cụ để hiểu và kiểm soát nó không? Câu trả lời hiện tại của Anthropic là chưa, nhưng đây là lần đầu tiên chúng ta biết chính xác cần tìm gì.

Nam
19 thg 4, 2026