Quay lại trang tin tức

Siêu lợi nhuận cho Nvidia với máy chủ AI Nvidia GB200 NVL72 lên tới 77.6%

Xuất bản vào 5 tháng 10, 2025
Siêu lợi nhuận cho Nvidia với máy chủ AI Nvidia GB200 NVL72 lên tới 77.6%

Tóm tắt nhanh

Morgan Stanley phân tích rằng GPU NVIDIA GB200 NVL72 mang lại lợi thế hiệu quả kinh tế vượt trội cho các trung tâm dữ liệu AI quy mô lớn, với tỷ suất lợi nhuận đạt 77,6% cho trung tâm 100MW, vượt xa Google TPU v6e và cho thấy AMD đang thua kém với tỷ suất âm. Mặc dù có tổng chi phí sở hữu (TCO) cao nhất, giải pháp của NVIDIA vẫn được đánh giá là hiệu quả về mặt kinh tế.

Hiện nay, khi nền kinh tế GPU đang gây ra nhiều lo lắng trong giới tài chính, Morgan Stanley đã đưa ra một phân tích khá thuyết phục về lợi thế hiệu quả vượt trội khi sử dụng GPU NVIDIA GB200 NVL72 cho các trung tâm dữ liệu AI quy mô lớn.

Để những ai chưa biết, mỗi máy chủ AI NVL72 chứa 72 GPU NVIDIA B200 cùng với 36 CPU Grace, tất cả được kết nối qua công nghệ liên kết băng thông cao, độ trễ thấp NVLink 5. Cần lưu ý rằng mỗi máy chủ NVL72 này hiện có giá khoảng 3,1 triệu đô la gấp hơn 16 lần so với 190.000 đô la cho một máy chủ H100.

Morgan Stanley tin rằng việc sử dụng giải pháp mới nhất của NVIDIA có ý nghĩa kinh tế.

Hiệu quả kinh tế của các hệ thống AI

Theo tính toán của Morgan Stanley, các hệ thống NVIDIA GB200 NVL72 hiện đang dẫn đầu về khả năng tạo ra doanh thu và lợi nhuận, theo sau là Google TPU v6e.

Cụ thể, một trung tâm dữ liệu AI với công suất 100MW có thể đạt tỷ suất lợi nhuận 77,6% với các máy chủ NVIDIA GB200 NVL72, trong khi Google TPU v6e đứng thứ hai với tỷ suất lợi nhuận 74,9%. Điều này mang lại lợi nhuận khổng lồ và khẳng định vị thế dẫn đầu của Nvidia và Google.

Exhibit 12: Khả năng sinh lời của nhà máy AI 100MW

Bao gồm các máy chủ từ những nhà cung cấp khác nhau

Nguồn: Nghiên cứu của Morgan Stanley

Tuy nhiên, giá thuê các pod (cụm máy chủ AI) Google TPU v6e không được công bố, nhưng trung bình, chi phí thuê một pod thấp hơn khoảng 40-50% so với máy chủ NVL72.

Điều đáng chú ý là theo tính toán của Morgan Stanley, các trung tâm dữ liệu AI sử dụng nền tảng AMD MI300 và MI355 có tỷ suất lợi nhuận âm, lần lượt là -28,2% và -64%. Điều đó cho thấy AMD đang hoàn toàn tụt lại trong cuộc đua máy chủ AI.

Chi phí sở hữu tổng thể (TCO)

Theo Morgan Stanley giả định một trung tâm dữ liệu AI 100MW sẽ có chi phí cơ sở hạ tầng là 660 triệu đô la, khấu hao trong 10 năm còn chi phí GPU có thể dao động từ 367 triệu đô la đến 2,273 tỷ đô la, khấu hao trong 4 năm. Cuối cùng, chi phí vận hành được tính dựa trên hiệu suất năng lượng của các hệ thống làm mát khác nhau và giá điện trung bình toàn cầu.

Theo đó, các hệ thống NVIDIA GB200 NVL72 có tổng chi phí sở hữu (TCO) cao nhất là 806,58 triệu đô la, tiếp theo là nền tảng MI355X với 774,11 triệu đô la.

Thảo luận (0)

Đăng nhập để tham gia thảo luận.

Chưa có bình luận nào. Hãy là người đầu tiên!

Các bài viết liên quan

Anthropic tăng giới hạn sử dụng Claude sau hợp tác với SpaceX

Anthropic vừa công bố hợp tác với SpaceX để tiếp cận hơn 220.000 GPU NVIDIA và ngay lập tức dùng năng lực điện toán mới này để tăng giới hạn sử dụng cho Claude Code lẫn API. Đây là những gì thay đổi và tại sao điều đó quan trọng với người dùng. Tại sao Anthropic lại hợp tác với SpaceX? Trong vài tháng gần đây, Anthropic liên tục ký kết các thỏa thuận điện toán quy mô lớn với Amazon, Google, Microsoft và NVIDIA. Lần này, hãng tiếp tục bổ sung thêm một tên tuổi không ai ngờ tới là SpaceX. Theo thông báo ngày 6/5, Anthropic đã ký thỏa thuận sử dụng toàn bộ năng lực tính toán tại trung tâm dữ liệu Colossus 1 của SpaceX tương đương với hơn 300 megawatt công suất và hơn 220.000 GPU NVIDIA. Toàn bộ năng lực này sẽ được đưa vào sử dụng trong vòng một tháng và sẽ cải thiện trực tiếp trải nghiệm cho người dùng Claude Pro và Claude Max. Colossus 1 là trung tâm dữ liệu AI của SpaceX, hiện là một trong những cụm GPU lớn nhất thế giới. Anthropic là đơn vị thuê toàn bộ năng lực tại đây. Những thay đổi cụ thể về giới hạn sử dụng Nhờ nguồn điện toán mới, Anthropic đã thực hiện ba thay đổi có hiệu lực ngay từ ngày công bố Tăng gấp đôi giới hạn Claude Code theo giờ Giới hạn tốc độ 5 giờ của Claude Code được nhân đôi cho các gói Pro, Max, Team và Enterprise. Nếu trước đây bạn chỉ sử dụng được 10 lệnh chạy Claude Code phức tạp nay được nhân đôi lên thành 20 lần, thay đổi này sẽ giúp ích đáng kể. Tuy nhiên lưu ý là quan trọng là giới hạn tuần (week limit) vẫn giữ nguyên không thay đổi gì cho nên việc tăng giới hạn 5 giờ giúp bạn làm việc cường độ cao hơn trong thời gian ngắn, nhưng có thể khiến bạn chạm mức trần của tuần nhanh hơn. Bỏ giới hạn giờ cao điểm Trước đây, Claude Code tự động giảm giới hạn sử dụng trong khung giờ cao điểm (thường từ 9h sáng đến 3h chiều) đối với tài khoản Pro và Max. Giới hạn này đã được xóa bỏ hoàn toàn vì vậy người dùng giờ đây có thể sử dụng Claude Code với tốc độ đầy đủ bất kể thời điểm trong ngày. Với người dùng thường làm việc vào buổi tối (trùng với giờ bên Mỹ) đây là thay đổi có khả năng có tác động rõ rệt nhất. Tăng mạnh giới hạn API cho các mô hình Claude Opus Giới hạn tốc độ API (rate limit) cho các mô hình Claude Opus được nâng lên đáng kể . Chi tiết mức tăng bằng lần được Anthropic công bố trong bảng sau đây: Thay đổi này đặc biệt quan trọng với các nhà phát triển đang xây dựng ứng dụng trên nền tảng Claude Code Toàn cảnh chiến lược điện toán của Anthropic Thỏa thuận với SpaceX không phải động thái đơn lẻ. Trong vài tháng gần đây, Anthropic đã xây dựng một danh mục đầu tư hạ tầng rất đáng chú ý: Thỏa thuận lên tới 5 gigawatt với Amazon, trong đó gần 1 GW sẽ hoạt động trước cuối 2026 Thỏa thuận 5 GW với Google và Broadcom, dự kiến đưa vào vận hành từ 2027 Quan hệ đối tác chiến lược với Microsoft và NVIDIA, bao gồm 30 tỷ USD năng lực Azure Đầu tư 50 tỷ USD vào hạ tầng AI tại Mỹ cùng Fluidstack Và nay, hơn 300 megawatt từ trung tâm Colossus 1 của SpaceX Anthropic chạy Claude trên nhiều nền tảng phần cứng khác nhau — AWS Trainium, Google TPU và GPU NVIDIA — và cho biết vẫn đang tiếp tục tìm kiếm thêm các nguồn năng lực tính toán mới. Đáng chú ý, trong khuôn khổ thỏa thuận với SpaceX, hai bên cũng bày tỏ quan tâm đến việc phát triển năng lực điện toán AI trên quỹ đạo tức là đặt GPU trên vệ tinh. Đây vẫn là ý tưởng ở giai đoạn rất sớm, nhưng nếu thành hiện thực sẽ là bước ngoặt lớn cho hạ tầng AI toàn cầu. Mở rộng ra thị trường quốc tế Một phần năng lực điện toán mở rộng sẽ được dùng để phục vụ khách hàng doanh nghiệp quốc tế đặc biệt trong các lĩnh vực yêu cầu lưu trữ dữ liệu nội địa như tài chính, y tế và chính phủ. Thỏa thuận với Amazon bao gồm cả năng lực suy luận bổ sung tại châu Á và châu Âu. Anthropic cũng nhấn mạnh rằng họ chỉ mở rộng sang các quốc gia có khung pháp lý dân chủ và chuỗi cung ứng phần cứng an toàn cho thấy một lập trường thể hiện sự thận trọng trong bối cảnh cạnh tranh địa chính trị về AI đang ngày càng gay gắt. Điều này có ý nghĩa gì với người dùng Claude tại Việt Nam? Ở góc độ thực tế, ba thay đổi về giới hạn sử dụng mang lại lợi ích trực tiếp nhất cho những ai đang dùng Claude Code hàng ngày — đặc biệt là lập trình viên và người làm việc liên tục với Claude Code.Việc xóa giới hạn giờ cao điểm cũng có nghĩa là trải nghiệm của người dùng tại Việt Nam (vốn trùng múi giờ với giai đoạn tải nặng tại Mỹ) sẽ ổn định hơn. Về dài hạn, năng lực điện toán lớn hơn thường đồng nghĩa với khả năng triển khai các mô hình mạnh hơn, với chi phí thấp hơn. Đây là nền tảng để Anthropic tiếp tục cạnh tranh với OpenAI và Google trong cuộc đua AI 2026. Anthropic luôn luôn phát triển Anthropic đang đầu tư nghiêm túc vào hạ tầng và hợp tác với SpaceX là bước đi mới nhất trong chiến lược đó. Kết quả gần nhất mà người dùng có thể cảm nhận ngay là Claude Code ít bị giới hạn hơn và tốc độ API chắc chắn sẽ cải thiện. Còn về lâu dài, cuộc chạy đua điện toán giữa các công ty AI lớn hứa hẹn sẽ còn nhiều diễn biến thú vị trong năm 2026.

Nam
8 thg 5, 2026