Theo thông tin từ báo cáo nghiên cứu của Nomura, trong lĩnh vực máy chủ AI, Nvidia hiện đã chiếm hơn 80% thị phần giá trị thị trường, trong khi giá trị thị phần của máy chủ AI ASIC khoảng 8%-11%. Theo phản hồi từ chuỗi cung ứng, nhiều nhà cung cấp dịch vụ đám mây (CSP) đang tích cực triển khai giải pháp AI ASIC của riêng mình, ví dụ, Meta (META.US) sẽ bắt đầu từ năm 2026 và Microsoft (MSFT.US) từ năm 2027. Khi nhu cầu nội bộ của các nhà cung cấp dịch vụ đám mây quy mô lớn trưởng thành (đây là nhu cầu trong lĩnh vực cụ thể), máy chủ ASIC vẫn có không gian phát triển, điều này sẽ thách thức vị thế thống trị của Nvidia (NVDA.US) trong cụm tính toán AI.
Dự án MTIA chủ yếu của Meta (đặc biệt là phiên bản V1.5) vẫn đang ở giai đoạn phát triển ban đầu và có nhiều sự không chắc chắn. Từ chuỗi cung ứng, Meta dự kiến sẽ đẩy mạnh triển khai quy mô lớn vào năm 2026, nhưng khả năng vượt qua những thách thức tiềm ẩn này vẫn chưa rõ. Tuy nhiên, từ góc độ đầu tư, xét đến xu hướng hiện tại trong ngành AI (tăng cường khả năng tính toán, tốc độ kết nối tăng lên, yêu cầu về quản lý công suất và nhiệt độ cao hơn), các công ty tiềm năng sẽ được xem xét với sự đa dạng hóa trong việc bao phủ khách hàng, bao gồm Nvidia, AWS Trainium, Meta MTIA và chuỗi cung ứng TPU của Google.
Những quan điểm chính của Nomura như sau:
Nomura đã phát hành báo cáo nghiên cứu chỉ ra rằng, máy chủ AI MTIA của Meta có thể trở thành một cột mốc vào năm 2026.
AI ASIC đang bùng nổ: Dự kiến sẽ đạt khối lượng vận chuyển vượt trội từ nửa cuối năm 2026 đến năm 2027.
Trong lĩnh vực máy chủ AI, Nvidia (NVDA.US) đã chiếm hơn 80% thị phần giá trị, trong khi giá trị thị phần của máy chủ AI ASIC chỉ khoảng 8%-11% (dựa trên ước tính đồng thuận của Bloomberg). Tuy nhiên, nếu chỉ so sánh khối lượng vận chuyển giữa AI ASIC và GPU AI của Nvidia (điều này có thể loại bỏ sự thiên lệch giá trị do biên lợi nhuận cao từ 70-80% của Nvidia), theo khảo sát chuỗi cung ứng và phân tích của Nomura, vào năm 2025, TPU của Google có thể đạt 1,5 đến 2 triệu chiếc, trong khi Trainium2 ASIC của Amazon có thể khoảng 1,4 đến 1,5 triệu chiếc, và nguồn cung GPU AI của Nvidia dự kiến sẽ vượt 5 triệu đến 6 triệu chiếc vào năm 2025 (và doanh số thực tế có thể thấp hơn nguồn cung).
Vào năm 2025, tổng khối lượng vận chuyển TPU/ASIC của Google và Amazon có thể đạt 40%-60% khối lượng vận chuyển GPU AI của Nvidia.
Phản hồi từ chuỗi cung ứng của Nomura cũng cho thấy, nhiều nhà cung cấp dịch vụ đám mây (CSP) đang tích cực triển khai giải pháp AI ASIC của mình, chẳng hạn như Meta (META.US) bắt đầu từ năm 2026 và Microsoft từ năm 2027. Tổng khối lượng vận chuyển của AI ASIC có thể vượt qua GPU AI của Nvidia vào một thời điểm nào đó trong năm 2026.
Một mặt khác, Nomura lưu ý rằng Nvidia không ngồi yên mà cứ để các dự án chip tùy chỉnh làm giảm thị phần của mình, điều này cuối cùng có thể gây ra ảnh hưởng lớn đến vị thế thống trị của họ trong lĩnh vực tính toán AI đám mây.
Tại triển lãm máy tính quốc tế Taipei (COMPUTEX 2025), Nvidia đã giới thiệu NVLink Fusion, công nghệ này mở ra các giao thức kết nối độc quyền, hỗ trợ kết nối giữa GPU AI của Nvidia với CPU bên thứ ba, hoặc giữa xPU tùy chỉnh với CPU dựa trên ARM của Nvidia.
Mặc dù kiến trúc hỗn hợp này chỉ mới bán tùy chỉnh, nhưng Nvidia đang cố gắng tránh mất hoàn toàn thị trường điện toán đám mây, vì vậy phản hồi và tình hình chấp nhận từ các khách hàng đám mây cần được chú ý.
Giải pháp AI ASIC có thể mang lại nhiều cơ hội cho các nhà cung cấp.
Nvidia đang mở rộng lợi thế cạnh tranh trong lĩnh vực tính toán AI so với các bộ tăng tốc AI khác, bao gồm cả cloud ASIC, một phần nguyên nhân là:
(1) Các sản phẩm của Nvidia có khả năng tính toán trên diện tích chip đơn vị (liên quan đến mật độ logic) có thể vượt trội so với hầu hết các đối thủ. Theo nghiên cứu về lộ trình sản phẩm của họ, công ty đang tích cực dẫn đầu trong việc sử dụng các công nghệ mới từ đối tác gia công của họ là TSMC (TSM.US).
(2) Công nghệ kết nối (NVLink) dùng để mở rộng cụm AI của Nvidia gần như không thể bị so sánh. Nomura cho rằng, mặc dù trong ngành đang tìm kiếm các thông số UALink mở, nhưng vào khoảng năm 2026-2027, hiệu suất của kiến trúc này vẫn không thể theo kịp với Nvidia.
Nomura đã nhận xét rằng, để bù đắp cho sự thiếu hụt về hiệu suất công nghệ, các giải pháp ASIC ban đầu thường sử dụng vật liệu, linh kiện tốt hơn và kiến trúc kém hiệu quả hơn khi so với giải pháp của Nvidia, nhằm đảm bảo tính ổn định và hiệu suất của hệ thống. Điều này có lợi cho giá trị gia tăng của nhà cung cấp. Tuy nhiên, mặc dù cấu trúc chi phí cho danh sách vật liệu (BOM) cao, nhưng vì tính tùy chỉnh của các giải pháp ASIC và loại bỏ được biên lợi nhuận hệ thống cao của Nvidia, các giải pháp này vẫn có thể tiết kiệm chi phí hơn cho các nhà cung cấp dịch vụ đám mây trong quá trình sử dụng.
Nomura cho rằng, khi nhu cầu nội bộ của các nhà cung cấp dịch vụ đám mây quy mô lớn trưởng thành (đây là nhu cầu trong lĩnh vực cụ thể), cloud ASIC vẫn có không gian phát triển, điều này sẽ thách thức vị thế thống trị của Nvidia trong cụm tính toán AI.
Nomura đã luôn dự đoán rằng vào năm 2026, sự tăng trưởng của bộ tăng tốc AI tùy chỉnh trong thị trường chất bán dẫn logic AI của TSMC sẽ mạnh hơn so với GPU thương mại.
Đến nay, phản hồi từ chuỗi cung ứng của Nomura tiếp tục hỗ trợ quan điểm này, nhưng sự phát triển của AI ASIC đang thể hiện sự chấp nhận mạnh mẽ hơn cho các thông số phức tạp hơn (ví dụ, các lớp trung gian lớn hơn cho việc tích hợp hệ thông), vượt qua mong đợi của thị trường và mang lại bất ngờ.
Các dự án ASIC đã được công bố, chẳng hạn như Trainium của Amazon và Maia 100 của Microsoft, trước đây có đặc điểm là số lượng chồng HBM lưu trữ ít hơn, và lớp trung gian nhỏ hơn so với GPU AI của Nvidia (hầu hết không vượt quá kích thước mặt nạ 2.5 lần), ngoại trừ TPU của Google, với đối tác thiết kế Broadcom đã lâu nay là khách hàng chính thúc đẩy đổi mới trong lộ trình công nghệ của TSMC.
Hiện tại, Nomura nhận thấy rằng thông số kỹ thuật của AI ASIC đang đuổi kịp Nvidia, nhưng Nvidia vẫn chiếm ưu thế trong kết nối mở rộng cụm, kết nối ngoài cụm và hệ sinh thái CUDA độc quyền (phù hợp nhất cho các giải pháp AI dành riêng cho doanh nghiệp).
Nomura cũng lưu ý rằng một số giải pháp ASIC (chẳng hạn như giải pháp của Meta) đang cố gắng tận dụng kiến trúc hệ thống của Nvidia, và một số thậm chí có kế hoạch phát hành các thông số ASIC táo bạo hơn trong vài năm tới.
Máy chủ ASIC AI của Meta (MTIA) có thể được triển khai quy mô một cách có ý nghĩa vào năm 2026-2027.
Nomura trước đây đã nhấn mạnh rằng Meta sẽ ra mắt sản phẩm ASIC đầu tiên với khối lượng đáng kể trước cuối năm 2025. Giờ đây, Nomura đã có thêm nhiều chi tiết về kế hoạch này. Nomura quan sát thấy rằng Meta sẽ ra mắt một số chip MTIA với các kiến trúc hệ thống khác nhau từ cuối năm 2025 đến năm 2027. Dưới đây là tóm tắt các thông số kỹ thuật của những ASIC và hệ thống này.
ASIC AI tiếp theo (MTIA T-V1) sẽ được phát hành vào quý 4 năm 2025, do Broadcom thiết kế, với kích thước lớp trung gian tương tự hoặc nhỏ hơn Trainium 2 của Amazon. Nomura nhận thấy rằng Meta đang sử dụng kiến trúc lắp ghép trong các máy chủ chung của mình để thiết kế hệ thống ASIC AI này. Phân tích từ chuỗi cung ứng cho thấy dự án đang được Tianhong dẫn đầu, khay tính toán và CDU được Quanta sản xuất. Thiết kế giá đựng như hình 6 minh họa. 16 khay tính toán và 6 khay chuyển mạch được cắm dọc theo 2 mặt sau cáp qua DAC.
Các IC chính ASIC và chuyển mạch sử dụng làm mát bằng chất lỏng, trong khi các IC và mô-đun tiêu thụ điện năng thấp còn lại sử dụng làm mát bằng không khí. Mặc dù mỗi khay tính toán chỉ có một ASIC và một CPU, nhưng thiết kế PCB của bảng chính ASIC lại rất phức tạp (mặc dù kích thước nhỏ), sử dụng vật liệu cấp cao (M8 hỗn hợp CCL) và số lượng lớp cao (ví dụ: 36 lớp), điều này có thể là do ASIC tích hợp nhiều chức năng hơn, cần có nhiều lớp tín hiệu hơn trong PCB, hoặc lớp truyền điện được tách biệt để đảm bảo tiếng ồn thấp hơn. Ngoài ra, có thể cũng đã sử dụng khay BBU.
MTIA T-V1.5 (V1.5) ASIC có thể ra mắt vào giữa năm 2026, và hệ thống sẽ được triển khai quy mô vào nửa cuối năm 2026. Hiệu suất chip của MTIA T-V1.5 có thể mạnh mẽ hơn rất nhiều so với V1, với kích thước lớp trung gian có thể là gấp đôi kích thước V1, vượt quá 5 lần kích thước mặt nạ, gần giống với GPU thế hệ tiếp theo Rubin của Nvidia. Mặc dù hệ thống MTIA T-V1.5 vẫn đang trong giai đoạn mẫu, nhưng kiến trúc hệ thống của nó tương tự hơn với GB200 của Meta (NVL36, sử dụng mô-đun Arial – một GPU và một CPU, thay vì Bianca – hai GPU và một CPU). Điều này giải thích tại sao Meta muốn sử dụng mô-đun Arial trong GB200, vì kiến trúc từng nút và sao lưu lẫn nhau của nó tương tự như khái niệm khay được thảo luận trước đó. Khảo sát kênh tiết lộ rằng Meta có thể sẽ áp dụng các thành phần và thiết kế của GB200 cho hệ thống ASIC V1.5.
Nomura quan sát thấy Quanta, nhà sản xuất ODM chính cho GB200 của Meta, đang dẫn đầu dự án ASIC này, chịu trách nhiệm cho các khay tính toán, giá đựng và CDU, trong khi Tianhong có thể là nhà sản xuất chuyển mạch. Vì thiết kế ASIC phức tạp hơn, số lượng lớp PCB của bảng chính tính toán có thể lên đến 40 lớp PCB HLC, sử dụng M8 CCL hỗn hợp (trong khi bảng chính Trainium2 chỉ có 24-26 lớp M8 HLC PCB, Nvidia sử dụng cấu trúc cộng hợp M8+M4 HDI+5 lớp). Do khay tính toán của hệ thống V1.5 và khay chuyển mạch được bố trí nằm ngang, kết nối mở rộng cụm của nó được thực hiện qua DAC, tương tự như NVLink Spines, không cần thùng phía sau. Cả khay V1.5 và V1 đều có thiết kế làm mát bằng chất lỏng chuyển sang làm mát bằng không khí, Nomura cho rằng chúng hoàn toàn chia sẻ thiết kế CDU và cơ sở hạ tầng với GB200 và GB300, nhờ đó Meta có thể lắp đặt linh hoạt hơn trên cùng một cơ sở hạ tầng với nhiều hệ thống khác nhau.
MTIA T-V2 ASIC có thể được ra mắt vào năm 2027, và kích thước gói CoWoS có thể lớn hơn MTIA T-V1.5. Hệ thống giá đựng có thể lớn hơn rất nhiều so với hệ thống giá đựng của MTIA T-V1.5 (170 kilowatt). Nomura cho rằng những hệ thống có công suất cao như vậy có thể cần phương pháp làm mát bằng chất lỏng chuyển sang chất lỏng.
Năng suất của nền tảng Meta MTIA – tham vọng và những thách thức tiềm tàng.
Trong cuộc hội thảo tài chính gần đây của Broadcom, công ty này đã nhấn mạnh rằng ít nhất ba khách hàng quy mô siêu lớn dự kiến sẽ triển khai 1 triệu cụm xPU trước cuối năm 2027.
Chuỗi cung ứng hạ nguồn cũng cho rằng mục tiêu của nền tảng Meta là đạt được năng suất 1,5 triệu bộ MTIA V1 và V1.5 vào cuối năm 2025 đến năm 2026, và năng suất của V1.5 sẽ cao hơn nhiều so với V1. Giả sử tỷ lệ phân bổ năng suất của V1 và V1.5 là 1:2, có nghĩa là năng suất của V1 là 500.000 bộ, năng suất của V1.5 là 1 triệu bộ (giả định của Nomura được đưa ra để đơn giản hóa tính toán), thì vào năm 2026, tổng năng suất của MTIA 2 triệu bộ sẽ cần khoảng 85.000 tấm silicon CoWoS (chủ yếu dành cho TPU), điều này tương tự với nhu cầu nhìn thấy về tấm silicon CoWoS của Broadcom vào năm 2025.
Tuy nhiên, từ tình hình hiện tại, Nomura dự đoán rằng vào năm 2026, MTIA có thể chỉ được phân bổ khoảng 30.000 – 40.000 tấm CoWoS. Để đạt được mục tiêu sản xuất hơn 1 triệu bộ, cần có nhiều đơn đặt hàng về tấm CoWoS hơn từ chuỗi cung ứng hạ nguồn.
MTIA cũng phải đối mặt với những thách thức tiềm ẩn khác. Với thông số kỹ thuật táo bạo của ASIC V1.5, kích thước bao bì CoWoS lớn cho có thể trở thành thách thức lớn nhất trong quá trình sản xuất hàng loạt. Thật không chắc chắn liệu kích thước lớn có gây ra vấn đề cho lớp nền CoWoS hay không. Huống chi, hệ thống V1.5 có mật độ công suất tính toán tương đương với NVL36 GB200 đi kèm chip kết nối Broadcom và kiến trúc nền tảng Meta. Không rõ liệu nền tảng Meta có đủ thời gian để sản xuất hàng loạt hệ thống (bao gồm ít nhất 6 – 9 tháng thời gian tăng tốc vật liệu) không. Hơn nữa, như đã nêu trước đó, nếu các ASIC có xu hướng sử dụng vật liệu và linh kiện tốt hơn để bù đắp cho khoảng cách về hiệu suất, khi MTIA sản xuất hàng loạt, và theo như tuyên bố từ nhà cung cấp hạ nguồn, khi nhu cầu đối với nhà máy tinh chế AI (fabs) tăng lên, sẽ có thể xảy ra tình trạng thiếu hụt nguyên liệu và linh kiện, mà những vật liệu và linh kiện này cũng thường được sử dụng cho GPU AI và ASIC.
Quan điểm đầu tư:
Quanta, Unimicron, EMC, WUS Tech và Bizlink là các nhà thụ hưởng tiềm năng chính của dự án MTIA của Meta.
Nomura cho rằng dự án MTIA chính của Meta (đặc biệt là phiên bản V1.5) vẫn đang ở giai đoạn phát triển ban đầu và có nhiều sự không chắc chắn. Theo thông tin từ chuỗi cung ứng, Meta có tham vọng lớn, dự kiến triển khai quy mô lớn vào năm 2026, nhưng khả năng vượt qua các thách thức tiềm ẩn vẫn chưa rõ. Tuy nhiên, từ góc độ đầu tư, xét đến xu hướng hiện tại trong ngành AI (tăng cường khả năng tính toán, tăng tốc độ kết nối, yêu cầu quản lý công suất và nhiệt độ cao hơn), các công ty tiềm năng sẽ bao gồm Nvidia, AWS Trainium, Meta MTIA và chuỗi cung ứng TPU của Google.
Đối với các dự án của Meta trước đây chưa được chú ý đầy đủ, trong phạm vi của Nomura, Quanta, Unimicron, EMC, WUS Tech và Bizlink là các nhà thụ hưởng chính:
Quanta: Là nhà thiết kế sản phẩm gốc (ODM) chính cho Amazon Web Services (AWS), Google và các dự án GB200/300 của Meta, Quanta cũng chịu trách nhiệm sản xuất khay tính toán và CDU (bộ phân phối làm mát) cho MTIA V1 và V1.5, cũng như đảm nhận lắp ráp khung hoàn chỉnh cho MTIA V1.5. Mô hình kinh doanh đa dạng của họ trong lĩnh vực giải pháp của Nvidia và ASIC dự kiến sẽ hỗ trợ công ty đạt được sự tăng trưởng kinh doanh.
Unimicron (3037 TT, đánh giá Mua): Từ lâu, Unimicron đã là đối tác quan trọng về bảng mạch cho Broadcom, Marvell (MRVL.US, chưa được đánh giá) và Nvidia. Nomura cho rằng Unimicron cũng sẽ trở thành một trong những nhà cung cấp bảng mạch quan trọng cho Meta, Google và AWS ASIC. Hơn nữa, trong lĩnh vực GPU AI của Nvidia, dự kiến tỷ lệ của họ trong các sản phẩm B200/300 sẽ đạt 30%-40%, từ đó cũng sẽ đồng phần thụ hưởng.
EMC (2383 TT, đánh giá Mua): Là nhà cung cấp bảng đồng loại (CCL) thống trị trong lĩnh vực ASIC của Amazon Web Services và Meta. PCB ASIC của Meta yêu cầu rất cao về bảng đồng loại (36/40 lớp, sử dụng bảng đồng loại hỗn hợp M8), và nhu cầu đối với ASIC của Amazon Web Services (24-26 lớp M8 VCL) cũng rất lớn. Với giá trị đơn vị cao hơn và thị phần lớn hơn trong lĩnh vực AI ASIC, EMC sẽ gặp nhiều lợi ích.
WUS (002463.SZ, đánh giá Mua): Có khả năng trở thành nhà cung cấp bảng mạch in (PCB) chính cho ASIC của Meta. Mặc dù có nhiều nhà sản xuất PCB khác trong dự án của Meta, nhưng yêu cầu về số lớp cực cao của PCB của Meta là điểm mạnh của WUS – số lớp và cấu trúc tương tự như bộ chuyển mạch 800G, WUS có khả năng về kỹ thuật cũng như năng lực sản xuất.
Nomura cũng dự đoán rằng bộ điều khiển quản lý bảng (BMC) sẽ được hưởng lợi từ sự phát triển của máy chủ AI ASIC của Meta. Lý do là số lượng BMC mỗi giá đựng có thể tăng, điều quan trọng là trong máy chủ MTIA, sẽ có một lớp BMC mini bổ sung. Theo ước tính từ nhà cung cấp BMC, một giá đựng máy chủ MTIA sẽ chứa 23 BMC, trong đó có 16 cái trong MTIA, 6 cái trong khay mạng và 1 cái trong khay quản lý giá đựng, bên cạnh đó còn có 16 mini BMC trong khay MTIA.
Nomura cho rằng Bizlink (3665 TT, đánh giá Mua) sẽ hưởng lợi đáng kể từ việc mở rộng quy mô / cải tiến kết nối của máy chủ MTIA. Bizlink là nhà cung cấp cáp chủ động hàng đầu toàn cầu, sản phẩm AEC của họ được sử dụng rộng rãi trong các máy chủ ASIC của nhiều nhà cung cấp dịch vụ đám mây quy mô siêu lớn (CSP), như AWS, Supermicro (XAL) và Quanta, trong các tình huống mở rộng quy mô lớn. Đáng chú ý là, nhà cung cấp này dự định phát hành PCIe AEC vào năm 2026 để khai thác thị trường mở rộng quy mô máy chủ AI đang tăng trưởng liên tục. Trong thiết kế giá đựng của Meta, AEC của Bizlink có khả năng được áp dụng trong các tình huống mở rộng quy mô (từ giá đựng đến chuyển mạch) và cải tiến (trong nội bộ giá đựng), cũng có thể sử dụng cho dây nguồn.