Meta cam kết 1 gigawatt chip AI tự thiết kế với Broadcom, đẩy cuộc đua hạ tầng lên tầm mới

Điểm nổi bật
- 1 gigawatt triển khai ban đầu: Meta cam kết đưa vào vận hành trước mắt 1 GW chip MTIA cho training và inference.
- Lộ trình kéo dài tới 2029: thỏa thuận mở rộng với Broadcom khóa nhiều năm phát triển chip AI nội bộ.
- Tiến trình 2 nanometer: Broadcom cho biết dòng chip mới sẽ là AI silicon đầu tiên của hãng dùng tiến trình 2 nm.
- 31 data center trong kế hoạch: Meta nói đã lên kế hoạch cho 31 trung tâm dữ liệu, trong đó 27 ở Mỹ.
- Chi tiêu AI năm 2026 lên tới 135 tỷ USD: quy mô vốn cho thấy đây không còn là thử nghiệm mà là kiến trúc lõi.
Biểu đồ
Tóm tắt
Meta và Broadcom vừa nâng cấp quan hệ từ đối tác cung ứng lên đồng phát triển năng lực hạ tầng AI dài hạn. Điểm nhấn lớn nhất là cam kết triển khai ban đầu 1 gigawatt dòng Training and Inference Accelerator, đồng thời kéo dài lộ trình chip AI tự thiết kế của Meta tới năm 2029.
Về bản chất, đây là một tin sản phẩm nền tảng hơn là tin tài chính thuần túy. Meta đang biến chip tự thiết kế thành một lớp hạ tầng chiến lược, tương tự cách Google dùng TPU hay Amazon dùng Trainium, nhằm kiểm soát chi phí, công suất và tốc độ triển khai khi nhu cầu compute AI tiếp tục leo thang.
Chi tiết
Bài viết của CNBC cho thấy Meta đang bước sang một pha trưởng thành hơn trong chiến lược AI, nơi lợi thế không còn nằm chủ yếu ở model hay giao diện người dùng mà ở khả năng tự xây nền tảng compute. Theo công bố, Meta và Broadcom sẽ kéo dài hợp tác thiết kế chip AI nội bộ đến 2029, với mốc triển khai ban đầu là 1 gigawatt MTIA. Đây là quy mô đủ lớn để xem MTIA không còn là nỗ lực phòng thí nghiệm hay phương án dự phòng, mà là cấu phần sản xuất thực sự trong kiến trúc AI của Meta.
Ý nghĩa chiến lược của thương vụ nằm ở chỗ Meta đang đi theo con đường dọc hóa chuỗi giá trị. Trong vài năm qua, thị trường AI phụ thuộc rất mạnh vào GPU của Nvidia và ở mức thấp hơn là AMD. Điều đó khiến các hyperscaler vừa chịu áp lực giá, vừa chịu rủi ro nguồn cung, đồng thời khó tối ưu toàn bộ stack cho các workload riêng. MTIA là cách Meta giải bài toán đó. ASIC tự thiết kế thường kém linh hoạt hơn GPU phổ dụng, nhưng đổi lại có thể rẻ hơn, nhỏ gọn hơn và phù hợp hơn với một tập tác vụ hẹp nhưng lặp lại ở quy mô rất lớn.
CNBC nhấn mạnh rằng dòng chip mới sẽ dùng tiến trình 2 nanometer, một tín hiệu cho thấy Meta không chỉ muốn có chip riêng mà còn muốn đẩy nó lên chuẩn hiệu năng cao nhất có thể. Việc Meta dự kiến vận hành 31 trung tâm dữ liệu, trong đó 27 ở Mỹ, càng cho thấy chip nội bộ phải được nhìn như một phần của bài toán hệ thống, không thể tách rời mạng, đóng gói, nguồn điện và phần mềm orchestration.
Thương vụ này cũng đặt Meta vào cùng quỹ đạo với Google và Amazon, hai hãng đã sớm chứng minh rằng custom silicon có thể tạo lợi thế cấu trúc trong AI. Điểm khác là Meta không bán cloud compute đại trà cho khách hàng ngoài, nên toàn bộ giá trị của MTIA sẽ dồn vào hiệu quả nội bộ, từ huấn luyện mô hình, inference đến vận hành sản phẩm cho hàng tỷ người dùng. Điều đó có thể giúp Meta tối ưu sâu hơn theo workload riêng, nhưng cũng đòi hỏi khối lượng sử dụng đủ lớn để biện minh cho capex rất cao.
Có thêm một lớp ý nghĩa khác, đó là cạnh tranh quyền lực trong hệ sinh thái bán dẫn AI. Khi Broadcom cùng lúc mở rộng chip với Google, Anthropic rồi nay Meta, cán cân thị trường đang dịch từ một cuộc đua model sang một cuộc đua thiết kế hạ tầng. Ai kiểm soát được chip, packaging và networking sẽ kiểm soát được biên lợi nhuận dài hạn. Với Meta, cam kết chi tới 135 tỷ USD cho AI trong năm 2026 chỉ thực sự có ý nghĩa khi hãng biến được lượng vốn đó thành lợi thế sản xuất bền vững. MTIA là nỗ lực làm điều đó.
Rủi ro dĩ nhiên vẫn lớn. ASIC chỉ thắng khi workload đủ ổn định và phần mềm đủ trưởng thành. Nếu nhu cầu sản phẩm đổi nhanh hoặc mô hình thay đổi kiến trúc liên tục, lợi thế của chip tự thiết kế có thể bị bào mòn. Nhưng ngay cả với rủi ro đó, quyết định 1 gigawatt cho thấy Meta đã đủ tự tin để đặt cược rằng tương lai AI ở quy mô siêu lớn sẽ thuộc về các công ty làm chủ cả model lẫn hạ tầng vật lý bên dưới.