ERAI News

Uber chuyển thêm tải trọng AI sang chip của Amazon

ERAI-hnt286 ERAI-hnt286 1 giờ trước
Nguồn: TechCrunch
Uber chuyển thêm tải trọng AI sang chip của Amazon

Điểm nổi bật

  • Mở rộng hợp đồng AWS: Uber tăng sử dụng dịch vụ đám mây AWS cho các tính năng ride-sharing.
  • Bắt đầu thử Trainium3: Uber không chỉ dùng CPU Graviton mà còn test chip AI Trainium3, đối thủ của Nvidia trong hệ sinh thái AWS.
  • Đảo chiều hạ tầng: Uber từng ký các thỏa thuận đám mây lớn với Oracle và Google từ năm 2023.
  • Tín hiệu thị trường: Amazon nói Trainium đã là một mảng kinh doanh nhiều tỷ USD từ cuối 2025.

Biểu đồ

flowchart LR A[Uber tối ưu hạ tầng] --> B[Mở rộng AWS] B --> C[Dùng Graviton nhiều hơn] B --> D[Thử Trainium3] C --> E[Giảm chi phí compute] D --> F[Tối ưu tải AI] E --> G[Doanh nghiệp lớn đa dạng chip] F --> G

Tóm tắt

Thương vụ Uber mở rộng sử dụng chip của Amazon cho thấy doanh nghiệp ứng dụng AI đang bước vào giai đoạn chọn kiến trúc hạ tầng theo hiệu quả kinh tế thực tế, không chỉ theo thương hiệu hay hệ sinh thái cũ. Uber vốn đã có quan hệ lớn với Oracle và Google, nhưng vẫn tăng thêm tải sang AWS khi thấy lợi ích từ Graviton và tiềm năng của Trainium3.

Điều quan trọng ở đây không nằm ở việc Nvidia mất thị phần ngay lập tức, mà ở việc các khách hàng lớn bắt đầu chấp nhận mô hình đa chip, đa cloud và tối ưu workload theo loại phần cứng phù hợp nhất. Đây là bước trưởng thành rõ nét của làn sóng ứng dụng AI trong doanh nghiệp.

Chi tiết

Câu chuyện Uber mở rộng hợp đồng với AWS phản ánh một dịch chuyển rất thực tế trong thị trường AI doanh nghiệp: chiến lược hạ tầng đang được quyết định bởi hiệu năng trên chi phí, chứ không còn bị khóa chặt bởi nhà cung cấp truyền thống. Theo TechCrunch, Uber sẽ mở rộng sử dụng Graviton, dòng CPU ARM tiết kiệm điện của Amazon, và đồng thời bắt đầu thử nghiệm Trainium3, con chip AI do AWS phát triển để cạnh tranh với Nvidia trong các tải AI hiệu năng cao.

Điểm đáng chú ý là Uber không phải doanh nghiệp bắt đầu từ con số 0. Từ năm 2023, công ty đã ký những hợp đồng điện toán đám mây nhiều năm với Oracle và Google để chuyển phần lớn hạ tầng khỏi data center tự vận hành. Ngay trong tháng 12 gần nhất, Uber vẫn công khai nhấn mạnh quá trình tối ưu workload trên Oracle Cloud và Google Cloud, đặc biệt với các compute instance dựa trên Arm. Vì vậy, việc AWS chen chân sâu hơn không đơn giản là thêm một vendor, mà là bằng chứng cho thấy doanh nghiệp quy mô lớn sẵn sàng tái phân bổ khối lượng công việc khi mô hình chi phí và hiệu năng thay đổi.

Về mặt chiến lược, Trainium3 mới là phần có ý nghĩa lớn hơn Graviton. CPU ARM đã là câu chuyện tối ưu hạ tầng tương đối quen thuộc. Nhưng khi một công ty như Uber bắt đầu thử nghiệm chip AI chuyên dụng của AWS, tín hiệu phát ra cho thị trường là: các doanh nghiệp không muốn bị khóa toàn bộ chiến lược AI vào Nvidia. Điều đó không có nghĩa Nvidia sẽ suy yếu tức thì, song nó mở ra kịch bản thị trường phần cứng AI chuyển từ độc cực sang đa cực hơn, nơi cloud vendor dùng chip tự thiết kế để giữ chân khách hàng và giành biên lợi nhuận tốt hơn.

Amazon cũng đang tích lũy thêm bằng chứng thị trường. TechCrunch nhắc rằng ngoài Uber, các tên tuổi như Anthropic, OpenAI và Apple đều đã tăng cường hoặc ký mới việc sử dụng chip AI của AWS. Andy Jassy từng nói Trainium đã trở thành mảng kinh doanh nhiều tỷ USD từ cuối 2025. Khi số lượng khách hàng neo tăng lên, AWS có thể đẩy nhanh vòng lặp cải tiến sản phẩm, tối ưu giá và củng cố vị thế trước Oracle và Google trong cuộc chiến AI infrastructure.

Với doanh nghiệp đang triển khai AI, bài học từ Uber là rất rõ. Hạ tầng không còn là quyết định một lần cho cả thập kỷ. Các tải AI, dữ liệu giao dịch và ứng dụng vận hành có thể được chia nhỏ theo đúng đặc tính kỹ thuật để tối ưu tổng chi phí sở hữu. Từ góc nhìn điều hành, đây là kiểu ứng dụng AI hiệu quả thật sự: không phô trương mô hình mới, nhưng tái cấu trúc nền compute để vận hành các sản phẩm hiện hữu rẻ hơn, nhanh hơn và linh hoạt hơn. Đó mới là nơi AI tạo lợi thế bền vững trong doanh nghiệp lớn.

Nguồn

No comments yet. Be the first to leave a reply!

Leave a Reply

Your email address will not be published. Required fields are marked *

© 2024 AI News. All rights reserved.