Thương vụ 20 tỷ USD lớn nhất lịch sử Nvidia
Theo CNBC, Nvidia đã đạt thỏa thuận mua lại tài sản và cấp phép công nghệ từ Groq với giá khoảng 20 tỷ USD, đây là thương vụ M&A có giá trị cao nhất mà hãng từng thực hiện.
Thỏa thuận bao gồm việc Nvidia tiếp nhận đội ngũ kỹ sư chủ chốt và tài sản sở hữu trí tuệ của Groq, trong khi công ty startup này vẫn duy trì hoạt động cho một số mảng kinh doanh khác ngoài nền tảng inference được chuyển giao.

Groq – “ngôi sao” inference với kiến trúc LPU độc đáo
Groq được thành lập bởi các cựu kỹ sư Google đã tham gia phát triển Tensor Processing Unit (TPU) và tập trung vào bài toán suy luận (inference) cho mô hình ngôn ngữ lớn.
Họ phát triển kiến trúc Language Processing Unit (LPU), trong đó trọng số mô hình được lưu trực tiếp trên SRAM on‑chip thay vì sử dụng HBM/DRAM ngoài chip như GPU truyền thống, giúp giảm độ trễ truy cập bộ nhớ và tăng băng thông lên mức hàng chục terabyte mỗi giây.
Các benchmark độc lập và tài liệu kỹ thuật cho thấy chip Groq đạt tốc độ sinh token rất cao, trong một số workload inference LLM có thể nhanh hơn nhiều lần so với GPU thế hệ hiện tại, đặc biệt phù hợp cho ứng dụng real‑time như chatbot, giao dịch tài chính, tìm kiếm và agent AI.
Vì sao Nvidia “xuống tiền” mạnh tay?
Giới phân tích nhận định thương vụ này giúp Nvidia bổ sung mảnh ghép quan trọng ở mảng inference, hoàn thiện chuỗi giá trị từ GPU training (H100, B100…) tới các giải pháp suy luận tối ưu hóa chi phí và độ trễ.
Trong bối cảnh khách hàng doanh nghiệp ngày càng quan tâm tới chi phí mỗi token và tốc độ phản hồi cho mô hình thế hệ mới, việc sở hữu công nghệ LPU của Groq cho phép Nvidia cung cấp thêm lựa chọn phần cứng chuyên biệt bên cạnh GPU, qua đó giữ chân khách hàng trước sự cạnh tranh từ các startup chip AI khác như Cerebras hay SambaNova.
Nhiều chuyên gia cũng nhìn nhận đây là bước đi mang tính “tấn công phòng thủ”: thay vì để Groq phát triển thành đối thủ độc lập có thể ăn vào thị phần inference của GPU, Nvidia chọn cách đưa công nghệ này vào hệ sinh thái của mình và tận dụng sức mạnh phân phối sẵn có để scale toàn cầu.
Nvidia acquiring Groq for $20B is a big deal.
Groq chips are insanely fast at inference, sometimes 10x GPUs. The trick is to put model weights in SRAM instead of HBM to trade memory capacity for speed.
Its $/token may lose to GPUs, but for long-wait inference on models like… pic.twitter.com/KlCVG7W7Ng
— Yuchen Jin (@Yuchenj_UW) December 24, 2025
Tác động tới thị trường chip và AI
Thương vụ 20 tỷ USD giữa Nvidia và Groq được đánh giá là tín hiệu cho thấy cuộc đua chip AI đang chuyển từ giai đoạn “chỉ cần nhiều FLOPS” sang giai đoạn tối ưu hóa chi phí và độ trễ inference ở quy mô hàng tỷ lượt request mỗi ngày.
Đối với hệ sinh thái AI rộng hơn, việc công nghệ LPU được tích hợp vào danh mục sản phẩm Nvidia có thể đẩy nhanh tốc độ triển khai các mô hình lớn trong các dịch vụ thời gian thực, đồng thời tạo áp lực cạnh tranh không nhỏ lên các hãng cloud và startup đang xây dựng giải pháp phần cứng thay thế GPU.
Tổng hợp bởi Vn Rebates



.png)