Theo Business Insider, tỷ phú Elon Musk vừa gây sốc trong cộng đồng công nghệ bằng việc tiết lộ rằng chatbot AI Grok 3 của xAI sẽ được huấn luyện trên hơn 100.000 chip xử lý đồ họa (GPU) Nvidia H100. Điều này thể hiện sự tham vọng của ông trong việc tạo ra một chatbot AI mạnh mẽ và vượt trội.
Với mỗi chip H100 có giá trị ước tính từ 30.000-40.000 USD, tổng giá trị đầu tư cho việc huấn luyện Grok 3 có thể lên tới 3-4 tỷ USD. Mặc dù chưa rõ xAI đã mua đứt số chip này hay thuê từ các nhà cung cấp dịch vụ đám mây, nhưng thông tin này đã phần nào cho thấy quy mô đầu tư đáng kể của Musk vào dự án chatbot AI của mình.
Việc sử dụng 100.000 GPU H100 cũng đồng nghĩa với việc xAI đã có một bước tiến lớn so với phiên bản Grok 2 trước đó, khi chỉ cần khoảng 20.000 GPU để huấn luyện. Điều này minh chứng cho sự nỗ lực không ngừng của xAI để cải thiện hiệu suất của chatbot Grok, nhằm mục tiêu phát triển một sản phẩm AI vượt trội.
Tuy nhiên, xAI không phải là tập đoàn duy nhất đang đầu tư mạnh vào chip H100. Công ty công nghệ lớn Meta cũng đã thông báo kế hoạch sở hữu khoảng 350.000 GPU H100 vào cuối năm 2024, với tổng giá trị đầu tư ước tính lên tới 18 tỷ USD.
Cuộc cạnh tranh trong việc phát triển trí tuệ nhân tạo (AI) đang trở nên khốc liệt hơn bao giờ hết, và việc tích trữ chip H100 đã trở thành một yếu tố quan trọng để thu hút và giữ chân nhân tài AI. Điều này là minh chứng cho tiềm năng lớn của AI và sự cạnh tranh gay gắt giữa các công ty công nghệ trong lĩnh vực này.