Việt Nam vươn mình trong kỷ nguyên mới

Elon Musk gấp rút hoàn thiện siêu máy tính lớn nhất thế giới

Hà Thanh
Chia sẻ Zalo

Kinhtedothi - Theo dự kiến, việc lắp đặt siêu máy tính của Elon Musk sẽ bắt đầu trong vài tháng tới.

Tờ The Information dẫn đưa tin hồi tháng 5, tỷ phú Mỹ Elon Musk và công ty xAI đang lập kế hoạch huy động, đồng thời kết nối 100.000 card đồ họa chuyên dụng thành một siêu máy tính mang tên "Gigafactory of Computing", dự kiến hoạt động vào mùa thu năm sau.

Elon Musk gấp rút hoàn thiện siêu máy tính lớn nhất thế giới
Elon Musk gấp rút hoàn thiện siêu máy tính lớn nhất thế giới

Theo Tom's Hardware, Musk đang nỗ lực để hệ thống hoàn thành đúng tiến độ. Ông chọn Supermicro cung cấp giải pháp làm mát cho cả hai trung tâm dữ liệu chứa siêu máy tính của Tesla và xAI.

Ngày 2/7, Charles Liang, nhà sáng lập kiêm CEO của Supermicro, viết trên X: "Cảm ơn Musk vì đã đi đầu lựa chọn công nghệ làm mát bằng chất lỏng cho các trung tâm dữ liệu AI khổng lồ. Bước đi này có thể giúp bảo tồn 20 tỷ cây xanh cho hành tinh".

Các trung tâm dữ liệu AI vốn tiêu tốn lượng điện năng lớn, Supermicro hy vọng giải pháp bằng chất lỏng của họ sẽ giảm đến 89% chi phí điện cho cơ sở hạ tầng so với giải pháp truyền thống là dùng không khí.

Trong tweet trước đó, Musk ước tính siêu máy tính Gigafactory sẽ tiêu thụ 130 MW (130 triệu wat) điện khi triển khai. Kết hợp phần cứng AI của Tesla sau khi được lắp đặt, điện năng tiêu thụ của nhà máy có thể lên 500 MW. Tỷ phú cho biết việc xây dựng cơ sở gần như hoàn tất, dự kiến bắt đầu lắp đặt máy móc vài tháng tới.

Musk đang song song xây dựng hai cụm siêu máy tính cho Tesla và công ty khởi nghiệp xAI, đều ước tính trị giá hàng tỷ USD. Theo Reuters, nếu hoàn thành kết nối 100.000 GPU H100, Gigafactory of Computing là siêu máy tính mạnh nhất thế giới, gấp bốn lần cụm GPU lớn nhất hiện nay.

Elon Musk thành lập xAI vào tháng 7 năm ngoái, cạnh tranh trực tiếp với OpenAI và Microsoft. Startup này sau đó tung ra mô hình AI Grok, đối đầu với ChatGPT. Hồi đầu năm, Musk cho biết việc đào tạo mô hình Grok 2 tiếp theo sẽ cần khoảng 20.000 GPU H100 của Nvidia, trong khi Grok 3 có thể cần 100.000 chip H100.