Gemini là mô hình AI đa phương thức do Google DeepMind nghiên cứu và phát triển, dự kiến công bố cuối năm nay. Đây được xem là "nỗ lực nghiêm túc nhất" của hãng trong cơn sốt AI - lĩnh vực hãng tham gia nhiều năm nhưng lại chậm chân trong cuộc đua AI tạo sinh so với ChatGPT.
Trong bài đăng mới đây, hai chuyên gia Dylan Patel và Daniel Nishball thuộc công ty nghiên cứu SemiAnalysis, lập luận rằng AI của Google đã sẵn sàng để "thổi bay" GPT-4 mạnh nhất hiện nay của OpenAI bằng sức mạnh tính toán lớn, trong khi đòi hỏi ít card đồ họa hơn.
Patel và Nishball phân chia "GPU giàu" (GPU-Rich) để chỉ những hệ thống AI tiêu tốn nhiều bộ xử lý đồ họa và "GPU nghèo" (GPU-Poor) để nói đến các hệ thống cần ít GPU nhưng vẫn có sức mạnh vượt trội. Nhóm tác giả xếp GPT-4 đại diện cho mô hình cần nhiều GPU, còn Gemini ở bên còn lại.
Được biết, phân tích của Patel dựa trên dữ liệu thu thập từ nhiều nguồn là nhà cung cấp bên thứ ba của Google. Dẫn hàng loạt số liệu, nhóm kết luận mô hình Gemini vượt trội GPT-4 về thước đo hiệu suất liên quan đến tính toán máy tính, được gọi là FLOPS.
Hiện nay, hầu hết mô hình AI ngôn ngữ lớn (LLM) như GPT-4 của OpenAI hay LLaMA của Meta chủ yếu dựa vào GPU từ Nvidia - thiết bị có giá 40.000 USD mỗi chiếc - để hoạt động. Càng nhiều GPU, sức mạnh tính toán càng tăng.
Cơn sốt AI đã giúp Nvidia gia nhập "câu lạc bộ nghìn tỷ USD" hồi tháng 5. Nvidia cũng gần như độc quyền về GPU cho các hệ thống AI. Trong khi đó, đối thủ lớn như AMD chưa có sản phẩm tương tự đủ khả năng cạnh tranh.
"Có ai có thể cứu chúng ta khỏi việc nô lệ cho Nvidia không? Câu trả lời có thể là Gemini", bài viết nêu.
Theo Business Insider, ngay sau khi xuất hiện, bài viết lập tức thu hút sự chú ý lớn từ giới chuyên môn. Sam Altman, CEO OpenAI nhận xét: "Thật ngạc nhiên, Google đang nhờ mấy anh chàng này phân tích về khả năng của Gemini. Đó chỉ là một bài tiếp thị, thật nực cười".
Ngay lập tức, tỷ phú Elon Musk đã phản bác Alman trên X: "Có số liệu nào trong đó sai không?". Đến nay, ông chủ ChatGPT chưa đáp lại.
Patel cũng phản biện ý kiến của Altman, khẳng định dữ liệu thu được là từ các nhà cung cấp của Google, không phải từ bản thân Google, đồng thời đưa ra một loạt ảnh chụp màn hình để chứng minh.
Trên nhiều diễn đàn, tranh cãi cũng nổ ra, tập trung vào câu hỏi: liệu việc kết hợp nhiều GPU tiên tiến và đắt tiền hơn sẽ tạo ra LLM tốt hơn không, cũng như vấn đề thực sự của các mô hình AI có phải là GPU hay phần mềm.
"Tôi hy vọng sớm có ai đó truất ngôi OpenAI. Nhưng nếu nói Gemini mạnh gấp năm lần GPT-4, cần xem lại sức mạnh ở đây đề cập đến khía cạnh nào", tài khoản X có tên Teknium1, hiện là một nhà phát triển ở Mỹ, nhận xét.
"Sức mạnh tính toán không thôi chưa phải là tài nguyên duy nhất. Nó còn là bản thân quá trình đào tạo, hiệu quả dữ liệu cũng như chất lượng sản phẩm cuối", trang Hacker News bình luận.
Một số người khác nói do chưa ra mắt, Gemini vẫn là một ẩn số. "Dù bạn đồng ý với bài viết hay không, đây vẫn là dự đoán táo bạo và chưa chắc có ai đúng. Năm 2024 sẽ rất thú vị", người dùng Reddit có tên MachineLearning viết.