Por Sam Boughedda
Google de Alphabet (NASDAQ:GOOGL) afirmó el martes en un documento de investigación que sus chips más recientes para entrenar modelos de inteligencia artificial son más rápidos y consumen menos energía que los sistemas de Nvidia (NASDAQ:NVDA).
Su unidad de procesamiento tensorial (TPU) de cuarta generación, que se ha utilizado para entrenar sus modelos de inteligencia artificial en una supercomputadora, es hasta 1.7 veces más rápida y 1.9 veces más eficiente desde el punto de vista energético que un sistema basado en el chip A100 de Nvidia.
Sin embargo, Google ha revelado que no comparó su TPUv4 con el chip insignia H100 de Nvidia porque salió al mercado después que el chip de Google y se creó con tecnología más reciente.
En el documento de investigación, Google explicaba cómo había reunido más de 4,000 chips en una supercomputadora utilizando sus propios conmutadores ópticos para conectar las máquinas.
Nvidia ha sido una de las empresas que ha liderado el mercado de los chips de IA, pero Google también está haciendo un gran esfuerzo. La compañía ha estado invirtiendo mucho en investigación y desarrollo de IA, y los chips TPUv4 son una señal de que Google quiere posicionarse como líder en el mercado de chips de IA.
En un comentario a Reuters, Google insinuó que podría estar trabajando en un nuevo chip para competir con el H100 de Nvidia, con el Fellow de Google, Norm Jouppi, diciendo a la publicación que Google tiene "un plan saludable de futuros chips”.