Hace unas semanas os contábamos de la alianza entre OpenAI y Google para que OpenAI pudiera usar la infraestructura en la nube de la empresa con sede en Mountain View. Con esta asociación, la compañía liderada por Sam Altman lograría ser más independiente de su hasta ahora único proveedor, Microsoft
Pues bien, OpenAI sigue moviéndose en busca de más independencia y reforzando sus vínculos con uno de sus grandes rivales en la carrera de la inteligencia artificial. Porque puede que ChatGPT y Gemini sean competidores, pero Google sigue ganando importancia en la estructura que hace posible su modelo. Y esta vez quien ve las orejas al lobo es Nvidia.
Según una fuente cercana al asunto de la que se hace eco Reuters, OpenAI ha empezado a alquilar los chips de inteligencia artificial de Google para alimentar a ChatGPT y otros de los productos de la casa. Estamos ante un hecho histórico, en tanto en cuanto por primera vez OpenAI usaría chips que no son de Nvidia.
OpenAI compra unidades de procesamiento gráfico de Nvidia para entrenar modelos de inteligencia artificial y para tareas de inferencia, es decir, lo que hace un modelo ya entrenado al aplicar sus conocimientos para hacer predicciones o tomar decisiones a partir de nueva información.
Pero es que además la relación estratégica y comercial entre OpenAI y Nvidia es de gran importancia por los dos lados de la moneda: para la empresa de Altman por ser su proveedor oficial (y hasta ahora único) de chips, pero es que Nvidia tiene en OpenAI uno de sus principales clientes.
Hasta la fecha la empresa liderada por Sundar Pichai reservaba sus unidades de procesamiento tensorial para uso propio, pero Google ha abierto la veda: sus TPUs están disponibles para usos externos. Este cambio de estrategia ha hecho Google atraiga a clientes como Apple, pero también a startups que compiten con OpenAI como Anthropic. De este modo, Google busca capitalizar su infraestructura de IA (tanto software como hardware) para potenciar el crecimiento de su negocio de la nube.
OpenAI mete la tijera en costes. The Information fue el primer medio en hacerse eco de esta operación estratégica que, además de dar más independencia de uno de sus principales proveedores, también busca un abaratamiento de costes: las unidades de procesamiento tensorial de Google son una alternativa más barata a las unidades de procesamiento gráfico de Nvidia, hegemónicas en el mercado de chips IA. El informe explica que las TPU, alquiladas a través de Google Cloud, contribuyan a reducir los costes asociados a la inferencia.
Google guarda sus mejores armas. Según la filtración, la empresa con sede en Mountain View no estaría alquilando a OpenAI sus TPUs más mejores y potentes a su rival. Por el momento, ni Google ni OpenAI han hecho declaraciones al respecto.
En Xataka Android | El nuevo modo de ChatGPT que ve a través de la cámara es tan alucinante como preocupante para mi privacidad
En Xataka Android | Google tiene un nuevo favorito, y no es Android. Gemini anticipa un móvil sin apps
Portada | Montaje con foto de Jonny Gios en Unsplash y foto de Beyzaa Yurtkuran en Pexels
–
La noticia
ChatGPT es más Google que nunca: primero empezó a usar su nube, ahora sus chips. Es todo un mazazo para Nvidia
fue publicada originalmente en
Xataka Android
por
Eva R. de Luis
.