OpenAI dice que no tiene planes de utilizar el chip interno de Google
OpenAI dijo que no tiene planes activos para utilizar Google chip interno para impulsar sus productos, dos días después de que otros medios de comunicación informaran sobre la decisión del laboratorio de IA de recurrir a los chips de inteligencia artificial de su competidor para satisfacer la creciente demanda.
Un portavoz de OpenAI dijo el domingo que, si bien el laboratorio de IA se encuentra en pruebas iniciales con algunas de las unidades de procesamiento tensorial (TPU) de Google, no tiene planes de implementarlas a escala en este momento. Google se negó a hacer comentarios. Si bien es habitual que los laboratorios de IA prueben diferentes chips, el uso de nuevo hardware a gran escala podría llevar mucho más tiempo y requeriría una arquitectura y un soporte de software diferentes.
OpenAI utiliza activamente las unidades de procesamiento gráfico (GPU) de Nvidia y AMD Chips de IA para satisfacer su creciente demanda. OpenAI también está desarrollando su chip, un esfuerzo que va por buen camino para alcanzar el hito de «tape-out» este año, cuando el diseño del chip se finaliza y se envía a fabricación. OpenAI se ha suscrito al servicio Google Cloud para satisfacer sus crecientes necesidades de capacidad informática, según informó Reuters en exclusiva a principios de mes, lo que supone una sorprendente colaboración entre dos importantes competidores en el sector de la IA.
La mayor parte de la potencia informática utilizada por OpenAI provendría de servidores GPU gestionados por la empresa de neocloud CoreWeave. Google ha estado ampliando la disponibilidad externa de sus chips de IA internos, o TPU, que históricamente estaban reservados para uso interno. Esto le ha permitido a Google captar clientes, incluyendo a la gran empresa tecnológica Apple, así como nuevas empresas como Anthropic y Safe Superintelligence, dos competidores del fabricante de ChatGPT lanzados por ex líderes de OpenAI.
Fuente: reuters