El CEO de Apple, Tim Cook, anunció el lunes un acuerdo con OpenAI para integrar su potente modelo de inteligencia artificial en el asistente de voz Siri. Sin embargo, un documento técnico publicado por Apple después del evento revela que Google, perteneciente a Alphabet, también ha sido crucial en los esfuerzos de la empresa de Cupertino para avanzar en el campo de la inteligencia artificial.
Para desarrollar sus modelos de IA, los ingenieros de Apple emplearon su propio marco de software, pero se apoyaron en una variedad de hardware, incluidos sus propios procesadores gráficos (GPU) y unidades de procesamiento tensorial (TPU) disponibles exclusivamente en la nube de Google.
Google ha estado desarrollando TPUs durante aproximadamente 10 años y recientemente presentó dos tipos de chips de quinta generación, diseñados específicamente para ejecutar aplicaciones de IA y entrenar modelos. Según Google, la versión de alto rendimiento de estos chips ofrece un rendimiento competitivo con los chips de IA Nvidia H100. Además, Google anunció en su conferencia anual de desarrolladores que lanzará una sexta generación de estos chips este año.
Los TPUs de Google están diseñados para optimizar el procesamiento y entrenamiento de aplicaciones de IA, y la compañía ha construido una robusta plataforma de computación en la nube alrededor de ellos. Aunque Apple no ha especificado la proporción en que utiliza los chips y software de Google en comparación con el hardware de Nvidia u otros proveedores de IA, el uso de TPUs generalmente implica adquirir acceso a través de la división en la nube de Google, similar a cómo los clientes compran tiempo de computación en AWS de Amazon o Azure de Microsoft.
Esta colaboración subraya la complejidad y el nivel de interdependencia en el desarrollo de tecnologías avanzadas de inteligencia artificial, mostrando que incluso gigantes tecnológicos como Apple se benefician de las innovaciones y capacidades de sus competidores para mantenerse a la vanguardia.