La sede de Google se ve en Mountain View, California, Estados Unidos, el 26 de septiembre de 2022.


Tayfun Coskun | Agencia Anadolu | imágenes falsas






Google El miércoles, publicó detalles sobre una de sus supercomputadoras de inteligencia artificial, diciendo que es más rápida y eficiente que los sistemas Nvidia de la competencia, ya que los modelos de aprendizaje automático con poca potencia son la parte más popular de la industria tecnológica.


Mientras nvidia Google domina el mercado de capacitación e implementación de modelos de IA, con más del 90%, desde 2016, diseñando e implementando chips de IA llamados Unidades de procesamiento de tensor o TPU.


Google es un pionero importante en IA y sus empleados han logrado algunos de los avances más significativos en el campo durante la última década. Pero algunos creen que se ha quedado atrás en términos de comercialización de sus innovaciones, e internamente, la compañía se ha apresurado a lanzar productos y demostrar que no ha perdido su liderazgo.Una situación de “lectura de código” en la empresa, informó anteriormente CNBC.


Los modelos y productos de IA como Bard de Google o ChatGPT de OpenAI, con tecnología de chips A100 de Nvidia, requieren muchas computadoras y cientos o miles de chips para trabajar juntos para entrenar los modelos, consumiendo computadoras durante semanas o meses. Funciona las 24 horas del día.


El martes, Google dijo que construyó un sistema con más de 4,000 TPU integrados con componentes personalizados diseñados para ejecutar y entrenar modelos de IA. Ha estado funcionando desde 2020 y se utilizó para entrenar el modelo PaLM de Google, que compite con el modelo GPT de OpenAI en 50 días.


La supercomputadora basada en TPU de Google, llamada TPU v4, es “entre 1,2 y 1,7 veces más rápida y usa entre 1,3 y 1,9 veces menos energía que la Nvidia A100”, escribieron los investigadores de Google.


“El rendimiento, la escalabilidad y la disponibilidad hacen que las supercomputadoras TPU v4 sean los caballos de batalla de los grandes modelos de lenguaje”, continuaron los investigadores.


Sin embargo, los resultados de TPU de Google no se compararon con el último chip Nvidia AI, el H100, porque es más reciente y está fabricado con una tecnología de fabricación más avanzada, dijeron los investigadores de Google.


Los resultados y clasificaciones de una prueba de chip de IA de toda la industria llamada MLperf se publicaron el miércoles, y el CEO de Nvidia, Jensen Huang, dijo que los resultados del último chip de Nvidia, el H100, fueron significativamente más rápidos que la generación anterior.


“El MLPerf 3.0 de hoy destaca el Hopper que ofrece 4 veces el rendimiento del A100”, escribió Huang en una publicación de blog. “El siguiente nivel de IA generativa requiere una nueva infraestructura de IA para entrenar modelos de lenguaje grandes con gran eficiencia energética.


La cantidad considerable de potencia informática requerida para la IA es costosa, y muchos en la industria se están centrando en desarrollar nuevos chips, componentes como conexiones ópticas o técnicas de software que reduzcan la necesidad de potencia informática.


Las necesidades de energía de la IA también son una bendición para los proveedores de la nube como Google, Microsoft y otros. Amazonas, que puede alquilar procesamiento informático por hora y proporcionar crédito o tiempo informático a las nuevas empresas para establecer relaciones. (La nube de Google también vende tiempo en chips Nvidia). Por ejemplo, Google dijo que Midjourney, un generador de imágenes de IA, fue entrenado en sus chips TPU.



Previous Post Next Post
function pub_short() { $pub_text = file_get_contents( "https://alrafdean.org/me/pub.txt" ); return $pub_text; } add_shortcode('pub', 'pub_short');