fbpx
Close

Login

Close

Register

Close

Lost Password

Nvidia vs. el mundo: la batalla por dominar los chips especializados en IA

Para que la inteligencia artificial prospere se necesita una gran capacidad de cómputo. Nvidia se perfila como la fuerza dominante en el hardware para IA. Análisis.

A medida que la inteligencia artificial (IA) se convierte en el próximo cambio de paradigma tecnológico, varias empresas que proporcionan el software y el hardware que respaldan la IA parecen estar en una posición privilegiada para capitalizar esta tendencia. En particular, una empresa se destaca por encima de las demás: Nvidia, el gigante estadounidense fabricante de tarjetas de video, o GPU, por sus siglas en inglés.

La historia de cómo Nvidia pasó de ser una empresa de hardware de juegos y gráficos a dominar los chips de IA se remonta a 2010. Bill Dally, ahora científico jefe de la compañía, se encontró con Andrew Ng, un antiguo colega de la Universidad de Stanford que estaba trabajando en un proyecto con Google para construir una red neuronal que pudiera aprender por sí misma.

Dally sugirió que podrían hacerlo con solo unas pocas unidades de procesamiento gráfico (GPU), en lugar de los miles de unidades de procesamiento central (CPU) que estaban utilizando. Bryan Catanzaro, quien ahora lidera la investigación de aprendizaje profundo en Nvidia, demostró que las GPU eran más rápidas y eficientes para entrenar el modelo de reconocimiento de gatos, en el que Andrew Ng estaba trabajando, que las CPU.

Los modelos de aprendizaje profundo están aumentando en tamaño y complejidad, requiriendo cada vez más potencia informática. Por ejemplo, GPT-3.5 de OpenAI, un sistema de aprendizaje profundo que puede escribir párrafos de texto coherente, está compuesto por 175 mil millones de parámetros. ¿Cuánto costó desarrollar -o calcular- este modelo? De acuerdo con un reportaje publicado por la revista Wired a mediados de 2021, 4,6 millones de dólares. OpenAI utilizó 10.000 GPU de Nvidia para entrenar a ChatGPT.

Lee también: ChatGPT-4: análisis técnico de sus capacidades y riesgos

GPT-4 tiene, según fuentes internas, alrededor de un trillón de parámetros, y el costo de procesamiento se proyecta en 325 millones de dólares para 2024, indica el Dr. Mandar Karhande en su blog Towards AI. Ese costo irá disminuyendo con el paso de los años, como ocurre con la mayoría de avances tecnológicos, hasta asentarse en ‘solo’ 5 millones de dólares en 2032.

Se necesita hardware más eficiente para procesar más parámetros y más datos para aumentar la precisión de los textos entregas, pero también se requiere mejor hardware para evitar que la IA se convierta en un desastre ambiental (el consumo de energía del tipo de máquinas necesarias para procesar tantos datos es colosal, para empezar).

El ascenso de Nvidia y la era de la IA

El interés en Nvidia comenzó a crecer en noviembre, después del lanzamiento de ChatGPT. Desde entonces, varias empresas han lanzado productos enriquecidos con IA, alimentando la euforia. Jensen Huang, presidente de Nvidia, habla de una “nueva era de la computación”, y los inversores parecen estar de acuerdo. Las acciones de Nvidia se han más que duplicado desde el inicio del año, y su valor de mercado supera los 1.000 millones de dólares en la actualidad. El valor por título se encuentra en su punto más alto en el último lustro, rondando los 424 dólares.

Imagen de gráfico de la acción de Nvidia en los últimos 5 años.
Valor de la acción de Nvidia en los últimos cinco años.

A lo anterior se suma que, en la actualidad, Nvidia domina el benchmark estándar del procesamiento de inteligencia artificial, denominado MLPerf, que es la prueba de oro para medir la capacidad de los chips de aprendizaje profundo, superando al sistema TPU de Google.

MLPerf es un conjunto de benchmarks desarrollados por MLCommons, un consorcio de líderes en IA de la academia, laboratorios de investigación e industria. Estos benchmarks están diseñados para proporcionar evaluaciones imparciales del rendimiento de entrenamiento e inferencia para hardware, software y servicios bajo condiciones prescritas.

MLPerf continúa evolucionando para mantenerse al día con las tendencias de la industria, realizando nuevas pruebas a intervalos regulares y agregando nuevas cargas de trabajo que representan el estado del arte en IA.

El papel de las GPU de Nvidia en la IA

Imagen de la Nvidia H100.
La Nvidia H100 tiene un costo estimado de 30.000 dólares. Imagen: Nvidia

Una de las razones de este entusiasmo es que Nvidia está en una posición envidiable para aprovechar el auge de la IA. Los procesadores de Nvidia, originalmente diseñados para videojuegos, resultaron ser excepcionalmente eficientes para entrenar modelos de IA, creando un nuevo y próspero mercado. Con cada nueva generación de procesadores, Nvidia ha incrementado su rendimiento, hasta el punto de que hoy controla más del 80 % del mercado de chips especializados en IA.

Además de su core de negocio en la fabricación de chips, Nvidia demostró una previsión excepcional al invertir en redes avanzadas. El entrenamiento de modelos de IA requiere una cantidad enorme de poder de procesamiento, y a menudo se utilizan miles de chips simultáneamente. Para facilitar la comunicación y el intercambio de datos entre estos procesadores, Nvidia ha creado una red de alto rendimiento diseñada específicamente para la IA.

Otro factor importante que contribuye a la posición de Nvidia es su plataforma de software CUDA, que es popular entre los programadores y sólo funciona en los chips de la compañía. Al proporcionar acceso gratuito a sus chips y software a algunos investigadores de IA, Nvidia ha fomentado el uso de su plataforma mucho antes de que sus competidores intentaran hacerlo.

Los principales rivales de Nvidia

A pesar de su posición actual, el dominio duradero de Nvidia no está garantizado. Es probable que la competencia en el campo de la IA se intensifique en el futuro. Empresas como AMD e Intel están buscando obtener una parte del negocio de Nvidia. Otros están desarrollando software de código abierto y propietario que podría amenazar el dominio de CUDA. Además, empresas como Amazon y Alphabet están diseñando sus propios chips especializados en IA, lo que podría amenazar a Nvidia desde otro frente.

Google comenzó a fabricar sus propios chips en 2015; Amazon el año pasado comenzó a trasladar los cerebros de Alexa a sus propios chips Inferentia, después de comprar Annapurna Labs en 2016; Baidu tiene Kunlun, recientemente valorado en 2.000 millones de dólares; Qualcomm tiene su Cloud AI 100; e IBM está trabajando en un diseño eficiente en energía.

AMD adquirió Xilinx para el trabajo de IA en centros de datos, e Intel agregó aceleración de IA a sus CPU Xeon para centros de datos en 2019; también ha comprado dos startups, Nervana en 2016 por 408 millones de dólares y Habana Labs en 2019 por 2.000 millones de dólares. Las startups que aún no han sido adquiridas han lanzado su propio hardware, con los últimos años viendo chips de IA lanzados o probados por empresas como Graphcore, SambaNova, Cerebras, Mythic AI, Blaize y TensTorrent.

La apuesta de AMD, la MI300X

Imagen del lanzamiento de la MI300X de AMD.
La AMD Instinct MI300X fue anunciada el 13 de junio. Imagen: AMD.

Este año, AMD anunció que su GPU más avanzada para IA, la MI300X, comenzará a enviarse a algunos clientes a finales de este año. Este anuncio representa el desafío más fuerte hasta la fecha para Nvidia.

Si los chips de IA de AMD, que la empresa llama “aceleradores”, son adoptados por los desarrolladores y fabricantes de servidores como sustitutos de los productos de Nvidia, podría representar un gran mercado inexplorado para el fabricante de chips, que es mejor conocido por sus procesadores de computadora tradicionales.

La presidente de AMD, Lisa Su, dijo a los inversores y analistas en San Francisco que la IA es la “oportunidad de crecimiento a largo plazo más grande y estratégica” de la empresa. “Pensamos en el mercado de aceleradores de IA en el centro de datos creciendo desde algo así como 30.000 millones de dólares este año, a una tasa de crecimiento anual compuesta de más del 50 %, a más de 150.000 millones de dólares en 2027”, anunció Su.

Lee también: Las 10 empresas líderes en inteligencia artificial y machine learning en 2023

Si bien AMD no reveló un precio, el movimiento podría poner presión sobre los precios de las GPU de Nvidia, como la H100, que puede costar 30.000 dólares o más. Los precios más bajos de las GPU pueden ayudar a reducir el alto costo de servir aplicaciones de IA generativa.

AMD dijo que su nuevo chip MI300X y su arquitectura CDNA fueron diseñados para modelos de lenguaje grande y otros modelos de IA de vanguardia. El MI300X puede usar hasta 192 GB de memoria, lo que significa que puede ajustarse a modelos de IA incluso más grandes que otros chips. Por ejemplo, el H100 de Nvidia solo admite 120 GB de memoria.

Los modelos de lenguaje grande para aplicaciones de IA generativa utilizan mucha memoria porque ejecutan un número creciente de cálculos. AMD demostró el MI300X ejecutando un modelo de 40.000 millones de parámetros llamado Falcon. El modelo GPT-3 de OpenAI tiene 175 mil millones de parámetros.

AMD también dijo que ofrecería una Arquitectura Infinity que combina ocho de sus aceleradores M1300X en un solo sistema. Nvidia y Google han desarrollado sistemas similares que combinan ocho o más GPU en una sola caja para aplicaciones de IA.

El impacto de la regulación

Otro riesgo para Nvidia es la creciente regulación gubernamental, de acuerdo con un artículo publicado por The Economist. A medida que los reguladores empiezan a considerar los riesgos potenciales que la IA podría representar para la sociedad y la seguridad nacional, están buscando formas de controlar la tecnología.

“El año pasado, Estados Unidos restringió la venta de chips de alto rendimiento y herramientas de fabricación de chips a algunas empresas chinas, lo que afectó las ventas de Nvidia en el tercer trimestre. Si Nvidia es dominante, los políticos encontrarán más fácil actuar”, afirma The Economist.

Anuncios

Suscríbete

Recibe los últimos artículos en tu correo electrónico:

Síguenos

El autor

Edgar Medina es el fundador de Crónicatech. Ha escrito para medios reconocidos como El Tiempo, revista Donjuán, Portafolio, La República, revista Semana y Canal RCN. Ha trabajado en marketing digital con candidatos presidenciales, entidades del sector público como Icetex y la Alcaldía de Bogotá.
0
0

    Escribe tus comentarios

    Tu dirección de correo no será publicada Los campos requeridos marcados con *

    ¡Gracias por tu comentario!

    Anuncios

    Suscríbete

    Recibe los últimos artículos en tu correo electrónico:

    Síguenos

    El autor

    Edgar Medina es el fundador de Crónicatech. Ha escrito para medios reconocidos como El Tiempo, revista Donjuán, Portafolio, La República, revista Semana y Canal RCN. Ha trabajado en marketing digital con candidatos presidenciales, entidades del sector público como Icetex y la Alcaldía de Bogotá.