AMD dijo el martes que su GPU más avanzada para inteligencia artificial, la MI300X, comenzará a enviarse a algunos clientes a finales de este año. El anuncio de AMD representa el desafío más fuerte para , que actualmente domina el mercado de chips de IA con más del 80% de participación de mercado, según los analistas.
Las GPU son chips utilizados por empresas como OpenAI para crear programas de IA de vanguardia como ChatGPT.
Si los chips de IA de AMD, que llama «aceleradores», son adoptados por desarrolladores y fabricantes de servidores como sustitutos de los productos de Nvidia, podría representar un gran mercado sin explotar para el fabricante de chips, que es mejor conocido por sus procesadores informáticos tradicionales.
La CEO de AMD, Lisa Su, dijo a los inversores y analistas en San Francisco el martes que la IA es la «oportunidad de crecimiento a largo plazo más grande y estratégica de la compañía».
«Pensamos en el acelerador [mercado] de IA del centro de datos que crecerá de algo así como $ 30 mil millones este año, a una tasa de crecimiento anual compuesta de más del 50%, a más de $ 150 mil millones en 2027», dijo Su.
Si bien AMD no reveló un precio, la medida podría ejercer presión sobre los precios de las GPU de Nvidia, como la H100, que puede costar $ 30,000 o más. Los precios más bajos de las GPU pueden ayudar a reducir el alto Si bien AMD no reveló un precio, la medida podría ejercer presión sobre los precios de las GPU de Nvidia, como la H100, que puede costar $ 30,000 o más. Los precios más bajos de la GPU pueden ayudar a reducir el alto .
Los chips de IA son uno de los puntos brillantes en la industria de semiconductores, mientras que las ventas de PC, un impulsor tradicional de las ventas de procesadores de semiconductores, caen.
El MI300X
AMD dijo que su nuevo chip MI300X y su arquitectura CDNA fueron diseñados para modelos de lenguaje grande y otros modelos de IA de vanguardia.«En el centro de esto están las GPU. Las GPU están permitiendo la IA generativa», dijo Su.
El MI300X puede usar hasta 192 GB de memoria, lo que significa que puede adaptarse a modelos de IA aún más grandes que otros chips. El rival de Nvidia, H100, solo admite 120 GB de memoria, por ejemplo.
Los modelos de lenguaje grandes para aplicaciones generativas de IA utilizan mucha memoria porque ejecutan un número cada vez mayor de cálculos. AMD demostró el MI300x ejecutando un modelo de 40 mil millones de parámetros llamado Falcon. El modelo GPT-3 de OpenAI tiene 175 mil millones de parámetros.
Pese a que ayer bajó al cierre un 3.64% desde luego su pinta técnica es excelente y sobre todo humillante para su enemigo íntimo INTEL. El único temor a corto plazo es que baja confirmar el gap alcista que se dejó en el último tramo de la subida como soporte.
Vamos a ver si vuelve a máximos, y luego hace extension a 161’80 en el 2024. Están los analistas actualizando ganancias del 2024, proyectando 5 $ desde 4’13 $. Saludos