Inteligencia artificial generativa AI Guerra, "La demanda de chip ai explota"

Los productos generativos del servicio de inteligencia artificial como ChatGPT y MidJourney están atrayendo la atención del mercado. En este contexto, la Asociación de Industria de Inteligencia Artificial de Corea (Kaiia) celebró la "Cumbre Gen-AI 2023 'en el COEX en Samseong-Dong, Seúl. El evento de dos días tiene como objetivo promover y avanzar en el desarrollo de la inteligencia artificial generativa (IA), que está expandiendo todo el mercado.

On the first day, starting with the keynote speech by Jin Junhe, head of the artificial intelligence fusion business department, large technology companies such as Microsoft, Google and AWS actively developing and serving ChatGPT, as well as fabless industries developing artificial intelligence semiconductors attended and made relevant Presentations, including “NLP Changes Brought by ChatGPT” by Persona AI CEO Yoo Seung-jae, and “Building a Chip de inferencia AI de alto rendimiento, eficiente y escalable para chatgpt ”por el CEO de Furiosa AI, Baek Jun-ho.

Jin Junhe dijo que en 2023, el año de la Guerra de Inteligencia Artificial, el enchufe ChatGPT ingresará al mercado como una nueva regla de juego para la gran competencia de modelos de idiomas entre Google y MS. En este caso, prevé oportunidades en semiconductores y aceleradores de IA que apoyan los modelos de IA.

Furiosa AI es una compañía representativa de la compañía de fabricación de AI Semiconductores en Corea. El CEO de Furiosa AI, Baek, que está trabajando duro para desarrollar semiconductores de IA de uso general para ponerse al día con Nvidia, que mantiene la mayor parte del mercado mundial en IA hiperescala, está convencida de que "la demanda de chips en el campo de la IA explotará en el futuro"

A medida que los servicios de IA se vuelven más complejos, inevitablemente enfrentan mayores costos de infraestructura. Los productos actuales de GPU A100 y H100 de NVIDIA tienen el alto rendimiento y la potencia informática requerida para la computación de inteligencia artificial, pero debido al aumento de los costos totales, como los altos costos de consumo de energía y los costos de implementación, incluso las empresas a escala de ultra large tienen cuidado de cambiar a productos de próxima generación. La relación costo-beneficio expresó su preocupación.

En este sentido, Baek predijo la dirección del desarrollo tecnológico, diciendo que, además de más y más empresas que adoptan soluciones de inteligencia artificial, la demanda del mercado será maximizar la eficiencia y el rendimiento dentro de un sistema específico, como el "ahorro de energía".

Además, enfatizó que el punto de propagación del desarrollo de semiconductores de inteligencia artificial en China es la "usabilidad", y dijo cómo resolver el soporte de entornos de desarrollo y la "programabilidad" será la clave.

Nvidia ha creado CUDA para mostrar su ecosistema de apoyo, y garantizar que la comunidad de desarrollo apoye marcos representativos para el aprendizaje profundo como Tensorflow y Pytoch se está convirtiendo en una importante estrategia de supervivencia para la productización.


Tiempo de publicación: mayo-29-2023