Guerra de IA de inteligencia artificial generativa, “la demanda de chips de IA explota”

Los productos de servicios de inteligencia artificial generativa como ChatGPT y Midjourney están atrayendo la atención del mercado. En este contexto, la Asociación de la Industria de Inteligencia Artificial de Corea (KAIIA) celebró la 'Cumbre Gen-AI 2023' en COEX en Samseong-dong, Seúl. El evento de dos días tiene como objetivo promover y avanzar en el desarrollo de la inteligencia artificial generativa (IA), que está expandiendo todo el mercado.

El primer día, comenzando con el discurso de apertura de Jin Junhe, jefe del departamento comercial de fusión de inteligencia artificial, asistieron y asistieron grandes empresas de tecnología como Microsoft, Google y AWS que desarrollan y prestan servicios activamente a ChatGPT, así como industrias sin fábrica que desarrollan semiconductores de inteligencia artificial. realizó presentaciones relevantes, que incluyen “Cambios en PNL generados por ChatGPT” a cargo del CEO de Persona AI, Yoo Seung-jae, y “Construcción de un chip de inferencia de IA escalable, energéticamente eficiente y de alto rendimiento para ChatGPT” por el director ejecutivo de Furiosa AI, Baek Jun-ho.

Jin Junhe dijo que en 2023, el año de la guerra de la inteligencia artificial, el complemento ChatGPT ingresará al mercado como una nueva regla de juego para la enorme competencia de modelos lingüísticos entre Google y MS. En este caso, prevé oportunidades en semiconductores y aceleradores de IA que admitan modelos de IA.

Furiosa AI es una empresa representativa sin fábrica que fabrica semiconductores de IA en Corea. Baek, director ejecutivo de Furiosa AI, que está trabajando arduamente para desarrollar semiconductores de IA de uso general para alcanzar a Nvidia, que posee la mayor parte del mercado mundial de IA a hiperescala, está convencido de que "la demanda de chips en el campo de la IA se disparará en el futuro". "

A medida que los servicios de IA se vuelven más complejos, inevitablemente enfrentan mayores costos de infraestructura. Los productos GPU A100 y H100 actuales de Nvidia tienen el alto rendimiento y la potencia informática necesarios para la computación con inteligencia artificial, pero debido al aumento de los costos totales, como el alto consumo de energía y los costos de implementación, incluso las empresas de gran escala desconfían de cambiar a productos de última generación. La relación costo-beneficio expresó preocupación.

En este sentido, Baek predijo la dirección del desarrollo tecnológico, diciendo que además de que cada vez más empresas adopten soluciones de inteligencia artificial, la demanda del mercado será maximizar la eficiencia y el rendimiento dentro de un sistema específico, como el "ahorro de energía".

Además, enfatizó que el punto de expansión del desarrollo de semiconductores de inteligencia artificial en China es la "usabilidad", y dijo que la clave será cómo resolver el entorno de desarrollo, el apoyo y la "programabilidad".

Nvidia ha creado CUDA para mostrar su ecosistema de soporte, y garantizar que la comunidad de desarrollo respalde marcos representativos para el aprendizaje profundo como TensorFlow y Pytoch se está convirtiendo en una importante estrategia de supervivencia para la productización.


Hora de publicación: 29 de mayo de 2023