Hardware para IA

Hardware para IA

Un rincón coordinado por Fꓤancisco Javier Яodríguez Amoяín

Cuando un bobo coge una linde, la linde se acaba pero el bobo sigue:
Qué pesado con la inteligencia artificial…

El desarrollo de la IA generativa conlleva un alto costo ambiental, en particular debido a la producción de hardware: las unidades de procesamiento gráfico (GPU) y los centros de datos, que consumen grandes cantidades de recursos. Además, la extracción de metales raros, como el cobalto y el tantalio, utilizados en estos sistemas, contribuye a la deforestación, la contaminación del agua o la degradación del suelo.
…/…
Sustituir todas las búsquedas que se hacen hoy en Google por su equivalente en un sistema de IA generativa como Gemini o Perplexity, estos requerirán de un consumo de electricidad equivalente al de Irlanda.*

Wim Vanderbauwhede:

Los costes de inferencia [uso] escalan con el número de usuarios. Los costes de entrenamiento solo escalan si haces un modelo más grande. Aquí es probablemente donde DeepSeek ha sido más inteligente porque su clúster de GPUs no es muy grande, se las arreglaron para entrenar el modelo en un clúster más pequeño, ya que es una empresa pequeña. Eso les permite ahorrar en el coste inicial. Pero si se convierten en una gran empresa, van a necesitar muchos centros de datos para responder a todas las consultas de los usuarios. Ese será el coste dominante.**

Centros de datos: el corazón energético de la IA
Los centros de datos, que albergan servidores, sistemas de almacenamiento y equipos de red, son fundamentales para la operación de modelos de IA generativa. Sin embargo, también son grandes consumidores de energía.
En 2022, el consumo de electricidad de los centros de datos a nivel mundial alcanzó los 460 teravatios, ubicándolos como el undécimo mayor consumidor de energía, justo por detrás de países como Francia y Arabia Saudita. Se proyecta que este consumo se duplique para 2026, alcanzando aproximadamente 1,050 teravatios.
Los centros de datos no solo dependen de electricidad; también requieren agua para enfriar sus sistemas. Por cada kilovatio hora de energía consumida, se estima que utilizan dos litros de agua. Esto puede tener consecuencias graves para los recursos hídricos locales, especialmente en regiones con estrés hídrico. ***

  1. Unidades de Procesamiento Gráfico (GPU)
  • Descripción: Componentes esenciales para el entrenamiento de modelos de IA debido a su capacidad de procesamiento en paralelo.
  • Ejemplos:
    • NVIDIA (EE. UU.): Tesla V100, A100, H100.
    • AMD (EE. UU.): Instinct MI50, MI100, MI200.
    • Biren Technology (China): BR100.
    • Iluvatar CoreX (China): Chips de aceleración para IA.

    Cobalto
  • Coste:
    • Alto consumo energético durante el entrenamiento de modelos.
    • Extracción de metales raros (cobalto, tantalio, tierras raras).
    • Generación de residuos electrónicos debido a la corta vida útil del hardware.
  1. Unidades de Procesamiento Tensorial (TPU)
    • Descripción: Chips especializados para operaciones de matriz, optimizados para IA.
  • Ejemplos:
    • Google (EE. UU.): TPU v3, v4, v5e.
    • Cambricon (China): MLU (Machine Learning Unit).
  • Coste:
    • Menor consumo energético que las GPU, pero aún significativo en centros de datos a gran escala.
    • Dependencia de materiales raros en su fabricación.
  1. Unidades de Procesamiento de IA (AI Accelerators)
  • Descripción: Chips especializados para tareas específicas de IA, como inferencia y entrenamiento.
  • Ejemplos:
    • Intel (EE. UU.): Habana Gaudi.
    • Graphcore (Reino Unido): IPU.
    • AMD (EE. UU.): Instinct MI250X.
    • Cerebras (EE. UU.): Wafer-Scale Engine (WSE).
    • Biren Technology (China): Chips de aceleración para IA.
  • Coste:
    • Optimizados para eficiencia energética, pero aún requieren materiales raros y generan residuos electrónicos.
  1. Memoria de Alta Velocidad (HBM, GDDR)
  • Descripción: Memoria especializada para alimentar datos rápidamente a las unidades de procesamiento.
  • Ejemplos:
    • Samsung (Corea del Sur): HBM2, HBM3.
    • SK Hynix (Corea del Sur): HBM2, HBM3.
    • Micron (EE. UU.): GDDR6.
    • YMTC (China): Memorias flash avanzadas.
  • Coste:
    • Fabricación intensiva en recursos (silicio, oro, metales raros).
    • Contribución al consumo energético total de los sistemas de IA.
  1. Interconexiones de Alta Velocidad (NVLink, InfiniBand)
  • Descripción: Tecnologías que permiten la comunicación rápida entre múltiples unidades de procesamiento.
  • Ejemplos:
    • NVIDIA (EE. UU.): NVLink.
    • Intel (EE. UU.): InfiniBand.
  • Coste:
    • Fabricación con materiales conductores (cobre, oro).
    • Contribución al consumo energético en sistemas distribuidos.
  1. Sistemas de Almacenamiento Optimizados (SSD NVMe, almacenamiento en la nube)
  • Descripción: Sistemas diseñados para manejar grandes volúmenes de datos de manera eficiente.
  • Ejemplos:
    • AWS (EE. UU.): Amazon S3.
    • Google Cloud (EE. UU.): Google Cloud Storage.
    • Microsoft Azure (EE. UU.): Almacenamiento flash.
    • Alibaba Cloud (China): Servicios de almacenamiento en la nube.
    • Tata Consultancy Services (TCS) (India): Soluciones de almacenamiento y big data.
  • Coste:
    • Fabricación con materiales como silicio y metales raros.
    • Alto consumo energético en centros de datos.
  1. Plataformas de Computación en la Nube
  • Descripción: Servicios que ofrecen acceso a hardware especializado para IA sin necesidad de infraestructura física.
  • Ejemplos:
    • AWS (EE. UU.): SageMaker.
    • Google Cloud (EE. UU.): AI Platform.
    • Microsoft Azure (EE. UU.): Machine Learning.
    • Alibaba Cloud (China): Plataforma de IA.
    • Tencent Cloud (China): Infraestructura para IA.
    • Tata Consultancy Services (TCS) (India): Servicios en la nube.
  • Coste:
    • Consumo masivo de energía en centros de datos.
    • Refrigeración que puede usar productos químicos dañinos.
  1. Frameworks y Bibliotecas Optimizadas
  • Descripción: Software optimizado para aprovechar el hardware especializado en IA.
  • Ejemplos:
    • Google (EE. UU.): TensorFlow.
    • Meta (EE. UU.): PyTorch.
    • NVIDIA (EE. UU.): CUDA, cuDNN.
    • Baidu (China): PaddlePaddle.
    • SigOpt: Utilizado ampliamente en India para optimización de modelos.
  • Coste:
    • Impacto indirecto a través del uso intensivo de hardware.

9. Tecnologías emergentes en hardware para IA

Chips neuromórficos

  • Descripción: Procesadores inspirados en el cerebro humano, diseñados para eficiencia energética en tareas de IA.
  • Ejemplos:
    • Intel (EE. UU.): Loihi.
    • IBM (EE. UU.): TrueNorth.
  • Bajo consumo energético comparado con GPUs y TPUs, pero aun en desarrollo.

Procesadores RISC-V para IA

  • Descripción: Arquitectura abierta utilizada para hardware de IA optimizado.
  • Ejemplos:
    • SiFive (EE. UU.): Núcleos RISC-V para IA.
    • Alibaba (China): Xuantie 910.
  • Reducción de dependencia de hardware propietario y posibilidad de personalización.

Refrigeración líquida para centros de datos

  • Descripción: Métodos avanzados para disipar el calor generado por los chips de IA.
  • Ejemplos:
    • Microsoft (EE. UU.): Proyectos de refrigeración sumergida.
    • Immersion Cooling (Diferentes empresas).
  • Reducción del consumo energético en la refrigeración de servidores.

Para los que leyeron el artículo DeepSeek comparación con ChatGPT de OpenAI, pueden ver una opinión más fundada de Wim Vanderbauwhede:
He estado analizando la información que DeepSeek ha querido facilitar.
Para empezar, la narrativa de que han tenido que usar GPUs de menor rendimiento por las restricciones a las exportaciones del gobierno estadounidense es falsa. Voy a explicar por qué es falsa.**

* https://www.agenciasinc.es/Noticias/Este-es-el-verdadero-impacto-de-las-nuevas-herramientas-de-IA
* https://www.sciencedirect.com/science/article/pii/S2666498424001340
** https://ctxt.es/es/20250201/Politica/48565/Elena-de-Sus-entrevista-Wim-Vanderbauwhede-IA-deepseek-medioambiente.htm
*** https://aboutdata.blog/que-tan-sostenible-es-la-ia-generativa-impactos-ambientales-y-soluciones-para-un-futuro-responsable/

Píldora ¿Roja o Azul?

Comparte este artículo, tus amig@s lo agradecerán…
Mastodon: @LQSomos@nobigtech.es; Bluesky: LQSomos;
Telegram: LoQueSomosWeb; Twitter (X): @LQSomos;
Facebook: LoQueSomos; Instagram: LoQueSomos;

FꓤANCISCO JAVIER ЯODRÍGUEZ AMOЯÍN

https://rodriguezamorin.blogspot.com/

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.