Logo Ejes
28/10/2025 Cronista.com - Nota

EL CRONISTA INTERNACIONALES ELON MUSK ALARMANTE
Esta predicción de Elon Musk se está haciendo realidad en todo el mundo: "Estamos al borde de una gran crisis..."

El empresario hizo la advertencia durante en la conferencia Bosch Connected World. ¿Qué dijo? ¿Querés dejar tu opinión? Registrate para comentar este artículo.

Elon Musk   -el polémico empresario detrás de Tesla, SpaceX y X- lanzó durante su participación en la conferencia Bosch Connected World de Berlín una advertencia contundente: el mundo está al borde de una crisis sin precedentes.
"Nunca he visto una tecnología avanzar tan rápido como la inteligencia artificial " , declaró, señalando que esta tecnología duplica su capacidad cada seis meses y que las redes eléctricas mundiales no están preparadas para este ritmo vertiginoso.
El magnate tecnológico, conocido tanto por sus ideas futuristas como por su controvertida cercanía con Donald Trump , fue categórico: la combinación explosiva de centros de datos, vehículos eléctricos y minería de criptomonedas está llevando la infraestructura energética global a un punto de quiebre. Su diagnóstico no es alarmismo: los datos más recientes confirman que lo que entonces parecía una predicción distante, hoy es una realidad medible .
Los números que respaldan la alarma de Musk
La magnitud del problema se vuelve evidente cuando miramos las cifras. En 2024, los centros de datos en Estados Unidos consumieron alrededor de 200 teravatios-hora de electricidad, equivalente al consumo anual de Tailandia . De ese total, entre 53 y 76 teravatios-hora se destinaron exclusivamente a servidores de inteligencia artificial, suficiente para abastecer a más de siete millones de hogares estadounidenses durante un año.
Pero esto es apenas el comienzo. La Agencia Internacional de la Energía pronostica que la demanda de electricidad de los centros de datos a nivel mundial se duplicará para 2030, alcanzando aproximadamente los 945 TWh. Para poner esto en perspectiva: la proporción de la electricidad nacional destinada a centros de datos en Estados Unidos podría triplicarse entre 2024 y 2028, pasando del 4,4% al 12%.
El crecimiento es exponencial y descontrolado. El consumo energético de los centros de datos se duplicó desde 2017, año en que la IA comenzó a modificar radicalmente la arquitectura y la demanda de estas instalaciones.
Por qué la inteligencia artificial consume tanta energía
Cada vez que usamos ChatGPT , Google Gemini o cualquier otro sistema de inteligencia artificial, estamos generando un consumo energético que la mayoría desconoce.
Por caso, una consulta a ChatGPT requiere unas diez veces la electricidad de una búsqueda tradicional en Google .
El entrenamiento de estos modelos es aún más intensivo. Entrenar GPT-4 de OpenAI requirió más de 100 millones de dólares y 50 gigavatios-hora de energía , suficiente para abastecer San Francisco durante tres días. Pero la fase de entrenamiento es solo una parte del problema: entre el 80% y el 90% de la potencia de cómputo de la IA se destina a la inferencia, es decir, al uso cotidiano que hacemos de estas herramientas.
Y no son solo los chatbots. Un estudio publicado en la revista Joule asegura que la inteligencia artificial ya representa hasta el 20% de la demanda energética global de los centros de procesamiento de datos. Más preocupante aún: esta cifra podría duplicarse para finales de 2025, representando casi la mitad del consumo total de electricidad de estos centros a nivel mundial.
China lidera la revolución eléctrica (y el problema)
El mercado de vehículos eléctricos está transformando radicalmente el panorama energético global. En 2024, China experimentó un aumento del 40% en las ventas de automóviles eléctricos , una cifra que refleja la velocidad del cambio en los hábitos de consumo global.
Este boom de movilidad eléctrica, aunque positivo desde la perspectiva ambiental, genera presiones inéditas sobre las redes de distribución. Cada vehículo eléctrico requiere una infraestructura de carga robusta, y la electrificación masiva del transporte está ocurriendo mucho más rápido que la expansión de la capacidad eléctrica.
Argentina, que busca posicionarse en el mercado del litio -componente esencial de las baterías eléctricas- deberá prestar atención a esta dinámica. El país tiene la oportunidad de beneficiarse económicamente de esta transición, pero también enfrentará los desafíos energéticos que implica.
Las big tech reconocen el problema (pero no lo resuelven)
Las grandes empresas tecnológicas ya están sintiendo el impacto en sus propias operaciones. Google reconoció en 2024 que sus emisiones de carbono se habían aumentado en un 48% en solo cinco años debido al auge de la inteligencia artificial. Por su parte, Microsoft anunció que sus emisiones de CO2 habían aumentado casi un 30% desde 2020 debido a la expansión de los centros de datos.
Estas cifras exponen una contradicción fundamental: mientras las compañías tecnológicas prometen contribuir a la sostenibilidad ambiental mediante la IA, sus propias operaciones están disparando las emisiones de gases de efecto invernadero.
El problema estructural es que la intensidad de carbono de la electricidad consumida por los centros de datos es un 48% superior al promedio estadounidense, porque estas instalaciones tienden a ubicarse en regiones donde la energía es más barata pero también más dependiente de combustibles fósiles, como Virginia, West Virginia y Pennsylvania.
El riesgo real de apagones generalizados
Musk no fue el único en advertir sobre esta crisis. Eric Schmidt , anterior CEO de Google, declaró ante el Congreso de Estados Unidos que a cinco años vista, los centros de datos necesarios para alimentar sistemas de IA necesitarán 96 gigavatios de energía adicional.
Según Schmidt, cada centro de datos demandaría 10 gigavatios de energía, que es el equivalente a la potencia necesaria para alimentar a diez centrales nucleares .
Las proyecciones son aún más alarmantes: para 2030, los centros de datos podrían consumir entre el 4,6% y el 17% de la electricidad de Estados Unidos, dependiendo de la velocidad de expansión de la IA.
Este crecimiento acelerado aumenta el riesgo de colapsos eléctricos. En Oregón, la combinación de incentivos fiscales y energía hidroeléctrica barata ha convertido al estado en un importante centro de datos, lo que podría elevar su consumo eléctrico hasta un 24% para 2030. Funcionarios locales ya advierten que la región podría enfrentar cortes de energía en invierno si no se logra generar nueva electricidad a la velocidad necesaria.
Las tres soluciones urgentes que propone Elon Musk
Ante este panorama, Musk plantea tres pilares fundamentales para evitar el colapso energético global:
El problema de fondo es el timing: mientras que la construcción de un centro de datos puede completarse en 18 a 24 meses, el desarrollo de nuevas fuentes de energía, como plantas generadoras de gas natural o proyectos renovables toma al menos tres años . La infraestructura eléctrica simplemente no puede expandirse al mismo ritmo que la demanda tecnológica.
Más Videos
Comunicate con nuestro centro de atención al cliente de L a V de 9 a 17 hs al
0800-222-7664
atencionalcliente@cronista.com y te responderemos lo antes posible.


Imagen: cronista.com


#37593839   Modificada: 28/10/2025 20:07 Cotización de la nota: $701.574
Audiencia: 464.500



Acceda a la nota web del medio