The Digital Energy Crisis: AI's 945 TWh Reckoning
AI data centres will consume 3% of global electricity by 2030. Dublin uses 42% of its power for AI training. Binary networks offer 96% energy reduction. The math is brutal.
La Sauna Industrial Que Llamamos Progreso
Entra en un centro de datos de IA moderno en Frankfurt o Dublín, y tu primer pensamiento no es "Esto es el futuro". Es "¿Por qué hace tanto calor aquí?". El calor te golpea como al abrir la puerta de un horno, olas de energía térmica que emanan de los racks de servidores que parecen más hornos industriales que ordenadores. El sistema de refrigeración está a pleno rendimiento, los ventiladores a toda velocidad, el agua fría corriendo por kilómetros de tuberías, solo para evitar que estas máquinas se derritan literalmente.
Cada chip acelerador de IA consume 1,200 vatios. Para que te hagas una idea, eso es más energía que el calentador que mantiene caliente el apartamento de tu abuela holandesa en enero. Y estás viendo miles de estos chips, empaquetados en racks que consumen 50, 100, a veces 250 kilovatios cada uno. Un solo rack consume tanta energía como 100 hogares europeos promedio. En un espacio del tamaño de un armario.
Esta es la crisis energética digital que la gente educada no discute en las conferencias. La IA no solo consume electricidad. La está devorando con el apetito de un agujero negro, y todos asentimos educadamente como si esto fuera un comportamiento perfectamente razonable para las matemáticas.
Los Números Que Deberían Hacerte Maldecir
Hablemos de escala, porque los números son realmente aterradores. En 2024, los centros de datos de todo el mundo consumieron aproximadamente 415 teravatios-hora de electricidad. Eso es el 1.5% de todo el consumo mundial de electricidad. Para ponerlo en términos europeos, eso es sustancialmente más que la demanda anual total de electricidad de España, que es de 248 TWh. Toda España. Cada hogar, cada fábrica, cada tren, cada hospital. Los centros de datos usan más.
Pero aquí es donde deja de ser meramente alarmante y se vuelve realmente aterrador: se proyecta que esa cifra se duplique con creces para 2030, alcanzando los 945 TWh. Eso es el 3% de la electricidad global. No el 3% de la electricidad tecnológica. El 3% de todo. Más que todos los vehículos eléctricos, bombas de calor y paneles solares combinados.
Y la IA es el principal motor. El consumo de energía de los centros de datos de IA está creciendo a un ritmo del 44.7% anual. Para apreciar lo exponencial que es esto, considera Irlanda. En 2024, los centros de datos consumieron el 22% de la electricidad total de Irlanda, frente a solo el 5% en 2015. Eso es un aumento del 531% en nueve años. EirGrid, el operador de la red de Irlanda, estima que para 2030, los centros de datos podrían consumir el 30% de la electricidad del país. Casi un tercio de la red eléctrica de una nación entera, solo para entrenar modelos y atender consultas de IA.
Solo Dublín cuenta la historia. Los centros de datos consumieron entre el 33% y el 42% de toda la electricidad en Dublín en 2023. Algunas estimaciones lo sitúan aún más alto. El gobierno irlandés impuso una moratoria a la construcción de nuevos centros de datos en Dublín hasta 2028 porque la red literalmente no puede soportar más carga. Ámsterdam hizo lo mismo en 2019, levantándola solo después de implementar estrictos requisitos de eficiencia de uso de energía y un límite de 670 MVA hasta 2030. Los Países Bajos fueron más allá, imponiendo una moratoria nacional a los centros de datos a hiperescala que superan los 70 megavatios.
Esto no es un crecimiento gradual. Esto es una explosión exponencial en la demanda de energía, que está ocurriendo ahora mismo, acelerándose cada trimestre y chocando de frente con los límites de la infraestructura física.
La Bomba de Carbono del Entrenamiento
Entrenar un solo modelo de lenguaje grande produce una huella de carbono que haría sonrojar a una refinería de petróleo. Y a diferencia de las refinerías, que al menos producen algo tangible que puedes verter en un coche, estas emisiones producen... bueno, un modelo que podría alucinar con confianza sobre recetas de champiñones.
GPT-3, el modelo que inició el actual auge de la IA, emitió 552 toneladas métricas de CO2 durante el entrenamiento. Eso equivale a 123 vehículos de pasajeros a gasolina conducidos durante un año. Para un modelo. Una ejecución de entrenamiento. Y eso es solo el consumo directo de energía, sin contar el carbono incorporado en la fabricación de las GPU o la construcción del centro de datos.
Aquí está la parte realmente loca: GPT-3 se considera pequeño para los estándares actuales. Los modelos modernos son órdenes de magnitud más grandes. Entrenar un modelo de 100 billones de parámetros consume aproximadamente 9 millones de euros en tiempo de cómputo de GPU. A los precios de la energía y la intensidad de carbono europeos, eso son miles de toneladas de CO2 equivalente. Por modelo. Y el despliegue exitoso generalmente requiere docenas o cientos de ejecuciones de entrenamiento, porque los primeros diecisiete intentos produjeron un modelo que cree que Bélgica es un tipo de queso.
Los artículos de investigación pregonan las impresionantes métricas de rendimiento. ¿La huella de carbono? Eso se entierra en una nota a pie de página, si es que se menciona. Es el equivalente en IA a presumir de la aceleración de tu coche nuevo mientras evitas cuidadosamente mencionar que consume 2 kilómetros por litro.
El Efecto de Multiplicación de la Inferencia
Esto es lo que la mayoría de la gente no entiende, y es lo que realmente importa: el entrenamiento es un costo único. La inferencia, el uso del modelo para responder preguntas, se ejecuta continuamente. Para siempre. A una escala que hace que las emisiones del entrenamiento parezcan minúsculas.
Cada consulta de ChatGPT consume electricidad. Cada generación de imágenes de IA quema vatios. Cada recomendación, cada traducción, cada respuesta del asistente de voz. Millones de solicitudes por segundo, 24 horas al día, 365 días al año. Y a diferencia del entrenamiento, que ocurre en ráfagas concentradas, la inferencia se distribuye en miles de centros de datos en todo el mundo, lo que la hace casi imposible de rastrear.
Las investigaciones muestran que las emisiones de inferencia a menudo superan las emisiones de entrenamiento en órdenes de magnitud, especialmente para modelos ampliamente desplegados. El entrenamiento podría costar 500 toneladas de CO2. ¿La inferencia durante la vida útil del modelo? Potencialmente 50,000 toneladas. Quizás más. Nadie está contando, que es precisamente el problema.
Las empresas tecnológicas informan las emisiones de entrenamiento cuando lo exigen las regulaciones de la UE. ¿Las emisiones de inferencia? Eso es "gastos generales operativos", convenientemente enterrados en las estadísticas generales de los centros de datos junto con los servidores de correo electrónico y los videos de gatos. La Ley de IA de la UE exige la divulgación del consumo de energía para los modelos de IA de propósito general, pero la aplicación es irregular y la divulgación voluntaria sigue siendo solo eso: voluntaria.
La Crisis de Densidad de Potencia Que Está Rompiendo la Física
Los centros de datos tradicionales solían funcionar con unos 36 kilovatios por rack. Manejable. La refrigeración por aire convencional funcionaba bien. Podías construirlos en cualquier lugar con buena conectividad de red y precios de electricidad razonables. La infraestructura era sencilla.
Luego llegó la IA, y la física se enfadó.
Los racks de IA actuales alcanzan los 50 kilovatios. Las implementaciones de vanguardia están llegando a los 100 kilovatios. Algunas configuraciones experimentales están empujando los 250 kilovatios por rack. Eso es el consumo de energía de 100 hogares europeos promedio, concentrado en unos pocos metros cuadrados de rack de servidores. La densidad de potencia se acerca a la de un motor de cohete.
El problema no es solo la potencia total. Es la densidad. Empaqueta tanta energía en un espacio tan pequeño, y la física se convierte en tu enemigo. El calor tiene que ir a alguna parte, y la refrigeración por aire físicamente no puede manejarlo. La carga térmica es demasiado alta. Necesitas refrigeración líquida. Refrigeración directa al chip. Refrigeración por inmersión. Sistemas complejos de gestión térmica que cuestan más que los propios servidores y requieren sus propios equipos de ingeniería para funcionar.
Los centros de datos se están rediseñando no para la eficiencia informática, sino solo para evitar la fusión térmica. Estamos construyendo infraestructura para manejar el calor residual de operaciones matemáticas que, fundamentalmente, no deberían producir tanto calor en primer lugar. Es como diseñar un mejor sistema de escape para un coche que está en llamas, en lugar de preguntarse por qué el coche está en llamas.
El Chip Que Se Comió la Red
Acerquémonos al hardware por un momento, porque el consumo de energía de los chips individuales cuenta su propia historia de locura creciente.
Los primeros aceleradores de IA consumían unos 400 vatios. Ya era alto, pero manejable con refrigeración convencional. Luego 700 vatios. Luego 1,000 vatios. La última arquitectura Blackwell de NVIDIA alcanza los 1,200 vatios por chip, con algunas configuraciones que empujan aún más. Ya se habla de diseños futuros que alcanzarán los 1,400 vatios.
Piensa en eso. 1,200 vatios. Por chip. Un solo chip que consume más energía que la mayoría de los electrodomésticos. Y entrenar un modelo grande requiere miles de estos chips funcionando continuamente durante semanas o meses.
Las matemáticas son brutales: 1,000 chips × 1,200 vatios = 1.2 megavatios. Para un clúster de entrenamiento. Ejecutando un modelo. Y hay cientos de estos clústeres en todo el mundo, con más entrando en línea cada trimestre. Los mercados FLAP-D (Frankfurt, Londres, Ámsterdam, París, Dublín) por sí solos representan más del 60% de la capacidad de los centros de datos europeos, con una demanda de energía proyectada para crecer de 96 TWh en 2024 a 168 TWh para 2030.
Esto no es sostenible. Ni siquiera se acerca a ser sostenible. Estamos quemando electricidad a un ritmo que habría parecido ficticio hace una década, y la conversación de la industria se centra en si la red eléctrica puede mantenerse al día, no en si deberíamos estar haciendo esto en absoluto.
La Pesadilla Verde de Europa y la Elección Imposible
Para Europa, esto crea un conflicto imposible que ya no es teórico. Está sucediendo ahora mismo, en las reuniones de planificación de la red y en las audiencias regulatorias de todo el continente.
El Pacto Verde Europeo tiene como objetivo hacer que Europa sea climáticamente neutra para 2050. Las emisiones de carbono deben reducirse al menos un 55% para 2030 en comparación con los niveles de 1990. La eficiencia energética debe mejorar en todos los sectores. La energía renovable debe reemplazar a los combustibles fósiles. Estos son objetivos legalmente vinculantes según la Ley Climática Europea.
Mientras tanto, el consumo de energía de la IA está explotando a un ritmo del 44% anual. En 2024, los centros de datos europeos consumieron 96 TWh, lo que representa el 3.1% de la demanda total de energía. Pero la distribución es muy desigual. En Irlanda, es el 22% de la electricidad nacional. En los Países Bajos, el 7%. En Alemania, el 4%. Los centros de datos de Ámsterdam, Londres y Frankfurt consumieron entre el 33% y el 42% de la electricidad de esas ciudades en 2023.
Las dos trayectorias son matemáticamente incompatibles. Europa puede alcanzar sus objetivos climáticos, o puede construir infraestructura de IA utilizando los enfoques actuales. No ambas. Los números no cuadran.
Algunos argumentan que la energía renovable resuelve esto. "Simplemente alimenten los centros de datos con energía solar y eólica". Bonita idea. Completamente impráctica. Europa instaló 65.5 GW de nueva capacidad solar en 2024 y 16.4 GW de nueva energía eólica. La energía renovable alcanzó el 47% de la generación de electricidad. Pero 945 TWh de nueva demanda de centros de datos para 2030 requerirían construir una capacidad renovable equivalente a miles de parques eólicos más y millones de paneles solares más. El uso del suelo por sí solo sería astronómico. Dinamarca, con un 88.4% de electricidad renovable (principalmente eólica), a menudo se cita como modelo. Pero el consumo total de electricidad de Dinamarca es solo una fracción de la demanda proyectada de los centros de datos de IA.
Incluso si fuera técnicamente posible, el costo de oportunidad es asombroso. Cada megavatio-hora que se destina al entrenamiento de IA es un megavatio-hora no disponible para electrificar el transporte, calentar hogares o alimentar la industria. Es una compensación directa, y estamos eligiendo quemar energía renovable entrenando modelos que podrían quedar obsoletos en seis meses en lugar de calentar hogares durante el invierno.
La Crisis del Agua Que Nadie Está Rastreado
La energía no es el único recurso que consume la IA. El agua se está convirtiendo en una crisis crítica, especialmente en regiones que ya sufren estrés hídrico.
Los centros de datos utilizan enormes cantidades de agua para la refrigeración por evaporación, en la que se basan la mayoría de las grandes instalaciones porque es más eficiente que los sistemas de circuito cerrado. La refrigeración por evaporación literalmente evapora el agua para disipar el calor. El agua se va. No se recicla de nuevo en el sistema. Se evapora a la atmósfera. Se elimina permanentemente de los suministros de agua locales.
Un estudio de 2024 encontró que el entrenamiento de GPT-3 en los centros de datos de última generación de Microsoft en EE. UU. consumió aproximadamente 700,000 litros de agua dulce. Eso es suficiente para producir 370 coches BMW o 320 vehículos eléctricos Tesla. Para una ejecución de entrenamiento. De un modelo. Y eso es solo el consumo directo de agua in situ, sin contar el agua utilizada en la generación de electricidad.
La huella hídrica del ciclo de vida completo, incluida la generación de electricidad fuera del sitio, alcanza los 5.4 millones de litros. Y el uso continuo persiste: ChatGPT requiere aproximadamente 500 mililitros de agua para una conversación corta de 20 a 50 preguntas y respuestas. Multiplica eso por millones de usuarios que hacen preguntas continuamente, y el consumo de agua se vuelve asombroso.
En regiones propensas a la sequía, esto está creando conflictos directos. Los centros de datos compiten con la agricultura y los suministros de agua municipales. En algunas regiones, el entrenamiento de IA está literalmente quitando agua a los cultivos durante las sequías. Esto no es un problema futuro. Está sucediendo ahora. Y a medida que las implementaciones de IA escalan, está empeorando.
La Ilusión de la Eficiencia y la Paradoja de Jevons
A la industria de la IA le encanta hablar de mejoras de eficiencia. Cada discurso de apertura de una conferencia presenta una diapositiva: "¡Los nuevos chips son 10 veces más eficientes!" "¡Mejores algoritmos reducen el consumo de energía en un 50%!" "¡Nuestros centros de datos funcionan con energía 100% renovable!"
Todo cierto. Todo técnicamente impresionante. Todo completamente irrelevante para el problema real.
Porque las mejoras de eficiencia son inmediatamente consumidas por los aumentos de escala. Esta es la paradoja de Jevons en acción, y los economistas han estado advirtiendo sobre ella desde 1865, cuando William Stanley Jevons observó que la mejora de la eficiencia del carbón en las máquinas de vapor condujo a un aumento del consumo total de carbón, no a una disminución.
El CEO de Microsoft, Satya Nadella, tuiteó literalmente "¡La paradoja de Jevons ataca de nuevo!" cuando DeepSeek lanzó su eficiente modelo de IA de bajo costo. Entendió exactamente lo que sucedería: menores costos significan mayor uso, lo que lleva a un mayor consumo total. Y tenía razón.
Sí, los chips más nuevos realizan más cálculos por vatio. Pero los modelos son cada vez más grandes, incluso más rápido. Sí, los mejores algoritmos reducen el tiempo de entrenamiento. Pero estamos entrenando más modelos, con más frecuencia, con más parámetros, porque ahora podemos permitírnoslo. El consumo total de energía no está disminuyendo. Está acelerando. La mejora de eficiencia de 10 veces solo significa que podemos entrenar un modelo 10 veces más grande por el mismo costo energético. Así que lo hacemos. Y el consumo total aumenta.
NVIDIA afirma que Blackwell es 100,000 veces más eficiente energéticamente para la inferencia que los chips de hace una década. Ingeniería espectacular. Pero el consumo total de energía de la IA ha explotado durante ese mismo período, porque las mejoras de eficiencia permitieron el despliegue a escalas que antes eran económicamente imposibles.
El Costo Real de las Fantasías de Punto Flotante
¿Por qué la IA consume tanta energía? La respuesta reside en las matemáticas, y es más sencilla de lo que podrías pensar.
La aritmética de punto flotante, la base de las redes neuronales modernas, es computacionalmente costosa. Cada multiplicación requiere una circuitería significativa, un área de silicio significativa, una potencia significativa. Y las redes neuronales son miles de millones de operaciones de punto flotante, repetidas millones de veces por segundo.
Peor aún, estamos usando una precisión extrema donde realmente no es necesaria. Flotantes de 32 bits. Flotantes de 16 bits. Incluso flotantes de 8 bits. Toda esta precisión, toda esta sobrecarga computacional, toda esta energía, para tomar decisiones que en última instancia son binarias. Sí o no. Gato o perro. Spam o jamón. Aprobar o rechazar.
Es como usar una supercomputadora para lanzar una moneda. El resultado es cara o cruz, pero estamos quemando megavatios calculando probabilidades con dieciséis decimales. La precisión es matemáticamente hermosa. También es termodinámicamente una locura.
Esto no es optimización. Esto es un desperdicio disfrazado de necesidad, defendido por la inercia de "pero así es como siempre lo hemos hecho" y el costo hundido de miles de millones de euros invertidos en infraestructura de GPU específicamente diseñada para operaciones de punto flotante.
La Alternativa Binaria Que Realmente Funciona
Entonces, ¿cuál es la solución? ¿Cómo construimos IA sin convertir los centros de datos en desastres climáticos?
En Dweve, comenzamos cuestionando la suposición fundamental. ¿Realmente necesita la IA aritmética de punto flotante? ¿Realmente necesita tanta energía? ¿Existe una base matemática diferente que logre la misma inteligencia con una sobrecarga computacional drásticamente menor?
Las redes neuronales binarias proporcionan una respuesta clara y empíricamente probada: no, la IA no necesita aritmética de punto flotante. Ni de lejos.
Al eliminar por completo las operaciones de punto flotante y utilizar una lógica binaria simple, el consumo de energía se reduce en un 96%. No a través de optimizaciones marginales o un almacenamiento en caché inteligente. A través de un rediseño matemático fundamental. Los ahorros computacionales provienen de reemplazar las complejas operaciones de multiplicación-acumulación de punto flotante con simples operaciones binarias AND y XNOR que requieren órdenes de magnitud menos energía.
¿Ese acelerador Blackwell de 1,200 vatios? Reemplázalo con una CPU de 50 vatios que ejecute operaciones binarias. Misma inteligencia. Mismas capacidades. 24 veces menos energía. O mejor aún, despliégalo en FPGA específicamente optimizadas para operaciones binarias, logrando una eficiencia energética 136 veces mejor que los enfoques tradicionales de GPU.
¿Ese rack de servidores de 250 kilovatios que consume tanta energía como un vecindario? Baja a 10 kilovatios. ¿Ese enorme centro de datos que consume la electricidad de una ciudad? Reducido al consumo de energía de un gran edificio de oficinas. Los requisitos de infraestructura colapsan proporcionalmente. Sin refrigeración líquida exótica. Sin subestaciones eléctricas dedicadas. Sin actualizaciones de la red.
Las matemáticas son sencillas: las operaciones binarias utilizan órdenes de magnitud menos energía que las de punto flotante. Las eficiencias de infraestructura se derivan naturalmente. El impacto climático disminuye proporcionalmente. ¿Y los resultados? Precisión equivalente o mejor en tareas del mundo real, porque las redes neuronales binarias pueden capturar relaciones estructurales que las redes de punto flotante pasan por alto.
Más Allá de la Eficiencia: Un Paradigma Diferente para la IA Europea
Las redes neuronales binarias no son solo más eficientes. Representan un enfoque fundamentalmente diferente de la inteligencia que se alinea naturalmente con los valores europeos de sostenibilidad, transparencia y soberanía tecnológica.
En lugar de aproximar decisiones con matemáticas continuas y computación masiva, utilizan la lógica discreta directamente. En lugar de quemar energía para superar la inestabilidad numérica en el descenso de gradiente, se basan en fundamentos binarios estables. En lugar de requerir costosas GPU propietarias fabricadas en el extranjero, funcionan eficientemente en CPU estándar y pueden implementarse en FPGA de fabricación europea.
El resultado es una IA que funciona con la física en lugar de luchar contra ella. Computación que no requiere sistemas de refrigeración exóticos. Infraestructura que no exige su propia central eléctrica. Y, lo que es crucial para Europa, un enfoque tecnológico que no te encierra en la dependencia de NVIDIA, con sede en California, u otros proveedores de hardware no europeos.
Empresas como Black Forest Labs de Alemania, Mistral AI de Francia y Aleph Alpha de Alemania están construyendo impresionantes capacidades de IA, pero todavía dependen fundamentalmente de arquitecturas de punto flotante tradicionales y de la cadena de suministro de GPU. Las redes neuronales binarias ofrecen un camino hacia una verdadera soberanía de la IA europea, funcionando en hardware que puede fabricarse en Europa con procesos que se alinean con los compromisos climáticos europeos.
Así es como Europa puede tener ambas cosas: avance de la IA y objetivos climáticos. No haciendo que el enfoque actual sea ligeramente más verde a través de compras de energía renovable y compensaciones de carbono, sino utilizando matemáticas que no requieren un consumo de energía a escala planetaria en primer lugar. La Ley de IA europea ya lo reconoce, exigiendo la divulgación del consumo de energía y fomentando códigos de conducta voluntarios sobre sostenibilidad ambiental. Los enfoques binarios convierten esos objetivos aspiracionales en una realidad lograda.
La Elección Que Estamos Haciendo Ahora Mismo
La crisis energética digital no es inevitable. Es una elección. Una elección que estamos haciendo ahora mismo, en cada orden de compra de GPU, en cada contrato de construcción de centros de datos, en cada ejecución de entrenamiento de modelos.
Es una elección seguir usando la aritmética de punto flotante porque es familiar, porque las herramientas existen, porque reentrenar a toda una industria es difícil. Una elección aceptar un crecimiento exponencial de la energía porque las ganancias trimestrales se ven bien y los capitalistas de riesgo están entusiasmados. Una elección quemar más electricidad entrenando un modelo de lo que un pueblo usa en un año porque podemos, y porque alguien más pagará el costo climático.
Pero podríamos elegir de manera diferente. Europa está en una posición única para liderar esta elección.
Podríamos elegir matemáticas que no desperdicien el 96% de su energía en precisión innecesaria. Podríamos elegir algoritmos que funcionen eficientemente en hardware estándar en lugar de requerir aceleradores especializados. Podríamos elegir arquitecturas que respeten los límites físicos y ambientales en lugar de asumir una disponibilidad infinita de energía. Podríamos elegir enfoques que se alineen con el Pacto Verde Europeo en lugar de socavarlo directamente.
El auge de la IA no tiene por qué convertirse en una catástrofe energética. Las redes neuronales binarias demuestran que hay otro camino. Uno que ofrece inteligencia sin el costo climático. Uno que funciona con las limitaciones de la energía renovable en lugar de abrumarlas. Uno que trata la eficiencia como una característica fundamental, no como una ocurrencia tardía para mencionar en los informes de sostenibilidad.
Irlanda no tiene que elegir entre el desarrollo económico a través de los centros de datos y tener suficiente electricidad para los hogares. Ámsterdam no tiene que imponer moratorias. Dublín no tiene que ver cómo los centros de datos consumen casi la mitad de la electricidad de la ciudad mientras los residentes se enfrentan a un aumento de los costos de la energía.
El Pacto Verde de Europa y el avance de la IA no son incompatibles. Pero solo si estamos dispuestos a cuestionar suposiciones fundamentales y construir una IA que realmente tenga sentido matemático, físico y económico. La trayectoria actual conduce a 945 TWh para 2030, el 3% de la electricidad global, miles de toneladas de CO2 por modelo, millones de litros de consumo de agua y una elección imposible entre los objetivos climáticos y el progreso tecnológico.
La alternativa existe hoy. Redes neuronales binarias que funcionan en CPU estándar y FPGA eficientes. Computación que utiliza un 96% menos de energía. IA sostenible que no requiere elegir entre el progreso y el planeta. Algoritmos transparentes que los europeos pueden realmente entender y verificar, no pesos de punto flotante de caja negra controlados por corporaciones extranjeras.
La única pregunta es si lo tomaremos antes de haber quemado tanta energía, consumido tanta agua y construido tanta infraestructura ineficiente que ya no tengamos elección. La ventana se está cerrando. Pero todavía está abierta.
¿Quieres una IA que no requiera su propia central eléctrica? Dweve Core, nuestro marco de computación discreta que combina redes neuronales binarias, sistemas basados en restricciones y computación de picos que impulsa Dweve Loom, ofrece un 96% menos de consumo de energía tanto para el entrenamiento como para la inferencia en hardware estándar. Sin aceleradores propietarios. Sin refrigeración exótica. Sin compromisos en la capacidad. El futuro de la IA europea sostenible es eficiente, transparente y está disponible hoy.
Etiquetas
Sobre el autor
Marc Filipan
CTO & Co-Founder
Construyendo el futuro de la IA con redes binarias y razonamiento basado en restricciones. Comprometidos con una IA eficiente y accesible.