Supercomputación, IA y computación cuántica: entrevistas y panorama actual

Última actualización: 18 de enero de 2026
  • La supercomputación impulsa desde la predicción climática hasta la medicina personalizada, con centros como el BSC y MareNostrum 5 a la cabeza.
  • La inteligencia artificial y la supercomputación se retroalimentan, mientras plataformas como AMD ROCm 7 elevan el rendimiento para IA.
  • Europa y países como México se juegan su posición estratégica en chips, infraestructuras HPC y formación de talento especializado.
  • El auge del cómputo extremo plantea retos energéticos, éticos y de poder ligados al control de datos y recursos de cálculo.

supercomputacion entrevistas y noticias

La supercomputación se ha convertido en el gran motor silencioso que impulsa desde la inteligencia artificial hasta la predicción del clima, pasando por la medicina personalizada o el diseño de nuevos materiales. Detrás de cada avance científico puntero suele haber un centro de cálculo masivo, un “cerebro” formado por millones de procesadores trabajando en paralelo para atacar problemas que un ordenador convencional tardaría siglos en resolver.

En los últimos años, entrevistas y noticias sobre supercomputadores, IA y computación cuántica han permitido asomarnos a un ecosistema donde se mezclan tecnología extrema, talento científico, política industrial y debates éticos de primer nivel. Desde el Barcelona Supercomputing Center (BSC) y su MareNostrum 5 hasta los nuevos proyectos en México o el trabajo en verificación de procesadores cuánticos, el panorama es tan fascinante como complejo.

Qué es realmente un centro de supercomputación

Un centro de supercomputación es, ante todo, un laboratorio científico cuya herramienta principal no son microscopios ni aceleradores de partículas, sino superordenadores de altísimas prestaciones. Como explica Mateo Valero, fundador y director del Barcelona Supercomputing Center, estas instalaciones emplean máquinas capaces de ejecutar cantidades descomunales de operaciones por segundo para simular fenómenos que solo se pueden describir con matemáticas y física avanzadas.

La clave está en el concepto de “gemelo digital”: una réplica virtual de algo que queremos entender o diseñar por primera vez. Con un supercomputador es posible modelar el plegado de proteínas que la naturaleza nunca ha producido, prever el comportamiento de la atmósfera con enorme nivel de detalle, o evaluar cómo se comportará un nuevo material bajo condiciones extremas sin fabricar ni una sola muestra física.

Entre los ejemplos más citados por Valero están la predicción meteorológica de alta resolución, los escenarios de cambio climático, la búsqueda de nuevos materiales para energías verdes y la medicina personalizada basada en el análisis masivo de datos genómicos. Todo ello se apoya en la posibilidad de realizar simulaciones de prueba y error a una velocidad que, comparada con un móvil, resulta casi inverosímil.

Estas máquinas también sirven como aceleradores de la ingeniería y la industria. En el BSC, por ejemplo, se desarrolló un software para Repsol que indicaba dónde perforar en ambientes hostiles como el Golfo de México. Cada perforación cuesta del orden de cien millones de dólares, y gracias a la simulación se pasó de acertar uno de cada diez intentos a uno de cada siete, con el ahorro económico y la reducción de riesgo que ello implica.

centros de supercomputacion y entrevistas

MareNostrum 5 y el papel del Barcelona Supercomputing Center

Situado en Barcelona, el MareNostrum 5 es uno de los supercomputadores más rápidos del mundo y el buque insignia del BSC. Está formado por millones de procesadores de alta potencia comunicados mediante redes de muy baja latencia, y cuenta con memorias asociadas de gran capacidad, lo que le permite ejecutar modelos extremadamente complejos con un nivel de detalle impresionante.

Valero suele recurrir a comparaciones contundentes: un supercomputador moderno puede ser del orden de un millón de veces más rápido que un teléfono móvil. En el caso del MareNostrum 5, sus distintas particiones suman centenares de petaflops: hablamos de la capacidad de realizar cientos de miles de billones de operaciones de coma flotante por segundo. Para hacerse una idea, estos recursos permiten simular la Tierra entera -mar, aire, continentes y polos- con una resolución espacial de aproximadamente un kilómetro.

El MareNostrum 5 es, en realidad, un conjunto de varios supercomputadores especializados. Cuando se inauguró oficialmente en diciembre de 2023, una de sus particiones se situó en el puesto número 8 del ranking mundial Top500, y otra en el 19. Una de ellas estaba optimizada para entrenar y ejecutar modelos de inteligencia artificial a gran escala, convirtiéndose en una de las mejores plataformas del mundo para este tipo de cargas.

Pero el orgullo de Valero no se limita a la máquina. Según recalca, el verdadero tesoro del BSC es su gente. El centro ha pasado de 20 personas en sus inicios a unas 1.400, de las cuales alrededor de 1.200 son investigadores. Conviven allí perfiles procedentes de 32 disciplinas académicas distintas y más de 60 países, lo que convierte al BSC en una especie de Naciones Unidas de la ciencia del cómputo. Esta diversidad facilita abordar problemas complejos desde perspectivas muy diferentes.

En cuanto al acceso, el MareNostrum es un recurso público y abierto a la comunidad científica. Los propietarios del supercomputador son el Gobierno de España, la Generalitat de Catalunya y la Universitat Politècnica de Catalunya. Los investigadores españoles y europeos pueden solicitar tiempo de cálculo para sus proyectos, siempre que superen un proceso de evaluación. El personal del propio BSC consume aproximadamente un 20 % de la capacidad; el 80 % restante se reparte entre otros grupos científicos.

Supercomputación e inteligencia artificial: una relación simbiótica

La explosión de la inteligencia artificial moderna está íntimamente ligada a la supercomputación. Valero lo resume de forma muy gráfica: fueron los datos masivos y la capacidad de cálculo extremo los que sacaron a la IA de su “invierno polar”. Sin máquinas capaces de procesar miles de millones de parámetros y conjuntos de datos gigantescos —o sin saber cómo transformar tu PC en un laboratorio de IA—, avances como los grandes modelos de lenguaje o los sistemas de reconocimiento de imagen no habrían sido posibles.

Un ejemplo emblemático es el plegado de proteínas, un problema computacionalmente endiablado que durante décadas se consideró casi inabordable incluso con supercomputadores. La combinación de algoritmos de IA y grandes infraestructuras de cálculo permitió resolverlo de forma tan eficaz que acabó siendo reconocida con el Premio Nobel de Química, cambiando para siempre la forma de diseñar fármacos y entender la biología molecular.

  ¿Qué son los Tokens Sociales?

Hoy la relación se ha invertido parcialmente: la IA también ayuda a hacer mejor ciencia con supercomputadores. Desde el BSC se aplican técnicas de aprendizaje automático para optimizar simulaciones, reducir tiempos de cálculo y extraer patrones de conjuntos de datos que serían inabarcables para una inspección humana. En palabras de Valero, ya no está claro si dirige un centro de supercomputación o un centro de inteligencia artificial, porque ambas áreas se han entrelazado por completo.

No obstante, Valero no se corta a la hora de matizar el entusiasmo en torno a la IA generativa. Recuerda que modelos como ChatGPT se limitan a predecir la siguiente palabra en función de patrones estadísticos extraídos de grandes cantidades de texto. Son sistemas extremadamente sofisticados, pero no poseen conciencia ni sentido común, dos capacidades humanas que considera muy difíciles de reproducir en una máquina. Por eso ve lejano un escenario de rebelión de las máquinas al estilo HAL 9000.

El propio consumo de recursos de la IA de frontera ilustra hasta qué punto la supercomputación y la energía están ligadas. Valero cita el caso de OpenAI, que ha planteado la construcción de un centro de datos con alrededor de un millón de GPUs NVIDIA. Solo la parte de aceleración del MareNostrum 5 cuenta con unos 4.500 GPUs; la escala de lo que se proyecta para entrenar modelos futuros es, por tanto, descomunal, con necesidades energéticas calculadas en torno a los 10 gigavatios, algo así como la producción de diez centrales nucleares.

AMD ROCm 7 y la carrera por el rendimiento en IA

En paralelo a los grandes centros de supercomputación, los fabricantes de hardware y plataformas de software libran su propia batalla. AMD ha presentado recientemente ROCm 7, la séptima gran versión de su ecosistema Radeon Open Compute, una plataforma abierta orientada a sistemas de alto rendimiento (HPC) y cargas de inteligencia artificial sobre GPUs y tarjetas aceleradoras de la compañía.

ROCm 7 promete hasta 3,5 veces más rendimiento en tareas de IA respecto a generaciones anteriores, algo crucial para competir con NVIDIA en un mercado donde entrenar modelos cada vez más grandes se ha vuelto la norma. Esta mejora de rendimiento no solo significa entrenamientos más rápidos, sino también una mayor eficiencia energética por operación, un aspecto crítico cuando hablamos de instalaciones que consumen cantidades enormes de electricidad.

La filosofía abierta de ROCm es especialmente relevante en entornos de supercomputación pública como el BSC u otros centros nacionales, donde la interoperabilidad y la ausencia de bloqueo tecnológico se valoran mucho. Disponer de una pila de software abierta facilita adaptar el código científico, optimizar kernels específicos y combinar hardware diverso sin depender por completo de soluciones propietarias.

En el contexto europeo, donde se aspira a una mayor soberanía tecnológica, avances como ROCm 7 encajan con la necesidad de diversificar proveedores de GPU y promover ecosistemas de software que permitan a los centros HPC ajustar sus infraestructuras a las necesidades reales de sus proyectos de investigación.

Europa, los chips y el riesgo de ser solo el VAR

Una de las obsesiones de Mateo Valero es la posición de Europa en la carrera de la inteligencia artificial y la supercomputación. Utiliza una metáfora futbolística muy llamativa: teme que el continente acabe siendo el VAR, el sistema de videoarbitraje, de un partido en el que no tenga ningún jugador en el campo. Es decir, que Europa acabe estableciendo normas y regulaciones, pero sin campeones tecnológicos propios que compitan de tú a tú con Estados Unidos o Asia.

El problema se ve con claridad en el terreno de los chips de alto rendimiento. Si se revisan los supercomputadores europeos de referencia, prácticamente ninguno emplea procesadores o GPUs diseñados y fabricados en Europa. No solo se depende del exterior para la fabricación, sino incluso para el diseño de los chips, lo cual compromete proyectos a largo plazo como los coches autónomos o las infraestructuras críticas de IA si en algún momento se corta el suministro.

Valero insiste desde hace años en la necesidad de un gran proyecto europeo para semiconductores, al estilo de lo que fue Airbus en aviación, Galileo en navegación por satélite o el CERN en física de partículas. Un esfuerzo coordinado, con gran inversión pública y compromiso de compra de los primeros chips aunque su rendimiento sea inferior al de los fabricantes estadounidenses o asiáticos. De otro modo, considera que Europa seguirá “chipdependiente”.

La fragmentación política tampoco ayuda. Según él, Europa sigue siendo una suma de países que miran demasiado hacia dentro, con intereses nacionales a menudo contrapuestos. Esa falta de visión conjunta dificulta levantar iniciativas de la escala necesaria, tanto en hardware como en software. Aun así, reconoce que hay proyectos importantes en marcha y que se están dando pasos tímidos, por ejemplo desde el propio BSC, que ha impulsado esfuerzos de diseño de procesadores en España.

El trasfondo económico es evidente: el valor añadido de un gramo de silicio en forma de chip puede alcanzar los 50.000 euros, lo que hace que cada centímetro cuadrado de oblea tenga un valor altísimo. Quien controle esa cadena de valor no solo dominará mercados tecnológicos, sino que también tendrá una enorme capacidad de influencia geopolítica.

México, Coatlicue y la apuesta por una supercomputadora nacional

Fuera de Europa, otros países también se mueven para no quedarse atrás. En México se está impulsando la construcción de Coatlicue, una supercomputadora destinada a afrontar problemas públicos de gran escala y a formar talento local en inteligencia artificial y cómputo avanzado. En una entrevista, el responsable del proyecto -identificado como JLPH- explica que el objetivo no era “tener la máquina más grande de Latinoamérica”, sino adquirir la potencia adecuada para resolver los desafíos actuales del país.

  Living Intelligence: qué es, cómo funciona y por qué importa

Con alrededor de 314 petaflops de capacidad de cálculo, Coatlicue se situaría entre las veinte supercomputadoras más potentes del mundo según las estimaciones iniciales del equipo. Esta potencia se justifica por la necesidad de analizar enormes volúmenes de datos vinculados a retos nacionales en campos como la sanidad, la educación, la seguridad o el desarrollo social.

Uno de los problemas típicos que afronta México es la falta de talento especializado en IA y tecnologías avanzadas. Se calcula que cerca del 77 % de las empresas del sector tecnológico tienen dificultades para encontrar profesionales suficientemente formados. En ese contexto, el Centro Público de Formación en Inteligencia Artificial y la propia Coatlicue se plantean como semillas para generar una nueva generación de expertos formados dentro del país.

Desde el punto de vista de sostenibilidad y ciclo de vida, el plan para Coatlicue pasa por renovar sus GPUs aproximadamente cada cinco años. El equipo promotor quiere dejar una hoja de ruta clara para futuras administraciones, aunque la continuidad de la inversión dependerá de las decisiones políticas. También ponen el acento en que el verdadero valor de la máquina no está en la compra de hardware, sino en los problemas que permitirá resolver y en la transferencia de conocimiento hacia la academia, la investigación y la innovación.

JLPH también se posiciona respecto a la computación cuántica, un área muy mediática en la que considera que aún no existe un grado de madurez suficiente para su explotación industrial masiva. Si bien reconoce su enorme potencial -especialmente en criptografía y algunos problemas específicos-, cree que, para abordar los retos públicos actuales de México, la prioridad sigue siendo consolidar una infraestructura de supercomputación clásica robusta y formar capital humano en torno a ella.

Computación cuántica: métricas, verificación y estado del arte

Mientras los supercomputadores clásicos alcanzan rendimientos de cientos de petaflops, la computación cuántica avanza en paralelo con una filosofía de cálculo diferente, basada en qubits y superposición en lugar de bits binarios. Aunque muchos expertos aún consideran que esta tecnología se encuentra en una especie de “invierno polar”, se están realizando progresos notables, especialmente en cómo evaluar y certificar el comportamiento de los dispositivos, y en iniciativas relacionadas con la Internet cuántica.

Un ejemplo reciente es el trabajo de David Aguirre, doctorando en Computación Cuántica en el Basque Center for Applied Mathematics (BCAM), galardonado con el premio TalentQ al mejor trabajo de fin de máster. Su investigación se centra en diseñar una nueva métrica de verificación para procesadores cuánticos capaz de mantener constante el coste computacional de la evaluación, independientemente del tamaño del dispositivo.

Este enfoque es clave porque verificar un procesador cuántico se vuelve exponencialmente difícil a medida que aumenta el número de qubits. Las técnicas clásicas de caracterización acaban siendo inasumibles para dispositivos grandes, así que contar con métricas cuya complejidad no crezca con la escala del sistema abre la puerta a pruebas más frecuentes y exhaustivas.

La línea de trabajo de Aguirre se alinea con una preocupación general de la comunidad: no basta con construir hardware cuántico, hay que asegurarse de que funciona como se espera. En países como España, la computación cuántica se ve como un campo estratégico de investigación, más que como una tecnología lista para sustituir a los supercomputadores en aplicaciones generales. Lo más probable es que, cuando madure, se convierta en un complemento especializado para ciertos problemas, mientras que la supercomputación clásica seguirá siendo el caballo de batalla para la mayoría de tareas.

Valero también coincide en esta visión. Señala que se están explorando nuevos materiales y sustratos para los transistores clásicos, así como nuevas formas de cálculo no binarias como la cuántica. Considera plausible que, igual que ocurrió con la inteligencia artificial, llegue un momento en que la tecnología cuántica “explote” y pase de laboratorio a uso más extendido. Pero incluso entonces, seguirá estando limitada a ciertas clases de problemas donde ofrece auténtica ventaja.

Redes nacionales, nodos regionales y formación de talento

La experiencia del BSC ha demostrado que no basta con tener un gran supercomputador central. Es importante tejer redes nacionales que conecten distintos nodos regionales y permitan compartir recursos, conocimiento y buenas prácticas. En España, la Red Española de Supercomputación surgió precisamente con esta vocación en 2006, impulsada en buena parte desde Barcelona.

Dentro de esa red, diversas comunidades autónomas han ido desplegando sus propios centros, que se conectan a través de infraestructuras académicas de alta velocidad, como la red CIRIS. Estos nodos permiten acercar la supercomputación a universidades y grupos de investigación locales, reducen barreras de entrada y fomentan la colaboración entre comunidades científicas distintas.

Valero anima de forma especial a regiones como Baleares a sumarse plenamente a esta red y desarrollar sus propios grupos potentes. Su consejo es claro: lo fácil es comprar el computador; lo difícil es utilizarlo bien. El primer objetivo de cualquier centro nuevo debería ser formar a estudiantes y personal investigador, porque cuanta más gente sepa sacarle partido a la máquina, mayor será el impacto de la inversión.

La supercomputación no solo beneficia a ingenieros o físicos. Según destaca el propio BSC, están surgiendo áreas emergentes como las ciencias sociales computacionales, donde se emplean técnicas de simulación y análisis de datos masivos para estudiar la influencia de las redes sociales en la calidad de la democracia, entre otros temas. Esto implica que estudiantes de disciplinas como sociología, economía o ciencia política también pueden convertirse en usuarios intensivos de recursos HPC.

  Refrigerador Inteligente con Pantalla

En paralelo, centros como COMPUTAEX en Extremadura dedican una parte importante de su actividad a divulgar y acercar la supercomputación a la sociedad, publicando entrevistas, organizando jornadas y tejiendo puentes entre la academia, la administración y las empresas. El objetivo es que la ciudadanía entienda mejor para qué sirve invertir en este tipo de infraestructuras y qué retorno generan en términos de innovación y empleo.

Consumo energético, agua y sostenibilidad de la supercomputación

A medida que crece la potencia de los supercomputadores, también lo hace su consumo energético y el impacto sobre los recursos naturales. Un centro de datos de última generación puede requerir cientos de megavatios de electricidad y enormes cantidades de agua para refrigeración. Este es uno de los grandes quebraderos de cabeza tanto para los gestores de centros HPC como para las autoridades que los acogen.

Valero recuerda que los circuitos se calientan de forma intensa durante el cálculo, lo que obliga a emplear sistemas avanzados de climatización y refrigeración líquida. En regiones con problemas de disponibilidad de agua, como algunas zonas de Aragón, esto plantea serias dudas sobre el despliegue masivo de grandes centros de datos. No es casualidad que ya se estén explorando alternativas tan llamativas como instalar data centers en el espacio o bajo el mar, donde la disipación térmica pueda gestionarse de manera más eficiente.

Sin embargo, la supercomputación también forma parte de la solución al problema energético. Muchos de los proyectos que se ejecutan en máquinas como MareNostrum 5 se centran en mejorar la eficiencia de las energías renovables, optimizar redes eléctricas, o contribuir al desarrollo de tecnologías de fusión nuclear como ITER. Si se logra que la fusión sea viable comercialmente, la cuestión del suministro energético mundial podría cambiar de forma radical.

Por eso, los expertos defienden un enfoque equilibrado: reconocer que la supercomputación y la IA consumen mucho, pero también que son herramientas imprescindibles para encontrar fuentes de energía más limpias y sostenibles. La clave estará en seguir mejorando la eficiencia por operación de los chips, optimizar el software para reducir cálculos innecesarios y ubicar los centros de datos donde la energía renovable y el agua sean más abundantes.

En paralelo, se está trabajando en nuevas arquitecturas y materiales para los transistores, como el arseniuro de galio y otros compuestos que podrían ofrecer mejores prestaciones por vatio que el silicio tradicional. Aunque aún falta recorrido para que estas tecnologías se generalicen, apuntan a un futuro en el que el crecimiento de la capacidad de cálculo no tenga por qué ir acompañado de un incremento desbocado del consumo energético.

Datos, poder y riesgos de una sociedad tecnocrática

Más allá de lo técnico, la supercomputación y la IA plantean preguntas incómodas sobre poder, privacidad y control social. Valero es especialmente crítico con el modo en que unas pocas grandes empresas tecnológicas han llegado a acumular enormes volúmenes de datos personales y capacidad de cálculo, hasta el punto de poder influir en las decisiones y opiniones de millones de personas.

En una de sus reflexiones más contundentes, afirma que “cinco niños tontos” están dominando el mundo, en referencia a un puñado de directivos de grandes compañías tecnológicas. Según él, nos hemos dejado seducir por la comodidad y el entretenimiento, renunciando en gran medida a nuestra libertad. Critica, por ejemplo, a quienes se resistían a ceder datos para ayudar a combatir la COVID-19, pero aceptan sin leer contratos interminables de servicios digitales que les entregan su vida entera a las plataformas.

El riesgo no es solo que nos recomienden qué comprar, sino que puedan moldear nuestra forma de pensar mediante algoritmos opacos que deciden qué contenidos vemos y cuáles se ocultan. En este sentido, el control de los datos y del poder de cómputo se convierte en un factor decisivo para el futuro de la democracia y de las libertades individuales.

Este debate está muy presente en Europa, donde se busca promover una inteligencia artificial alineada con los valores éticos europeos. De ahí la insistencia de Valero en que el continente no puede limitarse a arbitrar desde el VAR, sino que debe tener también sus propios jugadores en el terreno tecnológico: empresas, centros de investigación y productos capaces de competir globalmente sin renunciar a los estándares de privacidad y derechos fundamentales.

En el ámbito educativo, todo esto subraya la importancia de formar no solo buenos tecnólogos, sino también ciudadanos críticos que entiendan los mecanismos de la IA, la supercomputación y el uso de datos. La tecnología es una herramienta poderosa de doble filo: puede resolver problemas gigantescos, pero también concentrar un poder inédito en manos de muy pocos.

El panorama que dibujan todas estas entrevistas y noticias es el de un ecosistema en plena ebullición, donde supercomputación, inteligencia artificial y computación cuántica avanzan a gran velocidad mientras gobiernos, empresas y centros de investigación tratan de no quedarse atrás. Desde el MareNostrum 5 y la red española de supercomputación hasta ROCm 7, Coatlicue o las nuevas métricas para procesadores cuánticos, todo apunta a que el cómputo extremo será uno de los ejes que definan la ciencia, la economía y la política de las próximas décadas, con Europa, América Latina y otros actores jugándose su lugar en un tablero cada vez más exigente.

centros de datos sin cobre
Artículo relacionado:
Centros de datos sin cobre: energía, fibra y futuro de la infraestructura digital