- Superdatamaskiner driver alt fra klimaprediksjon til personlig tilpasset medisin, med sentre som BSC og MareNostrum 5 i spissen.
- Kunstig intelligens og superdatamaskiner leverer gjensidig næring, mens plattformer som AMD ROCm 7 øker ytelsen for AI.
- Europa og land som Mexico kjemper om sin strategiske posisjon innen brikker, HPC-infrastruktur og opplæring av spesialiserte talenter.
- Fremveksten av ekstrem databehandling reiser energi-, etiske og maktutfordringer knyttet til kontroll av data og dataressurser.

La superdatamaskin har blitt den store stille motoren som driver alt fra kunstig intelligens til værvarsling, personlig medisin og design av nye materialer. Bak ethvert banebrytende vitenskapelig fremskritt finnes det vanligvis et massivt datasenter, en «hjerne» som består av millioner av prosessorer som jobber parallelt for å takle problemer som en konvensjonell datamaskin ville tatt århundrer å løse.
De siste årene Intervjuer og nyheter om superdatamaskiner, kunstig intelligens og kvantedatamaskiner De har gitt oss et glimt inn i et økosystem der banebrytende teknologi, vitenskapelig talent, industripolitikk og etiske debatter på toppnivå flettes sammen. Fra Barcelona Supercomputing Center (BSC) og MareNostrum 5 til nye prosjekter i Mexico og arbeid med verifisering av kvanteprosessorer, er landskapet like fascinerende som det er komplekst.
Hva er egentlig et superdatasenter?
Et superdatasenter er først og fremst et vitenskapelig laboratorium hvis hovedverktøy ikke er mikroskoper eller partikkelakseleratorer, men ekstremt høytytende superdatamaskiner. Som Mateo Valero, grunnlegger og direktør for Barcelona Supercomputing Center, forklarer, bruker disse anleggene maskiner som er i stand til å utføre et enormt antall operasjoner per sekund for å simulere fenomener som bare kan beskrives med avansert matematikk og fysikk.
Nøkkelen ligger i konseptet med «digital tvilling»En superdatamaskin er en virtuell kopi av noe vi ønsker å forstå eller designe for første gang. Med en superdatamaskin er det mulig å modellere proteinfolding som naturen aldri har produsert, forutsi atmosfærens oppførsel med enorme detaljer, eller evaluere hvordan et nytt materiale vil oppføre seg under ekstreme forhold uten å produsere en eneste fysisk prøve.
Blant eksemplene Valero oftest siterer er værmelding i høy oppløsningKlimaendringsscenarier, søken etter nye materialer for grønn energi og personlig medisin basert på massiv analyse av genomiske data. Alt dette er avhengig av muligheten til å utføre prøving og feiling-simuleringer i en hastighet som, sammenlignet med en mobiltelefon, virker nesten utrolig.
Disse maskinene fungerer også som akseleratorer innen ingeniørfag og industriVed BSC ble det for eksempel utviklet programvare for Repsol som indikerte hvor man skulle bore i fiendtlige miljøer som Mexicogolfen. Hver boreoperasjon koster rundt hundre millioner dollar, og takket være simulering gikk suksessraten fra ett av ti forsøk til ett av syv, med resulterende kostnadsbesparelser og risikoreduksjon.

MareNostrum 5 og rollen til Barcelonas superdatasenter
Ligger i Barcelona, den MareNostrum 5 er en av verdens raskeste superdatamaskiner og BSCs flaggskip. Den består av millioner av kraftige prosessorer som kommuniserer via nettverk med svært lav latens, og har tilhørende minne med høy kapasitet, noe som gjør at den kan kjøre ekstremt komplekse modeller med et imponerende detaljnivå.
Valero tyr ofte til slående sammenligninger: en moderne superdatamaskin kan være i størrelsesorden en million ganger raskere enn en mobiltelefonNår det gjelder MareNostrum 5, utgjør de ulike partisjonene hundrevis av petaflops: vi snakker om kapasiteten til å utføre hundretusenvis av billioner flyttalloperasjoner per sekund. For å gi deg en idé, tillater disse ressursene simulering av hele jorden – hav, luft, kontinenter og poler – med en romlig oppløsning på omtrent én kilometer.
MareNostrum 5 er i virkeligheten et sett med flere spesialiserte superdatamaskinerDa den offisielt ble lansert i desember 2023, rangerte en av partisjonene som nummer 8 på verdensrangeringen blant de 500 beste i verden, og en annen som nummer 19. En av dem var optimalisert for trening og kjøring av storskala kunstig intelligens-modeller, noe som gjorde den til en av de beste plattformene i verden for denne typen arbeidsmengde.
Men Valeros stolthet er ikke begrenset til maskinen. Som han understreker, Den sanne skatten ved BSC er menneskene.Senteret har vokst fra 20 personer ved oppstarten til rundt 1.400, hvorav omtrent 1.200 er forskere. Det samler fagfolk fra 32 forskjellige akademiske disipliner og mer enn 60 land, noe som gjør BSC til et slags FN for informatikk. Dette mangfoldet gjør det mulig å takle komplekse problemer fra svært forskjellige perspektiver.
Når det gjelder tilgang, er MareNostrum en ressurs offentlig og åpen for det vitenskapelige miljøetSuperdatamaskinen eies av den spanske regjeringen, Catalonias regjering og Polytekniske Universitet i Catalonia. Spanske og europeiske forskere kan be om beregningstid til prosjektene sine, forutsatt at de består en evalueringsprosess. BSC-ansatte bruker selv omtrent 20 % av kapasiteten; de resterende 80 % deles mellom andre vitenskapelige grupper.
Superdatamaskiner og kunstig intelligens: et symbiotisk forhold
Eksplosjonen av Moderne kunstig intelligens er nært knyttet til superdatamaskinerValero oppsummerer det svært grafisk: det var massive datasett og ekstrem datakraft som brakte AI ut av sin «polare vinter». Uten maskiner som er i stand til å behandle milliarder av parametere og gigantiske datasett – eller uten å vite hvordan – kunne ikke AI fungere effektivt. forvandle PC-en din til et AI-laboratorium—, fremskritt som store språkmodeller eller bildegjenkjenningssystemer ville ikke vært mulige.
Et emblematisk eksempel er proteinfoldingDette var et beregningsmessig vanvittig problem som i flere tiår ble ansett som nærmest uoverkommelig, selv med superdatamaskiner. Kombinasjonen av AI-algoritmer og store datainfrastrukturer gjorde det mulig å løse det så effektivt at det ble anerkjent med Nobelprisen i kjemi, noe som for alltid endret måten legemidler designes og molekylærbiologi forstås på.
I dag har forholdet delvis snudd på hodet: AI bidrar også til å gjøre bedre vitenskap med superdatamaskinerVed BSC brukes maskinlæringsteknikker for å optimalisere simuleringer, redusere beregningstider og trekke ut mønstre fra datasett som ville være umulige for menneskelig inspeksjon. Med Valeros ord er det ikke lenger klart om han driver et superdatasenter eller et senter for kunstig intelligens, fordi begge områdene har blitt fullstendig sammenflettet.
Valero nøler imidlertid ikke med å dempe entusiasmen rundt generativ AI. Han påpeker at Modeller som ChatGPT er begrenset til å forutsi det neste ordet basert på statistiske mønstre hentet fra enorme mengder tekst. De er ekstremt sofistikerte systemer, men de mangler bevissthet og sunn fornuft, to menneskelige evner som han anser som svært vanskelige å gjenskape i en maskin. Det er derfor han ser et maskinopprør som HAL 9000 som en fjern mulighet.
Selve ressursforbruket til frontlinje-AI illustrerer i hvilken grad Superdatamaskiner og energi er knyttet sammenValero viser til tilfellet OpenAI, som har foreslått å bygge en datasenter med rundt én million NVIDIA GPU-er. Akselerasjonskomponenten i MareNostrum 5 alene har rundt 4.500 GPU-er; omfanget av det som er anslått for trening av fremtidige modeller er derfor enormt, med energibehov beregnet til rundt 10 gigawatt, omtrent tilsvarende effekten fra ti kjernekraftverk.
AMD ROCm 7 og AI-ytelseskappløpet
Ved siden av de store superdatasentrene kjemper maskinvare- og programvareplattformprodusenter sin egen kamp. AMD presenterte nylig ROCm 7, den syvende hovedversjonen av Radeon Open Compute-økosystemet, en åpen plattform rettet mot høyytelsesdatamaskiner (HPC) og arbeidsbelastninger med kunstig intelligens på selskapets GPU-er og akseleratorkort.
ROCm 7 lover opptil 3,5 ganger mer ytelse i AI-oppgaver Sammenlignet med tidligere generasjoner er dette avgjørende for å konkurrere med NVIDIA i et marked der opplæring av stadig større modeller har blitt normen. Denne ytelsesforbedringen betyr ikke bare raskere opplæringstider, men også større energieffektivitet per operasjon, et kritisk aspekt når man har med installasjoner å gjøre som bruker enorme mengder strøm.
ROCms åpne filosofi er spesielt relevant i offentlige superdatamaskineringsmiljøer som BSC eller andre nasjonale sentre, hvor interoperabilitet og fravær av teknologiske barrierer De er høyt verdsatt. Å ha en åpen programvarestabel gjør det enklere å tilpasse vitenskapelig kode, optimalisere spesifikke kjerner og kombinere mangfoldig maskinvare uten å være helt avhengig av proprietære løsninger.
I europeisk sammenheng, hvor det er et ambisjonsnivå for større teknologisk suverenitetFremskritt som ROCm 7 passer inn i behovet for å diversifisere GPU-leverandører og fremme programvareøkosystemer som lar HPC-sentre tilpasse infrastrukturen sin til de reelle behovene i forskningsprosjektene sine.
Europa, chips og risikoen ved å bare være VAR
En av Mateo Valeros besettelser er Europas posisjon i kappløpet om kunstig intelligens og superdatamaskinerHan bruker en slående fotballmetafor: han frykter at kontinentet vil ende opp med å bli VAR, videoassistentdommersystemet, for en kamp der det ikke er noen spillere på banen. Med andre ord, at Europa vil ende opp med å etablere regler og forskrifter, men uten sine egne teknologiske mestere til å konkurrere direkte med USA eller Asia.
Problemet er tydelig synlig i området chips med høy ytelseHvis man undersøker ledende europeiske superdatamaskiner, bruker så godt som ingen prosessorer eller GPU-er som er designet og produsert i Europa. Europa er ikke bare avhengig av produksjon, men til og med av brikkedesign, noe som setter langsiktige prosjekter som autonome kjøretøy eller kritisk AI-infrastruktur i fare hvis forsyningen blir forstyrret.
Valero har i årevis insistert på behovet for en stor Europeisk prosjekt for halvledereI stil med det Airbus var innen luftfart, Galileo innen satellittnavigasjon eller CERN innen partikkelfysikk, er dette en koordinert innsats med betydelige offentlige investeringer og en forpliktelse til å kjøpe de første brikkene, selv om ytelsen deres er lavere enn amerikanske eller asiatiske produsenters. Ellers tror han Europa vil forbli «brikkeavhengig».
Politisk fragmentering hjelper heller ikke. Ifølge ham, Europa er fortsatt en samling land som ser for mye innover seg.med ofte motstridende nasjonale interesser. Denne mangelen på en felles visjon gjør det vanskelig å lansere initiativer av nødvendig skala, både innen maskinvare og programvare. Likevel erkjenner han at det er viktige prosjekter på gang, og at det tas forsiktige skritt, for eksempel av BSC selv, som har fremmet prosessordesignarbeidet i Spania.
Den økonomiske bakgrunnen er tydelig: merverdien av ett gram silisium i chipform Det kan komme opp i 50 000 euro, noe som gjør hver kvadratcentimeter med en wafer ekstremt verdifull. Den som kontrollerer denne verdikjeden vil ikke bare dominere teknologimarkedene, men vil også ha enorm geopolitisk innflytelse.
Mexico, Coatlicue og satsingen på en nasjonal superdatamaskin
Utenfor Europa tar også andre land grep for å unngå å sakke akterut. I Mexico er byggingen av Coatlicue, en superdatamaskin designet for å takle store offentlige problemer å allerede utvikle lokale talenter innen kunstig intelligens og avansert databehandling. I et intervju forklarer prosjektlederen – identifisert som JLPH – at målet ikke var «å ha den største maskinen i Latin-Amerika», men å skaffe seg den nødvendige kraften til å løse landets nåværende utfordringer.
Med rundt 314 petaflops med datakraftCoatlicue ville bli rangert blant de tjue kraftigste superdatamaskinene i verden, ifølge teamets innledende estimater. Denne kraften er begrunnet i behovet for å analysere enorme datamengder knyttet til nasjonale utfordringer innen felt som helsevesen, utdanning, sikkerhet og sosial utvikling.
Et av de typiske problemene Mexico står overfor er mangel på spesialisert talent innen AI og avansert teknologiDet anslås at omtrent 77 % av selskapene i teknologisektoren har problemer med å finne tilstrekkelig utdannede fagfolk. I denne sammenhengen blir det offentlige opplæringssenteret for kunstig intelligens og Coatlicue sett på som grobunn for å generere en ny generasjon eksperter som er utdannet i landet.
Fra et bærekrafts- og livssyklusperspektiv innebærer planen for Coatlicue oppgradere GPU-ene sine omtrent hvert femte årProsjektgruppen har som mål å etablere en tydelig plan for fremtidige administrasjoner, selv om fortsatt investering vil avhenge av politiske beslutninger. De understreker også at maskinens sanne verdi ikke ligger i maskinvarekjøpet, men i problemene den vil løse og overføringen av kunnskap til akademia, forskning og innovasjon.
JLPH tar også stilling til kvanteberegningDette er et område med mye omtale der han mener det fortsatt ikke er tilstrekkelig modenhet for masseindustriell utnyttelse. Selv om han erkjenner det enorme potensialet – spesielt innen kryptografi og noen spesifikke problemer – mener han at for å håndtere Mexicos nåværende offentlige utfordringer, er prioriteten fortsatt å konsolidere en robust klassisk superdatamaskininfrastruktur og utvikle menneskelig kapital rundt den.
Kvantedatamaskinering: beregninger, verifisering og den nyeste teknologien
Mens klassiske superdatamaskiner oppnår ytelse på hundrevis av petaflops, Kvantedatamaskiner utvikler seg parallelt med en annen beregningsfilosofibasert på qubits og superposisjon i stedet for binære bits. Selv om mange eksperter fortsatt anser denne teknologien for å være inne i en slags «polarvinter», gjøres det bemerkelsesverdige fremskritt, spesielt innen hvordan man evaluerer og sertifiserer enheters oppførsel, og i initiativer knyttet til Kvanteinternett.
Et nylig eksempel er arbeidet til David Aguirre, doktorgradskandidat i kvantedatamaskinering ved det baskiske senteret for anvendt matematikk (BCAM)Tildelt TalentQ-prisen for beste masteroppgave. Forskningen hans fokuserer på å designe en ny verifiseringsmetrikk for kvanteprosessorer som er i stand til å opprettholde en konstant beregningskostnad for evaluering, uavhengig av enhetsstørrelse.
Denne tilnærmingen er nøkkelen fordi Verifisering av en kvanteprosessor blir eksponentielt vanskelig Etter hvert som antallet qubits øker, blir klassiske karakteriseringsteknikker upraktiske for store enheter. Derfor åpner det for hyppigere og grundigere testing å ha målinger hvis kompleksitet ikke vokser med systemets skala.
Aguirres arbeidsområde er i tråd med en generell bekymring i lokalsamfunnet: Det er ikke nok å bygge kvantemaskinvare; du må sørge for at den fungerer som forventet.I land som Spania blir kvantedatamaskiner sett på som et strategisk forskningsfelt, snarere enn en teknologi som er klar til å erstatte superdatamaskiner i generelle applikasjoner. Mest sannsynlig vil den, etter hvert som den modnes, bli et spesialisert supplement for visse problemer, mens klassisk superdatamaskiner vil forbli arbeidshesten for de fleste oppgaver.
Valero deler også dette synet. Han påpeker at de utforsker nye materialer og substrater for klassiske transistorerså vel som nye former for ikke-binær beregning, som kvantedatamaskiner. Han anser det som sannsynlig at, akkurat som skjedde med kunstig intelligens, vil det komme en tid da kvanteteknologi «eksploderer» og flyttes fra laboratoriet til mer utbredt bruk. Men selv da vil den forbli begrenset til visse problemklasser der den gir en reell fordel.
Nasjonale nettverk, regionale noder og talentutvikling
Erfaringene fra BSC har vist at Det er ikke nok å ha en stor sentral superdatamaskinDet er viktig å bygge nasjonale nettverk som forbinder ulike regionale noder og muliggjør deling av ressurser, kunnskap og beste praksis. I Spania oppsto det spanske superdatanettverket nettopp med dette målet i 2006, i stor grad drevet fra Barcelona.
Innenfor det nettverket, Ulike autonome regioner har utplassert sine egne sentreDisse nodene kobles sammen via høyhastighets akademisk infrastruktur, som for eksempel CIRIS-nettverket. De bringer superdatamaskiner nærmere universiteter og lokale forskningsgrupper, reduserer inngangsbarrierer og fremmer samarbeid mellom ulike vitenskapelige miljøer.
Valero oppfordrer spesielt regioner som Balearene til å bli med i dette nettverket og utvikle sine egne sterke grupperHans råd er klart: det er enkelt å kjøpe datamaskinen; det er vanskelig å bruke den ordentlig. Det første målet med ethvert nytt senter bør være å lære opp studenter og forskere, for jo flere som vet hvordan de får mest mulig ut av maskinen, desto større blir effekten av investeringen.
Superdatamaskiner er ikke bare til fordel for ingeniører eller fysikere. Som BSC selv påpeker, dukker det opp nye felt ... nye områder som beregningsbaserte samfunnsvitenskaperder simuleringsteknikker og stordataanalyse brukes til å studere sosiale nettverks innflytelse på demokratiets kvalitet, blant andre emner. Dette betyr at studenter innen disipliner som sosiologi, økonomi eller statsvitenskap også kan bli intensive brukere av HPC-ressurser.
I mellomtiden vier sentre som COMPUTAEX i Extremadura en betydelig del av aktiviteten sin til å publisere og bringe superdatamaskiner nærmere samfunnetved å publisere intervjuer, organisere konferanser og bygge broer mellom akademia, myndigheter og næringsliv. Målet er at innbyggerne bedre skal forstå fordelene ved å investere i denne typen infrastruktur og avkastningen den genererer når det gjelder innovasjon og sysselsetting.
Energiforbruk, vann og bærekraft i superdatamaskiner
Etter hvert som superdatamaskinenes kraft vokser, øker også deres energiforbruk og virkningen på naturressurseneEt toppmoderne datasenter kan kreve hundrevis av megawatt med strøm og enorme mengder vann til kjøling. Dette er en av de største hodebryene for både HPC-senteroperatører og myndighetene som er vertskap for dem.
Valero minner om at Kretsene varmes opp kraftig under beregningenDette nødvendiggjør bruk av avanserte klimaanlegg og væskekjølesystemer. I regioner med vannmangel, som deler av Aragon, reiser dette alvorlig bekymring for masseutplassering av store datasentre. Det er ingen tilfeldighet at slike slående alternativer som å installere datasentre i verdensrommet eller under vann allerede utforskes, der varmespredning kan håndteres mer effektivt.
Superdatamaskiner er imidlertid også en del av løsningen på energiproblemetMange av prosjektene som utføres på maskiner som MareNostrum 5 fokuserer på å forbedre effektiviteten til fornybar energi, optimalisere strømnett eller bidra til utviklingen av kjernefusjonsteknologier som ITER. Hvis fusjon blir kommersielt levedyktig, kan spørsmålet om global energiforsyning endre seg radikalt.
Derfor anbefaler eksperter en balansert tilnærming: å erkjenne at Superdatamaskiner og kunstig intelligens er svært ressurskrevende.Men de er også viktige verktøy for å finne renere og mer bærekraftige energikilder. Nøkkelen vil være å fortsette å forbedre driftseffektiviteten til brikkene, optimalisere programvaren for å redusere unødvendige beregninger, og finne datasentre der fornybar energi og vann er mer rikelig.
Parallelt pågår det arbeid med nye arkitekturer og materialer for transistorerSom galliumarsenid og andre forbindelser som kan tilby bedre ytelse per watt enn tradisjonelt silisium. Selv om disse teknologiene fortsatt har en vei å gå før de blir utbredt, peker de mot en fremtid der veksten i datakraft ikke nødvendigvis trenger å ledsages av en voldsom økning i energiforbruket.
Data, makt og risikoer i et teknokratisk samfunn
Utover de tekniske aspektene utgjør superdatamaskiner og kunstig intelligens ubehagelige spørsmål om makt, privatliv og sosial kontrollValero er spesielt kritisk til måten noen få store teknologiselskaper har klart å samle enorme mengder personopplysninger og datakraft, til det punktet at de har kunnet påvirke beslutningene og meningene til millioner av mennesker.
I en av sine mest kraftfulle refleksjoner sier han at «Fem dumme barn» tar over verdenHan refererte til en håndfull ledere i store teknologiselskaper. Ifølge ham har vi blitt forført av bekvemmelighet og underholdning, og i stor grad gitt avkall på friheten vår. Han kritiserer for eksempel de som motsatte seg å utlevere data for å bekjempe COVID-19, men som likevel lett aksepterte endeløse kontrakter for digitale tjenester som overgir hele livet til plattformene.
Risikoen er ikke bare at de anbefaler hva man skal kjøpe, men at kan forme vår måte å tenke på gjennom ugjennomsiktige algoritmer som bestemmer hvilket innhold vi ser og hva som er skjult. I denne forstand blir kontroll over data og datakraft en avgjørende faktor for demokratiets og individuelle friheters fremtid.
Denne debatten er svært til stede i Europa, hvor det gjøres en innsats for å fremme en kunstig intelligens i tråd med europeiske etiske verdierDerfor insisterer Valero på at kontinentet ikke kan begrense seg til å dømme fra VAR, men også må ha sine egne aktører innen det teknologiske feltet: selskaper, forskningssentre og produkter som er i stand til å konkurrere globalt uten å gi avkall på standarder for personvern og grunnleggende rettigheter.
Innen utdanningsfeltet understreker alt dette viktigheten av å utdanne ikke bare gode teknologer, men også kritiske samfunnsborgere De må forstå mekanismene bak kunstig intelligens, superdatamaskiner og databruk. Teknologi er et kraftig tveegget sverd: den kan løse enorme problemer, men den kan også konsentrere enestående makt i hendene på svært få.
Bildet som tegnes av alle disse intervjuene og nyhetsrapportene er et av et økosystem i fullt kaos, hvor Superdatamaskiner, kunstig intelligens og kvantedatamaskiner utvikler seg i enormt tempo. Mens myndigheter, selskaper og forskningssentre prøver å ikke falle akterut, tyder alt på at ekstrem databehandling vil bli en av de definerende kreftene innen vitenskap, økonomi og politikk i de kommende tiårene, fra MareNostrum 5 og det spanske superdatamaskinnettverket til ROCm 7, Coatlicue og nye målinger for kvanteprosessorer. Europa, Latin-Amerika og andre aktører kjemper om sin plass på et stadig mer krevende spillefelt.
Innholdsfortegnelse
- Hva er egentlig et superdatasenter?
- MareNostrum 5 og rollen til Barcelonas superdatasenter
- Superdatamaskiner og kunstig intelligens: et symbiotisk forhold
- AMD ROCm 7 og AI-ytelseskappløpet
- Europa, chips og risikoen ved å bare være VAR
- Mexico, Coatlicue og satsingen på en nasjonal superdatamaskin
- Kvantedatamaskinering: beregninger, verifisering og den nyeste teknologien
- Nasjonale nettverk, regionale noder og talentutvikling
- Energiforbruk, vann og bærekraft i superdatamaskiner
- Data, makt og risikoer i et teknokratisk samfunn