Intel Thread Director: com funciona la intel·ligència dels nuclis híbrids

Darrera actualització: 24 de març de 2026
  • Intel Thread Director analitza en temps real el comportament dels fils i orienta el sistema operatiu en l'assignació entre P-Cores i E-Cores.
  • La tecnologia no substitueix el planificador del sistema, sinó que el complementa amb mètriques de rendiment i eficiència per a cada càrrega de treball.
  • Windows 11 i els nuclis moderns de Linux són els que millor aprofiten Thread Director, amb millores importants en jocs i virtualització.
  • Alder Lake, Raptor Lake i Meteor Lake es recolzen a Thread Director per esprémer l'arquitectura híbrida en gaming, creació de contingut i servidors.

Tecnologia Intel Thread Director

Si has sentit a parlar dels nous processadors híbrids dIntel i et sona això de Thread Director però no acabes de saber què fa realment, ets al lloc adequat. Aquesta tecnologia és clau per entendre per què Alder Lake, Raptor Lake, Meteor Lake i les generacions posteriors funcionen com funcionen, sobretot en jocs, multitasca i màquines virtuals.

Desgranarem amb calma com treballa Intel Thread Director per dins, quin problema resol i quines limitacions té. Veuràs que no és màgia, ni un botó turbo ocult, sinó una peça més dins d'un engranatge en què el sistema operatiu, els nuclis P i els nuclis E hi tenen molt a dir.

Què és Intel Thread Director i per què existeix

L'arribada dels Core de 12a generació va suposar que Intel apostés per una arquitectura de nuclis híbrida amb P-Cores d'alt rendiment i E-Cores d'alta eficiència. Fins aleshores, al món del PC d'escriptori el normal eren processadors amb tots els nuclis iguals, mentre que aquest enfocament “big.LITTLE” era típic dels SoC per a mòbils basats en arquitectura ARM.

Aquest canvi va plantejar un problema seriós: els sistemes operatius descriptori no estaven preparats per distingir entre nuclis amb potència i eficiència diferents a l'hora d'assignar fils i processos. El planificador veia simplement “X nuclis” i repartia la feina sense tenir en compte quin tipus de core era millor per a cada tasca.

Per solucionar això, Intel va crear el que comercialment va anomenar Intel Thread Director, una tecnologia integrada a la CPU que analitza com es comporten els processos i assessora el sistema operatiu sobre on col·locar-los. És important remarcar que no és un substitut del planificador del sistema operatiu, sinó un suport molt fi i especialitzat.

Contràriament al que molta gent pensa, Thread Director no és un xip a part ni una “unitat màgica” dins del processador. Es tracta de lògica i microcodi que corren a la pròpia CPU, recollint informació de telemetria molt detallada i exposant-la al sistema operatiu a través d'interfícies específiques.

Com funciona Thread Director a nivell intern

El funcionament de Thread Director s'assembla conceptualment a una execució especulativa controlada que avalua el comportament dels fils abans de decidir el nucli ideal. Per fer-ho, utilitza un dels fils d'execució d'un P-Core a Alder Lake i Raptor Lake, mentre que a Meteor Lake i posteriors es recolza en E-Cores de baix consum dins del SoC Tile.

El que fa aquesta lògica és monitoritzar instruccions, patrons d'accés i cost computacional dels algorismes que corren. No es limita a mirar la llista d'instruccions estàtica, sinó que observa el comportament real durant un període de temps curt per entendre si una càrrega és lleugera, moderada, molt paral·lela, intensiva en memòria, etc.

Aquesta anàlisi es codifica en una estructura de dades associada al registre IA32_THREAD_FEEDBACK_CHAR, on s'emmagatzemen tres tipus d'informació clau sobre cada fil: la classe de treball, una puntuació de rendiment i una puntuació d'eficiència energètica, totes en format senzill perquè el sistema operatiu el pugui fer servir ràpid.

La primera part és una classificació del tipus de procés en quatre classes diferents que ajuden el planificador a entendre quin tipus de core convé més:

  • classe 0: fils que es poden executar sense més problema tant en P-Cores com en E-Cores.
  • classe 1: càrregues que funcionen de forma clarament millor en P-Cores, per la seva demanda de rendiment bec o baixa latència.
  • classe 2: tasques que es recomana moure a E-Cores, perquè són més lleugeres o es beneficien d'una execució eficient.
  • classe 3: processos amb bucles de cost elevat, possibles esperes llargues o comportaments que poden perjudicar altres fils si es barregen malament, per la qual cosa requereixen un tracte especial.

A més de la classe, se'n guarda una puntuació de rendiment de 0 a 255 que reflecteix com de bé rendeix aquest fil en un nucli concret. De manera semblant, s'hi inclou una altra puntuació de 0 a 255 per indicar l'eficiència energètica associada a executar-lo en aquest tipus de core en les condicions actuals.

Amb aquesta telemetria, el sistema operatiu pot prendre decisions més informades sobre quins fils enviar a P-Cores i quins derivar a E-Cores, no només mirant el tipus de nucli, sinó també la càrrega actual, el nombre de tasques actives i les prioritats de la sessió de lusuari.

La importància de la puntuació i el repartiment de càrrega

A les CPU modernes amb molts nuclis, ja no n'hi ha prou de decidir si alguna cosa va a un P-Core oa un E-Core: també importa a quin nucli concret cau cada fil per evitar colls d'ampolla i nuclis infrautilitzats. Aquí la puntuació de rendiment i eficiència que proporciona Thread Director hi juga un paper clau.

Gràcies a aquesta valoració numèrica, el planificador del sistema operatiu pot equilibrar la càrrega entre nuclis del mateix tipus, assignant primer els fils més “pesats” als cors menys carregats i aprofitant fins al darrer buit útil. La idea és que no hi hagi P-Cores saturats mentre d'altres estan gairebé aturats, ni E-Cores infrautilitzats fent tasques ridícules.

  Com canviar el compte de Microsoft a Windows 11 pas a pas

Un altre avantatge és que Thread Director ajuda a detectar ràpidament quan una càrrega encaixa millor en un tipus concret de nucli pel seu set d'instruccions o les seves característiques. Si durant l'avaluació es veu que un fil fa servir instruccions que només suporten els P-Cores (per exemple, certs conjunts AVX avançats), el sistema operatiu té clar que aquest fil ha d'anar sí o sí a un P-Core.

També és rellevant en escenaris on un mateix procés evoluciona amb el temps: pot començar sent lleuger, passar a una fase de càlcul intens i després tornar a un estat més relaxat. El feedback continu permet que aquests fils vagin migrant entre P i E segons el que estan fent a cada moment, sense necessitat que l'aplicació sigui conscient de l'arquitectura híbrida.

A la pràctica, aquest mecanisme busca que l'usuari percebi que el sistema respon amb fluïdesa tant quan executa un joc exigent com quan obre diverses aplicacions, reprodueix contingut i deixa processos en segon pla. El repartiment dinàmic evita que una simple tasca en background es mengi un P-Core sencer mentre un E-Core s'avorreix.

Thread Director no “mana”: el que decideix és el sistema operatiu

El nom comercial pot portar a error, perquè “Director” sona que mana ell, però la realitat és que Thread Director no pren la decisió final d'on s'executa cada fil. Qui segueix tenint l'última paraula és el planificador del sistema operatiu, que fa servir o ignora la informació que li dóna la CPU segons la seva pròpia lògica.

Això es nota molt en situacions quotidianes, com quan envies una aplicació pesada a segon pla, per exemple un render a Blender, i segueixes usant l'equip amb altres tasques. Windows interpreta que el que està en primer pla té prioritat per a lusuari, així que redueix els recursos destinats al render i pot moure la seva càrrega principal als E-Cors.

De la mateixa manera, una aplicació poc exigent que tinguem a la finestra activa pot acabar ocupant un P-Core només per estar en focus, encara que la seva demanda de CPU no sigui res de l'altre món. Aquí es veu que el criteri del sistema operatiu (estat foreground/background, prioritat del procés, polítiques d'energia) pesa més que l'opinió de Thread Director.

En resum, Thread Director proporciona una mena d'“assessor expert” al scheduler del sistema, però si el sistema operatiu no està preparat per entendre'l o decideix prioritzar altres regles, l'assignació de fils no serà òptima. Per això hi ha diferències clares entre Windows 10, Windows 11 i les diferents versions de Linux a l'hora d'aprofitar les CPU híbrides.

De cara al desenvolupador d'aplicacions, el més interessant és que no cal reescriure el programari pensant específicament en P-Cores i E-Cores en la majoria dels casos. Mentre el sistema operatiu tingui suport per a Thread Director, la gran part de les càrregues es distribueix de forma força raonable sense canvis de codi, excepte en alguns escenaris molt particulars.

Comportament en jocs i càrregues reals: P-Cores, E-Cores i fils secundaris

Un dels temes que més dubtes genera és què passa en jocs moderns que usen molts fils, sobretot quan el nombre de tasques supera els P-Cores disponibles i es comença a recórrer als E-Cores per a fils secundaris. Aquí és on la teoria es barreja amb la pràctica real.

La idea d'Intel és que, en un escenari típic, els fils crítics del joc (rendre, lògica principal, física important) caiguin en els P-Cores, mentre que els E-Cores s'ocupin de fils de menor prioritat, tasques de sistema i processos en segon pla com a capturadores, xats, navegadors, etc.

Quan un joc llança, per exemple, un novè o desè fil que només utilitza entre un 10% i un 30% d'un P-Core de manera intermitent, Thread Director pot suggerir al sistema operatiu que el mogui a un E-Core. El planificador, sabent que aquest fil no és crític i veient la puntuació de rendiment/eficiència, l'envia al nucli eficient sense que l'experiència de joc se'n ressenti.

Cal tenir en compte que un E-Core és més modest que un P-Core, però si la càrrega és petita, pot ocupar un percentatge més gran de l'E-Core (per exemple, un 60%) i tot i així lliurar el rendiment necessari sense crear colls d'ampolla. D'aquesta manera, els P-Cores queden lliures pel que realment importa, i “s'esprem” millor el silici disponible.

A la majoria dels jocs ben dissenyats i amb Windows 11, la combinació de planificador conscient d'híbrids més Thread Director ofereix un comportament estable al voltant del 99% dels casos. Queden, això sí, alguns títols o enginys amb patrons de fils una mica rars on la distribució no és tan perfecta, però solen ser-ne l'excepció.

Relació amb Windows 11, Windows 10 i compatibilitat general

Un dels punts clau és que Windows 11 s'ha desenvolupat en col·laboració directa entre Microsoft i Intel per esprémer l'arquitectura híbrida i utilitzar Thread Director de forma nativa. Això inclou un planificador actualitzat, polítiques específiques denergia i una integració més fina amb la telemetria que arriba des de la CPU.

A Windows 10, en canvi, el planificador no està dissenyat des de zero per entendre P-Cores i E-Cores ni per interpretar correctament les pistes de Thread Director. Funcionar, funciona, però el repartiment de tasques és més “cec” i, per tant, el rendiment i l'eficiència poden ser clarament inferiors davant de la mateixa CPU a Windows 11.

A Linux la història ha anat per un altre camí. Al principi, el nucli no aprofitava bé els nuclis híbrids d'Intel, cosa que es traduïa en un rendiment sensiblement pitjor que a Windows, sobretot en càrregues mixtes i en virtualització. Amb el temps, el scheduler del nucli i les interfícies amb Thread Director s'han anat polint.

  Manteniment correctiu d'ordinadors

Gràcies als últims pegats enviats al nucli, Intel ha afegit suport avançat per a Thread Director i, a més, ha treballat en la virtualització d'aquesta tecnologia per a màquines virtuals (Thread Director Virtualization). Això permet que un guest, com una màquina virtual amb Windows 11, pugui beneficiar-se de la lògica de programació basada en ITD fins i tot quan corre sobre un host Linux.

En proves amb un Core i9-13900K executant Windows 11 dins d'una VM a Linux, s'ha mesurat una millora de rendiment de fins a un 14% en 3DMark en aprofitar correctament l'assignació entre P-Cores i E-Cores des de la màquina virtual. Aquest guany és especialment interessant per a servidors que ofereixen jocs al núvol o múltiples escriptoris virtuals.

Thread Director a Alder Lake, Raptor Lake, Meteor Lake i més enllà

Thread Director va debutar de forma oficial amb els processadors Intel Core de 12a generació (Alder Lake), que van introduir per primera vegada l'arquitectura híbrida en escriptori. Aquests xips combinen P-Cores d'alt rendiment amb E-Cores eficients i es fabriquen amb la litografia Intel 7, heretant moltes tecnologies prèvies de la marca.

A Alder Lake-S, orientats a sobretaula i socket LGA1700, trobem fins a 16 nuclis (8 P-Cores + 8 E-Cores) i 24 fils en total, suport per a DDR5, compatibilitat amb DDR4 i línies PCIe 5.0 directes des de la CPU. A això se li suma la clàssica memòria cau Intel Smart Cache (L3 compartida) i una memòria cau L2 reorganitzada per adaptar-se als dos tipus de nuclis.

Els P-Cores compten amb 1,25 MB de memòria cau L2 per nucli, mentre que els E-Cores s'agrupen en clusters de quatre que comparteixen 2 MB de L2. Per sobre, hi ha fins a 30 MB de memòria cau L3 (LLC) comú a tots els nuclis, cosa que ajuda a reduir latències ia millorar l'intercanvi de dades entre fils de diversa naturalesa.

La plataforma també afegeix suport per a PCIe 5.0 (fins a 16 línies des de la CPU), més línies PCIe 4.0 des del chipset Z690, WiFi 6E integrat i compatibilitat amb Thunderbolt 4. Tot i que en el moment del llançament amb prou feines existien GPUs i SSDs PCIe 5.0, la infraestructura ja estava preparada.

Amb Raptor Lake, Intel va polir aquest enfocament, però el veritable canvi a Thread Director arriba amb Meteor Lake: la lògica d'avaluació passa a executar-se als E-Cores de baix consum presents al SoC Tile, que és el bloc amb accés directe a la RAM gràcies al controlador de memòria integrat. Des d'aquí s'analitza cada procés i es decideix si es pot resoldre en aquests E-Cores o s'ha de derivar al Compute Tile, on resideixen els nuclis de més potència.

Això vol dir que, a partir de Meteor Lake, Thread Director ja no ha d'orquestrar directament entre tres tipus de nuclis de forma constant, perquè moltes tasques de baixa demanda es resolen abans d'arribar als P-Cors principals. Només quan es detecta que una càrrega necessita més teca, es passa al bloc de còmput d'alt rendiment.

Integració amb l'arquitectura híbrida d'Alder Lake-S

Dins l'ecosistema de sobretaula, els Alder Lake-S representen l'aparador perfecte del que Thread Director pot aportar a un processador híbrid amb objectius molt clars: gaming, creació de contingut i overclocking avançat. Intel va redissenyar tota la plataforma per treure partit d'aquesta barreja de nuclis.

L'arquitectura híbrida abandona l'antic enfocament monolític i proposa un model molt semblant al ARM big.LITTLE, amb P-Cores pensats per a càrregues pesades i E-Cores orientats a escalabilitat i eficiència en tasques múltiples. Aquesta combinació permet oferir un 19% més d'IPC per nucli davant de la 11a generació, segons els mesuraments interns d'Intel.

En el dia a dia, això es tradueix que, en executar un joc, els P-Cores s'encarreguen del motor del títol, mentre que els E-Cores es queden amb tasques en segon pla com ara streaming, Discord, navegador o processos del sistema. Intel ha arribat a mostrar millores de fins a un 19% en jocs i de fins a un 84% en escenaris de “gaming + streaming” davant d'un Core i9-11900K.

Aquest comportament es recolza en la capacitat de Thread Director per detectar quins fils són crítics per a la latència del joc i quins són accessoris que es poden desviar a E-Cores sense penalitzar l'experiència. Així es manté la taxa de FPS i es redueix el risc de estrebades quan hi ha moltes coses passant alhora.

La plataforma Alder Lake també va introduir nous mecanismes de gestió de potència, igualant el PL1 i el PL2 per mantenir freqüències boost més temps, cosa que es veu beneficiada per l'existència d'E-Cores que poden assumir càrregues lleugeres sense que els P-Cores estiguin permanentment al límit tèrmic.

Overclocking, memòria i eines associades

Els Alder Lake-S van venir acompanyats d'una renovació a les eines de tuning, començant per Intel Extreme Tuning Utility (XTU) 7.5, que afegeix control específic sobre les freqüències dels E-Cores i suport ple per a DDR5. Això se suma a la telemetria dels P-Cores ia noves opcions de maneig del BCLK intern.

Una de les grans novetats per a la memòria és XMP 3.0, que amplia els perfils d'overclocking fins a cinc per mòdul (tres del fabricant i dos de personalitzables per l'usuari). Aquests perfils personalitzables es poden anomenar amb fins a 16 caràcters, cosa que facilita identificar ràpidament l'ajust que s'està usant.

  Scripts útils per a Windows 11 per automatitzar, netejar i protegir el teu PC

A més, XMP 3.0 permet ajustar manualment tensions com VDD, VDDQ i ​​VPP, donant força marge de maniobra als entusiastes per esprémer les DDR5. Tot i que Thread Director no toca directament la memòria, el conjunt de la plataforma es dissenya pensant en càrregues molt variades i exigents.

S'hi va afegir també Dynamic Memory Boost Technology, una mena de “Turbo” automàtic per a la RAM que activa el perfil XMP quan es detecta càrrega i torna a l'estat base quan la demanda baixa. Aquesta lògica recorda el funcionament de Turbo Boost a les CPU i ajuda a quadrar rendiment, consum i temperatures sense intervenció constant de l'usuari.

Tot això es complementa amb el chipset Z690, que ofereix suport complet per a overclocking de CPU i memòria, més línies PCIe 4.0 i connectivitat moderna com USB 3.2 Gen 2×2 i WiFi 6E (Gig+). La idea és que la plataforma en conjunt estigui preparada per aprofitar el comportament dinàmic que Thread Director facilita en l'assignació de fils.

Linux, servidors i virtualització amb Thread Director

Fora de l'escriptori domèstic, Thread Director està començant a ser especialment rellevant a entorns Linux on s'executen múltiples màquines virtuals o serveis de streaming de videojocs al núvol. Aquí, l'eficiència en l'assignació de nuclis es tradueix directament en costos i qualitat de servei.

Intel ha llançat recentment un conjunt de pegats per al nucli de Linux que milloren notablement la integració de Thread Director i la lògica de programació per a CPUs híbrides. Aquests canvis no només ajusten com es reparteixen les tasques al host, sinó que també introdueixen el concepte de Thread Director Virtualization.

Amb aquesta virtualització, una màquina virtual (per exemple, Windows 11 com a guest) pot rebre i aprofitar la informació de Thread Director encara que estigui corrent sobre un host Linux. El resultat és que el guest pot distribuir millor les pròpies càrregues entre P-Cores i E-Cores virtualitzats, aproximant-se més al rendiment natiu.

Les proves publicades mostren que, en escenaris de jocs executats en una VM Windows 11 sobre un host Linux amb un Core i9-13900K, la millora de rendiment pot assolir un 14% en benchmarks com 3DMark. Per a proveïdors de streaming al núvol basats en Linux, aquest salt és molt interessant.

És important remarcar que aquestes optimitzacions estan pensades principalment per a entorns professionals i de servidor, on Linux té una quota altíssima davant de Windows Server. A nivell domèstic, l'usuari mitjà no notarà tant la diferència, encara que sempre és bona notícia que el nucli avanci en la gestió de CPUs híbrides.

Limitacions, mites i què podem esperar

Tot i tots els seus avantatges, convé no mitificar massa Thread Director. El primer és entendre que no pot compensar completament un sistema operatiu mal optimitzat o un motor de joc amb una gestió de fils deficient. Si la càrrega està mal distribuïda des del programari, la CPU només pot fer fins a cert punt.

Tampoc és una tecnologia màgica que garanteixi que no hi haurà mai casos rars en què un fil important acabi en un E-Core o una tasca lleugera es quedi en un P-Core més temps del necessari. El feedback és molt ràpid, però no instantani, i sempre hi ha patrons de càrrega poc habituals que poden despistar el planificador.

Un altre mite habitual és creure que, amb Thread Director, els desenvolupadors de jocs i aplicacions poden oblidar completament de l'arquitectura híbrida. Encara que en la majoria dels casos el sistema operatiu s'encarrega de tot raonablement bé, per treure el màxim suc possible continua sent bona idea dissenyar motors que classifiquin millor els propis fils, marquin prioritats adequades i evitin saturar sense control.

De cara a futures generacions com Arrow Lake, tot apunta que la filosofia bàsica de Thread Director es mantindrà, afinant la telemetria i la integració amb els sistemes operatius. L'experiència acumulada a Alder, Raptor i Meteor Lake servirà per reduir encara més els casos de frontera on l'assignació no és del tot òptima.

A l'ús diari, per a l'usuari que juga, edita vídeo, fa streaming o executa màquines virtuals, el més important és tenir clar que Windows 11 i les versions modernes de Linux amb els últims pegats són gairebé obligatòries si es vol esprémer de debò una CPU híbrida d'Intel. Amb el sistema adequat, Thread Director es converteix en un aliat silenciós que ajuda que tot vagi més fi i amb millor eficiència energètica.

Al final, Intel Thread Director s'ha consolidat com una peça clau en la transició cap a processadors de PC amb nuclis heterogenis, permetent que el sistema operatiu prengui decisions més intel·ligents sobre on executar cada fil; encara que no dirigeixi res per si mateix, la seva anàlisi continuada de rendiment i eficiència marca la diferència en jocs, multitasca, creació de contingut i virtualització sempre que el programari de base estigui preparat per entendre'l.

Què és la memòria cau del processador
Article relacionat:
Què és la memòria cau del processador i per què importa