- Intel Thread Director analyse le comportement des threads en temps réel et guide le système d'exploitation dans la répartition entre les cœurs P et les cœurs E.
- La technologie ne remplace pas le planificateur système, mais le complète plutôt par des indicateurs de performance et d'efficacité pour chaque charge de travail.
- Windows 11 et les noyaux Linux modernes tirent le meilleur parti de Thread Director, avec des améliorations significatives dans les jeux et la virtualisation.
- Alder Lake, Raptor Lake et Meteor Lake s'appuient sur Thread Director pour tirer parti d'une architecture hybride dans les domaines du jeu, de la création de contenu et des serveurs.

Si vous avez entendu parler des nouveaux processeurs hybrides d'Intel et que cela vous semble familier... Directeur de thread, mais vous ne savez pas vraiment ce qu'il fait.Vous êtes au bon endroit. Cette technologie est essentielle pour comprendre les performances des processeurs Alder Lake, Raptor Lake, Meteor Lake et des générations suivantes, notamment en matière de jeux, de multitâche et de machines virtuelles.
Analysons calmement comment cela fonctionne Intel Thread Director : problèmes résolus et limitations.Vous verrez que ce n'est ni de la magie, ni un bouton turbo caché, mais simplement un élément d'une machine où le système d'exploitation, les cœurs P et les cœurs E jouent tous un rôle important.
Qu'est-ce qu'Intel Thread Director et pourquoi existe-t-il ?
L'arrivée des processeurs Core de 12e génération signifiait qu'Intel misait sur un Architecture hybride à cœurs multiples, avec des cœurs P hautes performances et des cœurs E haute efficacité.Jusqu'alors, dans le monde des PC de bureau, les processeurs dotés de tous les mêmes cœurs étaient la norme, tandis que cette approche « big.LITTLE » était typique des SoC mobiles basés sur Architecture ARM.
Ce changement posait un problème sérieux : les systèmes d’exploitation de bureau n’étaient pas préparés à Lors de l'attribution des threads et des processus, il convient de faire la distinction entre les cœurs ayant des niveaux de puissance et d'efficacité différents.Le planificateur a simplement vu « X cœurs » et a réparti le travail sans tenir compte du type de cœur le mieux adapté à chaque tâche.
Pour résoudre ce problème, Intel a créé ce qu'elle appelle commercialement Intel Thread Director est une technologie intégrée au processeur qui analyse le comportement des processus et conseille le système d'exploitation. Concernant leur emplacement, il est important de souligner qu'il ne s'agit pas d'un remplacement du planificateur du système d'exploitation, mais plutôt d'un outil de support très performant et spécialisé.
Contrairement à ce que beaucoup de gens pensent, Le gestionnaire de threads n'est pas une puce séparée ni une « unité magique » à l'intérieur du processeur.Cela implique une logique et un microcode qui s'exécutent sur le processeur lui-même, collectant des informations de télémétrie très détaillées et les exposant au système d'exploitation via des interfaces spécifiques.
Comment Thread Director fonctionne en interne
Le fonctionnement de Thread Director est conceptuellement similaire à celui d'un Exécution spéculative contrôlée qui évalue le comportement des threads avant de choisir le noyau idéalPour ce faire, il utilise l'un des threads d'exécution d'un P-Core dans Alder Lake et Raptor Lake, tandis que dans Meteor Lake et les versions ultérieures, il s'appuie sur des E-Cores basse consommation au sein du Tile SoC.
Ce que fait cette logique, c'est surveiller les instructions, les modèles d'accès et le coût de calcul des algorithmes en cours d'exécutionIl ne se contente pas d'examiner la liste statique des instructions, mais observe le comportement réel sur une courte période de temps pour comprendre si une charge est légère, modérée, hautement parallèle, gourmande en mémoire, etc.
Cette analyse est encodée dans une structure de données associée à l'enregistrement. IA32_THREAD_FEEDBACK_CHAR, où sont stockés trois types d'informations clés concernant chaque thread.: le genre de travail, un score de performance et un score d'efficacité énergétique, le tout dans un format simple permettant une utilisation rapide par le système d'exploitation.
La première partie est une classification du type de processus en quatre classes distinctes qui aident le planificateur à comprendre quel type de noyau est le plus approprié :
- Clase 0: des threads qui peuvent être exécutés sans problème majeur sur les cœurs P et E.
- Clase 1: charges de travail qui fonctionnent nettement mieux sur les cœurs P, en raison de leurs exigences de performance maximales ou de leur faible latence.
- Clase 2: tâches pour lesquelles il est recommandé de transférer les tâches vers les E-Cores, car elles sont plus légères ou bénéficient d'une exécution efficace.
- Clase 3: processus comportant des boucles coûteuses, des temps d'attente potentiellement longs ou des comportements susceptibles de nuire à d'autres threads s'ils sont mal gérés, et qui nécessitent donc un traitement particulier.
En plus du cours, un Score de performance de 0 à 255 reflétant les performances de ce thread sur un cœur particulier.De même, un autre score de 0 à 255 est inclus pour indiquer l'efficacité énergétique associée à son fonctionnement sur ce type de cœur dans les conditions actuelles.
Grâce à ces données télémétriques, le système d'exploitation peut prendre des décisions plus éclairées concernant les threads à envoyer aux P-Cores et ceux à acheminer vers les E-Cores.non seulement en examinant le type de noyau, mais aussi la charge actuelle, le nombre de tâches actives et les priorités de session utilisateur.
L'importance de la notation et du partage de la charge
Dans les processeurs multicœurs modernes, il ne suffit plus de décider si une tâche est confiée à un cœur P ou à un cœur E : Il est également important de déterminer dans quel cœur spécifique chaque thread est placé afin d'éviter les goulots d'étranglement et la sous-utilisation des cœurs.Ici, le score de performance et d'efficacité fourni par Thread Director joue un rôle clé.
Grâce à cette évaluation numérique, le planificateur du système d'exploitation peut Répartissez la charge entre les cœurs de même type, en attribuant d'abord les threads les plus lourds aux cœurs les moins chargés. et en optimisant l'utilisation de chaque espace disponible. L'objectif est d'éviter la saturation des cœurs P tandis que d'autres sont quasiment inactifs, ou la sous-utilisation des cœurs E occupés à des tâches inutiles.
Un autre avantage est que Thread Director Cela permet de détecter rapidement quand une charge de travail est mieux adaptée à un type de cœur spécifique en fonction de son jeu d'instructions ou de ses caractéristiques.Si, lors de l'évaluation, il apparaît qu'un thread utilise des instructions qui ne sont prises en charge que par les P-Cores (par exemple, certains ensembles AVX avancés), le système d'exploitation comprend clairement que ce thread doit être exécuté sur un P-Core.
Cela est également pertinent dans les scénarios où le même processus Elle évolue au fil du temps : elle peut commencer de manière légère, passer à une phase de calcul intense, puis revenir à un état plus détendu.Le retour d'information continu permet à ces processus de migrer entre P et E en fonction de leur activité à un instant donné, sans que l'application ait besoin d'être consciente de l'architecture hybride.
En pratique, ce mécanisme vise à faire percevoir à l'utilisateur que le système Il répond avec fluidité, que vous lanciez un jeu exigeant, ouvriez plusieurs applications, lisiez du contenu ou laissiez des processus s'exécuter en arrière-plan.La distribution dynamique empêche une simple tâche en arrière-plan de consommer un cœur P entier lorsqu'un cœur E reste inactif.
Thread Director ne « commande » pas : c'est le système d'exploitation qui décide.
Le nom de l'entreprise peut être trompeur, car « Directeur » donne l'impression qu'il est aux commandes, mais en réalité, ce n'est pas le cas. Le gestionnaire de threads ne prend pas la décision finale quant à l'emplacement d'exécution de chaque thread.Le planificateur du système d'exploitation a toujours le dernier mot, utilisant ou ignorant les informations fournies par le processeur selon sa propre logique.
Cela se remarque très clairement dans les situations quotidiennes, par exemple lorsque Vous envoyez une application gourmande en ressources en arrière-plan, par exemple un rendu dans Blender, et vous continuez à utiliser l'ordinateur pour d'autres tâches.Windows interprète que ce qui se trouve au premier plan est prioritaire pour l'utilisateur, il réduit donc les ressources allouées au rendu et peut déplacer sa charge de travail principale vers les cœurs E.
De même, une application peu gourmande en ressources exécutée dans la fenêtre active peut utiliser un cœur P simplement parce qu'elle est au premier plan, même si son utilisation du processeur n'est pas particulièrement élevée. Ceci illustre que… Les critères du système d'exploitation (état premier plan/arrière-plan, priorité des processus, politiques d'alimentation) ont plus de poids que l'avis du directeur des threads..
En résumé, Thread Director fournit une sorte de « conseiller expert » au planificateur système, mais Si le système d'exploitation n'est pas en mesure de comprendre cela ou s'il décide de privilégier d'autres règles, l'allocation des threads ne sera pas optimale.C’est pourquoi il existe des différences évidentes entre Windows 10, Windows 11 et les différentes versions de Linux en ce qui concerne l’exploitation des processeurs hybrides.
Du point de vue du développeur d'applications, le plus intéressant est que Il n'est pas nécessaire de réécrire le logiciel spécifiquement pour les cœurs P et E. Dans la plupart des cas, tant que le système d'exploitation prend en charge Thread Director, la majeure partie de la charge de travail est répartie de manière assez raisonnable sans modification du code, sauf dans quelques scénarios très spécifiques.
Comportement dans les jeux et les charges de travail réelles : cœurs P, cœurs E et threads secondaires
L'une des questions les plus déroutantes concerne le comportement des jeux modernes utilisant de nombreux threads, notamment lorsque Le nombre de tâches dépasse le nombre de cœurs P disponibles, et les cœurs E commencent à être utilisés pour les threads secondaires.C'est là que la théorie rencontre la pratique.
L'idée d'Intel est que, dans un scénario typique, Les processus critiques du jeu (rendu, logique principale, physique importante) sont pris en charge par les cœurs P.tandis que les cœurs E gèrent les threads de priorité inférieure, les tâches système et les processus en arrière-plan tels que les cartes d'acquisition, les chats, les navigateurs, etc.
Lors du lancement d'un jeu, par exemple, un neuvième ou un dixième thread qui n'utilise que entre 10 % et 30 % d'un noyau P de manière intermittenteLe gestionnaire de threads peut suggérer au système d'exploitation de déplacer le thread vers un cœur performant. Le planificateur, sachant que ce thread n'est pas critique et prenant en compte son score de performance/efficacité, l'envoie vers le cœur le plus performant sans impacter l'expérience de jeu.
Il convient de noter qu'un processeur E-Core est plus modeste qu'un processeur P-Core, mais si la charge de travail est faible, Il peut occuper un pourcentage plus important du E-Core (par exemple, 60 %) et fournir les performances nécessaires sans créer de goulots d'étranglement.De cette manière, les cœurs P sont libérés pour ce qui compte vraiment, et le silicium disponible est mieux « utilisé ».
Dans la plupart des jeux bien conçus fonctionnant sous Windows 11, la combinaison de Le planificateur hybride associé à Thread Director offre un comportement stable dans environ 99 % des cas.Il existe cependant certains titres ou moteurs avec des schémas de threads quelque peu inhabituels où la distribution n'est pas aussi parfaite, mais il s'agit généralement de l'exception.
Compatibilité générale avec Windows 11 et Windows 10
L’un des points clés est que Windows 11 a été développé en collaboration directe entre Microsoft et Intel afin de tirer pleinement parti de l'architecture hybride et d'utiliser Thread Director nativement.Cela inclut un planificateur mis à jour, des politiques d'alimentation spécifiques et une intégration plus fine avec la télémétrie provenant du processeur.
Sous Windows 10, cependant, le planificateur Il n'est pas conçu dès le départ pour comprendre les cœurs P et E ni pour interpréter correctement les signaux du directeur de thread.Cela fonctionne, mais la répartition des tâches est plus « aveugle » et, par conséquent, les performances et l'efficacité peuvent être nettement inférieures à celles du même processeur sous Windows 11.
Sous Linux, l'histoire a pris une autre tournure. Initialement, Le noyau n'a pas pleinement exploité les cœurs hybrides d'Intel, ce qui a entraîné des performances nettement inférieures à celles de Windows.notamment en cas de charges de travail mixtes et de virtualisation. Au fil du temps, le planificateur du noyau et les interfaces avec Thread Director ont été perfectionnés.
Grâce aux derniers correctifs du noyau, Intel a ajouté Il offre une prise en charge avancée de Thread Director et a également travaillé sur la virtualisation de cette technologie pour les machines virtuelles (Thread Director Virtualization).Cela permet à un système invité, tel qu'une machine virtuelle Windows 11, de bénéficier d'une logique de programmation basée sur ITD même lorsqu'il s'exécute sur un hôte Linux.
Lors de tests effectués avec un processeur Core i9-13900K exécutant Windows 11 dans une machine virtuelle Linux, les mesures suivantes ont été effectuées : Amélioration des performances jusqu'à 14 % sur 3DMark grâce à une utilisation optimale de la répartition entre les cœurs P et E de la machine virtuelle.Ce gain est particulièrement intéressant pour les serveurs proposant des jeux en nuage ou plusieurs bureaux virtuels.
Directeur de la pêche à Alder Lake, Raptor Lake, Meteor Lake et au-delà
Thread Director a fait ses débuts officiels avec le Les processeurs Intel Core de 12e génération (Alder Lake), qui ont introduit pour la première fois l'architecture de bureau hybrideCes puces combinent des cœurs P hautes performances avec des cœurs E efficaces et sont fabriquées à l'aide de la lithographie Intel 7, héritant ainsi de nombreuses technologies précédentes de la marque.
Dans Alder Lake-S, conçu pour les ordinateurs de bureau et le socket LGA1700, on trouve Jusqu'à 16 cœurs (8 cœurs P + 8 cœurs E) et 24 threads au total, prise en charge de la DDR5, rétrocompatibilité avec la DDR4 et lignes PCIe 5.0 directement depuis le processeurEn plus de cela, il y a le classique Intel Smart Cache (L3 partagé) et un cache L2 réorganisé pour accueillir les deux types de cœurs.
La fonction P-Cores 1,25 Mo de cache L2 par cœur, tandis que les E-Cores sont regroupés en clusters de quatre qui partagent 2 Mo de cache L2.Au-dessus de cela, il y a jusqu'à 30 Mo de cache L3 (LLC) commun à tous les cœurs, ce qui contribue à réduire la latence et à améliorer l'échange de données entre les threads de différents types.
La plateforme ajoute également Prise en charge du PCIe 5.0 (jusqu'à 16 lignes depuis le processeur), des lignes PCIe 4.0 du chipset Z690, du Wi-Fi 6E intégré et de la compatibilité Thunderbolt 4.Bien qu'au moment du lancement, il n'y ait pratiquement pas eu de GPU et de SSD PCIe 5.0, l'infrastructure était déjà en place.
Avec Raptor Lake, Intel a perfectionné cette approche, mais le véritable changement dans Thread Director arrive avec Meteor Lake : La logique d'évaluation est ensuite exécutée sur les cœurs E basse consommation présents dans le SoC Tile, qui est le bloc ayant un accès direct à la RAM grâce au contrôleur de mémoire intégré.À partir de là, chaque processus est analysé et une décision est prise quant à savoir s'il peut être résolu dans ces E-Cores ou s'il doit être renvoyé au Compute Tile, où résident les cœurs les plus puissants.
Cela signifie que, en partant de Meteor Lake, Le Thread Director n'a plus besoin d'orchestrer constamment et directement entre « trois types de cœurs », car de nombreuses tâches peu exigeantes sont résolues avant d'atteindre les cœurs P principaux.Ce n'est que lorsqu'il est détecté qu'une charge nécessite davantage de puissance de traitement qu'elle est déplacée vers le bloc de calcul haute performance.
Intégration avec l'architecture hybride Alder Lake-S
Au sein de l'écosystème des ordinateurs de bureau, les processeurs Alder Lake-S constituent la parfaite illustration de ce que Thread Director peut contribuer à un processeur hybride avec des objectifs très clairs : jeux, création de contenu et overclocking avancé.Intel a entièrement repensé la plateforme pour tirer parti de cette combinaison de cœurs.
L'architecture hybride abandonne l'ancienne approche monolithique et propose un modèle très similaire à Architecture ARM big.LITTLE, avec des cœurs P conçus pour les charges de travail importantes et des cœurs E orientés vers l'évolutivité et l'efficacité multitâche.Cette combinaison permet une augmentation de 19 % de l'IPC par cœur par rapport à la 11e génération, selon les mesures internes d'Intel.
En termes courants, cela signifie que lors du déroulement d'une partie, Les cœurs P gèrent le moteur du jeu, tandis que les cœurs E prennent en charge les tâches en arrière-plan telles que le streaming, Discord, la navigation ou les processus système.Intel a démontré des améliorations allant jusqu'à 19 % dans les jeux et jusqu'à 84 % dans les scénarios « jeux + streaming » par rapport à un Core i9-11900K.
Ce comportement repose sur la capacité du directeur de thread à Détecter les threads critiques pour la latence du jeu et ceux qui sont des modules complémentaires pouvant être déportés vers les cœurs E sans dégrader l'expérience de jeu.Cela permet de maintenir le taux d'images par seconde et de réduire le risque de saccades lorsque de nombreuses actions se produisent simultanément.
La plateforme d'Alder Lake a également introduit De nouveaux mécanismes de gestion de l'alimentation, associant PL1 et PL2 pour maintenir les fréquences d'amplification plus longtemps, ont été mis en place.Ceci est rendu possible par l'existence de cœurs E capables de gérer des charges légères sans que les cœurs P ne soient constamment à leur limite thermique.
Overclocking, mémoire et outils associés
Les modèles Alder Lake-S étaient livrés avec une refonte des outils de réglage, à commencer par Intel Extreme Tuning Utility (XTU) 7.5, qui ajoute un contrôle spécifique sur les fréquences E-Core et une prise en charge complète de la DDR5Ceci s'ajoute à la télémétrie des cœurs P et aux nouvelles options de gestion interne du BCLK.
L'une des principales nouveautés en matière de mémoire est XMP 3.0, qui étend les profils d'overclocking à un maximum de cinq par module (trois du fabricant et deux personnalisables par l'utilisateur).Ces profils personnalisables peuvent être nommés avec jusqu'à 16 caractères, ce qui permet d'identifier rapidement le paramètre utilisé.
De plus, XMP 3.0 permet Ajustez manuellement les tensions telles que VDD, VDDQ et VPP.Offrant aux passionnés une grande liberté de manœuvre pour tirer le meilleur parti de la DDR5, la plateforme est conçue pour gérer une grande variété de charges de travail exigeantes, même si Thread Director n'agit pas directement sur la mémoire.
Il a également été ajouté La technologie Dynamic Memory Boost est une sorte de « turbo » automatique pour la RAM qui active le profil XMP lorsqu'une charge est détectée et revient à l'état de base lorsque la demande diminue.Cette logique rappelle le fonctionnement de la technologie Turbo Boost dans les processeurs et permet d'équilibrer les performances, la consommation d'énergie et les températures sans intervention constante de l'utilisateur.
Le tout est complété par le chipset Z690, qui Elle offre une prise en charge complète de l'overclocking du processeur et de la mémoire, ainsi que des lignes PCIe 4.0 et une connectivité moderne telle que l'USB 3.2 Gen 2x2 et le WiFi 6E (Gig+).L'idée est que la plateforme dans son ensemble est préparée à tirer parti du comportement dynamique que Thread Director facilite dans l'allocation des threads.
Linux, serveurs et virtualisation avec Thread Director
En dehors des ordinateurs de bureau personnels, Thread Director commence à devenir particulièrement pertinent dans Environnements Linux dans lesquels plusieurs machines virtuelles ou services de jeu en streaming basés sur le cloud sont exécutésIci, l'efficacité de l'allocation des ressources essentielles se traduit directement en termes de coûts et de qualité de service.
Intel a récemment lancé un Un ensemble de correctifs pour le noyau Linux qui améliorent considérablement l'intégration du Thread Director et la logique d'ordonnancement pour les processeurs hybrides.Ces modifications ajustent non seulement la manière dont les tâches sont réparties sur l'hôte, mais introduisent également le concept de virtualisation du directeur de threads.
Grâce à cette virtualisation, une machine virtuelle (par exemple, Windows 11 en tant qu'invité) peut Recevez et utilisez les informations de Thread Director même lorsqu'il s'exécute sur un hôte Linux.Le résultat est que le système invité peut mieux répartir ses propres charges de travail entre les cœurs P et E virtualisés, se rapprochant ainsi des performances natives.
Les données publiées montrent que, dans les scénarios de Jeux exécutés sur une machine virtuelle Windows 11 hébergée sur un serveur Linux équipé d'un processeur Core i9-13900KLe gain de performance peut atteindre 14 % dans des benchmarks comme 3DMark. Pour les fournisseurs de streaming cloud sous Linux, ce progrès est considérable.
Il est important de noter que Ces optimisations sont principalement destinées aux environnements professionnels et serveurs.Linux détient une part de marché très importante par rapport à Windows Server. À domicile, l'utilisateur moyen ne remarquera pas de grande différence, même si l'amélioration de la gestion des processeurs hybrides par le noyau est toujours une bonne nouvelle.
Limites, mythes et ce à quoi nous pouvons nous attendre
Malgré tous ses avantages, il vaut mieux ne pas trop mythifier Thread Director. La première chose à comprendre est que Il ne peut pas compenser entièrement un système d'exploitation mal optimisé ou un moteur de jeu avec une mauvaise gestion des threads.Si la charge est mal répartie par le logiciel, le processeur ne peut faire qu'un certain nombre de choses.
Il ne s'agit pas non plus d'une technologie magique qui garantit que Il n'y aura jamais de rares cas où un thread important se retrouve dans un E-Core ou qu'une tâche légère reste dans un P-Core plus longtemps que nécessaire.Le retour d'information est très rapide, mais pas instantané, et il existe toujours des schémas de chargement inhabituels qui peuvent perturber le planificateur.
Un autre mythe répandu est que, avec Thread Director, Les développeurs de jeux et d'applications peuvent complètement oublier l'architecture hybride.Bien que, dans la plupart des cas, le système d'exploitation gère tout raisonnablement bien, pour en tirer le meilleur parti, il est toujours judicieux de concevoir des moteurs qui classent mieux leurs propres threads, définissent des priorités appropriées et évitent la saturation incontrôlée.
Si l'on se projette dans l'avenir, pour les générations futures comme celle d'Arrow Lake, tout semble indiquer que… La philosophie de base de Thread Director restera inchangée, avec des améliorations au niveau de la télémétrie et de l'intégration avec les systèmes d'exploitation.L'expérience acquise à Alder, Raptor et Meteor Lake contribuera à réduire encore davantage les cas limites où l'allocation n'est pas entièrement optimale.
Au quotidien, pour l'utilisateur qui joue, monte des vidéos, diffuse en direct ou exécute des machines virtuelles, l'essentiel est de bien comprendre que Windows 11 et les versions modernes de Linux avec les derniers correctifs sont quasiment indispensables si vous voulez vraiment tirer le meilleur parti d'un processeur hybride Intel.Avec le bon système, Thread Director devient un allié discret qui contribue à un fonctionnement plus fluide et à une meilleure efficacité énergétique.
Au final, Intel Thread Director s'est imposé comme élément clé de la transition vers les processeurs PC à cœurs hétérogènes, permettant au système d'exploitation de prendre des décisions plus intelligentes quant à l'emplacement d'exécution de chaque threadBien qu'il n'exécute rien par lui-même, son analyse continue des performances et de l'efficacité fait la différence dans les jeux, le multitâche, la création de contenu et la virtualisation, à condition que le logiciel sous-jacent soit prêt à la comprendre.
Table des matières
- Qu'est-ce qu'Intel Thread Director et pourquoi existe-t-il ?
- Comment Thread Director fonctionne en interne
- L'importance de la notation et du partage de la charge
- Thread Director ne « commande » pas : c'est le système d'exploitation qui décide.
- Comportement dans les jeux et les charges de travail réelles : cœurs P, cœurs E et threads secondaires
- Compatibilité générale avec Windows 11 et Windows 10
- Directeur de la pêche à Alder Lake, Raptor Lake, Meteor Lake et au-delà
- Intégration avec l'architecture hybride Alder Lake-S
- Overclocking, mémoire et outils associés
- Linux, serveurs et virtualisation avec Thread Director
- Limites, mythes et ce à quoi nous pouvons nous attendre