Introduction
Un processeur, comme tout appareil électrique ou électronique consommant du courant, va être soumis à l’effet Joule et donc chauffer, tout comme le filament d’une ampoule. Le passage du courant va entraîner l’apparition d’une puissance thermique, résultat des différentes pertes électriques qui se produisent dans le silicium, les interconnexions en cuivre et les transistors à cause de leur résistance électrique non nulle (technologie CMOS). En 1971, les premières puces “performantes” ne contenaient qu’un très petit nombre de transistors, environ 2300 cadencés à 108Khz pour l’Intel 4004. En 2003, et pour les CPU de particuliers, on a multiplié ce nombre par 25000, pour approcher les 60 millions de transistors à 3Ghz avec le Pentium4 0.13µm et d’ici environ 5 ans, on atteindra le milliard de transistors à 20Ghz d’après les estimations (optimistes ?). Du côté des CPU pour serveurs, la tendance est bien plus marquée avec l’Itanium 2 qui plafonne déjà à 410 millions de transistors avec son cache de 6 Mo. Intel atteindra le milliard de transistors avec le Montecito en 0.09µm à double core d’exécution et gros cache d’ici 2 ans. Les prévisions à long terme sont encore plus hallucinantes avec l’entrée en matière de plusieurs milliards de transistors dans l’emploi d’énormes caches de 64Mo en 0.035µm combinés à 32 cores d’exécution d’ici 2009, pour une surface ne dépassant pas celle d’un ongle ! Les unités de calculs ne représentent qu’une faible partie du core, la majorité des transistors se trouvant dans les différents caches.Toute cette course vers la miniaturisation entraîne de sévères contraintes de fonctionnement pour les CPU à venir, et notamment au niveau de la température de fonctionnement. En effet, pour travailler correctement, les CPU doivent impérativement avoir une température (de jonction) inférieure à une limite dépendante de la technologie employée. Dans notre cas, cette limite est de 85 à 90°C. Au delà, les transistors ne peuvent plus assurer leur fonction car leur commutation est altérée, ce qui entraîne des dégradations des signaux et donc des plantages. Le problème vient du fait que l’on réduit la taille des transistors mais que le besoin en énergie pour les faire commuter ne descend pas aussi vite que la finesse de gravure. On se retrouve donc avec de plus en plus de choses à alimenter et une puissance électrique à fournir qui ne diminue pas beaucoup voire même qui augmente. On doit donc dissiper de plus en plus de puissance sur une surface qui ne varie pas énormément et qui a tendance à diminuer… La problématique qui se pose aujourd’hui est alors de savoir comment dissiper de si grosses densités de flux de chaleur dans un si petit espace.
Les premières puces n’avaient pas besoin d’être refroidies puisque leurs puissances étaient très faibles. Quelques temps après, les radiateurs en aluminium et non ventilés apposés sur le core sont apparus pour faciliter la dissipation thermique dans l’air. La complexité des puces ne cessant de croître, il a fallu passer au radiateur en aluminium ventilé pour accroître leur efficacité. Le cuivre, meilleur conducteur thermique, a fait ensuite son apparition pour améliorer l’étalement de la puissance dans la base et la répartition de chaleur d’une manière globale. On continue dans les améliorations pour mieux rejeter la chaleur loin du core avec l’utilisation des caloducs ou heat-pipes (conduit la chaleur 10 à 1000 fois mieux que le cuivre) en la répartissant de manière encore plus homogène sur tout le radiateur. Dans le même temps, le volume des radiateurs n’a cessé de croître pour avoir toujours plus de surface en contact avec l’air qui le ventile, ce qui entraîne des problèmes d’encombrement comme décrit sur ce schéma ci-dessous :
Le watercooling classique (“gros” canaux type Dangerden/Swiftech/Becooling) apportera un certain répit dans cette chasse à la température en ayant une meilleure efficacité et compacité des échangeurs à poser sur le CPU. C’est la solution que beaucoup d’entre vous ont déjà adopté pour les multiples avantages qu’elle procure. Néanmoins, pour les futurs processeurs et/ou pour encore améliorer l’intégration dans des systèmes industriels de plus en plus denses, il faut passer au stade supérieur en se dirigeant notamment vers les microstructures qui auront des caractéristiques alléchantes.
Les premières manifestations de cette volonté se ressentent par l’apparition d’un nouveau genre de waterblocks adoptant le design des microcanaux ou des microstructures (Atotech, 1A-cooling, Cooligy). Les appareils dissipant de très fortes puissances sur de petites surfaces utilisent ce genre d’échangeurs pour maintenir une température de fonctionnement raisonnable sans que le matériau qui les compose ne fonde, ne brûle ou ne se déforme sous l’effet de la chaleur créée. On peut citer, par exemple, les dispositifs soumis à des rayonnements énergétiques tels que les radars, les accélérateurs particulaires ou bien encore dans le domaine de l’électronique pour les diodes laser à forte puissance, les transistors IGBT, les thyristors, etc. La raison de leur utilisation est simple : ces structures sont très performantes et compactes car le fait d’utiliser de l’eau, aux propriétés physiques intéressantes pour la convection, permet d’avoir des dimensions très nettement inférieures à celles utilisées dans le cas de l’air.
Sans rentrer trop dans les détails, on va montrer ce qui caractérise un échangeur microstructuré pour comprendre d’où provient son efficacité thermique à l’aide de nombreux exemples. On verra également quelques unes des techniques de fabrication spécifiques pour réaliser ce genre d’échangeurs, ainsi que les différentes utilisations qu’il est possible d’en faire avec les solutions déjà existantes qui nous sont destinés. Les possibilités d’alimentation en débit et le cas particulier du diphasique seront également passés en revue. Bouclez votre ceinture on décolle…
Notions préalables
Pour ne pas avoir à rappeler certains termes techniques récurrents on les définit sans attendre.Perte de charge : ce terme désigne une résistance de passage imposée à un fluide lors de la traversée d’un système tel qu’un waterblock, un radiateur, un tuyau ou un raccord quelconque. Elle existe à cause des frottements du fluide sur les parois, des coudes, des changements de section et de tous les obstacles divers que rencontre le fluide. Cette perte de charge (= baisse de pression) va consommer une partie de la puissance que la pompe fournit au fluide pour avancer. Il en résulte une baisse de débit, c’est de la dissipation d’énergie par frottements. Autant la limiter si on le peut, on pourra ainsi utiliser une pompe plus petite qui fera le même travail avec des avantages certains. Un waterblock à forte perte de charge (Atotech, 1A-HV) ne laissera pas passer beaucoup de débit sans avoir une grosse pression en entrée, ce que ne possèdent absolument pas les pompes couramment employées. Un waterblock à faible perte de charge (Maze4) n’occasionnera pas de baisse de débit prononcée (“cassage de débit” comme on dit sur les forums). On va simplifier la notation en prenant le sigle PDC pour la désigner par la suite.
Convection : ce terme désigne le fait qu’un échange de chaleur va se faire par mouvement et transport de matière. La chaleur sera “convoyée” d’un point à un autre par une certaine masse de fluide. Ce phénomène intervient donc dans les échanges thermiques entre un fluide et un solide ou à l’intérieur d’un fluide (brassage). On parle de convection naturelle lorsque le fluide se met lui même en mouvement grâce aux différences de densités (air chaud qui monte car moins dense). On parle de convection forcée lorsque le fluide est mis en mouvement par un élément extérieur comme une pompe ou un ventilateur. La convection est donc différente d’un transfert par conduction dans les solides où il n’y a pas mouvement de matière à proprement parler.
Régime laminaire/turbulent : ces termes désignent la façon dont un fluide s’écoule dans une conduite. Un écoulement laminaire signifie que son déplacement est ordonné sans agitation comme si le fluide glissait en couches parallèles ou en lames. Le régime laminaire apparaît lorsque les vitesses sont faibles en général car ça dépend du fluide et de la taille du canal. L’écoulement turbulent apparaît à partir d’une certaine vitesse plus élevée, et plus ça va vite, plus c’est turbulent. En régime turbulent, le mouvement du fluide est alors chaotique ce qui provoque l’apparition de tourbillons de toutes tailles qui brasse le fluide. Ci-contre, l’écoulement autour d’un plomb de carabine visualisé par injection de fumée en amont de l’écoulement, on visualise très bien les différentes zones et la transition du laminaire au turbulent. Lors d’un échange thermique, il est évidemment préférable d’avoir un écoulement turbulent qui va mélanger le fluide et réduire les différences de température en son sein, ce qui augmente l’efficacité du transfert à la paroi.
Couche limite (dynamique) : dans un écoulement, ce terme désigne la zone proche d’une paroi où la vitesse est très faible. En effet, la vitesse à la paroi est nulle à cause de la viscosité du fluide et au milieu du canal elle est maximale en général. Cette vitesse ne va pas passer de zéro à son maximum instantanément mais de manière continue en formant un profil de vitesse de la manière suivante :
C’est dans cette couche limite qu’interviennent la majorité des frottements (pdc). Le transfert thermique entre la paroi et le fluide est considéré comme étant conductif et non plus convectif car l’écoulement est laminaire (vitesse très faible) ce qui ne favorise pas l’échange. La couche limite va donc agir comme un “film isolant” sur les parois du fait de sa très mauvaise conductivité thermique de 0.6W/m.K pour l’eau contre 400W/m.K pour le cuivre. La turbulence, due à une plus grande vitesse d’écoulement par exemple, viendra brasser l’eau près des parois et donc réduire l’épaisseur de cette couche limite, d’où une meilleure efficacité thermique du waterblock. Attention, la couche limite existe néanmoins toujours ! Suivant si l’écoulement est turbulent ou laminaire, la couche limite aura une épaisseur différente. Plus elle est de faible épaisseur plus le transfert thermique est efficace et cela nous arrangera bien.Unité mCE : cette unité de mesure est la forme contractée de “mètre de Colonne d’Eau”. Elle représente tout simplement une pression, puisqu’on a l’équivalence suivante : 1bar = 10.2mCE. C’est à dire que la pression à la base d’une colonne d’eau qui fait 10.2m de hauteur vaut 1bar. La hauteur de refoulement maximale (appelé “colonne d’eau” très souvent) des pompes est indiquée en mCE. Par exemple, une EHEIM 1250 a une hauteur de refoulement maximale de 2mCE soit environ 0.2bar maximum pour un débit nul.
Que sont les microcanaux ?
Le concept des microcanaux n’est pas nouveau puisqu’il a été introduit vers 1980 par les chercheurs Tuckerman et Pease. Pour démontrer le potentiel de refroidissement de ces structures, ils ont fabriqué un échangeur de 1 x 1cm² en silicium, composé de canaux et d’ailettes de 0.05mm de largeur pour une hauteur de 0.3mm, soit 50 canaux en tout. En utilisant de l’eau comme fluide caloporteur, cet échangeur était capable de dissiper 790W/cm² (8 fois plus que nos processeurs actuels) en ayant un écart maximal de température de 71°C au niveau du composant chauffant par rapport à la température de l’eau. Compte tenu du faible débit employé de 500mL/min soit 30L/h cela représente un petit exploit. La perte de charge de l’échangeur à ce débit valait 2.14bar soit 22.1mCE ce qui est considérable mais normal quand on voit dans quoi le fluide doit passer. La résistance thermique de cet échangeur est donc de 0.089°C/W, c’est à dire que pour 100W à dissiper, un core de 1cm² ne verra sa température grimper que de 8.9°C au dessus de la température du fluide, de quoi faire littéralement pâlir de jalousie les énormes blocs actuels ! Il s’en suivra des tas d’études théoriques, expérimentales et de simulations numériques pour essayer de définir des méthodes d’optimisation des designs suivant l’application à laquelle ils sont destinés (nombre de canaux, largeur, hauteur, débit, pertes de charges, résistance thermique globale, trajet de l’écoulement, etc.). Ils ont alors montré qu’on pouvait réduire la taille des échangeurs à de très petites échelles en ayant le même niveau de performances, et même bien supérieures, que les systèmes classiques.La dissipation des processeurs dernière génération est d’environ 100W/cm². Celle des diodes laser à haute puissance ou des gros transistors atteint facilement 500W/cm² et les nouvelles générations d’appareils à rayonnement X vont atteindre 2000W/cm² ! Pour que ces appareils fonctionnent correctement et ne soient pas détruits par la chaleur qu’ils génèrent, il est impératif d’évacuer la puissance thermique très efficacement pour maintenir une température de fonctionnement inférieure à 100°C généralement. Cela nécessite des systèmes de refroidissement adaptés à ces flux de chaleur très intenses, ce que les microstructures seront en mesure d’apporter, puisqu’elles vont créer un environnement très favorable au transfert de la puissance vers le fluide.
Les échangeurs à microcanaux/microstructures constituent donc une méthode innovante pour le transfert de grosses puissances thermiques issues de petites surfaces vers un fluide caloporteur. L’échangeur est couramment fabriqué dans un matériau à haute conductivité thermique comme l’aluminium, le cuivre ou le silicium dans lequel on vient creuser des canaux. Ces canaux sont réalisés par micro-usinage et autres techniques complexes de microfabrication tel que l’ablation laser, le plasma, l’épitaxie, la gravure chimique, l’érosion, le dépôt de vapeur, etc… Ils ont des dimensions de passage qui varient de 1mm à 0.001mm dans lesquels circulera un fluide chargé d’évacuer la puissance absorbée vers un radiateur ou un condenseur. Ces échangeurs combinent à la fois une énorme surface d’échange par rapport à leurs dimensions générales (ratio surface/volume important), un très grand coefficient d’échange convectif, un faible encombrement, une faible masse et enfin un faible besoin en débit (de quelques mL/min à 1L/min en général). Toutes ses caractéristiques attrayantes les rendent donc tout à fait adaptés pour être intégrés facilement et refroidir efficacement les processeurs, les lasers, les gros électro-aimants, etc.
Les différentes microstructures sont classées par ordre de grandeur du diamètre D des canaux :
Canaux conventionnels | D>3mm |
Mini-canaux | 3mm>= D >0.2mm |
Microcanaux | 0.2mm>= D >0.01mm |
Canaux transitionnels | 0.01mm>= D >0.0001mm |
Nano-canaux moléculaires | 0.0001mm>= D |
Voici ci-dessous, quelques exemples de microstructures, prises au microscope électronique, pour montrer la diversité qui existe. Cela illustre assez bien la difficulté d’étudier et de concevoir de si petits systèmes (1µm = 0.001mm) :
L’intérêt principal de ces nouveaux échangeurs est donc de disposer d’une très grande surface mouillée juste au dessus de la zone de chauffage, bien plus que dans n’importe quel waterblock traditionnel. Plus besoin d’avoir des blocs de grandes dimensions pour étaler la puissance sur une plus grande surface, ce qui entraîne évidemment une augmentation de la résistance thermique du bloc, car la chaleur doit traverser beaucoup de matière. On obtient le genre d’échangeur présenté ci-dessous (surface d’ailettes d’environ 100cm²) :
Mini-échangeur avec canaux de ~0.2mm de largeur (PNNL 1994) – Cliquez pour agrandir
Un autre atout, est le fait que ces échangeurs pourront travailler aussi bien en écoulement monophasique (1 seule phase), c’est à dire soit 100% liquide soit 100% gazeux, qu’en diphasique (2 phases), c’est à dire liquide + vapeur en même temps. Dans l’écoulement diphasique, on viendra décupler la puissance de refroidissement de l’échangeur en utilisant l’ébullition d’un fluide (changement d’état) qui s’accompagne de gros transferts d’énergie. On verra tout cela dans la suite de l’article.
Pourquoi les utiliser ?
La fiabilité et l’espérance de vie d’un composant électronique sont directement liés à son régime thermique. Les pannes sont souvent dues à une température excessive (entre 85°C et 125°C maxi) et aux variations de température dans celui-ci (stress et fatigue thermique). Pour avoir une petite comparaison, on va prendre une ampoule de 100W et un processeur dissipant 100W également pour regarder la différence au niveau thermique. L’ampoule a une surface d’environ 100cm² ce qui donne un flux thermique sur sa paroi en verre de 1W/cm², ce qui est faible, on n’aurait absolument aucun mal à la refroidir si on avait à le faire. Par contre, un processeur avec un core de 1cm² aura un flux thermique de 100W/cm² ce qui est bien plus élevé et bien plus compliqué à refroidir en tenant compte des impératifs de fonctionnement ! De plus, avec le temps, les choses ne font qu’empirer car la densité de flux de chaleur ne fait que grimper malgré une finesse de gravure et une consommation qui diminuent, car on en profite évidemment pour en mettre 30% de plus dedans…L’augmentation de ces densités de flux de chaleur s’accompagne en même temps d’une accentuation de la présence de points chauds. Quand on parle de température du core, il faut savoir que celle-ci n’est pas du tout homogène à cause de ces points chauds justement. Ce sont eux, en général, qui empêchent de monter plus haut en fréquence par exemple. En effet, si la température de la sonde interne indique 55°C, celle des points chauds peut être +10°C supérieure localement et entraîner une instabilité. Ils existent, car la répartition du cache et des unités de calcul dans le processeur provoque une accumulation de puissance en certains endroits. La densité de puissance aux points chauds est plus élevée qu’ailleurs (200-400W/cm²). Pour prendre un exemple, Cooligy annonce que leur nouvel échangeur à microcanaux permettrait théoriquement de faire face à des pics de 1000W/cm². Ca ne veut pas du tout dire qu’on a 1000W à absorber puisque c’est en rapport à une surface donnée très petite !
Ci-contre, une photo d’un processeur dont le core est recouvert de liquide thermographique noir, qui a la propriété de changer de couleur suivant la température locale. C’est un liquide souvent utilisé dans la recherche pour voir la répartition de température sur une surface puisqu’il existe une large gamme de températures couvertes. On aperçoit nettement que le core possède 2 points bleus plus chauds que tout le reste. Ce sont 2 endroits sous lesquels se trouve probablement une unité de calcul très sollicitée qui chauffe donc plus. L’une des facilités offertes par les microcanaux et par la connaissance de l’emplacement des points chauds est la possibilité de créer des zones distinctes dans l’échangeur. On pourra mettre des ailettes plus nombreuses et fines aux endroits chauds et moins nombreuses partout ailleurs. On optimise ainsi le transfert thermique en fonction d’un composant en limitant si possible les pertes de charges inutiles.
Le positionnement de la sonde interne de température est donc relatif et ne reflète pas vraiment la température la plus haute. Chez Intel par exemple, la sonde est placée dans un coin “froid” du core et un point chaud se trouve complètement à l’opposé (datasheet). La cartographie thermique est obtenue par simulation numérique à partir de la connaissance des unités qui composent le core. En effet, on ne peut pas la connaître directement par thermographie car un processeur actuel utilisé sans radiateur signifie sa destruction en quelques instants, souvenez vous des vidéos montrant un core AMD qui brûle lorsque son radiateur est enlevé… Le fait de graver directement les canaux sur le core permettrait de limiter l’influence de ces points chauds sur la stabilité. On serait alors au plus près de la source de chaleur en ayant les moyens de transférer la puissance efficacement. Cela ne signifie pas qu’il faille faire un waterblock quelconque avec une base très fine pour se rapprocher de ces points chauds ! Si l’écoulement n’est pas adapté (impact de jet ou microcanaux) pour absorber la puissance sans devoir l’étaler, l’échangeur ne vaudra pas grand chose en performances.
Pour faire face à ce dégagement de puissance, il faut avoir un échange le plus efficace possible qui puisse retarder au maximum l’influence des points chauds. Il faut leur offrir une surface de contact, la plus froide possible, sur laquelle ils vont pouvoir décharger leur puissance à une température raisonnable. Cette température de contact va être imposée par la façon dont le transfert entre le fluide et les ailettes va se faire. On sait qu’un transfert thermique convectif entre un fluide et un solide s’exprime de la manière suivante :
Q = h * S * (T°paroi – T°fluide)
Q est la puissance à dissiper en Watt, h le coefficient de transfert convectif en W/m².K, S la surface d’échange en m² et les 2 températures dans l’échangeur, celle de la paroi et la température moyenne du fluide dans la section d’étude. Pour améliorer les performances de l’échangeur et réduire l’écart de température entre la paroi et le fluide notamment, on peut donc influencer 2 facteurs :
soit augmenter h, c’est à dire augmenter le débit et le mélange en rendant l’écoulement plus turbulent, impacter plus vite, mettre des perturbateurs
soit augmenter la surface S au contact du fluide
En général, les systèmes classiques jouent sur un seul des facteurs car il n’est pas aisé de favoriser les 2 en même temps, du fait de leur influence mutuelle par interaction avec les pertes de charges par exemple. Tout le potentiel de refroidissement des microcanaux va se découvrir dans la suite de l’article puisqu’ils vont permettre d’augmenter les 2 facteurs en même temps sans s’embêter ! Ils vont apporter les 2 choses fondamentales que l’on va développer, à savoir une très grande surface de contact entre le fluide et l’échangeur ainsi qu’un coefficient h élevé permettant de transférer efficacement la puissance au fluide.
Ici c’est très simplifié mais il faut savoir que ces microstructures, contrairement au watercooling classique, posent des problèmes d’analyse pour les modéliser et les optimiser à cause de leurs tailles réduites. Même après 25 ans de recherche, il subsiste des lacunes dans la compréhension de certaines anomalies qui apparaissent dans les expérimentations. Les caractéristiques des micro-écoulements, appelée microfluidique, dans les échelles micrométriques sont très légèrement différentes des écoulements macroscopiques (à notre échelle). Compte tenu des dimensions, certaines forces intermoléculaires entre la paroi et le fluide ne sont plus si négligeables que çà et vont interférer avec l’écoulement. Il est alors important de déterminer leurs impacts sur l’échangeur. Du fait de la finesse des structures, il n’est pas évident de voir un phénomène tel que le développement de bulles de vapeur lors d’un changement de phase par exemple. Cela nécessite du matériel d’acquisition lourd et coûteux tel que des caméras CCD ultrarapides (10000im/s) couplées ou non à des lasers pour capturer le phénomène et faire de l’analyse d’image. Le reste du matériel de mesures doit également être adapté à l’échelle d’étude pour les pressions, les débits (jusqu’à 0.003mL/h de précision), les températures, etc.
Surface de contact fluide/échangeur
Réduire la taille des ailettes ou des canaux, dans un volume donné, pour un échangeur de chaleur permet d’augmenter de manière spectaculaire le rapport surface/volume de celui-ci. On peut prendre un exemple connu qui concerne notre échangeur gazeux le plus précieux, à savoir nos poumons. Malgré leurs faibles volumes, ils offrent à l’air inspiré une surface de contact avec les vaisseaux sanguins tout simplement énorme, de l’ordre de 100m² ! La taille minuscule des nombreuses ramifications permet d’avoir une structure dédiée aux échanges gazeux extrêmement compacte et performante.Dans certain cas, cela montre l’intérêt qu’il y a à réduire les échangeurs pour optimiser les transferts thermiques (automobile, turbine, microélectronique). On arrive aujourd’hui à obtenir des densités de l’ordre de 500cm²/cm³, c’est à dire qu’un cube de 1cm de coté a une surface de contact interne de 500cm² grâce à sa porosité ! Avec ce genre de structure, le Commissariat à l’Energie Atomique (CEA) arrive en pratique à échanger 20kW de chaleur entre 2 fluides passant dans ce cube sans que celui-ci n’en souffre. Remarquez bien que je n’ai pas parlé de température pour l’instant… L’échangeur suffit à maintenir le dispositif en état de fonctionnement “normal” dans un espace très restreint. On ne lui demande rien de plus, même si la température de l’échangeur est de 100°C durant le transfert. C’est une comparaison globale avec d’autres systèmes plus conventionnels qu’il faut effectuer en termes d’encombrement, d’énergie à fournir à la pompe, de coût, de fabrication, etc. La température finale n’est pas l’unique paramètre à prendre en compte dans le cas présent
Exemple :
On va calculer la surface mouillée pour voir son évolution en fonction de la taille des canaux pour un waterblock tout simple constitué d’ailettes droites. La largeur totale des canaux sera prise égale à 20mm, leurs longueurs à 20mm également et leurs hauteurs à 4mm. On fait varier la largeur des canaux que l’on usine puis on calcule à l’aide d’une formule géométrique le nombre de canaux pour chaque largeur, pour enfin tracer la surface totale offerte par les ailettes :
Plus on diminue la largeur des canaux plus la surface offerte au fluide augmente rapidement. On comprends donc aisément qu’on peut obtenir des surfaces très élevées dans un tout petit espace juste au dessus de la source de chaleur. Attention, plus la largeur des canaux diminue, plus les pertes de charges associées vont devenir élevées. Il y a donc un compromis à trouver en fonction de la pompe !
Une surface en contact avec le fluide la plus grande possible est donc recommandée si l’on souhaite transférer de la puissance d’un milieu à un autre. Tout comme les radiateurs ventilés, qui ont vu leur surface augmenter énormément ces derniers temps, les échangeurs liquides répondent strictement à la même règle. C’est toujours de la convection, seules les propriétés physiques du fluide changent. Dans le cas de l’air, la surface des radiateurs peut être plus de 3000 fois supérieur à la surface du core car l’air n’est pas un fluide très “performant” en thermique. Les fabricants de serveurs compacts ne veulent absolument pas de monstres pareils, qui ne rentreraient d’ailleurs même pas les racks prévus à cet effet. Leur utilisation par des particuliers commencent à poser problème également, car ils ont besoin d’un débit d’air de plus en plus grand et leur poids élevé ne les rend pas très sécurisants pour des sockets en plastique ou des cores fragiles.
D’après certaines études, l’aircooling va de toute façon arrêter d’évoluer car cette voie pose de plus en plus de soucis, malgré les avancées phénoménales qu’il a connu depuis ses débuts. On ne pensait même pas, il y a quelques années, pouvoir dissiper autant en aircooling, c’est dire… Certes, on pourra grappiller quelques pourcent d’efficacité mais il ne faut pas s’attendre à une révolution, la surface ne peut pas augmenter indéfiniment… Il y a néanmoins quelques techniques qui permettraient d’augmenter l’efficacité des radiateurs comme les Thermabases (chambre vapeur en guise de base) mais ça n’est même pas utilisé, sauf par Thermacore ! A la place, ils préfèrent mettre des petites lumières sur les radiateurs, c’est beau la technique… Il faut donc passer à autre chose ou alors s’acheter un ventilateur Tornado qui va débiter sérieusement mais dans 70dB de bruit !
Coefficient d’échange convectif
L’autre point fort des microcanaux est l’obtention d’un coefficient d’échange convectif h qui peut être très élevé. Ce h représente la “force” avec laquelle la puissance est transmise de la paroi au fluide. Un petit h (1 à 100W/m².K) signifie qu’elle est transmise d’une façon “non performante” et que la température des parois devra augmenter pour compenser cette faiblesse. C’est le cas dans la convection naturelle sur un radiateur passif, où le h est très petit et le radiateur très chaud. Un grand h (10000-100000W/m².K) signifie au contraire que le transfert est très efficace. C’est le cas près du point d’impact d’un jet d’eau rapide, sur une surface où la turbulence permet un fort mélange ou à l’endroit de la formation d’une bulle de vapeur lors d’un changement de phase. Voici quelques ordres de grandeurs des valeurs que peut prendre h dans différentes conditions :Ecoulement | Ordre de grandeur de h (W/m².K) |
Air CV naturelle | 5-10 |
Air CV forcée | 50-100 |
Eau CV naturelle | 500-1000 |
Eau CV forcée | 1000-5000 |
Point d’impact jet d’eau | 10000-100000 |
Ebullition de l’eau | 50000-1000000 |
En reprenant l’équation de convection donnée au dessus, on va résumer les 2 possibilités concernant h pour voir sur quoi il peut influencer. La puissance à dissiper Q est constante, la surface mouillée S est constante aussi et la température T°fluide ne change pas. Il faut donc que l’égalité de l’équation de convection soit maintenue et on remarque que seule la température de la paroi peut varier pour compenser :
Donc plus h est grand plus la surface des canaux sera froide et se rapprochera de la température du fluide, que l’on ne pourra jamais atteindre à cause de la couche limite. Un échangeur de chaleur sera donc d’autant plus performant que h est grand.
Mais à la vue de ce qu’on vient de dire, un bloc à microcanaux n’a ni impact de jet, ni débit conséquent, ni turbulence forte donc comment peut on obtenir un h élevé dans ces structures ? Sachant de plus, que l’écoulement est généralement laminaire dans les canaux alors qu’on sait que la turbulence favorise toujours les transferts de chaleur par convection ! Et bien en fait, dans le domaine des écoulements laminaires, une chose diffère légèrement… Les développeurs de ces microcanaux ont montré que h variait d’une manière inversement proportionnelle au diamètre du canal lorsque l’écoulement était purement laminaire. Autrement dit, plus le canal est fin, plus le coefficient d’échange h est grand, mais plus les pertes de charges deviennent élevées. Il ne va donc dépendre que du diamètre de la conduite comme montré sur ce graphique (échelle logarithmique) :
Tant que l’écoulement sera laminaire, une augmentation du débit n’influencera pas h et ne changera donc pas la “force de transmission” de la puissance thermique au fluide. Attention, je n’ai pas dit qu’amener plus de débit ne changera pas la performance globale du bloc ! En effet, suivant le débit injecté, la différence de température entre l’entrée et la sortie du bloc va varier. Si le débit est faible, la différence de température entrée/sortie sera grande et inversement. On pourra calculer cette différence car c’est une simple égalité thermodynamique qui traduit la conservation énergétique suivante : ce que le processeur perd en puissance est intégralement gagné par le fluide, peu importe le bloc (on négligera les pertes secondaires dans le socket et dans l’air).
Exemple :
Pour montrer l’influence de la température du fluide dans les canaux, on va prendre 2 points de mesures de température notés Te et Ts et l’on fait varier le débit qui rentre dans le canal. A une vitesse de fluide de 0.5m/s, on suppose la différence Ts – Te = 1°C. Si la vitesse passe à 1m/s la différence ne sera plus que de 0.5°C par exemple. Ca n’a pas changé la façon dont la puissance est transmise à l’eau (dans l’écoulement développé tout du moins) mais la température des parois, et donc du bloc en général, aura diminuer d’environ 0.5°C puisque le fluide se réchauffe moins :
Dans la zone laminaire développée, la couche limite remplit tout le canal. De plus, on sait que h reflète en quelque sorte l’épaisseur de cette couche limite, et que plus elle est fine, plus h est élevé. Si l’on diminue donc la taille des canaux, on diminue par la même occasion l’épaisseur de cette couche limite puisqu’elle est confinée dans le canal, et par conséquent h augmente, ça n’est pas plus compliqué… Contrairement aux waterblocks classiques à “gros” canaux, dont l’écoulement doit être turbulent pour être performant, le laminaire n’est pas trop un problème dans les microcanaux, même si un écoulement turbulent serait encore mieux ! Il est de toute façon très difficile d’être turbulent dans des canaux aussi fins, car cela nécessiterait une très grande vitesse d’écoulement, et donc un débit soutenu, qu’il n’est possible d’atteindre qu’avec une pompe délivrant une très grosse pression !
Une grosse pompe d’aquarium du style EHEIM 1250 (1200L/h maxi et 2mCE maxi) est donc purement inutile avec les microstructures, puisque ce genre de pompes ne possède pas une pression élevée en sortie (0.2bar maxi inatteignable). Elles sont juste conçues pour faire du refoulement à grand débit dans un aquarium au travers d’un tuyau (+ filtre ?), donc des pertes de charges faibles qui n’imposent pas d’avoir une pression élevée. Avec des microcanaux, la pompe travaillerait très loin de son point optimal, vibrerait sûrement, consommerait du courant pour pas grand chose, chaufferait l’eau d’autant plus et prendrait une place importante. Une petite pompe de 300 à 600L/h maxi serait bien mieux adaptée pour faire le même travail en éliminant tous les inconvénients cités. Dans le cas d’un circuit avec plusieurs blocs du type Atotech, la meilleure solution en général est de les mettre en parallèle, comme la firme Icebear le fait dans les serveurs qu’elle équipe. Cela soulagera la pompe par une réduction des pertes de charges au niveau des blocs et le débit global va grimper sans que le débit dans chaque branche ne soit vraiment altéré. C’est à voir en fonction du système entier évidemment, il n’y a pas de recette miracle…
Résistance thermique
Pour qualifier l’importance des facteurs qui agissent sur les performances de l’échangeur, il faut pouvoir décomposer leurs influences respectives en analysant ce qu’on appelle les résistance thermiques. Chacun d’entre eux pourra alors être quantifiés et comparés pour avoir une vision des points à améliorer.Définissons tout d’abord ce qu’est une résistance thermique… C’est un critère de mesure de l’efficacité d’un système de refroidissement, indépendant des éléments extérieurs (radiateur, pompe..). On qualifie donc la performance du bloc seul et non pas d’un système tout entier, qui est en général unique. Cette résistance thermique doit être combinée avec les pertes de charges pour pouvoir déterminer le meilleur échangeur à un débit donné. Elle varie suivant le débit : plus ça débite, plus elle est petite, et inversement. On l’exprime en °C/W et plus elle est faible, mieux c’est évidemment. Par exemple, si l’on dit que tel waterblock a une résistance thermique de 0.1°C/W (= augmentation de 0.1°C par watt dissipé) à 300L/h, cela signifie que pour un processeur dissipant 100W et un débit volumique de 300L/h d’eau qui rentre dans le bloc à 25°C, la température de la base en contact avec le core sera égale à 25 + 0.1 * 100 = 35°C. Il faut ajouter à cela la hausse de température due à la pâte thermique (~5 à 10°C pour 100W) pour avoir la température moyenne du core. Attention, cette hausse de température dépend de la surface du core donc du CPU ! Plus la surface de contact est étendue plus le décalage de température est faible.
On va détailler l’ensemble des résistances thermiques qui interviennent en fonction de la géométrie pour mieux comprendre le concept. Que ce soit un waterblock classique ou à microcanaux, la résistance thermique globale est la somme d’autres résistances thermiques qui sont toujours les mêmes, à savoir :
résistance de la base dite résistance de conduction (loi de Fourier)
résistance des ailettes également de conduction
résistance de convection entre la paroi et le fluide
résistance calorifique désignant le réchauffement du fluide entre l’entrée et la sortie
On va prendre pour exemple l’échangeur ci-dessous, soumis à un flux de chaleur homogène sur toute la surface de sa base avec de l’eau comme fluide caloporteur :
La résistance de la base exprime le fait que lorsque la chaleur traverse une quantité de matière, il y a une différence de température entre la face sur laquelle est appliqué le flux de chaleur (Tb) et la face que l’on souhaite refroidir (Tw). Elle dépend de l’aire de la surface, de l’épaisseur et de la conductivité thermique du matériau. Plus la base est épaisse, plus la résistante de conduction est élevée, et plus la différence de température Tb – Tw augmente. Cela nous empêche de faire tendre Tb vers Tw et il subsistera toujours le même écart quel que soit le refroidissement employé. Par exemple, si la paroi Tw est à 35°C et la différence de température qu’occasionne la base vaut 5°C pour 100W (= 0.05°C/W), la surface en contact avec le core sera à 40°C. Une base épaisse est très utile dans certains cas pour étaler la puissance, mais complètement défavorable dans d’autres car elle va engendrer une augmentation de la température du core. Son épaisseur optimale est unique pour chaque design suivant la forme de l’écoulement dans l’échangeur. Dans le cas des microcanaux, la base est de très faible épaisseur en général, juste assez pour assurer la rigidité de l’ensemble. On va donc la choisir comme étant constante et négligeable devant le reste (= 0.0015°C/W pour une base 40X40x1mm en cuivre).
La résistance des ailettes sera également négligée pour les mêmes raisons que précédemment, car elles sont très fines et pas très hautes.
La résistance de convection est due au fait que la température des parois mouillées est différente de la température du fluide, à cause de la couche limite qui agit comme un film isolant, ça se passe entre Tw et Tf. Elle diminue si h augmente donc si la taille des canaux diminue. Elle diminue également si la surface mouillée augmente. Elle est donc inversement proportionnelle au produit de h et S et elle vaut 1/(h * S).
La résistance calorifique caractérise le réchauffement du fluide entre l’entrée et la sortie de l’échangeur, à cause de la puissance qu’il absorbe. Elle va donc dépendre exclusivement du débit, qui sera conditionné par la pompe choisie et la taille des canaux. Pour une puissance donnée et si le débit est faible, on aura un petit volume par unité de temps à réchauffer donc sa température sera plus élevée que si on passe le double de volume dans le même temps. Elle se traduit par une augmentation, notée Delta Tf, plus ou moins régulière de la température du fluide tout le long du canal. Le fluide qui se réchauffe oblige les ailettes à suivre son évolution de température car on ne peut pas être plus froid que le fluide lui-même, ça parait évident ! Le principe est explicité sur le schéma ci-contre et sur une image extraite d’une simulation numérique pour un écoulement laminaire qui passe entre 2 ailettes chauffées (vue de haut en coupe) :
Le graphe ci-dessous montre la valeur de l’augmentation de température du fluide lorsqu’il passe dans un échangeur quelconque, soumis à une certaine puissance thermique, autrement dit c’est la résistance calorifique Delta Tf. C’est une comparaison entre les résultats obtenus à partir de mesures très précises que m’a fourni Bill Adams (testeur américain travaillant pour Swiftech) et mon calcul de thermodynamique pour apprécier l’excellente concordance des résultats :
Avec ce graphe, on commence à percevoir l’un des rares inconvénients qui existent pour les microcanaux. Ceux qui ont par exemple un circuit comprenant un Atotech MC1 savent que le débit global est très faible, à cause de la très importante perte de charge du waterblock. Avec une pompe EHEIM 1046 (300L/h maxi et 1.2mCE maxi), 2m de tuyau 6/8 et un radiateur, le débit qui passe dans l’Atotech est d’environ 850mL/min soit 51L/h. Avec les mêmes composants, le débit est d’environ 1.2L/min soit 72L/h avec un waterblock 1A-HV. Le débit est faible mais ils n’en sont pas moins très performants ! On comprend ici l’intérêt des tuyaux de petits diamètres pour une intégration propre, puisque l’on n’a pas beaucoup de débit à faire passer. En regardant le graphe du dessus, on se rends compte que le fluide va prendre ~2.3°C en passant à travers l’Atotech pour une puissance réelle de 130W alors qu’il ne prendrait que ~0.4°C pour un Maze4 par exemple qui permettrait un débit nettement supérieur.
Cette différence de température va avoir pour conséquence de faire grimper la température des parois et donc du bloc tout entier, ce qui peut, si l’on réduit vraiment trop le débit, donner au final un mauvais waterblock. On gagne énormément sur la résistance de convection en diminuant la taille des canaux mais on perd de plus en plus sur le plan de la résistance calorifique. Il y a donc un compromis à trouver pour atteindre le minimum de la résistance thermique globale en ayant les canaux les plus fins possibles, tout en garantissant un débit suffisant.
Voilà ! Ayant connaissance de chacune des résistances en jeu, on peut définir la résistance thermique globale de l’échangeur, notée Rth globale, en les additionnant tout simplement. La Rth globale est désignée par une formule assez connue :
Rth globale = (Température base – Température fluide) / Puissance dissipée
Attention, comme dit précédemment, on ne tient pas compte de la pâte thermique ici qui n’a rien à voir avec l’échangeur, on ne fait que qualifier le waterblock seul donc on prend la température de la base et non celle du processeur. On trace donc la courbe Rth convection + Rth calorifique (+ Rth conduction si on était pointilleux) en traduisant schématiquement tout ce que l’on vient de dire. On obtient une courbe d’allure parabolique présentant un minimum qui correspond à la plus faible Rth globale possible pour une certaine largeur de canal et c’est là qu’on a les meilleures performances :
Optimisation
L’emploi des microcanaux, et surtout la présence d’une résistance calorifique importante, vont avoir pour conséquence de ne pas donner à la surface en contact avec le core la température la plus froide et homogène possible. Il existe plusieurs méthodes pour réduire le fait que le fluide fasse grimper la température des parois, au fur et à mesure qu’on se rapproche de la sortie de l’échangeur. On va en détailler quelques unes ci-dessous.
Pour uniformiser la température de la base et réduire l’influence du réchauffement du fluide, on peut employer des microcanaux dits à “contre-courant”. L’écoulement du canal supérieur va tout simplement à l’envers, donc à contre-courant, de celui du bas. Le fluide froid qui arrive du canal supérieur va avoir tendance à refroidir le fluide du canal inférieur à l’endroit où il est le plus chaud. Les 2 flux contraires vont se partager la puissance à dissiper, ce qui réduit la différence de température sur les parois et à la sortie. La mise en oeuvre d’un tel écoulement est néanmoins difficile puisqu’il faut que les 2 canaux soient indépendants, pour que le fluide de l’un ne va pas dans l’autre, tout en étant reliés évidemment à la même entrée et sortie du bloc… Quelques différentes configurations possibles sont présentées ci-dessous :
Le moins performant est évidemment le simple canal puisqu’il encaisse à lui seul toute la puissance, donc la différence de température entrée/sortie est élevée. Le co-courant, créé par la superposition de 2 canaux identiques (style Atotech), permet d’abaisser cette différence puisque l’on a 2 fois plus de fluide qui traverse les canaux avec 2 fois plus de surface. Le contre-courant est quant à lui légèrement plus homogène que tout le reste. En imaginant la superposition de plusieurs canaux à contre-courant, en hauteur, on peut raisonnablement penser que la répartition de température sur la base sera de plus en plus homogène et froide, chaque canal annulant en quelque sorte le réchauffement de son voisin. On peut effectuer l’assemblage de simples canaux à contre-courant dans le sens de la largeur sur une seule épaisseur également dans ce genre là et c’est l’un des designs les plus performants :
On peut mixer toutes les solutions sur plusieurs étages mais ça devient très compliqué à concevoir et il faut pouvoir apprécier le gain, si gain il y a… Il y a enfin la solution d’amener le fluide directement au centre qui peut être une solution intéressante suivant la taille de l’échangeur car ça n’est pas toujours possible !
Application pour l’alimentation en fluide
Pour alimenter de genre de microstructures il faut mettre en place des pompes spéciales haute pression pour que le fluide se faufile dans ces canaux très fins. Il en existe des dizaines de sortes mais on en détaillera une en particulier pour montrer ce qu’elle peut nous apporter d’intéressant. Dans les systèmes les plus pointus, les micro-pompes peuvent être directement intégrées dans la structure de l’échangeur pour avoir la meilleure intégration possible. Elles peuvent être à engrenages (notez la miniaturisation sur la photo ci-contre), piézo-électriques, électrocinétiques, électrohydrodynamiques, à membranes, à ultrasons, magnétohydrodynamiques, etc.
Ces micro-pompes assurent le débit suffisant au bon fonctionnement de l’échangeur en permettant, selon leur type, d’atteindre des pressions jusqu’à 10bar en fonctionnement normal pour un débit de quelques mL/min à 1L/min environ. Les très faibles débits sont généralement destinés aux échangeurs qui utilisent le changement de phase d’un fluide qui bout à une température moyenne (30°C à 90°C). Un débit supérieur étant de toute façon toujours bénéfique pour un échangeur quelconque mais les pompes ne sont pas forcément capables de combattre les PDC très élevées pour faire passer plus de débit.
Une des pompes très intéressante à étudier est la pompe électrocinétique mise au point par l’université de Stanford et reprise par Cooligy :
Cette pompe tout en plexi est capable de fournir un débit d’environ 40mL/min sous une pression de 2bar, pour une différence de potentiel de 100V entre les 2 électrodes, donc assez bien adaptée aux microstructures. Le disque de verre poreux au centre fait 40mm de diamètre pour 2mm d’épaisseur avec des pores d’environ 1µm. Le fluide est tout simplement de l’eau déminéralisée dans laquelle on ajoute un produit spécial pour favoriser l’entraînement des ions. Pour comparer, une EHEIM 1250 a une pression disponible maximale de seulement 0.2 bar soit 10 fois moins. Si vous vous souvenez, il y avait eu une démonstration par Intel et Apple de cette pompe et d’un échangeur à microcanaux, le tout intégré dans un ordinateur portable, il y a plus de 1 an (description).
Ce genre de pompe présente la particularité de ne pas avoir de parties mécaniques mobiles, donc pas d’usure ou de bruit possibles. L’eau va être littéralement poussée au travers du disque en verre en utilisant le principe dit d’électro-osmose. La surface du disque est recouverte d’un composé nommé hydrure de silicium (SiOH) qui au contact de l’eau va réagir avec les ions hydroxydes OH- présents dans celle-ci pour former du Si(OH2)-, ce qui va charger la surface négativement. Les ions libres H+ de l’eau vont alors être attirés par cette surface (les contraires s’attirent) et il ne reste plus qu’à créer un champ électrique entre 2 électrodes de platine, de part et d’autre du disque, pour attirer ces ions qui s’agglutinent sur le verre vers la cathode (-). Le mouvement ionique, qui se forme, créé alors un déplacement qui emporte l’eau en la poussant à travers les minuscules pores du verre. Une réaction d’électrolyse, qui décompose l’eau, se produit en même temps donc des bulles d’hydrogène et d’oxygène vont se former à chaque électrode de chaque côté. Il faut alors les recombiner en eau liquide grâce à un catalyseur placé à l’entrée et la boucle est bouclée, la membrane ne laissant passer que le dihydrogène formé :
Ces pompes de quelques watts peuvent développer des pressions très importantes jusqu’à 500bar pour les plus optimisées, mais le débit est très faible. Plus la différence de potentiel (10V à plusieurs kV) entre les 2 électrodes sera élevée plus la pompe pourra fournir un débit et une pression conséquents. On peut ainsi diminuer la taille des canaux car ce genre de pompes peut désormais lutter contre les PDC élevées, grâce à la forte pression disponible. On pourrait ainsi intégrer les canaux de refroidissement au coeur même des puces, mais attention à prendre de sévères précautions pour éviter un encrassement des canaux. Tout comme pour les Atotech par exemple, il ne faut pas utiliser de fluorescéine et autres joyeusetés du genre car si ça se dépose dans les canaux en formant des bouchons vous allez en baver pour nettoyer correctement !
Il existe une alternative, encore un peu mieux, utilisant le même principe physique mais là ce sont les canaux qui jouent directement le rôle de pompe. Le gain de place sera évident car chaque canal va faire avancer une partie du fluide grâce à 2 électrodes placées à l’entrée et à la sortie du canal. Il suffit de multiplier le nombre de canaux pour obtenir le débit désiré comme sur le schéma explicatif ci-dessous et la photo au microscope d’une partie d’une pompe à canaux électro-osmotiques :
Utilisation des microstructures
Les microstructures peuvent être intégrées de différentes manières, à savoir dans un bloc à part comme Cooligy ou Atotech, ou directement gravées sur les composants à refroidir comme sur le schéma ci-dessous :
Dans un bloc séparé du core, on :
évite que le fluide ne le touche (réactions chimiques possibles si aucune précaution n’est prise)
a besoin d’une interface thermique (pâte thermique ou pad) pour combler l’espace entre les 2 donc pertes de performances
peut changer de bloc si cela est nécessaire
Dans des microcanaux gravés directement sur le silicium du core, on :
élimine l’interface thermique, donc augmentation des performances
est beaucoup plus près des points chauds donc stabilité accrue potentiellement
doit étudier le système pour ne pas qu’il tourne “à sec” si il y a changement de phase
Les microstructures peuvent être de formes diverses et variées, même si la majorité des échangeurs emploie des canaux avec des ailettes droites. On peut faire des mini-ailettes, des mini-canaux ronds ou non, des micro-pointes, des micro-barres, des choses complexes en 3D, etc. Une alternative intéressante est la mise en place d’un waterblock avec des feuilles trouées, puis comprimées fortement ensemble à l’aide de tirants, à la manière du 1A Cooling 1A-HV. Cela forme un réseau de canaux en 3D donnant une grande surface mouillée au dessus du core. La différence entre les 2 versions, 1A-HV et 1A-HV2, est l’ajout de rainures obliques sur les bords des microcanaux que l’on distingue en comparant les 2 blocs découpés ci-dessous. On voit assez bien le trajet de l’eau grâce au cuivre légèrement oxydé en noir à gauche (cliquez pour agrandir) :
L’eau arrive par le gros canal central et descend dans les canaux formés par un sandwich de 3 feuilles, dont la centrale est ajourée pour créer une ouverture. Le flux se sépare alors en 2 pour rejoindre les 2 canaux plus petits sur les cotés qui débouche vers l’embout de sortie OUT. Le reste des ouvertures est là pour alléger l’ensemble tout simplement et guider les 2 axes métalliques qui centrent les plaques. Seul le milieu est réalisé en feuilles de cuivre compressées, le reste c’est du laiton (même principe que les Zalman CNPS7000-Cu). Les feuilles ne sont pas soudées non plus les unes aux autres, on vient uniquement chauffer la tranche des plaques au contact du core puis la chaleur se diffuse comme dans une ailette :
Ce concept n’est pas nouveau puisque déjà en 2001, un forumer du nom de Cammo avait réalisé quasiment le même waterblock en utilisant des feuilles de cuivre de 0.7mm d’épaisseur compressées. Le résultat était très bon d’après ses dires, il s’agissait du Lamiflow (fabrication) :
L’une des techniques de fabrication très employée est similaire à celle qui permet de graver les cores des processeurs, c’est à dire par photolithographie (procédé) et attaque chimique. C’est ce que la firme Icebear emploie de manière simpliste pour creuser des canaux dans de fines plaques de cuivre qui, une fois assemblées et soudées ensemble, donneront l’Atotech MC1 (fabrication). Les canaux ont une largeur de ~0.2-0.3mm pour une longueur de ~20mm et il y en a près de 300 répartis sur plusieurs étages, ce qui représente une surface mouillée juste au dessus du core de ~50cm². C’est nettement plus que dans un waterblock classique. Rappelons qu’il y a eu environ 1000 prototypes réalisés pour trouver les meilleurs compromis au niveau taille, canaux, matériau, etc. suivant l’application. Ci-dessous à gauche, un Atotech détruit à la fraiseuse (indémontable) pour découvrir l’intérieur et à droite l’allure de l’empilage des microcanaux qui le compose :
Toujours dans le même genre d’assemblage, j’ai trouvé une firme allemande qui conçoit des échangeurs à microstructures 3D pour l’air et l’eau. Ils emploient apparemment un nouveau procédé de soudure utilisant l’oxyde de cuivre formé lors de la chauffe à 1072°C, donc très proche du point de fusion du cuivre à 1083°C, qui diffuse dans les 2 plaques (0.2 à 0.3mm d’épaisseur) en présence d’oxygène créant ainsi une soudure “parfaite”, sans interface ni métal d’apport, comme si il s’agissait d’un échangeur taillé dans la masse (Curamik). Les structures internes ainsi réalisées peuvent être très complexes. Il suffit de découper correctement les plaques à superposer, al’instar de la structure HEX ci-dessous et d’un échangeur à droite utilisé pour refroidir des composant de puissance :
Tout ceci ne va pas s’en rappeler le Icerex de Go-Cooling (allemand tous les 2, coïncidence ?) qui reprend exactement le même principe, ce qui permet d’obtenir un waterblock ultra-compact de 4.2mm de hauteur ! Ses performances ont l’air d’être très bonnes et équivalentes à l’Atotech, malgré les légères contradictions relevées dans les tests disponibles comme d’habitude… Vous l’avez sûrement déjà vu car il s’agit de celui-là :
Dans un autre registre, il y a aussi des matériaux spécialement conçus pour être poreux et remplis de canaux, comme de vraies éponges, offrant une très large gamme de densités comme présenté ci-dessous. Elles sont destinées en général pour le changement de phase car la surface obtenue assure d’excellentes conditions de départ pour les bulles :
Utilisation des microstructures (suite)
Les surfaces microstructurées suivantes vont également plutôt servir dans des échangeurs à écoulement à changement de phase. La surface “accidentée” est plus propice à l’apparition des bulles de vapeur, qui vont se créer dans ce que l’on appelle des sites de nucléation. Une surface “accidentée” permet d’augmenter le transfert thermique d’un facteur 10 par rapport à une surface polie. Les bulles ne se forment jamais n’importe où ! Voici 2 exemples de ces structures dédiées au changement de phase :
Les techniques de fabrication classiques comme le fraisage sur centre numérique sont assez limitées puisque non adaptées à la taille et à la fragilité des structures à faire. Les efforts de coupe, même faibles lors d’un usinage grande vitesse (UGV), risquent de tout démolir. En plus, les fraises de faible diamètre sont très fragiles, la moindre erreur et adieu la fraise, déjà que leur durée de vie est courte… Il existe tout de même des machines spéciales pour les micro-usinages avec des outils et des scies diamant mais c’est très spécifique.
Pour contrer ce problème, l’une des méthodes très employée est l’usinage par électro-érosion au fil. Cette technique particulière permet de créer des profils 2D ou 3D sans contact entre la pièce et le fil de coupe, donc sans aucuns efforts d’usinages ni déformations ! On peut réaliser des canaux droits jusqu’à ~0.1mm de largeur avec un fil de cuivre de 0.1mm de diamètre, mais l’inconvénient majeur est sa lenteur et donc son coût élevé. En effet, la vitesse d’avance le long du profil est de l’ordre de 1 à 10mm/min suivant le matériau et l’épaisseur. On enlève la matière en envoyant des décharges électriques entre le fil tendu et la pièce. Cela créé des étincelles qui vaporisent et éclatent le métal localement grâce aux hautes températures obtenues (+10000°C). C’est la succession de ces très nombreuses étincelles, grâce à un courant pulsé à plusieurs kilohertz, qui permet la découpe du profil programmé dans la machine. On peut ainsi découper tous les matériaux conducteurs d’électricité, mêmes les plus durs existants, sans aucune difficulté contrairement à l’usinage classique où ça se complique très sérieusement. Le fil enroulé sur des grosses bobines avance doucement pour se renouveler et ne pas casser car il subit aussi les dégradations de l’étincelage. Ce procédé se déroule en général sous un filet d’eau ou complètement immergé dans un bassin. L’eau garantit une qualité de découpe en aidant à la formation des étincelles tout en refroidissant la pièce et en évacuant les vapeurs et les copeaux. Voici un exemple de réalisation en électro-érosion par Derf One et moi-même en 0.5mm et 0.3mm (cliquez pour agrandir):
La firme Cooligy a opté pour un bloc séparé et alimenté par une pompe électrocinétique logée dans le radiateur pour éviter de prendre de la place. Celui présenté ci-dessous est pour Pentium4 avec une fixation bleue à caler dans l’attache plastique du socket. Les microcanaux se trouvent dans le tout petit carré jaune qui sera en contact avec l’IHS (Integrated Heat Spreader) du Pentium4 (cliquez pour agrandir) :
Cette miniaturisation et l’emploi de canaux très fins, de 0.05mm à 0.15mm de largeur, permettent d’avoir une surface plus de 20 fois supérieure à celle du core. On se rapproche aussi le plus possible (~1.5mm) des points chauds en ayant un écoulement très enclin à l’absorption de puissance :
Ce n’est pas cela qui va vraiment révolutionner le watercooling en terme de thermique, je pense, car on a trop de choses intercalées entre l’échangeur et le core. On a toujours l’IHS avec de la pâte thermique de chaque coté, donc une grosse résistance thermique au travers de tout ça qui empêche de descendre plus bas en température. Les waterblocks actuels à microcanaux ou à multi-impacts de jets sont déjà bien bas en résistance. Le gain majeur à faire ne se trouve plus trop dans les échangeurs eux-mêmes mais dans la qualité des surfaces en contact (planéité et rugosité) ainsi que dans les pâtes thermiques. Ca ne signifie pas qu’on doit se contenter de ce qui existe actuellement car il y a toujours moyen de faire mieux, moins cher, plus petit, etc. ! Il ne faut pas oublier non plus que le radiateur chargé d’évacuer la puissance dans l’air doit être efficace et si possible compact. Si l’on est capable de transférer 300W dans le fluide caloporteur sans aucun problème mais qu’on est incapable de les évacuer dans l’air, sans garantir une température d’eau pas trop élevée à l’équilibre, cela ne sert à rien ! On peut avoir le meilleur waterblock du monde et un radiateur pourri, le résultat final sera moyen voire nul…
Cas particulier du diphasique
Il convient quand même de distinguer 2 cas différents sur l’utilisation des microstructures suivant que l’on est en écoulement monophasique ou diphasique. Si l’on conçoit un échangeur qui n’utilise pas une ébullition partielle du fluide, la réduction du débit entraînera, à partir d’un certain seuil, une baisse de performances comme expliqué précédemment. Par contre, si l’on utilise un fluide qui bout à 35°C par exemple, vous êtes quasiment assuré d’avoir une température de fluide proche de 35°C puisqu’il commencera à bouillir si l’on dépasse cette valeur, occasionnant de gros transferts énergétiques. Lorsque vous faites bouillir de l’eau dans une casserole à l’air libre et à pression atmosphérique normale, celle-ci ne dépassera jamais les 100°C quoique vous fassiez, car un changement d’état s’opère à température constante. C’est pour cela que les échangeurs diphasiques pourront se permettre d’avoir des débits ridiculement faibles, inférieurs à 10mL/min, car le fluide possède une sorte de “limite haute de température”. Le transfert de chaleur du à l’ébullition va compenser sans difficultés le faible débit, tant qu’on ne tourne pas “à sec”, car c’est beaucoup plus puissant thermiquement mais bien plus complexe à élaborer.
Exemple :
On va calculer le volume de fluide nécessaire pour dissiper 150W réels dans un échangeur diphasique. On utilisera de l’eau (meilleur liquide pur existant pour nos applications) dont on fixe la température d’ébullition à 33°C en baissant la pression dans le circuit fermé à 0.05bar. On supposera que l’eau est déjà à 33°C dans le système pour ne pas s’occuper de l’énergie à fournir pour la réchauffer, on regarde uniquement le changement d’état. L’eau a une chaleur latente de vaporisation de 2423kJ/kg à 0.05bar, c’est à dire que pour faire évaporer entièrement 1kg d’eau par ébullition il faut lui fournir 2423kJ, ce qui est considérable. On prendra 1kg d’eau = 1L pour simplifier et on sait que 1W = 1J/s donc les 150W à dissiper représente 150J/s à transférer. Tout cela nous donne un débit d’eau de : 150 / 2423000 = 6.19E-5L/s soit 3.71mL/min ou bien encore 0.223L/h. Bilan, il ne faut qu’un volume d’eau ridicule pour absorber ces 150W par ébullition à 33°C, le potentiel est donc énorme en terme de dissipation thermique !
Un des moyens utilisant l’ébullition dans des microstructures est basé sur ce qu’on appelle les thermosiphons diphasiques. Le principe utilisé est exactement le même que celui des caloducs/heat-pipes mais en mieux. Le thermosiphon, constitué d’une enceinte hermétique qui contient le liquide (en équilibre avec sa phase vapeur), ne possède pas de pompe. Il est uniquement constitué d’un échangeur à microstructures optimisées, créées par électroérosion pour assurer les meilleures conditions d’ébullition possibles, et d’un condenseur à ailettes. La vapeur, créée dans les interstices de la microstructure lors du chauffage, va s’élever naturellement dans le tube qui la conduit au condenseur. Là, elle se liquéfie en cédant sa chaleur à l’air par l’intermédiaire des ailettes et par gravité le liquide coule à nouveau vers la chambre d’évaporation pour continuer le cycle… Ci-dessous, un prototype de thermosiphon testé lors d’une démonstration pour Hewlett Packard et Intel en Mai 2001 :
Ce thermosiphon fonctionnait avec de l’eau déminéralisée dans un circuit dépressurisé pour lui permettre de bouillir à “basse température”. Utilisé sur un Pentium4 1.5GHz (75-80W en pointe) d’un HP Vectra, ce premier prototype s’est révélé être au niveau d’un radiateur classique. Les mesures par thermocouples, à pleine charge, donnaient 56°C maxi pour 23°C ambiant avec seulement 8cfm pour ventiler le condenseur. Le thermosiphon peut même tourner en passif puisque le système s’autorégule en quelque sorte. Tant que la vapeur n’est pas liquéfiée, elle n’entre pas en contact avec l’échangeur qui est noyé (8cm³ d’eau). Le point faible est le condenseur qui n’est pas suffisamment performant et l’on comprends pourquoi en voyant sa structure… Ce genre d’applications intéressent les fabricants de serveurs car on peut s’affranchir des limites physiques des caloducs qui perdent en efficacité s’ils deviennent longs (limite sonique, d’entraînement, visqueuse, capillaire et d’ébullition). On peut ainsi déporter toutes les lignes vapeur vers un condenseur unique pour gagner en place par exemple. La seule contrainte est de respecter le sens de la gravité car il n’y a pas d’action capillaire le long des parois pour ramener le liquide comme dans un heat-pipe.
On peut se demander à ce moment là pourquoi ne pas diminuer encore plus la pression pour bouillir à 20°C par exemple. Oui mais non ! Imaginons que la température ambiante soit de 30°C à présent, le liquide va devoir bouillir car on dépasse son point d’ébullition. Or en s’évaporant, la quantité de vapeur augmente, donc la pression interne grimpe ce qui décale la température d’ébullition (à la hausse) jusqu’à retrouver un équilibre thermodynamique entre les 2 phases. Si la température ambiante augmente encore, tout le liquide pourrait se vaporiser si la pression le permet, sans jamais pouvoir se re-liquéfier. Les performances s’effondreraient puisque le thermosiphon tournerait “à sec”. Exactement comme pour un heat-pipe soumis à trop de puissance d’un seul coup, tout le liquide va se vaporiser et la température à sa base grimpe en flèche car plus de liquide disponible. Le choix de la pression initiale à une température donnée est donc capital en fonction de l’environnement ! Le contrôle de l’ébullition est aussi un élément crucial dans la performance du système, il ne suffit pas de faire un échangeur n’importe comment bien au contraire…
Conclusion
Refroidir convenablement devient un enjeu majeur face à l’évolution galopante des composants électroniques et des processeurs en particulier. Les fabricants prennent cela très au sérieux car, sans solution thermique adéquate, ils savent qu’ils ne pourront pas poursuivre une évolution normale. Il faudrait alors changer complètement la technique de fabrication des puces pour éviter de gaspiller autant d’énergie inutilement. Intel, IBM et AMD s’intéressent de près aux microstructures, chacun d’entre eux ayant fait plusieurs démonstrations en collaboration avec des instituts de recherche universitaires ou militaires (DARPA HERETIC, Stanford, Georgia Tech).
On l’a vu, les microstructures sont complexes. Les façons de les construire sont nombreuses mais leurs optimisations requièrent de solides connaissances pour appréhender chaque facteur qui influence les performances. Le développement des pompes adaptées à leur échelle et à leurs besoins est également une voie à développer pour améliorer l’intégration. Les microstructures sont donc des solutions très prometteuses en terme d’efficacité de refroidissement pour les générations de processeurs à venir. Elles ont tout pour elles : la compacité, le faible besoin d’énergie, le coût relativement faible, les énormes possibilités d’intégration, etc. L’objectif avoué des chercheurs est de pouvoir dissiper efficacement 200W en utilisant une pompe de 1W. Il reste encore beaucoup de travail à accomplir sur l’optimisation globale car la moitié du chemin est à peine accomplie… Bref, il n’y a plus qu’à attendre que tout cela prenne de l’ampleur pour révéler leur vrai potentiel. Pour ceux qui conçoivent leurs waterblocks eux-mêmes ça va devenir compliqué de faire de si petites structures si on a pas accès à des machines spéciales et à de l’érosion notamment.
A titre de comparaison, une des techniques très connue et encore plus ancienne qui permette ce genre de prouesses thermiques est l’impact de jet, utilisé dans certains waterblocks (LRWW, Cascade). Ces jets liquides peuvent atteindre 100m/s pour évacuer des densités de puissance de l’ordre de 40000W/cm² dans les laboratoires du Massachusetts Institute of Technology (MIT) ! A part ces 2 moyens, combinés ou non au changement de phase, il n’existe rien à ma connaissance, de plus efficace thermiquement parlant. Les 2 agissent sur la même chose au final : la réduction de cette satanée couche limite par écrasement ou confinement. On peut quand même citer d’autres techniques de refroidissement en développement actuellement : le spray-cooling qui est l’envoi de micro-gouttelettes directement sur le core pour les faire évaporer (utilisé dans les supercalculateurs CRAY), le direct die qui est l’impact de micro-jets liquides directement sur le core, la réfrigération thermoacoustique, les thermosiphons, la cryogénie, l’immersion, etc. La confrontation entre les échangeurs à “gros débits” et à “petits débits” a encore de beaux jours devant elle je crois ! Dans l’un des cas, on essaie de réduire au maximum ce qu’il faut fournir à l’échangeur et dans l’autre, on va jouer la démesure pour fournir toujours plus de pression et de vitesse au fluide pour impacter plus vite notamment. A chacun de voir ses priorités et son budget surtout… Faites votre choix !
Merci à LegumaN pour son aide précieuse.