Introduction, description du projet
Suite à l’article consacré aux microstructures et à leurs intérêts, nous avons voulu concevoir et fabriquer plusieurs prototypes pour analyser et comprendre en quoi certains designs sont meilleurs que d’autres. Dans cet article, une partie théorique soulèvera les améliorations qui existent entre différents designs possibles, alors qu’une partie pratique très détaillée montrera la fabrication de A à Z de quelques waterblocks et l’incidence qu’ils ont sur l’efficacité du refroidissement. Nous avons également tenu à réaliser des tests en évitant les pièges dans lesquels tombent la grande majorité des testeurs de waterblocks. Une lecture préalable de l’article sur les microstructures peut être intéressante pour comprendre certains termes employés le long de cet article et les enjeux de tout ce qui va suivre.Le projet
La première microstructure envisagée reprenait un peu le design de l’Atotech MC1, mais non pas en soudant, les unes sur les autres, des feuilles de cuivre avec des canaux gravés dessus, mais en usinant le tout dans du cuivre massif. On éliminait ainsi toutes les interfaces de soudure qui existent entre chacune des plaques, réduisant ainsi la résistance thermique globale du waterblock. Il aurait ressemblé au bloc présenté ci-dessous avec une structure en “nid d’abeilles” pour optimiser la surface mouillée dans le volume alloué juste au dessus du core. Suivant les versions, il y avait entre 200 et 400 trous d’un diamètre de 0.5 mm ou moins à percer sur une longueur de 15 à 20 mm environ. Cela représentait une surface mouillée d’environ 65 cm² juste au dessus du core, ce qui est considérable :
Pour illustrer l’intérêt de ces microcanaux en terme de surface de contact entre l’eau et le cuivre, on prends l’exemple d’une zone à percer de 20*7*20 mm comme sur l’image du dessus. En faisant un peu de géométrie, on trouve 2 conditions à satisfaire pour que les trous, suivant leur diamètre, n’interfèrent pas entre eux mutuellement. On peut ainsi calculer le nombre total de trous à percer en fonction du diamètre choisi et donc la surface mouillée qui en découle. On obtient les 2 graphes ci-dessous représentant le nombre de trous à percer et la surface mouillée associée. On constate que la surface mouillée devient de plus en plus grande rapidement au fur et à mesure que le diamètre des trous diminue.
Mathématiquement parlant, si l’on fait tendre le diamètre des trous vers 0, leur nombre et la surface mouillée deviennent infinis, le tout dans un volume fini (paradoxe fractal). En contrepartie, la perte de charge (résistance au passage du fluide) à la traversée des canaux augmente elle aussi très vite, et de plus en plus. Il devient alors impossible de faire passer un débit suffisant au travers du bloc avec une pompe d’aquarium traditionnelle. Un compromis est donc à trouver entre le diamètre des trous et la perte de charge désirée pour obtenir le maximum de performances. Voici les 2 graphiques issus des règles géométriques :
La question logique qui se pose ensuite est “comment usiner ces mini trous ?“. Le perçage normal est écarté d’office car le foret cassera presque directement lors du 1er trou vu la longueur à percer, et de surcroît dans du cuivre réputé pour ses difficultés d’usinage. J’ai donc listé les moyens susceptibles de faire ce genre de travail, à savoir : le laser de coupe femtoseconde, le jet d’eau haute pression et le micro perçage par électroérosion. J’ai ensuite contacté plusieurs boites pour avoir des renseignements plus précis sur la faisabilité et les tarifs évidemment… Il en ressort que :
- le laser impulsionnel ne permet pas cet usinage car c’est beaucoup trop profond
- le jet d’eau le permettrait mais pas dans les dimensions aussi fines que je demande, et sans garanties d’état de surface. En effet, on ne peut pas couper le cuivre au jet d’eau pure (0.1 mm de diamètre, 4000 bar et sortie à +Mach 2) car il faut charger le jet avec de la poudre abrasive pour augmenter sa puissance de coupe et malheureusement la buse en diamant employée pour cela a un diamètre de l’ordre de 1.2 mm, donc beaucoup trop gros pour ce que je veux faire
- le micro perçage est tout à fait faisable (limites du procédé à 0.02 mm de diamètre). On vient enfoncer une tige dans le bloc de cuivre et on fait circuler un courant pulsé entre les 2 pour provoquer des étincelles très petites qui vaporisent le cuivre autour de cette tige, ce qui créer le trou au fur et à mesure de la descente. L’avantage de cette méthode c’est que la précision est redoutable. L’inconvénient, c’est que c’est extrêmement long car c’est de l’usinage trou par trou et il y en a pour plus de 12 H pour 1 seul bloc ! Le prix s’en ressent évidemment puisqu’on m’a estimé le coût unitaire à environ 2000 € grand minimum…
- le moins de matière première possible (poids réduit et coût moindre)
- le moins d’usinages possibles pour aller vite (baisse du coût d’usinage)
- une taille réduite pour faciliter l’intégration dans le système
Pour aller encore plus loin, une version universelle CPU/GPU/chipset a été développée au lieu d’une version CPU seule. On évite ainsi plusieurs modèles, plusieurs programmes d’usinage et les complications qui s’en suivent. Le bloc fera 40*40*9 mm pour pouvoir s’intégrer sur n’importe quel socket, seule la fixation à appui central s’adaptera. Le bloc se compose de 2 parties en cuivre qui seront brasées entre elles pour être indémontables vu la fragilité des ailettes qui feront 0.5 mm d’épaisseur sur l’un des protos et 0.3 mm d’épaisseur sur un autre. Les canaux feront respectivement 0.5 mm et 0.3 mm également. Les ailettes sont maintenant placées en diagonale pour mettre le plus de surface utile à l’intérieur du bloc. Dans la version en 0.5 mm, la surface offerte par les ailettes juste au dessus du core est de 24 cm² et dans la version en 0.3mm de 40 cm². La base est calculée pour faire un peu moins de 2 mm, c’est par là que les performances seront les meilleures aux vues du design :
Etudes numériques, variantes et intérêts
Compte tenu du matériel d’usinage très complet à disposition, il aurait été idiot de ne pas créer au moins une variante simple à partir de la version à ailettes droites pour pouvoir les comparer. L’amélioration la plus simple à réaliser est un recoupage des ailettes à 90° pour en faire des mini-barres, des picots, des pointes, bref on emploie le terme que l’on désire. La surface reste absolument identique dans notre cas car la largeur du recoupage est égal à la l’épaisseur de l’ailette. Ce que l’on perd en surface sur la face plane des ailettes, on le retrouve par la création de 2 nouvelles surfaces à 90° (schéma ci-contre). Ces pointes seront faites sur les versions en 0.5 et 0.3 mm, elles auront donc un volume de 0.5*0.5*4 mm et 0.3*0.3*4 mm. Autant dire qu’elles sont très fragiles et qu’elles se déforment très vite au moindre choc !Il existe de nombreuses études scientifiques/universitaires qui se penchent sur le problème de l’efficacité de ce genre de structures, en fonction des ratios géométriques, pour concevoir des échangeurs de chaleur les plus performants possibles suivant les contraintes imposées. En fonction de ce que l’on souhaite minimiser ou maximiser (performance pures, puissance de la pompe, pertes de charges…), telle ou telle structure sera plus adaptée car elles ont chacune leur point fort. En ce qui nous concerne, et avec le moyen d’usinage employé (décrit dans la suite), nous serons très limité dans le choix de cette optimisation. Celles que l’on rencontre le plus souvent pour améliorer un transfert thermique sont celles-ci (vue de haut) :
Les ailettes droites font partie des solutions les moins performantes du point de vue thermique pour des raisons de couche limite, et oui toujours elle qui nous embête… Les designs en quinquonce (‘staggered‘) sont en général toujours meilleurs que les designs “en ligne” (‘inline‘) mais au prix de pertes de charges plus importantes. En effet, on ne peut pas tout avoir en même temps malheureusement car si les ailettes droites offrent les pertes de charges minimales, leur efficacité thermique figure parmi les pires designs. Au contraire, un design ‘stagerred square‘ offrira un transfert nettement meilleur mais des pertes de charges beaucoup plus élevées à cause de l’obstruction du passage pour le fluide. En règle générale, les géométries qui procurent les plus hauts coefficients de transfert thermique sont aussi celles qui procurent les pertes de charges les plus importantes ! Il est relativement difficile d’étudier ce genre de choses car le problème devient vite très complexe si l’on fait varier beaucoup de paramètres de forme en même temps. Les simulations numériques offrent la possibilité de faire des études paramétriques sur un grand nombre de facteurs et de designs différents de manière “presque” automatique pour aider à la recherche du meilleur design possible.
Il est aisé de comprendre qu’un écoulement le long de canaux tout droits ne sera pas perturbé le long de sa traversée. A partir d’une certaine distance de l’entrée du canal, l’écoulement sera entièrement développé et prendra son profil et sa vitesse de “croisière” avec une couche limite qui aura une épaisseur définie. C’est là où un design en quinconce, ou présentant des discontinuités sur les surfaces (‘inline square‘), devient intéressant. Ces ruptures de surfaces vont faire décrocher le fluide de la paroi, interrompre le développement de la couche limite en formation et provoquer la naissance d’une nouvelle couche limite à chaque arête que le fluide va rencontrer. On a déjà vu, dans l’article précédent, que le coefficient d’échange thermique h est directement lié à l’épaisseur de cette couche limite (h grand si CL petite et inversement), or à chaque arête celle-ci recommence son développement à partir d’une épaisseur nulle ! On obtient donc un h beaucoup plus élevé dans cette nouvelle couche limite en formation que dans une couche limite déjà établie dans un canal. Le transfert thermique est donc bien meilleur sur les surfaces qui engendrent ces développements périodiques de couche limite. La température des ailettes se rapproche de la température du fluide et donc la température de la base en contact avec le core diminue également.
Etudes 2D
Pour illustrer tout ceci, on réalise une petite étude rapide pour comparer nos 2 solutions. On calcule l’allure d’un même écoulement turbulent 2D dans 2 designs différents, un à canaux droits et l’autre à canaux recoupés. Pour visualiser la différence, on s’attache à regarder l’importance de la turbulence sur une même échelle. On ne s’occupera que des 2 canaux centraux car les 2 extérieurs sont soumis aux effet de bords avec les parois et n’ont pas d’intérêt dans l’explication :La différence entre les 2 est nette ! L’attaque de l’écoulement à l’entrée des canaux est identique mais la version recoupée offre des zones de turbulence élevée à chaque décrochage se produisant sur l’arête arrière d’une pointe. On obtient ainsi devant chaque arête suivante un niveau de turbulence plus important et un meilleur brassage. Cette turbulence accrue conditionne également une perte de charge plus importante, car qui dit turbulence élevée dit frottements importants et donc pertes de puissance importantes. Un waterblock présentant des ailettes droites sera en toute logique un peu meilleur si on opère un recoupage, mais attention à la rigidité structurelle de l’ensemble qui risque d’en pâtir sérieusement si la base est très fine ! Au contraire, la version droite présente un niveau peu élevé de turbulence puisqu’il n’y a pas de perturbations sur le chemin à parcourir. Les pertes de charges entre les 2 designs seront donc différentes mais pas très éloignées car le design recoupé n’est quand même pas très restrictif, c’est donc tout bénéfice à priori. On trace la pression statique (non due au mouvement) qui s’exerce sur l’une des surfaces du canal central pour les 2 designs. La perte de charge d’un bloc à un débit donné est la différence de pression statique entre l’entrée et la sortie à ce débit. Plus le débit qu’on veut faire passer dans le bloc est grand, plus la perte de charge sera élevée :
La version recoupée 2D présente donc effectivement une perte de charge plus élevée, d’environ 14000 Pa (1 bar = 100000 Pa) dans cet exemple (vitesse d’écoulement à l’entrée imposée à 1 m/s), alors que la version droite arrive à environ 9000 Pa. La perte de pression statique est linéaire le long du canal, rien de surprenant puisque on appelle ca une perte de charge régulière.
Le niveau de turbulence est le plus élevé à l’entrée du canal car le fluide subit une restriction brutale de section donc sa vitesse augmente pour s’y engouffrer. Ce niveau se stabilise de nouveau au bout de quelques longueurs parcourues lorsque le fluide atteint sa forme d’écoulement développé. On observe la même chose en sortie de canal car le fluide subit à nouveau un changement de section brutal, et les différents flux rapides issus de chaque canal viennent s’entrechoquer pour aller vers la sortie. On le voit mieux sur cette étude 3D complète de la partie fluide du bloc :
Si l’on considère maintenant l’allure de la vitesse dans ces canaux, on a logiquement la vitesse la plus élevée au centre du canal et de plus en plus faible au fur et à mesure qu’on se rapproche des parois, jusqu’à se retrouver dans la couche limite où la vitesse est extrêmement faible. On peut remarquer que du fait du calcul pour trouver l’écoulement moyen, les espaces entre les pointes sont animés d’une vitesse quasi nulle (en bleu) car le fluide n’a strictement aucune raison de circuler de haut en bas vu sa vitesse de déplacement, il va toujours au plus simple… En réalité cela est un peu différent car l’écoulement est turbulent et instationnaire, c’est à dire qu’il varie à chaque instant autour de cet écoulement moyen grâce aux tourbillons qui se forment et qui brassent tout. Dans un écoulement laminaire (non turbulent) ca serait différent par contre car le fluide n’irait pas dans les “zones mortes” entre les pointes (recirculations). Tout l’espace et toutes les surfaces seront donc constamment soumises à de l’eau “fraîche” qui arrive de l’entrée grâce à la turbulence :
Une autre variante qu’on aurait pu développer, si le temps nous l’avait permis, est celle en square staggered à 45°. L’avantage de ce design est de procurer un écoulement un peu plus efficace que dans la variante inline square grâce à une vitesse élevée sur les pointes et un brassage très intense. Il y a évidemment un prix à payer qui est une perte de charge beaucoup plus importante puisque le fluide est contraint de zigzaguer entre les pointes pour trouver son chemin tout en subissant de nombreuses collisions avec les parois. Il n’est donc pas du tout évident de dire sur l’instant si un gain en température aurait été perceptible par rapport à la version recoupée car le débit résultant serait plus faible et pourrait annuler l’efficacité accrue de l’échange thermique. Autant avoir un bloc le meilleur possible en ayant les pertes de charges les plus petites possibles, c’est toujours bénéfique. Voici la variante envisageable :
Importance de l’entrée
Un aspect intéressant qui interviendra directement dans la performance d’un bloc est le positionnement de l’entrée d’eau. On ne parlera ici que de la résistance calorifique induite par l’échauffement du fluide lors de la traversée du waterblock et rien d’autre. L’influence de cette entrée sur la forme de l’écoulement (impact de jet, vitesse élevée…) n’est donc pas le sujet d’étude dans ce paragraphe ! Si dans un waterblock à haut débit cette position n’est pas très importante, elle le devient de plus en plus quand la structure d’un bloc ne permet pas d’injecter un débit conséquent sans une grosse pression en entrée.Pour prendre un exemple, imaginons un processeur qui dissipe 100 W réels dans 2 blocs dont les débits respectifs sont 60 L/h et 300 L/h. Si le fluide est de l’eau à 25 °C en entrée, celle-ci sortira respectivement à 25+1.43 = 26.43 °C et 25+0.28 = 25.28 °C. Si le design du bloc est composée d’ailettes droites toutes simples et qu’on arrive par le côté, l’eau se réchauffe au fur et à mesure de la traversée suivant la courbe verte ou rouge en fonction du débit (schéma ci-dessous). Ca n’est pas linéaire car le flux de chaleur sur les ailettes n’est pas constant et il est plus élevé juste au dessus du core. On va simplifier en supposant que la montée en température est linéaire et en disant que l’eau qui arrive au milieu du canal aura une température augmentée de la moitié de l’écart total entre l’entrée et la sortie, soit respectivement 25+1.43/2 = 25.71 °C et 25+0.28/2 = 25.14 °C. Si l’entrée de l’eau se fait au centre par contre, on aura la température du fluide la plus faible au point le plus chaud, soit 25 °C. Vous voyez donc sûrement où je veux en venir… La différence au niveau de la température du fluide dans le cas d’un débit rapide entre une entrée latérale et une centrale ne nous fera gagner que 0.14 °C sur la température du fluide au point le plus chaud, autant dire pas grand chose. Par contre, si le débit imposé est faible du fait de la structure, cette différence grimpe à 0.71 °C et ça n’est plus si négligeable !
Ces écarts sont représentés par les flèches sur le schéma ci-dessous avec une illustration de l’augmentation de température du fluide lors du passage latéral au travers d’ailettes chauffées uniformément :
On conçoit donc aisément que plus le bloc empêchera le débit de passer, plus l’eau chauffera vite (graphe) et plus l’entrée de l’eau devra se situer à la verticale du point le plus chaud, c’est à dire le centre du bloc en général. Dans l’absolu, une entrée centrale sera de toute façon toujours meilleure que les autres solutions en ce qui concerne la température du fluide, j’insiste ! La façon d’utiliser une entrée centrale pour créer un écoulement rapide c’est encore autre chose qu’il faudrait développer. Je ne dis pas du tout qu’une entrée centrale donnera le meilleur bloc du monde, car si le design et l’écoulement ne valent rien, un simple bloc à microstructures bien conçu avec une entrée latérale éclatera votre bloc à entrée centrale ! Par contre, un bloc à microstructure à entrée centrale sera sûrement meilleur qu’un bloc à microstructure à entrée latérale suivant les débits qu’ils permettent. Le gain de température sur le fluide pourrait, pourquoi pas, compenser une faiblesse de l’échange thermique si le design du bloc à entrée centrale n’est pas très optimisé. C’est un exemple parmi tant d’autres.
Usinage des couvercles
Il y a 2 parties distinctes en cuivre à usiner : un couvercle et une base. L’usinage des couvercles est relativement simple car peu d’opérations sont nécessaires à son obtention comme voulu lors de la conception. Tout est réalisé sur un centre d’usinage à commande numérique piloté avec les parcours que Derf One a codé sur le logiciel Esprit. L’usinage est relativement rapide car les fraises employées sont assez grosses et donc les vitesses d’avances assez soutenues. Pour optimiser encore plus le temps machine, plusieurs prototypes sont faits en 1 seule passe dans une grosse barre de cuivre. Ne vous étonnez pas de voir des différences de design extérieur au cours de l’article car il y a eu plusieurs versions réalisées… A noter qu’on aurait pu aller encore plus vite si la barre de cuivre avait déjà la bonne épaisseur et largeur. Toutes les opérations sont listées dans le tableau ci-dessous (toutes les photos sont cliquables) :Descriptifs | Opérations et résultats | |
Percage des trous qui seront filetés pour des embouts cannelés filetage 1/4″ gaz | ||
Détourage des différents blocs à la fraise pour obtenir la forme extérieure finale. On arrose généreusement pour éviter que le cuivre ne colle à l’outil et pour refroidir les arêtes de coupe. | ||
Chanfrein à 45° sur toutes les arêtes pour ébavurer et perçage de l’amorce de trou au centre du bloc pour l’appui de la fixation | ||
Taraudage machine en 1/4″ gaz pour pouvoir visser les embouts sur le couvercle | ||
Usinage de la poche à l’intérieur du couvercle pour que l’eau puisse circuler, puis surfacage pour dégrossir les couvercles afin de les découper un par un | ||
Découpage de chaque bloc à la scie mécanique pour pouvoir les désolidariser et les finir en surfacage pour avoir la profondeur requise de 4 mm pour y rentrer les ailettes | ||
Surfacage avec une grosse fraise à plaquettes pour retirer ce qui est en trop et ajuster la hauteur finale de la poche intérieure du couvercle | ||
Et voilà 3 petits couvercles finis et légèrement poncés. |
Usinage des mini-canaux
L’usinage de la base va faire appel à une technique particulière qu’on appelle l’électroérosion. C’est une méthode d’usinage sans contact entre l’outil et la pièce, donc sans efforts de coupe, qui consiste à enlever de la matière en utilisant des décharges électriques en guise d’outils. Le procédé est simple : un générateur de courant va envoyer des décharges électriques entre un fin fil et la pièce à découper. Ces décharges provoquent des mini étincelles, d’une portée de 0.001 mm à 1 mm, à haute température (environ 12000 °C) qui viennent vaporiser et éclater le métal très localement tout autour du fil. C’est la succession d’innombrables étincelles, grâce à un courant pulsé à plusieurs kilohertz, qui permet la découpe de la forme que l’on désire par formation de cratères dans la pièce. Le fil de coupe, enroulé sur de grosses bobines, avance régulièrement de quelques millimètres par minute car lui aussi subit les dégradations des étincelles et il faut éviter qu’il ne casse évidemment… Le procédé se déroule sous un filet d’eau ou dans un bac où la pièce est complètement noyée. Cette eau (ou autre liquide diélectrique) aide à la formation des étincelles, tout en refroidissant la pièce et en évacuant les vapeurs et les copeaux fondus. Voici le schéma de principe très simple de l’électroérosion :Avec cette technique, on peut usiner tout ce qui est conducteur d’électricité, sans aucune limite de dureté du matériau, puisqu’il n’y a jamais contact entre le fil et la pièce. C’est tout le contraire d’un fraisage par exemple où ça se complique sérieusement lorsqu’il s’agit d’usinage de matériaux ultra durs tels que les superalliages ou les cermets ! De plus, l’électroérosion est une technique d’usinage précise (1/100ème de mm) et les états de surface peuvent aller du rugueux en ébauche (le plus rapide) à la surface d’aspect “poli miroir” à faible rugosité en fonction de l’énergie des décharges. Evidemment plus l’énergie des décharges est faible plus on avance lentement et même très lentement… On peut également faire des choses en 3D avec le fil qui se ballade dans l’espace à l’aide de machines d’érosion 5 axes pour des objets complexes générés uniquement à partir de surfaces réglées obtenues par le déplacement d’une droite (appelée génératrice).
Un petit désagrément risque d’apparaître si l’on veut faire des ailettes de très fine épaisseur (< 0.2 mm) car elles vont se tordre à cause de leur extrême finesse, même s'il n'y a pas d'efforts. Il faut alors réduire leur hauteur pour contrer cet effet indésirable (la haute température a tendance à tremper la surface du métal sur quelques microns). Il ne faudra pas seulement prendre en compte la surface mouillée totale en se disant qu'on y perd en réduisant la hauteur car plus le canal sera petit, plus l'échange thermique sera excellent à l'intérieur. Il y a une limite à trouver en fonction de la pompe qu'on souhaite employer car plus on réduit ces canaux, plus le débit atteignable sera faible sans l'aide d'une grosse pression.
De même on détaille les opérations successives de l’usinage des bases dans le tableau ci-dessous (photos cliquables) :
Descriptifs | Opérations et résultats | |
Fraisage tout simple du rectangle en diagonale qui servira à la fabrication des ailettes | ||
Placement de la base dans l’énorme bac de la machine d’érosion, qui sera entièrement noyée, puis prise de référence pour positionner le fil d’un diamètre de 0.3 mm et commencer l’érosion | ||
Début d’étincelage sous un jet d’eau puis à sec pour pouvoir voir la lumière brillante jaillir des étincelles. Le reste se fera sous l’eau sinon le découpage sera de très mauvaise qualité | ||
Découpage du 1er canal effectué puis de la totalité des ailettes. Temps d’usinage environ 35 min | ||
Résultat obtenu et comparaison de taille pour apprécier la finesse des ailettes en 0.5 mm | ||
Comparaison en taille et en volume avec le TripleS vendu par Derf One. Gains de matière, de poids, d’usinage et de place nettement visibles pour assurer de meilleures performances |
Pour arriver à ce résultat, la machine d’érosion a tournée seule une nuit entière pour découper toute la longueur, à une vitesse d’avance record de 2 mm/min ! La longueur développée du profil entier à éroder étant d’environ 1.3 m cela nous donne environ 10 heures d’érosion suivant la vitesse, sans compter les petits soucis qu’il y a eu du fait de l’âge de la machine… L’utilisation de l’électroérosion est donc très bien adaptée à la mise en place de tels designs malgré le fait que la méthode soit lente. Néanmoins, les machines d’érosion récentes iront un peu plus vite et réduirons d’autant le coût de la découpe car c’est relativement cher si vous devez les payer. Un usinage par fraise scie (genre disque Dremel mais en qualité industrielle) de très faible épaisseur peut également marcher mais il va falloir faire des essais dans du cuivre avant car cette méthode génère des efforts de coupe importants qui pourraient arracher en une fraction de seconde toutes vos ailettes si celles-ci sont trop hautes !
Après ébavurage et décrassage, on obtient 2 parties propres, bien planes et prêtes à être brasées à l’étain pour être indémontables :
Brasure, tests de débit
BrasureOn dégraisse d’abord les parties qui seront recouvertes d’étain à l’acétone et on enduit, au pinceau, le flux décapant sur toutes les surfaces destinées à recevoir la brasure pour avoir une bonne accroche. Le couvercle est posé sur la grille et en 15 secondes le flux commence déjà à bouillir et à agir, signe qu’on est déjà arrivé à la bonne température vers les 200 °C ! Attention à ce que vous faîtes car les risques de brûlures graves sont réels ! On ne tarde pas pour faire fondre le fil d’étain sur la surface et on voit que la brasure se répartit sur toute la surface toute seule grâce au décapage chimique. Les protos sont usinés de manière à laisser un jeu de 0.2 mm entre le couvercle et la base une fois assemblés pour permettre à la brasure de se répartir par capillarité entre les 2 et d’avoir un joint parfait.
Au final, on obtient un bloc tout oxydé à cause des flammes et du flux qui laisse quelques traces mais il suffit de passer le bloc à l’acide sulfurique (précautions d’usage) pour décrasser le tout et surtout l’intérieur qui devient inaccessible. Pour l’extérieur, il suffit de poncer pour faire disparaître le reste de la calamine. L’inspection par les trous filetés révèle une brasure parfaite sans débordement à l’intérieur et étanche, donc méthode approuvée à 100% !
Le plus dur est enfin terminé ! Il reste maintenant à polir, à la main, les blocs et assurer une bonne planéité à leurs bases. On va polir sur un marbre en partant de la toile émeri assez fine pour décrasser le plus gros et mettre au carré les blocs, puis polissage au P800, P1200, P1500 et enfin P2000 avec beaucoup d’eau à chaque fois pour éviter un encrassement trop rapide du papier. Toujours rincer méthodiquement le bloc entre chaque feuille car le moindre grain abrasif qui traîne sur le papier très fin et c’est la grosse rayure assurée ! Le polissage se fait toujours en ligne droite avec rotation de 90° au bout de quelques minutes, sans appuyer comme un goret, et l’effet miroir (pour le style) apparaîtra tout seul. Après de nombreuses heures de travail on arrive enfin à çà :
Tests de débit
Les raccords utilisés sont des embouts cannelés au filetage 1/4″ gaz conique pour du tuyau 12 ou 10 interne (diamètre interne raccord = 8 mm). Les pertes de charges sont quantifiées avec une pompe MJ1000 (1000 L/h max et 1.5 mCE de colonne max) un peu fatiguée (axe métal usé et paliers ovalisés) et 40 cm de tuyau 10int pour avoir une idée du débit atteignable. On obtient d’excellents débits malgré les mini-canaux du fait d’une structure très simple et sans obstacles. Cela laisse présager de bons débits également avec les versions 0.3 mm qui arriveront plus tard (une mise à jour de l’article sera sûrement faite). On peut alors être certain, grâce à cette vérification, que les performances seront encore meilleures car on double quasiment la surface mouillée et on augmentera le coefficient d’échange en même temps ! Voici en images les débits obtenus sur 2 essais différents :
Les valeurs réelles observées peuvent être comparées avec le calcul et la prédiction de la perte de charge du bloc. Les photos ci-dessus ne montrent pas la mesure en elle-même car elle s’est faite à part dans un récipient gradué par pesée du liquide (10 L pour minimiser l’erreur et plusieurs mesures moyennées). Lors de la mesure on avait donc un décalage de hauteur de 36 cm entre le rotor de la pompe et la sortie du bloc qu’il faut prendre en compte car on est en circuit ouvert et donc la gravité intervient. On reporte sur un graphe la perte de charge calculée de la structure interne du bloc, les 36 cm de dénivelé et la courbe constructeur de pompe de la MJ1000. On travaille en Pascal par simplicité avec la correspondance d’unité 100000 Pa = 1 bar = 10.2 mCE :
Le débit obtenu (appelé point de fonctionnement) se situe à l’intersection de la courbe de pompe et de la somme des pertes de charges occasionnées par le bloc et le dénivelé. Ce débit atteint environ 300 L/h mais il faut encore ajouter les courbes de pertes de charges du tuyau et des raccords ainsi que la fatigue de la pompe (débit max plus assuré ce qui change un peu sa courbe) qui viennent donc décaler le point de fonctionnement vers la gauche en se rapprochant des 240 L/h pratiques (courbe verte en pointillés). Au final on retombe sur nos pattes et cela vaut mieux…
La vitesse moyenne dans un canal à 240 L/h est donc environ égale à 1.66 m/s (20 canaux en tout) ce qui nous procure un écoulement laminaire/transitionnel si l’on tient compte uniquement du Reynolds d’un canal (Re = 1500). Il faut néanmoins voir que l’écoulement entrant par le diamètre 8 mm est turbulent (V = 1.32 m/s et Re = 10600) donc le temps que l’écoulement se développe (longueur nécessaire d’environ 40 fois le diamètre du canal) et vu la faible longueur des canaux, on peut considérer qu’on est turbulent partout et c’est tant mieux. De plus, la turbulence apparaît plus rapidement dans des canaux de taille réduite que dans des conduites classiques.
Le débit dans un circuit complet en 10int (1.5 m environ) avec un autre bloc chipset en série, un radiateur de type BIX2 et une EHEIM 1048 (600 L/h max) se révèle être également très bon :
Tests en situation réelle
Précautions sur la mesureOn va tester les 2 protos seuls sur une Epox 4PCA3+ avec un Pentium4 3.4C (SL793) pour avoir un maximum de puissance à dissiper. Le reste du circuit est composé de l’EHEIM 1048 et du radiateur de type BIX2. A noter que du fait de la présence de l’IHS (Integrated Heat Spreader) en cuivre du P4, qui fait environ 2 mm d’épaisseur au dessus du core, on pourrait aisément retirer 1 mm de base aux protos pour compenser cette épaisseur supplémentaire et améliorer les performances. Cet IHS est malheureusement très légèrement concave, ce qui nuit à un transfert thermique optimal. Il devra donc être aplani et poli plus tard (les coins rayent la base du bloc). La norme de fabrication d’Intel dit pourtant que la tolérance de planéité d’un IHS ne doit pas dépasser 0.05 mm sur toute la surface, c’est à dire que la surface réelle doit être comprise entre 2 plans parallèles séparés de 0.05 mm, on en est loin ! Un gain de plusieurs degrés sera donc à prévoir suite à cette opération (surtout visible à pleine charge). Enlever l’IHS serait encore mieux mais le core serait plus fragile lors d’un montage et d’un serrage en force.
Un point qui m’ennuie également est la relative imprécision des mesures de température absolues obtenues à partir de la sonde interne du P4. Celles-ci sont peut être irréalistes car par exemple après 4 s au démarrage de l’ordinateur, et avec de l’eau à 20 °C (tout est à cette température), la sonde affiche déjà 38 °C à 3.4 GHz @1.4 V au POST. Je sais que les montées en température dans le core peuvent être extrêmement brutales (50 °C/s) mais bon… De même lors de tests d’overclocking avec de l’eau maintenue à 0 °C constant, soit une perte de 26 °C sur la température de l’eau, la sonde interne ne rapporte qu’une baisse de 11 à 12 °C (défaut de linéarité ?) ! On ne peut qu’espérer que les écarts, et non pas les températures absolues, soient à peu près corrects dans notre zone d’étude car avec un IHS il n’est pas possible de positionner directement une ou plusieurs sondes en contact avec le core.
L’idéal serait de faire un trou en micro-percage par électroérosion (~0.3 mm de diamètre) dans la tranche de l’IHS pour y enfoncer un thermocouple ou une thermistance CTN (précision 0.01 °C) jusqu’au centre afin d’avoir un relevé et une base de comparaison nettement plus fiables ! On pourrait aussi intégrer une sonde sur l’IHS comme montré dans les datasheets Intel pour qualifier la performance d’un système de refroidissement mais elle ne me plait pas du tout car il faut usiner chaque bloc ou radiateur ventilé à tester. Ce qui m’intéresse ici en premier lieu ce sont les écarts entre les différentes versions et non pas les températures absolues. Il ne faut pas oublier que cette sonde n’est uniquement là que pour donner une indication sur la température et que son but principal est d’éteindre le processeur si une température critique d’environ 135 °C est atteinte si le ralentissement de fréquence (duty cycle) n’est pas enclenché. Une pure supposition de ma part, car je ne l’ai jamais vu faire, serait de pouvoir utiliser et calibrer la diode du P4 par un moyen externe de manière indépendante en récupérant le signal sur les pattes du processeur, à la manière des XP couplés à un MAX6658, il faut étudier les datasheets Intel pour cela… Exemple d’instrumentation externe d’un P4 :
Estimation de la puissance dissipée réelle
Par mesure calorimétrique, on va estimer la puissance réellement dissipée par le processeur overclocké ou non. La valeur obtenue sera soit légèrement sous-estimée soit légèrement surévaluée car on ne peut pas empêcher toutes les pertes thermiques dans les 2 sens, suivant si le PCB sous le socket est plus chaud ou non que le processeur avec tous les autres composants qui apportent leur lot de chaleur par conduction par exemple.Pour minimiser les pertes par convection entre le fluide et l’air, j’ai pris de l’eau quelques degrés sous la température ambiante et je la fais chauffer quelques degrés au dessus, le peu que je gagnerais au départ sera perdu ensuite quand l’eau aura une température supérieure à l’ambiant. C’est de toute façon très faible car la différence de température entre l’eau et l’air est très petite et les matériaux employés sont considérés comme isolant. Le système est très simple puisqu’il s’agit de faire tourner un certain volume d’eau en boucle sans moyen externe de dissipation, autrement dit un radiateur. Ce que le processeur dissipera dans le bloc se retrouvera donc dans l’eau sous forme d’énergie calorifique que l’on peut déduire après coup par la connaissance des propriétés physiques de l’eau et de l’évolution de la température du système. On considérera que le système (récipient + tuyaux très courts + bloc) est isolé de l’extérieur. Le volume d’eau est dans une fine poche plastique pour éviter le contact avec le récipient en PVC, l’air tout autour étant un excellent isolant thermique.
La capacité calorifique Cp de l’eau entre 21 °C et 27 °C sera prise égale à 4180 J/kg/K. C’est à dire que pour augmenter la température de 1 kg d’eau de 1 °C il faut fournir 4180 J (à 25 °C) et on sait que 1 W = 1 J/s. Le bloc de cuivre pèse 120 g et la capacité calorifique du cuivre est de 385 J/kg/K. Le système qui monte en température est l’ensemble bloc + eau, le reste est négligeable. Les volumes d’eau sont pesés pour pouvoir tout calculer par la suite. A noter qu’ici la puissance dissipée qu’on va mesurer est la somme de ce que rejette le processeur + la puissance dissipée par la pompe immergée (MJ1000). Des mesures antérieures avaient donné une dissipation pour cette MJ1000 de 5 à 7 W dans l’eau. Ce qui nous intéresse c’est la valeur globale de toute façon donc ça n’est pas très grave.
On lance 2 sessions de BurnP6 HP pour profiter de l’HyperThreading et faire chauffer au maximum le P4. Aucun autre soft testé parmi les plus connus ne fait consommer et donc chauffer plus le P4 que celui-là, exit donc 3DMark, Superpi, Prime95 et compagnie. Il suffit de relever précisément la température dans un volume connu d’eau brassée pour avoir la puissance dissipée totale. On obtient une évolution linéaire de la température puisqu’on a très peu de pertes thermiques, on ne fait qu’accumuler de la chaleur.
De tout ça, on déduit facilement les pentes de ces 2 droites. Pour le P4 à 3.4 GHz on augmente la température de 1.76 kg d’eau de 0.6 °C/min. Cela représente une dépense énergétique de (4180*1.76+385*0.12)*0.6 = 4442 J. Le volume d’eau a reçu 4442 J en 1 min soit 4442/60 = 74 J/s soit encore 74 W. On fait de même pour le P4 overclocké et on obtient (4180*1.518+385*0.12)*1/60 = 106.5 W. Cela représente une baisse d’environ 10 à 15 % par rapport aux valeurs maximales théoriques (marge d’erreur sur le relevé de température), il faut encore retirer la puissance donnée par la pompe mais ne pas oublier non plus d’ajouter les quelques watts qui s’en vont par le socket. La valeur théorique annoncée est un maximum inatteignable car il signifie que 100 % des transistors du processeur sont utilisés en même temps, chose impossible. Au mieux on tournera vers les 80-90 % de celle-ci environ. Et encore, la puissance dissipée réelle n’atteindra jamais le niveau le plus élevé qu’on mesure ici en utilisation normale car aucun programme n’engendre une charge aussi élevée que BurnP6, qui ne sert à rien sauf à comparer divers systèmes de refroidissement par exemple.
A noter qu’il y a plusieurs méthodes différentes de connaître la puissance dissipée réelle et qu’il serait intéressant de les comparer pour avoir accès à certaines informations difficilement quantifiables comme les pertes secondaires vers le socket, qui varient d’une carte mère à une autre et d’un bloc à un autre. Parmi celles qu’on peut mettre en oeuvre, on peut citer la mesure directe de la puissance consommée (tout est dégradé en chaleur, pas de travail mécanique, loi de conservation énergétique) en mesurant U et I directement à l’étage d’alimentation, ce qui nécessite de trafiquer légèrement les composants pour pouvoir y intégrer une pince ampéremétrique ou des résistances de shunt de très faible valeur. Une méthode calorimétrique directe en mesurant la température avant et après le bloc (à 0.01 °C près minimum) en connaissant le débit précisément est également réalisable. Certaines de ces méthodes ont été comparées sur le forum de Procooling avec des résultats tout à fait concordants. On peut citer par exemple qu’un Tbred 2200 MHz @1.85 V à pleine charge (BurnK7) dissipe réellement dans plusieurs waterblocks environ 80 W par 2 méthodes distinctes (il faut rajouter quelques watts qui partent dans le socket suivant la température du PCB). On est loin des 113 W théoriques…
Ecarts de températures obtenus, conclusions
Fixation du waterblock et protocole de testLes bases des 2 protos ont été polies de la même manière et avec la même rigueur. Trois montages différents pour chaque bloc, soit 6 au total, sont faits afin d’appréhender l’erreur due à la mise en place de la pâte thermique (silicone noname), au serrage et à la position du bloc pour déterminer l’impact réel du recoupage sur les températures. Le serrage sur les protos se fait à l’aide d’un appui ponctuel créé grâce à une bille de roulement insérée au centre des couvercles sur laquelle s’appuie une plaque reliée à la carte mère par les 4 vis. De cette manière, on est sûr que le bloc est toujours appuyé de manière optimale quelque soit la taille du core. Même si la plaque est légèrement bancale par rapport au socket, l’angle au niveau de la bille est extrêmement faible et ne change pas vraiment la direction de l’effort de serrage. On y gagne beaucoup au niveau répétabilité contrairement à une fixation 4 points classique qu’il faut, pour un bien, régler pendant un Full Load pour trouver le réglage optimal. Cette erreur de mise en place sera donc relativement faible ici du fait du système de fixation et de l’énorme surface de l’IHS. Dans le cas d’une fixation à 4 points sur un core d’AMD, par exemple, la variance augmente sensiblement pour atteindre environ 1.5 °C à 80 W (et bien plus si la puissance est très élevée). Le fait de ne pas tenir compte de cette simple remarque signifie déjà que votre test comparatif ne vaut pas grand chose, en dehors de tout autre considération.
On relève l’écart entre la température de l’eau à l’entrée du bloc et la température “supposée” du die (avec MBprobe pour la décimale) pour avoir une mesure indépendante du reste du circuit. La perte de charge des 2 blocs étant quasiment équivalente, le débit qui passera dans les 2 blocs sera presque le même, ce qui est encore mieux pour comparer.
Pour stresser et faire chauffer au maximum le P4, 2 sessions de BurnP6 sont lancées comme précédemment. On monte la tension au lieu de la fréquence car l’augmentation de puissance à dissiper est bien plus rapide avec du Vcore. De toute façon, mon alimentation est trop faible pour supporter la charge en Full Load imposée au delà de 3.7 Ghz @1.7 V car les voltages chutent nettement et font planter, avec une alimentation extrêmement chaude malgré la soufflerie et une odeur de brûlé très (trop) présente ! Les derniers P4C sont de véritables fournaises et des gouffres à énergie, avec la palme pour les nouveaux Prescott qui sont encore pires, merci Intel. Il est loin le temps où AMD était réputé pour chauffer plus que de raison ! On note les écarts de températures au bout de 1H30 en ayant eu un oeil sur l’évolution et la stabilisation. Le circuit contient un peu moins de 0.5 L d’eau déminéralisée, et malgré le faible volume la température ne cesse réellement de grimper qu’au bout de 1H environ, le temps de tout monter en température et d’atteindre l’équilibre. Dehors les tests faits en 15 min montre en main !
Voici donc le graphe récapitulatif des écarts de température obtenus à environ 80 W puis 115 W (théoriques) et la comparaison avec le radiateur fourni par Intel à l’efficacité douteuse (suffisante dans un usage normal) et au bruit vraiment insupportable :
Il apparaît donc clairement que la version recoupée est meilleure d’environ 1 à 1.5 °C pour 90 W réels (0.017 °C/W de mieux) que la version droite pour toutes les raisons qui ont été développées précédemment. Ce gain est de plus en plus visible au fur et à mesure que la puissance à dissiper augmente et que le moyen de dissipation est “mauvais” en terme de résistance thermique Rth (DeltaT = Rth*Puissance). C’est pourquoi on observe 15 °C de différence entre l’Intel Box et les blocs à 1.39 V (1.44 V réel par mesure sur les MOSFETs) et 20 °C de différence à 1.71 V (1.74 V réel par mesure sur les MOSFETs). Des tests en Idle ne montreront rien car tous les systèmes seront tassés du fait d’une puissance ridicule à dissiper. Les tests ayant été étalés sur 4 jours et les blocs testés dans n’importe quel ordre, on peut considérer que les conclusions sur le design sont valables et reproductibles.
Le radiateur Intel, quant à lui, est très loin derrière et complètement largué à 1.71 V, avec une température processeur de 73 °C pour de l’air aspiré à 32 °C (relevée par une sonde à 2 cm devant les pales). On ne prend pas la température ambiante qui n’a strictement rien à voir avec la température de l’air qui ventile le radiateur ! Celle-ci va varier dans le temps suivant le flux d’air à l’intérieur de la tour et fausser toutes les conclusions. Autant dire que le radiateur était très chaud, tout comme l’étage d’alimentation où les selfs de filtrage et les MOSFETs dépassaient les 80 °C… alors que le processeur est loin de sa limite d’overclocking ! Heureusement les MOSFETs peuvent atteindre allégrement les 130 °C mais la stabilité des tensions en pâtit légèrement du fait d’une résistance interne grandissante qui tend à faire dissiper encore plus. Les condensateurs d’entrée/sortie quant à eux perdent vite en durée de vie si leur température est trop élevée et ici ils atteignaient 55 °C au moins…
Les écarts de températures obtenus sembleraient (notez le conditionnel) être proches de la réalité si l’on fait une analogie grossière avec les résultats pratiques de Phaestus sur Procooling. En utilisant un Tbred dont la diode interne a été calibrée dans un bain thermostaté et dérivée sur un circuit externe (résolution à 0.125 °C), les écarts T°cpu/T°eau qu’il obtient à puissance équivalente sont globalement du même ordre de grandeur (de 10 °C à 15 °C suivant le bloc, le débit et à 75 W environ). Seul l’emploi d’autres sondes permettrait de déceler un éventuel écart sur le P4 par rapport à ce que nous donne la carte mère. Le problème se situe plus au niveau du circuit électronique utilisé pour convertir la grandeur de sortie fournie par la sonde que la sonde elle-même, qui peut être connue précisément. L’influence du BIOS est également à prendre en compte car on peut lui faire dire n’importe quoi et certains constructeurs ne se gênent pas pour faire perdre 10 °C d’un BIOS à un autre à cause de consommateurs mécontents, c’est du bidouillage tout çà… Il ne faut pas oublier encore une fois que l’IHS compte pour une bonne partie de l’écart obtenu du fait de l’épaisseur supplémentaire et des 2 joints thermiques entre le core/IHS et l’IHS/bloc. L’enlever définitivement réduirait l’écart à haute puissance d’environ 5-6 °C, ce qui n’est pas négligeable ! Les écarts sont quand même très satisfaisants quand on sait que le 3.4C est le dernier de la gamme des Northwood en 0.13 µm et que par conséquent c’est celui qui chauffe le plus. Autre info intéressante : il faut savoir qu’avec les solutions actuelles de refroidissement, le joint créé par la pâte thermique représente environ 50 % de l’écart total de température, pour un core de 100 mm² environ en contact direct avec un bloc. Il y a 4 ans, celui-ci représentait beaucoup moins car les refroidisseurs étaient moins performants qu’aujourd’hui.
A cet écart il faut ajouter celui entre l’eau et l’air qui sera plus ou moins élevé suivant votre radiateur/ventilation. Pour ma part, il atteint 8.2 °C à la plus grosse charge avec 2 ventilateurs 120 mm en 5 V et descend à 4.6 °C en 12 V mais bonjour le bruit (ventilateurs Evercool 80 cfm max) ! Cet écart peut être nettement plus élevé si le radiateur est tout petit (BI, BIX), de mauvaise conception, en aluminium/acier, mal ventilé, etc. Il faut donc prévoir une très bonne solution de refroidissement pour l’eau quand on commence à taquiner les hautes puissances car tout a son importance. Même si votre bloc est excellent, les performances globales seront bridées par un mauvais radiateur si vous n’y prêtez pas attention. Si c’est pour absorber très efficacement la chaleur du processeur en ayant le tout dernier 1A-trucmuche mais être incapable de la dissiper dans l’air correctement, c’est complètement absurde. Ceux qui clament des températures très basses et complètement farfelues n’ont qu’à bien se tenir…
Conclusions
Le bloc réalisé satisfait donc à toutes nos exigences ! Du fait de sa forme actuelle, il est légèrement mieux adapté à des cores sans IHS du type XP/Duron (prévu à l’origine pour un Barton avant de changer de plateforme) mais une nouvelle version est dans ses premiers développements pour être plus efficace, plus petite et plus adaptée à la condition des P4 et des Athlon64 dotés d’un IHS. En parallèle, un projet de “direct die” (eau projetée directement sur l’IHS) un peu spécial est en phase d’étude (assez avancé) et sera réalisé si j’ai le temps et les moyens de le faire correctement, et là aucun bloc ne fera mieux !
Un des axes de recherche que j’aimerais également développer serait de construire directement des microcanaux sur l’IHS en cuivre en usinant par électroérosion encore une fois. Son épaisseur étant de 2 mm environ, on a une hauteur largement suffisante pour faire des ailettes et ainsi éliminer une interface thermique inutile avec un bloc extérieur. On aurait ainsi un excellent échange thermique à la paroi du fait des canaux vraiment minuscules (1*0.2 mm par exemple) et des pertes de charges assez élevées. Le couvercle pourrait alors être simplement en plexi et démontable de manière aisée pour faire de la maintenance (filtration obligatoire !). Et pourquoi ne pas pousser le vice jusqu’à commencer à développer un échange thermique avec changement de phase couplé aux microcanaux sur l’IHS pour décupler la puissance de refroidissement, mais bon c’est beaucoup plus complexe à mettre en place malheureusement… Vivement les versions de ces protos en 0.3 mm qui feront encore mieux !
Encore merci à Derf One pour son implication et l’excellent travail qu’il a fourni ;).