L'ordinateur qui va tout changer

Blog

MaisonMaison / Blog / L'ordinateur qui va tout changer

May 11, 2023

L'ordinateur qui va tout changer

Huit ans de préparation, Aurora, une nouvelle machine puissante à l'Argonne National

Après huit ans de développement, Aurora, une nouvelle machine puissante du Laboratoire national d'Argonne, pourrait aider à résoudre certaines des questions les plus pressantes de notre époque. Bienvenue dans la nouvelle ère du supercalcul.

Si vous êtes le genre de personne qui réfléchit à ce que vous auriez pu faire de plus de votre vie, j'ai un conseil : ne parlez pas à Rick Stevens. À peine 15 minutes après le début d'une conversation avec lui, je me sens déjà comme un idiot. Extérieurement, j'établis un contact visuel direct, je prends des notes, je mets mes doigts sur mes lèvres pour signaler que je m'accroche à chacun de ses mots ; intérieurement, je pense au nombre d'heures que j'ai passées sur YouTube à revoir des extraits des Sopranos.

Stevens est directeur de laboratoire associé pour l'informatique, l'environnement et les sciences de la vie au Laboratoire national d'Argonne dans la banlieue sud-ouest de Lemont. Le titre obscurcit verbalement ses réalisations. Stevens, qui a commencé la programmation informatique à 14 ans, travaille à Argonne (le premier laboratoire national du pays, créé en 1946 et exploité conjointement par le Département américain de l'énergie et l'Université de Chicago) depuis 1982, alors qu'il était encore étudiant au Michigan. État. Après avoir rejoint Argonne, il a obtenu un doctorat en informatique à Northwestern. Au cours des 40 dernières années, il a été une figure clé des progrès significatifs de l'Argonne dans le domaine du calcul intensif.

Par une journée ensoleillée de novembre, je suis assis dans le bureau de Stevens pour en savoir plus sur le supercalculateur Aurora, le prochain grand bond en avant d'Argonne en termes de vitesse et de puissance de calcul. Le laboratoire a travaillé sur des superordinateurs pendant presque toute son histoire, dans un état constant de conceptualisation, de formulation, de collecte de fonds, de conception, de construction, de test et d'exploitation. Mais dans une période d'innovation inexorable de plusieurs décennies, Aurora est une étape unique. Lorsque la machine sera entièrement construite et opérationnelle – les responsables d'Argonne espèrent le début du printemps – ce sera l'un des premiers supercalculateurs au monde à fonctionner à l'exascale, une nouvelle étape sans précédent de l'informatique.

Et c'est pourquoi je suis venu parler à Stevens. Il mesure plus d'un mètre quatre-vingt, avec de longs cheveux bruns fantastiques qui lui tombent sur les épaules et une silhouette large, comme s'il aurait pu jouer au football. Le jour où je le rencontre, il porte des lunettes, des sandales Birkenstock avec des chaussettes, un pantalon de yoga noir fluide et un sweat ample.

La première question que je lui pose : Quel est l'impact d'Aurora sur notre vie de tous les jours ?

« Quel est l'impact ? » Stevens répond, de manière rhétorique et épuisée. "Eh bien, vous pouvez peut-être en avoir une idée de l'impact que le supercalcul a eu sur le monde au cours des 20 dernières années. Tout ce que nous savons sur le climat à grande échelle provient de simulations climatiques sur des superordinateurs. Ce que nous savons sur l'humain Le génome provient d'une analyse massive de données sur de gros ordinateurs. Tout ce qui se passe en ce moment dans l'IA se passe sur des ordinateurs à grande échelle. L'idée même que vous pourriez construire un système capable de conduire une voiture est le résultat d'énormes quantités de calcul . Notre capacité à concevoir des réacteurs, notre capacité à proposer de nouvelles batteries, tout cela est le résultat de l'informatique."

Vous savez, juste le climat, le génome humain, l'énergie nucléaire, les robots.

"La machine exascale en est la dernière version", poursuit Stevens, "et une machine exascale est un million de fois plus rapide que les machines que nous avions au tournant du siècle."

Pourtant, comment pourrions-nous assister à un "million de fois plus rapide" empiriquement ? Comment serions-nous capables de voir cela matériellement dans notre vie de tous les jours ? Je ne voulais pas répéter ma question initiale, alors je la pose sous la forme d'un suivi : l'informatique exascale va exécuter des fonctions que nous ne pouvons pas exécuter maintenant, n'est-ce pas ?

"Ouais, c'est un million de fois plus rapide", répond Stevens, une autre façon de dire, Duh !

Puis il fait quelque chose que personne que j'ai jamais interviewé n'a fait auparavant : il m'explique comment je dois écrire mon histoire.

"Les rapports de gee-whiz sur ces machines ne sont pas très éclairants", déclare Stevens. "Les journalistes aiment le faire parce que les gens se sont tellement habitués à l'idée que" j'ai un téléphone et il parle à un nuage géant et il y a des milliers de processeurs là-dedans ", et c'est vrai. L'industrie l'a construit au cours des 15 dernières Nous construisons ces machines scientifiques parce qu'elles se concentrent sur des problèmes scientifiques, alors que les nuages ​​​​alimentent, vous savez, les serveurs Twitter, Facebook et Discord et toutes sortes de choses aléatoires, de fausses nouvelles et tout ça.

Stevens roule des yeux à plusieurs reprises alors qu'il livre ce baratin, un mur de livres épais sur l'astrophysique et l'informatique avancée derrière lui. Puis, comme le sorcier dans Fantasia conjurant des pouvoirs au-delà de la connaissance des simples mortels, il devient passionné.

"Vous ne concevez pas un avion sans supercalculateurs. Vous ne concevez pas un moteur d'avion sans supercalculateurs. Vous ne concevez plus une voiture sans supercalculateur. Vous ne concevez même pas les mélanges dans l'essence sans supercalculateur. Vous pouvez essayez probablement de nommer quelque chose, presque n'importe quoi de valeur, et cela va avoir ses racines dans une sorte de système de simulation informatique ou d'analyse de données haut de gamme."

Je commençais à voir ce que Stevens voulait dire quand il rejetait la plupart des histoires sur les ordinateurs. Mais parce que j'ai probablement semblé avoir l'intellect d'un petit enfant, il me dit carrément : "La vraie histoire est que vous avez une communauté de personnes qui travaillent à faire progresser l'informatique haute performance depuis des décennies. Et cela alimente l'ensemble économie."

Je commence à réaliser qu'il est frustré non pas par moi en soi, mais par ce que les ordinateurs représentent pour le grand public. Plutôt que de se concentrer sur la façon dont les ordinateurs ont collectivement profité à l'humanité, la conversation autour d'eux a tendance à se concentrer sur la façon dont ils rendent nos vies plus pratiques. Dans ce cas, Stevens a raison : ce n'est pas une histoire sur la façon dont Aurora pourrait changer nos vies, mais comment elle pourrait changer le monde.

Avant de commencer à en apprendre davantage sur Aurora, ma compréhension de l'histoire de l'informatique était certes réductrice. J'ai supposé qu'il s'agissait plus ou moins de la machine de Turing, suivie d'énormes mécanismes volumineux qui allaient zapper et claquer et étaient trop encombrants pour être utilisés par qui que ce soit d'autre que des agents du gouvernement, des scientifiques russes et des employés d'IBM, suivis par des PC et Bill Gates et Internet, puis par Steve Jobs et ses iPhones, et maintenant je peux demander à mon HomePod de lire la BBC pendant que je navigue sur le Web à la porte de mon réfrigérateur, et bientôt les robots feront tout pour nous avant que nous réalisions que nous sommes vivre dans une simulation géante. Bien sûr, c'est évidemment plus compliqué que cela. Mais est-ce vraiment ?

Bien sûr, c'est vraiment le cas. L'histoire de l'informatique est vaste et multiforme et compliquée avec diverses classes de machines, dont les supercalculateurs ne sont qu'un. Leur histoire remonte aux années 1950 et commence sur le sol américain, lorsque Seymour Cray a rejoint un groupe d'ingénieurs de la Control Data Corporation à Minneapolis pour construire le CDC 1604, qui a fait ses débuts en 1960. Il y a débat pour savoir s'il s'agissait vraiment du premier supercalculateur. , mais ce qui est incontestable, c'est qu'il s'agissait de l'ordinateur le plus rapide au monde et qu'il a déclenché une quête mondiale pour en construire de plus en plus rapides.

À la fin des années 1970, les architectes de supercalculateurs ont rencontré un problème : leurs unités centrales de traitement, ou CPU, avaient atteint une vitesse d'un mégahertz, ce qui signifie qu'elles pouvaient parcourir un million de fonctions par seconde, et les informaticiens ne pensaient pas qu'ils pourraient aller plus vite. La solution était le traitement parallèle, c'est-à-dire l'utilisation de plus en plus de processeurs pour rendre un ordinateur plus rapide et meilleur.

"C'est un peu comme penser à un cerveau", dit Stevens. "Votre cerveau ne fonctionne qu'à une certaine vitesse. Et si je voulais avoir plus de puissance cérébrale, j'ai besoin de plus de cerveaux, pas d'un cerveau plus rapide."

Vus sous cet angle, les superordinateurs ne sont pas si différents des créations grotesques de science-fiction de John Carpenter ou de Frank Herbert. Ils ne sont pas tout à fait monstrueux, mais leur énorme complexité peut être effroyablement difficile à comprendre. Surtout les maths.

À ce stade, Stevens sort un marqueur et traverse son bureau jusqu'à un tableau effaçable à sec. J'ai maintenant droit à l'une de ses conférences (il est également professeur à l'Université de Chicago).

"Quelle est la vitesse d'un processeur individuel ? Vous avez une idée ? Quelle est la vitesse du processeur de votre iPhone ?"

"Je ne sais vraiment pas," je réponds, devenant un peu fatigué.

« Inventez juste quelque chose. Il y a une horloge là-dedans. Quelle est l'heure de l'horloge ?

"Comme, combien de rotations par seconde?" je demande, d'un ton qui le supplie de me le dire.

"Eh bien, ça ne tourne pas", dit-il, inutilement. "Mais ouais, fais juste un numéro."

"Un million." Ce qui me semble une supposition raisonnable.

"C'est en fait un milliard."

Il y a une pause de quelques secondes qui lui semble une éternité avant qu'il ne commence à écrire des chiffres au tableau.

"Le processeur de base de votre iPhone ou PC ou autre fonctionne à un gigahertz : un milliard de cycles par seconde. Certains d'entre eux fonctionnent à cinq gigahertz, d'autres à deux. Votre iPhone peut en fait aller n'importe où entre un et trois gigahertz, mais il ne fonctionne pas. peu importe - c'est environ 10 à la neuvième [puissance]. Et nous voulions arriver à 10 à la 18e opérations par seconde. C'est exascale.

Dans la littérature d'Argonne, cette vitesse de fonctionnement est appelée "milliard de milliards", ce qui semble être un nombre si grand qu'ils doivent répéter deux fois un nombre existant, mais techniquement, il s'agit d'un quintillion d'opérations par seconde, ou d'un exaflop. Voici une meilleure façon de l'encadrer : au cours de ma vie, les ordinateurs sont devenus mille milliards de fois plus rapides (j'aurai 40 ans cet été).

Pourtant, en 2007, personne ne savait si l'exascale était même possible. Cette année-là, le ministère de l'Énergie a tenu des assemblées publiques dans trois laboratoires nationaux - Argonne, Berkeley et Oak Ridge - pour discuter de la manière dont ses scientifiques pourraient être en mesure de réaliser un supercalculateur fonctionnant à cette vitesse.

Avec Stevens, l'un des participants à ces conversations était son adjoint, Mike Papka. Papka a rencontré Stevens il y a 30 ans, alors qu'il étudiait pour une maîtrise en informatique à l'Université de l'Illinois à Chicago. Il est à Argonne depuis (et a également obtenu son doctorat à l'Université de Chicago). Si "Mike Papka" sonne comme le nom de quelqu'un avec qui vous prendriez une bière au robinet du coin, eh bien, c'est exactement ce qu'il est. Ses cheveux gris sont coupés courts, il porte des lunettes épaisses à monture noire et il a une barbe blanche touffue aussi longue que celle de Rick Rubin. Son style de conversation est terre-à-terre et de bonne humeur, et il parle avec un accent de Chicago aussi trapu que giardiniera. Quand je lui pose des questions sur ces mairies du DOE il y a 16 ans, il dit qu'elles sont "floues", mais il se souvient avoir pensé que "l'infrastructure dont vous auriez besoin pour [exascale] est impossible".

Lorsque les scientifiques du DOE se sont réunis, ils ont dû faire face à trois obstacles particulièrement redoutables. Le premier était le pouvoir. À l'époque, ils estimaient qu'un ordinateur exascale nécessiterait 1 000 mégawatts d'électricité, l'équivalent d'une centrale nucléaire. Ils ont décidé que le cas le plus convaincant qu'ils pourraient présenter au gouvernement pour obtenir un financement serait de le réduire à 20 mégawatts. Si trancher 980 mégawatts semble extrême, Papka souligne que se fixer des objectifs ambitieux permet d'atteindre un maximum de progrès. "Vous devez faire un compromis", dit-il. "Allons-nous attendre 15 ans de plus pour trouver comment y intégrer la technologie ? Ou allons-nous continuer ?"

Le problème suivant était la fiabilité. Tout comme votre ordinateur portable, les superordinateurs sont susceptibles de tomber en panne lorsqu'ils sont surchauffés (ce qui arriverait souvent avec une machine qui nécessite autant d'électricité qu'une petite usine). L'équipe du DOE s'est fixé pour objectif de limiter les accidents d'une machine exascale à un par jour, ce qui semble encore beaucoup. Mais Stevens explique que le supercalculateur ne perd pas tout son travail. "Ce qui se passe, c'est que vous prenez constamment des instantanés lorsque la machine tombe en panne afin que vous puissiez restaurer et continuer", dit-il. "C'est comme dans un jeu vidéo - des gens se font tuer et vous redémarrez et le jeu recommence là où vous vous étiez arrêté."

Aurora est comme la symphonie la plus complexe du monde, avec des centaines de milliers d'instruments différents jouant à l'unisson pour faire avancer la musique.

Le plus gros problème de tous était l'échelle, mais pas de ce que vous auriez probablement deviné. Bien sûr, les supercalculateurs sont physiquement énormes, mais c'est ce qu'il y a à l'intérieur de la machine qui semblait le plus difficile à comprendre.

"Du côté matériel, ce n'est pas grave, car vous pouvez simplement ajouter plus de matériel", déclare Stevens. "Mais côté logiciel, c'est un gros problème. Pensez-y de cette façon : vous préparez le dîner de Thanksgiving et vous cuisinez tous ces plats en parallèle. Et le temps qu'il faudra pour cuisiner le repas est déterminé. par l'étape la plus lente [la dinde], même si les tartes ne prennent qu'une heure, ou si les légumes peuvent cuire en 30 minutes. Pensez donc à ce même problème dans ces calculs, sauf qu'au lieu d'avoir 20 choses à Thanksgiving, nous avons J'ai un million de choses, et maintenant je dois avoir un milliard de choses en parallèle. Et la vitesse à laquelle ça va, va être déterminée par l'étape la plus longue, ce qui signifie que je dois faire cette étape la plus longue aussi vite que possible. "

En plus de leur complexité, les logiciels de supercalculateurs coûtent cher. Le monde scientifique ne fonctionne pas comme les entreprises technologiques de la Silicon Valley ; il n'y a pas de culture de démarrage, où les investisseurs en capital-risque pourraient financer la R&D sur un projet lunaire. Pour les scientifiques, il n'est pas facile d'obtenir des financements.

Entre 2007 et 2015, tout le travail sur l'informatique exascale était de la recherche et du développement - des algorithmes de résolution de problèmes et d'écriture pour construire le supercalculateur le moins gênant et le moins cher possible. Alors qu'Aurora elle-même a coûté 500 millions de dollars, l'onglet pour l'ensemble du projet informatique exascale - l'effort de collaboration entre les laboratoires nationaux - totaliserait beaucoup plus. Et pour obtenir ce financement, les scientifiques ont dû démontrer qu'ils pouvaient faire fonctionner l'exascale.

"Ce n'est pas facile de demander 5 milliards de dollars", s'exclame Stevens. "Je veux dire, c'est facile à demander. Mais le gouvernement ne va pas vous faire un chèque de 5 milliards de dollars si vous dites : 'Je ne sais pas.' L'équipe doit dire : "OK, nous pensons pouvoir faire cela. Nous avons fait des expériences, nous avons réduit les barres d'erreur", et ainsi de suite."

Le simple fait de demander était un défi en soi. Lorsque les scientifiques ont eu pour la première fois des discussions avec le DOE sur l'informatique exascale, George W. Bush était président. Depuis lors, il y a eu trois autres administrations, avec divers secrétaires à l'énergie et, pour le dire légèrement, des agendas très différents. "Vous faites valoir le même argument encore et encore alors que le gouvernement a changé et essayez de rééduquer tout le monde", dit Stevens. "Vous avez donc dû travailler sur tous ces problèmes, continuer à construire un plan, à construire un nouveau plan, à construire un meilleur plan, à le vendre. Cela a demandé énormément d'efforts."

Une fois que les scientifiques d'Argonne étaient prêts à commencer à développer réellement Aurora en 2015, ils ont également dû gérer ce processus, en coordination avec Intel et Hewlett Packard Enterprise, qui fabriquaient le logiciel et le matériel. "C'était comme aller sur Mars", dit Stevens. "Ce que vous voyez maintenant, c'est juste l'iceberg qui sort de l'eau. Oui, nous avons une machine. Mais vous ne voyez pas les 90 % de l'effort qui s'est passé avant."

C'est très bruyant ici », déclare David Martin juste devant la porte du centre de données d'Argonne, qui abrite tous les superordinateurs du laboratoire. Lorsque nous sommes à l'intérieur, on dirait que nous nous tenons dans le plus grand climatiseur du monde ; nous devons crier pour s'entendre. Martin est le responsable des partenariats et de la sensibilisation de l'industrie, ce qui signifie qu'il coordonne avec des tiers - généralement des entreprises comme General Electric, General Motors et Boeing - sur la façon d'accéder et d'utiliser les supercalculateurs d'Argonne pour la recherche. à partir d'ici en 2011, il a fait des séjours chez IBM, Fermilab et AT&T Bell Laboratories.

Argonne a construit le centre de données et l'infrastructure qui le supporte, essentiellement un bâtiment entièrement nouveau, afin d'accueillir ses supercalculateurs. Les machines réelles sont dans la "salle des machines". Aurora est à peu près aussi grand que deux terrains de basket - environ 10 000 pieds carrés - et environ huit pieds de haut. Argonne a ajouté une toute nouvelle aile à la salle des machines pour cela. Ce qui prend le plus de place, cependant, ce n'est pas le supercalculateur lui-même, mais les utilitaires nécessaires pour le maintenir opérationnel.

Au-dessus d'Aurora se trouve un étage entier, appelé la salle électrique, consacré à l'alimentation du supercalculateur. L'espace est aussi grand qu'un hangar d'avion et contient des grappes de stations métalliques qui ressemblent à d'énormes boîtes de disjoncteurs et peuvent produire jusqu'à 60 mégawatts d'électricité, assez pour alimenter plus de 10 000 foyers. Papka souligne que 60 mégawatts est la limite absolue – Aurora fonctionnera plus probablement entre 50 et 54 mégawatts, si c'est le cas. "Notre ancien système, Mira, avait un pic de neuf mégawatts", explique Papka. "Mais si je regardais la facture d'électricité, c'était plutôt autour de trois ans et demi. Donc, si vous visez le pic - tout est parfait, vous utilisez chaque morceau de silicium sur cette puce - vous allez consommer tout ça pouvoir. Mais vous n'y arrivez jamais.

Il est important de garder à l'esprit que cette salle alimente également les supercalculateurs existants à Argonne, y compris le pétascale Polaris, et fournit toute l'électricité du bâtiment. Considérant qu'en 2007, les scientifiques de ces mairies du DOE craignaient qu'un ordinateur exascale nécessite 1 000 mégawatts de puissance, l'élimination de 940 est une réalisation stupéfiante.

Mais la véritable innovation se trouve à l'étage sous Aurora : le pont mécanique. Ici, des tuyaux labyrinthiques de largeurs variables serpentent autour d'une pièce, acheminant, refroidissant et filtrant l'eau. Les superordinateurs utilisent depuis longtemps le refroidissement liquide (Papka rappelle une machine Cray du début des années 90 qui utilisait de l'huile comme liquide de refroidissement), mais pour réduire les coûts de plomberie, Argonne s'est de plus en plus appuyée sur des ventilateurs pour éviter la surchauffe. Comme aucun ventilateur n'est assez puissant pour refroidir les nouveaux supercalculateurs, les scientifiques ont dû créer des systèmes de refroidissement par eau plus efficaces. Ce n'est pas si différent de la façon dont les planchers rayonnants empêchent vos pieds de se refroidir dans les salles de bains chics, sauf qu'il s'agit d'une salle de bains beaucoup plus sophistiquée.

Polaris est à température contrôlée avec une combinaison d'eau en dessous et de ventilateurs à réaction au-dessus - d'où le bruit fort dans le centre de données. Lorsque Polaris sera inévitablement mis hors service, le bruit du ventilateur cessera, remplacé par ce que Martin décrit comme "un bourdonnement". Il est peu probable qu'il y ait un autre supercalculateur principalement refroidi par des ventilateurs. "Du point de vue d'un laboratoire qui est un citoyen responsable de l'environnement, ce qui est bien avec l'eau, c'est que c'est de l'eau", déclare Papka. "Il a l'un des meilleurs coefficients pour déplacer la chaleur de n'importe quelle substance."

La salle des machines contient à la fois Aurora et Polaris et sera probablement l'endroit où tous les supercalculateurs resteront dans un avenir prévisible. C'est à peu près la taille d'un terrain de football, avec des plafonniers fluorescents similaires à ceux d'un immeuble de bureaux standard. Au sol se trouve une grille de carreaux gris carrés, chacun de la taille d'une boîte à pizza extra-large. Les tuiles sont amovibles afin que les travailleurs de la construction puissent accéder aux tuyaux de la salle mécanique à travers le sol, permettant aux travailleurs d'isoler et de réparer des tuyaux spécifiques sans endommager quoi que ce soit d'autre dans le processus.

Le jour où je suis à Argonne, une équipe de construction d'environ deux douzaines travaille activement sur Aurora. La date d'achèvement initiale estimée pour le supercalculateur était 2020, mais les problèmes de chaîne d'approvisionnement causés par la pandémie de COVID-19 ont prolongé le calendrier. Je n'ai pas le droit d'entrer sur le chantier, mais j'aperçois ce qui ressemble à des rangées et des rangées d'armoires noires. En fin de compte, Aurora ressemblera à une version encore plus grande des énormes serveurs informatiques que vous avez vus dans des films d'espionnage de haute technologie comme Skyfall ou, peut-être plus précisément, Blackhat de Michael Mann.

À l'extérieur de la salle des machines se trouve un long couloir et une fenêtre qui offrent aux visiteurs une vue grand angle d'Aurora. De là, Martin me montre les nœuds qui forment les blocs de construction du supercalculateur. Ces nœuds ressemblent à ce à quoi ressemble votre ordinateur portable sous la surface du clavier - un ensemble de puces, de points et de barres métalliques. Les minuscules tubes blancs qui serpentent autour d'un côté servent à refroidir les processeurs. "Ces gros tuyaux de 24 pouces qui partent de la route vers une usine de refroidissement, de l'eau froide les descend", dit Papka, "et puis ce gros tuyau alimente un petit tuyau, qui alimente un petit tuyau, qui alimente un petit tuyau, qui arrive au processeur." Aurora est comme la symphonie la plus complexe du monde, avec des centaines de milliers d'instruments différents jouant à l'unisson pour faire avancer la musique.

Le superordinateur n'est que des rangées et des rangées de ces nœuds empilés les uns sur les autres, avec des tubes bleus et rouges sortant de chaque panneau pour fournir de l'électricité et du refroidissement. Ces travailleurs de la construction en sont aux dernières étapes de l'insertion de chaque nœud et de leur câblage au fur et à mesure qu'ils sont expédiés par Intel. Les nœuds d'Aurora reposent principalement sur des unités de traitement graphique, ou GPU, plutôt que sur les processeurs sur lesquels les supercalculateurs fonctionnaient dans le passé. Les GPU sont les mêmes processeurs utilisés dans la conception de jeux vidéo et d'effets spéciaux dans les films.

"Les gens ont réalisé que les GPU effectuaient en fait des calculs très rapidement", explique Martin. "Et nous avons donc travaillé avec Intel pour aider à concevoir les GPU - ils ont retiré le moteur de rendu graphique et tout le ray tracing et ont ajouté plus de capacité à faire des calculs. Ces GPU sont donc des accélérateurs de calcul." Papka date cette innovation de superordinateur à la fin des années 90 : "Le monde entier doit remercier les jeunes de 14 ans pour leur amour du jeu, car c'est en grande partie ce qui l'a motivé."

Les GPU d'Aurora ne sont pas seulement l'avenir des superordinateurs, ils sont aussi l'avenir des ordinateurs personnels. A terme, Intel équipera tous ses PC de ces nouveaux processeurs. En ce sens, les supercalculateurs sont un peu comme des machines à voyager dans le temps. "Ces ressources partagées que le gouvernement construit nous donnent un aperçu de l'avenir", a déclaré Stevens. "La communauté scientifique peut expérimenter ce qui sera facilement disponible pour tout le monde cinq ou 10 ans plus tard."

Alors imaginez à quelle vitesse votre PC sera dans une décennie avec l'un de ces GPU gonflés. Aurora a six GPU dans chaque nœud et 10 000 nœuds, ce qui signifie que cette année, il fonctionnera à 60 000 fois la vitesse de votre futur ordinateur.

Comment toute cette vitesse et cette puissance se traduisent-elles en résolution de problèmes réels ? Ou, comme les employés d'Argonne préfèrent le formuler : quels problèmes Aurora ne pourra-t-elle pas résoudre ? Les scientifiques travaillant sur l'exascale disent qu'ils pensent qu'Aurora et des superordinateurs similaires nous aideront à créer de nouveaux et meilleurs médicaments, à améliorer l'ingénierie, à atténuer le changement climatique et même à accroître notre compréhension des mystères de l'univers. Mais comment exactement une machine peut-elle faire tout cela ? Vous ne pouvez pas simplement demander à Aurora comment guérir le cancer et elle vous le dira, n'est-ce pas ?

La réponse la plus courte possible est les simulations. La plupart des découvertes que les scientifiques font aujourd'hui se produisent grâce à une simulation par superordinateur de situations réelles. "Ce n'est pas si différent de la façon dont nous modélisons le climat", déclare Stevens. "Nous avons des satellites qui peuvent mesurer les nuages ​​et la température. Nous pouvons faire toutes sortes de choses pour collecter des données sur l'état actuel de l'atmosphère, et nous avons ces données remontant à de nombreuses années. Mais pour tester réellement une théorie, comme à quel point le système climatique est sensible aux changements de méthane ou de dioxyde de carbone, vous devez faire une simulation. Vous ne pouvez pas aller là-bas et cloner la terre et dire, changeons la composition atmosphérique et essayons de l'étudier.

Quand je demande un exemple de simulations de supercalculateurs ayant des effets réels, les employés d'Argonne pointent du doigt la sécurité automobile. Vous souvenez-vous de ces vieilles publicités télévisées dans lesquelles vous verriez une vidéo au ralenti d'une voiture avec des mannequins de crash-test à l'intérieur claquant contre un mur de pierre à grande vitesse ? Eh bien, c'est toujours la façon dont les constructeurs automobiles testent la sécurité. Mais les accidents de voiture coûtent cher et les entreprises recherchent toujours des moyens de réduire les coûts tout en améliorant la protection. En exécutant d'abord des simulations de supercalculateurs, les constructeurs automobiles peuvent tracer et modifier plusieurs scénarios avant de devoir physiquement écraser une voiture. Dans certains cas, cela fait la différence entre construire et anéantir une seule voiture et des dizaines d'entre elles.

Dans une pièce du laboratoire, Rao Kotamarthi, le scientifique en chef de la division des sciences de l'environnement d'Argonne, me montre divers modèles informatiques sur des écrans de projection. L'une est celle de l'East River qui inonde lentement Manhattan. "Ceci est fait pour une compagnie d'électricité", déclare Kotamarthi d'un ton neutre. "Nous essayons donc d'envisager une inondation une fois tous les 50 ans dans le futur. Ils essaient de voir si leurs installations sont sécurisées dans un scénario de changement climatique. Nous avons développé cela comme un portail : vous pouvez choisir une ville ou un lieu et obtenir une sorte d'analyse d'impact sur les températures. Et les communautés locales peuvent planifier leur résilience. » Kotamarthi utilise la fusion nucléaire de Fukushima en 2011 comme exemple. Les superordinateurs ne pourront pas empêcher les catastrophes naturelles comme le tremblement de terre et le tsunami qui ont endommagé la centrale nucléaire japonaise, mais les machines pourraient aider les installations énergétiques à développer des infrastructures de protection afin que l'humanité puisse coexister avec les effets du changement climatique.

Vous ne pouvez pas faire cela sur un ordinateur standard. Eh bien, techniquement, vous pourriez, mais vous ne le voudriez jamais. "Disons que je voulais calculer l'explosion d'une étoile ou l'évolution de l'univers", dit Papka. "Puis-je faire ça sur mon ordinateur portable ? Ouais, je pourrais écrire du code. Mais ma simulation n'est pas aussi précise." Vient ensuite le kicker. "Et il faut sept vies pour calculer."

Katherine Riley, directrice scientifique de l'Argonne Leadership Computing Facility, utilise l'astrophysique comme exemple de ce qu'un supercalculateur comme Aurora peut réaliser : "On nous apprend tous à l'école que vous avez un atome, et qu'il a vos protons et des neutrons et des électrons autour de lui. Mais nous savons que c'est plus compliqué que cela. Nous savons qu'il y a beaucoup plus de matière, et encore moins pour cet atome particulier - il y a des particules subatomiques. Cela signifie donc comprendre comment la matière s'est formée. Vous pouvez construire accélérateurs, et ce qui se passe avec ces accélérateurs, c'est que vous générez d'énormes quantités de données et extrayez ce signal de tout le bruit. Vous créez un modèle de l'univers, vous créez un modèle de supernova et vous le laissez brûler. Et vous essayez pour corréler cela avec ce qui se passe réellement dans l'univers réel." Riley anticipe qu'Aurora, uniquement basée sur le volume de données qu'elle pourra traiter, pourra produire des modèles beaucoup plus sophistiqués.

Les scientifiques le font déjà depuis de nombreuses années. L'exemple le plus frappant est le télescope spatial James Webb, qui a fourni des images du cosmos profond avec des détails beaucoup plus vifs que son prédécesseur, le télescope spatial Hubble, nous donnant une meilleure compréhension de la texture de l'univers. Le télescope Webb et ses images correspondantes sont tous le résultat de simulations sur un supercalculateur.

Même si l'informatique exascale augure d'une toute nouvelle frontière de vitesse de calcul, mille fois plus rapide que les supercalculateurs pétaflopiques actuels, cela ne signifie pas que nous serons soudainement capables de résoudre tous nos problèmes climatiques ou d'ingénierie ou de découvrir l'origine et l'histoire de l'univers. Riley s'empresse de souligner qu'en science, il n'y a pas de réponses, seulement des réponses partielles. Et 20 autres questions.

Ce qui change, c'est la rapidité avec laquelle nous obtenons les réponses partielles et les nouvelles questions. Lorsque vous repensez à toutes les innovations technologiques de nos vies et à quel point elles s'accélèrent chaque année, ce taux correspond à peu près à la vitesse et à la compétence sans cesse croissantes avec lesquelles nous développons des ordinateurs. Martin souligne également que l'informatique exascale va être beaucoup plus dépendante de l'IA, ce qui aidera à son tour à entraîner les ordinateurs à améliorer les fonctions sans interférence humaine. Il n'est pas tout à fait déraisonnable qu'un jour nous arrivions à un point où les superordinateurs sont ceux qui construisent de meilleures versions d'eux-mêmes.

À la fin de mon temps avec Stevens, son tableau effaçable à sec est bourré de chiffres, de tableaux et d'équations. Nous le regardons tous les deux tranquillement, un peu abasourdis, mais pour lui, ce n'est qu'une infime partie de l'effort mathématique nécessaire au développement d'Aurora. Et Aurora n'est pas le premier ordinateur exascale - le laboratoire national d'Oak Ridge, juste à l'extérieur de Knoxville, Tennessee, a lancé Frontier, une machine alimentée par la technologie d'AMD plutôt que par celle d'Intel, en mai dernier. (Quant à savoir lequel est le plus rapide, nous ne le saurons pas avant les débuts d'Aurora.)

Les premières conversations sérieuses autour de l'exascale ont eu lieu il y a 16 ans, alors je demande à Stevens si les scientifiques du DOE ont commencé à travailler sur les prochaines étapes des supercalculateurs : zettascale (10 à la puissance 21) et yottascale (10 à la 24e). Il dit que les discussions ont effectivement commencé, mais il doute que l'une ou l'autre soit réalisable dans l'architecture existante des superordinateurs. Les défis sont colossaux. L'installation pour stocker un supercalculateur à l'échelle zetta devrait être de 50 millions de pieds carrés, et la facture d'électricité annuelle serait d'un demi-milliard de dollars. Je souligne que Stevens et ses collègues avaient initialement des préoccupations similaires concernant l'exascale, mais il explique que le problème n'est pas seulement que nous ne pouvons pas atteindre cette taille ; c'est aussi que nous ne pouvons pas être aussi petits.

Les transistors qui remplissent chaque puce d'Aurora mesurent sept nanomètres, une figure comiquement microscopique équivalente à 70 atomes placés côte à côte. Construire des transistors de la largeur d'un atome - aussi petit que possible - n'est pas réaliste pour le moment, donc la seule option est la lithographie subnanométrique. Pour cette raison, la loi CHIPS and Science Act du président Joe Biden, promulguée en août dernier, est essentielle pour le développement futur des supercalculateurs, car le financement de la R&D sur les micropuces est essentiel pour maintenir le taux d'innovation technologique du pays. Mais même ainsi, pense Stevens, nous sommes loin de zettascale : "Ils essaieront d'être aussi petits, mais ils ne le seront en fait pas, du moins dans les 10 prochaines années. Je pense que nous ' Nous sommes à peu près à la limite." Quand je demande à Papka ce qu'il en pense, il dit : "Je vais être à la retraite sur une plage quelque part, sans m'inquiéter pour ça."

Les supercalculateurs comme Aurora sont un peu comme des machines à voyager dans le temps. "Ces ressources partagées que le gouvernement construit nous donnent un aperçu de l'avenir", a déclaré Stevens. "La communauté scientifique peut expérimenter ce qui sera facilement disponible pour tout le monde cinq ou 10 ans plus tard."

Il y a aussi l'informatique quantique, qui en théorie permettrait un traitement des données exponentiellement plus rapide, soulevant ainsi la question de savoir si les supercalculateurs seraient rendus inutiles. Mais Papka considère cela peu probable. "Les superordinateurs nous aident à répondre aux questions", dit-il, "et si nos superordinateurs deviennent obsolètes, vous devrez me dire que nous n'avons plus de questions, que nous avons résolu tous les problèmes qui existent dans le monde. Et même si nous pouvons sois égoïste, je ne pense pas que ce sera jamais vrai."

Plus probablement, prédit-il, il y aura un avènement d'accélérateurs quantiques fonctionnant en harmonie avec les ordinateurs traditionnels, de la même manière que les GPU ont été réutilisés pour rendre les supercalculateurs plus rapides. Mais cela entre dans un territoire capiteux. Papka lève les mains en l'air quand il dit : « En parlant de la vitesse à laquelle les choses se passent, je n'arrive même pas à suivre. Et à mesure que des progrès sont réalisés dans l'informatique quantique – Argonne fait sa propre R&D – il y aura encore beaucoup de gens qui travailleront à la création de supercalculateurs plus rapides et plus efficaces.

Pour Stevens, cela arrive avec un groupe que beaucoup d'entre nous dénigrent : la génération Z. "J'étais jeune quand j'ai commencé à travailler dessus et je ne suis plus jeune", dit-il. "Nous devons faire travailler les jeunes là-dessus pour que nous ayons des décennies de progrès. La quantité de formation et d'éducation dont les gens ont besoin pour contribuer au supercalcul est énorme. Il s'agit de doctorants, de post-doctorants et d'années de formation. "

Ce commentaire me fait réfléchir sur la façon dont les ordinateurs ont façonné ma propre vie. Je me souviens encore du jour où, au début des années 90, mon père a ramené à la maison notre premier Apple Macintosh - et le regard sur son visage le lendemain quand j'ai traîné par inadvertance le disque dur à la poubelle, préfigurant mes perspectives en tant que programmeur informatique. La seule autre fois où je l'ai vu faire cette grimace, c'est quand notre aquarium s'est cassé et que tous les poissons qu'il contenait sont morts.

Les relations non humaines les plus significatives de ma vie ont été avec les ordinateurs. J'ai passé la plupart de mon temps sur cette terre devant un écran, que ce soit pour lire, écrire, parler à d'autres personnes ou - et c'est essentiel - me distraire. Je me demande dans quelle mesure ma vie aurait pu changer de cap si j'avais vu les ordinateurs différemment dans mon enfance et mon adolescence. Au cours des dernières années, comme beaucoup d'autres personnes, j'ai déploré la consommation des médias sociaux comme une énorme perte de temps, vers laquelle je me tourne pour une sorte de réconfort pervers, mais qui ne fait que me sentir grossier, amer et creux.

À cet égard, le calcul scientifique n'est pas seulement la voie vers des solutions technologiques et une meilleure compréhension de notre univers. C'est aussi une source de potentiel, une façon de réorienter notre vision du monde pour voir les ordinateurs comme des agents de santé et de coexistence pacifique. C'est peut-être trop sentimental, mais la sentimentalité brute pourrait être une meilleure option que les trous de lapin exsangue et ultra-corporatifs du Web 2.0.

Avant tout cela, cependant, Argonne doit encore alimenter Aurora – et les scientifiques ne savent pas avec certitude ce qui se passera quand ils le feront. Certaines parties du supercalculateur de 500 millions de dollars pourraient même ne pas fonctionner. Cela ne signifie pas qu'ils l'abandonnent et recommencent - il ne faudra que quelques ajustements. "Nous sommes en quelque sorte le numéro de série 1 de ce supercalculateur", déclare Martin. "Si quelque chose ne va pas, cela prolonge [le lancement] d'une semaine, d'un mois, peut-être plus."

La stratégie consiste à commencer à exécuter Aurora en morceaux. Le jour où je suis à Argonne, Martin dit qu'ils ont déjà rencontré des problèmes après avoir allumé deux racks pour des tests de résistance. Un mois plus tard, lorsque je fais un suivi avec Papka, il mentionne qu'ils ont résolu certains de ces problèmes, et les scientifiques ont déjà commencé à accéder à ces racks pour se familiariser avec le système. Mais il souligne que toutes les capacités d'Aurora ne seront pas totalement comprises avant un certain temps. "Vous assemblez 60 000 GPU, eh bien, personne n'a jamais fait cela auparavant", dit-il. "Comment le logiciel se comporte-t-il ? Tant que vous ne l'avez pas, vous ne pouvez même pas commencer à le comprendre."

Il y a encore tellement d'inconnues. Tout ce que nous savons maintenant, c'est que ce sera l'avenir.