image_15.png
Cachés dans les entrailles des universités, les supercalculateurs vrombissent 24 heures sur 24. Dans des salles sans fenêtre à atmosphère contrôlée, des tours de centaines de processeurs informatiques recréent tantôt la mécanique intime des atomes, tantôt le climat de la planète.

Les scientifiques y font des files virtuelles pour y simuler l'atmosphère d'une étoile éloignée, le fonctionnement d'un organe, les horaires optimaux d'autobus ou encore pour tenter de prédire la prochaine crise financière. Ces monstres de calculs sont devenus un outil de travail essentiel à presque toutes les disciplines scientifiques pour jongler avec les quantités astronomiques de données et développer des modèles de plus en plus raffinés.

Abonnez-vous à notre infolettre!

Pour ne rien rater de l'actualité scientifique et tout savoir sur nos efforts pour lutter contre les fausses nouvelles et la désinformation!

Une fois par année au Canada, les supercalculateurs sortent de l'ombre : au HPCS, le Symposium de calcul de haute performance. En 2011, l'événement célèbrera sa 25e édition au Cœur des sciences de l'UQÀM à Montréal. Il réunira près de 50 conférenciers internationaux et 250 participants, provenant d’une vingtaine d’industries mais également des chercheurs, du personnel technique et des étudiants. Cette année, la conférence orientera ses projecteurs vers la science médicale : « Nous avons choisi ce thème, d'abord parce que Montréal est un pôle important dans le domaine. Aussi, les supercalculateurs servent depuis longtemps aux sciences fondamentales et au génie, mais — les gens ne le savent pas toujours — de plus en plus, aux sciences médicales, autant pour étudier les protéines, que pour simuler des traitements ou étudier les séquences d'ADN », souligne Normand Mousseau, coorganisateur de l'événement et professeur titulaire au département de physique de l'Université de Montréal.

Pour célébrer les 25 ans de l'HPCS, Bruce Attfield et Andrew Pollard, deux pionniers du calcul de haute performance au Canada, feront une rétrospective sur l'histoire nationale des supercalculateurs. Venu tout droit de l'Académie des sciences en Chine, Li Jinghai partagera son expertise sur les algorithmes de pointe. Et lors de la dernière journée de l'événement, Jonathan Schaeffer de l'Université d'Alberta portera le regard vers le futur et les prochains défis à relever au pays.

Et même si la science médicale est à l'honneur, tout dompteur de supercalculateurs y trouvera son compte : « Des techniques de simulation utilisées pour résoudre un problème en science médicale peuvent très bien servir dans plusieurs disciplines, en chimie, en économie ou ailleurs, explique Normand Mousseau. Habituellement, ce sont des thèmes de recherche qui réunissent les invités. Ici, c'est la technique qui nous réunit. Les participants sont autant des techniciens intéressés à l'architecture des machines, des informaticiens qui développent des infrastructures logicielles que des scientifiques utilisateurs. Ils viennent faire le point sur les développements techniques et algorithmiques. » Bien plus que des supercalculettes, les supercalculateurs ne viennent pas avec un manuel d'instruction. Et aucune recette simple n'existe pour résoudre à tout coup tout problème scientifique. À chaque nouveau problème, les scientifiques doivent rivaliser d'ingéniosité et créer des algorithmes ultra efficaces.

Ce qui cause le plus de cheveux gris aux utilisateurs de supercalculateurs, un sujet incontournable : la parallélisation. « Depuis quelques années, la performance des processeurs augmente peu. Alors pour assembler des supercalculateurs plus puissants, il faut multiplier le nombre de processeurs qui travaillent ensemble », résume Normand Mousseau. De la même manière que les ordinateurs personnels sont devenus multicœurs, les monstres du calcul vivent de centaines, et parfois même, des dizaines de milliers de cœurs.

Alors que les ordinateurs devenaient de plus en plus rapides, les chercheurs n'avaient guère qu'à se préoccuper à résoudre leurs énigmes scientifiques, comme s'ils avaient à leur disposition un employé qui travaille de plus en plus rapidement. Mais avec la multiplication des cœurs, les chercheurs doivent en quelque sorte tenter de diviser la tâche entre des centaines d'employés — les cœurs — dont le travail dépend des uns et des autres et qui doivent, de surcroît, continuellement échanger des informations pour travailler en cohésion : « En climatologie, on peut assez facilement assigner une petite région de la planète à chaque cœur. Mais d'autres problèmes, comme la recherche d'informations dans une base de données, sont parfois difficiles, voire impossibles, à diviser », précise Suzanne Talon, coordonnatrice de Calcul Québec.

« On peut s'attendre à ce qu’à l'avenir, les prochaines générations de supercalculateurs comportent des millions de cœurs! On se dirige vers un véritable problème, parce que nous ne sommes pas capables de diviser un problème en autant de morceaux. La plupart des programmes sont construits sur le carcan des façons de penser qui datent de plus de cinquante ans. Donc, le défi de revoir les algorithmes est immense. Il faudra mettre tout ça à la poubelle et recommencer à zéro. »

Alors, que le symposium approche à grands pas, le — seul — cœur de Normand Mousseau balance entre les différentes passionnantes conférences, car plusieurs sont tenues... en parallèle

Je donne