La bataille mondiale du super-ordinateur

En résolvant beaucoup plus vite des problèmes les plus complexes, les super-ordinateurs accélèrent la compétitivité des entreprises. D’où l’importance stratégique que leur accorde les secteurs du nucléaire, de l’industrie et des sciences. Néanmoins, seuls quatre pays fabriquent des supercalculateurs : les États-Unis, le Japon, la Chine et la France. Notre pays dispose d’une formidable carte pour démocratiser le calcul intensif auprès des PME et TPE. Surtout à l’heure où s’annonce la prochaine révolution : des machines capables de réaliser plusieurs milliards de milliards d’opérations à la seconde, sans consommer trop d’électricité.

La machine Curie intégrée par Bull au Centre de calcul Recherche et Technologie (CCRT) du CEA à Bruyères-leChâtel (Essonne).
© Genci

Personnaliser les traitements médicaux en fonction de votre ADN pour vivre en pleine forme 100 ans et plus. Bâtir des villes les plus pratiques au monde, où l’on peut respirer à plein poumon. Faire décoller des avions électriques. Concevoir des voitures autonomes qui savent se garer elles-mêmes sur un parking libre. Rendre les écrans souples pour nos smartphones, tablettes, ordinateurs portables et autres liseuses…. En marche, toutes ces révolutions palpitent dans la salle des machines des centres de calcul intensif – High Power Computing (HPC) – qui se répartissent dans les pays les plus avancés. Leur objectif ? Résoudre les problèmes les plus complexes dans les domaines de la science (météo, santé, physique…), de l’ingénierie et de l’économie (modélisation, simulation, Big Data). Pour se faire une idée de l’avantage concurrentiel du superordinateur, citons l’exemple de Dassault Aviation : pour son dernier jet privé, le Falcon 7X, l’avionneur a raccourci le temps de modélisation (140 millions d’équations), à savoir 200 000 heures (soit 22 années), à seulement 200 heures (8 jours). Cette intensification résulte de la distribution des calculs sur un super-ordinateur à 1 000 processeurs en parallèle.

Un marché à 44 milliards de dollars pour 2020.

Cette belle performance pourrait, néanmoins, pâlir devant celle de la machine chinoise Tianhe-2 MilkyWay-2, la plus puissante du monde d’après le respecté classement Top500, qui effectue 33 millions de milliards d’opérations à la seconde (Pétaflops) grâce aux 3,2 millions de cœurs (il y a jusqu’à 18 cœurs dans un processeur Intel Xeon de dernière génération) qu’il embarque ! A lui seul, le marché mondial du HPC, estimé par le cabinet d’analyse IDC à 10,3 milliards de dollars, a absorbé pas moins de 30 millions de processeurs dans ses super-machines en 2013 ! Pour sa part, le cabinet Market Search Media prédit que le marché mondial du calcul intensif HPC devrait croître au rythme de 8,3% pour quasiment quadrupler à 44 milliards de dollars à l’horizon 2020, promettant un chiffre d’affaires global de 220 milliards de dollars sur la période 2015-2020. D’après le classement Top500, les grands intégrateurs de supercalculateurs sont d’abord américains avec HP (35,6%), IBM (30,4%), Cray Inc. (12,3%) et SGI (4,6%). Suivi du français Bull à 3,6% qui, cocorico, se place devant l’américain Dell (1,8%) et le japonais Fujitsu (1,6%).

La France : parmi les quatre leaders.

L’engouement pour les supercalculateurs est historique car ces derniers ont contribué à asseoir la souveraineté des États ainsi que de leurs plus grandes entreprises et centres de recherche. A peine 4 pays en fabriquent : les États-Unis, le Japon, la Chine et la France. Chez nous, les super-ordinateurs ont permis, entre autres, de simuler la bombe atomique de façon totalement numérique et d’arrêter ainsi les explosions en grandeur réelle dans le Pacifique. A côté de cela, les supercalculateurs ont aidé à calculer nos centrales nucléaires ainsi qu’à concevoir des avions de chasse, des sous-marins nucléaires, des porte-avions, des automobiles, des TGV… En clair, une bonne part des produits qui ont fait le succès de notre grande industrie s’appuie sur les travaux scientifiques dont le calcul intensif s’exécute sur des super-ordinateurs privés ou académiques. En outre, le calcul intensif ne sert pas qu’à réduire les coûts de conception en s’affranchissant des coûts exorbitants des prototypes physiques. Il aide surtout à tester, essayer et valider de nouvelles idées ou les meilleures variantes d’un produit ou d’un procédé en conception. C’est la mort annoncée du recours, jusqu’ici systématique, aux plates-formes de tests physiques des prototypes : souffleries, bassins, installations de crash-tests. Les grandes manœuvres sont en marche.

Ambitions géopolitiques et souverainetés nationales.

On comprend pourquoi les autres pays veulent, si ce n’est les fabriquer, au moins utiliser massivement les supercalculateurs. En tête des pays les plus consommateurs, on trouve bien sûr les États-Unis (45,4%), suivis de très loin par la Chine (12%), le Japon (6,3%), le Royaume-Uni et la France (5,9% chacun) et l’Allemagne (5,1%). Tous les autres pays, notamment la Russie, l’Inde, la Corée du sud, pèsent moins de 2% chacun, d’après le classement Top500. « Dans la compétition internationale, le calcul intensif permet surtout de mettre en pratique de nouvelles idées et de prendre de l’avance sur la concurrence », analyse Stephan Hadinger, responsable en France des solutions Architecture chez Amazon Web Services (AWS), un des inventeurs du Cloud Computing et un des leader mondiaux de la location à la demande de puissance de calcul intensif dans le Cloud. Et de citer Honda qui a accéléré ses processus d’ingénierie simultanée en simulation mécanique et en mécanique des fluides. « Ses ingénieurs ont divisé par 3 le temps de simulation sur 16 000 cœurs ainsi que leurs coûts de simulation de 70%. Au final, le constructeur a déboulé plus rapidement sur le marché avec des offres plus pertinentes et plus différenciées », reprend Stephan Hadinger.

Pas étonnant que, derrière cette recherche de puissance de calcul, se cachent des ambitions nationales en matière de souveraineté aussi bien géopolitique qu’industrielle et économique. Ainsi la Chine annonce-t-elle sont intention de mettre au point cette année deux machines de 100 Pétaflops (3 fois plus rapides que la machine actuelle la plus rapide). Réelle avance ou effet d’annonce ? « Théoriquement, Tianhe-2 est la machine la plus rapide du monde. Mais nous n’avons aucun renseignement sur le code qu’elle utilise. Or c’est le logiciel qui donne toute sa puissance à l’exploitation d’un supercalculateur », pointe Denis Gerrer, responsable HPC Europe du Sud chez Nvidia, grand fournisseur de GPU (Graphic Processing Unit), au départ des accélérateurs graphiques qui, depuis quelques années, servent également au calcul massivement parallèle. Il n’empêche, la Chine ne cesse de gagner du terrain.

Bientôt : 1 milliard de milliards d’opérations par seconde.

La République populaire compte atteindre vers 2018-2020 le prochain Graal du calcul intensif : l’exaflop, soit 1 milliard de milliards d’opérations par seconde. Ce qui est 1 000 fois plus rapide que le Pétaflop tout juste atteint à l’heure actuelle. Autre défi de grande ampleur : la Chine veut s’affranchir des composants électroniques (processeurs et GPU) jusqu’ici fabriqués par les américains Intel, AMD et Nvidia. Restait à avoir un grand intégrateur. C’est peut-être chose faite grâce à IBM qui « a revendu l’année dernière au chinois Lenovo [après lui avoir déjà cédé sa division PC et ordinateurs portables] sa division serveurs à base de processeurs à architecture Intel et AMD. Big Blue sort ainsi du plus gros segment du super-ordinateur au profit du chinois Lenovo qui, à son tour, pourrait alors débarquer très rapidement et très violemment sur le marché », observe Philippe Vannier, vice-président exécutif d’Atos qui a racheté l’été dernier l’intégrateur Bull, véritable champion tricolore comptabilisant plusieurs centaines de supercalculateurs actifs dans le mode. Nous réalisons les 2/3 de nos ventes hors de France. Nous avons ainsi doté le Japon de la seconde de ses plus puissantes machines, Fusion for énergie (F4E), qui sert à modéliser la fusion nucléaire en collaboration avec le programme français du réacteur Iter. Nous équipons aussi le Brésil qui veut créer des centres de calculs pour ses universités. »

En Europe, les machines industrielles de Bull s’illustrent aussi bien en République Tchèque qu’aux Pays-Bas. En Allemagne, le constructeur tricolore a livré sa dernière machine, la bullx B720 (3 Pétaflops, soit 3 millions de milliards d’opérations à, la seconde) au Deutsches Klimarechenzentrum (DKRZ), le centre de calcul de la météo allemande, en collaboration avec l’américain Seagate et ses 45 Pétabytes de stockage. Reste que sur les 10 premiers supercalculateurs, outre la machine chinoise et une machine du japonais Fujitsu, les constructeurs américains Cray, Dell, IBM, et SGI raflent la mise. « L’année prochaine ou dans deux ans, une machine européenne devrait faire son entrée dans le top 10 mondial », prédit Denis Gerrer de Nvidia. En revanche, le fait récent le plus marquant, selon IDC, c’est le contrat qu’IBM a remporté en novembre dernier dans le cadre du programme Coral visant à doter le ministère américain de l’Énergie et du Charbon de 4 supercalculateurs de plus de 100 Petaflops répartis dans les Universités d’Oak Ridge (machine Summit à 150 Pétaflops, extensible à 300 Pétaflops), Argonne et Livermore (machine Sierra à 100 Pétaflops extensible à 200 Pétaflops) d’ici à la fin 2017 pour un montant global de 325 millions de dollars.

L’enjeu énergétique.

Reste que l’ensemble du secteur est confronté à un problème de taille : l’énorme consommation électrique des supercalculateurs. « Tous les 10 ans, leur puissance de calcul est multipliée par 1 000. Quant à la durée de vie d’un supercalculateur, elle n’est que de 4 à 5 ans », reconnaît Christine Ménaché, responsable du Centre de calcul Recherche et Technologie (CCRT) du CEA ouvert aux académies et industriels basé à Bruyères-le-Châtel à 15 km de Saclay (Essonne). « Passé ce laps de temps, il est bien plus rentable d’installer une machine plus moderne machine plutôt que conserver l’ancienne. Sur 5 ans, les progrès techniques réduisent la consommation énergétique par un facteur 32 », précise Philippe Vannier. « En 2005, un supercalculateur consommait, par exemple 5MW contre 17 MW aujourd’hui. On ne peut pas continuer indéfiniment à augmenter la puissance de calcul en même temps que la consommation électrique. Avec la prochaine génération, l’exaflop, on veut limiter la consommation à 20 MW. Il va donc falloir que toute l’industrie suive… », insiste Marie-Christine Sawley, directrice du Laboratoire Exascale Computing Research (ECR) d’Intel en partenariat avec le CEA et l’Université de Versailles-Saint-Quentin-en-Yvelines (UVSQ). « La puissance énergétique est devenue le nerf de la guerre. A tel point qu’on conçoit les supercalculateurs en fonction de la puissance qu’il sera possible de leur amener. Ensuite, sur ses 5 ans de vie, la consommation électrique globale d’un supercalculateur revient aussi cher que la machine elle-même », calcule Denis Gerrer de Nvidia.

Vers un nouvel échiquier industriel ?

Dans l’arrière cour des grands constructeurs de supercalculateurs, une autre bagarre se déroule entre les ténors des composants électroniques : les processeurs, les GPU et les composants d’interconnexion entre processeurs. « En fait, deux modèles coexistent. Le premier met en parallèle de très puissants processeurs à haute fréquence d’horloge [comme les Xeon d’Intel, les Opteron d’AMD ou les Power d’IBM, NDLR] mais en nombre relativement limité car ils dégagent de très grandes quantités de chaleur – ce qui coûte cher en énergie de refroidissement, décrit Gérard Roucairol (voire notre interview), président du Plan national Supercalculateurs de la Nouvelle France industrielle et président de Teratec, la Silicon Valley française du calcul intensif en région parisienne. Le second modèle, quant à lui, utilise en parallèle énormément de processeurs bien plus petits, certes également moins rapides et moins puissants mais surtout beaucoup moins gourmands en énergie. »

Des composants pour smartphone dans le prochain super-ordinateur.

Si le trio Intel, AMD et Nvidia n’a aucun risque d’être expulsé du marché, il risque, cependant, d’être sacrément concurrencé par l’architecture de processeurs ARM (Acorn Risc Machine, introduite en 1983 par le britannique Acorn Computers Machine), que l’on retrouve aujourd’hui embarquée dans tous les équipements mobiles : smartphones, PC portables, tablettes tactiles, consoles de jeu… Une architecture que propose, d’ailleurs, Nvidia. « Ces composants pour la mobilité représentent une assise commerciale énorme », s’enthousiasme Gérard Roucairol. L’idée, c’est de les réutiliser pour construire de nouvelles générations de supercalculateur à la fois plus puissantes, moins onéreuses et surtout moins gourmandes en énergie. « Il faut dire que les processeurs s’accaparent 40% (ou plus) de la consommation totale d’un supercalculateur, commente Alex Ramirez, chef du projet européen de recherche Mont-Blanc (20 millions d’euros), porté par le Barcelona Supercomputing Center. Nous pensons qu’avec ces architectures, le supercalculateur Mont-Blanc consommera 4 à 10 fois moins d’énergie. » Dans la foulée, des acteurs comme Orange et Nvidia développeraient également des petites machines à 64 processeurs peu gourmandes en électricité mais capables de délivrer, malgré tout, une puissance de calcul intéressante. Pour sa part, IBM ne s’imagine pas accoucher seul d’une nouvelle architecture pour son puissant processeur Power. « L’effort à accomplir est bien trop important pour arriver l’exaflop. Personne ne peut plus tout inventer seul. C’est pourquoi nous avons créé le consortium Open Power qui rassemble d’ores et déjà près de 70 partenaires. C’est une réelle alternative à Intel », annonce Michel Teyssèdre, directeur des technologies chez IBM France. La guerre du super-ordinateur est bien déclarée.

Erick Haehnsen © TCA / innov 24

La France a rattrapé son retard

En 7 ans, le pays a multiplié par 300 la puissance de calcul de ses supercalculateurs. Cet effort est le fruit d’une politique concertée qui accouche d’une Silicon Valley à la française pour le calcul intensif au sud de Paris. Un territoire unique en Europe qui aide PME et start-up à sauter le pas.

« En 2007, les supercalculateurs présents en France cumulait une puissance de 20 Tflop (20 000 milliards d’opérations à la seconde) pour la recherche publique. Le pays était très en retrait de l’Allemagne, du Royaume-Uni, de l’Italie et de l’Espagne. Résultat, soit les chercheurs partaient au Japon ou aux États-Unis pour y effectuer leurs calculs soit leurs publications scientifiques étaient refusées car leurs simulations étaient trop faibles, rappelle Stéphane Requena, responsable technique du Grand équipement national de calcul intensif (Genci), une société civile (ministères : 49% ; CEA : 20% : CNRS : 20% ; Conférence des présidents d’Université : 10% ; Inria : 1%) chargée, entre autres, de piloter l’équipement en super-ordinateurs de 3 centres de calcul : le Très grand centre de calcul (TGCC) et le Centre informatique national de l’enseignement supérieur (Cines) équipés en machines Bull ainsi que l’Institut du développement et des ressources en informatique scientifique (Idris) doté d’une machine IBM. En 7 ans, nous avons multiplié la puissance de calcul par 300 pour cumuler 5,7 Pétaflops [5,7 millions de milliards d’opérations à la seconde]. »

Le gros des opérations se déroule au sud de Paris, à Bruyères-le-Châtel (Essonne) où le CEA a construit un des plus puissants complexes de calcul intensif en Europe composé du centre de calcul Tera, dédié aux applications de Défense, du Centre de calcul recherche et technologie (CCRT), ouvert à des partenariats avec l’industrie et la recherche : Airbus Defence & Space, Areva, EDF, Heracles (groupe Safran), l’Institut national de l’environnement industriel et des risques (Ineris), L’Oréal, Snecma, Tech Space Aero, Thales et Thales Alenia Space, Turbo-meca et Valeo. « Avec un droit d’entrée minimal de 100 000 euros par an, ces partenariats s’établissent dans la durée (2 à 5 ans) et sont destinés à partager les coûts complets (investissement et frais de fonctionnement) avec des acteurs qui ont déjà une solide expérience en simulation et calcul intensif. Chaque partenaire profite également de notre expertise. Notamment pour optimiser leur utilisation du centre de calcul, détaille Christine Ménaché, responsable du CCRT. En majorité, nos partenaires disposent déjà de leurs propres centres de calcul mais ils viennent ici expérimenter de nouveaux codes de simulation. Ils profitent aussi de la direction des sciences la matière du CEA, de celle des sciences du vivant, de l’énergie ou du militaire. »

L’Oréal en tire un substantiel profit.

« Le groupe a des problèmes physiques à résoudre que l’on peut aussi retrouver ailleurs. Par exemple, la modélisation de la chevelure – du cheveu individuel jusqu’à la mèche et à la chevelure entière. De même pour le verni à ongles qui fait appel à la théorie des chocs – laquelle intéresse aussi le nucléaire. De l’aviation au cosmétique… il y a des problématiques communes ! D’où l’intérêt des unités de recherche académie/industrie, poursuit Christine Ménaché qui prévoit une nouvelle machine pour 2016. On démarre avec une machine initiale et, à chaque fois, on double sa puissance en milieu de période. »

Aujourd’hui, l’enjeu, c’est de se démocratiser le calcul intensif auprès des start-up, PME et ETI. Dans le sillage du programme  »HPC pour les PME » qui a permis au Genci d’aider une quarantaine de petites entreprises à sauter le pas, le prochain forum Teractec qui aura lieu les 23 et 24 juin à l’École Polytechnique, va fêter ses 10 ans. Nul doute que parmi les 1 500 à 2 000 politiques et professionnels du calcul intensif attendus, ce sujet ne fasse débat. D’autant que la CCI de l’Essonne est en train de construire 10 000 m2 de bureaux pour y accueillir des ETI, PME et des start-up. Un territoire unique au monde.

Erick Haehnsen © TCA / innov24

Grande Interview

« La France fait partie des 4 pays qui maîtrisent l’ensemble de la filière supercalculateurs »

Interview de Gérard Roucairol, président du Plan national Supercalculateurs de la Nouvelle France industrielle, président de Teratec (la Silicon Valley française du supercomputing), président honoraire de l’Académie des technologies, ancien directeur scientifique de Bull.

En matière de supercalculateurs, quelle est la particularité de l’époque que nous vivons ?

Gérard Roucairol, président du Plan national Supercalculateurs de la Nouvelle France industrielle.
© Académie des technologies / C. Guilbaud

Nous entrons dans une période de rupture technologique où le moteur de la performance du calcul intensif va changer. En effet, la célèbre loi de Moore, qui avait pour conséquence le doublement de la puissance informatique tous les 18 mois, atteint des limites physiques. en effet, on mesurait la performance d’un calculateur ou d’un processeur à sa fréquence d’horloge – qui peut s’exprimer en Giga Herz (GHz). Plus cette fréquence est élevée, plus le processeur calcule vite, plus il est puissant… mais plus il chauffe et consomme de l’énergie. Si l’on poursuivait ainsi, on attendrait bientôt une fréquence de 10 GHz sur 1 cm2. Ce qui produirait la même chaleur que sur le soleil ! Les constructeurs ont donc limité la fréquence d’horloge à 3 ou 4 GHz. Comment fait-on alors que l’on continue toujours de gagner en miniaturisation ? On l’utilise comme la devise belge : l’union fait la force ! A l’intérieur des circuits intégrés, on multiplie le nombre de cœurs de processeurs et tout en limite leur fréquence d’horloge. C’est le principe du parallélisme. Ce n’est pas nouveau, j’ai fait ma thèse sur ce sujet en 1976. En d’autres termes, la limitation de la fréquence d’horloge impose de recourir à un parallélisme massif pour mobiliser les puissances informatiques nécessaires au calcul intensif.

Quelles vont en être les conséquences ?

Cela va imposer de réécrire les logiciels afin de bénéficier de la performance qu’offre le parallélisme. Aujourd’hui, la plupart des logiciels fonctionnent de façon séquentielle : on calcule A et ensuite B. En parallélisme, on calcule simultanément A et B. Or, si l’on calcule à l’aide de centaines de milliers de processeurs, il faut savoir les utiliser tous en même temps. C’est tout le problème des logiciels : ils ne sont pas  »scalables ». C’est à dire qu’ils ne sont pas nativement construits pour profiter pleinement des nouvelles architectures massivement parallèles. Pourtant, il y a des méthodes et des langages qui permettent d’exécuter simultanément des tâches différentes et d’échanger des informations entre les différentes parties. Mais ces méthodes ne sont pas encore connues de tous les développeurs. Avec le développement des supercalculateurs, il va falloir s’attendre à gérer un problème de manque de compétences.

Sur le marché des supercalculateurs, où en est la France ?

Avec les États-Unis, le Japon et la Chine, la France est un des 4 pays dans le monde à maîtriser l’ensemble de la filière des supercalculateurs : les processeurs (STMicroelectronics, Kalray…), les machines (Bull) et les logiciels (ESI Group, Dassault Systèmes…), on a des champions ! Même l’Allemagne a désinvesti, notamment depuis le retrait de Siemens du secteur. Certes l’Inde et la Russie se positionnent sur ce marché mais pas avec le même niveau d’engagement que la France sur l’ensemble de cette chaîne de valeur.

Comment évolue le marché de la haute performance ?

Jusqu’à présent, la demande a été accaparée à 80% par 4 grands secteurs d’application : La Défense, la recherche (physique des particules, météo), l’industrie (pour la conception et la simulation d’avions et de voitures) et l’énergie. D’ailleurs, Total dispose d’un des plus gros supercalculateurs industriels au monde (une machine à plusieurs Pétaflop, soit 1 million de milliards d’opérations à la seconde [1015]). L’intérêt ? Cesser de forer là où il n’y a pas de pétrole ou de gaz car, à chaque fois, cela occasionne une perte de plusieurs dizaines de millions d’euros ! Dans 10 ans, le rapport va s’inverser : les secteurs traditionnels ne pèseront plus que 20% contre 80% pour des secteurs comme la santé, les villes intelligentes, l’agronomie, les nouveaux matériaux, les nouveaux médias, la prévention des risques naturels (inondations, incendies, séismes…), la logistique… Un grand nombre de start-up va se créer pour accompagner ce mouvement. Grâce au cloud, les infrastructures, et notamment celles du calcul intensif, vont se mutualiser auprès des PME et des TPE.

Quelle est la feuille de route du Plan nationale Supercalculateur que vous présidez ?

Sur le volet technologique, la performance des supercalculateurs vise l’exaflop à l’horizon 2020, c’est-à-dire 1 milliard de milliards d’opérations à la seconde [1018] ! Second volet : susciter des initiatives collectives sectorielles pour faire décoller les nouvelles applications et donc les nouveaux marchés comme les nouveaux matériaux, la ville intelligente ou l’alimentation. Dans la santé, on pense, par exemple, à la génomique, aux thérapies géniques (traitements personnalisés), à la détection de cancers… Citons aussi la conception de films cinématographiques. Il faut savoir que la puissance de calcul en simulation numérique employée pour le film Avatar était équivalente en son temps à près du tiers de celle qui était utilisée pour la bombe atomique ! A côté de cela, pour les domaines classiques de la simulation, comme les avions ou les automobiles, on va essayer de modéliser un projet dans son entièreté, avec un niveau très élevé de finesse, et non plus morceau par morceau. L’État a lancé début janvier un appel à projets pour ces initiatives collectives sectorielles. Le troisième volet concerne la diffusion de ces technologies dans le tissu industriel français des TPE-PME et ETI. Deux axes vont être poursuivis. D’un côté, il va s’agir d’aider les start-up technologiques dont les fondateurs ont appris la modélisation numérique durant leurs études d’ingénieur. Ils savent discuter avec le monde de la recherche. A cet égard, saluons l’action du Grand équipement national de calcul intensif (Genci) qui aide les petites entreprises technologiques à accéder aux ressources du calcul intensif et à des chercheurs de haut niveau dans le secteur public pour les accompagner. Autre axe : attirer les PME vers le calcul intensif en mobilisant les pôles de compétitivité, les centres techniques professionnels ou les regroupements professionnels par branches de métier : le CSTB pour le bâtiment, le Cetim pour les industries mécaniques, le Gifas pour l’aéronautique… Dernier volet : développer l’enseignement et les formations à la simulation et au Big Data dans toutes les écoles d’ingénieur et dans toutes les régions.

© Propos recueillis par Erick Haehnsen TCA / innov24

Big Data et Marketing

Le Big Data veut mieux connaître les clients.

Formidable levier pour mieux connaître les attentes du marché et personnaliser ses offres, le Big Data se met au HPC (High Power Computing) pour doper la relation client non seulement sur le Web et le mobile mais aussi en magasin.

Dans un contexte où les consommateurs subissent une forte pression marketing, les entreprises doivent se singulariser par une approche marketing personnalisée et multi-canal. A condition de collecte et analyser des quantités de données toujours plus grandes. Réseaux sociaux, sites d’info, blogs, smartphones… le marketing a déjà dû se au Big Data alors que l’Internet des objets (IoT) n’a pas encore décollé ! « Les clients sont de mieux en mieux renseignés et connaissent souvent déjà l’offre avant de rentrer en contact avec la marque », observe Luc Doladille, directeur chez Umanis Consulting, une société de conseil spécialisée dans les outils décisionnels, le Big Data et la gestion de la relation client. Pour faire face à ces enjeux, le marketing n’a pas d’autres voies que d’évoluer. D’où l’intérêt du Big Data qui, grâce à la formidable puissance des supercalculateurs, va aider les entreprise à mieux connaître leurs clients et enrichir la relation client-marque.

Dans cette logique, de nouvelles spécialités se développent. A l’instar de celles de la start-up parisienne Quinten (créée en 2008) qui s’est spécialisée dans la valorisation stratégique des données sur des axes comme l’efficacité opérationnelle, la productivité, la progression des parts de marché. « Notre algorithme est capable d’explorer 45 milliards de données à partir d’une toute petite liste, souligne Alexandre Templier, PDG de Quinten qui réalise 2 millions d’euros de chiffre d’affaires pour 2014, emploie 20 personnes et compte, parmi ses clients, des sociétés comme Sanofi, Novartis, Roche ou Astra-Zenecca… Dans le parfum, nous aidons les marques à mieux comprendre les plates-formes hédoniques, c’est-à-dire les raisons pour lesquelles telles personnes aiment tel ou parfum. Nous les accompagnons dans leur processus créatif. C’est de l’assistance à la conception. Tandis qu’en aval, nous les accompagnons pour renforcer l’efficacité de leur marketing et de leurs forces de vente. »

Cette efficacité ne doit rien au hasard. En effet Quinten ne se contente pas de développer ses algorithmes de valorisation du Big Data. La start-up exécute du calcul massivement parallèle en chez elle. « Nous avons des besoins en calcul très importants car les données à explorer sont immenses. Par exemple, dans les secteurs de l’assurance ou de la santé, il nous arrive fréquemment de devoir gérer 600 millions de lignes avec des centaines de colonnes. Cela fait des milliards de milliards de données à explorer, reprend Alexandre Templier. Nous nous sommes alors dotés de notre propres centre de calcul avec sa salle réfrigérée. Et nous montons nous-mêmes nos machines ! » Aujourd’hui, très rares sont les sociétés spécialisées dans le Big Data qui disposent de leur propre infrastructure HPC de sorte livrer très rapidement les résultats du calcul. Ce qui place Quinten sur de nouvelles niches de marché : « Nous discutons avec une grande banque de détail pour détecter la fraude fiscale et le financement du terrorisme, poursuit Alexandre Templier. En entrée, il y a des millions de transactions… qui donnent lieu à quelques centaines de déclarations à Tracfin. Cela revient cher. L’idée, c’est d’accélérer les réponses et de réduire drastiquement les coûts. »

Erick Haehnsen © TCA / innov24

HPC, Santé et Big Data

Médecine : calculer la personnalisation des traitements

D’ici deux à trois ans, le français Ariana Pharma espère commercialiser un logiciel d’aide au diagnostic et à la prédiction pour les tumeurs cancéreuses. Le développement de cet outil a été réalisé notamment à l’aide d’un supercalculateur.

Le développement de la médecine personnalisée avance à grand pas. Parallèlement à Watson, l’emblématique ordinateur d’IBM qui travaille sur la détection de certains cancers, les Français ont leur champion. Il s’agit, en l’occurrence, d’Ariana Pharma, spécialisée dans le Big Data appliqué au secteur de la santé. Cette spin-off de l’institut Pasteur espère lancer d’ici deux à trois ans un logiciel en mode locatif sur internet qui facilitera la prise en charge des patients atteints de cancers, depuis la phase de diagnostic de la maladie jusqu’à la décision thérapeutique. « Pour chaque malade, notre outil, Onco Kem, analyse quelques 20 000 marqueurs biologiques que nous combinons entre eux de manière à proposer les meilleurs traitements spécifiques au patient et ses tumeurs cancéreuses », indique Mohammad Afshar, le président et fondateur d’Ariana Pharma. Créée en 2003, cette TPE de 18 personnes revendique malgré sa taille la place de leader mondial dans son domaine. Elle a démarré une expérimentation sous forme d’essais cliniques en partenariat avec cinq centres anticancéreux français et étrangers, dont l’Institut Gustave Roussy. « Il s’agit d’une première mondiale », déclare le président de l’entreprise qui espère généraliser cette approche à d’autres pathologies lourdes comme les maladies métaboliques ou les pathologies auto-immunes.

Prometteur, le logiciel Onco Kem a été construit à partir d’un prototype développé par des universitaires. Ces derniers ont créé une gigantesque base de connaissances alimentées en données cliniques, génétiques, génomiques, etc. « En exploitant cette base documentaire à l’aide d’un supercalculateur et en y incluant leurs connaissances cliniques, les chercheurs ont créé des règles de prédiction que nous avons optimisées et implémentées dans notre logiciel», indique le dirigeant. « Nous utilisons une approche similaire, en collaboration avec le CHU de Strasbourg et la société Bruker, afin d’élaborer de nouveaux algorithmes capables de détecter en quasi temps réel des tumeurs du cerveau », annonce Mohammad Afshar dont les développements ont bénéficié jusqu’ici de 2,6 millions d’euros de levées de fonds et un soutien de la BPI de plus de 2 millions d’euros.

Reconnu par la profession, ce dirigeant a noué un partenariat technologique avec le consortium Win (Worldwide Innovative Networking in personalized cancer medicine) qui vise à transformer les avancées de la médecine personnalisée en nouveaux standards de soin. Ariana Pharma y bénéficiera d’un accès précoce aux derniers résultats de recherche et essais cliniques. De quoi conserver son avance technologique.

Eliane Kan © TCA / innov24

L’industrie préservera sa compétitivité grâce au développement
de la modélisation.

A l’instar des géants de l’énergie et des transports, le secteur des biens de consommation adopte la modélisation 3D ainsi que les tests virtuels pour réduire les coûts de développement et le temps de mise sur le marché.

Danielson Engineering développe des prototypes qui sont optimisés dès la conception puis testés et validés virtuellement.
© Danielson Engineering

Modélisation 3D, simulation et optimisation (MSO) constituent de puissants facteurs de compétitivité pour l’industrie. En témoignent les pétroliers Eni et Total qui ont investi plusieurs dizaines de millions d’euros pour l’acquisition de supercalculateurs Pétaflops (millions de milliards d’opérations à la seconde) afin d’optimiser la recherche de nouveaux gisements et la rentabilité des réservoirs pétrolifères. A un niveau bien plus modeste, les géants de aéronautique et de l’automobile ont adopté eux aussi les outils du HPC afin de réduire leurs coûts de R&D et de conception. « Par exemple, dans le secteur automobile, les essais s’effectuent d’abord sur des modèles virtuels qui sont soumis à des crash-tests digitaux pour évaluer la résistance des structures. Ou à des essais en soufflerie virtuelle afin de vérifier leur indice de pénétration dans l’air », explique Arnaud Bertrand, vice-président de l’activité Big Data chez Atos. Le prochain enjeu sera de modéliser l’automobile ou l’avion non plus morceau par morceau mais dans son entièreté afin de simuler le véhicule globalement jusqu’à un niveau de détail extrêmement fin.

A sa modeste échelle, Danielson Engineering (10 millions d’euros de chiffre d’affaires en 2014 et 90 salariés) s’illustre dans la MSO en HPC. Issue de la compétition automobile où elle opère comme préparateur automobile, cette PME basée à Magny-Cours (Nièvre) conçoit et développe en interne (elle dispose de sa propre fonderie) des moteurs prototypes pour l’aéronautique et bien sûr l’automobile. « Nos pièces sont optimisées dès la conception puis testées et validées virtuellement de sorte à être très proche du rendu final », souligne Rui Da Silva Lourenco, responsable du service calculs chez Danielson.

Cette approche progresse aussi dans le secteur des biens de grande consommation, comme l’observe l’analyste américain Intersect360 Research. Les fabricants de smartphones, perceuses électriques, détergents, emballages alimentaires travaillent désormais sur des maquettes numériques. Ces modèles sont déclinés dans de multiples configurations puis testés de façon numérique avant la fabrication. Cette démarche contribue à améliorer la qualité des produits, à réduire les coûts de développement et de fabrication et surtout à accélérer les temps de mise sur le marché. Tout en tenant compte de la recyclabilité des matériaux utilisés.

Eliane Kan © TCA / innov24

Un nouveau regard sur Alain Turing.

La littérature, les documentaires et le cinéma redéfinissent enfin la place que mérite
ce héros trop longtemps méconnu de la Seconde Guerre mondiale qui a fait basculer
le cours de l’Histoire en cassant le code de cryptographie Enigma du régime nazi.
C’est aussi un des pères de l’ordinateur et de l’intelligence artificielle.

Figurant parmi les plus grands génies de l’histoire, le mathématicien et cryptologue Britannique Alan Mathison Turing (1912-1954) est un des pères de l’informatique, des ordinateurs et même de l’intelligence artificielle. A partir de 1939, il travaille secrètement pour le gouvernement britannique avec son équipe de la Hut 8 au Bletchley Park sur une machine électromécanique qui parvient à casser le code de la machine allemande Enigma (159 milliards de milliards de possibilités) qui cryptographie les communications militaires du régime nazi. Fin 1945, il rédige ce qui est sans doute le premier projet détaillé d’un ordinateur : l’ACE (Automatic Computing Engine). En 1954, on le retrouve mort chez lui, empoisonné par une pomme au cyanure, deux ans après une condamnation pour  »indécence » en raison de son homosexualité, ce qui le contraint à la castration chimique.

Magistralement incarné fin 2014 par l’acteur britannique Benedict Cumberbatch dans le film Imitation Game, mis en scène par Graham Moore et réalisé par Morten Tyldum d’après l’ouvrage d’Andrew Hodges, Turing a fait l’objet de nombreuses œuvres littéraires et documentaires : Britain’s Greatest Codebreaker (Clare Beavan), The Strange Life and Death of Dr Turing ( Christopher Sykes), Le modèle Turing (Catherine Bernstein), La drôle de guerre d’Alan Turing (Denis van Waerebeke)… Dernier en date, le roman L’homme qui en savait trop, de Laurent Alexandre et David Angevin (janvier 2015, Robert Laffont) imagine une société où l’intelligence artificielle domine désormais le monde… Avec une obsession : réhabiliter la mémoire de son  »père », Alan Turing en établissant la preuve qu’il ne s’est pas suicidé mais qu’il a été assassiné. Brillant.

Erick Haehnsen © TCA / innov 24