Les débuts du calcul haute-performance à l’Aérospatiale. Entretien avec Jean-Marc Thomas

Plan

Notes de l’auteur

Entretien réalisé le 19 novembre 2014.

Texte

1. Itinéraire personnel

mzy. Votre carrière côté études semble s’inscrire dans deux grandes phases : l’une de 1973 à 1989 (jusqu’à votre nomination au poste de directeur des programmes hypersoniques) lors de laquelle votre activité se développe autour du calcul de structure ; l’autre, de 1993 à 1999, lors de laquelle vous êtes le patron du BE avion et avez donc une vue managériale des évolutions des pratiques liées à l’informatisation. Cela engendre-t-il chez vous deux types de souvenirs des transformations, ceux du début, très techniques, et ceux des années 1990, plus globaux ?

jmt. Pour moi, c’est un continuum. Sans arrogance aucune, j’ai toujours mené plusieurs vies. J’aime toucher plusieurs domaines… tout en recherchant une cohérence globale. À la fin de Supaéro, j’ai fait ma spécialisation au cnes, où j’ai travaillé sur les Éléments finis. Et j’ai été embauché sur la base de cette compétence, qui n’était pas unique, mais très rare au sein de la division Avion de l’Aérospatiale. Et j’ai été chargé de développements en Éléments finis. Puis, on m’a demandé progressivement de prendre en main toutes les méthodes de calcul, qu’elles soient analytiques ou autres, que ce soit pour de la fatigue, pour de la représentation physique type Éléments finis, différences finies, ou autres méthodes de calcul. Puis, j’ai pris la responsabilité du service « Méthodes de calcul structure », de toutes les méthodes, état des composites, etc. Et là j’ai rapidement touché aux outils qui permettaient de supporter ces méthodes, en l’occurrence les ordinateurs. Pour mémoire, quand je suis arrivé, les ordinateurs étaient dans un état… proche des limbes ! Ce n’était plus ancestral, c’était préhistorique, ce qui n’empêche que c’était tout à fait remarquable à l’époque.

mzy. Pouvez-vous situer le contexte ?

jmt. J’ai été embauché en 1973. J’ai tout de suite été plongé dans les Éléments finis et, après un passage très rapide à Eurocopter, je suis revenu et j’ai été responsable en 1977 de l’ensemble des méthodes et recherches au département Structure. Si vous voulez, en 1973, les principaux calculs étaient menés sur des simulations analogiques. On faisait la fin des calculs Concorde et on les faisait encore principalement à la main, avec la règle à calcul, et avec ce qu’on appelait des simulateurs d’équations sur l’eau. C’est-à-dire qu’on faisait passer de l’eau à un profil et, avec des envois de courant et des traçages des écoulements, on simulait déjà, on calculait des Cx, des Cz, voire des déformations, etc.

Le tout premier à introduire les Éléments finis à l’intérieur d’Aérospatiale a été M. Fontaine. Il travaillait sur des ordinateurs antédiluviens. Mais les systèmes ont évolué rapidement dans la division Avion et vers 1977, on disposait de méthodes de calcul plus poussées. On avait un Nastran, à côté d’un développement interne qui s’appelait aself (Aérospatiale Éléments finis).

mzy. Combien y avait-il de personnes dans l’équipe?

jmt. Il y avait sept ou huit personnes côté informatique ; et deux puis trois puis quatre côté calcul de structure. Si vous voulez, dans certains secteurs, c’était l’informatique qui primait, dans d’autres c’était l’utilisateur qui primait. On était dans un mixte mais, par contre, il fallait produire beaucoup de Fortran (de code) à l’époque, et donc on avait une équipe mixte entre les gens du calcul de structure, dont je dirigeais d’abord la partie Éléments finis puis après le centre des méthodes, et l’équipe d’informaticiens qui développait le code correspondant.

mzy. C’était un travail continu ?

jmt. Il s’est étoffé. On a développé le b.a.ba des Éléments finis ; puis on a fait du non-linéaire, puis de la thermique, des méthodes de contact… Tout ça, progressivement.

mzy. Jusqu’au moment où vous achetez Nastran ?

jmt. Jusqu’à un moment où on s’est dit qu’il devenait difficile de développer et soutenir un code, surtout de plus en plus perfectionné. Deuxièmement, comme ailleurs, se développaient les offres sur étagère. Troisièmement, on avait des références internationales ; même si nous n’étions pas encore Airbus, nos partenaires traditionnels, anglais dans le cadre du Concorde, allemands et espagnols pour les Airbus, nous imposaient de parler à un niveau européen. Nastran apparaissait comme un code référence. C’est ainsi qu’on l’a choisi. Il y a eu une substitution progressive d’aself vers Nastran. Par ailleurs, nous avons acheté un autre code qui répondait bien à la préoccupation de certains problèmes non linéaires (surtout en composite), et qui était samcef, développé à l’université de Liège.

mzy. Sur quelle durée s’étend cette période de la substitution de Nastran à aself ?

jmt. Elle est étalée sur une dizaine d’années, et pour au moins une raison. Il y avait (et il y a toujours) la capacité de restituer n’importe quel calcul pendant quinze ans, vingt ans, ou plus. En cas d’incident, d’accident, voire de crash, il faut pouvoir démontrer la fiabilité de la structure. Les avionneurs doivent donc entretenir tout un système d’archives de façon cohérente. On ne pouvait pas facilement se débarrasser d’un code.

mzy. Quels ont été les points marquants de cette période ?

jmt. Il faut mesurer d’où on est partis. On a vécu une époque très différente d’aujourd’hui. J’ai passé des nuits à rentrer des bacs de cartes perforées. Et appelé à minuit en me disant qu’on a rentré votre dernier casier, et que ça a crashé à cause de deux cartes qui bloquent. Et je me rhabillais, j’étais jeune ingénieur, j’étais motivé, ça me passionnait. Tout ceci entraînait un rapport de très grande prudence vis-à-vis des codes.

De la même façon, si j’avais été dans la cao, je vous dirais qu’à mon arrivée, c’était le gravage sur tôle, puis il y eut le Mylar, et progressivement c’est devenu la cao que l’on connaît et dans laquelle il n’y a plus de support papier ; c’est uniquement des fichiers ordinateurs. On trouve souvent que maintenant, ça va vite, mais à cette époque on trouvait que ça pédalait drôlement aussi.

Je me suis rapproché des ordinateurs parce qu’on voyait bien qu’on tombait sur un certain nombre de butées : butée mémoire, butée puissance de calcul, etc. Et à l’époque de l’Aérospatiale division Avion, on travaillait principalement sur des ordinateurs Control Data, avant les superordinateurs Cyber 205 ou autres. Je crois qu’on a eu un 6600.

Je connaissais le monde des équations, mais je m’intéressais au monde technologique, technique. Ce qui fait que petit à petit, bien que je sois quelqu’un du monde des structures, je suis devenu le monsieur informatique tout en n’étant pas informaticien, surtout sur les évolutions architecturales des ordinateurs pour la division Avion.

Sur ces évolutions, on m’a demandé de coordonner un groupe de réflexion commun aux divisions Avions et Hélicoptères d’Aérospatiale. Il y avait alors des ordinateurs très séquentiels, d’autres très parallèles.

mzy. Pouvez-vous dater cette période ?

jmt. Cela se passe à peu près quand je suis devenu responsable des méthodes de calcul avant de passer une période sur les avions. J’avais un grand patron, M. Plénier, qui fut le directeur technique puis le directeur de la division Avion, qui m’a dit : « Vous serez toujours dans ce que vous aimez, mais vous aurez besoin de savoir ce qu’est un vrai produit opérationnel. » Ce en quoi il avait raison. C’est ainsi qu’en 1987, et pour deux ans, il m’a collé au turbin, responsable des calculs de la part française de l’A330/A340. Toutes les méthodes que j’avais développées, j’étais chargé de les mettre en œuvre. C’était intéressant. Mais j’avais d’autres visées et je suis parti ensuite vers d’autres cieux.

Pour revenir à la question, on est dans les années 1977 à 1985 à peu près. On avait une vraie réflexion. Avec l’inria, avec l’onera, ça frissonnait de partout. On parlait des array processors. On entendait parler du Cyber 205, donc de technologie de super calculateur. ibm se proclamait même champion toutes catégories. Il y avait de nouveaux arrivants comme Hitachi. On avait une structure de coordination entre l’aérodynamique, la structure et l’informatique de la division Avion. Comme j’étais le plus avancé (la division Avion était la plus grosse division dans toute l’Aérospatiale) je me suis retrouvé embringué (de mon plein gré !) dans la commission Jacques-Louis Lions.

C’était au moment où se posait la question de la reconversion de Bull, qui s’était lancé dans la conception d’un ordinateur plus ou moins massivement parallèle, à base de modules de la sintra. L’architecture, les protocoles de communication pour faire tourner le tout, c’était beaucoup d’argent. L’État s’est préoccupé de la chose et a créé une commission nationale présidée par Jacques-Louis Lions, qui a été le président de l’inria, du cnes… Il a été chargé de créer une commission pour donner un avis à l’État français sur la pertinence de ces orientations. L’Aérospatiale m’a désigné pour y contribuer. Ça a été très intéressant. On a travaillé avec Bull, sintra, l’inria à l’identification des forces et des faiblesses de la stratégie.

On voyait que l’ordinateur à tout faire, du type ibm, se séparait en deux grandes familles : le calcul scientifique et le calcul de gestion. Le seul qui m’intéressait était le calcul scientifique. Et j’ai été envoyé pour une mission d’analyse à Indianapolis, chez les grands acteurs américains qui dominaient le sujet, Control Data et Cray. Ces deux entreprises, qui cherchaient à se positionner, avaient organisé une visite (payante). Je me suis retrouvé avec des personnes d’edf, du pétrole… On était une vingtaine. Un programme de dix jours. On nous a présenté les systèmes, les plans de stratégie… Il y avait une part d’action commerciale, mais intéressante tout de même. On était, je crois, entre 1983 et 1985. Je prêchais alors pour ce qu’on a appelé un supercalculateur aéronautique. Dont il apparaissait de façon évidente que le premier ne pourrait pas être à Toulouse, à la division Avion. C’était un sujet très sensible pour l’onera, Dassault, snecma. Sachant que le premier de ces ordinateurs était déjà arrivé à ce qu’on appelait la cisi. Les premiers tests ont été faits avec des pipes descendant à Toulouse depuis Saclay, où se trouvait le cisi ouvert au public (et qui était séparé de façon étanche du cisi du cea). On a commencé à titiller, à expérimenter, les codes. On faisait des choses équivalentes sur le Control Data 205, qui apparaissait en perte de vitesse. Son créateur, Seymour Cray, avait créé sa propre entreprise, laquelle a vite distancé Control Data.

Au sein de l’aéronautique française, avec le gifas, j’ai poussé comme une mule pour faire arriver le premier supercalculateur aéronautique, un Cray One, à l’onera. Grâce à des accords qui nous permettaient, via une ligne à haut débit, 1 Mb je crois, sécurisée, on faisait nos calculs sur cet ordinateur. Il a fallu adapter les codes. On avait encore l’aself qu’on avait adapté. On a continué à tester la pertinence de l’ensemble. Puis, on s’est aperçu que l’ordinateur de l’onera saturait. On avait un accord tacite : si on devait augmenter la puissance, on dédoublerait avec Toulouse, l’un pouvant servir de backup à l’autre. C’est ce qui s’est passé. Il y a eu un ordinateur principal à l’onera et un secondaire à Toulouse que nous étions presque seuls à utiliser. C’est à cette époque-là que la météo, qui a de gros besoins en haute-performance, a évolué vers le supercalculateur.

C’est alors que commence l’histoire du cerfacs, qu’a bien connue Pierre-Henri Cros. Toujours convaincu qu’il fallait faire des choses à Toulouse (et à l’époque on n’avait pas encore le Cray), j’ai milité pour la création de compétences. On a commencé à phosphorer sur le cerfacs (Centre européen de formation avancée au calcul scientifique). On était un petit groupe de quatre ou cinq personnes parmi lesquelles il y avait Bernard Gregory, l’ancien patron du Pic du Midi puis du cnrs, Jean-Claude André qui était déjà à la Météo, Pierre-Henri Cros qui tournait dans toutes les affaires européennes et moi-même. On se voyait tous les samedis matin au cnrs… On apportait café et croissant, on phosphorait sur comment Toulouse pouvait devenir un centre de recherche et de formation avancée, avec les hommes, les compétences, les moyens. Dans l’histoire cerfacs que je laisse Pierre-Henri vous raconter, on a testé des machines d’avant-garde qui souvent n’ont pas eu le succès attendu, mais qui plaisaient à nos chercheurs qui aimaient les équations tarabiscotées. Avec des architectures massivement parallèles, ça leur allait très bien.

mzy. Dans ces calculs, mettez-vous la cao ?

jmt. Absolument pas. On en a fait un axe de réflexion indépendante. Avec des passerelles. Si vous modélisez des pièces en 3D, il faut rapidement permettre de bâtir un maillage Éléments finis qui bascule, donc un code Éléments finis qui va aller sur le calculateur haute performance. Mais on n’a jamais associé haute-performance et cao.

Les codes d’aujourd’hui (comme Catia et El-fini) cherchent à associer les deux, mais c’est un packaging finalement.

mzy. Quels allers-retours entre le calcul haute-performance et la cao ?

jmt. Les allers-retours se faisaient par l’interface des mailleurs. C’est comme ça que j’ai connu le domaine. J’ai fait une interface entre notre calcul de structure aself et unistruct. Nous étions sur Control Data. Il fallait passer des formes qu’on recevait à des maillages et je ne pouvais pas demander aux calculateurs qui travaillaient sur des stress analysis de faire des maillages s’ils n’avaient pas d’outil pour les aider. Ils n’allaient pas inventer un nœud, lui donner ses coordonnées, construire au-dessus des triangles, des quadrangles… J’ai personnellement développé une interface qui nous permettait, à partir de formes connues, de surfaces connues, de bâtir dessus, en s’appuyant sur unistruc qui était un mailleur, une interface entre le code Aérospatiale et le code du commerce que nous utilisions à l’époque.

mzy. Dans quel langage l’aviez-vous développé ?

jmt. En Fortran. C’est le seul langage que j’ai utilisé. Je suis resté passionné par l’informatique mais du côté utilisateur… Je n’ai jamais fait de technologie pour la technologie. Je regardais les throughputs.

Une idée au passage sur des années intéressantes parce que lourdes de conséquences : les architectures fortement séquentielles, dont, à la limite, Control Data et Cray étaient les représentants. On a des pipes les plus longs possible, on les remplit, une clock tombe et fait une opération. Sur des longueurs de 10 000 (ce qui est courant avec les Éléments finis en aérodynamique ou en structure), on a des throughputs d’enfer. Mais si on fait du couplage entre l’aérodynamique et la structure, ça s’épuise un peu, car les pipes sont moins longs et on est plus intéressés par une architecture massivement parallèle. Certains à l’époque l’inventaient avec un certain succès. La conséquence n’était pas anodine. Car il fallait transformer les codes. Il n’y avait pas de transcodeur entre un programme écrit pour du séquentiel et le même pour du parallèle. De plus, il fallait souvent reconstruire l’alimentation des codes, même si les calculs restaient les mêmes ; de sorte que si on avait une machine haute performance séquentielle, on…

(il parle du passage séquentiel à parallèle).

Je voulais évoquer toute cette bataille, qui du reste n’est pas finie, entre le séquentiel et le massivement parallèle, sachant que les machines ont essayé de reconstituer les avantages de l’un et de l’autre, avec des sommes de vecteurs, multiplication de vecteurs…

Sur des architectures distribuées qui, elles, ont l’avantage d’être sur des processeurs peu coûteux alors que les machines haute-performance en séquentiel nécessitent des refroidissements coûteux.

2. Évolution des métiers

mzy. Quelles étaient les relations humaines entre cao et calcul ? Par exemple, est-ce que ma pièce tient avec cette géométrie ou ne tient-elle pas ?

jmt. Dans ces années où l’ordinateur arrive massivement se sont posés deux problèmes qui se sont traduits par des évolutions des métiers. Il y avait des gens habitués à faire des calculs de résistance des matériaux avec des méthodes sophistiquées mais « abordables à la main » et qui avaient le sens physique, et des jeunes ingénieurs avec moins de sens physique, mais qui savaient parler avec les ordinateurs et qui sortaient des listings. Avec le risque que j’ai vu pendant des années : s’il y avait des erreurs de dix, elles ne se voyaient pas. Ils n’avaient plus l’ordre de grandeur. Il y avait ceux qui avaient l’ordre de grandeur et qui savaient grosso modo à 20 ou 30 % près ce qui allait sortir. Et puis ceux qui sortaient trois chiffres significatifs, mais le premier était faux. On a vécu cette transition de métier. Il faut garder le sens du métier en même temps qu’on utilise l’informatique.

mzy. Avez-vous un exemple de manque d’ordre de grandeur ?

jmt. Quand vous sortez l’analyse d’une pièce qui s’avère moins résistante que prévu, par exemple des arrêts de raidisseurs sur l’atr. Un raidisseur donne de la résistance en flexion, en tension, il peut faire plusieurs mètres. Ce sont des pièces difficiles à calculer. Ça nous a obligés à des reprises de calcul quand les premiers tests ont montré des faiblesses.

La qualité de la représentation est donc la finesse des résultats et la complexité du calcul par les méthodes traditionnelles.

Quand je suis arrivé, il n’y avait pas d’ordinateur. On était en train de développer le code Éléments finis. À l’époque, les grands livres de référence du calcul de rdm, il y avait le Valate (M. Valate était un des grands dirigeants d’Aérospatiale) et le Milan’s book pour les Américains. On avait deux ou trois livres de référence et avec ça on a fait les calculs Caravelle et la plus grosse partie du Concorde. Ce que je veux traduire est que, quand on s’est lancés dans les ordinateurs, une mutation des acteurs, grosso modo on avait une dichotomie (qui, soyons clairs, n’existe plus aujourd’hui) entre ceux qui venaient des méthodes de résistance des matériaux et ceux qui, plus jeunes, plongés dans les méthodes de calcul, n’avaient pas passé dix ou quinze ans en résistance des matériaux pour pouvoir faire le pont. Aujourd’hui, même quelqu’un aux Éléments finis doit faire le pont. Au sens de la formation, on sait qu’il faut lui transmettre un équilibre entre la connaissance physique et la connaissance de la modélisation. Car le résultat dépend de la modélisation ; il y a une grande sensibilité. Il sort des résultats puis il faut une capacité d’analyse. Aujourd’hui un jeune, avec quelques années d’expérience, intègre les deux.

mzy. À quels types de modélisations pensez-vous ?

jmt. Toutes.

mzy. Vous pensez qu’il y a aujourd’hui plus de multiculture qu’autrefois ?

jmt. Oui, car on a vécu une césure. À un moment donné, il y avait deux populations et le pont était difficile. Aujourd’hui ce n’est plus le cas.

mzy. Quand situez-vous cette transition ? Et d’où l’avez-vous vécue ?

jmt. De 1977 à 1987, j’ai été responsable des méthodes calcul. En 1977, le passage à l’ordinateur s’accélère très fortement. On a de nombreux recrutements de jeunes ingénieurs. Pendant quelques années, avec le Concorde, on avait fermé les portes, puis on les a rouvertes avec les projets qui arrivaient. L’A300 d’abord, puis l’A320. Il y a eu un souffle des jeunes et il a fallu faire le pont des générations. Et on a appris en marchant qu’il fallait plus d’osmose. La passerelle, c’est bien pour faire cohabiter deux générations, mais il fallait être très attentif à ne pas avoir que des experts de la modélisation (les belles couleurs, des cartographies thermiques magnifiques comme des objets d’art). Sauf que, soit par choix de modélisation, soit par une truffe venue de quelque part, ça ne peut pas donner ça : c’est le sens physique.

Le sens physique, c’est vraiment le garde-fou.

mzy. Où s’acquiert-il selon vous ?

jmt. Dans les écoles d’ingénieurs au moins. J’ai enseigné douze ans les Éléments finis à Supaéro. Ce sont des choses que l’on rabâche. Les jeunes sont tutorisés par des anciens qui savent faire la part du feu. Les notions de tutorat, de transmission du sens physique, restent des préoccupations très fortes.

Un bon moyen de démarrer, ce sont les essais, que ce soit en structure ou en aérodynamique (en soufflerie), il y a une corrélation extrêmement forte entre le calcul et le réel. Personnellement, les deux années où j’ai été responsable du calcul pour la part française de l’A330/A340, j’ai passé des nuits au ceat pour voir des éprouvettes casser, de panneaux en flambage. Quand vous les voyez, que vous avez des jauges, eh bien si vous modélisez et que vous ne retrouvez pas vos petits… vous pouvez toujours vous dire que les jauges sont mal placées, mais le plus souvent elles disent la vérité. Voilà l’effort de corrélation. Aujourd’hui même si les ordinateurs tentent de se substituer, ou plutôt de réduire le volume d’essais, il n’empêche qu’il restera toujours les essais. C’est le juge de paix. Et d’ailleurs la certification exige des essais. En particulier, tout nouvel appareil doit avoir une cellule cassée en statique et une cellule vieillie en fatigue.

La formation passe par les éprouvettes. La physique a encore un grand destin. Heureusement !

3. Les phases de conception

mzy. En quoi l’informatique a-t-elle modifié les grandes phases de conception du point de vue de la durée et des effectifs…

jmt. … et de l’amélioration en qualité.

Une première phase, qui peut durer cinq ou dix ans, celle de l’innovation technologique, couvre quantité de sujets. Un d’entre eux, à titre exemple, qui m’a passionné avant que j’arrive à l’âge de la retraite, est les nanotechnologies. J’ai participé à des groupes de réflexion qui associaient ce qui était alors eads, le cea et d’autres chercheurs dans le cadre de grands plans d’innovation. Les applications en sont importantes, qui vont de la résistance des matériaux à l’anticorrosion. Ou encore dans les glaces de cockpit, qui ont une capacité d’évacuation de l’eau sans essuie-glaces ni fluide.

Mais les innovations ne se trouvent pas sous le pas d’un cheval. Ça demande un temps de maturation très important. On a une espèce de vivier de technologies potentielles qu’il faut travailler pour isoler celles qui doivent être conservées et qui prendront une crédibilité réelle.

Décider de lancer un nouvel avion, c’est aussi prendre le risque de choisir dans le vivier de technologies lesquelles sont abouties ou sur le point d’aboutir.

mzy. Qu’est-ce qui succède à cette phase initiale de recherche ?

jmt. C’est l’avant-conception. Pour bien vérifier la faisabilité, c’est-à-dire qu’on a des objectifs de performance, de poids, etc, on travaille avec les motoristes, les systémiers. Un go de lancement avion a été pris, mais qui reste interne. On commence à voir quelles seront les performances de l’avion. Les commerciaux testent auprès de nos clients, dans le monde entier, les caractéristiques imaginées de l’avion, en nombre de passagers, en consommation, en prix, etc… Si des commandes potentielles donnent à penser que le carnet de commandes sera suffisamment étoffé, on y va. Mais dans une première phase, il y a de la décantation.

mzy. C’est alors qu’il y a un go sur le lancement public ?

jmt. Oui, sachant qu’il nous est arrivé d’en différer la date ; voire plus, si l’on se souvient qu’après l’A300, nous avons hésité entre le lancement de l’A320 et celui de l’A330. À la suite d’une étude de marché qui montrait l’importance d’un 100/150 places, on a lancé d’abord l’A320. Je ne sais pas ce que ça aurait donné si on avait fait l’inverse. L’histoire a montré que c’était le bon choix.

mzy. En fin de projet avancé, démarre la définition ?

jmt. Oui, et la production colle derrière. Car définition et production avancent en parallèle. Mais il y a beaucoup de choses en parallèle. À côté de nos partenaires motoristes, systémiers, il y a les usines pour lesquelles il faut préparer les halls d’assemblage, les machines-outils de nouvelle génération : par exemple, les machines de drapage, quand on est passés aux composites.

C’est donc un front absolument immense qui avance.

Et puis on construit le premier avion sur lequel on apprend beaucoup. Il va souvent partir (parfois c’est le deuxièmes) vers les essais statiques. Parmi les tout premiers avions, il y a aussi ceux qui partent vers les essais de fatigue. Ils nous aident à valider un certain nombre de choses. Généralement, on construit cinq prototypes qui sont très proches de la version finale, et qui vont permettre d’abord de voler rapidement, mais aussi de savoir ce qu’il convient de perfectionner, en qualité de vol, en consommation, en résistance… sachant que, comme je le disais, ça avance sur un front immense. Il faut voir qu’en avance d’au moins deux ans avait démarré la définition du cockpit ; au sol, les départements des Essais en vol et de l’ergonomie collaborent avec les Airlines, avec les pilotes. Comme vous le savez, la visualisation sur écran n’a cessé d’augmenter avec l’A380, l’A350. Ce sont des ergonomies qu’il faut travailler en parallèle.

mzy. Jusqu’à ?

jmt. Jusqu’à, à peu près, cinq avions. Lesquels servent aussi à étayer le dossier de certification, de démonstration devant les autorités (faa, dgac, et autres). Et pendant ce temps-là, on commence la montée, un avion tous les deux mois, puis un avion tous les mois, puis un avion tous les quinze jours… une montée en puissance de l’industrialisation.

Quand on a atteint ces points, quand les premiers avions commencent à sortir, l’effectif de l’engineering commence à descendre. En production, ça monte un certain temps jusqu’à ce qu’on arrive à peu près à l’asymptote des cadences de production.

Et puis, pendant ce temps-là, l’après-vente monte en puissance ; il faut accompagner la formation des pilotes puisqu’on livre de plus en plus. En toile de fond, l’après-vente au sens traditionnel : pannes, analyses des pannes, recherche des coïncidences…

4. Vers l’architecte-intégrateur

mzy. Avec les phases de conception qui se parallélisent, avec les sous-traitants qui deviennent peu à peu des rsp (Risk Sharing Partners), le concurrent engineering s’impose peu à peu avec tous ses problèmes de maintien en cohérence des configurations. Avec la maquette numérique, les besoins d’interface entre calcul et dessin s’accroissent également. Ne peut-on penser qu’entre 1970 et 1995, l’informatique a accompagné de façon déterminante cette transformation ?

jmt. Certainement, mais il y a autre chose. Au début, Airbus fait tout ou, du moins, beaucoup de choses. Progressivement, pour se concentrer sur son rôle en haut de la pyramide, qu’on appelle aujourd’hui d’architecte-intégrateur, pour s’appuyer sur un réseau de partenaires qui partagent aussi les risques, les rsp, mais de telle façon qu’on ne traite pas à la fois la globalité de l’avion et le dernier boulon ; ce qui n’est absolument pas péjoratif vis-à-vis du dernier boulon. C’est comme ça qu’on travaille avec des partenaires comme Latécoère, Aérolia (Aérolia étant un cas particulier ; c’est notre entité en charge des points avant de tous les Airbus et peut-être d’autres avions à venir). On a de plus en plus un réseau de supply chain de N-1, N-2 qui eux-mêmes répercutent pour les mêmes raisons jusqu’à un niveau de granularité qui ne dépasse rarement pas trois ou quatre niveaux.

Le concurrent engineering implique que faire la conception, disons, d’un tronçon, ne signifie pas nécessairement concevoir tout le tronçon, mais éventuellement ses seuls éléments structurants : ainsi, on pourra définir telle épaisseur de peau et confier les détails de structure, de jonction au responsable de la zone en question. Il y a bien sûr des règles d’interface à respecter, mais le concurrent engineering permet de rassembler plus d’idées que celles de celui qui est au somment de la pyramide.

mzy. L’architecte-intégrateur intervient-il à partir du moment où se fige le besoin, où il apparaît qu’il y a un marché et qu’il faut démarrer un programme, quand il reçoit un go du marketing et se met à définir, distribuer, suivre les fabrications pour les intégrer ensuite ?

jmt. L’architecte-intégrateur a deux fonctions bien avant celles que vous évoquez. La première : l’intelligence du marché. Des études très importantes sont menées pour connaître l’évolution mondiale du transport ; pour savoir que le marché asiatique monte, que le marché transatlantique sature un peu, et que le marché interne des États-Unis ne nous concerne que par du cost-to-cost… À ces grands paramètres s’ajoute l’évolution de la population pour les sièges. C’est aussi les impacts humains de l’évolution des architectures : si on va vers des structures par ailes volantes (qui sont techniquement faisables), seront-elles acceptables du point de vue passager ? Ne plus avoir de hublots, c’est une lourde décision. Il faut aussi des études de marché autour des déplacements de millions de passagers ; il faudra des gros, des moyens, des petits avions. Il faudra sûrement les trois, mais lequel sera dominant ? Quel programme sera le plus flambant ?

La deuxième fonction de l’architecte-intégrateur est de se lancer dix ans à l’avance dans les technologies qui vont être différentiantes. Par exemple, les premières pièces en composite ont été moulées pour le Concorde, puis on a fait des pièces secondaires, puis des pièces primaires. Les composites suivent une courbe à 5 % d’abord, puis on a un palier à 20 %, puis 25 % avec l’A380 et 50 % avec l’A350. De pièce aisément changeable, le composite, est devenu aussi structurant que la wing box, le tronçon 21, sur l’A350. L’architecte-intégrateur est celui qui observe ce qui foisonne dans le monde de la recherche, dans les laboratoires (il y en a d’excellents à Toulouse), celui qui a décidé d’investir dans telle ou telle direction, à travers des collaborations. L’enjeu est d’anticiper ce qui va pouvoir déboucher dans un horizon de dix ans, par exemple, sur les glaces, les antioxydants, dans les peintures qui intègrent grâce aux nanotechnologies des conducteurs de foudre. Autrefois, il y avait des maillages pour conduire la foudre. Un jour, ce seront des peintures qui feront la même chose.

Vous voyez : l’architecte-intégrateur ne vient pas seulement tirer des cartes pour fabriquer son jeu.

Citer cet article

Référence électronique

Maurice Zytnicki, « Les débuts du calcul haute-performance à l’Aérospatiale. Entretien avec Jean-Marc Thomas », Nacelles [En ligne], 6 | 2019, mis en ligne le 07 juin 2019, consulté le 05 mai 2024. URL : http://interfas.univ-tlse2.fr/nacelles/761

Auteur

Maurice Zytnicki

Ingénieur ESIGELEC (Saint-Étienne-du-Rouvray)

Architecte de systèmes d’information (www.gpmi.net)

maurice.zytnicki@gmail.com

Articles du même auteur