Albert Cohen, professeur à Sorbonne Université, membre du laboratoire Jacques-Louis Lions, orateur invité au 8e congrès européen des mathématiciens (8ECM)

Interview Mathématiques

Interview d’Albert Cohen, professeur à Sorbonne Université, membre du laboratoire Jacques-Louis Lions, orateur invité au 8e congrès européen des mathématiciens (8ECM).

1- Quel est votre domaine de recherche ?

L’essentiel de mes recherches gravite autour des sciences du calcul, dans des directions théoriques et applicatives assez variées. J’ai été à la fois amené à développer des méthodes concrètes et à me poser des questions plus fondamentales sur les compromis entre la précision et la complexité. Par exemple : combien de bits sont-ils nécessaires pour coder une image avec une certaine précision ? Combien d’opérations sont-elles requises pour faire une simulation numérique avec une certaine marge d’erreur ? De combien de mesures doit-on disposer pour reconstruire un signal avec une qualité satisfaisante ? Toutes ces questions sont au cœur de multiples enjeux technologiques. Les aborder en termes de modélisation mathématique permet d’essayer de saisir les limites théoriques fondamentales dans ces compromis et aussi de comprendre si les méthodes concrètes qu’on propose permettent d’atteindre ces limites.


L’enjeu de la perte d’information au cœur des sciences du calcul

Une problématique centrale aux sciences du calcul est le passage du continu au discret. Il s’agit de passer d’un phénomène qui implique une infinité de variables ou de paramètres à un phénomène qu’on peut décrire avec un nombre fini de valeurs, par exemple sur un ordinateur. L’exemple le plus simple de discrétisation est l’échantillonnage d’une fonction. On en garde un nombre fini de valeurs et on pose la question : dans quelle mesure ces valeurs sont-elles informatives ? Permettent-elles d’avoir une information suffisante sur l’objet qu’on avait au départ pour l’application visée ? Ce qui est en jeu au moment du passage du continu au discret est la perte d’information.


La notion de méthode optimale

Puisque par nature, en discrétisant, on perd de l’information, de la précision du phénomène, une des questions fondamentales autour des processus de discrétisation est de savoir comment quantifier le compromis entre la complexité et la précision. Qu’est-ce qui fait qu’une méthode est meilleure qu’une autre ? Pour déterminer cela, on peut considérer un modèle mathématique qui va décrire la classe d’objets qu’on cherche à approcher, que ce soit un signal, une image ou un phénomène physique, et considérer la manière dont on choisit de mesurer la précision. La question qui se pose est celle de l’optimalité des méthodes : comment une méthode numérique qu’on propose peut-elle être qualifiée d’optimale pour cette classe d’objets ?


Les barrières fondamentales

Quand j’essaie de comprendre, pour une classe d’objets mathématiques, ce qu’est une méthode optimale, ce qui m’intéresse est d’essayer de cerner quelles sont les limites, les obstructions fondamentales qu’on ne peut pas dépasser. En un sens, c’est une approche qui est teintée d’un certain pessimisme : c’est dire que pour un problème on a une limite théorique. Mais si les barrières fondamentales qu’on arrive à identifier mathématiquement nous bloquent, elles permettent aussi de dire : lorsqu’une méthode concrète atteint ces performances, c’est une méthode optimale, puisqu’on sait qu’on ne peut pas faire mieux. Admettons que par un calcul mathématique on prouve que le corps humain ne peut pas faire un 100 mètres en moins de 9 secondes et demi. Si un athlète développait une technique lui permettant de courir en 9 secondes et demi, on pourrait dire qu’il a une méthode de course optimale.

Méthodes linéaires et non-linéaires

Dans les méthodes numériques considérées, on fait souvent la distinction entre les méthodes dites linéaires, où le résultat du calcul dépend linéairement des données - si on multiplie les données par deux, le résultat du calcul va être lui-même multiplié par deux - et les calculs non linéaires, où une telle proportionnalité ne se produit pas. Les méthodes non linéaires sont souvent plus complexes mais on peut montrer qu’elles ont des performances plus intéressantes sur certaines classes d’objets qui sont d’intérêt pratique. Par exemple lorsque l’on fait du traitement d’images, ou de la simulation numérique de phénomènes physiques des transitions rapides telles que des ondes de choc, on est amené à discrétiser de manière adaptative le phénomène en allouant plus d’information ou de ressources de calcul sur les bords des images ou sur les zones de transition dans les ondes de choc. Un tel traitement débouche naturellement sur des méthodes d’approximation dites non linéaires. Pour ces méthodes plus sophistiquées, il y a aussi des obstructions fondamentales.


La malédiction de la dimensionnalité

Je suis venu à ces problématiques à partir des bases d’ondelettes, qui sont une certaine façon de représenter des fonctions de signaux complexes et qui se sont révélées particulièrement utiles pour la compression d’images. Mais ces questionnements ont pour moi rapidement dépassé le cadre particulier des bases d’ondelettes. Ce sur quoi je travaille depuis une dizaine d’années, c’est la manière d’approcher numériquement des phénomènes décrits par des fonctions d’un grand nombre de variables, et où va apparaître une obstruction qui s’appelle la malédiction de la dimensionnalité. Elle fait référence au fait que pour atteindre une précision donnée dans la capture d’un phénomène dépendant d’un grand nombre de variables, la complexité de la discrétisation va exploser exponentiellement en fonction de la dimension. Pour faire une analogie, pensez à quelqu’un qui cherche à ouvrir un coffre-fort où il y a des petites molettes avec des chiffres allant de 0 à 9. S’il y a une molette, on n’y a que dix essais à faire, s’il y a 2 molettes, il faut explorer 10 x 10 combinaisons, s’il y a dix molettes, il faudrait étudier 10 x10 x 10 x… etc. combinaisons. Un problème similaire se pose pour explorer suffisamment finement un espace de grande dimension.


Contourner la malédiction : le rasoir d’Ockham

Ces questions se rencontrent sans arrêt dans le monde physique et technologique, où l’on se confronte en permanence à l’étude de phénomènes dépendant d’un grand nombre de variables. La question est alors de savoir s’il y a des propriétés supplémentaires qui vont nous permettre de contourner la malédiction de la dimensionnalité. Ce peuvent être des propriétés de régularité : les objets dépendent de beaucoup de variables mais varient peu. Ce peut être la notion de parcimonie : le phénomène ne dépend que d’un petit nombre de variables cachées qui ne sont pas connues dès le départ. C’est ce qu’on appelle parfois le principe du rasoir d’Ockham, un postulat scientifique qui conduit à privilégier l’explication d’un phénomène faisant intervenir le plus petit nombre de variables explicatives possible. La question est alors : comment cerner plus précisément les propriétés mathématiques qui permettent de contourner les limites de la malédiction de la dimensionnalité ? Dans quelle mesure ces propriétés mathématiques sont-elles vérifiées pour des phénomènes se produisant dans des applications pratiques ? Comment dans certains phénomènes physiques retrouve-t-on ces propriétés de régularité et de parcimonie ? Est-ce que le monde réel produit naturellement des propriétés de régularité et de parcimonie ?
Small data vs big data

Ce que je fais, les méthodes que je développe, ont des connections avec les sciences des données mais il faut comprendre que le cadre dans lequel je me place n’est pas celui du big data. Je suis dans un scénario de small data avec des données qui sont difficiles à acquérir. A titre d’exemple, prenez l’étude des performances d’un moteur en fonction de variables comme le mélange des différents composants du carburant qu’on lui injecte, mais aussi des propriétés comme la géométrie de sa configuration. Pour chaque combinaison possible de variables, on peut faire l’expérience physique de faire tourner le moteur, ou le faire par une simulation numérique, et on sera confronté au problème évoqué précédemment avec l’exemple du coffre-fort : on aura à faire des essais avec potentiellement un très grand nombre de combinaisons et, pour chaque combinaison, une expérience soit physique soit numérique. Or on ne peut pas se permettre un très grand nombre d’expériences physiques et d’expériences numériques. On n’est donc pas dans le domaine du big data mais dans celui du small data, au sens où chaque donnée est coûteuse en temps d’expérience ou de calcul.

2- Comment en êtes-vous venu à faire des mathématiques ?

Du plus loin qu’il m’en souvienne j’ai été attiré par cette discipline. Les études scientifiques sont en France axées autour de la physique et des mathématiques. Je me suis rendu compte que ce qui m’intéressait dans la physique, c’est le passage aux équations et en fait la partie mathématique qui s’y trouvait. Cela m’a amené à faire un choix qui s’est révélé assez naturel.

3- Comment envisagez-vous votre métier d’enseignant-chercheur ?

Je ne peux pas envisager mon métier de chercheur sans l’adosser au métier d’enseignant. Je porte une double casquette, à la fois d’être dépositaire d’un corpus scientifique que je diffuse par l’enseignement, et d’apporter par la recherche une contribution très modeste à l’édifice. Pour moi cela va ensemble. Par ailleurs, on est souvent amené à avoir des bonnes idées de recherche à travers l’enseignement.

4- Qu’est-ce qu’être mathématicien pour vous ?

Ce qui est intéressant en mathématiques, c’est qu’on travaille avec un langage commun qui nous permet très rapidement d’interagir avec des collègues de toute culture et de toute nationalité, ainsi qu’aux interfaces disciplinaires – sachant que toutes les disciplines ne disposent pas forcément de la même familiarité avec le langage mathématique. C’est le côté ouvert du langage mathématique. A l’inverse, ce langage isole aussi : on ne peut pas parler de ce qu’on fait avec ses proches aussi facilement que si on était chercheur en médecine, en littérature ou en biologie. On se heurte souvent à un mur. Mais cet isolement peut être une sorte de havre ou de refuge, ce qui est appréciable. Je suppose que cela est aussi ressenti par des chercheurs et chercheuses d’autres disciplines. Et puis faire des mathématiques, c’est aussi être exposé à la beauté, une beauté très particulière. La recherche en mathématiques est l’un des métiers où les gens utilisent le plus souvent le mot « beauté ». Yves Meyer a donné il y a quelques années une conférence sur « le vrai, le beau et l’utile en mathématique ». Fait-on des mathématiques pour la vérité, pour la beauté, ou pour l’utilité ? Je crois que des trois, la beauté est essentielle. Je dis souvent aux étudiants, parce qu’on est dans un monde où il faut tout le temps se justifier, d’apprécier la beauté de ce qu’on est en train de faire. Les autres composantes, la vérité et l’utilité, n’en sont que plus renforcées.

5- Y a-t-il des mathématiciens, des mathématiciennes ou des mathématiques qui vous ont marqué ?

Plus que par des personnes, je suis avant tout marqué, dans l’histoire des mathématiques, par des grands développements, qui sont des aventures collectives. Je trouve passionnant de regarder comment les choses se construisent. Parfois on a l’impression qu’elles se dévoilent au fur et à mesure comme un monument qui était caché et qui se révèle, comme un temple qui était là caché au fond d’une forêt et que l’on découvre. Prenez l’histoire des séries de Fourier. C’est un aller-et-retour permanent entre des questions très appliquées et des développements fondamentaux. On part du problème très concret de représenter, de calculer des solutions d’équations de la physique modélisant la propagation des ondes ou de la chaleur. L’étude des séries de Fourier insuffle ensuite tout le développement d’un cadre rigoureux pour l’analyse au XIXe siècle, avec la théorie de la mesure – que veut dire la notion de « presque partout » – jusqu’à des liens absolument fascinants avec la théorie des nombres, dont on voit un exemple avec la théorie mathématique des quasi-cristaux. Et on a finalement des retours très appliqués avec la théorie du signal et le développement de méthodes de représentation alternatives comme les bases d’ondelettes. Mais si je dois vous citer des noms de personnes qui m’ont marqué, ce seront inévitablement des collègues que j’ai eu la chance de côtoyer et qui, en plus d’être des mathématiciennes et des mathématiciens de grand talent, m’ont marqué aussi humainement : Yves Meyer, Ingrid Daubechies et Ronald DeVore.

6- Qu’est-ce que cela représente pour vous d’être orateur invité à l’ECM ?

Un grand congrès généraliste de qualité tel que l’ECM est pour moi l’occasion de confronter mes travaux et idées à des réactions de chercheurs internationaux dans des domaines éventuellement autres que le mien, et à l’inverse apprendre des choses dans ces domaines. Dans un congrès spécialisé on sait qu’on va avancer sur les questions qu’on se pose et avoir des discussions assez pointues. Dans un congrès généraliste, je ne vais pas forcément écouter les exposés qui sont le plus naturellement reliés à ma discipline. On peut avoir la bonne surprise d’être confronté à des questions et à des interactions qu’on n’aurait absolument pas escomptées, qui vont éventuellement permettre éventuellement de rebondir sur un problème d’une manière inattendue.

7- Quelle place le travail en collaboration prend-il dans votre travail ?

Le travail en collaboration est devenu progressivement dominant et essentiel par les rencontres que j’ai faites et par le fait d’encadrer des étudiants - ma liste de publications en témoigne. Récemment, le confinement lié à la crise sanitaire du covid19 m’a fait prendre conscience qu’en ce qui me concerne, les mathématiques sont une activité sociale. J’ai besoin de rencontrer mes collègues en chair et en os ! Je suis assez perplexe sur ce que les visio-conférences en période de confinement nous ont laissé entrevoir sur une généralisation possible de cette façon de travailler.

8- Les mathématiques, même lorsqu’on les qualifie d’appliquées, sont une science fondamentale. Qu’est-ce que cela signifie pour vous ?

« Il n’y a pas de frontière étanche entre mathématiques pures et appliquées », c’est le titre d’une interview1 que j’ai donnée à CNRS le Journal il y a quelques années, et que je pourrais reprendre mot pour mot. La distinction entre mathématiques pures et mathématiques appliquées me semble artificielle. Je suis dans un département qui fait des mathématiques en direction des applications, mais il est essentiel pour les applications de faire aussi des mathématiques qui ne visent aucune application. Sans prendre du champ, sans s’offrir la possibilité de passage à un cadre abstrait qui dépasse l’application, qui ne la vise pas, on se prive d’un trésor aussi bien pour les avancées fondamentales que pour les avancées appliquées. J’ajouterais que les mathématiques sont une science profondément humaine au sens où l’être humain dans toute sa généralité fait des mathématiques à partir des données que son environnement lui envoie : dans la vie quotidienne, chacun et chacune d’entre nous optimise, linéarise, extrapole, interpole, classifie, généralise, filtre… À mon sens, c’est le langage mathématique plutôt que le raisonnement mathématique qui clive et provoque le rejet des mathématiques par une partie de la population. C’est au moment où il faut passer à ce langage que le clivage se fait parce que cela nécessite une initiation. L’accès au langage mathématique n’est pas immédiat et on comprend que ce soit segmentant dans la société. C’est comme le jazz et le vin, il y a toujours un principe de plaisir au cœur de l’initiation, mais c’est aussi un langage à apprendre, et qui s’apprend avec plus ou moins de facilité !

 

Lire l’actualité sur le site de l’INSMI

  • 1https://lejournal.cnrs.fr/articles/il-ny-a-pas-de-frontiere-entre-maths-pures-et-appliquees

Contact

Albert Cohen
Professeur à Sorbonne Université, membre du laboratoire Jacques-Louis Lions (LJLL, CNRS/Sorbonne Université/Université de Paris)