Contexte
Cet axe du pôle IA met en avant les contributions de l’UBE et les défis qu’elle souhaite relever, des
fondements théoriques au développement de l’IA, en s’appuyant sur ses compétences en
mathématiques, informatique, psychologie cognitive, etc. Ces défis portent sur la gestion des données
et des connaissances, sur les outils mathématiques derrière les modèles et les algorithmes, sur le
développement de nouvelles architectures et nouveaux paradigmes, ainsi que sur l’utilisation de l’IA
dans les sciences physiques.
Défi 1. Données et connaissances pour l’IA (“AI ready data and knowledge”)
Ce défi s’intéresse à la gestion des données et des connaissances pour leur usage dans des méthodes,
algorithmes ou modèles d’IA. Relever ce défi passe par l’acquisition, la qualification et la mise à
disposition de jeux de données, par la gestion efficace de ces données, par leur représentation et
intégration avec des connaissances, et enfin par la conception de mécanismes de raisonnement.
L’acquisition de données sous différentes formes – via l’usage de données ouvertes, le crawling de
nouvelles données, l’apport de données « métier » non structurées – vient compléter les jeux de
données (structurées ou semi-structurées) disponibles. Des opérations de qualification, consolidation
et nettoyage de ces jeux de données spécifiquement adaptés aux applications d’IA doivent être
appliquées, en prenant en compte les problèmes d’éthique ou de biais dans les données. Ces
opérations peuvent favoriser le partage et la publication de jeux de données.
Selon le type de données à manipuler, différents modèles peuvent être privilégiés, comme des
modèles relationnels, des modèles No-SQL, des modèles de graphes ou des bases de données de
séries temporelles. La gestion efficace des données multi-modèles est une problématique complexe.
La mise en œuvre de polystores pour stocker les données en adéquation avec des pipelines d’analyse
et avec des méthodes d’interrogation efficaces est un défi important et peut nécessiter des
architectures particulières pour des données massives.
La compréhension des données et des résultats des analyses peut être améliorée en modélisant les
connaissances à un plus haut niveau d’abstraction pour expliciter la sémantique des données. Ces
approches développées en IA symbolique s’appuient sur des représentations formelles logiques pour
modéliser les connaissances : graphes de connaissances comme Google KG, bases de connaissances
ontologiques, systèmes de règles ou autres représentations. La mise en œuvre de solutions d’analyse
hybrides d’IA symbolique et d’IA numérique est un défi prometteur qui intègre les données et les
connaissances pour enrichir les analyses et leur compréhension.
Plusieurs mécanismes de raisonnement peuvent être appliqués à différents niveaux d’abstraction et
pour différentes finalités. L’IA symbolique qui s’appuie sur une spécification formelle des
connaissances peut permettre la mise en place de mécanismes de raisonnement pour le contrôle de
la cohérence des données ou l’application de règles (de contrôle, métiers, liées à la qualité des
données, à la compréhension des résultats). Il s’agit ici de concevoir des procédures de raisonnement
efficaces adaptées aux modèles complexes de connaissances pouvant contenir de nombreuses règles,
avec une expressivité élevée.
Défi 2. Fondements théoriques des modèles et des algorithmes
Ce défi se concentre sur le développement d’outils qui permettent d’analyser les modèles et
algorithmes existants, d’en améliorer les performances et d’en fournir de nouveaux. Les outils
développés au sein de l’UBE appartiennent à de nombreux domaines des mathématiques et de
l’informatique.
En informatique, la manipulation de données massives et hétérogènes (sous forme de graphes,
matrices ou vecteurs, denses ou parcimonieuses, etc.) requiert d’optimiser les modèles de stockage
et les structures de données gérées en mémoire pour améliorer les performances des algorithmes
(voir défi 1). En statistique, la prise en compte de données en dimension infinie (sous forme de courbes
ou de trajectoires) nécessite d’adapter les méthodes classiques au cadre novateur de la statistique
des données fonctionnelles.
A l’interface entre la statistique et l’optimisation, les estimateurs pénalisés (ou problèmes inverses
régularisés) qui induisent de la parcimonie généralisée (et donc de l’interprétabilité) doivent
bénéficier d’algorithmes suffisamment performants, qui permettent en particulier de sélectionner
automatiquement les paramètres de pénalisation (ou de régularisation). Les estimateurs robustes
doivent quant à eux bénéficier d’algorithmes permettant leur mise à jour en ligne y compris en grande
dimension.
En optimisation, où les algorithmes (stochastiques) sont au cœur de l’entraînement des modèles de
Machine Learning et de Deep Learning, il est indispensable d’étudier, même en dehors de ce cadre,
leur convergence, leur extension à des problèmes non convexes, leur relaxation de type champ
moyen, leurs accélérations, etc. En probabilités, les méthodes de type « bandit multi-bras » peuvent
permettre de régler automatiquement les paramètres d’algorithmes (en particulier stochastiques).
En théorie du contrôle, la contrôlabilité des réseaux de neurones est liée à leur propriété
d’approximation universelle (qui est une des justifications théoriques de leur utilisation) et l’enjeu est
d’apporter des algorithmes réalisant cette contrôlabilité. En systèmes dynamiques, se pose la question
de l’extension de l’approximation universelle à ce cadre par des équations différentielles neuronales
(Neural ODEs). En théorie des jeux, la modélisation de l’apprentissage fédéré (Federated Learning)
par des jeux potentiels ouvre de nombreuses perspectives.
Défi 3. Développement de nouvelles IA
Ce défi consiste à explorer et à développer au sein de l’UBE de nouvelles architectures et de nouveaux
paradigmes d’IA pour résoudre des problèmes spécifiques tels que la consommation raisonnée
d’énergie, la protection de la vie privée ou l’entrainement de modèles d’IA avec peu ou pas de données
annotées.
L’IA frugale doit permettre une meilleure prise en compte des défis environnementaux et rendre les
innovations en IA plus soutenables. La réduction de la précision numérique des poids d’un réseau de
neurones (quantification) ou la suppression des connexions les moins importantes dans le modèle
(élagage ou pruning) participent à la réduction de la taille des modèles. Par ailleurs, de nouveaux
modèles d’IA neuro-inspirés se basent sur des réseaux de neurones impulsionnels (Spiking Neural
Network ou SNN), qui permettent de réduire drastiquement la complexité calculatoire et sont
embarquables sur des processeurs basse consommation.
L’IA fédérée, où les modèles d’IA sont entrainés sur des données distribuées, garantit la protection de
la vie privée puisque les données n’ont plus besoin d’être déplacées vers un emplacement central. De
nouvelles architectures permettent en outre une personnalisation des modèles d’IA pour chaque
utilisateur ou groupe d’utilisateurs, en les adaptant à leurs besoins spécifiques sans compromettre
leur vie privée.
L’entraînement des modèles est une étape cruciale, surtout avec insuffisamment de données
annotées (indispensables à l’apprentissage supervisé traditionnel). De nouveaux paradigmes
d’entraînement cherchent à exploiter les données non étiquetées disponibles et l’expertise des
spécialistes du domaine pour développer des modèles d’IA robustes et performants. Diverses
stratégies d’apprentissage – pré-entraînement, transfert, apprentissage semi-supervisé et faiblement
supervisé, renforcement avec feedback d’experts, apprentissage auto-supervisé avec la conception de
tâches prétextes – permettent de se passer de l’étape d’annotation des données. La génération de
données synthétiques, via des modèles d’IA générative ou des modèles de langage de grande taille
(LLM), est également employée pour pré-entraîner des modèles performants avec insuffisamment de
données annotées. Les principaux défis de ces nouveaux paradigmes d’entraînement (qui permettent
ensuite d’utiliser de grands modèles d’IA) résident dans l’intégration efficace de la rétroaction des
experts pour affiner le modèle, dans la réduction du domain gap entre données synthétiques et réelles
et dans l’utilisation conjointe de ces stratégies d’apprentissage avancées qui rend l’étape
d’entraînement particulièrement instable.
Défi 4. L’IA pour les sciences physiques et chimiques
Ce défi porte sur l’utilisation de l’IA dans les sciences physiques à l’UBE, où elle transforme à la fois les
méthodologies scientifiques fondamentales et les applications pratiques dans des domaines variés de
physique et de chimie.
L’IA contribue à la modélisation des connaissances métier en collaborant avec des experts pour
formaliser leurs savoirs implicites sous forme de modèles explicites, comme les ontologies, enrichis
par des règles logiques. Elle exploite également des bases de connaissances existantes, telles que
Bio2RDF ou GeneAI, et intègre des processus avancés de nettoyage et de qualification des données
brutes, souvent hétérogènes et multivariées.
L’IA joue un rôle important dans de nombreux domaines en physique : les réseaux de neurones pour
la nanophotonique, les lasers intelligents et les algorithmes génétiques, le design de guides d’ondes,
l’optique non-linéaire ultra-rapide, etc. Des méthodes de Machine Learning sont aussi utilisées pour
les technologies quantiques et la spectroscopie moléculaire, avec pour objectif principal soit
d’identifier des paramètres de contrôle pour les systèmes dynamiques en boucle ouverte ou fermée,
soit de caractériser et mesurer des paramètres à partir des données générées.
L’IA intervient également dans des domaines innovants en chimie, comme la synthèse assistée de
molécules par activation de certaines liaisons. Elle est également utilisée pour la segmentation
automatique d’images issues de microscopies afin d’extraire des descripteurs de forme de
nanoparticules ou de nanocomposites, en vue de développer des modèles prédictifs pour la synthèse
de ces matériaux.