Axe 3 : Patrimoine matériel & immatériel – Enjeux sociétaux en sciences humaines et sociales & IA

Contexte
L’axe « Patrimoine matériel et immatériel – Enjeux sociétaux en sciences humaines et sociales »
s’intéresse à l’appropriation sociale et aux retombées des usages sociaux de l’IA générative et
prédictive sur les conduites des individus, des groupes et des organisations. Cet axe interdisciplinaire
vise moins la compréhension et l’analyse du fonctionnement interne de l’IA que l’analyse de son
influence et de son impact sur le fonctionnement des sociétés et des cultures, dans leurs différentes
formes, à différents niveaux et de différents points de vue. Il s’intéressera notamment aux enjeux
éthiques, déontologiques, politiques, communicationnels, éducationnels et culturels de l’utilisation
massive de l’IA dans les sphères relevant de champs disciplinaires des sciences humaines et sociales
(droit, économie, gestion, communication, éducation, psychologie, philosophie, histoire, linguistique
et littérature).

Défi 1 : IA, travail et organisations
Ce défi porte sur les conséquences humaines et financières de l’utilisation de l’IA dans les entreprises
et dans les organisations. Il concerne la gestion des informations et des ressources humaines à
l’intérieur des organisations, ainsi que le potentiel de l’IA dans l’exécution des différentes tâches. Il
porte également sur l’évolution des métiers et des postes de travail. Ce défi s’intéressera aussi au
marketing, où l’IA permet de passer de la personnalisation du message à la contextualisation intégrale
du parcours du consommateur, ou encore à la finance, avec la nouvelle maitrise des risques qu’elle
permet, ou avec le perfectionnement du trading algorithmique. Sur le plan macroéconomique, il
pourra s’agir d’interroger les retombées sociales de ces transformations, notamment sur le statut des
classes moyennes, mais aussi leurs enjeux stratégiques et géopolitiques, liés à l’impact potentiel de
l’IA, à la fois sur les processus d’innovation et sur la gestion du consensus.

Défi 2 : IA, formation et compétences
Ce défi explore les effets de l’IA sur les qualifications obtenues en formation initiale ou continue des
étudiants et des salariés. Les questions posées porteront sur l’évolution des compétences requises et
induites par l’IA. Si chacun est appelé à devenir un « opérateur de données », quelles sont les
implications en termes de compétences éducatives ? Et quelles sont les connaissances nécessaires
pour travailler avec l’IA ? Ce défi permet également de comprendre comment l’utilisation de l’IA dans
les parcours d’apprentissage pourrait permettre de renforcer l’individualisation des parcours de
formation, et réduire les inégalités scolaires et sociales de réussite et de trajectoire professionnelle.

Défi 3 : IA et éthique
Ce défi s’intéresse aux dimensions juridiques de l’utilisation de l’IA, notamment par rapport à la
science juridique elle-même (analyser la formation du droit de l’IA aux échelles nationale, régionale,
internationale et déterminer ses faiblesses, analyser le discours juridique sur l’objet IA). Il permet
également d’appréhender les modifications induites par l’IA par rapport à l’industrie culturelle
(propriété intellectuelle, cadrages juridiques, nationaux et internationaux, droit du travail, …). Il
permettra aussi d’apporter un éclairage sur les nouveaux enjeux environnementaux (adaptation du
droit du commerce international, ressources, …), et de s’interroger sur les droits fondamentaux et les
enjeux de citoyenneté (rapport IA/éthique/droit, place des droits fondamentaux dans la régulation de
l’IA, …). Ce défi offre aussi l’opportunité d’aborder des questions de recherche relatives, et sans être
exhaustif, aux biais algorithmiques et aux potentiels discriminations qui en résultent, aux enjeux de
concentration des monopoles technologiques, aux risques liés à la vie privée ou encore aux risques
environnementaux et à l’impact psychologique et social dû par exemple à la déshumanisation des
relations dans des domaines comme la santé ou l’éducation. Il s’agit alors de penser le concept de l’
“AI by design”.

Défi 4 : IA, culture et connaissance
À une échelle plus large, l’IA est destinée à transformer en profondeur l’ensemble de l’univers culturel,
du domaine des arts et des SHS à celui des sciences naturelles, de la technologie et des
mathématiques. Elle a vocation à transformer les conditions elles-mêmes dans lesquelles toute sorte
de recherche se déroule. Du review de la littérature à la rédaction des textes, de la transcription
automatique des conférences à leur traduction multilingue en temps réel, et de la simulation
numérique des phénomènes étudiées à la programmation assistée d’algorithmes pour les étudier, l’IA
bouscule d’ores et déjà les règles du jeu de la connaissance. Induira-t-elle un changement de
paradigme ? Bouleversera-t-elle les hiérarchies des savoirs existants, en rendant superflus certains
d’entre eux, et en en faisant émerger d’autres, qui n’étaient pas considérés comme possibles
auparavant ? Ce sont des questions auxquelles les philosophes et les épistémologues, mais aussi les
historiens des sciences, des techniques, des media et de la culture tenteront de répondre.

Défi 5 : IA, langues et communication
L’IA conversationnelle assure désormais des traductions automatiques de plus en plus fiables entre
les principales langues du monde, à l’écrit comme, bientôt, à l’oral. Cela peut transformer rapidement
l’écosystème médiatique, en favorisant l’émergence d’un audiovisuel multilingue à l’échelle
continentale ou planétaire. Les retombées politiques pourraient être considérables, et mériteraient
d’être anticipées. L’Europe pourrait, par exemple, surmonter l’un des obstacles principaux à la
formation d’une opinion publique commune et, donc, d’une intégration politique. Par ailleurs, des
populations aux cultures très éloignées pourraient soudainement accéder à l’intercompréhension, et
donner lieu à des phénomènes de contact et d’hybridation à une échelle inédite, qui pourraient
demander d’être étudiés et gouvernés. Dans la mesure où l’IA conversationnelle peut agir
linguistiquement à une échelle massive, en prenant en compte les discours d’entières populations, sa
popularisation pose aussi des problèmes de sécurité pour les systèmes démocratiques, liés aux risques
de manipulation massive de l’opinion. Les analystes du discours, les informaticiens, les mass
médiologues et les scientifiques politiques pourraient travailler ensemble pour étudier et anticiper ce
type de scénarios.

Défi 6 : IA et développement de l’esprit critique
L’émergence de l’IA bouleverse les équilibres informationnels et engendre des défis sociétaux
majeurs. Parmi eux, la capacité à générer de faux contenus (deepfakes par exemple), extrêmement
convaincants, brouille les frontières entre la vérité et le mensonge. Cela crée un brouillard
informationnel dans lequel il est difficile aussi bien pour le citoyen que les experts de distinguer le réel
du “fabriqué”. Les réseaux sociaux ont accentué cette porosité en devenant des terrains fertiles pour
l’utilisation de l’IA à des fins de manipulation de masse et polarisation des débats. Les citoyens sont,
dès lors, exposés à des narrations biaisées ou malveillantes. On assiste ainsi à une perte de confiance
qui fragilise les institutions et les médias. La résilience des sociétés démocratiques est alors mise à
l’épreuve. Dans ce contexte, l’éducation et les outils de décryptage sont insuffisants et ne préparent
pas les citoyens à naviguer dans ce brouillard informationnel diminuant ainsi leur capacité à discerner
et à réagir de manière informée. Ce défi questionne donc, sans être exhaustif, tous les mécanismes
permettant aux citoyens et aux institutions de maintenir une information de qualité, crédible et
accessible, développer des compétences critiques face à l’usage social de l’IA et enfin, mettre en place
des régulations efficaces sans compromettre les libertés fondamentales.

Suivez-nous sur :