Penser l’intelligence artificielle autrement : les clés d’une IA responsable et contextuelle
- Batiste Roger

- 20 juil.
- 5 min de lecture
Cet article a été rédigé par Batiste Roger, Directeur Général et CTO d’Odonatech, à la suite d’un cycle de conférences du Collège de France consacré aux implications philosophiques de l’intelligence artificielle.
À travers cette réflexion personnelle, il partage des pistes pour mieux comprendre ce que l’IA est — et ce qu’elle n’est pas — afin de mieux concevoir les technologies de demain. Car si les modèles de langage (LLM) comme ceux que nous intégrons chez Odonatech sont puissants, ils reposent sur une logique fondamentalement différente de l’intelligence humaine.
En tirer le meilleur, notamment dans les domaines sensibles comme le conseil financier, suppose de comprendre leurs limites, leurs biais… mais aussi leurs atouts spécifiques. Ce billet explore notamment pourquoi le contexte est essentiel, ce que l’IA peut apprendre de la philosophie… et ce que les concepteurs d’outils (comme nous) doivent en retenir pour une IA responsable.

L’intelligence, c’est gérer des situations
« L’intelligence humaine, c’est l’art de gérer les situations… et pas du tout de résoudre des problèmes. » – Daniel Andler
Les humains sont toujours en situation – avec des enjeux, des corps, une finitude. L’IA, elle, résout des problèmes dans un espace hors contexte. Ce n’est pas un bug, c’est une différence fondamentale, avec ses forces et ses faiblesses.
Les humains agissent dans un monde où il n’y a pas une seule bonne solution (et quand il y en a une, on n’est pas forcément d’accord sur laquelle), où les décisions ont des implications personnelles, un contexte émotionnel et des effets secondaires imprévus. Nos actions s’inscrivent dans un temps et un lieu donnés – ce qui donne du sens à la situation… alors que les LLM ne tiennent évidemment pas compte de cela.
Puisque cette différence est probablement impossible à corriger, ne pourrions-nous au moins en atténuer l’impact en fournissant aux LLM des informations contextuelles ? Autrement dit : les prompts système devraient sans doute contenir des éléments de contexte utiles pour combler le fossé entre les LLM et nos attentes.
L’IA, c’est de la bureaucratie
« La décision algorithmique et la décision bureaucratique obéissent à une logique commune : elles privilégient les règles sur l’interprétation. » – Karina Prunkl
Changement de perspective saisissant : les systèmes d’IA ne remplacent pas le jugement humain – ils mettent en œuvre une logique bureaucratique. Structurée, impartiale, objective, quantifiée. Des règles plutôt que des interprétations, des procédures plutôt qu’un contexte.
Dans les faits, tous les LLM ne sont pas conçus pour suivre des règles. Mais quand c’est le cas (via les prompts, des formats de sortie structurés, des graphes fixes…), on voit clairement comment cela renforce leur tendance bureaucratique.
Et encore une fois : cela peut être un problème, mais cela peut aussi être une fonctionnalité précieuse – comme l’impartialité ou la fiabilité. Ce qu’il faut retenir, c’est que cette nature doit être prise en compte dans la conception des prompts, des outils, et même dans la quantité de contexte qu’on juge pertinente pour chaque agent ou sous-agent.
On sait tous ce que la bureaucratie nous fait ressentir. Maintenant, on est prévenus.
Les artistes reprennent la main
« On récupère de l’agentivité en traitant métaphoriquement l’art. » – Alexandre Gefen
Les artistes ne sont pas remplacés – ils piratent l’IA, entraînent leurs propres modèles, la combinent avec des techniques traditionnelles. Ils reprennent la main sur leur pouvoir créatif, ils ne l’abandonnent pas. Du moins, c’est ce que soutient Gefen, en s’appuyant sur les œuvres qu’il présente à Paris au Jeu de Paume.
Je devrais probablement aller voir l’expo, d’ailleurs.
Quant aux questions de droits d’auteur et d’éthique autour des LLM entraînés sur des œuvres artistiques ? Cela m’a amené à réfléchir à cette différence de traitement entre l’art, les recettes de cuisine et les théorèmes mathématiques. Bien sûr, je ne veux pas que le travail des artistes soit volé, mais je vois aussi l’intérêt collectif que peut représenter leur diffusion via les LLM. C’est complexe.
La sagesse de l’IA… ou son absence
« L’expert développe un sens des règles sans se limiter à une application scrupuleuse. » – Éloïse Boissau
L’IA manque de phronesis – cette sagesse pratique, forgée par l’expérience, qui dépasse l’application rigide des règles. C’est quelque chose qu’on remarque immédiatement lorsqu’on utilise un LLM. Un humain qui obtient 98 % paraît souvent plus compétent qu’une IA à 99 %, parce que l’1 % d’échec de l’IA se produit dans des situations tellement simples ou inattendues… qu’on les trouve injustifiables.
On suspend notre incrédulité… jusqu’à ce que l’IA échoue, et alors on ne veut plus lui faire confiance. Pourquoi ? Parce qu’elle ne se trompe pas comme nous, et ça ne nous plaît pas.
Sur la confiance et l’explication
« Je veux que mes modèles parlent le même langage que moi. » – Océane Fiant
Mais cette différence peut aussi être une bonne nouvelle : si nous échouons de manière différente, il y a peut-être de la place pour une coopération… à condition de pouvoir communiquer ! C’est ce que j’ai retenu de l’intervention d’Océane Fiant.
Puisque l’IA ne pense pas comme nous, et ne se trompe pas comme nous, alors peut-être faut-il… la laisser penser à sa manière. Elle explique que nous n’avons pas nécessairement besoin de comprendre comment l’IA raisonne. Tout ce qu’il nous faut, ce sont des LLM capables d’expliquer leurs résultats dans notre langage. Même si l’explication ne reflète pas leur raisonnement réel, ce n’est pas grave : on peut construire a posteriori un raisonnement humain. S’il est juste et compréhensible, alors c’est suffisant.
C’est un apprentissage pratique qu’elle tire de son travail sur les IA médicales, en échangeant avec des praticiens. On peut donc, je pense, l’appliquer à d’autres secteurs (mais peut-être pas à tous ?).
On n’a pas besoin de comprendre le fonctionnement de l’IA – il faut que ses résultats s’alignent avec nos connaissances existantes.Intelligibilité ≠ Explicabilité. Et dans ce cas, le fait que nous empruntions des chemins de pensée différents pourrait faire de nous une bonne équipe.
Conclusion : penser l’IA responsable autrement pour mieux l’intégrer
Chez Odonatech, nous croyons qu’une IA utile n’est pas seulement une IA performante : c’est une IA qui comprend les situations humaines, même si elle ne les vit pas. Cela passe par un travail constant d’encadrement, de design, de contextualisation… et une vraie réflexion sur la place de l’intelligence artificielle dans nos outils.
Ces questions philosophiques ne sont donc pas théoriques : elles sont au cœur des choix technologiques que nous faisons chaque jour. Que ce soit dans notre travail sur LiLa, notre IA de conseil financier en marque blanche, ou dans les interactions que nous concevons entre l’humain et la machine, nous visons une IA compréhensible, fiable, et au service de la relation client.
Nous avons encore beaucoup à apprendre, mais une chose est sûre : ce que nous pensons de l’IA influence directement la manière dont nous la construisons.




Commentaires