Quel impact de l'IA sur nos capacités cognitives ?
Le recours à l'IA menace-t-il nos capacités cognitives ? Un philosophe et un mathématicien engagés en politique, Gaspard Koenig et Cédric Villani, en débattent à l'initiative de l'Institut Messine.
Par Nicolas Deguerry - Le 18 octobre 2024.
L'intelligence artificielle et nous. On a déjà vu des entrées en matière plus anglées mais c'est l'accroche retenue par l'Institut Messine, commanditaire d'une discussion sur l'IA entre Gaspard Koenig, philosophe aspirant candidat à l'élection présidentielle de 2022 et auteur d'un livre sur l'avenir des libertés individuelles à l'ère de l'IA[ 1 ]La fin de l'individu, voyage d'un philosophe au pays de l'intelligence artificielle. Éditions de l'Observatoire, Hors Collection, 400 p., 2019., et Cédric Villani, mathématicien ex député LREM auteur d'un rapport pour « donner un sens à l'IA » (notre article). Le résultat ? Un peu moins de 50 pages pour évoquer le périmètre de l'IA et son impact sur les domaines de la connaissance, du travail, de l'éducation et de la démocratie. Premier rappel du philosophe et du mathématicien, l'IA n'est aujourd'hui pas en mesure de créer de nouvelle théorie scientifique et ne remplace pas la compréhension humaine. Si l'IA excelle dans l'analyse statistique et prédictive, elle ne peut égaler le raisonnement humain et se révèle inapte à la compréhension contextuelle.
Rapport au savoir
Comme le pédagogue Philippe Meirieu en d'autres lieux, les auteurs s'inquiètent d'un changement du rapport au savoir. Les modèles de langage des IA génératives introduisent la notion de « plausibilité », avec des affirmations qu'il est difficile de déterminer comme vraies ou fausses. Pour Gaspard Koenig, les règles de construction du savoir scientifique ne sont pas respectées car les modèles de langage fonctionnent par « corrélations et juxtapositions de mots dépendant de millions d'occurrences indiscriminées. » Conséquence : les sources sont à la fois « structurellement ignorées et enfouies dans la boîte noire de l'apprentissage profond », donc invérifiables. Or, cette remise en cause du savoir est importante car elle menace les fondements mêmes de nos sociétés, qui reposent sur la « confiance dans la connaissance partagée. » Le lien ici souligné entre la fragilisation du savoir partagé et la quantité de données-source qui échappe à l'entendement humain n'est pas sans impacter le fonctionnement des sociétés démocratiques. IA d'un côté, réseaux sociaux et mass diffusion de données non vérifiées de l'autre, un boulevard s'ouvre pour les vérités alternatives.
Impact cognitif
Pour autant, ces limites n'empêchent en rien le recours croissant aux IA génératives de type ChatGPT, ce qui amène les deux experts à questionner l'impact cognitif. Pour Gaspard Koenig, la délégation de notre faculté de raisonner et de décider « posera rapidement un vrai problème cognitif, avec le risque d'atrophie des zones de notre cerveau dédiées à la prise de décision », alerte-t-il. Alors que l'un des usages les plus courants des IA génératives s'est porté sur la programmation, les auteurs admettent une augmentation de la productivité mais pointent le risque d'une diminution des compétences techniques des programmeurs à long terme. L'IA, en facilitant certaines tâches, peut involontairement engendrer une dépendance et une baisse de maîtrise des fondamentaux.
Appauvrissement créatif
Autre écueil, le paramétrage des IA génératives tend à lisser les résultats, qui sont par ailleurs peu créatifs dans la mesure où ils se contentent d'agréger l'existant. S'ensuit un risque d'enfermement dans une boucle de confirmation où nous ne sommes exposés qu'à des informations qui confirment nos opinions préexistantes. À charge, donc, pour les systèmes d'éducation et de formation de mettre l'accent sur le développement de l'esprit critique, de la créativité et de l'autonomie des apprenants. Cédric Villani insiste, « il faut commencer par une formation traditionnelle, à l'écart de toute technologie avancée, pour que les fondamentaux soient acquis. »
Impossible régulation ?
Reste que le philosophe et le mathématicien ne nient pas le potentiel de l'IA pour, selon eux, améliorer les systèmes d'éducation et de formation, à grands renforts d'interactivité et de personnalisation renforcées. In fine ramenée au rang d'outil, l'intelligence artificielle n'est ni bonne ni mauvaise en soi. Pour les auteurs de la note de l'Institut Messine, il revient donc au débat démocratique alimenté par une acculturation massive des citoyens aux enjeux de l'IA d'orienter les usages de façon vertueuse. En cohérence avec son rapport qui posait les conditions de déploiement d'une « IA désirable », Cédric Villani plaide pour des « usages éthiques et responsables. » Ce qui pose la question de la régulation des systèmes d'IA, sujet sensible qui voit s'opposer intérêts privés et intérêt général. Mais le bon usage étant de la responsabilité de sociétés qui apparaissent aujourd'hui bien en crise, le chemin de régulation paraît bien périlleux.
- Institut Messine : institutmessine.fr/
Notes
1. | ↑ | La fin de l'individu, voyage d'un philosophe au pays de l'intelligence artificielle. Éditions de l'Observatoire, Hors Collection, 400 p., 2019. |