Flavien Chervet, essayiste et conférencier sur l'intelligence artificielle, est l'invité de 6 minutes chrono / Lyon Capitale.
2025. An III de ChatGPT. "Jusqu’à maintenant, jusqu’à l’arrivée de ChatGPT, on avait des IA qu’on appelait restreintes. Cela veut dire qu’on les entraînait à faire un seul type de tâche : elles étaient très fortes pour faire un seul travail" éclaire Flavien Chervet, conférencier et essayiste lyonnais spécialiste de l'intelligence artificielle.
"Avoir la même surface de généralité que l’intelligence humaine"
"L’idée des laboratoires d’intelligence artificielle est d’aller vers des systèmes que l’on dit généraux. Leur enjeu est d’arriver à avoir la même surface de généralité que l’intelligence humaine. On va définir l’IA générale soit de manière un peu philosophique, comme une IA qui a la même intelligence que l’humain, ce qui est difficile à déterminer précisément, soit comme une IA capable de réaliser à peu près toutes les tâches cognitives productives d’un être humain."
Dans le scénario AI 2027, des chercheurs en intelligence artificielle ont détaillé avec force de précisions les prochaines étapes qui pourraient déboucher, au cours des deux prochaines années, sur l’arrivée d’une intelligence artificielle générale. Avec ce postulat : "Nous prévoyons que l’impact de la superintelligence au cours de la prochaine décennie sera énorme, dépassant celui de la révolution industrielle."
Pour Flavien Chervet, "l’IA générale aurait des capacités d’intelligence supérieures à celles des IA actuelles comme ChatGPT », l'agent conversationnel le plus populaire en France avec entre 16 et 20 millions d'utilisateurs.
"Terminator est caricatural. On imagine une machine qui devient méchante. Ce n’est pas vraiment cela. En revanche, il y a de vraies questions de sécurité
Scénario à la Terminator ? "Terminator est caricatural. On imagine une machine qui devient méchante. Ce n’est pas vraiment cela. En revanche, il y a de vraies questions de sécurité. Plus les systèmes deviennent puissants et autonomes, plus ces questions se posent. C’est ce qu’on appelle le désalignement des systèmes d’IA : pour atteindre un objectif donné, si une IA travaille de façon autonome dans un environnement ouvert comme le monde réel, il est probable qu’elle se dise qu’un sous-objectif est intéressant pour atteindre l’objectif final, alors que ce sous-objectif peut être dangereux. Par exemple : pour gagner beaucoup d’argent en une semaine, faire quelque chose d’illégal. Donc même en demandant quelque chose de positif, il est possible qu’elle se mette à faire quelque chose de dangereux."
--------------------------------------------------------------------------
Le Time Magazine vient de consacrer sa "une" "Person of the Year" à huit personnes, "les architectes de l'iA", assis sur une poutre métallique surplombant un centre-ville : Mark Zuckerberg (Meta), Lisa Su (AMD, fabricant de semi-conducteurs), Elon Musk (xAI), Jensen Huang (Nvidia), Sam Altman (OpenAI), Demis Hassabis (Google DeepMind), Dario Amodei (Anthropic) et l'experte de l'université Stanford, surnommée la marraine de l'IA, Fei-Fei Li.
Un mise en scène en référence à la photographie de Charles Clyde Ebbets, "Lunch atop a Skyscraper", prise en 1932, qui représente onze ouvrier en train de déjeuner, pendant la construction du principale bâtiment du Rockfeller center.
Une façon imagée de dire que, tout comme ces hommes ont bâti l’Amérique d’hier, ces huit personnalités façonnent les États-Unis - et même le monde - de demain.
Sur le même sujet :
- "Des systèmes d'IA commencent à faire des choses non prévues" assure Flavien Chervet
- Le jour où ChatGPT a rédigé cette chronique
- "L'IA n'est ni ni bonne ni mauvaise, tout dépend de l'usage qu'on en fait"
- “L’IA est une autre race extraterrestre à laquelle il va falloir s’habituer”
- L’IA, meilleure amie de nos ados ?
La retranscription intégrale de l'entretien avec Flavien Chervet
Bonjour à tous et bienvenue dans ce nouveau rendez-vous de Simulcrono. Nous accueillons aujourd’hui Flavien Chervet. Bonjour.
Bonjour Guillaume.
Flavien Chervet, vous êtes conférencier et essayiste sur l’intelligence artificielle. Vous sortez aujourd’hui cette BD d’anticipation sur l’intelligence artificielle générale. Nous sommes à la fin de l’an 3 de ChatGPT, qui a été le moment où l’intelligence artificielle grand public a vraiment débarqué. Aujourd’hui, on parle beaucoup d’intelligence artificielle générale. Qu’est-ce que l’intelligence artificielle générale, pardon ?
Alors, jusqu’à maintenant, jusqu’à l’arrivée de ChatGPT, on avait des IA qu’on appelait restreintes. Cela veut dire qu’on les entraînait à faire un seul type de tâche : elles étaient très fortes pour faire un seul travail, comme reconnaître des fractures sur des radios. Et puis, avec l’arrivée des IA génératives, et notamment des grands modèles de langue comme GPT, on a commencé à avoir des systèmes capables de faire beaucoup de choses. ChatGPT, on peut lui demander d’écrire une fiche de poste, d’analyser des commentaires sur YouTube, de coder, etc. Cela a commencé à ouvrir la généralité de ces systèmes.
L’idée des laboratoires d’intelligence artificielle est d’aller vers des systèmes que l’on dit généraux. Leur enjeu est d’arriver à avoir la même surface de généralité que l’intelligence humaine. On va définir l’IA générale soit de manière un peu philosophique, comme une IA qui a la même intelligence que l’humain — ce qui est difficile à déterminer précisément — soit comme une IA capable de réaliser à peu près toutes les tâches cognitives productives d’un être humain. Là, l’enjeu est beaucoup plus économique : dire que ces systèmes sont capables d’automatiser une grande partie des emplois cognitifs, en tout cas des tâches cognitives réalisées dans ces emplois.
Et oui, c’était ma seconde question. Vous avez déjà amorcé la réponse, mais finalement, cette intelligence artificielle générale, de quoi pourrait-elle être capable, très concrètement ?
Encore une fois, l’idée est qu’elle soit capable de faire à peu près tout ce qu’un humain peut faire seul derrière un ordinateur. Si vous pensez à une tâche que vous réalisez - écrire un article, construire l’illustration de l’article, faire les recherches, etc. -, elle pourrait être capable de faire tout cela en autonomie : on lui donne une mission et elle se débrouille.
Mais ça, ChatGPT le fait déjà un peu, non ?
ChatGPT le fait un peu, c’est-à-dire qu’il réalise des morceaux de tâches séparées. Mais d’une part, ce n’est pas orchestré dans le temps pour mener toute une mission de façon autonome, surtout si la mission est beaucoup plus complexe, comme faire de la recherche scientifique. Là, il faut un système avec beaucoup plus d’autonomie et une profondeur dans cette autonomie. On commence à avoir cela avec ce qu’on appelle les agents IA.
Mais l’IA générale aurait des capacités d’intelligence supérieures à celles des IA actuelles comme ChatGPT. Par exemple, ChatGPT se trompe parfois sur des choses assez évidentes. Ce sont des systèmes conçus très différemment d’un cerveau humain : ils peuvent traduire 50 langues ou lire un million de mots en quelques secondes- ce qu’aucun humain ne peut faire. Mais dès qu’il faut du raisonnement de bon sens, de la mémoire continue, ou continuer à apprendre dans le temps, ils en sont incapables. Il reste donc des capacités cognitives non atteintes. Les enjeux de la recherche sont de couvrir tout ce spectre.
C’est ce que vous disiez : c’est “pour l’instant”. Et le “pour l’instant” évolue très vite. Mais on parlait d’intelligence humaine. Est-ce que l’intelligence artificielle pourra dépasser l’intelligence humaine ?
On construit des outils pour qu’ils nous dépassent. Si je ne fabrique pas un marteau qui tape plus fort que mon poing, je ne fais pas de marteau. Donc l’intelligence artificielle, on la construit pour qu’elle nous dépasse.
Soit on a une représentation un peu magique ou mystique de l’intelligence, en pensant qu’elle dépasse le naturel. Mais si l’on considère que l’intelligence fait partie du monde physique, rien n’empêche qu’on puisse mettre dans une machine des capacités équivalentes, voire supérieures. Il faut cependant s’entendre sur ce qu’on appelle intelligence. Et l’humain, ce n’est pas que de l’intelligence : il y a notamment toute la dimension émotionnelle, qui est un gros facteur de notre intelligence et permet des raccourcis très efficaces que l’évolution nous a apportés. Cela, aujourd’hui, on ne le met pas dans les IA telles quelles.
Vous m’y faites penser : le contexte de l’arrivée de cette intelligence artificielle générale, c’est des percées algorithmiques, mais aussi des tensions géopolitiques monstres. Est-ce que ce n’est pas un scénario à la Terminator ?
Terminator est caricatural. On imagine une machine qui devient méchante. Ce n’est pas vraiment cela. En revanche, il y a de vraies questions de sécurité. Plus les systèmes deviennent puissants et autonomes, plus ces questions se posent. C’est ce qu’on appelle le désalignement des systèmes d’IA : pour atteindre un objectif donné, si une IA travaille de façon autonome dans un environnement ouvert comme le monde réel, il est probable qu’elle se dise qu’un sous-objectif est intéressant pour atteindre l’objectif final, alors que ce sous-objectif peut être dangereux.
Par exemple : pour gagner beaucoup d’argent en une semaine, faire quelque chose d’illégal. Donc même en demandant quelque chose de positif, il est possible qu’elle se mette à faire quelque chose de dangereux. C’est d’ailleurs au cœur de ma BD.
La question géopolitique — l’usage militaire, la manipulation, l’usage gouvernemental — est aussi au cœur de la BD, car lorsqu’on mélange ces enjeux avec les enjeux de sécurité, on obtient des éléments parfaits pour un bon scénario.
