Rencontre avec Yoshua Bengio, éminent chercheur en intelligence artificielle (IA)
par Elias Levy
L’intelligence artificielle (IA) est-elle en train d’accélérer l’Histoire et d’entraîner l’humanité dans une cavalcade technologique vertigineuse?
Sommité mondiale dans le domaine de la recherche en IA (grand spécialiste de l’ « Apprentissage profond » – « Deep learning » –), lauréat du prix Turing, le prix Nobel d’informatique, qu’il a partagé en 2018 avec deux spécialistes renommés de l’IA, le Français Yann Le Cun et le Britanno-Canadien Geoffrey Hinton, fondateur et directeur scientifique de MILA – le réputé Institut québécois d’IA –, professeur titulaire à l’Université de Montréal, titulaire de la Chaire en IA Canada-CIFAR (Institut canadien de recherches avancées), Yoshua Bengio est le chercheur le plus cité en informatique à l’échelle mondiale.
Le prestigieux magazine américain Time l’a désigné parmi les 100 personnalités les plus influentes dans le monde en 2024.
Cet éminent universitaire et chercheur a fait progresser l’IA à pas de géant. Ses travaux scientifiques très remarqués et son esprit visionnaire ont grandement contribué à faire de Montréal l’un des chefs de file mondiaux en IA.
Yoshua Bengio a été l’invité d’honneur d’une soirée exceptionnelle qui avait pour thème : l’IA et le réseautage.
Organisé par la Communauté sépharade unifiée du Québec (CSUQ) avec le soutien de Patrimoine canadien, cet événement a eu lieu dans l’Amphithéâtre Banque Nationale de l’École HEC.
Dans le cadre de cette soirée, j’ai eu l’auguste privilège d’interviewer Yoshua Bengio devant public.
Il nous a livré ses réflexions très éclairantes sur les grands défis, les risques de dérive et les perspectives de l’IA.

Où est rendue l’IA en 2024?
L’IA a connu des avancées très importantes au cours des deux dernières décennies. L’émergence de nouveaux systèmes, comme le robot conversationnel ChatGPT, qui peuvent interagir avec nous dans de nombreuses langues d’une manière si fluide qu’il est difficile de déterminer si on est en relation avec une machine ou avec un être humain, constitue indéniablement un saut qualitatif. Le célèbre mathématicien britannique Alan Turing pensait que quand on mettrait au point des systèmes qui seraient indistinguables d’un humain à travers un dialogue textuel, ils auraient atteint le niveau de l’intelligence humaine. Il s’est trompé un peu. Aujourd’hui, on a des systèmes qui maîtrisent la langue très bien, à tel point que nombreux sont ceux qui s’en servent pour corriger leurs erreurs ou leur style littéraire, mais qui ont encore d’importantes lacunes, notamment en ce qui concerne leur capacité à raisonner et à planifier. Parfois, les raisonnements de ces systèmes sont incohérents et loufoques.
Ces systèmes d’IA sont de plus en plus performants.
Oui. Jusque-là, on avait conçu des systèmes très performants, mais qui ne peuvent bien raisonner que dans un univers limité. C’est le cas d’AlphaGo, créé en 2016, capable de battre les meilleurs joueurs au monde au jeu de Go. Récemment, OpenAI a créé une nouvelle branche de ces systèmes qui s’appelle o1, ayant un QI de 120, qui a écrasé tous les autres systèmes en ce qui concerne la capacité à raisonner, mais qui a encore des lacunes en ce qui a trait à sa capacité d’agir pour atteindre un objectif. On a aussi des systèmes comme ChatGPT qui ont des connaissances encyclopédiques très vastes, mais qui n’ont pas encore la capacité d’agir et de planifier à long terme et qui sont parfois incohérents.
Se dirige-t-on vers la conception de machines plus intelligentes que l’humain ?
C’est presque sûr. Ce serait manquer d’humilité que de penser que l’humain a atteint le summum de l’intelligence. Il y a déjà des systèmes d’IA qui ont plus de capacité au niveau cognitif que les humains lorsqu’ils accomplissent des tâches pointues. On s’achemine vers des systèmes qu’on appelle d’« intelligence artificielle générale », qui dépasseront les humains à beaucoup de niveaux. C’est difficile de conceptualiser que des machines soient un jour plus intelligentes que les humains. Certains voudraient fabriquer des IA à l’image de ces derniers, je pense que ce serait une grave erreur, mais ce scénario risque de se concrétiser. Ce sont les forces du marché qui nous ont amenés là où nous sommes aujourd’hui, sans vraiment tenir compte des conséquences pour la société. C’est pourquoi nous devons avancer prudemment.
Les performances de ChatGPT, robot conversationnel engendré par l’IA, vous surprennent-elles ou vous inquiètent-elles ?
Les deux. Les chercheurs universitaires en IA n’ont pas vu venir ChatGPT parce que leurs laboratoires ne sont pas dotés des puissances de calcul nécessaires pour entraîner ce genre de système. Le coût requis pour entraîner la dernière version de ChatGPT – il y a différentes versions de celui-ci – est gigantesque : plusieurs centaines de millions de dollars. Dans son laboratoire, un professeur d’université ne dispose pas de fonds aussi faramineux. Seulement quelques entreprises prospères et très bien établies dans le créneau de l’IA sont capables d’appliquer fructueusement à grande échelle la recette qui fonctionne le mieux aujourd’hui. Désormais, on entraîne des réseaux de neurones énormes avec des myriades de données et de calculs. L’IA a atteint un nouveau seuil. Cette évolution est impressionnante, mais aussi inquiétante.
Qu’est-ce qui vous inquiète le plus ?
À l’instar de ChatGPT, ces puissantes machines vont être mises au service de quoi et de qui? Ces interrogations suscitent déjà l’inquiétude des services de sécurité nationale dans plusieurs pays qui craignent que ces systèmes soient utilisés, même dans leur forme disponible sur Internet, par des terroristes pour perpétrer des cyberattaques, des attaques à l’arme chimique ou biologique…
L’IA est devenue aussi un enjeu politique, économique et technologique majeur entre les grandes puissances, particulièrement entre les États-Unis et la Chine, qui se livrent une concurrence effrénée dans ce domaine.
Une autre crainte lancinante : que les systèmes d’IA créent de la désinformation à un niveau inégalé jusqu’ici. Plus une machine est capable d’accomplir des tâches complexes, plus elle peut être très utile ou très dangereuse. Beaucoup de technologies ont cette capacité duale, elles peuvent servir le bien ou le mal. Pour l’instant, ce qui m’inquiète le plus, c’est qu’il n’y a pas de balises sociales ou technologiques pour s’assurer qu’on évitera les pires dérives.
En mars 2023, vous avez cosigné, avec d’autres chercheurs scientifiques, un appel à un moratoire sur l’IA. Les hautes instances politiques mondiales et les géants de la Tech, tels que Microsoft, Google, Apple, ont-ils été réceptifs à cet appel ?
Je ne m’attendais pas à ce que ces grandes entreprises freinent volontairement leurs projets de développement en IA pour qu’on prenne le temps d’évaluer et de gérer les risques potentiels. Le but de cet appel n’était pas de convaincre ces multinationales à prendre des engagements de manière volontaire, mais plutôt de susciter un débat public et d’interpeller les gouvernements et les législateurs pour qu’une réflexion soit amorcée afin d’encadrer les systèmes d’IA. Il fut une époque où le nombre d’accidents de voiture ou d’avion était beaucoup plus élevé qu’aujourd’hui. À un moment donné, les gouvernements ont adopté des règles très strictes pour diminuer le nombre d’accidents : port obligatoire de la ceinture de sécurité, inspection des systèmes des avions… Nous disposons désormais de technologies très avancées qui permettent de minimiser les risques et les dommages pour le public, tout en nous rendant d’immenses services. Si on n’établit pas des règles dans le domaine de l’IA, la compétition féroce à laquelle se livrent les entreprises incitera celles-ci à mettre toutes leurs ressources dans la recherche et le développement de plus grandes capacités intellectuelles tout en négligeant la dimension sécuritaire, les droits de la personne et la protection du public.
Les risques de dérapages de l’IA sont-ils réels aujourd’hui ? Si oui, quel serait pour vous le scénario le plus sinistre ?
Si l’IA devient plus intelligente que nous, nous courons le risque d’en perdre le contrôle. Le pire scénario est l’extinction de l’humanité. Le deuxième pire scénario est l’instauration d’une dictature mondiale. C’est clair que l’IA est un outil technologique très puissant qui pourrait paver la voie à ces deux scénarios catastrophiques. Pour parer à ces dangers, il faut impérativement instaurer des balises et des règles de gouvernance. Éviter qu’un seul gouvernant, une seule organisation ou une seule entreprise ait toute la latitude pour utiliser à sa guise les machines les plus sophistiquées d’IA. Il faut que les décisions importantes en ce qui a trait à l’utilisation de ces systèmes futurs soient prises en collégialité et régies par un processus qui tienne compte des intérêts de la majorité de la population. C’est ça la démocratie. Si une seule entité ou personne exerce un contrôle entier sur ces systèmes, il y a une possibilité d’abus qui pourrait mener à l’instauration d’un système totalitaire.
Donc, l’un des risques majeurs de l’utilisation de l’IA est son instrumentalisation à des fins idéologiques ou politiques.
Une telle pratique est déjà à l’œuvre. Par exemple, la Chine utilise l’IA pour surveiller étroitement sa population avec des caméras et par le truchement d’Internet. Pour l’instant, les systèmes que les Chinois utilisent sont assez primitifs, ils n’ont pas encore atteint le niveau de l’intelligence humaine. Le danger qu’un gouvernement autoritaire exploite la technologie de l’IA pour renforcer son pouvoir est bien réel. Cette situation est facile à imaginer dans le cas d’un système politique autocratique. Mais il y a un autre cas de figure : dans un pays démocratique, des politiciens ou un parti politique pourraient aussi exploiter l’IA pour gagner les élections et accéder au pouvoir, puis s’y maintenir par le contrôle des populations, comme le font les dictatures.
L’IA a-t-elle la capacité d’influencer les opinions publiques ?
Aujourd’hui, en Occident, dans les campagnes politiques, on a recours à l’IA pour dénigrer ses adversaires. Durant la dernière campagne présidentielle américaine, l’équipe de Donald Trump a créé des vidéos truquées de Kamala Harris, où celle-ci dit des choses qu’elle n’aurait pas dites, mais qui semblent plausibles à quelqu’un qui n’est pas suffisamment averti. Les hypertrucages, les deep fakes, la persuasion par l’entremise des réseaux sociaux sont inquiétants. Mais il y a un phénomène plus alarmant : l’utilisation de l’IA pour convaincre quelqu’un d’une fausse information ou d’une croyance trompeuse en échangeant avec lui sur les réseaux sociaux pendant des heures, des jours ou des mois. C’est une technique de désinformation beaucoup plus subtile. On exploite ainsi des robots conversationnels orientés vers la persuasion politique.
Une étude récente de l’École Polytechnique fédérale de Lausanne (EPFL), en Suisse, a comparé la capacité de ChatGPT 4 – la dernière version disponible de cette machine – avec celle d’un humain. ChatGPT 4 fait mieux qu’un humain quand on lui donne la page Facebook d’une personne à persuader. Grâce à leurs millions d’interactions avec les humains, ces systèmes pourraient s’avérer plus persuasifs que nous dans un futur proche.
Peut-on craindre que l’IA soit utilisée pour accentuer les divisions sociales et les discriminations envers des communautés minoritaires ?
C’est une crainte qui date de bien avant l’arrivée de ChatGPT. En 2017, j’ai participé avec d’autres chercheurs de l’Université de Montréal à une réflexion sur cette question qui a donné lieu à la Déclaration de Montréal sur le développement responsable de l’IA. Celle-ci, basée sur dix principes, a pour objectif de mettre le développement de l’IA de manière responsable au service du bien-être de tout un chacun. L’aspect éthique occupe une place importante dans la Déclaration de Montréal. On ne veut pas que l’IA oriente nos opinions et nuise à notre autonomie ou à l’environnement, par exemple.
Les chercheurs ont commencé à s’intéresser à la question des discriminations et des biais il y a une dizaine d’années. Pourquoi l’IA défavorise-t-elle les membres d’une communauté minoritaire ou les femmes? Tout simplement parce que les systèmes utilisant l’IA sont entraînés à imiter les textes ou les contenus visuels qu’on leur fournit. Ceux-ci régurgitent les préjugés et les croyances fausses qui pullulent sur les réseaux sociaux.
Quelles mesures juridiques et techniques préconisez-vous pour nous prémunir contre les dangers de dérapage de l’IA ?
Que faire pour éviter les risques de dérapages? C’est une question fondamentale. Le minimum, comme le préconise le décret promulgué en octobre 2023 par le président américain Joe Biden, c’est que les entreprises documentent le fonctionnement des grands systèmes d’IA qu’elles utilisent et spécifient les mesures de protection du public qu’elles comptent mettre en œuvre. Certaines entreprises le font déjà de façon volontaire. Au Canada, une loi, C-27, à mes yeux très convenable, visant à encadrer l’utilisation de l’IA, a été proposée, mais n’a pas encore été adoptée par le Parlement d’Ottawa. L’Union européenne a promulgué aussi récemment une législation sur l’IA. La législation que je préfère est celle votée par la Californie, mais rejetée par le gouverneur de cet État, Gavin Newsom. Ce projet de loi était basé sur deux principes : la transparence – les entreprises qui fabriquent de très gros systèmes d’IA doivent rendre publics leurs plans de sécurité – et la responsabilité civile, dans le cas où des entreprises soient poursuivies pour des dommages majeurs. Il faut que les législateurs incitent les entreprises à faire plus d’efforts pour mieux comprendre les risques potentiels, et les atténuer.
Y a-t-il aujourd’hui une « prise de conscience » ou une « crise de conscience » dans la communauté des chercheurs en IA ?
Beaucoup de chercheurs en IA partagent mon inquiétude. D’autres sont convaincus qu’on va trouver des solutions. J’espère qu’ils ont raison. Personnellement, j’ai des enfants et un petit-fils, j’aimerais qu’on évite des catastrophes, même si elles sont peu probables. Je n’ai pas une boule de cristal, personne ne peut prédire à quoi ressemblera le futur de l’IA. On peut réfléchir sur différents scénarios, mais en fin de compte, l’incertitude persistera. Nous devrons apprendre à vivre avec celle-ci. Logiquement, cette incertitude devrait nous inciter à mettre en œuvre ce qu’on appelle en sciences le « principe de précaution »: si une expérience scientifique pouvait s’avérer très dangereuse, on ne doit pas la réaliser. Il faut explorer, sur le plan scientifique, les moyens de mieux se protéger contre les risques.
L’IA favorise-t-elle les interactions et le réseautage entre les humains ?
À l’instar des réseaux sociaux, l’IA peut rapprocher ou éloigner les humains, si on passe notre temps devant notre ordinateur au lieu d’interagir. Aujourd’hui, des vidéos générées par l’IA sont de plus en plus réalistes, dans quelques années, elles seront encore plus frappantes. L’important, c’est de se dire : on a le choix, collectivement nous pouvons décider dans quelle direction et à quelles fins on veut utiliser les outils technologiques qu’on développe. On n’est pas obligés de suivre aveuglément les forces du marché. Par exemple, les clics sur les réseaux sociaux sont rentables pour les entreprises qui promeuvent leurs produits auprès des internautes, mais ces clics sont-ils vraiment bénéfiques pour la société, pour le commun des mortels? La maximisation du profit nous mène vers des sentiers inconnus et parfois néfastes. L’éthique et les valeurs humanistes devraient être indissociables de l’utilisation des nouvelles technologies. C’est pourquoi il est nécessaire d’instaurer des règles claires.
Le professeur universitaire chevronné que vous êtes, quels conseils prodigueriez-vous à un jeune qui caresse l’idée de faire carrière dans le domaine de l’IA ?
Ce qui est intéressant avec l’IA, c’est qu’elle fait appel à de nombreux métiers : mathématiciens et chercheurs spécialisés en algorithmes, informaticiens ayant un bagage en mathématiques, ingénieurs travaillant à accroître l’efficacité des systèmes, spécialistes de l’IA pour les imageries médicales, spécialistes de l’IA en éducation, en droit, en gestion, en chimie, etc. Il va y avoir beaucoup d’options au niveau professionnel. Cependant, il y a aussi une inquiétude que je ne peux passer sous silence et qui est déjà l’objet de discussions entre les économistes : dans quelques années ou décennies, quand l’IA aura atteint un niveau de compétence cognitive égal ou supérieur à celui des humains, beaucoup d’emplois seront remplacés par des machines. Comment va-t-on gérer ce changement profond au niveau économique? Les conséquences pourraient être néfastes au niveau humain et social. Nous devons nous soucier du bien-être des personnes. Ce sont des questions fondamentales pour lesquelles on n’a pas encore de réponses. Ces interrogations nous enjoignent à avancer prudemment dans le développement des systèmes d’IA.
Crédit photo : © Maryse Boyce