Skip To Content
ADVERTISEMENT

Message de la Présidente

L’intelligence artificielle (IA) a été définie de manière plaisante comme « l’art de faire en sorte que les ordinateurs se comportent comme ceux des films ». Selon cette définition, ChatGPT, l’outil de traitement de langage naturel d’OpenAI lancé le 30 novembre 2022, pourrait bien être la plus grande réussite de l’IA à ce jour. Bien qu’il n’ait été lancé qu’il y a six mois, le chatbot a déjà atteint une certaine célébrité cinématographique. Il a été interrogé par des journalistes, a démontré des compétences allant de l’écriture de code logiciel à la composition de poèmes, et a atteint un niveau de facilité de dialogue avec les humains qui rappelle l’ordinateur utile et polyvalent de Star Trek.

Il est facile d’apercevoir comment les modèles génératifs d’IA tels que ChatGPT, ainsi que l’IA dans sa forme plus générale, pourraient constituer une force de progrès pour la science et la société. L’apprentissage profond et d’autres techniques d’IA révolutionnent déjà la façon dont la science et l’ingénierie sont réalisées, dans des tâches qui vont de la reconnaissance et de l’analyse d’images à la conception de réseaux optiques. D’un point de vue plus banal, toute personne ayant eu à transpirer dans la tâche difficile de rédiger ses résultats de recherche pourrait apprécier un coup de main de la part d’un outil comme ChatGPT. Une telle assistance, a-t-on noté, pourrait même égaliser les chances de publication des travaux de recherche des auteurs dont la langue maternelle n’est pas l’anglais. Il s’agirait incontestablement d’un résultat positif pour le monde.

Cependant, comme pour toute technologie émergente, les récents progrès de l’IA ont également suscité des craintes et de nouveaux dilemmes. Même dans le domaine de la communication scientifique, notre communauté est confrontée à certaines implications pratiques et éthiques du ChatGPT et de ses cousins. Il s’agit notamment de savoir comment divulguer la contribution d’un système d’IA aux résultats, au texte et aux images d’un article ; si un outil d’IA peut être cité comme auteur ; comment contrôler les fraudes et les abus potentiels ; et si un tel contrôle est vraiment possible. En outre, selon certains, ces technologies soulèvent des préoccupations plus étendues concernant la désinformation rampante — incarnée dans des véhicules pilotés par l’IA tels que les vidéos « deepfake » — qui pourrait abîmer la confiance et diviser la société.

Je crois que nous devons prendre ces préoccupations au sérieux. Mais nous devons aussi reconnaître que nous sommes déjà passés par là. Toutes les technologies de transformation sont potentiellement à double tranchant, et leur impact dépend de ce que les humains choisissent d’en faire. Le réseau Internet mondial, né il y a 40 ans, a depuis lors complètement remodelé notre façon de communiquer, d’obtenir des informations et de faire avancer le progrès humain. Il ne fait aucun doute que, dans certains cas, il a été un outil puissant pour répandre la désinformation et permettre la répression politique. Mais la plupart des changements apportés par l’Internet ont été bénéfiques, et rares sont ceux qui souhaiteraient revenir à l’ère pré-Internet — même si cela était possible.

Certains pensent aujourd’hui que les technologies de l’IA ont le potentiel de provoquer des bouleversements similaires à l’échelle de l’Internet (voire plus). Il serait vain d’essayer de souhaiter que ces perturbations disparaissent. Nous devons plutôt trouver les meilleurs moyens de mettre ces technologies au service de la science et du progrès humain, tout en veillant à ce qu’elles ne deviennent pas destructrices. Pour y parvenir, il faudra une forme d’intelligence différente et très humaine, impliquant un dialogue permanent entre les scientifiques, les gouvernements, l’industrie et la société dans son ensemble. C’est un défi que nous devons tous relever.

Michal Lipson,
Présidente d’Optica

Add a Comment