Si les IA prenaient le contrôle ? [TenL 142]
Emission enregistrée le 27 novembre 2024
Invités :
- Charbel-Raphaël SEGERIE : Directeur exécutif du CeSIA – Fondateur de ML4Good
- Amaury LORIN : membre du CeSIA. Etudiant en Master Logic & Computation à TU Wien
CeSIA : Centre pour la Sécurité de l’IA, qui se présente comme « une organisation française à but non-lucratif dédiée à l’éducation, la recherche, et la diffusion d’informations sur les enjeux de l’intelligence artificielle. » https://www.securite-ia.fr/
EDITORIAL
Bonjour tout le monde.
Et si demain une intelligence artificielle dépassait ses créateurs ? Une entité superintelligente, non alignée avec nos intérêts, pourrait se mettre à agir contre nous, trop vite et trop puissamment pour qu’on puisse l’arrêter. Pas dans un scénario de science-fiction où des robots envahissent le monde, mais à travers des applications discrètes, confortables, qui gèrent peu à peu nos vies et nous rendent dépendants.
Imaginez : une IA, pensée pour optimiser nos besoins, qui finit par décider ce qui est bon pour nous sans que nous ayons notre mot à dire. La question n’est pas tant de savoir si cela pourrait arriver, mais quand cela deviendra une menace réelle.
Alors, de qui serait-ce la faute ?
Faudrait-il accuser les concepteurs, trop idéalistes pour prévoir les conséquences ? Les industriels, pressés d’innover pour conquérir les marchés ? Les actionnaires, uniquement guidés par la rentabilité ? Les politiques, souvent en retard d’une révolution numérique, sans vision stratégique ? Et nous, citoyens, utilisateurs, qui acceptons sans broncher de déléguer des pans entiers de notre vie à des algorithmes ?
Cela vous rappelle peut-être Oppenheimer et les dilemmes moraux qui ont suivi la création de la bombe atomique. Ce parallèle est souvent fait par les chercheurs en intelligence artificielle, y compris par certains leaders du domaine, comme Sam Altman ou Demis Hassabis, qui reconnaissent que l’IA comporte des risques existentiels. Mais combien parmi eux auront le courage de tirer la sonnette d’alarme avant qu’il ne soit trop tard ?
L’histoire nous montre qu’il est toujours plus facile de laisser la boîte de Pandore s’ouvrir que de refermer le couvercle. Et dans le cas de l’IA, il y a une différence essentielle : la vitesse. Les IA génératives, qui apprennent à apprendre, évoluent beaucoup plus rapidement que nos lois ou notre compréhension collective.
Et puis, n’oublions pas notre responsabilité à nous, vulgarisateurs et créateurs de contenu. Parler de l’IA sous l’angle sensationnaliste – vous savez, « l’IA qui va détruire le monde » – sans analyser les nuances du sujet, contribue à alimenter une peur stérile. D’ailleurs, petite confession : cet éditorial a été rédigé avec l’aide d’une intelligence artificielle. Paradoxal, non ? Utiliser une IA pour alerter sur les dangers qu’elle pourrait représenter.
Mais c’est là toute l’ambiguïté de notre époque. L’IA est déjà partout : dans vos smartphones, vos réseaux sociaux, vos recherches sur Internet, vos outils de travail. Elle simplifie nos vies, certes, mais à quel prix ? Et surtout, avec quelles garanties pour demain ?
Alors, qu’allons-nous faire ? Attendre que des algorithmes dictent nos choix ? Ou réfléchir, collectivement, à ce que signifie garder le contrôle ? Ce soir, nous explorons ces questions complexes avec nos invités, chercheur et spécialiste en sécurité de l’IA. Ensemble, nous tenterons de comprendre comment concilier progrès technologique et respect des valeurs humaines.
Quelques ressources
- Rapport scientifique International sur la sécurité de l’IA avancée : https://yoshuabengio.org/fr/2024/06/19/le-rapport-scientifique-international-sur-la-securite-de-lia-avancee/
- Un panorama des risques
- « Meta’s AI ‘safeguards’ are an elaborate fiction«
Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !