De l'intelligence des données à l'expertise augmentée
Connexion
Accédez à votre espace personnel
Recevez nos dernières vidéos et actualités quotidiennementInscrivez-vous à notre newsletter
ÉCONOMIE
Décryptages éco Intelligence économique Intelligence sectorielle Libre-propos Parole d'auteur Graphiques Notes de lecture
STRATÉGIE & MANAGEMENT
Comprendre Stratégies & Management A propos du management Parole d'auteur
RESEARCH
RUBRIQUES
Économie généraleFranceEurope, zone euroÉconomie mondiale Politique économique Emplois, travail, salairesConsommation, ménagesMatières premières Finance Géostratégie, géopolitique ComprendreManagement et RHStratégieMutation digitaleMarketingEntreprisesFinanceJuridiqueRecherche en gestionEnseignement, formation
NEWSLETTERS
QUI SOMMES-NOUS ?

Voir plus tard
Partager
Imprimer

Vous avez forcément entendu parler du débat qui agite la communauté de l’IA autour de la sécurité de l’IA. Pour certains experts, il existe un réel risque existentiel pour l’humanité : même si on ne sait pas forcément écrire le scénario de l’apocalypse, la simple existence d’une super-intelligence dont le contrôle pourrait échapper à ses créateurs serait un risque inacceptable. Certains de ces experts ont appelé, pendant un temps, à un moratoire sur l’IA ; le plus célèbre d’eux, Eliezer Yudkowsky, expliquait même en 2023 qu’on devrait être prêt à déclencher une guerre nucléaire pour faire appliquer ce moratoire !

Pour d’autres spécialistes de l’IA, au contraire, ces craintes relèvent de la science-fiction. Ceux-là ont trois arguments principaux : D’abord, la fameuse super-intelligence leur semble encore très loin d’être atteinte. Ensuite, même si elle apparaît, il ne leur semble pas très probable qu’elle devienne hostile à l’humanité. Et enfin, même si c’est le cas, il n’est pas acquis qu’elle puisse échapper totalement au contrôle humain.

Le débat n’est donc pas tranché. Comme le moins qu’on puisse dire est que son enjeu est important (on parle quand même de la survie de l’humanité…), tout ce qui peut contribuer à l’éclairer est utile. C’est dans ce contexte qu’une équipe d’experts de la prévision, sous la direction de Phil Tetlock, de l’université de Pennsylvanie, a eu l’idée d’utiliser une méthode qui a fait ses preuves : le « tournoi de prévision », et plus exactement, une variante qu’ils appellent « tournoi de persuasion ».  Dans un tournoi de persuasion, les participants ne se contentent pas de dire s’ils pensent qu’un événement va se produire ou non : ils lui assignent une probabilité. Et ensuite, ils tentent de persuader les autres participants de se ranger à leur avis. En règle générale, cette méthode permet aux experts de converger vers des prévisions partagées.

Pour faire bonne mesure, les organisateurs du tournoi de prévision du risque existentiel ont élargi le débat à l’ensemble des risques existentiels qui pèsent sur l’humanité – risque climatique, nucléaire, bioterroriste, collision avec un astéroïde, etc.  169 participants ont participé au tournoi. Parmi eux, 89 étaient des « super prévisionnistes », qui avaient démontré, sur d’autres sujets, qu’ils sont capables de formules des prévisions argumentées et surtout très souvent correctes.  Les 80 autres étaient des experts de l’un ou l’autre des risques existentiels – experts en IA, mais aussi en sécurité nucléaire, bioterroriste ou bactériologique.

La conclusion la plus surprenante, c’est que contrairement à ce qui se passe habituellement, les prévisions n’ont pas convergé. Même après avoir échangé « des milliers de prévisions et des millions de mots », le désaccord reste immense. Regardons par exemple l’évaluation du risque d’extinction de l’humanité d’ici 2100 : elle est de 6% pour la médiane des 80 experts en risques, mais de « seulement » 1% pour les 89 superprévisionnistes. Les superprévisionnistes ne se laissent pas gagner par l’angoisse existentielle des spécialistes : ils pensent être les mieux placés pour quantifier des petites probabilités. Les experts, de leur côté, ne sont pas convaincus par le relatif optimisme des superprévisionnistes : en substance, ils pensent que « cette fois-ci, c’est différent ».

Le débat reste donc entier. Mais les données nous donnent quand même une indication très intéressante : pour un participant donné, les estimations de risque sont fortement corrélées entre elles. Par exemple, les participants qui estiment qu’il y a un risque élevé de catastrophe liée à l’IA font aussi des prévisions plus élevées sur les pandémies ou le risque nucléaire. Ceux qui ne croient pas que l’IA puisse nous manger tout crus sont aussi les moins inquiets quand on les interroge sur le bioterrorisme ou les catastrophes climatiques.

Tout se passe donc comme si, face à une incertitude irréductible, les prévisions étaient, au fond, plus fonction du tempérament de la personne qui les formule que de la question posée et des faits disponibles. Une observation à garder à l’esprit la prochaine fois que vous consulterez un expert…

Tournoi de prévision :
https://static1.squarespace.com/static/635693acf15a3e2a14a56a4a/t/64f0a7838ccbf43b6b5ee40c/1693493128111/XPT.pdf

superprévisionnistes : https://arenes.fr/livre/comment-etre-visionnaire/


Publié le mercredi 15 janvier 2025 . 4 min. 52

x
Cette émission a été ajoutée à votre vidéothèque.
ACCÉDER À MA VIDÉOTHÈQUE
x

CONNEXION

Pour poursuivre votre navigation, nous vous invitons à vous connecter à votre compte Xerfi Canal :
Déjà utilisateur
Adresse e-mail :
Mot de passe :
Rester connecté Mot de passe oublié?
Le couple adresse-mail / mot de passe n'est pas valide  
  CRÉER UN COMPTE
x
Saisissez votre adresse-mail, nous vous enverrons un lien pour définir un nouveau mot de passe.
Adresse e-mail :