De l'intelligence des données à l'expertise augmentée
Connexion
Accédez à votre espace personnel
Recevez nos dernières vidéos et actualités quotidiennementInscrivez-vous à notre newsletter
ÉCONOMIE
Décryptages éco Intelligence économique Intelligence sectorielle Libre-propos Parole d'auteur Graphiques Notes de lecture
STRATÉGIE & MANAGEMENT
Comprendre Stratégies & Management A propos du management Parole d'auteur
RESEARCH
RUBRIQUES
Économie généraleFranceEurope, zone euroÉconomie mondiale Politique économique Emplois, travail, salairesConsommation, ménagesMatières premières Finance Géostratégie, géopolitique ComprendreManagement et RHStratégieMutation digitaleMarketingEntreprisesFinanceJuridiqueRecherche en gestionEnseignement, formation
NEWSLETTERS
QUI SOMMES-NOUS ?

Voir plus tard
Partager
Imprimer

L’Intelligence artificielle se déploie depuis une dizaine d’années. Les entreprises n’ont pas attendu les IA génératives, c’est-à-dire les ChatGPT, Gemini ou Copilot, pour l’utiliser dans leurs systèmes ou dans leurs produits. L’IA fait faire de tels bonds de productivité aux entreprises que celles qui n’y ont pas recours seront vite moins compétitives. Mais si l’on parle beaucoup des suppressions d’emploi que l’IA peut entraîner et des risques éthiques qu’elle fait peser sur nos données personnelles, on parle moins des rapports de l’IA et de la cybersécurité.

D’abord, l’IA est un levier puissant pour améliorer la sécurité des systèmes informatiques : elle peut détecter et bloquer les menaces avant qu’elles aient compromis le système. Grâce aux capacités prédictives de l’IA, la cybersécurité devient un outil proactif et plus seulement réactif.

Ensuite, comme toujours dans le jeu des gendarmes et des voleurs, l’IA est aussi un instrument au service des hackers, elle les rend eux aussi plus efficaces. Les pirates l'exploitent par exemple pour le « phishing », c’est à dire pour produire des e-mails pièges plus crédibles à grande échelle, dans plusieurs langues et désormais sans les fautes d'orthographe qui nous permettaient de les reconnaître.

Enfin, si l’IA est un outil pour améliorer sa défense et un outil pour parfaire ses attaques, elle est aussi… une cible. L’IA elle-même peut se faire hacker. Or les robots IA, comme les voitures autonomes, se développent à grande vitesse. Les robotaxis sans chauffeur de Waymo, la filiale de Google, ont déjà fait 150 000 courses dans trois villes américaines. L’IA travaille aussi dans le milieu médical (elle fait des diagnostics de santé, par exemple), et elle gère les accès à des installations sensibles. Or les robots IA qui se font pirater ne sont plus seulement une menace numérique : ils peuvent causer toutes sortes d’accidents dans le monde réel.

Les IA peuvent subir deux types d'attaques. Les premières ont pour objectif d’extraire des informations confidentielles, comme des données de santé. Mais on peut aussi faire avouer à un chatbot les étapes de la fabrication d'une bombe en contournant ses garde-fous.

Le deuxième type d’attaque consiste à manipuler les modèles pour fausser leurs résultats. Par exemple, en biaisant la reconnaissance d'images d'une voiture autonome pour lui faire voir un panneau « 130 » alors que c’était un panneau « Stop ».
Patrice Caine, le patron du groupe d’électronique Thales, qui développe des activités dans la défense et la cybersécurité, donne trois conseils aux dirigeants d’entreprises :
D'abord, choisir la modalité d'IA adaptée à chaque cas d'usage. Toutes les IA ne sont pas égales face aux cyberattaques. Les grands modèles de langage (ceux qui sont à l’origine de ChatGPT et ses semblables), du fait de l'énorme quantité de données sur laquelle ils s'appuient et à cause de leur fonctionnement purement statistique, sont particulièrement exposés. Mais il existe d'autres modalités, comme les IA symboliques ou hybrides. Celles-là sont par conception beaucoup plus difficiles à attaquer parce qu’elles sont plus frugales en données et qu’elles fonctionnent en partie sur des règles logiques explicites.

Deuxième conseil, mettre en place les contremesures disponibles : les tatouages numériques, la cryptographie, les entraînements spécifiques des modèles… Des parades efficaces peuvent neutraliser les nouvelles menaces. Ce qu’on appelle des « Battle Box », par exemple : cela permet de mettre les IA à l'épreuve et de les renforcer.

Enfin, il faut améliorer la culture de cybersécurité dans les entreprises. L'IA est une des composantes du système informatique ; il faut plus que jamais renforcer les capacités de défense « classiques ». Et insister sur la sensibilisation des collaborateurs car avec ou sans IA, les failles humaines sont et resteront la principale cause de succès des cyberattaques.


Publié le mercredi 05 mars 2025 . 4 min. 04

Téléchargez l'application


Les dernières vidéos
Mutation digitale

Les dernières vidéos
de Christine Kerdellant

x
Cette émission a été ajoutée à votre vidéothèque.
ACCÉDER À MA VIDÉOTHÈQUE
x

CONNEXION

Pour poursuivre votre navigation, nous vous invitons à vous connecter à votre compte Xerfi Canal :
Déjà utilisateur
Adresse e-mail :
Mot de passe :
Rester connecté Mot de passe oublié?
Le couple adresse-mail / mot de passe n'est pas valide  
  CRÉER UN COMPTE
x
Saisissez votre adresse-mail, nous vous enverrons un lien pour définir un nouveau mot de passe.
Adresse e-mail :