Passer au contenu principal Sauter à la navigation Passer au pied de page
Offres pour les entreprises Newsletter À notre propos

Informatique

Protection des données et deepfakes: comment utiliser l’IA en toute sécurité

de IBAW / Maher Hamid, Dr. Cand., 14 août 2025

Interview avec Maher Hamid, Dr. Cand., Enseignant IA

Maher Hamid est expert en automatisation des processus métier grâce à l’apprentissage automatique (Machine Learning, ML) et à l’IA. Son activité principale consiste à développer pour de grandes PME des solutions logicielles sur mesure qui utilisent des modèles d’IA et de ML pour automatiser les processus internes.

Depuis plus de huit ans, il enseigne des sujets informatiques pratiques tels que la gestion de bases de données, la science des données et la programmation appliquée. Depuis fin 2024, les participants de l'IBAW bénéficient également de son expertise.

Linkedin

L’intelligence artificielle (IA) est fascinante, mais savons-nous réellement ce qu’il advient de nos données quand nous utilisons des outils comme ChatGPT? Maher Hamid, enseignant et expert en IA, explique dans cette interview comment se protéger et pourquoi il ne faut pas pour autant avoir peur de l’intelligence artificielle.

Utilisation plus sûre de l'IA

Monsieur Hamid, pourquoi le thème de la sécurité de l’IA est-il si important?

Parce que l’IA est maintenant présente presque partout: du smartphone au poste de travail en passant par la tablette. Lorsque nous utilisons des outils d’IA, les informations saisies atterrissent sur les serveurs centraux de grands fournisseurs. Chaque personne devrait savoir ce qu’il advient de ces données et quels sont les risques encourus.

Que se passe-t-il exactement avec nos données quand nous utilisons des outils d’IA comme ChatGPT?

Les informations saisies sont d’abord converties en une sorte de monnaie numérique, dont les unités sont appelées tokens, puis envoyées à des serveurs centraux, par exemple ceux de Microsoft ou de Google. Là, un réseau neuronal calcule la réponse appropriée et la renvoie, également sous forme de chiffres qui sont ensuite reconvertis en mots.

Il faut avoir conscience que tout est traité de manière centralisée. Pas localement sur votre ordinateur, mais sur les serveurs des fournisseurs d’IA respectifs.

Cela veut-il dire que nous entraînons l’IA avec les données que nous saisissons?

En partie. Dans le cadre d’une utilisation anonyme sans connexion à un compte, aucun contrôle n’est possible sur l’utilisation des données. Les comptes enregistrés, même gratuits, offrent en général une option de retrait (opt-out) pour les données d’entraînement. Les utilisateurs et utilisatrices peuvent donc désactiver la fonction permettant l’utilisation de leurs données pour entraîner l’IA.

En règle générale, les comptes gratuits sont plus risqués pour la protection des données, mais même avec ces comptes, toutes les données ne sont pas utilisées à des fins d’entraînement.

Recommandez-vous donc les versions payantes des outils d’IA?

Absolument. Un compte payant offre un contrôle nettement supérieur sur les données, ce qui protège mieux la sphère privée. Si vous ne souhaitez pas de version payante, vous devriez au moins vous enregistrer.

Quels sont les risques spécifiques pour les entreprises liés à l’utilisation d’outils d’IA?

Il est particulièrement risqué de saisir des données protégées par le droit d’auteur ou des informations sensibles comme des données personnelles. Même avec un compte payant, la menace de piratage existe toujours.

Les entreprises ne devraient donc jamais stocker de données ultrasensibles, qui pourraient nuire à leur propre infrastructure informatique ou à l’entreprise, sur des serveurs d’IA externes.

Deepfakes: la manipulation de contenus multimédia

Les deepfakes sont un autre sujet. Pouvez-vous nous expliquer de quoi il s’agit exactement?

Les deepfakes, ou hypertrucages, sont des images, des vidéos ou des voix générées par l’IA, d’un réalisme saisissant, qui imitent de vraies personnes. L’exemple du pape François portant une doudoune tendance de la marque Moncler est devenu célèbre. Une fausse image qui a fait le tour du monde.

De telles falsifications sont aujourd’hui presque impossibles à déceler. Il faut cependant garder en tête que les personnalités publiques ont un droit à l’image. Il ne faut pas le violer en créant soi-même de tels faux. Au minimum, il faut indiquer qu’il s’agit d’une falsification générée par l’IA.

Existe-t-il des lois qui pourraient mieux nous protéger des deepfakes à l’avenir?

La loi sur l’IA de l’Union européenne, en vigueur depuis août 2024, contient des obligations claires d’étiquetage pour les contenus générés par l’IA, en particulier pour les deepfakes (voir l’article 50). En Suisse, en revanche, une réglementation légale spécifique aux deepfakes a été refusée en mai 2025. Les dispositions générales du droit de la protection des données et du droit pénal restent applicables.

Personnellement, je m’engage fermement en faveur d’une obligation de déclaration, car la frontière pourrait bientôt se dissiper complètement entre la réalité et les contenus générés par l’IA. Il existe déjà aujourd’hui des contenus d’un réalisme trompeur, comme de prétendues conversations secrètes entre hommes et femmes politiques, que même les spécialistes ont du mal à identifier.

Comment peut-on se protéger des deepfakes en tant que particulier?

Le plus important est de publier le moins de photos possible. Plus il y a d’images disponibles en ligne, plus il est facile de créer des deepfakes. Sur les réseaux sociaux, je recommande de passer son compte en mode privé. Il ne faut pas non plus envoyer des photos de soi à une personne que l’on vient de rencontrer.

Hameçonnage (phishing): la tentative d’obtenir des données sensibles

Et comment se protéger concrètement de l’hameçonnage assisté par l’IA?

Utilisez au moins deux adresses e-mail: une privée pour les contacts importants, qui ne doit jamais être communiquée publiquement, et une seconde pour les services en ligne comme Zalando et les réseaux sociaux. Configurez également vos filtres anti-spam de manière stricte, vos comptes de messagerie apprendront ainsi à bloquer efficacement les tentatives de spam et d’hameçonnage.

Une prudence particulière est de mise en cas d’appel téléphonique suspect: vérifiez attentivement le numéro et restez sur vos gardes, même s’il s’agit d’un indicatif suisse. Il faut refuser par principe les demandes liées à de l’argent ou qui impliquent de rendre un grand service. Bloquez et signalez toujours les SMS ou appels suspects.

L’IA pourrait-elle réellement manipuler la société?

Oui, malheureusement. Certains systèmes d’IA n’ont pas de filtres éthiques et diffusent délibérément des contenus controversés. Grok, l’IA de xAI (anciennement Twitter), a été critiquée en juillet 2025 pour avoir généré des contenus antisémites. Cela a été déclenché par une modification du contexte du prompt à l’échelle du système («maximally based»), ce qui a favorisé des réponses agressives et extrémistes. Les fermes de bots influencent déjà les opinions et les élections. Nous devons garder un œil critique sur ce phénomène et rester vigilant-es.

Agents d’IA: des programmes qui exécutent des tâches de manière autonome

Que sont exactement les agents d’IA?

Ce sont des systèmes d’IA automatisés qui exécutent des tâches de manière autonome: par exemple, faire des réservations dans des restaurants, fixer des rendez-vous ou réserver des vols. Le premier agent d’IA est actuellement en cours de déploiement par OpenAI et sera bientôt disponible pour tout le monde.

Quelles sont les règles que vous recommanderiez aux entreprises de respecter pour une utilisation sûre de l’IA, et qui est responsable si l’IA commet des erreurs?

Tout dépend toujours du contrat. OpenAI a, par exemple, déclaré publiquement que si une entreprise utilisait ChatGPT à des fins commerciales avec une licence payante et que des violations de copyright se produisaient accidentellement, OpenAI en assumerait la responsabilité. Mais si l’on enfreint intentionnellement les conditions de licence, par exemple en modifiant des contenus protégés par le droit d’auteur sans les étiqueter correctement, on porte soi-même la responsabilité.

Opinion personnelle: conseils et encouragement

Quelles sont vos cinq règles d’or pour une utilisation sûre de l’IA?

  1. Ne pas saisir de données ultrasensibles,
  2. vérifier les réponses de l’IA en faisant preuve d’esprit critique,
  3. ne jamais se contenter de la première réponse,
  4. utiliser si possible un compte payant et
  5. toujours assumer soi-même la responsabilité, car, en fin de compte, c’est l’humain qui est responsable, pas l’IA

Que voulez-vous dire pour conclure qui vous tient à cœur?

N’ayez pas peur de l’IA! C’est un outil que nous devons utiliser de manière responsable. L’ouverture à la technologie est la clé de l’avenir.

Souhaitez-vous approfondir le sujet de l’IA??

Participez à l'une de nos formations continues:

Cours de base

Approfondissement spécialisé

Formations

If event.detail has no child property!