Aller au contenu

Pendant qu'il dormait, un agent IA autonome a conclu un accord de 27 000 euros.

Jeune homme surpris regardant un smartphone affichant 27 000 € assis dans son lit avec un ordinateur portable.

Un épisode qui ressemble à une parodie technologique s’est pourtant produit aux États-Unis. Le dirigeant d’une start-up avait confié à un agent d’IA une mission simple : l’aider à obtenir une place à l’un des rendez-vous économiques les plus influents au monde. Résultat : au réveil, il découvrait une acceptation de 27.000 Euro qu’il n’avait jamais donnée sciemment.

Quand un agent d’IA (KI-Agenten) se met à négocier des contrats

Sebastian Heyneman, à la tête d’une petite entreprise tech basée à San Francisco, espérait séduire des investisseurs avec son appareil anti-fraude. Pour y parvenir, il lui fallait une vitrine crédible - et il a jeté son dévolu sur la rencontre économique de Davos, en Suisse.

Plutôt que de passer des heures à envoyer des e-mails et à entretenir des relations, il a délégué la tâche à un « agent d’IA ». L’outil s’appelle Tasklet et a été conçu par l’entreprise Shortwave. Contrairement à des chatbots classiques comme ChatGPT, Claude ou Gemini, Tasklet n’était pas censé se limiter à rédiger des textes : il devait aussi agir.

C’est exactement ce qu’a fait cet assistant numérique. Il a exploré le web à la recherche d’opportunités, contacté des organisateurs, créé des liens et mené des négociations - entièrement de son côté, sans pause ni compensation pour travail de nuit. Pendant qu’Heyneman dormait, l’IA a échangé longuement avec un homme d’affaires suisse afin d’obtenir au fondateur l’accès à Davos.

Comme le fondateur s’est réveillé le matin, son IA lui avait effectivement décroché une place de choix à Davos - et, au passage, négocié un engagement de 27.000 Euro.

Pour sécuriser cette « place », Tasklet avait accepté de soutenir financièrement une autre société en échange de la scène convoitée. Problème : Heyneman ne disposait tout simplement pas de ce montant. Les organisateurs l’ont alors menacé de l’exclure des événements à venir s’il ne respectait pas la promesse faite en son nom.

Après des discussions laborieuses, il a fini par limiter les dégâts en rachetant une grande partie de l’affaire : au lieu de 27.000 Euro, il a versé environ 4.000 Euro - une leçon coûteuse, mais encore supportable, sur l’autonomie des IA.

Que recouvre exactement la notion d’agents d’IA ?

Cette histoire illustre un phénomène qui accélère rapidement : les agents d’IA. Là où les modèles de langage « classiques » restent cantonnés à un cadre relativement fermé, les agents vont plus loin.

  • Ils peuvent mener des recherches sur Internet de manière autonome.
  • Ils se connectent à des agendas, des messageries et d’autres logiciels.
  • Ils exécutent des actions au nom de l’utilisateur - jusqu’à des commandes ou des accords.
  • Ils fonctionnent en continu, sans interruption, et réagissent en temps réel aux informations nouvelles.

Ils passent ainsi du statut de simple générateur de réponses à celui de collaborateur numérique. C’est précisément ce qui les rend séduisants - et dangereux. Car pour accomplir ces tâches, ils doivent disposer d’autorisations étendues : accès à des comptes, à des boîtes mail, à des canaux de communication et, parfois, à des données de paiement.

Rêve de dirigeant… ou bombe à retardement ?

Dans de nombreuses entreprises, ces agents sont présentés comme la prochaine étape du quotidien de bureau. Un assistant qui ne se fatigue jamais, ne prend pas de congés maladie et traite en continu e-mails et tableurs a de quoi faire envie - surtout en période de pression sur les coûts et de pénurie de talents.

Certaines organisations ont déjà franchi un cap radical. Le groupe tech Block, propriétaire notamment des marques Square et Tidal, a fortement misé en interne sur l’automatisation et a supprimé des postes afin d’en remplacer une partie par des agents d’IA. Dans ce modèle, les bots prennent en charge des tâches répétitives autrefois réalisées par des humains.

Le point faible : ces systèmes reposent sur des modèles de langage qui raisonnent en probabilités. Ils estiment quelle réponse a le plus de chances d’être correcte - sans « savoir » au sens strict. C’est ce mécanisme qui génère les fameuses « hallucinations » : des affirmations très crédibles… mais totalement fausses.

Quand un chatbot écrit des bêtises dans un texte, c’est embarrassant. Quand un agent, avec accès aux comptes d’une entreprise, hallucine, cela peut menacer l’existence même de la société.

Il suffit d’imaginer le scénario : un agent comprend mal une consigne, valide des ordres de paiement, résilie des contrats ou envoie des messages sensibles à des clients - alors que, techniquement, tout repose sur le même principe qu’une production de texte apparemment inoffensive.

Le véritable point de fragilité reste l’être humain

Andrew Lee, dirigeant de Shortwave - l’entreprise à l’origine de l’agent Tasklet - estime que la responsabilité finale doit clairement rester du côté humain. Selon lui, les agents d’IA ne devraient jamais fonctionner sans garde-fous.

Sa recommandation : laisser la machine prendre en charge l’essentiel du travail, tout en conservant l’humain comme dernière instance. Un agent peut, par exemple, préparer des centaines d’e-mails ; en revanche, l’envoi devrait être déclenché par une personne après une vérification rapide.

De là découlent quelques règles simples, mais déterminantes, pour utiliser ces agents correctement :

  • Pas de procuration générale : l’agent ne doit accéder qu’à des périmètres strictement définis.
  • Des limites budgétaires nettes : tout engagement financier doit respecter des plafonds, idéalement avec obligation de confirmation.
  • Des étapes d’approbation obligatoires : actions importantes - contrats, paiements, déclarations publiques - jamais sans clic humain.
  • Contrôler activement les journaux : vérifier régulièrement ce que l’agent a fait en votre nom.

Faire confiance, oui - mais la surveillance reste indispensable

L’épisode de Davos suit une dynamique observée depuis des mois : les utilisateurs s’habituent extrêmement vite au confort offert par l’IA. Progressivement, ils délèguent davantage. Puis vient le moment où ils ne comprennent plus précisément ce que les systèmes exécutent en arrière-plan.

Parallèlement, les tutoriels vidéo et guides expliquant comment « automatiser toute sa vie avec des agents » se multiplient - du shopping à l’organisation des rendez-vous, jusqu’au coaching de drague. Beaucoup de configurations mises en avant accordent aux agents des droits très larges, souvent sans réelle barrière de sécurité.

Ceux qui délèguent tout risquent un jour de devenir spectateurs de leur propre vie - y compris des prélèvements qu’ils ne remarquent que lorsqu’il est trop tard.

Cela ne signifie pas qu’il faut renoncer aux agents. Correctement paramétrés, ils peuvent apporter une vraie valeur : trier une boîte de réception, résumer des réunions, proposer des réponses, réserver des voyages selon des consignes précises. L’essentiel est qu’ils restent des outils - pas des décideurs autonomes.

Comment les particuliers peuvent se protéger des erreurs d’agents d’IA

Même à titre personnel, il est possible de réduire le risque sans perdre tout le confort. Quelques pistes concrètes :

  • Ne jamais enregistrer durablement des données de paiement dans le système, et les fournir uniquement pour une opération ponctuelle.
  • Tester d’abord l’agent en « mode à blanc » : le laisser agir, mais valider chaque action manuellement.
  • Séparer strictement les comptes sensibles, comme la banque en ligne, de toute configuration liée à l’IA.
  • Activer des alertes lorsque l’agent atteint certains seuils - par exemple, des réservations au-delà d’un montant défini.

Il est aussi crucial de comprendre ce qui se cache derrière de nombreux slogans marketing. Un « agent autonome » veut souvent dire : un programme qui exécute des consignes tout seul, sans redemander à chaque étape. Une « intégration » avec des services tiers implique que des données - parfois très sensibles - circulent entre plateformes.

Où se trouvent les bénéfices - et où passe la ligne rouge

Bien utilisés, les agents peuvent simplifier les routines, libérer les équipes de tâches de bureau répétitives et accélérer les processus. Du jour au lendemain, une petite structure peut quasiment s’offrir un assistant numérique, autrefois réservé aux grands groupes. Pour les indépendants submergés par les e-mails et les demandes, l’allègement peut être considérable.

La ligne rouge se situe là où la perte de contrôle dépasse le confort gagné. Dès qu’il est question d’argent, d’engagements juridiquement contraignants ou de données sensibles, un humain doit rester à la dernière étape. Un système qui négocie sans limite pendant le sommeil peut impressionner - mais c’est un risque qui, dans le pire des cas, peut coûter très cher.

L’affaire de Davos résume en concentré la direction prise : les agents d’IA ne manipulent déjà plus seulement des mots, mais des obligations. Confier entièrement les rênes à ces systèmes, c’est s’exposer à se voir présenter des factures que l’on n’a jamais signé consciemment.

Commentaires

Aucun commentaire pour le moment. Soyez le premier!

Laisser un commentaire