Par un mardi pluvieux à Nairobi, un groupe d’adolescentes se serre dans une salle de classe exiguë, les yeux rivés sur l’image d’un vidéoprojecteur fêlé. Le Wi‑Fi s’interrompt toutes les dix minutes, le ventilateur claque comme s’il allait rendre l’âme, et pourtant l’énergie est palpable. Sur le mur, au feutre, quelqu’un a écrit : « Construis quelque chose qui compte. » Aujourd’hui, leur cours de code ne vise pas à inventer la prochaine appli virale. Il s’agit d’entraîner un petit modèle d’IA pour aider des agriculteurs locaux à anticiper des maladies des plantes à partir de photos prises au téléphone.
Une élève lève la main et pose une question à voix basse : « Si l’IA peut aider les cultures de mon père, pourquoi tout le monde sur TikTok dit que ça va nous voler tous nos emplois ? »
L’enseignante marque une seconde d’hésitation. Puis sourit.
C’est ici que commence la véritable histoire de l’IA.
La puissance invisible derrière chaque décision de l’IA
Ce qu’il y a de plus déroutant avec l’intelligence artificielle, c’est qu’on ne voit presque jamais ses décisions - seulement leurs effets. Un prêt qu’on ne vous a pas accordé. Une vidéo qui ne vous a pas été montrée. Un CV qui n’a jamais atteint des yeux humains.
Derrière chacun de ces résultats obtenus en une fraction de seconde, il y a un modèle, entraîné sur des données désordonnées et profondément humaines, qui influence en silence qui obtient une chance… et qui reste dans la salle d’attente.
On aime parler de l’IA comme si elle était neutre, une simple affaire de maths sur du silicium. Mais l’expérience vécue raconte autre chose.
Prenez le cas d’un hôpital aux États‑Unis qui a déployé un outil d’IA chargé d’identifier les patients nécessitant une prise en charge supplémentaire. Sur le papier, le modèle semblait excellent. Il utilisait les dépenses de santé passées pour estimer le risque médical futur. Très rationnel. Très efficace.
Puis des chercheurs ont creusé. Ils ont découvert que l’IA sous‑estimait fortement les besoins des patients noirs. Non pas parce que le code était « raciste » de façon caricaturale, mais parce que les dépenses passées étaient plus faibles pour ces patients, malgré des états de santé comparables - voire plus dégradés. Le système a absorbé, sans bruit, des décennies de traitement inégal et a baptisé cela « scoring de risque ».
Personne n’avait l’intention de construire une machine biaisée. Pourtant, c’est ce qui a été produit.
Cette histoire d’hôpital illustre avec netteté un phénomène plus large : quand l’IA se nourrit de données historiques, elle avale aussi les injustices de l’histoire.
Si les crédits immobiliers ont été accordés de manière inégalitaire, si des femmes ont été écartées des postes de direction, si certains quartiers ont été surpolicés, ces cicatrices finissent dans les jeux de données d’entraînement. L’algorithme « apprend » alors des schémas qui semblent élégants sur un graphique, mais qui deviennent cruels dans la vie réelle.
Voici l’intersection cachée où l’impact social et l’IA se heurtent en silence : l’endroit où les chiffres rencontrent la mémoire.
Concevoir une IA comme un service public, pas comme un tour de magie
Un changement très concret peut tout transformer : traiter les projets d’IA moins comme des bricolages brillants et plus comme la construction d’un service public. Cela commence par une question tenace : « Qui gagne, qui perd, et qui n’est pas dans la pièce ? »
Avant d’écrire la moindre ligne de code, les équipes peuvent cartographier le parcours réel des personnes touchées par le système. Pas des personas sur une diapo, mais des gens : salariés, élèves, patients, chauffeurs, locataires. Leur parler. Observer comment ils utilisent les outils existants. Écouter les inquiétudes discrètes, les scénarios « Et si ça se passe mal ? ».
L’impact social se joue là, bien avant qu’un modèle termine son entraînement.
Une erreur fréquente consiste à foncer directement vers les métriques et les tableaux de bord. Exactitude, précision, score F1 - la soupe alphabétique technique. Les ingénieurs s’épuisent à gagner 2 % pendant que les équipes de terrain s’angoissent de perdre leur dignité ou leur autonomie.
On a tous vécu ce moment où un outil est imposé d’en haut et où l’on se demande s’il a été conçu sur une autre planète. Avec l’IA, le risque est de généraliser ce sentiment à grande échelle.
Soyons francs : personne ne lit réellement, chaque jour, un guide d’éthique de 60 pages. Les garde‑fous doivent être intégrés aux méthodes de travail, pas rangés dans des PDF.
« Les systèmes d’IA ne se contentent pas de prédire les comportements ; ils les remodèlent. Si nous ne concevons pas consciemment l’impact social, nous le concevons quand même - simplement par négligence. »
- Une chercheuse en politiques publiques à Bruxelles, après une énième négociation nocturne sur les règles de l’IA
Demandez qui manque à l’appel
Faites participer dès le départ des personnes issues des communautés concernées, pas seulement à la toute fin via un comité de relecture.Cartographiez les dommages, pas uniquement les bénéfices
Dressez, pour chaque groupe touché par le système, des scénarios concrets du pire cas possible et la façon de les détecter tôt.Partagez le pouvoir avec des voix non techniques
Donnez aux enseignants, infirmiers, travailleurs sociaux et organisateurs locaux la possibilité de refuser ou de remodeler des fonctionnalités qui affectent leur travail.Testez sur de vrais cas limites
Lancez des pilotes avec des personnes en situation de marge : travailleurs des plateformes, aidants informels, migrants, personnes en situation de handicap.Prévoyez la réparation, pas la perfection
Définissez un processus clair pour les plaintes, les corrections et les retours en arrière lorsque l’IA se trompe en conditions réelles.
Vivre avec une IA qui rend réellement service aux personnes
Une révolution silencieuse est en cours dans des lieux qui n’apparaissent presque jamais sur les slides de conférences les plus clinquants. Dans une clinique rurale en Inde, un outil d’IA peu gourmand en ressources aide des infirmières à repérer les premiers signes de maladies oculaires grâce à l’appareil photo d’un smartphone bon marché. Au Brésil, des militants testent l’IA pour repérer la déforestation illégale à partir d’images satellites.
Ces projets n’ont rien d’un film de science‑fiction. Ils ressemblent à des ordinateurs portables rafistolés, à une connexion Internet instable, et à des problèmes farouchement locaux. Et leur réussite ne tient pas seulement à l’astuce des modèles, mais à la confiance : qui contrôle les données, qui peut questionner le système, qui bénéficie des retombées.
L’intersection entre impact social et IA se joue dans ces arbitrages du quotidien, pas dans un « futur du travail » lointain et abstrait.
| Point clé | Détail | Valeur pour le lecteur |
|---|---|---|
| Commencer par les personnes, pas par les modèles | Interroger les groupes concernés avant de concevoir des fonctionnalités ou des métriques | Concevoir des outils réellement adoptés, plutôt que discrètement rejetés |
| Interroger les données | Rechercher les groupes absents, les historiques biaisés et les variables de substitution de caractéristiques sensibles | Réduire les biais cachés qui peuvent nuire à la réputation et à des vies réelles |
| Concevoir la réparation | Mettre en place des canaux de retour, des recours et une responsabilité clairement définie | Renforcer la confiance, éviter les retours de flamme et améliorer les systèmes dans la durée |
FAQ : impact social et IA
- Question 1 Comment une petite organisation peut-elle réfléchir à l’impact social lorsqu’elle utilise des outils d’IA ?
- Réponse 1 Commencez petit et concret. Notez qui pourrait être aidé, qui pourrait être lésé, et d’où proviennent vos données. Parlez à au moins cinq personnes qui utiliseront l’outil ou en subiront les effets, et demandez-leur à quoi ressemblerait, pour elles, « un mauvais résultat ». Ensuite, choisissez ou configurez des outils d’IA avec ces garde‑fous en tête, même si vous utilisez simplement des services prêts à l’emploi.
- Question 2 L’IA est-elle forcément biaisée, quoi qu’on fasse ?
- Réponse 2 Tout système reflète des choix : quelles données vous utilisez, ce que vous optimisez, ce que vous ignorez. Le biais n’est pas binaire ; c’est un spectre. On ne peut pas l’effacer totalement, mais on peut réduire les dommages les plus graves en diversifiant les données, en auditant les résultats et en offrant aux personnes des moyens de contester les décisions.
- Question 3 L’IA peut-elle vraiment aider face à des problèmes sociaux comme la pauvreté ou le changement climatique ?
- Réponse 3 L’IA peut soutenir l’action humaine, pas la remplacer. Elle peut repérer des motifs dans des images satellites, optimiser l’usage de l’énergie ou prévoir où les services seront le plus nécessaires. Ces gains ne comptent que s’ils s’adossent à une volonté politique, à une connaissance locale et à des politiques équitables. La technologie, à elle seule, ne corrige pas des problèmes structurels.
- Question 4 Quelles compétences devrais-je apprendre si je veux travailler sur une IA socialement responsable ?
- Réponse 4 Au-delà du code ou de la science des données, apprenez les bases des statistiques, de l’éthique et de l’évaluation d’impact. Lisez sur les inégalités et l’histoire, pas seulement sur les algorithmes. Entraînez-vous à dialoguer entre disciplines - avec des juristes, des enseignants, des militants et des designers. Cet état d’esprit de « faiseur de ponts » est rare et cruellement nécessaire.
- Question 5 En tant qu’utilisateur ordinaire, ai-je un pouvoir sur la manière dont l’IA est construite ?
- Réponse 5 Vous avez plus de levier que vous ne le pensez. Vous pouvez choisir des services qui expliquent leur usage de l’IA, soutenir des organisations qui militent pour la responsabilité, et vous exprimer quand des systèmes automatisés vous traitent injustement. Quand beaucoup d’utilisateurs protestent ou s’en vont, les entreprises le remarquent. La pression sociale fait partie du processus de conception, même si elle n’apparaît pas sur une feuille de route produit.
Commentaires
Aucun commentaire pour le moment. Soyez le premier!
Laisser un commentaire