News
  • 27/04/2026

Quand l'IA dérègle sa propre gouvernance : La leçon sud-africaine

Par Jean-Marc GOGBEU

 

Avouons-le : il y a quelque chose d'absurde dans ce qui vient de se passer en Afrique du Sud. Le 26 avril 2026, le ministre des Communications et des Technologies Numériques, Solly Malatsi, a dû retirer en urgence le projet de politique nationale sur l'intelligence artificielle. Un document officiel, approuvé en Conseil des ministres, publié dans le Journal officiel — et truffé de références bibliographiques qui n'ont jamais existé. Des articles académiques fantômes, inventés de toutes pièces, vraisemblablement par un outil d'IA générative qu'un agent de l'État avait utilisé pour rédiger le texte.

 

Un document censé réguler l'IA. Rédigé avec l'IA. Compromis par l'IA.

 

On ne pourrait pas écrire une meilleure parabole.

 

Ce n'est pas une faute isolée

 

Résistons à la tentation du procès facile. Le gouvernement sud-africain n'est ni le premier ni le dernier à tomber dans ce piège. Des avocats américains ont soumis des plaidoiries citant des jurisprudences inexistantes. Des chercheurs ont publié des bibliographies partiellement hallucinées. Des journalistes ont reproduit des citations que personne n'a jamais prononcées. Ce qui rend cet épisode particulièrement frappant, c'est son niveau : un texte validé au sommet de l'État, soumis à la consultation publique, sans que personne — à aucune étape — ne prenne la peine de vérifier si les sources citées existaient vraiment.

 

Ce n'est pas une erreur technologique. C'est une erreur humaine, de bout en bout.

 

Le vrai danger : la confiance aveugle

 

Les modèles de langage — ChatGPT, Claude et leurs pairs — ont cette particularité troublante : ils s'expriment avec une assurance absolue, même quand ils inventent. Pas de doute dans la formulation, pas de signal d'alarme. Une référence fictive sort aussi proprement formatée, aussi convaincante, qu'une vraie. C'est ça, une « hallucination » — et le terme est bien choisi : on voit quelque chose qui a l'air réel, mais qui ne l'est pas.

 

Le problème n'est donc pas d'utiliser l'IA pour rédiger des documents publics. Dans un monde où les administrations croulent sous la charge de travail, ce serait une bataille perdue d'avance. Le problème, c'est d'utiliser l'IA sans filet : sans protocole de vérification, sans responsable clairement désigné, sans culture de l'audit. Et là, sur notre continent, on touche quelque chose de sensible. Non pas parce que les administrations africaines sont négligentes — mais parce que les cadres méthodologiques pour encadrer ces usages n'ont tout simplement pas encore été construits.

 

Ce que nos secteurs ont à y apprendre

 

Pour les banques et les assureurs africains, cet épisode mérite qu'on s'y arrête vraiment. L'IA est déjà là, dans nos métiers : scoring de crédit, détection de fraude, souscription automatisée, analyse de conformité. Et dans ces domaines, une source erronée ou une donnée hallucinée ne génère pas seulement un embarras — elle peut coûter une amende, un retrait d'agrément, une perte client.

 

Le vrai risque, ce n'est pas l'IA en soi. C'est l'illusion que l'IA vérifie ce qu'elle produit. Elle ne le fait pas. Elle génère — vite, fluement, de façon convaincante. Et elle laisse à l'humain la responsabilité du reste.

 

La supervision humaine : pas une option, une obligation

 

Solly Malatsi a au moins eu le courage de l'admettre sans détour. Il a reconnu que cet épisode prouve pourquoi la vigilance humaine reste indispensable. C'est une phrase que les régulateurs africains — BCEAO, CIMA, Banque Centrale du Congo, Bank Al-Maghrib — devraient afficher en tête de leurs propres chantiers de régulation de l'IA, encore largement inachevés.

 

Parce que ce n'est pas à l'IA de définir les règles de son propre usage. C'est à nous.

 

Pour conclure, L'Afrique du Sud republiera son texte. Probablement mieux encadré, cette fois. Mais la vraie question n'est pas ce qui s'est passé à Pretoria — c'est ce qui se prépare à Abidjan, Dakar, Lagos, Nairobi. Des gouvernements, des régulateurs, des institutions financières adoptent l'IA à marche forcée, avec enthousiasme et parfois sans garde-fous.

 

L'IA peut rédiger un rapport. Elle ne peut pas en assumer les conséquences. Cette distinction, simple en apparence, est peut-être la plus importante à graver dans les esprits — avant que le prochain couac ne soit, lui, irréversible.