Fin 2023, au Burundi, peu de gens connaissaient encore les intelligences artificielles génératives comme ChatGPT. Mais début 2025, dans notre chère ville de Bujumbura, tout le monde en parle. Certains s’inquiètent pour leur métier, d’autres craignent de se retrouver face à des « professionnels fantômes », dont les compétences réelles ne tiennent qu’à un chatbot.
Des IA comme DeepSeek, Mistral AI ou ChatGPT gagnent du terrain, utilisées aussi bien par des étudiants que des cadres en quête d’un assistant pour penser plus vite, mieux… ou donner l’illusion de la maîtrise. En copilotes de nos smartphones et ordinateurs — notamment via Microsoft — ces IA s’immiscent dans notre quotidien, souvent sans qu’on y prenne garde.
Et pourtant, l’IA ne date pas d’hier. Bien avant l’ère numérique, dès 1956 lors d’une conférence au Dartmouth College, on définissait déjà l’intelligence artificielle comme la capacité d’une machine à imiter les comportements humains comme le raisonnement, la planification ou la créativité. Même nos vieilles voitures ou nos téléphones à empreinte digitale en étaient déjà une première incarnation.
L’IA qui change la donne
Mais en 2025, le phénomène prend une autre ampleur. Les profils LinkedIn ou X (anciennement Twitter) changent de ton, de plume. Certains deviennent étonnamment éloquents, brillants, trop brillants. On se surprend à douter : est-ce vraiment la personne que je connaissais, ou un texte pondu par IA ? Des créateurs « en paille », dopés au prompt, émergent partout, et même les plus expérimentés se sentent parfois dépassés.
L’inquiétude est d’autant plus forte dans les milieux de l’éducation. Des enseignants me confient ne plus savoir distinguer le talent réel du talent « assisté ». L’étudiant autrefois moyen devient subitement un prodige… du travail non surveillé. En revanche, face au tableau, il bredouille. Les chatbots WhatsApp pullulent, les réponses sont prêtes en quelques secondes. La tentation est grande. L’Union européenne, bien consciente de ces dérives, tente de réguler l’usage de l’IA, notamment face aux dangers des deepfakes et de la désinformation.
Mais attention : l’IA ne sait pas tout
J’ai moi-même testé ChatGPT pour améliorer mon anglais. Je lui ai demandé la différence entre « watermelon » et « melon ». Non seulement il m’a mal expliqué en anglais, mais ses traductions en kirundi m’ont achevé : pour lui, « watermelon » c’est Umwembwe, et « melon », Imyembe… alors que les deux désignent en réalité la mangue, au singulier ou au pluriel. Une erreur qui peut induire beaucoup de monde en erreur. Et ce n’est qu’un exemple parmi d’autres.

Car une IA, aussi puissante soit-elle, reste un outil basé sur l’analyse massive de données par des algorithmes, souvent via le deep learning. Elle repère des motifs, établit des corrélations, anticipe, classe, prédit… mais ne comprend pas vraiment. Elle ne vit rien. Elle ne sait rien en soi. Et cela a ses limites.
IA : menace ou opportunité pour l’avenir intellectuel ?
Dans des domaines clés tels que la médecine, la défense ou l’ingénierie, l’IA est devenue indispensable. Donald Trump a même en fait un axe stratégique pour les États-Unis, annonçant un investissement de 500 milliards de dollars dans son projet Stargate. De son côté, la Chine prend de l’avance en développant des modèles d’IA pour la surveillance et le commerce. L’Europe, quant à elle, s’inquiète de cette compétition, tandis que l’Afrique reste en observation. Le Burundi, avec sa vision 2060, devrait sérieusement se pencher sur ces évolutions afin de se préparer à ces bouleversements et éviter de devenir dépendant des technologies étrangères sans disposer d’une stratégie autonome.
Un intervenant sur la chaîne de Micode le disait justement : l’IA, ce n’est pas pire que l’arrivée de l’imprimerie ou de l’ordinateur. Il faut s’adapter et s’y investir, oui. Mais il faut aussi réguler. Notamment dans l’éducation. Sinon, on court à la génération des intellectuels virtuels, dépendants de machines… et creux dans la vraie vie.