A l’occasion du Sommet international de l’Intelligence artificielle (IA), les 10 et 11 février 2025 à Paris, les discussions ont abordé des questions majeures, telles que la souveraineté numérique, ainsi que la régulation internationale, en passant par l’intégration des pays émergents et le défi de la désinformation.
Paris, la capitale française, a accueilli les 10 et 11 février 2025, le Sommet pour l’action sur l’IA, événement qui a réuni chefs d’État, ministres, grands noms de la tech, chercheurs, entrepreneurs, ainsi qu’une multitude d’organisations issues de la société civile.
Cet événement d’envergure mondiale a permis de mettre en lumière des initiatives ambitieuses, des annonces chiffrées à plusieurs milliards d’euros, mais aussi des débats animés autour de l’encadrement de l’intelligence artificielle et de son impact sur la société.
Au cœur de ces discussions : la volonté de dessiner une IA « de confiance », éthique et accessible. Des investissements massifs et des ambitions internationales ont été affirmés lors de ce sommet, démontant ainsi l’enjeu d’une régulation absolue.
Dans son allocution, à ce Sommet, le président Emmanuel Macron a réaffirmé la position de la France, en annonçant un plan d’investissement de 109 milliards d’euros pour renforcer l’écosystème IA national et européen.
Gouvernance des données
« Nous voulons un accès équitable et ouvert à ces innovations pour toute la planète », a-t-il insisté, défendant « une troisième voie » entre la Chine et les États-Unis. Une centaine de pays se sont joints aux débats.
L’on pouvait noter la présence de l’Inde, co-présidente de ce sommet, de la Chine, représentée par le vice-Premier ministre Zhang Guoqing et de plusieurs Etats africains, venus avec des propositions concrètes pour faire avancer la révolution de l’IA sur le continent.
Toutefois, la déclaration commune sur « une IA ouverte, inclusive et éthique » n’a pas été signée par tous : les États-Unis et le Royaume-Uni, notamment, ont décliné. Le vice-président américain Vance, dans son premier discours officiel, a mis en garde contre le risque que « la surrèglementation dissuade les innovateurs de prendre les risques nécessaires ».
De son côté, le porte-parole du Premier ministre britannique Keir Starmer, Tom Wells, a justifié le non-alignement du Royaume-Uni en déplorant un manque de clarté sur la sécurité nationale et la gouvernance mondiale de l’IA.
Malgré ces divergences, la Chine a manifesté sa volonté de contribuer à l’élaboration de règles globales, tout en continuant à pousser son approche duale : un contrôle étroit sur son territoire, et la promotion d’une IA open source à l’international, via le déploiement de son chatbot DeepSeek.
L’Afrique veut jouer sa carte
La dimension africaine a occupé une place de choix au cours de ces deux journées, en particulier grâce à l’Africa AI Village, un cycle de conférences dédiées aux besoins, opportunités et défis du continent en matière d’intelligence artificielle.
Des ministres du numérique de pays tels que le Nigéria, le Rwanda, la Sierra Léone et le Togo se sont succédés pour exposer leurs stratégies et projets nationaux : formation d’experts, développement de data centers locaux, soutien à l’innovation.
À cette occasion, Anthony Same, directeur général du groupe ST Digital, a présenté le lancement de GPU CLOUD AFRICA, première offre d’hébergement souveraine pour serveurs IA dotés de processeurs GPU en Côte d’Ivoire et au Cameroun.
« Nous sommes fiers de proposer une solution qui allie performance, sécurité et souveraineté des données. GPU CLOUD AFRICA propose aux innovateurs africains les ressources nécessaires pour développer leurs propres solutions IA, sans dépendre d’infrastructures étrangères », a-t-il expliqué lors d’une table ronde.
Dès le second trimestre 2025, GPU CLOUD AFRICA offrira, une infrastructure GPU NVIDIA capable de soutenir les besoins locaux, indique l’entreprise. Anthony Same a également rappelé les retards d’accès aux ressources de calcul en Afrique : « Aujourd’hui, 95% des talents africains en IA sont contraints de se tourner vers des infrastructures étrangères ».
Il peut leur falloir jusqu’à six jours pour ajuster leurs modèles, contre quelques heures à peine pour une start-up du G7. Selon lui, le continent ne pourra véritablement profiter de la révolution IA que s’il s’en dote des infrastructures adaptées et d’une véritable souveraineté numérique.
Usages malveillants de l’IA
L’Ivoirien Franck Kié, fondateur du Cyber Africa Forum, a participé à un side event du Paris Peace Forum consacré au « nexus IA-Cyber ». Cette table ronde, bâtie sur les travaux du Hub de prospective stratégique de l’Appel de Paris pour la confiance et la sécurité dans le cyberespace, s’est penchée sur la manière de prévenir les usages malveillants de l’IA, qu’il s’agisse de cyberattaques, de manipulation de l’information ou encore d’atteintes à la sécurité d’infrastructures critiques.
Pour Franck Kié, « la cybersécurité et l’IA sont désormais intimement liées. Sans cadre de gouvernance international solide, nous courons le risque de voir proliférer des menaces d’une ampleur inédite, alors même que l’IA pourrait être un atout majeur pour renforcer nos défenses. »
Il a insisté sur la nécessaire collaboration entre États, organisations internationales et secteur privé pour établir des standards communs et promouvoir des mécanismes de lutte contre la désinformation et les cyberattaques.
L’un des moments clés de ces échanges fut le dîner de haut niveau consacré à la lutte contre la désinformation sur les médias sociaux, co-organisé par Concerto, Jeune Afrique, la French-African Foundation et le Forum de Paris sur la Paix.
Au cœur des discussions, un constat préoccupant : la désinformation est désormais le premier risque mondial à court terme (Forum économique mondial, 2025). En Afrique, son impact est particulièrement aigu, alimentant les crises politiques, économiques et sociales.
En 2023, 189 campagnes de désinformation ont ciblé 22 pays du continent, dont 60 % orchestrées par des acteurs étrangers. De plus, les fake news circulent six fois plus vite que les contenus vérifiés, avec une intensification de 80 % en période électorale.
Les participants ont mentionné le développement d’outils de détection et de fact-checking de plus en plus sophistiqués. Cependant, le manque de financement des initiatives africaines de vérification et l’insuffisance de la culture numérique chez le grand public demeurent des obstacles majeurs.
AP/Sf/APA