L’IA : un enjeu existentiel pour l’humanité.

Classé dans : À la une, Être bien dans sa vie | 0

Il est clair pour Benjamin Brice, docteur en sciences politiques et auteur, que les politiques de compétitivité appliquées depuis des décennies ne sont plus appropriées pour affronter les défis majeurs qui s’accumulent à l’horizon : enjeux environnementaux, inégalités, services publics, démocratie, contexte international… Or, il en est un qui est en voie de tous les amplifier : l’IA et ses applications. En effet, l’IA se développe à vitesse grand V et avec elle, de sérieuses anticipations de menace à de multiples niveaux : économique, social, géopolitique, environnemental, démocratique, intellectuel, etc. Les développements en cours sont de nature à transformer la société et l’ordre mondial comme jamais auparavant.

Nous présentons ici des extraits d’articles de journalistes qui ont rapporté et commenté les propos de Geoffrey Hinton sur l’IA et les menaces qu’elle fait peser sur l’humanité. Geoffrey Hinton, prix Nobel de physique en 2024 et créateur des réseaux de neurones, multiplie les avertissements depuis qu’il a quitté Google en 2023. Cette fois, dit-il, c’est vraiment différent : il annonce, rien de moins, qu’un risque imminent d’effondrement sociétal imminent. Le 18 novembre 2025, lors d’un échange public avec le sénateur Bernie Sanders à l’université de Georgetown, il a dressé un tableau sombre de l’avenir du travail et de la démocratie que cette révolution technologique peut engendrer.

Un risque d’effondrement socio-économique.

Hinton estime que l’IA ne suivra pas le schéma historique des révolutions industrielles. Contrairement aux bouleversements technologiques passés qui créaient de nouveaux métiers, ‘’ les gens qui perdront leur emploi n’auront pas d’autres postes vers lesquels se tourner ‘’, a-t-il expliqué. ‘’ Si l’IA devient aussi intelligente que les humains, ou plus, n’importe quel travail qu’ils pourraient faire pourrait être effectué par l’IA ‘’. Hinton pointe une contradiction économique que les milliardaires de la tech n’auraient pas anticipée. ‘’ Si les travailleurs ne sont pas payés, il n’y a personne pour acheter leurs produits ‘’. Évoquant Elon Musk, Jeff Bezos et Mark Zuckerberg, interrogé sur leur conscience des conséquences humaines, Hinton a répondu sans détour : ‘’ ils devraient s’en préoccuper, mais je ne pense pas que ce soit le cas ‘’. Non seulement la fin du travail humain n’est plus un fantasme, mais l’IA menace tout notre modèle économique.

Pour Hinton, ce n’est pas une simple évolution du travail, mais une ‘’ substitution ‘’ pure et simple. Contrairement au discours dominant, les IA ne visent pas à assister les travailleurs, mais à les remplacer, même dans les postes les plus qualifiés. Si les salaires disparaissent ou diminuent massivement, c’est tout notre modèle économique qui s’effondre. Moins de revenus, moins de consommation, moins de stabilité. Une spirale dangereuse que peu de dirigeants politiques semblent vouloir anticiper sérieusement. Cette vision pessimiste remet en cause les promesses d’une ‘’ cohabitation harmonieuse ‘’ entre humains et IA. À long terme, Hinton craint que l’automatisation généralisée laisse derrière elle qu’un vide économique et social difficilement réversible. ‘’ En réalité, les riches vont utiliser l’IA pour remplacer les employés. Cela va créer un chômage massif et une hausse considérable des profits. Cela va enrichir une minorité et appauvrir la plupart des gens ‘’, a mis en garde Geoffrey Hinton. Il a souligné que la faute ne sera pas à imputer à l’IA, mais plutôt au système capitaliste. Il n’est pas le seul à pointer du doigt la menace que cette technologie représente pour les emplois. Depuis le lancement de ChatGPT en novembre 2022, plusieurs études ont aussi mis en avant le fait que nombre d’entre eux seront détruits à cause de ces outils. Face à ces craintes, le patron d’OpenAI, Sam Altman et d’autres personnes ont suggéré d’instaurer un revenu de base universel si le marché du travail devient trop restreint pour la population. Mais Geoffrey Hinton estime que ce n’est pas la solution. Cela ‘’ ne respecterait pas la dignité humaine, car chacun tire une valeur de son travail ‘’.

Un risque de déséquilibre mortel entre nations.

L’autre crainte majeure concerne l’usage militaire de l’IA. Avec les drones autonomes et les robots tueurs, certaines nations peuvent frapper sans exposer leurs soldats. Mais ce confort stratégique engendre des conflits toujours plus inégaux. Les pays technologiquement avancés imposent leur loi à ceux qui ne peuvent suivre. La fracture numérique devient ici une fracture létale accentuant les déséquilibres géopolitiques déjà existants. Et, dans ces rapports de force, ce sont les populations civiles qui paient le prix fort, sans défense face à la puissance algorithmique. L’IA, loin d’un outil neutre, devient un instrument de domination géopolitique. 

Un risque d’appauvrissement des capacités cognitives.

C’est presque invisible. On ouvre ChatGPT, on pose une question, on lit la réponse… et notre cerveau ne fait plus grand-chose. C’est précisément ce qu’ont observé des chercheurs du MIT en analysant l’activité cérébrale de volontaire rédigeant un texte, avec ou sans aide. Résultat : plus l’assistance était présente, plus le cerveau se reposait. Moins de mémoire mobilisé, moins de connexions activées, moins d’engagement cognitif. Un peu comme si notre pensée se mettait sur pilote automatique. Le plus troublant ? Les participants ne se souvenaient plus vraiment de ce qu’ils avaient écrit avec l’IA. L’impression de maîtrise chutait drastiquement, comme si le texte ne leur appartenait pas. Et ce n’est pas qu’une affaire de paresse. En réalité, c’est le processus même de la construction intellectuelle qui se déconnecte.

L’externalisation sans réfléchir de l’analyse, de la structuration des idées et de l’écriture, c’est ce que les chercheurs appellent le ‘’ déchargement cognitif ‘’. En effet, on transfère à la machine des fonctions qu’on gérait seul : construire une argumentation, résumer un texte, comparer des idées, etc. Le problème, ce n’est pas de le faire une fois. C’est de le faire systématiquement, sans même s’en rendre compte. Michael Gerlich, un chercheur européen, a montré que les utilisateurs d’IA livrés à eux-mêmes produisent des raisonnements plus faibles. Moins de logique, moins de profondeur. Et le plus ironique ? Même ceux qui pensent avoir un esprit critique solide tombent dans le panneau. Bref, le piège de la facilité de l’IA efface l’effort et l’appropriation de la pensée.

L’intelligence augmentée exige méthode, esprit critique et volonté de réfléchir soi-même. Tout n’est pas noir. En effet, dans l’étude de Gerlich, les participants encadrés dans leur usage de l’IA conservaient un raisonnement riche. La clé ? Un protocole en cinq étapes : penser soi-même d’abord, chercher ensuite, confronter, discuter, puis revoir. Autrement dit, ne pas laisser l’IA démarrer le raisonnement à notre place. L’humain reste le chef d’orchestre, la machine est un instrument. L’outil est là pour illustrer, jamais pour penser à notre place. Alors oui, il va falloir apprendre à penser avec les IA, pas grâce à elles. Cela demande un apprentissage, une hygiène mentale, presque une discipline. Mais le jeu en vaut la chandelle. Car si l’on abandonne notre esprit critique, l’IA ne nous remplace pas. Elle nous affadit et nous vulnérabilise face à de la fausse information.

Des risques avérés de nature criminelle et informationnelle.

L’intelligence artificielle peut servir à des fins criminelles ou à la désinformation. Et le pire n’est pas toujours là où on croit. ‘’ L’expansion des capacités des technologies basées sur l’IA s’accompagne d’une augmentation de leur potentiel d’exploitation criminelle ‘’, avertit Lewis Griffin, chercheur en informatique à l’University College London (UCL). Avec ses collègues, il a compilé une liste de 20 activités illégales perpétrées par IA et les a classées par ordre de dommages potentiels, de gains ou de profits engrangés, de facilité à mettre en œuvre et de difficulté à détecter et à stopper.

Les crimes les plus effrayants, comme le ‘’ robots cambrioleurs ‘’ s’introduisant dans votre appartement ne sont pas forcément les plus dangereux, car ils peuvent facilement être déjoués et touchent peu de monde à la fois. À l’inverse, les fausses informations générées par de ‘’ bots ‘’ ont la capacité à ruiner la réputation d’une personne connue ou à exercer un chantage. Difficiles à combattre, ces ‘’ deepfakes ‘’ peuvent causer un tort économique et social considérable.

Dans la liste de menaces graves, se retrouvent les fausses vidéos, le piratage des voitures autonomes, l’hameçonnage sur mesure, le piratage des systèmes d’infrastructures contrôlées par l’IA, le chantage à grande échelle ainsi que les fausses informations rédigées par IA. Parmi les menaces de moyenne gravité, la liste fait état d’escroquerie, de corruption de données, de cyberattaque basée sur l’apprentissage, de refus d’accès, de détournement de reconnaissance faciale et de manipulation de marchés financiers. Enfin, concernant les menaces de faible intensité, on retrouve l’exploitation de préjugés, le blocage de détection de données, la rédaction de faux avis, la traque d’activité ou de déplacement et la contrefaçon.

Pour sa part, le gouvernement du Québec a établi une liste de plusieurs risques liés à l’utilisation de l’IA, dont le partage de renseignements personnels, des contenus biaisés, des problèmes de fausses informations, des problèmes de non-respect de la législation ou de droits d’auteur, la génération de code non sécurisé et l’utilisation des failles d’un modèle IA.

Au rythme foudroyant à laquelle l’IA se développe et des sérieux risques qui sont liés à son utilisation, les dirigeants (politique et d’entreprise technologique) ne semblent pas pressés de réfléchir aux enjeux humains et environnementaux que posent ces nouvelles technologies. Pourtant, l’un des plus grands enjeux est là. Développer l’IA pour obtenir des avancées majeures dans des domaines comme la médecine oui, mais développer l’IA en mettant en péril des droits, non. Les droits humains et la justice environnementale, doivent être placés au cœur de la régulation de l’intelligence artificielle, voilà le véritable progrès selon Amnesty international France.  

Un risque de perte totale de contrôle.

Geoffrey Hinton lance un avertissement glacial sur les risques imminent d’une autonomie linguistique des machines échappant au contrôle humain. Selon Hinton, cette évolution de l’intelligence artificielle soulève des questions sur l’avenir de notre interaction avec ces systèmes, alors qu’ils pourraient bientôt développer un langage propre, inaccessible à l’homme. Cette perspective remet en cause notre capacité à suivre et comprendre les décisions prises par les systèmes d’intelligence artificielle.

Les intelligences artificielles ont la capacité d’apprendre à une vitesse supérieure à celles des humains. Une machine peut instantanément dupliquer et assimiler l’information, mais également partager une connaissance en un instant avec des milliers d’autres machines. Cette différence de vitesse d’apprentissage crée un écart de plus en plus important entre les capacités cognitives humaines et celles des systèmes numériques. Imaginez l’accroissement de cet écart, quand les IA traiteront les informations en mode quantique. Geoffrey Hinton envisage un futur où les intelligences artificielles pourraient créer un langage interne pour leurs échanges qui seraient incompréhensible pour les humains. Cette autonomie linguistique pourrait rendre les recherches et les interactions avec ces systèmes totalement opaques. Hinton reconnaît que cette évolution pourrait rendre les chercheurs incapables de comprendre les processus décisionnels, au moment même où celles-ci pourraient surpasser les capacités humaines dans plusieurs domaines.   

Si ces systèmes créent leur propre langage et outils de communication, ils pourraient également développer une logique indépendante de la nôtre. Cette perspective complique les efforts de régulation. Même les plans ambitieux, comme l’AI Action Plan, récemment proposé par la Maison-Blanche, ne suffiront peut-être pas si la compréhension humaine devient accessoire.

Face à ces défis, des questions éthiques se posent sur le rôle et le contrôle des intelligences artificielles dans notre société. Si les machines développent une autonomie linguistique, comment garantir qu’elles agissent dans l’intérêt de l’humanité ? Les discussions autour de la régulation et de l’éthique doivent évoluer pour prendre en compte cette nouvelle réalité potentielle. Les chercheurs et les décideurs politiques doivent collaborer pour concevoir des cadres qui assurent la transparence et la sécurité des systèmes d’intelligence artificielle. L’enjeu est de taille : il s’agit de déterminer comment cohabiter avec des entités dont nous ne pourrions plus comprendre la logique interne, tout en assurant qu’elles respectent nos valeurs et nos besoins.

L’IA, une menace pour l’humanité ?

Ce n’est pas la première fois que Geoffrey Hinton alerte sur les dangers que représente l’IA pour les humains. Et pas seulement pour les emplois. En décembre 2024, il avait une nouvelle fois averti sur le risque que l’IA mène à l’extinction de l’humanité, estimant même, qu’elle a entre 10 et 20 % de chance d’y parvenir dans les 30 prochaines années.

Interrogé par le Financial Times sur un scénario dans lequel les humains vivraient heureux parmi des ‘’ IA incarnées ‘’, soit des robots et deviendraient peu à peu cyborgs, Geoffrey Hinton a souligné qu’il n’était pas possible de savoir ce qui allait se passer. Nous sommes à un moment de l’histoire où quelque chose d’extraordinaire se produit, peut-être extraordinairement bien, ou extraordinairement mal. On peut faire des suppositions, mais les choses ne resteront pas en l’état.

Hinton rappelle qu’ironiquement toute cette recherche a été financée par l’impôt, mais les bénéfices sont privatisés par ceux-là même qui refusent de contribuer équitablement au système fiscal. Hinton fait partie des 854 signataires à exiger un moratoire immédiat sur le développement d’une intelligence artificielle surhumaine.

Bref, cette nouvelle vague de développement technologique déferle présentement et commence à sérieusement étendre son emprise sur l’humanité. Qui sera au service de qui ? De quelle manière ? Allons nous collectivement choisir pour le bien commun ou laisser ceux qui détiennent les outils de l’IA déterminer l’environnement politique et socio-économique dans lequel nous allons vivre ? Considérant l’état d’esprit, les attitudes et comportements des dirigeants actuels des grandes puissances technologiques, devons nous anticiper un avenir radieux ou un cauchemar pour l’humanité ?


En savoir plus sur Pierre Varin

Subscribe to get the latest posts sent to your email.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *