On entend souvent que l’Intelligence Artificielle est le pur produit d’une idéologie libertarienne, voire d’une forme de « secte » technophile qui placerait la machine au-dessus de l’humain.
L’actualité nous prouve le contraire. Le refus catégorique d’Anthropic de laisser son modèle, Claude, être utilisé par le Pentagone pour la surveillance de masse ou des armes autonomes, est un acte politique majeur. C’est la preuve que l’IA n’est pas une philosophie en soi, mais une technologie qui peut être habitée par une vision raisonnée, voire humaniste, du monde.
Quelles leçons tirer de cet épisode ?
1️⃣ L’innovation est le produit du génie humain, pas d’un complot. Plutôt que d’attaquer l’IA comme une volonté de domination obscure, analysons-la pour ce qu’elle est : une prouesse technique qui nous oblige à redéfinir nos propres limites morales.
2️⃣ La résistance face à la « Raison d’État ». Voir une start-up californienne tenir tête au gouvernement américain, lequel invoque des lois de la guerre froide pour la contraindre, montre que les entreprises peuvent aussi être un contre-pouvoir. La Silicon Valley n’est pas un bloc monolithique sans éthique.
3️⃣ Le retour de la responsabilité individuelle. Cet épisode nous rappelle que derrière les algorithmes, il y a des concepteurs qui font des choix de civilisation. Le rôle des innovateurs ne s’arrête pas à la ligne de code, il réside aussi dans la capacité de dire « non » à certains usages.
Ne nous trompons pas de combat. Le sujet n’est pas d’être « pour » ou « contre » l’IA, mais de savoir quelle éthique nous insufflons dans nos outils. Le cas Anthropic montre qu’une voie médiane existe : celle d’un progrès technique qui ne sacrifie pas ses valeurs.