Contrôle US sur l'IA ?
Le 5 mai 2026, Microsoft, Google et xAI ont accepté d’accorder au gouvernement américain un accès anticipé à leurs modèles d’IA les plus avancés. Un nouvel accord qui confirme un tournant dans les relations entre la Silicon Valley et Washington.
Le vent a-t-il définitivement tourné dans la Silicon Valley ?
Un nouvel accord entre les géants de l’IA et le gouvernement américain confirme en tout cas un basculement. Microsoft, Google et xAI accorderont désormais au gouvernement américain un accès anticipé à leurs nouveaux modèles d’IA avant leur publication, rapporte Reuters le 5 mai 2026. L’objectif : permettre une évaluation en amont des risques pour la sécurité nationale.
Ce tournant intervient dans un contexte déjà en pleine recomposition. Début 2026, Anthropic (Claude) refusait catégoriquement que sa technologie soit utilisée pour la surveillance de masse ou les armes autonomes. Une position de principe qui n’a pas empêché le contrat d’être rapidement récupéré par OpenAI. Dans la foulée, Google a, lui aussi, conclu un accord pour des opérations classifiées — en mettant en avant une ligne rouge : son IA « ne doit pas être utilisée pour la surveillance de masse intérieure ou les armes autonomes (y compris la sélection des cibles) sans supervision et contrôle humains appropriés », tout en acceptant qu’elle serve à « tout usage gouvernemental légal ».
Et ce repositionnement s’inscrit dans un mouvement plus large. Microsoft et xAI (Grok) disposaient déjà d’accords solides avec le gouvernement pour des usages opérationnels, la start-up d’Elon Musk ayant, comme Google, opté pour une approche couvrant « tous usages légaux ».
Pourquoi Google, Microsoft et xAI vont-ils donner leurs nouveaux modèles en avance ?
Concrètement, les modèles concernés par ce contrôle en amont sont les systèmes d’IA les plus avancés du moment, généralement qualifiés de frontier models. Capables de raisonner, d’écrire du code, ou encore d’analyser des images et des vidéos, ils surpassent largement les générations précédentes — au point de pouvoir, en cas de détournement, faciliter des cyberattaques, des campagnes de manipulation de l’information, voire contribuer à la conception d’armes.
Ceci n'est pas sans rappeler l'attitude adoptée par McDonnell Douglas en 1984/86 concernant le basculement de la technologie paquet publique mondiale d'OSI+Tymnet vers TCP/IP (création de l'IETF), pour permettre une "dérégulation" sous l'équilibre stratégique d'une technologie moins puissante mais pouvant être unifiée.