blogGeekHigh-TechUne

Technologies militaires : OpenAI viole sa propre charte

OpenAI vient de signer un partenariat avec Anduril, une startup militaire qui produit des drones pour le compte de l’armée américaine. Se faisant, l’entreprise viole sa propre charte,  interdisait l’intégration de sa technologie dans des systèmes militaires. Mais elle n’est pas la seule société d’intelligence artificielle à collaborer avec acteurs de la défense.

OpenAI, le créateur de ChatGPT, et Anduril Industries, une société de technologie de défense, annoncent un partenariat stratégique visant à développer et à déployer des solutions avancées d’intelligence artificielle (IA) pour les missions de sécurité nationale. Dans un communiqué, les deux entreprises précisent qu’elles utiliseront l’IA pour analyser les données en temps réel afin de détecter les menaces aériennes (appareils pilotes, drones) et les mettre hors d’état de nuire.

OpenAI et Anduril veulent maintenir l’avantage technologique des États-Unis sur la Chine

OpenAI et Anduril Industries assurent vouloir protéger le personnel militaire américain et allié, mais également prendre une longueur d’avance sur les ennemis assumés ou potentiels des Etats Unis, comme la Chine. Les partenaires estiment que la course avec la Chine pour devenir le leader mondial de l’IA a atteint un moment crucial. « Si les États-Unis cèdent du terrain, nous risquons de perdre l’avantage technologique qui a soutenu notre sécurité nationale pendant des décennies », avertissent-ils.

OpenAI pas convainquant sur une utilisation responsable

OpenAI et Anduril Industries promettent d’utiliser l’intelligence artificielle « de manière responsable pour assurer la sécurité et la liberté » des citoyens américains. Mais on sait que la société de défense propose des drones d’attaque de type « kamikaze ». Notamment le Bolt-M, un drone alimenté par l’intelligence artificielle de l’entreprise. Cet appareil dispose d’une puissance de feu de précision létale pouvant causer des dégâts terribles sur des cibles terrestres statiques ou mobiles.

Avec l’IA, les dangers des machines tueuses

Le partenariat entre OpenAI et Anduril Industries a donc de quoi inquiéter. Il démontre que la science-fiction se rapproche de plus en plus de la réalité, avec la possibilité de créer des robots tueurs. Comme dans le film Terminator, où James Cameron avait mis en garde contre les dangers des machines tueuses. Malgré ces risques pour l’Humanité, les grandes puissances veulent construire des armées de robots et d’appareils autonomes. Les Etats Unis, par exemple, teste un système de mitrailleuse anti-drone contrôlée par l’IA. Un projet très préoccupant.

OpenAI renonce à ses principes

En collaborant avec un fabricant de drones militaires, OpenAI renie les principes. En effet, la politique interne de l’entreprise de Sam Altman interdit explicitement l’intégration de sa technologie dans des dispositifs militaires. Mais, son dirigeant aurait modifié discrètement la charte en janvier dernier pour assouplir cette règle. C’est ainsi qu’il y a quelques mois, Microsoft, le principal financeur d’OpenAI, a proposé son système de génération d’images DALL-E au Pentagone pour améliorer le matériel de reconnaissance américain.

Anthropic et Meta avant OpenAI

Toutefois, OpenAI n’est pas la seule startup spécialisée dans l’intelligence artificielle à mettre sa technologie au service de la défense. Plusieurs entreprises d’IA ont déjà signé des partenariats avec l’industrie de l’armement. Il y a quelques semaines, Anthropic, un autre poids lourd du secteur, a signé un contrat similaire avec Palantir, un géant de l’industrie militaire américaine spécialisé dans l’analyse et le traitement des données. Meta, la maison-mère de Facebook et Instagram, a aussi annoncé un partenariat avec Anduril et Palantir pour son modèle Llama. Ce type de collaboration devrait malheureusement se multiplier dans les années à venir.

Autres articles à voir

Bouton retour en haut de la page
Fermer
Fermer