Microsoft soutient Anthropic dans son recours judiciaire contre le Pentagone
- Des entreprises technologiques soutiennent une initiative visant à annuler une désignation empêchant la société d’IA de travailler avec le gouvernement américain
Ankara
AA/Ankara/Merve Berker
Microsoft a déposé un mémoire juridique en soutien à l’entreprise d’intelligence artificielle Anthropic dans sa contestation d’une décision du Pentagone l’empêchant de travailler avec le gouvernement américain, ont rapporté jeudi plusieurs médias.
Le document a été soumis à un tribunal fédéral de San Francisco, alors qu’Anthropic cherche à faire annuler cette désignation, qui, selon l’entreprise, menace sa capacité à continuer de fournir des technologies utilisées par des partenaires gouvernementaux, selon The Guardian.
Microsoft a indiqué que cette démarche vise à éviter des perturbations pour les fournisseurs dont les systèmes reposent sur les outils d’intelligence artificielle d’Anthropic.
« Le département de la Guerre a besoin d’un accès fiable aux meilleures technologies du pays », a déclaré Microsoft dans un communiqué cité par le média.
L’entreprise a également souligné la nécessité de garanties afin d’éviter que l’intelligence artificielle ne soit utilisée pour une surveillance intérieure de masse ou pour déclencher des conflits sans contrôle humain.
« Le gouvernement, l’ensemble du secteur technologique et le public américain ont besoin d’une voie commune pour atteindre ces objectifs », ajoute le communiqué.
Plusieurs autres géants technologiques, dont Google, Amazon, Apple et OpenAI, ont également signé ce mémoire juridique en soutien à Anthropic.
Anthropic a déposé lundi deux recours judiciaires, l’un devant un tribunal fédéral en Californie et l’autre devant la Cour d’appel des États-Unis pour le circuit du District de Columbia, afin de contester la décision du Pentagone de classer l’entreprise comme un risque pour la chaîne d’approvisionnement.
Cette désignation est intervenue après l’échec de négociations autour d’un contrat de 200 millions de dollars visant à déployer les systèmes d’IA d’Anthropic sur des plateformes militaires classifiées.
L’entreprise a affirmé s’opposer à l’utilisation de sa technologie pour la surveillance de masse des citoyens américains ou pour des armes létales autonomes.
« Anthropic n’a actuellement pas confiance (…) dans le fait que Claude fonctionnerait de manière fiable ou sûre s’il était utilisé pour soutenir une guerre autonome létale », indique le document cité dans le rapport.
La société a également soutenu que cette désignation équivaut à une sanction idéologique liée à sa position publique sur la sécurité de l’IA.
Des responsables du Pentagone ont affirmé que cette décision ne serait pas réexaminée.
*Traduit de l'anglais par Sanaa Amir
