Microsoft et l’IA : Examen interne de l’utilisation de la technologie en Israël
Microsoft a reconnu avoir fourni une technologie d’IA au ministère israélien de la Défense (IMOD), mais a déclaré qu’elle n’avait "trouvé aucune preuve" que la technologie avait été utilisée pour "cibler ou nuire à des personnes dans le conflit à Gaza". 🤔
Microsoft a publié une déclaration la semaine dernière, dans laquelle elle a admis avoir fourni à l’IMOD "des logiciels, des services professionnels, des services cloud Azure et des services d’IA Azure, y compris la traduction linguistique". Elle a ajouté : "Comme beaucoup de gouvernements dans le monde, nous travaillons également avec le gouvernement israélien pour protéger son cyberespace national contre les menaces extérieures". 🛡️
Cette déclaration fait suite à des informations selon lesquelles Israël utilise l’IA dans son conflit à Gaza, qui a entraîné la mort de milliers de Palestiniens. Comme l’a rapporté The Guardian l’année dernière, l’armée israélienne a employé son propre système d’IA, appelé Lavender, des sources de renseignement affirmant que les responsables militaires israéliens avaient autorisé un grand nombre de civils palestiniens à être tués.
Réponse aux inquiétudes et examen interne 🔎
Comme Microsoft l’a maintenant reconnu, ses employés et le public s’inquiétaient de l’utilisation de ses technologies Azure et d’IA par l’armée israélienne. En réponse, elle a mené un examen interne, en collaboration avec une entreprise externe qu’elle a omis de nommer.
"Sur la base de ces examens, notamment l’entretien de dizaines d’employés et l’évaluation de documents, nous n’avons trouvé à ce jour aucune preuve que les technologies Azure et d’IA de Microsoft ont été utilisées pour cibler ou nuire à des personnes dans le conflit à Gaza", a déclaré la société. 🙅♀️
"Notre relation avec l’IMOD est structurée comme une relation commerciale standard", a-t-elle poursuivi. "Comme tous nos clients, l’utilisation de notre technologie par l’IMOD est liée par les conditions d’utilisation de Microsoft, y compris notre politique d’utilisation acceptable et notre code de conduite en matière d’IA. Ceux-ci exigent que les clients mettent en œuvre des pratiques fondamentales d’IA responsable – telles que la supervision humaine et les contrôles d’accès – et interdisent l’utilisation de nos services cloud et d’IA d’une manière qui inflige des dommages aux individus ou aux organisations ou qui affecte les individus d’une manière interdite par la loi."
Accès spécial et visibilité limitée ⚙️
Microsoft a noté qu’elle accorde occasionnellement un accès spécial à ses technologies au-delà des termes de ses accords commerciaux. Elle l’a fait dans les semaines qui ont suivi le 7 octobre 2023 en fournissant un soutien d’urgence limité au gouvernement israélien pour l’aider à secourir des otages, mais avec "une surveillance importante et sur une base limitée".
Elle a également noté que les militaires "utilisent généralement leurs propres logiciels ou applications propriétaires provenant de fournisseurs liés à la défense pour les types de surveillance et d’opérations qui ont fait l’objet des questions de nos employés. Microsoft n’a pas créé ni fourni de tels logiciels ou solutions à l’IMOD".
La société a également reconnu qu’elle n’a pas de visibilité sur la façon dont ses clients utilisent sa technologie sur leurs propres serveurs, ce qui est généralement le cas pour les "logiciels sur site". En tant que tel, elle n’a pas de visibilité sur les opérations cloud gouvernementales de l’IMOD.
Engagement envers les droits de l’homme et réaction 🌍
"En résumé, Microsoft défend depuis longtemps la cybersécurité de l’État d’Israël et des personnes qui y vivent", conclut la déclaration.
"Nous sommes également engagés depuis longtemps envers d’autres nations et peuples du Moyen-Orient. Notre engagement envers les droits de l’homme guide la façon dont nous nous engageons dans des environnements complexes et la façon dont notre technologie est utilisée. Nous partageons la profonde préoccupation concernant la perte de vies civiles en Israël et à Gaza et avons soutenu l’aide humanitaire dans les deux endroits. Le travail que nous faisons partout dans le monde est éclairé et régi par nos engagements en matière de droits de l’homme. Sur la base de tout ce que nous savons actuellement, nous pensons que Microsoft a respecté ces engagements en Israël et à Gaza."
L’année dernière, un groupe d’employés et d’anciens employés de Microsoft a lancé la pétition No Azure for Apartheid, qui compte actuellement 1527 signatures. Le groupe a maintenant appelé Microsoft à rendre cette enquête publique.
"Il est très clair que leur intention avec cette déclaration n’est pas de répondre réellement aux préoccupations de leurs travailleurs, mais plutôt de faire un coup de relations publiques pour blanchir leur image que leur relation avec l’armée israélienne a ternie", a déclaré l’ancien employé Hossam Nasr au journal israélien Haaretz. Nasr a été licencié en octobre pour avoir aidé à organiser une veillée non autorisée pour les Palestiniens tués à Gaza au siège de Microsoft.
Comme l’a rapporté RockPaperShotgun, le mouvement international Boycott, Divestment and Sanctions a appelé à un boycott des produits Microsoft le mois dernier en signe de protestation contre les liens signalés de la société avec l’armée israélienne. En février, l’Associated Press a publié un rapport sur l’utilisation de la technologie d’IA par l’armée israélienne, notamment Microsoft et OpenAI.
De même, le développeur du jeu de rôle indépendant Tenderfoot Tactics a retiré le jeu de la vente sur Xbox en soutien au boycott.