Mena News, Global Views

Quel rôle pour les systèmes d’IA dans la guerre à Gaza ?

Carola Frediani travaille depuis des années comme journaliste spécialisée dans la surveillance, la cybercriminalité et la cybersécurité. Aujourd’hui, il fait partie de l’équipe d’une ONG internationale de défense des droits humains. Elle rédige régulièrement des bulletins pour l’association « Guerre di Rete » (guerre des réseaux), qu’elle a fondée.

Traduit de l’italien par | A. Zakaria


Après l’attaque du Hamas du 7 octobre et le début de la guerre à Gaza, l’identification des cibles à atteindre par l’armée israélienne s’est fortement accélérée. Pour satisfaire la demande de nouvelles cibles à atteindre – affirme un long rapport du « The Guardian« , basé en grande partie sur une enquête publiée dans deux médias israéliens critiques à l’égard de leur gouvernement. L’armée israélienne aurait compté sur Lavender, un système qui génère une base de données d’individus qui présenteraient « les caractéristiques d’un militant du Hamas ou du JIP (Jihad islamique palestinien) ».

Ce système a joué un rôle central dans les bombardements contre les Palestiniens, en particulier au début de la guerre, selon l’enquête. Et son influence sur les opérations militaires aurait été telle qu’elle aurait conduit les militaires à traiter les résultats du système d’IA « comme s’il s’agissait d’une décision humaine », affirme le Magazine.

« L’armée s’est appuyée presque entièrement sur Lavender, qui a identifié jusqu’à 37 000 Palestiniens comme militants présumés – ainsi que leurs maisons – en vue d’éventuelles frappes aériennes », écrit le +972 Magazine, ajoutant que l’armée aurait autorisé ces officiers à adopter les listes de cibles identifiées par Lavender, sans aucune obligation de vérifier minutieusement pourquoi le système avait fait ces choix ou d’examiner les données brutes de renseignement sur lesquelles ils étaient basés.

Le système Lavender s’ajoute à un autre système d’intelligence artificielle, connu dans les médias sous le nom de « Habsora/Gospel« . Mais une différence fondamentale entre les deux systèmes réside dans la définition de la cible : tandis que Gospel marque les bâtiments et les structures à partir desquels les militants opéreraient, le Lavender identifie les personnes à tuer. L’enquête affirme également qu’il existe un système supplémentaire pour identifier et atteindre la cible lorsqu’elle rentre chez elle.

En réponse à cette enquête, rapporte The Guardian, l’armée israélienne prétend à travers dans un communiqué, que ses opérations étaient menées « conformément aux règles de proportionnalité du droit international ». Ce Lavender ne serait selon Israël, « qu’une base de données utilisée pour croiser les sources de renseignements » et que ce système d’intelligence artificielle « sert à identifier les terroristes ou tente de prédire si une personne est un terroriste ».

Mais cette enquête, si elle est confirmée en détail, soulève des questions énormes et inquiétantes sur le rôle que jouent ou pourraient jouer les systèmes d’IA en temps de guerre, en raison de leur conception et de leur fonctionnement. D’autant plus que le recours à l’IA risque, selon les scénarios du conflit, d’opérer dans des conditions des plus opaques, sans contrôles ni audits externes.


Nous savons qu’historiquement, les affirmations concernant l’exactitude de ces systèmes ont été réfutées à maintes reprises dès que quelqu’un ait pu les vérifier.


Tout cela a affecté et ému une partie de la communauté technologique qui lancent un appel à se concentrer immédiatement sur l’utilisation de l’IA dans le secteur militaire.

Ces experts cherchent à savoir, quels processus de révision sont adoptés par la l’armée israélienne, dans ces systèmes, à l’instar de Brian Merchant, qui comment :  » l’intelligence artificielle est terrifiante non pas parce qu’elle est trop puissante, mais parce qu’elle permet aux opérateurs de rejeter la faute sur le système et aux dirigeants de l’utiliser pour justifier presque tous les niveaux de violence ».

« L’IA est un prétexte à une violence meurtrière », a également commenté la linguiste et critique du battage médiatique sur l’intelligence artificielle, Emily Bender.

Claudio Agosti, de l’organisation à but non lucratif AI Forensics, met également en garde contre le risque de tomber dans le discours selon lequel « c’est la technologie qui fait le travail, ce n’est pas de votre faute ».

« L’utilisation de la technologie de l’IA – commente une analyse du WashPost sur le sujet – ne représente encore qu’une petite partie de ce qui inquiète les militants des droits de l’homme concernant la conduite d’Israël à Gaza. Mais cela laisse présager un avenir plus sombre.

Mona Shtaya, chercheuse non-résidente à l’Institut Tahrir pour la politique au MoyenOrient, a déclaré à « The Verge » que « le système Lavender est une extension de l’utilisation par Israël des technologies de surveillance des Palestiniens dans la bande de Gaza et en Cisjordanie. Shtaya, qui réside en Cisjordanie, a déclaré que ces outils sont particulièrement préoccupants à la lumière des informations selon lesquelles les startups israéliennes de la défense espèrent exporter leur technologie éprouvée à l’étranger.

La coalition Stop Killer Robots (qui réclame une loi internationale sur les systèmes d’armes autonomes et veut maintenir le contrôle humain sur l’usage de la force) a publié une note dans lequel elle dit « trouver profondément troublant, d’un point de vue juridique, moral et humanitaires, des informations sur l’utilisation par Israël, de systèmes de recommandation de cibles dans la bande de Gaza »

Bien que le système Lavender, comme le système Habsora/Gospel, ne soit pas une arme autonome, tous deux soulèvent de sérieuses inquiétudes quant à l’utilisation croissante de l’intelligence artificielle dans les conflits, aux biais d’automatisation, à la déshumanisation numérique et à la perte de contrôle humain dans l’usage de la force.

- Publicité -spot_img
- Publicité -spot_img

Dernières nouvelles

Sommet africain sur les engrais et la santé des sols: adoption de la proposition de l’Algérie pour soutenir les producteurs de gaz

Pour l'Algérie qui, depuis 3 ans réalisé un band gigantesque vers la sécurité alimentaire à travers l'intensification de la production de produits stratégique et la réalisation de projets d'envergure tournés vers le continent, il est temps pour que l’Afrique se nourrisse elle-même. L'approche algérienne pour économie africaine intégré repose sur les ressources dont dispose le continent et gage de sa souveraineté. le sol, le gaz, l'eau et les minerais. cette approche semble avoir fait son chemin pour qu'aucune raison ne saurait justifier que l’Afrique soit une région importatrice nette de sa nourriture, avec une facture dépassant les 35 milliards de Dollar/an.

incontournable

Plus d'articles comme celui-ci