Urgent

Sat 14-September-2024

Technologie de pointe sans vrais combattants… Les résistants palestiniens hantent les sionistes.

mercredi 11-septembre-2024

Londres – Centre palestinien d’information

Depuis le début de l’opération sioniste en cours contre Gaza il y a 11 mois, de nombreux rapports ont fait état de l’utilisation par l’armée d’occupation de techniques de surveillance, d’intelligence artificielle et d’outils numériques dans ses attaques militaires sur la bande de Gaza, afin de déterminer ce qu’elle allait attaquer et quand.

Cependant, plusieurs rapports ont révélé que ces outils basés sur des algorithmes s’appuyaient sur des données incorrectes et des estimations approximatives pour fournir des informations pour les attaques militaires sioniste nazies. Un rapport détaillé publié par le magazine sioniste (+972) a confirmé que l’armée d’occupation avait intentionnellement bombardé des maisons et leurs occupants en se basant sur les probabilités fournies par ces applications, ce que confirme un nouveau document analytique de l’organisation Human Rights Watch.

L’organisation indique que l’armée d’occupation utilise quatre outils numériques à Gaza, reposant sur le traitement algorithmique des données personnelles des citoyens palestiniens. Elle souligne que ces outils sont censés s’appuyer sur une surveillance sioniste continue et systématique de tous les Palestiniens de Gaza, y compris des données collectées avant la guerre, en contradiction avec le droit international des droits de l’homme.

L’organisation précise que ces outils utilisent des données personnelles pour fournir des informations pour les attaques militaires, telles que la prévision des menaces et la désignation des cibles. Certains outils utilisent une méthode d’apprentissage automatique, c’est-à-dire des systèmes informatisés capables de tirer des conclusions à partir des données et de reconnaître des motifs sans instructions explicites.

Human Rights Watch confirme qu’il n’a pas été possible de documenter quand et où ces outils numériques sont utilisés ou leur prévalence par rapport à d’autres méthodes de collecte d’informations et d’interrogations, mais elle affirme que l’utilisation par l’armée d’occupation sioniste de ces outils « soulève d’importantes préoccupations éthiques, juridiques et humanitaires. Cela expose les forces sionistes à un risque de violation du droit humanitaire international, notamment des lois de guerre concernant la distinction entre les objectifs militaires et les civils, et la nécessité de prendre toutes les précautions possibles avant une attaque pour minimiser les dommages aux civils ».

Le document publié par l’organisation le mardi 10 septembre 2023 propose des analyses techniques et juridiques de quatre outils numériques appelés (Gospel, Lavender, Ain Abi et le système de triangulation des tours cellulaires), identifie les nouveaux risques et défis et évalue chacun d’eux à la lumière du droit international.

Selon Human Rights Watch, le document se base sur des déclarations publiques de responsables sionistes, des rapports médiatiques, des interviews avec des experts et des journalistes, et des matériaux non abordés dans les rapports précédents, publiés par l’armée sioniste, y compris des données personnelles des habitants de Gaza, qui semblent avoir été publiées par erreur sur Internet.

Triangulation des tours cellulaires

L’outil de surveillance des évacuations utilisé par l’armée sioniste repose sur les données de localisation des téléphones cellulaires pour suivre les mouvements des personnes à Gaza. Selon un rapport publié par le New York Times le 16 octobre, une semaine avant le début de l’attaque terrestre majeure de l’armée sioniste dans le nord de Gaza, l’armée sioniste utilisait ce système pour surveiller l’évacuation des Palestiniens de leurs maisons « au nord de la vallée de Gaza », terme utilisé pour désigner la province centrale et le sud de la bande de Gaza, qui ont ensuite été touchés par les opérations militaires.

Le document cite des journalistes ayant vu, dans un bureau du quartier général sud à Beersheba, des écrans affichant une carte de Gaza divisée en 620 parties, chaque partie étant colorée en fonction du degré d’évacuation des populations. La carte incluait également des labels pour les hôpitaux, les mosquées, les refuges et d’autres bâtiments.

Les journalistes estiment que le nombre de téléphones cellulaires suivis à l’époque dépassait un million. Selon ces rapports, l’outil de surveillance utilise un système de triangulation des tours cellulaires pour obtenir une vue en direct des mouvements des habitants de Gaza, ce qui aide à déterminer une position approximative des téléphones cellulaires en fonction des tours auxquelles ils peuvent se connecter.

Des responsables militaires sionistes affirment que ces informations sont utilisées pour déterminer les opérations que l’armée peut mener dans certains lieux et le type d’armes à utiliser.

Le document de Human Rights Watch suppose que les données fournies par le système de triangulation des tours cellulaires ne fournissent pas d’informations précises sur la localisation exacte des téléphones, et donc des personnes qui les portent. L’imprécision est aggravée par le manque d’électricité pour charger les téléphones après que l’entité sioniste ait coupé toutes les lignes électriques  vers Gaza, en raison du blocus sur les importations de carburant, et des dommages importants à l’infrastructure téléphonique de Gaza.

Le document souligne que l’utilisation des informations sur la présence civile pour éclairer les décisions militaires augmente le risque de dommages aux civils, entraînant des conclusions erronées sur l’absence ou la présence limitée de civils dans une zone donnée, et permettant ainsi des attaques contre cette zone.

Le document mentionne également des données publiées par l’armée d’occupation sur Internet, incluant ce qui semble être des données opérationnelles liées aux systèmes utilisés pour surveiller les évacuations et les mouvements des personnes à Gaza, ainsi que pour prévoir les dommages civils potentiels que les attaques pourraient causer dans certaines zones.

Ces données incluent également le code source du site d’informations sur les évacuations de l’armée, des chiffres de population correspondant aux données de recensement de Gaza depuis dix ans, des données de population distribuées, des informations sur les mouvements des civils, la présence militaire sioniste à Gaza, et le nombre d’attaques cumulatives pour chaque partie des 620 constituant la bande de Gaza. Les données comprenaient également des informations personnelles : noms de famille des plus grandes familles présentes dans chaque partie.

Le document indique que Human Rights Watch n’a pas pu confirmer l’origine de ces informations publiées sur Internet et leur utilisation, mais elles ressemblent aux données décrites dans les rapports médiatiques concernant le système de surveillance des évacuations et la planification des opérations militaires.

Comment fonctionne « Lavender » ?

Quant au système « Lavender », sa fonction est de classer les personnes dans la bande de Gaza en fonction de la suspicion de leur appartenance à des groupes armés de résistance palestiniens, dans le but de les inclure parmi les cibles militaires.

Le document indique que « Lavender » utilise des systèmes d’apprentissage automatique pour attribuer un score numérique aux habitants de Gaza concernant la probabilité qu’une personne appartienne à un groupe armé, notant que ce sont les responsables de l’armée d’occupation qui déterminent le seuil à partir duquel une personne peut être classée comme une cible à attaquer.

L’organisation a mentionné une description faite par le directeur de l’intelligence artificielle et des sciences des données de l’unité 8200, la section du renseignement signalétique de l’armée, d’un outil numérique utilisant l’apprentissage automatique pour « trouver de nouveaux terroristes », selon ses termes, précisant que le système a été utilisé pour la première fois à Gaza en 2021, afin de rassembler des données de surveillance pour classer les personnes en fonction de la probabilité qu’elles soient liées à un groupe armé.

Le document de Human Rights Watch suppose que l’outil décrit est « Lavender », car il correspond à une présentation organisée en février 2023 pour un livre rédigé par deux officiers sionistes qui y ont présenté des détails techniques importants. Le document précise que « Lavender » repose sur un type d’apprentissage automatique semi-supervisé appelé « apprentissage positif non classifié », qui forme un algorithme à partir d’une base de données contenant à la fois des données classées (positives) et non classées (négatives).

Le document technique et juridique explique que ce type d’apprentissage automatique utilise des attributs liés aux données classées pour essayer d’identifier des motifs dans une base de données plus large. Dans ce cas, l’algorithme recherche des caractéristiques dans les données de surveillance et autres données concernant les individus que l’armée sioniste soupçonne d’appartenir à des groupes de résistance, puis utilise les mêmes caractéristiques pour identifier d’autres personnes suspectes parmi la population générale.

Human Rights Watch souligne que « de nombreux points de données ne seront pas confirmés si cette technique est appliquée à une grande population, donc ce processus repose en grande partie sur des conjectures non vérifiées ».

Concernant les facteurs sur lesquels « Lavender » base son « degré de suspicion », le document précise que, sans accès au système, il est impossible de connaître les points de données utilisés par l’outil pour augmenter le « degré de suspicion » d’une personne, mais il mentionne que le livre de Yossi Seriel, responsable de l’unité 8200, publié en 2021 sur les utilisations militaires de l’intelligence artificielle, fournit des informations supplémentaires. Il présente une « machine de ciblage » aux caractéristiques très similaires à celles de « Lavender », utilisée pour identifier des cibles potentielles en analysant leurs relations sociales, tout comme les plateformes de médias sociaux.

Le document indique que les caractéristiques mentionnées par Cyril contribuent à élever le niveau de suspicion d’une personne, notamment en raison de ses communications ou de ses liens sociaux, son appartenance à un groupe de discussion avec une personne que l’armée sioniste considère déjà comme liée à un groupe armé, ou même pour des raisons aussi simples que le changement fréquent de téléphones ou d’adresses.

Défauts graves d’évaluations

Le document souligne que les évaluations de Lavender présentent des défauts graves, car elles reposent sur des hypothèses normatives développées par un algorithme basé sur des données susceptibles d’être biaisées et incomplètes, et il est techniquement impossible de les vérifier.

Il apparaît que Lavender collecte des données sur le comportement et les communications d’un grand nombre d’individus afin de déterminer leur niveau de suspicion, en utilisant des outils de police prédictive qui supposent une participation générale des populations aux activités militaires. « Dans le contexte de la guerre, cela signifie faire des hypothèses sur le fait qu’ils sont des cibles militaires sujettes à des attaques légales, tandis que les lois de la guerre supposent qu’ils sont des civils. »

L’outil « Gospel »

L’outil « Gospel » (Évangile) est un algorithme utilisé pour traiter les données de surveillance afin de créer des listes de cibles. Selon les rapports médiatiques, sa fonction est de dresser des listes de bâtiments ou d’autres cibles structurelles devant être attaquées.

Selon le document technique et juridique de Human Rights Watch, « Gospel » identifie quatre catégories de cibles non humaines : les cibles militaires, y compris les cibles souterraines comme les tunnels, les maisons des familles de combattants présumés, et les « cibles de force », qui sont des structures civiles attaquées avec un objectif déclaré, selon des analystes du renseignement actuels et anciens dans le but de « créer un choc » susceptible de « pousser les civils à faire pression sur le Hamas ».

Il n’y a pas d’informations sur le fonctionnement de « Gospel » par rapport à Lavender. Le document suppose qu’il utilise également un apprentissage positif non classifié pour parvenir à ses conclusions, en précisant que « Gospel est un outil utilisé pour déterminer quelles structures sont considérées comme des objectifs civils et militaires, ce qui est un processus de distinction requis des attaquants en vertu des lois de la guerre ».

L’outil « Où est mon pére ? »

Le document de l’organisation de défense des droits humains indique que l’outil « Où est Papa ? » utilise le suivi des emplacements des téléphones cellulaires pour alerter les agents de l’armée d’occupation sioniste lorsque des personnes identifiées comme des cibles militaires entrent dans un lieu spécifique – souvent une maison familiale – où elles peuvent être attaquées.

Human Rights Watch indique que l’armée d’occupation a confirmé l’utilisation de cet outil à cette fin, sans fournir de détails techniques supplémentaires.

Le document souligne que les données de localisation des téléphones cellulaires ne sont pas suffisamment précises pour prouver qu’une personne se trouve à un endroit donné à un moment précis, et pourraient entraîner des erreurs fatales si elles sont utilisées pour fournir des informations pour des attaques militaires. Il note que le téléphone cellulaire n’est pas un moyen fiable pour localiser une cible humaine, en particulier dans les zones de conflit, où les personnes peuvent changer leurs numéros ou leurs appareils en cas d’urgence, et l’accès aux réseaux et aux appareils peut varier fréquemment et de manière imprévisible.

Il indique que même les méthodes les plus courantes de suivi des téléphones cellulaires, telles que la localisation du téléphone ou le GPS, ne sont pas suffisamment précises pour déterminer la localisation des téléphones cellulaires pour mener des attaques militaires précises, ce qui est exigé par les lois de la guerre.

Une boîte noire

Le document de Human Rights Watch décrit les systèmes algorithmiques basés sur les données massives, l’apprentissage automatique et l’intelligence artificielle comme des boîtes noires. De par leur conception, ces systèmes sont limités par des hypothèses spécifiques et tendent à reproduire les biais sociaux, ne permettant ni de vérifier ni de montrer leur fonctionnement ou leurs processus décisionnels concernant la production des résultats, et manquent de documentation pour soutenir la répartition de la responsabilité parmi les parties prenantes concernées.

Il est crucial que les outils numériques permettent aux utilisateurs de vérifier le fonctionnement des systèmes pour comprendre comment les résultats sont déterminés et avec quelles données, « ce qui est particulièrement important dans le cas des armes ou des formes de ciblage utilisant l’intelligence artificielle ».

Le document juridique numérique précise que le biais de l’automatisation survient lorsque les gens accordent une confiance excessive aux résultats des outils numériques, en partie en raison de la perception qu’ils sont plus neutres que les humains, ce qui a été démontré par de nombreuses études.

Il met en garde que tous les systèmes numériques basés sur des algorithmes reposent sur des hypothèses qui sous-tendent les calculs. « Malgré les instructions et les normes de contrôle spécifiques aux systèmes fonctionnant avec l’apprentissage automatique et l’intelligence artificielle définies par les développeurs, ces hypothèses ne sont pas explicitement écrites par les programmeurs mais sont développées par des algorithmes basés sur des données d’entraînement initiales », en soulignant que les propriétaires de cette technologie, les développeurs et les utilisateurs sont responsables de son utilisation, ce qui suscite de grandes inquiétudes dans les contextes militaires.

Human Rights Watch note que les résultats des systèmes algorithmiques reflètent les biais de leurs programmeurs et de la société, ce qui accroît le risque lors du développement et de l’utilisation d’outils numériques fournissant des informations pour décider si des personnes ou d’autres cibles peuvent être attaquées en tant que cibles militaires.

Risques et défis des outils numériques

Dans le contexte palestinien, le document confirme que les outils numériques militaires sionistes ont créé de nouveaux risques et défis en raison de leur dépendance à la surveillance intrusive, à la déshumanisation numérique et à la dépendance excessive de l’armée d’occupation à ces outils, augmentant ainsi l’intensité de la guerre.

Il indique que les autorités d’occupation ont maintenu, en tant que puissance occupante, un contrôle important sur les aspects de la vie des Palestiniens à Gaza et en Cisjordanie, ont obtenu des données, les ont stockées et les ont utilisées de manière à violer le droit international à la vie privée et d’autres droits humains, soulignant que les systèmes automatisés dépouillent les humains de leur humanité en les réduisant à une série de points de données traités par des systèmes intrinsèquement biaisés et limités en fonction de leur programmation.

Le document fait référence à la résolution internationale adoptée par le Conseil des droits de l’homme des Nations Unies en octobre 2022, qui a souligné l’importance cruciale du jugement humain lors de l’utilisation de la force, en avertissant que la dépendance à des ensembles de données non représentatifs, à la programmation basée sur des algorithmes et aux processus d’apprentissage automatique « reproduit et exacerbe les schémas de discrimination, de marginalisation, d’inégalités sociales, de stéréotypes et de biais existants – avec des résultats imprévisibles ».

Il ajoute que les outils numériques utilisés par l’armée d’occupation posent des problèmes similaires aux systèmes d’armement autonomes, car ils fonctionnent de manière difficile ou impossible à vérifier ou à déterminer leur origine, comme dans les algorithmes d’apprentissage automatique utilisés par Lavender et Gospel.

Human Rights Watch souligne que l’utilisation des outils numériques dans les opérations militaires doit être soumise aux restrictions prévues par le droit international humanitaire, en confirmant que le Comité international de la Croix-Rouge a affirmé que « toute nouvelle technologie de guerre doit être utilisée conformément aux règles du droit international humanitaire existant ».

« Le document souligne que LAVAND et GOSIL, ainsi que d’autres outils numériques militaires utilisés par les autorités d’occupation, posent des problèmes graves et mortels lorsqu’ils dépassent deux règles générales établies par le droit international des traités et le droit coutumier, à savoir : la distinction entre les objectifs militaires et les civils ainsi que les biens civils, et la prise de toutes les précautions possibles pour réduire les pertes accidentelles en vies humaines et les dommages des biens civils. »

Lien court:

Copied