EL-QODS occupée - Les technologies d'intelligence artificielle (IA) et d'autres outils numériques utilisées par l'entité sioniste dans le cadre de son agression contre Ghaza, s'appuient sur des données "erronées" et "incomplètes", indique mardi l'ONG Human Rights Watch (HRW).

Dans un communiqué publié sur son site, l'ONG a constaté que l'armée d'occupation sioniste utilise des "données incomplètes, des calculs erronés et des outils inadaptés pour l'aider à prendre des décisions de vie ou de mort à Ghaza, ce qui pourrait accroître les dommages aux civils", a déclaré Zach Campbell, chercheur senior sur les questions de surveillance à Human Rights Watch.

Dans le cadre de son agression contre Ghaza, l'armée sioniste utilise "quatre outils numériques" afin d'estimer, entre autres, "le nombre de civils dans une zone avant une attaque", selon l'ONG.

Cela implique notamment, d'après la source, une "surveillance continue et systématique des résidents palestiniens de Ghaza, y compris une collecte de données" qui a débuté même avant l'agression actuelle, et ce "d'une manière incompatible avec le droit international des droits humains".

"Aucune décision de ciblage ne doit être prise sur la seule base des recommandations d'un outil d'apprentissage automatique", insiste l'ONG, soulignant que "les violations graves des lois de la guerre, telles que des attaques indiscriminées contre des civils avec une intention criminelle, constituent des crimes de guerre".