14.9 C
Paris
dimanche, avril 14, 2024

Usine d’assassinat de masse alimentée par l’IA d’Israël

L’utilisation de l’intelligence artificielle‌ (IA) dans la guerre a été révélée par une​ enquête de +972 Magazine et Local Call. Le système, appelé Habsora ou « l’Évangile » en ⁤anglais,‍ utilise des technologies avancées pour obtenir des recommandations de ciblage plus rapidement ‍qu’une équipe ‍d’êtres humains. Mais ces avancées technologiques rendent-elles la guerre plus meurtrière ⁣?⁤ Quel type⁢ d’informations entrent dans un système de ciblage militaire basé sur l’IA comme celui utilisé par Israël ?

Dans UpFront, la ingénieure‍ en logiciel⁣ et ⁢membre de la coalition Stop Killer Robots, Laura Nolan, discute avec Marc Lamont Hill de ​l’utilisation des systèmes⁢ IA‍ dans​ la‍ guerre. Selon Nolan, « la responsabilité ne peut pas être transférée à un système logiciel ​». Elle souligne que les systèmes IA sont conçus par des êtres humains et que ces ⁢systèmes sont soumis aux​ mêmes erreurs et biais que les êtres humains. Elle ajoute que ⁢les systèmes IA peuvent‌ même amplifier ces erreurs ​et biais.

Nolan souligne également⁣ que les systèmes IA ⁤peuvent⁣ être‌ utilisés pour des ‍fins militaires, mais qu’ils peuvent également‌ être utilisés pour des ⁣fins pacifiques.⁤ Elle souligne que ⁣les⁣ systèmes IA peuvent être ⁣utilisés pour aider à résoudre des problèmes tels que la faim et la‍ pauvreté. Elle ​souligne également que les systèmes IA peuvent être ​utilisés pour aider à‌ prévenir les conflits et à résoudre les conflits existants. ⁣

Nolan conclut en disant ⁢que les systèmes IA peuvent être utilisés à des fins positives et négatives, et⁤ que c’est ⁢aux​ êtres humains de décider comment les utiliser. Elle souligne que les êtres ⁢humains ⁢doivent⁣ être responsables de leurs actions et de leurs décisions,⁤ et que la responsabilité ne peut⁢ pas être​ transférée à ‍un​ système logiciel.

L’utilisation de l’intelligence artificielle (IA) dans la guerre a été révélée par une enquête de +972 ‌Magazine et Local Call. Le système, appelé Habsora ou⁤ « l’Évangile » en anglais, ‌utilise des technologies avancées pour obtenir⁣ des recommandations de ciblage plus rapidement qu’une équipe d’êtres humains. Mais ces‌ avancées technologiques ⁢rendent-elles⁢ la guerre plus meurtrière ? Quel type d’informations entrent dans un système de ciblage militaire basé sur l’IA comme celui ​utilisé​ par Israël ?

Dans UpFront, la ingénieure‍ en logiciel et membre de⁤ la coalition Stop Killer Robots, Laura Nolan, discute avec Marc Lamont Hill de l’utilisation des systèmes IA dans⁣ la guerre. Selon Nolan, « la responsabilité ‌ne peut pas être transférée à un système logiciel ».⁤ Elle souligne que⁢ les systèmes IA sont conçus par des êtres humains et que ces systèmes sont soumis aux mêmes erreurs‌ et biais que les êtres ⁤humains.⁢ Elle ajoute‍ que les systèmes IA ‌peuvent même amplifier ces erreurs et biais.

Nolan souligne également que les systèmes ​IA peuvent être utilisés pour des fins militaires, mais qu’ils peuvent également être utilisés pour des fins⁤ pacifiques. Elle souligne que les⁣ systèmes IA peuvent être utilisés pour aider à résoudre des ‌problèmes tels que la faim ‍et la pauvreté. Elle souligne ⁢également que les systèmes IA ‍peuvent être utilisés pour aider à prévenir les conflits et à résoudre les conflits existants.‌

Nolan conclut en disant que les systèmes IA peuvent être utilisés à des fins positives et négatives, ‌et que c’est aux êtres humains de décider comment les utiliser. Elle souligne ⁣que les⁤ êtres humains doivent être responsables de leurs actions et de leurs décisions, et que la responsabilité ne‍ peut pas être transférée à un système‌ logiciel. Elle souligne également que les systèmes IA peuvent être utilisés pour aider à réduire ​la violence et ⁣à promouvoir la paix et ​la​ justice.

Derniers articles
Autres articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici