L’utilisation de l’intelligence artificielle (IA) dans la guerre a été révélée par une enquête de +972 Magazine et Local Call. Le système, appelé Habsora ou « l’Évangile » en anglais, utilise des technologies avancées pour obtenir des recommandations de ciblage plus rapidement qu’une équipe d’êtres humains. Mais ces avancées technologiques rendent-elles la guerre plus meurtrière ? Quel type d’informations entrent dans un système de ciblage militaire basé sur l’IA comme celui utilisé par Israël ?
Dans UpFront, la ingénieure en logiciel et membre de la coalition Stop Killer Robots, Laura Nolan, discute avec Marc Lamont Hill de l’utilisation des systèmes IA dans la guerre. Selon Nolan, « la responsabilité ne peut pas être transférée à un système logiciel ». Elle souligne que les systèmes IA sont conçus par des êtres humains et que ces systèmes sont soumis aux mêmes erreurs et biais que les êtres humains. Elle ajoute que les systèmes IA peuvent même amplifier ces erreurs et biais.
Nolan souligne également que les systèmes IA peuvent être utilisés pour des fins militaires, mais qu’ils peuvent également être utilisés pour des fins pacifiques. Elle souligne que les systèmes IA peuvent être utilisés pour aider à résoudre des problèmes tels que la faim et la pauvreté. Elle souligne également que les systèmes IA peuvent être utilisés pour aider à prévenir les conflits et à résoudre les conflits existants.
Nolan conclut en disant que les systèmes IA peuvent être utilisés à des fins positives et négatives, et que c’est aux êtres humains de décider comment les utiliser. Elle souligne que les êtres humains doivent être responsables de leurs actions et de leurs décisions, et que la responsabilité ne peut pas être transférée à un système logiciel.
L’utilisation de l’intelligence artificielle (IA) dans la guerre a été révélée par une enquête de +972 Magazine et Local Call. Le système, appelé Habsora ou « l’Évangile » en anglais, utilise des technologies avancées pour obtenir des recommandations de ciblage plus rapidement qu’une équipe d’êtres humains. Mais ces avancées technologiques rendent-elles la guerre plus meurtrière ? Quel type d’informations entrent dans un système de ciblage militaire basé sur l’IA comme celui utilisé par Israël ?
Dans UpFront, la ingénieure en logiciel et membre de la coalition Stop Killer Robots, Laura Nolan, discute avec Marc Lamont Hill de l’utilisation des systèmes IA dans la guerre. Selon Nolan, « la responsabilité ne peut pas être transférée à un système logiciel ». Elle souligne que les systèmes IA sont conçus par des êtres humains et que ces systèmes sont soumis aux mêmes erreurs et biais que les êtres humains. Elle ajoute que les systèmes IA peuvent même amplifier ces erreurs et biais.
Nolan souligne également que les systèmes IA peuvent être utilisés pour des fins militaires, mais qu’ils peuvent également être utilisés pour des fins pacifiques. Elle souligne que les systèmes IA peuvent être utilisés pour aider à résoudre des problèmes tels que la faim et la pauvreté. Elle souligne également que les systèmes IA peuvent être utilisés pour aider à prévenir les conflits et à résoudre les conflits existants.
Nolan conclut en disant que les systèmes IA peuvent être utilisés à des fins positives et négatives, et que c’est aux êtres humains de décider comment les utiliser. Elle souligne que les êtres humains doivent être responsables de leurs actions et de leurs décisions, et que la responsabilité ne peut pas être transférée à un système logiciel. Elle souligne également que les systèmes IA peuvent être utilisés pour aider à réduire la violence et à promouvoir la paix et la justice.