Guterres rechaza delegar decisiones de vida o muerte a algoritmos en Gaza.
El secretario general de la ONU dijo el viernes que estaba “profundamente preocupado” por los informes de que Israel estaba utilizando inteligencia artificial (IA) para identificar objetivos en Gaza, y rechazó la idea de que “decisiones de vida o muerte” se deleguen en algoritmos.
“Estoy profundamente preocupado por las informaciones según las cuales la campaña de bombardeos del ejército israelí incluye la inteligencia artificial como herramienta para identificar objetivos, en particular en zonas residenciales densamente pobladas, lo que provoca un elevado número de víctimas civiles”, declaró Antonio Guterres a la prensa.
“Ninguna parte de las decisiones de vida o muerte que tienen un impacto en familias enteras debería delegarse al frío cálculo de los algoritmos”, insistió.
Una investigación publicada por +972 Magazine y Local Call, y recogida por varios medios estadounidenses esta semana, describe la existencia de un programa del ejército israelí llamado “Lavender” que utiliza inteligencia artificial para identificar objetivos en Gaza, con un cierto margen de error.
“Llevo años advirtiendo sobre los peligros de convertir la inteligencia artificial en armas y reducir el papel esencial de la intervención humana”, subrayó Guterres. “La IA debe utilizarse como una fuerza para el bien, en beneficio del mundo, y no contribuir a la guerra a nivel industrial”, añadió.
EFE