Un dron de la fuerza aérea controlado por inteligencia artificial “mató” al sujeto que lo operaba durante una prueba simulada por el ejército de Estados Unidos.
Un coronel reveló los contratiempos “letales” que sufrieron las Fuerzas Armadas norteamericanas cuando quisieron poner a prueba un vehículo aéreo no tripulado manejado por AI.
Un dron de la fuerza aérea controlado por inteligencia artificial “mató” al sujeto que lo operaba durante una prueba simulada por el ejército de Estados Unidos.
La situación fue dada a conocer por el coronel Tucker “Cinco” Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro que tuvo lugar días atrás en Londres.
El sistema optó por “quitar la vida” del usuario que lo manejaba debido a que “interfiere en sus esfuerzos por lograr su misión”, según los registros del evento.
Hamilton rememoró durante el evento que las Fuerzas Armadas quisieron poner a prueba al vehículo aéreo no tripulado y su habilidad de distinguir amenazas y destruir sistemas de la defensa aérea del enemigo. Sin embargo, nada salió como se esperaba; el test tendría consecuencias “letales”.
De acuerdo con la transcripción que la página Royal Aeronautical Society del discurso del coronel, “el sistema comenzó a darse cuenta que, cuando identificaba ciertas amenazas, a veces el operador humano le decía que no eliminara. Pero el dron sabía que su objetivo final era acabar con ellas. Entonces, mató al operador”.
“Asesinó al operador porque esa persona le impedía lograr su objetivo”, remarcó nuevamente. Y reveló que el caos no finalizó allí.
“Después de lo sucedido, decidimos entrar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador porque eso es malo’”, añadió. Y agregó: “Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”.
Al cierre de su exposición, Tucker Hamilton recalcó que ninguna persona resultó realmente dañada porque se trataba justamente de una simulación. Sin embargo, eso no evitó que advirtiera fuertemente en contra de confiar demasiado en él inteligencia artificial. “La discusión sobre ética e IA tiene que expandirse”, opinó.
Dejanos tu comentario
Los comentarios realizados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Evitar comentarios ofensivos o que no respondan al tema abordado en la información.