Más sobre Inteligencia Artificial…

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

 

Ya antes he mencionado la película “Toys” (con Robin Williams, 1992) en la que se pretendía que niños (hoy hablaríamos de “millenials”) usaran juegos de vídeo para controlar armas de guerra en situaciones reales. La idea era simple: un niño jugando, no tiene escrúpulos morales en “matar enemigos ni producir daños colaterales”, por lo que si –y sin saberlo- jugaran “juegos de guerra”, probablemente serían buenos controladores de “drones” en una batalla real. La idea se hace aún más presente si, sacando a los niños, se pone a una inteligencia artificial en el proceso (el riesgo de “skynet” en la película “Terminator”). Pero hasta ahora, se presuponía que eso era parte de la ficción distópica, más una paranoia tecnológica que otra cosa.

Pero el mundo ha avanzado. Y la tecnología de la inteligencia artificial está llegando al punto de controlar elementos del mundo real (por ejemplo, los vehículos sin conductor de Google). Y lo que se veía como ficción se acerca a la realidad.

Vehículo autónomo de Google

Esa es la causa de que ahora, más de una centena de científicos y empresarios del área del software, específicamente ligados a la Inteligencia Artificial, y reunidos en la conferencia sobre el tema que se está desarrollando en Australia, estén solicitando a la ONU que se prohíba expresamente el desarrollo de “soldados robots” (en cualquiera de sus formas posibles).

Cito: “Las armas letales autónomas amenazan con convertirse en la tercera revolución en la guerra. Una vez desarrolladas, permitirán que los conflictos armados se luchen a una escala mayor que nunca”.

Ejemplo de arma letal autónoma

Desde la época de Alan Turing, que todo el desarrollo de la Inteligencia Artificial ha tenido un fuerte enlace con las necesidades de la guerra. Turing la imaginó como un aliado para decodificar los mensajes encriptados de los nazis y prevenir los ataques sobre Inglaterra. El auto de Google, si bien es producto de una competencia ideada por la NASA para la exploración espacial, es de interés para todo comandante que tiene que mandar un vehículo a una zona de conflicto (previniendo bajas). Y los drones (aún controlados por humanos) si bien hasta ahora hacen labores de “vigilancia”, perfectamente podrían incluir armamento… Y la razón para hacerlos autónomos, sería la misma del auto de Google: mejorar los tiempos de respuesta (el tiempo que demora transmitir datos y recibir instrucciones).

Es más que necesario que la ONU declare inaceptables ese tipo de armas. Y que los gobiernos, le hagan caso.

Nota del Editor: en el siguiente Link pueden leer un interesante análisis al respecto: http://www.juspax-es.org/products/los-peligros-de-los-sistemas-de-armas-autonomos-letales/

Los comentarios están cerrados.

Comentarios recientes