Stephen Hawking nos avisa del peligro

Llegan los robots asesinos

Guillermo Puche
10 febrero, 2017

Más de 20.000 científicos y expertos en tecnología ya se han sumado a la iniciativa promovida por Stephen Hawking y Noam Chomsky, entre otros, para alcanzar un acuerdo a escala mundial que limite el desarrollo de los llamados “robots asesinos”. Y es que el desarrollo y uso de la inteligencia artificial, que ya vive con nosotros, ofrece posibilidades tan buenas, como aterradoras.

Se denomina Inteligencia Artificial (I.A.) a la rama de la ciencia informática dedicada al desarrollo de agentes racionales no vivos, y está indisolublemente unida a la robótica.

Si solo lo has escuchado por las pelis de los últimos años, y para que nos hagamos una composición de lugar, los especialistas distinguen entre una I.A. “débil” (resuelve un problema concreto, como conducir un coche por ejemplo) y una I.A. “fuerte” (que trataría de conseguir una máquina con la capacidad de razonamiento y aprendizaje equiparable a la del ser humano).

Y no es cosa de ciencia ficción, lleva mucho tiempo entre nosotros. Tal vez el hito más llamativo que nos hizo tomar conciencia de su potencial fue cuando Deep Blue, la supercomputadora construida por IBM, realizó un jaque mate a Gari Kaspárov -campeón del mundo de ajedrez- el 17 de febrero de 1966.

En estos momentos, la inteligencia artificial es un hecho cotidiano en nuestra vida. Por ejemplo, cuando usamos el buscador de Google, éste se anticipa a nuestras peticiones: eso es inteligencia artificial. Pero también escribimos con un procesador de texto que corrige automáticamente nuestros errores ortográficos, o convertimos el teléfono móvil en una herramienta irrenunciable. Todas estas tecnologías se basan en sistemas de I.A., y nos facilitan muchísimo el día a día.
Las posibilidades son tan increíbles, que en Japón se ha inaugurado este año el primer hotel en el que el huésped verá solo a robots durante su estancia. Como nos indica el dueño del establecimiento en el siguiente video, si la iniciativa culmina con éxito, creará una cadena de hoteles absolutamente robotizados. Y anticipa igualmente que este establecimiento no será el único, porque, según augura, el fenómeno se expandirá a nivel mundial.

¿Te alojarías en un hotel donde solo serías atendido por robots?

Derechos de reproducción cedidos por  http://one.elpais.com/

Si bien el desarrollo de esta ciencia y su aplicación tecnológica ofrecen innumerables ventajas al ser humano: desarrollos informáticos de todo tipo, aplicaciones de servicios financieros, robots para realizar tareas penosas o peligrosas, o incluso simuladores para aviación o control aéreo, entre otras, una parte muy significativa de los fondos que la mayoría de los Estados dotan para estos programas tienen una finalidad militar. Y más concretamente, para el desarrollo de armas autónomas: plataformas que localicen, seleccionen y ataquen objetivos de forma independiente, sin intervención humana. Por desgracia, todas las grandes potencias están en ello.

IA denuncia

Imágen de la pelicula “Terminator”. Warner

Por este motivo, Stephen Hawking impulsó la firma de un documento de advertencia internacional, para advertir a la humanidad acerca de los enormes peligros que estas nuevas aplicaciones militares pueden tener en el futuro. Esta carta pública, presentada el 28 de julio de 2015 durante la inauguración del Congreso del IJCAI (International Joint Conference on Artificial Intelligence), celebrado en Buenos Aires, ya ha sido firmada por más de 20.000 científicos de todo el mundo.

La carta de Hawking solicita que se prohíba específicamente
el uso de la I.A. para el desarrollo de armas
que podrían funcionar “más allá
del control humano”.

Pero su actuación en este asunto no se ha limitado a promover ese manifiesto. En cada aparición pública Stephen Hawking, que abandera una auténtica lucha para advertir de este problema en el futuro, no deja de repetir el enorme peligro que puede implicar el desarrollo de esta nueva forma de tecnología armamentística, a la que ya se llama “robots asesinos”, como se puede ver en el siguiente video.

Derechos de reproducción cedidos por http://www.bbc.com/

El escrito firmado por todos estos científicos nos da una idea de que esta amenaza no es algo que ocurrirá dentro de muchos años. Uno de sus párrafos dice: “de no poner límites, es factible que en cuestión de años, no décadas, nos encontremos con equipos capaces de seleccionar, fijar y atacar objetivos sin ninguna intervención humana”.

Este modelo ya es operativo en el ejército USA. Se maneja a distancia, al igual que los drones

Este modelo ya es operativo en el ejército USA. Se maneja a distancia, al igual que los drones

La carta de los científicos finaliza de la siguiente manera: “La pregunta clave para la humanidad a día de hoy consiste en, o bien comenzar una carrera armamentística de armas basadas en inteligencia artificial, o bien prevenirla. Si cualquier potencia militar mayor impulsa el desarrollo de armamento autónomo, una carrera armamentística es virtualmente inevitable, y el final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana”.

Lamentablemente y pese al tiempo transcurrido, no se ha tomado ni una sola iniciativa real y eficaz para llegar a un acuerdo entre los diferentes países que permita establecer unos límites mínimos a la investigación en este campo. Simplemente, silencio…
¿Te parece una amenaza real estos desarrollos para el ser humano? ¿Crees que este tema no está siendo advertido en los medios? ¡¡¡Danos tu opinión!!!
Si quieres leer más sobre esta iniciativa, aquí puedes hacerlo (en inglés)

http://futureoflife.org/open-letter-autonomous-weapons

Deja un comentario

Tu dirección de correo electrónico no será publicada.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies