Alertan sobre carrera de armas que usan inteligencia artificial

Cientos de personalidades, como Noam Chomsky y Stephen Hawking, firman carta

En manos de cualquier potencia militar el punto final de ese avance tecnológico se convertirá en las AK-47 del mañana, advierten

A diferencia de las nucleares, la producción de robots asesinos no requiere materia prima costosa, lo que permitirá su fabricación en masa, destacan

Londres, Científicos y expertos en tecnología, como Stephen Hawking y el cofundador de Apple Steve Wozniak, alertaron el martes sobre una carrera global de armas que emplean inteligencia artificial.

En una carta abierta firmada por cientos de personas, los expertos alegan que si cualquier potencia militar importante sigue adelante con el desarrollo de armas autónomas, una carrera armamentista global es prácticamente inevitable, y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikov (AK-47) del mañana

Los firmantes incluyen al lingüista Noam Chomsky, profesor emérito del Instituto Tecnológico de Massachusetts; Elon Musk, director general de Tesla Motors, y Demis Hassabis, fundador de Google DeepMind.

Algunos expertos son partidarios de los llamados robots asesinos, y opinan que su uso en el campo de batalla podría salvar vidas. Esos dispositivos aún no están en operación y faltan años para que lo estén.

Sin embargo, los científicos advirtieron que, a diferencia de las armas nucleares, éstos no requerirán materia prima costosa o difícil de obtener, lo cual permitirá su fabricación en masa.

Cuestión de tiempo que aparezcan en el mercado negro

Será cuestión de tiempo para que aparezcan en el mercado negro y en manos de terroristas, dictadores que quieren incrementar el control de su población, caudillos que desean perpetrar limpieza étnica, etcéte, dice la carta.

Foto

El físico británico Stephen Hawking durante su participación en una conferencia de prensa para anunciar una nueva iniciativa científica global para buscar vida civilizada en el universo, realizada en Londres el 20 de julio.

Por eso creemos que una carrera armamentista militar con inteligencia artificial no beneficiaría a la humanidad concluye la misiva.

Hay muchas maneras en que la inteligencia artificial puede volver el campo de batalla más seguro para los seres humanos, en particular los civiles, sin crear nuevas herramientas para matar gente.

Son muchos los argumentos pronunciados en favor y en contra de las armas autónomas, que se definen como aquellas capaces de seleccionar de manera independiente los objetivos y atacarlos. Entre éstas no se incluyen los drones militares por control remoto.

Sustituir soldados por máquinas puede suponer menos víctimas mortales, pero también reduce el umbral que hay que cruzar para entrar en batalla, señala el texto, emitido mediante el instituto Future Life.

Emprender una carrera armamentista militar basada en la inteligencia artificial es una mala idea que debería evitarse mediante una prohibición de las armas autónomas más allá del control humano, añade la misiva.

Los firmantes incluyen a otras personalidades reconocidas del mundo académico y el ámbito empresarial que estudian la inteligencia artificial, la idea de que los sistemas computarizados pueden realizar tareas que requieren inteligencia humana, como traducción de idiomas o percepción visual. También se sumaron filósofos, historiadores, sociólogos, genetistas y otros profesionales.

Fuente: http://www.jornada.unam.mx/2015/07/29/ciencias/a02n1cie,  Ap ,   Dpa , virtualmenteposible.blogspot.com,  Foto Xinhua

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s