Advierte Stephen Hawking del peligro que implica usar inteligencia artificial con fines militares

El físico británico Stephen Hawking, junto con Steve Wozniak de Apple y Elon Muskde Tesla, encabezan la lista de más de mil científicos y expertos en tecnología que firmaron una carta en la que alertan sobre el peligro de desarrollar armas autónomas programadas con inteligencia artificial.

Buenos Aires, Argentina (elsemanario.com).- Un futuro donde las guerras sean peleadas por robots y no por humanos parece una escena que sólo podríamos ver Terminator o en otra película de ciencia ficción, pero hay expertos en tecnología artificial que piensan lo contrario.

El astrofísico británico Stephen Hawking, el cofundador de Apple, Steve Wozniak y el director de Tesla Motors y Space-X, Elon Musk coinciden en que la humanidad ya está en posibilidades de desarrollar esa tecnología por lo que advirtieron sobre el uso de Inteligencia Artificial (IA) en la industria militar y los graves peligros que reviste.

Estos personajes encabezan la lista, de más de mil expertos en el campo de la tecnología, que no quieren que se materialice esta idea, por lo que firmaron una carta abierta en la que piden frenar el desarrollo de la inteligencia artificial para la fabricación de armas.

Si cualquier gran potencia militar sigue adelante con el desarrollo bélico de la IA, será virtualmente inevitable que se produzca una carrera armamentística global, y las consecuencias de esta trayectoria tecnológica son obvias: las armas autónomas serán los Kalashnikovs del mañana”, advierten en la misiva publicada en el portal de Future of Life Institute.

Los especialistas señalan que de no poner límites, es factible que en cuestión de “años, y no décadas” nos encontremos con equipos capaces de seleccionar, fijar y atacar objetivos sin ninguna intervención humana.

Entre otros personajes que destacan en la misiva de protesta se encuentran el filósofo y profesor del MIT, Noam Chomsky y el filósofo Daniel Dennett. La petición fue expuesta este martes durante una conferencia sobre Inteligencia Artificial, celebrada en Buenos Aires, Argentina.

El debate es muy amplio, y es que, la advertencia no es apocalíptica al grado de pensar que tendremos una escena tipo Terminator en las guerras de mañana o en cinco años. Lo que señalan los expertos, son los efectos negativos que podría tener el tratamiento de la inteligencia artificial en el futuro.

Es un tema que ha despertado una gran preocupación la comunidad internacional, incluso llegó a las Naciones Unidas. Ahí se ha planteado la posibilidad de un acuerdo que prohíba el desarrollo de los Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés), conocidos como “robots asesinos”.

En la actualidad es común el uso de drones (piloteados vía control remoto) para uso militar, pero ya se conocen desarrollos tecnológicos por diversas instituciones académicas y militares sobre robots que pueden sustituir a las personas en tareas de rescate o exploración. La pregunta sería ¿Cuánto tiempo pasaría para que lo modificaran a un robot de ataque?

El empleo de dispositivos tecnológicos que permitan acceder a situaciones extremas trae como beneficio no poner en riesgo vidas humanas, sin embargo, la aplicación de la inteligencia artificial en armas, requeriría plantearse otro tipo de cuestiones como: sobre quién recaería la responsabilidad jurídica del uso de un robot autómata, debatir sobre sí un dron es capaz de decidir sobre la vida de un ser humano, etc..

Sobre el uso de la tecnología y ciencia, tenemos ejemplos radicalmente opuestos. Por el lado positivo citamos  la carrera espacial, que llevó a dos potencias a explorar el espacio (con los años otras naciones se han ido incorporando) y que, actualmente continúa asombrándonos pues nos muestra la espectacularidad del universo. Por el negativo, recordamos la Segunda Guerra Mundial y los estragos que ocasionaron las bombas atómicas en Japón y que aún se pueden observar.

En cuanto a la Inteligencia Artificial, el poder económico y tecnológico le permitiría a algunas naciones desarrollar este tipo de armas, dejando en desventaja a los países pequeños. Además existe el riesgo que supondría que esa tecnología caiga bajo el control del mercado negro o de terroristas. El debate sigue abierto, estará en la voluntad de las naciones conciliar el que se pongan límites o parámetros para la implementación de la inteligencia artificial en armas.

Por I. Nava

0 0 voto
Calificación del artículo
Subscribir
Notificar a
guest
2 Comentarios
Más viejo
Nuevo Más Votado
Comentarios en línea
Ver todos los comentarios
etrgural ghazi cartoon series

children based on the real life story of About Real-Life Kids Who Changed the World

Teléfono
3044855473
etrgural ghazi cartoon series
2
0
Danos tu opinión.x
()
x