La aparición y la multiplicación de robots y otros sistemas autónomos en nuestra vida cotidiana es un cambio más sustancial de lo que podría parecer. Europa empieza a plantearse propuestas para regular este sector en pleno auge. La expansión de la inteligencia artificial (IA) y de los sistemas inteligentes, autónomos y con capacidad de decisión, replantea un abanico de problemas clásicos propios de la filosofía, relacionados con los dilemas morales.

El experimento clásico del tranvía, en estudios de ética y moral, se convierte ahora en una realidad concreta. Un tranvía corre fuera de control y puede matar a cinco personas o a una dependiendo si cambia o no de vía. Un botón permite este cambio. ¿Cuál sería la opción más ética? ¿Qué debería hacer una máquina en este caso? ¿Cómo debe un programador de AI dirigir este sistema? Ya son muchos los estudios que ponen de relieve las grandes contradicciones morales que pueden darse con los coches autónomos. ¿En qué casos podría estar justificado que una máquina tuviese derecho a matar?

El 7 de julio del 2016 en EEUU se dió una situación que implicaba un robot utilizado para matar. En concreto, la policía usó por primera vez un robot teledirigido para matar a una persona. En este caso podemos considerar que el robot fue utilizado como un arma, ya que fue tele-operado por un humano, caso que se acerca al uso de drones para matar, y que no es nuevo. Durante la última década, la expansión del uso de vehículos no tripulados armados ha cambiado la forma de hacer la guerra, trayendo nuevos desafíos morales, éticos y legales.

Son armas controladas por humanos, pero los rápidos avances en la tecnología permiten imaginar a muy corto plazo el desarrollo de armas totalmente autónomas. Capaces de elegir su objetivo y disparar a blancos que son seres humanos, sin ninguna intervención humana.

La campaña ‘Stop Killer Robots!’ promueve la prohibición mundial de las ‘armas autónomas’ y alerta que esta revolución en armamento se corresponde con una etapa de la humanidad comparable a la del descubrimietno de la pólvora o de las armas nucleares.

Mientras científicos de la talla de Elon MuskStephen Hawking o Noam Chomsky insisten en que es necesario darle más importancia a la ética y reflexionar sobre la seguridad antes de avanzar, algunas grandes empresas ya trabajan en algunos proyectos. Google compró ocho compañías de robótica en seis meses en el año 2013.

CÓDIGOS DE CONDUCTA

De la misma forma que se ha establecido un primer código de conducta para el uso de la realidad virtual, es positivo que en la actualidad la Unión Europea busquen definir la regulación de la utilización de la inteligencia artificial y los robots. Según Stephen Hawking: «Si bien el desarrollo de la inteligencia artificial podría ser el evento más grande en la historia humana, por desgracia podría también ser el último».

Fuente: El Periódico

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s