Análisis

De la ficción a la realidad

La ley no ha avanzado a la misma velocidad, lo que produce severos problemas en la regulación de la inteligencia artificial.

Por Juan V. Oltra


Vivimos en un momento sorprendente. La tecnología avanza a una velocidad cada vez mayor, las noticias en prensa y televisión se pueblan de descubrimientos increíbles, de la medicina a la informática. Tan pronto nos dicen que se ha recreado del cerebro de un neandertal como se nos da por hecho que en un par de años las calles de nuestras ciudades más pobladas las recorrerán coches autónomos, gobernados por una inteligencia artificial.

Es algo fenomenal que se produzcan desarrollos tecnológicos, que se hagan investigaciones científicas, ya que nos permitan mejorar nuestra calidad de vida. Siempre cabe la duda sobre si en algún aspecto resultan dañinos, por lo que como respuesta ante ese peligro nos escudamos en el derecho.

Hay, obviamente, un elemento crítico: el tiempo de adaptación del marco jurídico a la realidad se ha desbordado. Pensemos que desde que Gutenberg imprime su primer libro hasta que aparece el primer avance significativo, las prensas no manuales, pasan tres siglos y medio. Y aun pasa un siglo más hasta el siguiente desarrollo significativo: la rotativa continua. Sin embargo, si pensamos en la inteligencia artificial, desde que IBM lanza Deep Blue, el ordenador que ganó al ajedrez al campeón mundial Gary Kaspárov, hasta que A.L.I.C.E. se convierte en el chatbot (programa informático con el que se puede mantener una conversación, hoy muy utilizados por compañías de seguros y bancos) más humano, apenas pasan diez años. Diez años más tarde otro ordenador de IBM gana en el programa de preguntas y respuestas Jeopardy! frente a humanos. Y un lustro después un coche autónomo logró conducir sin asistencia humana durante 9 días por carreteras.

Hoy, vemos como la inteligencia artificial, inmovilizada en una máquina o dotada de brazos como robot, permite tanto atender a clientes sin intervención humana como participar en quirófanos. Y ya que hemos hablado de las leyes, tengamos en cuenta que en casos menores en algunos condados de EE.UU., el juez no es humano, sino una inteligencia artificial.

Sin embargo, la ley no ha avanzado a la misma velocidad, lo que produce severos problemas (no podemos hacer más que fijarnos en dos puntos clave, afectados por las tecnologías de la información: la propiedad intelectual, que sigue siendo regida en lo fundamental por una ley nacida en el siglo XIX –y así nos va-, y el retraso evolutivo de las leyes que cuidan de la protección de datos, que da como efecto carambola que la privacidad sea hoy un derecho fundamental al tiempo que se aproxima a ser una utopía). En el caso de la inteligencia artificial se han hecho algunos pinitos, destacando el informe con recomendaciones destinadas a la Comisión sobre normas de Derecho Civil que la Comisión de Asuntos Jurídicos del Parlamento Europeo votó en 2017.

La sorpresa aparece cuando en los principios generales de dicho informe aparecen las leyes de Asimov. Ya saben:

  1. Un robot no debe dañar a un ser humano, o, por falta de acción, dejar que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes de los seres humanos, excepto cuando tales órdenes sean incompatibles con la primera ley.
  3. Un robot debe proteger su propia existencia, excepto cuando tal autoprotección sea incompatible con la primera o la segunda ley.

Se añade una última: Un robot no hará daño a la humanidad ni permitirá que, por inacción, esta sufra daño.

Está bien. Desde el asiento de atrás del conocimiento no veo mal que se referencien obras literarias en normas jurídicas, en informes o dictámenes de la UE. De hecho, aparecen otras referencias clásicas al hablar de estos temas: del Frankenstein de Mary Shelley a los robots de Karel Čapek (de su obra de 1920 R.U.R. – Robots Universales Rossum). El problema es que esas tres leyes no parecían satisfacer a su propio creador. Así, en el apéndice a su relato “¿Qué es el hombre”, aparecida en 1974, el maestro de la ciencia ficción decía

“Parecía, sin embargo, que si me adentraba más hondamente en la cuestión de «¿Qué es el hombre, para tenerle en cuenta?», como pregunta dirigida a un robot, iba a alterar el sentido total de las tres leyes. Por lo tanto, siempre rehuía el tema. Pero ahora (…) yo estoy ya en mi última juventud. Las tres leyes me han prestado un gran servicio, seguro y rentable, durante treinta y cuatro años. Quizá es ya suficiente. De modo que cuando me pidieron que escribiese un relato de robots «definitivo», dejé escapar un largo suspiro y me enfrenté con la famosa cita bíblica (Salmos, 8:4).

Creo que estarán ustedes de acuerdo conmigo en que, una vez que he llevado el asunto hasta su conclusión última, posiblemente he destruido las tres leyes y me he cerrado a mí mismo las puertas para volver a escribir nunca una historia de robots positrónicos.”

Y es que en un relato hoy muy actual, que parte de la desconfianza del ser humano hacia las máquinas autónomas, descubre que las dos primeras leyes tienen demasiados agujeros. Y lo hace formulando preguntas que hoy, siguen sobre la mesa de los desarrolladores de software implicados en la inteligencia artificial, prácticamente en los mismos términos:

Si de la acción A se deduce un daño para un joven artista de talento, y de la acción B un daño equivalente para cinco personas ancianas, sin ningún mérito particular, ¿qué acción debería elegir?

En todo caso (el robot), haga lo que haga, lo hará siempre obedeciendo órdenes. ¿Ordenes de quién?

— De un ser humano.

— ¿De cualquier ser humano? ¿Cómo juzgar a un ser humano para saber si debe obedecérsele o no? ¿Qué es un hombre, para que haya que tenerle en cuenta, (…)? (…) ¿debe un robot obedecer las órdenes de un niño? ¿O de un idiota? ¿O de un criminal? ¿O de un hombre perfectamente honrado e inteligente, pero que resulta ser un inexperto y por lo tanto ignorante de las consecuencias que puede tener su orden? Y si dos seres humanos le dan al robot dos órdenes contradictorias, ¿cuál es la que debe seguir?

No quiero lanzar eso que ahora llaman spoiler y que de siempre se ha llamado destripe, les recomiendo leer el relato y horrorizarse ante su final. Solo les diré que, a pesar de estar escrito hace casi medio siglo, sigue siendo una lectura muy actual.

Y dado que la UE se fija precisamente en una piedra angular cuyo cantero desechó, no estaría de más que estuviésemos preparados, por si el final de la obra se repite con un escenario distinto.

 

Tema -

Reciba gratuitamente nuestras noticias en su correo electrónico

RecibA en Su e-mail todas las novedades
Ha podido leer este artículo gracias al esfuerzo de quiénes hacen posible TradicionViva, un espacio de análisis y debate lejos de los dogmas de la corrección política, que se sostiene gracias a la generosidad de sus lectores. Si quiere ayudarnos puede hacer un donativo en la Cuenta 0073/0100/52/0498126649 – IBAN ES5100730100520498126649 o realizando una donación pulsando aquí. También puede colaborar remitiéndonos sus colaboraciones, reportajes, artículos de opinión, ilustraciones, reseñas de libros, noticias de tu asociación … a nuestra dirección redaccion@tradicionviva.es.

 
Revista Reino de Valencia

Revista Reino de Valencia

REINO DE VALENCIA es una revista editada por los CC. CC. Aparisi y Guijarro, San Miguel, Domingo Forcadell y Polo y Peyrolón.

Añadir comentarios

Pulse aquí para comentar

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Descarga gratuita

Boletín mensual

Recibe gratis La Tradición de la Hispanidad

Mantenemos tu datos en privado.

Síguenos

¡SÍGUENOS EN NUESTRAS REDES SOCIALES Y ENTÉRATE DE TODO LO QUE SUCEDE EN LA HISPANIDAD TRADICIONALISTA!

Facebook

Publicidad