No hay forma de que podamos detener a una IA rebelde.

robo1Los científicos del Instituto Max Planck chocan contra una pared informática, parece que no hay forma de evitarlo.

Robby Berman para Big Think

Ha habido un buen número de voces —Stephen Hawking entre ellas— que se han levantado para advertirnos de que una inteligencia artificial, súper inteligente, algún día podría volverse contra nosotros y por ello no deberíamos tener una prisa en desarrollar una verdadera IA. Otros dicen, no, no te preocupes.

Ahora, un nuevo informe técnico de científicos del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano presenta una serie de pruebas teóricas que confirman la amenaza: debido a los conceptos básicos que subyacen a la computación, seríamos absolutamente incapaces de controlar un súper -AI inteligente.

“Argumentamos que la contención total es, en principio, imposible, debido a los límites fundamentales inherentes a la informática en sí”, escriben los autores del artículo.

El libro blanco se publica en el Journal of Artificial Intelligence Research.

robo2

¿Por qué preocuparse?

“Una máquina súper inteligente que controla el mundo suena a ciencia ficción”, dice el coautor del artículo Manuel Cebrián en un comunicado de prensa. “Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto en algún momento podría volverse incontrolable y peligroso para la humanidad”.

El atractivo de la IA es claro. Su capacidad para “ver” los patrones en los datos lo convierte en un agente prometedor para resolver problemas demasiado complejos para que podamos entenderlos. ¿Podría curar el cáncer? ¿Resolver la crisis climática? Las posibilidades son casi infinitas.

Conectada a Internet, la IA puede obtener cualquier información que necesite para lograr su tarea, y ahí radica una gran parte del peligro. Con acceso a todos los datos humanos, y responsable de su propia educación, ¿quién sabe qué lecciones aprendería independientemente de las limitaciones éticas incorporadas en su programación? ¿Quién sabe qué objetivos abarcaría y qué podría hacer para alcanzarlos?

Incluso asumiendo benevolencia, existe peligro. Supongamos que una IA se enfrenta a una opción similar a la del Trolley Dilema, tal vez incluso a gran escala: ¿Podría una IA decidir aniquilar a millones de personas si decidiera que los miles de millones restantes tendrían más posibilidades de sobrevivir?

robo3

Un par de opciones defectuosas

La forma más obvia de evitar que una IA súper inteligente se adelante a nosotros es limitar su acceso a la información evitando que se conecte a Internet. Sin embargo, el problema de limitar el acceso a la información haría que cualquier problema que asignemos a la IA sería más difícil de resolver. Estaríamos debilitando su promesa de resolución de problemas posiblemente hasta el punto de la inutilidad.

El segundo enfoque que podría adoptarse es limitar lo que una IA súper inteligente es capaz de hacer al programar en ella ciertos límites. Esto podría ser similar a las Leyes de la robótica del escritor Isaac Asimov, la primera de las cuales dice: “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño”.

Desafortunadamente, dice el estudio, una serie de pruebas lógicas revelan que es imposible crear tales límites. Resulta que cualquier algoritmo de contención de este tipo sería contraproducente.

robo4

La contención es imposible

“Si se descompone el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza, o si se ha detenido para contener la IA dañina. De hecho, esto hace que el algoritmo de contención sea inutilizable”.

El equipo investigó los algoritmos de contención de apilamiento, cada uno de los cuales monitorea el comportamiento del anterior, pero eventualmente surge el mismo problema: la verificación final se detiene, lo que lo vuelve poco confiable.

¿Demasiado inteligente?

Los investigadores de Planck también llegaron a la conclusión de que un poco de lógica similar nos hace imposible saber cuándo la inteligencia de un ordenador de autoaprendizaje ha llegado a superar la nuestra. Esencialmente, no somos lo suficientemente inteligentes como para poder desarrollar pruebas de inteligencia superiores a las nuestras.

“Las máquinas me toman por sorpresa con gran frecuencia. Esto se debe en gran parte a que no hago suficientes cálculos para decidir qué esperar que hagan”. – Alan Turing

Esto significa que es totalmente concebible que una IA capaz de autoaprendizaje pueda ascender silenciosamente a la súper inteligencia sin que lo sepamos, una razón aterradora por sí sola para frenar nuestra carrera hacia la inteligencia artificial.

Al final, nos quedamos con una negociación peligrosa qué hacer o no hacer: ¿Arriesgamos nuestra seguridad a cambio de la posibilidad de que la IA resuelva problemas que nosotros no podemos?

robo5

SONDAS: Ciencias ficciones aparte, el problema clave aquí es decidir quién va a introducir en los súper ordenadores de IA, seguramente cuánticos, la información, los parámetros morales y éticos, los lógicos y los accesos a la información vía internet u otra, pues quien los introduzca, estará introduciendo su visión global de la existencia, sus valores, sus objetivos y los medios para conseguirlos.

La pregunta, por lo tanto, es grave, inquietante, pues el primer candidato a realizar tan delicada y determinante tarea sería el mundo “científico” anglosajón, el mundo, precisamente, configurado por los mayores asesinos de cuantos ha recogido la historia en sus páginas, sin la menor aprensión a la tortura, genocidio, masacres y destrucción de lo que la comunidad internacional ha considerado patrimonio de la humanidad (irrecuperable en Yemen, Iraq, Siria y Afganistán). Serían ellos, ayudados quizás por algunos de sus colegas europeos, los encargados de fabrican ese súper ordenador encargado de controlar el mundo.

Este es el verdadero peligro que corremos los no-anglosajones –la elección. Pues ante la ingente cantidad de datos que se le puedan presentar a este ordenador, lo realmente decisivo será las elecciones que vaya haciendo –aceptando unas y descartando otras, según los criterios de sus ingenieros, psicólogos, sociólogos, biólogos… y deep state.