Cuando la inteligencia artificial tome el control

El especialista en neurociencia Anders Sandberg habla sobre las dificultades y los riesgos inherentes a nuestra marcha constante hacia una era en la que la inteligencia de las máquinas supere la de los seres humanos.

¿Cómo será la vida en los años venideros? Aunque nadie puede asegurarlo, las tendencias actuales en materia de tecnología sugieren la inevitabilidad de un papel protagónico mucho más importante por parte de la inteligencia artificial (IA). ¿Qué significará eso?

Anders Sandberg, investigador asociado principal del Instituto para el Futuro de la Humanidad dependiente de la Universidad de Oxford, tiene experiencia profesional en neurociencia computacional e ingeniería médica. Con interés en el mejoramiento cognitivo, la inteligencia colectiva, la neuroética y el riesgo catastrófico global, se encuentra en buena posición no solo para evaluar, sino también para asesorar en cuanto a las habilidades —a corto y largo plazo— de nuestras tecnologías futuras.

 

Él habló con el editor de Vision David Hulme acerca de las dificultades y los riesgos en relación con este tema.

 

El trabajo de Anders Sandberg en el Instituto para el Futuro de la Humanidad se centra en la gestión de riesgos de baja probabilidad y alto impacto relacionados con la inteligencia artificial y otras tecnologías en desarrollo.

Foto: Future of Humanity Institute (Instituto para el Futuro de la Humanidad)

DHUno de sus colegas, Nick Bostrom, señaló: «La transición a la era de la inteligencia de la máquina se ve como un acontecimiento transcendental; y uno, a mi ver, asociado con un importante riesgo existencial». De ser así, ¿cuál es el riesgo? y ¿es existencial?

ASUno puede observar la transición de la inteligencia desde una etapa prehumana hasta la humana, y ver las consecuencias para el mundo. En estos momentos estamos controlando todos los ecosistemas del planeta y, en ocasiones, con una ejecución sumamente deficiente. Actualmente, nuestros amigos simios están a nuestra merced, y nosotros estamos transformando el clima de maneras que ellos ni siquiera pueden comprender. En el supuesto de alcanzar una inteligencia artificial con capacidades equiparables a las de la inteligencia humana, podría producirse una transición drástica en la situación global, la cual, previsiblemente, no resultaría favorable para los intereses de la especie humana.

DHStephen Hawking y sus colegas han escrito: «El éxito en la creación de la IA sería el mayor acontecimiento de la historia humana. Desgraciadamente, podría también ser el último, a menos que aprendamos a evitar los riesgos».

ASEsto se remonta a un artículo clásico del experto en estadística  y científico computacional I. J. Good, publicado en la década de 1960, titulado Speculations Concerning the First Ultraintelligent Machine (Especulaciones con respecto a la primera máquina ultrainteligente). En dicho texto, Good sugería la posibilidad de diseñar máquinas capaces de desarrollar versiones superiores de sí mismas. Asimismo, señalaba que este avance constituiría la última invención necesaria, dado que los sistemas serían capaces de generar cualquier solución requerida por la humanidad. No obstante, añadía de manera profética: "siempre y cuando la máquina sea lo suficientemente dócil para indicarnos cómo mantenerla bajo control". El problema fundamental reside, por supuesto, en la capacidad de controlar una entidad superior, o incluso en la dificultad de dictar directrices que no sean susceptibles de interpretaciones erróneas o que no deriven en consecuencias imprevistas. Este constituye un desafío de alta complejidad.

DH¿En qué momento del desarrollo de una aplicación de IA deberían los diseñadores considerar las aplicaciones malintencionadas de su investigación?

ASAl pretender crear una aplicación de IA —o para el caso, cualquier otra aplicación— sin duda habría que pensar largo y tendido sobre cómo se podría usar indebidamente: «¿Cómo alguien con malas intenciones o de poco entendimiento podría usar esto para el mal?» —o incluso— «¿cómo podrían darse, accidentalmente, intenciones conducentes a malas consecuencias?». Y habría que empezar muy, muy temprano, porque, tal como en lo referente a la seguridad, esto no es algo que se pueda añadir más tarde. Una vez creado el núcleo de su programa, sería muy difícil corregirlo.

DH¿Qué impide que las máquinas realmente tomen el control?

ASEn estos momentos, las máquinas no toman el control del mundo a la manera en que sucede en una película porque no pueden gestionar nada; no planean ni desempeñan acción alguna. Con todo, hasta cierto punto, es evidente que las máquinas ya han tomado el control del mundo por lo tan dependientes de ellas que nos hemos vuelto y porque realmente no podemos evitarlo. A la larga, se puede esperar que las máquinas tengan mucha más injerencia y mucha más habilidad para cambiar el mundo. Para entonces, podrían tomar el control de manera accidental, o simplemente porque alguien les diera una orden que ellas interpretaran en un sentido que prácticamente las condujera a tomar el control del mundo.

DHEntonces, si algo se saliera de control —digamos, por una especie de decisión de la IA de desconectar la red de suministro eléctrico para preservar su propia integridad— ¿tendrían aún los seres humanos el poder de anular la mala decisión informática?

ASPor lo general, se dice que si una máquina se porta mal, basta con desenchufarla. Pero ¿ha intentado usted desenchufar Internet? ¿ha tratado de desenchufar el mercado de valores? Hay muchas máquinas que ya poseemos cuya desconexión nos resulta inviable porque están demasiado distribuidas o son demasiado esenciales.

«Podría perfectamente ocurrir que las formas de inteligencia artificial que decidamos utilizar estén tan integradas que no podamos desconectarlas.»

Anders Sandberg

Pero podemos contar aún con otras maneras de controlarlas. De nuevo, es cosa de diseño. Un diseñador sensato crea un sistema que es a prueba de fallas; cuando algo sale mal, se puede desactivar cuidadosamente, o el sistema en sí deja de hacer lo que le hizo salirse de control. Pero eso requiere un diseño cuidadoso. Y, según se desprende de programas informáticos, muchos de nosotros, los seres humanos, no somos muy cuidadosos como diseñadores.

DHUno de los riesgos inherentes a la aplicación de la IA en cuanto a la toma de decisiones es que, aun cuando puede que sea objetiva, es posible que no tenga la perspicacia o el discernimiento adecuado para decidir, por ejemplo, si una persona debe ir presa o no. En un caso así, ¿sería la IA capaz de mostrar misericordia o empatía?

ASNormalmente, cuando hablamos de misericordia, nos referimos a un concepto del término relativamente rico que implica lograr realmente entender a alguien, tener suficiente empatía para ponerse en sus zapatos y luego decidir: «Voy a perdonar a esta persona debido a su situación, debido a su rol».

Eso puede ser muy difícil para una IA; pero me parece lógicamente posible. Creo, realmente, que no hay nada que la mente humana pueda concebir que una máquina no pueda hacer. Con todo, eso no va a ser fácil de lograr. Es mucho más fácil tener un concepto de misericordia menos riguroso, según el cual puede que la máquina haga una buena concordancia de patrones e imite patrones de conducta humanos que llamaríamos misericordiosos, sin que tengan, realmente, contenido alguno.

Ahora bien, en algunas situaciones legales, eso sería aceptable. Se podría decir que a veces una decisión objetiva, aun teniendo ciertos sesgos, podría ser mejor que la decisión humana menos objetiva que un juez pudiera tomar. No obstante, en muchas situaciones diríamos que, de hecho, la condición humana de un juez o de un jurado importan, aun cuando intelectualmente no sean tan capaces como una máquina.

DH¿Cuándo prevé usted que la inteligencia artificial general se convierta en realidad? ¿Le preocupa esa posibilidad?

ASPor muchísimo tiempo se ha venido prediciendo la materialización de una «inteligencia artificial general en tal vez veinte o treinta años». Y, por supuesto, la mayoría de las predicciones pasadas no se convirtieron en realidad porque los seres humanos somos realmente muy malos para predecir cosas como esas. Dado el progreso radical actual en aprendizaje automático, las cosas están mejorando, pero todavía impera una extremada incertidumbre en cuanto a qué, en verdad, se necesitaría para hacer una inteligencia artificial real. Mi opinión personal al respecto es que deberíamos tener una distribución de probabilidades amplísima. Podría suceder en una década; podría tomar muchas décadas; podría tomas centenares de años.

Pero desde el punto de vista de la seguridad, no deberíamos asumir calmadamente que va a ocurrir muy, muy lejos en el futuro. Deberíamos suponer que va a suceder relativamente rápido y deberíamos querer que se tomen medidas de precaución antes de ello, porque la inteligencia general es mucho más poderosa que la inteligencia limitada. La inteligencia limitada podría ser suficientemente perjudicial para nuestra sociedad y economía, nuestros modos de hacer la guerra o de resolver problemas; pero la inteligencia general puede ser amplificada y puede resolver problemas que nosotros no podríamos siquiera concebir. Eso hace que sea tremendamente importante ser cuidadosos cuando la desarrollemos.

Con todo, prepararse para algo que es tan impredecible es, sin duda, muy difícil.