Inteligencia artificial: Rompiendo los esquemas

Segunda parte

La IA ¿hará del mundo un lugar más seguro o más peligroso? Un experto en la materia comparte su opinión al respect.

En la primera parte de la entrevista del editor de Vision David Hulme con Seán Ó hÉigeartaigh, el experto en IA tuvo mucho que decir sobre los pros y contras de la inteligencia artificial. Esta segunda parte es continuación de aquella conversación. ¿Adónde nos está llevando la tecnología en desarrollo?

DHAl final de la Segunda Guerra Mundial, Albert Einstein escribió un famoso editorial en el New York Times. En él, obviamente lamentaba que el genio nuclear se hubiera salido de la lámpara. A veces, los científicos llegan a este punto. Hace poco, entrevistamos a Jennifer Doudna

SOHSí, la científica del CRISPR-Cas9.

DHDurante la entrevista no parecía demasiado preocupada, pero cuando más tarde se publicó su libro, expresó su inquietud acerca de lo que pudiera ahora ser posible como resultado de su obra. ¿En qué momento el hombre o la mujer de ciencia se pregunta si algo debería decirse ahora, antes de que esto se convierta en vox populi?

SOHEste es un tema que tratamos con frecuencia. Sin duda, cabe a los científicos el rol y la responsabilidad de pensar acerca del punto al que podría conducir su investigación y cómo podría usarse de diversas maneras. Con todo, si decidiéramos detener el progreso científico debido a todas las maneras en que potencialmente podría utilizarse para mal, pensemos en la electricidad, por ejemplo: si la hubiéramos descubierto solo para desecharla luego por la miríada de sus usos [negativos]. El impacto neto de la electricidad en la humanidad ha sido indudablemente bueno.

Pienso que probablemente es un error poner toda la responsabilidad en la comunidad científica. Hay roles también que corresponden a proveedores de fondos para científicos, editores, reguladores y estrategas políticos; hay debates en todos los niveles, mas también en diferentes puntos del proceso evolutivo y de despliegue.

DHAnteriormente [véase la primera parte de esta entrevista], usted mencionó las tecnologías de uso dual. ¿Puede explicarnos un poco al respecto?

SOHLas tecnologías de uso dual son las que se crean con un fin beneficioso —en general, un propósito civil benigno— pero que se prestan a ser usadas malintencionadamente.

A manera de ejemplo consideremos la investigación sobre el virus de la influenza: podríamos someter el virus a cambios para entender exactamente cómo se muta en su entorno silvestre y así ayudarnos a crear mejores vacunas. La preocupación hipotética consiste en que si demostramos cómo hacer un virus más peligroso o más transmisible, alguien podría usarlo para producir un ataque biológico. En el caso de la inteligencia artificial, los progresos fundamentales alcanzados permiten muchas de las cosas buenas —desde etiquetar a los amigos en una foto hasta hacer que un coche autopilotado se abra camino en la ciudad para permitir a una persona mayor llegar a la casa de sus familiares. Con todo, potencialmente, los mismos adelantos permiten que un robot de combate se abra paso en un campo de batalla con muchos obstáculos, y quizás identifique por reconocimiento facial el objetivo que quiere eliminar.

«Aun si nuestro propósito al crear la tecnología es ayudar a nuestras comunidades de varias maneras benignas, necesitamos considerar si hay maneras en las que la gente las aplicará en un contexto muy diferente, con respecto al cual puede que seamos menos optimistas».

Seán Ó hÉigeartaigh

DHEl informe Malicious Use (Uso malicioso) señala que la IA crea «anonimato» y «distancia psicológica». ¿Qué significa esto y por qué es motivo de preocupación?

SOHHay dos razones en particular. Una es que cuando uno tiene que atacar a alguien con un cuchillo, en realidad tiene que acercársele personalmente. Es algo psicológicamente difícil de hacer, lo cual tal vez contribuye a asegurar que no ocurra a menudo. De manera similar, si uno tiene que ver a alguien cara a cara y dispararle con un arma, esto requiere superar todo tipo de barreras. Por otro lado, si todo lo que uno tiene que hacer es enviar un robot volador a matar a alguien a quien uno jamás tendrá que ver cara a cara, eso podría facilitar psicológicamente llevar a cabo este tipo de actividades.

Otra razón es el problema de la atribución. Si vamos a tener salvaguardias, necesitamos poder apresar gente y echarle la culpa, sea que se trate de un robot que explote y lastime a alguien o de un ataque cibernético que tire abajo la red eléctrica e indirectamente ocasione muertes. Si ponemos suficiente distancia entre el atacante y los objetivos de ataque; por ejemplo, teniendo el sistema primero desplegado y luego actuando de manera autónoma, esto puede hacer mucho más difícil rastrear el acto hasta dar con la persona que iniciara el ataque, lo cual significa que sería mucho más difícil hacer cumplir las reglas a nuestro alrededor.

DHOtra inquietud expresada en el informe Malicious Use es la seguridad política. Usted dice que la vigilancia y el engaño son particularmente problemáticos en los estados autoritarios. Aun la veracidad de los debates públicos en las democracias está en peligro. ¿De qué manera la IA empodera la propaganda?

SOHHay una cantidad de maneras, y creo que solo nos mantendremos descubriendo más. Una es que será más fácil para mí influenciar en usted con mi mensaje o propaganda política, si puedo adaptarlos, en cierta medida, a su perfil de personalidad, sus esperanzas y temores.

Sabemos que esto ya funciona bastante bien en marketing; por ejemplo: al analizar las publicaciones de alguien en Facebook, se puede obtener siquiera una idea de si ese alguien tiende a ser extrovertido o introvertido, ansioso o seguro de sí, etc. Si puede mostrarle a alguien el mismo aviso para el mismo hotel con dos mensajes diferentes —uno para la persona extrovertida, mostrándole una fiesta estupenda junto a la piscina, y otro para la persona introvertida o ansiosa, mostrándolo sentado junto a la piscina, con un libro— la proporción de clics aumenta un montón.

Bien puede imaginar adoptar los mismos enfoques y aplicarlos a la mensajería política. Si usted es particularmente ansioso, puede que el mensaje sea sobre hordas de inmigrantes cruzando la frontera. Si usted es optimista, puede que el mensaje diga «este partido creará montones de nuevos trabajos». De esta manera, se puede crear un mensaje que más o menos se ajuste a su perfil y más probablemente pueda influenciarle. En cierto modo, esto es una evolución de la publicidad normal, pero lo preocupante al respecto es si de alguna manera subvierte nuestro proceso decisorio consciente.

Hay, además, motivos de preocupación más directos. Utilizando inteligencia artificial, se están ideando técnicas que podrían facilitar la creación de videos falsos de un dirigente político diciendo cosas que uno considera totalmente aborrecibles. Si inundamos los medios informativos con estos videos falsos, pude volverse mucho más difícil discernir qué es verdad y qué no lo es. Ahora bien, hay en funcionamiento equipos de trabajo que permiten el reconocimiento automático de videos falsos, pero ¿se puede obtener a tiempo una refutación?

DH¿Hay algún aspecto de la vida en el cual la IA nos hace sentir más seguros? ¿Dónde están disminuyendo las amenazas?

SOHEn casi cada aspecto de la vida, hay maneras en las que la inteligencia artificial puede hacer el mundo más seguro. Estamos en el proceso de crear automóviles autopilotados; hay aún algunos problemas técnicos y legales que superar, pero pienso que lo más probable es que, con una tecnología plenamente consolidada, los automóviles autopilotados causen muchísimo menos accidentes que los que causan los seres humanos, pues no conducirán estando ebrios o cansados ni se distraerán por lo que los niños están haciendo en el asiento de atrás.

Otro ejemplo al respecto se observa en la asistencia médica. En muchas enfermedades, la identificación temprana es clave para evitar malos resultados. Pero muchísimos de los procesos que tienen que ver con el reconocimiento y tratamiento del cáncer, por ejemplo, consumen mucho tiempo y requieren asesores con décadas de experiencia y capacitación. Si lográramos automatizar muchos de esos procesos, esos tratamientos estarían disponibles más rápidamente y a menor costo para más personas, acortando el tiempo de espera y salvando más vidas.

Pienso que la inteligencia artificial nos ayudará a idear modelos climáticos más sofisticados. Eso nos permitirá hacer nuestras redes energéticas más eficientes, reduciendo así nuestro consumo de energía. Google aplicó algo de su inteligencia artificial más avanzada a sus granjas de servidores hace solo dos años y redujo el consumo de energía para sus centros de datos en 40%. Esto equivale al consumo de energía de una ciudad pequeña.

La inteligencia artificial también se está aplicando en zonas de desastres, escaneando a través de imágenes para ayudar a los socorristas a priorizar. Con el correr del tiempo, tendremos robots capaces de entrar en lugares de riesgo, como zonas de desastres, donde no se quiere arriesgar vidas humanas.

«En casi cada aspecto de la vida humana, hay una manera en que la inteligencia artificial puede hacerlo más seguro».

Seán Ó hÉigeartaigh

DHSegún el filósofo Kirk Schneider, «la alta tecnología satisface muchas necesidades; la mayoría de ellas materiales, informativas y comerciales. Lo que no tiende a satisfacer son las “necesidades existenciales”: propósito, conexión, reverencia por la vida». ¿Cuál es su reacción?

SOHPienso que esta declaración es verdad y —a la vez— no lo es. La tecnología es solo tecnología; mucho depende de cómo se la use. No creo que la tecnología vaya alguna vez a reemplazar el toque humano, el pasar tiempo con la familia, o el ir al bar y encontrarse con alguien. Cualquiera que haya participado en una reunión a través de Skype o haya enviado un mensaje por correo electrónico sabe eso.

Por otro lado, si se automatizan algunos procesos de modo que faciliten la vida de uno y le permitan pasar más tiempo con sus seres amados, tal vez faciliten satisfacer esa necesidad existencial. Aunque uno no tenga la conexión cara a cara, la tecnología nos permite tener un ser humano en mente cuando pensamos en gente de diferentes partes del mundo. Muchos de mis cercanos colaboradores que están en los EE.UU., en India o en Australia, en tiempos pasados habrían sido para mí solo un dato en un libro o una estadística. Ahora son gente real; si ocurre un desastre en la India, ellos serían para mí personas reales.

Así que, creo que la tecnología, si bien puede distanciarnos y no satisfacer nuestras necesidades existenciales, también puede facilitarlas; todo depende de cómo se la use.

 

DHEn 2005, durante una conferencia sobre neurociencia, Stephen Morse —profesor de leyes y psicología en la Facultad de Derecho de Pensilvania— señaló lo siguiente: «No tenemos ni idea de cómo el cerebro habilita la mente. Sabemos un montón sobre la localización de funciones, sabemos un montón sobre los procesos neurofisiológicos, pero sobre cómo el cerebro produce estados mentales; sobre cómo produce intencionalidad consciente y racional, no tenemos ni idea. Cuando lo sepamos, eso revolucionará las ciencias biológicas». ¿Cómo ve el cerebro humano? ¿Es para usted solo un tipo de máquina más? ¿Es diferente de la mente?

SOHSi el cerebro es una máquina, es por lejos la máquina más notable que existe en nuestro mundo, muy por encima de cualquier cosa que nosotros hayamos inventado. Yo creo que algún día comprenderemos el cerebro humano y cómo este crea la mente humana, al menos, lo comprenderemos en mucho mayor medida que como lo hacemos actualmente; pero todavía estamos muy lejos de eso.

Comprender más acerca del cerebro nos permitirá revolucionar la ciencia biológica y también la ciencia cognitiva y proporcionará ideas increíbles en cuanto a inteligencia artificial. Con todo, no estoy seguro de que necesitemos entender cada aspecto del cerebro humano y de cómo organiza la mente humana, antes de crear grados realmente transformativos de inteligencia artificial. En el pasado encontramos diversas maneras de resolver un problema. Observar el vuelo de las aves nos indujo a crear un avión, pero de ninguna manera (en términos de mecánica) un avión es lo mismo que un ave en vuelo. Y yo diría que pudimos crear vuelos tripulados mucho antes de que tuviéramos una comprensión profunda y adecuada de siquiera cómo vuela un abejorro.

DHEl director del programa para IA en el Alan Turing Institute dijo recientemente que él no sentía que tenía que entender todo lo que sustenta una decisión de IA. Le bastaba con que le resultara alrededor de noventa y cinco por ciento fiable. ¿Comparte esa opinión?

SOHNo estoy seguro en cuanto a compartir este concepto. Digamos que se trata de un sistema de diagnóstico médico. Desde cierta perspectiva se podría decir: «Bien; si el sistema es 99,9% exacto y el experto humano es 99,2%, no es necesario entender el sistema médico, porque simplemente es mejor». Creo que hay considerable valor en saber por qué ese margen de 0,1% existe para el sistema de IA, y en qué circunstancias se equivoca, porque puede que estas sean diferentes de las instancias en las que el experto humano se equivocaría.

Esto solo se volverá más importante a medida que ideemos sistemas más capaces, presentes en más y más de nuestros procesos. Cuando un experto humano se equivoca, solemos tener buenas razones al respecto: puede que no esté suficientemente capacitado para la tarea en particular que tiene que desempeñar; tal vez se haya visto forzado a trabajar 20 horas sin parar; quizás haya pasado muchas horas sin comer. Las cosas se vuelven peligrosas si no tenemos ni idea de por qué algo está bien y algo está mal, aunque el grado de exactitud sea mayor.

DHUno de los peligros inherentes a la aplicación de la IA a la toma de decisiones es que, si bien puede ser objetiva, puede no ser tan capaz de discriminar bien —como un ser humano podría— digamos, al decidir si una persona debería ir o no a la cárcel. ¿Sería capaz la IA de llegar a una decisión que mostrara misericordia?

«Pienso que la IA encontrará buen uso, pero necesitamos utilizarla con el cuidado y la consideración que corresponda».

Seán Ó hÉigeartaigh

SOHInevitablemente, estos sistemas se capacitarán con la cantidad de datos históricos que les demos. Si esa información refleja la realidad en la que vivimos y en la que queremos vivir, está bien; pero es probable que refleje sesgos históricos. Por ejemplo, un artículo publicado el año pasado hablaba sobre la aplicación de inteligencia artificial para predecir si los acusados de delitos penales puestos en libertad bajo fianza pudieran reincidir o huir. Resultó que era mucho más probable aprobar libertad bajo fianza para personas de clase acomodada y cierto color de piel.

Si hay prejuicios en la información, podríamos agravarlos o encerrarlos en cierta manera, lo cual podría impedirnos avanzar hacia a la sociedad más justa en la que queremos vivir. Una de las preocupaciones es que uno podría capacitar un sistema de IA en cuanto a, por ejemplo, resultados de atención médica en el Reino Unido; el sistema es bastante acertado al ofrecer buenas decisiones sobre gente en el Reino Unido, pues ahí ha sido formado. Pero entonces, si se lo aplica en otro lado, digamos en la India o en Brasil, de pronto el sistema, que puede reconocer si un tumor es maligno o benigno en un tono de piel claro del Reino Unido, se encuentra con bastante más dificultad ante un tono de piel más oscuro, y en consecuencia da más resultados positivos falsos o más resultados negativos falsos; básicamente, entrega a la gente diagnósticos equivocados.

En cierta manera este es un error humano; es tomar un sistema preparado en determinado contexto, poniéndolo en otro. Pero al introducir la IA en contextos de toma de decisiones, tenemos que tener muy en cuenta estas cosas. ¿Son los medioambientes en los cuales los estamos poniendo los mismos en los que los formamos? ¿Es la información que les proveemos justa y equilibrada, o refleja sesgos históricos que no queremos ver reflejados en sus decisiones?

Ahora bien; los seres humanos tampoco somos perfectos al tomar decisiones. También somos tendenciosos, algunas veces más que en otras. Desde un punto de vista optimista, tal vez, con despliegue cuidadoso, es posible que seamos capaces de obtener lo mejor de ambos mundos, que los sistemas de IA puedan ayudar a descubrir los sesgos en los que realmente no habíamos pensado antes y también ayudarnos a superar las irracionalidades humanas, como por ejemplo, el tomar decisiones equivocadas cuando estamos cansados o no hemos comido, o simplemente prejuicios humanos de los que no somos conscientes pero que se evidencian en nuestras decisiones.

DHEn general, ¿es usted optimista o pesimista? ¿Llegaremos al fin del siglo XXI?

SOHSoy optimista por naturaleza. Es necesario serlo cuando uno está pensando en estas cosas todo el día; de lo contrario, sería muy difícil venir a trabajar. Hay cosas legítimas por las que tenemos que preocuparnos. Por otro lado, también estamos ayudando a mejorar la suerte de todos en el planeta. Hay hoy menos gente en pobreza absoluta que la que había en el pasado. Más que nunca antes, estamos extendiendo a más gente los principios de los derechos humanos, y estamos aprendiendo a reconocer que nuestros semejantes de todas partes del mundo son gente como nosotros, personas que tienen vida como nosotros y el mismo derecho que nosotros a contemplar la vida y el futuro.

Es esta comprensión mundial compartida lo que necesitamos desarrollar y lo que nos permitirá vivir sosteniblemente, tanto en nuestro planeta como en la evolución de tecnologías muy poderosas en las décadas venideras.