Dossier

Avanza la inteligencia artificial

Se usan mucho los términos “inteligente” e “inteligencia artificial”, casi siempre suscitando admiración. Pero, ¿qué es la inteligencia artificial? ¿Tan sólo otro nombre de la informática? El autor es catedrático de Universidad, ingeniero e informático. Ha trabajado en IBM y es autor de numerosas publicaciones, tanto científicas como de divulgación.

Manuel Alfonseca·31 de marzo de 2020·Tiempo de lectura: 9 minutos

La inteligencia artificial es uno de los ejes de la actual transformación de los métodos de trabajo, los modos de relacionarse y la mentalidad, caracterizada por la rapidez y por la complejidad técnica. Este dossier quiere ayudar a comprender sus distintos aspectos y sus repercusiones, también éticas, con la ayuda de profesionales expertos y de las reflexionas ofrecidas por al Papa Francisco sobre estos desarrollos.

Casi desde el principio de la historia de la informática, las computadoras fueron programadas para actuar de forma inteligente. En 1956, Herbert Gelernter, del Laboratorio de IBM en Poughkeepsie, construyó un programa capaz de resolver teoremas de geometría plana, uno de los primeros ejemplos de inteligencia artificial. Ese mismo año, John McCarthy y otros pioneros de la informática se reunieron en un seminario en el Dartmouth College de Hanover (USA). Tras dar nombre a la nueva disciplina (inteligencia artificial) predijeron que en una década habría programas capaces de traducir entre dos lenguas humanas y de jugar al ajedrez mejor que el campeón del mundo. Después se construirían máquinas con inteligencia igual o superior a la nuestra, con lo que entraríamos en una nueva vía en la evolución humana. El viejo sueño de construir hombres artificiales se habría hecho realidad.

Pero las cosas no sucedieron como aquellos optimistas preveían. Aunque Arthur Samuel, de IBM, construyó un programa para jugar a las damas que guardaba información sobre el desarrollo de las partidas y la utilizaba para modificar sus jugadas futuras (es decir, aprendía), el ajedrez resultó ser un objetivo mucho más difícil. El objetivo de ganar al campeón del mundo se retrasó más de 30 años respecto a la fecha prevista.

La traducción de textos entre dos lenguas naturales resultó también más difícil de lo que se preveía. Nuestras lenguas son ambiguas, porque una misma palabra puede tener varios significados, que suelen ser distintos en lenguas diferentes, y además, en una misma frase, una palabra puede desempeñar diversos papeles sintácticos. 

El fracaso de las predicciones de los expertos desanimó a los investigadores en inteligencia artificial, que en gran número se dedicaron a otras investigaciones. Además, en 1969, Marvin Minski y Seymour Papert demostraron que las redes neuronales artificiales de una o dos capas, con las que se venía investigando desde los años cincuenta, no son capaces de resolver problemas muy sencillos. 

Durante los años setenta, el interés por la inteligencia artificial se renovó gracias a los sistemas expertos. De nuevo se lanzaron las campanas al vuelo y se predijeron avances inmediatos demasiado ambiciosos. El gobierno del Japón, por ejemplo, puso en marcha a finales de esa década el proyecto de la quinta generación, cuyo objetivo era desarrollar en diez años (siempre en diez años) máquinas capaces de pensar como los seres humanos, de comunicarse con nosotros en nuestra lengua, y de traducir textos escritos en inglés y en japonés.

Asustados por el proyecto, los Estados Unidos y la Unión Europea lanzaron sus propios programas de investigación, con objetivos menos ambiciosos. Los americanos enfocaron sus esfuerzos hacia programas militares, como la Iniciativa de computación estratégica (SCI), que se centró en la construcción de vehículos autónomos sin piloto en tierra y en el aire; armas “inteligentes”; y el proyecto apodado Star Wars, que debía proteger a los Estados Unidos de un ataque nuclear. Europa, en cambio, se centró en el problema de la traducción automática con el proyecto Eurotra.

A principios de los noventa, el proyecto japonés acabó en un fracaso rotundo. El programa militar de los Estados Unidos tuvo más éxito, como se vio durante la segunda guerra de Irak. Y aunque el proyecto Star Wars no llegó a ponerse en marcha, su anuncio presionó a la Unión Soviética, por lo que algunos analistas piensan que fue una de las causas del fin de la guerra fría. En cuanto al proyecto Eurotra, no dio lugar a un sistema autónomo de traducción automática, pero sí a la construcción de herramientas de ayuda al traductor humano que permiten aumentar su productividad, en la misma línea que Google Translate.

En 1997, 30 años después de lo previsto, un ordenador consiguió por fin vencer al campeón del mundo de ajedrez (Garri Kasparov) en un torneo a seis partidas. También ha avanzado mucho la conducción de vehículos automáticos (coches y aviones). Por eso, cada vez con más frecuencia se dice que estamos a punto de conseguir la verdadera inteligencia artificial, la de máquinas tan inteligentes (o más) que los seres humanos. ¿Es posible? ¿Está realmente tan cerca como parecen creer algunos expertos (no muchos) y los medios de comunicación? 

Definición de la inteligencia artificial

Los investigadores no siempre se ponen de acuerdo en la definición de esta rama de la informática, por lo que no es fácil distinguir de forma clara las disciplinas y aplicaciones que pertenecen a este campo. Últimamente se ha puesto de moda utilizar el término inteligencia artificial para referirse a cualquier aplicación informática, por lo que su delimitación es cada vez más borrosa y confusa. Se ha llegado a presentar como inteligencia artificial un sistema de bancos públicos callejeros que incorporan un repetidor de wifi y una placa solar que da energía para cargar un teléfono móvil. ¿Dónde está la inteligencia? En todo caso, en el ser humano al que se le ocurrió montar esos dispositivos.

La definición más extendida del campo de la inteligencia artificial es esta: conjunto de técnicas que tratan de resolver problemas relacionados con el proceso de información simbólica, utilizando para ello métodos heurísticos

Una aplicación de inteligencia artificial debería cumplir las tres condiciones siguientes: a) que la información a tratar tenga carácter simbólico; b) que el problema a resolver no sea trivial; c) que la forma más práctica de abordar el problema sea usar reglas heurísticas (basadas en la experiencia). El programa debería ser capaz de extraer esas reglas heurísticas de su propia experiencia, es decir, debe ser capaz de aprender.

Aplicaciones de la inteligencia artificial

Además de diseñar campeones para los juegos considerados generalmente como inteligentes, hay muchas más aplicaciones de la inteligencia artificial. En algunas, los resultados han sido espectaculares y se aproximan a lo que, intuitivamente, entendemos por una máquina que piensa.

Son muchos los temas en los que ha sido posible aplicar técnicas de inteligencia artificial, hasta el punto de que este campo se parece a un pequeño cajón de sastre. Veamos algunos:

-Juegos inteligentes. En 1997, el programa Deep Blue (una máquina dedicada de IBM) ganó al campeón del mundo, entonces Garri Kasparov. En la actualidad el mejor programa es AlphaZero, de la empresa DeepMind (propiedad de Google), que no se basa en reglas introducidas por seres humanos, sino en el autoaprendizaje (realizó cinco millones de partidas contra sí mismo). Otros juegos resueltos satisfactoriamente son el chaquete (backgammon), las damas, Jeopardy!, ciertas formas del póquer, y Go

-Realización de razonamientos lógicos. Existen tres clases de razonamiento lógico: deductivo (esencial en matemáticas), inductivo (usado por las ciencias experimentales) y abductivo (que se emplea sobre todo en ciencias humanas, historia y algunas ramas de la biología, como la paleontología). El problema de programar ordenadores para que realicen deducciones lógicas puede considerarse resuelto. En cambio, es mucho más difícil programar los procesos de razonamiento inductivo o abductivo, por lo que este campo de investigación en inteligencia artificial continúa abierto.

-Proceso de la palabra hablada. Se trata de conseguir que los ordenadores entiendan la voz humana, para que sea posible darles órdenes de forma más natural, sin tener que utilizar un teclado. La investigación en este campo encontró dificultades en el hecho de que cada persona tiene su propia forma de pronunciar, y en que el lenguaje hablado es aun más ambiguo que el escrito, pero últimamente se ha avanzado mucho, y a menudo se alcanza un porcentaje de comprensión superior al 90 por 100 de las palabras. 

-Proceso de textos escritos. Se subdivide en dos áreas principales: proceso del lenguaje natural y traducción automática. 

Un campo relativamente reciente es el de la minería de datos, cuyo objetivo es extraer información de textos escritos y tratar de comprender su significado. Para ello se utilizan métodos estadísticos y se construyen corpus anotados con información sobre los términos. Al utilizarlos, los programas mejoran o aceleran la comprensión de los textos que deben interpretar.

En el campo de la traducción automática, los problemas se multiplican, pues los programas han de enfrentarse con dos lenguas naturales en vez de una, ambas plagadas de ambigüedades e irregularidades, que además no suelen coincidir entre sí. Usualmente el objetivo de estos programas es realizar una traducción aproximada (no perfecta) de los textos de partida, sobre la que un traductor humano puede trabajar para mejorarla, aumentando así considerablemente su rendimiento.

-Proceso de imágenes y vehículos automáticos. Cuando observamos una escena a través de la vista, somos capaces de interpretar la información que recibimos e identificar los objetos independientes. Este campo de investigación tiene por objeto programar máquinas y robots para que reconozcan visualmente los elementos con los que han de relacionarse. Una de sus aplicaciones más espectaculares es el coche automático. Este proyecto, bastante avanzado en la actualidad por parte de varias empresas, tiene por objeto construir vehículos sin conductor que puedan desplazarse por las carreteras y las calles de una ciudad. Estas investigaciones, que comenzaron en la Universidad Carnegie Mellon a finales de los años ochenta, recibieron un fuerte impulso durante los noventa, cuando un coche sin conductor salió por primera vez a las autopistas alemanas. En lo que llevamos del siglo XXI, la investigación en el campo del coche sin conductor ha seguido avanzando, y no parece lejano el momento en que se autorice su comercialización.

-Sistemas expertos. Son programas que realizan deducciones lógicas para aplicar reglas de conocimiento proporcionadas por expertos humanos en el tema de que se trate, para resolver problemas concretos. 

El primer intento (un programa llamado DENDRAL, capaz de obtener la fórmula de un compuesto químico a partir de su espectrograma de masas) se construyó hacia 1965 en la Universidad de Stanford. Durante los años setenta y ochenta, la investigación en sistemas expertos se aplicó en diagnóstico médico, matemáticas, física, prospecciones mineras, genética, fabricación automática, configuración automática de computadoras, etcétera. Pero a finales de los años ochenta entraron en decadencia. Aunque no han desaparecido por completo, hoy no desempeñan el papel principal en la investigación en inteligencia artificial.

-Redes neuronales artificiales. Es una de las aplicaciones más antiguas de la inteligencia artificial, y también una de las más utilizadas en la actualidad. Las neuronas que componen estas redes están muy simplificadas, en comparación con las que forman parte del sistema nervioso humano y de muchos animales. Estas redes son capaces de resolver problemas muy complejos en muy poco tiempo, aunque la solución obtenida no suele ser óptima, sino sólo una aproximación, que a menudo es suficiente para nuestras necesidades. En la actualidad, las redes neuronales se utilizan en muchas aplicaciones de aprendizaje automático, como los traductores automáticos mencionados más arriba.

-Computación cognitiva y bases de conocimiento sobre el mundo. Uno de los problemas que han dificultado la investigación en inteligencia artificial ha sido el hecho de que las computadoras apenas poseen conocimientos sobre el mundo que nos rodea, lo que les pone en desventaja evidente respecto a cualquier ser humano, que sí posee esa información, pues la ha adquirido desde su infancia y puede utilizarla para resolver problemas de sentido común que parecen triviales, pero que son dificilísimos de resolver para las máquinas que no disponen de la información necesaria. IBM ha puesto en marcha un proyecto sobre computación cognitiva cuyo objetivo es construir programas que, a partir de datos muy abundantes (big data) y utilizando técnicas de inteligencia artificial y aprendizaje automático, sean capaces de hacer predicciones e inferencias útiles, y de responder a preguntas expresadas en lenguaje natural. 

Por el momento, estos sistemas no pueden compararse con los seres humanos, y normalmente se restringen a un campo de aplicación concreto.

¿Puede una máquina ser inteligente?

En 1950, adelantándose a su época, el matemático y químico inglés Alan Turing intentó definir las condiciones en que sería posible afirmar que una máquina es capaz de pensar como nosotros (la Prueba de Turing). Esto es lo que se llama inteligencia artificial fuerte, para distinguirla de la inteligencia artificial débil, que abarca todas las aplicaciones de las que disponemos hasta ahora, en las que está claro que la máquina no piensa. 

La prueba de Turing afirma que una máquina será tan inteligente como el hombre (o será capaz de pensar) cuando sea capaz de engañar a un número suficiente (30 %) de seres humanos, haciéndoles creer que están intercambiando información con otro ser humano, y no con una máquina. Turing no se limitó a plantear la prueba, sino que predijo que se cumpliría en unos cincuenta años. No se equivocó demasiado, pues en 2014 un chatbot (un programa que toma parte en una conversación de chat) consiguió convencer al 33 % de sus contertulios, tras cinco minutos de conversación, de que era un chico ucraniano de 13 años. Sin embargo, algunos analistas no ven las cosas tan claras. Evan Ackerman escribió: “La prueba de Turing no demuestra que un programa sea capaz de pensar. Más bien indica si un programa puede engañar a un ser humano. Y los seres humanos somos realmente tontos”.

Muchos investigadores piensan que la prueba de Turing no basta para definir o detectar la inteligencia. En 1980, el filósofo John Searle intentó demostrarlo mediante la propuesta de la habitación china. Según Searle, para que un ordenador pueda ser considerado inteligente, además de la prueba de Turing hacen falta dos cosas más: que comprenda lo que escribe, y que sea consciente de la situación. Mientras eso no ocurra, no podremos hablar de inteligencia artificial fuerte.

En todo esto subyace un problema muy importante: para construir una inteligencia artificial fuerte, hay que dotar a las máquinas de consciencia. Pero si no sabemos qué es la consciencia, ni siquiera la nuestra, ¿cómo vamos a conseguirlo? 

En los últimos tiempos se han realizado muchos avances en neurociencia, pero aún estamos muy lejos de poder definir lo que es la consciencia y saber de dónde surge y cómo funciona, así que mucho menos podemos crearla, ni siquiera simularla.

¿Es posible que los avances de la informática nos lleven en un plazo más o menos largo a crear en nuestras máquinas algo que se comporte como una superinteligencia? Ray Kurzweil lleva décadas pronosticándolo para un futuro casi inmediato que, como el horizonte, se va alejando a medida que nos acercamos a él. 

No sabemos si será posible, por medios informáticos, construir inteligencias iguales o superiores a la nuestra, con capacidad de auto-consciencia. Pero si la inteligencia artificial fuese practicable, se nos plantearía un problema importante: el “problema de la contención”.

Problema de la contención

Se trata de la pregunta siguiente: ¿es posible programar una superinteligencia de tal manera que no pueda causar daño a un ser humano?

Esencialmente, el problema de la contención es equivalente a la primera ley de la Robótica de Isaac Asimov. Pues bien, hay indicios matemáticos recientes de que no es posible resolver el problema de la contención. Si esto se confirma, tenemos dos posibilidades: a) renunciar a crear superinteligencias, y b) renunciar a estar seguros de que dichas superinteligencias no podrán causarnos daño. 

Siempre es arriesgado predecir el futuro, pero parece claro que muchos de los avances que se anuncian con ligereza como inminentes están bastante lejanos.

El autorManuel Alfonseca

Catedrático de Sistemas y Lenguajes Informáticos (retirado)

Newsletter La Brújula Déjanos tu mail y recibe todas las semanas la actualidad curada con una mirada católica
Banner publicidad
Banner publicidad