Esquema de la conferencia impartida entre el profesor Leopoldo La Rubia del departamento Filosofía I de la Facultad de Filosofía y Letras de la Universidad de Granada y yo durante el congreso "PARA QUÉ ARTE. LÓGICA Y ESTÉTICA DEL LÍMITE" celebrado en Granada durante los días 3 y 4 de abril

El concepto que conocemos como “Arte” no tiene una definición única; según José García Leal, en su libro  Filosofía del arte, podemos distinguir hasta cuatro distintas, pero todas ellas tienen un elemento, a mi parecer, común:

Definición institucional: En lo intencional, nos dice que “un artista es una persona que participa conscientemente en la construcción de una obra de arte”.

Definición intencional: “Lo que hace que algo sea una obra de arte es la intención del autor”.

Definición funcional: “ciertos objetos son artísticos cuando ejercen la función de expresar sentimientos, imitar la realidad, satisfacer las necesidades espirituales de un pueblo histórico, simbolizar lo inaprensible, etc.”

Definición simbólica: La definición de arte a la que nos acogemos declara que lo que hace de algo una obra de arte es su específica condición simbólica y esa especificidad deriva de la construcción sensible del símbolo y de los procedimientos o modos de simbolización”

Notemos que en estas definiciones aparecen los términos: “conscientemente”, “intención”, “expresar sentimientos” y “construcción sensible”. Todos ellos indicativos de la intencionalidad y consciencia del autor, al menos en lo que se refiere a la creación artística, es decir, de las definiciones anteriores podemos inferir que no existe arte sin una participación expresa y consciente del autor.

Todo aquello que es utilizado en la construcción de una obra artística, y no tiene consciencia, cae dentro de la categoría de herramientas que el autor utiliza para realizar su trabajo: Con un pincel se crea arte, pero el pincel, aunque “colabora” en la creación artística, no es consciente de lo que hace. El razonamiento es extensible a cualquier otro objeto que se comporta sólo como una herramienta: Instrumentos musicales,  martillos, cinceles, sistemas informáticos de ayuda, etc. sin que importe en absoluto la complejidad funcional de los mismos.

A la luz del razonamiento anterior, parece ahora más sencillo apreciar como simples herramientas, a una larga serie de objetos curiosos que, a primera vista, parecen crear arte por sí mismos. Veamos algunos ejemplos:

Melomics (genomics of melodies):  es un sistema computacional creado para la composición automatizada de música sin la intervención humana. El sistema aplica algoritmos evolutivos (un poco adelante veremos este concepto que no es mas que una familia de algoritmos).

The Painting Fool: Software desarrollado con el objeto de generar arte pictórico automático.

Sound Machines 2.0: Se trata de un quinteto de cuerda robótico cuya habilidad consiste en “escuchar” piezas musicales, generalmente interpretada en un piano, y reinterpretarlas con añadidos.

EMI (Experiments in Musical Intelligence): Software que es capaz de crear nuevas composiciones basándose en otras ya realizadas.

 Todos estos equipos o sistemas (y muchos más) son capaces de generar pintura, música, etc. de una manera relativamente convincente para el profano pero, ciertamente, como máquinas realizadas con la tecnología actual, carecen absolutamente de la conciencia de que están creando una obra de arte. Son sólo herramientas de ayuda para la creatividad humana, pero nada más.

Tal vez la siguiente comparación pueda parecer burda, pero en esencia es el razonamiento anterior el que la guía: Los oboes fueron integrados plenamente en la orquesta durante el siglo XVI. Originalmente disponían sólo de dos llaves, lo que hacía difícil su manejo y fue sólo a partir del siglo XIX cuando se le incorporan poco a poco todos los complejos mecanismos de llave de los oboes actuales. ¿Acaso un oboe actual es menos digno como herramienta para crear arte por el hecho de ser más sencillo de usar que su antecesor barroco?. Responderemos que, obviamente, no es así: El oboe es sólo un instrumento independientemente de su complejidad.

Por supuesto, todos estos sistemas, al carecer de consciencia, son incapaces de respondernos acerca de las motivaciones que los han impulsado, la condición simbólica de lo creado, etc. por lo que difícilmente pueden crear arte.

Naturalmente, este hecho no resta mérito alguno a los constructores de tales sistemas; todo lo contrario, son magníficos exponentes de la creatividad e ingenio humano.

Breve historia de la inteligencia sintética

La historia de los intentos de la Humanidad por crear seres artificiales o sintéticos semejantes en todo a un hombre es casi tan antigua como la propia Humanidad. No es este el foro para remontarnos tanto en el tiempo. Consideraremos que los primeros intentos con cierto éxito se desarrollan a partir del siglo XVIII debidos a los grandes avances en la relojería. Uno de los constructores más famosos de autómatas, como se les llamaba entonces, fue Jacques Vaucanson (el famoso pato de Vaucanson), pero también Friedrich Von Kanuss,  Pierre Jacket-Droz, etc.

Fueron capaces de construir ingenios mecánicos de enorme complejidad, algunos con apariencia humana, capaces de pintar, escribir frases, tocar la flauta, etc.

A fin de cuentas, en esa época y sobre todo a partir de Descartes, se concebía al mundo como un gigantesco mecanismo de relojería. La mente humana pertenece al mundo, por lo que debe de ser también un mecanismo susceptible de reproducir; de ahí los intentos con los autómatas.

A mediados del siglo XX, con el avance en la tecnología de los ordenadores digitales, se abandonó la analogía entre mente y artilugios mecánicos (debido al mayor conocimiento en materia de biología) pero fue inevitable establecer un paralelismo entre la mente y los ordenadores, ya que estos permitían realizar cálculos mucho más rápidamente que nosotros y, en cierto modo, se regresó a la analogía entre mente y máquina (que sigue perdurando en la actualidad).

El matemático británico Alan Turing introdujo en el mundo científico esta tendencia a raíz de la publicación de su artículo “Maquinaria computacional e inteligencia” en 1950, en el que afirmaba que una máquina computacional sí que puede ser capaz de pensar, lo que marcó un intenso debate entre lo que comenzó a llamarse Inteligencia Artificial (IA) y psicología.

John Von Neuman, algo posteriormente, trató de imitar el comportamiento del cerebro humano mediante sistemas computerizados. No logró avanzar demasiado debido a que nuestro conocimiento del cerebro en aquella época (y también ahora) era demasiado rudimentario.

Un poco más adelante, por desgracia a mi parecer, McCulloch y Minsky consideraron que la idea de imitar el comportamiento físico del cerebro debería de abandonarse y que, dando por supuesto alegremente que existen unas leyes que gobiernan el pensamiento, estas deberían de encontrarse entre las leyes que gobiernan la información y no entre las leyes que gobiernan la materia.

A raíz de lo anterior, se formularon una serie de proposiciones gratuitas, tales como:

  • El pensamiento puede producirse fuera del cerebro humano, naturalmente, en una máquina.
  • El pensamiento puede ser comprendido de manera formal y científica.
  • La mejor forma de entenderlo es a partir de ordenadores digitales.

Hacia los años sesenta y setenta, esta forma de pensamiento propició desarrollos tipo top-down en los sistemas que trataban de imitar el comportamiento de la mente humana basándose en las anteriores premisas. La labor de investigación se centró en esos años en los siguientes paradigmas:

El motor de inferencia: Es el mecanismo encargado de procesar la información. Dado que el pensamiento humano puede ser comprendido científicamente ¿qué mejor candidato para modelarlo que la lógica matemática?.

Bases de conocimiento: Se busca la manera de sistematizar y representar de forma simbólica cualquier tipo de conocimiento (un ordenador es una máquina de procesamiento simbólico, a fin de cuentas).

Métodos de aprendizaje: Se crean mecanismos capaces de conseguir incorporar información nueva a la base de conocimiento a partir de la “experiencia” del sistema.

Por primera vez tratan de encontrarse aplicaciones prácticas de lo que se había aprendido hasta entonces, sin mucho éxito, por cierto.

En los años ochenta se vive una época de gran euforia en los ambientes de investigación e industriales, totalmente injustificada y basada en simples expectativas. Se teoriza que los “sistemas expertos”, que no son otra cosa que motores de inferencia lógica equipados con una base de conocimientos adecuados serán capaces de sustituir a la mente humana en cualquier tarea que requiera un conocimiento especializado; el gobierno japonés lanza a bombo y platillo la noticia de que es inminente la aparición de los ordenadores inteligentes de quinta generación.

Naturalmente, todo este esfuerzo no condujo a nada útil por la sencilla razón de que ni se disponía entonces, ni se dispone ahora de un modelo para la mente humana.

El funcionamiento de la mente humana no se rige en absoluto por la lógica matemática ni tampoco la información está separada de los “procesos” que la tratan. Es una unidad indivisible que el desarrollo de la supuesta inteligencia artificial nunca tuvo en cuenta.

Hacia mediados de los ochenta, toda esta parafernalia teórica ha caído en descrédito; se abandonan las antiguas líneas de investigación que parece que son un callejón sin salida y se adoptan nuevos puntos de vista; algunos más prometedores o, por lo menos, con más sentido práctico o industrial.

Hasta tal punto es el descrédito que se abandona el ampuloso término de Inteligencia Artificial y se adopta el nuevo de “Soft  Computing”, sin traducción directa al español y que resulta menos pretencioso que el anterior.

Se denomina Soft Computing a una mezcla no homogénea de técnicas top-down y down-top empleadas para tratar básicamente problemas de control de procesos. En el fondo, no son mas que formas de encontrar una solución aproximada a un problema complejo del que no tenemos un modelo exacto.

En el año 1965, el matemático Lofti Zadec desarrolla el concepto de “lógica difusa” (fuzzy logic). Los valores lógicos que puede tomar una variable ya no son numerables, como en el caso de la lógica proposicional o la de predicados, sino que pueden variar continuamente entre dos determinados valores, habitualmente el valor cero que significa falso y el valor uno que significa verdadero.  De esta forma pueden modelarse proposiciones que se aproximan mucho más al pensamiento humano. Por ejemplo, un hombre que no tiene un solo cabello en su cabeza es, evidentemente calvo y un hombre con cabello espeso no lo es, pero ¿es calvo el que sólo tiene cien cabellos? ¿y el que tiene mil?. Existe pues toda una gradación de la calvicie: Calvo, casi calvo, con poco pelo, medio calvo, nada de calvo, etc. Se retoman pues los antiguos conceptos de motor de inferencia pero sustituyendo la antigua lógica matemática tradicional por la lógica difusa.

Se revive también el antiguo concepto de “Redes neuronales”, dispositivos que tratan de imitar el comportamiento del cerebro al nivel celular. Aunque fueron desarrolladas en los años cuarenta, se abandonaron pronto debido a que no se conocían técnicas adecuadas para conseguir el aprendizaje de las mismas hasta el año 1986 en que se comienza a empler el algoritmo de aprendizaje de retropropagación ideado por Rumelhart y McLellan.

En el fondo, una red neuronal no es mas que un sistema de reconocimiento de patrones bastante eficiente.

Naturalmente, una red neuronal no es una representación exacta de un cerebro biológico debido a que no conocemos el modelo exacto de funcionamiento de las neuronas y resultaría hoy día imposible construir una red artificial con la densidad neuronal del cerebro humano.

Se idean también nuevos mecanismos de aprendizaje inspirados en modelos biológicos, a los que se denomina con el nombre común de metaheurísticas:

Algoritmos genéticos o evolutivos: El nombre puede inducir a confusión. No se trata de que el algoritmo en si evolucione o se automodifique en el transcurso de su ejecución; más bien, lo que  evoluciona es la información que maneja el algoritmo y que se codifica y trata como un gen biológico (se permite la recombinación y la mutación).

Inteligencia de Enjambre (PSO algorithm: Particle Swarm Optimization):  Otra técnica computacional evolutiva ideada por Eberhart y Kennedy en 1995  basado en la simulación del comportamiento social de un conjunto de pájaros en una bandada: Se observó que una bandada de pájaros (también sirve para enjambres de insectos o bancos de peces) es más eficiente a la hora de encontrar comida que un solo individuo y que la información intercambiada entre individuos de una bandada era muy sencilla: Mantente a una cierta distancia de mi o sígueme si ves que cambio de dirección, eso es porque posiblemente he encontrado comida.

El algoritmo es muy sencillo de implementar y resulta muy adecuado para tratar con problemas de optimización (encontrar el máximo o el mínimo de una función en un espacio multidimensional) de los que no conocemos una expresión cerrada para la función a optimizar.

 Colonias de hormigas (ACO Algorithm: Ant Colony Optimization): Una variante del anterior pero basado en el hecho de que una hormiga al recorrer un determinado camino va dejando tras de sí feromonas que atraen a otras hormigas pero que se evapora con el tiempo.

Y, por último, tenemos también otros algoritmos para clasificación de patrones y aprendizaje basados en conceptos de probabilidad: Redes Bayesianas, cadenas de Markov, etc. e incluso algunos más exóticos basados en la teoría del caos.

 

Lo habitual es utilizar una combinación de estas diversas técnicas como por ejemplo: Un motor de inferencia basado en lógica difusa y un sistema de aprendizaje basado en algoritmos genéticos. Veamos, en forma muy resumida mediante un ejemplo, como sería su funcionamiento:

Imaginemos que pretendemos diseñar un sistema que sea capaz de distinguir, a partir del llanto de un bebé, cual es su estado anímico, es decir, si tiene hambre, sed, está molesto, le duele algo, etc.

Buscaremos, en primer lugar, una buena cantidad de grabaciones de llanto de bebe que estén asociadas a una situación concreta. Esta información la obtendremos de un experto en el tema (las madres, claro).

Esta información: las grabaciones de sonido y su información asociada (lo que le ocurre al bebé) forman la base de datos de conocimiento.

El siguiente paso sería buscar una serie de patrones sónicos que podamos asociar con el estado anímico del bebé: Intensidad sonora, rango frecuencial de la señal sonora, intensidad de los armónicos secundarios, etc. Con estos patrones o parámetros podemos crear reglas de lógica difusa (nunca existirá una correspondencia exacta entre patrones y estado anímico) al estilo de: Si la intensidad del sonido es alta y si en la señal acústica existen frecuencias altas (nótese lo difuso de alto), entonces el al niño le duele un poco la tripa.

En realidad, nosotros no vamos a construir las reglas lógicas, sino que partimos de una serie de reglas aleatorias que vamos a tratar como si fuesen el código genético de una célula (codificamos la información de cada regla difusa en un “gen”).

Con estas reglas aleatorias, evaluamos cada uno de los registros sonoros de la base de conocimiento y obtenemos un resultado.

Seguidamente, valoramos cada una de las reglas en función de lo que el resultado se aproxima a la realidad. Tendremos algunos resultados mejores y otros peores, claro. Descartamos las peores reglas y dejamos sólo las mejores. El hueco dejado por las peores se rellena con una combinación mitad a mitad de la información procedente de las reglas mejores (es decir, construimos genes nuevos cada uno con la mitad de la información de sus “padres”) y repetimos el proceso iterativamente.

Para mejorar el algoritmo, que puede quedarse encallado sin avanzar, se introduce un factor de mutación determinado, es decir, provocamos de cuando en cuando modificaciones al azar en las cadenas genéticas.

Al cabo de un cierto tiempo, el sistema habrá extraído la información de su base de conocimiento de forma totalmente autónoma y habrá aprendido el sólo a distinguir los distintos llantos de los bebés.

El último paso consistirá en hacer que el sistema analice otros llantos, originalmente no contemplados en su base de conocimiento, y comprobar que, efectivamente, es capaz de indicarnos lo que le ocurre al bebé.

Las redes neuronales también pueden utilizarse en problemas parecidos el anterior, aunque la técnica de aprendizaje empleada es diferente.

Podemos avanzar un paso adelante con las técnicas anteriores si configuramos un autómata insectoide  par que lleve a cabo tareas como desplazarse por un terreno accidentado. En principio, no dispondremos de una base de conocimiento, sino que el propio autómata la irá construyendo en su interacción con el mundo real.

Imaginemos que dotamos a dicho autómata de sensores que indiquen, por ejemplo: Esfuerzo de los servomotores, posición de las extremidades, velocidad de desplazamiento, nivelación, etc. y configuramos un determinado conjunto de reglas difusas aleatorias que sean función del estado de los sensores anteriormente mencionados. Al cabo de un cierto tiempo, el autómata aprenderá sólo a desplazarse, sin ninguna intervención humana, al cabo de un cierto tiempo.

Naturalmente, si lo dotamos de la interfaz adecuada, podremos preguntarle en cada fase de su aprendizaje por lo que está haciendo; así, si le preguntásemos: “¿Por qué realizas tal movimiento?”, él podría respondernos: “Porque  la tensión en el servomotor de la extremidad tal es mínima y consigo mantenerme aproximadamente vertical”.

¿Podemos deducir de lo anterior que el autómata es consciente de lo que está haciendo?. Lo cierto es que no puedo responder con claridad a la pregunta. Posiblemente, los defensores de la postura débil en inteligencia artificial dirían que sí.

Si en lugar de utilizar un conjunto de reglas difusas utilizásemos una red neuronal, sería muy difícil que el autómata respondiera a preguntas porque no podemos deducir del estado interno de la red neuronal (un conjunto de valores numéricos conocidos como pesos y aplicados a cada neurona) el hilo de procesamiento que la máquina está realizando.

Pienso que, con la tecnología actual, podemos crear autómatas que dispongan del nivel de consciencia equivalente a la de un insecto (si se puede hablar de tal cosa), pero poco más y que serían necesarios muchísimos años de investigación para poder llegar a alcanzar el nivel de un mamífero tal como un roedor, por ejemplo.

Los sistemas bioinspirados que he mencionado anteriormente presentan lo que se denomina “comportamientos emergentes”, es decir, comportamientos del sistema que no están explícitamente definidos en el algoritmo. Por ejemplo, en un símil biológico, una termita individual no sabe como construir un termitero, pero la comunidad, vista en su conjunto sí que sabe. Volviendo a nuestro ejemplo anterior, el autómata no sabe como andar ni existe ningún algoritmo que le indique a la máquina como realizar tal tarea; sin embargo, con el tiempo suficiente, será capaz de aprender a hacerlo sólo.

El cerebro humano contiene unos 100.000 millones de neuronas y el número de sinapsis se estima en mil veces superior, es decir, una cifra de catorce órdenes de magnitud. Existen en el mercado chips que implementan en hardware redes neuronales  pero su capacidad actual ronda las 1.000 neuronas, o sea, una magnitud inferior en once órdenes al tamaño de un cerebro humano. Si tenemos en cuenta que una mosca de la fruta tiene unas 100.000 neuronas y que una lombriz intestinal tiene unas 300, está claro que andamos bastante lejos de poder simular (al menos en un solo chip) poco más que el cerebro de un gusano actualmente.

La aproximación a la inteligencia sintética mediante técnicas top-down (lógica difusa) y down-top (redes neuronales) da lugar a distintas soluciones. En mi opinión,  las técnicas top-down implican el conocimiento de un modelo del pensamiento humano, si tal cosa pudiera existir, que andamos muy lejos de conseguir porque no disponemos de guías fiables.

Por el contrario, en la aproximación down-top sí que disponemos de modelos físicos del cerebro, aunque sean burdos. Es evidente que un cerebro animal no es sólo una red neuronal, sino que está compuesto de multitud de subredes interconectadas entre sí, cada una de ellas especializada en una determinada función. Tampoco tenemos claro que la retransmisión de impulsos electroquímicos entre las neuronas sea la única taréa que realiza el cerebro. Es posible que existan mecanismos ocultos o, al menos, no claramente explicados. El físico británico Roger Penrose hace algunas suposiciones respecto del papel que podrían jugar unas estructuras celulares de las neuronas denominadas “microtúbulos” que relacionarían el funcionamiento del cerebro con la mecánica cuántica pero, a mi parecer, este razonamiento me parece puramente especulativo y sin demostración alguna.

Retomando el título de esta charla y después de este corto recorrido por la historia de la inteligencia artificial o sintética, concluiría diciendo que puede ser prometedor continuar las líneas de investigación en técnicas down-top, ya que existen evidencias de que la inteligencia de un sistema sintético es una propiedad emergente de este. Tal vez la consciencia también lo sea. Esta propiedad sólo puede desarrollarse si existe una interacción (real o simulada) entre el núcleo de procesamiento (llámese red neuronal o cualquier otra cosa) y el mundo exterior. No es posible programar al núcleo directamente porque no conocemos la relación entre los pesos de las conexiones neuronales y los procesos internos de alto nivel que ejecuta; ha de aprender mediante la experiencia, lo que no significa que no pueda ser clonado.

Con la tecnología actual, no podemos construir sistemas sintéticos que se aproximen ni de lejos a un ser humano, pero creo que disponemos del potencial para conseguirlo en un futuro lejano, de modo que volviendo a nuestra pregunta inicial, no podemos actualmente construir una inteligencia sintética que sea capaz de realizar obras de arte; deberíamos aproximarnos a la complejidad del ser humano (ningún otro ser sobre la tierra realiza obras de arte).

Naturalmente, también podemos optar por la postura de los defensores de la Inteligencia Artificial débil. Grosso modo, se defiende que si un sistema parece inteligente, es inteligente. Las creaciones de Melomics, por ejemplo, pueden pasar por obras de arte si “no se lo contamos a nadie”. No creo que ningún crítico pueda detectar que la música ha sido creada por manos no humanas. Así, una máquina dotada con una base de conocimiento que simbolice la historia del arte (lo que se pueda incluir, claro), podría realizar composiciones mezclando tendencias y creando nuevas.

Para terminar, quiero recordar a Santiago Ramón y Cajal que en el capítulo “Preocupaciones del Principiante” de su libro “Consejos para jóvenes científicos” se hace eco de una frase del zoólogo francés Geoffroy Saint-Hilaire: Delante de nosotros está siempre el infinito.

Fernando Parra/Leopoldo La Rubia 

Granada, 3 de abril de 2014