La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Archive for the ‘Computación Evolutiva’ Category

Fotosíntesis in silico, Plantas Transgénicas, y Algoritmos Evolutivos

Posted by Carlos en diciembre 6, 2007

La evolución natural es muy frecuentemente un proceso anti-intuitivo. Tendemos a etiquetar diferentes características de algunos organismos como positivas o negativas, pero luego observamos como sorprendentemente estas características no han sido plenamente optimizadas durante el proceso evolutivo. Hay muchas razones por las que esta aparente paradoja no es más que el resultado de un análisis incompleto de la situación. Por ejemplo, existen restricciones estructurales que restringen los posibles cambios evolutivos en cada instante, hay variables ocultas cuya interacción con las variables analizadas no se tiene en cuenta, y existe una situación de recursos limitados que impide que en general la evolución de diferentes componentes de un organismo pueda realizarse de manera independiente entre sí. Si a todo esto le añadimos que la característica final optimizada por la selección natural es la eficiencia en supervivencia y fertilidad, no es de extrañar que características que externamente consideraríamos importantes puedan tomar caminos evolutivos sorprendentes.

hojaUn ejemplo de índole mucho más práctica de todo lo anterior lo encontramos en el ámbito de las plantas. La eficiencia del proceso de fotosíntesis es fundamental para el crecimiento de la planta y de los frutos que produce. Sin embargo, la distribución de recursos metabólicos optimizada por la evolución para maximizar localmente la supervivencia y la reproducción no necesariamente conlleva una maximización de la productividad fotosintética. El cómo dicha productividad podría mejorarse con una diferente distribución de recursos es algo que ha sido estudiado por Xin-Guang Zhu, Eric de Sturler and Stephen P. Long, de la Universidad de Illinois en Urbana-Champaing, Virginia Tech y el NCSA, en un trabajo titulado

publicado en Plant Physiology. Zhu et al. han utilizado un modelo computacional del metabolismo de la fotosíntesis del carbono, compuesto por una colección de ecuaciones diferenciales entrelazadas en las que intervienen 38 variables enzimáticas. La concentración de estas enzimas está sujeta a una restricción global de contenido de nitrógeno, lo que implica que aumentos en una conllevan disminuciones en otra. Usando este modelo computacional en un escenario de recursos fijos como el descrito, puede determinarse cuál sería la eficiencia fotosintética de una planta en unas condiciones ambientales determinadas, dada una cierta concentración inicial de cada una de las enzimas. Esta concentración ha sido posteriormente optimizada para maximizar la eficiencia fotosintética mediante un algoritmo evolutivo (como nota curiosa, los autores del trabajo citan a D.E. Goldberg -quizás por la cercanía geográfica, ya que Goldberg está también en Illinois- en relación al algoritmo evolutivo, aunque el enfoque que emplean es una estrategia de evolución al más puro estilo de H.-P. Schwefel e I. Rechenberg).

Xin-Guang Zhu et al. (c) American Society of Plant Biologists
Credit: Xin-Guang Zhu et al. (c) American Society of Plant Biologists

Como puede apreciarse en la figura superior (tomada de la figura 4 en el artículo citado), se consigue optimizar la absorción de CO2 mediante el ajuste de las concentraciones enzimáticas. Esta información resulta de gran utilidad con vistas a la experimentación transgénica, ya que da pistas muy relevantes sobre modificaciones genéticas que pueden explorarse. Más aún, hay una circunstancia fundamental que debe considerarse: el cambio antropogénico en la concentración atmosférica de CO2. Las plantas actuales han evolucionado durante 25 millones de años con concentraciones de CO2 de 235 μmol mol-1, pero en la actualidad esa concentración ha alcanzado 384 μmol mol-1, y puede llegar a 700 μmol mol-1 a finales de siglo. Claramente la evolución natural trabaja a una escala temporal mucho más larga, por lo que no se puede esperar una adaptación rápida a estas nuevas características ambientales. La eficiencia de la fotorrespiración se reducirá en plantas silvestres, lo que abundará en la necesidad de la experimentación transgénica para el consumo humano (habida cuenta que no parece que se vaya a estabilizar el nivel de CO2 a medio plazo).

Anuncios

Posted in Botánica, Computación Evolutiva, Evolución | Etiquetado: , , , | 2 Comments »

La vuelta al mundo en 10 minutos (o en 156 días)

Posted by Carlos en octubre 24, 2007

El Degree Confluence Project es una curiosa iniciativa colaborativa consistente en visitar y tomar fotografías de todos los puntos del globo terráqueo con latitud y longitud enteras, esto es, de los puntos en los que se cruzan paralelos y meridianos correspondientes a un número entero (i.e., sin decimales) de grados de latitud o longitud respectivamente. Dado que la longitud puede tomar 360 valores enteros, y que la latitud puede tomar 181 (de 1º a 90º N o S, más el Ecuador), pero hay que descontar los polos en los que no hay variación de longitud, tenemos 360 x 179 + 2 = 64,442 confluencias. De éstas, una gran parte (más de 39,000) estarán en mitad de los mares u océanos, o se apiñarán cerca de los polos. Las restantes se hallan en tierra firme, o cerca de la costa, y definen una cuadrícula uniformemente distribuida por todos los continentes. Pueden considerarse en cierta medida como una muestra sistemática de lo que hay sobre la faz de la Tierra (de la tierra firme, claro).

Una vez identificados estos puntos, cabría considerar la tarea de dar una auténtica vuelta al mundo. No sólo circumnavegar el planeta, sino visitar cada pedacito de tierra firme del mismo, asumiendo estas confluencias como representativas de un área de ±0.5º de latitud/longitud (0.5º representa menos de 60 km en cualquiera de las cuatro direcciones principales en el Ecuador; en otros puntos la distancia E/W es todavía menor debido a la convergencia de los meridianos), lo que no parece descabellado. Tenemos entonces una instancia de nuestro bien conocido problema del viajante de comercio (TSP) con 16,189 “ciudades”. El vídeo inferior muestra un camino óptimo para recorrer todos estos puntos y volver al punto de partida. La longitud total del camino es de 1,628,716 km, lo que supone unos 156 días sin parar en una avioneta como la Mooney Acclaim.

La resolución del problema se ha realizado mediante Concorde, un paquete de optimización para el TSP que incorpora técnicas exactas tales como ramificación y corte, y heurísticas como el algoritmo de Lin-Kernighan. Es fácil ver que la solución óptima a una instancia del TSP sobre un plano no tendrá aristas que se crucen. La eliminación de estos cruces es precisamente una de las heurísticas más simples y efectivas para mejorar una solución obtenida mediante algún otro método. De hecho, es muy común incorporar una heurística de este tipo dentro de alguna otra metaheurística, e.g, un algoritmo genético. Estamos entonces hablando de algoritmos meméticos, a los que les dedicaremos algo más de tiempo más adelante.

Posted in Algorítmica, Computación Evolutiva, Lugares, Optimización Combinatoria, Viajar | Etiquetado: , , | Comentarios desactivados en La vuelta al mundo en 10 minutos (o en 156 días)

Vídeo de Richard Dawkins, Lewis Wolpert y Steve Jones sobre Evolución y Complejidad

Posted by Carlos en agosto 23, 2007

El debate sobre evolución y complejidad que tuvo lugar en el Museo de Historia Natural de Londres con Richard Dawkins, Lewis Wolpert y Steve Jones está al fin disponible en vídeo para su descarga aquí. Las opciones son formato .MOV (385×288, 624 MB), o formato .ASF (784×576, 1.29 GB). La duración del debate fue de 84 minutos. Quien tenga paciencia para la descarga se verá recompensado con un debate en el que surgieron cuestiones bastante interesantes.

Posted in Computación Evolutiva, Evolución, Nanoposts, Sistemas Complejos | 4 Comments »

Audio de Richard Dawkins, Lewis Wolpert y Steve Jones sobre Evolución y Complejidad

Posted by Carlos en agosto 1, 2007

El debate sobre evolución y complejidad con Richard Dawkins, Lewis Wolpert y Steve Jones del que hablamos hace unos días está ya disponible en audio:

Es una buena ocasión de oír a Dawkins confuso ante la idea de restricciones computacionales, de disfrutar de la pasión y humor de Wolpert, o de quedarse perplejo con Jones que recibió una llamada de su mujer al móvil durante el debate (Jones escribió precisamente un artículo en el Daily Telegraph sobre el congreso en el que se celebraba el debate y, bueno, digamos que arrima el ascua a su sardina). Aparentemente está en los planes poner también el vídeo del debate en algún momento, aunque dada la poca luz que había no sé si saldría algo.

Posted in Computación Evolutiva, Evolución, Sistemas Complejos, Vida Artificial | 5 Comments »

Singularidad en Londres

Posted by Carlos en julio 7, 2007

Como JJ comentaba en su blog recientemente, estamos él y yo en la otrora capital del Imperio Británico para asistir a una conferencia, y departir sobre redes complejas y computación evolutiva. El ajetreo de cerrar cosas antes del viaje, y diversos problemas de conectividad son la causa de que haya habido poca actividad en el blog en los últimos días.

Ya iré contando cualquier cosa interesante que ocurra durante el congreso. De momento, el lunes tenemos una charla-coloquio con Richard Dawkins que promete.

Posted in Computación Evolutiva, Meta-Blogging, Viajar | 3 Comments »

El Test de Turing Musical: ¿Conseguiremos un Tommy Dorsey cibernético?

Posted by Carlos en abril 24, 2007

El test de Turing -del que hace algún tiempo hablábamos en relación a la posibilidad de que un buscador de Internet como Google pudiera ser el primero en superarlo- es una de las más clásicas caracterizaciones de la Inteligencia Artificial. Hay que recordar que a grandes rasgos lo que en él se plantea es que una máquina cuya capacidad la hace ser indistinguible de un humano en una conversación puede ser caracterizada como “pensante”. Esta caracterización está por supuesto sujeta a un amplio debate que podemos abordar con más detalle en un futuro artículo. Consideremos por el momento una de las objeciones que se suelen plantear, y que hace referencia al hecho de que esta prueba adolezca de “chauvinismo” antropomórfico. En este sentido, por una parte está la cuestión de fondo de que se busca en la máquina sujeta al test la expresión de un comportamiento asimilable al humano. Por otra parte está la cuestión de forma de que se exige que la conversación se plantee mediante un lenguaje humano. En relación a la primera objeción, cabe aducir que aun siendo cierta, es verdad también que puede objetivizar la prueba en tanto en cuanto que asumir inteligencia en un sentido abstracto puede ser difuso y subjetivo. La argumentación no termina ahí, pero dejémosla de lado y concentrémonos en la segunda cuestión, la formal. Esta objeción es interesante por varios motivos, como por ejemplo que la elección del lenguaje podría ser muy relevante a la hora de facilitar o dificultar que la máquina pasara el test, que el procesamiento de lenguaje natural introduce un nivel adicional de complejidad que no necesariamente debe conllevar inteligencia aparejada, o que simplemente el uso del lenguaje puede ser un factor de distracción debido por ejemplo al uso de expresiones de relleno. ¿De qué manera pueden mitigarse algunas de estas dificultades? Quizás la respuesta la tengamos en el uso de un lenguaje más flexible y más universal: la música.

Planteémonos una analogía al test de Turing en términos musicales. Una primera idea puede ser la de tomar dos composiciones musicales, una compuesta por un hombre, y otra por una máquina, y someterlas a la consideración de un experto. Si el mismo es incapaz de determinar cuál es la humana, y cuál la creada por la máquina, podríamos decir que ésta ha pasado el test. El problema es que un test como éste puede plantear dificultades para la máquina si el humano es un gran compositor (en el test de Turing clásico si el humano es un gran orador la máquina estaría comprometida, pero en menor medida, ya que es más fácil simular la oratoria que el talento musical); por otra parte sería muy fácil para la máquina si el humano es un pésimo compositor, o un compositor -digamos- extravagante en sus obras (este inconveniente sí es análogo al que se plantea en el test de Turing clásico). Démosle entonces una vuelta de tuerca al test, y planteémoslo en otros términos, como si de una conversación se tratase: tendríamos una orquesta virtual, dentro de la cual estaría el juez como músico o como director. Si la actuación de la máquina es indistinguible de la de un humano durante la obra (que puede -y debe- conllevar su parte de improvisación) diríamos que ha pasado el test.

musicbot.jpg
Credit: Dean MacAdam, ScienceNews

Una cosa como la anterior plantea numerosas dificultades. Una parte de las mismas está relacionada con el propio reconocimiento del sonido musical, problema similar al reconocimiento del habla. Es preciso que la máquina sea capaz de identificar las notas individuales (y considérese que hay ruido, múltiples notas superpuestas por parte de diferentes instrumentos, etc.), y esto es una tarea muy compleja. Sin embargo, los progresos que se han hecho en este área son enormes (¡gracias Villa por el link!). Por ejemplo, utilizando técnicas de aprendizaje automático (redes neuronales, modelos bayesianos, etc.) se puede mejorar la identificación de los sonidos, ya que las secuencias de notas no son arbitrarias sino que siguen algunos patrones generales que hacen que sean agradables a nuestro oído. Más aún, se ha conseguido que un ordenador correlacione las notas con la partitura, de manera que siga el desarrollo de la obra y sea capaz de proporcionar acompañamiento a un solista, siguiendo su ritmo. Se trata sin duda de un logro excepcional, aunque aún falta dar el siguiente paso: introducir la creatividad y la interacción en la composición. Hay algunas cosas interesantes hechas con redes neuronales, o con algoritmos evolutivos, pero aún distan mucho de lo que se consideraría equivalente al rendimiento humano en algo así como una jam session. De todas formas, quién sabe si veremos antes a un robot saxofonista improvisando en una banda de jazz que a un robot conversacional pasando el test de Turing.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Computación Evolutiva, Computadores, Inteligencia Artificial, Música | Etiquetado: | 4 Comments »

¿Sueñan los androides artistas con paisajes cibernéticos?

Posted by Carlos en abril 12, 2007

Cuando se habla de inteligencia artificial, a veces se asimila ésta a reproducir la capacidad para la resolución de problemas que tiene un humano. Se trata por supuesto de una interpretación restrictiva, que podría pensarse que da lugar a una IA “fría” (lo que intuitivamente describiríamos como carente de sentimientos o de emociones). La verdad sea dicha, no es algo que sea claramente asumible, ya que en el fondo la capacidad de resolución de problemas que tenemos debe mucho a nuestras dotes creativas: ante problemas nuevos se innovan soluciones de una manera que difícilmente puede ser descrita como mecánica. Por más que típicamente se sigan algunas heurísticas (diseño por analogía por ejemplo), no es despreciable el papel que la denominada “idea feliz” tiene en todo el proceso. Este tipo de creatividad es también la que se plasma en un proceso artístico, y quizás exista una conexión entre ambas y -quién sabe- el arte no sea más que un fenómeno emergente de nuestra capacidad resolutiva.

ISU, the poet robotViene todo la anterior a cuento de una línea de trabajo bastante activa (y a fuer de ser sinceros no siempre reconocida) en el área de la computación evolutiva: el uso de técnicas con inspiración biológica para el desarrollo de sistemas artísticos. Esto puede hacerse de diferentes formas, algunas incorporando un componente humano externo que proporciona cierta guía, y otras de manera autónoma a partir de ciertos modelos internos. Este último es precisamente el caso de ISU, el “robot poeta”, diseñado por Leonel Moura, y cuya demostración pude ver en vivo ayer en una exhibición realizada en Valencia (bella ciudad en la que me hallo estos días). Se trata de un pequeño dispositivo del tamaño de un balón de fútbol, y que está dotado de tres ruedas direccionales. Éstas le permiten desplazarse con mucha libertad, y hacer complejos giros y maniobras. El robot está dotado de unos rotuladores que le permiten escribir o pintar en la superficie sobre la que se desplaza. ISU puede de hecho escribir letras, y debe su nombre a Isidore Isou, creador del movimiento letrista. Durante el tiempo que pude ver a ISU en acción (había otras cosas en la exposición que reclamaban mi atención), nos deleitó con dos inscripciones en negro -una en la que se leía “E1”, y otra en la que decía “FIR”- rodeadas de gruesos y vigorosos trazos en rojo. Esto puede parecer bastante inane, pero hay que reconocer que el robot siguió pintando, y que algunas de las cosas que genera no están tan mal, como puede verse. Hay otros intentos robóticos en la página de Leonel Moura.

Por el momento todo este tipo de creación artística es fundamentalmente la combinación de modelos matemáticos y un generador de números aleatorios, sin creación consciente. Lo último es lo fundamental, y lo que caracteriza al proceso creativo humano más allá de la mecánica del mismo; visto de otra forma, no sólo es necesario crear, sino desarrollar un sentimiento de aprecio o desprecio por lo creado. Quizás sea un buen test para detectar en qué momento una IA está empezando a desarrollar cualidades mentales “humanas”.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Computación Evolutiva, Inteligencia Artificial, Pintura, Poesía, Robótica | 7 Comments »

Exploración robótica del Cosmos: nuevos desafíos, nuevos algoritmos

Posted by Carlos en enero 23, 2007

El tema de la exploración humana del espacio es apasionante y controvertido. En muchas situaciones se tiende a hacer una analogía con los antiguos exploradores, que se adentraron en desconocidos territorios polares, desérticos, o selváticos, y aunque la imagen es evocadora, parece irreal. Básicamente, mucho antes de que se tengan los medios técnicos para una detallada exploración humana de, pongamos por caso, Marte, será factible realizarla mediante sondas robóticas. La lógica indica que este paso previo es mucho más prudente, con independencia de lo que luego se pudiera decidir sobre eventuales misiones tripuladas.

Exploration Robotic/Human
Credit: NASA

En relación con esta exploración robótica surgen diferentes cuestiones de gran interés. Por un lado está la planificación a gran escala de esta exploración. Jordi nos reseña en su bitácora un artículo en el que se aborda este tema. Es sin duda un asunto interesantísimo, y que se presta a diferentes análisis. No obstante, quería comentar algo en relación a otro aspecto de naturaleza más local, pero no por ello de menor importancia: el control de las sondas robóticas. Está claro que el límite físico de la velocidad de la luz impide que las comunicaciones se puedan desarrollar en tiempo real, y por lo tanto no es planteable que los robots sean meros instrumentos teledirigidos. Éste no es sólo el caso de una hipotética exploración de planetas extrasolares, sino que se trata de una consideración crucial para la exploración de Marte por ejemplo. Consideremos que la distancia que nos separa de Marte oscila entre unos 55 millones y unos 400 millones de kilómetros. Esto supone que los tiempos de comunicación bidireccional (mensaje y respuesta) oscilan entre poco más de seis minutos y casi 45 minutos. En general, esto significa que la sonda ha de tener un cierto grado de autonomía que le permita valerse por sí misma, e incluso planificar los detalles de la exploración. Para esto será necesario emplear técnicas de inteligencia artificial (IA), entendidas en un sentido amplio:

  • Los métodos clásicos de IA tales como los sistemas expertos, el razonamiento basado en casos, o los métodos bayesianos pueden ser útiles a la hora de planificar a alto nivel los objetivos a largo plazo, construir modelos del entorno, o realizar toma de decisiones estratégicas.
  • Los métodos modernos englobados dentro de la inteligencia computacional, tales como la computación evolutiva o los sistemas neurodifusos, resultarán imprescindibles a la hora de resolver problemas de medio alcance que se planteen en la consecución de los objetivos estratégicos, tales como planificación de tareas, interpretación visual, u optimización de maniobras.
  • Finalmente, el nivel más bajo deberá ser puramente reactivo: reglas de actuación ante patrones de entrada sensorial, que permitan una respuesta rápida ante situaciones tales como obstáculos imprevistos, terrenos impracticables, etc. Por supuesto, este nivel reactivo básico puede estar sujeto a continuo refinamiento mediante técnicas de aprendizaje, tales como los algoritmos evolutivos.

Evidentemente, en el caso de Marte es factible cierto tipo de control remoto, no en tiempo real, pero si al menos para determinar la planificación a medio y largo plazo de la exploración. Sigue existiendo entonces la problemática del control a muy corto plazo, y muy en particular la del cómputo de las trayectorias. Para ello, la NASA está recurriendo a una solución mucho más conservadora que las descritas anteriormente, cosa que tampoco es excesivamente criticable, dado que en el fondo la proximidad de Marte facilita las cosas, esto es, no es necesaria una total independencia de la sonda (salvo en circunstancias puntuales y transitorias, como un ocultamiento de Marte por el Sol, aunque en ese caso, se opta por dar unas “vacaciones” a las sondas).

Mars Exploration Rovers
Courtesy NASA/JPL-Caltech

El mecanismo que se emplea en la Spirit y en la Opportunity en lo que a planificación de trayectorias se refiere es una variante del clásico algoritmo A*. A grandes rasgos, el A* es un algoritmo completo de búsqueda para la exploración de grafos. En este caso, el grafo representa el terreno sobre el que la sonda se ha de desplazar, discretizado como si se tratase de las casillas de un tablero de ajedrez. El desplazamiento de una casilla a otra tendrá un coste que dependerá de las características del terreno. El algoritmo explora sistemáticamente todos los caminos que parten de la posición inicial, construyendo una lista de caminos abiertos, y seleccionando para su extensión a aquellos que resultan más prometedores de acuerdo con una función de coste heurística. Para evitar ciclos, se mantiene también una lista de las casillas visitadas (la gestión de esta lista tiene algunos matices, pero podemos obviarlos de momento). Si la función heurística es optimista (es decir, nos proporciona siempre una cota inferior del coste final de un camino incompleto), tenemos garantizado el encontrar finalmente la solución óptima.

El problema del A* es que obviamente parte del conocimiento del terreno, cosa que no es totalmente realista en el caso de las sondas: a medida que éstas avanzan obtienen nuevas imágenes que revelan nuevos obstáculos, o alteran las características que se suponía tenía el terreno. Esto conlleva que el grafo subyacente debe ser modificado, y el camino óptimo recomputado. Afortunadamente, hay formas eficientes de realizar esto, ya que por definición, las modificaciones que se realizan afectan fundamentalmente a la vecindad inmediata del la sonda. El algoritmo que se emplea a tal efecto es el D* (la D es de “dinámico”), y se basa en una astuta gestión de la lista de caminos abiertos. Para más detalles, puede consultarse el trabajo titulado:

realizado por Anthony Stentz, de la Carnegie Mellon University, y publicado en la 1994 IEEE International Conference on Robotics and Automation. Con este algoritmo y gracias a las últimas mejoras en los sistemas de análisis visual de la sondas, será posible que alcancen un nivel de autonomía muchísimo mayor que el que disfrutaban hasta ahora. Poca cosa si se piensa en lo que será preciso en misiones de más calado en regiones mucho más lejanas del Universo, pero un paso necesario en cualquier caso.

Env�a a Blog Memes Env�a a del.icio.us Env�a a digg Env�a a fresqui Env�a a menéame

Posted in Algorítmica, Astronáutica, Computación Evolutiva, Inteligencia Artificial | Etiquetado: , , , , , , | Comentarios desactivados en Exploración robótica del Cosmos: nuevos desafíos, nuevos algoritmos

Evolución de Inteligencia Artificial

Posted by Carlos en diciembre 2, 2006

El último número de la revista Artificial Intelligence es lo que denominan un special review issue. A diferencia de los números habituales, en éste no hay artículos técnicos, sino únicamente reseñas de libros recientes, y una sección muy interesante denominada The Turing Tapes: Comments and Controversies in AI”. En esta sección hay tres artículos cortos que abordan la Inteligencia Artificial (IA en lo sucesivo) desde diferentes puntos de vista. En todos los casos se trata de ensayos cortos, sin contenido técnico; constituyen más bien tomas de posición de los autores ante la IA. Me ha interesado especialmente uno de Lee Spector, titulado:

El título está bien elegido ya que se presta a dos interpretaciones, ambas consideradas en el artículo: por un lado, la evolución de nuestra percepción de la IA y de qué es necesario para alcanzarla, y por otro la consecución de IA mediante técnicas de computación evolutiva. Con respecto a lo primero, Spector argumenta que todos los intentos en los últimos siglos de meta-razonamiento y de formulación del razonamiento humano como computación, no hacían distinción entre crear inteligencia y diseñar inteligencia. Siguiendo el argumento de Cicerón que William Paley popularizó en el siglo XIX, la producción de un sistema complejo (y algo que conlleve inteligencia ha de serlo) necesita de un diseñador inteligente. En ese contexto, es lógico pensar que crear es diseñar. Sin embargo, si algo nos ha demostrado la Naturaleza es que los mecanismos de la evolución son capaces de hacer aparecer organismos complejos sin necesidad de un diseño a priori.

Resulta paradójico que esto que es un hecho básico a nivel científico sea ignorado (o menospreciado) cuando se intenta trasladar el argumento al ámbito de la IA. Con la notable excepción del libro de N.J. Nilsson (Artificial Intelligence: A New Synthesis), los libros de texto más populares sobre IA suelen retratar de manera un tanto superficial a la computación evolutiva, describiéndolas como raras técnicas para búsqueda o aprendizaje. Esto es así, a pesar de que se está demostrando como mediante estas técnicas se pueden alcanzar resultados competitivos con los de un ser humano en, por ejemplo, diseño de algoritmos cuánticos, heurísticas de búsqueda, o estrategias para ciertos juegos.

La posición de Spector es que la creación de IA pasará en el futuro por la integración del conocimiento de los expertos en IA clásica con algoritmos evolutivos. Aunque esto puede parecer contradictorio con lo dicho anteriormente acerca de la no necesidad de un diseñador inteligente, no lo es. El motivo (que no se llega a explicar en el artículo, ya que se asume conocido) es sencillamente cuestión de escala: la evolución biológica funciona gracias a la búsqueda en paralelo realizada por una cantidad ingente de individuos durante millones de años. Si se quiere acelerar el proceso y conseguir resultados antes de que el Sol queme todo su combustible nuclear, hay que introducir conocimiento externo en el proceso. Esto puede conseguirse de muchas maneras, e.g., introduciendo representaciones y algoritmos especializados de IA en la sopa primordial en la que trabajará el algoritmo evolutivo, o usando a este último para construir pequeños bloques funcionales que sean luego ensamblados por el experto humano.

En general, lo que se cuenta en este artículo no es sorprendente ni novedoso desde el punto de vista de la computación evolutiva. Si es destacable que se exprese en una revista cuya audiencia se englobla en su mayor parte dentro de la IA clásica. Ciertamente levantará controversia, lo que sin duda era uno de los objetivos.

Posted in Computación Evolutiva, Inteligencia Artificial | 1 Comment »