La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Archive for the ‘Sistemas Complejos’ Category

Geoingeniería: Medicina Planetaria contra el Calentamiento Global

Posted by Carlos en diciembre 7, 2009

Los seres vivos han estado realizando cambios a gran escala de las condiciones ambientales terrestres desde prácticamente la aparición de la vida. Algunos de estos cambios nos vinieron muy bien, como por ejemplo el enriquecimiento atmosférico de oxígeno gracias entre otros factores a los organismos fotosintéticos. Otros cambios parecen sin embargo problemáticos, como por ejemplo los derivados de la deforestación y del vertido atmosférico de gases de efecto invernadero. Estos parecen haber desbordado la capacidad de auto-regulación del planeta y nos llevarán a largo plazo a un nuevo estado estacionario de condiciones que directa o indirectamente pueden ser mucho menos favorables para la vida humana.

La respuesta a esta situación se ha planteado básicamente desde el punto de vista “paliativo”, intentando poner coto en cierta medida a la perturbación antropogénica del medio ambiente; aquí se encuadraría por ejemplo el controvertido Protocolo de Kyoto (PDF, 162KB). Siguiendo con la analogía médica, una alternativa menos conservadora sería la “desintoxicación”, esto es, actuar directamente para corregir las perturbaciones mediante obras de geoingeniería. Estaríamos hablando de obras de ingeniería a gran escala diseñadas específicamente con el propósito de alterar significativamente el medio ambiente para nuestro beneficio. James Lovelock, el científico multidisciplinar famoso por proponer la Hipótesis Gaia, acaba de publicar en las Philosophical Transactions of the Royal Society A un trabajo que lleva por título

en el que repasa alguna de las posibilidades al respecto. Por ejemplo, están los denominados barcos spray de Flettner, que navegarían los océanos de manera autónoma, bombeando agua salada en aerosol a la atmósfera. El objetivo es aprovechar el denominado efecto Twomey para incrementar el albedo de las nubes consiguiendo con ello un enfriamiento de la superficie. Serían necesarios unos 1 500 barcos de este tipo para conseguir el efecto deseado.

Relacionado con lo anterior, un sistema similar de tuberías situadas en plataformas marinas podría bombear agua de las profundidades a la superficie con la intención de (1) producir un enfriamiento de la misma, y (2) enriquecer de nutrientes las capas superficiales, provocando la eclosión masiva de algas fotosintéticas que absorberían CO2 atmosférico. Más aún, estas algas podrían recolectarse para producir alimentos y combustibles biológicos, y los residuos del procesamiento prensarse para su hundimiento en el fondo marino, quitando de la circulación (al menos de manera temporal) grandes cantidades de dióxido de carbono.

La producción de nutrientes a través de procedimientos químicos también se plantea como una opción quizás inevitable en el futuro. Dichos nutrientes se usarían a su vez para alimentar cultivos industriales de células vegetales y animales destinadas directamente al consumo humano. Es interesante resaltar un párrafo del propio Lovelock en el artículo citado inicialmente:

Misplaced fear stops us from using nuclear energy, the most practical and available geoengineering procedure of all; we even ignore the use of high temperature nuclear reactors for the synthesis of food and liquid fuels directly from CO2 and water.

Todo lo anterior plantea tanto desafíos tecnológicos como llegado el caso problemas éticos. La desintoxicación del planeta es una empresa que una vez empezada tendrá un incierto final (Lovelock señala por ejemplo que si se emplean los barcos spray, eventualmente habrá que empezar a preocuparse por la acidificación de los océanos, que requerirá de nuevas medidas y así sucesivamente). Los geoingenieros quizás necesitarán crear y respetar un análogo al juramento hipocrático. El artículo acaba con moralina:

Perhaps the saddest thing is that if we fail and humans become extinct, the Earth system, Gaia, will lose as much as or more than we do. In human civilization, the planet has a precious resource. We are not merely a disease; we are, through our intelligence and communication, the planetary equivalent of a nervous system. We should be the heart and mind of the Earth not its malady. Perhaps the greatest value of the Gaia concept lies in its metaphor of a living Earth, which reminds us that we are part of it and that our contract with Gaia is not about human rights alone, but includes human obligations.

Es una visión un tanto antropocéntrica de la vida en la Tierra, pero de eso se trata, ¿no?

Posted in Geociencias, Sistemas Complejos, What-if | Etiquetado: , , | 2 Comments »

Subasta de un dólar: no jugar no es la única forma de ganar, pero casi

Posted by Carlos en octubre 14, 2009

Dollar auction

El tiranosaurio está proponiendo un juego teórico clásico: la subasta de un dólar. El comportamiento descrito en la viñeta en el que se produce una guerra de pujas sin control se ha observado en simulaciones reales del juego, lo que indica cómo el factor psicológico domina en ocasiones al análisis racional.

Si ambos jugadores son racionales y su único objetivo es maximizar el beneficio propio, el juego termina en la primera puja, cuando el jugador #1 ofrece $0,99. El segundo jugador no pujará ya que cómo mínimo debería ofertar $1,00 y en el mejor caso se quedaría como está, y lo más probable es que se desatase una guerra de pujas en ese momento. También pueden intentar acordar una estrategia común, de manera que el jugador #1 puje con $0,01, el segundo no puje, y luego se repartan el dólar. El problema es determinar cómo, ya que el jugador #2 puede exigir $0,98 bajo amenaza de “o eso o nos arruinamos los dos”. Sería racional aceptar el trato, ya que los dos salen ganando, pero ¿es racional tomar una decisión basándose en una amenaza irracional? En cualquier caso lo más probable es que en la práctica el jugador #2 se conformara con $0,49 o incluso menos. Somos animales cooperativos en el fondo.

Posted in Cine, Citas, Sistemas Complejos | Etiquetado: , , , , , | Comentarios desactivados

La matemática de [REC]: Análisis de una infección zombi

Posted by Carlos en octubre 12, 2009

Hace unos días se ha estrenado [REC] 2, la secuela de la fantástica [REC] de Jaume Balagueró y Paco Plaza. El argumento es bien conocido: los habitantes de un bloque de viviendas (junto con un par de policias, un par de bomberos y un par de reporteros) deben enfrentarse al estallido de una infección zombi (usando el término “zombi” en sentido amplio). La película es interesante por múltiples motivos, pero vamos a centrarnos en dos aspectos particulares: (1) el edificio está aislado en cuarentena por las autoridades sanitarias, y (2) el equilibrio de fuerzas dentro del edificio va volcándose paulatinamente del lado de los infectados. Estos dos aspectos nos conducen a dos cuestiones fundamentales: la primera en relación con el punto (1) es si la estrategia de las autoridades sanitarias es correcta, y la segunda en relación al punto (2) es si la evolución del sistema hacia el desequilibrio mostrado en la película es realmente inevitable. Se trata de dos cuestiones que aparte de ser interesantes desde el punto de vista geek/nerd, constituyen un buen experimento mental con posibles aplicaciones a infecciones de carácter más mundano.

[REC]

Dar respuesta a estas cuestiones requiere modelar el problema como un sistema dinámico, de manera similar a como se realiza en ecología, epidemiología, etc. y ver cómo evoluciona en el tiempo. Un análisis de estas características es precisamente el realizado por Philip Munz y colaboradores, de la Carleton University y de la Universidad de Ottawa, en un trabajo que lleva por título:

y que forma parte del libro Infectious Disease Modelling Research Progress, editado por J.M. Tchuenche y colaboradores en Nova Science. Munz et al. consideran varios modelos de complejidad cada vez mayor para estudiar el sistema. En el primero y más básico se consideran tres tipos de sujetos:

  1. Los seres humanos “normales”, susceptibles (s) de convertirse en zombies.
  2. Los zombis (z).
  3. Los sujetos “retirados” (r), esto es, seres humanos que mueren por causa natural.

Inicialmente se parte de una población de sujetos susceptibles, sin zombis ni retirados, y a partir de ahí se produce un flujo de sujetos de una a otra categoría:

  • Un ser humano puede nacer (con tasa π), morir de causa natural y pasar a retirado (con tasa δ), o convertirse en zombi tras ser atacado por uno de estos (con tasa β, y proporcional a la población de zombis).
  • Un zombi puede pasar a retirado si un humano lo vence en un enfrentamiento (con tasa α).
  • Un sujeto retirado puede convertirse en zombi (con tasa ς).

Esto nos lleva a un sistemas de ecuaciones diferenciales que describe el sistema:

\begin{array}{rcl} ds/dt & = & (\pi-\delta) s - \beta sz \\ dz/dt & = & (\beta-\alpha) sz + \zeta r \\ dr/dt & = & \delta s + \alpha sz - \zeta r \\ \end{array}

Si se analiza el sistema de ecuaciones en una escala de tiempo muy corta en la que no se llegan a producir nacimientos ni muertes naturales (π=δ=0), la primera ecuación diferencial sugiere dos posibles estados estacionarios (S,Z,R): el primero (S,0,0) es aquel en el que no hay zombis; el segundo (0,Z,0) es el apocalipsis zombie (toda la población acaba infectada). Lamentablemente el análisis del Jacobiano del sistema en estos puntos estacionarios indica que la primera solución no es estable, pero la segunda sí, por lo que basta un pequeño empujón para que el sistema ruede cuesta abajo hacia el apocalipsis zombi.

Hay algún aspecto cuestionable en el sistema anterior, como por ejemplo el hecho de que los zombis destruidos pasen a la categoría de retirados y puedan “reciclarse” en zombis de nuevo. Si eliminamos el término αsz de la tercera ecuación no alteramos sin embargo el resultado anterior, al menos desde el punto de vista cualitativo. No obstante, vamos a tener en cuenta esta modificación del modelo de Munz et al. en lo sucesivo.

Para acercarnos más [REC] el siguiente paso es considerar ahora un modelo de infección latente. Munz et al. modelan esto como una nueva clase -infectados (i)- a la que llegan los susceptibles que son mordidos por un zombie, y de la que salen aquellos infectados que se transforman en zombis (con tasa ρ), y aquéllos que mueren antes de transformarse (con tasa δ, como los susceptibles). Con la modificación mencionada antes en relación a los “retirados” nos queda:

\begin{array}{rcl} ds/dt & = & (\pi - \delta)s -\beta sz \\ di/dt & = & \beta sz - (\rho + \delta) i \\ dz/dt & = & \rho i + \zeta r - \alpha sz \\ dr/dt & = & \delta (s + i) - \zeta r \\ \end{array}

En este escenario la situación es idéntica en el escenario π=δ=0, esto es, no pueden coexistir humanos y zombies, y sólo el apocalipsis zombi es una solución estable. Si realizamos una simulación numérica puede apreciarse el comportamiento cuantitativo del sistema. La siguiente gráfica corresponde a los parámetros π=δ=1/10 000 (tasas iguales de nacimiento y muerte natural), ς= 1/10 000 (tasa de zombificación de retirados), α=1/200 (tasa de destrucción de zombies), β=1/100 (tasa de infección), y ρ=1/200 (tasa de zombificación de infectados):

modelo-infeccion

Nótese como el número de zombis libres es durante la fase inicial del estallido muy bajo, aunque suficiente para inducir una infección latente descontrolada. Eventualmente el número de individuos sanos cae abruptamente, momento en el que el número de infectados deja de crecer y comienza el apocalipsis zombi, ya sin humanos sanos para hacerles frente. Una variante de este modelo es asumir que los infectados permanecen activos en la población, teniendo encuentros con los zombis y contribuyendo a su erradicación mientras no se consume la transformación. En ese caso, el resultado final sigue siendo un apocalipsis zombi, aunque más tardío, y con un número final de zombis mucho más bajo.

Introduzcamos ahora el siguiente factor de [REC], la cuarentena. Munz et al. modelan una nueva clase -cuarentena (q)- a la que llegan tanto sujetos infectados como zombis, y de la que salen únicamente los sujetos que intentan escapar y son eliminados, pasando a la categoría de retirados. Vamos a modificar esto ligeramente, suponiendo que la cuarentena efectivamente retira de la circulación a los sujetos aislados (vivos, muertos o infectados), sin posibilidad de que vuelvan a la categoría de retirados.

\begin{array}{rcl} ds/dt & = & (\pi - \delta)s -\beta sz \\ di/dt & = & \beta sz - (\rho + \delta + \kappa) i \\ dz/dt & = & \rho i + \zeta r - \alpha sz - \sigma z \\ dr/dt & = & \delta (s + i) - \zeta r \\ dq/dt & = &  \kappa i + \sigma z \\ \end{array}

Incluso en este caso, el apocalipsis zombi es prácticamente inevitable, si bien la cuarentena puede retrasar bastante el progreso de la infección. Munz et al. consideran un modelo adicional en el que es posible curar (pero no vacunar) a los zombis, y en este caso se alcanzan situaciones de equilibrio en las que coexisten zombis y humanos sanos (no es un escenario agradable, pero es mejor que el apocalíptico).

Sea como fuere, e incluso sin cura, podría haber otro tipo de estrategias ganadoras. Una de las claves de las simulaciones es el equilibrio demográfico de la población sana. En el momento en el que se comienza a producir la infección empieza el descenso de individuos sanos y tarde o temprano tiene lugar el apocalipsis zombi. Aumentar la tasa de nacimientos retrasa el proceso pero no lo evita. Para ello es preciso combinar un aumento de esta tasa de nacimientos con aumento de la tasa de destrucción de zombies. Bebés y lanzallamas, es una receta que nunca falla.

Posted in Ciencia Ficción, Cine, Geek, Matemáticas, Nerd, Sistemas Complejos, What-if | Etiquetado: , , , | 12 Comments »

Infecciones complejas en redes de mundo pequeño

Posted by Carlos en noviembre 9, 2007

Las redes complejas son una herramienta fenomenal para modelar infinidad de procesos naturales, sociales y tecnológicos. Básicamente la idea es representar a los actores que intervienen en el proceso (e.g., enzimas y metabolitos si estamos intentando modelar una red metabólica, animales si estamos modelando un sistema ecológico, etc.) como los vértices de un grafo, y conectarlos mediante arcos dirigidos o mediante aristas (según corresponda) si entre ellos existe una interrelación directa en el proceso de interés. Pensemos por ejemplo en una red social constituida por los habitantes de una cierta población. Construiríamos un grafo en el que los vértices son personas, y en la que añadimos un arco ab si la persona a conoce a la persona b (en este caso la relación será típicamente simétrica, por lo que los arcos serían aristas).

Si se construye una red de estas características, hay diferentes propiedades que con casi total seguridad se podrán observar. Una de estas -y la que más nos interesa en esta ocasión- es la propiedad de mundo pequeño. Esta propiedad -transmitida al folklore popular a través de los célebres seis grados de separación- establece que en una red de este tipo la longitud del camino (número de aristas que hay que atravesar) para ir de un nodo a otro cualquiera es pequeña, típicamente logarítmica en relación con el número total de nodos. Esto también suele reflejarse (aunque de manera más variable) en un alto agrupamiento de los nodos, esto es, en una alta probabilidad de que si un nodo está conectado a otros dos, entonces éstos también estén conectados entre sí (e.g., es probable que conozca a gente con la que tengo otros conocidos en común). La figura inferior ilustra un ejemplo clásico de red social basado en las relaciones de amistad dentro de un club de karate, y que fue estudiado por Wayne Zachary.

Zachary’s karate club network

El análisis de este tipo de redes sociales puede ser fundamental a la hora de realizar por ejemplo estudios epidemiológicos. Si el patrón de contagio de una enfermedad es simple, es decir, si basta con que un nodo tenga un vecino infectado para que con cierta probabilidad se infecte también (éste sería también el caso de las redes de computadores y los virus informáticos para poner por caso), la difusión de la enfermedad puede entenderse y predecirse fácilmente a partir de las propiedades topológicas de la red. En particular, resulta evidente que la presencia de enlaces largos (i.e., conexiones entre partes de la red que estarían de otra forma a relativa gran distancia) y de concentradores (nodos con elevada conectividad) favorecen mucho la difusión de infecciones simples así definidas. Esto llevó a Mark Granovetter a formular la siguiente aseveración:

Cualquier cosa que se vaya a difundir alcanzará a más personas y recorrerá una mayor distancia social si pasa a través de enlaces débiles [de larga distancia] antes que a través de enlaces fuertes [de corta distancia]“

Sin embargo, no todos los contagios (en el sentido amplio de transmisión de una cierta característica local de un nodo a otro) siguen el patrón simple descrito anteriormente. Por ejemplo, cuando el objeto del contagio es un cambio de hábitos sociales o conlleva la realización de actividades controvertidas o de riesgo, la infección no se realiza de un nodo a otro, sino que requiere que se cree una masa crítica de nodos vecinos antes de que un cierto nodo se infecte (e.g., alguien no va a cambiar de dieta porque un conocido lo haga, pero si un gran número de conocidos lo hacen o le sugieren que lo haga, se puede producir el cambio; obviamente, la masa crítica dependerá en cada caso de muchos factores, pero la idea subyacente es esa). Cabe entonces preguntarse si la afirmación de Granovetter, tan rotunda en el poder de los enlaces de larga distancia, sigue siendo aplicable en este caso. Eso es lo que Damon Centola y Michael Macy, de la Universidad de Cornell, han estudiado en un trabajo titulado:

que ha sido aceptado en el American Journal of Sociology. Centola y Macy analizan la difusión de contagios complejos en un tipo concreto de redes de mundo pequeño (retículos anulares en los que algunas aristas se reemplazan por aristas aleatorias). Uno de los conceptos centrales del análisis es el de “anchura de puente”, y que en cierto sentido es complementario al de “longitud de puente” (distancia que cubre el enlace). En esencia la anchura del puente entre un nodo A y un nodo B que comparten vecinos es el número de aristas entre los vecinos comunes de A y B y los vecinos sólidos de B que no lo son de A (la vecindad sólida de un nodo es el mismo más sus vecinos). Esta anchura de puente impone un límite superior a la complejidad de la infección que puede propagarse desde la vecindad de A a la vecindad de B. A una infección simple le basta una anchura de puente mínima (un enlace es suficiente) para saltar de un nodo a otro. Sin embargo, una infección que requiera dos vecinos infectados para infectar a un tercer nodo requiere una anchura de puente 3. Veámoslo con un ejemplo: supongamos A conectado a {G, H, J, K}, y B conectado a {J, K, M, N}; supongamos a su vez que J está conectado a {A, H, K, B}, que K está conectado a {A, J, B, M}, y que M está conectado a {B, K, N, O}. Los vecinos comunes de A y B son {J, K}, y el puente estaría formado por las aristas J-B, K-B, K-M (i.e., anchura 3). Si toda la vecindad de A está infectada, entonces las aristas J-B y K-B infectarían B, las aristas K-M, B-M infectarían M, y las aristas B-N, M-N infectarían N, completando el contagio a toda la vecindad de B.

En general la anchura de puente crítica en este tipo de redes para permitir el paso de un contagio complejo crece cuadráticamente con la complejidad de éste último. Esto quiere decir que un contagio complejo a larga distancia es muy improbable, ya que requeriría que se produjeran muchos enlaces de larga distancia entre los nodos afectados. Esto significa que la aseveración de Granovetter necesita al menos de una cierta matización cuando se tratan situaciones en las que el patrón de contagio es complejo. Más aún, la topología óptima de la red dependerá de este patrón. Esto es algo que debe ser tenido en cuenta en, por ejemplo, las campañas públicas de concienciación sobre temas sociales o de salud. ¿Sabrán algo de esto en los Ministerios? Seguro que sí.

Posted in Matemáticas, Sistemas Complejos, Sociedad | Etiquetado: , , | 2 Comments »

Un conjunto de Mandelbrot del tamaño del Universo visible

Posted by Carlos en octubre 29, 2007

Zambullirse en un fractal es siempre una experiencia interesante. El vídeo de abajo muestra una de estas zambullidas en el conjunto de Mandelbrot, profundizando de tal manera que si la escena final se asume de un tamaño similar al del monitor, la escena inicial tendría un tamaño superior al del Universo visible. Esto quiere decir que la magnificación es de unos 27 órdenes de magnitud.

Hay que recordar que el conjunto de Mandelbrot es el conjunto de los puntos c del plano complejo tales que la sucesión {0, f(0), f(f(0)), …, fn(0), …} está acotada cuando n tiende a infinito, siendo f(z) = z2 + c. El resultado es un conjunto conexo con una enorme riqueza morfológica en la zona de transición entre los puntos que pertenecen al conjunto y los que no. Se sabe que si para un cierto valor de c algún miembro de la sucesión tiene módulo mayor que 2, entonces c no pertenece al conjunto. Esto quiere decir que el complementario del conjunto de Mandelbrot es recursivamente enumerable (si asumimos que c es un número complejo expresable mediante números racionales). La cuestión de si el propio conjunto de Mandelbrot es recursivamente enumerable está aún abierta.

No por conocida es menos impactante la complejidad de las estructuras que nos vamos encontrando a medida que descendemos al sub-universo de Mandelbrot, con componentes auto-similares de diferente aridad. Es un viaje que sin duda no desmerece al que realizó David Bowman.

Posted in Arte, Calculabilidad, Matemáticas, Sistemas Complejos | Etiquetado: , | 6 Comments »

Vídeo de Richard Dawkins, Lewis Wolpert y Steve Jones sobre Evolución y Complejidad

Posted by Carlos en agosto 23, 2007

El debate sobre evolución y complejidad que tuvo lugar en el Museo de Historia Natural de Londres con Richard Dawkins, Lewis Wolpert y Steve Jones está al fin disponible en vídeo para su descarga aquí. Las opciones son formato .MOV (385×288, 624 MB), o formato .ASF (784×576, 1.29 GB). La duración del debate fue de 84 minutos. Quien tenga paciencia para la descarga se verá recompensado con un debate en el que surgieron cuestiones bastante interesantes.

Posted in Computación Evolutiva, Evolución, Nanoposts, Sistemas Complejos | 4 Comments »

¿Produce la radiación cósmica extragaláctica ciclos de extinción masiva en la Tierra?

Posted by Carlos en agosto 7, 2007

Uno de los aspectos más interesantes del desarrollo en la vida en la Tierra son las extinciones masivas, y sobre todo el hecho de que éstas se sucedan de manera bastante regular. Llega a darse el caso de que la relación entre la magnitud de estas extinciones masivas y el lapso de tiempo entre las mismas se ajusta bastante bien a una ley de potencias. Esta es una de las marcas características de numerosos sistemas complejos, lo que en principio es consistente con que dichas extinciones sean la consecuencia necesaria de la dinámica del sistema. En otras palabras, las causas de las extinciones serían locales o internas al sistema. Hay que decir que obviamente esto no es muy clarificador mientras no se definan exactamente las fronteras de este último: ¿la biomasa terrestre, el planeta entero, el Sistema Solar, …? En relación a esta cuestión hay que tener en cuenta que frecuentemente se han achacado las extinciones masivas (o al menos alguna de ellas) a eventos tales como impactos de meteoritos, supernovas, o estallidos de rayos gamma.

Indudablemente el tipo de fenómenos mencionado anteriormente puede y debe tener influencia en la dinámica de la vida terrestre, pero resulta un tanto forzado recurrir a eventos externos de aparición esencialmente impredecible para dar cuenta de una aparente periodicidad. De hecho, el registro fósil muestra picos de biodiversidad con una frecuencia de 62±3 Ma (millones de años) durante los últimos 542 Ma. ¿Existe algún proceso de esta periodicidad que pudiera dar cuenta de las extinciones masivas? Según Mikhail V. Medvedev y Adrian L. Melott, de la Universidad de Kansas, sí lo hay: las oscilaciones del Sistema Solar con respecto al plano galáctico. Está hipótesis la presentan en un artículo titulado:

que ha sido publicado en el Astrophysical Journal. La idea básica es que alrededor de la galaxia se produce un fenómeno análogo a la heliopausa en nuestro sistema solar: hay un “viento galáctico” (similar al viento solar), y se produce un shock de terminación en la interfaz de este viento galáctico y el medio intergaláctico. Dicho shock de terminación es una fuente de radiación cósmica extragaláctica, de cuyo efecto estamos protegidos al encontrarnos en zonas cercanas al plano galáctico gracias al apantallamiento del campo magnético de la galaxia. Sin embargo, el Sol oscila con respecto al plano galáctico con una periodicidad de 63.6 Ma. En el momento en que la fase de la oscilación nos sitúa en una posición más alejada del plano, estamos más desprotegidos.

galactosphere (credit: M.V. Medveded & A.L Melott; (c) - ApJ)
Credit: M.V. Medvedev & A.L. Melott – Astrophysical Journal

Lo anterior no es sin embargo toda la historia ya que de ser así, los ciclos serían de unos 32 Ma. La clave está en que hay una anisotropía a gran escala. La geometría de la zona de shock y del apantallamiento magnético está determinada por la disposición de las galaxias en el Grupo Local. Nuestro clúster de galaxias está a su vez inmerso en un superclúster cuyo núcleo está formado por el clúster de Virgo. Para dar una idea de la magnitud de éste último, su masa es unas 10,000 veces la de la Vía Láctea, y su volumen es aproximadamente 1,000 veces mayor. Con respecto al clúster de Virgo, el centro de masas del grupo local está al Sur galáctico, por lo que la fase más crítica en relación a la radiación extragaláctica que permea el superclúster local se produce cuando el Sol está al Norte Galáctico. En ese momento, la Tierra está expuesta a un baño de radiación que puede afectar al clima global, a la capa de ozono, a las tasas de mutación de los seres vivos, etc. De hecho, los ciclos que se observan datos disponibles en el registro fósil en relación a la biodiversidad coinciden muy bien con el flujo de rayos cósmicos que predice el modelo astrofísico, tal como se observa en la figura inferior, obra de los autores del trabajo y extraída de la versión preliminar del mismo.

Biodiversity vs. CR flux (credit: M.V. Medveded & A.L. Melott; (c) Astrophysical Journal)
Credit: M.V. Medvedev & A.L. Melott – Astrophysical Journal

La hipótesis es atractiva, pero depende de la corrección de los modelos astrofísicos que describen el flujo de radiación cósmica extragaláctica que recibimos. A medida que se profundice en nuestro conocimiento sobre los mismos es posible que el argumento de Medveded y Melott reciba un espaldarazo o se demuestre incorrecto. Veremos.

Posted in Astronomía, Evolución, Física, Sistemas Complejos | Etiquetado: , | 11 Comments »

Audio de Richard Dawkins, Lewis Wolpert y Steve Jones sobre Evolución y Complejidad

Posted by Carlos en agosto 1, 2007

El debate sobre evolución y complejidad con Richard Dawkins, Lewis Wolpert y Steve Jones del que hablamos hace unos días está ya disponible en audio:

Es una buena ocasión de oír a Dawkins confuso ante la idea de restricciones computacionales, de disfrutar de la pasión y humor de Wolpert, o de quedarse perplejo con Jones que recibió una llamada de su mujer al móvil durante el debate (Jones escribió precisamente un artículo en el Daily Telegraph sobre el congreso en el que se celebraba el debate y, bueno, digamos que arrima el ascua a su sardina). Aparentemente está en los planes poner también el vídeo del debate en algún momento, aunque dada la poca luz que había no sé si saldría algo.

Posted in Computación Evolutiva, Evolución, Sistemas Complejos, Vida Artificial | 5 Comments »

Debate sobre complejidad y evolución

Posted by Carlos en julio 10, 2007

El esperado debate sobre complejidad y evolución tuvo lugar ayer por la tarde-noche, en el marco incomparable del Museo de Historia Natural de Londres.

Diplodocus skeleton at the Natural History Museumof London

El museo cierra a las 17:50, pero nos lo abrieron en exclusiva para nosotros a partir de las 19:00. La charla tuvo lugar en la galería principal, en la que se ubica el esqueleto del diplodocus. Previamente, hubo una sesión de pósters en una galería aneja, decorada también con restos paleontológicos, y en la que a decir verdad estábamos bastante apretados (éramos varios cientos de personas).

Cuando se acercaba la hora de comenzar el debate la gente se acomodó en los asientos, y por algún motivo reverencial los asientos centrales de la primera fila eran evitados. Ni que decir tiene que a la vista de aquello, tomé asiento con gran placer en primera fila, a escasos dos metros del panel, acompañado de JJ que tenía una pregunta pre-seleccionada para los expertos. Al llegar la hora, llegaron nuestros ilustres invitados (de izquierda a derecha, el Dr. Richard Dawkins, el Dr. Lewis Wolpert, y el Dr. Steve Jones).

Discussion panel at the debate on Complexity and Evolution held during the GECCO'2007 conference

La ronda de preguntas se inició con JJ, que planteó al panel la cuestión de si la Evolución es una ley universal, y que lo que podamos aprender de ella será de utilidad para comprender el Universo, la sociedad, o para la ingeniería. Las respuestas fueron dos noes, y un “no, pero un poco sí”. Los noes provinieron de Wolpert y Jones, el primero de los cuales dejó claro la diferencia entre evolución y desarrollo (éste último es su campo de estudio precisamente). Dawkins también expresó su rechazo al uso excesivo de metáforas evolutivas para explicar casi cualquier fenómeno, aunque matizó que no sólo en el campo biológico se pueden aplicar los principios evolutivos (curiosamente, planteó como ejemplo a los virus informáticos).

Otra cuestión interesante fue planteada por Anna, que lanzaba al aire la cuestión de si hay alguna ventaja evolutiva en la existencia de los machos (lo que por extensión puede entenderse aplicable a la reproducción sexual). Parece evidente que debe ser así, dada la cantidad de esfuerzo que numerosos seres vivos emplean en ello, pero hubo unanimidad entre los expertos en resaltar las incógnitas que subyacen en relación a su necesidad. Desde el punto de vista del gen egoísta, la clonación podría ser la estrategia más beneficiosa, pero como Jones indicó, el proceso de recombinación de genes puede ser fundamental a la hora de acelerar la adaptación de la especie. Wolpert añadió un matiz interesante: la reproducción sexual proporciona una forma de selección genética si es la hembra la que escoge al compañero. Sin embargo, si es el macho el que escoge a la hembra, la cosa empieza a hacer aguas (la referencia social está clara). Surgieron también menciones a los motivos (que no son conocidos) por los que hay precisamente dos sexos, y no 100 (lo que aparentemente aumentaría las posibilidades de reproducción).

Una pregunta posterior hacía referencia a la existencia de restricciones computacionales en la Evolución, complementarias a las restricciones de tipo físico, o histórico. Esta pregunta dejó en fuera de juego a Dawkins, que no sabía como interpretarla hasta que el autor de la pregunta aclaró que se refería a cuestiones cognitivas, de capacidad de procesamiento de información. La respuesta fue que la mayoría de las restricciones son de tipo históricos, y que no hay en principio una dirección evolutiva preferente hacia el desarrollo de cerebros complejos, como es evidente por el hecho de que la mayoría de los seres vivos no lo tienen. Relacionado con esto, una pregunta posterior planteó el tema de cómo el límitado número de genes que tenemos permite codificar los billones de conexiones de nuestras neuronas. La respuesta es evidente: ni se codifican (el cerebro es un sistema dinámico y autoorganizativo), ni habría problema para ello llegado el caso (para codificar N elementos bastan del orden de log N dígitos).

El tema de la teoría de la información enlaza precisamente con otra de las cuestiones planteadas en relación al surgimiento de complejidad. Surgió una discusión interesante ya que para empezar no estaba claro el concepto de complejidad. Wolpert negaba dicho aumento sobre la base de que el proceso de desarrollo del embrión (en términos de señales bioquímicas) es muy similar entre especies, como lo es en términos generales el proceso de funcionamiento interno de una célula de diferentes especies. Jones era de similar opinión, aunque Dawkins introdujo la teoría de la información (de manera similar a la complejidad descriptiva, de la que hablábamos hace unos días): aunque un milpiés y una langosta son artrópodos y tienen el cuerpo segmentado, para describir un milpiés basta describir uno de sus segmentos, mientras que la descripción de la langosta requiere de explicaciones separadas para cada parte del cuerpo. Si se dijo que en principio no hay tampoco una ventaja inherente en ser más complejo.

Otras cuestiones hicieron referencia a la corrección a la vista de la evidencia empírica actual de los planteamientos originales de Darwin, o a la modularidad de la estructura de los seres vivos (como dato anecdótico, Dawkins afirmó haber programado en código máquina un Apple Macintosh en sus años mozos). Por supuesto, hubo ocasión de que surgiera el tema de la religión (con la postura bien conocida de Dawkins), y del diseño inteligente (fervorosamente demolido por Jones).

Como impresión a nivel personal, y dejando de lado la obviedad de que intelectualmente los tres panelistas son genios, Dawkins me pareció un tanto arrogante, no por su tono, sino por su lenguaje corporal durante la conferencia, y por su huida a toda prisa una vez se finalizó. Sin embargo Wolpert me pareció una persona encantadora, lleno de fuerza y humor, apasionado en sus afirmaciones, y suficientemente accesible con los que fuimos a saludarle tras el debate. Chapeau por él.

Posted in Evolución, Sistemas Complejos | 15 Comments »

Fomentando las redes sociales

Posted by Carlos en julio 9, 2007

Aunque la organización del congreso es francamente mejorable (ya habrá ocasión de dar un repaso general al final de la misma), hoy nos han sorprendido con un detalle curioso: un programa personalizado en el que indican a cada uno qué presentaciones pueden ser de su interés, e incluso a qué gente debería intentar conocer. El mecanismo que han empleado no es muy sofisticado a priori: se buscan coincidencias entre las palabras clave que cada cual introduce en los trabajos que presenta, o que proporcionó al registrarse en el congreso. Claro que la cosa puede hacerse más complicada si se tiene en cuenta que a todo el mundo se le proporciona una lista de n personas, y que debe maximizarse el ajuste global de las recomendaciones, sujeto a la restricción de que todo el mundo sea recomendado un número similar de veces (o al menos una vez). No se si lo hacen así, y de hecho me temo que no es el caso, dado que eso plantearía un interesante problema de optimización, y que la organización no está siendo desbordantemente buena.

En mi caso, de la gente que me recomiendan ya conocía a una persona de anteriores ocasiones, y otra de ellas se nos acercó ayer tras el tutorial (lo que es un punto a favor de la lista, ya que todavía no la teníamos). En lo que posiblemente no han pensado es que encontrar a una persona la que no conoces físicamente en un congreso de estas dimensiones es tarea complicada (salvo que presente algún artículo, y puedas ir a tiro fijo), pero bueno, la intención es lo que cuenta.

Posted in Optimización Combinatoria, Sistemas Complejos | 4 Comments »