La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Archive for the ‘Filosofía’ Category

Demostraciones de P

Posted by Carlos en febrero 12, 2010

JJ nos muestra en Atalaya la plantilla de una sesuda tertulia en la que se debate sobre la posible ocurrencia futura de X. Esta animada discusión me ha recordado una hilarante serie de demostraciones de P de acuerdo con la plantilla argumental de diferentes filósofos. Así por ejemplo, Nelson Goodman aduciría que:

Zabłudowski ha insinuado la falsedad de mi tesis de que P , sobre la base de unos supuestos “contraejemplos”. Sin embargo, estos así llamados “contraejemplos” dependen de una interpretación de mi tesis obviamente diferente a la pretendida, ya que yo pretendía que mi tesis no tuviera contraejemplos. Por lo tanto, P.

John Earman diría por su parte que

Hay soluciones a las ecuaciones de campo de la relatividad general en las que el espacio-tiempo tiene la estructura de una botella de Klein cuatridimensional en la que no hay materia. En cada una de estas soluciones se falsifica la afirmación de que ¬P. Por lo tanto P.

Aunque mi favorito es Platón:

SÓCRATES: ¿No es cierto que P?

GLAUCÓN: Estoy de acuerdo.
CÉFALO: Diríase que sí.
POLEMARCO: Necesariamente.
TRASÍMACO: Sí, Sócrates.
ALCIBÍADES: Por supuesto, Sócrates.
PAUSANIAS: Así es, si queremos ser consistentes.
ARISTÓFANES: Con seguridad.
ERIXÍMACO: El argumento apunta ciertamente en esa dirección.
FEDÓN: Totalmente.
FEDRO: Lo que dices es cierto, Sócrates.

Quién quiera ver más de estas demostraciones puede encontrarlas aquí y aquí entre otros sitios.

Posted in Filosofía | Etiquetado: , , , | 1 Comment »

El amigo de Wigner y los misterios de la mecánica cuántica

Posted by Carlos en agosto 18, 2008

Eugene Paul Wigner

Eugene Paul Wigner (1902-1995)

La física se está volviendo terriblemente compleja, tanto que para cuando un físico aprende lo suficiente para comprender la naturaleza de los problemas ya es demasiado viejo para solucionarlos.

Eugene Wigner, físico y matemático húngaro

Eugene P. Wigner fue un físico y matemático de origen húngaro, fundamentalmente conocido por su investigación en el área de la mecánica cuántica y la física nuclear, la cual le valdría en 1963 el Premio Nobel de física. Científico de enorme talento, realizó también incursiones en un campo de índole más filosófica en relación a la interpretación de la mecánica cuántica como descripción de la realidad física, y más concretamente del papel que un observador consciente juega en el modelado de dicha realidad.

A grandes rasgos, un sistema se describe mecanico-cuánticamente mediante una función de onda que evoluciona en el tiempo y que contiene nuestro conocimiento sobre el mismo y los estados en los que puede encontrarse. A nivel macroscópico esta descripción no es determinista, ya que a partir de la función de onda sólo pueden determinarse probabilidades de cada uno de los estados del sistema. En un nivel práctico, el proceso de observación de dicho estado constituye una medida del sistema, y si se repite un gran número de veces la distribución de probabilidad de los resultados tenderá a reproducir la predicción de la función de onda. Existen en cualquier caso un número de cuestiones de fondo de naturaleza ontológica, tales como por ejemplo la realidad física de la función de onda, o el significado preciso de medida u observación.

Desde el punto de vista más clásico, la interpretación de Copenhague sugiere que la función de onda no es más que una construcción matemática sin naturaleza real, y que el proceso de medida resulta en un colapso de dicha función, obteniéndose un resultado de la observación de acuerdo con las probabilidades indicadas por la función de onda. Un punto de vista diametralmente opuesto, la interpretación de los múltiples universos, se basa en la idea de decoherencia cuántica, y sugiere que cuando la interacción de un sistema con su entorno alcanza un estado irreversible (diferentes partes de la función de onda del sistema se entrelazan con la función de onda del entorno de manera que no pueden seguir interfiriéndose), se produce una ramificación en universos alternativos en los que la función de onda parece haber colapsado a cada uno de los posibles resultados de la interacción. Ambas interpretaciones –la de Copenhague y la de los múltiples universos– tienen a su vez diferentes variantes (véase también el apunte de Pedro J. en relación a estos aspectos).

El experimento del gato de Schrödinger

El experimento del gato de Schrödinger

Interpretaciones como la de los múltiples universos simplifican la cuestión del proceso de medida, en particular en relación a la participación de un observador consciente, aunque la divergencia de un número potencialmente infinito de universos pueda parecer una solución poco económica. Por otra parte, la interpretación de Copenhague adolece de la vaguedad de la noción de medida, y es precisamente en este contexto en el que Eugene Wigner propuso el experimento mental conocido como el “amigo de Wigner”. Este experimento es una extensión del conspicuo experimento del gato de Schrödinger, y en él suponemos que la celda del gato está dentro de una celda mayor en la que hay otro científico que participa en el experimento (además de Wigner que permanece en el laboratorio fuera de ambas cajas). De acuerdo con la interpretación de Copenhague del experimento clásico, el gato esta en un estado de superposición vivo/muerto hasta que el observador abre la caja y comprueba su contenido. En el experimento de Wigner se procede del mismo modo, pero dado que el amigo de Wigner está a su vez dentro de una caja, el primero no sabe qué es lo que este último ha observado hasta que él mismo abra la celda y le pregunte. La cuestión es: ¿está el gato en un estado macroscópicamente definido una vez que el primer observador abre la caja, o sólo cuando Wigner descubre el resultado final? De asumir que no lo está en el momento en el que el amigo de Wigner abre la caja del gato, sino que se produce una superposición “gato vivo-amigo feliz”/“gato muerto-amigo triste”, podemos aplicar el mismo razonamiento a Wigner con relación a un tercer observador, y así sucesivamente. Se ha producido una catástrofe de von Neumann que sólo se puede solventar si se asume que fue el primer observador consciente el que hizo que la función de onda colapsara.

Nuevamente, la interpretación de los múltiples universos elimina esta aparente necesidad de un observador consciente, pero no es la única. Por ejemplo, teorías de colapso objetivo, e.g., la abogada por Roger Penrose, simplifican la cuestión: tan pronto como la superposición de estados alcanza una complejidad crítica se produce el colapso de manera espontánea. Ambas interpretaciones resultan satisfactorias, partiendo por supuesto de la base que el observador consciente no ha de tener ningún papel especial, lo cual parece bastante razonable. Como dijo Einstein, “¿de veras piensas que la Luna no está cuando no la miras?

Posted in Citas, Física, Filosofía | Etiquetado: , , , | 7 Comments »

Recursividad Indirecta

Posted by Carlos en mayo 5, 2008

… o quizás una vuelta de tuerca al argumento de la simulación.

To Be Wanted

Posted in Algorítmica, Comic, Filosofía | Etiquetado: , , | 4 Comments »

Paul Davies y la Fe implícita en la Ciencia

Posted by Carlos en diciembre 19, 2007

El debate entre ciencia y religión es recurrente, y con frecuencia cansino y repetitivo. A fuer de ser sinceros, en muchas ocasiones es también artificial, al menos en el contexto del judeo-cristianismo, en general alejado de literalismos (por supuesto, con clamorosas y ruidosas excepciones). En cierto sentido, esto es lo que llevó a Stephen Jay Gould a postular su principio de los magisterios separados, esto es, que ciencia y religión son paradigmas diferentes cuyos campos de aplicación son distintos, y para los que en cada caso uno es apropiado y el otro no. Esta idea no está exenta de crítica, ya que por ejemplo Richard Dawkins -rememorando u honrando quizás cuitas anteriores- considera que cuestiones tales como la existencia de Dios entran dentro del ámbito de lo científico, y son falsables. Un punto de vista diferente al de los dos anteriores es el expuesto recientemente por Paul Davies en un artículo de opinión en el New York Times titulado “Taking Science on Faith“. El argumento principal de Davies es negar la separación entre el magisterio científico (basado en modelar, explicar y predecir lo empírico) y el magisterio religioso (basado en la creencia de lo que aparentemente carece de base empírica), no porque el objeto último de la creencia sea falsable, sino porque el propio paradigma científico tiene también su propio sistema de creencias. En sus propias palabras:

Toda la ciencia se basa en la suposición de que la naturaleza tiene un orden racional e inteligible. Uno no podría ser científico si pensara que el universo es un revoltijo sin sentido de probabilidades y sucesos yuxtapuestos azarosamente. Cuando los físicos investigan un nivel más profundo de la estructura subatómica, o cuando los astrónomos extienden el alcance de sus instrumento, esperan encontrar un elegante orden matemático. Y hasta el momento esta fe ha estado justificada.

Indudablemente, este anhelo de orden y elegancia matemática existe, y va más allá de que sea imprescindible para poder realizar ciencia: está profundamente imbricado en nuestras mentes, constituyendo en muchas ocasiones el motor del avance científico. Sea como fuere, ¿es racional esta suposición? En términos prácticos está claro que hasta el momento funciona, y que si resultara irracional, la propia ciencia -incluso el universo- lo sería también. En el mejor de los casos todo sería una siniestra broma, un castillo en el aire sin razón ni base.

La cuestión -una vez que se tienen las leyes físicas- es entonces dar con el porqué de dichas leyes. Al llegar a este punto es donde la física puede empezar a convertirse en meta-física. Considerar que las leyes físicas son así como las observamos, pero que el motivo de las mismas está fuera de nuestro alcance nos lleva a una suerte de deísmo, aunque sea involuntario. Uno de los argumentos más recientes para explicar el origen de estas leyes, y cómo éstas parecen estar finamente ajustadas para nuestra existencia es el bien conocido Principio Antrópico. Este principio encaja muy bien con los modelos que emanan de la Teoría de Cuerdas y que sugieren que hay un gran número de universos posibles (en torno a 10500, correspondientes a diferentes mínimos dentro de un paisaje cósmico). A nadie escapa que una explicación antrópica es poco atractiva en términos científicos, lo que indirectamente resulta en la paradoja de que que se refuerce su aceptación por parte de la comunidad física ante el fracaso en la búsqueda de explicaciones no-antrópicas (mucho más “digeribles”).

Cosmic Landscape

En cualquier caso, Davies argumenta en relación a la existencia y funcionamiento de este paisaje cósmico (y en realidad de cualquier multiverso que pudiera existir), y sobre cuáles son los mecanismos físicos que llevan a la creación de estos múltiples universos, y que fijan sus leyes locales. La cuestión sobre el origen de las leyes físicas se traslada entonces a otro nivel superior. Suponer que las meta-leyes que gobiernan la existencia de las leyes locales son eternas y prefijadas es una suposición que puede hacerse transitoriamente, pero que en última instancia ha de poder plantearse y explicarse en términos científicos. Según Davies:

[...] Las leyes deberían tener una explicación desde dentro del universo, y no apelar a un agente externo. Los detalles de la explicación son materia de investigación futura, pero mientras la ciencia no encuentre una teoría comprobable de las leyes del universo, la afirmación de que está libre de fe es manifiestamente falsa.

Como dicen los angloparlantes, food for thought.

Posted in Ciencia, Filosofía, Religión | Etiquetado: , , | 14 Comments »

Catástrofes evolutivas y razonamiento antrópico

Posted by Carlos en octubre 6, 2007

La hipótesis de la Tierra Rara es un conocido argumento en astrobiología que asegura que la emergencia de vida pluricelular (por no hablar ya de vida inteligente) en la Tierra es el resultado de la improbable confluencia de numerosas circunstancias de orden astrofísico y geológico. Un elemento central de la hipótesis es el llamado fenómeno Goldilocks (en honor al personaje de una historia popular inglesa -Ricitos de Oro- a quien no le gustaba el porridge ni muy frío ni muy caliente), según el cual la existencia de vida en la Tierra se basa en que diversos parámetros (temperatura, presión, etc.) están dentro de un cierto rango muy limitado de valores admisibles.

K/T ImpactEste tipo de razonamientos antrópicos suelen emplearse por ejemplo para dar respuesta a la paradoja de Fermi: si la vida pluricelular es un fenómeno raro en el Universo, tanto más lo es la existencia de vida inteligente. En nuestro caso concreto, nuestra evolución es el resultado de diferentes eventos entre los que pueden destacarse numerosas extinciones masivas provocadas (o precipitadas/potenciadas/…) por fenómenos externos. Pensemos por ejemplo en el impacto de Chicxulub hace 65 millones de años: si el cuerpo que impacto contra la Tierra hubiera sido un orden de magnitud más pequeño hubiera provocado una gran catástrofe a escala local, pero más difícilmente una extinción masiva. Por otra parte, si hubiera sido un orden de magnitud mayor, es posible que la extinción hubiera alcanzado a casi todas las formas de vida compleja. Por supuesto, no puede saberse qué rumbo hubiera tomado la evolución de no mediar este tipo de eventos, y quizás un dinosaurio inteligente se estaría haciendo preguntas similares ahora.

La cuestión en cualquier caso es hasta qué punto nuestra observación sobre la historia pasada de la Tierra es extrapolable (en el sentido que sea) a otros posibles planetas extrasolares, y al hipotético surgimiento de vida en los mismos. Esto es lo que Milan M. Ćirković, del Observatorio Astronómico de Belgrado, estudia en un trabajo titulado

aceptado para publicación en el International Journal of Astrobiology. El análisis de Ćirković indica que nuestra propia existencia como observadores condiciona nuestras estimaciones sobre la probabilidad de diferentes eventos catastróficos por un efecto de selección de observaciones. Para ilustrarlo describe un ejemplo simplificado. Supongamos una cierta catástrofe C cuya probabilidad a priori en un millón de años es p. Supongamos ahora que de haberse producido dicha catástrofe, la probabilidad de supervivencia de la raza humana era q. ¿Cuál es la probabilidad de que se produjera la catástrofe C, dado que nosotros estamos aquí para contarlo? Si llamamos E al evento de nuestra existencia actual, tenemos que de acuerdo con el Teorema de Bayes

P(C|E) = \frac{P(C)P(E|C)}{P(C)P(E|C)+P(\neg C)P(E|\neg C)} = \frac{pq}{1-p+pq}

dado que de no ocurrir C, la probabilidad de supervivencia sería 1. Es fácil ver que P(C|E) es menor que p, y que la relación p/P(C|E) -esto es, la subestimación debida a causas antrópicas- tiende a infinito cuando menor es la probabilidad de supervivencia q. En otras palabras, la historia de la Tierra subestima la probabilidad real de eventos catastróficos, y esto es tanto más así cuanto más catastrófico es dicho evento.

Por un lado, este resultado puede verse como refuerzo de la hipótesis de la Tierra Rara, ya que indica que las probabilidades a priori de extinciones catastróficas son aún mayores. Sin embargo, debe tenerse en cuenta la salvedad introducida anteriormente acerca de nuestra identidad como observadores. El evento E ha de interpretarse como la existencia de seres humanos en este momento de la historia de la Tierra. Si se considera otro posible observador consciente en este momento habría que reconsiderar las probabilidades de supervivencia (o de promoción de la misma) para los eventos catastróficos. El impacto de Chicxulub (o cualquier otro fenómeno que pudiera haber causado o precipitado la extinción de los dinosaurios) fue un golpe de suerte para nosotros, pero supuso el golpe de gracia para otros hipotéticos observadores inteligentes.

Posted in Exobiología, Filosofía, Matemáticas | Etiquetado: , , , , , | 4 Comments »

Francis Collins vs. Richard Dawkins: ¿Pueden los guantes de Dios parar el golpe de la prueba?

Posted by Carlos en septiembre 20, 2007

En la Geekipedia de Wired hay una entrada que se titula “Faith smackdown“, y que está planteada como un combate dialéctico a tres asaltos entre Richard Dawkins y Francis Collins sobre la existencia de Dios. El resultado de la confrontación -se puede votar a favor de los argumentos de cada uno de los contendientes- es una clara victoria a favor de Dawkins a los puntos.

Faith Smackdown

Las citas que se resaltan en la página referida han sido extraídas de un debate más extenso que Dawkins y Collins mantuvieron en la revista Time. Merece la pena leer este debate completo, tanto el propio interés del mismo, como para contextualizar las citas entresacadas. La postura de Richard Dawkins es bien conocida, pero quizás no tanto la de Francis Collins -a la sazón líder del Proyecto Genoma Humano, y Premio Príncipe de Asturias a la Investigación Científica y Técnica en 2001- que puede describirse como evolucionismo teísta (BioLogos, como él mismo ha acuñado), alejado del creacionismo y del diseño inteligente. Es una posición que bordea en algunos momentos el deísmo, aunque formalmente Collins parece adscribirse al Protestantismo. En cualquier caso, a pesar de que el debate se plantee en términos de un antagonismo entre las posturas de Dawkins y Collins, la distancia entre ellos no es tan insalvable como pudiera parece en un principio. Una de las grandes diferencias entre sus puntos de vista -e identificada como tal durante el debate- es la existencia de una noción moral del Bien y el Mal independiente del proceso de refuerzo evolutivo (existencia asumida por Collins y rechazada por Dawkins). En términos de la confrontación -recurrentemente planteada- entre ciencia y fe, Dawkins ve a esta última como un defecto fatal que puede echar por tierra el rigor del proceso científico, mientras que para Collins no es así, ya que -afirma- únicamente se trata de una cuestión de qué se cree posible o no a priori. Por lo demás, mi impresión es que las afirmaciones de ambos son en muchas ocasiones ortogonales más que contrapuestas. A modo de resumen global del debate, me quedo con las conclusiones individuales de cada uno:

I just would like to say that over more than a quarter-century as a scientist and a believer, I find absolutely nothing in conflict between agreeing with Richard in practically all of his conclusions about the natural world, and also saying that I am still able to accept and embrace the possibility that there are answers that science isn’t able to provide about the natural world–the questions about why instead of the questions about how. I’m interested in the whys. I find many of those answers in the spiritual realm. That in no way compromises my ability to think rigorously as a scientist.

Francis Collins

My mind is not closed, as you have occasionally suggested, Francis. My mind is open to the most wonderful range of future possibilities, which I cannot even dream about, nor can you, nor can anybody else. What I am skeptical about is the idea that whatever wonderful revelation does come in the science of the future, it will turn out to be one of the particular historical religions that people happen to have dreamed up. When we started out and we were talking about the origins of the universe and the physical constants, I provided what I thought were cogent arguments against a supernatural intelligent designer. But it does seem to me to be a worthy idea. Refutable–but nevertheless grand and big enough to be worthy of respect. I don’t see the Olympian gods or Jesus coming down and dying on the Cross as worthy of that grandeur. They strike me as parochial. If there is a God, it’s going to be a whole lot bigger and a whole lot more incomprehensible than anything that any theologian of any religion has ever proposed.

Richard Dawkins

(¡Gracias Pablo!)

Posted in Ciencia, Citas, Filosofía, Personajes | Comentarios desactivados

¿Se puede (o se debe) definir la vida?

Posted by Carlos en septiembre 13, 2007

En todas las discusiones sobre las posibilidades de existencia de vida fuera de la Tierra surge siempre la cuestión de qué es lo que se entiende por vida. Ese es el caso de por ejemplo las estructuras autorreplicantes que se han teorizado en simulaciones de nubes de polvo interestelar: de existir realmente, ¿deberían ser consideradas como vivas? En este caso concreto los autores argumentaban que sí en base a una definición -bastante razonable por otra parte- de vida, en la que la capacidad autoorganizativa, el consumo energético, y la adaptación evolutiva se consideraban características esenciales. La cuestión es: ¿debe aceptarse esa definición? O yendo más lejos aún, ¿es posible/correcto hacer una definición de vida?

Esta última cuestión fue lanzada por Carol Cleland, profesora de filosofía de la Universidad de Colorado, según nos cuenta Carl Zimmer en un interesante artículo en Seed Magazine. Para entender mejor el punto de vista de Cleland puede hacerse un recorrido por algunas de las diversas definiciones de vida que se han realizado. Por ejemplo, las primeras definiciones modernas, allá por los años 50 del siglo pasado, se centraban en la biología molecular, y en cómo se producían complejos orgánicos y se almacenaba información en los mismos. Este tipo de definición puede considerarse problemática en tanto en cuanto mezcla el qué con el cómo. Recuérdese en este sentido el caso de la búsqueda de vida en Marte, y cómo los resultados de las pruebas realizadas en la misión Viking -orientados a buscar formas de vida análogas a las existentes en la Tierra- dieron resultados ambiguamente negativos. Al fin y al cabo, las condiciones de vida en Marte distan mucho de las terrestres, por lo que de existir vida, ésta podría diferir formalmente en aspectos que estamos dando por sentados.

Esta problemática sugiere que puede ser más interesante buscar una definición funcional de la vida. Ése era el caso mencionado en el ejemplo de las hélices en las nubes de polvo interestelar, en la que la capacidad evolutiva -diferente en la forma, pero en el fondo equivalente en términos de los mecanismos básicos subyacentes, esto es, replicación imperfecta y selección natural- es uno de los aspectos fundamentales. Este tipo de definiciones resulta más satisfactoria, en tanto en cuanto intenta ir más a la esencia de qué es la vida, y no a los aspectos de su implementación (que pueden estar dictados por condiciones locales). No obstante, sigue existiendo un problema, en parte debido a nuestra percepción subjetiva de qué esta vivo y qué no (incluso hay quien distingue entre seres vivos y formas de vida, aunque esta distinción puede ser quizás sólo justificable a posteriori). De hecho, Cleland ha seguido el enfoque de buscar para cada definición de vida propuesta contraejemplos positivos o negativos. Algunos son meramente experimentos mentales, como por ejemplo imaginar unos microorganismos en los que no hubiera código genético, sino sólamente enzimas. Unos seres de este tipo se podrían reproducir por bipartición, y adaptarse a cambios ambientales mediante cambios en la “demografía” enzimática. Se podría seguir hablando de evolución, aunque sólo en un sentido mucho más general del que normalmente se emplea.

Quizás uno de las mejores analogías para ilustrar la posición de Cleland es la que ésta proporciona en relación a los alquimistas medievales, que entendían los compuestos químicos a través de sus propiedades. Por ejemplo, el agua se definía por su capacidad de disolver otras sustancias sólidas, lo que por un lado excluía al hielo, y por otra parte incluía a compuestos como el ácido nítrico (el aguafuerte) o la combinación de éste con ácido clorhídrico (el agua regia). Hoy sabemos que el agua es H2O, pero esto no es una definición, sino un hecho descubierto dentro de una teoría química. Eso es precisamente lo que Cleland reclama, una teoría de la vida, un marco científico que explique qué es lo relevante para la vida, qué formas puede tomar, y por qué es eso así. En otras palabras, una especie de meta-biología. El problema evidente es que sólo tenemos un ejemplo de vida, por lo que difícilmente se puede desarrollar una teoría que se generalice a formas de vida de las que no tenemos conocimiento.

Ante un problema tan evidente como el anterior, hay una solución igualmente obvia: encontrar otras formas de vida, ya sea surgidas de manera natural en otros cuerpos del Sistema Solar, o creada de manera artificial en la propia Tierra (por ejemplo, formas de vida independiente enteramente basadas en ARN). Puede parece que hay una circularidad en esta situación: para encontrar nuevas formas de vida y generalizar nuestra concepción de la misma hay que empezar por ser capaces de reconocerla, lo que de entrada puede requerir dicha generalización. Esto puede ser así, aunque también puede considerarse simplemente un caso de bootstrapping. Siempre pueden encontrarse criterios lo suficientemente genéricos para considerar como vivos a organismos enormemente diferentes a los que conocemos. La cuestión entonces no es que no se deba definir qué es la vida, sino encontrar una definición inicial que sea lo suficientemente relajada para que la vida tal como se presenta en la Tierra no sea la única posibilidad, y a la vez lo suficientemente estricta como para que el tipo de sistemas susceptibles de ser considerados vivos pueda ser reconocido de manera razonable. Al fin y al cabo, si se encuentran formas de vida diferente a la que conocemos vamos a estar ocupados mucho tiempo antes de tener que volver a preocuparnos por criterios todavía más genéricos.

Posted in Biología Molecular, Evolución, Exobiología, Filosofía | Etiquetado: , | 4 Comments »

La paradoja de Fermi y el futuro de la Humanidad

Posted by Carlos en agosto 15, 2007

A medida que vamos profundizando en nuestro incipiente conocimiento sobre el Universo, la posibilidad de vida extraterrestre inteligente y el hecho de que no hayamos detectado evidencias por doquier de la misma -la Paradoja de Fermi- se convierte en una de las cuestiones que están necesitando cada vez más de una explicación convincente. A lo largo de los años se han ido proponiendo diferentes argumentos más o menos sólidos, y quizás parte del interés de estos argumentos sea lo que nos toca a nosotros mismos por ser una civilización tecnológica. En otras palabras, si hay algún motivo por el que otras civilizaciones no se han expandido por la galaxia y/o han dejado pruebas visibles de su existencia, ese motivo nos será eventualmente aplicable en principio a nosotros. En este sentido he encontrado interesante un par de artículos de George Dvorsky en su blog Sentient Developments. Dichos artículos son a su vez un resumen de una ponencia titulada “Whither ET? What the failing search for extraterrestrial intelligence tells us about humanity’s future“, que Dvorsky presentó en TransVision 2007, una conferencia sobre transhumanismo. Antes de mostrar sus impresiones sobre el camino que la evolución de una civilización tecnológica puede tomar, Dvorsky enumera los caminos que *no* toma, y que según él son en muchos casos frutos de preconcepciones humanas. Así, para Dvorsky una civilización avanzada …

  • … no muestra su presencia a la comunidad local, ni realiza esfuerzos para entablar contacto activo. Los resultados del proyecto SETI parecen señalar que ése es el caso. No sería por ejemplo muy costoso para una civilización avanzada de este tipo el sembrar la galaxia de balizas de comunicaciones autorreplicantes (Bracewell probes) que detectaran posibles civilizaciones emergentes, y emitieran señales dirigidas que no pudieran pasar desapercibidas.
  • … no coloniza la galaxia. No se trata únicamente de expandirse físicamente por otros sistemas, sino que tampoco se envían sondas de exploración autorreplicantes (von Neumann probes) que podrían abarcar muy rápidamente la galaxia.
  • … no esteriliza la galaxia. Este es uno de los argumentos clásicos de la ciencia-ficción: la civilización extraterrestre malévola que elimina la competencia mediante la esterilización de cualquier sistema en el que se detecte que puede estar emergiendo una civilización tecnológica. El hecho de que estemos aquí parece descartar que se empleen sistemas de esterilización a gran escala usando por ejemplo sondas xenocidas (berserker probes).
  • … no interactúa ni ayuda a desarrollarse a civilizaciones pre-singularidad. Ni siquiera un monolito de vez en cuando, como toda nuestra historia demuestra.
  • … no realiza ingeniería a escala cósmica. No hay ninguna evidencia observacional de obras de ingeniería estelar, esferas de Dyson, etc.

NASA's conception of the Terrestrial Planet Finder. Is it possible alien civilizations are too far away for meaningful communication?Dvorsky no abunda mucho sobre el particular, pero la problemática de las sondas autorreplicantes es bien conocida: todo sistema con replicación potencialmente imperfecta dejado a su suerte evoluciona de manera impredecible, por lo que es razonable que ninguna civilización tome el riesgo de hacerlo. Por otra parte, una vez que todo mecanismo de propagación es no-autorreplicable no se debe descartar a la ligera los puntos segundo a cuarto anteriores, pero la ausencia de otro tipo de evidencia observacional es un factor que no se puede obviar. El punto quinto puede también explicarse por la falta de necesidad de embarcarse en este momento en ese tipo de obras de ingeniería; la energía está ahora disponible de manera abundante en el Universo, pero las cosas no serán siempre así.

¿Qué es entonces lo que una civilización avanzada sí hace? A grandes rasgos las explicaciones que para Dvorsky son razonablemente admisibles sobre el devenir de una civilización tecnológica (a la luz de no hay trazas de la existencia de ninguna) son la auto-destrucción antes de llegar al estadio de expansión espacial, y la migración digital (la transferencia de consciencias a simulaciones aisladas del resto del Universo físico). Ninguna de las dos son especialmente atractivas, pero una vez descartadas lo que nos queda son explicaciones un tanto ad hoc, lo que por otra parte tampoco las hace descartables. Puede por ejemplo ser improbable que seamos la primera civilización que llegue a sobrevivir para expandirse por la galaxia, pero no es imposible salvo que se demuestre lo contrario. Dvorsky saca a colación la hipótesis de la convergencia fuerte, que viene a afirmar que al igual que en la evolución biológica, en la evolución de las civilizaciones existen restricciones que condicionan su desarrollo, y que existe una especie de atractor hacia el que convergen las civilizaciones avanzadas. Si el óptimo de “eficiencia” (como quiera que se esté definiendo en este caso) está en torno a la migración digital habría una explicación a la paradoja. De todas formas, la hipótesis de la convergencia fuerte es de Nick Bostrom, el mismo filósofo del Argumento de la Simulación, por lo que yo no me lo tomaría muy en serio…

Posted in Astronomía, Ciencia Ficción, Informática, Filosofía | Etiquetado: , , , , | 27 Comments »

El Argumento de la Simulación (II): ¿Y qué si somos Sims?

Posted by Carlos en marzo 20, 2007

Tal como comentábamos ayer, el Argumento de la Simulación tiene una formulación en cierto modo análoga al Argumento del Apocalipsis, lo que lo hace sensible a parte de las críticas que se han vertido contra este último, en particular en lo que hace referencia al principio de indiferencia (o para el caso, el principio copernicano). En esta línea cabe encuadrar una consideración que en cierto sentido también estaba presente en el Argumento del Apocalipsis. La idea de que somos una muestra aleatoria de todas las consciencias que han existido o existirán nos lleva de acuerdo con el argumento de Bostrom a una afirmación mucho más fuerte: con toda probabilidad somos la única (!) vida inteligente (o mejor dicho, consciente) en el Universo. Para ver esto, simplemente tenemos que generalizar el argumento, y reinterpretar el valor psim que presenta Bostrom como la probabilidad de que seamos parte de una simulación por parte de una civilización post-humana. Si consideramos que puede haber muchas otras civilizaciones post-alien, debemos reescribir dicho valor como:

p_{\rm sim} = \frac{f_pf_If_HN}{f_pf_IN+H+A}

donde hemos añadido fH como la fracción de civilizaciones “humanas” (nosotros o indistinguibles de nosotros) que puedan existir o haber existido, y A es el número de consciencias alienígenas que existen o existirán. El principio de indiferencia nos llevaría a decir que la probabilidad de que seamos parte de una simulación post-humana es sólo próxima a uno solo si si fH es próxima a uno y A es próximo a cero. Puede verse no obstante algún problema en el razonamiento anterior, como el hecho de que podríamos decir lo mismo si reinterpretamos post-humano por post-klingon o post-cheela. Esto sin embargo lo que pone en cuarentena es el principio de indiferencia, y que podamos aplicarlo del modo indicado.

Abundando en lo anterior, consideremos que no está ni siquiera claro que podamos razonar con ligereza acerca de fracciones en este contexto, ya que los conjuntos involucrados son potencialmente infinitos. Hay varios motivos por lo que podría ser de ese modo. Pensemos por ejemplo en la interpretación de los múltiples universos de la mecánica cuántica, o en los modelos de inflación eterna. El manejo de conjuntos infinitos (como “el conjunto de todas las civilizaciones que tienen la propiedad P”) es el típico procedimiento para acabar en contradicciones lógicas, como la paradoja de Russell dejó claro.

turtles all the way down (c) Ron HenryUn caso particular de lo anterior surge si consideramos que la conclusión de que la probabilidad de ser parte de una simulación es cercana a uno parte de un razonamiento sobre nosotros mismos, la creciente capacidad en la potencia de cómputo, y lo que podemos llegar a ser. Difícilmente puede este razonamiento llevarnos a afirmar cosas sobre nuestros “directores” que habitan en otro nivel anterior de realidad. Más aún, de ser ese el caso, entramos inmediatamente en un esquema de regresión infinita, ya que nuestros “directores” pueden aplicar el mismo argumento para considerarse parte de una simulación del nivel superior, ad infinitum: como suele decirse, turtles all the way down. Bostrom argumenta que puede ser que la potencia de cómputo requerida para simular una civilización post-humana sea prohibitiva, proporcionando de esta manera una base final a la torre de tortugas. Esta suposición conlleva que en el momento de que estemos cerca de llegar al nivel de ser post-humanos, la simulación terminaría. Parece en cualquier caso una suposición bastante ad hoc.

En resumidas cuentas, hay múltiples razones de índole computacional, lógica y filosófica por la que puede cuestionarse el Argumento de la Simulación, a la que podríamos añadir una adicional: si la simulación es coherente con unas reglas internas y completamente hermética para nosotros, llamarle simulación o realidad es sólo un juego de palabras, ¿no?

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Filosofía, Tecnología, What-if | Etiquetado: , , | 12 Comments »

El Argumento de la Simulación: ¿Eres un Sim?

Posted by Carlos en marzo 19, 2007

The Sims 2A raíz de un reciente artículo de Enrique Dans en el que plantea la cuestión de si un sistema operativo puede reconocer si está funcionando sobre una máquina virtual, Alvy ha traído a colación otra cuestión también interesante: ¿podemos reconocer si somos parte de una simulación? Indudablemente se trata de una idea que siempre ha dado que pensar, y que en el fondo puede verse como una actualización moderna de la antigua visión pseudo-mística de los universos anidados (una pequeña partícula de nuestro mundo, puede ser un universo en miniatura, del mismo modo que nuestro universo puede ser una pequeña partícula en un universo superior, ad infinitum). La cuestión se ha formalizado en lo que se viene en llamar el Argumento de la Simulación, y vamos a detenernos brevemente en ella, puesto que además engarza con algunos temas que hemos tratado muy recientemente (computabilidad, teoremas de incompletitud, …).

El Argumento de la Simulación ha sido propuesto por Nick Bostrom, un filósofo transhumanista británico, siguiendo una línea argumental bastante similar al del Argumento del Apocalipsis del que hablábamos hace poco. Bostrom parte de la premisa de que el desarrollo tecnológico proporcionará en el futuro una capacidad computacional inimaginable, capaz de entre otras cosas simular perfectamente la consciencia humana, y que dicha simulación puede abarcar no sólo la consciencia de una persona, sino la de toda la Humanidad, e incluso el entorno que nos rodea. De acuerdo con esto, dada una consciencia cualquiera que se pregunte sobre su existencia, la probabilidad de que sea una simulación es

p_{\rm sim} = \frac{f_pf_IN}{f_pf_IN + H}

donde fp es la fracción de civilizaciones que llegan a alcanzar la tecnología necesaria, fI es la fracción de las mismas que está interesada en realizar simulaciones como las mencionadas, N es el número medio de simulaciones por civilización interesada, y H es el número de personas reales que han vivido o vivirán. Para llegar a esta probabilidad, se asume un principio de indiferencia análogo al principio copernicano que se usa en el Argumento del Apocalipsis. Dado que estamos suponiendo una capacidad computacional inimaginable, N tendrá un valor muy elevado, por lo que salvo que fp o fI sean muy próximos a cero, psim será muy próxima a uno.

La verdad sea dicha, por más que este argumento encaje muy bien con determinadas visiones post-humanistas, la justificación del mismo es sumamente cuestionable. Para empezar, la suposición de partida de que la mente humana es independiente del sustrato físico es solamente una conjetura en disputa. Hay toda una corriente de pensamiento (de la que acaso Roger Penrose sea la cabeza visible) que argumenta que el funcionamiento de la mente humana es inherentemente no algorítmica. A tal efecto se citan ejemplos tales como los teoremas de incompletitud de Gödel, y el hecho de que podamos percibir una noción intuitiva de verdad matemática que no es capturable dentro de un esquema de computación Turing-completo. Esto es por supuesto otra interpretación sujeta a debate, pero indica claramente que no está claro que la creación de consciencia sea una mera cuestión de potencia de cómputo.

Puede argumentarse que una civilización lo suficientemente avanzada puede diseñar dispositivos de cómputo que superen a las máquinas de Turing, y que en dicho nuevo marco computacional sí sea posible realizar una simulación plena de la consciencia humana. No hay objeción a esto desde el punto de vista del argumento de Penrose, y de hecho puede pensarse que dicho hipercomputador podría tener un sustrato similar al del cerebro humano (que por lo que sabemos, sí da lugar al surgimiento de una mente humana). Esto hace que se plantee la cuestión de la simulación en términos más parecidos a los de viejas cuestiones filosóficas del tipo: ¿cómo sabemos si sólo somos parte del sueño de un ser superior? Esta cuestión es más relevante de lo que parece, y entronca con una segunda suposición del Argumento de la Simulación, en este caso referida a la capacidad de cómputo.

Bostrom argumenta acerca de algunas consideraciones prácticas relativas a la simulación. Por ejemplo, no hay necesidad de simular completamente objetos astronómicos lejanos, ya que nunca los vamos a estudiar de cerca. Del mismo modo, en nuestro entorno cercano puede plantearse una especie de “simulación bajo demanda”: si indagamos en un nivel muy fino de la realidad (por ejemplo, si observamos con un microscopio electrónico un objeto), se realiza en ese momento una simulación precisa de lo que deberíamos observar, pero cuando cesa la observación, la simulación ignora esos detalles y trabaja con un grano más grueso. Incluso -plantea Bostrom- si en algún momento se produce alguna anomalía en la simulación, el “director” -ese ser post-humano que está realizando la simulación- puede “rebobinarla” y corregirla, o simplemente alterar nuestros estados mentales para que no nos demos cuenta de la anomalía. Surgen aquí dos objeciones básicas por las que se podría rechazar el argumento:

  • Nos encontramos ante una hipótesis no falsable: el “director” altera nuestra percepción y nuestra consciencia, de manera que no podamos acceder al sustrato real sobre el que funciona la simulación. Ninguna observación empírica nos permitiría refutar que vivimos en una simulación.
  • El argumento se torna en una analogía tecnológica de una cosmovisión teísta: el “director” o “directores” son de facto “dioses” que controlan de manera omnipotente y omnisciente nuestra realidad. Es una posición plenamente admisible desde un punto de vista filosófico o espiritual, pero no lo es como afirmación científica.

A la vista de lo anterior, el principio filosófico de la navaja de Occam nos debería llevar a preferir la hipótesis de que el mundo es real, a la de que el mundo es una simulación, ya que a efectos prácticos son indistinguibles, y la primera es mucho más simple. Con todo y con eso, quizás las objeciones más interesantes sean las que se pueden plantear desde un punto de vista lógico y/o matemático. Esas las exploraremos mañana.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Filosofía, Tecnología, What-if | Etiquetado: , , , | 29 Comments »