La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Archive for the ‘What-if’ Category

El problema del almacenamiento de energía

Posted by Carlos en enero 22, 2010

Uno de los grandes problemas a los que se enfrentan los sistemas de suministro energético es la dificultad (y el coste) de almacenar energía durante los periodos de baja demanda para poderla luego utilizar durante los picos de demanda. Esto es particularmente relevante desde el punto de vista de las energías renovables, si se pretende que constituyan una alternativa realista a las energías consumibles. Pensemos por ejemplo en aerogeneradores que dependen de la presencia del viento para producir electricidad: el viento no entiende de demanda estacional o carga rodante, por lo que habrá situaciones en las que la producción eléctrica sea superior a la demanda, y otras en las que ocurra lo contrario. Por supuesto, las redes eléctricas diversifican las fuentes de energía y son capaces de redireccionar electricidad de otros puntos de la red para hacer frente a picos de demanda, pero la situación sería mucho más simple si realmente se pudiera almacenar energía eléctrica a gran escala.

Granja Eólica (by Syrek69)En el número de Nature del 7 de enero se hace una breve recapitulación de algunos de los mecanismos existentes para el almacenaje de energía y de cómo estos podrían extenderse en el futuro para trabajar a mucha mayor escala:

  • Almacenamiento hidroeléctrico: usado en la actualidad en países como Noruega, este mecanismo emplea el exceso de energía de las turbinas aerogeneradores para bombear agua hacia embalses en las montañas. Cuando haga falta la energía se libera el agua para activar los generadores hidroeléctricos. Este mecanismo tiene una eficiencia del 70-85%, aunque está limitado por la disponibilidad geográfica (por no hablar del impacto ambiental). Una alternativa sería construir “lagos” artificiales (o “islas de energía”) en el océano, creando grandes diques que cerquen una superficie equivalente a una pequeña isla. La energía excedente se emplearía en bombear agua fuera del lago hacia el mar, y se recuperaría dejándola entrar de nuevo. Podrían obtenerse 1 500 MW durante unas 12 horas.
  • Almacenamiento de aire comprimido: usado en la actualidad en algunas zonas de Alemania y EE.UU., este sistema comprime aire y lo bombea a grandes cuevas subterráneas. Al ser liberado, el aire activa turbinas que recuperan la energía. El problema es el calentamiento del gas al ser comprimido, y la pérdida de este calor a través de las paredes de la cueva. Un sistema futuro podría capturar este calor y usarlo luego para calentar el aire y que éste active turbinas. La eficiencia del sistema podría ser también de un 80%.
  • Almacenamiento en baterías: el sistema quizás más intuitivo es emplear baterías de gran capacidad. Los teléfonos móviles y portátiles emplean baterías de iones de litio que vienen a tener un coste de unos cientos de euros por kWh. El empleo de una tecnología como ésta a gran escala reduciría mucho estos costes, en su mayor parte debido a consideraciones de seguridad relacionadas con su uso en dispositivos móviles. Incluso podría pensarse en baterías basadas en otro tipo de reacciones electroquímicas con elementos más baratos y abundantes como silicio, hierro o aluminio.
  • Almacenamiento cinético: usado en sistemas de alimentación ininterrumpida, este sistema se basa en hacer girar un volante de inercia a gran velocidad usando la energía sobrante para alimentar un motor, y extraer energía del mismo acoplándole un generador. El problema es por supuesto la escalabilidad. Un prototipo en el que se está trabajando considera un dispositivo de un metro de diámetro con un núcleo cilíndrico de aluminio que alberga el generador y el motor, y una envoltura de fibra de carbono. El sistema se instalaría en una cámara sellada al vacío sobre soportes magnéticos, y alcanzaría una eficiencia del 85%.
  • Almacenamiento en ultracondensadores: aquí nos movemos en un terreno más hipotético, en el que se podría considerar tecnología a escala molecular para construir ultracondensadores, o el empleo de bobinas superconductoras para almacenar indefinidamente la corriente circulante.

Estos mecanismos son realmente imaginativos y en algún caso requerirán grandes obras de ingeniería, pero su utilidad compensaría el esfuerzo. Con todo, una de las ideas más interesantes es la de la red inteligente (ver, e.g., aquí): cuando la demanda supere la disponibilidad de electricidad, la red efectuaría microcortes en dispositivos domésticos como frigoríficos o aparatos de aire acondicionados. Estos microcortes serían imperceptibles para el usuario, pero suficientes para reducir la demanda a límites aceptables. Esta red inteligente interactuaría también con sistemas de almacenaje como los descritos, intercambiando energía entre comunidades vecinas para mantener una situación de equilibrio.

Posted in Ciencia, What-if | Etiquetado: , , , , | 25 Comments »

¿Y si las religionas abrahámicas no se hubieran preocupado del origen del pecado…

Posted by Carlos en enero 9, 2010

… sino que en su lugar hubieran incluido una receta viable para fabricar hormigón? Sí, es sin duda un cambio de esquemas radical, pero la historia alternativa sería fascinante.

Un sarcófago de hormigón alrededor del Árbol del Conocimiento del Bien y del Mal ciertamente hubiera eliminado tentaciones que luego llevaron a lo que llevaron.

Posted in Comic, Religión, What-if | Etiquetado: , | 3 Comments »

Geoingeniería: Medicina Planetaria contra el Calentamiento Global

Posted by Carlos en diciembre 7, 2009

Los seres vivos han estado realizando cambios a gran escala de las condiciones ambientales terrestres desde prácticamente la aparición de la vida. Algunos de estos cambios nos vinieron muy bien, como por ejemplo el enriquecimiento atmosférico de oxígeno gracias entre otros factores a los organismos fotosintéticos. Otros cambios parecen sin embargo problemáticos, como por ejemplo los derivados de la deforestación y del vertido atmosférico de gases de efecto invernadero. Estos parecen haber desbordado la capacidad de auto-regulación del planeta y nos llevarán a largo plazo a un nuevo estado estacionario de condiciones que directa o indirectamente pueden ser mucho menos favorables para la vida humana.

La respuesta a esta situación se ha planteado básicamente desde el punto de vista “paliativo”, intentando poner coto en cierta medida a la perturbación antropogénica del medio ambiente; aquí se encuadraría por ejemplo el controvertido Protocolo de Kyoto (PDF, 162KB). Siguiendo con la analogía médica, una alternativa menos conservadora sería la “desintoxicación”, esto es, actuar directamente para corregir las perturbaciones mediante obras de geoingeniería. Estaríamos hablando de obras de ingeniería a gran escala diseñadas específicamente con el propósito de alterar significativamente el medio ambiente para nuestro beneficio. James Lovelock, el científico multidisciplinar famoso por proponer la Hipótesis Gaia, acaba de publicar en las Philosophical Transactions of the Royal Society A un trabajo que lleva por título

en el que repasa alguna de las posibilidades al respecto. Por ejemplo, están los denominados barcos spray de Flettner, que navegarían los océanos de manera autónoma, bombeando agua salada en aerosol a la atmósfera. El objetivo es aprovechar el denominado efecto Twomey para incrementar el albedo de las nubes consiguiendo con ello un enfriamiento de la superficie. Serían necesarios unos 1 500 barcos de este tipo para conseguir el efecto deseado.

Relacionado con lo anterior, un sistema similar de tuberías situadas en plataformas marinas podría bombear agua de las profundidades a la superficie con la intención de (1) producir un enfriamiento de la misma, y (2) enriquecer de nutrientes las capas superficiales, provocando la eclosión masiva de algas fotosintéticas que absorberían CO2 atmosférico. Más aún, estas algas podrían recolectarse para producir alimentos y combustibles biológicos, y los residuos del procesamiento prensarse para su hundimiento en el fondo marino, quitando de la circulación (al menos de manera temporal) grandes cantidades de dióxido de carbono.

La producción de nutrientes a través de procedimientos químicos también se plantea como una opción quizás inevitable en el futuro. Dichos nutrientes se usarían a su vez para alimentar cultivos industriales de células vegetales y animales destinadas directamente al consumo humano. Es interesante resaltar un párrafo del propio Lovelock en el artículo citado inicialmente:

Misplaced fear stops us from using nuclear energy, the most practical and available geoengineering procedure of all; we even ignore the use of high temperature nuclear reactors for the synthesis of food and liquid fuels directly from CO2 and water.

Todo lo anterior plantea tanto desafíos tecnológicos como llegado el caso problemas éticos. La desintoxicación del planeta es una empresa que una vez empezada tendrá un incierto final (Lovelock señala por ejemplo que si se emplean los barcos spray, eventualmente habrá que empezar a preocuparse por la acidificación de los océanos, que requerirá de nuevas medidas y así sucesivamente). Los geoingenieros quizás necesitarán crear y respetar un análogo al juramento hipocrático. El artículo acaba con moralina:

Perhaps the saddest thing is that if we fail and humans become extinct, the Earth system, Gaia, will lose as much as or more than we do. In human civilization, the planet has a precious resource. We are not merely a disease; we are, through our intelligence and communication, the planetary equivalent of a nervous system. We should be the heart and mind of the Earth not its malady. Perhaps the greatest value of the Gaia concept lies in its metaphor of a living Earth, which reminds us that we are part of it and that our contract with Gaia is not about human rights alone, but includes human obligations.

Es una visión un tanto antropocéntrica de la vida en la Tierra, pero de eso se trata, ¿no?

Posted in Geociencias, Sistemas Complejos, What-if | Etiquetado: , , | 2 Comments »

La matemática de [REC]: Análisis de una infección zombi

Posted by Carlos en octubre 12, 2009

Hace unos días se ha estrenado [REC] 2, la secuela de la fantástica [REC] de Jaume Balagueró y Paco Plaza. El argumento es bien conocido: los habitantes de un bloque de viviendas (junto con un par de policias, un par de bomberos y un par de reporteros) deben enfrentarse al estallido de una infección zombi (usando el término “zombi” en sentido amplio). La película es interesante por múltiples motivos, pero vamos a centrarnos en dos aspectos particulares: (1) el edificio está aislado en cuarentena por las autoridades sanitarias, y (2) el equilibrio de fuerzas dentro del edificio va volcándose paulatinamente del lado de los infectados. Estos dos aspectos nos conducen a dos cuestiones fundamentales: la primera en relación con el punto (1) es si la estrategia de las autoridades sanitarias es correcta, y la segunda en relación al punto (2) es si la evolución del sistema hacia el desequilibrio mostrado en la película es realmente inevitable. Se trata de dos cuestiones que aparte de ser interesantes desde el punto de vista geek/nerd, constituyen un buen experimento mental con posibles aplicaciones a infecciones de carácter más mundano.

[REC]

Dar respuesta a estas cuestiones requiere modelar el problema como un sistema dinámico, de manera similar a como se realiza en ecología, epidemiología, etc. y ver cómo evoluciona en el tiempo. Un análisis de estas características es precisamente el realizado por Philip Munz y colaboradores, de la Carleton University y de la Universidad de Ottawa, en un trabajo que lleva por título:

y que forma parte del libro Infectious Disease Modelling Research Progress, editado por J.M. Tchuenche y colaboradores en Nova Science. Munz et al. consideran varios modelos de complejidad cada vez mayor para estudiar el sistema. En el primero y más básico se consideran tres tipos de sujetos:

  1. Los seres humanos “normales”, susceptibles (s) de convertirse en zombies.
  2. Los zombis (z).
  3. Los sujetos “retirados” (r), esto es, seres humanos que mueren por causa natural.

Inicialmente se parte de una población de sujetos susceptibles, sin zombis ni retirados, y a partir de ahí se produce un flujo de sujetos de una a otra categoría:

  • Un ser humano puede nacer (con tasa π), morir de causa natural y pasar a retirado (con tasa δ), o convertirse en zombi tras ser atacado por uno de estos (con tasa β, y proporcional a la población de zombis).
  • Un zombi puede pasar a retirado si un humano lo vence en un enfrentamiento (con tasa α).
  • Un sujeto retirado puede convertirse en zombi (con tasa ς).

Esto nos lleva a un sistemas de ecuaciones diferenciales que describe el sistema:

\begin{array}{rcl} ds/dt & = & (\pi-\delta) s - \beta sz \\ dz/dt & = & (\beta-\alpha) sz + \zeta r \\ dr/dt & = & \delta s + \alpha sz - \zeta r \\ \end{array}

Si se analiza el sistema de ecuaciones en una escala de tiempo muy corta en la que no se llegan a producir nacimientos ni muertes naturales (π=δ=0), la primera ecuación diferencial sugiere dos posibles estados estacionarios (S,Z,R): el primero (S,0,0) es aquel en el que no hay zombis; el segundo (0,Z,0) es el apocalipsis zombie (toda la población acaba infectada). Lamentablemente el análisis del Jacobiano del sistema en estos puntos estacionarios indica que la primera solución no es estable, pero la segunda sí, por lo que basta un pequeño empujón para que el sistema ruede cuesta abajo hacia el apocalipsis zombi.

Hay algún aspecto cuestionable en el sistema anterior, como por ejemplo el hecho de que los zombis destruidos pasen a la categoría de retirados y puedan “reciclarse” en zombis de nuevo. Si eliminamos el término αsz de la tercera ecuación no alteramos sin embargo el resultado anterior, al menos desde el punto de vista cualitativo. No obstante, vamos a tener en cuenta esta modificación del modelo de Munz et al. en lo sucesivo.

Para acercarnos más [REC] el siguiente paso es considerar ahora un modelo de infección latente. Munz et al. modelan esto como una nueva clase -infectados (i)- a la que llegan los susceptibles que son mordidos por un zombie, y de la que salen aquellos infectados que se transforman en zombis (con tasa ρ), y aquéllos que mueren antes de transformarse (con tasa δ, como los susceptibles). Con la modificación mencionada antes en relación a los “retirados” nos queda:

\begin{array}{rcl} ds/dt & = & (\pi - \delta)s -\beta sz \\ di/dt & = & \beta sz - (\rho + \delta) i \\ dz/dt & = & \rho i + \zeta r - \alpha sz \\ dr/dt & = & \delta (s + i) - \zeta r \\ \end{array}

En este escenario la situación es idéntica en el escenario π=δ=0, esto es, no pueden coexistir humanos y zombies, y sólo el apocalipsis zombi es una solución estable. Si realizamos una simulación numérica puede apreciarse el comportamiento cuantitativo del sistema. La siguiente gráfica corresponde a los parámetros π=δ=1/10 000 (tasas iguales de nacimiento y muerte natural), ς= 1/10 000 (tasa de zombificación de retirados), α=1/200 (tasa de destrucción de zombies), β=1/100 (tasa de infección), y ρ=1/200 (tasa de zombificación de infectados):

modelo-infeccion

Nótese como el número de zombis libres es durante la fase inicial del estallido muy bajo, aunque suficiente para inducir una infección latente descontrolada. Eventualmente el número de individuos sanos cae abruptamente, momento en el que el número de infectados deja de crecer y comienza el apocalipsis zombi, ya sin humanos sanos para hacerles frente. Una variante de este modelo es asumir que los infectados permanecen activos en la población, teniendo encuentros con los zombis y contribuyendo a su erradicación mientras no se consume la transformación. En ese caso, el resultado final sigue siendo un apocalipsis zombi, aunque más tardío, y con un número final de zombis mucho más bajo.

Introduzcamos ahora el siguiente factor de [REC], la cuarentena. Munz et al. modelan una nueva clase -cuarentena (q)- a la que llegan tanto sujetos infectados como zombis, y de la que salen únicamente los sujetos que intentan escapar y son eliminados, pasando a la categoría de retirados. Vamos a modificar esto ligeramente, suponiendo que la cuarentena efectivamente retira de la circulación a los sujetos aislados (vivos, muertos o infectados), sin posibilidad de que vuelvan a la categoría de retirados.

\begin{array}{rcl} ds/dt & = & (\pi - \delta)s -\beta sz \\ di/dt & = & \beta sz - (\rho + \delta + \kappa) i \\ dz/dt & = & \rho i + \zeta r - \alpha sz - \sigma z \\ dr/dt & = & \delta (s + i) - \zeta r \\ dq/dt & = &  \kappa i + \sigma z \\ \end{array}

Incluso en este caso, el apocalipsis zombi es prácticamente inevitable, si bien la cuarentena puede retrasar bastante el progreso de la infección. Munz et al. consideran un modelo adicional en el que es posible curar (pero no vacunar) a los zombis, y en este caso se alcanzan situaciones de equilibrio en las que coexisten zombis y humanos sanos (no es un escenario agradable, pero es mejor que el apocalíptico).

Sea como fuere, e incluso sin cura, podría haber otro tipo de estrategias ganadoras. Una de las claves de las simulaciones es el equilibrio demográfico de la población sana. En el momento en el que se comienza a producir la infección empieza el descenso de individuos sanos y tarde o temprano tiene lugar el apocalipsis zombi. Aumentar la tasa de nacimientos retrasa el proceso pero no lo evita. Para ello es preciso combinar un aumento de esta tasa de nacimientos con aumento de la tasa de destrucción de zombies. Bebés y lanzallamas, es una receta que nunca falla.

Posted in Ciencia Ficción, Cine, Geek, Matemáticas, Nerd, Sistemas Complejos, What-if | Etiquetado: , , , | 12 Comments »

Los incidentes del LHC y la inmortalidad cuántica

Posted by Carlos en julio 27, 2009

Observación y función de onda son dos de los elementos de más sinuosa interpretación ontológica en el ámbito de la mecánica cuántica, y sobre los que el debate filosófico no cesa. Son múltiples los experimentos mentales concebidos a colación de la traslación a nivel macroscópico de fenómenos cuánticos en los que los citados conceptos juegan un papel central. El gato de Schrödinger es posiblemente el más conocido a nivel popular, y sobre la base del mismo se han construido escenarios más complejos en los que la participación de observadores adicionales pone a prueba la sutileza de los conceptos mencionados. Por ejemplo, ya comentamos hace tiempo el experimento del amigo de Wigner, una especie de versión matrioshka del gato de Schrödinger en el que se construye una cadena de observadores conscientes en cajas concéntricas, y que pone el acento en la relación entre consciencia y observación. Otro experimento relacionado con este extremo es el denominado suicidio cuántico.

El experimento del gato de Schrödinger

El experimento del gato de Schrödinger

La disposición de este experimento puede variar, pero para simplificar podemos imaginarnos que sustituimos al gato de Schrödinger por el propio Schrödinger, y que observamos el experimento desde su punto de vista. Supongamos por ejemplo que lo que hace Schrödinger es activar un dispositivo que incorpora un generador cuántico de números aleatorios que provocará o no el disparo de un cierto dispositivo letal incluido en la caja. El bueno de Schrödinger tiene una cierta probabilidad de sobrevivir, pero si repite el experimento una y otra vez la ruleta cuántica terminará por tocarle y su existencia tocará a su fin… o no. Y es que de acuerdo con la interpretación de los múltiples universos, cada vez que se activa el dispositivo se produce una ramificación en un universo en el que Schrödinger muere y otro en el que sobrevive. Es únicamente en este segundo universo en el que Schrödinger puede jugar de nuevo, y en el que se produce una nueva bifurcación. Eso quiere decir que existe un universo en el que –para incredulidad de Schrödinger, que llegará a sentirse invulnerable– siempre sobrevive. En este caso se puede hablar apropiadamente de inmortalidad cuántica. Nótese la reminiscencia antrópica del experimento, ya que el razonamiento sobre la propia existencia requiere que se sobreviva al experimento.

LHC black hole

Credit: Ecuador Ciencia

Viene todo esto a cuento de un comentario en Accelerating Future acerca de los nuevos problemas detectados en el LHC y que una vez más provocan un retraso en su puesta en funcionamiento. Concretamente, en esta ocasión se han detectado dos fugas entre el circuito de helio y el aislamiento de vacío, lo que en principio provocará que el reinicio del LHC no se produzca hasta mediados de noviembre. Recordemos que este es el tercer incidente serio que afecta a la fecha de entrada en estado operacional del LHC, tras la explosión de la envoltura criostática de uno de los gigantescos imanes cruadrupolos el 27 de marzo de 2007, y de un escape masivo de helio líquido el 19 de septiembre de 2008. Estos incidentes en modo alguno comprometen la seguridad del LHC, y de hecho no tienen nada que ver con los hipotéticos riesgos existenciales (e.g., creación de microagujeros negros estables, materia extraña, etc.) del mismo, cuidadosamente estudiados y descartados. No obstante, si hay alguien que aún abriga algún temor (o está deseando hacerlo), aquí puede encontrar una fuente adicional de inquietud: si el LHC fuera un dispositivo que desencadenara el Apocalipsis una vez activado, y de ser correcta la interpretación de los múltiples universos de la mecánica cuántica, estaríamos en la misma disposición que Schrödinger en el experimento del suicidio cuántico. Existiría entonces un universo en el que veríamos que el LHC fallaría persistentemente (en los universos en los que no fallara cesaría nuestra existencia). La ocurrencia de nuevos incidentes -tanto más si estos son cada vez más improbables- que continuaran retrasando la plena operatividad del LHC podría hacer que alguien se planteara si no estamos en la línea de universo “afortunada” (eso, y que los ingenieros del CERN serían como los mecánicos de Fernando Alonso, claro).

Si alguien ha llegado a inquietarse realmente con lo anterior, puede reconfortarse en el hecho de que está sujeto a la interpretación de los múltiples universos, de que lo acontecido hasta ahora no entra dentro de lo excepcional, y de que la puesta en marcha del LHC está prevista para otoño de este año, por lo que en el peor caso tenemos todo el verano por delante.

Posted in Física, What-if | Etiquetado: , , , , | 4 Comments »

Tormenta de Metal: un millón de balas por minuto

Posted by Carlos en diciembre 2, 2008

El último episodio emitido en España de CSI Miami (a falta de Grissom, buenas son tortas) -que aquel que siga la serie por satélite vería hace un año- introdujo un elemento interesante: un arma de alta tecnología denominada DX4, o más informalmente “la vaporizadora”. La introducción del capítulo mostraba como dicha arma (que no sería mostrada hasta más avanzado el capítulo) descargaba su poder sobre tres traficantes de armas, haciéndolos desaparecer en una neblina de sangre. Cuando el equipo criminalístico habitual llega al lugar del crimen, entre los pocos y confusos restos hallados encuentran unos proyectiles de calibre habitual, pero sin casquillo. A partir de estos, los sagaces CSI del condado empiezan a tirar de la madeja, y plantean el uso de la temible DX4, un arma capaz de disparar cientos de proyectiles por segundo, gracias al empleo de un sistema electrónico de disparo que no precisa de percusión. Cuando por fin se nos muestra el devastador dispositivo vemos un prisma achatado, cuyas bases tienen forma de cruz, y en una de las cuales se disponen cientos de orificios disparadores (la otra contiene diferentes visores LCD y los controles del arma). Por supuesto, este formidable dispositivo no es suficiente para detener al teniente Horatio, que finalmente da cuenta de los malhechores. Por si alguien no lo vio, he aquí a la DX4 en acción:

Aunque como era de esperar los guionistas de la serie se han tomado todo tipo de licencias en la concepción artística del arma y en su modo de empleo, lo realmente interesante es que ésta no es totalmente ficticia. Su más que probable inspiración es un prototipo diseñado por la compañía armamentística australiana Metal Storm. Esta compañía se ha especializado en el diseño de armas de fuego basadas en un mecanismo de disparo electrónico como el mencionado. Cada proyectil es un especie de misil en miniatura, con propelente en su base. Dicho propelente entra en ignición gracias a inducción electromagnética, lo que evita tener que disponer de partes móviles para percutir y expulsar el casquillo. En el cañón del arma se alojan en serie numerosos proyectiles, que son impulsados hacia atrás por el retroceso del disparo, comprimiendo la cápsula del propelente (que es una especie de tobera abierta en realidad) de cada proyectil con la cabeza del anterior, sellándola de esta manera y evitando que los gases del disparo previo hagan que se produzca una ignición no deseada en otros proyectiles.

La tecnología descrita permite no sólo diseñar armas cortas con extraordinaria velocidad de disparo, sino que permite la construcción de armas más pesadas con múltiples cañones de disparo sincronizado. Metal Storm ha diseñado un prototipo con 36 cañones que es capaz de disparar a velocidad ajustable, desde unas 600 balas por minuto (lo que una ametralladora normalita) hasta unas increíbles 1,000,000 balas por minuto. El siguiente vídeo muestra al prototipo en funcionamiento, a diferentes regímenes de disparo:

Sólo el zumbido del disparo a 30,000 balas por minuto pone ya los pelos de punta. Se trata en cualquier caso más de una prueba de concepto que de un arma práctica, ya que el tremendo retroceso cuando opera a máxima frecuencia de disparo y la falta de un mecanismo autónomo y eficiente de recarga impiden que se monte en pequeños aviones no tripulados o en robots móviles. Horatio puede estar tranquilo … de momento.

Posted in Ciencia Ficción, Tecnología, Televisión, What-if | Etiquetado: , , , | 5 Comments »

Efectos ópticos de la relatividad especial

Posted by Carlos en noviembre 25, 2008

Una de las grandes dificultades para la comprensión de algunos de los ya de por sí antiituitivos fenómenos asociados con la relatividad especial es la limitación que el vocabulario llano tiene para describirlos. Es normal hablar de sistemas de referencia, observadores, y de cómo éstos ven o perciben el Universo. El empleo de dichos términos es bastante general, y dista de ser literal, ya que a los fenómenos intrínsecamente debidos al empleo de diferentes sistemas de referencia en el espacio-tiempo hay que sumar los debidos a la propagación a velocidad finita de las señales, al efecto Doppler, etc. En muchas ocasiones, la idea implícita al hablar de que un observador relativista ve algo es que éste ha recibido toda la información, ajustado las cuentas correspondientes al tiempo de propagación de las señales y cualesquiera otras distorsiones debidos a su estado de movimiento relativo con respecto a lo observado, y llegado a una imagen final de cómo son las cosas desde su punto de vista. Por supuesto, esto es de utilidad cuando lo que nos interesa es por ejemplo reconstruir trayectorias en el espacio-tiempo, pero no nos vale cuando el objetivo es analizar qué es precisamente lo que el observador ve (en sentido literal). Vamos a detenernos precisamente en esto último.

Al moverse a velocidades relativistas en relación a un paisaje de fondo hay varios factores que entran en juego. Uno de ellos es bien conocido: el efecto Doppler. Si nos movemos en línea recta hacia una fuente de luz, un observador estático en relación a ella determinará que el tiempo transcurrido desde que encontramos un pico de la onda de luz hasta que encontramos el siguiente es inferior a la frecuencia de emisión, ya que a la vez que las ondas viajan hacia nosotros, nosotros nos movemos a su encuentro. Para ver en qué se traduce esto desde nuestro punto de vista hay que introducir el efecto de la dilatación temporal (desde el punto de vista de la fuente el tiempo transcurre más lentamente para nosotros, por lo que el tiempo que mediremos será todavia más corto). Esto se traduce en un aumento de la frecuencia percibida con respecto a la que mide el emisor, esto es, un corrimiento hacia el azul. Si el movimiento es de alejamiento de la fuente puede hacerse un razonamiento análogo que nos conduce a un corrimiento hacia el rojo. Hay un un resumen de las fórmulas que relacionan las velocidades relativas con el desplazamiento de frecuencia en esta página, incluyendo una sencilla calculadora online para este fin. Este análisis corresponde a una aproximación/alejamiento en línea recta hacia la fuente. Sin embargo, en caso de que esta última esté en estado de movimiento relativo oblicuo a nosotros hay que introducir una corrección, y considerar sólo la componente de la velocidad a lo largo de la trayectoria rectilinea entre observador y fuente. Esto introduce una interesante variación, ya que la dilatación temporal depende no de dicha componente de la velocidad, sino de la magnitud absoluta de la misma, por lo que incluso si la fuente se halla de manera totalmente transversal a nosotros, mediremos un efecto Doppler (apropiadamente conocido como efecto Doppler transversal o lateral).

Reticulo estático
Reticulo en movimiento relativo.

Ilustración del efecto Doppler relativista. La imagen superior muestra un retículo estático en relación a un observador orientado hacia la derecha. En la imagen inferior, ese mismo retículo se mueve hacia la izquierda. Credit: John Walker

Las cosas no acaban sin embargo con el efecto Doppler. Otros dos fenómenos relacionados entran también en juego: la aberración de la luz, y el efecto luz delantera. La aberración consiste en la percepción por parte del observador de que los rayos de luz inciden en él en un ángulo que se aproxima más y más a su dirección de movimiento a medida que aumenta su velocidad. Es un fenómeno similar al que experimentamos cuando conducimos un automóvil bajo una lluvia perfectamente vertical: a medida que aumentamos la velocidad, las gotas de agua parecen estrellarse en un ángulo cada vez más plano contra el parabrisas delantero. En el caso relativista hay que introducir nuevamente una corrección, debido a la forma diferente de realizar la adición de velocidades, y a la contracción espacial en la dirección del movimiento. El resultado es que se produce una especie de aumento del ángulo de visión, ya que no sólo la luz emitida por fuentes situadas transversalmente a nosotros, sino incluso la correspondiente a fuentes situadas detrás de nosotros empieza a incidir con un ángulo que se aproxima a 0º a medida que aumenta cada vez más la velocidad. Esto queda ilustrado en las siguientes imágenes, realizadas por John Walker:

Aberración nula
Aberración a 0.9c

Ilustración de la aberración de la luz. La imagen superior muestra la visión de un observador estático en relación a un retículo, y la imagen inferior, la visión cuando ese observador se mueve a 0.9c en relación al retículo. Credit: John Walker

El efecto luz delantera (headlight effect) es de alguna manera la visión complementaria de esta aberración de la luz: los haces de luz que una fuente emite en diferentes direcciones parecen concentrarse en la dirección del movimiento, por lo que los objetos situados delante de nosotros parecerán brillar con más intensidad de lo que lo hacen cuando estamos en reposo con relación a ellos (se trata de un fenómeno de gran trascendencia en astrofísica, ya que afecta a la luminosidad de los chorros relativistas).

Finalmente, debemos considerar el denominado efecto Terrell (o Penrose-Terrell), en el que entran en juego la contracción relativista del espacio y la velocidad de propagación de las señales. Al movernos a velocidades próximas a la de la luz, la visión que tendríamos de la parte delantera y trasera de un objeto correspondería a instantes temporales notablemente diferentes. Así, un objeto que se nos aproxima parecería estar alargado, ya que en un instante t dado veríamos la luz de la parte delantera (la más cercana a nosotros) emitida en el instante t‘ < t, y la luz de la parte trasera (la más lejana) emitida en un instante t” < t‘. Tendremos entonces la percepción de que el objeto abarca desde donde estaba su parte delantera en t‘ hasta donde estaba su parte trasera en t”, esto es, más largo de lo esperado. Cuando el objeto está cerca de nosotros -supongamos que a un lado en la dirección de nuestro movimiento- este retraso en la llegada de las señales de diferentes partes del objeto darán la impresión de que éste está curvado. Más aún, dado que nos seguimos moviendo en relación a él, la parte curvada irá cambiando de posición, lo que dará la impresión de que el objeto está rotando. Sorprendente pero cierto.

El siguiente vídeo muestra una simulación de lo que veríamos al desplazarnos a velocidades relativistas por una carretera a cuyos lados hay algunos objetos. La simulación es incremental, y va introduciendo sucesivamente los diferentes efectos mencionados anteriormente.

Con esto podemos hacernos una idea de lo que ve el Capitan Kirk cuando se asoma a la ventanilla de la USS Enterprise (siempre que no tengan el motor de curvatura activado, claro).

Posted in Física, What-if | Etiquetado: , , , , | 12 Comments »

Lo que la victoria de Obama puede significar para la Ciencia

Posted by Carlos en noviembre 13, 2008

President Barack ObamaEl triunfo de Barack Obama ha sido recibido con indescriptible júbilo en los rincones más insospechados del globo, ya sea desde el punto de vista geográfico, ideológico, o gremial. Quién más quién menos cavila, desea o directamente fantasea sobre los cambios que tendrán lugar en el devenir económico y geopolítico del mundo. Y es que diríase que, parafraseando al hermano de Juan Guerra, tras Obama a los EE.UU. no los va a conocer ni la madre que tal. Hay aquí sin duda mucho de wishful thinking, y sin duda no es cuestión de echar campanas al vuelo antes de tiempo, ya que el reencuentro con la realidad puede ser duro. Sea como fuere, es indudable que se han generado muchas expectativas en ámbitos concretos, como puede ser por ejemplo el científico. De hecho, ya durante la campaña hubo una clara toma de posición de numerosos grupos científicos a favor de Obama. Por supuesto, ganar el premio Nobel no otorga omnisciencia, aunque algo de clarividencia si es de suponer.

Obama también ha puesto de su parte con sus propuestas de dar un gran impulso a la inversión en ciencia y tecnología (véase aquí su pliego de intenciones al respecto), y salió mejor parado del debate en relación a diferentes cuestiones de interés científico. Incluso en su discurso de aceptación hizo una mención al “futuro de nuestro planeta” en el contexto de la dependencia del petróleo, lo que ha sido interpretado como un signo más de apoyo a políticas de control del cambio climático. Se especula también con que entre sus primeras medidas esté levantar el veto a la investigación con células madre de origen embrionario con cargo a los presupuestos federales. Hay que notar en cualquier caso que en los EE.UU. el poder legislativo ejerce un contrapeso importante frente al ejecutivo, y que la mera mención a la disciplina de voto podría provocar en aquellos lares decesos por hilaridad. La posición personal de cada representante o senador elegido es por lo tanto crucial en votaciones que afecten a temas científicos “sensibles”, como pueden ser aquellos con trascendencia ética, económica, o estratégica. En ese sentido, Nature ha realizado un pequeño informe de cuál es el estado actual de la situación, habida cuenta de que además de la elección presidencial, se han renovado 35 escaños de senador, la Cámara de Representantes, y se han sometido a refrendo diferentes proposiciones de interés científico. He aquí un resumen de algunas de las claves. A nivel de senadores:

  • En Nuevo México salió elegido senador Tom Udall (DEM), que sustituye a Pete Domenic (REP), retirado, y gran defensor de la investigación nuclear.
  • En Oklahoma retuvo su escaño James Inhofe (REP), un escéptico acérrimo del cambio climático.
  • Tres físicos retuviron su escaño, Bill Foster (DEM) -un antiguo físico del Fermi National Accelerator Laboratory- en Illinois, Vern Ehlers (REP) -profesor de física nuclear y defensor de políticas ambientales- en Michigan, y Rush Holt (DEM) -ex-director asistente del Princeton Plasma Physics Laboratory y con reconocido compromiso por la ciencia, tecnología y educación matemática- en New Jersey.
  • En Montana retuvo su escaño Brian Schweitzer (DEM), defensor de tecnologías de “carbón límpio”.

En cuanto a las cuestiones sometidas a refrendo:

  • En Michigan se aprobó la investigación con células madres provenientes de embriones humanos de menos de dos semanas.
  • En Missouri se aprobó una directiva de energías limpias por la que el 2% de la energía generada deberá ser de fuentes renovables en 2011, porcentaje que subirá a un 15% para 2021. California rechazó una cuestión similar, pero más ambiciosa (20% en 2010 y 50% en 2025). También se rechazó destinar 5 mil millones de dólares a la investigación en combustibles alternativos y energías renovables.
  • En Colorado se rechazó que un embrión humano fuera considerado persona desde el momento de la fertilización.

En resumen, ha habido para todos los gustos, aunque en términos globales y hasta donde los grandes números indican, Obama contará más veces que lo contrario con el respaldo del Congreso y del Senado. Eso sí, como dice el sabio proverbio, “obras son amores, y no buenas razones”.

Posted in Ciencia, Política, Tecnología, What-if | Etiquetado: , , | 4 Comments »

Nadal y Del Potro juegan al tenis con taquiones

Posted by Carlos en octubre 28, 2008

Al hilo del último apunte en el que veíamos cómo la noción de simultaneidad es relativa y depende del observador, vamos a centrarnos ahora en la relación entre la velocidad de la luz y los viajes en el tiempo. Concretamente vamos a ver por qué superar la velocidad de la luz supone un viaje hacia atrás en el tiempo. En primer lugar, hay que insistir en que al referirnos a la velocidad de la luz estamos indicando la constante física c, que indica la velocidad -medida localmente por cualquier observador- a la que partículas sin masa se desplazan por el vacío. Esto es, ni se trata de ser más rápido que la luz en un medio material cualquiera, ni los fotones tienen algo especial a los efectos que nos ocupan que no tengan otras partículas sin masa.

Dicho esto, lo primero que hay que preguntarse cuando se habla de superar la velocidad de la luz es en qué sistema de referencia se mide dicha velocidad. No hay sistemas de referencia absolutos, por lo que la medición de velocidad no tiene sentido si no se da esa información adicional. A partir de ahí, podemos analizar qué efecto tendría ese desplazamiento a velocidad superlumínica en otros sistemas de referencia en movimiento relativo con el primero. Vamos a verlo con un experimento mental: estamos en la final de la Copa Davis entre Argentina y España, y el equipo local lo ha preparado todo para un juego rápido: pista de moqueta sintética y pelotas de taquiones. Estas pelotas tienen la propiedad de poder superar la velocidad de la luz en el sistema de referencia de la raqueta que las golpea. En el primer partido tenemos a Del Potro al servicio, y a Nadal al resto. En previsión del saque que se avecina, Nadal retrocede a velocidad v. Del Potro se dispone a sacar, bota la pelota, y … punto para Rafa Nadal. Veámoslo en un diagrama:

Nadal y Del Potro juegan al tenis con taquiones

Nadal y Del Potro juegan al tenis con taquiones

Vamos a suponer por simplicidad que la velocidad de la pelota taquiónica es infinita en el marco de referencia de la raqueta, es decir, llega a su destino instantáneamente. El saque de Del Potro es el evento A, simultáneo en su sistema de referencia con el evento B (la pelota llega a Nadal). Este devuelve la bola a velocidad infinita en su propio sistema de referencia, con lo que llega a Del Potro (evento C) ¡antes de que éste hubiera realizado el saque! De manera cuantitativa: Del Potro saca en el instante t según su reloj, y Nadal recibe la pelota en ese mismo momento según el primero. Dado que según Del Potro Nadal está en movimiento y el tiempo avanza más lentamente para él, cuando para el primero han pasado t segundos para Nadal han transcurrido t‘=t/γ. Nadal está de acuerdo en que recibe la pelota y devuelve el resto en t‘=t/γ, y puede razonar de manera simétrica para determinar cuándo llega la pelota del vuelta a Del Potro, ya que para él es este último el que se mueve. Así cuando en el reloj de Nadal es t‘=t/γ, para Del Potro han pasado t”=t‘/γ=t2<t segundos. Por lo tanto, su resto llega a Del Potro antes de que éste sacara.

Añadamos a esto que si la sorpresa de recibir el resto impide a Del Potro realizar el saque, acabamos de construir una paradoja temporal, de esas que tanto nos dan que pensar. El corolario sería que hay que jugar en tierra batida con pelotas ordinarias para evitar que el espacio-tiempo colapse, pero nos desviamos del tema. Este retroceso en el tiempo desde el punto de vista de algunos observadores es inevitable cuando se produce influencia causal entre dos eventos A y B con separación de tipo espacio, ya que hay sistemas de referencia en los que A es anterior a B y viceversa (además de sistemas de referencia en los que A y B son simultáneos). No se trata de ningún tipo de efecto visual debido al desplazamiento superlumínico, sino de una genuina inversión cronológica, que no sólo puede hacer que en un cierto sistema de referencia el efecto anteceda a la causa, sino que podría dar lugar a que el observador interfiriera con esta última después de producido el efecto, abriendo la puerta a paradojas causales. En el marco de la relatividad especial no es posible en cualquier caso construir líneas de universo de tipo espacio, por lo que este tipo de paradojas estaría excluido. Las cosas no son sin embargo tan simples si nos movemos a la relatividad general, pero eso es ya otra guerra.

Posted in Física, Matemáticas, Time-Travel, What-if | Etiquetado: , , , , , | 9 Comments »

Exposición al vacío espacial

Posted by Carlos en octubre 4, 2008

La exposición al vacío interestelar sin traje protector es uno de los temas recurrentes en la ciencia-ficción, y sobre el que el cine ha proporcionado todo tipo de imágenes erróneas: descompresión explosiva (popularizada por Atmósfera Cero, gran película de 1981, aunque recuerdo haber visto el mismo concepto en un capítulo de Los 7 de Blake, un poco antes) o congelación instantánea (Misión a Marte), por poner un par de ejemplos. Para hacerse una idea del tenor que tomarían realmente las cosas, puede consultarse el interesante artículo de Sergio al respecto. La exposición del vacío acabaría obviamente con nosotros en poco tiempo, pero durante un pequeño lapso no sería fatal. La famosa escena de Dave Bowman saltando sin casco desde la cápsula a la Discovery 1 en 2001: Una Odisea Espacial, o la del ingeniero Justin saltando desde la escotilla de la Event Horizon (para mi gusto la mejor escena de exposición al vacío) son ejemplos menos distorsionados. Viene todo esto a cuento de que, vía menéame, he llegado a un cuestionario on-line que a partir de unas cuantas preguntas te indica cuánto tiempo sobrevivirías en el espacio.

How long could you survive in the vacuum of space?

En mi caso serían supuestamente 83 segundos los que aguantaría, aunque al parecer en apenas 15 segundos perdería la consciencia:

In the first 30 seconds any fluid on the surface of your body would begin to boil due to lack of ambient pressure, this includes the saliva on your tongue and the moisture in your eyes. Your eardrums would most likely burst due to the pressure in your body trying to equalize with the vacuum outside. Unlike what some science fiction films have suggested, your body would not explode.

After the first 15 seconds you would lose consciousness. If you held your breath you could potentially stay alive longer but you risk pulmonary trauma. If you didn’t hold your breath you’d pass out sooner, but your lungs might have a better chance of avoiding permanent damage.

The pressure in your veins would rise until your heart no longer had the capacity to pump blood, at which point you’d die.

En fin, no está de más saberlo, ya que uno nunca sabe lo que se va a encontrar por ahí.

Posted in Ciencia Ficción, Cine, Nerd, What-if | Etiquetado: , | Comentarios desactivados