La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Archive for the ‘Matemáticas’ Category

Adios a Benoît Mandelbrot

Posted by Carlos en octubre 16, 2010

 

Benoît Mandelbrot (1924 - 2010)

 

Vía Twitter se está propagando el rumor -no confirmado oficialmente hasta el momento (12:51, unas 4h después de haber leído el primer tweet al respecto)- de que Benoît Mandelbrot, padre de la geometría fractal y estudioso del objeto matemático que lleva su nombre, ha muerto ayer día 15 de octubre a los 85 años (hubiera cumplido 86 el próximo 20 de noviembre). La fuente del rumor es la página web de Nassim Taleb, persona cercana a Mandelbrot, y de este ya se ha hecho eco la revista Edge.

Es prematuro hacer un panegírico de la figura de Mandelbrot en tanto no se confirme la noticia. En cualquier caso, vaya de momento un vídeo en recuerdo/honor suyo. Se trata de una zambullida en el conjunto de Mandelbrot con una magnificación de 95 órdenes de magnitud.

Actualización (15:22): Sin noticias oficiales aún, pero la noticia corre como la pólvora en Twitter. Aprovecho para dejar ahora un vídeo con una de las últimas charlas de Mandelbrot sobre fractales. Está en inglés pero dispone de subtítulos en español.

Actualización (17:25): El New York Times publica la noticia citando a la mujer de Mandelbrot como fuente, por lo que se confirma el deceso. D.E.P. Dejo aquí un vídeo de una entrevista que le hizo Punset.

Posted in Matemáticas, Personajes | Etiquetado: , | 2 Comments »

Cuidado al pasear por una curva diferenciable

Posted by Carlos en febrero 8, 2010

Comic JK 345

El Teorema del Valor Medio afirma que en una función f continua en el intervalo [a,b] y diferenciable en (a,b), existe un valor c (a < c < b) en el que

f'(c) = \frac{f(b)-f(a)}{b-a}

que a grandes rasgos indica que hay algún punto de la curva en el que la pendiente de la misma es precisamente la media del intervalo considerado. Es un resultado instrumental de gran gran utilidad en cálculo.

¿Y qué tiene que ver esto con la desventura del personaje de la viñeta? Un ingenioso juego de palabras en inglés, ya que «mean» usado como adjetivo puede significar «malicioso, «vil», «despreciable», … Así que c existe y es realmente «mean«.

OK, hay que ser nerd para que te haga gracia, pero hay que ser mucho más nerd para que no te haga gracia por que debería haber sido f ‘(c) quien golpeara al protagonista.

Posted in Comic, Matemáticas, Nerd | Etiquetado: , , , | 3 Comments »

Vacas esféricas, redes de distribución y la Ley de Kleiber

Posted by Carlos en febrero 4, 2010

Vaca esféricaLa Ley de Kleiber es una conocida –y controvertida– relación empírica entre la masa de un organismo y su tasa metabólica basal, esto es, los requisitos de energía necesarios para sobrevivir en reposo, en un en entorno de temperatura neutra. Su nombre hace referencia a Max Kleiber, el químico suizo que la propuso en 1932. Kleiber analizó datos relativos a los requisitos energéticos de diferentes animales, y observó que estos escalaban con la masa corporal de los mismos pero de manera sublineal. Más precisamente, si q es la tasa metábolica basal del animal y m es su masa, Kleiber observó que la primera seguía una ley de potencias q ~ mα, con α < 1. El valor empírico que obtuvo fue 0.76, que redondeó a 3/4. Esta relación empírica es un tanto sorprendente en tanto en cuanto un exponente de 2/3 –la conocida ley cuadrado-cubo– sería intuitivamente lo que cabría esperar: si nos imaginamos una vaca esférica, su volumen (proporcional a su masa) crece como el cubo del radio de la esfera, mientras que su superficie (que determina su emisión de calor) crece como el cuadrado de la misma. Sin embargo, el ajuste a 3/4 parece ser mejor que el de 2/3.

¿Dónde puede hallarse pues la razón de este exponente? Parece que el ejemplo de la vaca esférica podría no ser del todo realista, y que restricciones físicas en la construcción de las redes circulatorias –en particular en organismos con un punto central de distribución, como puede ser el corazón– puedan llevar a que patrones de crecimiento ligados al mencionado exponente sean más eficientes. De hecho, este fue el argumento que G. West, J.H. Brown y B.J. Enquist propusieron en 1997 en un artículo titulado

publicado en Science. En este trabajo West et al. derivaban el exponente 3/4 de las propiedades fractales de las ramificaciones de los vasos capilares para abarcar todo el volumen del organismo, en un régimen de minimización de la energía disipada.

Kleiber's Law

Kleiber M. (1947). Body size and metabolic rate. Physiological Reviews 27: 511-541.

Este trabajo no consiguió sin embargo disipar la controversia al respecto de la validez de la Ley de Kleiber, tanto por razones relativas a la relevancia del proceso fractal de ramificación, como por la evidencia empírica que parece seguir rehusando descartar conclusivamente la relación 2/3. Precisamente avivando el fuego de este debate, Peter Dodds –de la Universidad de Vermont– acaba de publicar un trabajo en el que se apoya claramente la hipótesis del exponente 2/3. El trabajo en cuestión lleva por título

y ha sido publicado hace unos días en Physical Review Letters. La idea básica es considerar el problema de diseñar una red de suministro que desde una fuente central abastezca a un conjunto de sumideros distribuidos en un espacio d-dimensional Ω. El volumen Vnet de esta red de distribución es

V_{net} \propto \rho_0 V^{1+\gamma_{\max}(1-2\epsilon-\zeta)}

donde ρ0 es la densidad de sumideros, γmax es el máximo exponente de crecimiento alométrico (el exponente que relaciona la dimensión espacial que crece más con el crecimiento del volumen del organismo), ζ es un exponente que relaciona la densidad de sumideros con la distancia a la fuente, y ε es el exponente que relaciona la velocidad de distribución a través de un conducto con su longitud. En el caso de vasos sanguíneos, Dodd considera γmax=1/d (el crecimiento isométrico de la red es el más eficiente), ζ=0 (los sumideros están uniformemente distribuidos) y ε=0 (la velocidad de distribución no varía en función de la longitud). Se obtiene entonces que

V_{net} \propto \rho_0 V^{1+1/d}

Dado que el volumen de la red debe crecer linealmente en este caso con el volumen del objeto (de lo contrario asintóticamente la red sería una fracción infinitesimal del volumen del organismo, o superior a éste lo que no tiene sentido), se deduce que la densidad de sumideros debe ser proporcional a V-1/d. Ahora, el consumo de energía en reposo Prest es proporcional al número de sumideros, por lo que se tiene

P_{rest} \propto \rho_0V \propto V^{-1/d}V \propto M^{(d-1)/d}

que para d=3 da lugar a la relación 2/3.

Más allá del debate sobre el valor exacto de cada decimal del exponente (que por otra parte es complejo de determinar empíricamente debido a las incertidumbres involucradas en el proceso), Dodd apunta un elemento interesante y es que de ser el exponente “real” mayor que 2/3 o bien habría una limitación fundamental en el crecimiento de los animales de sangre caliente, o bien hay otros factores que más allá del volumen de la red entran en juego en el proceso de minimización (por ejemplo, la impedancia). Es en cualquier caso apasionante lo que la teoría de redes puede aportar a la biología.

Posted in Biología, Fisiología, Matemáticas | Etiquetado: , , | 6 Comments »

La matemática de [REC]: Análisis de una infección zombi

Posted by Carlos en octubre 12, 2009

Hace unos días se ha estrenado [REC] 2, la secuela de la fantástica [REC] de Jaume Balagueró y Paco Plaza. El argumento es bien conocido: los habitantes de un bloque de viviendas (junto con un par de policias, un par de bomberos y un par de reporteros) deben enfrentarse al estallido de una infección zombi (usando el término «zombi» en sentido amplio). La película es interesante por múltiples motivos, pero vamos a centrarnos en dos aspectos particulares: (1) el edificio está aislado en cuarentena por las autoridades sanitarias, y (2) el equilibrio de fuerzas dentro del edificio va volcándose paulatinamente del lado de los infectados. Estos dos aspectos nos conducen a dos cuestiones fundamentales: la primera en relación con el punto (1) es si la estrategia de las autoridades sanitarias es correcta, y la segunda en relación al punto (2) es si la evolución del sistema hacia el desequilibrio mostrado en la película es realmente inevitable. Se trata de dos cuestiones que aparte de ser interesantes desde el punto de vista geek/nerd, constituyen un buen experimento mental con posibles aplicaciones a infecciones de carácter más mundano.

[REC]

Dar respuesta a estas cuestiones requiere modelar el problema como un sistema dinámico, de manera similar a como se realiza en ecología, epidemiología, etc. y ver cómo evoluciona en el tiempo. Un análisis de estas características es precisamente el realizado por Philip Munz y colaboradores, de la Carleton University y de la Universidad de Ottawa, en un trabajo que lleva por título:

y que forma parte del libro Infectious Disease Modelling Research Progress, editado por J.M. Tchuenche y colaboradores en Nova Science. Munz et al. consideran varios modelos de complejidad cada vez mayor para estudiar el sistema. En el primero y más básico se consideran tres tipos de sujetos:

  1. Los seres humanos «normales», susceptibles (s) de convertirse en zombies.
  2. Los zombis (z).
  3. Los sujetos «retirados» (r), esto es, seres humanos que mueren por causa natural.

Inicialmente se parte de una población de sujetos susceptibles, sin zombis ni retirados, y a partir de ahí se produce un flujo de sujetos de una a otra categoría:

  • Un ser humano puede nacer (con tasa π), morir de causa natural y pasar a retirado (con tasa δ), o convertirse en zombi tras ser atacado por uno de estos (con tasa β, y proporcional a la población de zombis).
  • Un zombi puede pasar a retirado si un humano lo vence en un enfrentamiento (con tasa α).
  • Un sujeto retirado puede convertirse en zombi (con tasa ς).

Esto nos lleva a un sistemas de ecuaciones diferenciales que describe el sistema:

\begin{array}{rcl} ds/dt & = & (\pi-\delta) s - \beta sz \\ dz/dt & = & (\beta-\alpha) sz + \zeta r \\ dr/dt & = & \delta s + \alpha sz - \zeta r \\ \end{array}

Si se analiza el sistema de ecuaciones en una escala de tiempo muy corta en la que no se llegan a producir nacimientos ni muertes naturales (π=δ=0), la primera ecuación diferencial sugiere dos posibles estados estacionarios (S,Z,R): el primero (S,0,0) es aquel en el que no hay zombis; el segundo (0,Z,0) es el apocalipsis zombie (toda la población acaba infectada). Lamentablemente el análisis del Jacobiano del sistema en estos puntos estacionarios indica que la primera solución no es estable, pero la segunda sí, por lo que basta un pequeño empujón para que el sistema ruede cuesta abajo hacia el apocalipsis zombi.

Hay algún aspecto cuestionable en el sistema anterior, como por ejemplo el hecho de que los zombis destruidos pasen a la categoría de retirados y puedan «reciclarse» en zombis de nuevo. Si eliminamos el término αsz de la tercera ecuación no alteramos sin embargo el resultado anterior, al menos desde el punto de vista cualitativo. No obstante, vamos a tener en cuenta esta modificación del modelo de Munz et al. en lo sucesivo.

Para acercarnos más [REC] el siguiente paso es considerar ahora un modelo de infección latente. Munz et al. modelan esto como una nueva clase -infectados (i)- a la que llegan los susceptibles que son mordidos por un zombie, y de la que salen aquellos infectados que se transforman en zombis (con tasa ρ), y aquéllos que mueren antes de transformarse (con tasa δ, como los susceptibles). Con la modificación mencionada antes en relación a los «retirados» nos queda:

\begin{array}{rcl} ds/dt & = & (\pi - \delta)s -\beta sz \\ di/dt & = & \beta sz - (\rho + \delta) i \\ dz/dt & = & \rho i + \zeta r - \alpha sz \\ dr/dt & = & \delta (s + i) - \zeta r \\ \end{array}

En este escenario la situación es idéntica en el escenario π=δ=0, esto es, no pueden coexistir humanos y zombies, y sólo el apocalipsis zombi es una solución estable. Si realizamos una simulación numérica puede apreciarse el comportamiento cuantitativo del sistema. La siguiente gráfica corresponde a los parámetros π=δ=1/10 000 (tasas iguales de nacimiento y muerte natural), ς= 1/10 000 (tasa de zombificación de retirados), α=1/200 (tasa de destrucción de zombies), β=1/100 (tasa de infección), y ρ=1/200 (tasa de zombificación de infectados):

modelo-infeccion

Nótese como el número de zombis libres es durante la fase inicial del estallido muy bajo, aunque suficiente para inducir una infección latente descontrolada. Eventualmente el número de individuos sanos cae abruptamente, momento en el que el número de infectados deja de crecer y comienza el apocalipsis zombi, ya sin humanos sanos para hacerles frente. Una variante de este modelo es asumir que los infectados permanecen activos en la población, teniendo encuentros con los zombis y contribuyendo a su erradicación mientras no se consume la transformación. En ese caso, el resultado final sigue siendo un apocalipsis zombi, aunque más tardío, y con un número final de zombis mucho más bajo.

Introduzcamos ahora el siguiente factor de [REC], la cuarentena. Munz et al. modelan una nueva clase -cuarentena (q)- a la que llegan tanto sujetos infectados como zombis, y de la que salen únicamente los sujetos que intentan escapar y son eliminados, pasando a la categoría de retirados. Vamos a modificar esto ligeramente, suponiendo que la cuarentena efectivamente retira de la circulación a los sujetos aislados (vivos, muertos o infectados), sin posibilidad de que vuelvan a la categoría de retirados.

\begin{array}{rcl} ds/dt & = & (\pi - \delta)s -\beta sz \\ di/dt & = & \beta sz - (\rho + \delta + \kappa) i \\ dz/dt & = & \rho i + \zeta r - \alpha sz - \sigma z \\ dr/dt & = & \delta (s + i) - \zeta r \\ dq/dt & = &  \kappa i + \sigma z \\ \end{array}

Incluso en este caso, el apocalipsis zombi es prácticamente inevitable, si bien la cuarentena puede retrasar bastante el progreso de la infección. Munz et al. consideran un modelo adicional en el que es posible curar (pero no vacunar) a los zombis, y en este caso se alcanzan situaciones de equilibrio en las que coexisten zombis y humanos sanos (no es un escenario agradable, pero es mejor que el apocalíptico).

Sea como fuere, e incluso sin cura, podría haber otro tipo de estrategias ganadoras. Una de las claves de las simulaciones es el equilibrio demográfico de la población sana. En el momento en el que se comienza a producir la infección empieza el descenso de individuos sanos y tarde o temprano tiene lugar el apocalipsis zombi. Aumentar la tasa de nacimientos retrasa el proceso pero no lo evita. Para ello es preciso combinar un aumento de esta tasa de nacimientos con aumento de la tasa de destrucción de zombies. Bebés y lanzallamas, es una receta que nunca falla.

Posted in Ciencia Ficción, Cine, Geek, Matemáticas, Nerd, Sistemas Complejos, What-if | Etiquetado: , , , | 12 Comments »

Nadal y Del Potro juegan al tenis con taquiones

Posted by Carlos en octubre 28, 2008

Al hilo del último apunte en el que veíamos cómo la noción de simultaneidad es relativa y depende del observador, vamos a centrarnos ahora en la relación entre la velocidad de la luz y los viajes en el tiempo. Concretamente vamos a ver por qué superar la velocidad de la luz supone un viaje hacia atrás en el tiempo. En primer lugar, hay que insistir en que al referirnos a la velocidad de la luz estamos indicando la constante física c, que indica la velocidad -medida localmente por cualquier observador- a la que partículas sin masa se desplazan por el vacío. Esto es, ni se trata de ser más rápido que la luz en un medio material cualquiera, ni los fotones tienen algo especial a los efectos que nos ocupan que no tengan otras partículas sin masa.

Dicho esto, lo primero que hay que preguntarse cuando se habla de superar la velocidad de la luz es en qué sistema de referencia se mide dicha velocidad. No hay sistemas de referencia absolutos, por lo que la medición de velocidad no tiene sentido si no se da esa información adicional. A partir de ahí, podemos analizar qué efecto tendría ese desplazamiento a velocidad superlumínica en otros sistemas de referencia en movimiento relativo con el primero. Vamos a verlo con un experimento mental: estamos en la final de la Copa Davis entre Argentina y España, y el equipo local lo ha preparado todo para un juego rápido: pista de moqueta sintética y pelotas de taquiones. Estas pelotas tienen la propiedad de poder superar la velocidad de la luz en el sistema de referencia de la raqueta que las golpea. En el primer partido tenemos a Del Potro al servicio, y a Nadal al resto. En previsión del saque que se avecina, Nadal retrocede a velocidad v. Del Potro se dispone a sacar, bota la pelota, y … punto para Rafa Nadal. Veámoslo en un diagrama:

Nadal y Del Potro juegan al tenis con taquiones

Nadal y Del Potro juegan al tenis con taquiones

Vamos a suponer por simplicidad que la velocidad de la pelota taquiónica es infinita en el marco de referencia de la raqueta, es decir, llega a su destino instantáneamente. El saque de Del Potro es el evento A, simultáneo en su sistema de referencia con el evento B (la pelota llega a Nadal). Este devuelve la bola a velocidad infinita en su propio sistema de referencia, con lo que llega a Del Potro (evento C) ¡antes de que éste hubiera realizado el saque! De manera cuantitativa: Del Potro saca en el instante t según su reloj, y Nadal recibe la pelota en ese mismo momento según el primero. Dado que según Del Potro Nadal está en movimiento y el tiempo avanza más lentamente para él, cuando para el primero han pasado t segundos para Nadal han transcurrido t‘=t/γ. Nadal está de acuerdo en que recibe la pelota y devuelve el resto en t‘=t/γ, y puede razonar de manera simétrica para determinar cuándo llega la pelota del vuelta a Del Potro, ya que para él es este último el que se mueve. Así cuando en el reloj de Nadal es t‘=t/γ, para Del Potro han pasado t»=t‘/γ=t2<t segundos. Por lo tanto, su resto llega a Del Potro antes de que éste sacara.

Añadamos a esto que si la sorpresa de recibir el resto impide a Del Potro realizar el saque, acabamos de construir una paradoja temporal, de esas que tanto nos dan que pensar. El corolario sería que hay que jugar en tierra batida con pelotas ordinarias para evitar que el espacio-tiempo colapse, pero nos desviamos del tema. Este retroceso en el tiempo desde el punto de vista de algunos observadores es inevitable cuando se produce influencia causal entre dos eventos A y B con separación de tipo espacio, ya que hay sistemas de referencia en los que A es anterior a B y viceversa (además de sistemas de referencia en los que A y B son simultáneos). No se trata de ningún tipo de efecto visual debido al desplazamiento superlumínico, sino de una genuina inversión cronológica, que no sólo puede hacer que en un cierto sistema de referencia el efecto anteceda a la causa, sino que podría dar lugar a que el observador interfiriera con esta última después de producido el efecto, abriendo la puerta a paradojas causales. En el marco de la relatividad especial no es posible en cualquier caso construir líneas de universo de tipo espacio, por lo que este tipo de paradojas estaría excluido. Las cosas no son sin embargo tan simples si nos movemos a la relatividad general, pero eso es ya otra guerra.

Posted in Física, Matemáticas, Time-Travel, What-if | Etiquetado: , , , , , | 9 Comments »

Cambio 1 ingeniero por 2.58 biólogos: Universalidad de las distribuciones de citas

Posted by Carlos en octubre 22, 2008

La evaluación de la actividad investigadora es algo con lo que que todo el que se mueve en el mundo académico ha de lidiar un día sí y al otro también. Lo más extendido en nuestro entorno cercano es usar a tal efecto indicadores bibliométricos que cuantifiquen de algún modo la calidad de las publicaciones realizadas. El ejemplo más clásico lo constituye el índice de impacto, que intenta aproximar la relevancia que una determinada revista científica tiene dentro de su campo a través del número medio de citas que un articulo publicado en la misma recibe. La idea sería entonces que en la medida en la que uno publique en revistas de alto índice de impacto, tanto mejor. Este tipo de medida es sin embargo de grano grueso, y aunque puede permitir realizar una discriminación cualitativa de alto nivel, presenta diferentes problemas. El primero y más evidente es que la distribución del número de citas que un artículo recibe en cualquier revista no es gaussiana (se trata de una distribución de Bradford, que sigue una ley de potencias), y por lo tanto una medida de tendencia central no es un indicador adecuado. El segundo es la dificultad de comparar revistas de diferentes áreas. Por poner un ejemplo, en el Science Citation Index de 2007 el índice de impacto de las revistas en el primer cuartil de biología es >2.599, mientras que para astronomía y astrofísica es >3.483, para inteligencia artificial es >1.644, y para matemáticas es >0.723. La discrepancia es mucho mayor si se considera la revista de más alto índice de impacto en cada campo, con diferencias que pueden rondar el orden de magnitud en algún caso.

0806.0974

Distribución del número de citas en diferentes campos - Credit: Radicchi, Fortunato and Castellano, arXiv:0806.0974

Una de las alternativas cada vez más empleada es contar las citas individuales que cada artículo publicado recibe, lo que -con algunos matices importantes- puede permitir sortear el primero de los problemas anteriores.  Sin embargo, sigue existiendo el segundo, ya que éste reponde a los patrones de publicación que se siguen en cada área: cuánto se publica, dónde se publica (esto es importante, ya que hay áreas como por ejemplo la informática en la que una gran parte del volumen de publicaciones se realiza en conferencias con estricta revisión por pares, y éstas no siempre están adecuadamente indexadas), qué patrones de co-autoría se dan, etc. Sorprendentemente, esta disparidad se puede eliminar con una corrección estadística muy simple, tal como Filippo Radicchi, Santo Fortunato y Claudio Castellano -los dos primeros de la ISI Foundation, y el tercero de la Sapienza de Roma– muestran en un artículo titulado

que acaba de ser aceptado para su publicación en PNAS. La idea básica es normalizar los números de citas dividiendo por c0, el número medio de citas del campo en el año anterior. Parece una trivialidad, pero resulta en una homogeneización casi perfecta de las distribuciones de citas en diferentes campos, como puede verse en la figura inferior.

0806.0974

Distribución reescalada del número de citas en diferentes campos, normalizada según el promedio de cada uno - Credit: Radicchi, Fortunato and Castellano, arXiv:0806.0974

Tal como describen los autores, no sólo se pueden comparar diferentes campos, sino un mismo campo en diferentes años (en los que el factor de reescalado será diferente). De hecho, van más allá, y proponen que esta renormalización se use dentro de una versión generalizada del índice h (véanse también los artículos de Emulenews sobre este indicador). Para ello es necesario introducir otro factor de normalización: N0, el número medio de artículos publicados por año por un autor en una disciplina. Así, el valor de este indicador generalizado sería el máximo número n de artículos con al menos c/c0 > n/N0 citas. Se trata de una sugerencia muy interesante, pero requiere del uso de unos datos estadísticos precisos y que cambian de un año para otro. De todas formas, el que tu índice h vaya fluctuando como la bolsa seguro que animaría mucho la cosa.

Posted in Ciencia, Matemáticas, Uncategorized, Universidad | Etiquetado: , , | 7 Comments »

Al Mal Tiempo, Postgrado

Posted by Carlos en octubre 7, 2008

Guess who's coming to grad school?

Tirando del saber popular, a la ilustración de la izquierda podríamos añadir «pan para hoy, y hambre para mañana», y a la de la derecha «a buen hambre no hay pan duro», lo que demuestra que no sólo es muy sabio el refranero, sino que además tiene miga. La correlación entre las fluctuaciones de la tasa de desempleo y la de inscripciones en estudios de postgrado es además ciertamente interesante (ρ=0.76 es un valor que sugiere una interrelación más que razonable).

Posted in Citas, Economía, Matemáticas, Universidad | Etiquetado: , , , , , , | 10 Comments »

El espacio-tiempo de Minkowski en una cáscara de nuez (II)

Posted by Carlos en septiembre 26, 2008

La pequeña incursión en el espacio-tiempo de Minkowski que comenzamos hace un par de días nos llevó hasta el concepto de métrica. Mediante ésta se pueden medir distancias entre eventos y ángulos entre vectores en el espacio-tiempo. En el caso minkowskiano, dicha métrica difiere de la del espacio euclídeo en que el componente temporal tiene signo diferente a las dimensiones espaciales, lo que tiene consecuencias profundas en las propiedades del espacio-tiempo.

En primer lugar, vimos como en nuestro sistema de referencia en reposo, los ejes t’ y x’ de un observador en movimiento relativo con nosotros no forman un ángulo de 90º, a pesar de lo cual siguen siendo ortogonales. Es fácil verlo, ya que cualquier vector a lo largo del eje t’ tiene en el sistema de referencia de O la forma (t1, vt1) para un algún valor de t1, y del mismo modo cualquier vector a lo largo del eje x’ tiene la forma (vt2, t2). Por lo tanto, su producto interno es –t1vt2+vt1t2=0. Por supuesto, en O’ se da la misma situación, ya que cualquier vector a lo largo de t‘ tiene la forma (t‘,0), y cualquier vector a lo largo de x‘ tiene la forma (0, x‘). De hecho, el resultado de este producto interno es el mismo en cualquier sistema de referencia, lo que es una de las grandes ventajas de este marco de trabajo. Al estar operando con objetos de naturaleza geométrica, expresiones tales como G(r,s) son independientes del sistema de referencia que estemos considerando (un vector y en general un tensor se representará de manera diferente en distintos sistemas de coordenadas, pero el objeto geométrico es siempre el mismo).

Esta invariancia es especialmente importante cuando se mide la distancia entre eventos del espacio-tiempo. Consideremos dos eventos A y B, y un vector s que los une. En el espacio euclídeo tenemos G(s,s)=s2, esto es, un valor positivo que representa el módulo al cuadrado del vector s. Sin embargo, en el espacio-tiempo de Minkowski esta cantidad puede tomar un valor negativo. Dicha cantidad sigue representando no obstante una distancia o una separación entre puntos del espacio-tiempo, y dependiendo de su signo puede ser de tres tipos:

  • Si s2>0 tenemos dos puntos del espacio-tiempo con separación de tipo espacio. Lo que ocurra en uno de estos eventos no influirá causalmente en el otro, ya que la pendiente m de la recta que los une verifica 1/m>1 (i.e., haría falta comunicación a velocidad superlumínica para transportar dicha influencia causal – aquí cabría hacer algún comentario sobre la paradoja EPR, pero lo dejamos para mejor ocasión).
  • Si s2<0 tenemos dos puntos del espacio-tiempo con separación de tipo tiempo. Un observador podría desplazarse entre los mismos, esto es, uno de los eventos estaría en el cono de luz futuro del otro.
  • Si s2=0 tenemos dos puntos con separación de tipo nulo. Además del caso trivial en el que los dos puntos coincidan, esta separación indica que un rayo de luz puede conectar ambos eventos.

En la figura inferior se muestra la situación relativa de estos eventos con respecto a un observador. Todos los eventos cuya separación con respecto a dicho observador es de tipo tiempo están dentro de su cono de luz (futuro o pasado cronológico). La frontera del cono de luz la forman precisamente los eventos con separación de tipo nulo, y su unión con el futuro/pasado cronológico define el futuro/pasado causal.

Estructura del espacio-tiempo de Minkowski

Estructura del espacio-tiempo de Minkowski

Estos intervalos espacio-temporales tienen además una interpretación muy relevante. Una separación de tipo tiempo representa el tiempo propio experimentado por un observador que se desplaza entre dichos eventos. Del mismo modo, una separación de tipo espacio representa la distancia medida por la regla de un observador en el que ambos eventos son simultáneos. Todo esto es sumamente interesante, ya que nos permite derivar las transformaciones de Lorentz. Por ejemplo, consideremos un observador que se desplaza a velocidad v con respecto a nosotros. Sincronizamos nuestros relojes cuando nos cruzamos, y vemos que tras un tiempo t en nuestro reloj, el otro observador está en x=vt. Para este segundo observador habrá pasado un tiempo t’ y el no habrá percibido movimiento (i.e., x‘=0). Dada la invariancia del intervalo espacio-temporal tenemos que –t2+v2t2=-t2, o lo que es lo mismo tras despejar, t‘=t(1-v2)1/2. Hemos obtenido la dilatación temporal, y razonando de manera análoga podemos obtener la dilatación espacial. Chachi, ¿verdad?

Posted in Física, Matemáticas | Etiquetado: , , , , , | 6 Comments »

El espacio-tiempo de Minkowski en una cáscara de nuez

Posted by Carlos en septiembre 24, 2008

Hace un par de días celebrábamos el centenario del nacimiento del concepto de espacio-tiempo, y de su presentación en sociedad por parte de Hermann Minkowski. Gracias a él, la relatividad especial de Einstein se dotó de una interpretación geométrica sumamente poderosa y elegante, que además de permitir reconciliar las percepciones aparentemente paradójicas de diferentes observadores, fue el punto de partida para la generalización de la teoría. Existen diferentes formas de definir el espacio-tiempo de Minkowski de manera formal, pero para simplificar vamos a ver una aproximación más cualitativa.

Empecemos por considerar la perspectiva de un cierto observador O, que vamos a representar en un diagrama en el que el eje vertical t es el tiempo, y el eje horizontal x es el espacio (como es habitual, supondremos por simplicidad en el diagrama que hay una única dimensión espacial). Si elegimos unidades en las que la velocidad de la luz es c=1, un pulso de luz que se aleja de O se representaría mediante una diagonal de 45º, bisectriz del ángulo formado por los ejes t y x, como se ve en la figura inferior (la línea amarilla punteada representa el pulso de luz).

Imaginemos ahora un segundo observador O en estado de movimiento uniforme relativo con respecto a O. Su trayectoria se representaría según este último como la recta t’, que formaría un ángulo menor de 45º con t, por tratarse de una trayectoria a velocidad inferior a la de la luz. Es fácil ver de hecho que la pendiente de esta recta es 1/v. Este segundo observador se percibirá a sí mismo en reposo, por lo que su trayectoria representa la recta x’=0, o lo que es lo mismo, el eje de tiempo en su sistema de referencia. Dado que la velocidad de la luz es la misma para todos los observadores, la trayectoria del pulso de luz también será bisectriz del ángulo formado por t’ y x’, lo que nos da la posición de este último eje. Su pendiente será precisamente v, la velocidad de O relativa a O. Puede parecer sorprendente en primera instancia que los ejes t’ y x’ no formen un ángulo de 90º tal y como t y x, pero hay que recordar que no estamos en el espacio euclídeo al que estamos acostumbrados, sino en un espacio con una geometría diferente. De hecho, en un sentido profundo t’ y x’ son ortogonales, de la misma manera que t y x, aunque para constatar esto necesitamos un elemento adicional: la métrica.

Intuitivamente, la métrica es el mecanismo que empleamos para medir distancias entre puntos del espacio-tiempo. Matemáticamente se trata de un tensor G de tipo (0,2), esto es, de una función lineal en sus dos parámetros, que toma dos vectores y devuelve un número real. Dicho valor real G(r,s) es precisamente el producto interno de los vectores r y s, y en un cierto sistema de referencia puede expresarse como

{\mathbf G}({\mathbf r}, {\mathbf s}) = \sum_{\alpha,\beta}g_{\alpha\beta}r^{\alpha}s^{\beta}

donde gαβ, rα, y sβ son los componentes en dicho sistema de referencia del tensor métrico G y de los vectores r y s respectivamente (normalmente se emplea en estos casos una notación más cómoda en la que los sumatorios están implícitos cuando se da una cierta coincidencia entre sub- y superíndices). Puede verse que en el espacio euclídeo al que estamos más acostumbrados, la métrica se expresaría en un sistema de referencia ortonormal como una matriz identidad, es decir, gαβ=1 si α=β, y gαβ=0 en otro caso. De esa manera, recuperamos el producto escalar en la forma bien conocida:

{\mathbf r}\cdot{\mathbf s} = \sum_{\alpha}r^{\alpha}s^{\alpha}.

En el espacio-tiempo de Minkowski la métrica es muy similar, y únicamente hay una diferencia: uno de los elementos de la diagonal (el que corresponde con la dimensión temporal) tiene signo distinto al resto de elementos (las dimensiones espaciales). Vamos a suponer que dicho signo es negativo (sin pérdida de generalidad, ya que es equivalente suponer lo contrario). Hablamos entonces de signatura (­-+++). El próximo día consideraremos las implicaciones de esta métrica, y cómo las transformaciones de Lorentz pueden obtenerse a partir de la misma.

Posted in Física, Matemáticas | Etiquetado: , , , , , | 5 Comments »

100 Años del Espacio-Tiempo de Minkowski

Posted by Carlos en septiembre 21, 2008

Hermann Minkowski (1864 - 1909)

Hermann Minkowski (1864 - 1909)

«Las ideas del espacio y el tiempo que deseo exponer ante Vds. han brotado del suelo de la física experimental, y ahí reside su fuerza. Son radicales. En lo sucesivo el espacio por sí mismo, y el tiempo por sí mismo están condenados a desvanecerse en meras sombras, y sólo un tipo de unión de ambos mantendrá una realidad independiente.«

Hermann Minkowski, 21 de septiembre de 1908

Tal día como hoy hace exactamente 100 años Hermann Minkowski, profesor de Matemáticas en la Universidad de Gotinga, se dirigió a la 80ª Asamblea de Físicos y Científicos Naturales Alemanes y pronunció las palabras anteriores. Había nacido el concepto del espacio-tiempo.

Minkowski, matemático alemán de origen judeo-polaco nacido en Lituania (Europa era un lugar divertido en aquella época, crisol de culturas and all the fish), tuvo siempre a la geometría como su área de trabajo fundamental, por lo que no es de extrañar que fuera él el que diera el paso decisivo para dotar de interpretación geométrica a la Relatividad Especial. Curiosamente, el propio Einstein no supo apreciar inicialmente el valor de esta interpretación, y la consideró como poco más que una reformulación artificiosamente compleja de los principios de la Relatividad. Visto con retrospectiva, resulta interesante que en aquellos primeros años Einstein no valorara en su justo grado la elegancia y la simplicidad del espacio-tiempo de Minkowski. Es posible que además de un cierto anhelo -sui generis, habría que decir- de mantener las cosas sencillas, Einstein no fuera del todo ajeno a la impresión personal que de Minkowski tenía. Hay que recordar que éste fue uno de sus profesores en el Politécnico de Zurich, y que como con muchos otros docentes del ETH, su relación con él durante los estudios no fue buena. De hecho, cuando Minkowski tuvo conocimiento por primera vez del trabajo de Einstein en relación a la Relatividad Especial le comentó a Max Born:

«Ah, ¿Einstein? Siempre se saltaba las clases. Nunca le hubiera creído capaz de esto.«

Sin embargo, hay que poner en el haber de Minkowski que -a diferencia de otros profesores- no sólo llegara a aceptar y trabajar en los postulados de Einstein, sino que descubriera una visión de la Relatividad Especial -el espacio-tiempo plano y absoluto- que unos años más tarde sería la base de partida de Einstein para la incorporación de la gravedad en la teoría, y el consiguiente desarrollo de la Relatividad General. Esto ocurría a partir de 1912, pero Minkowski no vivió para verlo. Una apendicitis fulminante acabó con su vida a la edad de 44 años en 1909. Su legado es sin embargo imperecedero, y si el tiempo y la autoridad lo permiten, volverá a estas páginas en los próximos días.

Posted in Física, Matemáticas | Etiquetado: , , , | 8 Comments »