La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Archive for the ‘Biología Molecular’ Category

La épica hippy de la síntesis de proteínas

Posted by Carlos en May 27, 2008

Estamos en 1971 y el que 9 años más tarde sería Premio Nobel de Química, Paul Berg, catedrático de bioquímica de la Universidad de Stanford decide realizar una película divulgativa sobre la síntesis de las proteínas. ¿Y qué es lo que hace? Lo normal en estos casos: agarrar a una caterva de hippies y hacerles representar el papel de biomoléculas. El resultado es simplemente apoteósico como se ve en el vídeo inferior. Es fácil imaginar que cuando el Prof. Berg reunió a los intérpretes y les empezó a hablar de los aminoácidos, éstos se metieron en el papel y se pusieron de otros ácidos hasta las cejas. El vídeo tiene en cualquier caso su encanto «flower power«, y hay que reconocer que el factor de iniciación 2 está de muy buen ver (mucho más que el factor de iniciación 1, no hay comparación). El pavo del GTP tiene por otra parte su gracia, y anima -como le corresponde- bastante el cotarro.

Bromas aparte, la realización del vídeo tuvo un enorme mérito, aunque sólo fuera por explicarle a los figurantes su papel (también es verdad que a lo mejor más de uno era estudiante de biología). Quizás por esto en parte, en 2006 Paul Berg recibió el premio Carl Sagan a la popularización de la ciencia. Y es que el valor divulgativo del vídeo es doble: te enseña lo maravilloso que son los procesos bioquímicos, y las nefastas consecuencias que la ingesta de ciertas sustancias puede acarrear.

Posted in Biología, Biología Molecular | Etiquetado: , , | 5 Comments »

Aprendizaje evolutivo en bacterias

Posted by Carlos en May 15, 2008

La capacidad de aprendizaje (esto es, de predicción del estado próximo del entorno) es patente en organismos dotados de sistemas nerviosos más o menos complejos. El campo de las redes neuronales artificiales se basa precisamente en la utilización de ideas basadas en el proceso de reajuste de las interconexiones entre neuronas durante la vida de un organismo. Más sorprendente es sin embargo observar capacidades predictivas en organismos mucho más simples como las bacterias. Dada la ausencia de sistema nervioso en las mismas, el comportamiento de este tipo de organismos se explica mediante mecanismos físico-químicos de homeostasis, presentes en la célula gracias a la acción de la selección natural. Siendo esto así, no hay que dejar de lado en cualquier caso que toda célula contiene un sistema enormemente complejo en su interior, en la forma de redes genómicas, proteómicas y metabólicas, y que un sistema de estas características es capaz de dar muchas sorpresas.

Una de estas sorpresas es la capacidad que ciertas bacterias tienen de asociar cambios ambientales inmediatos con cambios ambientales que ocurrirán con posterioridad. Un ejemplo de este comportamiento es el que exhibe la conspicua Escherichia coli. Esta bacteria es capaz de asociar incrementos rápidos de temperatura (como los que ocurrirían al pasar de un entorno abierto al interior de la boca de una persona) con posteriores decrementos del nivel de oxígeno (como los que ocurrirían posteriormente al llegar al tracto intestinal). Un estudio al respecto ha sido publicado por Ilias Tagkopoulos, Yir-Chung Liu, y Saeed Tavazoie, de la Universidad de Princeton, en un trabajo titulado

recién aparecido en Science. Tagkopoulos et al. han realizado en primer lugar un estudio computacional, empleando técnicas de computación evolutiva y de vida artificial. En sus simulaciones se mantiene una población de organismos, cada uno de los cuales contiene una red metabólica en su interior. Esta red metabólica evoluciona mediante la aplicación de ciertos operadores de mutación al llegar a la fase reproductiva. El entorno se simula mediante una serie de señales más o menos correlacionadas con la aparición de ciertos eventos. Concretamente, consideran un evento consistente en la aparición de un recurso del que es posible extraer energía siempre que la célula exprese una cierta proteína. La energía que se gana de esta forma se ve reducida por el propio coste de mantenimiento de la red metabólica, dando lugar a un saldo energético final. En un grupo de simulaciones este saldo energético se usaba para seleccionar los individuos que pasaban a la siguiente generación, mediante el clásico procedimiento de ruleta. En otro grupo de simulaciones el proceso de reproducción era asíncrono, y se producía individualmente en cada individuo cuando acumulaba suficiente energía.

Escherichia coli at 10000x

Este tipo de simulaciones (realizadas en supercomputadores) permitieron demostrar la viabilidad en principio de que a escala evolutiva pueda producirse aprendizaje a nivel de interacción bioquímica. El siguiente experimento se realizó con ejemplares de E. coli bajo condiciones controladas en las que se realizaban cambios de temperatura entre 25ºC y 37ºC y cambios en la concentración de oxígeno entre 0% y 18%. No sólo se observó el efecto mencionado anteriormente en relación a la predicción de las condiciones del tracto digestivo, sino otro más interesante. Concretamente se realizaron experimentos con las condiciones inversas a las naturales, es decir, se evolucionó una población de E. coli en un entorno en el que el incremento de temperatura iba seguido de un incremento de la concentración de oxígeno. Se obtuvo de esta manera una cepa que era capaz de anticipar este escenario ecológicamente incoherente, mostrando así un aprendizaje genuinamente asociativo.

Según afirman los autores del trabajo, este tipo de estudios puede conducir a una mejor comprensión de la dinámica adaptativa de las bacterias y la aparición de resistencia a los tratamientos, lo que puede resultar de gran utilidad.

Posted in Biología Molecular, Computación Evolutiva, Evolución, Vida Artificial | Etiquetado: , | 4 Comments »

Nanobacterias, nanopartículas y proto-vida

Posted by Carlos en abril 23, 2008

ALH84001 nanostructuresCuando en 1996 se hicieron públicos los estudios preliminares de las nanoestructuras encontradas en el meteorito marciano ALH84001 hubo un gran revuelo, controversia y expectación. Se sugería que estas nanoestructuras -con un tamaño de 20-100 nm- podrían ser restos fosilizados de formas de vida bacteriana o similar, lo que supondría la confirmación de la existencia de vida fuera de la Tierra. Entre los primeros argumentos contrarios a tal interpretación de estas estructuras estaba su pequeño tamaño, inferior a la de las más pequeñas bacterias terrestres conocidas (los micoplasmas, de unos 150-250 nm de tamaño). Actualmente sigue sin estar claro si dichas estructuras tienen origen biológico, o incluso si de tenerlo hay que buscarlo fuera de la Tierra o puede ser una contaminación posterior a la llegada del meteorito. En cualquier caso, es interesante retomar la cuestión del tamaño, precisamente en relación con otra hipotética familia de microorganismos (o mejor dicho, nanoorganismos) que está dando que hablar en los últimos tiempos: las nanobacterias.

Las primeras referencias específicas hacia las nanobacterias en un entorno biológico datan de 1998 (previamente -en 1981- había habido especulación a partir de hallazgos en rocas, similares a los mencionados en el caso del meteorito marciano). En un artículo publicado en PNAS, dos investigadores de la Universidad de Kuopio en Finlandia sugerían que este tipo de organismos -autorreplicantes y con ADN- eran los responsables de la deposición de fosfato de calcio en los cálculos renales. Este planteamiento fue muy controvertido, ya que se estaba hablando de tamaños inferiores a los de la mayoría de virus, que no pueden replicarse de manera autónoma. De hecho, se ha sugerido que unos 140 nm es el límite inferior para el tamaño de una célula: con menos de eso no hay espacio para el ADN y las proteínas necesarias para que ésta funcione. La interpretación alternativa era la de nanopartículas contaminadas con ADN de bacterias circundantes y que de alguna forma eran capaces de replicarse y producir apatita, extremo este último que no resultaba tampoco muy satisfactorio como planteamiento.

La controversia puede estar sin embargo cerca de su fin si se confirman los hallazgos de Jan Martel y John Ding-E Young en un reciente trabajo titulado

y que ha sido publicado en los Proceedings of the National Academy of Sciences. En este trabajo los autores han sido capaces de sintetizar nanopartículas cuya apariencia y comportamiento son idénticos a las supuestas nanobacterias identificadas en el suero sanguíneo. Estas nanopartículas se forman a partir de una reacción química entre calcio y CO2, sustancias que se encuentran de manera natural en la sangre, y asombrosamente son capaces de «reproducirse», esto es, de producir nuevos cristales calizos. El fenómeno distintivo que hace que estos cristales no sean de gran tamaño es la presencia de moléculas orgánicas que envuelven a estas nanopartículas, impidiendo su crecimiento normal y forzándolas a adoptar la forma esférica o alargada típica de bacterias. No se ha localizado traza alguna de ADN, y las supuestas bacterias continuaron comportándose de la misma forma tras ser literalmente cocidas con una dosis de 30 kGy de rayos gamma (el doble de lo que tolera Deinococcus radiodurans, la bacteria más resistente a la radiación).

Aunque esto puede suponer el fin de la especulación acerca de si estas partículas eran realmente seres vivos o no, no deja de ser interesante especular con el papel que han podido jugar en el origen de la vida. Ya en 1985 el químico y biólogo molecular Graham Cairns-Smith propuso la teoría de que la vida tal como la conocemos surgió a partir de un proto-ecosistema basado en cristales de arcilla que por medios puramente químicos se «reproducían» y estaban sujetos a una suerte de selección natural. Las moléculas orgánicas eran inicialmente una «adaptación evolutiva» de estos cristales que encontraban en ellas una ventaja con vistas a su propagación. Eventualmente el proceso se cortocircuitó, y las moléculas orgánicas alcanzaron la capacidad de autorreplicación de manera independiente de los cristales arcillosos. ¿Pudiera ser que un proceso análogo hubiera podido producirse de alguna forma a través de cristales de carbonato cálcico? Quién sabe. La cuestión es en cualquier caso apasionante, y engarza con algunas discusiones que tuvimos hace tiempo sobre formas de vida fundamentalmente diferentes a la bioquímica terrestre. Merecerá la pena retomar este hilo próximamente.

Posted in Biología Molecular, Evolución, Exobiología | Etiquetado: , , , , , | 6 Comments »

¿Se puede (o se debe) definir la vida?

Posted by Carlos en septiembre 13, 2007

En todas las discusiones sobre las posibilidades de existencia de vida fuera de la Tierra surge siempre la cuestión de qué es lo que se entiende por vida. Ese es el caso de por ejemplo las estructuras autorreplicantes que se han teorizado en simulaciones de nubes de polvo interestelar: de existir realmente, ¿deberían ser consideradas como vivas? En este caso concreto los autores argumentaban que sí en base a una definición -bastante razonable por otra parte- de vida, en la que la capacidad autoorganizativa, el consumo energético, y la adaptación evolutiva se consideraban características esenciales. La cuestión es: ¿debe aceptarse esa definición? O yendo más lejos aún, ¿es posible/correcto hacer una definición de vida?

Esta última cuestión fue lanzada por Carol Cleland, profesora de filosofía de la Universidad de Colorado, según nos cuenta Carl Zimmer en un interesante artículo en Seed Magazine. Para entender mejor el punto de vista de Cleland puede hacerse un recorrido por algunas de las diversas definiciones de vida que se han realizado. Por ejemplo, las primeras definiciones modernas, allá por los años 50 del siglo pasado, se centraban en la biología molecular, y en cómo se producían complejos orgánicos y se almacenaba información en los mismos. Este tipo de definición puede considerarse problemática en tanto en cuanto mezcla el qué con el cómo. Recuérdese en este sentido el caso de la búsqueda de vida en Marte, y cómo los resultados de las pruebas realizadas en la misión Viking -orientados a buscar formas de vida análogas a las existentes en la Tierra- dieron resultados ambiguamente negativos. Al fin y al cabo, las condiciones de vida en Marte distan mucho de las terrestres, por lo que de existir vida, ésta podría diferir formalmente en aspectos que estamos dando por sentados.

Esta problemática sugiere que puede ser más interesante buscar una definición funcional de la vida. Ése era el caso mencionado en el ejemplo de las hélices en las nubes de polvo interestelar, en la que la capacidad evolutiva -diferente en la forma, pero en el fondo equivalente en términos de los mecanismos básicos subyacentes, esto es, replicación imperfecta y selección natural- es uno de los aspectos fundamentales. Este tipo de definiciones resulta más satisfactoria, en tanto en cuanto intenta ir más a la esencia de qué es la vida, y no a los aspectos de su implementación (que pueden estar dictados por condiciones locales). No obstante, sigue existiendo un problema, en parte debido a nuestra percepción subjetiva de qué esta vivo y qué no (incluso hay quien distingue entre seres vivos y formas de vida, aunque esta distinción puede ser quizás sólo justificable a posteriori). De hecho, Cleland ha seguido el enfoque de buscar para cada definición de vida propuesta contraejemplos positivos o negativos. Algunos son meramente experimentos mentales, como por ejemplo imaginar unos microorganismos en los que no hubiera código genético, sino sólamente enzimas. Unos seres de este tipo se podrían reproducir por bipartición, y adaptarse a cambios ambientales mediante cambios en la «demografía» enzimática. Se podría seguir hablando de evolución, aunque sólo en un sentido mucho más general del que normalmente se emplea.

Quizás uno de las mejores analogías para ilustrar la posición de Cleland es la que ésta proporciona en relación a los alquimistas medievales, que entendían los compuestos químicos a través de sus propiedades. Por ejemplo, el agua se definía por su capacidad de disolver otras sustancias sólidas, lo que por un lado excluía al hielo, y por otra parte incluía a compuestos como el ácido nítrico (el aguafuerte) o la combinación de éste con ácido clorhídrico (el agua regia). Hoy sabemos que el agua es H2O, pero esto no es una definición, sino un hecho descubierto dentro de una teoría química. Eso es precisamente lo que Cleland reclama, una teoría de la vida, un marco científico que explique qué es lo relevante para la vida, qué formas puede tomar, y por qué es eso así. En otras palabras, una especie de meta-biología. El problema evidente es que sólo tenemos un ejemplo de vida, por lo que difícilmente se puede desarrollar una teoría que se generalice a formas de vida de las que no tenemos conocimiento.

Ante un problema tan evidente como el anterior, hay una solución igualmente obvia: encontrar otras formas de vida, ya sea surgidas de manera natural en otros cuerpos del Sistema Solar, o creada de manera artificial en la propia Tierra (por ejemplo, formas de vida independiente enteramente basadas en ARN). Puede parece que hay una circularidad en esta situación: para encontrar nuevas formas de vida y generalizar nuestra concepción de la misma hay que empezar por ser capaces de reconocerla, lo que de entrada puede requerir dicha generalización. Esto puede ser así, aunque también puede considerarse simplemente un caso de bootstrapping. Siempre pueden encontrarse criterios lo suficientemente genéricos para considerar como vivos a organismos enormemente diferentes a los que conocemos. La cuestión entonces no es que no se deba definir qué es la vida, sino encontrar una definición inicial que sea lo suficientemente relajada para que la vida tal como se presenta en la Tierra no sea la única posibilidad, y a la vez lo suficientemente estricta como para que el tipo de sistemas susceptibles de ser considerados vivos pueda ser reconocido de manera razonable. Al fin y al cabo, si se encuentran formas de vida diferente a la que conocemos vamos a estar ocupados mucho tiempo antes de tener que volver a preocuparnos por criterios todavía más genéricos.

Posted in Biología Molecular, Evolución, Exobiología, Filosofía | Etiquetado: , | 4 Comments »

Tirarse al barro puede ser antidepresivo

Posted by Carlos en julio 20, 2007

Todos hemos visto aquellas escenas del festival de Woodstock, una de las cimas de «flower power» hippie, con la gente cubierta de barro hasta las cejas y repartiendo paz y amor. Pues bien pudiera ser que la fuente del «buenrollismo» aquel no fuera filosófica o cannábica, sino bacteriológica. Eso es lo que podría indicar un reciente estudio de investigadores de la Universidad de Bristol y del University College London, liderados por el Dr. Christopher Lowry. Dicho estudio se titula

y ha sido publicado en Neuroscience. El objetivo del estudio es estudiar la relación entre la producción de serotonina y la respuesta inmunológica. Ya de antiguo se sabe aquello de mens sana in corpore sano, y que existe una cierta relación entre respuestas inmunológicas y estados de humor. En este sentido, la serotonina es un neurotransmisor popularmente conocido como la «hormona del humor» e incluso la «hormona del placer». Su falta se asocia con estados depresivos, de ansiedad, e incluso agresivos. Relacionado con todo esto, el equipo dirigido por el Dr. Lowry ha detectado que la bacteria Mycobacterium vaccae (figura inferior) es capaz de inducir en ratones la activación de las neuronas que producen serotonina.

Mycobacterium Vaccae (credit: Laura Rosa Brunet, UCL)
Credit: Laura Rosa Brunet, UCL

¿Y qué tiene todo esto que ver con Woodstock y el barro? Pues sencillamente que esta bacteria se desarrolla fundamentalmente en el barro, por lo que una exposición profunda del cuerpo al mismo (lo cual puede incluir ingestión, absorción cutánea, etc.) podría estar causando una respuesta bioquímica con producción de serotonina, y efectos similares al de los fármacos antidepresivos. No está mal como excusa para revolcarse en el barro, pero eso sí, con moderación, ya que también hay quien dice que la estimulación excesiva del sistema inmunológico puede llegar a producir una respuesta auto-inmune.

Posted in Biología Molecular, Fisiología | 4 Comments »

¿Problemas con el ácido úrico? Toma café

Posted by Carlos en May 26, 2007

Ácido ÚricoEl ácido úrico es uno de las sustancias de desecho del metabolismo humano (es el producto final de oxidación en el metabolismo de las purinas) y suele hallarse en la sangre con una concentración de hasta 8.3 mg/dl -o lo que es lo mismo, ~494 µmol/l- en individuos sanos. Cuanto esta concentración aumenta, pueden empezar problemas de diferente tipo. El más común es la gota, una inflamación artítrica que afecta fundamentalmente a los hombres (>95% de los casos). También pueden producirse cristalizaciones de ácido úrico en los riñones, que pueden resultar en la formación de cálculos renales. Por todo ello, el control del nivel de ácido úrico en sangre es importante desde el punto de vista sanitario. Normalmente, suele haber factores congénitos en este tipo de patología, pero también se postula que la dieta y el estilo de vida puede influir en la misma.

En relación con lo anterior, resulta especialmente interesante un estudio de más de 12 años de duración cuyos resultados han sido recientemente publicados, y que estudia la relación de la gota con el consumo de café, té, y otras bebidas. Se trata de un trabajo de Hyon K. Choi y colaboradores titulado

y publicado en la revista Arthritis & Rheumatism. El estudio ha abarcado más de 45,000 hombres por encima de los 40 años al comienzo del mismo, y durante el mismo se han tomado datos de la ingesta de café, té, bebidas de cola o chocolate por parte de los sujetos. De esta población de estudio se han diagnosticado 757 casos de gota, y al correlacionar los mismos con el consumo de estas bebidas se ha llegado a resultados sumamente interesantes. El riesgo de gota es 40% inferior en sujetos que consumían 4 ó 5 tazas de café al día, y un 59% inferior para los que tomaban 6 o más (por supuesto, estamos hablando del café -si puede llamarse así- que se toma en los EE.UU.). Lo más curioso es que no hay dependencias significativas ni del consumo de té, ni de la ingesta total de cafeína, lo que sugiere que es alguna sustancia diferente de esta última -por ejemplo el ácido clorogénico, un potente antioxidante presente en el café- la responsable del efecto (de hecho, hay un modesta correlación con el consumo de café descafeinado).

A la luz de estos potenciales efectos beneficiosos del café, cabe recordar la anécdota (quién sabe si apócrifa) de la que Voltaire -ingente consumidor de café- fue protagonista. Cuando le advirtieron de que el café era un veneno lento, afirmó: «Debe serlo realmente; hace más de cincuenta años que lo tomo, y aún no me he muerto«.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Biología Molecular, Medicina, Química | Etiquetado: , , | 17 Comments »

¿Puede un biólogo arreglar un tamagotchi?

Posted by Carlos en May 11, 2007

TamagotchiAyer comentábamos la ácida crítica que el Prof. Yuri Lazebnik hacía de la metodología dominante en el área de la biología de sistemas, y que ilustraba con una analogía a la reparación de una radio. La opinión del Prof. Lazebnik es que deben llegarse a conocer las redes de interacciones con la misma precisión que se conocen los circuitos eléctricos. Es indudable que tal objetivo es deseable, pero ¿es la meta final? Parece que no, tal como muy apropiadamente ilustra el Dr. Luca Cardelli -empleado actualmente en Microsoft- con otra analogía: ¿puede un ingeniero eléctrico arreglar un reproductor MP3, o un teléfono móvil que no recibe email? La respuesta es: muy probablemente, no. El funcionamiento de estos dispositivos no puede ser descrito convenientemente en forma de circuitos eléctricos, ya que una parte significativa (en algunos casos la más significativa) no es electrónica, sino programación. Esta analogía es especialmente interesante, si se interpreta que el material genético de un ser vivo es esencialmente un tipo de software, y que éste controla el funcionamiento del sistema (los seres vivos más simples -los virus- serían entonces de hecho puramente software).

El Dr. Cardelli explora esta situación, pero desde un prisma ligeramente distinto, en un artículo titulado

publicado en el Gilles Kahn Colloquium en enero de este año. La idea básica es considerar un organismo tecnológico, ya que esta elección asegura que el sistema que se quiere analizar fue creado mediante ingeniería directa, lo que en principio hace potencialmente factible la ingeniería inversa, tal como sería el objetivo biológico. El organismo en cuestión es un tamagotchi, que para ponernos en un contexto biológico denominaremos Tamagotchi Nipponensis. A la hora de abordar el estudio del T. Nipponensis mediante el método científico, hay diferentes enfoques que se pueden seguir: (1) comprender los principios de funcionamiento del sistema, (2) comprender su mecanismo, (3) comprender su comportamiento, (4) comprender su entorno, (5) comprender su matemática. Todos estos enfoques fallan, ya que el hadware del sistema es relativamente simple, muy compacto, muy interrelacionado, su comportamiento es estocástico, su entorno original (la sociedad japonesa) es muy compleja, y su matemática es externamente inaprehensible.

¿Cómo puede entenderse el T. Nipponensis? Lógicamente, hace falta examinar su software, y realizar ingeniería inversa de éste. Esto quiere decir que hay que trazar el código, definir puntos de ruptura, hacer volcados de memoria, análisis de paquetes de comunicaciones, etc. La analogía con la realidad biológica se cierra si consideramos que la genómica sería la recuperación del código objeto, la transcriptómica sería trazar el estado de la pila del sistema, la proteómica sería la realización de volcados de memoria, la metabolómica sería el estudio de la fuente de alimentación y el tamaño del heap, y la biología de sistemas sería el estudio del tráfico de comunicaciones. Sin embargo, el análisis no parece que sea muy factible si nos dedicamos a sacar promedios de millones de volcados en memoria, o a eliminar líneas de código una a una para ver qué pasa.

La conclusión debe ser que -como dijo Einstein- la Naturaleza es sutil, pero no maliciosa, por lo que el software estará encriptado para que sea difícil de modificar, no para que sea difícil de entender. La tarea no va a ser fácil en cualquier caso.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Biología Molecular, Ciencia, Programación | 2 Comments »

¿Puede un biólogo arreglar una radio?

Posted by Carlos en May 10, 2007

El funcionamiento de los procesos biológicos que tienen lugar en el interior de las células es de una complejidad extraordinaria. Consideremos por ejemplo la apoptosis, el proceso por el cual una célula se «suicida» de manera programada (a diferencia de la necrosis, que tiene lugar de manera incontrolada debido a lesiones en el tejido celular). Se trata de un proceso de extraordinaria importancia, ya que permite que células dañadas o infectadas dejen de consumir recursos, y que sus restos puedan ser reciclados o eliminados de manera segura. Un fallo en el mecanismo de la apoptosis puede desembocar en la aparición de un tumor, debido a la reproducción sin control del tejido. Es por esto que el estudio de los mecanismos que controlan la apotosis es tan importante. La complejidad de esta tarea es sin embargo enorme: hay un gran número de eventos bioquímicos que han de tener lugar de manera orquestada para que se produzca la apoptosis. Podemos imaginarnos un gran diagrama de interacciones en el que una multitud de biomoléculas se interconectan mediante relaciones de activación o de inhibición.

¿Cómo se enfoca el estudio de este tipo de sistemas? De una manera muy experimental, intentando descubrir las relaciones existentes mediante pequeñas alteraciones en los componentes (ahora se desactiva esto, ahora se activa lo otro) y observando los efectos que se producen. Esta metodología ha producido durante los últimos años una media de 10,000 artículos anuales sólo sobre apoptosis, la mayoría de los mismos puramente descriptivos, y frecuentemente contradictorios con otros trabajos. El resultado es que como dice el Prof. David Papermaster, cuantos más datos aprendemos sobre la apoptosis, menos entendemos el proceso. La paradoja puede ser quizás excesiva en sus términos, pero ha motivado una interesante reflexión del Prof. Yuri Lazebnik en un artículo titulado

publicado en Cancer Cell, y luego reimpreso en Biochemistry. Con bastante humor, el Prof. Lazebnik lanza una carga de profundidad contra la metodología que se sigue en el área, imaginando qué pasaría si se siguiera la misma para arreglar una radio. El resultado es realmente hilarante.

Todo comienza por la obtención de una buena provisión de radios en perfecto funcionamiento para poder diseccionarlas y compararlas con la que está rota. Una vez se hubiera descubierto cómo abrirlas, se vería que en su interior habría multitud de objetos de diferentes formas, colores y tamaños, que se intentaría clasificar en familias: los redonditos de dos patitas por allí, los que tienen tres patitas por allá, etc. El primer experimento consistiría en ver si el color afecta en algo a estos objetos. Tras cambiar unos cuantos por otros del mismo tipo pero diferente color, se apreciaría que el sonido de la radio es diferente, atenuado o distorsionado, lo que daría lugar a un gran número de artículos científicos, y a un animado debate.

Dentro de una Radio

¿Hay algún componente que sea imprescindible para que la radio emita sonido? Tras probar a eliminar diferentes componentes, un postdoc afortunado descubre que hay un cable cuya eliminación hace que cese el sonido. Este cable pasa a denominarse SRC (Componente Recuperado Serendipiedósamente), y se descubre que une a un componente extensible con el resto de la radio. A este componente extensible se le llama MIC (Componente Más Importante), y tras ser estudiado en profundidad se descubre que debe ser de metal, y cuánto más largo mejor (lo que proporciona una explicación evolutiva de por qué es extensible). La importancia de MIC empieza a cuestionarse cuando un estudiante de doctorado descubre que hay una barrita de grafito que también se requiere para que funcione el sistema. A esta barrita se la denomina RIC (Componente Realmente Importante), y comienza la controversia acerca de cuál es más importante, MIC o RIC. Gradualmente se descubre que algunas radios requieren MIC, y otras requieren RIC, lo que anima más el debate, hasta que un astuto postdoc descubre que hay un interruptor que determina si hace falta MIC o RIC para escuchar música. A dicho interruptor se le denomina U-MIC (Componente Indudablemente Más Importante), y su papel central se refleja en diagramas como el que sigue:

network.jpg

Eventualmente se catalogan todos los componentes, y sus interacciones, pero ¿es esto suficiente para arreglar la radio? Si se trata de que uno de los componentes está carbonizado en la radio estropeada, pero no en la radio que funciona, parece claro que la solución es reemplazarlo por uno nuevo. Sin embargo, si el problema es que hay un desajuste entre los componentes de la radio, la probabilidad de que se encuentre la forma de arreglarla es mucho menor, casi imposible según el Prof. Lazebnik. La única solución para él es emplear un lenguaje formal, que evite las típicas vaguedades de los artículos sobre el tema, por ejemplo:

El equilibrio entre proteinas BCL-2 pro- y anti-apoptóticas parece controlar la viabilidad celular, y aparentemente se correlaciona a largo plazo con la habilidad de formar tumores.

El uso de un formalismo haría más evidente la necesidad de medir los parámetros del sistema, y ayudaría a entender su rol. El empleo de un formalismo de este tipo puede ser inevitable en el futuro si se quieren entender los procesos biológicos del mismo modo que entendemos los procesos eléctricos que hacen funcionar una radio. El problema es si los biólogos están preparados (no intelectualmente, que se supone que sí, sino conceptualmente) para ello. Veremos.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Biología Molecular, Ciencia | 6 Comments »

Supercomputación en una Playstation 3

Posted by Carlos en abril 4, 2007

¿Quién dijo que una consola de videojuegos sólo sirve para matar marcianos? También puede valer para encontrarlos, o para ayudar a resolver otros innumerables problemas científicos. Y es que cuando uno compra una de estas consolas está adquiriendo en realidad un dispositivo de cómputo que representa la punta de lanza tecnológica en procesamiento numérico específico. En su interior se encuentra hardware especializado, optimizado para realizar las complejas simulaciones físicas que subyacen a muchos juegos o para hacer el rendering fotorrealista de las escenas de los mismos. Si a esto añadimos la capacidad de interconexión a través de Internet, tenemos todos los ingredientes para desarrollar una plataforma de cómputo masivo distribuido.

Playstation 3

Lo anterior no es en sí mismo novedoso. Desde el histórico proyecto SETI@home han surgido diferentes iniciativas en computación grid que intentan aprovechar los ciclos libres de millones de equipos conectados a Internet. Lo que sí resulta especialmente interesante es la extrema capacidad de cómputo de las videoconsolas, y cómo éstas se adaptan especialmente a la resolución de este tipo de problemas. Pensemos por ejemplo en una Playstation 3. Esta consola incorpora un procesador Cell de 8 núcleos a 3.2GHz. Uno de ellos es el denominado «Power Processing Element» (PPE), similar a un PowerPC y responsable de ejecutar el sistema operativo y coordinar el funcionamiento del sistema. Los restante siete núcleos son los Synergistic Processing Elements (SPEs), procesadores RISC con registros de 128-bits que se encargan de «machacar números» (aunque uno de ellos está dedicado a otro tipo de labores, tales como seguridad). Si a esto le unimos la unidad de procesamiento de gráficos, el rendimiento combinado del sistema puede alcanzar los 2 teraflops.

Simulations of the villin headpieceEsto no ha pasado desapercibido para los administradores de Folding@home, un proyecto de computación distribuida en el área de la biología molecular que estudia el plegado de las proteínas (algo de capital importancia, ya que la función que desempeña una proteína está determinada por su estructura plegada tridimensional). Para ello es necesario realizar simulaciones físicas del proceso, lo que requiere ingentes recursos computacionales. Desde Folding@home se ha llegado a un acuerdo con Sony que ha facilitado la disponibilidad del software necesario para que quien lo desee pueda contribuir la capacidad de cómputo de su consola al proyecto. El resultado es espectacular, ya que con unas 22,000 consolas activas se están consiguiendo 289 teraflops (recordemos que la capacidad de cómputo sostenido del supercomputador más potente en la actualidad es de 280 teraflops), prácticamente la mitad de la capacidad de cómputo total, que incluye más de 240,000 CPUs. Los administradores del proyecto confían en llegar pronto al petaflop. Hay también planes de extender a la PS3 otros proyectos de computación distribuida (a través de BOINC).

El único inconveniente de momento es que esta aplicación no puede hacerse en background, ya que en el momento en que el usuario empiece a jugar no habrá potencia restante que dedicar a otro tipo de cálculos. En cualquier caso, uno no está jugando las 24h del día, así que ya sabes, hazle un favor a la ciencia, y compra una videoconsola.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Biología Molecular, Computadores, Informática, Internet | 8 Comments »