miércoles, 1 de febrero de 2017

La consciencia y la termodinámica en la evolución



Creación de consciencia y los incentivos para consolidarla

Eventos trascendentes; son aquéllos que involucran incentivos, incentivos que en su forma más primitiva tienen que ver con la alimentación, un ambiente cálido, una voz amorosa, sonidos armónicos de baja frecuencia, aromas conocidas, es decir la madre el padre la familia amorosa.

La repetición de eventos trascendentes permite, primero, sumar eventos simultáneos y armonizarlos por sus temporalidades. El cerebro, que trabaja con potenciales eléctricos, suma de manera geométrica esa simultaneidad y detona la generación de endorfinas que se hacen disponibles para todos los receptores que por este efecto producen placer.

Cómo la vida (y la muerte) brota del desorden (por PHILIP BALL; ver nota)


Se pensó que la vida obedecía a su propio conjunto de reglas. Pero como los sistemas simples muestran signos de comportamiento realista, los científicos están discutiendo sobre si esta complejidad aparente es toda una consecuencia de la termodinámica.

¿Cuál es la diferencia entre la física y la biología? Toma una pelota de golf y una bala de cañón y déjalos caer de la Torre de Pisa. Las leyes de la física te permiten predecir sus trayectorias casi tan exactamente como podrías desear.

Ahora haz el mismo experimento de nuevo, pero reemplaza la bala de cañón con una paloma.
Los sistemas biológicos no desafían las leyes físicas, por supuesto, pero tampoco parecen ser predichas por ellos. En cambio, están dirigidos a objetivos: sobrevivir y reproducirse. Podemos decir que tienen un propósito - o lo que los filósofos han llamado tradicionalmente una teleología - que guía su comportamiento. De la misma manera, la física ahora nos permite predecir, a partir del estado del universo una mil millonésima de segundo después del Big Bang, que se ve muy parecido al día de hoy. Pero nadie se imagina que la aparición de las primeras células primitivas en la Tierra condujo previsiblemente a la raza humana. Parece que las leyes no dictan el curso de la evolución.

La teleología (las causas finales) y la posibilidad de ocurrencia histórica de la biología, según Ernst Mayr, la hace única entre todas las ciencias. Ambas características son la base del principio general que guía a la biología; la evolución. Esto depende de las probabilidades y el azar, pero la selección natural da la apariencia de tener una intención y un propósito. Los animales buscan el agua, no por la guía de alguna atracción magnética, sino porque su instinto, su intención, es la de la supervivencia. Las piernas sirven al propósito de, entre otras cosas, transportarlos hacia el agua.

Mayr, sostiene que esas características hacen a la biología excepcional –una ley en sí misma. Pero recientes desarrollos en física de los no-equilibrios, sistemas complejos y la teoría informática, están poniendo a prueba esa visión.

Una vez que nosotros en relación a las cosas vivientes, como entes llevando a cabo un cómputo, recolección y almacenamiento de datos en un ambiente impredecible, de las capacidades y consideraciones tales como la reproducción, adaptación, normativa, el propósito y el significado puede entenderse como provenientes no de una improvisada evolución, sino como inevitables corolarios de las leyes de la física. En otras palabras, parecen ser un tipo de la física de las cosas haciendo cosas y evolucionando para hacer cosas. Significado e intención, se piensa que son la definición de los sistemas vivos, pueden hacerlos emerger naturalmente a través de las leyes de la termodinámica y la mecánica estadística.

El pasado noviembre, físicos, matemáticos y científicos de la computación junto con biólogos moleculares y evolucionistas se reunieron para hablar (y alguna veces argumentar) al respecto de estas ideas en un taller de trabajo en el Instituto Santa Fe en Nuevo México, la meca de la ciencia de los “sistemas complejos” Ellos se preguntaron: ¿Qué tan especial (o nó) es la biología?

Es sorprendentemente difícil de creer que no hubo consenso. Pero un mensaje emergido de ahí fue claro que, sí existe un tipo de física detrás de la teleología y su normatividad, tiene algo que ver con el mismo concepto que parece haber sido instalado en el corazón de la física fundamental en sí misma: la informática (la medida numérica de la incertidumbre de un experimento).

De acuerdo con la termodinámica, la capacidad para extraer trabajo utilizable desde las fuentes de energía del universo siempre disminuyen. Los paquetes de energía están reduciéndose. Las concentraciones de calor están siendo suavizadas. En cualquier proceso físico, una parte de la energía es inevitablemente disipada como calor inutilizable, que se pierde por el movimiento azaroso de las moléculas. Este azar es igual a la cantidad definida por la termodinámica llamada la entropía (una medida del desorden). la cual siempre se está incrementando. Esta es la segunda ley de la termodinámica. En algún momento, todo el universo será reducido a un uniforme, aburrido revoltijo: un estado de equilibrio donde la entropía se habrá maximizado y nada significativo tendrá lugar otra vez.

¿Estamos realmente condenados a ese triste destino? Maxwell se resistía en creerlo y, en 1867 él estableció, tal como él lo expresó, “hacer un agujero” a la segunda ley. Su objetivo fue, empezar con tener una caja con moléculas moviéndose de manera azarosa y desordenada, separar las moléculas rápidas de las lentas y con ello reducir la entropía del proceso.

Imagine un pequeña criatura –el físico William Thomson más tarde la llamó, un demonio- que puede observar cada molécula de manera individual en la caja. El demonio separa la caja en dos compartimientos, con una puerta deslizante entre las dos. Cada vez que él ve una molécula particularmente energética “caliente” aproximándose a la puerta desde la parte derecha del compartimiento, abre la puerta para dejarla pasar. Y cada vez que una molécula lenta “fría” se aproxima por la izquierda, la deja pasar al otro lado también. Finalmente, él tiene un compartimiento de gas frío a la derecha y gas caliente a la izquierda: con lo que se tendrá un recipiente con los beneficios de poder ejecutar trabajo.

Esto es posible sólo por dos razones. Primero, el demonio tiene más información que nosotros: Es decir él puede ver las moléculas de manera individual, en vez de promedios estadísticos. Y, segundo, tiene la intención: un plan para separar las moléculas calientes de las frías. Mediante la extrapolación de este conocimiento con intención, el demonio puede desafiar las leyes de la termodinámica.

Al menos, así parece, se llevó un ciento de años para entender para qué el demonio de Maxwell no pudo de facto vencer a la segunda ley y evitar el inexorable y conducente camino hacia muerte, es decir el equilibrio universal. Y el razonamiento nos muestra que hay una profunda conexión entre termodinámica y el procesamiento de los datos, o, en otras palabras, la computación. El físico Alemán – Estadounidense Rolf Landauer mostró que, aun cuando el demonio pueda recolectar información y mover la puerta (sin fricción), es decir sin consumo de energía, se deberá pagar una penalización al final. Debido a que no se puede tener una ilimitada memoria de cada movimiento molecular, al final se deberá llevar a cabo una limpieza de memoria, es decir olvidar lo visto y volver a empezar, antes de que pueda continuar devorando energía. Este acto de borrado de memoria tiene un inevitable precio: Disipa energía y, en consecuencia incrementa la entropía. Todos las ganancias contra la segunda ley realizadas por el excelente trabajo del amanuense demonio se cancela por el “límite de Landauer”, el costo finito del borrado de los datos (o más general, el de convertir información de una forma a otra).

Los organismos vivos se parecen más al demonio de Maxwell. Mientras que en un recipiente lleno de reactivos químicos finalmente consumirán su energía y caerán en un aburrido estado de inacción y equilibrio., los sistemas vivos han evitado colectivamente el estado inerte de equilibrio desde el origen de la vida, ya desde 3.5 miles de millones de años. Ellos consumen energía de su entorno para sostener este estado de no equilibrio, teniendo una “intención”. Aun simples bacterias se mueven con un “propósito” hacia las fuentes de calor y nutrientes. Erwin Schrödinger en 1944, En su libro ¿Qué es la vida? Expresa esto diciendo que los organismos se alimentan de “entropía negativa.”

Ellos consiguen alimentarse, decía Schrödinger, capturando y almacenando información. Alguna de esa información es codificada en sus genes, pasada de una generación a otra y de ésta a la próxima, es decir, un conjunto de instrucciones para el aprovechamiento de la entropía negativa. Schrödinger no supo dónde se mantenía la información o cómo se codificaba, pero su intuición de que ésta se escribía en lo que él llamó “un cristal no periódico” inspirando a Francis Crick, él mismo entrenado como físico y a James Watson que en 1953 propusieron una tesis de cómo el código genético puede ser codificado en la estructura molecular del ADN.

Un genoma, entonces, es al menos en parte un registro del conocimiento utilizable que ha permitido a los ancestros de los organismos, justo atrás en el pasado distante, sobrevivir en nuestro planeta. De acuerdo con David Wolpert, un físico matemático del Instituto Santa Fe, quien convoca el reciente taller y su colega Artemy Kolchinsky, ellos apuntan que un bien adaptado organismo está correlacionado con su medio ambiente. Si una bacteria, dependiendo de si se dirige a la izquierda o derecha donde la fuente de alimento está, es que está mejor adaptado y por ello se desarrollará mejor, en tanto que otros que lo hacen al azar sólo encuentran los nutrientes por accidente. Una correlación entre el estado de los organismos y su medio ambiente implica que ellos comparten información en común. Wolpert y Kolchinsky dicen que esta es la información que ayuda a los organismos permanecer fuera del equilibrio, debido a que, según el demonio de Maxwell, ellos pueden ajustar personalizando su comportamiento para extraer trabajo de fluctuaciones en su medio ambiente. Si el organismo no puede obtener esta información, podría gradualmente revertirlo hacia el equilibrio y morir.

Viéndolo de esta manera, la vida puede ser considerada como un cómputo que tiene como objetivo la optimización del almacenamiento y uso de información significativa. Y la vida torna a ser extremadamente buena en sí. La resolución de Landauer del enigma del demonio de Maxwell establece un límite inferior absoluto de la cantidad de energía que un cómputo de determinado valor de memoria requiere, llamado el costo energético del olvido. La mejor computadora hoy día, es, con mucho una generadora de basura energética, comparada con aquélla, consumiendo y disipando más de un millón de veces más. Pero, de acuerdo con Wolpert, “un estimado muy conservador de la eficiencia termodinámica del total de cómputos realizados por una célula es que es de alrededor de 10 veces más que el límite de Landauer.

La consecuencia, dice, es que “la selección natural ha estado muy preocupada con la minimización del costo termodinámico de la computación. Ésta hace todo lo necesario para reducir la cantidad total de cómputos que una célula lleva a cabo.” En otras palabras, la biología (posiblemente exceptuando a nosotros mismos) parece tener mucho cuidado de nó repensar el proceso de sobrevivir. Ese asunto del costo – beneficio de computarizar a nosotros mismos en el camino hacia la vida, dice, ha sido muy considerado, con mucho en la biología.



El darwinismo inanimado

Los organismos vivientes pueden ser considerados como entes que se acoplan a su medio ambiente, consumen energía mediante el uso informático y evaden el equilibrio. Ciertamente, es un mordisco para una bocaza. Pero nótese que no dice nada en relación a los genes y la evolución, en la cual Mayr, como muchos biólogos, asumen que la intención biológica y el propósito dependen de la evolución.

¿Qué tan lejos puede esta imagen llevarnos? Los genes refinados por la selección natural son, indudablemente la parte central de la biología. Pero podría ser que la evolución por selección natural es por sí misma un caso particular de un más general imperativo hacia la función y propósito aparente que existe en un universo físico puro. Esto empieza a mirarse de esa manera.

La adaptación aquí tiene un significado más específico que la imagen típica de la supervivencia de un organismo bien equipado de Darwin. Una dificultad con la visión Darwiniana es que no hay manera de definir un organismo bien adaptado excepto si se le ve en retrospectiva. El “ajuste adaptivo” es aquello que se convierte en ser mejor para la supervivencia y replicación, pero no se puede predecir lo que este ajuste implica. Las ballenas y el plancton son dos formas de vida bien adaptada, pero en formas que reflejan una poca relación obvia entre una y la otra.

La definición de England de “adaptación” es muy cercana a la de Schrödinger y en consecuencia a la de Maxwell: Una bien adaptada entidad puede absorber energía eficientemente de un medio ambiente impredecible y variante. Es como la persona que se mantiene de pie en un barco mientras que otros caen debido a que él está mejor adaptado a las variación en la cubierta. Usando los conceptos y métodos de la estadística matemática en un intervalo de no equilibrio, England y sus colegas arguyen que esos sistemas de bien adaptados son los que absorben y disipan la energía del medio ambiente, generando entropía en los procesos.

Los sistemas complejos tienden a establecerse en esos estados bien adaptados con una facilidad sorprendente. Dice England, la materia con variaciones térmicas, frecuentemente cambian espontáneamente a formas que son buenas absorbiendo trabajo del medio ambiente variante en el tiempo.

No hay nada en este proceso que implique el acomodamiento gradual al entorno mediante mecanismos darwinianos de replicación, mutación y rasgos hereditarios. No hay replicación de nada. Lo que es excitante, en relación a esto es que esto significa que cuando nosotros damos un recuento físico de los orígenes de algunas estructuras que parecen bien adaptadas vemos que, éstas nó necesariamente han tenido padres en la forma del sentido biológico, dijo England. “Tú puedes explicar la adaptación evolutiva usando termodinámica, aun en los casos más controversiales donde no hay auto replicadores y rompimiento de la lógica darwiniana”, en tanto que el sistema en cuestión es complejo, versátil y suficientemente sensible para responder a las variaciones de su entorno.

Pero no hay ningún conflicto entre la adaptación física ni la darwiniana. De hecho, la darwiniana puede ser vista como un caso particular de la física. Si la replicación está presente, entonces la selección natural se convierte en la ruta mediante la cual los sistemas adquieren la habilidad para absorber trabajo (la entropía negativa de Schrödinger) del entorno. Auto replicación es, de hecho, un buen mecanismo especializado para la estabilización de sistemas complejos, y así, no sorprende que esto es lo que la biología utiliza. Pero en un mundo inerme donde las replicaciones usualmente no suceden, estructuras disipadoras bien adaptadas tienden a ser aquéllas que están altamente organizadas, tales como las ondulaciones en la arena y las dunas formadas por la azarosa danza del viento. Buscando de esa manera, la evolución darwiniana puede ser considerada como una instancia específica de los principios más generales de la física que gobiernan los sistemas no equilibrados.

Máquinas de predicción

Esta imagen de estructuras complejas adaptándose a un entorno variante nos permite también deducir algo en relación a cómo esas estructuras almacenan información. Brevemente, en tanto que esas estructuras, cualesquiera que sean vivas o nó, están obligando a usar la energía disponible eficientemente, están convirtiéndose en “máquinas de predicción.”

Es casi una característica definitoria de la vida que los sistemas biológicos cambien sus estados en respuesta a algunas señales directrices del entorno. Algo sucede, tú respondes. Las plantas crecen hacia la luz, ellas producen toxinas en respuesta en respuesta a patógenos. Esas señales son típicamente impredecibles, pero los sistemas vivientes aprenden de su experiencia, almacenando información respecto de su entorno y usándolo para guiar su comportamiento futuro. (Los genes, en esta imagen, exactamente dan la esencia básica y de propósito general)

La predicción no es opcional, aunque, de acuerdo con el trabajo de Susanne Still de la universidad de Hawái, Gavin Crooks, ex de los Laboratorios Nacionales de Lawrence Berkeley en California y sus colegas, predecir el futuro pareciera ser esencial para cualquier sistema de energía – eficiencia en un entorno azaroso y variante.

Hay un costo termodinámico en almacenar información en relación al pasado que no tiene valores predecibles para el futuro, Still y sus colegas, muestran, para ser máximamente eficiente, un sistema tiene que ser selectivo. Si éste tuviera que recordar indiscriminadamente todas las cosas que suceden, se incurriría en un gran costo de energía. Por otra parte, si no molesta del todo, almacenar cualquier información en relación al entorno, estaría en constante lucha para hacer frente con lo inesperado. “una máquina termodinámicamente óptima, debe balancear la memoria en relación a la predicción mediante la minimización de su nostalgia, la inservible información del pasado, dijo un coautor, David Sivak, ahora en la universidad Simon Fraser en Burnaby, Columbia Británica. Breve mente, será bueno que la información de la alimentación significativa, la cual es deseable sea útil para la sobrevivencia futura.

Usted espera que la selección natural favorezca a los organismos que usan energía eficientemente. Pero, aun dispositivos biomoleculares individuales tales como las bombas y motores en nuestras células deben, de manera importante, aprender del pasado para anticipar el futuro. Adquirir eficiencia relevante, Still dijo, esos dispositivos deben “implícitamente construir representaciones concisas del mundo enfrentado hasta entonces, permitiéndose anticipar lo que viene.”

La termodinámica de la muerte

Aun si alguna de las características procesadoras de información básica de los sistemas vivientes hubieran yá aparecido, en la ausencia de evolución o replicación, mediante termodinámica no equilibrada, usted puede imaginar esos rasgos más complejos, el uso de herramienta, digamos, o cooperación social, deben ser proveídos por la evolución.

Bien, no contando con eso, esos comportamientos (comúnmente se piensa que serán el dominio exclusivo del nicho evolutivo altamente avanzado que incluye primates y aves) pueden ser emulados en un modelo simple consistente de partículas interactuantes. El truco está, en que el sistema está guiado por un límite, actúa de una manera en que minimiza la cantidad de entropía (en este caso, definida en términos de las diferentes trayectorias posibles que las partículas puedan tomar) que se genera dentro de un determinado lapso de tiempo.

La maximización de la entropía ha sido largamente pensada para ser el rasgo de los sistemas no equilibrados. Pero el sistema, en este modelo obedece a una regla que permite maximizar la entropía sobre una ventana fija de tiempo que se ajusta hacia el futuro. En otras palabras, tiene un objetivo en la mira. En efecto, el modelo busca todas las trayectorias que una partícula pueda tomar y las obliga a adoptar la trayectoria que produce la mayor entropía. Hablando crudamente, ésta tiende a ser la trayectoria que mantiene abierto el mayor número de opciones para cómo las partículas se pueden mover subsecuentemente.

Uno puede decir que el sistema de partículas experimenta un tipo de urgencia para preservar la libertad de las acciones futuras y que esta urgencia guíe su comportamiento en cualquier momento. Los investigadores que desarrollaron el modelo, Alexander Wissner-Gross de la universidad de Harvard y Cameron Freer, un matemático del Instituto Tecnológico de Massachusetts, Llaman a esto una “fuerza entrópica causal.” En simulaciones de computadora de configuraciones de partículas de forma de disco moviéndose en configuraciones específicas, esta fuerza entrópica crea resultados que son inquietantes sugerencias de inteligencia.

En un caso, un disco grande fue capaz de usar un disco pequeño para extraer un segundo disco pequeño de un tubo estrecho, un proceso que pareciera como de, el uso de herramienta. Liberar el disco aumentó la entropía del sistema. En otro ejemplo, dos discos en compartimientos separados sincronizaron sus desempeños para tirar de un disco grande hacia debajo de tal manera que pudieran interactuar con él, dando la apariencia de cooperación social.

Por supuesto, estos simples agentes interactuantes, tienen el beneficio de visión de futuro. La vida, como regla general, no lo hace. Así ¿cuán relevante es esto para la biología? Eso no es claro, aunque Wissner-Gross dice que él está trabajando para establecer “un práctico, biológicamente posible, mecanismo para fuerzas entrópicas causales.” En tanto, él piensa que esta visión puede tener subproductos prácticos, que ofrecen un atajo hacia la inteligencia artificial. “Yo predigo que un camino más rápido para alcanzarlo será el descubrir tal comportamiento primero y entonces trabajar hacia atrás desde los principios físicos y límites, más que trabajar hacia adelante desde el cálculo particular o con las técnicas de predicción.” Él dijo. En otras palabras, primero encontrar un sistema que haga lo que tú quieres que haga y luego imaginar cómo lo hace.

Envejecer, también, ha sido convencionalmente sido vista como un rasgo dictado por la evolución. Los organismos tienen un lapso de tiempo que crea oportunidades para reproducirse. La historia continúa, sin inhibir las prospectivas de sobrevivencia de la descendencia por que los padres están pegados a ellos por mucho tiempo y compitiendo por los recursos. Esto seguramente parece ser parte de la historia, pero Hildegard Meyer-Ortmanns, un físico de la Universidad Jacobs de Bremen en Alemania, piensa que esa última instancia del envejecimiento es un proceso físico, no uno biológico, gobernado por la termodinámica de la informática.

Ciertamente, no es un simple curso de las cosas que suceden. “La mayoría del material programable del que estamos hechos es renovado antes de que tenga la probabilidad de envejecer” dice Meyer-Ortmanns, pero este proceso de renovación no es perfecto. La termodinámica de la informática dicta que ahí debe haber un compromiso entre precisión y energía. Un organismo tiene un suministro finito de energía, por ello necesariamente hay una acumulación de errores en el tiempo. El organismo, entonces, tiene que consumir una gran cantidad incremental de energía para reparar esos errores. El proceso de renovación finalmente produce copias defectuosas para funcionar propiamente, la muerte sucede.

Lo que la evidencia empírica parece mostrarnos. Ha sido largamente sabido que las células humanas se muestran hábiles para replicarse más de 40 a 60 veces (llamado el límite de Hayflick) antes de que se detengan dando paso a la senectud. Recientes observaciones sugieren que puede haber razones fundamentales del por qué los humanos no puede sobrevivir más allá de los 100 años.

Hay un corolario a esta aparente urgencia de energía-eficiencia de organizados sistemas predictivos para aparecer en un fluctuante entorno no equilibrado. Nosotros mismos somos ese sistema, al igual que todos nuestros ancestros hasta la primera célula primitiva. Y la termodinámica no equilibrada parece decirnos que esto es justamente lo que importa bajo esas circunstancias. En otras palabras, la aparición de la vida en el planeta así como en la tierra primigenia, está imbuida de fuentes de energía tales como la luz del sol y actividad volcánica que mantiene las cosas en un revoltijo sin equilibrio, empieza a aparecer no un extremadamente no deseado evento, como muchos científicos han asumido, sino como una inevitable virtualidad. En 2006, Eric Smith y después Harold Morowitz del Instituto Santa Fe, argumentaron que la termodinámica de los sistemas no equilibrados propician la emergencia por organizarse en sistemas complejos más parecidos a una tierra prebiótica (inerme) lejos del equilibrio de lo que pudiera ser si los ingredientes de la química primera fueran puestos en una “charco cálido” (como Darwin lo propuso) para su lenta ingesta.

En la década desde que se hizo esta argumentación. Los investigadores han agregado detalles y vistazos de los análisis. Aquellas cualidades que Ernst Mayr pensó esenciales a la biología (significado e intención) pueden surgir como una consecuencia natural de la estadística y la termodinámica. Y aquellas propiedades pueden en consecuencia conducir naturalmente a algo como la vida.

Al mismo tiempo, los astrónomos nos han mostrado también que hay muchos mundos, según estimaciones miles de millones, orbitando otras estrellas de nuestra galaxia. Muchos están muy lejos de algún equilibrio, y al menos unos cuantos parecidos a la tierra. Y que algunas de nuestras reglas también aplican a ellos.



·          Philip Ball es un escritor y escritor de ciencia basado en Londres que contribuye con frecuencia a la Naturaleza, New Scientist, Prospect, Nautilus y The Atlantic, entre otras publicaciones. Sus libros incluyen Bright Earth, Invisible y más recientemente, The Water Kingdom.

No hay comentarios:

Publicar un comentario