En el año 1996 realicé un estudio que debía cristalizarse en un libro nunca publicado titulado “Elementos de Estructuras Funcionales”. El propósito era establecer qué características comportan las estructuras que tienen una función y como podemos inferir que las mismas, todo o partes, sean el producto de una fabricación inteligente y, por consecuencia, producto de un diseño. Dicho estudio lo realicé en completa ignorancia de las propuestas del Diseño Inteligente que por aquellos años recién empezaban a difundirse, por lo cual describe conceptos similares a la misma aunque con otros nombres y enfoque, como también otros que son novedosos y abordan el problema desde un ángulo distinto. Considero, por lo tanto, muy pertinente y oportuno compartirlos como contribución a ésta línea de investigación. Algunos de estos conceptos, los más relevantes, junto a muchos más escritos en el año 2008 con información reciente los he publicado en el libro titulado: “¿Diseñó Dios la vida?” (www.lulu.com/content/7175293). A fin de señalar estos conceptos de una manera particular y rápida he redactado este resumen basado en dicho libro. Los comentarios recientes los señalaré con letra cursiva para distinguirlos del resumen del texto original.
La evolución no viola la segunda ley de la termodinámica, pero el problema no es ese.
En la literatura evolucionista se presentan con regularidad críticas a la recurrida tesis creacionista de que la segunda ley de la termodinámica establece una barrera infranqueable a la factibilidad del proceso evolutivo. Sobre ellos Richard Dawkins se apresuró a decir que muchos han propuesto “ignorantes tonterías acerca de que la evolución viola la Segunda Ley de la Termodinámica”. Si apelamos al Principio de Compensación de la Entropía veremos que para sistemas abiertos en la presencia de un desequilibrio termodinámico si pueden aumentar su orden y reducir su entropía.
En la literatura evolucionista se presentan con regularidad críticas a la recurrida tesis creacionista de que la segunda ley de la termodinámica establece una barrera infranqueable a la factibilidad del proceso evolutivo. Sobre ellos Richard Dawkins se apresuró a decir que muchos han propuesto “ignorantes tonterías acerca de que la evolución viola la Segunda Ley de la Termodinámica”. Si apelamos al Principio de Compensación de la Entropía veremos que para sistemas abiertos en la presencia de un desequilibrio termodinámico si pueden aumentar su orden y reducir su entropía.
Este principio nos dice que a un sistema no aislado pueden aplicarse uno o más sistemas asociados en los que su incremento de entropía compense la disminución del sistema inicial. Dicho en otras palabras, si me he quedado sin azúcar para endulzar el café le pido prestado a mi vecino. Sin embargo, si bien ahora he conseguido disfrutar de un dulce café, el sistema ‘yo y mi vecino’ tendrá menos azúcar que antes.
Pero, de todos modos, un proceso evolutivo podría en principio abrirse paso compensando su disminución de entropía en base a su incremento del mismo en sistemas termodinámicos exteriores. Hasta aquí la objeción termodinámica habría quedado refutada.
Sin embargo, como veremos, ese no es el problema de fondo.
La idea que han perseguido muchos investigadores consiste en encontrar en la naturaleza casos de auto-organización, es decir, de aparición de orden en sistemas alejados del equilibrio que permitan admitir la posibilidad de que la materia pudo dar lugar a la formación de un ser viviente. Como fruto de esta investigación se han propuesto varios procesos en los cuales aparece cierto orden y organización. Estos van desde la física de plasmas, pasando por el láser y así, hasta los relojes químicos y las reacciones mágicas como la famosa reacción Belousov-Zhabotinsky en la que aparecen figuras espirales y colores definidos.
Analicemos entonces qué necesitan estos procesos de producción de orden para existir. En primer lugar existen tres tipos: los procesos naturales, los exoplanificados y los endoplanificados. En todos ellos se necesita el concurso de tres elementos: materiales, energía (el desequilibrio termodinámico) y el concurso de uno o más atractores. Estos últimos son, en cierto modo, los directores del proceso de generación de orden. El atractor es un agente que organiza el orden del sistema y lo lleva (atrae) a un orden concreto. Un ejemplo muy sencillo lo constituye la botella con la mezcla de aceite y agua. En este caso la gravedad será el atractor que llevará a un orden que definirá una capa de agua abajo y otra de aceite arriba. Existen otros ejemplos mucho más complejos en sistemas no lineales con atractores también mucho más complejos y extraños.
Proceso natural (no planificado)
En un proceso natural, las leyes físicas y químicas, unidas a un contexto particular donde la energía y los materiales concursan en un tiempo, modo y lugar definidos, se convierten en los atractores del sistema que, de forma aleatoria, producen un orden particular. No existe ninguna planificación externa ni interna, tampoco existe una finalidad u objetivo al servicio de un usuario determinado.
En un proceso natural, las leyes físicas y químicas, unidas a un contexto particular donde la energía y los materiales concursan en un tiempo, modo y lugar definidos, se convierten en los atractores del sistema que, de forma aleatoria, producen un orden particular. No existe ninguna planificación externa ni interna, tampoco existe una finalidad u objetivo al servicio de un usuario determinado.
Proceso exoplanificado
Es el caso de una fabricación. En él también participan tres actores: materiales, energía y el fabricante. En este caso el fabricante es el equivalente del atractor del proceso natural. Pero a diferencia de este último, nuestro “atractor” sabe lo que quiere, es decir, tiene un objetivo, y sabe además como lo puede conseguir, es decir, tiene un plan que es externo al proceso (exoplanificación).
Es el caso de una fabricación. En él también participan tres actores: materiales, energía y el fabricante. En este caso el fabricante es el equivalente del atractor del proceso natural. Pero a diferencia de este último, nuestro “atractor” sabe lo que quiere, es decir, tiene un objetivo, y sabe además como lo puede conseguir, es decir, tiene un plan que es externo al proceso (exoplanificación).
Este plan implica una plataforma de información constructiva y operativa independiente que no debemos confundir con la información de la estructura producto.
Al fabricar el fabricante, de acuerdo al plan, condiciona el sistema deliberadamente para proporcionarle un contexto definido de suministros de energía y materiales orquestados en un programa que los distribuye en tiempos y lugares definidos. Dicho programa o plan será, por el Principio de Proporcionalidad Objetivo – Complejidad, más complejo de acuerdo a cuan complejo sea el orden necesario a alcanzar.
Ahora, analicemos para ambos casos cual es este plan. En el proceso natural no existe ningún plan. El orden es tan aleatorio como lo es el escenario y el proceso físico o químico que lo hace posible. No hay tampoco ningún objetivo requerido por ningún usuario ante el cual resulte funcional, simplemente surge como consecuencia del efecto de los atractores que las leyes físicas y químicas exigen para el contexto natural dado, y el valor de sus condiciones iniciales.
En el caso de una fabricación el propio plan es creado en función del objetivo a alcanzar o producir. Por ello, en este caso, tenemos que el atractor de este proceso se puede dividir a su vez en un plan y en un ejecutor del plan. Esto significa que ahora son 4 elementos los participantes de este proceso y si falla alguno no se alcanzará el objetivo. Si fallan los materiales, falla el suministro de energía, no hay plan aunque haya ejecutor o, por último, sí no hay ningún ejecutor que aplique el plan a los materiales y a la energía, no se cumplirá el objetivo ni se fabricará el producto.
Proceso endoplanificado
Este tercer tipo de proceso de producción de orden llega mucho más lejos que los sistemas naturales y los exoplanificados ya que este tipo de procesos son capaces de incorporar es su seno a todos los actores del proceso de construcción de orden, es decir, son capaces de adquirir materiales, conseguir energía para procesarlos y también son capaces de ejecutar ellos mismos el plan que también incorporan en sí mismos. Ello les permite perpetuarse por un determinado tiempo e incluso reparar algunas de sus áreas dañadas y, lo que es más prodigioso, reproducir nuevas estructuras similares a ella.
Este tercer tipo de proceso de producción de orden llega mucho más lejos que los sistemas naturales y los exoplanificados ya que este tipo de procesos son capaces de incorporar es su seno a todos los actores del proceso de construcción de orden, es decir, son capaces de adquirir materiales, conseguir energía para procesarlos y también son capaces de ejecutar ellos mismos el plan que también incorporan en sí mismos. Ello les permite perpetuarse por un determinado tiempo e incluso reparar algunas de sus áreas dañadas y, lo que es más prodigioso, reproducir nuevas estructuras similares a ella.
Este último caso de sistema productor representa a los seres vivientes. Sin lugar a dudas todos ellos disponen de un plan escrito en el ADN y también de un ejecutor que inicia el proceso de fabricación del descendiente. Dicho ejecutor es su propio progenitor ya que él será quien inicie el proceso para que la progenie alcance la complejidad necesaria para vivir independientemente.
Vistos estos tres casos de producción de orden la pregunta que surge por necesidad es: ¿Es posible encontrar algún sistema natural de producción de orden que pueda acercarse siquiera elementalmente a algo parecido a un ser vivo? Es decir, ¿Existe por allí algún proceso endoplanificado de producción de orden no viviente, o que hayamos podido recrear?
Notemos que lo que queremos es convertir un sistema natural en uno endoplanificado. Descartamos el segundo tipo, el exoplanificado, por involucrar a un creador, es decir, al fabricante que podríamos ser nosotros, Dios o los “extraterrestres” y eso sería hacer trampa.
Para hacerlo no es suficiente que el sistema produzca un orden, también debe incorporar, para ser endoplanificado, un plan de auto ensamblaje y debe tener una capacidad auto reproductora que sirva de ejecutor para engendrar a los descendientes.
Hasta el día de hoy muchos científicos se han afanado en buscar sistemas de producción de orden del primer tipo (natural) que puedan siquiera aspirar a convertirse en precursores de un sistema viviente. No obstante, pese a ser sistemas muy interesantes, podemos decir que todos estos ejemplos adolecen de un problema esencial: están fabricados por los investigadores, es decir, terminan siendo procesos exoplanificados. Nadie en su sano juicio diría que los recursos complejos, con el costo de millones de dólares que demanda el estudio de la física de plasmas, o el conjunto de equipos y fabricación de dispositivos láser, o los ajustes que los químicos realizan para suministrar sustancias y controlar la temperatura en las reacciones químicas mágicas como la aludida reacción BZ, sean procesos naturales.
Es evidente que la intención y esperanza es que cualquiera de estos procesos de auto-organización sean de algún modo símiles verosímiles de procesos naturales auto-organizativos, pero, en su afán por conseguirlo, terminan fabricando inteligentemente el proceso y naufragando así en demostrar que existan en verdad procesos naturales en los que funcione la aparición de orden funcional endoplanificado.
Hasta el momento el único proceso “natural” que funciona para producir un orden complejo organizado es la vida. Y ella no actúa sola, ya que esta engendrada por la propia vida.
Concluimos con esto que los puentes que pretendidamente buscan cruzar el abismo de la organización compleja, no solo no han llegado lejos, sino qué, penosamente, y por mucho que irrite decirlo, no han llegado a ninguna parte.
Ilya Prigogine, ganador del Premio Nobel por sus trabajos de la termodinámica del no equilibrio, evaluó esta situación en una conferencia pronunciada en el fórum filosófico de la UNESCO en 1995 al decir: “Pero todavía queda mucho por hacer, tanto en matemáticas no lineales como en investigación experimental, antes de que podamos describir la evolución de sistemascomplejos fuera de ciertas situaciones sencillas. Los retos aquí son considerables. En particular, es necesario superar el actual desfase en nuestra comprensión entre las estructuras físico-químicas complejas y los organismos vivos por simples que estos sean”. (énfasis en negrita añadido) (Fuente:http://serbal.pntic.mec.es/~cmunoz11/prigogine.pdf)
¿Es posible superar este desfase? ¿Qué es lo que falla en esta búsqueda? Básicamente puede decirse que el problema crucial es que no tenemos ningún proceso del primer tipo que pueda incorporar un plan en una plataforma física de información. De nada nos servirá una cocina plenamente equipada con los ingredientes necesarios y un dispuesto cocinero si no existe una receta escrita en alguna parte, incluso en la propia mente del cocinero. Los músicos y sus instrumentos pueden estar muy bien dispuestos, pero sin partitura no habrá música. Tampoco ganaremos nada con abandonar a su suerte a una célula plenamente abastecida de proteínas, encimas clave y energía (moléculas de ATP) sin el plan del ADN.
En conclusión podemos decir, en referencia a la “ignorante tontería” que alude Hawkins, que en verdad la evolución no violaría la segunda ley de la termodinámica, pero sólo hasta procesos de producción de orden del primer tipo (los naturales), es decir, las “situaciones sencillas” que alude Prigogine, lo cual resulta demasiado insuficiente. A partir de allí necesita encontrar la forma de explicar la aparición de un plan químico funcional de muy alta cantidad de información que pueda convertirle en una producción de orden endoplanificado, es decir, una forma de vida.
Complejidad mínima funcional e Ignición funcional.
La especificidad, la improbabilidad y la complejidad irreductibles son conceptos fundamentales del DI propuestos por Demsky y Behe. En 1996 los ignoraba por completo, así que para abordar el análisis sobre como distinguir una formación natural compleja de una diseñada, llegue, en mi investigación particular, a conceptos similares, pero desde un camino diferente y con otros conceptos que considero útiles.
La especificidad, la improbabilidad y la complejidad irreductibles son conceptos fundamentales del DI propuestos por Demsky y Behe. En 1996 los ignoraba por completo, así que para abordar el análisis sobre como distinguir una formación natural compleja de una diseñada, llegue, en mi investigación particular, a conceptos similares, pero desde un camino diferente y con otros conceptos que considero útiles.
Complejidad
Es interesante reconocer la clamorosa ausencia en la literatura científica de una definición matemática que cuantifique la complejidad. Tenemos numerosos conceptos sobre la misma así como análisis matemáticamente rigurosos sobre sistemas complejos, también contamos con la definición de la teoría de la información que define a la complejidad como la cantidad de información que no se posee para especificar el sistema en sus detalles, etc.
Es interesante reconocer la clamorosa ausencia en la literatura científica de una definición matemática que cuantifique la complejidad. Tenemos numerosos conceptos sobre la misma así como análisis matemáticamente rigurosos sobre sistemas complejos, también contamos con la definición de la teoría de la información que define a la complejidad como la cantidad de información que no se posee para especificar el sistema en sus detalles, etc.
Sin embargo, no encontramos una definición específica que cuantifique la complejidad de algo. Una sencilla forma de abordarlo, aunque puedan haber otros métodos matemáticos para tal fin, sería la que cuantifica la complejidad como el número de casos posibles que una estructura permite para un particular número, rangos de magnitudes y orden espacio temporal de sus componentes.
Para aclarar esto consideremos como ejemplo un número de una lotería. En este caso tenemos una estructura con la siguiente colección de restricciones: 1º. Tiene que ser una colección de 5 caracteres (restricción numérica). N = 5
2º. Tienen que ser caracteres numéricos (restricción de magnitud).
carácter × {0,1,2,3,4,5,6,7,8,9}, por lo tanto R = 10
3º. Tienen un orden unidimensional único (restricción de orden). O = 1
Como los caracteres son homogéneos al tener el mismo rango el número de casos posibles será entonces: C = 105 x 1 = 100.000 casos El resultado no sorprende puesto que es fácil deducir que entre 0 y 99999 hay 100000 números distintos. La probabilidad de que salga el número de lotería para un caso particular será por tanto: P = 1/C = 10-5 = 0.00001 El cálculo de complejidad ya no resulta ser tan sencillo si la colección de elementos es heterogénea, es decir, tienen rangos de magnitud diferentes. En dicho caso podemos entonces aplicar la siguiente generalización: C = O x (R1xR2..x RN)
Siendo C la complejidad, O el orden de los componentes, N el número de componentes y Ri los rangos de magnitud de cada componente.
Evidentemente esta definición funciona para cuantificar la complejidad en casos donde los elementos son discretos y acotados por rangos limitados y específicos. Para otros casos donde esto no se cumple la cuantificación de la complejidad por este método sería muy difícil, sino imposible de medir. No obstante es una aproximación útil como veremos.
Evidentemente la complejidad de un sistema se verá afectada por el cambio de cada una de estas 3 restricciones. Como tenemos 3 tipos pueden existir 8 posibles modos de cambio, no obstante, solo mencionaremos el efecto de cada uno independientemente, siendo las demás otras combinaciones posibles:
1. CAMBIO EN NÚMERO. Si el número de lotería tuviera por ejemplo 6 dígitos, el número de casos posibles sería 106 = 1.000.000, es decir, 10 veces más casos posibles que el anterior número de lotería de 5 dígitos, por lo cual es más complejo.
2. CAMBIO DE RANGO. Supongamos que los organizadores del juego de lotería se les ocurre sortear un número hexadecimal en lugar de uno decimal, entonces el rango será: {0,1,.....E,F}, lo que significa que hay 16 caracteres por cada dígito (R=16). Conservando 5 caracteres para los números (N=5), tenemos que el número de casos posibles es ahora C = RN = 165 = 1.048.576.
1. CAMBIO EN NÚMERO. Si el número de lotería tuviera por ejemplo 6 dígitos, el número de casos posibles sería 106 = 1.000.000, es decir, 10 veces más casos posibles que el anterior número de lotería de 5 dígitos, por lo cual es más complejo.
2. CAMBIO DE RANGO. Supongamos que los organizadores del juego de lotería se les ocurre sortear un número hexadecimal en lugar de uno decimal, entonces el rango será: {0,1,.....E,F}, lo que significa que hay 16 caracteres por cada dígito (R=16). Conservando 5 caracteres para los números (N=5), tenemos que el número de casos posibles es ahora C = RN = 165 = 1.048.576.
Esto también supone que la complejidad obviamente se incrementa.
3. CAMBIO DE ORDEN. En este caso a los organizadores del juego de lotería se les ocurre añadir una disposición bidimensional a cada número posible, de tal modo que, si coincide la forma y el número adecuado se gana la lotería.
3. CAMBIO DE ORDEN. En este caso a los organizadores del juego de lotería se les ocurre añadir una disposición bidimensional a cada número posible, de tal modo que, si coincide la forma y el número adecuado se gana la lotería.
supongamos que el número premiado es el siguiente:
7
3 0 8
4
Dispuesto de dicha manera, si el 7 estuviese encima del 8, por ejemplo, no será el número premiado. Veamos las distintas formas posibles que puede adaptar este número:
Tenemos entonces, en este caso, 39 formas bidimensionales distintas para 100.000 números cada una. En este caso O = 39 y de la expresión anterior para calcular la complejidad tenemos:
C = RN . O = 105 . 39 = 3.900.000
Ahora es más difícil acertar, puesto que este sistema es más complejo que el juego de lotería inicial. Ahora incorpora un orden bidimensional y por ello existen más posibilidades distintas. Podemos incluso ganar en complejidad si adoptamos una tercera dimensión o incluso una dimensión temporal. La siguiente figura muestra los distintos modos que pueden adoptar cuatro cubos sin considerar sus rotaciones e imágenes especulares.
Ahora veamos cual es la complejidad de un aminoácido antes de ver la relativa a una proteína. Sabemos que un aminoácido se sintetiza mediante el concurso de 3 bases de ácido nucleico. Cada base puede tener 4 elementos que pueden ser Adenina, Timina, Guanina y Citosina en un orden lineal simple. Según esto la complejidad de un aminoácido será la siguiente:
Orden = 1; Magnitudes = 4; Número de componentes = 3
Entonces C = 1 x (4x4x4) = 4^3 = 64
De todos modos, como vemos, es una complejidad bastante modesta la de este monómero. Ahora vayamos a ver la complejidad de una proteína, el elemento más básico de los organismos biológicos. Según sabemos esta es una cadena de aproximadamente 100 o más eslabones que se pliega sobre si misma en la forma de un ovillo de acuerdo a las atracciones electrostáticas y enlaces débiles generados por los 20 aminoácidos distintos con los cuales puede estar constituido un eslabón. Su complejidad, suponiendo que tenga solo 100 eslabones, sería la siguiente:
C = 1 x (20x20x20x...........x20) 100 veces, es decir: C = 20100 lo cual es aproximadamente 10130
Como se observa la complejidad de una proteína es una cifra portentosa, si se estima que el universo contiene 1080 protones, necesitaremos 1050 universos para equiparar todos sus protones con todas las proteínas posibles. Pero no todas las proteínas posibles son funcionales para los sistemas biológicos.
Dicha restricción se denomina Restricción Funcional. La misma establece que toda estructura funcional, es decir, que tiene un objetivo y funciona para conseguirlo, es un subconjunto, más bien pequeño o incluso único, de todos los casos posibles permitidos por su complejidad. El número premiado de un juego de lotería sería un ejemplo de estructura funcional con restricción igual a 1 ya que dicho número es el único que funciona para cobrar el premio mayor.
En este punto la improbabilidad y especificación de Demsky hallarían paralelo en estos conceptos del siguiente modo: Improbabilidad = Especificación (Restricción funcional) / Complejidad del sistema
Ahora veamos otros conceptos que nos serán de utilidad no solo para evaluar todo proceso de incremento de complejidad.
Complejidad Mínima Funcional (CMF)Para todo objetivo se pueden plantear muchas soluciones, algunas serán más ineficientes que otras al requerir mayor complejidad para un mismo objetivo. No obstante, siempre puede existir una solución, entre todas las posibles, con una complejidad mínima necesaria para cumplir con el objetivo. A esta complejidad la llamaremos mínima funcional, en cuanto es la mínima necesaria para permitir el funcionamiento y no existirá ninguna otra solución menos compleja ni mágica que consiga el objetivo.
Consideremos una esfera. Nuestro propósito será cercarla de tal manera que quede aislada. Usando tablas se pueden disponer muchas soluciones:
Como se observa, (visto desde arriba) pese a que son posibles muchas soluciones, bidimensionalmente como mínimo necesitamos 3 tablas como en la solución 3. No existe una solución en la cual se use sólo 2 tablas rectas y pueda cercarse la esfera dentro de la geometría euclidiana. Las soluciones aplicadas aquí se refieren a un cerco bidimensional y hemos visto que como mínimo se precisa de tres tablas rectas, veamos ahora el caso cuando se precisa cercar la esfera tridimensionalmente, siendo la complejidad una función del número de caras:
En este caso se presentan 2 soluciones, la primera consiste en un cubo de 6 caras, y la segunda en un tetraedro de 4 caras. También, claro está, hay más poliedros posibles con mayor número de caras, pero la solución mínima es el tetraedro. En un cerco tridimensional mediante superficies planas no hay una solución menor que esta, pues más allá tenemos una imposibilidad estructural.
Como hemos visto, el número mínimo necesario de caras planas para cercar bidimensionalmente a la esfera es 3, y tridimensionalmente 4. Por tanto en ambos casos se tienen unas CMFs de 3 y 4 respectivamente.
Ahora veremos como la CMF no es el único límite para las soluciones posibles.
Como ilustración usaremos nuevamente el cerco de la esfera. En la misma encontramos que la CMF lo constituía un cerco de 3 tablas, pero no consideramos el área como un parámetro de la estructura. En la siguiente figura veremos como no todas las soluciones estructuralmente iguales, pero paramétricamente distintas, son posibles:
En la primera solución los lados del cerco son grandes y por ello la esfera cabe
holgadamente. Se puede por tanto buscar una solución en la que los lados sean lo más pequeños posibles hasta tocar a la esfera, tal es el caso de la solución 2. Para un cerco que forme un triángulo equilátero el área mínima límite sería A= 4√3.r2, donde r es el radio de la esfera. Sin embargo una solución aún menor (S3) es imposible, pues en dicho caso las paredes tendrían que atravesar la esfera y, como es obvio, ello no puede suceder.
En conclusión, podemos decir que S1 es una solución arbitraria mayor en cuanto al área de los lados, que S2 es la solución paramétrica mínima de las soluciones posibles, y por último S3 es una solución con imposibilidad paramétrica en cuanto a que, el área de sus lados, es inferior al mínimo paramétrico de la CMF.
Como se ha visto, la CMF no es otra cosa, sino una versión de la Complejidad Irreductible de Behe.
Ignición Funcional
En el desarrollo de todo embrión animal hay un momento trascendental cuando su corazón, incipiente pero ya capaz, empieza a latir por primera vez. Tal acontecimiento marca el principio funcional de esta maravillosa bomba de sangre que latirá sin descanso durante muchos años hasta que un día sobrevenga el colapso final y, del mismo modo abrupto en que empezó, termine su actividad funcional dejando de latir.
En el desarrollo de todo embrión animal hay un momento trascendental cuando su corazón, incipiente pero ya capaz, empieza a latir por primera vez. Tal acontecimiento marca el principio funcional de esta maravillosa bomba de sangre que latirá sin descanso durante muchos años hasta que un día sobrevenga el colapso final y, del mismo modo abrupto en que empezó, termine su actividad funcional dejando de latir.
Del mismo modo que el corazón, otras estructuras funcionales están acotadas por dos fronteras que marcan el principio y fin de su estado funcional. Y tanto en la biología como en las máquinas creadas por el hombre existen dichas fronteras.
Al punto a partir del cual se alcanza la completitud y el contexto funcional necesario para que una estructura empiece a funcionar lo denominaremos; Ignición funcional. El caso contrario lo llamaremos Colapso funcional.
¿Cuándo acontece este especial instante en la construcción de una estructura funcional?
Acontece cuando una estructura funcional, en su proceso de integración, construcción, o embriogenesis, según sea el caso, llega a un punto en el cual, una vez colocado el último de sus componentes, la estructura empieza a funcionar. Antes de dicho instante no habrá funcionamiento. En consecuencia podemos decir que la Ignición Funcional acontecerá cuando se alcanze la CMF (léase complejidad irreductible). Esto significa que antes de añadir el último componente, no existía aún la complejidad necesaria para que sea funcional y, por lo tanto, antes de dicho punto no existe funcionamiento. En el proceso inverso concurre el Colapso Funcional que acontece cuando se retrocede por debajo de la CMF de una estructura. Este punto, para los seres vivientes, no es otro que la muerte.
Coherencia.
No todas las llaves son funcionales para abrir una puerta, sólo lo serán aquellas que tengan el perfil complementario de la cerradura, es decir, sean coherentes con la misma. Ello permitirá que la misma pueda girar y así activar los mecanismos de apertura de la puerta. Si por el contrario la forma de la llave no fuese coherente con la cerradura no podrá conectar con ella y, por lo tanto, no se podrá abrir la puerta.
No todas las llaves son funcionales para abrir una puerta, sólo lo serán aquellas que tengan el perfil complementario de la cerradura, es decir, sean coherentes con la misma. Ello permitirá que la misma pueda girar y así activar los mecanismos de apertura de la puerta. Si por el contrario la forma de la llave no fuese coherente con la cerradura no podrá conectar con ella y, por lo tanto, no se podrá abrir la puerta.
Con este sencillo ejemplo podemos decir que la coherencia es la capacidad de un átomo, molécula, o artefacto de conectarse con otros e incluso con un conjunto estructural producto que llamaremos contexto.
En la naturaleza también existen muchos casos que ilustran distintos tipos de coherencia de acuerdo a cuan fácil se realiza la conexión. Los átomos pueden unirse espontáneamente de acuerdo a una coherencia llamada valencia con otros átomos para formar moléculas. En ésta, los átomos son capaces de enlazarse, sea por compartición de electrones o por atracción electrostática de una manera espontánea, por supuesto con el debido concurso de la energía necesaria. En otros casos la unión no esta tan sencilla, pues requiere el concurso de un agente externo que haga las veces de casamentero para unir parejas, a este agente se lo conoce como catalizador y estimulará el apareamiento de ciertos átomos o moléculas con otras, éste es por tanto un caso de coherencia forzada. Las enzimas, por ejemplo, son proteínas catalizadoras que fuerzan las coherencias necesarias para enlazar a distintas moléculas entre sí.
El ADN es un gran ejemplo de coherencia. Esta es una enorme molécula de ácido nucleico dispuesta en una doble hélice de 2 cadenas cuyas bases (los eslabones de la cadena) son estrictamente complementarias.
Ahora bien la coherencia puede ser funcional o no serlo. Para entenderlo veamos las siguientes 3 figuras:
Tenemos tres casos en los que el funcionamiento consiste en formar un círculo. En el primer caso no hay encaje y por lo tanto no pueden conectarse, no son coherentes. En el segundo caso, si pueden conectarse, pero la estructura producto no es funcional. Por último, en el tercer caso, hay coherencia funcional por cuanto no solo encajan sino que forman un círculo.
Ahora bien si analizamos el caso 2 de las tres figuras podemos preguntarnos:
¿Qué impide que a estas dos piezas con coherencia no funcional se le añadan otras piezas con las cuales se pueda formar un círculo mayor y cumplir así con el objetivo? Hay que reconocer que ello es posible, por tanto, aunque 2 componentes no formen una estructura funcional producto, si pueden en cambio, ser parte del contexto de un mayor número de componentes que juntos si formen una estructura funcional. Los juegos de rompecabezas son un ejemplo bastante claro, algunas piezas son coherentes con unas más no con otras. No obstante, existe un contextomediante el cual todas están encajadas formando una estructura funcional. Lo mismo sucede con cualquier pieza de una máquina cualquiera, primeramente tiene coherencia con otra pieza a la cual puede conectarse, pero el resultado es, aparentemente, no funcional. Sin embargo, cuando se juzga la misma a la luz del contexto de la máquina en conjunto completamente conectada, sí resultará ser coherencia funcional. A esta propiedad se denomina coherencia de contexto y es la característica fundamental de todas las estructuras funcionales.
El siguiente ejemplo muestra el caso de un conjunto de componentes con coherencia de contexto, en el cual las piezas encajan para formar una T que funciona como carácter alfabético, luego la misma es una estructura funcional.
De esto se deduce también la siguiente consecuencia: si se cumple que la estructura es funcional, un componente cualquiera de la estructura tendrá que ser funcionalmente coherente con el resto. Y ello significa que un componente puede ser útil solo en la totalidad del contexto estructural, más no de forma independiente, del mismo modo que un chip microprocesador es solo útil cuanto esta conectado a la placa base de un ordenador, de forma independiente no sirve para nada, salvo como curiosidad. A este tipo de funcionalidad, que solo funcionan en un contexto y no de forma aislada, la llamaremos funcionalidad contextual. Si existe un componente que puede ser funcional por si solo tendrá entonces funcionalidad singular.
Estos últimos conceptos podrían pasar desapercibidos como conceptos matemáticos sin importancia. Sin embargo, son cruciales para juzgar que, cuando una estructura cualquiera de nuestro universo refleje funcionalidad contextual, será efectivamente un artefacto, es decir, una estructura funcional que tiene un objetivo, implica un diseño (contexto complejo) y por consecuencia tiene un diseñador.
Ahora bien, se puede objetar a esto que se puede dar el caso, y de hecho se da tanto en la naturaleza como en los mecanismos hechos por el hombre, que existan componentes que tengan a la vez funcionalidad contextual y también singular. Por ejemplo, una resistencia eléctrica puede estar conectada a una enorme cantidad de contextos distintos (circuitos) sin perder su funcionalidad singular. Es más, el hecho de poder participar en más de un contexto es lo que demuestra su funcionalidad singular.
Hace algunos años un barco mercante tuvo que detenerse en alta mar por causa del fallo de un importante instrumento de navegación. Cuando se revisó el instrumento se descubrió que una miserable resistencia quemada era la causa del fallo. Sin embargo, no disponían de ninguna resistencia con la específica resistividad en su colección de repuestos. El no poder reparar el instrumento y tener que esperar varios días a que un helicóptero trajera el repuesto suponía varios miles de dólares en pérdidas. En este dilema los técnicos se pusieron a pensar hasta que a uno de ellos se le ocurrió una brillante idea. Era verdad que no tenían una resistencia con esa específica resistividad, pero sí disponían de otras resistencias con las cuales se podría, en una determinada disposición serie y paralelo, obtener un equivalente resistivo a la resistencia quemada. Puestos manos a la obra hicieron dicho equivalente y lo soldaron a la placa del instrumento de navegación logrando, no sólo repararlo, sino también ahorrar muchos miles de dólares a la compañía naviera.
Esta anécdota muestra como la funcionalidad singular de varias resistencias su unieron deliberadamente para conferirles la funcionalidad contextual de la resistencia quemada, pero la moraleja es que, aunque dichas resistencias eran los repuestos de otros contextos, pudieron, en sociedad con otros, funcionar en el contexto del instrumento de navegación dañado.
Esta facultad de los componentes de conectarse a más de un contexto distinto es lo que ahora llamaremos multicontextualidad. Además, por lo que hemos visto, todos los componentes con funcionalidad singular (que funcionan por sí solos) serán multicontextuales.
Para ilustrar con claridad este principio consideremos el siguiente ejemplo:
Imaginemos que tenemos una máquina que nos puede suministrar tarjetas con un número del 0 al 999999999. Resulta que deseamos construir un número de 9 cifras, por ejemplo el número telefónico 045784512. La máquina nos dará los números de manera aleatoria o sea que si necesito conseguir dicho número con 9 dígitos (complejo) podría tener que solicitar números a la máquina hasta 109 (mil millones) de veces y, claro, no estoy dispuesto a esperar tanto. Otra solución sería extraer números de la máquina con un menor número de dígitos (menos complejos) y unirlos para obtener el número deseado. No obstante, aunque busque números de 4 y 5 dígitos a fin de unirlos y obtener el número deseado será todavía engorroso porque, para tener la esperanza matemática de obtener estos segmentos, tendré que pedirle números a la máquina hasta 104 + 105 (110000) veces lo cual aún es demasiado. La solución más simple, por el principio de multicontextualidad, es pedirle a la máquina números de un solo dígito (muy poco complejos) y unirlos para formar el número telefónico, así a lo mucho tendré que pedirle a la máquina 90 solicitudes de números, algo que ya es bastante razonable. Este ejemplo nos muestra que a más complejidad hay menos multicontextualidad y más en caso inverso.
Otra forma de entender este concepto es mediante dos rompecabezas. El primero de ellos es el típico mosaico de piezas similares, pero cuya superficie forma una imagen que constituye un contexto específico como el siguiente:
Aunque las piezas sean idénticas en forma, salvo las de los bordes. La imagen que contiene las hace únicas y con una funcionalidad contextual que permite que sean encajadas en un solo lugar del rompecabezas. No sirven para encajar en otro lugar porque alterarían el contexto que solo es funcional para una imagen en particular.
Sin embargo, podemos proponer otro rompecabezas más endiabladamente divertido pero difícil. Consiste en un juego de figuras muy simples y sin imagen.
Se tratan de polígonos de sólo 3 y 4 caras. La función consiste en conectarlas de tal modo que formen un contexto rectangular como pueden ser, por ejemplo, los contextos A y B:
Intente el lector realizarlos sin ver como pueden estar dispuestos para los contextos finales, ya que eso sería hacer trampa, y se sorprenderá de la enorme dificultad que conlleva alcanzar un contexto rectangular cualquiera. La razón estriba en que las piezas de este rompecabezas, a diferencia de la anterior, son muy poco complejas y tienen funcionalidad singular, son fáciles de conectar, pero por lo mismo hacen del rompecabezas más difícil de realizar porque sus piezas se pueden conectar de muchas maneras diferentes y no sólo de una en virtud de una funcionalidad contextual.
Los átomos, por ejemplo, son enormemente multicontextuales (tienen funcionalidad singular) ya que pueden ser partes de muchos contextos moleculares diferentes. Del mismo modo los aminoácidos son moléculas multicontextuales para una enorme cantidad de contextos proteicos, pero no todos los aminoácidos posibles sirven para las proteínas biológicas (recordemos que el juego es de sólo 20 aminoácidos). Ahora bien, a medida que vamos subiendo en complejidad veremos que la multicontextualidad empieza a disminuir en proporción inversa.
Cuando llegamos al nivel de complejidad de las proteínas veremos que pocas serán multicontextuales y muchas, como las proteínas reguladoras que se conectan por su coherencia espacial con una específica zona reguladora de un gen específico, son de hecho monocontextuales teniendo así una definida funcionalidad contextual, es decir, para un solo contexto y no sirviendo en absoluto para ningún otro.
Los rompecabezas también ponen en relieve un principio interesante. Cuando comparamos una pieza del rompecabezas 1 con otra del rompecabezas 2 notaremos que salta a la vista de que el primero es más complejo que el segundo. Es por ello que resulta más fácil el primer rompecabezas, porque hablamos de módulos no de componentes simples, hablamos, por ejemplo de genes, ribosomas, spliceosomas, etc. El segundo rompecabezas es más difícil porque es como si nos pidieran que con algunos átomos o incluso monómeros sencillos formáramos el contexto de una proteína, ARN mensajero, un gen, u otro polímero funcional de la célula.
Ahora reflexionemos, si comparamos el ejemplo de los números con el del rompecabezas surge una aparente contradicción que nos va a llevar a una conclusión crucial. En el ejemplo de los números vimos que para conseguir el número requerido, es decir, que sabíamos cual es conociendo el contexto final, resultó más sencillo pedirle a la maquina números lo menos complejos posibles, es decir, de un solo dígito. Sin embargo, en el caso del rompecabezas fue al contrario. Aquí no conocíamos el contexto final (el rompecabezas armado). Por ello la solución más fácil resultó ser el rompecabezas con las piezas más complejas porque era más sencillo conectar piezas que te daban pistas a través de su imagen para saber con quien pueden conectarse, que piezas sencillas que no aportan información de conexión por su elevada sencillez y, en consecuencia, elevada capacidad multicontextual.
¿Qué diferencia existe en estos casos que resuelva esta paradoja?
La diferencia está en la manera de encarar dichos problemas. En el primer caso conocíamos el contexto final lo que nos proporcionaba un plan de solución, el número en concreto. En el segundo caso no conocíamos el contexto final y por ello carecíamos de un plan. No hay ninguna receta que nos guíe para la fabricación o síntesis de un resultado concreto. Lo que hacemos en el rompecabezas, como se hace en la investigación biomolecular, es solo investigar como se conectan los componentes para estudiar o llegar al contexto final (ingeniería inversa), y ello, claro está, es más fácil de hacer con módulos complejos que con componentes extremadamente simples.
¿Qué nos enseña esto?
Nos enseña que todo proceso de síntesis incluida la abiogénesis (aparición de la vida desde precursores no biológicos) es más fácil si existe un plan como lo es el ADN para todo ser viviente. Pero todos sabemos que para el caso del origen de la vida no existió ningún plan ya que partimos de procesos de generación de orden del primer tipo. Y si para los seres inteligentes como nosotros nos resulta aún inabordable crear vida en el laboratorio desde cero sólo con componentes químicos sencillos como los del matraz de Miller, más aún inverosímil e inabordable lo será sin bioquímicos en el escenario del origen de la vida.
Ahora sí, en virtud de lo que hemos visto, decimos que nos resultará más fácil trabajar con módulos complejos ya funcionales (evolución modular), sonará más verosímil, pero aún así no adelantamos mucho ya que incluso estos módulos complejos son aún fantásticamente inabordables de sintetizar.
Por último, aún no hemos examinado un tipo más sofisticado de coherencia, es aquella en la cual el agente externo necesita cumplir un convenio para que la conexión sea realizada. No se trata solo del concurso de energía y su sola presencia, en este caso, el agente externo necesita realizar un convenio de conexión sin cuyo desarrollo la conexión es imposible. La mayor parte de los mecanismos construidos por el ser humano tienen este tipo de conexión por convenio y también todos los organismos biológicos lo presentan.
Muchos de los componentes biológicos están conectados mediante convenios de conexión especiales. Un convenio de conexión es un método de conectividad entre dos componentes. No se trata de simples acoplamientos.
Se requiere energía y agentes externos que catalicen (ayuden a conectar) los mismos mediante un proceso elaborado.
Imaginemos un experimento mental. En una caja coloquemos un envase y su respectiva tapa. Dicha tapa tendrá una rosca en sentido horario, siendo ésta su sencillo convenio de conexión con el envase. De lo que se trata es de proporcionar energía al proceso agitando la caja con los dos elementos en su interior hasta que las mismas se conecten por obra del azar. Ahora como esto requiere de tiempo, mucho tiempo, seamos bondadosos y agitémosla durante unos 20 millones de millones de años. Luego abramos la caja y veamos en su interior que ha pasado. ¿Pudo el azar conectar ambos componentes en esta extraordinaria multitud de tiempo? Cuando abramos la caja encontraremos solo polvo, pero no una conexión. ¿Por qué? Porque la conexión de ambos componentes se producirá solo si se aplica el convenio de conexión, que es girar la tapa en sentido horario sobre la boca del envase. De nada servirán 20 millones de millones de años de agitación. Esto significa que muchas de las conexiones del mundo biológico no se van ha dar NUNCA por efecto del azar ni con el concurso de la eternidad ni en todas las burbujas del pretendido multiverso con las más preferentes leyes y constantes físicas. Igualmente en el caso biológico podemos poner en el envase a muchos monómeros y agitarlos juntos sin la presencia de enzimas clave por el mismo tiempo y repetirlo en todos los universos posibles, sin embargo, como en el anterior caso, no los hallaremos unidos jamás.
La síntesis de proteínas presenta este tipo de conexión. Ninguna proteína biológicamente funcional nace como el resultado fortuito de una conexión espontánea. Resulta más bien de un elaborado proceso de fabricación en la cual la doble cadena de un gen unida por complementariedad (coherencia funcional) es separada por una enzima llamada polimerasa de ARN creando así, de una de las cadenas, un molde del gen. Dicho molde es una cadena de ARN mensajero (ARNm). Esta cadena ya libre será ahora tratada por un artefacto llamado ribosoma. Este artefacto recibe la cadena de ARNm y con ella cataliza la unión de cada eslabón con fragmentos de ARN de transferencia (ARNt) dispersos en el medio que sean complementarios con los eslabones del ARNm. De este modo va saliendo del ribosoma una cadena de aminoácidos que luego se plegarán por medio de atracciones electrostáticas en una disposición espacial como la de un ovillo de lana. Así finalmente se terminará de fabricar una proteína.
Como hemos visto, este proceso, que se ha narrado de una manera extraordinariamente simplificada, implica una compleja coordinación de muchos actores en la maquinaria celular. No son pues simples conexiones, ni siquiera conexiones catalizadas, tienen con claridad un convenio de conexión complejo y ello implica que precisan de un algoritmo de fabricación.
Sabemos que a nivel atómico, los atomos pueden unirse (conectarse) con otros atomos para formar moleculas de acuerdo a ciertas coherencias llamadas valencias que les permiten compartir electrones y formar entes mayores.
Conforme aumenta la complejidad de la molécula, monómero o polímero, sus capacidades de conexión (multicontextualidad) son cada vez menores e improbables. Finalmente, ya a nivel celular, aparecen convenios de conexión que implican a muchos actores protagonistas de un proceso de sintesis y a su vez, también dichos actores son sintetizados por otros convenios complejos en los que también participan los actores que sintetizaron en un proceso de interdependencia mutua.
John Horgan aborda este problema al decir: “Los trabajos de Watson y Crick y otros han demostrado que las proteínas se fabrican siguiendo las instrucciones dictadas por el ADN. Pero hay un problema. El ADN no puede desempeñar su trabajo, ni siquiera su propia replicación, sin el concurso de proteínas catalíticas, o enzimas. En pocas palabras, no se pueden fabricar proteínas sin ADN, ni tampoco ADN sin proteínas”. (5)
Todos estos actores forman parte de un contexto funcional complejo, con mutuas dependencias y con conexiones e interrelaciones también complejas que requieren convenios de conexión para ensamblarse entre sí. Como hemos visto antes, dichos convenios no pueden reproducirse por el solo concurso de energía y tiempo, ya que implican agentes externos que dirijan el proceso de conexión.
El popular dilema “Que es primero ¿el huevo o la gallina?” Nos lleva a un bucle sin fin, la gallina ciertamente procede de un huevo empollado por otra gallina que a su vez fue fecundada por un gallo y empolla otro huevo del que saldrá otra gallina. Como se observa el dilema no puede ser resuelto sobre la base de sus elementos, si este bucle no es roto en algún punto. Pero esto no es un mero entretenimiento. El dilema lleva implícito un principio clave de la biología; ¡la vida procede de la vida! Ciertamente no vemos gallinas aparecer de la nada para empollar huevos ni tampoco huevos que surgen del barro por mecanismos de auto organización de la materia y terminan alumbrando gallinas. Existe, en todo mecanismo de reproducción en el mundo biológico, una etapa de gestación en la cual, sea un organismo multicelular o unicelular, el organismo reproductor prepara internamente al organismo reproducido hasta llegar a una complejidad mínima funcional (CMF) que le faculte una independencia del reproductor. Esta puede ser inmediata, como sucede en la reproducción por división celular, o asistida temporalmente, como en el caso de la gallina, hasta que pueda vivir por cuenta propia.
Ahora bien, ¿Para qué otra cosa nos sirven los conceptos de funcionalidad singular y contextual? Veamos el siguiente apartado.
Una refutación a la refutación de la complejidad irreductible.Supongamos que de algún modo todos los problemas evolutivos han sido resueltos y nos quedara por lo tanto evaluar la acción de la selección natural como motor de la evolución biológica hacia una mayor complejidad orgánica. Esto significa que con el correr del tiempo un ser haya desarrollado no solo nuevos órganos sino también sus contextos correspondientes con el conjunto. La selección natural consiste esencialmente en dos cosas:
1.Imperfección en la duplicación.
2.Mecanismo de selección mediante la fijación del genotipo funcionalmente ventajoso. Supervivencia del más apto.
En la ciencia hay hechos qué pueden ser reconocidos como muy improbables, no obstante, ello no significa que los mismos sean imposibles. No hay pues porque confundir términos que en definitiva son totalmente distintos.
Está reconocido que el proceso evolutivo, sea material o biológico, requiere de largos lapsos de tiempo para que fenómenos altamente improbables puedan tener lugar y por tanto la evolución se haga posible. La pregunta a formular aquí es:
¿La evolución como medio para la formación de nueva complejidad orgánica es posible, aunque improbable, o definitivamente es imposible?
Analicemos con mayor detenimiento en que consiste un proceso evolutivo de carácter biológico. En principio se requiere de imperfecciones en la reproducción de tal modo que nuevas características biológicas ventajosas sean fijadas por el proceso de selección natural. El motor de las mismas lo constituyen las mutaciones en menor medida y mayormente mediante el “barajamiento” de la variabilidad genética ya presente mediante la reproducción sexual.
El proceso evolutivo impulsado por estas necesita sobrepasar 3 obstáculos:
1.No causar trastornos negativos en la estructura afectada.
2.Permanecer inútil en espera de nuevas asimilaciones que completen un contexto funcional útil.
3.Adaptar al resto del conjunto estructural del ser viviente para que el nuevo órgano encaje con precisión con el resto a fin de alcanzar la coherencia de contexto necesaria.
Al efecto de estos obstáculos los reconoceremos como el Problema de la Fijación Subfuncional.
A mayor complejidad de la estructura destino la intensidad de los efectos es exponencialmente mayor. Además, la asimilación de un órgano funcional útil en un ser viviente implicaría que añadidos mutantes no funcionales, pero pertenecientes al contexto del órgano funcional final, sean asimilados y retenidos en espera de la completitud.
Veamos esto con un ejemplo. Imaginemos que deseamos comprar un televisor. Para ello nos dirigimos una tienda de electrodomésticos a fin de buscar uno.
Cuando llegamos encontramos un extraño mostrador donde por alguna razónhan colocado 20 televisores en distintos estados de fabricación. Hay alguno en el cual sólo está la carcasa, a otro le falta el circuito sintonizador, a otro le falta la pantalla y así, existirán muchos otros a los cuales les faltarán distintas piezas incluso sólo una. Y finalmente, al final del mostrador, encontraremos a un sólo televisor que sí está completo y está además funcionando en perfectas condiciones.
Cabe ahora preguntar: ¿Cuál de ellos compraremos?
Sin lugar a dudas compraremos el que está completo. Los demás no nos sirven en absoluto y, por lo tanto, los ignoraremos.
La presente figura muestra lo que sucede en un proceso de integración cualquiera, dicho proceso puede ser una fabricación, un desarrollo embrionario o cualquier otro proceso de construcción. Cuando este proceso concurre a través del tiempo va acumulando nuevos componentes que incrementan su complejidad. Pero sólo cuando alcanza su CMF es que surge la ignición funcional que permite que el artefacto, órgano u organismo empiece a funcionar (definido por la zona gris). Antes existe una zona muerta, no funcional y por lo tanto, no sujeta, para el caso biológico, a selección natural.
La selección natural no puede, en consecuencia, fijar agregados funcionales incompletos que no sirven y menos aún podemos esperar que reúnan ciegamente el largo camino de cambios, adaptaciones y asimilaciones que implican la gran complejidad de los órganos más sencillos.
La pregunta que surge por necesidad es:
¿Cómo pueden permanecer latentes y asimilados los agregados estructurales no funcionales, y por tanto, no útiles, si no representan ninguna ventaja funcional a la estructura base que los lleve a ser sujetos de selección natural?
¿Que suerte de milagro o sortilegio conseguirá que este proceso inviable tenga lugar?
Ninguno, ya que no se trata de algo tan solo improbable, sino de algo definitivamente imposible.
Este problema ya fue planteado en el pasado y se conoció como el problema de la pre-adaptación.
Sin embargo, dicha objeción fundamental al núcleo de la evolución no parece haber hecho ningún daño a la fe de sus sacerdotes y seguidores. Mas bien ha sido rehuido y despreciado por gran parte del consenso científico del último siglo al punto de considerarlo irrelevante y, lo que es más sorprendente, ¡Superado! No obstante, pese a ello, sigue siendo la estocada final que hecha por tierra la pretensión de que la selección natural sirva para explicar la complejidad orgánica.
Veamos como ha hecho defensa a este problema el evolucionismo en palabras de Javier Sampedro:
"Una de las objeciones antidarwinistas más clásicas es el llamado problema de la pre-adaptación. Aduce que una estructura compleja no ha podido evolucionar paso a paso por selección natural, puesto que la décima parte de esa estructura no sirve para nada y por lo tanto nunca hubiera llegado a prosperar. Si el primer paso (la pre-adaptación) no se impone en la población, el segundo paso nunca puede llegar a ocurrir. El problema de la pre-adaptación es un problema interesante y muy discutido por los evolucionistas teóricos, pero naufraga irremisiblemente en el caso del ojo: la décima o incluso la centésima parte de un ojo sí sirve para algo, y se pueden reconstruir y documentar rutas graduales más que admisibles para la generación histórica de estos asombrosos dispositivos biológicos".(2)
Como vemos en este razonamiento, la salida para este gran problema consiste en alegar que los pasos intermedios son ya funcionales y por lo tanto fijables por la selección natural. ¿Es esto cierto?
Aquí Sampedro nos dice que el argumento falla en el caso del ojo, lo que no sólo es discutible, sino falaz según veremos, ¿Qué podemos decir de lo s demás órganos de la especie humana y de otras especies de animales y plantas? ¿También tienen rutas funcionales graduales? ¿Con especular sobre el gradualismo del ojo u otro órgano debemos quedarnos tranquilos y considerar que el problema esta resuelto?
Analicemos esta solución al problema de la pre-adaptación. Este se basa en encontrar un gradualismo funcional de tal resolución que permita fijaciones funcionales por obra de la selección natural. Es esta esperanza la que sustenta la fe evolucionista. Sin embargo, pese a la seguridad semántica con la cual se alude que el ojo podemos partirlo en pedacitos y aún así encontrar componentes funcionales, veremos porqué esto no es así.
Por muy simple que sea un sistema de visión tendrá que tener una CMF.
Ejemplos de sistemas gradualmente más complejos en el mundo biológico tendrán otras CMFs respectivas cuyas complejidades matemáticas no varían entre sí con una progresión aritmética, sino más bien exponencial. No son simples peldañitos, son escarpadas cumbres las que los separan aunque sus funcionalidades y morfologías no lo evidencien en órganos de visión similares.
La capacidad fotosensible de la retina es un mecanismo muy complejo. Michel Behe en su libro “La caja negra de Darwin” nos proporciona una descripción de la engorrosa complejidad de dicho proceso:
“Cuando la luz llega a la retina, un fotón interactúa con una molécula llamada 11-cis-retinal, que en un picosegundo se reconfigura para ser transretinal. (Un picosegundo es el tiempo que la luz tarda en viajar a lo largo de un cabello humano)
El cambio de forma de la molécula retinal impone un cambio a la forma de la proteína, la rodopsina, a la cual el retinal está estrechamente enlazado. La metamorfosis de la proteína altera su conducta. Ahora llamada metarrodopsina II, la proteína se adhiere a otra proteína llamada transducina. Antes de chocar con la metarrodopsina II, la transducina se había enlazado con una pequeña molécula llamada GDP. Pero cuando la transducina interactúa con la metarrodopsina II, el GDP se desprende y una molécula llamada GTP se enlaza con la trasducina. (La GTP está muy emparentada con la GDP, pero exhibe diferencias críticas.)
La GTP-transducina-metarrodopsina II ahora se enlaza con una proteína llamada fosfodiesterasa, localozada en la membrana interna de la célula.
Cuando se adhiere a la metarrodopsina II y su séquito, la fosfodiesterasa adquiere la capacidad química para “cortar” una molécula llamada cGMP (pariente químico de la GDP y la GTP). Inicialmente hay muchas moléculas de cGMP en la célula, pero la fosfodiesterasa rebaja su concentración, así como al sacar el tapón baja el nivel de agua de una bañera.
Otra proteína de la membrana que enlaza cGMP se llama canal iónico. Actúa como un portal que regula la cantidad de iones de sodio de la célula.
Normalmente el canal iónico permite que los iones de sodio entren en la célula, mientras que otra proteína los extrae mediante bombeo. La acción dual del canal iónico y la bomba regula el nivel de iones de sodio de la célula. Cuando la cantidad de cGMP se reduce por la división efectuada por la fosfodiesterasa, el canal iónico se cierra, causando la reducción de la concentración celular de iones de sodio de carga positiva. Esto provoca un desequilibrio de carga en la membrana celular, lo cual al fin genera una corriente que se transmite del nervio óptico al cerebro. El resultado, cuando es interpretado por el cerebro, es la visión.
Si las reacciones citadas fueran las únicas que operasen en la célula, la provisión de 11-cis-retinal, cGMP e iones de sodio pronto se agotaría. Algo tiene que desactivar las proteínas que se activaron y devolver a la célula a su estado original. Varios mecanismos se encargan de ello. Primero, en la oscuridad del canal iónico (además de los iones de sodio) también deja entrar iones de calcio en la célula. El calcio es bombeado hacia fuera por otra proteína, de modo que se mantiene una concentración constante de calcio.
Cuando decaen los niveles de cGMP, cerrando el canal iónico, la concentración de iones de calcio también decae. La enzima fosfodiesterasa, que destruye el cGMP, pierde velocidad con la menor concentración de calcio. Segundo, una proteína llamada guanilato-ciclasa comienza a resintetizar el cGMP cuando descienden los niveles de calcio. Tercero, mientras sucede todo esto, la metarrodopsina II es químicamente modificada por una enzima llamada rodopsina-quinasa. La rodopsina modificada se enlaza con una proteína conocida como arrestina, que impide que la rodopsina active más transducina.
Así la célula contiene mecanismos que limitan la señal amplificada iniciada por un fotón.
El trans-retinal se queda finalmente sin rodopsina y debe ser reconvertido a 11-cis-retinal y de nuevo enlazado con la rodopsina para regresar al punto de partida, para otro ciclo visual. Para ellos, una enzima modifica químicamente el trans-retinal, convirtiéndolo en trans-retinol, una forma que contiene dos átomos de hidrógeno más. Una segunda enzima luego convierte la molécula a 11-cis-retinol. Por último, una tercera enzima extrae los átomos de hidrógeno previamente añadidos para formar 11-cis-retinal, y así se completa un ciclo”.
(Páginas 34 a 41, referencia 7)
¿Es esto sencillo?
Definitivamente no. Además, el proceso mostrado constituye sólo uno de los componentes del sistema de visión. Dicho sistema no está localizado sólo en el globo ocular, también forman parte de él el nervio óptico y el cortex visual en el cerebro. Al punto que los mismos deben ser funcionalmente coherentes entre sí para que los impulsos eléctricos transmitidos por el nervio óptico desde el globo ocular puedan ser procesados e interpretados por el cerebro. Aunque dividamos su funcionamiento en módulos funcionales más pequeños cada uno tendrá un CMF particular, algo que Michel Behe llama complejidad irreductible.
Para ilustrar dicha complejidad irreductible uso el desafortunado ejemplo de la ratonera. En dicho ejemplo muestra que no hay forma más simple para generarla ya que, si a su CMF le quitamos un solo componente, ya no habrá ninguna capacidad para cazar un ratón. A este ejemplo y al concepto que ilustra, se le ha refutado mediante el mismo argumento del gradualismofuncional antes mencionado, según el cual, si bien es verdad que los componentes por si solos no pueden funcionar como una ratonera, si son funcionales para otros propósitos, es decir, tienen funcionalidad singular y, por lo tanto, sí podrían ser fijados por la selección natural.
Se dice que la palanquita de la ratonera puede funcionar como clip, el resorte sirve como muelle para cualquier otro uso y así con el resto de los componentes. Dada esta circunstancia, por extrapolación, también organismos más complejos tendrían componentes funcionales fijables por la selección natural. Entonces el argumento de la complejidad irreductible como obstáculo
para la evolución sería rebatido y todos quedaríamos felices. Sin embargo, las matemáticas nos mostrarán por qué es desafortunado el ejemplo de la ratonera y si es verdad que dicha refutación realmente funciona.
Anteriormente definimos un concepto llamado multicontextualidad. Este concepto nos habla de la capacidad de un componente para conectarse a otros contextos o estructuras. Además dicha multicontextualidad será inversamente proporcional a la complejidad del componente. Esto significa que, a más simple es el mismo, más posibilidad tiene de ser útil (funcionalidad singular) y de conectarse a otras estructuras funcionales (lo que sucede con la ratonera). En caso contrario, a más compleja, tendrá menos capacidad para ser útil a otros contextos y quizás lo sea tan sólo de uno (funcionalidad contextual).
Analicemos ahora la refutación a la ratonera. Dije anteriormente que el ejemplo era desafortunado porque para este caso, siendo una estructura funcional bastante simple, con componentes también bastante simples. La refutación si funciona para este caso por causa de la gran multicontextualidad de los sencillos componentes de la ratonera. Es verdad que pueden servir para varios usos y ser funcionales sin formar el contexto "ratonera". Sin embargo, si partimos hacia ejemplos de mecanismos más complejos dicha refutación se desinfla totalmente. Para mayores complejidades desciende la multicontextualidad y por ende la capacidad de tenerfuncionalidad independiente. Esto nos desbarata el gradualismo para los casos mucho más complejos del mundo biológico. Incluso los polímeros funcionales más básicos son extraordinariamente más complejos y especializados que los componentes de la ratonera e incluso la propia ratonera.
Los detractores de Behe se han cebado con su ejemplo de la ratonera, pero, sin embargo, no he encontrado hasta ahora ninguna refutación completa y convincente que apele al gradualismo funcional para sus complejos ejemplos sobre el proceso de la coagulación de la sangre, ni sobre la formación de las asombrosas y complejas estructuras de los cilios y los flagelos. Eso sí, he leído en varios libros que estos procesos también están resueltos con hipótesis de rutas funcionales progresivas, pero curiosamente no suelen citar ni quién las ha resuelto ni en que libro o artículo se presentan. Por ejemplo, al respecto de la coagulación de la sangre, Francis S. Collins, en su libro “Cómo habla Dios”, afirma que su evolución está resuelta a partir de un sencillo sistema hemodinámico de baja presión y bajo flujo. Pero más adelante afirma:
“Ciertamente, no podemos delinear con precisión el orden de los pasos que eventualmente llevaron a la cascada de la coagulación humana; posiblemente nunca logremos hacerlo, porque los organismos anfitriones de muchas cascadas precursoras se han perdido en la historia”. (19)
¿En que quedamos? ¿Lo han resuelto o no? Con frecuencia se defiende el evolucionismo apelando a excepciones felices o a algún paso encontrado. No importa que muchos otros permanezcan en el misterio o queden demasiados huecos, sí hay una excepción o peldaño posible esto es suficiente para quedarse tranquilos.
El proceso de la fotosensibilidad de retina visto anteriormente e invocado como una de esas excepciones felices, nos ilustra también un caso abrumadoramente más complejo que la sencilla ratonera y en él no podemos decir que todos sus componentes tengan funcionalidad singular y, por ello, sean plenamente multicontextuales. Más bien, muchas de las proteínas implicadas son altamente especializadas, teniendo funcionalidad contextual y esto implica que sólo sirven para este proceso en concreto y no para ningún otro. Por lo tanto, no podemos decir que surgieron porque ya eran útiles en otro proceso y luego se asimilaron para funcionar en este complicado proceso particular.
Es por causa de la multicontextualidad que, cuando vamos a una tienda de repuestos de automóvil, el dependiente nos pregunte la marca, año y el modelo del vehículo para identificar el repuesto. Dicho repuesto, en virtud de su mayor complejidad, no se conectará a cualquier motor sino que tiene una coherencia funcional especifica a otro componente con el cual se conectará al conjunto que ya tiene una coherencia potencial reciproca (el motor de modelo y marca definidos) y no sirve cualquier cosa. Pero si lo que se necesita es un tornillo o un cable, será más fácil hallar la forma de adaptarlo o conectarlo con facilidad por efecto de su menor complejidad, es decir, simplicidad.
Lo mismo sucede con los componentes biológicos. Ellos no son más simples que los alcanzados por nuestra actual tecnología. Son sumamente complejos, y no se puede apelar a felices gradualismos, despreciando su complejidad para pretender su fijación evolutiva.
El problema de la fijación subfuncional, preadaptación o del alcance de la complejidad irreductible, según se lo quiera denominar, no es un problema para el disfrute, en cálidas tertulias con té y galletitas, por parte de los evolucionistas teóricos. Más bien, aunque no se quiera admitir, es un problema que hecha por tierra el núcleo principal de pensamiento evolutivo y en consecuencia de la propia teoría de la evolución, es decir, la capacidad de la selección natural de producir complejidad orgánica.
---
---
Extractos y resúmenes del libro “¿Diseñó Dios la vida?” de Cristian Aguirre del Pino Referencias:
0- Richard Dawkins. La Confrontación Creacionista-Evolucionista.http://www.edge.org/3rd_culture/dawkins06/dawkins06_index.html
1- Richard E. Dickerson. La evolución química y el origen de la vida. Especial de Evolución de la revista Investigación y Ciencia.
2- Javier Sanpedro. Deconstruyendo a Darwin. Editorial Critica.
3- Carsten Bresch. La vida, un estado intermedio. Biblioteca Científica Salvat.
4- Francisco J. Ayala. Mecanismos de la evolución. Especial de Evolución de la revista Investigación y Ciencia. Pag. 15 a 28
5- John Horgan. Búsqueda inacabada del origen de la vida. Investigación y Ciencia Abril 1991 Nº175
6- Charles Robert Darwin. El origen de las especies. 1859. Editorial Alba. 2000
7- Michel J. Behe. La caja negra de Darwin. Editorial Andres Bello. 1996
8- Andrew H. Knoll. ¿Porqué los animales aparecieron de repente?. Investigación y Ciencia. Dic.1991. Nº183
9. Jeffrey S. Levinton. The Bing Bang of Animal Evolution. Scientific American. Nov.1992. Nº5
10- Peter R. Grant. La selección natural y los pinzones de Darwin. Investigación y Ciencia.Dic.1991. Nº183
11- Peter Coveney y Roger Highfield. La Flecha del Tiempo. La organización del desorden.Editorial Plaza & Janes. 1990
12- Anthony J.F. Griffiths, William M. Gelbart, Jeffrey H. Miller y Richard C. Lewontin. Genética Moderna Mc GRAW HILL INTERAMERICANA. 2000
13- Mahlon B. Hoagland. Las raíces de la vida. Biblioteca científica Salvat. 1995
14- Harald von Boehmer y Pawel Kisielow. Así aprende el sistema inmune a reconocer su identidad. Investigación y Ciencia. Dic.1991
15- Sean B. Carroll, Benjamin Prud’homme y Nicolas Gompel. La regulación de la evolución. Investigación y Ciencia. Julio 2008
16- H. Frederik Nijhout. Importancia del contexto en la genética. Investigación y Ciencia. Agosto 2004
17- Manuel Cortijo, José L. López Lacomba, Francisco García Blanco y Jesús Mª Ruiz Cabello. Estabilidad de las proteínas. Investigación y Ciencia. Diciembre 1991
18- Juan Luis Arsuaga. El enigma de la esfinge. 2001
19- Francis S. Collins. ¿Cómo habla Dios?. Editorial Planeta. 2006
20- Paul Chien. Una explosión de vida.http://www.leaderu.com
21- W. Wayt Gibbs. “El genoma oculto”. Investigación y Ciencia.
22- Anónimo. Cambios cromosómicos numéricos.http://www.unavarra.es/genmic/genetica%20y%20mejora/genetica_y_mejora_vegetal.htm
23- Nieves López Martínes y Jaime Truyols Santoja. Paleontología. Editorial Síntesis.
24- Valentine, Jablonski y Erwin. Fossils, Molecules and embryos: new perspectives on the Cambrian explosion. 1999
25- Máximo Sandín. LAS SORPRESAS DEL GENOMA. Boletín de la Real Sociedad Española de Historia Natural. Departamento de Biología de la Facultad de Ciencias. Universidad Autónoma de Madrid.
26- Anónimo, Tal vez debamos modificar nuestra idea del genoma humano. Web site de IntraMed. http://www.intramed.net/actualidad/not_1.asp?idNoticia=472730-
---Fuente:
Ciencia Alternativa
---Fuente:
Ciencia Alternativa