viernes, 20 de noviembre de 2009

El ADN y el Origen de la Vida: Información, Especificidad y Explicación

Por: Stephen C. Meyer

RESUMEN
Actualmente, muchos investigadores del origen de la vida consideran que el problema del origen de la información biológica es el problema central al que se enfrentan. Sin embargo, el término “información” puede referirse a varios conceptos teoréticamente distintos. Al distinguir entre información específicay no específica, este ensayo pretende acabar con la ambigüedad en la definición asociada al término “información” tal y como se emplea en biología. El objetivo es evaluar explicaciones en liza para el origen de la información biológica. En especial, este ensayo discute la adecuación causal de las explicaciones de la química naturalista evolutiva para le origen de la información biológica específica, tanto si se basan en el “azar” como en la “necesidad” o en ambos. En cambio, aduce que el presente estado de conocimiento de las potencias causales apunta al diseño inteligente o a una causa agente como mejor explicación y más causalmente adecuada del origen de la información biológica específica.

INTRODUCCIÓN
Las teorías sobre el origen de la vida presuponen necesariamente el conocimiento de los atributos de las células vivas. Como ha observado el historiador de la biología Harmke Kamminga, “en el corazón del problema del origen de la vida hay una cuestión fundamental: ¿De qué, exactamente, estamos intentado explicar el origen?” (1)
O, como lo plantea el pionero y teórico de la química evolutiva Alexander Oparin, “el problema de la naturaleza de la vida y el problema de su origen se han vuelto inseparables”2.
Los investigadores del origen de la vida quieren explicar el origen de las primeras y supuestamente más simples – o por lo menos mínimamente complejas- células vivientes. Como resultado, los avances dentro de los campos que explican la naturaleza de la vida unicelular han definido históricamente las cuestiones que la discusión planteada por el origen de la vida debe responder.

Desde finales de los años 50 y la década de los 60, los investigadores del origen de la vida admiten cada vez más la naturaleza específica y compleja de la vida unicelular y de las biomacromoléculas de las que dependen esos sistemas. Además, los biólogos moleculares y los investigadores del origen de la vida han caracterizado esta complejidad y especificidad en términos de información. Los biólogos moleculares se refieren de manera rutinaria al ADN, al ARN y a las proteínas como portadores o depósitos de “información” (3).
Muchos investigadores del origen de la vida consideran hoy día el origen de la información contenida en esas biomacromoléculas como la cuestión central que debe afrontar la investigación. Como ha dicho Bernd Olaf Kuppers, “claramente, el problema del origen de la vida equivale básicamente al problema del origen de la información biológica” (4).

Este ensayo evaluará las explicaciones en liza del origen de la información necesaria para construir la primera célula viviente. Esto requerirá determinar lo que los biólogos han querido decir con el término información, tal y como se aplica a las biomacromoléculas. Tal y como muchos han hecho notar, “información” puede denotar varios conceptos teóricamente distintos. Este ensayo intentará eliminar tal ambigüedad para determinar con precisión el tipo de información de la cual los investigadores del origen de la vida deben explicar “el origen”. En las páginas siguientes, se buscará primero caracterizar la información en el ADN, ARN y proteínas como explanandum (un hecho que necesita de explicación) y, en segundo lugar, evaluar la eficacia de los tipos de explicación en liza a la hora de explicar el origen de la información biológica (es decir, de los explanans en competición).

La primera parte busca demostrar que los biólogos moleculares han utilizado el término información de manera consistente para referirse a las propiedades conjuntas de la complejidad, de la especificidad y especificación funcionales. El uso biológico del término se contrastará con el uso teórico clásico de la información para demostrar que la “información biológica” tiene un sentido más rico que la clásica teoría matemática de Shannon y Wiener. La primera parte argumentará también en contra de los intentos de tratar la “información” biológica como una metáfora carente de contenido empírico y/o de estatus ontológico (5).
Se demostrará que el término “información biológica” se refiere a dos características reales de los seres vivos, complejidad y especificidad, características que conjuntamente requieren una explicación.

La segunda parte evaluará las distintas teorías que compiten por explicar el origen de la información biológica específica necesaria para producir el primer sistema vivo. Las categorías de “azar” y “necesidad” proporcionarán una heurística valiosa para comprender la historia reciente de la investigación del origen de la vida. Desde 1920 hasta mediados de los años 60, los investigadores del origen de la vida se apoyaron principalmente en teorías que enfatizaban el papel creativo de los eventos aleatorios –el “azar”- a menudo en tandem con ciertas formas de selección natural prebiótica. Sin embargo, desde los últimos años 60 los teóricos han enfatizado las leyes o propiedades deterministas de la autoorganización – es decir, de la “necesidad” físico-química. La segunda parte criticará la adecuación causal de las teorías químico-evolutivas basadas en el “azar”, la “necesidad” y la combinación de ambas. La conclusión contenida en la tercera parte, sugerirá que el fenómeno de la información, comprendido como complejidad específica, requiere un enfoque explicativo radicalmente diferente. En particular, argumentaré que nuestro conocimiento presente de las potencias causales sugiere que el diseño inteligente es una explicación mejor y más adecuada a las causas del origen de la complejidad específica (la información así definida) presente en grandes biomoléculas como el ADN, el ARN y las proteínas.

DE LO SENCILLO A LO COMPLEJO: DEFINIENDO EL EXPLANANDUM BIOLÓGICO
Después de que Darwin publicara “El Origen de las Especies” en 1859, muchos científicos comenzaron a pensar en los problemas que Darwin no había resuelto (6).
Aunque la teoría de Darwin pretendía explicar cómo la vida se había hecho más compleja a partir de “una o unas pocas formas simples”, no explicaba, y tampoco intentaba explicar, como se había originado la vida. Sin embargo durante las décadas de 1870 y 1880, biólogos evolutivos como Ernst Haeckel y Thomas Huxley suponían que concebir una explicación para el origen de la vida sería bastante fácil, en gran parte porque Haeckel y Huxley creían que la vida era, en esencia, una sustancia química simple llamada “protoplasma” que podía ser fácilmente elaborada mediante la combinación y recombinación de reactivos simples como el dióxido de carbono, el oxígeno y el nitrógeno.

Durante los siguientes sesenta años, los biólogos y los bioquímicos revisaron su concepción de la naturaleza de la vida. Durante las décadas de 1860 y 1870, los biólogos tendieron a ver la célula, en palabras de Haeckel, como un “glóbulo de plasma homogéneo” e indiferenciado. Sin embargo hacia los años 30, la mayoría de los biólogos ya contemplaban las células como un sistema metabólico complejo (7).
Las teorías del origen de la vida reflejaron esta creciente apreciación de la complejidad celular. Mientras que las teorías decimonónicas sobre la abiogénesis concebían la vida como algo surgido casi instantáneamente a través de uno o dos pasos de un proceso de “autogenia” química, las teorías de comienzos del siglo XX –como la teoría de la abiogénesis evolutiva de Oparin- concebían un proceso de varios billones de años de transformación desde los reactivos simples hasta los sistemas metabólicos complejos (8).
Incluso entonces, la mayoría de los científicos durante los años 20 y 30 subestimaron la complejidad y la especificidad de la célula y sus componentes funcionales claves, tal y como los avances de la biología molecular pronto dejarían claro.

LA COMPLEJIDAD Y ESPECIFICIDAD DE LAS PROTEÍNAS
Durante la primera mitad del siglo XX, los bioquímicos habían reconocido el papel central de las proteínas en el mantenimiento de la vida. Aunque muchos creyeron por error que las proteínas contenían también la fuente de la información hereditaria, los biólogos subestimaron repetidamente la complejidad de las proteínas.
Por ejemplo, durante los años 30, el cristalógrafo británico, experto en rayos X, William Astbury, descubrió la estructura molecular de ciertas proteínas fibrosas como la queratina, la proteína estructural clave de la piel y el pelo (9).
La queratina muestra una estructura repetitiva relativamente simple y Astbury estaba convencido de que todas las proteínas, incluidas las misteriosas proteínas globulares de tanta importancia para la vida, representaban variaciones del mismo patrón regular primario. De manera similar, los bioquímicos Max Bergmann y Carl Niemann del Rockefeller Institute, argumentaron en 1937 que los aminoácidos se daban en proporción regular, matemáticamente expresable, dentro de las proteínas. Otros biólogos imaginaron que la insulina y la hemoglobina, por ejemplo, “consistían en haces de varillas paralelas” (10).
Sin embargo, desde los años 50, una serie de descubrimientos provocó un cambio en esta visión simplista de las proteínas. Entre 1949 y 1955, el bioquímico Fred Sanger determinó la estructura molecular de la insulina. Sanger demostró que la insulina consistía en una secuencia larga e irregular de los diferentes tipos de aminoácidos, antes que una cuerda de cuentas de colores ordenada sin ningún patrón distinguible. Su trabajo mostró para una sola proteína lo que sucesivos trabajos demostrarían que era norma: la secuencia de aminoácidos de las proteínas funcionales desafía generalmente una regla sencilla y en cambio se caracteriza por la aperiodicidad o la complejidad (11).
A finales de los 50, los trabajos de John Kendrew sobre la estructura de la mioglobina demostraron que las proteínas también exhibían una sorprendente complejidad tridimensional. Lejos de ser las estructuras simples que los biólogos habían imaginado anteriormente, apareció una forma tridimensional e irregular extraordinariamente compleja: una maraña de aminoácidos retorcida y curvada. Como Kendrew explicó en 1958, “la gran sorpresa fue que era tan irregular... parecían carecer casi totalmente del tipo de ordenamiento regular que uno anticipa instintivamente, y es más complicado de lo que había predicho cualquier teoría de la estructura de proteínas” (12).
Hacia la mitad de los años 50, los bioquímicos reconocían que las proteínas poseían otra destacable propiedad. Además de la complejidad, las proteínas poseen también especificidad, tanto en su ordenamiento unidimensional como en su estructura tridimensional. En tanto que constituidas por aminoácidos químicamente bastante simples, a modo de “bloques de construcción”, su función –tanto si son enzimas, transductores de señales o componentes estructurales de la célula- depende de manera crucial de un ordenamiento complejo y específico de estos bloques (13).
En particular, la secuencia específica de aminoácidos en la cadena y la interacción química resultante entre aminoácidos, determina en su mayor parte la estructura específica tridimensional que la cadena adoptará como un todo. Recíprocamente, estas estructuras o formas determinan qué función realizará la cadena aminoacídica en la célula, si es que tiene alguna.

Para una proteína funcional, su estructura tridimensional se adapta como un guante a otras moléculas, posibilitando la catálisis de reacciones químicas específicas o la construcción de estructuras celulares específicas. A causa de su especificidad tridimensional, una proteína no puede sustituir a otra del mismo modo que una herramienta no puede ser sustituida por otra. Una topoisomerasa no puede realizar el trabajo de una polimerasa del mismo modo que un hacha no puede realizar la función de un soldador. En vez de ello, las proteínas realizan funciones solo en virtud de su capacidad tridimensional de encajar [“fit”, N. del T.], tanto con otras moléculas igualmente específicas y complejas como con sustratos más simples del interior de la célula. Además, la especificidad tridimensional deriva en gran parte de la especificidad de la secuencia unidimensional a la hora de ordenar los aminoácidos que forman la proteína. Incluso ligeras alteraciones de la secuencia provocan a menudo la pérdida de funcionalidad de la proteína.

LA COMPLEJIDAD Y LA ESPECIFICIDAD DE LA SECUENCIA DEL ADN
Durante gran parte del siglo XX, los investigadores subestimaron ampliamente la complejidad (y el significado) de ácidos nucleicos como el ADN o el ARN. Por entonces, los científicos conocían la composición química del ADN. Los biólogos y los químicos sabían que además de azúcar (y más tarde fosfatos), el ADN se componía de cuatro bases nucleotídicas diferentes, llamadas adenina, timina, guanina y citosina. En 1909, el químico P. A. Levene demostró (incorrectamente como resultó más tarde) que las cuatro bases nucleotídicas siempre se daban en cantidades iguales dentro de la molécula de ADN (14).
Él formuló lo que llamó la “hipótesis tetranucleotídica” para explicar ese hecho putativo. De acuerdo con esta hipótesis, las cuatro bases nucleotídicas del ADN se unían en secuencias repetidas de los mismos cuatro reactivos en el mismo orden secuencial. Dado que Levene concebía esos ordenamientos secuenciales como repetitivos e invariantes, su potencial para expresar cualquier diversidad genética parecía limitado de manera inherente. Para dar cuenta de las diferencias heredables entre especies, los biólogos necesitaron descubrir alguna fuente de especificidad variable o irregular, alguna fuente de información, dentro de las líneas germinales de los diferentes organismos. Sin embargo, en tanto que el ADN era considerado como una molécula repetitiva y sin interés, muchos biólogos supusieron que el ADN podía jugar un papel escaso, si es que lo tenía, en la transmisión de la herencia.

Esta concepción comenzó a cambiar a mediados de los años 40 por varias razones. En primer lugar, los famosos experimentos de Oswald Avery sobre cepas virulentas y no virulentas de Pneumococcos identificaron el ADN como un factor clave a la hora de explicar las diferencias hereditarias entre distintas estirpes bacterianas (15).
En segundo lugar, Erwin Chargaff, de la Universidad de Columbia, a finales de los años 40 socavó la “hipótesis tetranucleotídica”. Chargaff demostró, en contradicción con los primeros
trabajos de Levene, que las frecuencias de nucleótidos difieren realmente entre especies, incluso cuando a menudo dichas frecuencias se mantienen constantes dentro de las mismas especies o dentro de los mismos órganos o tejidos de un único organismo (16). Lo que es más importante, Chargaff admitió que incluso para ácidos nucleicos de exactamente “la misma composición analítica” –es decir, aquellos con la misma proporción relativa de las cuatro bases (en abreviatura, A, T, C y G)- eran posibles “enormes” cantidades de variación en la secuencia. Tal y como él lo explicó, diferentes moléculas de ADN o parte de las moléculas podían “diferir entre ellas... en la secuencia, aunque no en la proporción de sus constituyentes”. Se dio cuenta de que, para un ácido nucleico compuesto por 2500 nucleótidos (más o menos la longitud de un gen largo) el número de secuencias “que muestran la misma proporción molar de purinas (A, G) y pirimidinas... no está lejos de 101500” (17).
Así, Chargaff demostró que, al contrario de la “hipótesis tetranucleotídica”, la secuenciación de las bases del ADN bien podía mostrar el alto grado de variabilidad y aperiodicidad requerido por cualquier portador potencial de la herencia.

En tercer lugar, el descubrimiento de la estructura tridimensional del ADN por Watson y Crick en 1953 dejó claro que el ADN podía funcionar como portador de la información hereditaria (18).
El modelo propuesto por Watson y Crick concebía una estructura de doble hélice para explicar la forma de cruz de Malta de los patrones obtenidos por los estudios del ADN realizados por Franklin, Wilkins y Bragg a comienzos de los años 50 mediante cristalografía de rayos X. De acuerdo con el modelo de Watson y Crick, ahora bien conocido, las dos hebras de la hélice estaban hechas de moléculas de azúcar y fosfato unidas por enlaces fosfodiéster. Las bases nucleotídicas estaban unidas horizontalmente a los azúcares en cada una de las hebras de la hélice y a una base complementaria de la otra hebra para formar un “peldaño” interno en una “escalera” torsionada. Por razones geométricas, su modelo requería el apareamiento (a lo largo de la hélice) de adenina con timina y de citosina con guanina. Este emparejamiento complementario ayudaba a explicar una regularidad significativa en los ratios de la composición descubiertos por Chargaff. Aunque Chargaff había demostrado que ninguna de las cuatro bases nucleotídicas aparece con la misma frecuencia que los otros tres, él sí descubrió que las proporciones molares de adenina y timina, por un lado, y de citosina y guanina por el otro, son iguales de manera consistente (19).
El modelo de Watson y Crick explicaba la regularidad que Chargaff había expresado en sus famosos “ratios”.

El modelo de Watson y Crick dejó claro que el ADN podía tener una impresionante complejidad química y estructural. La estructura de doble hélice del ADN presuponía una estructura extremadamente larga y de alto peso molecular, con un impresionante potencial de variabilidad y complejidad en la secuencia. Tal y como explicaron Watson y Crick, “el esqueleto de azúcar-fosfato de nuestro modelo es completamente regular pero cualquier secuencia de pares de bases puede encajar en nuestra estructuras. De aquí se sigue que en una larga molécula son posibles muchas permutaciones diferentes y, por lo tanto, parece posible que la secuencia precisa de bases sea el código portador de la información genética” (20).
Tal y como sucedió con las proteínas, los sucesivos descubrimientos pronto demostraron que las secuencias de ADN no solo eran muy complejas sino también altamente específicas en lo relativo a sus requerimientos biológico-funcionales. El descubrimiento de la complejidad y la especificidad de las proteínas habían llevado a los investigadores a sospechar un papel funcional específico para el ADN. Los biólogos moleculares, que trabajaban al despuntar de los resultados de Sanger, suponían que las proteínas eran complejas en demasía (y también funcionalmente específicas) para surgir in vivo por azar. Además, dada su irregularidad, parecía imposible que una ley química general o una regularidad pudiese explicar su ensamblaje. En su lugar, como ha recordado Jacques Monod, los biólogos moleculares comenzaron a buscar una fuente de información o de “especificidad” en el interior de la célula que pudiera dirigir la construcción de estructuras tan complejas y tan altamente específicas. Para explicar la presencia de la especificidad y complejidad en la proteína, tal y como más tarde insistiría Monod, “necesitabais en todo caso un código” (21).
La estructura del ADN descubierta por Watson y Crick sugería un medio por el que la información o la especificidad podían codificarse a lo largo de la espiral del esqueleto de azúcar-fosfato (22).
Su modelo sugería que las variaciones en la secuencia de bases nucleotídicas pudieran encontrar expresión en la secuencia de aminoácidos que forman las proteínas. En 1955, Crick propuso la idea de la denominada hipótesis de secuencia. Según la hipótesis de Crick, la especificidad en el ordenamiento de los aminoácidos en la proteína deriva de la especificidad en el ordenamiento de las bases nucleotídicas en la molécula de ADN (23).
La hipótesis de secuencia sugería que las bases nucleotídicas en el ADN funcionaban como letras de un alfabeto o caracteres en una máquina de codificar. Del mismo modo como las letras de un alfabeto en un lenguaje escrito pueden realizar la función de comunicación dependiendo de su secuencia, igualmente podrían las bases nucleotídicas del ADN originar la producción de una molécula funcional de proteína dependiendo de su preciso ordenamiento secuencial. En ambos casos, la función depende de manera crucial de la secuencia. La hipótesis de secuencia implicaba no solo la complejidad sino también la funcionalidad específica de las bases de la secuencia de ADN.

A comienzos de los años 60, una serie de experimentos habían confirmado que las bases de la secuencia de ADN jugaban un papel crítico en la determinación de la secuencia de aminoácidos durante la síntesis de proteínas (24).
Por entonces, se conocieron los procesos y los mecanismos por los que la secuencia de ADN determina los pasos clave de dicha síntesis (por lo menos de manera general). La síntesis de proteínas o “expresión génica” procedía en primer lugar copiando largas cadenas de bases nucleotídicas durante un proceso conocido como transcripción. La copia resultante, un “transcrito”, fabricaba una hebra sencilla de “ARN mensajero” que ahora contenía una secuencia de bases de ARN que reflejaba con precisión la secuencia de bases de la hebra original de ADN. El transcrito era entonces transportado hasta un orgánulo complejo denominado ribosoma. En el ribosoma, el transcrito era “traducido” con ayudas de moléculas adaptadoras altamente específicas (llamadas ARN-transferentes) y de enzimas específicas (llamadas aminoacil ARNt sintetasas) para producir una cadena de aminoácidos en crecimiento (figura 1) (25).
En tanto que la función de la molécula de proteína deriva del ordenamiento específico de veinte tipos diferentes de aminoácidos, la función del ADN depende del ordenamiento de solo cuatro tipos de bases. Esta ausencia de correspondencia uno-a-uno implica que un grupo de tres bases nucleotídicas (un triplete) es necesario para especificar un solo aminoácido. En cualquier caso, el ordenamiento secuencial de las bases nucleotídicas determina (en gran parte) el ordenamiento unidimensional de los aminoácidos durante la síntesis de proteínas(26).
Ya que la función de la proteína depende de manera crítica de la secuencia de aminoácidos y la secuencia de aminoácidos depende críticamente de la secuencia de bases de ADN, las secuencias mismas de las regiones codificantes del ADN poseen un alto grado de especificidad en lo relativo a los requerimiento de la función de la proteína y de la célula.

TEORÍA DE LA INFORMACIÓN Y BIOLOGÍA MOLECULAR
Desde el comienzo de la revolución de la biología molecular, los biólogos asignaron al ADN, al ARN y a las proteínas la propiedad de transportar información. En la jerga de la biología molecular, la secuencia de bases del ADN contiene la “información genética” o las “instrucciones de ensamblaje” necesarias para dirigir la síntesis de proteínas. Sin embargo, el término información puede denotar varios conceptos teóricamente diferentes. Así, se puede preguntar en qué sentido se aplica “información” a estas grandes macromoléculas. Veremos que los biólogos moleculares emplean tanto un concepto más fuerte de la información que el que emplean los matemáticos y los teóricos de la información y una concepción del término ligeramente más débil que el que emplean los lingüistas y los usuarios ordinarios.

Durante los años 40, Claude Shannon, en los laboratorios Bell, desarrollo una teoría matemática de la información (27).
Su teoría equiparaba la cantidad de información transmitida con la cantidad de incertidumbre reducida o eliminada por una serie de símbolos o caracteres (28).
Por ejemplo, antes de echar a rodar un dado de seis caras, hay seis posibles resultados. Antes de lanzar una moneda, hay dos. Echar a rodar el dado por lo tanto eliminará más incertidumbre y, de acuerdo con la teoría de Shannon, transmitirá más información que lanzar una moneda. El igualar la información con la reducción de la incertidumbre implicaba una relación matemática entre información y probabilidad (o, de manera inversa, de la complejidad). Nótese que para un dado, cada resultado posible tiene un sexto de probabilidad de suceder, en comparación con un medio para cada cara de la moneda. Así, en la teoría de Shannon la ocurrencia del suceso más improbable transmite más información. Shannon generalizó esta relación diciendo que la cantidad de información transmitida por un suceso es inversamente proporcional a la probabilidad a priori de que ocurra. Cuanto mayor es el número de posibilidades, mayor es la improbabilidad de que uno tenga lugar y por tanto se transmite más información cuando sucede una posibilidad en particular.

Además, la información aumenta cuando las improbabilidades se multiplican. La probabilidad de obtener cuatro caras seguidas cuando se tira al aire una moneda no trucada es ½ x ½ x ½ x ½ o (½)4. Así, la probabilidad de obtener una secuencia específica de caras y/o cruces decrece exponencialmente cuando aumenta el número de intentos. La cantidad de información aumenta análogamente. Incluso así, los teóricos de la información hallan conveniente medir la información de manera aditiva antes que multiplicativa. Por tanto, la expresión matemática común (I=-log2p) para calcular la información convierte los valores de probabilidad en medidas de información gracias al negativo de una función logarítmica, en la que el signo negativo expresa la relación inversa entre información y probabilidad (29).
La teoría de Shannon se aplica del modo más sencillo a secuencias de signos o a caracteres alfabéticos que funcionan como tales. Dentro de un alfabeto dado de x caracteres posibles, la colocación de un carácter específico elimina x-1 posibilidades y en consecuencia la correspondiente cantidad de incertidumbre. Dicho con otras palabras, en un alfabeto o juego cualquiera dado de x caracteres posibles (donde cada carácter tiene una probabilidad igual de ocurrir), la probabilidad de que ocurra cualquier carácter es 1/x. Cuanto mayor es el valor de x, mayor es la cantidad de información que se transmite con la ocurrencia de un determinado carácter de la secuencia. En sistemas en los que el valor de x puede conocerse (o estimarse), como sucede en un código o en un lenguaje, los matemáticos pueden fácilmente generar estimas cuantitativas de la capacidad de transportar información. Cuanto mayor es el número de posibles caracteres en cada lugar y cuanto más larga es la secuencia de caracteres, mayor será la capacidad de transportar información –la información Shannon- asociada con la secuencia.

El carácter esencialmente digital de las bases nucleotídicas del ADN y los residuos de aminoácidos de las proteínas, permiten a los biólogos moleculares calcular la capacidad de llevar información (o información sintáctica) de aquellas moléculas mediante el nuevo formalismo de la teoría de Shannon. Debido a que, por ejemplo, en todos los sitios de una cadena de aminoácidos en crecimiento, dicha cadena puede añadir cualquiera de los veinte aminoácidos, la colocación de un único aminoácido elimina una cantidad cuantificable de incertidumbre y aumenta en una determinada cantidad la información sintáctica o de Shannon del polipéptido. De manera similar, ya que en una posición dada del esqueleto de ADN puede haber cualquiera de las cuatro bases con igual probabilidad, el valor de p para la ocurrencia de un nucleótido específico en ese sitio es ¼, ó 0.25 (30).
La capacidad de transmitir información de una secuencia de una determinada longitud n puede calcularse empleando la ya familiar expresión de Shannon (I=-log2p) una vez que se computa el valor de p para la ocurrencia de una secuencia particular de n nucleótidos de largo donde p=(¼)n. El valor de p da una medida correspondiente de la capacidad de llevar información o de información sintáctica de una secuencia de n bases nucleotídicas (31).

COMPLEJIDAD, ESPECIFICIDAD E INFORMACIÓN BIOLÓGICA
Aunque las ecuaciones y la teoría de Shannon abrieron una vía poderosa para medir la cantidad de información que puede transmitirse a través de un canal de comunicación, tienen importantes limitaciones. En particular, no distinguían –y no podían distinguir- las secuencias improbables de símbolos de aquellas que transmiten un mensaje. Tal y como aclaró Warren Weaver en 1949, “la palabra información se usa en esta teoría en un sentido matemático especial que no debe confundirse con su uso ordinario. En especial, la información no debe confundirse con el significado” (32).
La teoría de la información podía medir la capacidad de transportar información o la información sintáctica de una secuencia dada de símbolos pero no podía distinguir la presencia de un ordenamiento funcional o con significado de una secuencia aleatoria (por ejemplo “tenemos estas verdades por evidentes en sí” y “ntnyhiznlhteqkhgdsjh”). Así, la teoría de la información de Shannon podía cuantificar la cantidad de información funcional o significativa que pudiera estar presente en una secuencia de símbolos o de caracteres, pero no podía distinguir un texto funcional o que contuviera un mensaje respecto de una chapurreo aleatorio. Así, paradójicamente, las secuencias aleatorias de letras tienen a menudo más información sintáctica (o capacidad de contener información), medida según la teoría clásica de la información, de la que tienen secuencias funcionales con significado y con una cierta cantidad de redundancia intencional o de repeticiones.

En esencia, por lo tanto, la teoría de Shannon no dice nada sobre la importante cuestión de si una secuencia de símbolos tiene significado y es funcionalmente específica. Sin embargo, en su aplicación a la biología molecular, la teoría de la información de Shannon tuvo éxito en dar mediciones cuantitativas a grosso modo de la capacidad de transportar información o capacidad sintáctica (donde estos términos corresponden a medidas de complejidad bruta) (33).
Como tal, la teoría de la información ayudó a refinar la comprensión biológica de una característica importante de los componentes biomoleculares cruciales de los que depende la vida: el ADN y las proteínas son altamente complejas y cuantificables. Sin embargo, la teoría por sí misma no podía establecer si la secuencia de bases del ADN o los aminoácidos de las proteínas poseían la propiedad de especificidad funcional. La teoría de la información ayudó a establecer que el ADN y las proteínas podían llevar grandes cantidades de información funcional; no a establecer si realmente lo hacían.

La facilidad con la que la teoría de la información se aplicó a la biología molecular (para medir la capacidad de transportar información) ha provocado una confusión considerable sobre el sentido en el que el ADN y las proteínas contienen “información”. La teoría de la información sugería con fuerza que tales moléculas poseen una vasta capacidad de llevar información o una gran capacidad de información sintáctica, según la define la teoría de Shannon. Sin embargo, cuando los biólogos moleculares describieron el ADN como portador de la información hereditaria, se referían a algo muy superior al término información, tan limitado técnicamente. En su lugar, todo lo más en 1958, como señala Sahotra Sarkar, los más destacados biólogos moleculares definieron la información biológica para incorporar la noción de especificidad de función (y también la de la complejidad) (34).
Los biólogos moleculares como Monod y Crick entendían la información –almacenada en el ADN y las proteínas- como algo más que la mera complejidad (o improbabilidad). En realidad, su idea de información asociaba con las secuencias de ADN tanto la contingencia bioquímica como la complejidad combinatoria (permitiendo que la capacidad transportadora del ADN pudiera calcularse), pero también admitían que las secuencias de nucleótidos y de aminoácidos de las biomacromoléculas funcionales poseían un alto grado de especificidad en relación con el mantenimiento de la estructura celular. Tal y como Crick explicó en 1958, “por información entiendo la especificidad de la secuencia de aminoácidos de la proteína... Información significa aquí la determinación precisa de la secuencia, tanto de las bases del ácido nucleico como de los residuos de aminoácido de la proteína” (35).
Desde finales de los años 50, los biólogos han identificado “la determinación precisa de la secuencia” con la propiedad teorética, al margen de la información, de especificidad o especificación. Los biólogos han definido la especificidad tácitamente, como “necesaria para conseguir o mantener la función”. Por ejemplo, han determinado que las secuencias de bases de ADN son específicas, no tanto por aplicar la teoría de la información sino por hacer una valoración experimental de la función de esas secuencias dentro del conjunto del aparato de expresión génica (36).
Consideraciones similares de tipo experimental determinaron la especificidad funcional de las proteínas.

Más adelante, los avances de la teoría de la complejidad han hecho posible una explicación general plenamente teórica de la especificación, que se aplica fácilmente a los sistemas biológicos. En concreto, los trabajos recientes del matemático William Dembski utilizan la noción estadística de región de rechazo para proporcionar una explicación formal, compleja y teórica de la especificación. De acuerdo con Dembski, hay especificación cuando un sujeto o un objeto (a) cae dentro de un patrón o dominio dado de manera independiente, (b) “coincide” o ejemplifica un patrón condicionalmente independiente o (c) satisface un conjunto condicionalmente independiente de requerimientos funcionales (37).
Para ilustrar la noción de Dembski acerca de la especificación, considérense dos series de caracteres:

“iuinsdysk]idfawqnzkl,mfdifhs”
“el tiempo y la marea no esperan a nadie”

Dado el número de posibles maneras de ordenar las letras y los signos de puntuación de la lengua inglesa para secuencias de esta longitud, ambas secuencias constituyen ordenamientos de caracteres altamente improbables. Por tanto, ambos tienen una considerable capacidad de transportar información cuantificable. Sin embargo, solo la segunda de las dos secuencias muestra especificación de acuerdo con el modelo de Dembski. Para ver por qué, considérese lo siguiente. Dentro del conjunto de secuencias combinatorias posibles, solo unas pocas transmiten significado. Este reducido conjunto de secuencias con significado, por lo tanto, delimita un dominio o patrón dentro del conjunto más numeroso de la totalidad de posibilidades. Además, este conjunto constituye un patrón “condicionalmente independiente”. Dicho con mayor claridad, un patrón condicionalmente independiente corresponde a un patrón preexistente o conjunto funcional de requerimientos, y no a uno concebido después de observar el hecho en cuestión – en este caso en concreto, el suceso de observar las dos secuencias anteriores (38).
Ya que el dominio más pequeño distingue entre secuencias de inglés funcionales y no funcionales y la funcionalidad de las secuencias alfabéticas depende de los convenios preexistentes o independientes del vocabulario y la gramática del inglés, el conjunto o dominio más pequeño adquiere la calificación de patrón condicionalmente independiente (39).
Dado que la segunda serie de caracteres (“el tiempo y la marea no esperan...”) cae dentro de este reducido dominio condicionalmente independiente (o “coincide” con una de las posibles oraciones con significado que caen en él), la segunda secuencia muestra una especificación de acuerdo con el modelo teorético-complejo de Dembski. Aquella secuencia, por lo tanto, presenta conjuntamente las propiedades de complejidad y especificación y posee no solo la capacidad de transmitir información sino también información “específica” y, en este caso, semántica.

Los organismos biológicos también muestran especificidades, pero no necesariamente unas semántica o subjetivamente “significativas”. Las secuencias de bases nucleotídicas de las regiones codificantes del ADN son altamente significativas en relación con los requisitos independientemente funcionales de la función de la proteína, de la síntesis de proteínas y de la vida celular. Para mantener la viabilidad, la célula debe regular su metabolismo, meter y sacar materiales a través de la membrana, destruir deshechos y realizar otras funciones específicas. Cada uno de estos requisitos funcionales necesita por el contrario constituyentes, máquinas o sistemas moleculares específicos (normalmente construidos con proteínas) para realizar estas tareas. La construcción de estas proteínas de acuerdo con su forma específica tridimensional requiere ordenamientos específicos de bases nucleotídicas en la molécula de ADN.

Dado que las propiedades químicas del ADN permiten un vasto conjunto de ordenamientos combinatorios posibles de bases nucleotídicas, cualquier secuencia particular será por fuerza altamente improbable y rica en información Shannon o en capacidad de transmitir información. Sin embargo dentro del conjunto de posibles secuencias muy pocas producirán proteínas funcionales, dado el sistema multimolecular de expresión génica situado en el interior de la célula (40).
Aquellos que sí lo hacen, son no solo improbables sino también funcionalmente “especificadas” o “específicas”, como dicen los biólogos. Ciertamente, el reducido conjunto de secuencias funcionalmente eficaces delimita nuevamente un dominio o patrón dentro de un conjunto mayor de posibilidades combinatorias. Además, este pequeño dominio constituye un patrón condicionalmente independiente ya que (como ocurre con las secuencias en inglés anteriores) diferencia secuencias funcionales y no funcionales, y la funcionalidad de las secuencias de bases nucleotídicas depende de los requisitos independientes de la función de la proteína. Así, cualquier secuencia de bases nucleotídicas verdadera que cae dentro de este dominio (o que “coincide” con una de las posibles secuencias funcionales que caen dentro de él) muestra especificación. Dicho de otra manera, cualquier secuencia de bases que produce una proteína funcional satisface claramente ciertos requisitos funcionalmente independientes, en especial, los de la función de la proteína. Así, cualquier secuencia que satisface tales requisitos (o “que cae dentro del conjunto más pequeño de secuencias funcionales”) es nuevamente no solo altamente improbable sino también específica en relación a ese patrón o dominio independiente. Por tanto, las secuencias nucleotídicas en las regiones codificantes de ADN poseen tanto información sintáctica como información “específica”.

Hay que hacer una aclaración acerca de la relación entre información “específica” e información “semántica”. Aunque los lenguajes naturales y la secuencia de bases del ADN son ambas específicas, solo los lenguajes naturales transmiten significado. Si se define la “información semántica” como “información subjetivamente significativa que es transmitida sintacticamente (en forma de serie de fonemas o caracteres) y es entendida por un agente consciente”, entonces claramente la información del ADN no puede calificarse de semántica. A diferencia del lenguaje escrito o hablado, el ADN no transmite “significado” a un agente consciente.

Más bien, las regiones codificantes del ADN funcionan de manera muy parecida a un programa de software o al código de una máquina, dirigiendo operaciones dentro de un sistema material complejo a través de secuencias de caracteres altamente complejas y sin embargo específicas. Como ha señalado Richard Dawkins “el código de máquina de los genes es increíblemente parecido al de una computadora” (41) como ha notado el diseñador de software Bill Gates, “el ADN es como un programa de computadora pero mucho, mucho más avanzado que ninguno que hayamos creado” (42).
Del mismo modo que con el ordenamiento específico de dos símbolos (0 y 1) en un programa de ordenador se puede realizar una función en un entorno de máquina, también la secuencia precisa de las cuatro bases del ADN pueden realizar una función dentro de la célula.

Aunque las secuencias de ADN no transmiten “significado”, muestran especificidad o especificación. Además, como sucede en el código de máquina, la especificidad de secuencia del ADN sucede dentro de un dominio sintáctico (o funcionalmente alfabético). Así, el ADN contiene información tanto sintáctica como específica. En cualquier caso, desde los últimos años 50, el concepto de información, tal y como lo emplean los biólogos moleculares, ha fusionado las nociones de complejidad (o improbabilidad) y especificidad de función. Los constituyentes biomoleculares cruciales de los organismos vivos contienen no solo información sintáctica o Shannon sino también “información específica” o “complejidad específica” (43).
Por tanto, la información biológica así definida constituye una característica principal de los sistemas vivos cuyo origen debe explicar cualquier modelo acerca del origen de la vida. Además, como veremos más adelante, todas las teorías naturalistas de la química evolutiva han hallado dificultad al explicar el origen de semejante información biológica funcionalmente “especificada”.

LA INFORMACIÓN COMO METÁFORA: ¿NADA QUE EXPLICAR?
Aunque la mayoría de lo biólogos moleculares no tendrían problema en designar al ADN y a las proteínas como moléculas “transportadoras de información”, algunos historiadores y filósofos de la biología han desafiado recientemente esta descripción. Antes de evaluar las diferentes tipos de explicación del origen de la información biológica en liza, hay que ocuparse de esta cuestión. En el año 2000, la difunta historiadora de la ciencia Lily Kay calificó de fracaso la aplicación de la teoría de la información a la biología, en especial porque la teoría clásica de la información no podía captar el concepto de significado. Ella sugería que el término información, tal y como se usaba en biología, constituía nada más que una metáfora. Dado que, en la perspectiva de Kay, el término no designaba nada real, se deducía que el origen de la “información biológica” no necesitaba explicación alguna. En su lugar, solo necesita explicación el origen del uso del término información. Como constructivista social, Kay explicaba su utilización como resultado de varias fuerzas sociales que operaban en el interior de la “guerra fría tecnocultural” (44).
De manera diferente pero relacionada, Sarkar había argumentado que el concepto de información tenía poco significado teórico en biología porque carecía de poder predictivo o explicativo (45).
Al igual que Kay, parecía considerar el concepto de información como una metáfora superflua sin referencia empírica ni estatus ontológico.

Por supuesto, en tanto que el término información tiene connotación de significado semántico, funciona como metáfora dentro de la biología. Sin embargo, esto no quiere decir que el término funcione solo metafóricamente o que los biólogos del origen de la vida no tengan nada que explicar. Aunque la teoría de la información tiene una aplicación limitada para describir los sistemas biológicos, ha tenido éxito en proporcionar estimas cuantitativas de la complejidad de la biomacromoléculas. Además, trabajos experimentales han establecido la funcionalidad específica de las secuencias de monómeros en el ADN y en las proteínas. Así, el término información tal y como se usa en biología se refiere a dos propiedades reales y contingentes de los sistemas vivos: complejidad y especificidad. Ciertamente, desde que los científicos han comenzado a pensar seriamente en lo que sería necesario para explicar el fenómeno de la herencia, han reconocido la necesidad de alguna característica o sustancia en los organismos vivos que posee precisamente estas dos propiedades conjuntamente. Así, Schrödinger concibió su “cristal aperiódico”; Chargaff se percató de la capacidad del ADN para formar “secuencias complejas”; Watson y Crick asimilaron las secuencias complejas con la “información” y a su vez Crick la equiparó a “complejidad”; Monod asimiló la especificidad irregular de las proteínas a la necesidad de “un código” y Orgel calificó la vida de “complejidad específica” (46).
Además, Davies ha aducido recientemente que la “aleatoriedad específica” de la secuencia de bases del ADN constituye el misterio central en torno al origen de la vida (47).
Cualquiera que sea la terminología, los científicos han reconocido la necesidad de conocer la localización y la fuente de complejidad específica en la célula a fin de transmitir la herencia y mantener la función biológica. La idea subyacente de estos conceptos descriptivos sugiere que la complejidad y la especificidad constituyen propiedades reales de las biomacromoléculas –en realidad, de propiedades que pudieran ser de otra manera pero solo en detrimento de la vida celular. Como observa Orgel: “los organismos vivos se distinguen por su complejidad específica. Los cristales... no cumplen los requisitos de los seres vivos porque carecen de complejidad; las mezclas de polímeros aleatorios tampoco cumplen los requisitos de los seres vivos porque carecen de especificidad” (48).
Por tanto el origen de la especificidad y de la complejidad (combinadas), al que se refiere comúnmente en biología el término información, necesita explicación incluso si el concepto de información tiene la connotación de complejidad de la teoría clásica de la información e incluso si no tiene valor explicativo o predictivo por sí mismo. En cambio, como concepto descriptivo (más que explicativo o predictivo), el término información ayuda a definir (junto con la noción de especificidad o comprendido en ella) el origen de lo que los investigadores del origen de la vida quieren explicar. Así, solo donde la información tiene connotación de significado subjetivo, funciona en biología como metáfora. Donde se refiere a una analogía del significado, a saber, la especificidad funcional, define una característica esencial de los sistemas vivos.

EXPLICACIONES NATURALISTAS DEL ORIGEN DE LA INFORMACIÓN BIOLÓGICA ESPECÍFICA
Los descubrimientos de los biólogos moleculares durante los años 50 y 60 suscitaron la pregunta por el origen último de la complejidad específica o información específica tanto en el ADN como en las proteínas. Por lo menos desde mediados de los años 60, muchos científicos han considerado el origen de la información (así definida) como la cuestión central con que se enfrentaba la biología del origen de la vida(49).
Según esto, los investigadores del origen de la vida han propuesto tres grandes tipos de explicaciones naturalistas para explicar el origen de la información genética específica; los que hacen hincapié en el azar, en la necesidad o en la combinación de ambos.

MÁS ALLÁ DEL ALCANCE DEL AZAR
Quizás el punto de vista naturalista más popular acerca del origen de la vida es que éste tuvo lugar exclusivamente por azar. Unos pocos científicos serios han manifestado su apoyo a este punto de vista, por lo menos en varias ocasiones a lo largo de sus carreras. En 1954, por ejemplo el bioquímico George Wald argumentó a favor de la eficiencia causal del azar en conjunción con vastos períodos de tiempo. Tal y como él explicó, “el tiempo es de hecho el héroe del plan... Dado tanto tiempo, lo imposible se convierte en posible, lo posible se hace probable y lo probable virtualmente cierto” (50).
Más tarde, en 1968, Francis Crick sugeriría que el origen del código genético –es decir, el sistema de traducción- podría ser “un accidente congelado” (51).
Otras teorías han invocado el azar como explicación del origen de la información genética, aunque a menudo, en conjunción con la selección natural prebiótica.

Casi todos los investigadores serios del origen de la vida consideran ahora el “azar” una explicación causal inadecuada para el origen de la información biológica (52).
Desde que los biólogos moleculares comenzaron a apreciar la especificidad de secuencia de proteínas y ácidos nucleicos durante los años 50 y 60, se han realizado muchos cálculos para determinar la probabilidad de formular proteínas y ácidos nucleicos funcionales al azar. Morowitz, Hoyle y Wickramasinghe, Cairns-Smith, Prigogine, Yockey y, más recientemente, Robert Sauer han elaborado varios métodos para calcular probabilidades (53).
Pongamos por caso que estos cálculos han supuesto a menudo condiciones prebióticas extremadamente favorables (tanto si eran realistas como si no), mucho más tiempo del que realmente disponía la tierra en sus inicios, y tasas de reacción teóricamente máximas entre los monómeros constituyentes (es decir, entre las partes constituyentes de proteínas, ADN o ARN). Tales cálculos han mostrado invariablemente que la probabilidad de obtener biomacromoléculas secuenciadas funcionales al azar es, en palabras de Prigogine, “infinitamente pequeña... incluso en las escala de... billones de años” (54).
Como escribió Cairns-Smith en 1971, “el azar ciego... es muy limitado. Puede producir [el azar ciego] con extrema facilidad cooperación de bajo nivel [el equivalente a letras y pequeñas palabras], pero se vuelve rápidamente incompetente cuando la cantidad de organización aumenta. Ciertamente, muy pronto los largos tiempos de esperas y los recursos materiales masivos se convierten en irrelevantes” (55).
Considérese las dificultades probabilísticas que deben superarse para construir incluso una proteína corta de 100 aminoácidos de longitud. (Una proteína típica consiste en unos 300 residuos aminoacídicos, y muchas proteínas cruciales son más largas).

En primer lugar, todos los aminoácidos deben formar un enlace químico conocido como enlace peptídico al unirse a otros aminoácidos de la cadena proteica. Sin embargo, en la naturaleza son posibles otros muchos tipos de enlace químico entre aminoácidos; de hecho, los enlaces peptídicos y no peptídicos se dan con más o menos la misma probabilidad. Así, dado un sitio cualquiera de la cadena de aminoácidos en crecimiento, la probabilidad de obtener un enlace peptídico es aproximadamente ½. La probabilidad de obtener cuatro enlaces peptídicos es (½ x ½ x ½ x ½) = 1/16 o bien (½)4. La probabilidad de construir una cadena de 100 aminoácidos en la cual todos los enlaces impliquen enlaces peptídicos es (½)99, o aproximadamente 1 en 1030.

En segundo lugar, todos los aminoácidos que se encuentran en las proteínas (con una excepción) tienen una imagen especular diferente de sí mismos, una versión orientada a la izquierda, o forma L, y una orientada a la derecha, o forma D. Estas imágenes especulares se denominan isómeros ópticos. Las proteínas funcionales solo admiten aminoácidos orientados a la izquierda, sin embargo tanto los orientados a la derecha como los orientados a la izquierda se originan en las reacciones químicas (productoras de aminoácidos) con aproximadamente la misma probabilidad. Al tomar esta “quiralidad” en consideración aumenta la improbabilidad de obtener una proteína biológicamente funcional. La probabilidad de obtener al azar solo aminoácidos L en una cadena peptídica hipotética de 100 aminoácidos de longitud es (½)100 o de nuevo aproximadamente 1 entre 1030. Partiendo de mezclas de formas D- y L-, la probabilidad de construir al azar una cadena de 100 aminoácidos de longitud en la que todos los enlaces sean enlaces peptídicos y todos los aminoácidos sean formas L es, por lo tanto, aproximadamente 1 entre 1060.

Las proteínas funcionales tienen un tercer requisito independiente, el más importante de todos; sus aminoácidos deben enlazarse en un ordenamiento específico secuencial, tal y como deben hacerlo las letras en una frase con significado. En algunos casos, incluso el cambio de un aminoácido en un determinado lugar provoca la pérdida de funcionalidad en la proteína. Además, debido a que biológicamente se dan veinte aminoácidos, la probabilidad de obtener un determinado aminoácido en un sitio determinado es pequeña – 1/20. (En realidad la probabilidad es incluso menor porque la naturaleza existen muchos aminoácidos que no forman proteínas). Bajo el supuesto de que todos los sitios de una cadena de proteína requieren un aminoácido en particular, la probabilidad de obtener una determinada proteína de 100 aminoácidos de longitud sería (1/2)100 o aproximadamente 1 entre 10130. Sin embargo, ahora sabemos que algunos sitios a lo largo de la cadena toleran varios de los aminoácidos que se hallan comúnmente en las proteínas pero otros no. El bioquímico del MIT Robert Sauer ha utilizado la técnica conocida como “mutagénesis en cassette” para determinar cuanta varianza entre aminoácidos puede tolerarse en una posición dada de varias proteínas. Sus resultados implican que, incluso teniendo en cuenta la posibilidad de variación, la probabilidad de conseguir una secuencia funcional de aminoácidos en varias proteínas aleatorias conocidas (de aproximadamente 100 aminoácidos) es todavía “infinitamente pequeña”, de 1 entre 1065 aproximadamente (56).
(Hay 1065 átomos en nuestra galaxia)57. Recientemente, Douglas Axe, de la Universidad de Cambridge, ha utilizado una técnica de mutagénesis refinada para medir la especificidad de secuencia de la proteína barnasa, una RNasa bacteriana. El trabajo de Axe sugiere que en realidad los experimentos previos de mutagénesis subestimaron la sensibilidad funcional de las proteínas al cambio de aminoácidos en la secuencia porque presuponían (de modo incorrecto) la independencia de contexto de los cambios de residuo individuales (58).
Si, además de la improbabilidad de obtener una secuencia apropiada, se considera la necesidad de enlaces adecuados y de homoquiralidad, la probabilidad de construir una proteína funcional bastante corta por azar se hace tan pequeña (no más de 1 en 10125) como para aparecer absurda bajo la hipótesis aleatoria. Como ha dicho Dawkins, “podemos aceptar cierta cantidad de suerte en nuestras explicaciones pero no demasiada” (59).
Lógicamente, la afirmación de Dawkins da por sentada una cuestión cuantitativa, a saber, “¿cómo de improbable tiene que ser un suceso, una secuencia o un sistema antes de que la hipótesis del azar pueda ser razonablemente eliminada?”. Esta pregunta ha recibido hace poco una respuesta formal. William Dembski, continuando y refinando el trabajo de probabilistas anteriores como Emile Borel, ha demostrado que el azar puede ser eliminado como explicación plausible para sistemas específicos de escasa probabilidad cuando la complejidad de un suceso o secuencia específicos supera los recursos probabilísticos disponibles (60).
Dembski calcula entonces una estima conservadora del “límite de probabilidad universal” en 1 entre 10150, que corresponde a los recursos probabilísticos del universo conocido. Este número proporciona la base teórica para excluir las apelaciones al azar como la mejor explicación de sucesos específicos de probabilidad menos que ½ x 10150. Así, Dembski contesta la pregunta de cuanta suerte –para un caso dado- puede invocarse como explicación.

De manera significativa, la improbabilidad de construir y secuenciar incluso una proteína funcional corta se acerca a este límite de probabilidad universal –el punto en el que las apelaciones al azar se convierten en absurdas dados los “recursos probabilísticos” del todo el universo (61).
Además, haciendo el mismo tipo de cálculo para proteínas moderadamente largas lleva estas mediciones bastante más allá del límite. Por ejemplo, la probabilidad de generar una proteína de solo 150 aminoácidos de longitud (utilizando el mismo método que antes) es menos de 1 en 10180, bastante más allá de las estimas más conservadoras del límite de probabilidad, dada la edad multimillonaria de nuestro universo (62).
Así, supuesta la complejidad de las proteínas, es extremadamente imposible que una búsqueda aleatoria en el espacio de secuencias de aminoácidos posibles, desde el punto de vista combinatorio, pudiera generar incluso una proteína funcional relativamente corta en el tiempo disponible desde el comienzo del universo (pero ni mucho menos la edad de la tierra). Por el contrario, para tener una posibilidad razonable de encontrar una proteína funcional corta en una búsqueda al azar del espacio combinatorio requeriría enormemente más tiempo del que permiten la geología o la cosmología.

Cálculos más realistas (que tienen en cuenta la presencia probable de aminoácidos no proteicos, la necesidad de proteínas más largas para realizar funciones específicas como la polimerización, y la necesidad de cientos de proteínas trabajando en coordinación para producir una célula funcional) solo aumentan estas improbabilidades, incluso más allá de lo computable. Por ejemplo, recientes trabajos experimentales y teóricos sobre la denominada complejidad mínima requerida para mantener el organismo viviente más simple posible sugieren un límite inferior de entre 250 y 400 genes y sus correspondientes proteínas (63).
El espacio de secuencias de nucleótidos correspondiente a tal sistema de proteínas excede de 4300,000. La improbabilidad que corresponde a esta medida de complejidad molecular de nuevo excede enormemente el 1 entre 10150 y por tanto los “recursos probabilísticos” de todo el universo64. Cuando se considera todo el complemento de biomoléculas funcionales requerida para mantener la mínima función celular y la vitalidad, puede verse porqué las teorías sobre el origen de la vida basadas en el azar han sido abandonadas. Lo que Mora dijo en 1963 todavía se mantiene:

“las consideraciones estadísticas, la probabilidad, la complejidad, etc, seguidas hasta sus implicaciones lógicas sugieren que el origen y continuación de la vida no está controlado por tales principios. Admitir esto significa utilizar un período de tiempo prácticamente infinito para obtener el resultado derivado. Sin embargo, utilizando esta lógica, podemos probar cualquier cosa” (65).

Aunque la probabilidad de construir solo por azar una biomolécula o una célula operativa es enormemente pequeña, es importante enfatizar que los científicos no han rechazado genéricamente la hipótesis aleatoria meramente debido a la enorme improbabilidad asociada a estos sucesos. Toda mano de cartas o todo dado echado a rodar representará un suceso altamente improbable. Los observadores atribuyen a menudo con justificación tales eventos tan solo al azar. Lo que justifica la eliminación del azar no es solo la ocurrencia de un suceso altamente improbable sino también la ocurrencia de un suceso improbable que solo se conforma a un patrón discernible (es decir, a un patrón condicionalmente independiente; véase parte I, sección E). Si alguien echa a rodar repetidas veces dos dados y resulta la secuencia 9, 4, 11, 2, 6, 8, 5, 12, 9, 2, 6, 8, 9, 3, 7, 10, 11, 4, 8, y 4 nadie sospechará nada salvo la interacción de fuerzas aleatorias aunque esta secuencia representa un suceso muy improbable dado el número de combinaciones posibles que corresponden a una secuencia de esta longitud. Sin embargo, sacar 20 sietes consecutivos (y con toda seguridad 200) despertará con toda justicia la sospecha de que algo más que el azar está actuando. Los estadísticos han empleado desde hace tiempo un método para determinar cuando eliminar la hipótesis aleatoria; el método requiere un patrón especificado con antelación o “región de rechazo” (66).
En el ejemplo anterior del dado, puede especificarse previamente que la sucesión de sietes repetidos es tal patrón, a fin de detectar el empleo de un dado trucado. Dembski ha generalizado este método para demostrar como la presencia de cualquier patrón condicionalmente independiente, tanto si es temporalmente previo a la observación del suceso como si no, puede ayudar (en conjunción con un suceso de probabilidad pequeña) a justificar el rechazo de la hipótesis aleatoria (67).
Los investigadores del origen de la vida han empleado tácitamente –y a veces de manera explícita - este modo de razonamiento estadístico para justificar la eliminación de situaciones que dependen fuertemente del azar. Por ejemplo, Christian de Duve ha explicitado esta lógica para explicar por qué el azar falla como explicación del origen de la vida:

“un suceso simple, raro y altamente improbable es concebible que suceda. Muchos sucesos altamente improbables –como sacar el número premiado de la lotería o la distribución de buenas cartas en una mano de “bridge” suceden todo el tiempo. Pero una sucesión de eventos improbables -sacar el mismo número de la lotería dos veces o la misma mano de “bridge” dos veces en una mano—no suceden de manera natural” (68).

De Duve y otros investigadores del origen de la vida han reconocido hace tiempo que la célula representa no solo un sistema altamente improbable sino también un sistema funcionalmente específico. Por esta razón, a mediados de los años 60, la mayoría de los investigadores habían eliminado el azar como explicación plausible del origen de la información específica necesaria para construir una célula (69).
En cambio muchos han buscado otros tipos de explicación naturalista.

SELECCIÓN NATURAL PREBIÓTICA: UNA CONTRADICCIÓN EN LOS TÉRMINOS
Lógicamente, muchas de las primeras teorías de la evolución química no descansaban exclusivamente en el azar como mecanismo causal. Por ejemplo, la teoría original de la abiogénesis evolutiva de Oparin, publicada por vez primera en los años 20 y 30, invocaba la selección natural prebiótica como complemento de las interacciones del azar. La teoría de Oparin preveía una serie de reacciones químicas que él creía que podían lograr que una célula compleja se construyera a sí misma, gradualmente y de modo naturalista, a base de precursores químicos simples.

En la primera fase de la evolución química, Oparin propuso que los gases simples como el amonio (NH3), el metano (CH4), el vapor de agua (H2O), el dióxido de carbono (CO2) y el hidrógeno (H2) habrían existido en contacto con los océanos primitivos y con compuestos metálicos surgidos del núcleo terrestre (70).
Con ayuda de la radiación ultravioleta del sol, las reacciones subsiguientes habrían producido compuestos hidrocarbonatos ricos en energía. Sucesivamente, ellos se habrían combinado y recombinado con varios compuestos para dar lugar a aminoácidos, azúcares y otros “bloques de construcción” de moléculas complejas, como son las proteínas necesarias para las células vivientes. Estos componentes se habrían ordenado finalmente a sí mismos por azar para dar sistemas metabólicos primitivos dentro de recintos cerrados similares a las células que Oparin denominó coacervados. Oparin propuso una especie de competición darwiniana por la supervivencia entre estos coacervados. Aquellos que, por azar, desarrollaran moléculas y procesos metabólicos crecientemente complejos habrían sobrevivido para crecer más compleja y eficientemente. Aquellos que no lo hicieran se habrían disuelto (71).
Así, Oparin invocó la supervivencia diferencial o selección natural como el mecanismo por el que se preservan sucesos crecientemente complejos, ayudando presuntamente así a vencer los problemas que suscitaban las hipótesis puramente aleatorias.

Los desarrollos de la biología molecular durante los años 50 arrojaron dudas sobre la perspectiva prevista por Oparin. Originalmente, Oparin invocaba a la selección natural para explicar como las células refinaban el metabolismo primitivo una vez que habían surgido. Su escenario descansaba de modo contundente en el azar para explicar la formación inicial de los constituyentes biomacromoleculares de los que dependería incluso el metabolismo celular primitivo. El descubrimiento durante los años 50 de la complejidad extrema de tales moléculas socavó lo plausible de esta pretensión. Por esta y otras razones, Oparin publicó una versión revisada de su teoría en 1968, que concebía para la selección natural un papel anterior en el proceso de abiogénesis. Su nueva teoría afirmaba que la selección natural actuaba sobre polímeros aleatorios a medida que estos se formaban y cambiaban dentro de las coacervados protocelulares (72).
A medida que se acumulaban moléculas más complejas y eficientes, habrían sobrevivido y se habrían reproducido de modo más prolífico.

Incluso así, el concepto opariniano de la selección natural prebiótica actuando sobre biomacromoléculas inicialmente inespecíficas siguió siendo problemático. En primer lugar, parecía presuponer un mecanismo preexistente de autorreplicación. Sin embargo, la autorreplicación en todas las células existentes depende de proteínas y ácidos nucleicos funcionales y, por tanto, (en alto grado) de secuencia específica. No obstante, el origen de la especificidad de estas moléculas es precisamente lo que Oparin necesitaba explicar. Como afirmó Christian de Duve, las teorías de la selección natural prebiótica “necesitan una información que implica presuponer lo que primeramente debiera ser explicado” (73).
Oparin intentó obviar el problema afirmando que los primeros polímeros no necesitaban ser altamente específicos en su secuencia. Pero esta afirmación suscitó dudas acerca de si un mecanismo preciso de autorreplicación (y en consecuencia la selección natural) pudiera funcionar en absoluto. La perspectiva tardía de Oparin no consideraba un fenómeno denominado error o catástrofe, en el que pequeños errores, o desviaciones de las secuencias funcionalmente necesarias, son rápidamente amplificados en replicaciones sucesivas (74).

Así, la necesidad de explicar el origen de la información específica originó para Oparin un dilema intratable. Por un lado, si invocaba la selección natural al final de su modelo, necesitaría basarse en el puro azar para producir las biomoléculas altamente complejas y específicas necesarias para la autorreplicación. Por otro lado, si Oparin invocaba la selección natural al principio del proceso de evolución química, antes de que la especificidad funcional de las biomacromoléculas aparecieran, no podría explicar como podría funcionar la selección natural prebiótica (dada la existencia del fenómeno error-catástrofe). La selección natural presupone un sistema autorreplicativo pero la autorreplicación necesita proteínas y ácidos nucleicos (o moléculas de complejidad parecida) en funcionamiento, las mismas entidades que Oparin necesitaba explicar. Por eso, Dobzhansky insistió en que “la selección natural prebiológica es una contradicción en los términos” (75).
Aunque algunos rechazaron la hipótesis de la selección natural preobiótica como autojustificativa, otros la desecharon por indistinguible respecto de la implausible hipótesis basada en el azar (76).
La obra del matemático John von Neumann apoyaba esta opinión. Durante los años 60, von Neumann demostró que todo sistema capaz de autorreplicarse requeriría subsistemas que fueran funcionalmente equivalentes a los sistemas de almacenamiento, reinformación, replicación y procesado de las células existentes (77).
Sus cálculos establecieron un umbral mínimo muy alto para la función biológica, del mismo modo que haría más tarde el trabajo experimental (78).
Estos requerimientos de complejidad mínima plantean una dificultad fundamental para la selección natural. La selección natural selecciona ventajas funcionales. Por tanto, no puede jugar ningún papel hasta que las variaciones aleatorias produzcan algún ordenamiento biológicamente ventajoso de importancia. Sin embargo, los cálculos de von Neumann y otros similares de Wigner, Landsberg y Morowitz demostraron que con toda probabilidad las fluctuaciones aleatorias de moléculas no producirían la complejidad mínima necesaria para un sistema de replicación primitivo (79).
Como hemos señalado anteriormente, la improbabilidad de desarrollar un sistema de replicación funcionalmente integrado excede enormemente la de desarrollar los componentes proteicos o de ADN de estos sistemas. Dada la gigantesca improbabilidad y el elevado umbral funcional que implica, muchos investigadores de origen de la vida han acabado considerando la selección natural prebiótica inadecuada y esencialmente indistinguible de las invocaciones al azar.

Sin embargo, durante los años 80, Richard Dawkins y Bernd-Olaf Kuppers intentaron resucitar la selección natural prebiótica como explicación del origen de la información biológica (80).
Ambos aceptan la inutilidad de las simples apelaciones al azar e invocan lo que Kuppers denomina “principio darwiniano de optimización”. Los dos utilizan ordenadores para demostrar la eficacia de la selección natural prebiótica. Los dos seleccionan una determinada secuencia para representar el polímero funcional deseado. Después de crear un montón de secuencias aleatorias y generar variaciones entre ellas al azar, sus ordenadores seleccionan aquellas secuencias que con mayor coincidencia respecto de la secuencia elegida. Luego el ordenador amplifica la producción de secuencias semejantes, elimina las demás (para seleccionar la reproducción diferencial) y repite el proceso. Como dice Kuppers, “toda secuencia mutante que se aproxima un poco más a la secuencia significativa o de referencia... tendrá permiso para reproducirse más rápidamente” (81).
En este caso, después de tan solo treinta y cinco generaciones, su ordenador tuvo éxito en deletrear la secuencia de referencia: “NATURAL SELECTION”.

Pese a los superficiales e impresionantes resultados, tales “simulaciones” ocultan un fallo obvio: las moléculas in situ no tienen “en mente” una secuencia de referencia. Tampoco conferirán ventaja selectiva alguna a una célula, para reproducirse diferencialmente, hasta que se combinen en un ordenamiento funcionalmente ventajoso. Por tanto, nada en la naturaleza se corresponde con el papel que el ordenador desempeña al seleccionar secuencias funcionalmente no ventajosas que concuerdan “un poco mejor” que otras con la secuencia de referencia. La secuencia NORMAL ELECTION puede concordar más con NATURAL SELECTION que con MISTRESS DEFECTION pero ninguna de las dos tiene ventaja sobre la otra para intentar comunicar nada de NATURAL SELECTION. Si este es el objetivo, ambas son igualmente incapaces. Lo que es más importante, un polipéptido completamente no funcional no conferiría ventaja selectiva a una hipotética protocélula, incluso si su secuencia coincidiera con una proteína de referencia inexistente “un poco más” que otro péptido no funcional.

Los resultados de sus simulaciones, publicados por Kuppers y Dawkins, muestran las primeras generaciones de variaciones de frases inundadas de un galimatías no funcional (82).
En la simulación de Dawkins no aparece una sola palabra inglesa funcional hasta después de la décima iteración (a diferencia del ejemplo anterior, más generoso, que comienza con auténticas aunque incorrectas palabras). No obstante, distinguir por su función entre secuencias que no tienen función es totalmente irreal. Tales distinciones solo pueden hacerse si se permite considerar la proximidad a una posible función futura, pero esto requiere de una previsión que la selección natural no tiene. Un ordenador programado por un ser humano puede realizar esa función. Pretender que las moléculas pueden hacer lo mismo personifica, de manera ilícita, a la naturaleza. Por tanto, si estas simulaciones por ordenador demuestran algo, prueban sutilmente la necesidad de agentes inteligentes que elijan alguna opción y excluyan a otras, es decir: que creen información.

LOS ESCENARIOS AUTO-ORGANIZATIVOS
Debido a las dificultades de las teorías basadas en el azar, incluidas también aquellas que se basan en la selección natural prebiótica, la mayoría de los teóricos del origen de la vida después de mediados de los 60 intentaron abordar el problema del origen de la información biológica de una manera totalmente diferente. Los investigadores comenzaron a buscar leyes de autoorganización y propiedades de atracción química que pudieran explicar el origen de la información especificada en el ADN y las proteínas. Más que el azar, tales teorías invocaban necesidad. Si ni el azar ni la selección natural prebiótica actuante sobre el azar explica el origen de la información biológica específica, entonces aquellos comprometidos con el descubrimiento de una explicación naturalista del origen de la vida deben basarse necesariamente en la necesidad física o química. Dado un número limitado de categorías explicativas, lo inadecuado del azar (con o sin selección natural prebiótica) ha dejado solo una opción en la mente de muchos investigadores. Christian de Duve articula la siguiente lógica:

“una cadena de sucesos improbables –extraer dos veces el mismo número de la lotería o la misma mano de “bridge” dos veces sucesivas- no ocurren de manera natural. Todo lo cual me lleva a concluir que la vida es una manifestación obligatoria de importancia, destinada a suceder cuando las condiciones son las apropiadas” (83).

Cuando los biólogos del origen de la vida comenzaron a considerar la perspectiva autoorganizativa que describe de Duve, varios investigadores propusieron que fuerzas deterministas (“necesidad” estereoquímica) hicieron el origen de la vida no solo probable sino inevitable. Algunos sugirieron que los reactivos químicos simples poseían “propiedades autoorganizativas” capaces de ordenar las partes constitutivas de las proteínas, del ADN, y el ARN en el orden específico que tienen (84).
Por ejemplo, Steinman y Cole sugirieron que ciertas afinidades de enlace diferencial o fuerzas de atracción química entre determinados aminoácidos pudieran explicar el origen de la especificidad de secuencia de las proteínas (85).
Del mismo modo que las fuerzas electrostáticas unen los iones sodio (Na+) y cloruro (Cl-) en los patrones altamente ordenados del cristal de sal (NaCl), así también aminoácidos con ciertas afinidades especiales por otros aminoácidos podrían ordenarse a si mismos para formar proteínas. En 1969, Kenyon y Steinman desarrollaron la idea en un libro titulado Predestinación Bioquímica. Ellos aducían que la vida puede haber estado “bioquímicamente predestinada” debido a las propiedades de atracción existentes entre sus elementos químicos constitutivos, especialmente entre aminoácidos y proteínas (86).
En 1977, Prigogine y Nicolis propusieron otra teoría de la autoorganización basada en la caracterización termodinámica de los organismos vivos. En la autoorganización en los sistemas no equilibrados, Prigogine y Nicolis clasificaron los organismos vivos como abiertos, es decir, sistemas no equilibrados capaces de “disipar” grandes cantidades de energía y materia en el medio ambiente (87).
Observaron que los sistemas abiertos muy alejados del equilibrio muestran a menudo tendencias autoorganizativas. Por ejemplo, la energía gravitacional produce vórtices altamente ordenados al desaguar la cañería; la energía térmica que fluye a través de una barra caliente generará corrientes de convección diferenciadas o “actividad de onda espiral”. Prigogine y Nicolis adujeron que las estructuras organizadas observadas en los sistemas vivos pudieran haberse “auto-originado” de una manera similar con la ayuda de una fuente de energía. En esencia, admitían la improbabilidad de elementos de construcción sencillos ordenándose a si mismos en estructuras altamente ordenadas bajo condiciones normales de equilibrio. Pero sugerían que, en condiciones de desequilibrio, los bloques bioquímicos de construcción pudieran ordenarse a si mismos dentro de patrones altamente ordenados.

Más recientemente, Kauffman y de Duve han propuesto teorías autoorganizativas con algo menos de especificidad, por lo menos en relación con el problema del origen de la información genética específica (88).
Kauffman invoca las denominadas propiedades autocatalíticas para generar el metabolismo directamente a partir de moléculas sencillas. Él concibe que tal autocatálisis ocurrió una vez se habían formado configuraciones de moléculas muy especiales dentro de una rica “minestrone química”. De Duve concibe también primero la emergencia de un protometabolismo y luego la información genética como subproducto (“byproduct”, N. del T.) de la simple actividad metabólica.

ORDEN CONTRA INFORMACIÓN
Para muchos científicos del origen de la vida actuales, los modelos autoorganizativos parecen representar ahora el enfoque más prometedor para explicar el origen de la información biológica específica. Sin embargo, los críticos han planteado la cuestión tanto de la plausabilidad como de la relevancia de los modelos autoorganizativos. Irónicamente, un distinguido y precoz abogado de la autoorganización, Dean Kenyon, ha repudiado de manera explícita tales teorías tanto por ser incompatibles con los hallazgos experimentales como teóricamente inconsistentes (89).
En primer lugar, los estudios empíricos han demostrado que algunas afinidades diferenciales existen entre varios aminoácidos (es decir, ciertos aminoácidos tienen mayor facilidad para formar enlaces con unos aminoácidos que con otros) (90).
Sin embargo, tales diferencias no correlacionan con secuencias reales en las grandes clases de proteínas conocidas (91).
En pocas palabras, las diferencias en cuanto a afinidad química no explican la multiplicidad de secuencias de aminoácidos existentes en proteínas que se dan en la naturaleza o el ordenamiento secuencial de aminoácidos en una proteína particular.

En el caso del ADN, esta cuestión puede observarse de manera más drástica. La figura 2 muestra que la estructura del ADN depende de varios enlaces químicos. Por ejemplo, hay enlaces entre el azúcar y las moléculas de fosfato que forman los dos esqueletos contorsionados de la molécula de ADN. Hay enlaces que fijan las bases (los nucleótidos) al esqueleto de azúcar-fosfato a cada lado de la molécula. Hay también enlaces de hidrógeno horizontales a lo largo de la molécula entre las bases de nucleótidos, originando así las denominadas bases complementarias. Los enlaces de hidrógeno individualmente débiles, que en su conjunto mantienen juntas las dos copias complementarias de ADN, hacen posible la replicación de las instrucciones genéticas. Sin embargo, es importante notar que no hay enlaces químicos entre las bases a lo largo del eje longitudinal en el centro de la hélice. Sin embargo, es precisamente a lo largo de este eje de la molécula de ADN donde se almacena la información genética.

Además, del mismo modo que letras magnéticas pueden ordenarse y reordenarse de cualquier manera sobre la superficie de un metal para formar varias secuencias, así también cada una de las cuatro bases –A, T, G y C- se unen a cualquier posición del esqueleto de ADN con igual facilidad, haciendo todas las secuencias igualmente probables (o improbables). En realidad, no hay afinidades diferenciales significativas entre ninguna de las cuatro bases para unirse a las posiciones del esqueleto de azúcar-fosfato. El mismo tipo de enlace N-glicosídico sucede entre base y esqueleto independientemente de la base de que se trate. Las cuatro bases son admitidas; ninguna es favorecida químicamente. Como ha notado Kuppers, “las propiedades de los ácidos nucleicos indican que todos los patrones nucleotídicos combinatoriamente posibles del ADN son, desde un punto de vista químico, equivalentes” (92).
Así, las afinidades de enlace “autoorganizativas” no pueden explicar los ordenamientos secuencialmente específicos de las bases de nucleótidos del ADN porque (1) no hay enlaces entre las bases a lo largo del eje molecular que contiene la información y (2) no hay afinidades diferenciales entre el esqueleto y las bases específicas que pudieran explicar las variaciones de secuencia. Debido a que esto mismo es válido para las moléculas de ARN, los investigadores que especulan que la vida comenzó en un mundo de ARN no han podido resolver el problema de la especificidad de la secuencia –es decir, el problema de explicar como la información de las moléculas funcionales de ARN pudo surgir por vez primera.

Para los que quieren explicar el origen de la vida como resultado de propiedades de autoorganización intrínsecas de los materiales que constituyen los sistemas vivientes, estos hechos bastante elementales de la biología molecular tienen implicaciones decisivas. El lugar más obvio para buscar propiedades de autoorganización para explicar el origen de la información genética son las partes constituyentes de las moléculas que llevan la información. Pero la bioquímica y la biología molecular dejan claro que las fuerzas de atracción entre los componentes de ADN, ARN y proteínas no explican la especificidad de secuencia de estas grandes moléculas transportadoras de información.

Las propiedades de los monómeros que constituyen los ácidos nucleicos y las proteínas sencillamente no dan lugar de manera inevitable a un gen en concreto y mucho menos la vida tal y como la conocemos. (Sabemos esto además de por las razones ya explicadas por las muchas variantes de polipéptidos y secuencias de genes que existen en la naturaleza y por los que han sido sintetizados en el laboratorio). Sin embargo si los escenarios para el origen de la información biológica tuvieran algún significado teórico, deberían de afirmar justo lo contrario. Y esta afirmación se hace a menudo aunque de manera no muy específica. Como ha dicho de Duve “los procesos que generaron la vida” fueron “altamente deterministas”, haciendo “inevitable” la vida tal y como la conocemos dadas “las condiciones que existieron en la tierra prebiótica” (93).
Sin embargo, imagínense las condiciones prebióticas más favorables. Imagínese un charco con las cuatro bases del ADN y todos los azúcares y fosfatos necesarios; ¿surgiría cualquier secuencia genética de manera inevitable? Dados los monómeros necesarios, ¿surgiría inevitablemente cualquier proteína o gen funcional, no digamos ya un código genético específico, sistema de replicación o circuito de transducción de señales? Claramente no.

En la jerga de la investigación del origen de la vida, los monómeros son “bloques de construcción”, y los bloques de construcción pueden ordenarse y reordenarse de innumerables maneras. Las propiedades de los bloques de piedra no determinan su propio ordenamiento en la construcción de edificios. De manera similar, las propiedades de los bloques de construcción biológicos no determinan los ordenamientos de los polímeros funcionales. En cambio, las propiedades químicas de los monómeros permiten un enorme conjunto de configuraciones posibles de los cuales una abrumadora mayoría no tienen función biológica ninguna. Dadas las propiedades de sus “bloques de construcción”, los genes o las proteínas funcionales no son más inevitables de lo que lo fue, por ejemplo, el palacio de Versalles dadas las propiedades de los bloques de piedra que se usaron en su construcción. En un sentido antropomórfico, ni los ladrillos o las piedras, ni las letras de un texto escrito, ni las bases nucleotídicas “se cuidan” de como se les ordena. En cada caso, las propiedades de los constituyentes permanecen en su mayoría indiferentes a las muchas configuraciones o secuencias específicas que pueden adoptar y tampoco hacen “inevitable” ninguna estructura específica, como afirman los partidarios de la autoorganización.

De manera significativa, la teoría de la información deja claro que hay una buena razón para esto. Si las afinidades químicas entre los componentes del ADN determinan el ordenamiento de las bases, esas afinidades disminuirían drásticamente la capacidad del ADN de llevar información. Recuérdese que la clásica teoría de la información hace equivaler la reducción de incertidumbre con la transmisión de información, tanto si es específica como si es inespecífica. Por tanto la transmisión de información requiere contingencia físico-química. Como ha dicho Robert Stalnaker “el contenido [de información] requiere contingencia” (94).
Por lo tanto, si las fuerzas de la necesidad química determinan completamente el ordenamiento de los constituyentes de un sistema, ese ordenamiento no mostrará complejidad ni transmitirá información.

Considérese por ejemplo lo que sucedería si las bases nucleotídicas individuales (A, C, G y T) de la molécula de ADN realmente interaccionaran por necesidad química (a lo largo del eje portador de información del ADN). Supóngase que cada vez que la adenina (A) se diera en una secuencia genética en prolongación, atrajera a la citosina (C) hacia ella (95).
Supóngase que cada vez que la guanina (G) apareciera, le siguiera la timina (T). Si este fuera el caso, el eje longitudinal del ADN estaría salpicado de secuencias repetitivas en las que A sigue a C y T sigue a G. Antes que una molécula genética capaz de novedad virtualmente ilimitada y caracterizada por secuencias impredecibles y aperiódicas, el ADN contendría secuencias inundadas de repeticiones y redundancias – algo muy similar a los átomos de un cristal. En un cristal, las fuerzas de la atracción química mutua determinan en verdad, en un grado muy considerable, el ordenamiento secuencial de sus partes constitutivas. De aquí que las secuencias del cristal sean altamente ordenadas y repetitivas pero no complejas e informativas. Sin embargo, en el ADN, donde cualquier nucleótido puede seguir a otro, es posible una enorme ristra de nuevas secuencias, que corresponden a una multiplicidad de posibles funciones de secuencia de aminoácidos y proteínas.

Las fuerzas de la necesidad química producen redundancia (lo que significa, aproximadamente, repeticiones generadas por reglas o leyes) u orden monótono pero necesita reducir la capacidad de transmitir información y expresar novedad. Así, el químico Michael Polanyi observa:

Supóngase que la estructura real de la molécula de ADN fuera debida al hecho de que la unión de sus bases fuera mucho más fuerte de lo que serían las uniones para cualquier otra distribución de bases, entonces tal molécula de ADN no tendría contenido de información. Su carácter similar a un código desaparecería por una redundancia abrumadora... Cualquiera que pueda ser el origen de la configuración de ADN, puede funcionar como un código solo si su orden no se debe a fuerzas de energía potencial. Debe ser tan físicamente indeterminado como lo es la secuencia de palabras impresa en una página [cursiva del autor] (96).

En otras palabras, si los químicos hubieran descubierto que las afinidades de enlace entre los nucleótidos del ADN producían secuencias de nucleótidos, se habrían dado cuenta de que estaban equivocados respecto a las propiedades del ADN para transmitir información. O dicho desde una perspectiva cuantitativa, en el mismo grado en que las fuerzas de atracción entre componentes de una secuencia determinan el ordenamiento de la secuencia, la capacidad de transportar información del sistema se vería disminuida o borrada por la redundancia (97).

Como ha explicado Dretske:

“cuando p(si) [la probabilidad de una condición o de un estado de hechos] se acerca a 1, la cantidad de información asociada con la ocurrencia de si tiende a 0. En el caso límite de que la probabilidad de una condición o estado de los hechos sea la unidad [p(si)=1], la ocurrencia de si ni tiene información asociada ni la genera. Esto es tan solo otra manera de decir que no se genera ninguna información mediante la ocurrencia de sucesos para los cuales no hay alternativas posibles” (98).

Las afinidades de enlace, en tanto existen, inhiben la maximización de la información porque determinan que resultados específicos seguirán a condiciones específicas con una alta probabilidad (99).
Sin embargo, la capacidad de transportar información resulta maximizada cuando se obtiene justo la situación opuesta, a saber, cuando las condiciones antecedentes permiten muchos resultados improbables.

Lógicamente, como se ha señalado en la parte I, sección D, las secuencias de bases del ADN hacen más que poseer una capacidad de transportar información (o información sintáctica), tal y como mide la teoría clásica e la información de Shannon. Estas secuencias almacenan información funcionalmente específica, es decir, son tanto específicas como complejas. Sin embargo, una secuencia no puede claramente ser tanto específica como compleja si por lo menos no es compleja. Por tanto, las fuerzas de autoorganización de la necesidad química, que generan un orden redundante y descartan la complejidad, también descartan la generación de complejidad específica (o información específica). Las afinidades químicas no generan secuencias complejas. Así, no pueden ser invocadas para explicar el origen de la información tanto si es específica como de otro tipo.

Los modelos autoorganizativos, tanto los que invocan las propiedades internas de atracción química como una fuerza o fuente de energía de organización externa, se caracterizan por una tendencia a confundir las distinciones cualitativas entre “orden” y “complejidad”. Esta tendencia pone en cuestión la relevancia de estos modelos del origen de la vida. Como ha aducido Yockey, la acumulación del orden químico o estructural no explica el origen de la complejidad biológica o de la información genética. Admite que la energía que fluye a través de un sistema puede producir patrones altamente ordenados. Los fuertes vientos originan tornados en espiral y los “ojos” de los huracanes; los baños termales de Prigogine provocan interesantes corrientes de convección y los elementos químicos se fusionan para formar cristales. Los teóricos de la autoorganización explican bien lo que no necesita ser explicado. Lo que en biología necesita explicación no es el origen del orden (definido como simetría o repetición) sino la información específica, las secuencias altamente complejas, aperiódicas y específicas que hacen posible la función biológica. Como advierte Yockey:

“los intentos de relacionar la idea de orden... con la organización o especificidad biológicas deben ser considerados como un juego de palabras que no soportaría un cuidadoso examen. Las macromoléculas informativas pueden codificar mensajes genéticos y por tanto pueden llevar información porque la secuencia de bases o residuos se ve nada o muy poco afectada por factores fisicoquímicos [autoorganizativos]” (100).

A la vista de estas dificultades, algunos teóricos de la autoorganización han afirmado que debe aguardarse al descubrimiento de nuevas leyes naturales para explicar el origen de la información biológica. Como ha dicho Manfred Eigen, “nuestra tarea es encontrar un algoritmo, una ley natural, que conduzca al origen de la información” (101).
Esta sugerencia confunde de dos maneras. En primer lugar, las leyes naturales generalmente no causan o producen fenómenos sino que los describen. Por ejemplo, la ley de la gravitación de Newton describía, pero no causaba o explicaba, la atracción entre los cuerpos celestes. En segundo lugar, las leyes describen necesariamente relaciones altamente deterministas o predecibles entre condiciones antecedentes y sucesos consecuentes. Las leyes describen patrones altamente repetitivos en los cuales la probabilidad de cada suceso consecutivo (dado el suceso previo) tiende a la unidad. Sin embargo, las secuencias de información son complejas, no repetitivas; la información se acumula a medida que las improbabilidades se multiplican. Así, decir que las leyes científicas pueden producir información es esencialmente una contradicción en los términos. En cambio las leyes científicas describen (casi por definición) fenómenos altamente predicativos y regulares; es decir, orden redundante, no complejidad (tanto si es específica como de otro tipo).

Aunque los patrones descritos por las leyes naturales muestran un alto grado de regularidad, y así carecen de la complejidad que caracteriza los sistemas ricos en información, puede aducirse que algún día podríamos descubrir una configuración muy particular de condiciones iniciales que generara altos estados de información de manera rutinaria. Así, mientras que no podemos esperar encontrar una ley que describa una relación rica en información entre variables antecedentes y consecuentes, podríamos encontrar una ley que describiera cómo un conjunto muy particular de condiciones iniciales genera un estado de alta información. Sin embargo, incluso esta afirmación tan hipotética parece en si misma dar por sentada la cuestión del origen último de la información, ya que “un conjunto muy particular de condiciones iniciales” suena precisamente a un estado –altamente complejo y específico- rico en información. En cualquier caso, todo lo que conocemos experimentalmente sugiere que la cantidad de información específica presente en un conjunto de condiciones antecedentes necesariamente equivale o excede a la de un sistema producido a partir de esas condiciones.

OTRAS PERSPECTIVAS Y EL DESPLAZAMIENTO DEL PROBLEMA DE LA INFORMACIÓN
Además de las categorías generales de explicación ya examinadas, los investigadores del origen de la vida han propuesto muchos más escenarios específicos, cada uno enfatizando bien las variaciones aleatorias (el azar), las leyes autoorganizativas (necesidad) o ambas. Algunos de estos escenarios aparentan abordar el problema de la información; otros intentan puentearlo del todo. Sin embargo, en un examen detallado incluso los escenarios que aparentan aliviar el problema del origen de la especificidad biológica únicamente trasladan el problema de lugar. Los algoritmos matemáticos pueden “resolver” el problema de la información, pero solo si los programadores proporcionan secuencias blanco informativas y seleccionan los criterios. Los experimentos de simulación pueden producir precursores y secuencias biológicamente relevantes, pero solo si los experimentadores manipulan las condiciones iniciales o seleccionan y conducen los resultados; es decir, solo si añaden información ellos mismos. Las teorías del origen de la vida pueden saltarse (“leapfrog”, N. del T.) el problema de una vez, pero solo presuponiendo la presencia de información bajo alguna otra forma preexistente.

Todo tipo de modelos teóricos del origen de la vida ha sido presa de esta dificultad. Por ejemplo, en 1964, Henry Qastler, un pionero temprano de la aplicación de la teoría de la información a la biología molecular, propuso un modelo de ADN precursor para el origen de la vida. Concebía la emergencia inicial de un sistema de polinucleótidos inespecíficos capaz de una primitiva autorreplicación por medio del mecanismo de las bases complementarias. Según la explicación de Quastler, los polímeros habrían carecido inicialmente de especificidad (que él hacía equivaler a información) (102).
Solo más tarde, cuando su sistema de polinucleótidos había llegado a asociarse con un conjunto plenamente funcional de proteínas y ribosomas, habrían tomado algún significado funcional dentro del polímero las secuencias nucleotídicas específicas. A él le gustaba aquel proceso de selección aleatoria de la combinación de una cerradura, en la que dicha combinación solo adquiría significado funcional más tarde, una vez que ciertos cerrojos hubieran sido retirados para permitir que la combinación abriera la cerradura. Tanto en el caso biológico como en el mecánico, el contexto circundante conferiría especificidad funcional a una secuencia inicial inespecífica. Así, Quastler denominó “casualidad accidental recordada” al origen de la información contenida en los polinucleótidos.

Aunque la manera en que Quastler concebía el origen de la información biológica específica permitía realmente “que una cadena de nucleótidos se convirtiera en un sistema funcional de genes sin sufrir necesariamente ningún cambio de estructura”, incurre en una dificultad primordial. No explica el origen de la complejidad y de la especificidad de un sistema de moléculas cuya asociación con la secuencia inicial confería a ésta un significado funcional. En el ejemplo de la combinación y la cerradura de Quastler, agentes conscientes eligen las condiciones de los cerrojos que hacen la combinación inicial funcionalmente significativa. Sin embargo, Quastler descartó expresamente el diseño consciente como posibilidad de explicación del origen de la vida (103).
En cambio, parecía sugerir que el origen del contexto biológico -es decir, el conjunto completo de proteínas específicas funcionales (y el sistema de traducción) necesario para crear una “asociación simbiótica” entre polinucleótidos y proteínas- surgiría por azar. Incluso ofreció algunos cálculos groseros para demostrar que el origen de tal contexto multimolecular, aunque improbable, hubiera sido lo bastante probable como para esperar que ocurriera por azar en la sopa prebiótica. Los cálculos de Quastler parecen ahora extremadamente poco plausibles a la luz de la discusión sobre la complejidad mínima en la parte II, sección B (104).
De manera más significativa, Quastler “resolvió” el problema del origen de la especificidad compleja en los ácidos nucleicos solo transfiriendo el problema a un sistema igualmente complejo y específico de proteínas y ribosoma. En tanto que, como se admite, cualquier secuencia de polinucleótidos hubiera bastado inicialmente, el material subsiguiente de proteínas y ribosomas que constituye el sistema de traducción habría poseído una especificidad extrema en relación a la secuencia polinucleotídica inicial y en relación con cualquier requisito protocelular funcional. Así, los intentos de Quastler para puentear el problema de la especificidad de secuencia tan solo lo trasladan a algún otro sitio.

Los modelos autoorganizativos han encontrado dificultades similares. Por ejemplo, el químico J. C. Walton ha aducido (haciéndose eco de anteriores artículos de Mora) que los patrones de autoorganización que se producían en corrientes de convección como las de Prigogine no exceden la organización o información estructural representada por el aparato experimental utilizado para crear corrientes (105).
De manera similar, Maynard-Smith, Dyson y Shappiro han demostrado que el denominado modelo hipercircular de Eigen para generar información biológica demuestra en realidad cómo la información tiende a degradarse con el tiempo (106).
Los hipercírculos de Eigen presuponen un gran aporte inicial de información bajo la forma de una larga molécula de ARN y unas cuarenta proteínas específicas y por tanto no pretende explicar el origen último de la información biológica. Además, debido a que los hipercírculos carecen de los mecanismos de corrección de errores de la autorreplicación, el mecanismo propuesto sucumbe a varios “errores y catástrofes” que en última instancia disminuyen, no aumentan, a lo largo del tiempo el contenido en información (específica) del sistema.

La teoría autoorganizativa de Stuart Kauffman también transfiere sutilmente el problema del origen de la información. En los orígenes del orden, Kauffman intenta saltarse el problema de la especificidad de secuencia proponiendo un medio por el cual un sistema metabólico autorreproducible pudiera emerger directamente en una sopa prebiótica o “minestrone química”, a partir de un conjunto de péptidos catalíticos “de baja especificidad” y moléculas de ARN. Kauffman concibe, como dice Iris Frey, “un conjunto de polímeros catalíticos en los cuales ni una sola molécula se reproduce a sí misma, pero el sistema en su conjunto sí” (107).
Kauffman aduce que una vez que un conjunto suficientemente diverso de moléculas catalíticas se ha reunido (un conjunto en el cual los diferentes péptidos realizan suficientes funciones catalíticas diferentes) el conjunto de moléculas individuales experimentaría espontáneamente una especie de fase de transición que resultaría en un sistema metabólico autorreproducible. Así, Kauffman aduce que el metabolismo puede surgir directamente sin información genética codificada en el ADN (108).
Sin embargo, la perspectiva de Kauffman no resuelve ni puentea el problema del origen de la información biológica. En cambio, o presupone la existencia de especificidad de secuencia inexplicable o transfiere tal necesidad de especificidad lejos de su vista. Kauffman afirma que un conjunto de péptidos catalíticos de baja especificidad y relativamente cortos y de moléculas de ARN bastaría para establecer conjuntamente un sistema metabólico. Él defiende la plausibilidad metabólica de este escenario sobre la base de que algunas proteínas pueden realizar funciones enzimáticas con baja especificidad y complejidad. Cita en apoyo de su afirmación proteasas como la tripsina que corta el enlace peptídico por un único sitio aminoacídico y las proteínas de la cascada de coagulación que “rompen esencialmente polipéptidos blanco sencillos” (109).
Sin embargo, el argumento de Kauffman presenta dos problemas. En primer lugar, no se sigue, ni tampoco es bioquímicamente el caso, que solo porque algunas enzimas pudieran funcionar con baja especificidad, que todos los péptidos catalíticos (o enzimas) necesarios para establecer un ciclo metabólico auto-reproductor puedan funcionar con niveles similarmente bajos de especificidad y complejidad. En cambio, la bioquímica moderna demuestra que por lo menos alguna, o probablemente muchas, de las moléculas en un sistema cerrado interdependiente del tipo que concibe Kauffman, requerirían alta complejidad y proteínas específicas. La catálisis enzimática (que su modelo seguramente necesitaría) requiere invariablemente moléculas suficientemente largas (por lo menos de 50 unidades) para formar estructuras terciarias (tanto en los polinucleótidos como en los polipéptidos). Además, estos polímeros largos necesitan invariablemente geometrías tridimensionales específicas (que derivan a su vez de ordenamientos de monómeros específicos de secuencia) para catalizar las reacciones necesarias ¿Cómo adquieren estas moléculas su especificidad de secuencia? Kauffman no aborda esta cuestión porque su explicación sugiere de manera incorrecta que no necesita hacerlo.

En segundo lugar, resulta que incluso las moléculas supuestamente de baja especificidad que Kauffman cita para ilustrar la plausibilidad de su modelo, no manifiestan por sí mismas una baja especificidad y complejidad. En cambio, Kauffmann ha confundido la especificidad y complejidad de partes de los polipéptidos sobre los que las proteasas actúan con la especificidad y complejidad de las proteínas (proteasas) que realizan la función enzimática. Aunque la tripsina, por ejemplo, actúa sobre enlaces peptídicos (rompiéndolos) situados en dianas relativamente sencillas (el carboxilo terminal de dos aminoácidos diferentes, la arginina y la lisina), la tripsina por sí misma es una molécula altamente compleja y específica en su secuencia. Ciertamente, la tripsina es una proteína no repetitiva de más de 200 residuos que posee, como condición para su función, una significativa especificidad de secuencia (110).
Además, tiene que mostrar una especificidad tridimensional significativa para reconocer los aminoácidos específicos arginina y lisina –lugares por los cuales rompe los enlaces peptídicos. Al equivocarse en esta discusión sobre la especificidad, Kauffman oculta a la vista la considerable especificidad y complejidad requeridas incluso por las proteasas que cita para justificar su afirmación de que péptidos catalíticos de baja especificidad bastarían para establecer un ciclo metabólico. Así, la concepción de Kauffman propiamente comprendida (es decir, sin confundirse acerca del relevante papel de la especificidad) muestra que para que este modelo tenga una plausabilidad específica debe presuponer la existencia de muchos polipéptidos y polinucleótidos de alta especificidad y complejidad. ¿De donde procede la información de estas moléculas? Nuevamente, Kauffman no lo dice.

Además, Kauffman debe reconocer (como parece que hace en algunos pasajes) (111), que para que suceda la autocatálisis (para la cual no existe aún evidencia experimental), las moléculas de la “minestrone química” deben de mantenerse en una relación espacio-temporal específica unas con otras. Dicho con otras palabras, para que suceda la autocatálisis directa de complejidad metabólica integrada, un sistema de moléculas peptídicas catalíticas debe alcanzar primero una configuración molecular muy específica o bien un estado de baja entropía configuracional (112).
Sin embargo, este requisito es isomorfo respecto del requisito de que el sistema debe comenzar con una complejidad altamente específica. Así, para explicar el origen de la complejidad biológica específica en el nivel de los sistemas, Kauffman debe presuponer la existencia de moléculas altamente complejas y específicas (es decir, ricas en información) y también de ordenamientos altamente específicos de esas moléculas en el nivel molecular. Por tanto, su trabajo –si es que tiene alguna relevancia para el comportamiento real de las moléculas- presupone o transfiere, más que explica, el origen último de la complejidad o información específica.

Otros han afirmado que el modelo basado en un mundo de ARN proporciona un enfoque prometedor al problema del origen de la vida y con él, presumiblemente, al problema del origen de la primera información genética. El mundo de ARN fue propuesto como explicación del origen de la interdependencia entre ácidos nucleicos y proteínas dentro del sistema celular de procesamiento de la información. En las células existentes, construir proteínas requiere información genética procedente del ADN, pero la información del ADN no puede ser procesada sin muchas proteínas específicas y complejos proteicos. Esto plantea un problema del tipo “qué fue antes ¿el huevo o la gallina?”. El descubrimiento de que el ARN (un ácido nucleico) posee algunas limitadas propiedades catalíticas parecidas a las de las proteínas, sugirió un modo de resolver este problema. Los defensores de “primero el ARN” propusieron un estado inicial en el cual el ARN realizaba tanto las funciones enzimáticas de las proteínas modernas y la función de almacenaje de información del moderno ADN, haciendo supuestamente innecesaria la interdependencia del ADN y las proteínas en los primeros sistemas vivientes.

Sin embargo, han surgido muchas dificultades fundamentales en el modelo del mundo de ARN. En primer lugar, sintetizar (y/o mantener) numerosos bloques de construcción de las moléculas de ARN en condiciones realistas se ha demostrado difícil o imposible (113).
Además, las condiciones químicas requeridas para la síntesis de azúcares de ribosa son decididamente incompatibles con las condiciones requeridas para la síntesis de bases nucleotídicas (114).
Sin embargo, ambos son componentes necesarios del ARN. En segundo lugar, los ARN que suceden en la naturaleza poseen muy pocas de las propiedades enzimáticas específicas de las proteínas, necesarias para las células existentes. En tercer lugar, los defensores del mundo de ARN no ofrecen una explicación plausible acerca de cómo los replicadores primitivos de ARN pudieran haber evolucionado en células modernas que, para procesar la información genética y para regular el metabolismo, se basan casi exclusivamente en las proteínas (115).
En cuarto lugar, los intentos de resaltar las limitadas propiedades catalíticas de las moléculas de ARN mediante los denominados experimentos de ingeniería de ribozimas, han requerido inevitablemente una extensa manipulación del investigador, simulando así, si es que simulan algo, la necesidad de un diseño inteligente, y no la eficacia de un proceso químico evolutivo sin dirección (116).
Pero lo más importante para nuestras consideraciones actuales es que la hipótesis del mundo de ARN presupone, pero no explica, el origen de la especificidad o de la información de secuencia en las originarias moléculas funcionales de ARN. Ciertamente, el modelo del mundo de ARN fue propuesto como explicación del problema de la interdependencia funcional, no del problema de la información. Incluso así, algunos defensores del mundo de ARN parecen considerar cuentear el problema de la especificidad de secuencia. Imaginan oligómeros de ARN surgiendo por azar sobre la tierra prebiótica y adquiriendo más tarde la capacidad de polimerizar copias de si mismos; es decir, de autorreplicar. En este modelo, la capacidad de autorreplicar favorecería la supervivencia de aquellas moléculas de ARN que pudieran hacerlo así y con ello a las secuencias específicas que las primeras moléculas autorreplicantes pudieran tener. Por lo tanto, las secuencias que surgieron originariamente por azar adquirirían por consiguiente la significación funcional de una “casualidad accidental recordada”.

Sin embargo, al igual que en el primer modelo de Quastler, esa sugerencia tan solo esconde a la vista el problema de la especificidad. En primer lugar, para que las hebras de ARN realicen funciones enzimáticas (incluida la autorreplicación mediada enzimáticamente), deben tener, al igual que las proteínas, ordenamientos muy específicos de sus bloques constituyentes (nucleótidos, en el caso del ARN). Además, las hebras deben ser suficientemente largas para doblarse en complejas formas tridimensionales (para formar la denominada estructura terciaria). Y sin embargo, explicar como los bloques de construcción del ARN han podido ordenarse así mismos en secuencias específicas funcionales ha demostrado no ser más fácil que explicar como las partes constituyentes del ADN han podido hacer eso mismo, especialmente, dada la elevada posibilidad de reacciones cruzadas destructivas entre moléculas deseadas y no deseadas en cualquier sopa prebiótica realista. Como ha señalado de Duve en una crítica a la hipótesis del mundo de ARN, “unir los componentes del modo adecuado suscita nuevos problemas de tal magnitud que nadie ha intentando aún realizarlo en un contexto prebiótico” (117).
En segundo lugar, para que un catalizador de hebra sencilla de ARN autorreplique (la única función que podría seleccionarse en un ambiente prebiótico), debe encontrar en las proximidades otra molécula catalítica de ARN que funcione como molde, ya que un ARN de cadena sencilla no puede funcionar a la vez como enzima y como molde. Así, incluso si una secuencia no específica de ARN pudiera adquirir más tarde significado funcional por azar, solo podría realizar su función si otra molécula de ARN –es decir, una con secuencia altamente específica con relación al original- surgiera en la mayor proximidad de dicha molécula. Por tanto, el intento de puentear la necesidad de una secuencia específica mediante un ARN catalítico original solo cambia el problema de sitio, a saber, a una segunda secuencia de ARN necesariamente de elevada complejidad. Dicho de otro modo, además de la especificidad requerida para conferir a la primera molécula de ARN la capacidad autorreplicativa, tendría que surgir una segunda molécula de ARN con secuencia extremadamente específica y con la misma secuencia esencialmente que el original. Sin embargo, los teóricos del mundo de ARN no explican el origen del requisito de especificidad en la molécula original o en la gemela. Joyce y Orgel han calculado que para tener una probabilidad razonable de encontrar dos moléculas de ARN idénticas de una longitud suficiente como para realizar funciones enzimáticas, sería necesaria una biblioteca de ARN de unas 1054 moléculas de ARN (118).

La masa de tal biblioteca excede enormemente la masa de la tierra y sugiere la extrema imposibilidad del origen aleatorio de un sistema de replicación primitivo. Sin embargo, no puede invocarse la selección natural para explicar el origen de tales replicadores primitivos, ya que la selección natural solo funciona una vez que la autorreplicación ha aparecido. Además, las bases del ARN, como las bases del ADN, no manifiestan afinidades de enlace autoorganizativas que pudieran explicar su especificidad de secuencia. En pocas palabras, emergen los mismos problemas teóricos y probatorios cuando se presupone que la información genética surgió primero en la molécula de ARN o en la de ADN. El intento de saltarse el problema de la secuencia comenzando por los replicadores de ARN solo traslada el problema a las secuencias específicas que harían posible tal replicación.

EL RETORNO DE LA HIPÓTESIS DEL DISEÑO
Si los intentos de resolver el problema de la información solo lo cambian de sitio, y si ni el azar, ni la necesidad físico-química, ni la combinación de los dos explica el origen último de la información biológica específica, ¿qué lo explica? ¿Sabemos de alguna entidad que tenga los poderes causales para crear grandes cantidades de información específica? En efecto. Como ha reconocido Henry Quastler, la “creación de nueva información está habitualmente asociada a la actividad consciente” (119).
La experiencia afirma que la complejidad específica o información (definida de aquí en adelante como complejidad especificada) surge de manera rutinaria de la actividad de agentes inteligentes. Un usuario de ordenadores que rastrea la información en su pantalla hasta su fuente, se introduce en la mente del ingeniero de software o programador. De manera similar, la información en un libro o en la columna de un periódico deriva en última instancia de un escritor – de una causa mental antes que estrictamente material.

Además, nuestro conocimiento acerca del flujo de información, basado en la experiencia, confirma que los sistemas con grandes cantidades de complejidad especificada o información (especialmente los códigos y el lenguaje) invariablemente se originan a partir de una fuerza inteligente –es decir, de la mente de un agente personal (120).
Además, esta generalización se mantiene no solo para la información semánticamente especificada presente en los lenguajes naturales, sino también para otras formas de información o complejidad especificada tanto la presente en los códigos de máquina, como en las máquinas o en las obras de arte.

Al igual que letras en la sección de un texto con significado, las partes de un motor funcional representan una configuración altamente improbable aunque funcionalmente especificada. De igual manera, las formas altamente improbables de las rocas del Monte Rushmore se conforman a un patrón independientemente dado: los rostros de los presidentes de América conocidos por los libros y las pinturas. Así, ambos sistemas tienen una gran cantidad de complejidad especificada o información así definida. No es una coincidencia que se originaran por un diseño inteligente y no por azar y/o necesidad físico química.

Esta generalización –la de que la inteligencia es la única causa de información o complejidad especificada (por lo menos, a partir de una fuente no biológica)- ha obtenido apoyo de la investigación sobre el origen de la vida. Durante los últimos cuarenta años, todo modelo naturalista propuesto ha fracasado a la hora de explicar el origen de la información genética específica requerida para construir una célula viviente (121).
Así, mente o inteligencia, o lo que los filósofos llaman “agente causal”, es ahora la única causa conocida capaz de generar grandes cantidades de información a partir de un estado abiótico (122).
Como resultado, la presencia de secuencia específicas ricas en información incluso en los más simples sistemas vivientes implicaría en apariencia diseño inteligente (123).
Recientemente, un modelo teórico formal de deducción del diseño ha sido desarrollado para apoyar esta conclusión. En La inferencia de diseño, el matemático y probabilista teórico William Dembski señala que los agentes racionales a menudo infieren o detectan la actividad a priori de otras mentes por el tipo de efectos que dejan tras ellos. Por ejemplo, los arqueólogos suponen que agentes racionales produjeron las inscripciones en la piedra de Rosetta; los investigadores del fraude de seguros detectan ciertos “patrones de estafa” que sugieren la manipulación intencional de las circunstancias antes que los desastres “naturales”; los criptógrafos distinguen entre signos aleatorios y aquellos que llevan codificados los mensajes. El trabajo de Dembski muestra que reconocer la actividad de agentes inteligentes constituye un modo común, totalmente racional, de inferencia (124).
Y lo que es más importante, Dembski identifica dos criterios que de manera típica permiten a los observadores humanos reconocer actividad inteligente y distinguir los efectos de tal actividad respecto de los efectos de causas estrictamente materiales. Señala que invariablemente atribuimos a causas inteligentes –al diseño-, y no al azar o a leyes físico-químicas, sistemas, secuencias o sucesos que tienen las propiedades conjuntas de “alta complejidad” (o baja probabilidad) y “especificidad”.

Por el contrario, señala que atribuimos al azar de manera típica aquellos sucesos de probabilidad intermedia o baja que no se ajustan a patrones discernibles. Atribuimos a la necesidad sucesos altamente probables que de modo repetido suceden de manera regular de acuerdo con algo similar a una ley.

Estos patrones de inferencia reflejan nuestro conocimiento de la manera en que el mundo funciona. Por ejemplo, dado que la experiencia enseña que los sucesos o sistemas complejos y específicos surgen invariablemente de causas inteligentes, podemos inferir diseño inteligente de sucesos que muestran conjuntamente las propiedades de complejidad y especificidad. El trabajo de Dembski sugiere un proceso de evaluación comparativa para decidir entre causas naturales e inteligentes basado en las características de probabilidad o “firmas” que dejan tras ellas (126).
Este proceso de evaluación constituye, en efecto, un método científico para detectar la actividad de la inteligencia en el eco de sus efectos.

Un ejemplo sencillo ilustra el método y el criterio de Dembski para la detección del diseño. Cuando los visitantes entran por primera vez desde el mar en el puerto de Victoria en Canadá, se percatan de una colina repleta de flores rojas y amarillas. A medida que se acercan, reflexivamente y de manera correcta, infieren diseño ¿porqué? Los observadores reconocen rápidamente un complejo o patrón específico, un ordenamiento de flores que deletrea “bienvenido a Victoria”. Infieren la actividad pretérita de una causa inteligente –en este caso, el cuidadoso plan de los jardineros. Si las flores hubieran sido sembradas de cualquier modo de manera que se resistieran al reconocimiento de cualquier patrón, los observadores hubieran atribuido el ordenamiento al azar de manera justificada –por ejemplo, a las ráfagas de viento esparciendo la semilla. Si los colores estuvieran separados por la elevación, el patrón podría explicarse por alguna necesidad natural, como la necesidad de algún medio ambiente o suelo particular para ciertos tipos de plantas. Pero dado que el ordenamiento muestra tanto complejidad (el ordenamiento específico es altamente improbable dado el espacio de ordenamientos posibles) como especificidad (el patrón de las flores se ajusta a los requisitos independientes de la gramática y del vocabulario ingleses), los observadores infieren naturalmente diseño. Como resultado, estos dos criterios son equivalentes (o isomórficos, véase parte I, sección E) a la noción de información tal y como se usa en la biología molecular. Así, la teoría de Dembski, cuando se aplica a la biología molecular, implica que el diseño inteligente jugó un papel en el origen de la información biológica (específica).

El cálculo lógico que subyace a esta inferencia sigue un método válido y bien establecido que se usa en todas las ciencias forenses e históricas. En las ciencias de la historia, el conocimiento de las inferencias actuales, potencias causales de varias entidades y procesos permite a los científicos hacer inferencias acerca de las causas posibles en el pasado. Cuando un estudio minucioso de varias causas posibles produce solo una sola causa adecuada para un efecto dado, los científicos forenses o históricos pueden hacer inferencias definitivas acerca del pasado (127).
La superficie de Marte, por ejemplo, muestra erosiones –zanjas y canales- que recuerdan a los producidos en la Tierra con el movimiento del agua. Aunque en el momento presente Marte no tiene en su superficie agua líquida, algunos científicos infieren que Marte tuvo en el pasado una cantidad significativa de agua en su superficie. ¿Por qué? Los geólogos y los planetólogos no han observado otra causa distinta del movimiento del agua, que pueda producir el tipo de erosión que hoy observamos en Marte. Como por nuestra experiencia solo el agua produce zanjas y canales, la presencia de esas características en Marte permite a los planetólogos inferir la acción en el pasado del agua sobre la superficie del planeta rojo.

O bien considérese otro ejemplo. Hace varios años, uno de los patólogos forenses de la primera Comisión Warren que investigó el asesinato del presidente Kennedy hizo declaraciones sobre los rumores insistentes acerca de un segundo tirador desde la parte frontal de la comitiva. El orificio de la bala en la parte trasera del cráneo del presidente Kennedy evidenciaba aparentemente un patrón en bisel distintivo que indicaba claramente que había penetrado en el cráneo desde atrás. El patólogo denominó “diagnóstico distintivo” al patrón en bisel porque el patrón indicaba una sola dirección posible de entrada. Ya que era necesaria una entrada desde atrás para provocar el patrón en bisel en la parte trasera del cráneo del presidente, el patrón permitió a los patólogos forenses diagnosticar la trayectoria de la bala (128).
Lógicamente, puede inferirse una causa a partir de su efecto (o un antecedente a partir de un consecuente) cuando se sabe que la causa (o antecedente) es necesaria para producir el efecto en cuestión. Si es verdad que “por el humo se sabe donde está el fuego”, entonces la presencia del humo ondeando sobre una colina permite inferir un fuego más allá de nuestra vista. Las inferencias basadas en el conocimiento de condiciones o causas empíricamente necesarias (“diagnosis distintiva”) son comunes en las ciencias históricas o forenses y a menudo llevan a la detección de inteligencia y de otras causas y sucesos naturales. Ya que los dedos del criminal X son la única causa conocida de las huellas dactilares delictivas X, las huellas X sobre el arma del crimen le incriminan con un alto grado de probabilidad. De manera similar, ya que el diseño inteligente es la única causa conocida de grandes cantidades de información o complejidad especificada, la presencia de tal información implica un origen inteligente.

Efectivamente, ya que la experiencia afirma que la mente o el diseño inteligente son condición necesaria (y causa necesaria) de la información, puede detectarse (o conocerse retrospectivamente) la acción pasada de una inteligencia a partir de un efecto rico en información –incluso si la causa misma no puede ser directamente observada (129).
Así, el patrón de flores que escriben “bienvenido a Victoria” permite al visitante inferir la actividad de agentes inteligentes incluso si no ven las flores plantadas y ordenadas. De manera similar, el ordenamiento específico y complejo de las secuencia nucleotídicas –la información- del ADN implica la acción pasada de una inteligencia, incluso si tal actividad mental no puede ser directamente observada.

Los científicos de muchos campos reconocen la conexión entre inteligencia e información y hacen las inferencias oportunas. Los arqueólogos suponen que un escriba produjo las inscripciones en la piedra de Rosetta; los antropólogos evolucionistas determinan la inteligencia de los primeros homínidos a partir de las lascas que son demasiado improbables y específicas en cuanto a la forma (y función) para haber sido producidas por causas naturales; la búsqueda de inteligencia artificial extraterrestre de la NASA (SETI) presupone que cualquier información incluida en las señales electromagnéticas proveniente del espacio exterior indicaría una fuente inteligente (130).
Sin embargo, de momento, los radio-astrónomos no han encontrado ninguna información en las señales. Pero más cerca de casa, los biólogos moleculares han identificado las secuencias ricas en información y los sistemas de las células que sugieren, por la misma lógica, una causa inteligente para esos efectos.

¿ARGUMENTO NACIDO DE LA IGNORANCIA O INFERENCIA COMO MEJOR EXPLICACIÓN?
Algunos podrían objetar que cualquier argumento sobre el diseño constituye un argumento desde la ignorancia. Los objetores acusan a los defensores del diseño de utilizar nuestra ignorancia presente acerca de cualquier causa de información, natural y suficiente, como base única para inferir una causa inteligente de la información presente en la célula. Dado que aún no sabemos como pudo surgir la información biológica, invocamos la noción misteriosa de diseño inteligente. Según este punto de vista, el diseño inteligente funciona no como explicación sino como un sustituto de la ignorancia.

Aunque la inferencia de diseño a partir de la presencia de información en el ADN no significa tener una prueba de certeza deductiva del diseño inteligente (en la ciencia, los argumentos de base empírica raramente lo hacen), no constituye un argumento falaz surgido de la ignorancia. Los argumentos nacidos de la ignorancia se dan cuando la evidencia en contra de la proposición X es presentada como la única (y concluyente) razón para aceptar una proposición Y alternativa.

La inferencia de diseño, como ha sido bosquejada anteriormente (véase parte III, sección A), no incurre en esta falacia. Es cierto que en la sección previa de este ensayo (véase parte II, secciones A-F) adujeron que en el momento presente todos los tipos de causas y mecanismos naturales no pueden explicar el origen de la información biológica a partir de un estado prebiótico. Y claramente, esta ausencia de conocimiento acerca de cualquier causa natural proporciona de hecho parte de la razón para inferir diseño a partir de la información de la célula. (Aunque se podría argumentar de manera igualmente sencilla que incluso esta “ausencia de conocimiento” constituye en realidad un conocimiento de la ausencia). En todo caso, nuestra “ignorancia” acerca de cualquier causa natural suficiente es solo parte de la base para inferir diseño. También sabemos que los agentes inteligentes pueden y de hecho producen sistemas ricos en información: tenemos un conocimiento positivo basado en la experiencia de una causa alternativa que es suficiente, a saber, la inteligencia.

Por esta razón, la inferencia de diseño que se defiende aquí no constituye un argumento de ignorancia sino una inferencia para la mejor explicación (131).
Las inferencias para la mejor explicación no afirman la adecuación de una explicación causal solo sobre la base de la inadecuación de otra explicación causal. En su lugar, comparan el poder explicativo de muchas hipótesis en liza para determinar qué hipótesis proporcionaría, de ser verdad, la mejor explicación para cierto conjunto de información relevante. Trabajos recientes sobre el método de “inferencia para la mejor explicación” sugieren que el determinar que explicación, entre un conjunto de explicaciones que compiten, es la mejor depende del conocimiento del poder causal de las entidades explicativas competitivas (132).
Por ejemplo, tanto un terremoto como una bomba podrían explicar la destrucción de un edificio pero solo la bomba podría explicar la presencia de carbonilla y metralla en el lugar de los escombros. Los terremotos no producen metralla ni carbonizan, al menos no por sí solos. Así, la bomba explica mejor el patrón de destrucción del edificio. Las entidades, condiciones o procesos que tienen la capacidad (o poder causal) para producir la evidencia en cuestión constituyen mejor explicación de esta evidencia que aquellos que no la tienen.

De aquí se sigue que el proceso de determinación de la mejor explicación a menudo implica generar una lista de posibles hipótesis, en la que se compara su poder causal conocido (o teóricamente plausible) con respecto a los datos relevantes; luego, progresivamente, eliminar las explicaciones potenciales pero inadecuadas y, finalmente, en el mejor de los casos, elegir la explicación causal adecuada que queda.

Este ensayo ha seguido precisamente este método para hacer del argumento del diseño inteligente la mejor explicación del origen de la información biológica. Ha evaluado y comparado la eficiencia causal de cuatro grandes categorías de explicación –el azar, la necesidad, la combinación de ambas y el diseño inteligente- con respecto a su capacidad para producir grandes cantidades de información o complejidad especificada. Como hemos visto, ningún escenario basado en el azar o en la necesidad (ni los que combinan ambos) puede explicar el origen de la información biológica específica en un contexto prebiótico. Este resultado concuerda con nuestra experiencia humana uniforme. Los procesos naturales no producen estructuras ricas en información a partir puramente de precursores físicos o químicos. Tampoco la materia, tanto si actúa al azar como bajo la fuerza de la necesidad físico-química, se ordena a si misma en secuencias complejas ricas en información.

Sin embargo, no es correcto decir que no sabemos como surge la información. Sabemos por experiencia que los agentes conscientes inteligentes pueden crear secuencias y sistemas informativos. Citando de nuevo a Quastler, la “creación de nueva información está asociada habitualmente con la actividad consciente” (133).
Además, la experiencia enseña que cuando grandes cantidades de información o complejidad especificada están presentes en un artefacto o entidad cuya historia es conocida, invariablemente la inteligencia creativa –el diseño inteligente- jugó un papel causal en el origen de esa entidad. Así, cuando encontramos tal información en las biomacromoléculas necesarias para la vida, podemos inferir –basándonos en nuestro conocimiento de las relaciones de causa y efecto establecidas- que una causa inteligente operó en el pasado para producir la información o complejidad especificada necesaria para el origen de la vida.

Tal y como se ha formulado, esta inferencia de diseño emplea el mismo método de argumentación y razonamiento que los científicos de la historia utilizan generalmente.

Ciertamente, en el Origen de las especies, Darwin mismo desarrolla su argumento a favor de un ancestro común universal como inferencia para la mejor explicación. Como explicó en una carta a Asa Gray:

Compruebo esta hipótesis [de ascendencia común] comparando con tantas proposiciones generales y muy bien establecidas como puedo encontrar –en distribuciones geográficas, historia geológica, afinidades, etc, etc. Y me parece que, suponiendo que tal hipótesis fuera a explicar tales proposiciones generales, deberíamos, de acuerdo con la manera común de proceder de todas las ciencias, admitirla hasta que otra hipótesis mejor sea encontrada [énfasis añadido] (134).

Además, tal y como se ha explicado, el argumento de diseño de la información del ADN se adecua a los cánones uniformes de método empleados en las ciencias de la historia. El principio de uniformidad establece que “el presente es la clave del pasado”. En particular, el principio especifica que nuestro conocimiento de las relaciones actuales de causa y efecto debe gobernar nuestras valoraciones de la plausibilidad de las inferencias que hacemos acerca del pasado causal remoto. Sin embargo, es precisamente ese conocimiento de las relaciones de causa y efecto el que informa la inferencia del diseño inteligente. Ya que nosotros sabemos que los agentes inteligentes producen grandes cantidades de información, y ya que todos los procesos naturales conocidos no lo hacen (o no pueden), podemos inferir diseño como la mejor explicación del origen de la información en la célula. Recientes avances en las ciencias de la información (como las de Dembski en La inferencia de diseño) ayudan a definir y formalizar el conocimiento de tales relaciones de causa y efecto, permitiéndonos hacer inferencias acerca de las historias causales de varios artefactos, entidades o sucesos, basados en la complejidad y en su información teórica característica que muestran (135).
En cualquier caso, la inferencia de diseño depende del presente conocimiento de los poderes causales demostrados de entidades naturales y acción inteligente, respectivamente. Ya no constituye más argumento de ignorancia que cualquier otra inferencia bien fundada de la geología, la arqueología o la paleontología –en las que el presente conocimiento de las relaciones de causa y efecto guía las inferencias que hacen los científicos acerca del pasado causal.

Los objetores pueden todavía negar a legitimidad de la inferencia de diseño inteligente (incluso como mejor explicación) porque somos ignorantes acerca de lo que futuras investigaciones pueden descubrir acerca de los poderes causales de otros procesos y entidades materialistas. Algunos calificarían de inválida o acientífica la inferencia de diseño aquí presentada porque depende de una generalización negativa – es decir, “las causas puramente físicas o químicas no generan grandes cantidades de información específica”- que futuros descubrimientos pueden falsear más tarde. Según ellos nosotros “nunca decimos nunca”.

Sin embargo, la ciencia dice a menudo “nunca”, incluso si no puede decirlo con seguridad. Las generalizaciones negativas o proscriptivas juegan a menudo un importante papel en la ciencia. Como han señalado muchos científicos y filósofos de la ciencia, las leyes científicas nos dicen a menudo no solo lo que sucede sino también lo que no sucede (136).
Las leyes de la conservación de la termodinámica, por ejemplo, proscriben ciertos resultados. La primera ley nos dice que la energía nunca se crea ni se destruye. La segunda ley nos dice que la entropía de un sistema cerrado nunca disminuirá con el tiempo. Los que dicen que estas “leyes proscriptivas” no constituyen conocimiento, porque se basan en la experiencia pasada y no en la futura, no irán muy lejos si intentan usar su escepticismo para justificar financiación para investigar, por ejemplo, máquinas de móvil perpetuo.

Además, sin generalizaciones proscriptivas, sin el conocimiento acerca de qué posibles causas pueden o no entrar en escena, los científicos de la historia no podrían hacer determinaciones acerca del pasado. Reconstruir el pasado requiere hacer inferencias abductivas desde los efectos presentes hasta sucesos causales pasados (137).
Para hacer tales inferencias se requiere una eliminación progresiva de hipótesis causales competidoras. Decidir que causas deben ser eliminadas de la consideración requiere saber qué efectos puede tener una causa dada y cuales no puede. Si los científicos de la história nunca pudieran decir que entidades particulares carecen de poderes causales particulares, nunca podrían eliminarlos de toda consideración, ni siquiera provisionalmente. Así, nunca podrían inferir que una causa específica ha actuado en el pasado. Sin embargo, los científicos de la historia y los forenses hacen esas inferencias todo el tiempo.

Además, los ejemplos de inferencias de diseño de Dembski –procedentes de campos tales como la arqueología, la criptografía, la detección de fraudes y la investigación criminal forense- demuestran que a menudo inferimos la actividad de una causa inteligente en el pasado y evidentemente lo hacemos sin preocuparnos de incurrir en argumentos falaces de ignorancia. Y lo hacemos por una buena razón. Una enorme cantidad de experiencia humana demuestra que los agentes inteligentes tienen poderes causales únicos que la materia no tiene (especialmente la materia que no está viva). Cuando observamos características o efectos que sabemos por experiencia que solo producen agentes, inferimos correctamente la actividad a priori de la inteligencia.

Para determinar la mejor explicación, los científicos no necesitan decir “nunca” con absoluta certeza. Necesitan decir solamente que una causa propuesta es mejor, dado lo que sabemos en el presente acerca de los poderes causales demostrados de entidades o agentes en liza. Que la causa C puede producir el efecto E le hace una mejor explicación de E que una cierta causa D que nunca ha producido E (especialmente si D parece teóricamente incapaz de hacerlo), incluso si D pudiera más tarde demostrar el poder causal de lo que ignoramos en el momento presente (138).
Así, la objeción de que la inferencia de diseño constituye un argumento nacido de la ignorancia se reduce en esencia a replantear el problema de la inducción. Sin embargo podría hacerse la misma objeción contra cualquier ley o explicación científica o contra cualquier inferencia histórica que tenga en cuenta el presente conocimiento, no en el futuro, de las leyes naturales y los poderes causales. Como han señalado Barrow y Tipler, criticar los argumentos de diseño, como hizo Hume, simplemente porque asumen la uniformidad y el carácter normativo de las leyes naturales realiza un profundo corte en “la base racional de cualquier forma de investigación científica” (139).
Nuestro conocimiento acerca de lo que puede y de lo que no puede producir grandes cantidades de información específica puede tener que ser revisado más adelante, pero lo mismo sucede con las leyes de la termodinámica. Las inferencias de diseño pueden demostrarse más adelante incorrectas, como sucede con otras inferencias que implican varias causas naturales. Tal posibilidad no detiene a los científicos a la hora de hacer generalizaciones acerca de poderes causales de varias entidades o de utilizar esas generalizaciones para identificar causas probables o muy plausibles en casos concretos.

Las inferencias basadas en la experiencia presente y pasada constituye conocimiento (aunque provisional), pero no ignorancia. Aquellos que objetan contra tales inferencias objetan contra la ciencia, tanto como objetan contra una hipótesis de diseño particular de base científica.

PERO, ¿ES CIENCIA?
Es evidente que muchos simplemente se niegan a considerar la hipótesis de diseño alegando que no alcanza la categoría de “científica”. Tales críticos afirman un principio fuera de toda evidencia conocido como naturalismo metodológico (140).
El naturalismo metodológico afirma que, por definición, para que una hipótesis, teoría, o explicación sea considerada “científica”, tiene que invocar solo entidades naturalistas o materialistas. De acuerdo con tal definición, los críticos dicen que el diseño inteligente no es válido. Sin embargo, incluso si se da por buena esta definición, no se sigue que ciertas hipótesis no científicas (según las define el naturalismo metodológico) metafísicas no puedan constituir una mejor explicación, más adecuada causalmente. Este ensayo argumenta que, cualquiera que sea su clasificación, la hipótesis de diseño constituye una explicación mejor que sus rivales materialistas o naturalistas para el origen de la información biológica específica. Seguramente, la mera clasificación de un argumento como metafísico no lo refuta.

En cualquier caso, el naturalismo metodológico carece ahora de justificación como definición normativa de la ciencia. En primer lugar, los intentos de justificar el naturalismo metodológico mediante la referencia a un criterio de demarcación metafísicamente neutro (es decir, que no se pone en cuestión) han fracasado (141).
En segundo lugar, afirmar el naturalismo metodológico como principio normativo de toda la ciencia tiene un efecto negativo en la práctica de ciertas disciplinas científicas, especialmente en las ciencias históricas. Por ejemplo, en la investigación del origen de la vida, el naturalismo metodológico restringe artificialmente la investigación e impide a los científicos buscar hipótesis que pudieran proporcionar la mejor explicación, más adecuada causalmente. Para ser un buscador de la verdad, la cuestión que el investigador del origen de la vida debe plantearse no es “¿qué modelo materialista es el más adecuado?” sino más bien “¿qué provocó de verdad la aparición de la vida en la Tierra?” Claramente, una posible respuesta a esta última cuestión sea esta: “la vida fue diseñada por un agente inteligente que existió antes del advenimiento de los humanos”. Sin embargo, si se acepta el naturalismo metodológico como normativo, los científicos nunca podrán considerar la hipótesis del diseño como una verdad posible. Semejante lógica excluyente disminuye la significación de cualquier afirmación de superioridad teórica a favor de cualquier hipótesis restante y suscita la posibilidad de que la mejor explicación “científica” (tal y como la define el naturalismo metodológico) puede de hecho no ser la mejor.

Como reconocen actualmente muchos historiadores y filósofos de la ciencia, la evaluación de la teoría científica es una empresa inherentemente comparativa. Las teorías que ganan aceptación en competiciones artificialmente restringidas pueden afirmar no ser ni “la verdad más probable” ni “la más adecuada empíricamente”. Como mucho, tales teorías pueden ser consideradas como “la verdad más probable o adecuada entre el conjunto de opciones artificialmente limitado”. La apertura a la hipótesis del diseño parecería necesaria, por tanto, para cualquier biología histórica plenamente racional – es decir, para una que busque la verdad, “a tumba abierta” (142).
Una biología histórica comprometida a seguir la evidencia dondequiera que esta lleve, no excluirá hipótesis a priori por razones metafísicas. Por el contrario, empleará solo criterios metafísicamente neutros –como el poder explicativo o la adecuación causal- para evaluar hipótesis competitivas. Sin embargo, este enfoque más abierto (y aparentemente más racional) a la evaluación de la teoría científica sugeriría ahora la teoría del diseño inteligente como la mejor explicación o más adecuada causalmente para el origen de la información necesaria para construir el primer organismo vivo.

----------------------------
Referencia bibliográfica:

1
Harmke Kamminga, "Protoplasm and the Gene," in Clay Minerals and the Origin of Life, ed. A. G. Cairns-Smith and H. Hartman (Cambridge: Cambridge University Press, 1986), 1.

2 Alexander Oparin, Genesis and Evolutionary Development of Life (New York: Academic Press, 1968), 7.

3 F. Crick and J. Watson, "A Structure for Deoxyribose Nucleic Acid," Nature 171 (1953): 737-38; F. Crick and J. Watson, "Genetical Implications of the Structure of Deoxyribose Nucleic Acid,"Nature 171 (1953): 964-67, esp. 964; T. D. Schneider, "Information Content of Individual Genetic Sequences," Journal of Theoretical Biology 189 (1997): 427-41; W. R. Loewenstein, The Touchstone of Life: Molecular Information, Cell Communication, and the Foundations of Life(New York:

Oxford University Press, 1999).

4 Bernd-Olaf Kuppers, Information and the Origin of Life (Cambridge: MIT Press, 1990), 170-72.

5 L. E. Kay, "Who Wrote the Book of Life? Information and the Transformation of Molecular Biology," Science in Context 8 (1994): 601-34; 1. E. Kay, "Cybernetics, Information, Life: The Emergence of Scriptural Representations of Heredity," Configurations 5 (1999): 23-91; 1. E. Kay, Who Wrote the Book of Life? (Stanford, Calif.: Stanford University Press, 2000), xv-xix.

6 La única conjetura de Darwin acerca del origen de la vida se encuentra en una carta de 1871 no publicada dirigida a Joseph Hooker. En ella, bosqueja las líneas maestras de la idea de la química evolutiva, a saber, que la vida podría haber surgido primero a partir de una serie de reacciones químicas. Tal y como él lo concibió, “si (¡y que “si” más grande!) pudiéramos creer en algún tipo de pequeño charco caliente, con toda clase de amonios, sales fosfóricas, luz, calor y electricidad, etc, presentes, de modo que un compuesto proteico se formara químicamente listo para someterse a cambios aún más complejos...” [El manuscrito de Darwin no ha podido ser comprendido en su totalidad debido a lo complicado de su letra. La frase en cuestión está incompleta, si bien deja bastante claro que Darwin concibió los principios de la química evolutiva naturalista. N. Del T.]. Cambridge University Library, Manuscript Room, Darwin Archives, cortesía de Peter Gautrey.

7 E. Haeckel, The Wonders of Life, traducido por J. McCabe (London: Watts, 1905), 111; T. H. Huxley, "On the Physical Basis of Life," Fortnightly Review 5 (1869): 129-45.

8 A. I. Oparin, The Origin of Life, traducido por S. Morgulis (New York: Macmillan, 1938); S. C. Meyer, "Of Clues and Causes: A Methodological lnterpretation of Origin of Life Studies" (Ph.D. diss., Cambridge University, 1991).

9 W. T. Astbury and A. Street, "X-Ray Studies of the Structure of Hair, Wool and Related Fibers," Philosophical Transactions of the Royal Society of London A 230 (1932): 75-101; H. Judson, Eighth Day of Creation (New York: Simon and Schuster, 1979), 80; R. Olby, The Path to the Double Helix (London: Macmillan, 1974), 63.

10 Olby, Path to the Double Helix, 7, 265.

11 Judson, Eighth Day, 213, 229-35, 255-61, 304, 334-35, 562-63; F. Sanger and E. O. P. Thompson, "The Amino Acid Sequence in the Glycyl Chain of Insulin," parts 1 and 2, Biochemical Journal 53 (1953): 353-66, 366-74.

12 Judson, Eighth Day, 562-63; J. C. Kendrew, G. Boda, H. M. Dintzis, R. G. Parrish, and H. Wyckoff, "A Three-Dimensional Model of the Myoglobin Molecule Obtained by X-Ray Analysis," Nature 181 (1958): 662-66, esp. 664.

13 B. Alberts, D. Bray, J. Lewis, M. Raff, K. Roberts, and J. D. Watson, Molecular Biology of the Cel! (New York: Garland, 1983), 111-12, 127-31.

14 Judson, Eighth Day, 30.

15 Ibid., 30-31, 33-41, 609-10; Oswald T. Avery, C. M. MacCleod, and M. McCarty, "lnduction of Transformation by a Deoxyribonucleic Acid Fraction lsolated fram Pneumococcus Type III," Journal of Experimental Medicine 79 (1944): 137-58.

16 Judson, Eighth Day, 95-96; E. Chargaff, Essays on Nucleic Acids (Amsterdam: EIsevier, 1963), 21.

17 Chargaff, Essays, 21.

18 Crick and Watson, "Structure."

19 Judson, Eighth Day, 96.

20 Crick and Watson, "Genetical Implications," 964-67.

21 Judson, Eighth Day, 611.

22 Crick and Watson, "Structure"; Crick and Watson, "Genetical Implications."

23 Judson, Eighth Day, 245-46, 335-36.

24 Ibid., 470-89; J. H. Matthei and M. W. Nirenberg, "Characteristics and Stabilization of DNAase-Sensitive Protein Synthesis in E. colli Extracts," Proceedings of the National Academy of Sciences, USA 47 (1961): 1580-88; J. H. Matthei and M. W. Nirenberg, "The Dependenee of Cell-Free Protein Synthesis in E. colli upon Naturally Occurring or Synthetic Polyribonucleotides," Proceedings of the National Academy of Sciences, USA 47 (1961): 1588-1602.

25 Alberts et al., Molecular Biology, 106-8; S. 1. Wolfe, Molecular and Cellular Biology (Belmont, Calif.: Wadsworth, 1993), 639-48.

26 Lógicamente, ahora sabemos que además del proceso de expresión génica, enzimas específicas modifican a menudo las cadenas de aminoácidos después de la traducción para conseguir la secuencia precisa necesaria para permitir el plegamiento correcto de la proteína funcional. Las cadenas de aminoácidos producidas por la expresión génica pueden sufrir luego ulteriores modificaciones de secuencia en el retículo endoplasmático. Finalmente, incluso las cadenas de aminoácidos correctamente modificadas pueden requerir “chaperones” proteicos preexistentes para ayudarles a adoptar una configuración tridimensional funcional. Todos estos factores hacen imposible predecir la secuencia final de una proteína a partir tan solo de su secuencia genética. Véase S. Sarkar, “Biological Information: A Skeptical Look at Some Central Dogmas of Molecular Biology”, en The Philosophy and History of Molecular Biology: New Perspectives, ed. S. Sarkar (Dordrecht, Netherlands: Boston Studies in Philosophy of Science, 1996), 196, 199-202. Sin embargo, lo impredecible no contradice de ninguna manera la afirmación de que el ADN muestra la propiedad de “especificidad de secuencia”, como he expuesto en la parte I, sección E. Por ejemplo, Sarkar aduce que la ausencia de predecibilidad hace que el concepto de información sea teóricamente superfluo para la biología molecular. En cambio, lo impredecible muestra que la especificidad de secuencia de las bases del ADN constituye condición necesaria, pero no suficiente, para lograr el plegamiento proteico, es decir, el ADN contiene información específica (parte I, sección E), pero no la suficiente para determinar por sí misma el plegamiento de la proteína. Por el contrario, tanto los procesos de modificación pos-traduccional como la edición genómica pre-transcripcional (mediante exonucleasas, endonucleasas, espliceosomas, y otras enzimas de edición) solo subrayan la necesidad de otras moléculas preexistentes ricas en información para procesar la información genómica de la célula. La presencia de un sistema de procesamiento de la información, complejo y funcionalmente integrado, sugiere efectivamente que la información de la molécula de ADN es insuficiente para producir la proteína. Ello no demuestra que tal información sea innecesaria para producir las proteínas, ni invalida la afirmación de que el ADN almacena y transmite información genética específica.

27 C. Shannon, "A Mathematical Theory of Communication," Bell System Technical Journal 27 (1948): 379-423, 623-56.

28 C. Shannon, "A Mathematical Theory of Communication," Bell System Technical Journal 27 (1948): 379-423, 623-56.

29 Ibid.; Shannon, "A Mathematical Theory."

30 B. Kuppers, "On the Prior Probability of the Existence of Life," in The Probabilistic Revolution, ed. Lorenz Kruger et al. (Cambridge: MIT Press, 1987), 355-69.

31 Schneider, “Information content”; véase también H. P. Yockey, Information Theory and Molecular Biology (Cambridge: Cambridge University Press, 1992), 246-58, para una mayor precisión en cuanto al método de cálculo de la capacidad de transportar información de las proteínas y el ADN.

32 C. Shannon and W. Weaver, The Mathematical Theory of Communication Urbana: University of Illinois Press, 1949), 8.

33 Schneider, "Information Content," 58-177; Yockey, Information Theory, 58-177.

34 Véase la nota 26. Sarkar, "Biological Information," 199-202, esp. 196; F. Crick, "On Protein Synthesis," Symposium for the Society of Experimental Biology 12 (1958): 138-63, esp. 144, 153.

35 Crick, "On Protein Synthesis," 144, 153.

36 Recuérdese que la determinación del código genético dependía, por ejemplo, de la correlación observada entre los cambios de la secuencia de bases nucleotídicas y la producción de aminoácidos en “sistemas independientes de la célula”. Véase Judson, Eighth Day, 470-87.

37 W. A. Dembski, The Design Inference: Eliminating Chance Through Small Probabilities (Cambridge: Cambridge University Press, 1998), 1-35, 136-74.

38 Ibid., 136-74.

39 De las dos secuencias, solo la segunda satisface un conjunto independiente de requisitos funcionales. Para transmitir un significado en inglés, debe emplearse los convencionalismos preexistentes (o independientes) del vocabulario (asociaciones de secuencias de símbolos con objetos, conceptos o ideas particulares) y convencionalismos existentes de la sintaxis y la gramática (como por ejemplo, “toda sentencia requiere un sujeto y un verbo”). Cuando el ordenamiento de los símbolos “coincide” o utiliza estos convencionalismos gramaticales o de vocabulario (es decir, los requisitos funcionales), se da en el inglés la transmisión de significado. La segunda frase (“el tiempo y la marea no esperan a nadie”) muestra claramente esa coincidencia entre ella misma y los requisitos preexistentes del vocabulario y la gramática. La segunda frase ha empleado estos convencionalismos para expresar una idea con significado. Por lo tanto, también entra dentro del patrón más reducido (y condicionalmente independiente) que delimita el dominio de las frases en inglés con significado y por tanto, nuevamente, muestra una “especificidad”.

40 J. Bowie and R. Sauer, "Identifying Determinants of Folding and Activity for a Protein of Unknown Sequences: Tolerance to Amino Acid Substitution," Proceedings of the National Academy of Sciences, USA 86 (1989): 2152-56; J. Reidhaar-Olson and R. Sauer, "Functionally Acceptable Solutions in Two Alpha-Helical Regions of Lambda Repressor," Proteins, Structure, Function, and Genetics 7 (1990): 306-10.

41 R. Dawkins, River out of Eden (New York: Basic Books, 1995), 11.

42 B. Gates, The Road Ahead (Boulder, Colo.: Blue Penguin, 1996), 228.

43 L. E. Orgel, The Origins of Life on Earth (New York: John Wiley, 1973), 189.

44 Véase la nota 5. Kay, "Who Wrote," 611-12, 629; Kay, "Cybernetics"; Kay, Who Wrote.

45 Sarkar, "Biological Information," 199-202.

46 E. Schrodinger, What Is Life? And Mind and Matter (Cambridge: Cambridge University Press, 1967), 82; Alberts et al., Molecular Biology, 21; Crick and Watson, "A Structure"; Crick and Watson, "Genetical Implications"; Crick, "On Protein"; Judson, Eighth Day, 611; Orgel, Origins of Life, 189.

47 P. Davies, The Fifth Miracle (New York: Simon and Schuster, 1998), 120.

48 Orgel, Origins ofLife, 189.

49 Loewenstein, Touchstone; Davies, Fifth Miracle; Schneider, "Information Content"; C. Thaxton and W. Bradley, "Information and the Origin of Life," in The Creation Hypothesis: Scientific Evidence for an Intelligent Designer, ed. J. P. Moreland (Downers Grove, Ill.: InterVarsity Press, 1994),173-210, esp. 190; S. Kauffman, The Origins ofOrder (Oxford:

Oxford University Press, 1993), 287-340; Yockey, Information Theory, 178-293; Kuppers, Information and Origin, 170-72; F. Crick, Life Uself (New York: Simon and Schuster, 1981), 59-60, 88; J. Monod, Chance and Necessity (New York: Vintage Books, 1971), 97-98, 143; Orgel, Origins, 189; D. Kenyon and G. Steinman, Biochemical Predestination (New York: McGraw-Hill, 1969), 199-211,263-66; Oparin, Genesis, 146-47; H. Quastler, The Emergence of Biological Organization (New Haven, Conn.: Yale University Press, 1964).

50 G. Wald, "The Origin of Life," Scientific American 191 (August 1954): 44-53; R. Shapiro, Origins: A Skeptic's Guide to the Creation of Life on Earth (New York: Summit Books, 1986), 121.

51 F. Crick, "The Origin of the Genetic Code," Journal of Molecular Biology 38 (1968): 367-79; H. Kamminga, "Studies in the History of Ideas on the Origin of Life" (Ph.D. diss., University of London 1980), 303-4.

52 C. de Duve, "The Constraints of Chance," Scientific American (Jan. 1996): 112; Crick, Life Itself, 89-93; Quastler, Emergence, 7.

53 H. J. Morowitz, Energy Flow in Biology (New York: Academic Press, 1968), 5-12; F. Hoyle and C. Wickramasinghe, Evolution from Space (London: J. M. Dent, 1981),24-27; A. G. Cairns-Smith, The Life Puzzle (Edinburgh: Oliver and Boyd, 1971),91-96; 1. Prigogine, G. Nicolis, and A. Babloyantz, "Thermodynamics of Evolution," Physics Today (23 Nov. 1972); Yockey, Information Theory, 246-58; H. P. Yockey, "Self-Organization, Origin of Life Scenarios and Information Theory," Journal ofTheoretical Biology 91 (1981): 13-31; Bowie and Sauer, "Identifying Determinants"; Reidhaar-Olson et al., Proteins; Shapiro, Origins, 117-31.

54 Prigogine, "Thermodynamics."

55 Cairns-Smith, Life Puzzle, 95.

56 Reidhaar-Olson y Sauer, “Functionally Acceptable”; D. D. Axe, “Biological Function Places Unexpectedly Tight Constraints on Protein Sequences”, Journal of Molecular Biology 301, no. 3: 585-96; M. Behe, “Experimental Support for regarding Functional Classes of Proteins to Be Highly Isolated from Each Other”, in Darwinism: Science or Philosophy? Ed. J. Buell and V. Hearn (Richardson, Tex.: Foundation for Thorught and Ethics, 1994), 60-71; Yockey, Information Theory, 246-58. En realidad, Sauer consideró funcionales secuencias que se plegaban para dar configuraciones tridimensionales estables, aunque muchas secuencias que se pliegan no son funcionales. Por tanto, sus resultados subestiman la dificultad probabilística.

57 Behe, "Experimental Support."

58 Axe, "Biological Function."

59Dawkins, Blind Watchmaker, 54, 139.
60
Dembski, Design Inference, 175-223; E. Borel, Probabilities and Life, trans. M. Baudin (New York: Dover, 1962), 28. El umbral de probabilidad universal de Dembski refleja en realidad los recursos de “especificidad”, no los recursos probabilisticos del universo. El cálculo de Dembski determina el número de especificaciones posibles en el tiempo finito. Sin embargo, tiene el efecto de limitar los “recursos probabilisticos” disponibles para explicar el origen de cualquier suceso específico de baja probabilidad. Dado que los sistemas vivos son precisamente sistemas específicos de baja probabilidad, el umbral de probabilidad universal limita efectivamente los recursos probabilisticos disponibles para explicar el origen de la información biológica específica.

61 Dembski, Design Inference, 175-223. Los experimentos de mutagénesis por inserción de un casete se han realizado habitualmente en proteínas de aproximadamente 100 aminoácidos de longitud. Sin embargo, las extrapolaciones de estos resultados pueden generar estimas razonables de la improbabilidad de moléculas de proteínas más largas. Por ejemplo, los resultados de Sauer sobre el represor lambda de proteínas y el represor arc sugieren que, en promedio, la probabilidad de cada sitio para encontrar un aminoácido que mantenga la secuencia funcional (o, más exactamente, que produzca plegamiento) es menor que 1 de 4 (1 en 4,4). La multiplicación de ¼ por sí mismo 150 veces (para una proteína de 150 aminoácidos de largo) da una probabilidad de aproximadamente 1 en 1091. Para una proteína de esa longitud, la probabilidad de lograr tanto la homoquiralidad como los enlaces peptídicos exclusivos es también aproximadamente 1 en 1091. Por lo tanto, la probabilidad de lograr todas las condiciones de función necesarias para una proteína de 150 aminoácidos de longitud excede de 1 en 10180.

62 Dembski, Design Inference, 67-91, 175-214; Borel, Probabilities, 28.

63 E. Pennisi, "Seeking Life's Bare Genetic Necessities," Science 272 (1996): 1098-99; A. Mushegian and E. Koonin, "A Minimal Gene Set for Cellular Life Derived by Comparison of Complete Bacterial Genomes," Proceedings of the N ational Academy of Sciences, USA 93 (1996): 10268-73; C. Bult et al., "Complete Genome Sequence of the Methanogenic Archaeon, Methanococcus jannaschi," Science 273 (1996): 1058-72.

64 Dembski, Design Inference, 67-91, 175-223,209-10.

65 P. T. Mora, "Urge and Molecular Biology," Nature 199 (1963): 212-19.

66 I. Hacking, The Logic of Statistical Inference (Cambridge: Cambridge University Press, 1965), 74-75.

67 Dembski, Design Inference, 47-55.

68 C. de Duve, "The Beginnings of Life on Earth," American Scientist 83 (1995): 437.

69 Quastler, Emergence, 7.

70 Oparin, Origin of Life, 64-103; Meyer, Of Clues, 174-79, 194-98,

211-12.

71 Oparin, Origin of Life, 107-8, 133-35, 148-59, 195-96.

72 Oparin, Genesis, 146-47.

73 C. de Duve, Blueprint for a Cell: The Nature and Origin of Life (Burlington, N.C.: Neil Patterson, 1991), 187.

74 G. Joyce and 1. Orgel, "Prospects for Understanding the Origin of the RNA World," in RNA World, ed. R. F. Gesteland and J. J. Atkins (Cold Spring Harbor, N.Y.: Cold Spring Harbor Laboratory Press, 1993), 1-25, esp. 8-13.

75 T. Dobzhansky, "Discussion of G. Schramm's Paper," in The Origins of prebiological Systems and of Their Molecular Matrices, ed. S. W. Fox (New York: Academic Press, 1965),310; H. H. Pattee, "The Problem of Biological Hierarchy," in Toward a Theoretical Biology, ed. C. H. Waddington, vol. 3 (Edinburgh: Edinburgh University Press, 1970), 123.

76 P. T. Mora, "The Folly of Probability," in Fox, Origins, 311-12; 1. V. Bertalanffy, Robots, Men and Minds (New York: George Braziller, 1967), 82.

77 J. Von Neumann, Theory of Self-reproducing Automata, completed and edited by A. Berks (Urbana: University of Illinois Press, 1966).

78 Pennisi, "Seeking"; Mushegian and Koonin, "Minimal Gene Set"; Bult et al., "Complete Genome Sequence."

79 E. Wigner, "The Probability of the Existence of a Self-reproducing Unit," in The Logic of Personal Knowledge, ed. E. Shils (London: Kegan and Paul, 1961),231-35; P. T. Landsberg, "Does Quantum Mechanics Exclude Life?" Nature 203 (1964): 928-30; H. J. Morowitz, "The Minimum Size of the Cell," in PrincipIes of Biomolecular Organization, ed. M. O'Connor and G. E. W. Wolstenholme (London: J. A. Churchill, 1966),446-59; Morowitz, Energy Flow, 10-11.

80 Dawkins, Blind Watchmaker, 47-49; Kuppers, "On the Prior Probability."

83 de Duve, "Beginnings of Life, " 437.

84 Morowitz, Energy Flaw, 5-12.

85 G. Steinman and M. N. Cole, "Synthesis of Biologically Pertinent Peptides Under Possible Primordial Conditions," Proceedings of the National Academy of Sciences, USA 58 (1967): 735-41; G. Steinman, "Sequence Generation in Prebiological peptide Synthesis," Archives af Biochemistry and Biophysics 121 (1967): 533-39; R. A. Kok, J. A. Taylor, and W. L. Bradley, "A Statistical Examination of Self-Ordering of Amino Acids in Proteins," Origins of Life and Evolution of the Biosphere 18 (1988): 135-42.

86 Kenyon and Steinman, Biachemical Predestinatian. 199-211, 263-66.

87 I. Prigogine and G. Nicolis, Self-Organizatian in NanEquilibrium Systems (New York: John Wiley, 1977), 339-53, 429-47.

88 Kauffman, Origins of Order, 285-341; de Duve, "Beginnings of Life"; C. de Duve, Vital Dust: Life as a Cosmic Imperative (New York: Basic Books, 1995).

89 C. Thaxton, W. Bradley, and R. Olsen, The Mystery af Life's Origin: Reassessing Current Theories (Dallas: Lewis and Stanley, 1992), v-viii; D. Kenyon and G. MilIs, "The RNA World: A Critique," Origins and Design 17, no. 1 (1996): 9-16; D. Kenyon and P. W. Davis, Of Pandas and People: The Central Question af Biological Origins (Dallas: Haughton, 1993); S. C. Meyer, "A Scopes Trial for the '90's," Wall Street Journal, 6 Dec. 1993; Kok et al., "Statistical Examination."

90 Steinman and Cole, "Synthesis"; Steinman, "Sequence Generation."

91 Kok et al., "Statistical Examination"; B.J. Strait and G. T. Dewey, "The Shannon Information Entropy of Biologically Pertinent Peptides," Biaphysical Jaurnal 71: 148-155.

92 Kuppers, "On the Prior Probability," 64.

93 de Duve, "Beginnings of Life, " 437.

94 R. Stalnaker, Inquiry (Cambridge: MIT Press, 1984), 85.

95 De hecho, esto sucede cuando la adenina y la timina interaccionan químicamente dentro del apareamiento de bases a través del eje informativo de la molécula de ADN. Sin embargo, a lo largo del eje informativo, no hay enlaces químico o de afinidades diferenciales de enlace que determinen la secuencia.

96 M. Polanyi, "Life's Irreducible Structure," Science 160 (1968): 1308-12, esp. 1309.

97 Como se señaló en la parte I, sección D, la capacidad de cualquier símbolo para transmitir información en una secuencia tiene relación inversa con la probabilidad de su ocurrencia. La capacidad informativa de la totalidad de una secuencia es inversamente proporcional al producto de las probabilidades individuales de cada miembro de la secuencia. Ya que las afinidades químicas entre los componentes (“símbolos”) incrementan la probabilidad de ocurrencia de un componente una vez dado otro, tales afinidades disminuyen la capacidad de transmitir información de un sistema en proporción a la fuerza y frecuencia relativa de tales afinidades dentro del sistema.

98 Dretske, Knowledge and the Flow, 12.

99 Yockey, "Self-Organization," 18.

100 H. P. Yockey, "A Calculation of the Probability of Spontaneous Biogenesis by Information Theory," Journal of Theoretical Biology 67 (1977): 377-98, esp. 380.

101 M. Eigen, Steps Toward Life (Oxford: Oxford Universíty Press, 1992), 12.

102 Quastler, Emergence, ix.

103 Ibid., 1,47.

104 Yockey, Information Theory, 247.

105 J. C. Walton, "Organization and the Origin of Life," Origins 4 (1977): 16-35.

106 J. M. Smith, "Hypercycles and the Origin of Life," Nature 280 (1979): 445-46; F. Dyson, Origins of Life (Cambridge: Cambridge University Press, 1985),9-11, 35-39, 65-66, 78; Shapiro, Origins, 161.

107 Iris Fry, The Emergence of Life on Earth (New Brunswick, N.J.: Rutgers University Press, 2000), 158.

108 Kauffman, Origins of Order, 285-341.

109 Ibid., 299.

110 Véase Protein Databank at http://www.rcsb.org/pdb.

111 Kauffman, Origins of Order, 298.

112 Thaxton, et al., Mystery of Life's Origin, 127-43.

113 R. Shapiro, "Prebiotic Cytosine Synthesis: A Critical Analysis and Implications for the Origin of Life," Proceedings of the National Academy of Sciences, USA 96 (1999): 4396-4401; M. M. Waldrop, "Did Life Really Start Out in an RNA World?" Science 246 (1989): 1248-49.

114 R. Shapiro, "Prebiotic Ribose Synthesis: A Critical Analysis," Origins of Life and Evolution of the Biosphere 18 (1988): 71-85; Kenyon and Mills, "RNA World."

115 G. F. Joyce, "RNA Evolution and the Origins of Life," Nature 338 (1989): 217-24.

116 A. J. Hager, J. D. Polland Jr., and J. W. Szostak, "Ribozymes: Aiming at RNA Replication and Protein Synthesis," Chemistry and Biology 3 (1996): 717-25.

117 de Duve, Vital Dust, 23.

118 Joyce and Orgel, "Prospects for Understanding," 1-25, esp. 11.

119 Quastler, Emergence, 16.

120 Una posible excepción a esta generalización pudiera darse en la evolución biológica. Si el mecanismo darwiniano de la selección natural que actúa sobre las variaciones al azar puede explicar la emergencia de toda vida compleja, entonces existe un mecanismo que puede producir grandes cantidades de información –suponiendo, lógicamente, una gran cantidad de información biológica preexistente en un sistema vivo autorreplicante. Así, incluso si se supone que el mecanismo de selección/variación puede producir toda la información requerida por la macroevolución de la vida compleja a partir de la vida más simple, aquel mecanismo no bastará para explicar el origen de la información necesaria para producir vida a partir de agentes vivos abióticos. Como hemos visto, invocar a la selección natural prebiótica tan solo da por sentado el origen de la información específica. Por tanto, según la experiencia, podemos aseverar la generalización siguiente: “para todos los sistemas no biológicos, las grandes cantidades de complejidad o información específicas se originan tan solo a partir de una acción mental, una actividad consciente o de diseño inteligente (véase la nota 118 anterior)”. En términos estrictos, la experiencia puede incluso afirmar una generalización de menor alcance (como que “grandes cantidades de especificidad son originadas invariablemente a partir de una fuente inteligente”), ya que la afirmación de que la selección natural, actuante sobre mutaciones aleatorias puede producir grandes cantidades de información genética de novo, depende de argumentos teóricos discutibles y de la extrapolación de observaciones de cambios microevolutivos a pequeña escala que no manifiestan grandes ganancias de información biológica. Más adelante en este volumen (en “La explosión cámbrica: el “Big Bang” de la biología”), Meyer, Ross, Nelson y Chien aducen que ni el mecanismo neo-darwiniano ni ningún otro mecanismo naturalista explica adecuadamente el origen de la información requerida para construir las nuevas proteínas y diseños corporales que aparecen en la explosión cámbrica. En todo caso, la generalización empírica más exitosa (enunciada al principio de esta nota) es suficiente para apoyar el argumento que se presenta aquí, ya que este ensayo solo busca establecer que el diseño inteligente es la mejor explicación del origen de la información específica necesaria para el origen de la vida primigenia.

121 K. Dose, "The Origin of Life: More Questions Than Answers," Interdisciplinary Science Reviews 13 (1988): 348-56; Yockey, Information Theory, 259-93; Thaxton et al., Mystery, 42-172; Thaxton and Bradley, "Information and the Origin," 193-97; Shapiro, Origins.

122 Está claro que la expresión “grandes cantidades de información específica” da por sentado nuevamente otra cuestión cuantitativa, a saber, “¿cuanta complejidad o información específica tendría que tener una célula mínimamente compleja para que ello implicara diseño?”. Recuérdese que Dembski calculó un valor umbral de probabilidad universal de 1/10150 que corresponde a los recursos de probabilidad y de especificidad del universo conocido. Recuérdese igualmente que la probabilidad guarda relación inversa con la información mediante una función logarítmica. Por tanto, el reducido valor umbral de probabilidad universal de 1/10150 se traduce aproximadamente en 500 bits de información. Por lo tanto, el azar solamente no constituye explicación suficiente para el origen de novo de cualquier secuencia o sistema específicos que contenga más de 500 bits de información (específica). Además, dado que los sistemas caracterizados por la complejidad (o falta de orden redundante) desafían ser explicados mediante leyes autoorganizativas y dado que las invocaciones a la selección natural prebiótica presuponen pero no explican el origen de la información específica necesaria para un sistema autorreplicativo medianamente complejo, el diseño inteligente es la mejor explicación del origen de los más de 500 bits de información específica requerida para producir el primer sistema vivo mínimamente complejo. Así, suponiendo un punto de partida no biológico (véase la nota 116 anterior), la aparición de novo de 500 bits o más de información específica indican diseño de manera fiable.

123 Nuevamente, esta afirmación se impone por lo menos en casos en los que las condiciones o las entidades causales que compiten no son biológicas – o donde el mecanismo de la selección natural puede ser con seguridad eliminado por ser un medio inadecuado de producir la información específica requerida.

124 Dembski, Design Inference, 1-35.

125 Ibid., 1-35, 136-223.

126 Ibid., 36-66.

127 Ibid.; E. Sober, Reconstructing the Past (Cambridge, Mass.: MIT Press, 1988), 4-5; M. Scriven, "Causes, Connections, and Conditions in History," in Philosophical Analysis and History, ed. W. Dray (New York: Harper and Row, 1966), 238-64, esp. 249-50.

128 McNeil-Lehrer News Hour, Transcript 19 (May 1992).

129 Meyer, Of Clues, 77-140.

130 La detección del diseño se realiza rutinariamente de manera menos exótica (y más exitosa) tanto en la ciencia como en la industria. La detección de fraudes, las ciencias forenses y la criptografía dependen todas de la aplicación de los criterios teóricos probabilísticos y de información del diseño inteligente. Dembski, Design Inference, 1-35. Muchos admiten que podemos inferir con justificación la acción de una inteligencia humana operativa en el pasado (dentro del ámbito de la historia humana) a partir de un artefacto o un suceso rico en información, pero solamente porque ya sabemos que existe la mente humana. Pero aducen que inferir la acción de un agente diseñador que antecede a los humanos no puede justificarse, incluso cuando observamos un efecto rico en información, dado que no sabemos si un agente o agentes inteligentes existieron con anterioridad a los humanos. Sin embargo, nótese que los científicos del SETI tampoco saben si existe o no una inteligencia extraterrestre. No obstante suponen que la presencia de una gran cantidad de información específica (como por ejemplo la secuencia con los 100 primeros números primos) establecería definitivamente su existencia. Efectivamente, SETI busca precisamente establecer la existencia de otras inteligencias en un dominio desconocido. De manera similar, los antropólogos han revisado a menudo sus estimas del comienzo de la historia humana o de la civilización porque han descubierto artefactos ricos en información procedentes de épocas que anteceden a sus estimas previas. La mayoría de las inferencias de diseño establecen la existencia o la actividad de un agente mental operativo en un tiempo o lugar en el que la presencia de tal agente era previamente desconocido. Por tanto, para inferir la actividad de una inteligencia diseñadora en un tiempo anterior al advenimiento de los humanos en la Tierra no tiene un estatus epistemológico cualitativamente distinto de otras inferencias de diseño que los críticos ya aceptan como legítimas. T. R. McDonough, The Search for Extraterrestrial Inteligence: Listening for Life in the Cosmos (New York: Wiley, 1987).

131 P. Lipton, Inference to the Best Explanation (New York: Routledge, 1991), 32-88.

132 Ibid.; S. C. Meyer, "The Scientific Status of Intelligent Design: The Methodological Equivalence of Naturalistic and Non-Naturalistic Origins Theories," in Science and Evidence for Design in the Universe, The Proceedings of the Wethersfield Institute, vol. 9 (San Francisco: Ignatius Press, 2000), 151-212; Meyer, "The Demarcation of Science and Religion," in The History of Science and Religion in the Western Tradition: An Encyclopedia, ed. G. B. Ferngren (New York: Garland, 2000), 17-23; E. Sober, The Philosophy of Biology (San Francisco: Westview Press, 1993); Meyer, Of Clues, 77-140.

133 Quastler, Emergence, 16.

134 Francis Darwin, ed., Life and Letters of Charles Darwin, 2 vols. (London: D. Appleton, 1896), 1:437.

135 Dembski, Design Inference, 36-37, esp. 37.

136 Oparin, Origin of Life, 28; M. Rothman, The Science Gap (Buffalo, N.Y.: Prometheus, 1992), 65-92; K. Popper, Conjectures and Refutations: The Growth of Scientific Knowledge (London: Routledge and Kegan Paul, 1962), 35-37.

137 Meyer, Of Clues, 77-140; Sober, Reconstructing the Past, 4-5; de Duve, "Beginnings of Life," 249-50.

138 R. Harre and E. H. Madden, Causal Powers (London: Basil Blackwell, 1975).

139 J. Barrow and F. Tipler, The Anthropic Cosmological Principle (Oxford: Oxford University Press, 1986), 69.

140 M. Ruse, "McLean v. Arkansas: Witness Testimony Sheet," en But Is It Science? ed. M. Ruse (Amherst, N.Y.: Prometheus Books, 1988), 103; Meyer, "Scientific Status"; Meyer, "Demarcation."

141 Meyer, "Scientific Status"; Meyer, "Demarcation"; L. Laudan, "The Demise of the Demarcation Problem," in Ruse, But Is It Science? 337-50; L. Laudan, "Science at the Bar-Causes for Concern," en Ruse, But Is It Science? 351-55; A. Plantinga, "Methodological Naturalism?" Origins and Design 18, no. 1 (1986): 18-26; A. Plantinga, "Methodological Naturalism?" Origins and Design 18, no. 2 (1986): 22-34.

142 Bridgman, Reflections of a Physicist, 2d ed. (New York: Philosophical Library, 1955), 535.

---
Fuente:
Ciência Alternativa

No hay comentarios:

Publicar un comentario