sábado, 21 de noviembre de 2009

EL DISEÑO INTELIGENTE COMO TEORÍA DE LA INFORMACIÓN

Por: William A. Dembski

Resumen: Para la comunidad científica el diseño inteligente representa el último intento del creacionismo para acceder a la legitimidad científica. De acuerdo con esto, el diseño inteligente es erróneamente contemplado como otro intento creacionista para amoldar a la ciencia dentro de la ideología religiosa. Pero de hecho, el diseño inteligente puede ser formulado como una teoría científica que tiene consecuencias empíricas y está libre de compromisos religiosos. El diseño inteligente puede ser presentado como una teoría de la información. En esta teoría, la información se transforma en un indicador fiable del diseño y también en un verdadero objeto de investigación científica. En mi trabajo (1) demuestro como la información puede ser detectada y medida de manera fiable y (2) formulo una ley de conservación que gobierna el origen y el flujo de la información. Mi conclusión inequívoca es que la información no es reducible a causas naturales y que el origen de la información debe ser buscado en causas inteligentes. De este modo, el diseño inteligente se convierte en una teoría para detectar y medir la información, que explica su origen y rastrea su flujo.

Biosketch: Bill Dembski tiene un doctorado en matemáticas por la Universidad de Chicago, un doctorado en filosofía por la Universidad de Illinois en Chicago y un M. Div. del Seminario Teológico de Princeton. Bill ha realizado trabajos posdoctorales en el MIT, y en las universidades de Chicago, Northwestern, Princeton, Cambridge y Notre Dame. Ha sido becario doctoral y posdoctoral de la Fundación Nacional para la Ciencia. Sus publicaciones tratan de temas que van desde las matemáticas y la filosofía hasta la teología. Su monografía The design inference apareció en la Cambrige University Press en 1998. En ella describe la lógica por la cual los agentes racionales infieren causas inteligentes. Se encuentra trabajando con Stephen C. Meyer y Paul Nelson en un libro titulado Uncommon descent, que busca reestablecer la legitimidad y fecundidad del diseño en la biología.

1. INFORMACIÓN
En Steps towards life Manfred Eigen (1992, p. 12) identifica lo que considera el problema central al que se enfrenta la investigación sobre el origen de la vida: “Nuestra tarea consiste en encontrar un algoritmo, una ley natural que nos conduzca hasta el origen de la información”. Eigen solo tiene la mitad de la razón. Para determinar como empezó la vida, ciertamente es necesario comprender el origen de la información. Pero incluso entonces, ni el algoritmo ni las leyes naturales son capaces de producir la información. El gran mito de la biología evolutiva moderna es que la información puede conseguirse por nada, sin recurso a la inteligencia. Es este mito el que busco refutar, pero para hacerlo tendré que dar una explicación de la información. Nadie disputa que existe algo llamado información. Como subraya Keith Devlin (1991, p. 1): “nuestras mismas vidas dependen de ella, dependen de su disposición, almacenamiento, manipulación, transmisión, seguridad y cosas parecidas. Grandes cantidades de dinero cambian de manos por la información. La gente habla de ella todo el tiempo. Se pierden vidas por causa suya. Vastos imperios comerciales se crean para comerciar con equipos que la gestionan”. Pero ¿qué es exactamente la información? El propósito de este trabajo es responder a esta pregunta, presentando una explicación de la información que sea relevante para la biología.

Entonces ¿qué es la información? La intuición fundamental que subyace a la información no es, como a veces se piensa, la transmisión de señales a través de un canal de comunicación, sino más bien, la actualización de una posibilidad para excluir otras. Como dice Fred Dretske (1981, p. 4): “la teoría de la información identifica la cantidad de información asociada con, o generada por, la ocurrencia de un suceso (o la realización de un estado de sucesos) con la reducción de la incertidumbre, la eliminación de posibilidades, representadas por ese evento o estado de sucesos”. Sin duda, cuando las señales se transmiten a través de una canal de comunicación, se actualiza una posibilidad para excluir otras, es decir, la señal que fue transmitida para excluir aquellas que no lo fueron. Pero esto es sólo un caso especial. La información, en primer lugar, presupone no un medio de comunicación sino de contingencia. Robert Stalnaker (1984, p. 85) ha dejado claro este punto: “el contenido requiere contingencia. Aprender algo, adquirir información, es descartar posibilidades. Comprender la información transmitida en una comunicación es saber qué posibilidades serían excluidas por su verdad”. Para que haya información, debe haber una multiplicidad de posibilidades distintas, cualquiera de las cuales podría suceder. Cuando una de estas posibilidades acontece y las otras son descartadas, la información se actualiza. Ciertamente, la información en su sentido más general puede definirse como la actualización de una posibilidad y la exclusión de las otras (obsérvese que esta definición comprende tanto la información sintáctica como la semántica).

Esta manera de definir la información puede ser contraria a la intuición ya que a menudo hablamos de la información inherente en posibilidades que nunca son actualizadas. Así podemos hablar de la información inherente a obtener cien caras de una vez con una moneda no trucada, incluso cuando este suceso nunca sucede. No hay problema con esto. En situaciones contrafácticas la definición de información necesita ser aplicada de manera contrafáctica. Así, al considerar la información inherente a obtener cien caras de una vez con una moneda no trucada, tratamos este suceso o posibilidad como si hubiera sido actualizada. La información necesita ser referenciada no sólo al mundo real sino, de manera cruzada, a todos los mundos posibles.

2. INFORMACIÓN COMPLEJA
¿Cómo se aplica nuestra definición de la información a la biología o, de manera más general, a la ciencia? Para hacer de la información un concepto útil para la ciencia necesitamos hacer dos cosas: primero, enseñar a medir la información; segundo, introducir una distinción crucial, entre información específica (especified) y no específica (unspecified). Primero vamos a mostrar cómo se mide la información. Para medir la información no es bastante contar el número de posibilidades que fueron excluidas, y presentar este número como una medida relevante de la información. El problema es que una simple enumeración de posibilidades excluidas no nos dice nada acerca de cómo se formaron estas posibilidades en primer lugar. Considérese, por ejemplo, los siguientes tipos de manos de póker.

(1) Escalera real.

(2) El resto.

Saber que se ha sacado algo distinto a una escalera real (es decir, la posibilidad 2) es claramente adquirir menos información que saber que se ha sacado una escalera real (posibilidad 1). Sin embargo, si nuestra medida de la información es simplemente una enumeración de posibilidades excluidas, debe asignarse el mismo valor numérico a los dos casos porque en ambos se excluyó una sola posibilidad.

Por tanto, de aquí se sigue que la manera en que medimos la información tiene que ser independiente de cualquier procedimiento para caracterizar las posibilidades a considerar. Y la manera en que hacemos esto no es simplemente contando posibilidades, sino asignando probabilidades a estas posibilidades. Para un mazo de cartas convenientemente barajado, la probabilidad de obtener una escalera real (posibilidad 1) es aproximadamente 0.000002, en tanto que la probabilidad de obtener cualquier otra cosa (posibilidad 2) es aproximadamente 0.999998. Las probabilidades por sí mismas, sin embargo, no son medidas de información. No obstante, aunque las probabilidades distinguen correctamente las posibilidades acorde con la información que contienen, estas probabilidades siguen siendo una manera inconveniente de medir la información. Hay dos razones para esto. Primero, la escala y direccionalidad de los números asignados a las probabilidades deben ser recalibradas. De manera clara, estamos obteniendo más información cuando sabemos que alguien ha obtenido una escalera real que cuando sabemos que alguien ha obtenido otra cosa. Y sin embargo la probabilidad de obtener una escalera real (i.e. 0.000002) es minúscula en comparación con la probabilidad de obtener otra cosa (i.e. 0.999998). Las probabilidades más pequeñas significan más información, no menos.

La segunda razón por la que las probabilidades no son convenientes para medir la información es que son multiplicativas y no aditivas. Si me entero que Alice sacó una escalera real jugando al póker en el Caesar’s Palace y que Bob sacó una escalera real jugando al póker en el Mirage, la probabilidad de que Alice y Bob sacaran dos escaleras reales es el producto de las probabilidades individuales. Sin embargo, conviene que la información sea medida de manera aditiva, de modo que la probabilidad de que Alice y Bob saquen dos escaleras reales a la vez, equivale a la cantidad de información asignada para que Alice saque una escalera real más la cantidad de información asignada para que Bob saque otra escalera real.

Hay una manera obvia de transformar probabilidades que evita dos dificultades y es aplicar a las probabilidades logaritmos negativos. Aplicar logaritmos negativos asigna más información a menos probabilidad y, como el logaritmo de un producto es la suma de los logaritmos, transforma las medidas de probabilidad multiplicativas en medidas de información aditivas. Incluso, en consideración a los teóricos de la información, se acostumbra a usar logaritmos en base 2. La razón para elegir esta base logarítmica es como sigue. Para los teóricos de la información, la manera más conveniente de medir información es en bits. Cualquier mensaje enviado a través de un canal de comunicación puede transformarse en una ristra de ceros y unos. Por ejemplo, el código ASCII emplea cadenas de ocho ceros y unos para representar los caracteres de una máquina de escribir, de modo que las palabras y frases son cadenas de cadenas de tales caracteres. De igual manera, todas las comunicaciones pueden ser reducidas a transmisiones de secuencias de ceros y unos. Dada esta reducción, la manera obvia en que los teóricos de la comunicación miden la información es en el número de bits transmitidos por el canal de comunicación. Y ya que el logaritmo negativo de la base 2 de una probabilidad corresponde al número medio de bits necesarios para identificar un evento de esa probabilidad, el logaritmo en base 2 es el logaritmo canónico de los teóricos de la comunicación. Por tanto, definimos la medida de la información en un suceso de probabilidad p como –log2p (véase Shannon y Weaver, 1949, p. 32; Hamming, 1986 o cualquier introducción matemática a la teoría de la información).

¿Y qué pasa con la aditividad de esta medida de la información? Recordemos el ejemplo de Alice sacando una escalera real en el Caesar’s Palace y Bob sacando una escalera real en el Mirage. Llamemos A al primer suceso y B al segundo. Ya que los resultados de una mano de póker son probabilísticamente independientes, la probabilidad de que se den A y B conjuntamente es igual al producto de las probabilidades de A y B tomadas individualmente. De manera simbólica, P(A&B)=P(A) x P(B). Dada nuestra definición logarítmica de la información, podemos afirmar que P(A&B)=P(A) x P(B) si y sólo si I(A&B)=I(A) x I(B). Ya que en el ejemplo de Alice y Bob P(A)=P(B)=0.000002, I(A)=I(B)=19, y I(A&B)=I(A)+I(B)=19+19=38. Así, la cantidad de información inherente a que Alice y Bob obtengan escaleras reales es de 38 bits.

Ya que muchos sucesos son probabilísticamente independientes, las medidas de información muestran mucha aditividad. Pero ya que muchos sucesos también están correlacionados, las medidas de información muestran así mismo falta de aditividad. En el caso de Alice y Bob, que Alice saque una escalera real es probabilísticamente independiente de que lo saque Bob, y por eso la cantidad de información de que Alice y Bob saquen los dos una escalera real equivale a la suma de las cantidades individuales de información. Pero vamos a considerar un ejemplo diferente. Alice y Bob lanzan una moneda al aire simultáneamente cinco veces. Alice observa los cuatro primeros lanzamientos pero, como está distraída, se pierde el quinto. Por otra parte, Bob se pierde el primer lanzamiento pero observa los últimos cuatro. Supongamos que las secuencia de lanzamientos es 11001 (1 = cara; 0 = cruz). Así, Alice observa 1100* y Bob observa *1001. Sea A la primera observación y B la segunda. De aquí se sigue que la cantidad de información de A&B es la cantidad de información en la secuencia completa 11001, es decir, 5 bits. Por otra parte, la cantidad de información sólo en A es la cantidad de información en la secuencia incompleta 1100*, es decir, 4 bits. De manera similar, la cantidad de información sólo en B es la cantidad de información en la secuencia incompleta *1001, también 4 bits. Esta vez la información no puede sumarse: 5=I(A&B); I(A)+I(B)=4+4=8.

Aquí A y B están correlacionados. Alice sabe todo excepto el último bit de información en la secuencia completa de 11001. Así cuando Bob le da su secuencia incompleta *1001, todo lo que Alice realmente sabe es el último bit de esta secuencia. De manera similar, Bob sabe todo excepto el primer bit de la secuencia completa 11001. Cuando Alice le da la secuencia incompleta 1100*, todo lo que Bob sabe realmente es el primer bit en esta secuencia. Lo que parece ser cuatro bits de información realmente acaba siendo un bit de información una vez que Alice y Bob consideran la información a priori que ellos poseen sobre la secuencia completa 11001. Si introducimos la idea de la información condicional, es como decir que 5=I(A&B)=I(A)+I(B)=4+1. I(B/A), la información condicional de B dado A, es la cantidad de información en la observación de Bob una vez que la observación de Alice es tomada en cuenta. Y esta, como acabamos de decir, es 1 bit.

I(B/A), como I(A&B), I(A) y I(B) puede ser representado como el logaritmo negativo en base dos de una probabilidad, sólo en esta ocasión la probabilidad bajo el logaritmo es un condicional opuesto a una probabilidad incondicional. Por definición I(B/A)=def –log2P(B/A), donde P(B/A) es la probabilidad condicional de B dado A. Pero ya que P(A&B) + logP(A), que es precisamente I(B/A) = I(A&B) - I(A). Esta última ecuación equivale a: P(B/A)=def P(A&B)/P(A), y ya que el logaritmo de un cociente es la diferencia de los logaritmos, log2P(B/A) = log2P(A&B) - log2P(A), y así –log2P(B/A) = -log22

I(A&B) = I(A) + I(B/A) (*)

La fórmula (*) es de carácter general, reduciendo a I(A&B) = I(A) + I(B) cuando A y B son probabilísticamente independientes (en cuyo caso P(B/A) = P(B) y entonces I(B/A) = I(B)).

La fórmula (*) afirma que la información en A y B conjuntamente es la información en A más la información en B que no está en A. Por lo tanto, la cuestión es determinar cuanta información adicional de B contribuye a A. Como tal, esta fórmula restringe fuertemente la generación de nueva información. Por ejemplo, ¿genera nueva información un programa de computador llamado A al producir nuevos datos denominados B? Los programas de ordenador son totalmente determinísticos, de manera que B es totalmente determinado por A. Se sigue que P(B/A) = 1, y así I(B/A) = 0 (el logaritmo de 1 es siempre 0). De la fórmula (*) se sigue por tanto que I(A&B) = I(A), y por consiguiente la cantidad de información en A y B conjuntamente no es más que la cantidad de información en A por sí misma.

Por ejemplo, dentro del mismo espíritu, consideremos que no hay más información en dos copias del Hamlet de Shakespeare que en una sola copia. Lógicamente, esto resulta obvio, y cualquier recuento de información llegaría al mismo acuerdo. Para ver que nuestro recuento de información llegaría realmente al mismo acuerdo, llamemos A a la primera copia del Hamlet, y B a la impresión de la segunda copia. Una vez dada A, B resulta totalmente determinada. Ciertamente, la correlación entre A y B es perfecta. Probabilísticamente esto se expresa al decir que la probabilidad condicional de B dado A es 1, es decir, P(B/A) = 1. En términos de teoría de la información diríamos que I(B/A) = 0. Como resultado I(B/A) prescinde de la fórmula (*) y así I(A&B) = I(A). Nuestro formalismo de teoría de la información por lo tanto concuerda con nuestra intuición de que dos copias de Hamlet no contienen más información que una sola copia.

La información es una noción complejo-teórica. Verdaderamente, como objeto puramente formal, la medida de la información aquí descrita es una medida de complejidad (cf. Dembski, 1998, ch. 4). La medida de la complejidad se produce siempre que asignamos nuevos números a los grados de complicación. Un conjunto de posibilidades admitirá a menudo varios grados de complicación, desde lo extremadamente simple hasta lo extremadamente complicado. Las medidas complejas asignan números no negativos a estas posibilidades de manera que 0 corresponde a la más simple y X a la más complicada. Por ejemplo, la complejidad computacional está siempre medida en términos de tiempo (i.e. número de pasos computacionales) o de espacio (i.e. cantidad de memoria, usualmente medida en bits o en bytes) o alguna combinación de los dos. Cuanto más complejo de resolver es un problema computacional, más tiempo y espacio requiere para ejecutar el algoritmo que resuelve el problema. Para la medida de información, el grado de complicación se mide en bits. Dado un suceso A de probabilidad P(A), I(A) = -log2P(A) mide el número de bits asociados a la probabilidad P(A). Por lo tanto hablamos de “complejidad de la información” y decimos que la complejidad de la información aumento a medida que I(A) aumenta (o, análogamente, a medida que P(A) decrece). También hablamos de información “simple” y “compleja” según I(A) significa pocos o muchos bits de información. Esta noción de complejidad es importante para la biología ya que no sólo está en cuestión el origen de la información sino también el origen de la información compleja.

3. INFORMACIÓN COMPLEJA ESPECIFICADA
Dada una manera de medir la información y de determinar su complejidad, vayamos ahora a la distinción hecha entre información especificada y no especificada. Este es un tema muy vasto, cuya discusión completa va más allá de las pretensiones de este trabajo (los detalles pueden encontrarse en mi monografía The design inference). Sin embargo, en lo que sigue intentaré hacer esta distinción inteligible así como la manera de hacerla rigurosa. Como modo intuitivo de la diferencia entre información especificada y no especificada, consideremos el siguiente ejemplo. Supongamos que un arquero está a 50 metros de un gran muro blanco con el arco y la flecha en la mano. Supongamos que el muro es suficientemente grande para que el arquero no pueda evitar dar en él. Consideremos ahora dos posibles situaciones alternativas. En la primera, el arquero sencillamente dispara a la pared. En la segunda, el arquero pinta primero un blanco en la pared y luego dispara sobre ella, haciendo blanco en el centro de la diana. Supongamos que en ambas situaciones el lugar donde la flecha ha impactado es idéntico. En ambos escenarios la flecha podría haber impactado en cualquier lugar de la pared. Y lo que es más: cualquier lugar donde pudiera impactar es altamente improbable. Se sigue que en los dos escenarios una información altamente compleja resulta actualizada. Sin embargo las conclusiones que extraemos de las dos situaciones son muy diferentes. En la primera, no concluimos absolutamente nada acerca de la capacidad del arquero, en tanto que en la segunda tenemos una evidencia de las habilidades del arquero.

La diferencia obvia entre las dos situaciones es que lógicamente en la primera la información no sigue patrón alguno en tanto que en la segunda sí. En consecuencia, la información que suele interesarnos en calidad de investigadores , y como científicos en particular, es generalmente no la actualización de posibilidades arbitrarias que no corresponden a patrón alguno sino más bien la actualización de posibilidades determinadas que efectivamente se corresponden con patrones. Pero hay más. La información de acuerdo con un patrón, a pesar de encontrarse un paso más en la dirección correcta, no nos proporciona aún suficiente información específica. El problema es que el patrón puede ser concebido después del hecho de manera que en vez de ayudar a dilucidar información, los patrones son meras lecturas de información ya actualizada.

Para percatarse de esto, consideremos una tercera situación en la cual el arquero dispara contra la pared. Al igual que antes, supongamos que el arquero está a 50 metros de una gran pared blanca y con un arco y una flecha en la mano, la pared es tan grande que el arquero no puede evitar dar en la pared. Como en la primera situación, el arquero dispara contra la pared que es todavía blanca. Pero esta vez supongamos que tras haber disparado la flecha y habiendo descubierto el impacto en la pared, el arquero pinta el blanco en el lugar del impacto, de manera que la flecha aparezca justo en el centro de la diana. Supongamos además que el lugar donde impacta la flecha en este caso es el mismo en el que impacta en los otros dos casos. Dado que todos los sitios donde la flecha puede impactar son altamente improbables, tanto en este como en los otros ha sido actualizada una información altamente compleja. Y lo que es más: ya que la información corresponde a un patrón, podemos decir que en este tercer caso se ha actualizado una información con patrón altamente complejo. Sin embargo, sería erróneo decir que ha sido actualizada información altamente compleja. De las tres situaciones, sólo la información del segundo caso es especificada. En ese escenario, al pintar primero el blanco y luego disparar la flecha, se proporciona el patrón independientemente de la información. Por otra parte, en el tercer caso, al disparar la flecha y luego pintar el blanco, el patrón es una mera lectura de la información.

La información especificada es siempre información de acuerdo con un patrón, pero esto no siempre es información especificada. En la información especificada no vale cualquier patrón. Por lo tanto distinguimos entre los patrones “buenos”y los “malos”. De aquí en delante llamaremos especificaciones a los “buenos” patrones. Las especificaciones son patrones independientes dados, que no son meras lecturas de información. Por contraste, llamaremos fabricaciones a los “malos” patrones. Las fabricaciones son patrones post hoc que son simples lecturas de información existente.

A diferencia de las especificaciones, las fabricaciones no son en absoluto esclarecedoras. No estamos mejor con una fabricación que sin ella. Esto aparece claro al comparar la primera situación con la tercera. Si la flecha impacta en una pared blanca y la pared permanece blanca (como en la primera situación), o la flecha impacta en la pared blanca y se pinta después el objetivo alrededor de la flecha (como en el tercer caso), las conclusiones que extraigamos respecto a la trayectoria de la flecha son las mismas. En cualquier caso, el azar es una explicación tan buena como cualquiera respecto al vuelo de la flecha. El hecho de que el blanco del tercer caso constituye un patrón no constituye diferencia alguna, ya que el patrón ha sido construido enteramente de acuerdo con el trayecto de la flecha. Sólo cuando el patrón viene dado independientemente del trayecto de la flecha, hay sitio para otra hipótesis distinta del azar. Así, sólo en el segundo escenario tiene sentido preguntarse si estamos en presencia de un arquero habilidoso. Sólo en el segundo escenario el patrón constituye una especificación. En el tercer caso, el patrón es sólo una mera fabricación.

La distinción entre información especificada y no especificada puede definirse ahora como sigue: la actualización de una posibilidad (i.e. información) es especificada si, independientemente de la posibilidad de actualización, la posibilidad es identificable por medio de un patrón. Si no lo es, entonces la información es no especificada. Nótese que esta definición implica asimetría respecto de la información especificada y no especificada: la información especificada no pude transformarse en información no especificada, aunque la información no especificada puede transformarse en información especificada. La información no especificada no necesita seguir siendo no especificada sino que puede transformarse en especificada a medida que nuestro conocimiento aumenta. Por ejemplo, una transmisión criptográfica cuyo criptosistema no haya sido aún descubierto constituye información no especificada. Sin embargo, tan pronto como descifremos el código, la transmisión criptográfica se convierte en información especificada.

¿Cuál es la posibilidad de ser identificado por medio de un patrón independiente dado?

La explicación completa de la especificación requiere una respuesta detallada de esta cuestión. Por desgracia, esta exposición está más allá de las pretensiones de este trabajo. Aquí, la dificultad conceptual clave es caracterizar la condición de independencia entre los patrones y la información. Esta condición de independencia se divide en dos condiciones subsidiarias: (1) una condición de independencia condicional estocástica entre la información en cuestión y cierto conocimiento relevante; y (2) una condición de flexibilidad por la cual el patrón en cuestión pueda ser construido a partir del mencionado conocimiento. Aunque estas condiciones tienen sentido de manera intuitiva, no son fácilmente formalizables. Para una explicación en detalle véase mi monografía The design inference.

Si la formalización de lo que significa que un patrón sea independiente de una posibilidad es difícil, resulta mucho más fácil en la práctica determinar si un patrón viene dado independientemente de una posibilidad. Si el patrón viene dado con anterioridad a la posibilidad que está siendo actualizada –tal y como sucede en el caso 2 anterior, en el que el objetivo fue pintado antes de que la flecha fuera disparada- entonces el patrón es automáticamente independiente de la posibilidad y entonces nos hallamos ante información especificada. Los patrones dados antes de la actualización de la posibilidad coinciden con la región de rechazo de los estadísticos. Hay una teoría estadística bien establecida que describe tales patrones y su empleo en el razonamiento probabilístico. Se trata claramente de especificaciones ya que, habiendo sido dadas previamente a la actualización de alguna posibilidad, ya han sido identificadas y por tanto son identificables independientemente de la posibilidad que se está actualizando (cf. Hacking, 1965).

Sin embargo, muchos casos interesantes de información especificada son aquellos en los cuales el patrón viene dado después de que una posibilidad haya sido actualizada. Ciertamente este es el caso del origen de la vida: la vida se origina primero y sólo con posterioridad entra en escena el patrón formador de agentes racionales (como nosotros mismos). Sin embargo, sigue siendo cierto que un patrón correspondiente a una posibilidad, aunque haya sido formulado después de que una posibilidad haya sido actualizada, puede constituir una especificación. Ciertamente este no es el caso de la tercera situación mencionada más arriba en la que el blanco fue pintado alrededor de la flecha justo después de que esta impactara en el muro. Pero considere el lector el siguiente ejemplo. Alice y Bob están celebrando su décimo quinto aniversario de matrimonio. Sus seis hijos se presentan con regalos. Cada regalo es parte de un juego de porcelana. No hay regalos duplicados y, en conjunto, los regalos forman un juego completo de porcelana. Supongamos que Alice y Bob estaban satisfechos con su viejo juego de porcelana y no tenían ninguna sospecha antes de abrir los regalos de adquirir un nuevo juego de porcelana. Por tanto, Alice y Bob carecen de un patrón relevante al que referir sus regalos antes de recibir los regalos de sus hijos. Sin embargo, el patrón que formulan de manera explícita sólo después de recibir los regalos, puede ciertamente formarse antes de recibir dichos regalos, ya que todos nosotros conocemos los juegos de porcelana y cómo distinguirlos de conjuntos que no forman un juego. Por tanto este patrón constituye una especificación: los hijos de Alice y Bob estaban en connivencia y no hicieron sus regalos como actos aleatorios fruto del infantilismo.

Pero ¿qué pasa con el origen de la vida? ¿Es la vida una especificación? Y si es así ¿a qué patrones corresponde y cómo se dan estos patrones independientemente del origen de la vida? Obviamente, los agentes racionales formadores de patrones no entran en escena hasta después que la vida hubiera sido originada. Sin embargo, existen patrones funcionales que corresponden a la vida y que vienen dados independientemente de los verdaderos sistemas vivos. Un organismo es un sistema funcional que comprende muchos subsistemas funcionales. La funcionalidad de los organismos puede simplificarse de varias maneras. Arno Wouters (1995) los simplifica de manera global

en términos de la viabilidad de los organismos completos. Michael Behe (1996) los simplifica en términos de la complejidad irreducible y de la función mínima de los sistemas bioquímicos. Incluso el incondicional darwinista Richard Dawkins admitirá que la vida es funcionalmente especificada, explicando la vida en términos de la funcionalidad de los genes. Así, Dawkins (1987, p. 9) escribe: “las cosas complicadas tienen una cualidad, especificada de antemano, que es altamente improbable que haya sido adquirida por azar o por casualidad solamente. En el caso de los organismos vivos, la cualidad que es especificada de antemano es… la capacidad de propagar genes mediante la reproducción”.

La información puede ser especificada. La información puede ser compleja. La información puede ser tanto compleja como especificada. A la información que es tanto compleja como especificada yo la denomino “información compleja especificada” o ICE para abreviar. ICE es lo que ha centrado la atención acerca de la información durante los últimos años, y no sólo en la biología, sino en la ciencia en general. Es ICE lo que Manfred Eigen considera el gran misterio de la biología y lo que él espera finalmente desentrañar en términos de algoritmos y leyes naturales. Es ICE lo que subyace para los cosmólogos en el fino ajuste del universo y lo que los distintos principios antrópicos intentan comprender (cf. Barrow y Tipler, 1986). Es ICE lo que el potencial cuántico de David Bohm obtiene cuando rastrean el universo en busca de lo que Bohm llama “información activa” (cf. Bohm, 1993, pp. 35-38). Es ICE lo que permite al demonio de Maxwell engañar a un sistema termodinámico que tiende al equilibrio térmico (cf. Landauer, 1991, p. 26). Es ICE en lo que David Chalmers espera basar una teoría comprensiva de la conciencia humana (cf. Chalmers, 1996, ch. 8). Es ICE lo que dentro de la teoría de la información algorítmica de Kolmogorov-Chaitin, adopta la forma de cadenas de dígitos comprensibles y no aleatorizadas (cf. Kolmogorov, 1965; Chaitin, 1966).

La ICE no está restringida a la ciencia. La ICE es indispensable en nuestra vida cotidiana. Los 16 dígitos de nuestro número de VISA son un ejemplo de ICE. La complejidad de este número asegura que un potencial ladrón no pueda escoger un número que resulte ser un número válido de tarjeta VISA. Y lo que es más: la especificación de este número asegura que sea su número y no el ningún otro. Incluso su número telefónico constituye ICE. Lo mismo que en el número de la VISA, la complejidad asegura que este número no sea marcado aleatoriamente (por lo menos no muy a menudo) y la especificación asegura que este número es suyo y no de nadie más. Todos los números en nuestros billetes, nuestros resguardos de crédito y órdenes de compra representan ICE. ICE hace que el mundo funcione. De aquí se deduce que ICE es un campo abonado para la delincuencia. ICE es lo que motiva al codicioso personaje de Michael Douglas en la película Wall Street a mentir, estafar y robar. La ICE total y el control absoluto era el objetivo de personaje monomaníaco de Ben Kingsley en la película Sneakers. ICE es el artefacto de interés en la mayoría de los tecno-thrillers. Nuestra época es una época de información y la información que nos cautiva es ICE.

4. DISEÑO INTELIGENTE
¿Dónde está el origen de la información compleja especificada? En esta sección expondré que la causa inteligente, o el diseño, explica el origen de la información compleja especificada. Mi argumento se centra en la naturaleza de la causa inteligente y, de manera específica, en lo que hace que las causas inteligentes sean detectables. Para ver lo que hace que la ICE sea un fiable indicador de diseño, necesitamos examinar la naturaleza de la causa inteligente. La principal característica de la causa inteligente es la contingencia dirigida, o lo que llamamos elección. Donde actúa una causa inteligente, elige entre un rango de posibilidades concurrentes. Esto es cierto no sólo en el caso de los humanos sino también en el caso de las inteligencias animales y extraterrestres. Una rata en un laberinto debe elegir si va a la izquierda o a la derecha en varios puntos del mismo. Cuando los investigadores de SETI (Search for Extra-Terrestrial Intelligence) intentan descubrir inteligencia en las emisiones de radio extraterrestres que monitorizan, suponen que una inteligencia extraterrestre puede haber elegido cualquiera de las transmisiones de radio posibles y luego intentan hacer coincidir las transmisiones que observan con ciertos patrones que se contraponen (patrones que supuestamente son signos de inteligencia). Siempre que un ser humano balbucea un idioma con significado, elige dentro de un rango de posibles combinaciones de sonido que pueden ser pronunciadas. La causa inteligente siempre implica discriminación, elección entre unas cosas y exclusión de otras.

Una vez sentada la caracterización de las causas inteligentes, la cuestión crucial es cómo reconocer el modo en el que operan. Las causas inteligentes actúan a través de la elección. Entonces, ¿Cómo reconoceremos que una causa inteligente ha efectuado una elección? Un tintero se ha derramado accidentalmente sobre una hoja de papel; alguien toma una pluma y escribe un mensaje en una hoja de papel. En los dos ejemplos una posibilidad entre casi un conjunto infinito resulta actualizada. En ambos ejemplo se actualiza una contingencia y otras resultan descartadas. Sin embargo, en un ejemplo deducimos diseño y en otro deducimos azar. ¿Cuál es la diferencia relevante? No sólo hace falta observar que la contingencia ha sido actualizada, sino que nosotros mismos tenemos también que poder especificar la contingencia. La contingencia debe conformarse respecto a un patrón independiente dado, y debemos poder formular independientemente ese patrón. Una mancha aleatoria de tinta no es especificable; un mensaje escrito con tinta sobre el papel es especificable. Wittgenstein (1980, p. 1e) hizo la misma observación tal y como sigue: “tenemos la tendencia a considerar el idioma chino como una jerga ininteligible. Alguien que comprenda el chino reconocerá un idioma en lo que está escuchando. De manera similar, yo no puedo discernir la humanidad del hombre”.

Al escuchar una palabra china, alguien que entienda el chino no sólo reconocerá que una de entre todas las posibles palabras ha sido actualizada, sino que también será capaz de especificar la palabra como perteneciente al idioma chino. Contrástese con alguien que no entienda el chino. Al escuchar una palabra china, alguien que no entienda el chino también reconoce que se ha actualizado una palabra de entre todo el rango posible, pero esta vez, debido a su carencia de comprensión del chino, es incapaz de especificar la palabra como perteneciente al idioma chino. Para alguien que no comprende el chino, la palabra parecerá un galimatías. El galimatías –la pronunciación de sílabas sin sentido ininterpretables dentro de cualquier idioma conocido- siempre actualiza una palabra de entre un posible rango de palabras. Sin embargo, el galimatías, por no corresponderse con nada comprensible en idioma alguno, tampoco puede ser especificado. Como resultado, el galimatías no puede considerarse como comunicación inteligente, sino como lo que Wittgenstein denomina “balbuceo inarticulado”.

La actualización de una entre varias posibilidades en competencia, la exclusión del resto y la especificación de la posibilidad que fue actualizada resume cómo reconocemos las causas inteligentes o, de manera equivalente, como detectamos el diseño. La tríada actualización – exclusión – especificación constituye el criterio general para detectar inteligencia, sea esta animal, humana o extraterrestre. La actualización establece que la posibilidad en cuestión es una que realmente ocurrió. La exclusión establece que hubo realmente contingencia (i.e. que había otras posibilidades disponibles y que fueron excluidas). La especificación establece que la posibilidad actualizada es conforme a un patrón dado independientemente de su actualización.

Entonces, ¿Dónde queda la elección, que hemos citado como característica principal de la causalidad inteligente, dentro de este criterio? El problema es que nunca somos testigos directos de la elección, En vez de eso, somos testigos de las actualizaciones de la contingencia que podrían ser el resultado de la elección (i.e. contingencia dirigida), pero que también podrían ser el resultado del azar (i.e. contingencia ciega). Por consiguiente sólo hay una manera de explicar la diferencia: la especificación. La especificación es el único medio disponible para que nosotros distingamos la elección, del azar, la contingencia dirigida, de la contingencia ciega. La actualización y la exclusión conjuntas garantizan que estamos ante una contingencia. La especificación garantiza que estamos tratando con una contingencia dirigida. La tríada actualización – exclusión – especificación es, por lo tanto, lo que necesitamos para identificar la elección y, con ella, la causa inteligente.

Los psicólogos que estudian el aprendizaje y el comportamiento animales conocen la tríada actualización – exclusión – especificación desde siempre aunque de manera implícita. Para estos psicólogos –conocidos como teóricos del aprendizaje- aprender es discriminar (cf. Mazur, 1990; Schwartz, 1984). Para aprender una tarea, el animal debe adquirir la capacidad de actualizar comportamientos adecuados para esa tarea, del mismo modo que la capacidad de excluir comportamientos no adecuados para la misma. Además, para que un psicólogo reconozca que un animal ha aprendido una tarea, es necesario no sólo que observe que el animal se haya comportado de manera adecuada, sino que también haya especificado ese comportamiento. Por tanto, para admitir que una rata ha aprendido con éxito cómo atravesar el laberinto, un psicólogo debe especificar primero la secuencia de giros a izquierda y derecha que conducen a la rata a la salida del laberinto. Sin duda, una rata que camina al azar a través de dicho laberinto discrimina una secuencia de giros a izquierda y derecha. Pero al caminar de manera aleatoria, la rata no da señal de que pueda discriminar la secuencia apropiada de giros a izquierda y derecha como para salir del laberinto. En consecuencia, el psicólogo que estudia la rata no tendrá razones para pensar que la rata ha aprendido a cruzar el laberinto. Sólo si la rata ejecuta la secuencia de giros a izquierda y derecha especificada por el psicólogo, entonces el psicólogo reconocerá que la rata ha aprendido a atravesar el laberinto. Por consiguiente, son precisamente los comportamientos aprendidos lo que consideramos inteligencia animal. De aquí que no resulte sorprendente que la misma estrategia empleada para reconocer el aprendizaje animal se utilice para reconocer las causas inteligentes en general, por ejemplo, actualización, exclusión y especificación.

Por lo tanto, esta estrategia general para reconocer las causas inteligentes coincide de manera precisa con cómo reconocemos la información compleja especificada: primero, la precondición básica para que exista información es la contingencia. Así, se debe establecer que podría obtenerse cualquiera de una multiplicidad de posibilidades distintas. Luego, debe establecerse que la posibilidad actualizada después que las otras fueran excluidas, era también específica. Hasta el momento, la coincidencia entre la estrategia general para reconocer causas inteligentes y el modo en que reconocemos la información compleja especificada es exacta. Sólo queda un cabo suelto: la complejidad. Aunque la complejidad es esencial para la ICE (que corresponde a las primeras letras del acrónimo), su papel en esta estrategia general para reconocer la cusa inteligente no es evidente de manera inmediata. En esta estrategia, se actualiza una posibilidad entre varias en concurrencia, las restantes son excluidas, y la posibilidad que fue actualizada es especificada. ¿Dónde aparece en esta estrategia la complejidad?

La respuesta es que está allí implícita. Para percatarse de ello, considérese de nuevo a la rata atravesando el laberinto pero ahora tómese un laberinto muy simple en el que dos giros a la derecha conducen a la rata a la salida. ¿Cómo determinará un psicólogo que estudie la rata si ésta ha aprendido a salir del laberinto? Poner a la rata en el laberinto no será suficiente. Dado que el laberinto es muy simple, puede que la rata efectúe dos giros a la derecha por azar y salga del mismo. Por lo tanto el psicólogo no estará seguro de si la rata ha aprendido realmente a salir del laberinto o es que simplemente ha tenido suerte. Pero vamos a contrastar esta situación con otro laberinto más complicado en que la rata deba seguir la secuencia precisa de giros a derecha e izquierda para salir del laberinto. Supóngase que la rata debe efectuar cien giros correctos a izquierda y derecha y que cualquier error impide a la rata salir del laberinto. Un psicólogo que vea una rata que no efectúa un solo giro erróneo y en breve salga del laberinto quedará convencido de que la rata ha aprendido realmente a salir del laberinto y no de que ha tenido una suerte loca. En el laberinto simple existe una probabilidad sustancial de que la rata salga por azar; en el laberinto complejo esto es extraordinariamente improbable. El papel de la complejidad a la hora de detectar diseño aparece ahora claro, ya que la improbabilidad es precisamente lo que queremos decir cuando hablamos de complejidad (cf. Sección 2).

Este argumento para mostrar que el ICE es un indicador fiable del diseño puede resumirse como sigue: ICE es un indicador fiable de diseño porque su admisión coincide con cómo reconocemos las causas inteligentes en general. Por lo general, para reconocer una causa inteligente debemos establecer que una posibilidad de entre un rango de posibilidades en concurrencia ha sido actualizada. Y lo que es más: las posibilidades que compiten y que han sido excluidas deben ser posibilidades disponibles suficientemente numerosas, de manera que al especificar la posibilidad que fue actualizada no pueda ser atribuible al azar. En términos de complejidad, esto significa que la posibilidad que ha sido especificada es altamente compleja. Todos los elementos de la estrategia general para reconocer la causalidad inteligente (i.e. actualización, exclusión y especificación) encuentran su contrapartida en la información compleja especificada: ICE. La ICE señala lo que necesitamos ver para detectar diseño.

A manera de epílogo, Quiero llamar la atención del lector acera de la etimología de la palabra “inteligente”. La palabra “inteligente” deriva de dos palabras latinas, la preposición inter, que quiere decir “entre”, y el verbo lego, que quiere decir elegir o seleccionar. Así, de acuerdo con esta etimología, la inteligencia consiste en elegir entre. De aquí se sigue que la etimología de la palabra “inteligente” es paralela al análisis formal de la causalidad inteligente que acabamos de dar. “Diseño inteligente” es por lo tanto una expresión perfectamente apropiada, que significa que el diseño es deducido precisamente porque una causa inteligente ha hecho lo que sólo una causa inteligente puede hacer: efectuar una elección.

5. LA LEY DE LA CONSERVACIÓN DE LA INFORMACIÓN
La biología evolutiva se ha resistido con firmeza a atribuir la ICE a la causalidad inteligente. Aunque Manfred Eigen reconoce que el problema central de la biología evolutiva es el origen de la ICE, no tiene intención de atribuir la ICE a la causalidad inteligente. De acuerdo con Eigen, las causas naturales son adecuadas para explicar la ICE. Para Eigen, la única cuestión es cuál de las causas naturales explica el origen de la ICE. Queda así ignorada la pregunta, lógicamente anterior, de si las causas naturales son en principio capaces de explicar el origen de la ICE. Y sin embargo, es la pregunta que destruye por entero el proyecto de Eigen. Las causas naturales son en principio incapaces de explicar el origen de la ICE. Con toda seguridad, las causas naturales pueden explicar el flujo de ICE, siendo idealmente adecuadas para transmitir la ICE ya existentes. Sin embargo, lo que las causas naturales no pueden hacer es originar la ICE. Esta afirmación poderosamente restrictiva, por la cual las causas naturales sólo pueden transmitir ICE pero no originarla, es lo que yo llamo la Ley de Conservación de la Información. Es esta ley la que confiere un contenido científico definido a la afirmación de que la ICE está inteligentemente causada. El objetivo de esta sección es bosquejar brevemente la Ley de Conservación de la Información (un tratamiento en detalle aparecerá en Uncommon Descent, un libro que estoy escribiendo conjuntamente con Stephen C. Meyer y Paul Nelson).

Resulta sencillo percatarse de que las causas naturales no pueden explicar la ICE. Las causas naturales comprenden azar y necesidad (cf. El libro de Jacques Monod del mismo título). Debido a que la información presupone contingencia, la necesidad es por definición incapaz de producir información y mucho menos información compleja especificada. Para que haya información debe haber una multiplicidad de posibilidades disponibles una de las cuales es actualizada y las restantes excluidas. Esto es contingencia. Pero si un resultado B es necesario dado la condición antecedente A, entonces la probabilidad de B supuesto A es uno, y la información en B, dado A, es cero. Si B es necesario supuesto A, la fórmula (*) reduce I(A&B) a I(A), lo que es como decir que B no contribuye con nueva información a A. De aquí se sigue que la necesidad es incapaz de generar nueva información. Obsérvese que lo que Eigen denomina “algoritmo” y “leyes naturales” caen dentro del ámbito de la necesidad.

Ya que la información presupone contingencia, vamos a examinar más de cerca la contingencia. La contingencia puede asumir sólo dos formas. O se trata de contingencia ciega –contingencia sin propósito alguno- que es azar, o se trata de contingencia guiada, contingencia con propósito – que es causalidad inteligente. Dado que ya sabemos que la causalidad inteligente es capaz de generar ICE (cf. Sección 4), vamos a considerar ahora si el azar pudiera también ser capaz de generar ICE. Primero hay que subrayar que el puro azar, sin ayuda alguna y abandonado sólo a sus propias fuerzas, es incapaz de generar ICE. El azar puede generar información compleja no especificada e información especificada no compleja. Lo que el azar no puede hacer es generar información que es conjuntamente especificada y compleja.

Por lo general, los biólogos no discuten esta afirmación. La mayoría están de acuerdo en que el puro azar –lo que Hume llamaba la hipótesis epicúrea- no explica adecuadamente la ICE. Jacques Monod (1972) es una de las pocas excepciones, y aduce que el origen de la vida, aunque enormemente improbable, puede atribuirse sin embargo al azar mediante un efecto de selección. Del mismo modo que el ganador de la lotería muestra su sorpresa al ganar, nosotros mostramos nuestra sorpresa al haber evolucionado. Pero una lotería está destinada a tener un ganador y de este modo también algo está destinado a evolucionar. Algo enormemente improbable está destinado a suceder y por lo tanto el hecho que nos ha sucedido (i.e. que hemos sido seleccionados – de aquí el nombre de efecto selectivo) no excluye el azar. Este es el argumento de Monod que es una falacia. Falla completamente a la hora de comprender la especificación. Además, confunde una condición necesaria para la existencia de la vida con su explicación. El argumento de Monod ha sido refutado por los filósofos John Leslie (1989), John Earman (1987) y Richard Swinburne (1979). También ha sido refutado por el biólogo Francis Crack (1981, cap. 7), Bernd-Olaf Küppers (1990, ch. 6) y Hubert Jockey (1992, ch. 9). Los efectos selectivos no hacen del azar una explicación adecuada de la ICE.

Por tanto, la mayoría de los biólogos rechazan el puro azar como explicación adecuada de la ICE. El problema aquí no es una simple falta de razonamiento estadístico. El puro azar es también científicamente insatisfactorio como explicación de la ICE. Explicar la ICE en términos de puro azar no es más instructivo que declararse ignorante o que proclamar que la ICE es un misterio. Una cosa es explicar por azar el resultado de una cara en un único lanzamiento de una moneda. Otra muy distinta es, como señala Küppers (1990, p. 59), seguir a Monod y asumir la opinión de que “la secuencia específica de nucleótidos en el ADN del primer organismo surgió por un mero proceso aleatorio en la historia primigenia de la tierra”. La ICE clama por una explicación y el puro azar no la explica. Tal y como señala correctamente Richard Dawkins (1987, p. 139), “podemos aceptar una cierta cantidad de suerte en nuestras explicaciones (científicas), pero no demasiado”.

Si el azar y la necesidad abandonados a sí mismos no pueden generar la ICE, ¿es posible que el azar y la necesidad conjuntamente puedan generarla? La respuesta es no. Siempre que el azar y la necesidad trabajan juntos, las contribuciones respectivas del azar y de la necesidad pueden ser ordenadas de manera secuencial. Pero al ordenar las contribuciones respectivas del azar y de la necesidad de modo secuencial, queda claro que no se genera en ningún momento ICE. Considérese el caso del ensayo y error (el ensayo corresponde a la necesidad y el error al azar). Contemplado en cierta ocasión como un método grosero de resolver problemas, el ensayo y error ha despertado la estima de los científicos que lo consideran como el último recurso de sabiduría y creatividad en la naturaleza. Los algoritmos probabilísticos de la ciencia computacional (e.g. algoritmos genéticos, véase Forrest, 1993) dependen en su totalidad del ensayo y error. Del mismo modo, el mecanismo darviniano de mutación y selección natural es una combinación de ensayos y errores en la que la mutación aporta el error y la selección el ensayo. Se comete un error después del cual se hace un ensayo. Pero en ningún momento se genera ICE.

Por tanto, las causas naturales son incapaces de generar ICE. Denomino a esta conclusión amplia Ley de Conservación de la Información, o LCI para abreviar. La LCI tiene profundas implicaciones para la ciencia. Entre sus corolarios están los siguientes: (1) La ICE, en un sistema de causas naturales, permanece constante o decrece, (2) La ICE no puede ser generada de manera espontánea, originarse endógenamente, u organizarse a sí misma (en la terminología empleada en las investigaciones acerca del origen de la vida, (3) La ICE es un sistema cerrado de causas naturales o bien ha estado desde siempre o fue adicionada en algún momento de manera exógena (implicando que el sistema, aunque ahora aparece cerrado, no siempre lo estuvo), y (4) en particular, cualquier sistema cerrado de causas naturales de duración finita recibió toda la cantidad de ICE que contiene antes de convertirse en un sistema cerrado.

Este último corolario es especialmente pertinente para la naturaleza de la ciencia pues muestra que la explicación científica no es coextensiva con la explicación reduccionista. Richard Dawkins, Daniel Dennett y otros científicos están convencidos de que las verdaderas explicaciones científicas deben ser reduccionistas, yendo desde lo más complejo a lo más simple. Así, Dawkins (1987, p. 316) escribe: “Lo que hace de la evolución una teoría tan clara es que explica cómo la complejidad organizada puede surgir de la simplicidad primigenia”. Así, Dennett (1995, p. 153) contempla toda explicación científica que va de lo más simple hasta lo más complejo como “petición de principio”. Dawkins (1987, p. 13) hará equivaler de manera explícita la explicación científica propiamente dicha con lo que él llama “reduccionismo jerárquico”, según el cual “una entidad compleja a cualquier nivel de la organización jerárquica” debe ser correctamente explicada “en términos de entidades sólo un nivel por debajo en la jerarquía”. Mientras que nadie negará que la explicación reduccionista resulta extremadamente efectiva dentro de la ciencia, es difícil que sea el único tipo de explicación del que la ciencia dispone. La estrategia de análisis de “divide y vencerás” que subyace tras la explicación reduccionista tiene una aplicación estrictamente limitada dentro de la ciencia. En particular, este tipo de análisis es totalmente incapaz de hacer progresos con la ICE. La ICE demanda una causa inteligente. Las causas naturales no.

-----

6. BIBLIOGRAFÍA

Barrow, John D. and Frank J. Tipler. 1986. The Anthropic Cosmological Principle. Oxford: Oxford University Press.

Behe, Michael. 1996. Darwin's Black Box: The Biochemical Challenge to Evolution. New York: The Free Press.

Bohm, David. 1993. The Undivided Universe: An Ontological Interpretation of Quantum Theory. London: Routledge.

Chaitin, Gregory J. 1966. On the Length of Programs for Computing Finite Binary Sequences. Journal of the ACM, 13:547-569.

Chalmers, David J. 1996. The Conscious Mind: In Search of a Fundamental Theory. New York : Oxford University Press.

Crick, Francis. 1981. Life Itself: Its Origin and Nature. New York: Simon and Schuster.

Dawkins, Richard. 1987. The Blind Watchmaker. New York: Norton.

Dembski, William A. 1998. The Design Inference: Eliminating Chance through Small Probabilities. Forthcoming, Cambridge University Press.

Dennett, Daniel C. 1995. Darwin's Dangerous Idea: Evolution and the Meanings of Life. New York: Simon & Schuster.

Devlin, Keith J. 1991. Logic and Information. New York: Cambridge University Press.

Dretske, Fred I. 1981. Knowledge and the Flow of Information. Cambridge, Mass.: MIT Press.

Earman, John. 1987. The Sap Also Rises: A Critical Examination of the Anthropic Principle. American Philosophical Quarterly, 24(4): 307317.

Eigen, Manfred. 1992. Steps Towards Life: A Perspective on Evolution, translated by Paul Woolley. Oxford: Oxford University Press.

Forrest, Stephanie. 1993. Genetic Algorithms: Principles of Natural Selection Applied to Computation. Science, 261:872-878.

Hacking, Ian. 1965. Logic of Statistical Inference. Cambridge: Cambridge University Press.

Hamming, R. W. 1986. Coding and Information Theory, 2nd edition. Englewood Cliffs, N. J.: Prentice- Hall.

Kolmogorov, Andrei N. 1965. Three Approaches to the Quantitative Definition of Information. Problemy

Peredachi Informatsii (in translation), 1(1): 3-11.

Küppers, Bernd-Olaf. 1990. Information and the Origin of Life. Cambridge, Mass.: MIT Press.

Landauer, Rolf. 1991. Information is Physical. Physics Today, May: 2329.

Leslie, John. 1989. Universes. London: Routledge.

Mazur, James. E. 1990. Learning and Behavior, 2nd edition. Englewood Cliffs, N.J.: Prentice Hall.

Monod, Jacques. 1972. Chance and Necessity. New York: Vintage.

Schwartz, Barry. 1984. Psychology of Learning and Behavior, 2nd edition. New York: Norton.

Shannon, Claude E. and W. Weaver. 1949. The Mathematical Theory of Communication. Urbana, Ill.: University of Illinois Press.

Stalnaker, Robert. 1984. Inquiry. Cambridge, Mass.: MIT Press.

Swinburne, Richard. 1979. The Existence of God. Oxford: Oxford University Press.

Wittgenstein, Ludwig. 1980. Culture and Value, edited by G. H. von Wright, translated by P. Winch.

Chicago: University of Chicago Press.

Wouters, Arno. 1995. Viability Explanation. Biology and Philosophy, 10:435-457.

Yockey, Hubert P. 1992. Information Theory and Molecular Biology. Cambridge: Cambridge University Press.

Copyright © William A. Dembski. All Rights Reserved.

Original article may be found at Access Research Network

---

FUENTE:
Ciencia Alternativa

No hay comentarios:

Publicar un comentario