Nas
últimas décadas, os argumentos contrários à evolução darwiniana têm se tornado
cada vez mais sofisticados, substituindo o criacionismo pelo Design Inteligente
(DI) e o livro de Gênesis pela bioquímica e a matemática. Como linhas de
raciocínio alegadamente baseadas em probabilidade e estatística estão sendo
utilizadas para justificar a posição antievolucionista, pode ser do interesse
dos leitores de Chance
investigar os métodos e alegações dos teóricos do DI.
Probabilidade, estatísticas e
evolução
A teoria da evolução afirma, em
parte, que as características dos organismos são transmitidas para as
sucessivas gerações por meio do material genético e que modificações neste
material causam modificações na aparência, habilidade, função e sobrevivência
dos organismos. Mudanças genéticas que são vantajosas para o sucesso na
reprodução tornam-se, com o tempo, dominantes e novas espécies evoluem. Charles
Darwin (1809-1882) é famoso por originar e popularizar a ideia de especiação
através de mudanças graduais depois de observar os animais nas ilhas Galápagos.
Hoje, a teoria da evolução é
consenso científico no que concerne ao desenvolvimento das espécies, mas ela é,
mesmo assim, rotineiramente desafiada por seus detratores. A National Academy of Sciences (NAS) e o Medicine Institute (MI) publicaram recentemente um
documento revisado e atualizado intitulado “Science,
Evolution, and Creationism”. O qual descreve a teoria da evolução e
investiga a relação entre ciência e religião. Embora o último tópico seja de
interesse por seu próprio direito, deve-se ressaltar, sendo justo com os proponentes do DI, que muitos deles não aplicam argumentos religiosos contra a
evolução e este artigo não lida com questões de fé e religião.
Como as probabilidades e
estatísticas entram em cena? Em estatística, hipóteses são avaliadas com os
dados coletados de modo que se introduza o menor viés possível e com o máximo
de precisão possível. Uma hipótese sugere o que esperaríamos observar ou medir,
sendo a mesma hipótese verdadeira. Se tal predição não concorda com os dados observados, a
hipótese é rejeitada e hipóteses mais plausíveis são sugeridas e avaliadas.
Existem muitas técnicas e métodos estatísticos que podem ser utilizados, e eles
estão todos firmemente enraizados na teoria da probabilidade, a “matemática do
acaso”.
Um Desafio de Teste de Hipóteses
do DI para a Evolução
Em seu livro The
Design Inference, William Dembski apresenta o “filtro explanatório” como um
dispositivo para descartar explicações baseadas no acaso e inferir o design dos
fenômenos observados. O filtro também aparece em seu livro No Free Lunch, onde sua descrição difere ligeiramente. Em essência, o
filtro é uma variação do teste de hipóteses
estatísticas, a principal diferença sendo que aquele pretende excluir o acaso
completamente, ao invés de apenas uma hipótese nula especifica. Uma vez que todas
as explicações ocasionais foram descartadas, o design é inferido.
Assim, neste contexto, o design é meramente visto como o complemento do acaso.
Para ilustrar o filtro, Dembski
usa o exemplo de Nicholas Caputo, um democrata de New Jersey que estava
encarregado de reunir as cédulas em seu condado. Os nomes deveriam ser listados
em ordem aleatória e, supostamente, existe uma vantagem em ter a linha superior
da cédula. Como Caputo conseguiu colocar um democrata na linha
superior em 40 das 41 eleições, ele era suspeito de fraude. Na terminologia de
Dembski, a fraude agora desempenha o papel de design, o qual é inferido pela
exclusão do acaso.
Vejamos, primeiramente, como um
estatístico pode abordar o caso de Caputo. O modo, pelo qual Caputo deveria retirar
nomes dá origem a uma hipótese nula H0 : p = ½, e uma
hipótese alternativa HA : p > ½, onde “p” é a probabilidade de retirar um
democrata. Um teste binomial padrão de p =
½ baseado na frequência relativa observada ˆp = 40/41 ≈ 0.98 leva a uma
sólida rejeição de H0 em favor de HA, com um valor-p de menos que 1 em 50
bilhões, assumindo retiradas independentes. Um estatístico poderia, também,
considerar a possibilidade de valores diferentes de p em diferentes
retiradas, ou dependência entre listagens para diferentes disputas.
O que, então, um “teórico do
design” faria de diferente? Para aplicar o filtro de Dembski e inferir design, precisamos
excluir todas as explicações com base no acaso; isto é, precisamos excluir
ambos H0 e HA. Não existe nenhum modo de fazer isto com certeza, e, para
continuar, é preciso utilizar-se de outros métodos que não o cálculo de
probabilidades. A solução de Dembski é tomar a palavra de Caputo de que ele não
usou um dispositivo de randomização defeituoso e concluir que a única hipótese de
acaso relevante é H0. Pode
parecer questionável confiar em um homem acusado de fraude, mas como dificilmente
faz diferença para o caso se Caputo fraudou por “design inteligente” ou por
“acaso inteligente”, não vamos discutir, mas generosamente aceitar que o filtro
explicativo chegue à mesma conclusão do teste: Caputo cometeu fraude. As
deficiências do filtro são, no entanto, óbvias, mesmo em um exemplo tão
simples.
Em No Free Lunch, Dembski tenta aplicar o filtro a um
problema biológico real: a evolução do flagelo bacteriano, o pequeno dispositivo
de movimento tipo chicote que algumas bactérias, como a E. coli,
possuem. Dembski discute o número e tipo de proteínas necessárias para formar
as diferentes partes do flagelo e calcula a probabilidade de que uma
configuração aleatória produzirá o flagelo (usando a analogia de comprar
aleatoriamente ingredientes para um bolo). Ele conclui de ser extremamente
improvável obter algo utilizável que o design deva ser inferido.
Uma comparação do tratamento de
Dembski do caso de Caputo com o do flagelo é altamente ilustrativo, focando em
dois aspectos. Primeiramente, em cada caso, Dembski só considera uma hipótese
de acaso – a distribuição uniforme de possíveis sequências e configurações
proteicas, respectivamente. Ele não apresenta qualquer argumento sobre o motivo
pelo qual rejeitar a distribuição uniforme excluiria todas as outras hipóteses
do acaso. Em vez disto, ele transfere o ônus da
prova para o “cético do design”, o qual, de acordo com Dembski, “necessita
explicitamente propor uma nova explicação com base no acaso e defender sua
relevância”. No caso de Caputo, pode-se justificar testar apenas uma hipótese
de acaso, já que existe apenas uma dessas hipóteses que seja justa, mas a
situação é radicalmente diferente para o flagelo, onde a não uniformidade não
contradiz em absoluto um processo evolucionário de mutação e seleção natural.
Dembski rotineiramente usa a distribuição uniforme como um sinônimo de falta de
conhecimento, uma prática duvidosa que tem sido exposta pelo probabilista Olle
Häggström.
Em segundo lugar, a sequência
específica de democratas e republicanos que Caputo produziu deve ser posta
junto com outras sequências comparáveis para se obter a região de rejeição.
Mais especificamente, necessitamos considerar o conjunto de 42 sequências que
tem, no mínimo, 40 democratas e calcular sua probabilidade. Dembski faz isto
corretamente no caso de Caputo, mas quando ele vem para o do flagelo, ele não considera
a região de rejeição; ele simplesmente calcula a probabilidade do resultado.
O modo pelo qual Demski aborda
este problema é utilizar seu próprio termo, “especificação”, um conceito vago
que não possui uma definição matemática estrita, mas pretende ser uma
generalização da região de rejeição. Em um ensaio intitulado “Specification: The
Pattern That Signifies Intelligence”, é dito que “Especificação denota o tipo
de padrão que eventos altamente improváveis devem exibir antes que alguém possa
atribuí-los à inteligência”. Em No Free
Lunch, a entrada no índice “Specification, definition of” leva a uma página
onde especificação é um sinônimo para região de rejeição. O filtro exige que,
em dado momento, calculemos uma probabilidade, assim, o que quer que seja a
"especificação", deve ser possível convertê-la no objeto matemático
de um conjunto.
No caso de Caputo, as duas
descrições são facilmente integradas, pois a fraude pode ser descrita como
padrões do tipo “mais Democratas que Republicanos”, os quais também
correspondem a conjuntos de sequências. Contudo, quando se trata de aplicações
biológicas, como o flagelo, Dembski simplesmente afirma que a especificação
"sempre se refere à função" e não desenvolve a ideia.
Ao contrário do exemplo simples de
Caputo, é agora muito obscuro como uma relevante região de rejeição seria
formada. A função biológica sob consideração é a mobilidade, e não dever-se-ia
considerar apenas a estrutura do flagelo e as suas proteínas. Em vez disto,
deve-se formar o conjunto de todas as possíveis proteínas e combinações daquilo
que poderia ter levado a algum dispositivo de mobilidade através de mutações e
seleção natural, o que é, para dizer o mínimo, uma tarefa desencorajadora.
Um ponto geral de crítica contra
o design inteligente é que este não oferece quaisquer explicações científicas
para os fenômenos naturais, mas tenta, meramente, descredibilizar a evolução
darwiniana, com fins de inferir o design por exclusão. O filtro de Dembski é
desenhado para esta abordagem; tentando excluir todas as hipóteses, ele objetiva
inferir design sem prover quaisquer hipóteses de design alternativas.
Acima, foi demonstrado como o
filtro tem problemas, mesmo quando ele é visto inteiramente dentro do paradigma
escolhido por Dembski do teste de hipótese “puramente eliminativo”. Outros têm
criticado a natureza eliminativa do filtro, afirmando que uma inferência de
design útil deve ser comparativa. Em um capítulo intitulado “Design by
Elimination vs. Design by Comparison” em seu livro The Design Revolution, Dembski contesta este tipo de crítica. Ele
começa por fazer uma “verificação da realidade”, concluindo que “as ciências
procuram Ronald Fisher e não Thomas Bayes por sua metodologia estatística”,
referindo-se à divisão na comunidade dos estatísticos (na medida em que tal
divisão realmente existe) entre a abordagem frequentista – na qual parâmetros
desconhecidos são vistos como constantes e estão sujeitos a testes de hipóteses
– e a abordagem bayesiana – na qual parâmetros desconhecidos são vistos como
variáveis randômicas descritas por suas distribuições de probabilidade.
Contudo, o tipo de eliminação pura que ele concebe não é como o teste
estatístico de hipóteses feito nas ciências. Uma hipótese nula H0 não é meramente rejeitada;
ela é rejeitada em favor de uma hipótese alternativa HA. Além disso, alguém pode calcular a probabilidade dos
dados por várias opções de parâmetros especificadas por HA para concluir que a evidência está, de fato, a favor
de HA (o assim chamado
“poder de cálculo”). Portanto, a metodologia estatística das ciências é
eliminativa e comparativa.
Uma razão para Dembski tentar se
alinhar com o campo dos frequentistas é que existem problemas indisputáveis com
a “inferência bayesiana de design”. Por exemplo, para alguém aplicar os métodos
bayesianos, teria que atribuir uma distribuição de probabilidade prévia a
várias hipóteses de acaso e de design, o que é, obviamente, uma tarefa
desesperadora. Dembski não está satisfeito com tal contracrítica limitada, mas
decide assumir a inferência bayesiana completamente. Ele afirma que a
inferência bayesiana é “parasita da abordagem fisheriana”, já que uma análise
bayesiana também deve utilizar regiões de rejeição! Ele afirma até mesmo que os
bayesianos fazem isto “rotineiramente”, mas não oferece nenhum exemplo. Como a
abordagem bayesiana inteira é incompatível com o conceito de teste de hipóteses
em geral e regiões de rejeição em particular, qualquer exemplo desse tipo
certamente abalaria o mundo das estatísticas.
Para ilustrar seu ponto, Dembski
revisita o exemplo de Caputo. Em sua notação, o evento E é a sequência observada de 40 democratas e um republicanos em
alguma ordem fixa, e o evento E* é o
conjunto de 42 sequências com no mínimo 40 democratas. Portanto, E* é a região de rejeição do teste de
hipótese acima e a afirmação de Dembski é que uma análise bayesiana deve também
usar E*, em vez de E.
Aqui está uma típica análise
bayesiana do exemplo de Caputo: p,
visto aqui como uma variável randômica, denota a probabilidade de selecionar um
democrata; f denota a densidade
prévia de p, e assume testes
independentes. A densidade posterior de p,
condicionada na sequência observada E,
então, satisfaz a relação de proporcionalidade f(p|E) ∝ p40(1 - p)ƒ(p),
onde o fator p40(1-p) é a probabilidade de E se o verdadeiro valor do parâmetro é p.
Por exemplo, se escolhemos uma distribuição
uniforme prévia para p, a
distribuição posterior vem a ser uma assim chamada distribuição Beta, com média
de 41/43. Nesta distribuição posterior, a probabilidade de que p não seja superior a 1/2 resulta apenas
em 10-11, o que dá clara evidência contra a seleção justa. A análise
bayesiana não envolve o conjunto E*
ou qualquer região de rejeição. Para fazer a inferência bayesiana de design,
seria necessário aumentar o espaço de parâmetro para permitir várias hipóteses
de projeto e computar suas respectivas probabilidades. Independentemente de como
isso seria feito na pratica, nenhuma região de rejeição seria formada.
Um desafio do DI à probabilidade
da evolução
Michael Behe apresentou sua
crítica à biologia evolutiva em dois livros: Darwin's Black Box [A Caixa Preta de Darwin], publicado em
1996, e The Edge of Evolution, publicado em 2007. O primeiro não contém
muita matemática, mas em The Edge of Evolution, Behe tem um capítulo
intitulado The Mathematical Limits of Darwinism, onde ele tenta utilizar
probabilidade e estatística para defender a causa do DI.
O argument central de Behe contra
a evolução humana parte de como o parasita da malária, P. falciparum, tem se tornado resistente à cloroquina. A
razão para citar o parasita da malária é uma estimativa da literatura de que o
conjunto de mutações necessário para a resistência à cloroquina tem uma
probabilidade de cerca de 1 em 1020 de ocorrer espontaneamente.
Qualquer estatístico é obrigado a
se perguntar como tal estimativa é obtida, e, desnecessário dizer, ela é muito
grosseira. Obviamente, ninguém realizou um grande número de testes binomiais
controlados, contando o número de parasitas e eventos de mutação bem-sucedidos.
Em vez disto, a estimativa é obtida considerando o número de vezes nas quais a
resistência à cloroquina não apenas apareceu, mas também se fixou em populações
locais – uma abordagem que obviamente leva a uma subestimativa de magnitude
desconhecida da taxa real de mutações de acordo com a revisão de Nicholas
Matzke's em Trends in Ecology & Evolution.
Behe deseja pontuar que populações
microbianas são tão grandes que mesmo eventos altamente improváveis poderão
ocorrer sem a necessidade de qualquer explicação sobrenatural, mas sua fixação
em uma estimativa tão incerta e sua elevação ao status paradigmático parece uma
prática estranha para um cientista. Behe estabelece uma definição que incorpora
a figura 1-em-1020: “apelidemos o conjunto de mutações deste grau de
complexidade – 1 em 1020 – ‘conjunto de complexidade de cloroquina’,
ou CCCs”.
Ele então afirma que, na
população humana dos últimos 10 milhões de anos, onde existiram, apenas, cerca
de 1012 indivíduos, as chances são sólidas contra um evento tão
improvável ocorresse uma vez sequer. Nas próprias palavras e itálicos de Behe:
Em média, para humanos atingirem uma mutação como
esta por acaso, precisamos esperar cem milhões de vezes dez milhões de anos.
Desde que isto é muitas vezes maior que a idade do universo, é razoável
concluir o seguinte: Nenhuma mutação que
é da mesma complexidade da resistência da malária à cloroquina surgiu por
evolução darwiniana na linhagem que levou aos seres humanos nos últimos 10
milhões de anos.
Superficialmente,
seu argumento pode parecer convincente. Nós humanos somos tremendamente
complexos, e o parasita da malária consiste de só uma célula. Claramente, seria
absurdo afirmar que evoluímos sem experimentar sequer uma mutação tão complexa
quanto a que, demonstrativamente, o pequeno germe experimentou. Mas não é
preciso se aprofundar muito para reconhecer problemas com as declarações de
Behe.
Em primeiro lugar, ele deixa o
conceito “complexidade” indefinido – uma prática que é, claramente, anátema em
qualquer análise matemática. Assim, quando ele define um CCC como alguma coisa
que tem um certo “grau de complexidade”, nós não sabemos do quê estamos medindo
o grau. A ausência de uma clara definição é um problema fundamental quando se
afirma que algo é provado, mas, mesmo assim, observemos mais atentamente as
afirmações de Behe.
Como ditto, sua conclusão sobre
os humanos é, óbvio, totalmente errônea, pois quê ele afirma que nenhum evento
mutacional (em oposição a algum evento de mutação específico) de probabilidade
de 1 em 1020 poderia ocorrer em uma população de 1012
indivíduos (um erro similar a afirmar que muito provavelmente ninguém vencerá a
loteria porque é altamente improvável que um indivíduo em particular vença).
Obviamente, Behe pretende considerar mutações que sejam não apenas raras, mas
também úteis, como se pode concluir de sua afirmação: “Assim, um CCC não é
apenas a chance de uma determinada proteína obter as mutação corretas; ela é a
probabilidade de um conjunto apropriado de mutações surgir em um organismo
inteiro”.
Note-se que Behe agora afirma que
CCC é uma probabilidade; enquanto que este tinha, antes, sido definido como um
conjunto de mutações, outra confusão que surge da falha de Behe em dar uma
definição precisa de seu conceito-chave.
Um problema que Behe enfrenta é
que “raridade” pode ser definida e ordenada em termos de probabilidade; enquanto
que ele não sugere nenhuma definição separada de “eficácia”. Para um exemplo
interessante, também abordado por Behe, considere outra droga contra a malária,
a atovaquona, para a qual o parasita desenvolveu resistência. A probabilidade
estimada é, aqui, cerca de 1 em 1012, portanto, uma tarefa muito
mais fácil que aquela relacionada à resistência à cloroquina. Deveríamos,
então, concluir que a resistência à atovaquona é 100 milhões de vezes pior,
menos útil e menos efetiva que a resistência à cloroquina? De acordo com a lógica de Behe, deveríamos.
Behe tem certeza que a sua
probabilidade de 1 em 1020 é estimada de dados, em vez de calculada
a partir de pressupostos teóricos. Esta abordagem leva a uma situação de dilema[1] se considerarmos a população humana com seus 1012 membros. A
alegação de Behe é que não tem existido um único CCC na população humana, e,
assim, a evolução darwiniana é impossível. Mas, se um CCC é uma frequência
relativa observada, como poderia ter existido algum na população humana? Tão
logo uma mutação tenha sido observada, não importa o quão útil ela seja para
nós, a mesma tem uma frequência relativa observada de, no mínimo, 1 em 1012
e, assim, está muito longe de adquirir o status
mágico de CCC. Pense sobre isto. Nem mesmo um neandertal transformado em um
cientista de foguetes seria bom o suficiente; o pobre coitado ainda perderia
decisivamente para o germe da malária e seu CCC, assim como quase qualquer
mutação em quase qualquer população.
No sentido acima, a afirmação de
Behe é vagamente verdadeira. Por outro lado, Behe agora se coloca em um canto
onde ele não pode obter qualquer evidência empírica de design porque, assim que
uma mutação for observada, sua existência é atribuível à evolução darwinista apenas
por argumentos de número da população. Existe alguma população de qualquer
espécie em que certos indivíduos carregam uma mutação útil e outros não, de
modo que essa mutação possa ser explicada pela evolução darwiniana? Behe já nos
disse que um desses exemplos é a resistência à cloroquina na malária. Existe
alguma população de qualquer espécie em que alguns indivíduos carregam uma
mutação útil e outros não, de modo que essa mutação não pode ser explicada pela
evolução darwiniana? Não. Se algum de n
indivíduos experimenta uma mutação, a probabilidade estimada da mutação é 1/n. Independente de quão pequeno seja
esse número, a mutação é facilmente atribuída ao acaso, porque existem n indivíduos para tentar. Qualquer
argumento para design baseado em probabilidades estimadas de mutação deve,
portanto, ser puramente especulativo.
Argumentos contra a teoria da
evolução vêm em muitas formas, mas a maioria compartilha a noção de
improbabilidade, talvez sua forma mais famosa sendo expressa na afirmação do
astrônomo britânico Fred Hoyle de que a emergência aleatória de uma célula é
tão provável quanto um Boeing 747 sendo criado por um tornado varrendo um
ferro-velho. Probabilidade e estatística são disciplinas bem desenvolvidas, com
ampla aplicabilidade em muitos ramos da ciência, e não é surpreendente que se
tentou elaborar argumentos de probabilidade contra a evolução. A avaliação cuidadosa destes argumentos, contudo, revela suas
insuficiências.
Leitura adicional
Elsberry, W, and Shallit,
J. (2004) "Playing Games with Probability: Dembski's Complex Specified
Information." In Why Intelligent Design Fails: A Scientific Criatique
of the New Creationism, Rutgers University Press: Piscataway, New Jersey.
Häggström, O. (2007)
"Intelligent Design and the NFL Theorems." Biology and Philosophy,
22:217-230.
Matzke, N. (2007)
"Book Review: The Edge of Creationism." Trends in Ecology &
Evolution, 22:566-567.
National Academy of
Sciences and Institute of Medicine (2008). Science, Evolution, and
Creationism. Washington, DC: The National Academies Press. www.nap.edu/catalog/11876.html
Olofsson, P. (2008)
"Intelligent Design and Mathematical Statistics: A Troubled
Alliance." Biology and Philosophy (in press).
Perakh, M. (2003) Unintelligent
Design. Prometheus Books: Amherst, New York.
Shallit, J. (2002) "Book
Review: No Free Lunch." BioSystems, 66:93-99.
Sober, E. (2002)
"Intelligent Design and Probability Reasoning." International Journal for the
Philosophy of Religion, 52:65-80.
Artigo de Peter Olofsson postado
em 24/11/2008 (original aqui). Tradução: Robson Barbosa da Silva.
Nenhum comentário:
Postar um comentário