Páginas

segunda-feira, 9 de abril de 2018

Probabilidade, Estatística, Evolução e Design Inteligente







Nas últimas décadas, os argumentos contrários à evolução darwiniana têm se tornado cada vez mais sofisticados, substituindo o criacionismo pelo Design Inteligente (DI) e o livro de Gênesis pela bioquímica e a matemática. Como linhas de raciocínio alegadamente baseadas em probabilidade e estatística estão sendo utilizadas para justificar a posição antievolucionista, pode ser do interesse dos leitores de Chance investigar os métodos e alegações dos teóricos do DI.
 

Probabilidade, estatísticas e evolução

            A teoria da evolução afirma, em parte, que as características dos organismos são transmitidas para as sucessivas gerações por meio do material genético e que modificações neste material causam modificações na aparência, habilidade, função e sobrevivência dos organismos. Mudanças genéticas que são vantajosas para o sucesso na reprodução tornam-se, com o tempo, dominantes e novas espécies evoluem. Charles Darwin (1809-1882) é famoso por originar e popularizar a ideia de especiação através de mudanças graduais depois de observar os animais nas ilhas Galápagos.

Hoje, a teoria da evolução é consenso científico no que concerne ao desenvolvimento das espécies, mas ela é, mesmo assim, rotineiramente desafiada por seus detratores. A National Academy of Sciences (NAS) e o Medicine Institute (MI) publicaram recentemente um documento revisado e atualizado intitulado “Science, Evolution, and Creationism”. O qual descreve a teoria da evolução e investiga a relação entre ciência e religião. Embora o último tópico seja de interesse por seu próprio direito, deve-se ressaltar, sendo justo com os proponentes do DI, que muitos deles não aplicam argumentos religiosos contra a evolução e este artigo não lida com questões de fé e religião.

Como as probabilidades e estatísticas entram em cena? Em estatística, hipóteses são avaliadas com os dados coletados de modo que se introduza o menor viés possível e com o máximo de precisão possível. Uma hipótese sugere o que esperaríamos observar ou medir, sendo a mesma hipótese verdadeira. Se tal predição não concorda com os dados observados, a hipótese é rejeitada e hipóteses mais plausíveis são sugeridas e avaliadas. Existem muitas técnicas e métodos estatísticos que podem ser utilizados, e eles estão todos firmemente enraizados na teoria da probabilidade, a “matemática do acaso”.

Um Desafio de Teste de Hipóteses do DI para a Evolução

Em seu livro The Design Inference, William Dembski apresenta o “filtro explanatório” como um dispositivo para descartar explicações baseadas no acaso e inferir o design dos fenômenos observados. O filtro também aparece em seu livro No Free Lunch, onde sua descrição difere ligeiramente. Em essência, o filtro é uma variação do teste de hipóteses estatísticas, a principal diferença sendo que aquele pretende excluir o acaso completamente, ao invés de apenas uma hipótese nula especifica. Uma vez que todas as explicações ocasionais foram descartadas, o design é inferido. Assim, neste contexto, o design é meramente visto como o complemento do acaso.

Para ilustrar o filtro, Dembski usa o exemplo de Nicholas Caputo, um democrata de New Jersey que estava encarregado de reunir as cédulas em seu condado. Os nomes deveriam ser listados em ordem aleatória e, supostamente, existe uma vantagem em ter a linha superior da cédula. Como Caputo conseguiu colocar um democrata na linha superior em 40 das 41 eleições, ele era suspeito de fraude. Na terminologia de Dembski, a fraude agora desempenha o papel de design, o qual é inferido pela exclusão do acaso.

Vejamos, primeiramente, como um estatístico pode abordar o caso de Caputo. O modo, pelo qual Caputo deveria retirar nomes dá origem a uma hipótese nula H0 : p = ½, e uma hipótese alternativa HA : p > ½, onde “p” é a probabilidade de retirar um democrata. Um teste binomial padrão de p = ½ baseado na frequência relativa observada ˆp = 40/41 ≈ 0.98 leva a uma sólida rejeição de H0 em favor de HA, com um valor-p de menos que 1 em 50 bilhões, assumindo retiradas independentes. Um estatístico poderia, também, considerar a possibilidade de valores diferentes de p em diferentes retiradas, ou dependência entre listagens para diferentes disputas.

O que, então, um “teórico do design” faria de diferente? Para aplicar o filtro de Dembski e inferir design, precisamos excluir todas as explicações com base no acaso; isto é, precisamos excluir ambos H0 e HA. Não existe nenhum modo de fazer isto com certeza, e, para continuar, é preciso utilizar-se de outros métodos que não o cálculo de probabilidades. A solução de Dembski é tomar a palavra de Caputo de que ele não usou um dispositivo de randomização defeituoso e concluir que a única hipótese de acaso relevante é H0. Pode parecer questionável confiar em um homem acusado de fraude, mas como dificilmente faz diferença para o caso se Caputo fraudou por “design inteligente” ou por “acaso inteligente”, não vamos discutir, mas generosamente aceitar que o filtro explicativo chegue à mesma conclusão do teste: Caputo cometeu fraude. As deficiências do filtro são, no entanto, óbvias, mesmo em um exemplo tão simples.

Em No Free Lunch, Dembski tenta aplicar o filtro a um problema biológico real: a evolução do flagelo bacteriano, o pequeno dispositivo de movimento tipo chicote que algumas bactérias, como a E. coli, possuem. Dembski discute o número e tipo de proteínas necessárias para formar as diferentes partes do flagelo e calcula a probabilidade de que uma configuração aleatória produzirá o flagelo (usando a analogia de comprar aleatoriamente ingredientes para um bolo). Ele conclui de ser extremamente improvável obter algo utilizável que o design deva ser inferido.

Uma comparação do tratamento de Dembski do caso de Caputo com o do flagelo é altamente ilustrativo, focando em dois aspectos. Primeiramente, em cada caso, Dembski só considera uma hipótese de acaso – a distribuição uniforme de possíveis sequências e configurações proteicas, respectivamente. Ele não apresenta qualquer argumento sobre o motivo pelo qual rejeitar a distribuição uniforme excluiria todas as outras hipóteses do acaso. Em vez disto, ele transfere o ônus da prova para o “cético do design”, o qual, de acordo com Dembski, “necessita explicitamente propor uma nova explicação com base no acaso e defender sua relevância”. No caso de Caputo, pode-se justificar testar apenas uma hipótese de acaso, já que existe apenas uma dessas hipóteses que seja justa, mas a situação é radicalmente diferente para o flagelo, onde a não uniformidade não contradiz em absoluto um processo evolucionário de mutação e seleção natural. Dembski rotineiramente usa a distribuição uniforme como um sinônimo de falta de conhecimento, uma prática duvidosa que tem sido exposta pelo probabilista Olle Häggström.

Em segundo lugar, a sequência específica de democratas e republicanos que Caputo produziu deve ser posta junto com outras sequências comparáveis para se obter a região de rejeição. Mais especificamente, necessitamos considerar o conjunto de 42 sequências que tem, no mínimo, 40 democratas e calcular sua probabilidade. Dembski faz isto corretamente no caso de Caputo, mas quando ele vem para o do flagelo, ele não considera a região de rejeição; ele simplesmente calcula a probabilidade do resultado.

O modo pelo qual Demski aborda este problema é utilizar seu próprio termo, “especificação”, um conceito vago que não possui uma definição matemática estrita, mas pretende ser uma generalização da região de rejeição. Em um ensaio intitulado “Specification: The Pattern That Signifies Intelligence”, é dito que “Especificação denota o tipo de padrão que eventos altamente improváveis devem exibir antes que alguém possa atribuí-los à inteligência”. Em No Free Lunch, a entrada no índice “Specification, definition of” leva a uma página onde especificação é um sinônimo para região de rejeição. O filtro exige que, em dado momento, calculemos uma probabilidade, assim, o que quer que seja a "especificação", deve ser possível convertê-la no objeto matemático de um conjunto.

No caso de Caputo, as duas descrições são facilmente integradas, pois a fraude pode ser descrita como padrões do tipo “mais Democratas que Republicanos”, os quais também correspondem a conjuntos de sequências. Contudo, quando se trata de aplicações biológicas, como o flagelo, Dembski simplesmente afirma que a especificação "sempre se refere à função" e não desenvolve a ideia.

Ao contrário do exemplo simples de Caputo, é agora muito obscuro como uma relevante região de rejeição seria formada. A função biológica sob consideração é a mobilidade, e não dever-se-ia considerar apenas a estrutura do flagelo e as suas proteínas. Em vez disto, deve-se formar o conjunto de todas as possíveis proteínas e combinações daquilo que poderia ter levado a algum dispositivo de mobilidade através de mutações e seleção natural, o que é, para dizer o mínimo, uma tarefa desencorajadora.

Um ponto geral de crítica contra o design inteligente é que este não oferece quaisquer explicações científicas para os fenômenos naturais, mas tenta, meramente, descredibilizar a evolução darwiniana, com fins de inferir o design por exclusão. O filtro de Dembski é desenhado para esta abordagem; tentando excluir todas as hipóteses, ele objetiva inferir design sem prover quaisquer hipóteses de design alternativas.

Acima, foi demonstrado como o filtro tem problemas, mesmo quando ele é visto inteiramente dentro do paradigma escolhido por Dembski do teste de hipótese “puramente eliminativo”. Outros têm criticado a natureza eliminativa do filtro, afirmando que uma inferência de design útil deve ser comparativa. Em um capítulo intitulado “Design by Elimination vs. Design by Comparison” em seu livro The Design Revolution, Dembski contesta este tipo de crítica. Ele começa por fazer uma “verificação da realidade”, concluindo que “as ciências procuram Ronald Fisher e não Thomas Bayes por sua metodologia estatística”, referindo-se à divisão na comunidade dos estatísticos (na medida em que tal divisão realmente existe) entre a abordagem frequentista – na qual parâmetros desconhecidos são vistos como constantes e estão sujeitos a testes de hipóteses – e a abordagem bayesiana – na qual parâmetros desconhecidos são vistos como variáveis randômicas descritas por suas distribuições de probabilidade. Contudo, o tipo de eliminação pura que ele concebe não é como o teste estatístico de hipóteses feito nas ciências. Uma hipótese nula H0 não é meramente rejeitada; ela é rejeitada em favor de uma hipótese alternativa HA. Além disso, alguém pode calcular a probabilidade dos dados por várias opções de parâmetros especificadas por HA para concluir que a evidência está, de fato, a favor de HA (o assim chamado “poder de cálculo”). Portanto, a metodologia estatística das ciências é eliminativa e comparativa.

Uma razão para Dembski tentar se alinhar com o campo dos frequentistas é que existem problemas indisputáveis com a “inferência bayesiana de design”. Por exemplo, para alguém aplicar os métodos bayesianos, teria que atribuir uma distribuição de probabilidade prévia a várias hipóteses de acaso e de design, o que é, obviamente, uma tarefa desesperadora. Dembski não está satisfeito com tal contracrítica limitada, mas decide assumir a inferência bayesiana completamente. Ele afirma que a inferência bayesiana é “parasita da abordagem fisheriana”, já que uma análise bayesiana também deve utilizar regiões de rejeição! Ele afirma até mesmo que os bayesianos fazem isto “rotineiramente”, mas não oferece nenhum exemplo. Como a abordagem bayesiana inteira é incompatível com o conceito de teste de hipóteses em geral e regiões de rejeição em particular, qualquer exemplo desse tipo certamente abalaria o mundo das estatísticas.

Para ilustrar seu ponto, Dembski revisita o exemplo de Caputo. Em sua notação, o evento E é a sequência observada de 40 democratas e um republicanos em alguma ordem fixa, e o evento E* é o conjunto de 42 sequências com no mínimo 40 democratas. Portanto, E* é a região de rejeição do teste de hipótese acima e a afirmação de Dembski é que uma análise bayesiana deve também usar E*, em vez de E.

Aqui está uma típica análise bayesiana do exemplo de Caputo: p, visto aqui como uma variável randômica, denota a probabilidade de selecionar um democrata; f denota a densidade prévia de p, e assume testes independentes. A densidade posterior de p, condicionada na sequência observada E, então, satisfaz a relação de proporcionalidade f(p|E) p40(1 - p)ƒ(p), onde o fator p40(1-p) é a probabilidade de E se o verdadeiro valor do parâmetro é p.

Por exemplo, se escolhemos uma distribuição uniforme prévia para p, a distribuição posterior vem a ser uma assim chamada distribuição Beta, com média de 41/43. Nesta distribuição posterior, a probabilidade de que p não seja superior a 1/2 resulta apenas em 10-11, o que dá clara evidência contra a seleção justa. A análise bayesiana não envolve o conjunto E* ou qualquer região de rejeição. Para fazer a inferência bayesiana de design, seria necessário aumentar o espaço de parâmetro para permitir várias hipóteses de projeto e computar suas respectivas probabilidades. Independentemente de como isso seria feito na pratica, nenhuma região de rejeição seria formada.

Um desafio do DI à probabilidade da evolução

Michael Behe apresentou sua crítica à biologia evolutiva em dois livros: Darwin's Black Box [A Caixa Preta de Darwin], publicado em 1996, e The Edge of Evolution, publicado em 2007. O primeiro não contém muita matemática, mas em The Edge of Evolution, Behe tem um capítulo intitulado The Mathematical Limits of Darwinism, onde ele tenta utilizar probabilidade e estatística para defender a causa do DI.

O argument central de Behe contra a evolução humana parte de como o parasita da malária, P. falciparum, tem se tornado resistente à cloroquina. A razão para citar o parasita da malária é uma estimativa da literatura de que o conjunto de mutações necessário para a resistência à cloroquina tem uma probabilidade de cerca de 1 em 1020 de ocorrer espontaneamente.

Qualquer estatístico é obrigado a se perguntar como tal estimativa é obtida, e, desnecessário dizer, ela é muito grosseira. Obviamente, ninguém realizou um grande número de testes binomiais controlados, contando o número de parasitas e eventos de mutação bem-sucedidos. Em vez disto, a estimativa é obtida considerando o número de vezes nas quais a resistência à cloroquina não apenas apareceu, mas também se fixou em populações locais – uma abordagem que obviamente leva a uma subestimativa de magnitude desconhecida da taxa real de mutações de acordo com a revisão de Nicholas Matzke's em Trends in Ecology & Evolution.

Behe deseja pontuar que populações microbianas são tão grandes que mesmo eventos altamente improváveis poderão ocorrer sem a necessidade de qualquer explicação sobrenatural, mas sua fixação em uma estimativa tão incerta e sua elevação ao status paradigmático parece uma prática estranha para um cientista. Behe estabelece uma definição que incorpora a figura 1-em-1020: “apelidemos o conjunto de mutações deste grau de complexidade – 1 em 1020 – ‘conjunto de complexidade de cloroquina’, ou CCCs”.

Ele então afirma que, na população humana dos últimos 10 milhões de anos, onde existiram, apenas, cerca de 1012 indivíduos, as chances são sólidas contra um evento tão improvável ocorresse uma vez sequer. Nas próprias palavras e itálicos de Behe:

Em média, para humanos atingirem uma mutação como esta por acaso, precisamos esperar cem milhões de vezes dez milhões de anos. Desde que isto é muitas vezes maior que a idade do universo, é razoável concluir o seguinte: Nenhuma mutação que é da mesma complexidade da resistência da malária à cloroquina surgiu por evolução darwiniana na linhagem que levou aos seres humanos nos últimos 10 milhões de anos.

Superficialmente, seu argumento pode parecer convincente. Nós humanos somos tremendamente complexos, e o parasita da malária consiste de só uma célula. Claramente, seria absurdo afirmar que evoluímos sem experimentar sequer uma mutação tão complexa quanto a que, demonstrativamente, o pequeno germe experimentou. Mas não é preciso se aprofundar muito para reconhecer problemas com as declarações de Behe.

Em primeiro lugar, ele deixa o conceito “complexidade” indefinido – uma prática que é, claramente, anátema em qualquer análise matemática. Assim, quando ele define um CCC como alguma coisa que tem um certo “grau de complexidade”, nós não sabemos do quê estamos medindo o grau. A ausência de uma clara definição é um problema fundamental quando se afirma que algo é provado, mas, mesmo assim, observemos mais atentamente as afirmações de Behe.

Como ditto, sua conclusão sobre os humanos é, óbvio, totalmente errônea, pois quê ele afirma que nenhum evento mutacional (em oposição a algum evento de mutação específico) de probabilidade de 1 em 1020 poderia ocorrer em uma população de 1012 indivíduos (um erro similar a afirmar que muito provavelmente ninguém vencerá a loteria porque é altamente improvável que um indivíduo em particular vença). Obviamente, Behe pretende considerar mutações que sejam não apenas raras, mas também úteis, como se pode concluir de sua afirmação: “Assim, um CCC não é apenas a chance de uma determinada proteína obter as mutação corretas; ela é a probabilidade de um conjunto apropriado de mutações surgir em um organismo inteiro”.

Note-se que Behe agora afirma que CCC é uma probabilidade; enquanto que este tinha, antes, sido definido como um conjunto de mutações, outra confusão que surge da falha de Behe em dar uma definição precisa de seu conceito-chave.

Um problema que Behe enfrenta é que “raridade” pode ser definida e ordenada em termos de probabilidade; enquanto que ele não sugere nenhuma definição separada de “eficácia”. Para um exemplo interessante, também abordado por Behe, considere outra droga contra a malária, a atovaquona, para a qual o parasita desenvolveu resistência. A probabilidade estimada é, aqui, cerca de 1 em 1012, portanto, uma tarefa muito mais fácil que aquela relacionada à resistência à cloroquina. Deveríamos, então, concluir que a resistência à atovaquona é 100 milhões de vezes pior, menos útil e menos efetiva que a resistência à cloroquina? De acordo com a lógica de Behe, deveríamos.

Behe tem certeza que a sua probabilidade de 1 em 1020 é estimada de dados, em vez de calculada a partir de pressupostos teóricos. Esta abordagem leva a uma situação de dilema[1] se considerarmos a população humana com seus 1012 membros. A alegação de Behe é que não tem existido um único CCC na população humana, e, assim, a evolução darwiniana é impossível. Mas, se um CCC é uma frequência relativa observada, como poderia ter existido algum na população humana? Tão logo uma mutação tenha sido observada, não importa o quão útil ela seja para nós, a mesma tem uma frequência relativa observada de, no mínimo, 1 em 1012 e, assim, está muito longe de adquirir o status mágico de CCC. Pense sobre isto. Nem mesmo um neandertal transformado em um cientista de foguetes seria bom o suficiente; o pobre coitado ainda perderia decisivamente para o germe da malária e seu CCC, assim como quase qualquer mutação em quase qualquer população.

No sentido acima, a afirmação de Behe é vagamente verdadeira. Por outro lado, Behe agora se coloca em um canto onde ele não pode obter qualquer evidência empírica de design porque, assim que uma mutação for observada, sua existência é atribuível à evolução darwinista apenas por argumentos de número da população. Existe alguma população de qualquer espécie em que certos indivíduos carregam uma mutação útil e outros não, de modo que essa mutação possa ser explicada pela evolução darwiniana? Behe já nos disse que um desses exemplos é a resistência à cloroquina na malária. Existe alguma população de qualquer espécie em que alguns indivíduos carregam uma mutação útil e outros não, de modo que essa mutação não pode ser explicada pela evolução darwiniana? Não. Se algum de n indivíduos experimenta uma mutação, a probabilidade estimada da mutação é 1/n. Independente de quão pequeno seja esse número, a mutação é facilmente atribuída ao acaso, porque existem n indivíduos para tentar. Qualquer argumento para design baseado em probabilidades estimadas de mutação deve, portanto, ser puramente especulativo.

Argumentos contra a teoria da evolução vêm em muitas formas, mas a maioria compartilha a noção de improbabilidade, talvez sua forma mais famosa sendo expressa na afirmação do astrônomo britânico Fred Hoyle de que a emergência aleatória de uma célula é tão provável quanto um Boeing 747 sendo criado por um tornado varrendo um ferro-velho. Probabilidade e estatística são disciplinas bem desenvolvidas, com ampla aplicabilidade em muitos ramos da ciência, e não é surpreendente que se tentou elaborar argumentos de probabilidade contra a evolução. A avaliação cuidadosa destes argumentos, contudo, revela suas insuficiências.

Leitura adicional

Elsberry, W, and Shallit, J. (2004) "Playing Games with Probability: Dembski's Complex Specified Information." In Why Intelligent Design Fails: A Scientific Criatique of the New Creationism, Rutgers University Press: Piscataway, New Jersey.

Häggström, O. (2007) "Intelligent Design and the NFL Theorems." Biology and Philosophy, 22:217-230.

Matzke, N. (2007) "Book Review: The Edge of Creationism." Trends in Ecology & Evolution, 22:566-567.

National Academy of Sciences and Institute of Medicine (2008). Science, Evolution, and Creationism. Washington, DC: The National Academies Press. www.nap.edu/catalog/11876.html

Olofsson, P. (2008) "Intelligent Design and Mathematical Statistics: A Troubled Alliance." Biology and Philosophy (in press).

Perakh, M. (2003) Unintelligent Design. Prometheus Books: Amherst, New York.

Shallit, J. (2002) "Book Review: No Free Lunch." BioSystems, 66:93-99.

Sober, E. (2002) "Intelligent Design and Probability Reasoning." International Journal for the Philosophy of Religion, 52:65-80.



Artigo de Peter Olofsson postado em 24/11/2008 (original aqui). Tradução: Robson Barbosa da Silva.


[1]No original, “catch-22” (nota do tradutor).

Nenhum comentário:

Postar um comentário