Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

O Metodo nas Ciencias Naturais Socias - Pesquisa Quantitativa e Qualitativa, Notas de estudo de Biologia

Para o professor Fernando Gewandsznajder, até hoje ainda se encontra muito difundida uma concepção errônea das ciências naturais e de seus métodos. Elas seriam, de acordo com esse ponto de vista, um conjunto de conhecimentos definitivamente estabelecidos, que descrevem com precisão quantitativa os fatos observados, levando a pensar que o método científico é o caminho para uma apreensão infalível da realidade. Longe dessa situação ideal e idílica, a ciência, segundo o autor, é muito mais uma cons

Tipologia: Notas de estudo

2015
Em oferta
30 Pontos
Discount

Oferta por tempo limitado


Compartilhado em 05/06/2015

biblioteca-unir-ji-parana-12
biblioteca-unir-ji-parana-12 🇧🇷

4.6

(18)

13 documentos

1 / 203

Documentos relacionados


Pré-visualização parcial do texto

Baixe O Metodo nas Ciencias Naturais Socias - Pesquisa Quantitativa e Qualitativa e outras Notas de estudo em PDF para Biologia, somente na Docsity! PIONEIRA THOMPSON LEARNING O Método nas Ciências Naturais e Sociais Pesquisa Quantitativa e Qualitativa Alda Judith Alves-Mazzotti Fernando Gewandsznajder O Método nas Ciências Naturais e Sociais: Pesquisa Quantitativa e Qualitativa Alda Judith Alves-Mazzotti Fernando Gewandsznajder 2ª Edição THOMPSON 4 previstos, ela será considerada – em princípio – falsa, e outra hipótese terá de ser buscada. 1. A atividade científica desenvolve-se a partir de problemas Ainda é comum a crença de que a atividade científica começa com uma coleta de dados ou observações puras, sem idéias preconcebidas por parte do cientista. Na realidade, qualquer observação pressupõe um critério para escolher, entre as observações possíveis, aquelas que supostamente sejam relevantes para o problema em questão. Isto quer dizer que a observação, a coleta de dados e as experiências são feitas de acordo com determinados interesses e segundo certas expectativas ou idéias preconcebidas. Estas idéias e interesses correspondem, em ciência, às hipóteses e teorias que orientam a observação e os testes a serem realizados. Uma comparação ajuda a compreender melhor este ponto. Quando um médico examina um paciente, por exemplo, ele realiza certas observações específicas, guiadas por certos problemas, teorias e hipóteses. Sem essas idéias, o número de observações possíveis seria praticamente infinito: ele poderia observar a cor de cada peça de roupa do paciente, contar o número de fios de cabelo, perguntar o nome de todos os seus parentes e assim por diante. Em vez disso, em função do problema que o paciente apresenta (a garganta dói, o paciente escuta zumbido no ouvido, etc.) e de acordo com as teorias da fisiologia e patologia humana, o médico irá concentrar sua investigação em certas observações e exames específicos. Ao observar e escutar um paciente, o médico já está com a expectativa de encontrar um problema. Por isso, tanto na ciência como nas atividades do dia-a-dia, nossa atenção, curiosidade e são estimulados quando algo não ocorre de acordo com as nossas expectativas, quando não sabemos explicar um fenômeno, ou quando as explicações tradicionais não funcionam – ou seja, quando nos defrontamos com um problema. 2. As hipóteses científicas devem ser passíveis de teste Em ciência, temos de admitir, sempre, que podemos estar errados em nossos palpites. Por isso, é fundamental que as hipóteses científicas sejam testadas experimentalmente. Hipóteses são conjecturas, palpites, soluções provisórias, que tentam resolver um problema ou explicar um fato. Entretanto, o mesmo fato pode ser explicado por várias hipóteses ou teorias diferentes. Do mesmo modo como há um sem-número de explicações para uma simples dor de cabeça, por exemplo, 5 a história da ciência nos mostra como os fatos foram explicados e problemas foram resolvidos de formas diferentes ao longo do tempo. Uma das primeiras tentativas de explicar a evolução dos seres vivos, por exemplo, foi a teoria de Lamarck (que supunha haver uma herança das características adquiridas por um organismo ao longo da vida), substituída depois pela teoria da evolução por seleção natural, de Darwin (pela qual características herdadas aleatoriamente são selecionadas pelo ambiente). O movimento dos planetas foi explicado inicialmente pela teoria geocêntrica (os planetas e o Sol giravam ao redor de uma Terra imóvel), que foi depois substituída pela teoria heliocêntrica (a Terra e os planetas girando ao redor do Sol). Estes são apenas dois exemplos, entre muitos, que mostram que uma teoria pode ser substituída por outra que explica melhor os fatos ou resolve melhor determinados problemas. A partir das hipóteses, o cientista deduz uma série de conclusões ou previsões que serão testadas. Novamente, podemos utilizar a analogia com a prática médica: se este paciente está com uma infecção, pensa o médico, ele estará com febre. Além disso, exames de laboratório podem indicar a presença de bactérias. Eis aí duas previsões, feitas a partir da hipótese inicial, que podem ser testadas. Se os resultados dos testes forem positivos, eles irão fortalecer a hipótese de infecção. No entanto, embora os fatos possam apoiar uma hipótese, torna-se bastante problemático afirmar de forma conclusiva que ela é verdadeira. A qualquer momento podemos descobrir novos fatos que entrem em conflito com a hipótese. Além disso, mesmo hipóteses falsas podem dar origem a previsões verdadeiras. A hipótese de infecção, por exemplo, prevê febre, que é confirmada pela leitura do termômetro. Mas, outras causas também podem ter provocado a febre. Por isso, as confirmadas experimentalmente são aceitas sempre com alguma reserva pelos cientistas: futuramente elas poderão ser refutadas por novas experiências. Pode-se então dizer que uma hipótese será aceita como possível – ou provisoriamente – verdadeira, ou ainda, como verdadeira até prova em contrário. O filósofo Karl Popper (1902-1994) enfatizou sempre que as hipóteses de caráter geral, como as leis científicas, jamais podem ser comprovadas ou verificadas. É fácil compreender esta posição examinando uma generalização bem simples, como “todos os cisnes são brancos”: por maior que seja o número de cisnes observados, não podemos demonstrar que o próximo cisne a ser observado será branco. Nossas observações nos autorizam a afirmar apenas que todos os cisnes observados até o momento são brancos. Mesmo que acreditemos que todos o são, não conseguiremos prová-lo, e podemos perfeitamente estar enganados, como, aliás, é o caso – alguns cisnes são negros. Para Popper, no entanto, uma única observação de um cisne negro pode, logicamente, refutar a hipótese de que todos os cisnes são brancos. Assim, embora as generalizações científicas não possam ser comprovadas, elas podem 6 ser refutadas. Hipóteses científicas seriam, portanto, passíveis de serem refutadas, ou seja, seriam potencialmente falseáveis ou refutáveis. 3. Os testes devem ser os mais severos possíveis Em ciência devemos procurar testar uma hipótese através dos testes mais severos possíveis. Isto implica em utilizar medidas ou testes estatísticos, se necessários e procurar, sempre que possível, controlar os fatores que podem intervir nos resultados através de um teste controlado. Se, por exemplo, uma pessoa ingerir determinado produto e se sentir melhor de algum sintoma (dor de cabeça, dor de estômago, etc.), ela pode supor que a melhora deve-se à substância ingerida. No entanto, é perfeitamente possível que a melhora tenha ocorrido independentemente do uso do produto, isto é, tenha sido uma melhora espontânea, provocada pelas defesas do organismo (em muitas doenças há sempre um certo número de pessoas que ficam boas sozinhas). Para eliminar a hipótese de melhora espontânea, é preciso que o produto passe por testes controlados. Neste caso, são utilizados dois grupos de doentes voluntários: um dos dois grupos recebe o medicamento, enquanto o outro recebe uma imitação do remédio, chamada placebo, que é uma pílula ou preparado semelhante ao remédio, sem conter, no entanto, o medicamento em questão. Os componentes de ambos os grupos não são informados se estavam ou não tomando o remédio verdadeiro, já que o simples fato de uma pessoa achar que está tomando o remédio pode ter um efeito psicológico e fazê-la sentir-se melhor – mesmo que o medicamento não seja eficiente (é o chamado efeito placebo). Além disso, como a pessoa que fornece o remédio poderia, inconscientemente ou não, passar alguma influência a quem o recebe, ela também não é informada sobre qual dos dois grupos está tomando o remédio. O mesmo se aplica àqueles que irão avaliar os efeitos do medicamento no organismo: esta avaliação poderá ser tendenciosa se eles souberem quem realmente tomou o remédio. Neste tipo de experimento, chamado duplo cego, os remédios são numerados e somente uma outra equipe de pesquisadores, não envolvida na aplicação do medicamento, pode fazer a identificação. Finalmente, nos dois grupos pode existir pessoas que melhoram da doença, seja por efeito psicológico, seja pelas próprias defesas do organismo. Mas, se um número significativamente maior de indivíduos (e aqui entram os testes estatísticos) do grupo que realmente tomou o medicamento ficar curado, podemos considerar refutada a hipótese de que a cura deve-se exclusivamente ao efeito placebo ou a uma melhora espontânea e supor que o medicamento tenha alguma eficácia. A repetição de um teste para checar se o resultado obtido pode ser reproduzido – inclusive por outros pesquisadores – o que contribui para a maior objetividade do teste, na medida em que permite que se cheque a inter- 9 As novas teorias devem ser capazes não só de dar conta dos fenômenos explicados pela teoria antiga, como também de explicar fatos novos. Assim, a teoria da relatividade é capaz de explicar todos os fenômenos explicados pela teoria newtoniana, e ainda fenômenos que a teoria newtoniana revelou-se incapaz de explicar, como as irregularidades do planeta Mercúrio e as variações de massa em partículas que se movem a velocidades próximas à da luz. Entretanto, as previsões da teoria newtoniana continuam válidas dentro de certos limites. Quando trabalhamos com velocidades pequenas comparadas com a da luz, por exemplo, a diferença entre os cálculos feitos com as duas teorias costuma ser muito pequena, difícil de medir, podendo ser desprezada na prática. Como os cálculos na mecânica newtoniana são mais fáceis e rápidos de serem feitos, a teoria continua tendo aplicações na engenharia civil, no lançamento de foguetes e satélites, etc. Uma teoria científica refere-se a objetos e mecanismos ocultos e desconhecidos. Na realidade, não sabemos como é realmente um elétron, mas construímos, idealizamos, enfim, “modelamos” um elétron, sendo o modelo uma representação simplificada e hipotética de algo que supomos real. Uma das contribuições de Galileu ao método científico foi justamente ter construído modelos idealizados e simplificados da realidade, como é o caso do conceito de pêndulo ideal, no qual as do corpo, a massa do fio e a resistência do ar são considerados desprezíveis. A construção de modelos simplificados e idealizados torna mais fácil a análise e a aplicação de leis gerais e matemáticas, fundamentais nas ciências naturais. Já que um modelo permite previsões e, supostamente, representa algo real, podemos realizar experimentos para testar sua validade. Deste modo, podemos aos poucos corrigir o modelo e torná-lo mais complexo, de forma a aproximá-lo cada vez mais da realidade. Foi isso que ocorreu, por exemplo, com os diversos modelos de átomo propostos ao longo da história da ciência. Assim a ciência progride, formulando teorias cada vez mais amplas e profundas, capazes de explicar uma maior variedade de fenômenos. Entretanto, mesmo as teorias mais recentes devem ser encaradas como explicações apenas parciais e hipotéticas da realidade. Finalmente, afirmar que a ciência é objetiva não significa dizer que suas teorias são verdadeiras. A objetividade da ciência não repousa na imparcialidade de cada indivíduo, mas na disposição de formular e publicar hipóteses para serem submetidas a críticas por parte de outros cientistas; na disposição de formulá-las de forma que possam ser testadas experimentalmente; na exigência de que a experiência seja controlada e de que outros cientistas possam repetir os testes, se isto for necessário. Todos esses procedimentos visam diminuir a influência de fatores subjetivos na avaliação de hipóteses e teorias através de um controle intersubjetivo, isto é, através da replicação do teste por outros pesquisadores e através do uso de experimentos controlados. CAPÍTULO 2 Ciência Natural: Os Pressupostos Filosóficos Neste capítulo vamos discutir as principais concepções acerca da natureza do método científico. Veremos então que, embora os filósofos discordem acerca de vários pontos, é possível extrair algumas conclusões importantes, que são aceitas por todos os que defendem a busca da objetividade como um ideal do conhecimento científico. 1. O positivismo lógico O termo positivismo vem de Comte, que considerava a ciência como o paradigma de todo o conhecimento. No entanto, mais importante do que Comte para a linha anglo- americana foi a combinação de idéias empiristas (Mill, Hume, Mach & Russell) com o uso da lógica moderna (a partir dos trabalhos em matemática e lógica de Hilbert, Peano, Frege, Russell e das idéias do Tractstus Logico-Philosophicus, de Wittgenstein). Daí o movimento ser chamado também de positivismo lógico ou empirismo lógico. O movimento foi influenciado ainda pelas novas descobertas em física, principalmente a teoria quântica e a teoria da relatividade. (Para uma exposição mais detalhada das idéias e do desenvolvimento do positivismo lógico ver Ayer, 1959, 1982; Gillies, 1993; Hanfling, 1981; Oldroyd, 1986; Radnitzky, 1973; Suppe, 1977; Urmson, 1956; Wedberg, 1984.) Embora tenha surgido nos anos 20, na Áustria (a partir do movimento conhecido como “Círculo de Viena”, fundado pelo filósofo Moritz Schlick), Alemanha e Polônia, muitos de seus principais filósofos, como Rudolf Carnap, Hans Reichenbach, Herbet Feigl e Otto Neurath, emigraram para os Estados Unidos ou Inglaterra com o surgimento do nazismo, uma vez que alguns dos 11 membros do grupo eram judeus ou tinham idéias liberais ou socialistas incompatíveis com o nazismo. Para o positivismo, a Lógica e a Matemática seriam válidas porque estabelecem as regras da linguagem, constituindo-se em um conhecimento a priori, ou seja, independente da experiência. Em contraste com a Lógica e a Matemática, porém, o conhecimento factual ou empírico deveria ser obtido a partir da observação, por um método conhecido como indução. A partir da observação de um grande número de cisnes brancos, por exemplo, concluímos, por indução, que o próximo cisne a ser observado será branco. Do mesmo modo, a partir da observação de que alguns metais se dilatam quando aquecidos, concluímos que todos os metais se dilatam quando aquecidos e assim por diante. A indução, portanto, é o processo pelo qual podemos obter e confirmar hipóteses e enunciados gerais a partir da observação. As leis científicas, que são enunciados gerais que indicam relações entre dois ou mais fatores, também poderiam ser obtidas por indução. Estudando-se a variação do volume de um gás em função de sua pressão, por exemplo, concluímos que o volume do gás é inversamente proporcional à pressão exercida sobre ele (lei de Boyle). Em termos abstratos, as leis podem ser expressas na forma “em todos os casos em que se realizam as condições A, serão realizadas as condições B”. A associação das leis com o que chamamos de condições iniciais permite prever e explicar os fenômenos: a lei de Boyle permite prever que se dobrarmos a pressão de um gás com volume de um litro, em temperatura constante (condições iniciais), esse volume será reduzido à metade. Embora o termo teoria tenha vários significados (podendo ser utilizado simplesmente como sinônimo de uma hipótese ou conjectura), em sentido estrito as teorias são formadas por um conjunto de leis e, freqüentemente, procuram explicar os fenômenos com auxílio de conceitos abstratos e não diretamente observáveis, como “átomo”, “elétron”, “campo”, “seleção natural” etc. Esses conceitos abstratos ou teóricos estão relacionados por regras de correspondência com enunciados diretamente observáveis (o ponteiro do aparelho deslocou-se em 1 centímetro, indicando uma corrente de 1 ampère, por exemplo). As teorias geralmente utilizam modelos simplificados de uma situação mais complexa. A teoria cinética dos gases, por exemplo, supõe que um gás seja formado por partículas de tamanho desprezível (átomos ou moléculas), sem força de atração ou repulsão entre elas e em movimento aleatório. Com auxílio desse modelo, podemos explicar e deduzir diversas leis – inclusive a lei de Boyle, que relaciona a pressão com o volume do gás (se o volume do recipiente do gás diminuir, o número de choques das moléculas com a parede do recipiente aumenta, aumentando a pressão do gás sobre a parede). 14 Se passarmos de generalizações superficiais, como a dos cisnes, para as leis e teorias científicas, o problema se complica mais ainda. A partir da observação de um certo número de fatos, podemos extrair diversas leis e teorias científicas compatíveis com os dados recolhidos. Isto quer dizer que a indução, por si só, não é suficiente para descobrirmos qual das generalizações é a que melhor explica os dados. Além disso, mesmo que procedimentos indutivos permitam reunir um conjunto de dados e formar generalizações superficiais (do tipo “todos os metais se dilatam”), eles são insuficientes para originar teorias profundas, que apelam para conceitos impossíveis de serem percebidos por observação direta, como elétron, quark, seleção natural, etc. Os filósofos positivistas afirmam, no entanto, que o método indutivo pode ser usado para aumentar o grau de confirmação de hipóteses e teorias. Com auxílio da teoria da probabilidade, procuram desenvolver uma lógica indutiva para medir a probabilidade de uma hipótese em função das evidências a seu favor (calculando, por exemplo, a probabilidade que um paciente tem de ter determinada doença em função dos sintomas que apresenta). A construção de uma lógica indutiva contou com a colaboração de vários positivistas lógicos, como Carnap (1950) e Reichenbach (1961) e ainda tem defensores até hoje, que procuram, por exemplo, implementar sistemas indutivos em computadores para gerar e avaliar hipóteses (Holland et al., 1986). Outra linha de pesquisa, o bayesianismo, utiliza o teorema de Bayes (em homenagem ao matemático inglês do século XVIII, Thomas Bayes) para atualizar o grau de confirmação de hipóteses e teorias a cada nova evidência, a partir de uma probabilidade inicial e das evidências a favor da teoria. (Para exposição e defesa do bayesianismo, ver Howson & Urbach, 1989; Jeffrey, 1983; Horwich, 1982.) Os sistemas de lógica indutiva e as tentativas de atribuir probabilidade a hipóteses e teorias têm sido bastante criticados e apresentam muitos problemas não resolvidos. Mesmo que se possa atribuir probabilidades a enunciados gerais, parece muito difícil – senão impossível – aplicar probabilidades às teorias científicas profundas, que tratam de conceitos não observáveis. (Para críticas à lógica indutiva, ao bayesianismo e às de princípios que justifiquem a indução, ver Earman, 1992; Gilles, 1993; Glymour, 1980; Lakatos, 1968; Miller, 1994; Pollock, 1986; Popper, 1972, 1974, 1975a, 1975b,; Watkins, 1984). 2. As idéias de Popper A partir das críticas à indução, Popper tenta construir uma teoria acerca do método científico (e também acerca do conhecimento em geral) que não envolva a indução – que não seja, portanto, vulnerável aos argumentos de Hume. A questão é: como é possível que nosso conhecimento aumente a partir de hipó- 15 teses, leis e teorias que não podem ser comprovadas? (Mais sobre as idéias de Popper em: Anderson, 1994; Gewandsznajder, 1989; Magee, 1989; Miller, 1994; Newton-Smith, 1981; O’Hear, 1980; Popper, 1972, 1975a, 1975b, 1979, 1982; Schlipp, 1974; Watkins, 1984.) 2.1 O Método das conjecturas e refutações Popper aceita a conclusão de Hume de que a partir de observações e da lógica não podemos verificar a verdade (ou aumentar a probabilidade) de enunciados gerais, como as leis e teorias científicas. No entanto, diz Popper, a observação e a lógicas podem ser usadas para refutar esses enunciados gerais: a observação de um único cisne negro (se ele de fato for negro) pode, logicamente, refutar a generalização de que todos os cisnes são brancos. Há, portanto, uma assimetria entre a refutação e a verificação. A partir daí, Popper constrói sua visão do método científico – o racionalismo crítico – e também do conhecimento em geral: ambos progridem através do que ele chama de conjecturas e refutações. Isto significa que a busca do conhecimento se inicia com a formulação de hipóteses que procuram resolver problemas e continua com tentativas de refutações dessas hipóteses, através de testes que envolvem observações ou experimentos. Se a hipótese não resistir aos testes, formulam-se novas hipóteses que, por sua vez, também serão testadas. Quando uma hipótese passar pelos testes, ela será aceita como uma solução provisória para o problema. Considera-se, então, que a hipótese foi corroborada ou adquiriu algum grau de corroboração. Este grau é função da severidade dos testes a que foi submetida uma hipótese ou teoria e ao sucesso com que a hipótese ou teoria passou por estes testes. O termo corroboração é preferível à confirmação para não dar a idéia de que as hipóteses, leis ou teorias são verdadeiras ou se tornam cada vez mais prováveis à medida que passam pelos testes. A corroboração é uma medida que avalia apenas o sucesso passado de uma teoria e não diz nada acerca de seu desempenho futuro. A qualquer momento, novos testes poderão refutar uma hipótese ou uma teoria que foi bem-sucedida no passado, isto é, que passou com sucesso pelos testes (como aconteceu com a hipótese de que todos os cisnes brancos depois da descoberta de cisnes negros na Austrália). As hipóteses, leis e teorias que resistiram aos testes até o momento são importantes porque passam a fazer parte de nosso conhecimento de base: podem ser usadas como “verdades provisórias”, como um conhecimento não problemático, que, no momento, não está sendo contestado. Mas a decisão de aceitar qualquer hipótese como parte do conhecimento de base é temporária e pode sempre ser revista e revogada a partir de novas evidências. 16 Por várias vezes, Popper protestou por ter sido confundido por seus críticos (Kuhn e Lakatos, por exemplo) com um “falsificacionista ingênuo” (Popper, 1982). Para ele, isto acontece porque esses críticos confundem refutação em nível lógico com refutação em nível experimental. Em nível experimental ou empírico nunca podemos comprovar conclusivamente que uma teoria é falsa: isso decorre do caráter conjectural do conhecimento. Mas a tentativa de refutação conta com o apoio da lógica dedutiva, que está ausente na teoria de confirmação. A decisão de aceitar que uma hipótese foi refutada é sempre conjectural: pode ter havido um erro na observação ou no experimento que passou despercebido. No entanto, se a observação ou o experimento forem bem realizados e não houver dúvidas quanto a sua correção, podemos considerar que, em princípio, e provisoriamente, a hipótese foi refutada. Quem duvidar do trabalho pode “reabrir a questão”, mas para isso deve apresentar evidências de que houve erro no experimento ou na observação. No caso do cisne, isto equivale mostrar que o animal não era um cisne ou que se tratava de um cisne branco pintado de preto, por exemplo. A refutação conta com o apoio lógico presente em argumentos do tipo: “Todos os cisnes são brancos; este cisne é negro; logo, é falso que todos os cisnes sejam brancos”. Neste caso, estamos diante de um argumento dedutivamente válido. Este tipo apoio, porém, não está presente na comprovação indutiva. Popper usa então a lógica dedutiva não para provar teorias, mas para criticá-las. Hipóteses e teorias funcionam como premissas de um argumento. A partir dessas premissas deduzimos previsões que serão testadas experimentalmente. Se uma previsão for falsa, pelo menos uma das hipóteses ou teorias utilizadas deve ser falsa. Desse modo, a lógica dedutiva passa a ser um instrumento de crítica. 2.2 A importância da refutabilidade Para que o conhecimento progrida através de refutações, é necessário que as leis e as teorias estejam abertas à refutação, ou sejam, que sejam potencialmente refutáveis. Só assim, elas podem ser testadas: a lei da reflexão da luz, por exemplo, que diz que o ângulo do raio incidente deve ser igual ao ângulo do raio refletido em um espelho, seria refutada se observarmos ângulos de reflexão diferentes dos ângulos de incidência. As leis e teorias devem, portanto, “proibir” a ocorrência de determinados eventos. Os enunciados que relatam eventos que contradizem uma lei ou teoria (que relatam acontecimentos “proibidos”) são chamados de falseadores potenciais da lei ou teoria. 19 sacarina provoca câncer”, embora os testes para determinar se isto de fato acontece (os critérios de verdade) não sejam conclusivos. Em certos casos é até possível compreender a idéia de verdade sem que seja possível realizar testes que funcionem como critérios de verdade. Pode-se compreender o enunciado “É verdade que exatamente oito mil anos atrás chovia sobre o local onde era a cidade do Rio de janeiro”, embora não seja possível imaginar um teste ou observação para descobrir se este enunciado é verdadeiro. Isso quer dizer que não dispomos de um critério para reconhecer a verdade quando a encontramos, embora algumas de nossas teorias possam ser verdadeiras – no sentido de correspondência com os fatos. Portanto, embora uma teoria científica possa ter passado por testes severos com sucesso, não podemos descobrir se ela é verdadeira e, mesmo que ela o seja, não temos como saber isso com certeza. No entanto, segundo Popper (1972), na história da ciência há várias situações em que uma teoria parece se aproximar mais da verdade de que outra. Isso acontece quando uma teoria faz afirmações mais precisas (que são corroboradas); quando explica mais fatos; quando explica fatos com mais detalhes; quando resiste a testes que refutaram a outra teoria: quando sugere testes novos, não sugeridos pela outra teoria (e passa com sucesso por estes testes) e quando permite relacionar problemas que antes estavam isolados. Assim, mesmo que consideremos a dinâmica de Newton refutada, ela permanece superior às teorias de Kepler e de Galileu, uma vez que a teoria de Newton explica mais fatos que as de Kepler e de Galileu, além de ter maior precisão e de unir problemas (mecânica celeste e terrestre) que antes eram tratados isoladamente. O mesmo acontece quando comparamos a teoria da relatividade de Einstein com a dinâmica de Newton; ou a teoria da combustão de Lavoisier e a do flogisto; ou quando comparamos as diversas teorias atômicas que se sucederam ao longo da história da ciência ou, ainda, quando comparamos a seqüência de teorias propostas para explicar a evolução dos seres vivos. Em todos esses casos, o grau de corroboração aumenta quando caminhamos das teorias mais antigas para as mais recentes. Sendo assim, diz Popper, o grau de corroboração poderia indicar que uma teoria se aproxima mais da verdade que outra – mesmo que ambas as teorias sejam falsas. Isto acontece quando o conteúdo-verdade de uma teoria (a classe das conseqüências lógicas e verdadeiras da teoria) for maior que o da outra sem que o mesmo ocorra com o conteúdo falso (a classe de conseqüências falsas de uma teoria). Isto é possível, porque a partir de uma teoria falsa podemos deduzir tantos enunciados falsos como verdadeiros: o enunciado “todos os cisnes são brancos” é falso, mas a conseqüência lógica “todos os cisnes do zoológico do Rio de Janeiro são brancos” pode ser verdadeira. Logo, uma teoria falsa pode conter maior número de afirmações verdadeiras do que outra. 20 Se isto for possível, a corroboração passa a ser um indicador para uma aproximação da verdade, e o objetivo da ciência passa a ser o de buscar teorias cada vez mais próximas à verdade ou, como diz Popper, com um grau cada vez maior de verossimilhança ou verossimilitude (verisimilitude ou, thuthlikeness, em inglês). 2.4. Críticas das idéias de Popper Boa parte das críticas das idéias de Popper foram feitas pelos representantes do que pode ser chamado de “A nova filosofia da ciência”: Kuhn, Lakatos e Feyerabend. Para Anderson (1994), estas críticas apóiam-se principalmente em dois problemas metodológicos: o primeiro é que os enunciados relatando os resultados dos testes estão impregnados de teorias. O segundo, é que usualmente testamos sistemas teóricos complexos e não hipóteses isoladas, do tipo “todos os cisnes são brancos”. Suponhamos que queremos testar a teoria de Newton, formada pelas três leis do movimento e pela lei da gravidade. Para deduzir uma conseqüência observável da teoria (uma previsão), precisamos acrescentar à teoria uma série de hipóteses auxiliares, a respeito, por exemplo, da estrutura do sistema solar e de outros corpos celestes. Assim, para fazer a previsão a respeito da volta do famoso cometa – depois chamado cometa de Halley –, Halley não utilizou apenas as leis de Newton, mas também a posição e a velocidade do cometa, calculadas quando de sua aparição no ano de 1682 (as chamadas condições iniciais). Além disso, ele desprezou certos dados considerados irrelevantes (a influência de júpiter foi considerada pequena demais para influenciar de forma sensível o movimento do cometa). Por isso, se a previsão de Halley não tivesse sido cumprida (o cometa voltou no mês e no ano previsto), não se poderia afirmar que a teoria de Newton foi refutada: poderia ter havido um erro nas condições iniciais ou nas chamadas hipóteses auxiliares. Isto significa que, quando uma previsão feita a partir de uma teoria fracassa, podemos dizer apenas que pelo menos uma das hipóteses do conjunto formado pelas leis de Newton, condições iniciais e hipóteses auxiliares é falsa – mas não podemos apontar qual delas foi responsável pelo fracasso da previsão: pode ter havido um erro nas medidas da órbita do cometa ou então a influência de Júpiter não poderia ser desprezada. Esta crítica também foi formulada pela primeira vez por Pierre Duhem, que diz: O físico nunca pode subestimar uma hipótese isolada a um teste experimental, mas somente todo um conjunto de hipóteses. Quando o experimento se coloca em desacordo com a predição, o que ele aprende é que pelo menos uma das hipóteses do grupo é inaceitável e tem que ser modificada; mas o experimento não indica qual delas deve ser mudada (1954, p. 187). 21 Duhem resume então o que é hoje designado como tese de Duhem: “Um experimento em Física não pode nunca condenar uma hipótese isolada mas apenas todo um conjunto teórico” (1954, p. 183). Na realidade, mais de uma teoria – e até todo um sistema de teorias – pode estar envolvido no teste de uma previsão. Isto porque, teorias científicas gerais, com grande amplitude, como a teoria de Newton, só podem ser testadas com auxílio de teorias mais específicas, menos gerais. As quatro leis de Newton, juntamente com os conceitos fundamentais da teoria (massa, gravidade) formam o que se pode chamar de núcleo central ou suposições fundamentais da teoria. Este núcleo precisa ser enriquecido com um conjunto de “miniteorias” acerca da estrutura do sistema solar. Este conjunto constitui um modelo simplificado do sistema solar, onde se considera, por exemplo, que somente forças gravitacionais são relevantes e que a atração entre planetas é muito pequena comparada com a atração do Sol. Se levarmos em conta que os dados científicos são registrados com instrumentos construídos a partir de teorias, podemos compreender que o que está sendo testado é, na realidade, uma teia complexa de teorias e hipóteses auxiliares e a refutação pode indicar apenas que algo está errado em todo esse conjunto. Isso significa que a teoria principal (no caso a teoria de Newton) não precisa ser modificada. Podemos, em vez disso, modificar uma das hipóteses auxiliares. Um exemplo clássico dessa situação ocorreu quando os astrônomos calcularam a órbita do planeta Urano com auxílio da teoria de Newton e descobriram que esta órbita não concordava com a órbita observada. Havia, portanto, o que chamamos em filosofia da ciência, de uma anomalia, isto é, uma observação que contradiz uma previsão. Como vimos, dois astrônomos, Adams e Le Verrier, imaginaram, então, que poderia haver um planeta desconhecido que estivesse alterando a órbita de Urano. Eles modificaram, portanto, uma hipótese auxiliar – a que Urano era o último planeta do sistema solar. Calcularam então a massa e a posição que o planeta desconhecido deveria ter para provocar as discrepâncias entre a órbita prevista e a órbita observada. Um mês depois da comunicação de seu trabalho, em 23 de setembro de 1846, um planeta com as características previstas – Netuno – foi observado. Neste caso, o problema foi resolvido alterando-se uma das hipóteses auxiliares, ao invés de se modificar uma teoria newtoniana. Em outra situação bastante semelhante – uma diferença entre a órbita prevista e a órbita observada do planeta Mercúrio –, Le Verrier se valeu da mesma estratégia, postulando a existência de um planeta, Vulcano, mais próximo do Sol do que Mercúrio. Mas nenhum planeta com as características previstas foi encontrado. Neste caso, o problema somente pôde ser resolvido com a substituição da teoria de Newton pela teoria da relatividade – nenhuma mudança nas hipóteses auxiliares foi capaz de resolver o problema, explicando a anomalia. 24 Na realidade, uma teoria “falsificada” não precisa ser abandonada, mas pode ser modificada de forma a se reconciliar com a suposta refutação. Mas, neste caso, por que os cientistas às vezes tentam modificar a teoria e, outras vezes, como no caso de Copérnico, introduzem uma nova teoria completamente diferente? O objetivo central de Kuhn é, portanto, o de explicar por que “os cientistas mantêm teorias apesar das discrepâncias e, tendo aderido a ela, por que eles as abandonam?” (Kuhn, 1957, p. 76). Em outras palavras, Kuhn vai tentar explicar como a comunidade científica chega a um consenso e como esse consenso pode ser quebrado. (Além de livros e artigos do próprio Kuhn, podem ser consultados, entre muitos outros, os seguintes trabalhos: Andersson, 1994; Chalmers, 1982; Gutting, 1980; Hoyningen-Huene, 1993; Kitcher, 1993; Lakatos & Musgrave, 1970; Laudan, 1984, 1990; Newton-Smith, 1981; Oldroyd, 1986; Scheffler, 1967; Siegel, 1987; Stegmüller, 1983; Watkins, 1984.) 3.1 O conceito de paradigma Para Kuhn, a pesquisa científica é orientada não apenas por teorias, no sentido tradicional deste termo (o de uma coleção de leis e conceitos), mas por algo mais amplo, o paradigma, uma espécie de “teoria ampliada”, formada por leis, conceitos, modelos, analogias, valores, regras para a avaliação de teorias e formulação de problemas, princípios metafísicos (sobre a natureza última dos verdadeiros constituintes do universo, por exemplo) e ainda pelo que ele chama de “exemplares”, que são “soluções concretas de problemas que os estudantes encontram desde o início de sua educação científica, seja nos laboratórios, exames ou no fim dos capítulos dos manuais científicos” (Kuhn, 1970b, p. 232). Kuhn cita como exemplos de paradigmas, a mecânica newtoniana, que explica a atração e o movimento dos corpos pelas leis de Newton; a astronomia ptolomaica e copernicana, com seus modelos de planetas girando em torno da Terra ou do Sol e as teorias do flogisto e do oxigênio, que explicam a combustão e a calcinação de substâncias pela eliminação de um princípio inflamável – o flogisto – ou pela absorção de oxigênio, respectivamente. Todas essas realizações científicas serviram como modelos para a pesquisa científica de sua época, funcionando também, como uma espécie de “visão do mundo” para a comunidade científica, determinando que tipo de leis são válidas; que tipo de questões devem ser levantadas e investigadas; que tipos de soluções devem ser propostas; que métodos de pesquisa devem ser usados e que tipo de constituintes formam o mundo (átomos, elétrons, flogisto etc.). A força do paradigma seria tanta que ele determinaria até mesmo como um fenômeno é percebido pelos cientistas: quando Lavoisier descobriu o oxigênio, ele passou a “ver” oxigênio onde, nos mesmos experimentos, Priestley e outros cientistas defensores da teoria do flogisto viam “ar deflogistado”. Enquanto Aristóteles olhava para uma pedra balançando amarrada em um fio e “via” um 25 corpo pesado tentando alcançar seu lugar natural, Galileu “via” um movimento pendular (Kuhn, 1970b). Para Kuhn, a força de um paradigma viria mais de seus exemplares do que de suas leis e conceitos. Isto porque os exemplares influenciam fortemente o ensino da ciência. Eles aparecem nos livros-texto de cada disciplina como “exercícios resolvidos”, ilustrando como a teoria pode ser aplicada para resolver problemas (mostrando, por exemplo, como as leis de Newton são usadas para calcular a atração gravitacional que a Terra exerce sobre um corpo em sua superfície). São, comumente, as primeiras aplicações desenvolvidas a partir da teoria, passando a servir então como modelos para a aplicação e o desenvolvimento da pesquisa científica. Os estudantes são estimulados a aplicá-los na solução de problemas e também a modificar e estender os modelos para a solução de novos problemas. Os exemplares são, portanto, a parte mais importante de um paradigma para a apreensão dos conceitos científicos e para estabelecer que problemas são relevantes e de que modo devem ser resolvidos. Desse modo, eles determinam o que pode ser considerado uma solução cientificamente aceitável de um problema, ajudando ainda a estabelecer um consenso entre os cientistas e servindo como guias para a pesquisa. Após ter sido criticado por usar o termo paradigma de modo bastante vago (Masterman, 1970), Kuhn afirmou, no posfácio de A Estrutura das Revoluções Científicas (1970b), que ele preferia usar o termo paradigma no sentido mais estrito, de exemplares. Apesar disso, o termo paradigma continuou a ser usado em sentido amplo pela maioria dos filósofos da ciência e o próprio Kuhn reconheceu ter perdido o controle sobre este termo. Além disso, como durante as mudanças de paradigma (o termo será usado aqui em sentido amplo, salvo observação em contrário) há também mudanças na teoria que compõe o paradigma, Kuhn muitas vezes fala indistintamente em “substituir uma teoria ou paradigma” (1970b). 3.2 A ciência normal A força de um paradigma explicaria por que as revoluções científicas são raras: em vez de abandonar teorias refutadas, os cientistas se ocupam, na maior parte do tempo, com o que Kuhn chama “ciência normal”, que é a pesquisa científica orientada por um paradigma e baseada em um consenso entre especialistas. Nos períodos de ciência normal, todos os problemas e soluções encontradas têm de estar contidos dentro do paradigma adotado. Os cientistas se limitariam a resolver enigmas (puzzles). Este termo é usado para indicar que, na ciência normal, as “anomalias” (resultados discrepantes) que surgem na pesquisa são tratados como enigmas ou quebra-cabeças (puzzles), do tipo encontra- 26 do nos jogos de encaixar figuras ou nas palavras cruzadas: a dificuldade de achar a palavra ou a peça certa deve-se à nossa falta de habilidade e não (provavelmente) a um erro na construção ou nas regras do jogo. Do mesmo modo, os problemas não resolvidos e os resultados discrepantes não ameaçam a teoria ou o paradigma: o máximo que o cientista poderá fazer é contestar e modificar alguma hipótese auxiliar, mas não a teoria principal ou o paradigma. Na ciência normal não há, portanto, experiências refutadoras de teorias, nem grandes mudanças no paradigma. Essa adesão ao paradigma, no entanto, não impede que haja descobertas importantes na ciência normal, como aconteceu, por exemplo, na descoberta de novos elementos químicos previstos pela tabela periódica (Kuhn, 1977). É um progresso, porém, que deixa as regras básicas do paradigma inalteradas, sem mudanças fundamentais. Essa adesão seria importante para o avanço da ciência, uma vez que se o paradigma fosse abandonado rapidamente, na primeira experiência refutadora, perderíamos a chance de explorar todas as sugestões que ele abre para desenvolver a pesquisa. Uma forte adesão ao paradigma permite a prática de uma pesquisa detalhada, eficiente e cooperativa. 3.3 Crise e mudança de paradigma Há períodos na história da ciência em que teorias científicas de grande amplitude são substituídas por outras, como ocorreu na passagem da teoria do flogisto para a teoria do oxigênio de Lavoisier, do sistema de Ptolomeu para o de Copérnico, ou da física de Aristóteles para a de Galileu. Nestes períodos, chamados de “Revoluções Científicas”, ocorre uma mudança de paradigma: novos fenômenos são descobertos, conhecimentos antigos são abandonados e há uma mudança radical na prática científica e na “visão de mundo” do cientista. Segundo Kuhn, “embora o mundo não mude com a mudança de paradigma, depois dela o cientista passa a trabalhar em um mundo diferente” (1970b, p. 121). Para Kuhn, a ciência só tem acesso a um mundo interpretado por uma linguagem ou por paradigmas: nada podemos saber a respeito do mundo independentemente de nossas teorias. Ele rejeita a idéia de que possamos construir teorias verdadeiras ou mesmo cada vez mais próximas à verdade (Kuhn, 1970a; 1970b; 1977). Pelo mesmo motivo, seria impossível estabelecer uma distinção entre conceitos observáveis – que se referem a fenômenos observáveis, não influenciados por teorias – e conceitos teóricos, que se referem a fenômenos não observáveis (como campo ou elétron), construídos com auxílio de teorias. Kuhn compara as mudanças no modo de observar um fenômeno durante as revoluções científicas a mudanças de Gestalt, que ocorrem holisticamente: por exemplo, quando certas figuras ambíguas podem ser vistas de modos 29 Assim, como comparar teorias ou paradigmas, se os cientistas que aderem a paradigmas ou teorias diferentes têm visões diferentes do mesmo fenômeno (onde um vê o flogisto o outro vê oxigênio) ou, colocando de forma ainda mais radical, se o mundo muda com o paradigma (antes da descoberta de Herschel havia uma estrela onde agora há um planeta)? Outra questão, é que os problemas que exigiam soluções dentro de um paradigma podem ser abandonados como obsoletos na visão de outro paradigma – o mesmo acontecendo com o tipo de solução escolhida. Conseqüentemente, durante uma revolução científica há ganhos mas também há perdas na capacidade de explicação e previsão: a teoria nova explica alguns fatos que a teoria antiga não explica, mas esta continua a explicar fatos que a teoria nova não é capaz de explicar. Nesta situação, torna-se problemático afirmar que uma das teorias é superior a outra. Esta tese é conhecida como “a perda de Kuhn” (“Kuhn-loss”) (Watkins, 1984, p. 214). A incomensurabilidade existiria também devido a uma dificuldade de tradução entre os conceitos e enunciados de paradigmas diferentes. Nas revoluções científicas ocorrem mudanças no significado de alguns conceitos fundamentais, de modo que cada comunidade científica passa a usar conceitos diferentes – mesmo que as palavras sejam as mesmas. Isto quer dizer que, embora os conceitos do paradigma antigo continuem a ser usados, eles adquirem um significado diferente: o conceito de massa na teoria da relatividade, por exemplo, seria diferente do conceito de massa na mecânica newtoniana. O mesmo acontece com o conceito de planeta na teoria de Ptolomeu e na teoria de Copérnico. Os enunciados (leis e hipóteses) teriam então de ser traduzidos de um paradigma para outro. Mas, na ausência de uma linguagem neutra (independente de teorias ou paradigmas) a tradução não pode ser feita sem perda de significado. Finalmente, como veremos depois, a incomensurabilidade decorre também do fato de que cada cientista pode atribuir pesos diferentes a cada um dos critérios para a avaliação de teorias (poder preditivo, simplicidade, amplitude etc.) ou então interpretá-los de forma diferente – sem que se possa dizer qual o peso ou a interpretação correta. Além disso, a própria escolha desses critérios não pode ser justificada objetivamente – por algum algoritmo lógico ou matemático, por exemplo. Diante da dificuldade – ou mesmo da impossibilidade – de uma escolha entre teorias ou paradigmas, não é de estranhar que Kuhn dê a entender que a aceitação do novo paradigma não se deva – ou, pelo menos, não se deva apenas – a recursos lógicos ou a evidências experimentais, mas à capacidade de persuasão ou à “propaganda” feita pelos cientistas que defendem o novo paradigma. Na falta de argumentos e critérios objetivos de avaliação esta aceitação ocorreria através de uma espécie de “conversão” de novos adeptos – ou então à medida 30 que aqueles que se recusam a aceitar o novo paradigma fossem morrendo (1970b). Em obras posteriores, porém, (1970a, 1977, 1983) e no posfácio à obra original (1970b), ele passou a afirmar que nem todos os conceitos mudam de sentido durante as mudanças de teorias ou paradigmas: há apenas uma “incomensurabilidade local”, em que a mudança de sentido afeta “apenas um pequeno subgrupo de termos” (1983, PP. 670-671). Neste caso, haveria uma incomunicabilidade apenas parcial entre os defensores de paradigmas diferentes e o potencial empírico de teorias “incomensuráveis” poderia ser comparado, uma vez que essas teorias têm intersecções empíricas que podem ser mutuamente incompatíveis. Assim, embora o conceito de planeta tenha mudado na passagem da teoria de Ptolomeu para a de Copérnico, as previsões de cada teoria sobre as posições planetárias podem ser feitas com instrumentos apropriados, que medem os ângulos entre os planetas e as estrelas fixas. O resultado dessas medidas pode se revelar incompatível com alguma dessas previsões. Neste caso, a comparação entre teorias pode ser feita porque algumas das previsões empíricas não se valem dos conceitos incomensuráveis. 3.5 A avaliação das teorias As razões fornecidas por Kuhn para escolher a melhor entre duas teorias não diferem, segundo ele próprio, das linhas tradicionais da filosofia da ciência. Sem pretender dar uma linha completa, Kuhn seleciona “cinco características de uma boa teoria científica [...]: exatidão, consistência, alcance, simplicidade e fecundidade” (1977, p. 321). A exatidão, para Kuhn, significa que as previsões deduzidas da teoria devem ser qualitativa e quantitativamente exatas, isto é, as “conseqüências da teoria devem estar em concordância demonstrada com os resultados das experimentações e observações existentes” (1977, p. 321). A exigência de consistência significa que a teoria deve estar livre de contradições internas e ser considerada compatível com outras teorias aceitas no momento. Quanto ao alcance, é desejável que ela tenha um amplo domínio de aplicações, isto é, que suas conseqüências estendam-se “além das observações, leis ou subteorias particulares para as quais ela esteja projetada em princípio” (1977, p. 321). Isso significa que uma teoria deve explicar fatos ou leis diferentes daqueles para os quais foi construída. A simplicidade pode ser caracterizada como a capacidade que a teoria tem de unificar fenômenos que, aparentemente, não tinham relação entre si. Uma boa teoria deve ser capaz de organizar fenômenos que, sem ela, permaneceriam isolados uns dos outros. 31 A fecundidade implica que a teoria deve “desvendar novos fenômenos ou relações anteriormente não verificadas entre fenômenos já conhecidos” (1977, p. 32). Ela deve ser uma fonte de novas descobertas; deve ser capaz de orientar a pesquisa científica de forma produtiva. Além dessas razões, Kuhn cita, ocasionalmente, o poder explanatório (outro conceito comum na filosofia tradicional), a plausibilidade e a capacidade da teoria de definir e resolver o maior número possível de problemas teóricos e experimentais, especialmente do tipo quantitativo (1977). A plausibilidade significa, para Kuhn, que as teorias devem ser “compatíveis com outras teorias disseminadas no momento” (1970b, p. 185). Em relação à capacidade de resolver problemas, Kuhn é mais explícito: além de resolver os problemas que deflagraram a crise com mais precisão que o paradigma anterior, “o novo paradigma deve garantir a preservação de uma parte relativamente grande da capacidade objetiva de resolver problemas conquistada pela ciência com o auxílio dos paradigmas anteriores” (Kuhn, 1970b, p. 169). Além disso, Kuhn inclui também na capacidade de resolver problemas, a habilidade de uma teoria de prever fenômenos que, da perspectiva da teoria antiga, são inesperados (Kuhn, 1970b, 1977). Kuhn reconhece que o poder explanatório, a plausibilidade e, principalmente, a capacidade de resolver problemas, podem ser deduzidos dos valores anteriores. Mas não tem a preocupação de avaliar a coerência ou a redundância desses critérios, uma vez que atribui um peso menor a eles do que os filósofos tradicionais. Para Kuhn, esses critérios não são conclusivos, isto é, não são suficientes para forçar uma decisão unânime por parte da comunidade científica. Por isso, ele prefere usar o termo “valores” em vez de “critérios”. Isso acontece por vários motivos. Em primeiro lugar, valores como a simplicidade, por exemplo, podem ser interpretados de formas diferentes, provocando uma discordância entre qual das teorias é de fato mais simples. Além disso, um valor pode se opor a outro: uma teoria pode ser superior em relação a determinado valor, mas inferior em relação a outro: “uma teoria pode ser mais simples e outra mais precisa” (Kuhn, 1970a, p. 258). Neste caso, seria necessário atribuir pesos relativos a cada valor – mas esta atribuição não faz parte dos valores compartilhados pela comunidade. Na realidade, cada cientista pode atribuir um peso diferente a cada valor. Além disso, embora esses valores possam servir para persuadir a comunidade científica a aceitar um paradigma, eles nãos servem para justificar a teoria – no sentido de que ela seria mais verdadeira que outra. Para Kuhn, não há ligação entre os valores e a verdade de uma teoria (ou de sua verossimilitude). Finalmente, Kuhn não vê como justificar estes valores, a não ser pelo fato de que esses são os valores compartilhados pela comunidade científica: “Que melhor critério poderia existir do que a decisão de um grupo de cientistas?” 34 Se a tese for verdadeira, nós estamos, de certa maneira, aprisionados dentro do nosso sistema de conceitos (ou dentro de paradigmas, classes sociais, épocas históricas, linguagem etc.) e, simplesmente, não há um sistema superior, objetivo ou neutro para avaliar nossas idéias. Neste caso, fica comprometida não apenas a possibilidade de avaliação de teorias, mas também a própria idéia de progresso do conhecimento científico ou da ciência. Afinal, que critério teríamos para afirmar que uma teoria é melhor que outra ou que há progresso ao longo de uma seqüência de teorias? Embora Kuhn tenha rejeitado o rótulo de relativista, vários filósofos consideram que ele não consegue apresentar boas razões para a escolha de teorias (Andersson, 1994; Bunge, 1985a, 1985b; Lakatos, 1970, 1978; Laudan, 1990; Popper, 1979; Shapere, 1984; Scheffler, 1967; Siegel, 1987; Thagard, 1992; Toulmin, 1970; Trigg, 1980, entre muitos outros). Como pode, por exemplo, haver progresso, do momento em que a capacidade de resolver problemas é avaliada de forma diferente pelos defensores do paradigma antigo e do novo (para os primeiros pode ter havido mais perdas do que ganhos, enquanto os últimos fazem a avaliação inversa) e do momento em que fatores psicológicos e sociais necessariamente influenciam essa escolha – o que vem a ser justamente a tese relativista? As teses de Kuhn, principalmente na interpretação mais radical, estimularam um intenso debate. Os filósofos que acreditam que os critérios de avaliação de teorias devem ser objetivos, isto é, devem ser independentes das crenças dos cientistas ou das circunstâncias sociais do momento, procuraram rebater suas teses relativistas, de forma a defender o uso de critérios objetivos para a avaliação das teorias, como fizeram, os seguidores do racionalismo crítico (Andersson, 1994; Bartley, 1984; Miller, 1994; Musgrave, 1993; Radnitzky, 1976, 1987; Watkins, 1984). Outro grupo parte para a posição oposta, levando as teses relativistas às últimas conseqüências, como fizeram Paul Feyerabend (1978, 1988) e a Escola de Edimburgo (Barnes, 1974; Bloor, 1976; Collins, 1982; Latour & Woolgar, 1986). Finalmente, há aqueles que, como Imre Lakatos e Larry Laudan, incorporam em sua filosofia algumas idéias de Kuhn, procurando, no entanto, construir critérios objetivos para a avaliação de teorias (Lakatos, 1970, 1978; Laudan, 1977, 1981, 1984, 1990). 4. Lakatos, Feyerabend e a sociologia do conhecimento Do mesmo modo que Kuhn, Imre Lakatos (1922-1974) acha que é sempre possível evitar que uma teoria seja refutada fazendo-se modificações nas hipóteses auxiliares. A partir daí, Lakatos procura reformular a metodologia de Popper de forma a preservar a idéia de objetividade e racionalidade da ciência. Já Paul Feyerabend (1924-1994) segue uma linha ainda mais radical do que a de 35 Kuhn, ao afirmar que não existem normas que garantam o progresso de ciência ou que a diferenciem de outras formas de conhecimento. Finalmente, a sociologia do conhecimento procura demonstrar que a avaliação das teorias científicas é determinada por fatores sociais. 4.1 As idéias de Lakatos Para ilustrar a tese de que é sempre possível evitar que uma teoria seja refutada fazendo modificações nas hipóteses auxiliares, Lakatos imagina um planeta hipotético que se desvia da órbita calculada pela teoria de Newton. De um ponto de vista lógico, isso seria uma falsificação da teoria. Mas em vez de abandonar a teoria, o cientista pode imaginar que um planeta desconhecido esteja causando o desvio. Mesmo que este planeta não seja encontrado, a teoria de Newton não precisa ser rejeitada. Podemos supor, por exemplo, que o planeta é muito pequeno e não pode ser observado com os telescópios utilizados. Mas vamos supor que uma nuvem de poeira cósmica tenha impedido sua observação. E mesmo que sejam enviados satélites e que estes não consigam detectar a nuvem, o cientista pode dizer ainda que um campo magnético naquela região perturbou os instrumentos do satélite. Desse modo, sempre se pode formular uma nova hipótese adicional, salvando a teoria da refutação. Lakatos mostra assim que “refutações” de teorias podem sempre ser transformadas em anomalias, atribuídas a hipóteses auxiliares incorretas (Lakatos, 1970). Com exemplos como esse, Lakatos mostra também que, contrariamente a Popper, as teorias científicas são irrefutáveis: “as teorias científicas [...] falham em proibir qualquer estado observável de coisas” (Lakatos, 1970, p. 100). Para Lakatos, a história da ciência demonstra a tese de que as teorias não são abandonadas, mesmo quando refutadas por enunciados de teste: “oitenta e cinco anos se passaram entre a aceitação do periélio de Mercúrio como anomalia e sua aceitação como falseamento da teoria de Newton” (1970, p. 115). Além disso, para Lakatos as teorias não são modificadas ao longo do tempo de forma completamente livre: certas leis e princípios fundamentais resistem por muito tempo às modificações (como aconteceu com as leis de Newton, por exemplo). Por isso ele acha que deve haver regras com poder heurístico, que orientam as modificações e servem de guia para a pesquisa científica. Se for assim, a pesquisa científica poderia ser melhor explicada através de uma sucessão de teorias com certas partes em comum: o cientista trabalha fazendo pequenas correções na teoria e substituindo-a por outra teoria ligeiramente modificada. Esta sucessão de teorias é chamada por Lakatos de “programa de pesquisa científica”. 36 A parte que não muda em um programa de pesquisa é chamada de “núcleo rígido do programa” (Lakatos, 1970). O núcleo rígido é formado por um conjunto de leis consideradas irrefutáveis por uma decisão metodológica, uma convenção compartilhada por todos os cientistas que trabalham no programa. Esta decisão metodológica é necessária devido ao problema de Duhem: a falsificação atinge o sistema de hipóteses como um todo, sem indicar qual delas deve ser substituída. Logo, é necessário estabelecer por convenção que certas leis não podem ser mudadas em face de uma anomalia. Esta convenção impede também que os pesquisadores fiquem confusos, “submersos em um oceano de anomalias” (Lakatos, 1970, p. 133). No caso da mecânica newtoniana, o núcleo rígido é formado pelas três leis de Newton e pela lei da gravitação universal; na genética de populações, encontramos no núcleo a afirmação de que a evolução é uma alteração na freqüência dos genes de uma população; na teoria do flogisto, a tese de que a combustão envolve sempre a liberação de flogisto; na astronomia copernicana o núcleo é formado pelas hipóteses de que a terra e os planetas giram em torno de um Sol estacionário, com a Terra girando em torno de seu eixo no período de um dia (Lakatos, 1970, 1978). O núcleo rígido é formado, portanto, pelos princípios fundamentais de uma teoria. É ele que se mantém constante em todo o programa de pesquisa, à medida que as teorias são modificadas e substituídas por outras. Se houver mudanças no núcleo, estaremos, automaticamente, diante de um novo programa de pesquisa. Foi isso que ocorreu, por exemplo, na passagem da astronomia ptolomaica para a copernicana ou na mudança da teoria do flogisto para a teoria da combustão pelo oxigênio. Para resolver as anomalias, isto é, as inadequações entre as previsões da teoria e as observações ou experimentos, o pesquisador tenta sempre modificar uma hipótese auxiliar ou uma condição inicial, em lugar de promover alterações no núcleo. As hipóteses auxiliares e as condições iniciais formam o que Lakatos chama de “cinto de proteção” (1970, p. 133), já que elas funcionam protegendo o núcleo contra refutações. Quando alguma anomalia era observada no sistema de Ptolomeu, por exemplo, procurava-se construir um novo epiciclo para explicar a anomalia. O mesmo teria ocorrido em relação à suposição da existência de um novo planeta (Netuno), com o fim de proteger os princípios básicos da teoria newtoniana. A regra metodológica de manter intacto o núcleo rígido é chamada “heurística negativa” do programa. Já a “heurística positiva” constitui o conjunto de “sugestões ou palpites sobre como [...] modificar e sofisticar o cinto de proteção refutável” (1970, p. 135). Na heurística positiva estariam, por exemplo, as técnicas matemáticas para a construção dos epiciclos ptolomaicos, as técnicas de observação astronômicas e a construção de “modelos, cada vez mais complicados, que simulam a realidade” (1970, p. 135). Todos esses recursos orientam a pesquisa científica, fornecendo sugestões sobre como mudar as hipóteses auxi- 39 1982; Cohen, Feyerabend & Wartofsky, 1976; Gavroglu, Goudaroulis & Nicolacopoulos, 1989; Howson, 1976; Lakatos, 1968, 1970, 1976, 1978; Newton-Smith, 1981; Radnitzky & Andersson, 1982.) 4.2 As idéias de Feyerabend Para Feyerabend, a ciência não tem um método próprio nem é uma atividade racional, mas um empreendimento anárquico, onde qualquer regra metodológica já proposta (inclusive as regras da lógica) ou que venha a ser proposta foi violada pelos cientistas – e tem de ser violada para que a ciência possa progredir. Este progresso ocorre graças a um pluralismo teórico, isto é, o estímulo à proliferação do maior número possível de teorias que competem entre si para explicar os mesmos fenômenos, como veremos adiante. Feyerabend é, portanto, mais radical do que Kuhn em suas críticas à racionalidade da ciência. Como vimos, Kuhn admite a existência de regras metodológicas (que ele chama de valores) para avaliar teorias científicas (poder preditivo, simplicidade, fecundidade etc.) – embora enfatize que estas regras não forçam uma escolha definida. Já para Feyerabend, não há nenhuma regra capaz de orientar esta avaliação, isto é, capaz de restringir a escolha de teorias. A única forma de explicar determinada escolha é apelar para o que Lakatos chamou de critérios externos à ciência, isto é, de preferências subjetivas, propaganda, fatores sociais e políticos etc. Feyerabend adota, portanto, uma posição claramente não racionalista, defendendo um relativismo total, um “vale tudo” metodológico e se autodenomina um “anarquista epistemológico” (Feyerabend, 1988). Feyerabend, como Kuhn e Lakatos, defende a tese de que é importante não abandonar uma teoria em face de refutações, já que enunciados de testes e hipóteses auxiliares sempre podem ser revistos, e que somente assim as teorias podem ser desenvolvidas e melhoradas (1970). A tese da incomensurabilidade é aceita por Feyerabend em sua forma mais radical: a mudança de um paradigma para outro implica em uma nova visão de mundo, com mudança de significado dos conceitos e com a impossibilidade de se comparar a nova e a antiga teoria. Contrariamente a Kuhn, Feyerabend não vê lugar algum para critérios objetivos de avaliação: “o que sobra são julgamentos estéticos, julgamentos de gosto, e nossos próprios desejos subjetivos” (1970, p. 228). Os exemplos da história da ciência são usados por Feyerabend para mostrar que nos casos em que reconhecidamente houve um avanço na ciência, alguma regra metodológica importante ou algum critério de avaliação deixou de ser seguido. 40 Para resolver problemas que confrontavam a teoria de Copérnico, por exemplo, como a variação no tamanho e brilho dos planetas observados a olho nu, Galileu usou hipóteses ad hoc, isto é, hipóteses que não têm nenhuma conseqüência testável, independentemente do fato para o qual foram criadas – no caso, a hipótese de que as observações a olho nu não são confiáveis. Os adversários de Galileu, que defendiam as teorias de Aristóteles, argumentavam, por sua vez, que o telescópio usado na época produzia distorções. Por isso, para eles, as observações com este instrumento não eram confiáveis. Do mesmo modo, contra a idéia de que a Terra estava em movimento, os aristotélicos argumentavam que, se isso fosse verdade, um objeto solto no espaço não deveria cair no ponto diretamente abaixo de onde foi solto. Segundo Feyerabend, Galileu teve de apelar nesses casos para métodos irracionais de convencimento, como o uso de hipóteses ad hoc, argumentos falaciosos, técnicas de persuasão e propaganda etc., para proteger teorias que ainda não tinham se desenvolvido plenamente – uma atitude contrária às recomendações do empirismo lógico e do racionalismo crítico. Ao mesmo tempo em que defende o estímulo à proliferação de teorias (pluralismo teórico), Feyerabend (1970) sugere que cada grupo de cientistas defenda sua teoria com tenacidade (princípio da tenacidade). Como não acredita que uma teoria possa ser criticada por testes ou observações independentes de teorias, Feyerabend acha que esta crítica só pode ser feita através da retórica, da propaganda ou com auxílio de outras teorias competidoras. No entanto, como Feyerabend não fornece nenhum critério objetivo para a seleção de teorias, fica difícil compreender como essas recomendações garantiriam algum progresso em direção á verdade ou mesmo na resolução de problemas. Não há razão, portanto, para supor que o pluralismo teórico de Feyerabend leve ao progresso do conhecimento. Feyerabend procura rebater esta crítica afirmando que a ciência não é superior – nem em relação ao método nem em relação a resultados – a outras formas de conhecimento e que não deve ter qualquer privilégio: se as pessoas que pagam impostos acreditam em coisas como astrologia, bruxaria, criacionismo, parapsicologia etc., então essas teorias deveriam ser ensinadas em escolas públicas (Feyerabend, 1978, 1988). Feyerabend acredita que suas recomendações contribuem não exatamente para o progresso do conhecimento, mas para a felicidade e o desenvolvimento do ser humano e para a criação de uma sociedade mais livre. No próximo item veremos as críticas feitas a Feyerabend, mas, desde já, é importante assinalar, que se aceitarmos a posição de Feyerabend, não há meios objetivos de separar o conhecimento científico de qualquer tipo de charlatanismo – e para que realizar pesquisas procurando saber, por exemplo, se um produto é tóxico ou realmente eficaz? (Mais sobre Feyerabend em: Anders- 41 son, 1994; Bunge, 1985a, 1985b; Chalmers, 1982; Feyerabend, 1970, 1978, 1988; Gellner, 1980; Munévar, 1991; Newton-Smith, 1981; Siegel, 1987.) 4.3. A sociologia do conhecimento Não é preciso ser sociólogo para admitir que os fatores sociais influem na atividade científica. Mas o que distingue a sociologia do conhecimento de outras formas de análise sociológica da ciência é a tese de que a avaliação das teorias científicas (e até o próprio conteúdo dessas teorias) é determinada por fatores sociais e não em função das evidências a favor das teorias ou de critérios objetivos de avaliação. Esta é a idéia básica do “Programa Forte” da sociologia do conhecimento científico, defendida, a partir dos anos sessenta, pela chamada Escola de Edimburgo, a principal representante dessa linha de pesquisa (Barnes, 1974; Bloor, 1976; Collins, 1981, 1982; Latour, 1987; Latour & Woolgar, 1986). Esta escola assume as principais teses da Nova Filosofia da Ciência (a observação é dependente de teorias e de linguagem; as teorias não são atingidas pelas comprovações ou falsificações empíricas, já que sempre se pode modificar uma hipótese auxiliar de forma a preservar a teoria; critérios lógicos e metodológicos não são suficientes para determinar a escolha de uma teoria, etc.) e, a partir daí, conclui que a crença de um cientista em uma teoria só pode ser explicada por fatores sociais, como os interesses sociais de certos grupos, os interesses profissionais de certos cientistas por status, fama, reputação, as negociações por verbas de pesquisas, o prestígio do cientista que defende determinada teoria, a luta pelo poder na comunidade científica, etc. A justificativa dessa conclusão é feita através de estudos antropológicos em instituições científicas, como o realizado por Latour & Woolgar no Instituto Salk de Estudos Biológicos, na Califórnia (Latour & Woolgar, 1986). Neste estudo, eles procuram demonstrar que, o que inicialmente era apenas uma hipótese, acabava sendo considerada como um fato, em função do prestígio do cientista que realizou a pesquisa, da revista que publicou seu trabalho e de outras interações sociais. A vitória entre duas teorias seria então, exclusivamente, o resultado de uma disputa ou de uma negociação entre cientistas (ou grupo de cientistas). O resultado da pesquisa seria menos uma descrição da natureza do que uma “construção social”. Isto significa que o sucesso ou o fracasso de uma teoria deve ser explicado a partir de causas sociais ou psicológicas que influem na crença dos cientistas – e não em função de razões ou argumentos da verdade ou falsidade da teoria ou de sua verossimilitude. 44 mesmo quando há mudança no significado dos termos, uma avaliação objetiva dos méritos das duas teorias é possível. Enquanto para Newton a massa de um corpo é sempre sua massa de repouso, na teoria de Einstein há uma fórmula que permite relacionar massa (m) e massa de repouso (mo): m = mo . Esta fórmula mostra que a teoria de Einstein contém a teoria de Newton como uma aproximação: a massa do corpo será igual à massa em repouso apenas quando o corpo não estiver em movimento (m = mo no caso limite em que v = 0). A diferença entre as massas somente será significativa para velocidades próximas à da luz. Desse modo a teoria de Einstein corrige a teoria de Newton e mostra que as fórmulas de Newton continuam válidas para velocidades pequenas em relação á luz e para campos gravitacionais fracos. Sendo assim, duas teorias podem ser comparadas quanto á profundidade e amplitude, apenas da mudança de significado (Watkins, 1984). 5.2 Verdadeiro até prova em contrário A falsificação de um hipótese ou teoria deve, para Gunnar Andersson (1994), ser compreendida como uma falsificação condicional, que afirma que, se o enunciado relatando o resultado de um teste é verdadeiro, então a teoria ou todo o sistema formado pela teoria e pelas hipóteses adicionais é falso. Assim, se [o enunciado] “Há um cisne não branco na região temporal k” for verdadeiro, então, segue-se conclusivamente e com necessidade lógica, que a hipótese “Todos os cisnes são brancos” é falsa. Mas então, se o resultado de um teste é falível, como podemos considerar refutada, a nível metodológico, uma hipótese? Por que não continuar indefinidamente o teste, recusando- se a aceitar que a hipótese foi falsificada (negando, por exemplo, que o cisne observado é negro)? Para recusar uma refutação, é preciso mostrar que o resultado de um teste é falso – não basta dizer que o enunciado ou a refutação são conjecturais ou falíveis: essa é uma característica inescapável de todo o conhecimento científico. Também não adianta afirmar simplesmente que o resultado de um teste pode ser falso, uma vez que ele pode igualmente ser verdadeiro. Para contestar uma hipótese ou um resultado de teste, é necessário apresentar outro enunciado que entre em contradição com ele. Não basta afirmar, por exemplo, que o cisne observado pode não ser negro ou que o animal não era, na realidade, um cisne. É preciso apresentar um enunciado do tipo “trata-se de um cisne branco que foi pintado de preto”. A partir desta crítica específica, podemos realizar um teste, tentando, por exemplo, remover tinta de suas penas com um solvente ou analisando quimicamente uma pena do animal. Essa possibilidade é garantida pela exigência de que o enunciado de teste seja intersubjetivamente testável. O novo teste pode, por sua vez, também ser contestado e o processo 45 continuará até que não se consiga contradizer o teste realizado ou alguma hipótese utilizada. Quando isto acontecer, o resultado do teste será classificado como verdadeiro – até prova em contrário (Miller, 1994). O processo é semelhante a um julgamento, onde é necessário apresentar alguma evidência de que o réu é culpado, caso contrário ele será considerado inocente. A resposta à pergunta “Para que serve uma refutação inconclusiva” é simples: por que através dela podemos chegar a uma teoria verdadeira. Uma teoria não refutada pode ser falsa, mas pode também ser verdadeira – embora nunca possamos provar que ela o é. Algumas de nossas teorias atuais podem muito bem ser verdadeiras e talvez – por que não? – jamais sejam refutadas. Isto quer dizer que podemos chegar a uma teoria verdadeira – o que não podemos é saber com certeza se conseguiremos este objetivo. 5.3 Observações e testes que dependem de teorias Como vimos, para Kuhn, qualquer observação depende do paradigma adotado: um defensor do flogisto vê o flogisto em um experimento, enquanto Lavoisier vê o oxigênio; da mesma forma, antes da descoberta de Urano os astrônomos viam uma estrela onde depois passaram a ver um planeta. Mas, o que ocorreu em ambos os casos pode ser interpretado de outra forma: com um telescópio mais potente, Herschel pôde ver que Urano se assemelhava a um disco e não a um objeto puntiforme, como eram as estrelas. Além disso, mesmo com telescópios menores, pode-se ver o movimento diurno de Urano entre as estrelas. Essas observações contradizem a idéia de que Urano era uma estrela. Portanto, o que os astrônomos viam não era nem um planeta nem uma estrela, mas objetos puntiformes ou discóides, dependendo do instrumento usado. Se assumirmos que observações ao telescópio não são problemáticas (e, na época e nas condições em que Herschel usou o telescópio, essas observações eram consideradas não problemáticas por todos os astrônomos), temos uma refutação condicional da hipótese de que Urano era uma estrela (Andersson, 1994). O raciocínio vale também para as primeiras etapas da revolução na química. Pristley, um defensor da teoria do flogisto, não “via” ar deflogistado, nem Lavoisier “via” oxigênio: ambos viam um gás formado quando um precipitado vermelho (óxido de mercúrio) era aquecido. Ambos achavam que este gás era o que hoje chamamos gás carbônico (“ar fixo”). Mas logo um teste mostrou que o gás não era facilmente solúvel em água, como era o gás carbônico. Esta conclusão sobre a solubilidade do gás era não problemática e foi aceita tanto por Lavoisier como por Priestley – ambos concordaram que o novo gás não podia ser o gás carbônico. Portanto, Lavoisier e Priestley viram as mesmas coisas, e 46 usavam os mesmos enunciados de teste, mas as explicavam de forma diferente – Priestley, com o flogisto e Lavoisier, com o oxigênio (Andersson, 1994). A passagem da teoria do flogisto para a teoria do oxigênio de Lavoisier é um dos exemplos mais drásticos de revolução científica, uma vez que quase todos os conceitos e leis do flogisto foram rejeitados por Lavoisier (Thagard, 1992). Apesar disto, Lavoisier precisava explicar uma série de evidências sobre a qual todos concordavam: a combustão libera calor e luz e ocorre apenas em presença de ar; na calcinação as substâncias aumentam de peso; este aumento é igual ao peso do ar absorvido etc. A discordância era quanto à explicação desses fenômenos: a substância que sofre a combustão elimina flogisto ou se combina com o oxigênio? Outra questão é a da circularidade de se testar uma teoria com um experimento carregado de teorias. Mas esta circularidade não precisa ocorrer: as teorias usadas no teste podem ser diferentes da teoria que está sendo testada. Um telescópio, por exemplo, foi construído com teorias ópticas que não dependem da mecânica newtoniana: a teoria ondulatória da luz pode ser verdadeira mesmo que a mecânica de Newton seja falsa e vice- versa – o próprio Newton achava que a teoria ondulatória era falsa e defendia a teoria corpuscular da luz. Como dizem Franklin et alii, “se a teoria do instrumento e a teoria que explica o fenômeno e que está sendo testada forem distintas, nenhum problema óbvio surge para o teste da teoria que explica o fenômeno” (1989, p. 230). Para Franklin et alii, mesmo quando o aparelho (ou parte dele) depende para seu funcionamento da teoria em teste, a circularidade pode ser evitada. Suponhamos, por exemplo, que seja usado um termômetro de mercúrio para medir a temperatura de um objeto, e que esta medida faça parte de um teste para verificar se um objeto se expande ou não com a temperatura. Como o termômetro de mercúrio é construído a partir da teoria de que o mercúrio se expande com a temperatura, o teste parece ser circular. Neste caso, tudo que é preciso é que exista a possibilidade de calibrarmos este termômetro contra outro termômetro cuja operação depende de uma teoria diferente. O termômetro de mercúrio poderia ser calibrado com um termômetro a gás de volume constante, cuja pressão varia com a temperatura, por exemplo. Se, por exemplo, um estudante disser que não acredita na existência das células que ele vê ao microscópio, afirmando que a imagem é uma ilusão de óptica produzida pelo aparelho, podemos pedir que ele observe uma pequena letra de jornal ao microscópio, mostrando que a imagem vista corresponde a uma imagem ampliada do que ele vê a olho nu. Podemos ainda utilizar experimentos que evidenciem a propagação retilínea da luz, as leis da refração e sua aplicação na construção de lentes etc. Esses experimentos forneceriam evidências a favor da fidelidade da imagem do microscópio – evidências essas que não dependem da existência de células. 49 No entanto, como mostra Watkins, Lakatos não faz esta distinção, afirmando, por exemplo, que rejeitar um programa de pesquisa “significa decidir não trabalhar mais nele” (1978, p. 70). Conseqüentemente, para Lakatos, se um cientista continua a trabalhar em uma teoria que faz parte de um programa de pesquisa é porque ele não leva a sério a refutação, uma vez que continua a aceitar a teoria mesmo que ela seja inconsistente com os resultados dos testes. Feyerabend também adota esta posição, que, para ele seria coerente com seu “anarquismo epistemológico”: “nem inconsistências interna gritantes [...] nem conflito maciço com os resultados experimentais devem impedir-nos de reter e elaborar um ponto de vista que nos agrade por uma razão ou outra” (1988, p. 183). Mas se aceitarmos a distinção de Watkins, podemos reformular a alegação de Lakatos e Feyerabend, mostrando que a atitude que eles consideram oposta ao racionalismo crítico é, na realidade, coerente com esta linha filosófica. Um cientista pode então pensar mais ou menos assim: “Esta teoria me agrada, mas ela entra em conflito com resultados experimentais e têm inconsistências internas. Por isso, decido trabalhar na teoria para corrigi-la e torná-la uma teoria melhor, isto é, uma teoria compatível com os resultados experimentais e sem inconsistências internas. Desse modo, posso contribuir para o crescimento do conhecimento”. Para Watkins, não cabe ao filósofo da ciência dizer em qual das teorias o cientista deve trabalhar ou deixar de trabalhar e sim procurar critérios para avaliar teorias, dizendo qual delas, até o momento, é a melhor. Outra crítica de Lakatos contra Popper é a de que todas as teorias científicas são irrefutáveis, no sentido de que “são exatamente as teorias científicas mais admiradas (como a teoria de Newton) que, simplesmente, falham em proibir qualquer estado observável de coisas” (1970, p. 16). No entanto, a tese de Lakatos é verdadeira apenas para o que ele chama de núcleo rígido de um programa de pesquisa, que corresponde aos princípios fundamentais da teoria. No caso da teoria de Newton, o núcleo é formado pelas leis do movimento e pela lei da gravitação universal. No entanto, como sabemos, uma teoria não é testada isoladamente e sim através de hipóteses auxiliares. Uma vez enriquecida por essas hipóteses, a teoria torna-se refutável e é capaz de proibir determinado estado de coisas. A teoria de Newton, acoplada a hipóteses acerca da estrutura do sistema solar, pode ser refutada pelas irregularidades na órbita do planeta mercúrio, por exemplo (Watkins, 1984). 5.5 Os testes independentes Como vimos, para o filósofo Pierre Duhem (1954), uma hipótese ou teoria nunca é testada isoladamente (é sempre um conjunto de hipóteses que compa- 50 recem ao “tribunal” da experiência) e a refutação apenas mostra que pelo menos uma das hipóteses do sistema testado é falsa – mas não nos diz qual delas o é. A primeira questão que precisa ser respondida, é se é possível descobrir (conjecturalmente, é claro) a hipótese falsa no meio da teia de hipóteses auxiliares. A resposta é que, em vários casos, isso é possível e a solução, do mesmo modo que a solução do problema da circularidade, consiste em submeter as hipóteses “suspeitas” a testes independentes, isto é, a testes que não tenham como pressupostos a teoria que está sendo testada e que dependam de enunciados e teorias suficientemente testados e considerados, até o momento, como não problemáticos (Andersson, 1994; Bunge, 1973; Popper, 1975b; Watkins, 1984). O uso de testes independentes é uma prática rotineira em ciência onde uma mesma hipótese é testada através de técnicas distintas, que envolvem hipóteses auxiliares diferentes. Ela é importante também quando se usa uma nova técnica ou um novo instrumento considerados problemáticos (que não foram suficientemente testados e corroborados). Quando um novo teste de Aids é desenvolvido, por exemplo, ele pode ser testado em indivíduos que já têm os sintomas da Aids e é usado inicialmente sempre junto a outros testes considerados não problemáticos. Outro exemplo do uso de testes independentes ocorreu quando Galileu usou observações ao telescópio para refutar a teoria de Ptolomeu. Nesta época, essas observações ainda eram problemáticas: os telescópios eram primitivos e os primeiros observadores não tinham ainda prática em seu uso. Por isso, embora as observações ao telescópio apoiassem a teoria de Copérnico, os defensores de Ptolomeu continuavam afirmando que somente a observação a olho nu era confiável. Para Feyerabend (1988), Galileu assumiu a fidedignidade das observações ao telescópio apenas para defender a teoria copernicana. Como mostra Andersson (1994), porém, Galileu submeteu a hipótese de que o telescópio é confiável a testes cuja validade não dependem da validade da teoria de Copérnico ou Ptolomeu, observando, por exemplo, objetos distantes na própria Terra – como uma torre de igreja ao longe. (Para uma discussão extensa do caso de Galileu, na qual todos os argumentos de Feyerabend são rebatidos, veja-se Andersson, 1994.) Podemos concluir então que não há nada de errado em se introduzir uma hipótese auxiliar dentro de um sistema teórico para explicar uma anomalia, como ocorreu com a hipótese de que havia outro planeta perturbando a órbita de Urano – desde que essas hipóteses sejam independentemente testadas. Como vimos no item anterior, porém, Lakatos acha que é sempre possível introduzir uma hipótese auxiliar para impedir que os princípios fundamentais de uma teoria sejam substituídos ou, na linguagem de Lakatos, para preservar o núcleo rígido de um programa de pesquisa. Se for assim, fica difícil justificar, a partir de critérios objetivos, as revoluções científicas: por que os princípios 51 fundamentais do flogisto foram abandonados? Por que não mudar apenas algumas hipóteses auxiliares? Para justificar sua tese, Lakatos se vale, como vimos, de um exemplo semelhante ao da descoberta de Netuno: a trajetória de um planeta que não obedece às previsões newtonianas leva os cientistas a procurar um planeta desconhecido, que seria responsável pela anomalia de modo a preservar os princípios básicos de Newton. No entanto, no exemplo de Lakatos, os cientistas não conseguem detectar com o telescópio o suposto planeta. Apesar disso, eles não abandonam a teoria newtoniana argumento que o planeta é pequeno demais para ser observado com o telescópio potente, pode-se dizer ainda que uma nuvem de poeira cósmica impediu a observação do planeta. Assim, a cada nova refutação, uma hipótese adicional é apresentada, preservando-se sempre os princípios de Newton. Argumentos desse tipo, mostram que, em princípio, e sempre possível manter qualquer parte de um sistema teórico – ou até mesmo, talvez, todo o conhecimento (Quine, 1961) – modificando alguma outra parte do sistema. No entanto, como mostra Andersson (1994), esse procedimento é muito mais difícil do que se pensa. Vejamos por quê. Lakatos deixa de lado o fato de que a partir da teoria newtoniana podemos prever não apenas a existência de um planeta, mas também a sua órbita e sua massa. Por isso, para que a anomalia seja eliminada, não basta afirmar que há um planeta em determinada região do espaço: é preciso também que o suposto planeta tenha uma massa e uma trajetória específicas. Há, portanto, algumas restrições ou parâmetros que precisam ser atendidos para que a nova hipótese funcione, isto é, para que ela elimine a contradição do sistema. Os cálculos feitos a partir da teoria de Newton e do desvio observado poderiam indicar que o planeta não pode ser tão pequeno a ponto de não ser observado pelo telescópio. O tamanho e a trajetória do planeta não podem, portanto, ser arbitrariamente fixados. Do mesmo modo, a suposta nuvem de Lakatos encobriria também as estrelas daquela região – mas então, a hipótese da nuvem poderia ser refutada pela observação dessas estrelas (que são mais fáceis de serem observadas do que um planeta). Além disso, a nuvem teria de acompanhar o planeta em toda a sua trajetória (ou ser tão extensa a ponto de englobar toda a trajetória do planeta), impedindo a observação de um número maior de estrelas. E para encobrir a luminosidade de um planeta, ela teria de ser também muito densa, mas, neste caso, poderia ser observada ao telescópio. Por isso, como diz Andersson, as irregularidades do planeta Mercúrio não puderam ser resolvidas com auxílio da hipótese da existência de um planeta desconhecido, chamado Vulcano: Na discussão de planeta Vulcano nenhuma hipótese auxiliar adicional sobre nuvens cósmicas no sistema solar foi sugerida, provavelmente porque tais hipóteses não são fáceis de serem reconciliadas com nosso conhecimento astronômico de base (1994, p. 118) 54 irracionais, instantâneas (gestálticas). Contrariamente a Kuhn, elas podem ocorrer em pequenas etapas, pela substituição de hipóteses refutadas. A substituição da teoria ou paradigma do flogisto pela química de Lavoisier, por exemplo, ocorreu em pequenas etapas, ao longo dos anos de 1772, 1774 e 1777, chegando a sua forma madura em 1789 (Thagard, 1992). Neste ano, a grande maioria dos químicos tinha aderido à teoria de Lavoisier e abandonado a teoria do flogisto. Seis anos depois, praticamente toda a comunidade apoiava Lavoisier. (A única exceção foi Priestley, que defendeu o flogisto até a sua morte, em 1804. Resta saber, no entanto, se, à luz da diferença entre aceitar uma teoria como a melhor e trabalhar na teoria para corrigi-la, a atitude de Priestley foi, de fato, irracional.) Outra conclusão é que embora seja difícil introduzir hipóteses francamente ad hoc para salvar uma teoria da refutação, este procedimento deve ser evitado, uma vez que não permite uma discussão crítica de qualquer hipótese, como mostrou Galileu. Já a introdução de hipóteses como a do neutrino não é tão fácil e a restrição não deve ser tão séria, uma vez que essas hipóteses têm algum conteúdo empírico e, quanto maior este conteúdo, mais refutável será o sistema como um todo, isto é, o sistema formado pela teoria e pela hipótese ad hoc. Vimos também que é perfeitamente aceitável introduzir no sistema hipóteses auxiliares independentemente testáveis para salvar uma teoria da refutação, mas nem sempre se consegue fazer isso, como sugeriu Lakatos, uma vez que a nova hipótese tem de ser coerente com uma série de restrições e parâmetros. 5.6 O objetivo da ciência Uma das formas de resolver o problema da avaliação das teorias é considerar que a melhor teoria é aquela que atende aos objetivos da ciência. Mas qual é esse objetivo? O objetivo dos defensores do racionalismo crítico é conseguir enunciados verdadeiros através de um método que não está sujeito às críticas de Hume. Para isso, deve-se fazer uma concessão a Hume, admitindo que não é possível conseguir conhecimento certo. Isto significa que mesmo que consigamos descobrir uma teoria verdadeira, nunca poderemos ter certeza disso. Como as críticas de Hume não valem para a refutação (embora a refutação seja sempre inconclusiva, é logicamente possível provar que uma hipótese é falsa), o método para conseguir hipóteses verdadeiras consiste em propor hipóteses refutáveis e tentar eliminar aquelas que são falsas. Desse modo, podemos conseguir enunciados verdadeiros (no sentido conjectural) por um método não vulnerável às críticas de Hume. 55 No entanto, se admitirmos que sempre podemos estar errados, temos de submeter qualquer enunciado aos testes mais severos possíveis, separando-os, por eliminação, dos enunciados falsos. (Se for possível aplicar um teste duplo-cego para um medicamento e este teste não foi feito, estamos perdendo a chance de eliminar duas hipóteses: a primeira hipótese é a de que a melhora do paciente é produto de um efeito psicológico; a outra hipótese é a de que os resultados do teste devem-se à parcialidade de quem avaliou a melhora.) O processo é resumido por Miller e Watkins do seguinte modo: A fim de descobrir algo verdadeiro, propomos conjecturas que podem ser verdadeiras [...]. Fazemos então os mais impiedosos e intransigentes esforços para mostrar que essas conjecturas não são verdadeiras e para rejeitá-las da ciência. (Miller, 1994, p. 9) A ciência aspira à verdade. O sistema de hipóteses científicas adotado por uma pessoa X em dado instante deve ser possivelmente verdadeiro para essa pessoa, no sentido de que, apesar de seus melhores esforços, não se encontrou nenhuma inconsistência, nem no sistema nem entre o sistema e a evidência que lhe é disponível. (Watkins, 1984, PP. 155-156) Watkins (1984) procura demonstrar também que a teoria que passou por testes mais severos que outras e que, por isso, pode ser considerada mais corroborada, será também a teoria com maior poder preditivo ou então com maior capacidade de unificar os fatos. Neste caso, para Watkins, deveríamos buscar teorias possivelmente verdadeiras e com poder preditivo e capacidade de unificação cada vez maiores. O objetivo de maior poder preditivo inclui não apenas o de buscar teorias mais amplas, que cobrem um maior número de fenômenos, como também o de buscar teorias mais precisas ou exatas: em ambos os casos, as teorias terão maior conteúdo empírico e são também mais refutáveis, o que significa que são mais fáceis, em princípio, de serem refutadas. Com a refutação, temos a chance de aprender algo novo, isto é, de corrigir nossos erros. A capacidade de unificação é conseguida, muitas vezes, através do uso de teorias mais profundas, que se valem de termos não observacionais, que representam entidades teóricas invisíveis (átomo, energia, seleção natural, onda eletromagnética, etc.), para explicar os fenômenos. Para Watkins, é possível escolher a teoria que, além de ser possivelmente verdadeira, isto é, de não ter sido refutada, é também a de maior capacidade de unificação ou com maior poder preditivo, usando como critério exclusivamente o grau de corroboração. Com isso, ele estaria usando um critério único de avaliação evitando assim, o problema da avaliação multidimensional de teorias nos possíveis casos em que uma teoria é melhor que outra em alguns aspectos e inferior em outros – uma situação que teoricamente pode ocorrer, mas não ocorre necessariamente sempre. 56 Para Deborah Mayo o fato de uma hipótese ter passado por um teste severo é uma boa indicação de que a hipótese é correta e, para ela, é possível dar precisão à idéia de teste severo com auxílio das técnicas estatísticas de Neyman-Pearson (Mayo, 1996). Outra estratégia para evitar o problema de uma possível ambigüidade nas avaliações multidimensionais consiste em usar programas de computador que avaliam globalmente uma teoria em relação a outra teoria rival (Thagard, 1992). Pode-se argumentar ainda que em muitas revoluções científicas o núcleo teórico da teoria antiga é completamente repudiado pela teoria nova. Mas isso não tem importância para a avaliação de teorias, porque o importante é que a nova teoria preserve o sucesso empírico da teoria antiga e, além disso, seja capaz de novas previsões. Por isso, mesmo que em certas revoluções haja perda de algumas previsões feitas pela teoria antiga (que foram consideradas refutadas pela nova), o que interessa é que o conteúdo empírico total aumenta, permitindo assim a comparação objetiva das teorias. O objetivo mais ambicioso possível, no passado, foi o de se conseguir um conhecimento empírico certo, provado e com o maior número possível de enunciados verdadeiros acerca do mundo (Watkins, 1984). Este objetivo, bem como o de aumentar a probabilidade da verdade de uma teoria através de uma lógica indutiva, são considerados pelos racionalistas críticos e por boa parte dos filósofos como impraticáveis. Para Watkins, o objetivo mais ambicioso possível passa a ser então o de se conseguir teorias possivelmente verdadeiras e com maior capacidade de unificação ou com maior poder preditivo. Para Watkins, qualquer objetivo proposto deve obedecer a alguns requisitos: ele deve ser coerente e praticável, deve poder servir de guia na escolha entre teorias ou hipóteses rivais, deve ser imparcial (em relação a propostas metafísicas diferentes) e deve também envolver a idéia de verdade. Watkins supõe que esses requisitos devam parecer razoáveis a filósofos e cientistas, embora reconheça que nem todos os filósofos concordam com o requisito da verdade. Há várias teorias sobre o que vem a ser a verdade (Bonjour, 1985; Haack, 1978). Filósofos realistas, como Popper, defendem que um enunciado é verdadeiro se e somente se corresponde aos fatos (teoria da correspondência). Outros, porém, acham que um enunciado é verdadeiro se e somente se ele é coerente com outros enunciados aceitos (teoria da coerência) ou então, se for útil (teoria pragmática). Para Popper (1975b), a teoria da correspondência é a mais adequada para compreender a atividade científica e seu sentido é perfeitamente claro: podemos compreender, por exemplo, perfeitamente o que uma testemunha quer dizer quando afirma que o acusado estava no local do crime em tal hora. Este enunciado será verdadeiro, se e somente se o acusado realmente tivesse estado no local do crime àquela hora. 59 que defende a idéia de que objetivos, regras, visões de mundo etc. variam de uma cultura para outra. O desafio é maior para aqueles que defendem o chamado programa forte da sociologia do conhecimento, que assume que todo o conhecimento científico nada mais é do que um construto social (Latour & Woolgar, 1986). No entanto, mesmo dentro dessa linha de pesquisa há aqueles, como Helen Longino, que procuram reconciliar a objetividade da ciência com sua construção social e cultural: “A idéia [de objetividade] que foi rejeitada é a de que ela é um tipo de representação exata dos processos naturais. Mas há outro tipo de objetividade [...] que é importante reter na ciência. Nós tentamos desenvolver uma descrição não arbitrária dos processos naturais, que simplesmente não imponha nossos desejos de como o mundo deve ser nas descrições do mundo. [...] de algum modo os métodos da ciência procuram minimizar as preferências subjetivas de cada indivíduo”. (Callebaut, 1993, pp. 25-27) Finalmente, mesmo assumindo a impossibilidade de uma justificativa última, podemos mostrar algumas conseqüências de se abdicar do uso de argumentos, de uma atitude crítica, do reconhecimento de que sempre podemos estar errados, de procurar critérios objetivos para avaliar opiniões e teorias. Abdicar de tudo isso, implica admitir que tudo não passa de manipulação ou propaganda. E o desprezo pela razão humana e pela necessidade de argumentos “deve conduzir ao emprego da violência e da força bruta como árbitros definitivos de qualquer disputa” (Popper, 1974, pp. 242-243). 6. O empirismo de van Fraassen e a abordagem cognitiva Não se pode dizer que haja atualmente uma linha dominante em filosofia da ciência. Longe de esgotar o assunto, e apenas a título de ilustrar o caráter multifacetado da filosofia da ciência atual, vamos mencionar, rapidamente, duas abordagens: o empirismo de van Fraassen e a abordagem cognitiva. 6.1 O empirismo de van Fraassen Uma versão atual da abordagem empirista do positivismo lógico é o “empirismo construtivo” de Bas C. van Fraassen (1980). Van Fraassen critica a posição realista de que o objetivo da ciência é produzir teorias verdadeiras. O que importa, é que as teorias sejam empiricamente adequadas, no sentido de serem capazes de explicar os fenômenos observáveis, isto é, de “salvar os fenômenos”. Conceitos não observáveis, como elétron, campo, etc., servem apenas para explicar os fenômenos, sem qualquer pretensão de corresponder a uma estrutura real. Para van Fraassen (1980), nós podemos ter tudo o que 60 queremos da ciência sem precisarmos nos incomodar com a verdade ou falsidade de nossas hipóteses a respeito do que não é observado. Para van Fraassen e outros filósofos (Giere, 1979, 1988; Suppe, 1977), uma teoria não é um conjunto de enunciados (leis) interpretados empiricamente e que podem ser verdadeiros ou falsos, como quer o positivismo. Contra esta concepção, chamada concepção sintática ou sentencial das teorias, van Fraassen defende a idéia de que as teorias são melhor caracterizadas como um conjunto de modelos (visão semântica das teorias). O modelo, por sua vez, é uma versão simplificada de um sistema natural (o modelo do sistema solar, do pêndulo, do átomo etc.). Para definir uma teoria, especificamos o conjunto de modelos a que a teoria se aplica, indicando os sistemas naturais para os quais a teoria é válida. Assim, a teoria de Newton não é verdadeira nem falsa: ela serve apenas para definir um tipo de sistema que pode existir ou não na natureza. Um sistema será newtoniano, por exemplo, se e somente se ele satisfizer as leis do movimento e da gravitação universal de Newton. A anomalia de Mercúrio, por exemplo, não refuta as leis de Newton, ela apenas mostra que o sistema solar não é um modelo newtoniano, já que sua órbita não pode ser explicada pelas leis de Newton. O objetivo da ciência, para van Frassen, é construir modelos e testar esses modelos a partir de fenômenos observáveis para julgar se são empiricamente adequados. A idéia de verdade e a concepção realista da ciência, que afirma que conceitos como elétrons e leis como as leis de Newton correspondem a algo que existe realmente na natureza, são descartados. A relação do modelo com um sistema real seria uma relação de similaridade e não de verdade ou falsidade, uma vez que o modelo não é uma entidade lingüística. Várias críticas foram feitas à abordagem de van Fraassen (Churchland & Hooker, 1985). Uma delas é que a visão semântica não difere muito, de um ponto de vista lógico, da visão positivista das teorias, já que a um conjunto finito de modelos corresponde um conjunto de sentenças e vice-versa (Worral, 1984). Outra crítica, é que na visão semântica a amplitude da teoria fica muito reduzida, uma vez que ela é aplicada somente àqueles modelos que satisfazem a teoria, deixando de fora os outros sistemas a que ela não se aplica. Como diz Giere, na visão semântica “generalizações universais não desempenham nenhum papel [na mecânica clássica]” (1988, p. 103). Outra conseqüência indesejável da visão semântica, é que as teorias passam a ser entidades “que não são bem definidas” (Giere, 1988, p. 86). Neste caso, torna-se difícil dizer se um modelo de pêndulo, por exemplo, faz parte da teoria da mecânica clássica. Se uma teoria não for bem definida, podemos fazer o que se pode chamar de “manobra de Feyerabend”, que consiste em aumentar uma teoria refutada ou diminuir a teoria corroborada, de modo a torná-las incomensuráveis – uma vez que desse modo, qualquer uma das teorias explicará fenômenos que a outra não explica. 61 Embora se possa dizer que uma teoria é formada por um conjunto de modelos semelhantes, não há um critério para determinar o grau de semelhança suficiente que permita decidir se um modelo particular, como o do pêndulo, pertence à teoria newtoniana. Como o próprio Giere admite, esta questão “somente pode ser decidida pelo julgamento dos membros da comunidade científica da época” (1988, p. 86). Neste sentido, diz Giere, “as teorias são não apenas construídas mas também socialmente construídas” (1988, p. 96). Como veremos adiante, ao colocar como único critério para questões epistemológicas a decisão da comunidade científica, perde-se a objetividade da avaliação e entra-se em um círculo vicioso: como determinar qual é a comunidade científica, sem pressupor, de antemão, uma concepção acerca do que é a metodologia correta e de quais são as teorias que podem ser consideradas científicas? Apesar disso, a visão semântica tem sido desenvolvida e utilizada por vários filósofos (Giere, 1979, 1988; Suppe, 1977), além do próprio van Fraassen (1980). 6.2 A abordagem cognitiva Usar a ciência para compreender a própria ciência: este projeto, chamado de “naturalização da epistemologia” (a epistemologia é a parte da filosofia que estuda o conhecimento, incluindo-se aí, o conhecimento científico) rejeita o caráter a priori da filosofia. Uma das linhas mais férteis dentro desta abordagem consiste no uso de modelos das ciências cognitivas para explicar o conhecimento. Esta tendência já aparece em Kuhn, quando ele menciona que a mudança de paradigma assemelha-se a uma mudança de gestalt. Kuhn usou, neste caso, a psicologia da gestalt para explicar um aspecto do conhecimento. Hoje, porém, a abordagem cognitiva vale-se das ciências cognitivas para elaborar modelos que expliquem tanto o conhecimento comum como o conhecimento científico. O termo “ciências cognitivas” engloba uma série de disciplinas que estudam os fenômenos mentais e o comportamento. Entre elas estão a inteligência artificial (que é um ramo das ciências da computação); a psicologia cognitiva e as neurociências. Trata-se, portanto, de uma abordagem interdisciplinar, que utiliza noções de psicologia, da informática e da neurofisiologia do sistema nervoso. As teorias científicas são tratadas aqui, por exemplo, não como entidades lingüísticas, mas como “modelos mentais” ou “representações mentais”. Alguns representantes dessa linha valem-se de modelos psicológicos da percepção, formação de imagens, memória, etc. (Nersessian, 1984, 1992); outros, como Thagard (1988, 1992), defendem uma “filosofia computacional da ciência”, empregando programas de computador para avaliar teorias; finalmente, há os 64 É preciso lembrar, também, que a decisão de adotar uma postura crítica, de procurar a verdade (mesmo sem nunca ter certeza de que ela foi encontrada), e de valorizar a objetividade, é uma decisão livre. No entanto, como vimos, podemos mostrar que determinadas escolhas geram certas conseqüências que poderão ser consideradas indesejáveis pelo indivíduo ou pela comunidade. As conseqüências de não se investir no rigor da crítica podem ser melhor visualizadas se analisarmos um caso extremo. Suponhamos, por exemplo, que se decida “afrouxar” os padrões de crítica a ponto de abandonar o uso de argumentos e a possibilidade de corrigir nossos erros com a experiência, abdicando assim de toda a discussão crítica. Que conseqüências este tipo de atitude poderia ter? Se discussões críticas não têm valor, então não há mais diferença entre uma opinião racional – fruto de ponderações, críticas e discussões que levam em conta outros pontos de vista – e um mero preconceito, onde conceitos falsos são utilizados para julgar pessoas através do grupo a que pertencem, levando a discriminações. Não há mais diferença entre conhecimento genuíno e valores autênticos e ideologia – no sentido de falsa consciência, isto é, no sentido de um conjunto de crenças falsas acerca das relações sociais, que servem apenas para defender os interesses de certos grupos. Não há mais diferença, enfim, entre ciência e charlatanismo – qualquer poção milagrosa, por mais absurda que seja, estaria em pé de igualdade com o mais testado dos medicamentos. Finalmente, como diz Popper, se admitirmos não ser possível chegar a um consenso através de argumentos, só resta o convencimento pela autoridade. Portanto, a falta de discussão crítica seria substituída por decisões autoritárias, soluções arbitrárias e dogmáticas – e até violentas –, para se decidir uma disputa. A partir desse caso extremo, pode-se inferir que quanto mais afrouxarmos nossos padrões de crítica, mais iremos contribuir para nos aproximarmos desta situação extrema. Repetindo: a decisão final será sempre um ato de valor, que, no entanto, pode ser esclarecida pelo pensamento, através da análise das conseqüências possíveis de determinada decisão. CAPÍTULO 3 A Pesquisa Científica Neste capítulo serão discutidos mais extensamente alguns conceitos relevantes para a prática da pesquisa científica. O objetivo não é, no entanto, fornecer uma série de regras prontas, e sim estimular uma reflexão crítica acerca da natureza dos procedimentos utilizados na pesquisa científica. 1. Problemas A percepção de um problema deflagra o raciocínio e a pesquisa, levando-nos a formular hipóteses e realizar observações. Em relação ao conhecimento científico, os problemas podem surgir do conflito entre os resultados de observações ou experimentos e as previsões de teorias; de lacunas nas teorias ou, ainda, de incompatibilidade entre duas teorias. Einstein percebeu, por exemplo, que havia uma incompatibilidade entre a mecânica de Newton e a eletrodinâmica de Maxwell; a observação de várias espécies de aves muito parecidas, no arquipélago de Galápagos, abalou a confiança de Darwin na teoria fixista, que dizia que as espécies eram imutáveis. Uma vez que a maioria dos problemas estudados pelos cientistas surge a partir de um conjunto de teorias científicas que funciona como um conhecimento de base, a formulação e a resolução de problemas científicos só podem ser feitas por quem tem um bom conhecimento das teorias científicas de sua área. Por isso, é importante familiarizar-se com as pesquisas mais recentes de determinada área do conhecimento através de pesquisa bibliográfica. Há sempre problemas novos em qualquer campo da ciência. Mesmo fenômenos bastante estudados – como o funcionamento da membrana da célula, o mecanismo da evolução, a origem da vida e a evolução do homem ou a 66 estrutura das partículas que formam o núcleo do átomo – possuem ainda muitos pontos ignorados. Em outros casos, o que se busca é uma nova teoria capaz de fornecer uma nova visão dos fenômenos, como é o caso da tentativa de unificação, em uma única teoria, das quatro forças fundamentais da natureza (força eletromagnética, gravidade e forças nucleares forte e fraca). Em certas áreas nosso conhecimento ainda é bastante pobre, e nenhuma das teorias atuais fornece uma explicação satisfatória. É o caso das bases neurofisiológicas da memória ou do papel de hereditariedade e do ambiente na inteligência. Um bom cientista não se limita a resolver problemas, mas também formula perguntas originais e descobre problemas onde outros viam apenas fatos banais, como ocorreu com a descoberta da penicilina. Antes de Fleming, os pesquisadores simplesmente jogavam fora meios de cultura de bactérias, quando estas tinham sido invadidas por mofo, fato que acontece com certa freqüência em laboratório. Fleming, entretanto, observou que em volta do mofo havia uma região onde não cresciam bactérias. Ele supôs que alguma substância estava sendo produzida pelo mofo e que esta substância poderia inibir o crescimento de bactérias. Posteriormente foi iniciada uma série de pesquisas que culminaram com o aparecimento do primeiro antibiótico, a penicilina, extraída do fundo do gênero Penicillium. A descoberta de Fleming não foi totalmente casual, nem sua observação passiva. Ele vinha pesquisando substâncias antibacterianas há algum tempo, tendo descoberto inclusive a lisozima – uma enzima presente nas lágrimas – como atividade contra algumas bactérias. Entretanto, esta substância era inútil contra a maioria das bactérias causadoras de doenças. Fleming, portanto, já procurava algo para matar bactérias (Beveridge, 1981). Com efeito, os ventos só ajudam aos navegadores que têm um objetivo definido. Caso semelhante ocorreu também com Pasteur, ao perceber que as bactérias presentes em uma gota de um líquido deixaram de se mover quando se aproximavam de suas bordas. Supôs, então, que isto acontecia por causa da maior quantidade de oxigênio do ar nas bordas da gota, e que essas bactérias não eram capazes de viver em presença de oxigênio: uma hipótese ousada para a época, quando todos acreditavam ser impossível viver sem oxigênio (Beveridge, 1957). Alguns problemas têm uma importância prática clara, como a descoberta de novos tratamentos do câncer ou o uso da engenharia genética para produzir novas variedades de culturas agrícolas. Mas mesmo as soluções de problemas surgidos dentro da pesquisa básica e que não têm, de imediato, uma aplicação óbvia podem, no futuro, revelar-se extremamente importantes do ponto de vista prático: as equações de Maxwell, que resolviam um problema teórico da unificação da eletricidade e do magnetismo, permitiram a construção de aparelhos de rádio, por exemplo. 69 freqüência de coroas, com uma margem de erro que diminuirá à medida que o número de lances aumente. As leis estatísticas possuem, no entanto, uma limitação importante: elas possibilitam previsões apenas todo um conjunto formado por um grande número de acontecimentos singulares aleatórios. A lei da desintegração radioativa, por exemplo, afirma que cada elemento radioativo tem uma meia-vida (o tempo necessário para que a metade dos átomos de uma amostra se desintegre) que é sempre a mesma para cada isótopo radioativo do elemento. Assim, embora possamos prever que após 1.600 anos a metade dos átomos de rádio de uma amostra terá se transformado em outro átomo, o radônio, não podemos prever quais os átomos que se desintegrarão neste período. Sr pudéssemos apontar para um átomo e perguntar ao físico se este átomo vai ou não se desintegrar ao final de uma meia-vida, ele não poderia nos responder. O mesmo tipo de explanação é utilizado para explicar o comportamento de um gás e a passagem de calor de um corpo mais quente para um corpo mais frio. Para a física atual, quando um fenômeno macroscópico resultar de um grande número de eventos microscópicos de caráter indeterminado, ele poderá ser explicado por leis estatísticas. Em biologia, essas explicações são também muito importantes, principalmente no estudo da hereditariedade e da evolução. São as explicações estatísticas que nos permitem prever que, em um grande número de nascimentos, aproximadamente a metade dos filhos será do sexo masculino e a outra metade do sexo feminino. Em todos esses casos, podemos prever o comportamento de uma multidão de indivíduos, mas não de cada indivíduo em uma multidão. (Mais sobre explicações científicas em Achinstein, 1983; Braithwhaite, 1960; Bunge, 1979, 1981; David-Hillel, 1990; Kitcher & Salmon, 1989; Salmon, 1984; Watkins, 1984.) 3. A formação de hipóteses – um espaço para a criatividade do cientista Ao tentar descobrir hipóteses – quer sejam leis gerais, quer sejam condições iniciais – o cientista pode dar vazão à sua imaginação e criatividade, aproximando a atividade científica de uma obra de arte. A formulação de hipóteses pode parecer em certos casos pouco criativa, como na inferência por analogia, quando percebemos algumas semelhanças entre coisas ou processos diferentes. Assim, quando se descobre que um tipo de câncer é provocado por um vírus em um animal, pode-se sugerir a hipótese de que alguns tipos de câncer no homem também sejam provocados por vírus. Mas, mesmo nesse caso, a criatividade do cientista se faz necessária, pois há um número imenso de analogias possíveis, e não podemos saber de antemão se uma analogia resistirá aos testes. A analogia, assim como outros processos de criação de hipóteses, não constitui um argumento lógico. 70 3.1 As qualidade de uma boa hipótese Uma hipótese não deve apenas ser passível de teste. As hipóteses devem também ser compatíveis com pelo menos uma parte do conhecimento científico. Entre outros motivos, porque, como qualquer experiência científica pressupõe uma série de conhecimentos prévios, uma hipótese que não tenha qualquer relação com estes conhecimentos dificilmente poderá ser testada. As hipóteses científicas geralmente procuram estabelecer relações entre fenômenos: “há uma tendência genética para a obesidade”, “o aumento de temperatura provoca a dilatação dos metais”, etc. Os conceitos empregados para definir os fenômenos precisam, no entanto, receber uma definição mais precisa, usualmente chamada de definição operacional. Esta definição facilita a elaboração de experimentos que procuram alterar determinadas situações para tornar-se operacional se estabelecermos que um obeso é aquele que está acima de 20% de seu peso normal. Podemos agora comparar pessoas da mesma família quanto à obesidade, de modo a testar a hipótese de influência genética. Do mesmo modo, estabelecemos um padrão para medirmos a temperatura e o comprimento de um metal de modo a descobrir uma relação entre a variação de temperatura e a variação do comprimento. Em outras palavras, transformamos os conceitos inicialmente vagos em algo que pode ser modificado, isto é, em uma variável que pode ser medida ou, pelo menos, classificada ou ordenada. A hipótese pode ser compreendida agora como uma relação hipotética entre duas variáveis: “se aquecermos um fio metálico, ele aumentará de comprimento”, “filhos de pais obesos têm tendência a serem obesos”. Em termos gerais, podemos dizer que as hipóteses são relações do tipo “se A, então B”, isto é, se ocorrerem certos fenômenos do tipo A, então ocorrerão fenômenos do tipo B. A hipótese pode então ser testada: se o fenômeno B não ocorrer (e se o experimento tiver sido adequadamente realizado, isto é, se não forem levantadas nenhuma objeção concreta às condições experimentais), então podemos dizer que a hipótese foi refutada (até prova em contrário). 4. Leis e teorias Uma lei pode ser considerada como uma classe especial de hipóteses que têm a forma de enunciados gerais, do tipo “em todos os casos em que se realizam condições da espécie F, realizam-se também condições da espécie G”. Assim, sempre que aumentarmos a pressão de um gás em temperatura constante (F), seu volume diminuirá (G); sempre que um corpo cair em queda livre (F) – desde que seja no vácuo e de alturas não muito grandes – sua velocidade aumentará proporcionalmente ao tempo (G); quando as substâncias reagem para formar outras (F), elas sempre o fazem nas mesmas proporções em massa 71 (G). Às vezes esta forma pode estar implícita: quando afirmamos que todo ser vivo provém de outro ser vivo, por exemplo, estamos afirmando que se algo é um ser vivo (F) então ele provém de outro ser vivo (G). Muitas leis das ciências naturais são expressas matematicamente. Se um objeto se movimenta em linha reta com velocidade constante (v), por exemplo, sua posição (s) após ter percorrido um certo tempo (t) pode ser calculada pela equação s = so + vt (onde so é a posição inicial do móvel a partir de um ponto de partida convencional). Esta lei afirma que o deslocamento do móvel varia proporcionalmente ao tempo, isto é, que é função direta do tempo decorrido. O tempo é chamado variável independente e o espaço percorrido de variável dependente. A posição inicial do móvel e sua velocidade, que, neste caso, são constantes (não variam em função do tempo), são os parâmetros da equação. Portanto, podemos dizer também que uma lei expressa uma relação constante entre duas ou mais variáveis. A lei anterior indica não apenas os movimentos que são fisicamente possíveis como também “proíbe” outros tipos de movimentos. Assim, se um objeto se movimenta de acordo com esta lei, ele não poderá percorrer determinada distância em menos tempo que o previsto. As leis quantitativas limitam muito o número de ocorrências possíveis, ou seja, proíbem mais do que as leis qualitativas. Justamente por isso, elas correm riscos maiores de refutação e nos dão mais informações sobre o mundo. Leis como a da dilatação dos corpos não recebem apoio apenas de observações e testes, mas também de leis ainda mais gerais e profundas, que formam as teorias científicas: o fenômeno da dilatação dos metais é explicado como resultante de um aumento na vibração dos átomos do metal, o que determina um maior afastamento entre os átomos. Ao nível macroscópico, isto se manifesta como uma dilatação do corpo. Utilizamos nesta explicação a teoria atômica da matéria e a mecânica estatística. A partir das leis mais gerais de uma teoria científica, podemos deduzir uma série de outras leis de menor alcance. A partir da mecânica newtoniana, por exemplo, podemos deduzir a lei da queda livre e a lei do pêndulo, ambas de Galileu, bem como as leis de Kepler, entre outras. Além disso, a teoria de Newton corrige estas leis de menor alcance, uma vez que explica algumas divergências entre os resultados calculados por elas e os efetivamente obtidos. A partir da teoria da gravitação de Newton, podemos calcular não somente a influência do Sol, mas também a dos demais planetas no movimento de determinado planeta em torno do Sol, explicando assim certos desvios nas leis de Kepler. Podemos prever também que a lei de queda livre vale apenas para distâncias pequenas em relação ao raio da Terra, uma vez que a gravidade varia em função da distância do centro da Terra, o que era ignorado por Galileu. As teorias podem ser não apenas mais gerais, mas também mais profundas, visto que tentam penetrar (sempre hipoteticamente, é claro) em níveis mais distantes do nível da observação. É por isso que, para Bunge (1981), a explicação 74 No caso da queda livre, por exemplo, podemos estudar as alterações que a velocidade sofre em função da resistência do ar, desprezada na construção do modelo inicial, de forma a sofisticar um pouco mais este modelo. A mesma coisa pode ser feita em relação à teoria cinética: substituímos partículas pontuais por esferas dotadas de certo volume, com uma força de atração fraca entre elas. A partir deste novo modelo, podemos compreender por que o comportamento dos gases reais se afasta muito, em certas condições, do modelo anterior. Desse modo, a partir do modelo, podemos corrigir uma lei e enunciar outra mais geral, da qual a lei anterior é um caso-limite, válido apenas em determinadas condições. (Mais sobre leis e teorias em Braithwhaite, 1960; Bunge, 1974, 1979, 1981; Hesse, 1963; Kitcher & Salmon, 1979; Nagel, 1982; Salmon, 1984; Stegmüller, 1979, 1983; Supper, 1977.) 5. Testando hipóteses A teoria do flogisto foi amplamente aceita até o século XVIII. Segundo esta teoria, quando se queimava alguma coisa, ela perdia um fluido, o flogístico, que era o “elemento produtor do fogo”. A função do ar na combustão era absorver este elemento e, por isso, o fogo em um recipiente apagava-se após algum tempo, uma vez que o ar terminava saturado de flogístico. Durante mais de cem anos a teoria do flogístico foi utilizada com sucesso para explicar diversos fenômenos. Em 1775, porém, o químico Antoine Lavoisier (1743-1794) aqueceu, até calcinar, um peso conhecido de mercúrio no interior de um recipiente fechado. Embora o peso total do mercúrio e do recipiente não se tivesse alterado, o mercúrio calcinado tinha aumentado de peso, contrariando, assim, a expectativa de que seu peso diminuísse, em virtude da perda do flogístico. Lavoisier observou também que o aumento de peso era praticamente igual ao peso do ar que entrava no recipiente quando este era aberto. Supondo que este aumento poderia ser explicado pela combinação do metal com o ar – mais exatamente, como depois descobriu, com o oxigênio, formando-se óxido de mercúrio –, Lavoisier aqueceu o óxido em um vidro hermeticamente fechado, obtendo novamente o mesmo peso de mercúrio puro. Ele observou ainda a formação de um gás que, adicionado ao resíduo gasoso da experiência anterior, resultou novamente numa mistura idêntica à do ar comum. Lavoisier tinha conseguido decompor o óxido de mercúrio, liberando o oxigênio. Este processo pode ser representado quimicamente da seguinte forma: óxido → metal + oxigênio. No primeiro experimento, ocorreu o processo inverso: metal + oxigênio → óxido. Lavoisier realizou ainda diversos experimentos com outros metais, demonstrando que a massa total do sistema não se altera em uma reação química 75 (lei da conservação da massa. Nascia assim a teoria atual da combustão pelo oxigênio e se estabeleciam os alicerces da química moderna. Vemos então que Lavoisier provocou a combustão, em vez de esperar que ela ocorresse espontaneamente. Mais importante ainda, ele controlou determinados fatores ou variáveis que supunha relevantes, medindo o peso do metal e o peso do ar antes e depois do experimento, fechando o recipiente de modo a impedir que recebesse matéria de fora, etc. A formação de grupos de controle é bastante utilizada para testar a eficácia de medicamentos, como vimos no Capítulo 1. Neste caso, utilizamos técnicas aleatórias, escolhendo ao acaso as pessoas que formarão cada grupo (sorteando seus nomes, por exemplo). Assim, as pessoas mais resistentes têm a mesma chance de serem colocadas no grupo de controle ou no experimental e, se os números forem suficientemente grandes, haverá uma distribuição mais ou menos homogênea em relação a estas e outras características, ou seja, os dois grupos serão aproximadamente iguais. Esta é uma das várias técnicas estatísticas que nos ajudam a controlar as variáveis em um experimento. Assim, para testar a hipótese de que um medicamento é a causa da cura de uma doença, selecionamos um grupo representativo de doentes e o dividimos em dois subgrupos, o experimental, que receberá o agente causal e o grupo de controle, que ficará sem o medicamento, mas será, em relação aos outros fatores ou variáveis, idêntico ao grupo experimental. O agente causal suspeito (o medicamento, neste caso), pode ser chamado de variável independente e o efeito (a cura, neste caso), de variável dependente. Mas há ainda um outro procedimento muito importante que tem de ser feito nestes casos. Como vimos no Capítulo 1, é necessário fornecer ao grupo de controle um placebo, isto é, um comprimido ou líquido inativo, desprovido do medicamento e com a mesma aparência e sabor do medicamento real, de forma que um indivíduo não saiba se está tomando ou não o medicamento, isto é, se ele pertence ao grupo de controle ou ao experimental. Desta forma, podemos compensar efeitos psicológicos, uma vez que alguns pacientes podem se sentir realmente melhor se acharem que estão tomando algum medicamento. Vimos também que atualmente se realiza um controle ainda mais rigoroso, conhecido como teste duplo-cego. Nele, até mesmo os cientistas que participam do experimento, ignoram quais os indivíduos que realmente tomam o medicamento. O código que identifica o grupo a que cada indivíduo pertence fica de posse de outro cientista, que não participa diretamente do experimento. Isto porque os participantes da pesquisa podem, inconscientemente, avaliar de modo mais favorável um paciente, se souberem que ele recebeu o medicamento real, e vice-versa, sobretudo em casos-limite, quando é difícil dizer se houve ou não melhora. Por isso, a identificação de cada indivíduo só é feita após esta avaliação. 76 A experiência controlada, com seus grupos de controle e testes duplo-cegos, revela como o experimento científico procura diminuir a influência dos fatores não relevantes, incluindo-se aí os interesses pessoais (conscientes ou não) do cientista nos resultados do teste. Portanto, a objetividade científica não decorre da falta de interesse, desejos ou ideologia do cientista e sim das “regras do jogo”, isto é, do método científico. É claro que nenhum teste é perfeito: a objetividade é um ideal a ser perseguido e nunca completamente alcançado. Às vezes o efeito observado é limitado: no exemplo acima, pode ocorrer que nem todos os indivíduos do grupo experimental melhorem da doença ou, pelo menos, que não melhorem com a mesma rapidez. Isto pode acontecer porque determinado efeito pode não estar associado a um único fator causal: no caso, os mecanismos naturais de defesa contra determinada doença também influenciam a cura, e a seleção dos grupos pode não garantir que haja o mesmo número de indivíduos com o mesmo nível de resistência à doença nos dois grupos. Há necessidade, portanto, de analisar os dados com auxílio de testes estatísticos, como veremos adiante. No caso de testes de medicamentos, este é aplicado inicialmente em animais, que recebem doses muito maiores do que as que serão usadas em seres humanos. O objetivo nesta primeira fase é descobrir se há efeitos tóxicos e também como a droga atua no organismo. Após esta etapa, a droga é aplicada em um pequeno número de voluntários sob constante observação. Somente após este estágio é que a droga será aplicada em um número progressivamente maior de voluntários com a doença em questão. Freqüentemente, o novo medicamento é comparado com o antigo, de modo a termos uma idéia da eficácia relativa dos dois medicamentos. O tipo de teste controlado visto acima, em que os indivíduos são aleatoriamente divididos em grupo de controle e grupo experimental pode, em muitos casos, ser caro e consumir muito tempo. Neste caso, podemos realizar outro tipo de teste: selecionamos indivíduos que já estão sob efeito da causa e comparamos com um grupo de controle. Podemos comparar, por exemplo, um grupo de fumantes com outro de não fumantes ou um grupo que tem naturalmente uma dieta rica em colesterol com outro que tem uma dieta pobre em colesterol. Ao longo do tempo, registramos a freqüência relativa de doenças nos dois grupos. Neste caso, é preciso estar atento para possíveis diferenças entre os membros dos dois grupos: pode ser necessário excluir alguns membros de determinado grupo de modo a conseguir amostras semelhantes em relação a determinado fator – como a idade, por exemplo. 79 algumas centenas de pessoas por grupo. Sem esta especificação, portanto, nada se poderá concluir a partir do resultado do teste. É importante também que o cientista especifique de antemão, antes da coleta de dados e da avaliação do teste, o nível de significância empregado, pois, só assim, a hipótese será refutável. Seria fácil escolher após o resultado um nível de significância tal que qualquer uma das hipóteses fosse sempre confirmada. Mesmo um resultado de 12 caras, por exemplo, com probabilidade de 0,024% não refutaria a hipótese nula, se escolhêssemos um nível de significância de 0,01%. Mas a partir daí surge outro problema: o que determina a escolha de 5% ou, às vezes, 1% como níveis de significância? Por que não escolher níveis mais baixos, de modo a minimizar ainda mais a chance de erro? Pode-se demonstrar que, para diminuir a chance de erro sem que o teste perca precisão, e sem que, automaticamente, aumente a chance de se cometer outro tipo de erro – o de aceitar uma hipótese nula quando esta for falsa –, temos de aumentar o tamanho da amostra. Com um maior número de lançamentos de moeda, por exemplo, poderão surgir resultados cada vez mais improváveis, que funcionam como evidências ainda mais severas contra a hipótese nula. Assim, se em 20 lançamentos saírem 20 caras, teremos um acontecimento com a probabilidade de (1/2)20 ou 1 em 1.048.576 ou ainda 0,00009%. Portanto, uma das maneiras de aumentar o rigor do teste estatístico consiste em aumentar o tamanho da amostra. No caso da moeda, podemos aumentar o número de lançamentos, enquanto no caso de testes de medicamentos podemos aumentar o número de indivíduos que participam do teste, ou então repetir a experiência. Do ponto de vista prático, porém, isso implica em um maior gasto de tempo, dinheiro e recursos que poderiam ser utilizados em outras pesquisas. Assim, as condições materiais disponíveis impõem um limite ao aumento progressivo do rigor do teste. Outro fator limitante é o nível de precisão desejado. Assim como podemos construir instrumentos de medidas cada vez mais precisos, podemos elaborar testes utilizando amostras cada vez maiores. Entretanto, nem sempre há vantagens – tanto do ponto de vista teórico como prático – em se procurar maior precisão. Um médico não tem interesse em utilizar um termômetro mais sofisticado, capaz de medir centésimos de grau, simplesmente porque a teoria utilizada por ele para diagnosticar doenças através da febre não atribui importância a variações tão pequenas de temperatura. Portanto, medidas com tal precisão não contribuiriam para testar a veracidade da teoria, nem teriam qualquer utilidade no diagnóstico de doenças. Um raciocínio semelhante vale para o rigor dos testes estatísticos (Carnap, 1953). É claro que, no futuro, poderão surgir teorias que façam previsões mais precisas e, nesses casos, haveria interesse em desenvolver instrumentos e testes mais acurados. A partir da teoria da relatividade, por exemplo, podemos extrair previsões acerca de alterações mínimas – não previstas pela mecânica newtonia- 80 na – na massa de partículas em alta velocidade, que só podem ser testadas através de instrumentos e experimentos muito sofisticados. Portanto, medidas mais precisas passam a ser importantes apenas quando possibilitam o teste de novas teorias, contribuindo assim para o crescimento do conhecimento científico. Em outras palavras, o aumento do rigor de um teste acima de certo valor, justifica-se quando a diferença de resultados for suficientemente relevante para pôr em xeque alguma hipótese ou teoria (Giere, 1975). Mesmo que aumentemos o rigor de um teste estatístico, jamais poderemos ter certeza de que a hipótese nula é realmente falsa. Um acontecimento raro, como o de 12 caras consecutivas, pode realmente ter ocorrido! Além disso, pode existir uma correlação fraca demais para ser detectada pelo teste em questão. No exemplo da moeda, isto equivale a um ligeiro desvio na freqüência relativa de caras e coroas, causada, por exemplo, por um pequeno deslocamento do centro de gravidade da moeda. Do mesmo modo, um medicamento poderia conferir alguma proteção contra a doença, mas seu efeito poderia ser fraco demais para ser detectado pelo tipo de teste empregado. Daí a importância de se especificar que um desvio é significativo ou que uma hipótese foi rejeitada em nível de 5%. Entretanto, qualquer teste – estatístico ou não – possui uma série de limitações. A falta de certeza, a falibilidade e a possibilidade de correção são características de um conhecimento crítico como é o conhecimento científico. A estatística nos ajuda apenas a construir experimentos mais rigorosos, permitindo também que se especifique e controle a probabilidade de erro. O uso da estatística levanta ainda outra questão: se houver uma ligação causal entre dois fatores, A e B, haverá também uma correlação estatística entre eles. No entanto, a simples correlação não indica necessariamente uma ligação causal entre A e B. Suponhamos que se descubra uma correlação positiva entre o hábito de fumar e o baixo desempenho nos estudos. Uma possível explicação para esta correlação seria que o fumo prejudica o desempenho escolar, por influir, talvez, negativamente, na memória ou na capacidade de raciocínio. Mas esta não é a única explicação possível. Podemos dizer também que os estudantes que, por outros motivos, tiram notas baixas, ficam tensos e por isso tendem a fumar mais. Finalmente, há ainda uma terceira explicação: talvez algum aspecto da personalidade – uma maior insegurança, por exemplo – predisponha, independentemente, para o fumo e para o baixo desempenho escolar. Assim, supondo que dois eventos A (fumo) e B (desempenho escolar) estejam correlacionados, temos que: A pode ser a causa de B, B pode ser a causa de A e ainda um outro fator, X, pode ser a causa de ambos – e qualquer uma dessas relações causais explicaria a correlação encontrada. Limitações deste tipo não são exclusivas dos testes estatísticos. Não podemos afirmar, com certeza, que encontramos a verdadeira causa de um fenômeno. Entretanto, podemos testar de forma independente nossas conclusões. No caso da correlação entre fumo e câncer, podemos realizar outros experimentos, demonstrando que a chance de contrair câncer aumenta de acordo com o 81 número de cigarros consumidos diariamente, com a idade em que se começa a fumar, com o fato de se tragar muito ou pouco, etc. Poderíamos ainda comparar fumantes e não fumantes em relação a muitas outras variáveis, como idade, sexo, raça, educação, ocupação, pressão alta, consumo de álcool, tensão nervosa, etc., diminuindo com isso a probabilidade de erro. Podemos também realizar experimentos controlados com animais. Um experimento controlado fornece evidências mais fortes de relações causais do que o levantamento de correlações. Há também um apoio mais profundo, vindo de leis e teorias que buscam os mecanismos oculto dos fenômenos. No caso do cigarro, isto equivale a ter uma teoria que explica a ação cancerígena do fumo em função de alterações provocadas no código genético por determinadas substâncias presentes no cigarro – o câncer se manifesta justamente quando certos genes se alteram. A partir deste momento, as correlações entre fumo e câncer passam a contar com o apoio de uma teoria geral e profunda, com maior poder explicativo que um conjunto de generalizações empíricas. Esta teoria explica inclusive por que outros fatores – como certos vírus, radiações e poluentes – também podem provocar câncer: todos esses fatores são capazes de provocar alterações no código genético de um indivíduo. (Mais sobre testes estatísticos em Giere, 1979; Mendenhall, 1985; Norman & Streiner, 1993; Seidenfeld, 1979.) 5.2 Testes rigorosos e observações mais precisas – medidas Em uma frase que ficou famosa, o físico William Thompson (1824-1907), mais conhecido como Lord Kelvin, afirmou que somente quando podemos medir aquilo de que falamos é que sabemos algo a seu respeito; caso contrário, nosso conhecimento é escasso e insatisfatório (Thompson, 1889). Galileu demonstrou igual ênfase ao afirmar que o livro da natureza está escrito em caracteres matemáticos. Realmente, em ciências naturais nos vemos envolvidos em uma avalanche de números: a natureza é concebida, cada vez mais, em termos quantitativos. Mas por que esta busca pela medida? Um médico pode, em certos casos, descobrir quando um paciente está anêmico por meios de sintomas como fraqueza, palidez, sensação constante de cansaço, etc. Mas o número de hemácias e a quantidade de hemoglobina fornecem uma informação muito mais precisa, diminuindo a possibilidade de um diagnóstico errado. Além disso, ele saberá não apenas que o paciente está anêmico, mas também o grau e o tipo de anemia – informações que poderão influir decisivamente no tipo de tratamento que será ministrado. Pelo mesmo motivo, um médico não se satisfaz em saber que um paciente está “mais quente que o normal”: ela quer saber a temperatura exata do doente. 84 cia de fatores não controlados, devidos ao observador, aos instrumentos ou às demais condições em que a operação se realiza. Quando afirmamos, por exemplo, que o comprimento de um fio é de 2,0 + 0,1cm, isto significa que o verdadeiro valor do comprimento deve estar entre 1,9 e 2,1 cm e que as diferenças entre os valores medidos e o valor médio de 2,0 cm se distribuem, simetricamente, em torno deste valor. Uma hipótese só poderá ser refutada se a diferença entre o valor previsto e o valor médio obtido em uma série de mensurações for maior que a margem de erro estabelecida de antemão. Este procedimento é semelhante ao utilizado no teste de hipóteses estatísticas: consideramos improvável que os desvios se afastam significativamente do valor esperado sejam causados por fatores aleatórios. Em vez disso, decidimos que esta hipótese, que corresponde á hipótese nula, foi refutada. Assim, como diz Bunge (1981), embora a estatística não elimine a incerteza da medida, ela torna esta incerteza mais precisa. Mas suponhamos que o valor médio obtido na mensuração seja significativamente diferente do valor previsto pela hipótese testada. Podemos considerar que esta hipótese foi refutada? Quando há um choque entre os resultados de um teste e a hipótese testada, temos de procurar o “culpado” por esta contradição. Pode ser que a hipótese seja falsa, mas pode ser também que alguma hipótese ou teoria utilizada na construção do experimento não seja correta: o instrumento pode, por exemplo, gerar calor, provocando um aquecimento e uma deformação significativa no objeto medido. Talvez o próprio cientista esteja procedendo de forma incorreta durante a operação de medida. Enfim, há uma série de fatores que podem provocar o que chamamos de erro sistemático, que faz com que o resultado obtido se desvie sistematicamente do resultado previsto. Para resolver esse problema temos de apelar para testes independentes, ou seja, devemos testar as hipóteses e teorias com auxílio de outras técnicas distintas daquelas que foram utilizadas na construção do instrumento de medida e no preparo e avaliação do experimento. Da mesma forma, devemos testar nossas técnicas e nossos instrumentos de medidas em outras hipóteses e teorias diferentes das que estão sendo testadas. (Mais sobre medidas em Baird, 1962; Bunge, 1981.) CAPÍTULO 4 A Ciência e Outras Formas de Conhecimento O método científico não é a única forma de conhecer o mundo: o conhecimento comum, por exemplo, é extremamente importante em nosso dia-a-dia. Neste capítulo, veremos que a distinção entre ciência e outras formas de conhecimento nem sempre é nítida e o que hoje não é parte da ciência, poderá vir a sê-lo amanhã. Isto não quer dizer, porém, que essa distinção nunca possa ser feita e que ela não seja útil. 1. A ciência e a atitude crítica Popper critica certas tentativas de manipulação de hipóteses que procuram colocá-las a salvo de qualquer refutação, reformulando-as de modo que elas possam sempre resistir a qualquer teste. As hipóteses ficam imunizadas contra a refutação, sendo confirmadas por praticamente qualquer observação ou experiência. Essas hipóteses são desprovidas de interesse científico, porque nada “proíbem”, ou então “proíbem” muito pouco. Por isso, elas não nos fornecem nenhuma informação sobre a realidade, uma vez que são compatíveis com qualquer conhecimento. Um dos modos de tornar uma hipótese irrefutável consiste em formulá-la de modo que dela só se possam extrair previsões vagas. Muitas profecias feitas por videntes situam-se neste caso. Alguns afirmam, por exemplo, que um político importante vai morrer no ano seguinte. Um rápido exame revela que todos os anos morre algum político importante. Além disso, o termo “importante” é suficientemente elástico para englobar um número imenso de políticos, o que aumenta mais ainda a chance de a previsão se realizar, diminuindo as chances de refutação. O mesmo vale para afirmações do tipo “Alguma coisa boa 86 vai acontecer nos próximos meses”. Assim, a hipótese de que o vidente tem realmente o poder de prever o futuro é sempre “confirmada” pelo acerto de sua previsão. Entretanto, mesmo que esta hipótese fosse falsa a previsão também se confirmaria, simplesmente porque ela é suficientemente vaga para se acomodar a um número muito grande de ocorrências. Há ainda um ponto de fundamental importância: quando se diz que um conjunto de idéias ou um sistema de enunciados não é científico, não estamos querendo dizer que ele é falso, absurdo, sem sentido ou inútil. Embora o positivismo lógico tenha defendido a tese de que todos os problemas genuínos seriam ou de caráter científico ou de caráter lógico – teorias filosóficas não seriam mais significativas do que o “balbucio inconseqüente de uma criança que não aprendeu ainda a falar” –, a verdade é que várias teorias científicas surgiram a partir de mitos ou sistemas filosóficos não testáveis, como o atomismo grego (Popper, 1972). Desse modo, sistemas não científicos podem desenvolver-se de forma a se tornarem testáveis e científicos. Mesmo aqueles sistemas que não são testáveis experimentalmente, uma vez que não pretendem tratar de questões empíricas e sim de juízos de valor ou de conceitos a priori, como é o caso do conhecimento filosófico, são importantes para o progresso do conhecimento. Para isso, no entanto, é necessário que eles sejam discutidos e criticados. Para Popper, teorias filosóficas como o realismo (há um mundo exterior independente de mim), o idealismo (o mundo é meu sonho), ou o determinismo (o futuro é completamente determinado pelo presente) podem ser discutidas racionalmente se procurarmos compreender quais os problemas que estas teorias procuram resolver. Assim, “[s]e considerarmos uma teoria como solução proposta para certo conjunto de problemas, ela se prestará imediatamente à discussão crítica, mesmo que seja não-empírica e irrefutável. Com efeito, podemos formular perguntas tais como: resolve o problema em questão? Resolve-o melhor do que outras teorias? Terá apenas modificado o problema? A solução proposta é simples? É fértil? Contraditará teorias filosóficas necessárias para resolver outros problemas?”. (Popper, 1972, p. 225) Do mesmo modo, as ciências formais – lógica e matemática – constituem exemplos de sistemas não testáveis experimentalmente, cujas teorias podem, no entanto, ser criticadas, discutidas, e até mesmo refutadas através de argumentos lógicos e provas matemáticas. Portanto, o método científico pode ser visto como um caso especial de crítica. A atitude crítica consiste em discutir qualquer idéia ou afirmação, buscando erros, contradições internas ou incoerências com outros campos do conhecimento. Se, no entanto, pretendemos falar acerca de fatos, devemos procurar testar empiricamente nossas hipóteses pelos testes mais severos possíveis – caso contrário, não estaremos sendo suficientemente críticos e ficará difícil (ou mesmo impossível) eliminar hipóteses falsas. 89 incendiando-se na atmosfera, meteoros, fotomontagem (muitas fotos de UFOs revelaram-se falsas), etc. Os supostos discos também não foram detectados por observatórios astronômicos e as tentativas de captar algum sinal de vida inteligente com radiotelescópios não tiveram êxito – pelo menos por enquanto. Os cientistas e os órgãos governamentais negam que estejam ocultando extraterrestres, como afirmam alguns ufólogos, e não há uma evidência científica de que algo extraterrestre esteja de fato sendo oculto. Outro problema é que relatos pessoais de contatos com extraterrestres não são considerados como evidência confiável, já que podem resultar de alucinações ou fraudes. Questiona-se também o fato de nenhum relato conter informações específicas novas – que poderiam ser fornecidas por uma civilização superior à nossa –, que pudessem ser comprovadas por cientistas, como a resolução de um teorema matemático ou o aviso de algum perigo antes de este ter sido identificado pela comunidade científica (como o buraco na camada de ozônio) (Sagan, 1996). Finalmente, também não foram apresentados para a comunidade científica artefatos que, comprovadamente, não pertençam ao nosso sistema solar (a comprovação pode ser feita em laboratórios, analisando-se a proporção de isótopos do material). Críticas à ufologia são encontradas em Arvey, M. UFOs: opposing viewpoints. San Diego: Greenhaven, 1989. Frazier, Kendrick. (ed.). The hundred monkey & other paradigms of the paranormal. Amherst: Prometheus Books, 1991. Frazier, Kendrick et alii. The UFO invasion: the Roswell incident, alien abductions, and governmet coverups. Amherst: Prometheus Books, 1997. Hines, Terence. Pseudoscience and the Paranormal. Amherst: Prometheus Books, 1986. Klass, Plilip. UFO abductions: a dangerous game Amherst: Prometheus Books, 1988. ____. UFO’s explained. Nova York: Random House, 1974. ____. UFOs: the public deceived. Amherst: Prometheus Books, 1988. Korff, Kal K. The Roswell UFO crash: what they don’t want you to know. Amherst: Prometheus Books, 1995. Lagrange, Pierre. Roswell: autopsie d’une imposture. Science & vie. Paris, n. 938, p. 104-109, Nov. 1995. Peebles, Curtis. Watch the skies! A cheonicle of the flying saucer myth. Washington: Smithsonian Institution Press, 1994. Sagan, Carl. O mundo assombrado pelos demônios: a ciência vista como uma vela no escuro. Tradução de Rosaura Eichemberg. São Paulo: Companhia das Letras, 1996. ____ & Thornton, Page (Eds.). UFO’s – a scientific debate. Nova York: W.W.Norton, 1972. 90 1.3 Criacionismo Embora não haja necessariamente um conflito entre religião e ciência – uma pessoa pode ser religiosa e aceitar que Deus criou o universo com todas as suas leis, inclusive as leis da evolução –, os defensores do criacionismo defendem a idéia de que os seres vivos foram criados por Deus exatamente como está escrito na Bíblia, negando assim a teoria da evolução. No entanto, a comunidade científica considera que o criacionismo não explica adequadamente as inúmeras evidências a favor da evolução dos seres vivos (órgãos homólogos, fósseis, datações radioativas, etc.). As críticas ao criacionismo podem ser encontradas em: Berra, Tim M. Evolution and the myth of creationism: a basic guide to the facts in the evolution debate. Stanford: Stanford University, 1990. Kehoe, Alice B. Moderm antievolutionism: The scientific creationists. In: GODFREY, L. R. (ed.). What Darwin began. Boston: Allyn and Bacon, 1985. Kitcher, Philip. Abusing Science. Cambridge: MIT Press, 1983. Milne, D. H. How to debate with creationists – and ‘Win’. American Biology Teacher. V. 43, p. 235-245, 1981. Ruse, Michael. Darwinism defended: A guide to the evolution controversies. Menlo Park: The Benjamin Cummings Publishing Company, 1982. ____. (ed.). But is it science? The philosophical question in the evolution creation controversy. Amherst: Prometheus Books, 1988. Siegel, Harvey. The response to creationism. Educational Studies, v. 15, p. 349-364, 1984. 1.4 Homeopatia Parte dos médicos considera a homeopatia uma prática válida: para outros os efeitos de seus medicamentos não são superiores ao placebo (Landmann, 1988). Aqueles que criticam a homeopatia apontam que a maioria dos medicamentos homeopáticos não foi submetida a testes controlados do tipo duplo-cego ou a testes estatísticos. Foram poucos os testes controlados que indicaram algum efeito (Reilly et alii, 1986, 1994: Jacobs et alii, 1994) e, mesmo assim, estes testes foram criticados pela falta de um controle estatístico rigoroso, entre outros problemas (Maddox, Randi, Stewart, 1988; Rossion, 1995: Sampson, 1997). Em outros casos, o resultado foi negativo (Aulas et alii, 1985; Rossion, 1985). Outra crítica deve-se ao fato de que, em certos casos, os medicamentos homeopáticos são usados em soluções tão diluídas, que muitos preparados deixam de conter qualquer molécula de medicamento. Os defensores da homeopatia afirmam que essas soluções conservam o poder de cura porque foram 91 dinamizadas, isto é, submetidas a cem movimentos verticais de agitação. A dinamização alteraria certas propriedades do solvente, fazendo com que ele passasse a ter uma espécie de “memória” do medicamento. Em junho de 1988, a revista Nature publicou um artigo relatando que certos glóbulos do sangue foram capazes de reagir a uma solução altamente diluída de determinado anticorpo – a despeito de este não estar mais presente nas diluições mais altas – desde que a solução fosse agitada de maneira vigorosa, segundo o processo de dinamização homeopática (Davenas et alii, 1988). A revista encaminhou, então, a convite de um dos autores do artigo, uma equipe de pesquisadores para avaliar as técnicas utilizadas. A equipe constatou falhas no controle estatístico dos resultados originais e ausência de esforços para eliminar fatores que poderiam ter provocado a reação dos glóbulos brancos – como a contaminação dos instrumentos usados (Maddox, Randi, Stewart, 1988). Além disso, o experimento foi repetido, usando-se o controle duplo-cego, e o resultado foi negativo (Hirst et alii, 1993). Conclui-se, então, que não havia qualquer evidência favorável à alegação de que o solvente teria retido propriedades do anticorpo através de uma alteração na organização molecular da água, defendida pelos autores do artigo. Para críticas à homeopatia, ver: Aulas, J. J. et alii. L’Homéopathie. Paris: Ed. Medicales Roland Bettex, 1985. Barret, Stephen. Homeopathy: Is it medicine? Skeptical Inquirer. Amherst, v. 12, n. 1, p. 56- 62, fall 1987. Butler, K. A consumer’s guide to “alternative medicine”. Amherst: Prometheus Books, 1992. Ciência Hoje. Homeopatia em questão. Rio de Janeiro v. 7 n. 39, p. 50-63, jan./fev. 1988. Consumer reports. Homeopathic remedies: these 19th century medicines offer safety, even charm, but efficacy is another matter. V. 52, p. 60-62, 1987 Landmann, Jaime. As medicinas alternativas: mito, embuste ou ciência? Rio de Janeiro: Guanabara, 1988. Park, Robert L. Alternative medicine and the laws of Physics. Skeptical Inquirer. Amherst, v. 21 n.5, p. 24-28, Sept./Oct., 1997. Rossion, Pierre. La verité sur La mémoire de l’eau. Science & Vie. Paris, n. 851, p. 10-19, août, 1988. ____. Homéopathie: l’experimentation dit non. Science & Vie. Paris, n. 812, p. 44-68, mai, 1985. ____. Homéopathie: le retour des fausses preuves. Science & Vie. Paris, n. 929, p. 60-63, fev. 1995 Rouzé, Michel. Le torchon brûle chez les homéopathes. Science & Vie. Paris, n. 848, p. 26-31, mai 1988. ____. Pour ou contre l’homéopathie. Science & Vie. Paris, n. 807, p. 48-55, déc. 1984. 94 Em ciência nos valemos de analogias para inventar hipóteses: Rutherford tentou explicar as propriedades do átomo comparando-o a um sistema solar em miniatura. No entanto, o cientista admite que suas analogias podem se revelar falsas, como ocorreu com o modelo de Rutherford: o átomo não é mais encarado como um sistema solar em miniatura. Neste caso, portanto, o microcosmo não correspondeu ao macrocosmo, pelo menos de acordo com a analogia estabelecida. Ptolomeu e todos os astrônomos anteriores a Kepler achavam que as órbitas dos planetas deviam ser circulares – uma vez que o círculo era uma forma geométrica perfeita e portanto apropriada para os astros “perfeitos” do céu. Mas as órbitas são elípticas! Como vemos, embora um cientista tenha todo o direito de procurar analogias para formular suas hipóteses, elas nem sempre refletem o que realmente acontece. Portanto, por que deveríamos supor que as características de uma pessoa nascida em determinada data teriam uma relação de semelhança feita a partir do nome da constelação pela qual o Sol passava nesta data? Além disso, como mostra Thagard (1988), a analogia feita em ciência é diferente do raciocínio por semelhança: além da semelhança entre A e B, procuramos descobrir – através de testes e não através de raciocínios de semelhança – se estão presentes ligações causais. Assim, o fato de que os planetas giram em torno do Sol não foi descoberto por analogia ou por semelhança, e sim por meio de observações e testes. Do mesmo modo, a idéia de que os elétrons giram em torno do núcleo do átomo terá de ser estabelecida através de testes – que estão, no entanto, ausentes dos fundamentos da astrologia. Em vez disso, a astrologia e outras práticas atribuem uma ligação a partir apenas de um raciocínio por semelhança, sem questionar, como faz a ciência, que esta atribuição pode estar equivocada. Entretanto, o astrólogo pode postular que suas analogias não são formuladas de modo arbitrário, mas que refletem algo que está presente no inconsciente de todos nós. Novamente, porém, isto não quer dizer que a partir dessas analogias seríamos capazes de prever tendências na personalidade de uma pessoa nascida em determinada data. Talvez o movimento circular e perfeito também reflita algo presente em nosso inconsciente, mas, como vimos, isto não quer dizer que o movimento dos planetas seja circular. E, se esta analogia revelou-se um equívoco quando aplicada para descobrir o movimento dos planetas, por que não poderia ocorrer o mesmo com as analogias astrológicas? Além disso, o mesmo grupo de estrelas pode sugerir analogias diferentes em países diferentes: o grupo de sete estrelas, conhecido como “A Ursa Maior” nos Estados Unidos, é chamado na França de “A Caçarola”, na Inglaterra de “O Arado”, na China de “Burocrata Celestial”, etc. Mas, neste caso, é possível, a partir dessas analogias, construir várias astrologias com implicações diferentes a respeito das características de um mesmo indivíduo. E isto de fato existe. No horóscopo chinês as características de uma pessoa em função da data de seu nascimento são diferentes daquelas 95 previstas pelo horóscopo ocidental. Assim, uma pessoa teria tendências diferentes em função da astrologia utilizada. Como justificar a preferência por um ou por outro horóscopo? Se afirmarmos que ambos são válidos, mesmo quando fazem previsões opostas, deixamos de ter a capacidade de fazer qualquer tipo de previsão – deixamos de falar acerca da realidade. 2.2 Incompatibilidade com a ciência e incoerências Toda a preocupação da astrologia com a precisão poderia nos levar a pensar que as posições dos astros em uma carta natal refletem aquilo que está ocorrendo realmente no céu, mas este não é o caso: embora tenha surgido a partir da astronomia, a astrologia isolou-se dessa ciência. Os princípios da astrologia foram estabelecidos com base nas observações de Hiparco, entre 162 e 127 a.C. e por Ptolomeu, por volta de 150 a.C. Ambos eram astrônomos e astrólogos, e se valeram da observação das estrelas para seu trabalho. No entanto, devido ao movimento do eixo da Terra, conhecido como precessão dos equinócios – em que nosso planeta além de girar oscila ligeiramente como um pião –, a posição relativa das estrelas vem se alterando lentamente ao longo dos anos. Na época de Hiparco já havia um pequeno desvio de cerca de 2,5 graus, levados em consideração em seus cálculos. Os astrólogos, porém, deixaram de levar em conta estes efeitos, e hoje a diferença entre a posição real das constelações e as posições astrológicas já é de mais de 30 graus (Hoffman, 1982). Portanto, quando um astrólogo afirma que no momento do nascimento de determinada pessoa, o Sol – ou determinado planeta – estava atravessando determinado setor do zodíaco, isto, na realidade, não estava ocorrendo. Os astrólogos argumentam que estas mudanças astronômicas não importam, porque o zodíaco astrológico é simbólico e diferente do real. Esta posição, contudo, faz surgir diversas incoerências. Por um lado os horóscopos foram construídos a partir das observações de Ptolomeu, Hiparco e outros astrônomos antigos. Por outro lado, as observações deixaram de ter importância. Mas por que elas teriam deixado de ser importantes? Se Hiparco não ignorou a precessão, por que deixar de continuar a levá-la em conta? Se não houver nenhuma justificativa para isso, estaremos diante de uma explicação ad hoc, elaborada com o único objetivo de justificar o fato de os astrólogos terem deixado de fazer a correção necessária e sem apresentar qualquer evidência independente para esta comissão. O mesmo tipo de incoerência pode ser observado em outros procedimentos. Essas incoerências provocam algumas cisões entre os astrólogos. Alguns passaram a defender a construção de um sistema que levasse em conta a verdadeira posição dos astros. Esta “astrologia sideral”, como foi chamada, 96 considera, por exemplo, que devido à precessão dos equinócios os signos estão atualmente defasados de uma casa. Neste caso, uma pessoa teria mapas astrais diferentes de acordo com a linha seguida pelo astrólogo e, logicamente, um dos dois sistemas deve ser falso. No entanto, mesmo a correção das posições dos planetas não elimina o problema de justificar as analogias. Alguns astrólogos buscam, então, apoio na física, afirmando que a gravitação, as ondas eletromagnéticas ou a luz do Sol e das estrelas poderiam ser os responsáveis pela influência dos astros em nossas vidas. Entretanto, as influências descritas pela astrologia parecem não ter qualquer relação com a força gravitacional de cada corpo. Para a astrologia há planetas mais influentes do que outros, mas esta influência não tem relação com o tamanho do corpo ou com sua distância à Terra. Em alguns casos ela pode ser considerada incompatível com essas forças: influências astrológicas consideradas mais fortes podem corresponder a forças gravitacionais mais fracas em alguns casos, embora em outros ocorra o oposto. A influência astrológica relativa de um planeta é assim completamente independente de seus efeitos gravitacionais (Gauquelin, 1985). Os efeitos gravitacionais de um planeta no momento do nascimento podem ser calculados pela física, e se revelam muito mais fracos que a massa do médico ou de outras pessoas presentes no parto, ou ainda de acidentes geográficos próximos à maternidade. Se os planetas agissem através de influências gravitacionais no momento do nascimento, não se poderia desprezar a diferença entre uma criança que nasce perto de uma montanha – ou com três pessoas assistindo ao seu parto – de uma criança com apenas um obstetra, ou distante de qualquer morro. Em termos gravitacionais, estes fatos têm muito mais importância do que a influência dos planetas. Como vemos, não há nenhum motivo para supor que a influência astrológica tenha qualquer relação com forças gravitacionais e o mesmo tipo de argumento pode ser aplicado para outros tipos de influências, como as ondas eletromagnéticas, a luz visível do Sol, os raios cósmicos etc. Finalmente, qualquer que fosse a origem desta misteriosa influência, por que ela agiria apenas no momento do nascimento? Por que não durante toda a gestação? Aliás, como delimitar precisamente este momento? Quando a cabeça da criança começa a aparecer, ou quando ela termina de sair? A posição dos astros muda durante este intervalo. Alguns astrólogos escolhem o momento do choro. Qual a justificativa para isso? Enfim, a astrologia, sideral ou não, não pode contar com o apoio da física atual. 2.3 A astrologia funciona na prática? Muitos de nós já leram um horóscopo que muitas das características psicológicas ali descritas parecem realmente corresponder à nos-
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved