A probabilidade e a explicação estatística

Probabilidade: a teoria formal
É para nós muito vantajoso ter a capacidade de prever de modo fidedigno o que vai acontecer no futuro. Em certos casos muito excepcionais, podemos prever que o futuro terá um e apenas um resultado, o que acontece, por exemplo, quando prevemos a posição futura de um dos planetas a partir da sua condição presente e das leis dinâmicas do movimento. Em muitos casos, só temos uma ideia muito vaga do que o futuro nos irá trazer. Existe um conjunto especial de casos em que não podemos dizer com segurança o resultado que irá ocorrer, de entre um conjunto de resultados possíveis, mas em que podemos ter um conhecimento fidedigno da proporção com que esses resultados ocorrerão num grande número de ensaios repetidos de um tipo semelhante. Quem lança dois dados não sabe o que trará o próximo lançamento, mas sabe que numa longa série de lançamentos o resultado 7 surgirá aproximadamente uma em cada seis vezes. A investigação de situações como esta, tendo começado com a típica situação de jogo, teve como resultado o desenvolvimento da teoria de probabilidades. A probabilidade de um resultado foi vista como algo intimamente relacionado com a frequência com que se podia esperar que esse resultado ocorresse num grande número de ensaios repetidos e idênticos de um certo tipo especificado.
Construiu-se uma teoria matemática formal da probabilidade, que tem uma simplicidade e uma elegância incomparáveis. Surpreendentemente, embora as suas ideias básicas já fossem conhecidas há centenas de anos, só foi formalizada nos anos trinta do século XX. Define-se uma colecção de resultados básicos — por exemplo, o número de resultados possíveis de um dado. Atribui-se números de 0 a 1 a subcolecções da colecção de resultados básicos. Assim, atribuímos à colecção que consiste exactamente em “sair o número 1” o número — isto é, a probabilidade — 1/6. À colecção caracterizada por “sair um número par” atribuímos o número 1/2. Ao resultado vazio (não ocorrer nenhum dos resultados possíveis) é dada uma probabilidade de 0, e ao resultado trivial (ocorrer qualquer um dos resultados possíveis) é dada uma probabilidade de 1. O postulado mais importante é o da aditividade. Suponhamos que, se um resultado está na colecção A, não pode estar na colecção B, e vice-versa. Então, considera-se que a probabilidade atribuída ao resultado “A ou B” é a soma das probabilidades atribuídas a A e a B. Deste modo, se não podemos ser simultaneamente alentejanos e beirões, a probabilidade de sermos de uma das regiões é a soma da probabilidade de sermos alentejanos com a de sermos beirões.
Em circunstâncias comuns, estamos familiarizados com a situação em que o número de resultados básicos possíveis é finito: o dado com seis faces, a roleta com trinta e sete casas, e assim por diante. No entanto, o matemático e, como veremos, o físico, têm de lidar com casos em que o número de resultados básicos é infinito. Por exemplo, um resultado básico pode ser uma partícula pontual ter qualquer uma de um número infinito de posições possíveis numa caixa. Pressupõe-se, geralmente, uma generalização do postulado da aditividade, conhecida por “aditividade contável”. Este pressuposto é natural, mas tem algumas consequências peculiares. Uma das consequências é a de que a probabilidade 0 já não é atribuída apenas ao conjunto vazio em que não ocorre nenhuma consequência básica, passando também a ser atribuída a conjuntos não vazios. Por exemplo, se o jogo em que estamos envolvidos consistir em escolher um número que esteja entre todos os números reais entre 0 e 1, a aditividade contável implica que a probabilidade de obter um número racional, isto é, que pode ser representado como uma fracção de dois números inteiros, é 0. No entanto, existe obviamente um número infinito desses números racionais na colecção. A ideia é a de que existem “muitos mais” números reais não fraccionários do que fracções. Assim, nestes contextos um acontecimento impossível tem uma probabilidade 0, mas nem todos os acontecimentos com probabilidade 0 são impossibilidades. E ter probabilidade 1 não significa que um acontecimento tenha necessariamente de ocorrer.
Uma noção importante na teoria da probabilidade é a de probabilidade condicional. Suponhamos que sabemos que saiu um 7 no lançamento de dois dados. Qual é a probabilidade, dado esse resultado, de num dos dados ter saído o 1? Bem, o 7 pode sair de seis maneiras, e só em dois dos casos é que num dos dados sai o 1. Por isso, a probabilidade é 1/3. A frequência prevista de um tipo de resultado B, dada a ocorrência de um tipo de resultado A, é aproximadamente a probabilidade de B sob a condição de A, ou a probabilidade condicional de B dado A. Se a probabilidade de B, dado A, for apenas a probabilidade incondicional de B (e se a probabilidade de A, dado B, for apenas a probabilidade de A), diz-se que A e B são probabilisticamente independentes entre si. Considera-se habitualmente que dois lançamentos sucessivos de uma moeda são independentes neste sentido. A probabilidade de sair caras no segundo lançamento continua a ser 1/2: o resultado do primeiro lançamento é irrelevante para esta probabilidade. No entanto, ser alentejano e ser do sul do país não são, certamente, independentes. A probabilidade de uma pessoa ser alentejana dado ser do sul do país é certamente mais elevada que a probabilidade de essa pessoa ser alentejana dada apenas o facto de ser portuguesa.
Pode demonstrar-se a partir dos postulados básicos de teoria de probabilidades um grupo importante de teoremas conhecidos por “leis dos grandes números”. Será que, num número reduzido de lançamentos de uma moeda, é de esperar que saiam caras metade das vezes? Se o número de lançamentos for ímpar, isso não pode acontecer. Mesmo que o número de lançamentos seja par, é de esperar que o resultado real divirja da proporção exacta de 1/2, dada qualquer sequência de lançamentos. No entanto, à medida que o número de lançamentos se tornar muito elevado, é de esperar uma espécie de convergência da frequência das caras observadas em relação à probabilidade postulada de 1/2. O que as leis dos grandes números nos dizem é que a probabilidade de uma tal convergência (em vários sentidos de convergência, que pode ter diferentes forças) aproxima-se de 1 (a “certeza probabilística”) à medida que o número de lançamentos tende para o infinito. Isto verifica-se se os ensaios forem probabilisticamente independentes entre si. Deste modo, embora certamente não possamos demonstrar que, em qualquer sequência de ensaios que tendam para o infinito, a frequência irá convergir para a probabilidade, podemos demonstrar, dada a independência dos ensaios, que um tal resultado é uma certeza probabilística.
Interpretações objectivistas da probabilidade
Uma coisa é termos um conjunto de axiomas formais da probabilidade (eles exibem algumas variações, mas não levantam problemas de compreensão); outra coisa muito diferente é concordarmos sobre o que é a probabilidade. De que estamos a falar quando falamos de probabilidades? Dada a conexão íntima entre frequências de resultados no mundo e atribuições de probabilidade, não seria mais simples identificar probabilidades com frequências relativas e efectivas de ocorrências? Para acomodar os casos em que o número de resultados básicos não é finito mas infinito, poderíamos querer generalizar e falar de proporções efectivas em vez de falar de frequências efectivas, mas a ideia básica seria a mesma. No entanto, esta perspectiva simples enfrenta a conhecida objecção de que não é de esperar que, em qualquer classe efectiva de experiências, as frequências ou proporções efectivas sejam as probabilidades exactas. É de esperar uma espécie de “centralização” dos resultados efectivos nos valores da probabilidade, mas não a sua identidade.
Para obviar a isto, sugere-se frequentemente que devíamos identificar as probabilidades com as frequências ou proporções relevantes “a longo prazo”, isto é, à medida que o número de ensaios tende para o infinito. Um dos problemas desta perspectiva é que, como é óbvio, o número efectivo de ensaios é sempre finito. O que é esta peculiar e idealizada “sequência de ensaios que tendem para infinito” na qual se deverão determinar as frequências? Será, supostamente, algo efectivo ou, antes, uma espécie de idealização? E se é esta última, o que aconteceu à perspectiva original das probabilidades como frequências ou proporções efectivas? Outra dificuldade com esta perspectiva é que, mesmo a longo prazo, a conexão entre probabilidades e frequências é meramente probabilística. As leis dos grandes números só são válidas quando os ensaios são independentes entre si — e isso é uma noção probabilística. Pior ainda, a identidade entre frequência e probabilidade, mesmo a longo prazo, só é assegurada “com probabilidade 1” e, como fizemos notar, isso não significa que numa qualquer sequência infinita e efectiva de ensaios os limites da frequência e probabilidade relativas tenha de ser idêntico.
Sugere-se muitas vezes uma conexão menos precisa entre probabilidades e frequências ou proporções efectivas. Tome-se “probabilidade” como um termo não definido e as probabilidades como uma característica primitiva atribuída a sistemas físicos. De que característica se trata é algo fixado pelo papel desempenhado pela probabilidade na nossa maneira de prever, controlar e explicar acontecimentos. Temos, por exemplo, regras “ascendentes”, que nos dizem como inferir probabilidades atribuídas a partir de frequências e proporções observadas, e regras “descendentes”, que nos dizem, dada a atribuição de uma probabilidade a um fenómeno, com que tipos de frequências e proporções podemos contar em ensaios finitos. Assim, em vez de identificar a probabilidade com uma proporção ou frequência efectivas, talvez devamos pensar que tais frequências e proporções efectivas só especificam em que consiste a probabilidade dada a sua conexão a outras probabilidades por meio destas regras de inferência ascendentes e descendentes, regras que conectam frequências e proporções efectivas com probabilidades atribuídas.
Há a sugestão, entre outras, de olhar para todo o esquema de atribuições estatísticas e legiformes que conferimos ao mundo. Temos uma ampla e profunda estrutura hierárquica de generalizações — algumas legiformes e sem excepções, algumas de carácter estatístico e que usam atribuições de probabilidade. Todas estas generalizações são sobre a ordem das conexões entre os fenómenos do mundo. Talvez devamos conceber as probabilidades como essas atribuições idealizadas de frequência e proporção que surgem nos postulados que desempenham um papel fundamental nesta estrutura de generalizações. Seria então um erro conceber a probabilidade como frequência num sentido ingénuo; a probabilidade é uma espécie de proporção simples idealizada encarada como algo que representa a estrutura geral do mundo ao nível das generalizações fundamentais. Pode propor-se vários esquemas diferentes para tentar tornar esta noção de “proporção idealizada” um pouco menos vaga.
O objectivo de todas estas interpretações é atribuir probabilidades a um resultado de uma classe de ensaios, quer seja a frequência ou proporção desse resultado, quer seja uma projecção ou idealização disso. Outra interpretação objectivista da probabilidade olha, antes, para o processo pelo qual as frequências exigidas seriam geradas. A probabilidade, de acordo com esta perspectiva, é uma característica do objecto, ou do processo que envolve um objecto, em função da qual um resultado pode ser produzido ou não. Tal como uma janela pode ser frágil apesar de não estar partida, o lançamento de uma moeda, nesta perspectiva, tem uma disposição ou tendência para exibir caras ou coroas, ainda que esta tendência não se efective em certos casos. Descrever como 1/2 a probabilidade de sair caras no lançamento de uma moeda é atribuir ao equipamento de lançamento ou à situação uma “propensão” para gerar caras metade das vezes, caso se tente fazer um número elevado de lançamentos. Assim, a probabilidade, segundo esta perspectiva, é o atributo de um único lançamento — a sua magnitude disposicional para originar um resultado de um género especificado.
Como veremos posteriormente neste capítulo e no seguinte, determinar o grau de probabilidade inerente a um acontecimento único, ao invés de ser apenas uma medida de uma classe de resultados com respeito a uma classe de acontecimentos, irá envolver mais do que questões puramente filosóficas. Quero dizer com isto que envolve questões como a de saber se a perspectiva disposicional pressupõe uma base de apoio frequencista e se essa perspectiva pode resolver as dificuldades que encontramos nas outras perspectivas. Irão levantar-se também questões de física, pois a questão de saber se as proporções que observamos no mundo são, num sentido insusceptível de ser reduzido, inerentes a acontecimentos únicos está intimamente relacionada com a questão de saber se há, em todos os acontecimentos, condições suficientes que determinem completamente que só um dos resultados possíveis irá efectivamente ocorrer. Será que pode haver casos em que subsista uma multiplicidade de resultados, ainda que se especifiquem todas as condições (conhecidas, desconhecidas ou mesmo insusceptíveis de serem conhecidas) que regulam o acontecimento? Esta é uma questão importante na mecânica quântica, como veremos, na qual a questão dos parâmetros determinantes “ocultos” é importante.
Há uma outra área de problemas que tem de ser explorada por qualquer pessoa que deseje compreender a probabilidade como uma característica objectiva do mundo. Trata-se do problema da aleatoriedade. Suponha que uma sequência de lançamentos de moedas tem o seguinte aspecto: Cara, Coroa, Cara, Coroa, Cara, Coroa,…, etc. Deveremos dizer que numa tal sequência a probabilidade de sair caras num dado lançamento é 1/2? Esta é, afinal, a frequência limitadora na qual ocorre caras. No entanto, a ordem da sequência — uma ordem que nos permite dizer se irá surgir cara ou coroa no próximo lançamento, dado o resultado do nosso último lançamento — faz muita gente afirmar que seria enganador pensar que a probabilidade de sair caras num dado lançamento é de 1/2. Para que possamos realmente atribuir probabilidades, não deveríamos atribuir a caras a probabilidade 1 nos lançamentos ímpares e a probabilidade 0 nos lançamentos pares? A probabilidade só é igual à frequência relativa limitadora, afirmam os defensores desta perspectiva, numa sequência aleatória. Mas o que é exactamente uma sequência aleatória?
O estudo da aleatoriedade, do ponto de vista objectivista, conduziu a resultados interessantes, ainda que não completamente conclusivos. Especialistas como von Mises e Church tentaram definir a aleatoriedade como uma propriedade que existe quando as frequências de resultados de uma sequência são iguais a qualquer subsequência derivada da sequência original por qualquer processo “mecânico”. Assim, a sequência anterior não é aleatória, pois a subsequência de lançamentos ímpares pode ser mecanicamente seleccionada por um computador automático apropriadamente programado. E a frequência de caras nessa sequência é 1 e não 1/2. Pode dar-se exactidão matemática ao conceito de uma sequência susceptível de ser mecanicamente seleccionada. No entanto, há sequências que são aleatórias neste sentido mas que não são, intuitivamente, aleatórias, no sentido em que pode adoptar-se, com respeito a elas, estratégias de jogo “desleais”.
Uma proposta diferente para explicar a aleatoriedade objectiva apoia-se na intuição de que “quase todas” as sequências deveriam ser aleatórias. Na colecção de todas as sequências, as sequências ordenadas deveriam ser esparsas, uma noção que podemos tornar formal exigindo que uma sequência seja aleatória “com probabilidade 1”. Procuramos assim definições de não aleatoriedade que seleccionem, a partir de todas as sequências, uma colecção cuja probabilidade seja 0. O problema básico com as definições que resultam quando seguimos esta intuição é que elas perdem a conexão íntima com a noção intuitiva de aleatoriedade com que começámos. Uma outra definição de aleatoriedade concebe um processo efectivo “universal” para testar a não aleatoriedade e declara uma sequência como aleatória se passar este teste.
Uma quarta alternativa adopta uma estratégia altamente intuitiva. Considere-se um computador programado para gerar como dados de saída a sequência de resultados experimentais que efectivamente ocorrem. Que tamanho terá de ter o mais pequeno programa que consiga fazê-lo? É óbvio que há um programa que irá sempre funcionar: a instrução diz apenas “Imprimir…”, em que “…” é a sequência em questão. Mas as sequências “não aleatórias” têm, intuitivamente, programas mais curtos. Por exemplo, a sequência Cara, Coroa, Cara, Coroa,… pode ser dada simplesmente como “Imprimir Cara e Coroa alternativamente”. Assim, uma sequência será tanto menos aleatória quanto mais pequeno puder ser o programa que lhe dá origem. Pode tornar-se tudo isto formalmente respeitável. Mas o resultado não é exactamente o que o objectivista queria porque, afinal, uma definição satisfatória parece pressupor, uma vez mais, que a sequência seja previamente compreendida como algo gerado por um processo probabilístico. Isto torna difícil usar a noção de aleatoriedade objectiva, definida deste modo, para servir, juntamente com a noção de frequência de limitação relativa, como um meio para dizer o que é afinal a probabilidade.


Interpretações subjectivistas da probabilidade

Uma compreensão da natureza da probabilidade radicalmente diferente de todas as perspectivas objectivistas que vimos até agora concentra-se não no que está no mundo, mas antes no que está em nós. Usamos a probabilidade como um guia da acção face ao risco, apostando num dado resultado só se acharmos que as hipóteses de ganhar são suficientemente elevadas para ultrapassar as nossas dúvidas sobre se o resultado irá efectivamente ocorrer. Assim, talvez devamos conceber a probabilidade como uma medida do nosso grau de confiança na ocorrência de um resultado, uma medida da “crença parcial” da nossa parte, se quisermos.
Suponha-se que as probabilidades são valores da crença parcial, no sentido em que são indicadoras das hipóteses mínimas de ganhar perante as quais apostaremos num resultado. Nesse caso, por que motivo deverão as nossas probabilidades obedecer às leis normais da teoria de probabilidades? Que devem obedecer a estas leis é um resultado bastante trivial do ponto de vista frequencista, mas o subjectivista tem necessidade de um argumento que o justifique. Foram concebidos alguns argumentos para mostrar que só se as nossas probabilidades obedecerem às regras normais é que seremos imunes à possibilidade de ficarmos numa situação em que um corretor de apostas nos oferece hipóteses que aceitamos, apesar de estas garantirem perdas da nossa parte, aconteça o que acontecer. Outra abordagem tenta mostrar que se as nossas preferências, reveladas pela nossa escolha de um bilhete em vez de outro, entre “bilhetes de lotaria” (ganhamos A se x ocorrer e B se xnão ocorrer) forem racionais (no sentido em que se preferirmos o bilhete 1 em relação ao 2 e o 2 ao 3, preferiremos o 1 ao 3), será sempre possível representar as nossas crenças parciais nos resultados de modo a que elas obedeçam aos axiomas normais da probabilidade.
Logo, para o objectivista, as probabilidades são características do mundo à espera de serem descobertas; para o “subjectivista”, são graus de crença parcial do agente que guiam as suas crenças e acções num mundo incerto. Mas que probabilidades deverá o agente racional atribuir aos acontecimentos? Os argumentos que acabamos de esboçar foram concebidos para mostrar que sejam quais forem as probabilidades que se escolham, terão de satisfazer, conjuntamente, os axiomas normais da probabilidade. Mas haverá mais alguma restrição à racionalidade probabilística?
Foi concebido um conjunto de argumentos para descrever e justificar um processo de modificar as nossas probabilidades subjectivas à luz de nova informação. Um teorema fundamental da teoria de probabilidades, o teorema de Bayes, relaciona a probabilidade de uma hipótese com base na informação (uma probabilidade condicional) com a probabilidade condicional da informação, dada a verdade da hipótese e a probabilidade inicial de que a hipótese seja verdadeira. Suponha que pensamos que, depois de obtida a informação, devemos adoptar, para estabelecer a nossa nova probabilidade relativa à verdade da hipótese, a sua velha probabilidade, condicionada à informação. Temos então um modo de mudar as nossas probabilidades à luz de nova informação — modo esse que é “conservador” e que faz as mais pequenas mudanças imagináveis nas nossas probabilidades antecedentes. E as novas probabilidades, tal como as velhas, irão coadunar-se aos axiomas da teoria de probabilidades. Este processo de modificação da probabilidade à luz da informação é conhecido por “condicionalização”. Pode ser generalizado de modo a abranger casos em que não se conhece com grau de certeza a nova informação, sendo-lhe unicamente atribuída uma probabilidade. Uma pessoa que siga esse processo poderia, por exemplo, começar com o pressuposto de que uma moeda, que poderia estar viciada, tem uma probabilidade 1/2 de sair caras. À medida que se fazem novos lançamentos, o agente modificará então essa probabilidade à luz dos resultados observados. Uma sequência dominada por caras, por exemplo, levará o agente a aumentar a sua estimativa da probabilidade que a moeda tem de dar origem a caras. Uma vez mais, podemos argumentar a favor da ideia de que a modificação das nossas probabilidades pelo processo de condicionalização é o que há de racional a fazer. Alguns destes argumentos são como os argumentos usados para tentar convencer-nos de que era racional que as nossas probabilidades se coadunassem com os axiomas habituais.
Fiz notar que, ao obter novas probabilidades para certas hipóteses à luz da informação, nos apoiamos nas probabilidades iniciais no que respeita à verdade das hipóteses em causa. Não teremos, por isso, de começar com uma plausibilidade “intrínseca” relativa às hipóteses, as suas chamadas “probabilidades a priori”? Qual poderá ser a sua origem? Alguns especialistas defenderam que só devíamos aceitar hipóteses probabilísticas no nosso corpo de crenças aceites com base em frequências observadas, encaradas como informação. Alega-se mais frequentemente que podemos gerar probabilidades intrínsecas para as hipóteses sem nos apoiarmos nas frequências observadas. Na verdade, essas probabilidades a priori foram o objecto de estudo dos mais antigos trabalhos sobre teoria das probabilidades, nos séculos XVII e XVIII. Se lançarmos uma moeda, há dois resultados “simétricos” possíveis: caras e coroas. Mas, então, não será que parece razoável presumir inicialmente que a probabilidade de cada uma delas é 1/2? Se lançarmos um dado, há seis faces simétricas. Não deveremos, então, na ausência de indícios a favor da ideia de que os dados estão viciados, atribuir uma probabilidade de 1/6 a cada resultado em que uma face específica fica voltada para cima? Assim, podemos tentar chegar a probabilidades a priori dividindo os resultados em casos simétricos e atribuindo a cada um a mesma probabilidade. Este é o famoso princípio da indiferença.
Os filósofos posteriores formalizaram estas noções e fizeram generalizações com base nelas. Se escolhermos uma linguagem para descrever o mundo, podemos encontrar vários meios de ordenar as possibilidades do mundo, tal como esta linguagem o descreve, em possibilidades simétricas. A probabilidade inicial é então distribuída sobre as possibilidades de modo intuitivo e simétrico. Uma vez obtidas as nossas probabilidades “racionais” a priori, podemos modificá-las face à informação experimental (especialmente face à informação sobre frequências efectivas e observadas de resultados), usando o processo de condicionalização anteriormente descrito. Os métodos inventados pareceram a alguns especialistas uma generalização da teoria formal da dedução porque contemplavam a definição de um tipo de “implicação lógica parcial” entre proposições, isto é, de uma noção de apoio lógico gradual entre proposições. Por isso, os sistemas formais receberam o nome de “lógicas indutivas”.
Tomou-se consciência há muito tempo que estas técnicas enfrentam dificuldades quando submetemos o princípio da indiferença à análise e à crítica. Todas estas técnicas se baseiam na divisão dos resultados possíveis em casos simétricos. Mas a justificação racional por detrás de tal divisão nem sempre é clara. Sim, podemos dizer que num dado pode sair um 1, um 2, etc., num total de seis casos. Mas podemos também dizer que num dado pode sair um 1 ou não, perfazendo assim dois casos. Por que motivo não dar então o valor 1/2 à probabilidade de “sair um 1”? Noutros casos, a necessidade de ter um princípio para escolher como ser “indiferente” torna-se mais clara. Imagine-se um vaso feito de tal modo que, quando cheio, o seu volume não seja proporcional à área molhada da superfície do seu interior (o que é fácil de fazer se o vaso tiver lados curvos). Se nada soubermos sobre quão cheio está o vaso, deveremos nós supor, usando o princípio da indiferença, que está meio cheio? Ou deveremos supor, com idêntica justificação, que metade do seu interior está molhado? As duas suposições são incompatíveis entre si, mas ambas parecem estar igualmente justificadas, a priori, por considerações de pura simetria.
Mais adiante, neste capítulo, iremos explorar o modo como a probabilidade é utilizada na mecânica estatística, a primeira área da física na qual a probabilidade desempenhou um papel fundamental. Veremos que, quando tentamos compreender exactamente de que modo deveria a probabilidade entrar na física, as disputas entre os filósofos, com respeito à natureza da probabilidade e acerca da origem e justificação das atribuições de probabilidades iniciais, são cruciais. Como veremos, várias descobertas físicas não só lançam luz sobre as questões filosóficas, como revelam questões adicionais que complicam ainda mais a situação do problema filosófico.


Explicação estatística: explicação, lei e causa

Não desejamos apenas descrever o mundo tal como o encontramos, mas também explicar o que nele acontece. Temos a sensação que explicar é responder à questão de saber por que razão acontece aquilo que acontece, e não apenas descrever o que de facto acontece. Mas o que é responder a um “Porquê?”? E o que é proporcionar uma explicação para um fenómeno?
A noção intuitiva de causa tem desempenhado um certo papel nas tentativas de analisar a noção de explicação científica desde que o problema de oferecer tal análise ocorreu pela primeira vez a um filósofo. Explicar um acontecimento é indicar a sua causa, e explicar uma classe de acontecimentos é indicar o tipo de causa que os produz.
Numa das primeiras análises da causalidade, Aristóteles distinguiu quatro tipos diferentes de causas: a matéria em que a mudança ocorre, a natureza da mudança, o fim ou propósito da mudança e o gerador imediato da mudança. Chamou-lhes causas materiais, formais, finais e eficientes. Hoje concebe-se a matéria e as propriedades envolvidas não como causas de um processo, mas como constituintes da mudança a ser explicada. A questão das causas finais — fins ou propósitos — ainda suscita muita discussão. Na actividade intencional de um agente, talvez na biologia (sob a forma de explicações funcionais de um órgão, por exemplo) e nas ciências sociais, algo parecido com a ideia aristotélica segundo a qual indicar um fim ou propósito tem poder explicativo parece ainda atraente. Mesmo na física não é claro que não haja absolutamente qualquer lugar para as “causas finais”. Alega-se por vezes que a explicação do percurso da luz em termos do que demora o menos tempo possível tem uma natureza finalista. E na termodinâmica (apresentada mais à frente neste capítulo) tem-se defendido que explicar um processo concebendo o avanço de um sistema para um estado de equilíbrio como um “objectivo” é dar uma explicação que usa a noção de “causa final”.
Mas quando um cientista contemporâneo pensa em causas, pensa habitualmente em causas eficientes, ou seja, nos acontecimentos que “dão origem” à ocorrência do acontecimento a ser explicado. Mas o que é explicar um acontecimento demonstrando a sua causa eficiente? A ideia intuitiva parece ser a de que se explica um acontecimento quando se descobre um acontecimento anterior que “torne necessária” a ocorrência do outro. Ligar um interruptor causa o acender da luz, empurrar um objecto causa a sua aceleração e assim por diante. Mas qual é a natureza desta “necessitação” ou “produção”, que torna apropriado descrever a causa como algo que produz o efeito ou acontecimento explicado?
Num exame crítico merecidamente famoso sobre a noção de causalidade, David Hume defendeu que seria errado conceber as relações causais como algo que se baseasse num “nexo causal” ou “conexão necessária” especial entre acontecimentos. Hume defendeu antes que o que encontramos no mundo quando olhamos para acontecimentos relacionados causalmente é, antes de tudo, uma relação espácio-temporal entre esses acontecimentos, pela qual eles estão num contacto espácio-temporal em que o acontecimento da causa precede no tempo o acontecimento do efeito. Também descobrimos que os acontecimentos constantemente conjugados estão contidos numa classe de pares de acontecimentos do mesmo tipo. Isto é, o acontecimento 1 causa o acontecimento 2 se, e só se, 1 e 2 têm a relação espácio-temporal apropriada, e se, e só se, aos acontecimentos do tipo 1 se seguem sempre acontecimentos do tipo 2 e se os do tipo 2 são sempre precedidos pelos do tipo 1. Segundo Hume, embora pensemos que podemos explicar esta “conjunção constante” de tipos de acontecimentos ao dizer que os acontecimentos do tipo 1 “causam” os do tipo 2, na verdade, ao falar de causalidade, estamos apenas a redescrever essa conjunção constante.
Para Hume isto não é assim tão simples, pois ele pergunta onde obtemos a ideia de que o acontecimento da causa “torna necessário” o acontecimento do efeito. Quanto a isto, Hume entende que a necessitação não é um reflexo de uma relação real entre os acontecimentos do mundo, mas uma projecção no mundo de um fenómeno psicológico. Ao vermos que os acontecimentos do tipo 1 estão sempre acompanhados pelos do tipo 2, ficamos acostumados a ver os acontecimentos do primeiro tipo ser sempre seguidos por acontecimentos do segundo tipo. Por isso, quando temos a experiência de um acontecimento do primeiro tipo, a nossa mente salta imediatamente para a expectativa da ocorrência de um acontecimento do segundo tipo. É esta expectativa, fundada no “costume ou hábito”, que constitui a origem da nossa noção de que o primeiro tipo de acontecimento torna necessário o segundo tipo. No entanto, defende Hume, isto é uma questão psicológica. Tudo o que há no mundo dos próprios acontecimentos são as relações espácio-temporais de “contiguidade e precedência” e a conjunção constante dos acontecimentos dos tipos em questão.
Um modelo de explicação científica, conhecido por “modelo nomológico-dedutivo”, está estreitamente associado a esta análise humiana da causalidade (embora possamos aderir a ele sem sermos humianos). Neste modelo defende-se que explicar um acontecimento é mostrar que uma asserção sobre a ocorrência do acontecimento em questão pode ser logicamente deduzida a partir de asserções sobre a ocorrência de outros acontecimentos, geralmente anteriores, se, além da descrição desses acontecimentos explicativos, usarmos asserções de “leis da natureza” que conectem esses dois tipos de acontecimentos. Para um humiano, estas leis são apenas asserções gerais sobre conjunções constantes dos tipos relevantes de acontecimentos.
Os defensores deste modelo de explicação científica chamam a nossa atenção para a estreita conexão existente entre as explicações, tal como eles as concebem, e os objectivos de previsão e controlo partilhados pela maior parte dos agentes humanos. Se formos capazes de explicar acontecimentos de um certo tipo, disporemos de generalizações legiformes que conectam os acontecimentos de um tipo com outros tipos de acontecimentos usados na explicação. Assim, se soubermos que tipos de acontecimentos “causais” ocorreram noutras circunstâncias, podemos prever que acontecimentos irão ocorrer usando as generalizações que descobrimos na procura de explicações nomológico-dedutivas. Ou, manipulando a ocorrência do tipo apropriado de acontecimentos “causais”, podemos controlar o mundo, determinando que tipos de acontecimentos manipuláveis irão dar origem a (ou impedir a ocorrência de) acontecimentos do tipo que desejamos que ocorra. Uma vez mais, as conexões entre os tipos apropriados de acontecimentos revelam-se nas asserções gerais legiformes descobertas na procura de explicações.
Como veremos, há quem critique o modelo de deduzir uma descrição de um acontecimento a partir de descrições de outros acontecimentos e de asserções gerais de leis dizendo que este exige demasiado de uma explicação. Outros especialistas dizem que ele exige menos do que devia. Uma vez mais, há aqui um problema importante que se relaciona com a noção de causalidade. Defende-se que, se os acontecimentos explicativos não tiverem o tipo apropriado de relação causal com o acontecimento explicado, as conexões entre as suas descrições não constituirão explicações, mesmo que as condições do modelo dedutivo de explicação sejam satisfeitas. Podemos derivar a posição que um planeta ocupava ontem a partir das leis da dinâmica e da sua posição e velocidade de hoje, mas, diz-se, isso não explica por que razão o planeta estava ontem nessa posição — pois o passado explica o futuro e não o contrário. E afirma-se que isto é assim porque a direcção da causalidade é do passado para o futuro. Defende-se assim que explicar é revelar causas. Além disso, dois acontecimentos dados podem estar correlacionados de uma maneira legiforme por serem o efeito comum de um terceiro acontecimento que seja a sua causa comum. Deste modo, os dois acontecimentos não se explicam mutuamente, embora ambos se expliquem pela causa comum. Se uma infecção bacteriana produzir uma borbulha e um inchaço, não se diz que a borbulha explica o inchaço nem que o inchaço explica a borbulha; ao invés, ambos se explicam pela sua causa: a infecção bacteriana. Mas qual será o elemento causal adicional necessário para a explicação que vá além da conjunção constante?


Explicações que invocam probabilidades

Muitos dos especialistas que pensam que o modelo dedutivo de explicação é demasiado exigente referem-se às explicações históricas. Aí parecemos aceitar respostas explicativas em que não se usam quaisquer generalizações legiformes. Afinal, quais são as leis que regem acontecimentos históricos? Para nós, têm mais interesse as explicações em que os acontecimentos estão conectados através de generalizações, mas em que as generalizações não são leis da natureza sem excepção, mas conexões probabilísticas ou estatísticas entre acontecimentos. Fumar nem sempre causa cancro do pulmão, mas certamente aumenta a sua probabilidade. Não teremos, então, oferecido pelo menos uma explicação parcial para o facto de a pessoa ter um cancro num pulmão se indicarmos que essa pessoa fuma muito, mesmo que fumar não produza necessariamente tal doença? Que tipo de relação probabilística entre o acontecimento explicativo e o acontecimento explicado será suficiente para se dizer que o primeiro explica o segundo?
Um pensamento que ocorre naturalmente em primeiro lugar é o de que se explica um acontecimento se pudermos encontrar outros acontecimentos tais que a ocorrência do acontecimento em questão se siga da ocorrência dos acontecimentos explicativos com uma elevada probabilidade. O “segue-se de” é mediado pela existência de generalizações estatísticas legiformes que tomam o lugar das leis que não admitem excepções usadas nas explicações nomológico-dedutivas. Constatamos imediatamente que tal “explicação estatística” de um acontecimento é bastante diferente de uma explicação em que se usem leis puras. No caso dedutivo, por exemplo, se podemos explicar o acontecimento 1 e explicar o acontecimento 2, podemos produzir, automaticamente, uma explicação para “o acontecimento 1 ocorreu e o acontecimento 2 ocorreu” conjugando simplesmente os recursos explicativos usados para explicar cada acontecimento individual. Mas se o acontecimento 1 se segue de uma base explicativa com uma “elevada probabilidade” — isto é, com uma probabilidade superior a um certo valor especificado — e se o acontecimento 2 se segue da sua base explicativa com uma probabilidade igualmente elevada, não há garantia de que “o acontecimento 1 e o acontecimento 2” se sigam conjuntamente das bases explicativas conjugadas com uma probabilidade acima do valor mínimo.
Além disso, se um acontecimento tiver uma probabilidade elevada relativamente à sua base explicativa, poderá ter uma probabilidade reduzida relativamente a essa base complementada com mais informação. Embora se possa considerar altamente provável que uma pessoa que tenha crescido num ambiente muito mau tenha tendências criminosas, quando se acrescenta que essa pessoa é filha de uma família saudável, e assim por diante, reduzimos essa probabilidade na nossa estimativa. Isto não pode acontecer com os acontecimentos explicados por meio de explicações nomológico-dedutivas.
Não é preciso muito para pensar em casos em que achamos que se pode dar uma explicação probabilística para um acontecimento mesmo que ele não tenha uma probabilidade elevada relativamente àquilo que se apresenta como explicação. Quando algo entra em combustão espontânea, explica-se isso dizendo que por vezes, embora raramente, esse fenómeno ocorre na situação relevante. Como poderemos ter explicado um acontecimento através de factos relativamente aos quais ele tem uma probabilidade reduzida? Fazendo notar que sem os factos explicativos o acontecimento em questão teria uma probabilidade ainda mais reduzida. Assim, podemos explicar por que razão acontece algo referindo factos que tornam esse acontecimento mais provável do que o seria noutro caso, mesmo que depois da adição dos factos explicativos a sua probabilidade continue a ser reduzida.
Constata-se depois que há muitos casos em que explicamos um acontecimento por meio de outro acontecimento, mesmo que, dada a nova informação, reduzamos a probabilidade do acontecimento relativamente ao nosso conhecimento de fundo. Um médico explica a morte de um paciente, sobre o qual se sabia que sofria de uma doença grave, ao indicar que nesse caso particular foi um efeito secundário muito improvável de um medicamento que matou o paciente e não a doença. A causa da morte pode ser o medicamento, mesmo que seja muito mais provável que a morte tivesse resultado da doença, tratada ou não, e não de um efeito secundário do medicamento.
Podemos combinar estas observações com outras, semelhantes às apresentadas pelos que discutem as explicações nomológico¬ dedutivas defendendo que o elemento causal está ausente da teoria da explicação segundo a qual explicar é subsumir numa asserção geral. O que obtemos é uma teoria que afirma que explicar, tanto em termos probabilísticos como em termos de leis sem excepção, é indicar a origem causal de um acontecimento. Mas considera-se agora a causalidade como uma relação que admite uma conexão probabilística. A ideia aqui em jogo é a de que um acontecimento pode causar diversos resultados diferentes, tendo cada um desses resultados uma probabilidade especificada de ser causado. Embora uma causa possa resultar numa multiplicidade de efeitos, é ainda uma relação causal que produz o acontecimento do efeito a partir do acontecimento da causa. Ao ver as coisas desta maneira, poderemos fazer justiça aos casos acima indicados. Também seremos capazes de distinguir as correlações que, por não serem causais, não são explicativas, das correlações explicativas que, mesmo que sejam probabilísticas, são genuinamente causais.
Mas surgem agora outras questões interessantes. Será que seremos forçados a defender que no mundo há relações causais irredutivelmente probabilísticas, se dermos uma explicação probabilística causal? Será que temos de afirmar que, na sua base, o mundo tem uma natureza genuinamente “tiquista” ou aleatória, não sendo regido por relações causais inteiramente deterministas? Não necessariamente. Há quem tenha defendido que poderão existir explicações probabilísticas causais que expliquem um acontecimento como o resultado “puramente aleatório” (embora causal) de certos acontecimentos antecedentes que tenham disposições causais para gerar resultados do tipo a explicar. Noutros casos, a explicação probabilística, revelando uma vez mais uma estrutura causal, pode ser explicativa, em virtude de a relação probabilística causal estar fundada em certas relações causais subjacentes inteiramente deterministas. Veremos parte da defesa deste ponto de vista ainda neste capítulo. Neste segundo tipo de explicação, o estado posterior de um sistema está inteiramente determinado pelo seu estado dinâmico anterior. Mas defende-se que muitos estados dinâmicos iniciais possíveis são consistentes com a descrição inicial do sistema. Cada um desses estados iniciais tem um resultado futuro diferente. Cada evolução é inteiramente determinista. Neste caso, a probabilidade entra na explicação quando começamos a falar da “probabilidade de um certo estado dinâmico inicial” consistente com a descrição inicial do sistema. Assim, teremos elementos probabilísticos na nossa estrutura explicativa. A estrutura explicativa repousará numa base que consiste em revelar os processos causais subjacentes que geram os acontecimentos a explicar. Mas a probabilidade surgirá não por a relação causal ser “intrinsecamente aleatória”, mas porque se estão a explorar muitas das possíveis evoluções causais diferentes. Mais tarde, quando discutirmos a mecânica quântica, no capítulo 4, veremos por que motivo tem alguma plausibilidade a tese de que nesse contexto se deve postular uma causalidade genuinamente “aleatória”.
Sendo assim, desta perspectiva as exigências de elevada probabilidade ou de um aumento de probabilidade parecem erradas. Quando explicamos um acontecimento em termos probabilísticos, estamos a tentar colocar esse acontecimento numa estrutura de relações causais, onde a estrutura revelada é probabilística ou por as relações causais serem intrinsecamente indeterministas ou por se estar a considerar simultaneamente diversas evoluções causais alternativas. Mesmo que o acontecimento em questão tenha, na cadeia causal que conduz a ele, uma probabilidade baixa ou reduzida, poderemos explicá-lo. Obviamente, isto não significa negar que reduzir a surpresa mostrando que um acontecimento é altamente provável, ou mostrando que é mais provável do que teríamos de outro modo sido levados a esperar, não tem qualquer valor. Fazemos estas coisas e pensamos que, de alguma maneira, elas nos oferecem explicações.
Será que toda esta importância atribuída à revelação de relações causais nas explicações significa que estamos a virar as costas a uma teoria humiana sobre o que é uma coisa ser a causa de outra? Não necessariamente. Há quem defenda que, como as explicações exigem referência a relações causais entre acontecimentos, temos de pressupor a noção de relação causal como um elemento primitivo na nossa compreensão da natureza do mundo. Outros especialistas procuram compreender a relação de causalidade por meio de outras relações que os acontecimentos mantenham entre si. Numa certa abordagem, que encontramos já nalgumas passagens de Hume, tenta-se compreender a causalidade por meio daquilo que “aconteceria” no mundo se as coisas fossem diferentes daquilo que são. Assim, pode-se conceber uma causa como o acontecimento que, se não tivesse ocorrido, também não teria ocorrido o acontecimento do efeito. Na verdade isto não é assim tão simples. Fenómenos como a sobredeterminação (um efeito é causado por múltiplas causas) e a perempção (algo é causado por um acontecimento que, se não tivesse ocorrido, permitiria que um outro acontecimento desse origem ao efeito, numa situação em que o primeiro acontecimento impeça o segundo de ocorrer) exigem uma análise mais sofisticada da relação entre “o que teria ocorrido se” e aquilo em que consiste um acontecimento causar outro. A existência de conexões não causais também associadas àquilo “que teria acontecido” dá origem a mais problemas. Além disso, queremos ter alguma compreensão sobre o que queremos exactamente dizer quando falamos de coisas como o que teria acontecido se as coisas tivessem sido diferentes — compreensão essa que não dependa de se pressupor uma relação causal previamente compreendida.
Outras tentativas de analisar a causalidade baseiam-se numa combinação da conjunção constante de Hume com outros elementos efectivos do mundo. Sublinha-se com frequência, por exemplo, que a estrutura do mundo só nos faz identificar uma conjunção constante como uma relação causal se os acontecimentos em questão estiverem ligados por meio de percursos apropriadamente contínuos de acontecimentos constantemente conjugados. Assim, tem de haver percursos de “influência causal” ou “propagação causal”.
Por fim, é muito importante reflectir sobre o facto de as regularidades inteiramente legiformes ou meramente probabilísticas que usamos nas explicações científicas formarem uma hierarquia unificada de proposições numa estrutura teórica. Algumas dessas generalizações são mais amplas, profundas e fundamentais que outras. Pode-se defender que a diferença entre meras correlações e correlações causais apropriadas às explicações está no facto de as segundas integrarem a correlação dos acontecimentos em questão nos níveis de correlação mais profundos das teorias mais fundamentais. Assim, defende-se que a referência ao facto de termos causalidade — e, logo, explicação — apenas quando o mecanismo de correlação dos acontecimentos estiver claramente estabelecido pode ser tomada não como uma indicação de que, além das correlações, temos de apresentar uma relação causal misteriosa, mas como uma indicação de que uma correlação só é explicativa quando integra a relação dos acontecimentos em questão nas correlações fundamentais da teoria básica apropriada. Não será que isto esclarece o debate entre aqueles que pensam que as correlações conhecidas entre fumar e desenvolver o cancro são suficientes para defender que fumar causa o cancro e aqueles que o negam? Não estarão os segundos a exigir a causalidade explicativa no sentido de algo que integra a correlação entre fumar e ter a doença num enquadramento muito mais amplo e profundo? A biologia, a química e a física são usadas para complementar a correlação manifesta com correlações muito mais subtis que estão presentes nas leis muito mais profundas da ciência. Estas ciências dão-nos pormenores como as correlações entre a inalação de diversos químicos, a correlação entre a presença dos químicos e as mudanças genéticas — sendo estas minuciosamente seguidas em termos das mais profundas correlações da totalidade da física, que mostram o que se passa ao nível molecular. Assim, desta perspectiva, a exigência de causalidade nas explicações está garantida, mas não com fundamentos basicamente humianos.
Este último aspecto do papel da causalidade nas explicações é especialmente relevante para os nossos propósitos. À medida que formos entrando nos pormenores do papel da probabilidade na teoria da mecânica estatística, veremos que aí a termodinâmica — uma teoria de “nível superficial” sobre o comportamento macroscópico — se relaciona em termos explicativos com uma teoria dinâmica de “nível profundo”. Esta teoria de nível profundo é a teoria do comportamento dos sistemas fundados nas leis básicas da dinâmica das componentes microscópicas do sistema macroscópico (tal como as moléculas de um gás). As considerações probabilísticas surgem quando tentamos integrar os dois níveis de descrição, usando a teoria de nível profundo para explicar a teoria de superfície. Assim, pressupõe-se que podemos apresentar uma explicação causal da evolução do sistema, através da dinâmica dos seus constituintes microscópicos. Esse é o nível de descrição científica amplo, profundo e fundamental já mencionado. A probabilidade desempenha o seu papel ao integrar a descrição do sistema formulada nos termos de nível superior a toda esta imagem causal. Como veremos, a relação de correlação e de causalidade introduz aqui enigmas especiais.


Explicação e redução

A nossa discussão tem avançado como se os acontecimentos individuais fossem os objectos primários da compreensão científica, isto é, como se desejássemos explicar acontecimentos específicos. No entanto, na ciência é mais frequente tentar compreender generalizações, leis ou correlações probabilísticas. Como poderemos aumentar a compreensão de generalizações legiformes? Como poderemos explicá-las?
A ideia principal é a de que as generalizações legiformes, sejam inteiramente legiformes ou estatísticas, se explicam ao serem colocadas sob generalizações mais amplas, profundas e fundamentais. As leis formam uma hierarquia que vai de generalizações de superfície limitadas (como a lei da refracção de Snell, na óptica, ou a lei de Ohm, na electricidade) às leis extremamente gerais e profundas das teorias físicas fundamentais. Explicamos leis de ordem inferior ao mostrar que elas se seguem de leis de ordem superior. As leis de ordem inferior podem aplicar-se só em certas circunstâncias específicas que podem ser bem definidas (isto é, quando a situação possui as condições específicas apropriadas). Explicamos a óptica geométrica ao mostrar que ela se segue da óptica física (ondulatória), explicamos a óptica física exibindo-a como uma consequência da teoria electromagnética, explicamos o electromagnetismo mostrando que é uma componente do campo electrofraco descrito pela teoria quântica dos campos, e assim por diante.
Geralmente, a ideia é a de que se explicam as leis mais superficiais ao derivá-las a partir de leis de um tipo mais geral e fundamental. Mas na verdade as coisas são muito mais complicadas. Afirma-se com frequência que, ao explicar as leis mais superficiais, se descobre geralmente que elas não são realmente verdadeiras. Em muitos casos são apenas boas aproximações à verdade, e mesmo isso só em certas circunstâncias. Assim, mal se compreende a teoria ondulatória da luz, compreende-se que a óptica geométrica só se aplica quando o comprimento de onda da luz for pequeno por comparação com as dimensões dos objectos físicos que estiverem no percurso da luz. Neste caso, não é fácil tornar rigorosa a noção de aproximação à verdade.
Quando as leis e as generalizações estatísticas menos profundas que se pretende explicar se apresentam com conceitos diferentes dos usados nos princípios explicativos mais profundos, surgem questões mais problemáticas. Isto acontecerá sempre que uma teoria menos profunda for reduzida a uma teoria mais profunda, pois isso exige que se faça uma conexão entre os conceitos das duas teorias, que por vezes são bastante diferentes. Enquanto a biologia fala de organismos e células, por exemplo, a química molecular fala de coisas como moléculas ou graus de concentração. Como estarão as células, por exemplo, relacionadas com os seus constituintes microscópicos? Aqui a resposta parece clara, já que as células são feitas de moléculas, mas é preciso tornar isto inteiramente claro.
No caso com que vamos lidar neste capítulo, esta conexão interteórica é muito mais problemática. A reduzida teoria que vou descrever, a termodinâmica, lida com características do mundo como a temperatura, a quantidade de calor e a entropia. No entanto, a teoria explicativa — a redutora — lida com sistemas em termos da sua construção a partir de constituintes microscópicos, como as moléculas. Embora os objectos macroscópicos sejam feitos de componentes microscópicos, é uma tarefa complexa e subtil conseguir relacionar as propriedades dos sistemas usados para os caracterizar ao nível que se pretende explicar (temperatura e entropia, por exemplo) com as propriedades dos sistemas (o seu número de constituintes microscópicos e o espaço a que estes estão limitados, por exemplo) e com as propriedades dos próprios constituintes microscópicos (a sua quantidade de movimento e a sua energia, massa e dimensão, por exemplo).
Isto torna-se ainda mais difícil devido à curiosa interacção que ocorre no esquema explicativo entre as leis que não admitem excepções e as generalizações estatísticas. Inicialmente, as leis a explicar pareciam ter o estatuto de leis que não admitiam excepções, mas o próprio acto de as explicar torna este pressuposto duvidoso. Ao nível explicativo mais profundo situam-se as leis fundamentais da dinâmica dos constituintes microscópicos. Uma vez mais, tais leis não admitem excepções, embora na versão da mecânica estatística — que faz da dinâmica quântica a teoria dinâmica fundamental —contenham um elemento fundamentalmente estatístico, como veremos no capítulo 4. O que é importante fazer notar agora é que entre as leis dinâmicas fundamentais dos microconstituintes e as leis explicadas da teoria a ser reduzida, encontramos generalizações que introduzem elementos estatísticos ou probabilísticos na imagem explicativa. Por isso, como veremos, defende-se com frequência que a dinâmica fundamental explica o comportamento térmico ao nível macroscópico apenas ao apresentá-lo como o comportamento esmagadoramente mais provável ou, noutros casos, como o comportamento médio previsto.
Quando tentamos compreender a mecânica estatística, as questões mais interessantes e importantes surgem precisamente neste ponto. Como será que se relacionam as generalizações estatísticas que formam os postulados centrais da teoria, por um lado, com as leis dinâmicas fundamentais que regem os constituintes microscópicos do sistema em questão e, por outro lado, com as leis que regem o comportamento macroscópico dos sistemas, tal como estes são caracterizados pelos conceitos da física térmica tradicional? A explicação do comportamento ao nível macroscópico deve ser apresentada em termos que o entendam como uma consequência de o sistema maior ser constituído por partes microscópicas e em termos das leis fundamentais que regem a dinâmica dessas partes. Que tipo de explicação será esta? Como veremos, trata-se de um esquema explicativo que introduz, ao nível intermédio, noções fundamentalmente probabilísticas e estatísticas.
Mas o que fundamentará a introdução destes postulados e pressupostos probabilísticos adicionais? Poder-se-á derivá-los da própria dinâmica fundamental? Ou serão precisos postulados fundamentais adicionais para os introduzir na física? Esta questão é muito difícil e complexa. E é muito importante, porque a resposta determinará que tipo de explicação a física proporciona para os fenómenos macroscópicos. Embora existam casos em que se pode dizer que se explicou uma generalização de nível inferior com base numa teoria mais fundamental, por meio de uma derivação da primeira a partir da segunda — incluindo-se, possivelmente, algumas noções de aproximação —, no caso da mecânica estatística há outros elementos importantes que têm um papel a desempenhar na derivação, elementos esses que são bastante diferentes dos elementos habituais dos modelos filosóficos canónicos da explicação estatística de generalizações.
Lawrence Sklar in Philosophy of Physics