Mensagem do Grupo de Discussão Ciência Cognitiva

Participe deste grupo através da página http://br.groups.yahoo.com/group/cienciacognitiva


Alguém parece que perguntou qual a significação do teorema da
incompletude de Gödel para a cognição humana. Não há significação
alguma, mesmo que Roger Penrose discorde. Gödel provou seu
teorema para sistemas formais axiomáticos, ou seja, sistemas
que funcionam por regras dedutivas (demonstrativas) a partir
de axiomas fundamentais. Não há correspondência entre o que
Gödel diz e o que ocorre na cognição humana. Ou seja, se há
limitações do conhecimento humano, essas limitações não decorrem
de Gödel (mas de outras coisas, e aí entra um pouco de filosofia
da ciência). Penrose é um matemático brilhante, mas é um confuso
filósofo que vem sendo sistematicamente criticado pela grande
maioria dos pensadores.

Até mais,
Sergio Navega.

From: André Luzardo <luzardo@uol.com.br>
>
>Muito importante a sua explicação do teorema, portanto. No entanto, apesar
>de ainda não ter lido os livros do Penrose, já li muito sobre a sua teoria e
>também a considero muito excitante. É por isso que não sei se posso
>concordar com você, Sérgio. É óbvio que Penrose dá passos muito grandes
>quando considera os microtúbulos do esqueleto celular como sendo a sede de
>processamentos quânticos no cérebro e atribui a isso a justificativa pela
>nossa compreensão matemática. Mas a interpretação que ele deu pro teorema de
>gödel é muito difícil de ser negada.
>

From: Roberto Imbuzeiro Moraes Felinto de Oliveira <rimfo@uol.com.br>
>
>O Roger Penrose acha que o raciocínio humano é "superior" em algum sentido a
>lógica formal-dedutiva, mas esse é justamente o ponto fraco do seu trabalho:
>não é claro porque ele diz que o raciocínio humano é capaz de mais do que o
>raciocínio lógico-dedutivo, até porque não é evidente qual é o termo de
>comparação. Afinal, lógica parte de axiomas e o raciocínio humano parte de
>(ATENÇÃO: estou começando a falar do que não sei mesmo!) experiências
>sensorias e "realidades empíricas". Como comparar coisas tão distintas? Será
>que elas são comparáveis? Não tenho resposta a estas perguntas.
>

Roberto e André,

Em relação à significação de Gödel no universo matemático, Roberto fez
um ótimo apanhado que consolida bem as idéias importantes. A questão que
parece aberta é a significação cognitiva disso. É essa a conclusão de
Penrose, de que por causa da indecidibilidade de alguma forma a mente
humana suplanta o mero processador de informações baseado em máquinas
de Turing. Há vários problemas com as idéias de Penrose, vou tocar
apenas nas que acho mais fortes.

a) A mente é mais do que aparece disponível por introspecção
Penrose pode achar o que quiser, por introspecção ele só vai estar
observando a casca do ovo, a gema e a clara são inacessíveis aos
nossos processos conscientes. Grande parte de nosso processo perceptivo
é determinado pelo que ocorre nesses níveis inferiores e isto
frequentemente nos ilude. Foi assim que a IA tradicional decidiu
modelar o raciocínio humano através de representações lógicas
(lógica de primeira ordem, redes semânticas, etc). Tudo isso é o
que nós percebemos da casca, mas está longe de representar o real
processo interior, onde critérios de similaridade e ativações em
sequência são muito mais importantes. A neurociência cognitiva
é uma das disciplinas que pode ajudar a desvendar esse mundo
subterrâneo.

b) Matemática é paralela ao mundo natural
Não podemos usar a matemática como comprovação de teorias sobre o
mundo natural. Podemos no máximo ser inspirados pelas inferências
matemáticas para nos *sugerir* o que devemos *checar* no mundo
natural. Em ciência, o que vale é a experimentação. Einstein poderia
ter sido falsificado se lá pelos idos de 1930 não tivesse havido
uma determinação experimental da curvatura dos raios de luz
provenientes de uma estrela ao passar perto do campo gravitacional
do sol. Aquilo foi uma previsão teórica de Einstein que foi
fundamentada na prática. Isto ocorre frequentemente, mas em alguns
casos uma previsão teórica não é confirmada na prática. Neste
caso, não dá para nós "alterarmos o mundo" para coincidir com nossas
previsões matemáticas, o que fazemos é alterar nossos formalismos
para representar o mundo.

Penrose está justamente tentando o ridículo de concluir algo sobre
o mundo natural a partir de uma impossibilidade matemática.

Até mais,
Sergio Navega.

-----Original Message-----
From: JOHN CONSTANTINE <jconstan@sercomtel.com.br>
>
>Olá Sérgio e lista.
>
>Há um trecho de sua mensagem que gostaria de comentar.
>>
>
>>Penrose está justamente tentando o ridículo de concluir algo sobre
>>o mundo natural a partir de uma impossibilidade matemática.
>
>Também Godel não pretende o mesmo? Ou seja, afirmar que o homem não poderá
>jamais entender a si mesmo porque existe uma impossibilidade matemática de
>isto acontecer?
>
>Pelo que eu entendi desta discussão, é isto o que ele propõe.
>

Na verdade, não. Kurt Gödel foi um matemático e sua intenção foi
mostrar um sério problema da matemática sem se ater a qualquer
aspecto do mundo natural. Penrose, por outro lado, foi o que
pegou carona nisso para derivar sua teoria tola.

Na verdade, Gödel causou impacto porque ele colocou o dedo na
"ferida" que estava aberta há séculos e que teve seu momento
máximo com David Hilbert no começo do Sec. XX.

Hilbert tinha a intenção de criar formalismos que pudessem
colocar a matemática como a disciplina definitiva, a única capaz
de alcançar "verdades absolutas". Seu desejo era, de certa forma,
de recuperar os valores Platonistas de um mundo ideal e perfeito,
distante do mundo "real". Gödel foi um dos que demonstrou que
essa pretensão não é alcançável *nem mesmo no mundo matemático*.
Imagine no mundo real.

Essa também é a época de Bertrand Russell que, embora tenha se
dedicado a objetivos similares a Hilbert com seu Principia
Mathematica, foi também um dos que notaram dificuldades básicas
na teoria dos conjuntos (Russell's Paradox).

Mas a coisa não parou por aí. Mais recentemente (décadas 50/60)
Gregory Chaitin, Kolmogorov e Solomonov (os três de forma
relativamente independente) iniciaram um novo ramo da matemática
(Algorithmic Information Theory) que foi depois mais desenvolvido
por Chaitin para tornar-se mais uma pedra no sapato dos matemáticos:
há coisas em matemática que são "não-sabíveis" (unknowable). Chaitin
uniu brilhantemente as noções Godelianas com o que Turing havia
descoberto (principalmente o "problema da parada" das máquinas
de Turing) e daí obteve a AIT. Este tópico tem ramificações
interessantes para filosofia da ciência e inteligência artificial.

De posse disso, novamente temos que rever nossas noções de mundo
platônico e ideal: isto não ocorre nem mesmo na matemática, sendo
muito pior em relação ao mundo natural. A lição que os pesquisadores
de inteligência artificial devem tirar disso é a de rever todos
os métodos baseados em lógica. Estou agora mesmo escrevendo um
artigo no qual critico diretamente essa tentativa, que foi
dominante no início mas ainda é muito pesquisada por aí.

>A par disto, uma dúvida bastante séria surge. Até que ocorra a comprovação
>de uma teoria, o que fazer com eventuais resultados práticos obtidos a
>partir de outras teorias influenciadas pela primeira? Negá-los?
>

Pode ser que seja necessário negá-los, mas no mínimo terão que ser
revistos. Caso apareçam novas evidências que uma teoria não consiga
explicar, há duas alternativas para prosseguir. Você pode alterar
as teorias correntes para tentar abranger as novas evidências (isto
nem sempre é bom) ou então você deve dar privilégio para outra
corrente explanatória que consiga, de forma mais simples, explicar
as *antigas* e as novas evidências. Com isto quero dizer que não há,
em Ciência, nenhum "terreno sólido". Tudo está em constante verificação
e com o surgir de novos fatos temos que muitas vezes rever as posições
antigas. Algumas vezes esse processo é dramático e precisa de "troca
de gerações", como aconteceu com Einstein em relação à teoria quântica.

É este o principal detalhe que invalida a grande quantidade de teorias
místicas sobre mente humana que existem por aí. Elas se preocupam
em "explicar" algumas evidências novas e notórias mas deixam de
lado a tarefa (árdua!) de explicar as evidências antigas. A ciência
real é aquela que consegue sobreviver simultaneamente ao velho
e ao novo.

Até mais,
Sergio Navega

From: Rogério Guimarães Rodrigues <rogerio@ez-bh.com.br>
>
>Olá Sérgio, olá lista,
>
>Fiquei com uma dúvida em relação a esta mensagem, mais especificamente no que
>se refere ao vínculo de Hilbert com uma concepção de mundo platônica e o fato
>de ser sugerido que o trabalho de Godel "abre as portas" para um afastamento
>definitivo de um mundo platônico.
>
>São questões filosóficas que não que não sei se procedem e vou adicionar alguns
>comentários.
>
>Sergio Navega wrote:
>
>> Na verdade, não. Kurt Gödel foi um matemático e sua intenção foi
>> mostrar um sério problema da matemática sem se ater a qualquer
>> aspecto do mundo natural. Penrose, por outro lado, foi o que
>> pegou carona nisso para derivar sua teoria tola.
>>
>> Na verdade, Gödel causou impacto porque ele colocou o dedo na
>> "ferida" que estava aberta há séculos e que teve seu momento
>> máximo com David Hilbert no começo do Sec. XX.
>>
>> Hilbert tinha a intenção de criar formalismos que pudessem
>> colocar a matemática como a disciplina definitiva, a única capaz
>> de alcançar "verdades absolutas". Seu desejo era, de certa forma,
>> de recuperar os valores Platonistas de um mundo ideal e perfeito,
>> distante do mundo "real". Gödel foi um dos que demonstrou que
>> essa pretensão não é alcançável *nem mesmo no mundo matemático*.
>> Imagine no mundo real.
>>
>
>Pelo pouco que já pude ler a respeito, me parece que Hilbert seria realmente
>enquadrado na posição de um formalista, ou seja, acreditava que os paradoxos
>presentes na matemática poderiam ser solucionados não como queriam os
>logicistas (como Frege, Russell, Whitehead, etc) tentando reduzir a matemática
>à lógica via, por assim dizer, uma "assepsia lógica" revendo os axiomas, mas
>sim estabecendo um rigor no tratamento das questões matemáticas que delimitaria
>um método para se obter inferências legítimas. Ou seja, me parece que para
>Hilbert o problema principal não se centrava na necessidade de uma "revisão da
>lógica" mas sim em um maior rigor na forma do matemático "trabalhar" (e daí a
>proximidade com os traballhos de Turing, problema da parada, etc. Estava
>começando a surgir o conceito de algorítmo).
>
>Quanto ao ponto de Hilbert de certa forma tentar recuperar valores platônicos,
>me parece que o programa formalista de Hilbert tinha muito mais raízes
>kantianas e assim, filosoficamente, mais próximo de uma posição aristotélica de
>mundo, que rejeita a Teoria das Formas de Platão.
>

Rogério,

Talvez eu tenha deixado a impressão que Hilbert estava próximo dos
ideais Platonicos, mas não era isso que eu desejava. Era apenas uma
idéia relativa à "perfeição" e integridade (soundness) do raciocínio
matemático, como se este constituisse uma espécie de "realidade"
à parte, perfeita e sem "furos". É este o ponto que vi como semelhante
entre as duas noções e é este o ponto que Gödel e outros puderam
atacar. Embora os efeitos dessas descobertas não tenham sido muito
traumáticos nos matemáticos, acho que os filósofos foram os mais
atingidos, pois ficou-se sem um exemplo de "perfeição" para
demonstrar que existem mundos perfeitos. Acho que isto é importante
para que os cientistas naturais compreendam que o que fazemos
em ciência é modelar o mundo da melhor forma possível, sem termos
nenhuma esperança de atingir a "verdade suprema", possivelmente
porque não existe essa coisa.

>> Essa também é a época de Bertrand Russell que, embora tenha se
>> dedicado a objetivos similares a Hilbert com seu Principia
>> Mathematica, foi também um dos que notaram dificuldades básicas
>> na teoria dos conjuntos (Russell's Paradox).
>>
>
>Já Russell era um logicista, concepção filosófica da matemática que remete ao
>ideal de uma "Mathesis Universalis" de Leibnitz e a preocupação de sistematizar
>uma linguagem para fundamentar o raciocínio em todas as ciências. Esse ideal
>realmente me parece ter ido a baixo a partir de Godel (o que dá muito o que
>pensar).
>
>Embora os objetivos de logicistas, formalistas ou intuicionistas fosse o mesmo,
>ou seja, dar uma solução aos paradoxos que se apresentavam na matemática e
>antecediam mesmo a teria dos conjuntos, suas visões no que se refere à relação
>matemática-realidade eram diferentes filosoficamente.
>
>Talvez fosse mesmo interessante uma investigação da obra de Penrose no que se
>refere a sua matiz filosófica em termos do que ele crê ser a relação entre
>matemática e mundo. Seria uma pesquisa interessante. Eu particularmente,
>conheço muito superficialmente Penrose.
>

Você tem razão nesse ponto. Minha intenção era mostrar que é justificável
ter uma nova forma de encarar o mundo natural, dispensando a busca
a verdades universais. Isto tem reflexos em uma das polêmicas que
existem, sobre a real natureza do conhecimento. Há filósofos que
admitem que "conhecimento" é equivalente a ter crenças verdadeiras
e justificáveis (justified true belief). Este tipo de pensamento
está sendo atacado porque há situações em que isto ocorre e a
pessoa não tem, na verdade, conhecimento.

>>
>> Mas a coisa não parou por aí. Mais recentemente (décadas 50/60)
>> Gregory Chaitin, Kolmogorov e Solomonov (os três de forma
>> relativamente independente) iniciaram um novo ramo da matemática
>> (Algorithmic Information Theory) que foi depois mais desenvolvido
>> por Chaitin para tornar-se mais uma pedra no sapato dos matemáticos:
>> há coisas em matemática que são "não-sabíveis" (unknowable). Chaitin
>> uniu brilhantemente as noções Godelianas com o que Turing havia
>> descoberto (principalmente o "problema da parada" das máquinas
>> de Turing) e daí obteve a AIT. Este tópico tem ramificações
>> interessantes para filosofia da ciência e inteligência artificial.
>
>Esse ponto para mim é novidade. Nunca li nada a respeito. Realmente parece
>interessante :o)
>

Chaitin é um dos teóricos do momento que tem feito um grande barulho
com este assunto, embora ainda não tenha sido totalmente apreciado.
Se quiser saber mais sobre ele, dê uma chegada em sua homepage:

http://www.umcs.maine.edu/~chaitin/

A grande maioria dos livros dele estão disponíveis para download
(minha impressora está pedindo socorro!). Recentemente ele disponibilizou
um seminário de 30 minutos em formato digital (o arquivo tem
mais de 120 mb e dá para ser reproduzido com o media player). Nesse
seminário ele explica de maneira informal um pouco desse histórico
que conversamos. Para pegar esse monstro recomendo conectar-se a
um iG da vida em um domingo e deixar os bits rolarem. Vale a pena
ver e ouvir Chaitin. A qualidade do vídeo é razoável.

Há outro aspecto que Chaitin não trata nesse seminário que é a ligação
do AIT (Algorithmic Information Theory) com a filosofia da ciência.
É mais ou menos assim.

Desde Ockham (a famosa navalha de Occam), uma heurística comumente
empregada é a de escolher a explicação mais simples que consiga
atender a todas as evidências apresentadas. Privilegia-se a teoria
mais simples por princípio, sem nada para justificar porque fazemos
isso. Mas com a chegada do AIT, ganhou-se uma formulação teórica
para tentar embasar Occam. AIT é uma teoria que tenta medir
conteúdo informacional não pelas formas tradicionais (a mais comum
é a teoria de Shannon, que tem a ver com uma interpretação
estatística de dados/informação que vem desde a termodinâmica
de Boltzman e conceitos de entropia). AIT diz que a complexidade
efetiva de um conjunto de dados pode ser medida através do tamanho
do menor programa (de computador) capaz de gerar essa sequência (por
isso a ligação com Turing).

Assim, a sequência:

0101010101010101010101010101010101010101...

seria bem pouco complexa, pois um programa "curtinho" gera essa
string com facilidade. Entretanto, a sequência seguinte:

011000101011000101011000101011000101011000101011000101....

já seria um pouco mais complexa, pois o programa para gerá-la é
maior. Parece à primeira vista que quanto mais aleatória é a
sequência, mais complexa seria sua descrição em AIT. Mas isto
não é verdade! O surpreendente é que o número PI:

3.1415926535.....

é muito POUCO complexo, pois o programa para gerá-lo é pequeno
e então sua complexidade pela AIT é baixa. Note que os dígitos
após a vírgula de PI parecem ser bastante aleatórios. Mesmo
assim, ele é um número pouco complexo. Chaitin descobriu um
tipo de número (os omega) que são altamente complexos segundo
a AIT. Em um de seus livros Chaitin chega a apresentar código
em LISP para demonstrar suas idéias.

O interessante vem de versões mais práticas dessa história toda,
e aqui o trabalho de Rissanen é valioso: ele criou o MDL, Minimum
Description Length, uma estratégia para realizar a descrição de
modelos através de uma descrição minimizada dos dados privilegiando
os modelos mais simples (menores). Isto lembra muito Occam! Há
toda uma sub-disciplina da Inteligência Artificial que se dedica
a criar modelos indutivos para gerar essas sequências MDL. Há
inclusive justificações biológicas para que essa estratégia
seja importante. Em suma, são coisas que valem a pena serem
acompanhadas.

Até mais,
Sergio Navega.

Há uma chuva de outras mensagens interessantes e eu
lamento não ter tempo de comentar outros assuntos.
Só me vi em situação de tecer algumas palavras sobre
a ótima mensagem do Roberto Imbuzeiro:

-----Original Message-----
From: Roberto Imbuzeiro Moraes Felinto de Oliveira <rimfo@uol.com.br>
To: Lista de Ciência Cognitiva <cogscience@listbot.com>
Date: Terça-feira, 4 de Julho de 2000 18:29
Subject: [cogscience] A ciência converge?

>Ciência Cognitiva - http://sites.uol.com.br/luzardo
>
>A ciência converge? A prática e a evolução científicas conduzem para um
>conhecimento unificado?
>
>Este é um aspecto implícito em muitas das discussões atuais desta lista,
>explícito em tantas outras, e que é objeto de discussão e debate ao longo
>dos tempos.
>
>O filósofo Karl Popper tinha uma idéia tentadora a este respeito. O seu
>argumento chave pode ser resumido da seguinte forma: não se pode provar
>empiricamente uma tese através de experiências que dão certo, mas pode-se
>refutá-la através de uma experiência que tenha dado errado. Ou seja, vamos
>dizer que eu tenha acabado de formular a seguinte tese: "todos os cavalos
>são brancos". Enquanto eu vir apenas cavalos brancos, eu poderei dizer que a
>minha tese não foi refutada - vejam bem, eu NUNCA poderei dizer que ela é
>verdadeira. Se algum dia eu vir um cavalo preto ou marrom, terei que
>abandonar a minha tese e formular outra.
>
>A chave deste raciocínio é clara. Na natureza, não há garantias de que um
>dado fenômeno vá se repetir sempre só porque se repetiu até agora. Por
>exemplo, mesmo o sol tendo nascido até hoje, eu posso garantir que ele
>nascerá amanhã? Qualquer tentativa de responder "sim" a esta pergunta que eu
>conheça passa por argumentos implicita ou explicitamente metafísicos ("É
>claro, o mundo É assim!"), por tentativas mal-embasadas de afirmações
>"probabilísticas" ("É muito provável que sim."), por justificativas
>pragmáticas ou simplesmente ignoram a pergunta ("Ih, o cara, aí..."). Por
>outro lado, as coisas que não aconteceram uma única vez não podem acontecer
>sempre!

Popper sempre foi instigante para mim e suas idéias representam uma
contribuição significativa para o pensamento científico. Em outras
palavras, gosto de Popper. Mas acho que ele é muito radical quando
despreza totalmente os mecanismos indutivos de nosso pensamento.
Acho que ele está errado nesse ponto. De meu lado, encontro
diversas indicações na neurociência computacional para suportar
a idéia de que indução é natural (e necessária) em nossa mente.

Mas no parágrafo específico que você escreveu, há outra forma de
"justificar" a indução acerca do nascimento do sol: é uma idéia
*coerente* com os modelos causais que temos do universo. Essa
coerência é um "peso" que damos às coisas que tem sido seguidamente
verificadas como verdadeiras. É uma idéia indutiva? É sim. Pode
ser falaciosa? Pode sim.

Mas não há como fazer progressos a não ser que usemos isso. Popper
deveria reconhecer o valor disso (too bad he's dead). Obviamente,
isto não serve para garantir a "verdade" de nada, deixamos isso
a cargo de evidências falsificadoras. Mas é extremamente
necessário usar a coerência de modelos causais (que é outra forma
de dizer que se respeita modelos probabilísticos da indução) como
primeira forma de avaliar idéias.

>[snip]
>Quais são algumas das possíveis críticas a esta posição? A primeira: está-se
>supondo que existe uma VERDADE empírica (ou seja, que nunca será refutada
>por uma experiência), que pode ser representada por uma única VERDADE
>teórica (uma teoria correspondente a experiência empírica). Para a
>existência de uma verdade empírica pode-se formular justificativas de
>diversas ordens, e as
>melhores são as pragmáticas (que me perdoem os metafisicos). Já para a
>verdade teórica tudo se complica, pois alguem poderia dizer que duas
>verdades teóricas poderiam ser indistinguíveis do ponto de vista matemático
>(ou seja, por algum resultado de incompletude à la Gödel não se poderia
>garantir que elas são iguais ou diferentes).
>
>Deixai-me notar que um argumento como a "impossibilidade da matemática em
>representar a poesia de Manoel de Barros" me parece pouco adequado, até
>porque muitas coisas que (acreditava-se) a Matemática não poderia
>representar (o vôo de um pássaro, os rodamoinhos de um rio) são hoje
>descritíveis desta forma, ou nesta "linguagem". Falar de impossibilidades da
>Matemática é falar de "falhas" da Matemática DE HOJE, não de limitações da
>Matemática strictu sensu. Vale lembrar que mesmo o Princípio da Incerteza de
>Heisenberg tem uma formulação matemática clara e precisa.
>

Aqui gostaria de fazer uma observação. Sei que você vai defender
a Matemática como podendo representar (hoje ou quem sabe no futuro)
tudo o que pode ocorrer na natureza. Acho que há alguns problemas
potenciais. A Matemática de hoje pode realmente representar os
redemoinhos de um córrego ou o vôo de diversos pássaros em conjunto.
Mas ela não pode representar o que ocorre EM UM redemoinho específico,
nem em UM grupo de pássaros em especial. Há uma diferença muito
sutil entre essas duas idéias.

O que a Matemática faz é representar um *modelo* de uma ocorrência
como essa (esse modelo envolve "elementos" que tem discriminação
cognitiva do pesquisador e itens avaliados por instrumentação de
medição, que são problemáticos em vários aspectos).

Se esse modelo for "rodado" em um computador, o resultado será
obviamente bastante similar à realidade. Pertencerá certamente à
categoria de redemoinhos. Será cognitivamente convincente!

Mas não a UMA realidade em especial. Mesmo se fosse possível saber
a posição e velocidade de cada molécula de água em um redemoinho
específico, não há modelo matemático que possa, no computador,
reproduzir exatamente o que ocorre na realidade. Após poucos
segundos (de um super-hiper computador do futuro) haveria um
gradativo distanciamento entre os dois eventos (o simulado no
computador e o real). Isto é, na verdade, uma falha de nosso
conhecimento científico sobre a real aparência dos fenômenos da
natureza (ou seja, nosso modelo matemático). E isto está ligado
ao problema do determinismo (ou não) do universo lá fora. Fico
mais à vontade hoje em supor que o universo é não deterministico,
em vez de dizer que minhas teorias ainda não "chegaram lá". Em
suma, vamos sempre lidar com modelos do "mundo real", modelos
que fazemos baseados em nossas noções cognitivas (inspeção
sensória) e o que é determinado por instrumentação (suscetível
de interferência no que é observado).

Até mais,
Sergio Navega.

From: Rogério Guimarães Rodrigues <rogerio@ez-bh.com.br>
>
>Olá a todos,
>
>Infelizmente desde a recente ressurreição dos debates nesta lista só tenho
>encontrado tempo ultimamente ler as mensagem de forma um tanto superfícial sem
>assim me sentir a vontade de participar do debate. Segue, então, uma pequena
>contribuição secundária que talvez possa enriquecer as reflexões.
>
>Sergio Navega wrote:
>
>> Popper sempre foi instigante para mim e suas idéias representam uma
>> contribuição significativa para o pensamento científico. Em outras
>> palavras, gosto de Popper. Mas acho que ele é muito radical quando
>> despreza totalmente os mecanismos indutivos de nosso pensamento.
>> Acho que ele está errado nesse ponto. De meu lado, encontro
>> diversas indicações na neurociência computacional para suportar
>> a idéia de que indução é natural (e necessária) em nossa mente.
>
>A dificuldade de Popper com a indução tem raízes na filosofia de David Hume,
>filósofo empirista que tirou Kant do sonho metafísico (nas palavras do próprio
>Kant) e que colocou à bancarrota toda a racionalidade do século XVIII (segundo
>Russell).
>
>Em essência o problema levantado por Hume é uma crítica ao que ele chamou de
>"Princípio de Regularidade da Natureza", ou seja, o fato de eventos similares
>ocorridos no passado terem a tendência de permanecer no futuro (uma afirmação do
>tipo: pelo fato do sol ter nascido nos últimos anos, ele vai nascer amanhã,
>depois de amanhã, no ano que vem, etc). Para Hume a experiência não nos permite
>supor o "Princípio de Regularidade da Natureza" e assim, Hume acaba mesmo por
>rejeitar a inferência causal (o ato de se elaborar conjunturas futuras a partir
>de referências passadas) e toma esta como um ato irracional; para Hume a crença
>no "Princípio de Regularidade da Natureza" e mesmo a inferência causal que
>pressupõe este princípio não passam de "hábitos" (talvez instintos).
>

Rogério,
Ótimos seus comentários.

David Hume foi realmente um dos maiores pensadores de todos os tempos,
e é ainda hoje, séculos após sua morte, uma importante referência.
No entanto, sempre foi estranho para mim notar que Hume era um
empiricista e um opositor da indução ao mesmo tempo. Não digo que
devamos levar a indução como pedra de salvação, mas tampouco devemos
descartá-la só porque ela não é uma inferência válida (demonstrativa).
Devemos aceitar que indução não é demonstrativa, mas isto não é
suficiente para negar sua eventual aplicabilidade.

>O pensamento de Hume pode ser assim sistematizado:
>
>1) todo raciocínio é indutivo; (lembre que Hume é um empirista!)
>2) o raciocínio indutivo é logicamente inválido;
>3) um raciocínio inválido é logo irracional;
>4) o raciocínio indutivo não é razoável.
>
>Popper vai chamar isso de o "Problema da Indução" (como pode a indução ser
>justificada racionalmente?) e, insatisfeito com a solução elaborada por Kant ao
>problema levantado por Hume se coloca a seguinte questão: Como podemos aprender
>racionalmente com a experiência? Na tentativa de dar uma resposta Popper
>concorda parcialmente com Hume aceitando as proposições 2, 3 e 4 acima, mas
>descarta a proposição 1.

Se Hume pode ser criticado pelos itens 1-4, imagine Popper por deixar de
fora o 1). A questão é fazer do item 1) um pouco menos radical. Não são
todos, mas há muito pensamento indutivo (Sherlock Holmes, na maioria
das vezes, está fazendo indução, e não dedução como fica dito em
suas estórias).

Mas o fator fundamental que tanto Hume (por ter vivido há muito tempo)
quanto Popper (este de forma injustificada) parecem esquecer é da forma
de interpretar indução a partir de preceitos probabilísticos. Uma
inferência indutiva pode não ser logicamente válida, mas sua constatação
*modifica* a visão probabilística que temos da sua conclusão. Essa
modificação (como é proposta por alguns como Reichenbach) faz da
indução um método que, quando aplicada em sequência, tem garantidamente
a propriedade de se aproximar progressivamente da "verdade", se
existir uma verdade a ser alcançada. Bem, eu tenho algumas dúvidas
quanto a isso, mas é inegável que a interpretação probabilística
(em especial o que é conhecido como Bayesianismo) tem grande
influência hoje em dia.

>
>Assim, para Popper, nós não estamos justificados em raciocinar de instâncias das
>quais nós temos tido experiência para a verdade, mas estamos justificados em
>raciocinar de contra-instâncias das quais temos tido experiência para a
>falsidade de leis correspondentes. Essa é a essência da contribuição de Popper à
>ciência e daí também a idéia de "corroboração", ou seja, uma teoria é válida na
>medida em que vai a teste e não é falseada.
>

E em relação a isso, tenho total concordância com o que Popper prega. Só
acho que ele comete um erro grave ao achar que sem indução podemos nos
"virar". Não é possível. E isto ocorre simplesmente porque sem indução
só nos resta dedução. Dedução é o tipo de inferência que precisa de
*premissas* para providenciar conclusões. De onde vem as premissas?
De onde vem as proposições que temos que testar com o
falsificacionismo?

As premissas tem que vir de hipóteses e as hipóteses só podem vir
por via indutiva, que é o único processo que pode gerar conhecimento
epistemicamente novo. Dedução não gera novo conhecimento, só propaga
implicações que já se tinha previamente. São as induções que propõe
novidades, e são estas novidades que precisam ser verificadas (como
os Positivistas Lógicos querem) ou falsificadas (como os Popperianos
querem) a partir de evidências da natureza.

Por isso, concordo com Popper quando ele fala da importância do
falsificacionismo, mas discordo quando ele rejeita a indução.

>Popper então, para resguardar a racionalidade científica é levado à
>impossibilidade do raciocínio indutivo e, então, à valorização do raciocínio
>dedutivo. Para ele a racionalidade não está em crer, mas em falsear a crença. A
>experiência serve para corrigir nossas suposições e portanto daí surge o
>falsificacionismo popperiano.
>

Concordo totalmente com sua interpretação de Popper. É essa idéia
que considero radical por parte dele, pois não há em sua filosofia
epistemológica algo que cumpra o papel de gerador de hipóteses. Para
Popper, as hipóteses (aquelas que tem que ser falsificadas) simplesmente
"aparecem" na mente do cientista. Isto é varrer uma grande parte do
problema para debaixo do tapete: a origem das hipóteses.

Ora, elas tem que vir de nossas expectativas anteriores, elas precisam
provir de nossos modelos causais que já desenvolvemos no passado.
Na verdade, só podemos *avaliar* evidências novas se temos algum
parâmetro de comparação. Qual o parâmetro usamos? Nossas expectativas, é
claro!

Nossas expectativas (ou seja, nossas predições) são coisas que nos
foram ditas por nossa memória causal do mundo, ou seja, por nossas
experiências passadas (e suas interpretações, modelos, etc).

Se nossas previsões são verdadeiras ou não, isto já é outra questão
(aí entra o falsificacionismo). Portanto, o verdadeiro método
científico, em minha visão, precisa sim usar o falsificacionismo
de Popper, mas também precisa usar o raciocínio indutivo para
sugerir o que testar.

>
>Rogério.
>
>p.s. vi uma vez uma proposta de doutorado que tentava trabalhar com a filosofia
>de David Hume e com o conexionismo; não sei no entanto se chegou a ser aprovada.
>Outro ponto é que devemos lembrar que o trabalho de Popper se deu no campo de
>Lógica da Pesquisa Científica.
>

O conexionismo é essencialmente baseado na idéia de indução. As redes
neurais fazem basicamente aproximações indutivas relativas às
amostras que são fornecidas (quando o processo é supervisionado) ou
na descoberta de padrões nos dados (quando o processo é não supervisionado).

Mas seu comentário sobre Popper foi bem lembrado, pois ocasionalmente
esquecemos que Popper não tinha intenção de formular uma "teoria da
mente", mas sim uma *prescrição* para o método científico. A discussão
de Popper prossegue ainda hoje talvez porque haja muitos pensando que
a metodologia descritiva indica outros caminhos, diferentes do que a
prescritiva diz. Como a ciência é feita na prática pela estratégia
descritiva (por definição), dá para afirmar que a briga dessas correntes
ainda vai longe.

Abraços,
Sergio Navega.


Seminários Digitais Intelliwise

Seminários Sobre Inteligência, Criatividade, Ciência Cognitiva
Assista a esses seminários via Internet, sem sair de casa!

Clique Aqui Para Saber Mais!

Volta ao Menu de Mensagens

Seminários Sobre Inteligência

Homepage de Sergio Navega

Comentários?  snavega@attglobal.net