Mensagem do Grupo de Discussão Ciência Cognitiva

Participe deste grupo através da página http://br.groups.yahoo.com/group/cienciacognitiva


-----Original Message-----
From: marcusmaia@ax.apc.org.br <marcusmaia@ax.apc.org.br>
To: cienciacognitiva@yahoogrupos.com.br
<cienciacognitiva@yahoogrupos.com.br>
Date: Terça-feira, 14 de Agosto de 2001 15:15
Subject: [cienciacognitiva] inteligência x consciência

> Ola, todos,
> Esse é um tema, de fato, muito interessante, acho mesmo que estamos
> chegando em um momento em que se avizinha um salto paradigmatico, quer
> em favor do modelo simbólico, quer em favor do paradigma de redes, ou
> talvez, o mais interessante, ao meu ver: integrar processos paralelos
> ao paradigma simbólico, sem explodir a modularidade da mente e do
> cérebro. Gostaria de conhecer os pros e contras que o Sérgio tem em
> relação aos dois tipos de modelos. Conheço mais de perto a
> argumentação referente à linguagem.
> Abraço,
> Marcus

Olá Prof. Marcus e lista,

Concordo que estamos nos aproximando de um momento importante
para a CogSci e para a inteligência artificial. Após décadas
de lutas entre as duas facções (simbolistas e conexionistas)
começamos a observar propostas que tentam reconciliar algumas
das características de uma com as da outra. Há várias propostas
e algumas delas considero frágeis (como certos modelos híbridos,
que tentam simplesmente extrair regras de redes neurais), mas
existe um "pano de fundo" teórico que está gradativamente se
solidificando.

Os métodos simbólicos são os tradicionalmente mais atacados.
Na verdade, tudo realmente começou a tomar forma com a
hipótese de Simon e Newell (por volta da década de 70), a
base do processamento puramente simbólico: eles diziam que
a essência da inteligência é o processamento de símbolos
por um sistema físico. Daí veio a célebre proposta PSSH: um
sistema físico simbólico tem condições necessárias e
suficientes para comportamento inteligente. Isto, na verdade,
é apenas uma tese, mas foi usada por muitos como uma espécie
de "verdade" inquestionável. Assim, redes semânticas,
frames, scripts, sistemas especialistas, ontologias, bases
de conhecimento, processamento de linguagem natural, etc.,
tudo isso se baseia nesse "axioma".

Uma crítica importante aos sistemas simbólicos foi feita
por Harnad (1990): "The Symbol Grounding Problem". Harnad
coloca que é necessário "sustentar" informações simbólicas
através de elementos estatísticos (sub-simbólicos) que
são criados através de um módulo perceptual, próximo das
entradas sensoriais do organismo. Símbolos sozinhos nunca
teriam o tipo de fluidez e resistência a ruídos que qualquer
criança tem. A partir daí, muitas críticas se seguiram. Só que
em vez de fazer os pesquisadores reavaliarem suas posições,
essas críticas só conseguiram aprofundar o abismo entre os
simbolistas e os outros.

Por um momento isso parece que deu um certo "gás" para
o pessoal conexionista. Muitos alardeavam (principalmente
após 1986, com a publicação dos dois volumes do PDP, que
são realmente importantíssimos) que a cognição só poderia
ser explicada convincentemente através de sistemas
conexionistas. E realmente muita coisa da área perceptual
tem tido imenso sucesso nas mãos deles. Eu diria que hoje
em dia, o conexionismo é responsável por 70% ou mais de
todos os modelos cognitivos que são publicados (mas ainda
há modelos simbólicos muito importantes, como o Soar e
o projeto CYC).

Mas (sempre há um mas...), a coisa não é tão bonita assim
nem mesmo para os conexionistas. Sistemas conexionistas, embora
apresentem boa generalização em alguns aspectos, tem sérios
problemas de generalização em outros aspectos. Só para dar
um exemplo breve, observe esta sequência de entradas e
saídas:

entrada saída
0100 0100
0000 0000
1010 1010
1100 1100

Se você treinar uma rede neural convencional (um perceptron
multiníveis, por exemplo), vai obter bons resultados com
*quase* todas as possibilidades de entrada. Observe que a
saída é apenas uma cópia da entrada. Qualquer criança
descobriria essa "regra". Só que se você tentar obter a saída
dessa rede para a entrada "1111", vai obter como resposta "1110",
e não "1111" como seria esperado. A rede tende a encarar
todas as entradas como suportando uma "regra" na qual o último
bit da entrada (da esq. para direita) é sempre zero. Assim, ela
generaliza de uma forma diferente da que nós achamos intuitiva.
Há vários outros exemplos onde ocorrem esses "desvios" de
generalização (acho que já mencionei em outra mensagem a
"briga" para generalizar os fonemas "wo fe fe" apresentados
a bebês de 7 meses de idade).

Tudo sugere que é necessário rever quais são os nossos
pontos de partida. É preciso rever, por exemplo, os dogmas
simbolistas de que inteligência se resume apenas à manipulação
de símbolos. É preciso rever os dogmas conexionistas de
que a mente humana é totalmente isenta de restrições
inatas. Precisamos rever a tentação de fazer sistemas
que usem símbolos fornecidos por nós, pois dessa forma
nós é que estamos fazendo a parte "difícil". Por outro
lado, as redes neurais precisam ter comportamentos que
permitam a generalização sobre formas *abstratas*, com
certas características simbólicas, como a manutenção da
individualidade das excessões.

Um novo paradigma teria que explicar não apenas questões
perceptuais (reconhecimento/preenchimento de padrões,
efeitos Gestálticos, extração de invariâncias, etc.)
mas também aspectos simbólicos (geratividade da
linguagem, raciocínio através de modelos mentais,
facilidade em utilizar analogia e metáfora, generalização
de estruturas abstratas baseadas em "forma" e não
apenas em conteúdo, etc). Boa parte de meu tempo de
pesquisa atual é gasto na tentativa de unificar esses
modelos.

Até mais,
Sergio Navega.

From: Regina Maria de Souza Moraes <rmsmo@terra.com.br>
>Sérgio, Marcus e Lista, oi
>Se o processamento de frase é serial como se explica o processo inferencial?
>Regina

Se com processo inferencial você pergunta dos raciocínios lógicos,
então a teoria mais aceita atualmente é o modelo dos Mental Models,
de Philip Johnson-Laird. Um pouco da questão serial/paralela aparece
nesse caso.

Johnson-Laird criou um modelo (descrito inicialmente no livro Mental
Models, de 1983) onde ele analisa os silogismos. Um silogismo típico
é este:

Alguns A são B
Alguns C são B
--------------
Portanto, Alguns C são A

Esse silogismo (que na verdade é inválido) é montado na mente das
pessoas (segundo Johnson-Laird) através de estruturas que praticamente
esgotam todas as possibilidades de relação dos parâmetros. E é aqui
que o paralelismo se faz notar, pois não há um elemento central
operando (na realidade, muita coisa desse processo parece ocorrer
fora da consciência do indivíduo).

Isto é bem diferente do que se propõe (outros autores) através
de processos de lógica. Johnson-Laird, através desse modelo,
idealizou alguns experimentos cujos resultados são não intuitivos.
Depois, ele organizou experimentos no qual essas hipóteses não
convencionais foram testadas e aí a surpresa veio: ele estava
certo. Praticamente todo o ano há papers novos sobre mental
models nos principais proceedings e publicações de ciência
cognitiva. É uma das teorias mais interessantes e bem suportadas
empiricamente. Falta, em minha opinião, apenas uma sustentação
neurocientífica. Creio que isso mais cedo ou mais tarde virá.

Até mais,
Sergio Navega.

>
> Renato gravada:
>
> Olá, amigos cognitivos.
> Recebi o teste abaixo, gostaria de compartilhar
> com vocês e saber se alguém gostaria de comentar...
>
> Conte, quantas letras "F" tem no texto abaixo:
>
> FINISHED FILES ARE THE RE-
> SULT OF YEARS OF SCIENTIF-
> IC STUDY COMBINED WITH THE
> EXPERIENCE OF YEARS
>
> O cérebro não consegue processar a palavra "OF".
> Loucura, não?
> Quem conta todos os 6 "F" na primeira vez é um
> gênio".
> 3 é normal, 4 é mais raro, 5 mais ainda, 6
> quase ninguém.

O efeito realmente existe, mas as "explicações" dadas por
quem enviou o teste ao Renato estão totalmente furadas.

Primeiro, o cérebro consegue sim processar "OF", talvez
até bem demais e é isso que causa o erro. Tudo o que é
extremamente repetitivo deixa de ser visto de forma
consciente, pois é agrupado em "clusters" para facilitar
o trabalho dos níveis hierarquicamente superiores
da percepção (principalmente os próximos à consciência).
Esses clusters não costumam "aparecer" para nossa
consciência.

Assim, para contar o número de 'F' é necessário que os
mecanismos de atenção requeiram da percepção de baixo
nível uma separação desses grupamentos de pares de letras (os
chamados "bigrams"), que são grupos que ocorrem com muita
frequência (um exemplo que atormenta os americanos é o erro
muito comum de escrever "recieve" em vez de "receive";
outro erro comum é confundir aspectos fonológicos com
morfológicos, como em "equasion", em vez de "equation",
típico de quem ouve mais do que lê).

Segundo, quem não conta os 6 'F' na primeira não é um gênio,
mas apenas alguém que não costuma ler muito, principalmente
textos em inglês. Quanto mais suscetível é uma pessoa de
contar apenas 4 ou 3 letras 'F', mais está demonstrado que
essa pessoa é "letrada" em inglês, o que vai contra a
proposta de "gênio" mencionada acima.

Quem quiser testar essa explicação, basta contar o número
de letras 'Z' na mensagem abaixo:

ZINISHED ZILES ARE THE RE-
SULT OZ YEARS OZ SCIENTIZ-
IC STUDY COMBINED WITH THE
EXPERIENCE OZ YEARS

São seis 'Z', certo? Agora as sequências 'OZ' não são tão
familiares quanto 'OF', e portanto são mais facilmente
desmontadas e individualizadas pela atenção consciente.

Até mais,
Sergio Navega.


Seminários Digitais Intelliwise

Seminários Sobre Inteligência, Criatividade, Ciência Cognitiva
Assista a esses seminários via Internet, sem sair de casa!

Clique Aqui Para Saber Mais!

Volta ao Menu de Mensagens

Seminários Sobre Inteligência

Homepage de Sergio Navega

Comentários?  snavega@attglobal.net