Paper publicado em Leopoldianum, Revista de Estudos de Comunicações of the University of Santos (Ano 25, No. 72, Fev. 2000, pp 87-102)

Inteligência Artificial, Educação de Crianças e o Cérebro Humano

 

Por Sérgio Navega
snavega@attglobal.net
Intelliwise Research and Training
São Paulo - Brasil
Fevereiro de 2000

Resumo

Neste artigo eu uso a história da IA como ponto de partida para uma curta discussão do que é inteligência e como a educação de crianças pode se beneficiar de nossas descobertas. Eu menciono a importância de uma sólida experiência sensorial e como isso pode influenciar o desenvolvimento de processos inteligentes nas crianças. O artigo termina com uma simples lista de características que uma entidade (seja uma criança ou uma máquina) devem possuir de forma a serem vistas como inteligentes. A idéia básica é que a tentativa de se construir artefatos inteligentes pode revelar insights importantes no funcionamento de nosso próprio cérebro, e também que o entendimento de como o cérebro encara o mundo nos dá detalhes significativos sobre as precondições necessárias à mecanização da inteligência.

Abstract

In this paper I use the history of AI as a starting point to a short discussion on what is intelligence and how can children education benefit from our findings. I mention the importance of a solid sensory experience and how this can influence future development of intelligent processes in children. The paper ends with a simple list of characteristics that one entity (be it a child or a machine) must possess in order to be seen as intelligent. The basic idea is that the attempt to build intelligent artifacts can sprout important insights on the workings of our own brain, but also that the understanding of the way our brain handles the world gives us significant details on the necessary preconditions for the mechanization of intelligence. (An English version of this paper can be obtained contacting the author: snavega@attglobal.net)

Introdução

Será que é possível escrever um único artigo envolvendo Inteligência Artificial (IA), educação de crianças e o cérebro humano? O que segue é uma tentativa neste sentido. Neste artigo, eu vou expor alguns pensamentos sobre IA e em como esse campo de pesquisa contribuiu para melhorar nosso entendimento do cérebro humano. Os tópicos podem parecer desconectados à primeira vista. Eu apelo à curiosidade do leitor para descobrir como eles se interrelacionam.

Pequena História da IA

O termo "Artificial Intelligence" foi criado por John McCarthy durante o famoso Workshop do Dartmouth College, ocorrido durante dois meses no verão de 1956. Aquele foi o primeiro encontro de cientistas oficialmente organizado para discutir aspectos de inteligência e sua implementação em máquinas. Naqueles dias havia um grande entusiasmo e alguns experimentos relativamente bem sucedidos, mesmo com o estágio primitivo dos computadores e linguagens de programação disponíveis. Um dos desenvolvimentos significativos dos anos que se seguiram foi o GPS (General Problem Solver), criado por Allen Newell e Herbert Simon para simular os métodos humanos de resolução de problemas (veja Russell 1995).

O GPS foi, de fato, bem sucedido nos primeiros problemas que atacou mas logo revelou-se insuficiente para modelar o alcance e as particularidades das formas de solução de problemas que mesmo um homem não-especializado possui. Outro nome importante da época foi Marvin Minsky, que influenciou decisivamente a área em várias ocasiões (talvez seus trabalhos mais significativos tenham sido os de 1974 e 1986) e ainda hoje é tido como uma importante referência.

Com a descoberta de que as expectativas iniciais da IA eram infundadas, e com a compreensão de que os mecanismos da cognição humana eram "mais profundos" do que imaginados, as pesquisas mudaram de foco para atividades mais práticas, o que deu origem aos "Sistemas Especialistas" (Expert Systems, iniciando em cerca de 1980). Embora com uma série de problemas, nós podemos dizer que os Sistemas Especialistas foram o primeiro "sucesso comercial" da IA, embora não acompanhados do crescimento explosivo que tiveram outros softwares da mesma época. O principal problema com os Sistemas Especialistas era a falta de "entendimento" de fatos tão básicos que mesmo uma criança era capaz de inferir. Eu retornarei a este ponto em um instante.

Em meados de 1980 as redes neurais (Neural Networks) retornaram de um longo período de ostracismo. As pesquisas começaram a florescer novamente e produziram algumas aplicações práticas de relativo sucesso comercial (reconhecimento de padrões, predição de ações, data mining). Mas novamente não foi suficiente para ser reconhecido como inteligência artificial.

O entusiasmo com IA ainda persiste hoje, embora em uma escala menor, mas os objetivos originais de produzir inteligências similares à dos homens foram substituídos por objetivos mais realistas. Críticas contumazes às aspirações originais continuam aparecendo (veja, por exemplo, Dreyfus 1992).

Entretanto, foi em 1984 que outra tentativa de peso iniciou-se, atrás de uma das "meninas dos olhos" da comunidade de IA: a iniciativa de introduzir senso comum (common sense) em máquinas.

Senso Comum não é Inteligência

A maior dificuldade da Inteligência Artificial até hoje tem sido fazer computadores raciocinar usando o mais trivial senso comum. Todo mundo sabe que para entrar em uma sala é necessário antes abrir a porta. Entretanto, isto não é "óbvio" para computadores. É esta distinção de "obviedade" que nos intriga acerca das capacidades limitadas das máquinas. Entretanto, pode parecer fútil colocar este tipo de conhecimento sobre portas e salas em um computador responsável, por exemplo, pelo processamento de dados de uma grande corporação. Será mesmo fútil?

Este tipo de conhecimento está intimamente relacionado a outros tipos que também requerem senso comum, e neste caso visivelmente úteis a corporações. Como exemplo, em 1980 um sistema especialista autorizou o financiamento de um carro a uma pessoa que escreveu, no contrato, que trabalhava no mesmo emprego há 20 anos. Nada de excepcional nisto, exceto que essa pessoa mencionou depois que sua idade era de dezoito anos. Porque um computador tem tanta dificuldade em perceber quão estranho é isso?

Para resolver esse tipo de problema, Douglas B. Lenat iniciou em conjunto com a MCC Corporation um projeto de nome CYC (CYC 1998, Lenat 1990, Whitten 1995, Mahesh et. al 1996, Yuret 1996). Este é, sem sombra de dúvida, o mais representativo e ambicioso projeto de mecanização do senso comum desenvolvido até hoje. Com mais de meio milhão de fatos, 30.000 regras, uma ontologia gigantesca e uma sólida preocupação com common sense, CYC é um modelo de esforço concentrado em cima de um bem definido objetivo. Seu princípio filosófico é o de que não há atalhos para a inteligência: é necessária a introdução de uma montanha de dados e fatos interconectados, algo que (se supõe) fará o computador raciocinar com senso comum e tornar-se inteligente. CYC começou, então, a ser "alimentado" por humanos com milhares de fatos cuidadosamente selecionados sobre nosso mundo.

Destinado a terminar em 1995, o projeto ainda está em franco desenvolvimento e ainda com muito por fazer. Podemos esperar que será bem sucedido em conseguir o senso comum que até mesmo uma criança possui? Será que o senso comum ambicionado é tudo o que é necessário para ser inteligente?

Na minha opinião, o problema está sendo atacado às avessas. Não é a capacidade de raciocínio de senso comum que "provoca" a inteligência, pelo contrário, é o mecanismo inteligente que consegue acumular o conhecimento responsável pelo senso comum. Uma criança possui senso comum porque ela foi capaz, de uma forma ou de outra, de absorver e entrecruzar o conhecimento sobre o mundo.

Infelizmente, entretanto, isto parece nos levar de volta ao início da história: afinal de contas, o que é inteligência?

Será Inteligência a Principal Atividade de Nosso Cérebro?

Frequentemente nós nos esquecemos de que os mais difíceis problemas que nosso cérebro tem que resolver são os relacionados à percepção e coordenação motora. Esta constatação está ganhando força com as informações que nos são trazidas (nas últimas décadas) pela neurociência.

Coordenar membros de forma adaptativa e com precisão, andar, correr, identificar objetos através da visão, perceber objetos em 3D, processar audição, identificar milhares de aromas, todas essas atividades são problemas de difícil resolução e consomem um grande número de neurônios em nosso cérebro, ocupando a maior parte de nossos esforços de aprendizagem durante a infância. Entretanto, essas não são as capacidades que nos diferenciam dos animais. Macacos, por exemplo, podem ter capacidades perceptuais e motoras comparáveis (ou mesmo superiores) às nossas, por força de viverem em um ambiente em que essas habilidades são fundamentais (pular de galho em galho, usar sua cauda como quinto membro, perceber minúsculos sinais sonoros que indicam perigo, etc).

Portanto, não parece razoável assignar nossa maior inteligência somente a uma melhor capacidade perceptual, principalmente porque nós somos os perdedores quando comparados com vários outros animais. Mas o fato é que somos mais inteligentes do que qualquer outro animal conhecido. Existe, certamente, algo mais. O que será? Será nossa capacidade linguística? Pode a linguagem explicar nossa inteligência?

Muito já foi discutido sobre este assunto. O maior problema desta linha de raciocínio é que ela é equivalente a dizer que a linguagem é a mais importante (ou mesmo a única) forma de pensamento no homem. Isto também já foi motivo de intensa discussão filosófica. Entretanto, é cada vez mais claro que nós temos diversos tipos de pensamentos que não estão relacionados diretamente com a linguagem. Nós usamos muitas analogias visuais, nós proferimos frases com onomatopéia, nós frequentemente visualizamos situações essencialmente espaciais. Nosso raciocínio qualitativo sobre sistemas físicos é raramente linguístico. Pense, por exemplo, em uma jarra sendo enchida com água. Ou um grupo de polias puxadas por uma corda em comum. Algumas vezes nós fazemos abstrações e comparações que são difíceis de expressar em linguagem.

Mas meu principal argumento contra a linguagem no centro da inteligência apóia-se em uma simples observação. Se a linguagem estivesse no centro de nosso pensamento, obviamente seria tudo o que necessitaríamos para transferir qualquer tipo de conhecimento de uma pessoa a outra, com precisão. Isto, de fato, pode parecer óbvio para muitas pessoas e certamente dominou a visão dos cientistas durante a fase inicial da IA. Entretanto, isto não é o que acontece na prática. A característica mais problemática da linguagem é sua dificuldade (frequentemente impossibilidade) de transmitir experiências sensórias, porque a linguagem assume que o "receptor" já saiba o que cada símbolo significa (ou o sentimento por detrás de cada símbolo).

Os Limites da Linguagem

Você já tentou ensinar alguém a andar de bicicleta usando apenas palavras? Não, não é possível. Não importa quanto tempo você fale com a pessoa, ela nunca aprenderá somente com palavras. Sem experimentar, sem sentir a dificuldade de se equilibrar, coordenar mãos e pés, etc, uma pessoa não poderá aprender a andar de bicicleta. O mesmo acontece quando se aprende a dirigir um carro: não é possível fazê-lo "seguindo o livro", você tem que entrar em um e exercitar os controles. Você tem que estar preparado para cometer erros e adaptativamente aprender a corrigi-los. O mesmo vale para pilotar aviões. Este conhecimento não é adquirível somente por leitura.

Pense em um cirurgião. Quantos anos de experiência prática ele deve enfrentar antes de ser considerado preparado? Este tipo de conhecimento não é transferível apenas por linguagem. Eu tenho razões para acreditar (veja Navega 1998) que o aprendizado de boa parte das capacidades intelectuais e de raciocínio sofrem de necessidades similares (embora as sessões de prática possam ser variáveis).

É por isto que devemos deixar os bebês interagirem diretamente com o mundo, tanto quanto possível. É por isso que existem sessões de laboratório nos colégios e faculdades. É por isso que temos sessões práticas na grande maioria dos cursos técnicos (matemática é uma nobre exceção, embora os "experimentos" sejam feitos com lápis e papel e dentro de nossas mentes). Meu ponto aqui é que toda essa experiência prática sobre o mundo serve como ponto de apoio para nosso raciocínio abstrato. É sobre essa plataforma que formamos nossas habilidades linguísticas e de raciocínio.

O Problema do Aterramento de Símbolos

O problema do aterramento dos símbolos de Stevan Harnad (Harnad 1990) é, sob um prisma, uma extensão do famoso "experimento mental" de John Searle, o Quarto Chinês. Infelizmente não dispomos de espaço aqui para discutir Searle e Harnad em detalhe. É suficiente dizer que Harnad propõe o "Dicionário Chinês" como primeira e única referência oferecida a uma entidade inteligente. Imagine que você está trancado em um quarto sem nenhum contato visual ou auditivo com o mundo exterior. Imagine que você tem em suas mãos apenas esse dicionário chinês. Você recebe, através de uma pequena portinhola, um papel com frases escritas em chinês. Você, obviamente, não entende nada de chinês. Você procura cada símbolo da frase em seu dicionário. Você encontra lá somente outro grupo de símbolos em chinês. A questão fundamental é clara: será que você será capaz de algum dia entender algo sobre o mundo exterior ou mesmo entender algo de chinês?

Após iniciar a discussão com este argumento, Harnad desenvolve pontos válidos sobre discriminação e identificação e finalmente propõe a necessidade de "aterramento" dos símbolos em representações icônicas e estas em "objetos distantes" em nossas superfícies sensoriais. Isto é suficiente para Harnad propor uma arquitetura híbrida na qual elementos simbólicos estão sobre módulos conexionistas, responsáveis pelo suporte dos conceitos em terreno sensório. Parece que nós humanos funcionamos desta forma também.

Harnad usa como exemplo a palavra "cavalo", sendo um símbolo criado em nossa mente em resposta ao nosso esforço de identificação e categorização do mundo (neste caso, todas as impressões sensórias que temos sobre cavalos). É interessante que um cão convencional pode não ser capaz de ter um "símbolo" em seu cérebro, mas ele certamente categoriza coisas: um animal doméstico é muito hábil em identificar pessoas conhecidas e desconhecidas. Eles aprendem muito rapidamente a diferenciar o que é animado do que é inanimado. Isto parece estar na trilha certa, se assumirmos que cães são possuidores de certa forma de inteligência.

A conclusão salta aos olhos: nenhum sistema construído apenas com símbolos poderá ser capaz de "entender" o mundo em que vivemos. Para mim, esta é uma indicação adicional de que crianças precisam ter sólida experiência sensorial antes de aprenderem construções simbólicas e formais.

Raciocínio Indutivo e o Nascimento da Inteligência

À medida de aprendemos mais e mais sobre o mundo a nossa volta, nós começamos a notar coisas que não são diretamente visíveis das percepções brutas. Eu quero reforçar aqui dois princípios que acho fundamentais: a percepção de similaridade e a percepção de anomalia. Vamos pensar um pouco como uma criança.

Como uma criança, eu olho para uma árvore e sou dito que ela cresce para o céu. Isto é interessante, porque se eu largo uma pedra ela tende a cair no chão. As árvores, de certa forma, desafiam essa tendência de cair. Meus pais são maiores do que eu e eles me dizem que já foram pequenos como eu sou. Eles também cresceram em direção ao céu. Tanto meus pais como as árvores são chamados de seres vivos. Então (entre diversas conclusões que a criança inferirá, algumas erradamente), existe algo que associa vida ao oposto da direção de outros fenômenos naturais, como essa tendência a cair (gravidade) e a imobilidade das rochas.

Como é que essa conclusão sobrevive e as erradas não? Talvez porque nós recebemos reforços, como quando vemos nosso cão: ele se move, late, faz todo tipo de coisa que nosso super-homem de plástico não faz. Parece existir algo de muito diferente entre meu cachorro e meus brinquedos de plástico. Algo de diferente faz meu cachorro correr e nunca ficar quieto em um lugar. Meus brinquedos de plástico sempre ficam onde os deixo. Cachorros são como eu e como meus pais e como as árvores. Meus brinquedos de plástico são como as rochas.

Esta percepção, difícil de se colocar em palavras, pode permanecer enterrada na mente de uma criança por um bom período. Mas o efeito de sua presença certamente influenciará todo o raciocínio e as futuras percepções da criança. Vida, essa palavra fugaz mesmo para adultos como nós, parece ser um conceito natural e intuitivo na mente de uma criança. Entretanto, mesmo antes dessa criança aprender todas as palavras que estão envolvidas nesta descrição, ela terá a raiz desse conhecimento firmemente plantada em seu cérebro. Um conhecimento que é significativo para seu estoque de senso comum, a ponto de diferenciar o que está vivo do que não está apenas por uma simples inspeção visual. Isto é algo extremamente difícil para nossos computadores (até agora).

Eu afirmo que a maior parte do que sabemos é derivado de raciocínios similares e que a educação formal só pode ser bem sucedida se o estudante tiver uma sólida base na qual sustentar o conhecimento adquirido.

Será que IA Falhou?

De volta para Inteligência Artificial, vamos repetir a mais perguntada questão pelos praticantes deste ramo: Será que a IA falhou em cumprir suas promessas? Bem, se o objetivo era construir uma máquina com pensamento equivalente ao dos homens, então ela certamente falhou. Mas se o objetivo era levantar os principais pontos acerca da inteligência e nos fazer pensar sobre isto, então nós temos que reconhecer que sua contribuição foi significativa. Nós estamos agora em uma melhor posição para compreender quão complexo e intrincado é este problema.

Uma das importantes questões endereçadas aqui foi sobre a chamada hipótese da "strong AI": pode um computador desenvolver inteligência comparável à humana apenas recebendo informações textuais através de um teclado? Como vimos, sem nenhuma forma de entrada sensorial isto, definitivamente, não é possível. Esta conclusão demorou décadas para ser entendida pelos pioneiros da IA e é possível que mesmo hoje ainda existam alguns não totalmente convencidos. Foi esta descoberta, em conjunto com os fracassos das primeiras implementações, que provocou a enchente de críticas que desabaram sobre a IA. Será que isto implica que não teremos máquinas inteligentes a não ser que sejam robôs com visão e audição?

Alguma Esperança de Máquinas Inteligentes?

Neste momento fica claro que minha posição é pela diferença fundamental entre a CPU de um computador e nosso cérebro. Isto poderia me colocar na mesma classe dos céticos da IA em máquinas. Pode parecer estranho, mas eu não sou cético. A questão fundamental aqui parece, novamente, a definição do que é inteligência e a distinção deste conceito em relação à inteligência similar à do homem. Podemos reescrever a questão desta forma: quais são as características essenciais que uma entidade precisa possuir de forma a ser chamada de inteligente? Vamos esquecer por um momento o que significa inteligência humana. Vamos pensar sobre uma visão genérica de inteligência. Acredito que a resposta a esta questão poderá iluminar o que devemos fazer para montar computadores inteligentes e, como efeito colateral, ajudar-nos com a educação de nossas crianças. Aqui estão alguns requisitos:

Percepção de regularidades

Eu acredito que, no centro da inteligência, existe um hábil mecanismo para perceber regularidades. Nosso mundo, embora algumas vezes pareça caótico e aleatório, está recheado de regularidades. É a compreensão dessas regularidades que eu coloco como primeiro passo em direção à inteligência.

Conceitualização e Categorização

Este é o antigo problema dos conceitos: o que é, por exemplo, uma cadeira? Um tronco cortado de uma árvore pode ser um membro desta categoria, se nos servir como apoio para sentar. A criação de conceitos parece estar associada novamente à repetição no tempo: isto é a percepção de regularidades sobre as já percebidas regularidades. Quando notamos algo se repetindo, sentimos a necessidade de dar um nome a essa ocorrência. Um "cachorro genérico" é um conceito que derivamos de nossa observação de inúmeros exemplos de cachorros dos quais Totó, o cão, é apenas um exemplo.

Mecanismos de Descoberta Causal

Causalidade é uma das mais debatidas áreas da filosofia da mente e é certamente o calcanhar de Aquiles da inteligência. Quando uma criança observa que a luz aparece como resultado da aparição do sol, ou quando ligamos o interruptor de uma lâmpada ou quando acendemos uma vela, a percepção inata de regularidades da criança começa a sugerir mecanismos causais. Muito de nosso raciocínio científico sustenta-se em cuidadosas hipóteses causais.

Raciocínio Analógico

Diz-se que os melhores professores são aqueles que usam analogias interessantes para explicar um assunto novo. Porque analogias facilitam o aprendizado? Como Douglas Hofstadter propõe (Hofstadter 1995), muito do intelecto humano pode ser visto como raciocínio analógico em ação. O raciocínio analógico facilita a reutilização de expediências passadas para ajudar a construir a estrada em que apoiaremos as informações novas.

Criatividade

Parece que criatividade é o passo definitivo para inteligência: um cérebro capaz não apenas de compreender o mundo que o circunda mas também de propor alterações criativas em suas condições ambientais para favorecer suas condições de vida. Uma boa introdução a esse assunto pode ser vista em Boden (1994). Intuição e criatividade são frequentemente associadas a aspectos místicos e inexplicáveis do pensamento humano. Em minha visão, essas são características necessárias para um intelecto inteligente e, da mesma forma que consciência, estarão cedo ou tarde compreendidas pelos cientistas. Isto é uma clara indicação de que os pesquisadores de IA devem estar sempre próximos aos achados dos neurocientistas.

O Aprendizado e o Inconsciente

O problema de entender o que é inteligência e como ela trabalha vem desafiando cientistas e pensadores por séculos. Será que existe uma razão para tamanha dificuldade? Muito do desafio de compreender a inteligência está relacionado aos problemas que temos em acessar nossa própria psique. Parece que não temos consciência de muitas de nossas funções cerebrais.

Muito do trabalho inicial em IA foi feito espelhando o tipo de raciocínio que fazemos de forma consciente, em geral usando alguma forma de lógica. Temos agora uma série de pistas indicando que existem mais aspectos do que essa visão de "alto nível" (por exemplo, o Teste de Seleção de Wason sugere que temos muitas dificuldades com raciocínio lógico; veja Wason (1996) ou Navega (1998) para mais detalhes). Em particular, uma área relativamente recente da psicologia chamada de Aprendizagem Implícita (Implicit Learning) propõe experimentar com processos de aprendizagem que não ocorrem conscientemente (uma ótima introdução ao assunto pode ser vista em Cleeremans 1996). Essas pistas são suficientes para sugerir que, quando olhamos para dentro de nós mesmos, só vemos a ponta do iceberg e que o entendimento da inteligência demanda mais conhecimento de disciplinas como Psicologia Cognitiva (veja por exemplo Thagard 1996) e Neurociência Cognitiva (veja Gazzaniga 1998).

Também é importante observar que todas as razões contra inteligência equivalente à humana em sistemas de IA não significam muito, perto do objetivo de obter outra forma de inteligência. Uma forma diferente que use percepções sensórias diferentes e que, usando mecanismos apropriados, consiga replicar os pontos fundamentais da inteligência. Poderá ser construído de forma a raciocinar e entender o suficiente de nosso mundo para ser-nos útil. Certamente não é a mesma coisa que recriar um pássaro, mas pode ser um útil avião!

Conclusão

Minha área de pesquisa principal é IA, que pode ser vista como uma tentativa de colocar um pouco mais de inteligência em nossas máquinas extremamente burras. É interessante que esse empreendimento nos informe muito sobre nossa própria inteligência e como podemos nos preocupar melhor com a de nossas crianças. Nosso destino de entender o universo cruza frequentemente com nosso desejo de entender a nós mesmos. Que melhor forma de cumprir com esse objetivo senão ajudando nossas crianças a alcançar seu pleno potencial? Com um melhor entendimento do que significa ser inteligente e um sólido suporte emocional, acredito que as crianças estarão bem preparadas para os desafios do futuro. Sabemos que o próximo século estará cheio deles.

Referências

Boden, Margaret A. (1994) What is Creativity?. In Dimensions of Creativity, Bradford Book, MIT Press.

Cleeremans, Axel (1996) Principles for Implicit Learning. In D. Berry (Ed.), How implicit is implicit learning? (pp. 196-234), Oxford University Press.

CYC (1998) Cycorp web site. http://www.cyc.com

Dreyfus, Hubert L. (1992) What Computers Still Can't Do. The MIT Press, London, England. Revised edition of "What Computers Can't Do" (1979).

Gazzaniga, Michael S. and Ivry, Richard B. and Mangun, George R., (1998) Cognitive Neuroscience, The Biology of Mind. W. W. Norton & Company, Inc.

Harnad, Stevan (1990) The Symbol Grounding Problem. Physica D 42: 335-346.

Hofstadter, Douglas (1995) Fluid Concepts and Creative Analogies. BasicBooks, HarperCollins Publishers, Inc.

Lenat, Douglas B. and Guha, R. V. (1990), Building Large Knowledge-Based Systems. Addison-Wesley Publishing Company, Inc.

Mahesh, Kavi and Nirenburg, S. and Cowie, J. and Farwell, D. (1996) An Assessment of CYC for Natural Language Processing. Computing Research Laboratory, New Mexico State University http://crl.nmsu.edu/Research/Pubs/MCCS/Postscript/mccs-96-302.ps

Minsky, Marvin (1974) A Framework for Representing Knowledge. MIT Memo 306.

Minsky, Marvin (1986) The Society of Mind. Touchstone Book, Simon & Schuster.

Navega, Sergio C. (1998) Artificial Intelligence as Creative Pattern Manipulation: Recognition is not Enough (paper available from the author: snavega@attglobal.net)

Russell, Stuart, Norvig, Peter (1995) Artificial Intelligence, A Modern Approach, Prentice-Hall, Inc.

Searle, John R. (1980) Minds, Brains, and Programs. Behavioral and Brain Sciences 3, 417-24, also published in Boden, Margaret A. (ed) The Philosophy of Artificial Intelligence, Oxford Readings in Philosophy, (1990) Oxford University Press.

Thagard, Paul (1996) Mind, Introduction to Cognitive Science. Massachusetts Institute of Technology, Bradford Book.

Wason, Peter C. (1966) Reasoning. In B. M. Foss (ed.), New horizons in psychology. Harmondsworth, Penguin.

Whitten, David (1995) Unofficial, Unauthorized CYC FAQ http://www.mcs.com/~drt/software/cycfaq

Yuret, Deniz (1996) The Binding Roots of Symbolic AI: A brief review of the CYC project. MIT Artificial Intelligence Laboratory.

Sobre o Autor

Sérgio Navega, formado em Física pela USP, é diretor da Intelliwise Research and Training, uma empresa paulista especializada em software e consultoria em sistemas inteligentes. Com mais de 15 anos de experiência no desenvolvimento de soluções criativas de software, Sérgio Navega é membro da AAAI (American Association for Artificial Intelligence). Também é membro da IEEE Computer Society, ACM (Association for Computing Machinery), AIED (Artificial Intelligence for Education) e também da The Cognitive Science Society. É membro da SBC (Sociedade Brasileira de Computação) e participa de diversos grupos de discussão internacionais sobre Inteligência Artificial e Ciência Cognitiva. Sérgio pode ser contatado pelo e-mail: snavega@attglobal.net. Para acessar sua homepage, clique aqui.