Paper aceito para publicação no KMBrasil 2002. Se quiser imprimir este texto, use esta versão em PDF. Para voltar à página de publicações, clique aqui.

PROJETO CYC:
CONFUNDINDO INTELIGÊNCIA COM CONHECIMENTO

SERGIO C. NAVEGA1

1Departamento de Publicações Digitais, Intelliwise Research and Training

R. Rosa S. Capelli, 114, São Paulo-SP 04725-050 Brasil

e-mail: snavega@attglobal.net

http://www.intelliwise.com/snavega

Parte da dificuldade de se implantar projetos de gerência de conhecimento vem de falhas em se definir o que é conhecimento e o que é inteligência. Neste trabalho exploramos o projeto americano CYC, do cientista Douglas Lenat, cujo objetivo é obter um sistema (computador) inteligente através da cuidadosa inserção de conhecimento declarativo, proposicional e lógico. Usamos esse projeto como base para sustentar uma crítica que pode ser entendida também no âmbito da gerência do conhecimento. A confusão que se faz entre informação, conhecimento e inteligência é o pano de fundo para políticas e estratégias que parecem errar o alvo. Inteligência, até a data presente e da forma como costumeiramente se entende o termo, é uma habilidade restrita essencialmente a pessoas, e uma estratégia adequada de gerência do conhecimento deve privilegiar a geração criativa e disseminação cuidadosa de informação relevante. Este trabalho inicia apresentando novas definições de informação e conhecimento, fundamentadas na Teoria da Informação de Shannon. Em seguida, o projeto CYC é apresentado, desde quando foi fundado em 1984 por Lenat e colaboradores. A principal motivação de Lenat será enfatizada: quer-se obter um sistema capaz de entender o senso comum, atividade tão fácil para nós humanos mas tão difícil para computadores. Prosseguimos com a observação das principais características técnicas do sistema, que é indiscutivelmente inovador, muito bem concebido e exemplarmente implementado. No entanto, a idéia toda sofre de uma séria - e, em minha visão, fatal - deficiência conceitual. A exposição passa agora à fase de críticas, onde são questionadas as premissas fundamentais do projeto e a sua significação em termos de Engenharia do Conhecimento. Terminamos examinando o que se pode aprender com os erros e fracassos do passado, não apenas do CYC mas também da disciplina Inteligência Artificial. As lições desse passado são o principal instrumento de que dispomos para traçar novos ideais em terreno mais sólido.

Palavras-chave: Cyc, Gerência do Conhecimento, Inteligência Artificial, Conhecimento, Informação

THE CYC PROJECT: CONFUSING INTELLIGENCE WITH KNOWLEDGE. Part of the difficulty of implementing knowledge management projects originates from failures in the definition of knowledge and intelligence. In this work we will explore the CYC project, a conception of Douglas Lenat, whose goal is to obtain an intelligent system (computer) through the careful insertion of declarative, propositional and logic knowledge. We will use this project as a scaffold to support a criticism that can also be understood by the knowledge management area. The confusion among information, knowledge and intelligence is the starting point of strategies and policies that seem to miss the target. Intelligence, up to current days and according to the common understanding of the term, is an activity essentially restricted to people and a well thought-out strategy of knowledge management should prioritize the the creative generation and thoughtful dissemination of relevant information. This work starts presenting new definitions of information and knowledge, based on Shannon's Information Theory. Following that, the Cyc Project will be presented, since its inception in 1984 by Lenat and coworkers. The main motivation of Lenat will be emphasized: the wish to obtain a system capable of understanding common sense, an easy task for us humans, but a very difficult one for machines. We proceed observing the main characteristics of that system, an undoubtedly innovative and exemplarily implemented software. However, the whole idea seem to suffer from a fatal flaw. The text goes on to the phase of criticisms, where the main premises of the project will be questioned. We finish examining what we can learn with the errors and failures of the past, not only in relation to the Cyc system, but also of Artificial Intelligence. Past lessons are the main tool we have available to sketch new ideals, on a more solid ground.

Keywords: Cyc, Knowledge Management, Artificial Intelligence, Knowledge, Information

INTRODUÇÃO

Uma das maiores dificuldades da disciplina Inteligência Artificial tem sido obter computadores que raciocinem com o chamado "senso comum". Até mesmo uma criança sabe que antes de entrar em uma sala, precisamos abrir a porta. Aquilo que parece óbvio (e, talvez, até mesmo irrelevante) tem sido extremamente difícil de formalizar e implementar em computadores. Este texto investiga uma das mais audaciosas tentativas de formalização do senso comum. Nossa investigação aqui irá se deter em observar criticamente os princípios utilizados nesse empreendimento e, através disso, tentar obter algumas conclusões acerca das dificuldades encontradas em projetos de Gerência do Conhecimento.

Quando se fala em Inteligência Artificial e senso comum é natural pensar em Douglas B. Lenat e o seu Projeto CYC1, 2, 3, 4, 5, 6. Este é seguramente o maior e mais ambicioso projeto voltado para a mecanização do senso comum desenvolvido até hoje. A principal motivação de Lenat pode ser percebida em um dos parágrafos do prefácio de seu livro:

"Neste livro, nós gostaríamos de apresentar um elegante, poderoso e compacto conjunto de métodos de raciocínio que formem um grupo de princípios gerais para explicar a criatividade, o humor e o raciocínio de senso comum - uma espécie de "Equações de Maxwell" do pensamento. Sim, nós gostaríamos muito de apresentar mas, infelizmente, nós não acreditamos que eles existam. Nós não acreditamos que exista um atalho para ser inteligente; o "segredo" é dispor de grande quantidade de conhecimento. Claro, conhecimento não tem que ser apenas fatos secos de um almanaque; muito do que nós devemos saber para ser bem sucedidos no mundo é dinâmico: métodos de resolução de problemas e regras práticas"

(Lenat 1990)2 pág. xvii

Eu também acredito que é importante dispor de grandes quantidades de conhecimento. Senso comum requer um volume de conhecimentos interligado sobre o mundo real que nos permita desempenhar com uma grande média de acertos. Mas, diferentemente de Lenat, vou argumentar que a mera posse desse volume de conhecimentos não é condição suficiente para que um organismo (ou um sistema) possa ser considerado inteligente. Mais ainda, conforme argumentaremos a seguir, a própria noção de conhecimento como algo que possa ser representado explícita e publicamente tem em si uma falha conceitual que pode prejudicar nossos projetos de gerência. Contudo, para chegar a essas conclusões será necessário propor novas definições para termos tradicionais.

TEORIA DA INFORMAÇÃO

O projeto SETI7 (Search for Extraterrestrial Intelligence) tem que lidar com um problema bastante difícil. O projeto se ocupa de investigar sinais provenientes do espaço em busca de algo que sinalize a existência de uma civilização avançada. Não obstante haver uma certa polêmica em torno das probabilidades de sucesso desse experimento, focaremos nossa atenção aqui no aspecto informacional da questão. O que é que poderemos descobrir sobre uma civilização remota apenas analisando os sinais que captarmos? Antes de propor uma resposta a essa questão, vamos observar uma necessária teorização.

Em 1948, Claude Shannon publicou um paper8 que viria a se tornar uma das principais referências das disciplinas que estudam informação. A intenção de Shannon, na verdade, foi formalizar alguns aspectos necessários ao entendimento da transmissão de informação através de meios ruidosos. Porém o alcance de suas idéias foi maior do que seus objetivos iniciais.

Shannon define uma medida do conteúdo informacional de um evento como sendo uma função da probabilidade desse evento ocorrer. Essa definição segue nossa noção intuitiva de que quanto mais improvável um evento for, mais teremos a aprender com ele. A formulação matemática mais simples dessa definição é esta:

equ1.gif (243 bytes)

onde I é a medida de informação e pi é a probabilidade de ocorrência do iésimo evento. Por essa noção, fica claro que podemos definir informação a partir de um sinal qualquer, sem ser necessário saber do que se trata esse sinal. Na verdade, esse seria o primeiro tipo de análise que precisaríamos fazer, caso no futuro recebessemos uma mensagem proveniente de uma civilização extraterrestre. Como não sabemos nada acerca dessa civilização, nossa principal referência seria iniciar uma análise da probabilidade de cada evento que compõe esse sinal em busca de padrões e sequências.

Com o tempo, iríamos desenvolvendo algumas expectativas acerca do sinal que estivermos analisando. Saberíamos, por exemplo, que certas sequências costumam preceder outras sequências. Aquilo que era completamente inesperado gradativamente vai compondo um conjunto de padrões que afetam as nossas futuras expectativas acerca do que virá a seguir. Por essa razão, nossa compreensão do sinal aumentará, pois seremos capazes de detectar novos tipos de padrões, aqueles formados por conjuntos de padrões sobre outros padrões. O ponto importante é que a formulação de Shannon, que tinha como objetivo definir informações apenas para sinais brutos9, pode também ser aplicada quando temos que lidar com sinais mais complexos. Neste último caso, temos a introdução de um fator que complica muito toda a análise: os sinais complexos, com padrões de sequências de padrões, requerem um organismo capaz de acumular em uma memória uma série de segmentos a partir do qual possa estimar a probabilidade de suas ocorrências futuras. É neste momento que entra a figura de um agente inteligente e é daqui que partiremos para redefinir nossos conceitos.

REDEFININDO CONCEITOS

De posse dessa base e tendo comentado acerca do que ocorre com níveis mais profundos de investigação da informação, podemos agora observar as novas definições.

Informação

É toda coleção de descrições simbólicas de mudanças de estado de um sistema qualquer. O conteúdo informacional de uma mensagem qualquer é dado pela avaliação da probabilidade de ocorrência dos símbolos que compõe a mensagem, nos termos definidos por Shannon.

Agente

É um sistema (organismo ou máquina) que pode trocar informação com o meio ambiente que o cerca e que tem estados internos que se alteram com o tempo. Algumas dessas alterações internas de estado devem ser função da troca de informações que o agente executa com o ambiente que o circunda. Exemplos típicos seriam os camundongos, gatos, elefantes, seres humanos, e, surpreendentemente, CD Players, computadores, web browsers, etc.

Conhecimento

É uma coleção de informações situadas no interior de um agente e que o habilita a atuar no meio ambiente com eficácia maior do que se esse agente não dispusesse dessa informação29. Podemos dizer que um camundongo pode ter "conhecimento" sobre ratoeiras na medida em que ele disponha de uma série de informações experienciais que o permita evitar a armadilha.

Inteligência

Pura e simplesmente é a habilidade (ou uma medida de habilidade) de um agente de gerar (criar) conhecimento.

Em que pese a relativa simplicidade dessas definições, muito pode ser obtido através do seu uso. Novas formas de observar sistemas que estão à nossa volta emergem e entre as consequências mais imediatas estão estas:

a) Um computador atual possui, em alguns casos, conhecimento, mas não é inteligente

b) Um livro não possui conhecimento, somente informação

c) Um bebê, embora não tenha conhecimento, é considerado um organismo inteligente

d) Tudo o que está representado explicitamente em papel não é conhecimento, é no máximo informação

e) Gerência de Conhecimento é sinônimo de Gerência de Cabeças de Pessoas

Um computador pode dispor de conhecimento na medida em que ele pode atuar em seu meio ambiente. Como exemplo, um sistema de controle de ignição eletrônica em carros tem um conhecimento de como regular o disparo das velas de acordo com o que recebe de seus sensores. No entanto, um livro que descreva essa ignição eletrônica não tem conhecimento, pois o livro não pode atuar no meio ambiente, somente um agente que utilize a informação nele contida. Contudo, embora a ignição eletrônica tenha conhecimento, ela não é um agente inteligente, pois o conhecimento que dispõe não foi gerado por sua própria atividade, mas sim introduzido por engenheiros humanos (e estes sim, são inteligentes)30.

Na próxima seção vamos investigar o projeto Cyc e logo em seguida usaremos essas definições para tecer algumas críticas a esse empreendimento.

APRESENTANDO O PROJETO CYC

Desde a década de 80, uma das criações da Inteligência Artificial vem sendo gradativamente desacreditada: os Sistemas Especialistas. Nos SEs, uma certa quantidade de dados de um domínio específico é codificada nas chamadas regras de produção31. Durante a fase de utilização, um operador humano interage com o sistema respondendo a perguntas que o sistema faz. Cada resposta leva o sistema assumir um novo estado e um outro grupo de perguntas é iniciado. Em muitos casos, termina-se com uma elegante solução para o problema que se tinha, o que fascinou muitos naquela época. Mas os SEs têm uma imensa fragilidade, derivada do fato de possuírem codificações restritas a um domínio muito pequeno do conhecimento humano. Qualquer coisa que fugisse desse domínio levava o sistema a comportamentos erráticos (e muitas vezes, custosos). Um exemplo típico - que pode pertencer ao folclore da área, mas que serve de ilustração - é a aprovação de uma solicitação de crédito a uma pessoa que dizia estar trabalhando há 20 anos no mesmo emprego. No entanto, a idade dessa pessoa era de 19 anos. A falha em reconhecer a incongruência dessas informações é uma típica desvantagem dos SEs.

Portanto, faltava algo que pudesse dispor de uma base de conhecimentos mais fundamental, algo que transbordasse a área de um domínio específico, em suma, algo que dispusesse de senso comum. Talvez o mais ambicioso sistema jamais realizado com o expresso propósito de resolver essa fragilidade dos sistemas especialistas seja o projeto Cyc. Obra de Douglas Lenat, um brilhante pesquisador formado em Stanford, Cyc (de EnCYClopedia) é um sistema onde tudo é grande. O princípio básico desse sistema é obter inteligência e senso comum a partir da explicitação de uma grande quantidade de conhecimento "óbvio". Por mais de uma década, dedicados engenheiros do conhecimento colocaram no Cyc todo tipo de informação que faz parte do bom senso das pessoas. As informações introduzidas tem um caráter até mesmo infantil:

        Toda ave é um animal

        Todo pardal é uma ave

        Todo corvo é uma ave

        Se X é uma ave e se X está sentindo dor,

        Então X provoca empatia positiva

        "Enquanto uma pessoa está dirigindo um carro,
        contato visual com os olhos não é socialmente
        requerido durante conversações"

        "Todas as pessoas mortas permanecem mortas"

Em 1992, Cyc já contava com cerca de 1.400.000 asserções desse tipo em sua base de conhecimentos. É desse volume que Lenat e sua equipe esperam que nasça um sistema inteligente, capaz, por exemplo, de ler o jornal do dia. Contudo, Cyc, mesmo com toda essa dedicação de seus engenheiros, ainda não consegue executar esta proeza e há quem diga que nunca conseguirá.

Mas Cyc não é apenas um amontoado de proposições e declarações. Ele possui diversos métodos de inferência e de uma poderosa linguagem, a CycL. A sentença "todos os objetos possuidos por Sergio encontram-se na casa do Sergio" pode ser codificada em CycL desta forma:

          (forAll ?x
              (implies
                 (owns Sergio ?x)
                 (objectFound ?x CasaSergio)))

Essa construção tem bastante em comum com a linguagem LISP. Também são utilizados recursos de lógica de primeira ordem (FOPC, First-Order Predicate Calculus) que, aliados a determinadas extensões de segunda ordem, conferem elegância e poder à CycL. E esse sistema consegue realmente surpreender. Cyc pode ser usado, por exemplo, como um front-end para aplicações de pesquisa em banco de dados. A pesquisa, em vez de ser uma query SQL, é uma frase em linguagem natural, digitada por uma pessoa sem treinamento específico. Cyc transforma a frase de sua expressão natural em uma expressão em CycL interna, que contenha uma correta tradução em termos de senso comum:

        "Mostre algumas pessoas que tenham formação
        superior e que vivam em Ribeirão Preto"

Em um sistema SQL tradicional, se não houver um campo "formação superior" no banco de dados, essa requisição irá retornar sem mostrar nada. Mas o Cyc sabe interpretar o que significa "formação superior", e por isso sua tradução em CycL fica assim:

        (and
            (or
                (isa ?x Professor)
                (isa ?x Doutor)
                (isa ?x Advogado)
                (isa ?x Engenheiro))
             (residesInRegion ?x RibeiraoPreto))

Cyc sabe que pessoas como Professores, Médicos, Advogados, Engenheiros, etc. são pessoas com formação superior. Nota-se o poder que isso agrega às consultas, pois agora temos um sistema que consegue entender além de uma visão superficial daquilo que perguntamos. É óbvio que isto é muito mais do que temos em nossos sistemas tradicionais. É indiscutível que isto avança muito em relação aos frágeis Sistemas Especialistas. Mas será que é isto que pode ser chamado de um computador inteligente? A questão fundamental que coloco aqui não é a quantidade nem a qualidade do conhecimento que Cyc dispõe, mas sim a origem desse conhecimento. Contudo, essa crítica que faço ao Cyc sustenta-se apenas porque estou colocando definições diferentes de conhecimento e inteligência. Cabe agora tentar tecer críticas que não precisem destas redefinições.

OS PROBLEMAS CONCEITUAIS DO CYC

Muitos cientistas da área de Inteligência Artificial questionaram os princípios sobre os quais funciona o projeto Cyc. Yuret5, por exemplo, discute em que medida um sistema simbólico pode ser dito como compreendendo o que está por trás de uma expressão como esta:

Se {x} pode voar e se {x} pode por ovos, então {x} é um pássaro

Essa é uma explicitação de um tipo de conhecimento trivial. A questão é que adicionar uma regra como essa a um sistema o fará processar inferências sobre pássaros da mesma forma que esse sistema processaria este tipo de sentença:

Se {x} pode dkfdsfs e se {x} pode kiwiiww, então {x} é um owkiiaa

Em termos simbólicos (e sintáticos) as duas frases têm exatamente o mesmo conteúdo lógico e inferencial. No entanto, para nós, humanos, existe uma diferença fundamental entre essas sentenças. Nós não conseguimos "enxergar" nenhuma profundidade no que diz a segunda sentença, embora consigamos na primeira. As diferenças que percebemos entre essas frases está relacionada a um suporte semântico que transcende a mera declaração simbólica explícita, constituindo-se em um nível sub-simbólico. A introdução deste nível conceitual na cognição humana tem sido proposta pelos cientistas cognitivos nas últimas 3 décadas. Uma das claras explanações acerca desse nível foi dada por Harnad10, que reconhece a habilidade humana na manipulação de símbolos, mas propõe que essa habilidade nasce da construção desse nível simbólico em cima de um nível sub-simbólico. Este último, por sua vez, está fortemente associado às entradas sensórias do organismo. Harnad diz que os elementos simbólicos que usamos cotidianamente estão "aterrados" (grounded) em representações icônicas e padrões estatísticos de ocorrência, elementos que não têm (na verdade, não poderiam ter) uma expressão simbólica pública20. Cada agente, para entender o significado de uma sentença qualquer, precisa conseguir operar sobre esses símbolos usando estruturas semânticas profundas. Compreender algo seria, portanto, mais do que simplesmente decorar (ou recitar) proposições linguísticas descritivas. Para que o Cyc pudesse compreender algo, portanto, seria necessário que ele assentasse os símbolos e proposições que utiliza em um nível equivalente a esse nível sub-simbólico.

Portanto, o conhecimento que dispomos acerca de um símbolo qualquer não se limita ao conjunto de outros símbolos a este associado. Esse conhecimento inclui complexas estruturas de suporte desses símbolos. Tampouco podemos dizer que apenas nós, humanos, dispomos desse nível sub-simbólico. Um cachorro, por exemplo, é capaz de discriminar o seu dono de um estranho. Essa é uma discriminação extremamente complexa, pois envolve detalhes de reconhecimento perceptual muito difíceis de se formalizar. Um cachorro dispõe de boa parte do suporte perceptual necessário para aterrar certos símbolos. Se ele é incapaz de manipular símbolos linguísticos (pelo menos em termos de utilização sintática como fazemos com a nossa linguagem escrita), parece certo que isso é resultado da falta de uma organização neural suficientemente desenvolvida para suportar essa habilidade.

É importante notar que cachorros são capazes de aprender com rapidez as principais características que distinguem, por exemplo, um objeto animado de um objeto inanimado. Esse aprendizado é feito através da percepção e categorização, algo que faz parte do mecanismo cognitivo de cachorros e muitos outros mamíferos11. Surpreendentemente, aquilo que estou propondo como falha principal em projetos como o Cyc é precisamente essa capacidade perceptual que os cachorros dispõe: a habilidade de derivar conhecimento sub-simbólico a partir de suas experiências sensórias. Cyc precisa ser manualmente instruído acerca das características que distinguem os objetos vivos dos objetos inanimados. Cyc é incapaz de gerar essa categorização por si mesmo, através de suas reflexões sobre suas próprias impressões sensórias. Cyc é, portanto, incapaz de se auto-organizar para suportar (aterrar) os símbolos que utiliza.

DEDUÇÃO CONTRA INDUÇÃO

Um outro tópico que pode ser alinhado de forma crítica contra o projeto Cyc é a sua dependência quase exclusiva de métodos dedutivos. Uma dedução é um tipo de raciocínio (inferência) que parte de um conjunto de premissas (ou axiomas) e deles conclui algo. A vantagem maior das deduções é que, quando válida, a conclusão a que se chega é garantidamente verdadeira. Esse fato costuma seduzir os pesquisadores de origem matemática, pois parece sensato utilizar raciocínios dedutivos em um sistema que se quer fazer inteligente. Mas essa é uma sedução infundada32.

A fascinação com métodos dedutivos esconde outros problemas sérios. Um deles é conhecido na literatura de Inteligência Artificial como o "frame problem". Para introduzi-lo, vou me utilizar do "piu-piu", um curioso pássaro sobre o qual quero ensinar meu sistema dedutivo. Começo dizendo ao sistema que todos os pássaros podem voar:

        " x, Passaro(x) Þ Voa(x)

Esta expressão quer dizer que para qualquer X tal que X seja um pássaro, então esse X pode voar. Também digo que "piu-piu" é um pássaro:

        Passaro(piu-piu)

Não é de se surpreender que o sistema venha a me dizer que piu-piu sabe voar:

        Voa(piu-piu)

Ele obtém isso de um mero raciocínio dedutivo. No entanto, piu-piu não é um pássaro comum: ele é um Kiwi, aquela ave australiana que tem pêlos em vez de penas. Por essa razão, esse pássaro não consegue voar. Dessa forma, é preciso informar ao meu sistema que piu-piu é um pássaro incomum:

        Anormal(piu-piu)

Contudo, somente isso não basta. Preciso também informar ao meu sistema que pássaros anormais não podem voar. Por isso, é necessário que a expressão lógica anterior seja modificada para incluir novos termos:

        " x, Passaro(x) Ù ~ Anormal(x) Þ Voa(x)

Esta expressão diz que para qualquer X tal que X seja um pássaro e X não seja anormal, então X pode voar. Agora parece que o sistema está coerente. Isto já pode ser contado como sucesso, e não é difícil encontrar pessoas que, ao ler as respostas dadas pelo sistema, concluam que ele é inteligente. Entretanto, a complexidade deste exemplo é maior: para que meus familiares conheçam o piu-piu, eu precisei transportá-lo para o Brasil. Fiz isso colocando-o em um avião. O que pode o sistema me dizer acerca disso? Para ele, isso é uma impossibilidade, pois piu-piu é anormal, e ele não pode voar. Obviamente, essa não é uma dificuldade incontornável, pois basta informar ao sistema que existe uma circunstância em que mesmo um pássaro anormal pode voar, o caso em que ele é colocado em um avião22:

        " x, (Passaro(x) Ù ~ Anormal(x)) Ú (DentroAviao(x)) Þ Voa(x)

A expressão agora quer dizer que para qualquer X tal que X seja pássaro e X não seja anormal, ou então caso X esteja dentro de um avião, então X poderá voar. Aparentemente, resolvi o meu caso. Mas sabemos que a vida não é tão simples assim, e a complexidade continua a aumentar. No dia do embarque, houve uma falta de combustível e meu avião não pôde decolar. Portanto, mesmo que todas as condições acima estivessem satisfeitas, ainda assim o piu-piu não poderia ter voado. O jeito é introduzir mais uma condição, relatando a impossibilidade de voar caso o avião não disponha de combustível. É fácil perceber que, conforme adicionamos mais detalhes acerca de potenciais circunstâncias especiais, a complexidade das relações lógicas necessárias para descrever essas situações cresce assustadoramente (dor de barriga no piloto, falta dinheiro para comprar a passagem, vôo cancelado por mau tempo, terrorista impedindo decolagem, etc.). Um complexo sistema dedutivo, para apresentar processamento de senso comum, seria obrigado a dispor de imensas quantidades de asserções e condições especiais. Ao ensinarmos para o sistema que a avestruz é um pássaro e que também não pode voar, o sistema poderia gastar horas de processamento investigando a verdade de milhares de relações associadas. Esse tipo de sistema precisa fazer isso, pois se não o fizer, poderá estar incorrendo no risco de se tornar progressivamente incoerente, e dessa forma perderia sua garantia de conclusões verdadeiras. Se isso ocorresse, em pouco tempo a base de conhecimentos de tal sistema seria transformada em um imenso repositório de lixo, incoerente, incompleto e, ultimamente, inútil. O "frame problem" ocorre justamente quando existe um crescimento exponencial do número de inferências lógicas necessárias para processar mesmo as mais mundanas questões23.

Curiosamente, nós humanos não levamos muito tempo para processar esse tipo de situação. Até mesmo crianças são altamente eficazes com esse tipo de questão. Porém, a coisa vai um pouco mais longe. Imagine o que é necessário para aprender sobre "Dodo", um pássaro pré-histórico e já extinto, que possuia asas, mas não conseguia voar. Todo o nosso aprendizado sobre pássaros que não voam é reutilizado neste caso. A situação é ainda mais curiosa quando somos solicitados a responder a questões como "Poderia um Dodo voar se o colocassemos em um 747?". A complexidade do nível do senso comum é tal que teríamos que responder "sim" a essa questão, mas observando que isso, na verdade, seria impossível, pois o Dodo já está extinto, e não poderia ser colocado em um avião.

O senso comum que mesmo uma criança dispõe não pode ser resultante de um mero processamento dedutivo15. A performance humana (demonstrado através de inúmeros experimentos cognitivos19, 25, 26) sugere que o mecanismo em ação na mente humana tem fortes características indutivas27, onde estão em ação processos de categorização, formação e associação de conceitos, mapeamento analógico, indução de regras, estabelecimento de modelos causais, etc13. Em todos esses processos, o componente indutivo é fundamental. Mais do que isso, na maioria desses processos ocorre uma forte interação com níveis sub-simbólicos, justamente aqueles que Harnad propõe como sendo os responsáveis pelo aterramento de símbolos. Cyc não dispõe destes níveis e por isso não consegue categorizar e induzir modelos de causa e efeito.

REVENDO A GERÊNCIA DO CONHECIMENTO

Voltamos agora nossa atenção para o tópico principal deste texto. Quais as relações que existem entre os problemas conceituais do Cyc e a Gerência do Conhecimento? Poderiamos começar dizendo que Gerência do Conhecimento não pode ser definida como gerência de documentação ou daquilo que é armazenado em arquivos ou em computadores. Se aceitarmos as definições propostas no começo deste texto, Gerência do Conhecimento é gerência de cabeças de pessoas, pois somente essas cabeças é que possuem conhecimento, pelo menos com as limitações tecnológicas dos computadores atuais. Computadores, arquivos, relatórios, livros, documentos, tudo isso são apenas repositórios de informação. O conhecimento só aparece no instante em que essas informações estão no interior de um agente capaz de utilizá-las para alguma atitude, ou seja, para alguma ação.

De acordo com essas noções, podemos dizer que o sistema Cyc é certamente um sistema que dispõe de conhecimento. Imagine um terminal desse sistema instalado em um hospital. Um médico poderia fazer certas perguntas ao sistema e obter dele uma resposta que iria auxiliá-lo no diagnóstico de um caso difícil. Cyc estaria demonstrando ter conhecimento, pois a informação que está em seu interior estaria orientando-o a atuar no mundo externo. Isto seria mais do que uma simples consulta a uma enciclopédia eletrônica em CD-ROM, já que o máximo que um programa desse tipo faz é localizar informação. Na situação em que Cyc auxilia o médico, o programa estaria demonstrando dispor de uma forma interessante de entendimento, já que a resposta não é uma mera localização de texto por busca indexada ou padrões simbólicos. É esse entendimento além do nível sintático (superficial) que nos faz associar conhecimento ao Cyc. Entretanto, isso não é, de acordo com a definição que estamos propondo neste texto, uma demonstração de inteligência. Para ser inteligente, Cyc precisaria ter sido o responsável pela geração desse conhecimento que apresenta.

Mas então o que isso tudo tem a ver com Gerencia do Conhecimento? O primeiro passo é reconhecer, como já foi dito, que documentação, arquivos e computadores dentro de uma empresa não são fontes de conhecimento. São fontes de informação, que se transformam em conhecimento no instante em que um ser humano incorpore essas informações em sua cognição e passe a usá-las em alguma atividade específica. Nesse circuito, o ser humano é (ainda) indispensável, pois exceto pelo Cyc, não temos hoje um sistema que tenha esse potencial. Tudo isto nos faz refletir sobre as tradicionais diferenças entre conhecimento tácito e explícito28, onde fica mais interessante associar a parte tácita com aquilo que reservamos ao termo sub-simbólico34.

É também importante observar que exatamente por estarmos em um conturbado e dinâmico ambiente, simplesmente utilizar esse conhecimento todo não basta. A dinâmica dos mercados atuais são tais que as soluções que funcionaram bem ontem podem não ser inteiramente adequadas para o dia de hoje. De certa forma, é necessário reconstruir parte desse conhecimento, e isso obviamente se faz através da integração do aprendizado e da criatividade na rotina diária dos funcionários. É por isso que ter conhecimento não basta: é preciso ter inteligência. Somente através da inteligência é que poderemos ter a garantia de renovar as estruturas informacionais que são utilizadas atualmente nas empresas.

Tudo isso nos faz pensar em Gerencia do Conhecimento não como um conjunto de processos especificamente utilizado para administrar o estoque informacional nas empresas, mas sim como uma política que permita o exercício da inteligência, ou seja, a contínua geração de mais conhecimento.

CONCLUSÕES

Talvez a principal mensagem que este texto tenta passar é a idéia de que gerenciar conhecimento em empresas é, na verdade, gerenciar a criatividade humana. Documentar, armazenar, indexar, etc., são todas tarefas importantes, mas ficam melhor posicionadas nas áreas de Tecnologia de Informação das empresas. O que precisa ser feito em gerência do conhecimento parece ser mais do que simplesmente organizar o acesso ao acervo de informações. Precisa-se pensar de que forma esse conhecimento poderia fluir entre as pessoas de forma mais eficaz, de que forma as pessoas - em grupo ou individualmente - são capazes de otimizar a sua geração de conhecimento e de que forma a empresa pode seguir aprendendo e se auto-organizando em função de suas interações com o mercado.

Os erros conceituais que foram apontados não são exclusivos de projetos de Gerência do Conhecimento. Esses erros também ocorrem na disciplina de Inteligência Artificial, já que há quase 50 anos tenta-se obter computadores inteligentes com a utilização de paradigmas lógicos (dedutivos) e simbólicos, mas sem o cuidado de se investigar a real noção que está por trás do conceito de inteligência.

A investigação deste tema - que certamente apenas se inicia com este texto - parece ser fundamental para solidificar ainda mais esta importante divisão das empresas do futuro. Mas essa investigação também é importante para aumentar mais a nossa própria auto-compreensão, um dos principais diferenciais que temos em relação aos outros animais deste planeta.

NOTAS E REFERÊNCIAS

1 CYCORP web site http://www.cyc.com. Acesso em 3 Julho 2002.

2 LENAT, Douglas B.; GUHA, R. V. Building Large Knowledge-Based Systems. Addison-Wesley Publishing Company, Inc. 1990

3 PRATT, Vaughan. CYC REPORT. Stanford University, April 19, 1994
http://boole.stanford.edu/pub/cyc.report. Acesso em 3 Julho 2002.

4 WHITTEN, David. Unofficial, Unauthorized CYC FAQ
http://lynx.eaze.net/~pdkb/web/cycfaq.html. Acesso 3 Julho 2002.

5 YURET, Deniz. The Binding Roots of Symbolic AI: A Brief Review of the CYC Project. MIT Artificial Intelligence Laboratory.

6 MAHESH, Kavi; NIRENBURG, S.; COWIE, J.; FARWELL, D. An Assessment of CYC for Natural Language Processing. Computing Research Laboratory, New Mexico State University, 1996.

7 SETI - Search for Extraterrestrial Intelligence. http://setiathome.ssl.berkeley.edu/. Acesso em 3 Julho 2002.

8 SHANNON, Claude. A Mathematical Theory of Communication. Bell Systems Technical Journal, 27:379-423, 623-656, 1948.

9 Com "sinais brutos" quero dizer sinais para os quais não se tem nenhuma interpretação semântica (profunda). Isso está relacionado à diferença que existe entre sintaxe e semântica. Como exemplo, a sequência simbólica "circunferencia = 2 . PI . R" tem uma interpretação "superficial" (presença de duas ocorrências do símbolo "i", uma do símbolo "R", etc) e uma outra interpretação que exige noções semânticas hierarquicamente mais complexas.

10 HARNAD, Stevan. The Symbol Grounding Problem. Physica D 42: 335-346, 1990.

11 Na verdade, versões mais primitivas dessas habilidades cognitivas podem ser observadas até mesmo em insetos. Um estudo recente12 demonstrou a forma como insetos podem reconhecer relações "igual/diferente" em situações visuais. Isto sugere um contínuo entre as habilidades cognitivas dos animais mais inferiores até os mais superiores, sendo que todas elas têm em comum a existência de um nível perceptual.

12 LIU, Li; WOLF, Reinhard; ERNST, Roman; HEISENBERG, Martin. Context Generalization in Drosophila Visual Learning Requires the Mushroom Bodies. Nature Vol 400, 19 aug 1999, pp 753.

13 Este assunto está melhor desenvolvido em Navega14. Outro aprofundamento do tema pode ser visto em NAVEGA, Sergio C. Pensamento Crítico e Argumentação Sólida. Intelliwise Publicações, (in press)

14 NAVEGA, Sergio C. Inteligência Artificial, Educação de Crianças e o Cérebro Humano. Leopoldianum, Revista de Estudos de Comunicações da Universidade de Santos, Ano 25, No.72, Fev. 2000, pp 87-102.

15 Na verdade, nem mesmo o pensamento de um adulto pode ser visto como resultante de inferências dedutivas. Experimentos cognitivos como os de Johnson-Laird16 atestam que a mente humana não trabalha de forma dedutiva, incorrendo em diversos "erros" elementares. Longe de ser uma deficiência, essas falhas são na verdade efeitos colaterais de um complexo mecanismo cognitivo cuja função essencial era prover importantes habilidades perceptuais a nossos ancestrais. Quando se estuda as origens cognitivas do Homo Sapiens fica claro que o ser humano atual tem praticamente o mesmo tipo de organização neural dos antepassados de 30 mil anos atrás17, 18.

16 JOHNSON-LAIRD, Philip N.; SAVARY, Fabien. How to Make the Impossible Seem Probable. In: Proceedings of the 17th Annual Conference of the Cognitive Science Society, Lawrence Erlbaum Assoc., New Jersey, 1995.

17 MITHEN, Steven. The Prehistory of the Mind. Thames and Hudson, London, 1996.

18 DONALD, Merlin. Origins of the Modern Mind. Harvard University Press, Massachusetts, 1991.

19 REISBERG, Daniel. Cognition. W. W. Norton & Company, Inc., New York. 1997.

20 A importância dos símbolos disponíveis publicamente não pode ser minorada. Na verdade, há como justificar18 que grande parte do desenvolvimento científico e tecnológico da humanidade deveu-se essencialmente ao fato de dispormos de um meio social e de uma codificação linguística que permite compartilhar nossos pensamentos nesse meio. A possibilidade que isso abre é imensa, pois esse processo é auto-catalítico, ou seja, a difusão pública de informação e conhecimento atua como elemento catalisador que suporta novos avanços. No entanto, é preciso deixar claro que essa habilidade de manipulação de símbolos públicos se faz à custa de habilidades cognitivas sub-simbólicas.

21 GINSBERG, Matt. Essentials of Artificial Intelligence. Morgan Kaufmann Publishers, Inc., San Francisco, CA. 1993

22 Para criar este exemplo inspirei-me em Ginsberg21.

23 Os cientistas que pesquisam métodos dedutivos para Inteligência Artificial ainda não se deram por vencidos. Esforços ainda são direcionados para resolver este problema24. Mas agora já temos mais de duas décadas de fracassos na implementação de sistemas dedutivos para nos sugerir que essas tentativas não lograrão êxito.

24 SHANAHAN, Murray. Solving the Frame Problem. MIT Press, Massachusetts. 1997

25 KARMILOFF-SMITH, Annette. Beyond Modularity. Bradford Book, MIT. 1992

26 GOSWAMI, Usha. Cognition in Children. Psychology Press Ltd, Sussex. 1998.

27 HOLLAND, John H.; HOLYOAK, Keith J.; NISBETT, Richard E.; THAGARD, Paul R. Induction, Processes of Inference, Learning and Discovery. MIT Press, Massachusetts. 1986.

28 NONAKA, Ikujiro; TAKEUCHI, Hirotaka. The Knowledge-Creating Company. Oxford University Press, New York, 1995.

29 Está implícita aqui uma inescapável noção teleológica (ligada à finalidade, ou propósito). Essa noção teleológica torna nossa análise dos agentes como possuindo "objetivos" ou "propósitos". Essa noção, na verdade, parece ser mera ilusão nossa, pois é o resultado de uma categorização que fazemos de nossa inspeção (como observadores) do comportamento externo desse agente. No entanto, é uma ilusão útil, pois nos permite desenvolver modelos de comportamento desses agentes que têm várias vantagens preditivas, sendo portanto um procedimento cientificamente aceitável.

30 Uma forma de imaginar uma ignição eletrônica que pudesse ser considerada "inteligente" é imaginar um dispositivo que se adaptasse conforme condições particulares do ambiente onde está funcionando. Assim, em um carro operando em ambiente desértico, a ignição eletrônica poderia "aprender" qual a melhor forma de regular o disparo das velas para otimizar o consumo de combustível e maximizar a potência. O mesmo dispositivo, se instalado em um carro que rode em estradas do Amazonas, iria desenvolver regulagens apropriadas a climas úmidos, regulagens essas que nem mesmo os engenheiros que a projetaram saberiam manualmente insertar em seus circuitos. É para esse tipo de desempenho que estou reservando a qualificação "inteligente".

31 RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence, A Modern Approach. Prentice-Hall Inc., New Jersey, 1995

32 O ataque a esta posição requer considerações filosóficas que fogem do escopo deste artigo. Basta dizer que os que pensam em usar apenas dedução para sustentar projetos de IA esquecem-se de que o universo em que vivemos não é um universo platônico, determinístico, regular e previsível. A ciência constrói leis e teorias que procuram derivar expressões dedutivas que nos auxiliam a ter sucesso preditivo em diversas áreas. Entretanto, a qualquer momento essas expressões dedutivas podem precisar ser revisadas, em face de novas evidências e descobertas. Nunca temos certeza absoluta de que nossas leis e teorias são a representação exata da "máquina do universo". Parte deste tópico é melhor tratado por Cartwright33.

33 CARTWRIGHT, Nancy. How the Laws of Physics Lie. Clarendon Press, Oxford 1983.

34 Na verdade, este é um outro ponto onde proponho uma ligeira modificação de definições. Com conhecimento tácito prefiro referir-me ao tipo de conhecimento que não tem como ser explicitado. Por essa razão, não adiantaria muito apenas confiar em uma tentativa de documentação desse tipo de conhecimento, pois isso não seria suficiente para transferi-lo para outras pessoas. Um exemplo típico desse tipo de conhecimento é aquele que dispõe todas as pessoas que sabem andar de bicicleta. Nenhum livro ou manual seria suficientemente detalhado para fazer com que uma pessoa, após estudá-lo, passasse a andar de bicicleta imediatamente. Esse conhecimento é tácito e intransferível por símbolos públicos.