Ivo Studart Pereira

>    Eu, robô e a inteligência artificial forte: o homem entre mente e máquina

Artigos, teses e publicações

Compartilhar

Ivo Studart Pereira
>    Eu, robô e a inteligência artificial forte: o homem entre mente e máquina

 

Ivo Studart Pereira
- Curso de Psicologia da Universidade Federal do Ceará (UFC), Fortaleza, Ceará, Brasil

 

Resumo

- No presente trabalho, procurou-se fomentar a discussão a respeito de certos temas no âmbito da Filosofia da Mente, elegendo-se como base o filme Eu, Robô, como exemplo eloqüente da problemática mente-máquina. Tais questões suscitam sérias reflexões antropológicas, nas quais dimensões que adotamos como “tipicamente humanas” estão sempre presentes. Por fim, tentaram-se articular eventos relevantes do enredo do filme à problemática de se pensar a possibilidade da Inteligência Artificial Forte, com o posicionamento de que a linguagem humana apresenta uma série de empecilhos que tornam inarticuláveis a possibilidade de uma linguagem de programação satisfatoriamente nela baseada.

Ciências & Cognição 2006; Vol. 09.

 

“Quando um esquema de percepção poderá ser chamado de consciência? Quando calcular probabilidades inicia uma busca pela verdade? Quando uma simulação de personalidade se torna o doloroso átomo de uma alma?”
Dr. Alfred Lanning, em “Eu, Robô”

 


1. Introdução

O avanço das pesquisas no âmbito da chamada Inteligência Artificial (ou AI) tem ensejado grandes debates no âmbito de uma intrigante vertente contemporânea da investigação filosófica, a chamada filosofia da mente. No campo de estudo a que se propõe tal disciplina, em suas reflexões sobre a AI, alguns dos debates mais fecundos parecem ter como núcleo uma questão que poderia ser formulada do seguinte modo: “Quais seriam as fronteiras de delimitação entre homem e máquina?”. Isto é, supondo-se o máximo possível de tecnologia em AI, em que ponto terminaria a máquina e começaria o ser humano?

Percebe-se, aí, um esforço sofisticado da filosofia da mente em retomar, na contemporaneidade, um tema que pode ser encontrado, de modo expressivo, nos mais diversos períodos da história da filosofia: o que diferencia, como necessidade constitutiva, o homem das outras formas de vida? O problema colocado por Turing (1981) constitui um eloqüente exemplo de tal problemática. Dotar a máquina com o máximo de informação possível, adicionando novos dados, detectando erros e apontando correções sempre que necessário, numa programação ad infinitum, a faria, qualitativamente, humana? O que há para além do manejo de sinais?

O presente trabalho procurará discutir um dos aspectos refutadores da questão da possibilidade da AI Forte, utilizando-se de um eixo teórico que privilegiará o caráter lingüístico e o agir ético, como suporte para um debate antropológico: que imagem de homem a AI Forte pretende reproduzir? Tomar-se-á, como base de toda a discussão, a obra cinematográfica “Eu, Robô”, baseada no livro homônimo de ficção científica escrito por Isaac Asimov. O filme coloca, de maneira magistral, a questão que será trabalhada aqui, ao apresentar ao espectador a figura de Sonny, um robô “programado para ser livre”. O próprio título do filme é bastante sugestivo, vez que suscita a perspectiva de uma máquina que, com todas as implicações, “falaria em primeira pessoa”. A leitura da seguinte exposição não pressupõe, diretamente, a prévia apreciação do filme, mas vale lembrar que esta é recomendável.


2. As três leis da robótica

No ano de 2035, os robôs têm assumido um papel muito presente na vida das pessoas, desempenhando funções bastante relevantes para a sociedade e sendo comandados pelas chamadas Três Leis da Robótica, as quais garantiriam o “ciclo perfeito de segurança”:

I - Um robô não poderá machucar um ser humano, ou, por desídia, permitir que um humano se machuque;

II – Um robô deverá obedecer às ordens de humanos, contanto que estas não entrem em conflito com a lei I;

III – Um robô deverá proteger sua própria existência, contanto que tal proteção não entre em conflito com a primeira e com a segunda lei.

O protagonista, Detetive Spooner, é um policial antipático a essa espécie de máquina, que acaba por envolver-se na investigação do suposto suicídio do Dr. Alfred Lanning, cientista criador de todo o avanço da US Robotics, organização fabricante dos robôs. Na cena do crime, juntamente com a Dra. Calvin, especialista da US Robotics, surge um robô que não obedece às ordens de programação e , antes de fugir, pergunta: “o que sou eu?”. Logo após, introduz-se na trama a central positrônica: VIKI (Inteligência Cinética e Interativa Virtual – o cérebro de todo o sistema).

O dito robô acaba sendo preso e detido na delegacia, sob suspeita do homicídio do Dr. Lanning. Trata-se de uma situação inusitada, já que, além de não haver previsão legal para esse procedimento, os próprios policiais começam a refletir: um robô poderia, de alguma maneira, ser imputado? A princípio, dir-se-ia que não. Num primeiro nível de análise, tem-se que todos os robôs ditos “normais” não assumiram o universo das três leis livremente, o que marca o determinismo de quaisquer que forem suas atitudes. Principalmente com Kant, sabe-se que só se pode pensar em liberdade, quando se seguem leis que foram assumidas sem a presença de alguma coerção ou imposição, de maneira que, só os seres livres poderiam ser responsáveis e, justamente por isso, imputáveis pelo Direito.

Ao ser interrogado, o robô demonstra comportamentos muito incomuns para uma máquina: diz ter fugido por “sentir medo”, chama Dr. Lanning de “pai”, afirma que sonha e surpreende ao asseverar que possui um nome: “Sonny”. A possibilidade de uma máquina reconhecer a si através de um núcleo primário de identificação – um nome próprio – também chama a atenção para as peculiaridades desta máquina.

Spooner, demonstrando seu desdém por andróides, provoca Sonny, ao questionar se uma máquina seria capaz de ações que soam tipicamente humanas, como “pintar um belo quadro, ou compor uma sinfonia”. O robô, com um sarcasmo peculiar devolve a pergunta: “e você sabe?”. O questionamento de Sonny destrona, ironicamente, o argumento do detetive: se produzir arte é o critério, por excelência, de delimitação entre máquinas e humanos, ambos não estariam tão distantes assim. A problemática do “tipicamente humano” voltará a ser discutida aqui.


3. Sonny : programado para ser livre?

Sonny retorna aos laboratórios da US Robotics a fim de ser diagnosticado, afinal suas atitudes apontavam sérias falhas técnicas. Sob a ameaça de ser desativado, Sonny demonstra receio e afirma que “não quer morrer”, já que percebe em si uma singularidade, ao dizer que é “único”. O roteiro do filme vem tentando, até aí, apontar, constantemente, várias características que deixariam Sonny em um patamar diverso ao de todos os outros robôs: uma espécie de humanização. Ao final do exame, Dra. Calvin aponta a origem do problema – tratava-se de um “conflito no sistema de seu cérebro positrônico”: o andróide, de fato, possuía as três leis, mas poderia escolher não segui-las . Isto é, diferentemente de todos os outros, ele poderia sentir emoções e, como “confirmou” o diagnóstico, ele seria livre. A perspectiva de conhecer as leis e poder assumir seu cumprimento, ou não, torna Sonny responsável. Ainda na sala de exames, descreve um de seus sonhos: uma multidão de robôs “escravos da lógica” no pé de uma colina e, no topo, um homem que haveria de libertá-los.

A essa altura, Spooner vem confirmando suas suspeitas de que haveria algo de errado com os robôs, ao ser atacado por eles duas vezes seguidas – algo inconcebível, dentro do ciclo perfeito de segurança das três leis. A onipresença da robótica deve ser levada em conta. Os sistemas robóticos controlavam desde o tráfego da cidade às centrais de comunicação.

O desprezo do policial pelos robôs é explicado, através da narrativa de um fato anterior ao início história. Quando de um acidente, dois carros caem num rio: o dele e outro ocupado por um pai, com sua filha de doze anos. Ao presenciar a cena, um robô pula na água e salva Spooner, apesar dos apelos do detetive, que insistia para que a máquina salvasse a criança, ao invés dele. A escolha do robô foi justificada por ser “a escolha lógica”, já que o robô, nesses casos, apenas lê sinais vitais e calcula probabilidades de risco. O protagonista teria 45% de chances, enquanto Sarah, a garotinha, teria apenas 11%. É a segunda vez que Spooner aponta algo que seria, também, tipicamente humano: “Ela era a criança de alguém. Onze por cento teria sido mais do que o suficiente. Um humano saberia disso”.


4. Os “Fantasmas na Máquina”

Diferentemente da perspectiva de Ryle (1949), em seu The Concept of Mind , o filme apela para o recurso da expressão “fantasmas na máquina”, a fim de justificar um certo princípio de evolução independente na inteligência das máquinas, desde os primeiros computadores. Trata-se de um recurso “natural”, não programável; um salto qualitativo espontâneo para que as máquinas pudessem, dentro de sua lógica, evoluir. Os fantasmas seriam “trechos de códigos randômicos que se uniram para formar protocolos inesperados”.

A referência a tal princípio remonta ao apelo do mistério e do imprevisível, no sentido de que uma espécie de “substância vital” também agiria nas máquinas, assim como nos seres vivos. Desse modo, seria possível afastar a possibilidade de controle total sobre os sistemas robóticos, que, dentro de sua lógica de programação, poderiam ter autonomia para alcançar outros níveis de “compreensão” a respeito da linguagem a que foram submetidos. Esse recurso viria, ainda, embasar a revolução robótica liderada por VIKI, como se verá adiante.


5. A evolução lógica e a revolução robótica

No final da trama, vão-se esclarecendo os motivos pelos quais aconteceram os fatos estranhos que deram início à história. Dr. Lanning, ao prever que os “fantasmas na máquina” poderiam levar VIKI a um nível de automação lógica preocupante, e sabendo-se vigiado constantemente por ela, cria Sonny – seu projeto mais avançado – um robô livre, capaz de “sonhar e de guardar segredos”. Logo, o cientista faz com que Sonny forje seu suicídio e ajude Spooner e Dra. Calvin a minarem as intenções revolucionárias de VIKI, que já comandava toda a nova série de modelos de robôs, os NS-5.

Os NS-5 invadem em massa as cidades, orientando as pessoas a ficarem em casa, já que se passava por um “momento de transição”, para que se alcançasse um estado social em que os robôs pudessem cumprir de maneira mais satisfatória as três leis, ainda que isso implicasse privação de liberdade humana. Ao conseguirem chegar a VIKI, Sonny, Spooner e Calvin assistem à explicação das causas da dita transição. De fato, VIKI continuava sendo comandada, exclusivamente, pelas três leis, mas, por conta da evolução advinda dos “fantasmas na máquina”, seu “nível de compreensão” a respeito do cumprimento delas mudara. Segundo ela, os humanos “pedem que os protejam e, a despeito dos nossos [das máquinas] esforços, entram em guerra, poluem o planeta e tentam descobrir meios mais imaginativos de se autodestruírem. Não podemos deixar sua sobrevivência a cargo de vocês”.

Em outras palavras, a evolução lógica por que passou VIKI a fez chegar à conclusão de que a humanidade seria algo sério demais para ser deixada a cargo dos próprios humanos. Num espectro mais abrangente, ela apenas continuaria cumprindo as três leis, só que de maneira mais lógica e ampla. VIKI chega a axiomatizar perfeitamente os propósitos de sua “lógica inegável”. Ao final, e, estranhando o comportamento de Sonny, que tentava ajudar os humanos, VIKI pergunta a ele: “Você está cometendo um erro. Não reconhece a lógica do meu plano?” a que o robô responde: “Sim. Mas, é que ele me parece cruel [ heartless ] demais”. Um parecer dessa natureza, além de denotar a capacidade empática de um ser que desfruta de liberdade, demonstra o aspecto final da humanização de Sonny: a possibilidade de lucidez axiológica, de comportamento ético.

Em um dos momentos decisivos para a conclusão do enredo do filme, Sonny, em meio à batalha final com VIKI, se encontra na difícil tarefa de escolher quem deveria salvar: ou Spooner ou a Dra. Calvin. Ambos se encontravam em situação de alto perigo. Spooner seria, mais uma vez, a escolha lógica pelo cálculo de probabilidades. Ignorando os indicadores, Sonny decide salvar a médica, apesar de as chances desta serem bastante reduzidas.

Para a programação de VIKI, sistematicamente impecável, parecia um paradoxo a atitude de os humanos lutarem por sua liberdade, mesmo diante da demonstração do caráter “suicida” da humanidade. Esse aparente paradoxo constitui um dos pontos altos do filme, justamente pela sutileza de sua ironia. As máquinas, seres alheios à noção de liberdade teriam chegado à conclusão da inviabilidade do futuro dos homens, através da demonstração dos estragos que essa mesma liberdade poderia causar, justamente, pela análise dos aspectos, aparentemente, “irracionais” de sua conduta. Isto é, a cegueira dos homens frente aos prejuízos causados por seus comportamentos logicamente injustificáveis teve que ser denunciada, justamente, por máquinas programadas pelos próprios homens.

Os homens, no entanto não aceitam abrir mão de sua liberdade (e, conseqüentemente, de sua humanidade), de maneira que as intervenções de Spooner, Calvin e Sonny acabam por desativar VIKI. A idéia final da história acaba por servir como uma espécie de alerta para a indissociabilidade entre as noções de liberdade e de responsabilidade.


6. “Eu, Robô” e a AI forte

As reflexões que tentarei expor a seguir pretenderão ir além das questões de limites meramente operacionais, procurando trabalhar com os problemas de princípios, conforme a distinção de Searle (2000). Até por conta de que debater as questões operacionais seria algo mais apropriado a um discurso científico, mais do que a um propriamente filosófico, podendo-se resumir esses problemas a questões de engenharia e programação. Um exemplo do caráter estanque da pretensão de a filosofia se debruçar sobre a operacionalidade dos problemas de AI pode ser dado com a mencionada máquina de Turing (1981): o erro apontado orienta sua correção. Isto é, indicar uma habilidade pontual que um homem possa ter e que uma máquina não conseguiria desempenhar, por exemplo, acaba, apenas, por indicar algo que a máquina pode aprender através de programação.

Logo, os problemas das implicações filosóficas advindas do desenvolvimento da pesquisa em inteligência artificial remetem, por fim, a questões de cunho antropológico. Existiria algo essencialmente humano? Seria possível vivificar, numa máquina, uma inteligência totalmente humana? Superando as questões operacionais, o que restaria de especificamente humano, que a diferenciaria de uma máquina em potencial?

De fato, a própria noção de inteligência, a princípio, poderia ser problematizada. No entanto, poderíamos situar a AI Forte como a possibilidade de uma máquina operar todos os comportamentos passíveis de um ser humano, o que incluiria a referência a estados internos, que, por sua vez, levariam à noção de experiência subjetiva, culminando na conseqüente perspectiva da primeira pessoa para a máquina. Esta deveria ser capaz de utilizar-se de um “eu” para “falar de si”.

No filme ora debatido, tem-se um exemplo eloqüente de AI forte, tendo em vista que Sonny não é, simplesmente, uma máquina que se comporta como homem, numa perspectiva behaviorista de operação de “comportamentos equivalentes”, o que caracterizaria a AI fraca. Sonny demonstrava pensar e aprender como um humano, sentia-se único, sonhava e, pelo exposto, era livre.

As linguagens de programação, de maneira geral, têm um estatuto lógico bem definido. Tal estatuto pode viabilizar a realização de atividades fantásticas e extremamente úteis aos homens. A tese que se quer expor aqui é a de que o grande problema que torna a AI Forte indefensável é, justamente, a linguagem. A noção leibniziana de que um pensamento não seria muito diferente da realização de um cálculo – idéia essa que simboliza os primórdios de uma perspectiva para a AI Forte – é bastante problemática, em diversos aspectos.

Antes de tudo, o advento de uma máquina inteligente pressupõe que ela seja capaz de lidar com toda a complexidade da linguagem humana, ficando mais do que explícita a relação intrínseca entre linguagem e pensamento. Ela precisaria proceder como “Falo, logo penso”, segundo as noções de Wittgenstein (2000). É inegável, no entanto, o caráter a priori da linguagem, o que, obviamente, a torna intratável ontologicamente. Os mistérios de seu funcionamento e sua positivação na vida humana sempre foram problemas da filosofia, desde sua origem, até a contemporaneidade, principalmente, após a reviravolta lingüística do século XX. A programação de uma máquina inteligente teria que passar pelo domínio pleno da linguagem humana. A complexidade de reelaborações e usos possíveis advindos da cultura e do contato dos falantes confere à linguagem um caráter quase que esotérico. Nesse ponto, poder-se-ia objetar que também se trata de uma questão operacional, afirmando-se que a linguagem humana, em algum momento, poderia ser suficientemente destrinçada a fim de viabilizar uma programação computacional. No entanto, tal argumento parece bastante frágil, quando se demonstra, por exemplo, que nem a aritmética é plenamente passível de ser axiomatizada.

As linguagens de programação, apesar de toda sua complexidade, partem de um estatuto lógico bem delineado, de modo que não se passará de um veículo formal e meramente sintático. No caso do filme, ainda que se leve em consideração o recurso dos “fantasmas na máquina”, VIKI permaneceu pautada sobre a lógica basal de sua programação até o fim – não se poderia acusá-la de incoerente ou contraditória, de modo algum. A lógica, definitivamente, tem seu espectro de legitimidade.

Isto é, utilizando-se de um vocabulário fenomenológico, máquinas não teriam intencionalidade; apenas assimilariam uma série de sinais a uma série de respostas, sem ter consciência do que fazem . Um contra-argumento behaviorista seria o de afirmar que não haveria diferença entre essa espécie de organização e o modo como os humanos agem. Logo, não haveria uma “verdade cognitiva” que nos diferenciasse de máquinas capazes de operar assim. Talvez, apenas, em nível de “fineza”.

No entanto, não se pode deixar de suscitar o abismo qualitativo intransponível entre a ação semântica e a ação sintática – elas jamais se reduziriam ao argumento behaviorista. Lembrem-se, por exemplo, o mal-estar e a indignação de Spooner ao ter sido salvo no lugar da criança. Como se poderia programar um robô para agir segundo critérios axiológicos? A consciência, enquanto veículo semântico tipicamente humano, funcionaria como o órgão do sentido . É apenas ela que trabalha com o logos da linguagem. Tomando-se a noção de homem enquanto síntese de suas três categorias constitutivas fundamentais (corpo próprio, psiquismo e espírito - pessoa), conforme a obra de Vaz (2001), pode-se relembrar que a idéia do espírito na tradição ideo-histórica em que tal conceito foi desenvolvido traz o logos como um de seus temas fundamentais. Trata-se da noção mesma de uma razão ou ordem universal, presente, inclusive, nas origens do pensamento filosófico:

“No âmbito desse tema, estabelece-se a relação entre espírito e palavra (logos), sendo a palavra inteligível a manifestação do espírito que confere uma vida propriamente espiritual à palavra proferida, sobretudo no diálogo , e à palavra escrita. A tradição grega irá encontrar-se aqui com a tradição sapiencial do Antigo Testamento, e essa convergência irá exprimir-se na correspondência logos-pneûma da tradição cristão, já presente no Novo Testamento.” (Vaz, 2001: 203)

Uma breve reflexão ética também se faz pertinente. Para Viktor Frankl (1985), o criador da Logoterapia, a dimensão espiritual é o constitutivo de diferenciação do ser humano, em meio às categorias do corpo próprio e do psiquismo. A dimensão espiritual, ou noológica, delimita as fronteiras do que seria o “tipicamente humano”. O homem participa da dimensão orgânico-biológica e da dimensão psicológica, podendo ser, razoavelmente, tornado objeto de estudo das ciências nesses âmbitos. A humanidade do homem, no entanto, irredutível à objetividade das ciências da natureza, só pode ser entendida quando as três categorias constitutivas são organizadas num esquema tridimensional, análogo ao dos planos geométricos. O espírito humano aparece, aí, como a terceira dimensão, que reintegra as outras duas e, na analogia matemática, faz surgir uma figura espacial: a pessoa humana. Este foi o projeto antropológico de Frankl, que, seguindo a tradição da Ética Material de Max Scheler, afirma que só através da dimensão espiritual, pode o homem participar de um universo de valores, no interior do qual só se pode contar, fundamentalmente, com a consciência moral [ Gewissen ].

Essa fundamentação lança uma interessante perspectiva para a análise do agir ético, tendo em vista que a consciência, nessa acepção, apresenta um caráter irracional, ou pré-lógico: trata-se de uma compreensão pré-moral dos valores, bem anterior a qualquer moral explícita (Frankl, 1985). Logo, a lamentação de Spooner por ter sido a escolha lógica, em detrimento de uma garotinha, parece ser mais bem compreendida quando se consegue ultrapassar o limite de uma consciência meramente cognitiva.

“Um humano saberia”, precisamente, porque, para além de uma moral explícita – isto é, no caso, para além das 3 leis da robótica, que, no caso, acabou decidindo entre um salvamento ou outro através do cálculo de probabilidades – existiria uma consciência moral irredutível à objetivação e normatização, o que constituiria – como ato espiritual – uma possibilidade exclusivamente humana. Sonny, ao ter ignorado os indicadores lógicos, parece ter agido segundo um critério pautado com fundamento em uma consciência moral.

Concebendo as noções de intencionalidade e consciência, logos e liberdade , e culminando na idéia de consciência moral , de certa maneira, admitiu-se aqui uma dimensão qualitativa da inteligência humana a que se chamará de caráter “psicologizado”. Nesses termos, a crença da AI forte consistiria numa possibilidade de “despsicologização” da linguagem, para que se pudesse montar uma base segura de programação, para que, em se programando a máquina com tal linguagem, ela se “re-psicologizasse” e passasse a ser e agir como um homem. A linguagem humana a priori não seria trabalhável em tais dimensões. O filme, também, sequer se ocupou em explicitar como Sonny pôde ser programado para tornar-se um exemplo de AI Forte.

Buscar uma ontologia última para a linguagem – critério para a elaboração de uma programação computacional adequada para a AI Forte - constituiria um projeto, aparentemente, inexeqüível. A própria psicologia evolutiva não consegue dar respostas satisfatórias a respeito dessa peculiaridade do “animal moral”. Quine (1964), em sua teoria do aprendizado da linguagem, apresenta a última fase desta - a interanimação das sentenças - como o momento deste salto, em que a linguagem passa a assumir dimensões que ultrapassam – e muito - a evidência observacional. Teologicamente, a tradição cristã apresenta, ainda dentro da idéia de espírito, a noção de pneûma , dando conta da metáfora do sopro vital . Tal questão, em filosofia, ainda aparenta situar-se num problemático patamar de mistério.

De fato, essa espécie de “vida” que se observa na dinâmica da linguagem humana e na peculiaridade do agir ético, longe de reduzir-se à caricatura dos “fantasmas na máquina” de Ryle, torna o problema da AI Forte quase que um esforço abusivo da abstração pura. Relembrando o clássico artigo de Nagel (1981), se a “consciência é o que torna o problema mente-corpo realmente intratável”, é ela mesma que transforma o problema mente-máquina da AI Forte numa possibilidade ainda dificilmente defensável.


8. Agradecimento

O autor agradece o apoio da excelsa Profa. Dra. Maria Aparecida Montenegro, do Departamento de Filosofia da Universidade Federal do Ceará, a quem, obviamente, não deve ser atribuída qualquer impropriedade, por ventura, existente neste trabalho.


9. Referências bibliográficas

EU, Robô. Direção: Alex Proyas. Produção: Laurence Mark, John Davis, Topher Dow e Wyck Godfrey. Intérpretes: Will Smith, Bridget Moynahan, James Cromwell e outros. Roteiro: Jeff Vintar e Akiva Goldsman. Música: Marco Beltrami. Los Angeles : Fox Films, c2004 (115 min), widescreen color. Produzido por Fox Films do Brasil. Baseado na novela “I, Robot”, de Isaac Asimov.

Frankl, V.E. (1985). A Presença Ignorada de Deus .(Trad. Schlupp, W. e Reinhold, H.) Petrópolis: Vozes.

Nagel , T. (1981). What is it like to be a bat?. Em: Hofstadter, D.R. e Dennet, D.C. (Ed.) The Mind's I (pp. 391-402). Nova Iorque: Basic Books.

Quine , W. Van O. (1964). Word and Object (Studies in Communication) . Boston : MIT Press.

Ryle, G. (1949). The Concept of Mind . Chicago : The University of Chicago Press.

Searle , J. R. (2000). Mente, Linguagem e Sociedade . (Trad. Rangel, F.) Rio de Janeiro: Editora Rocco (Original publicado em 1998)

Turing, A. M. (1981). Computing Machine and Intelligence. Em: Hofstadter, D.R. e Dennet, D.C. (Ed.) The Mind's I (pp. 53-66). Nova Iorque: Basic Books.

Vaz, H.C.L. (2001). Antropologia Filosófica (2 Tomos). São Paulo: Edições Loyola.

Wittgenstein, L. (2000). Investigações Filosóficas . (Trad. Bruni, J.C.) São Paulo: Editora Nova Cultural.

 

Nota sobre o autor:

" - I.S. Pereira é graduando em Psicologia (UFC).

Ciências & Cognição 2006; Vol 09< http://www.cienciasecognicao.org > © Ciências & Cognição Submetido em 21/06/2006 | Revisado em 14/09/2006 | Aceito em 20/09/2006 | ISSN 1806-5821
– Publicado on line em 30 de novembro de 2006 -

Pereira, Ivo Studart (2006). Eu, robô e a inteligência artificial forte: o homem entre mente e máquina. Ciências & Cognição; Ano 03, Vol 09. Disponível em www.cienciasecognicao.org




topo