Ivo Studart Pereira
- Curso de Psicologia da Universidade Federal do Ceará (UFC),
Fortaleza, Ceará, Brasil
Resumo
- No presente trabalho, procurou-se fomentar a discussão
a respeito de certos temas no âmbito da Filosofia da Mente, elegendo-se
como base o filme Eu, Robô, como exemplo eloqüente da problemática
mente-máquina. Tais questões suscitam sérias reflexões
antropológicas, nas quais dimensões que adotamos como
“tipicamente humanas” estão sempre presentes. Por
fim, tentaram-se articular eventos relevantes do enredo do filme à
problemática de se pensar a possibilidade da Inteligência
Artificial Forte, com o posicionamento de que a linguagem humana apresenta
uma série de empecilhos que tornam inarticuláveis a possibilidade
de uma linguagem de programação satisfatoriamente nela
baseada.
Ciências & Cognição 2006; Vol. 09.
“Quando um esquema de percepção
poderá ser chamado de consciência? Quando calcular probabilidades
inicia uma busca pela verdade? Quando uma simulação de
personalidade se torna o doloroso átomo de uma alma?”
Dr. Alfred Lanning, em “Eu, Robô”
1. Introdução
O avanço das pesquisas no âmbito
da chamada Inteligência Artificial (ou AI) tem ensejado grandes
debates no âmbito de uma intrigante vertente contemporânea
da investigação filosófica, a chamada filosofia
da mente. No campo de estudo a que se propõe tal disciplina,
em suas reflexões sobre a AI, alguns dos debates mais fecundos
parecem ter como núcleo uma questão que poderia ser formulada
do seguinte modo: “Quais seriam as fronteiras de delimitação
entre homem e máquina?”. Isto é, supondo-se o máximo
possível de tecnologia em AI, em que ponto terminaria a máquina
e começaria o ser humano?
Percebe-se, aí, um esforço
sofisticado da filosofia da mente em retomar, na contemporaneidade,
um tema que pode ser encontrado, de modo expressivo, nos mais diversos
períodos da história da filosofia: o que diferencia, como
necessidade constitutiva, o homem das outras formas de vida? O problema
colocado por Turing (1981) constitui um eloqüente exemplo de tal
problemática. Dotar a máquina com o máximo de informação
possível, adicionando novos dados, detectando erros e apontando
correções sempre que necessário, numa programação
ad infinitum, a faria, qualitativamente, humana? O que há para
além do manejo de sinais?
O presente trabalho procurará
discutir um dos aspectos refutadores da questão da possibilidade
da AI Forte, utilizando-se de um eixo teórico que privilegiará
o caráter lingüístico e o agir ético, como
suporte para um debate antropológico: que imagem de homem a AI
Forte pretende reproduzir? Tomar-se-á, como base de toda a discussão,
a obra cinematográfica “Eu, Robô”, baseada
no livro homônimo de ficção científica escrito
por Isaac Asimov. O filme coloca, de maneira magistral, a questão
que será trabalhada aqui, ao apresentar ao espectador a figura
de Sonny, um robô “programado para ser livre”. O próprio
título do filme é bastante sugestivo, vez que suscita
a perspectiva de uma máquina que, com todas as implicações,
“falaria em primeira pessoa”. A leitura da seguinte exposição
não pressupõe, diretamente, a prévia apreciação
do filme, mas vale lembrar que esta é recomendável.
2. As três leis da robótica
No ano de 2035, os robôs têm
assumido um papel muito presente na vida das pessoas, desempenhando
funções bastante relevantes para a sociedade e sendo comandados
pelas chamadas Três Leis da Robótica, as quais garantiriam
o “ciclo perfeito de segurança”:
I - Um robô não poderá
machucar um ser humano, ou, por desídia, permitir que um humano
se machuque;
II – Um robô deverá
obedecer às ordens de humanos, contanto que estas não
entrem em conflito com a lei I;
III – Um robô deverá
proteger sua própria existência, contanto que tal proteção
não entre em conflito com a primeira e com a segunda lei.
O protagonista, Detetive Spooner, é
um policial antipático a essa espécie de máquina,
que acaba por envolver-se na investigação do suposto suicídio
do Dr. Alfred Lanning, cientista criador de todo o avanço da
US Robotics, organização fabricante dos robôs. Na
cena do crime, juntamente com a Dra. Calvin, especialista da US Robotics,
surge um robô que não obedece às ordens de programação
e , antes de fugir, pergunta: “o que sou eu?”. Logo após,
introduz-se na trama a central positrônica: VIKI (Inteligência
Cinética e Interativa Virtual – o cérebro de todo
o sistema).
O dito robô acaba sendo preso
e detido na delegacia, sob suspeita do homicídio do Dr. Lanning.
Trata-se de uma situação inusitada, já que, além
de não haver previsão legal para esse procedimento, os
próprios policiais começam a refletir: um robô poderia,
de alguma maneira, ser imputado? A princípio, dir-se-ia que não.
Num primeiro nível de análise, tem-se que todos os robôs
ditos “normais” não assumiram o universo das três
leis livremente, o que marca o determinismo de quaisquer que forem suas
atitudes. Principalmente com Kant, sabe-se que só se pode pensar
em liberdade, quando se seguem leis que foram assumidas sem a presença
de alguma coerção ou imposição, de maneira
que, só os seres livres poderiam ser responsáveis e, justamente
por isso, imputáveis pelo Direito.
Ao ser interrogado, o robô demonstra
comportamentos muito incomuns para uma máquina: diz ter fugido
por “sentir medo”, chama Dr. Lanning de “pai”,
afirma que sonha e surpreende ao asseverar que possui um nome: “Sonny”.
A possibilidade de uma máquina reconhecer a si através
de um núcleo primário de identificação –
um nome próprio – também chama a atenção
para as peculiaridades desta máquina.
Spooner, demonstrando seu desdém
por andróides, provoca Sonny, ao questionar se uma máquina
seria capaz de ações que soam tipicamente humanas, como
“pintar um belo quadro, ou compor uma sinfonia”. O robô,
com um sarcasmo peculiar devolve a pergunta: “e você sabe?”.
O questionamento de Sonny destrona, ironicamente, o argumento do detetive:
se produzir arte é o critério, por excelência, de
delimitação entre máquinas e humanos, ambos não
estariam tão distantes assim. A problemática do “tipicamente
humano” voltará a ser discutida aqui.
3. Sonny : programado para ser livre?
Sonny retorna aos laboratórios
da US Robotics a fim de ser diagnosticado, afinal suas atitudes apontavam
sérias falhas técnicas. Sob a ameaça de ser desativado,
Sonny demonstra receio e afirma que “não quer morrer”,
já que percebe em si uma singularidade, ao dizer que é
“único”. O roteiro do filme vem tentando, até
aí, apontar, constantemente, várias características
que deixariam Sonny em um patamar diverso ao de todos os outros robôs:
uma espécie de humanização. Ao final do exame,
Dra. Calvin aponta a origem do problema – tratava-se de um “conflito
no sistema de seu cérebro positrônico”: o andróide,
de fato, possuía as três leis, mas poderia escolher não
segui-las . Isto é, diferentemente de todos os outros, ele poderia
sentir emoções e, como “confirmou” o diagnóstico,
ele seria livre. A perspectiva de conhecer as leis e poder assumir seu
cumprimento, ou não, torna Sonny responsável. Ainda na
sala de exames, descreve um de seus sonhos: uma multidão de robôs
“escravos da lógica” no pé de uma colina e,
no topo, um homem que haveria de libertá-los.
A essa altura, Spooner vem confirmando
suas suspeitas de que haveria algo de errado com os robôs, ao
ser atacado por eles duas vezes seguidas – algo inconcebível,
dentro do ciclo perfeito de segurança das três leis. A
onipresença da robótica deve ser levada em conta. Os sistemas
robóticos controlavam desde o tráfego da cidade às
centrais de comunicação.
O desprezo do policial pelos robôs
é explicado, através da narrativa de um fato anterior
ao início história. Quando de um acidente, dois carros
caem num rio: o dele e outro ocupado por um pai, com sua filha de doze
anos. Ao presenciar a cena, um robô pula na água e salva
Spooner, apesar dos apelos do detetive, que insistia para que a máquina
salvasse a criança, ao invés dele. A escolha do robô
foi justificada por ser “a escolha lógica”, já
que o robô, nesses casos, apenas lê sinais vitais e calcula
probabilidades de risco. O protagonista teria 45% de chances, enquanto
Sarah, a garotinha, teria apenas 11%. É a segunda vez que Spooner
aponta algo que seria, também, tipicamente humano: “Ela
era a criança de alguém. Onze por cento teria sido mais
do que o suficiente. Um humano saberia disso”.
4. Os “Fantasmas na Máquina”
Diferentemente da perspectiva de Ryle
(1949), em seu The Concept of Mind , o filme apela para o recurso da
expressão “fantasmas na máquina”, a fim de
justificar um certo princípio de evolução independente
na inteligência das máquinas, desde os primeiros computadores.
Trata-se de um recurso “natural”, não programável;
um salto qualitativo espontâneo para que as máquinas pudessem,
dentro de sua lógica, evoluir. Os fantasmas seriam “trechos
de códigos randômicos que se uniram para formar protocolos
inesperados”.
A referência a tal princípio
remonta ao apelo do mistério e do imprevisível, no sentido
de que uma espécie de “substância vital” também
agiria nas máquinas, assim como nos seres vivos. Desse modo,
seria possível afastar a possibilidade de controle total sobre
os sistemas robóticos, que, dentro de sua lógica de programação,
poderiam ter autonomia para alcançar outros níveis de
“compreensão” a respeito da linguagem a que foram
submetidos. Esse recurso viria, ainda, embasar a revolução
robótica liderada por VIKI, como se verá adiante.
5. A evolução lógica e a revolução
robótica
No final da trama, vão-se esclarecendo
os motivos pelos quais aconteceram os fatos estranhos que deram início
à história. Dr. Lanning, ao prever que os “fantasmas
na máquina” poderiam levar VIKI a um nível de automação
lógica preocupante, e sabendo-se vigiado constantemente por ela,
cria Sonny – seu projeto mais avançado – um robô
livre, capaz de “sonhar e de guardar segredos”. Logo, o
cientista faz com que Sonny forje seu suicídio e ajude Spooner
e Dra. Calvin a minarem as intenções revolucionárias
de VIKI, que já comandava toda a nova série de modelos
de robôs, os NS-5.
Os NS-5 invadem em massa as cidades,
orientando as pessoas a ficarem em casa, já que se passava por
um “momento de transição”, para que se alcançasse
um estado social em que os robôs pudessem cumprir de maneira mais
satisfatória as três leis, ainda que isso implicasse privação
de liberdade humana. Ao conseguirem chegar a VIKI, Sonny, Spooner e
Calvin assistem à explicação das causas da dita
transição. De fato, VIKI continuava sendo comandada, exclusivamente,
pelas três leis, mas, por conta da evolução advinda
dos “fantasmas na máquina”, seu “nível
de compreensão” a respeito do cumprimento delas mudara.
Segundo ela, os humanos “pedem que os protejam e, a despeito dos
nossos [das máquinas] esforços, entram em guerra, poluem
o planeta e tentam descobrir meios mais imaginativos de se autodestruírem.
Não podemos deixar sua sobrevivência a cargo de vocês”.
Em outras palavras, a evolução
lógica por que passou VIKI a fez chegar à conclusão
de que a humanidade seria algo sério demais para ser deixada
a cargo dos próprios humanos. Num espectro mais abrangente, ela
apenas continuaria cumprindo as três leis, só que de maneira
mais lógica e ampla. VIKI chega a axiomatizar perfeitamente os
propósitos de sua “lógica inegável”.
Ao final, e, estranhando o comportamento de Sonny, que tentava ajudar
os humanos, VIKI pergunta a ele: “Você está cometendo
um erro. Não reconhece a lógica do meu plano?” a
que o robô responde: “Sim. Mas, é que ele me parece
cruel [ heartless ] demais”. Um parecer dessa natureza, além
de denotar a capacidade empática de um ser que desfruta de liberdade,
demonstra o aspecto final da humanização de Sonny: a possibilidade
de lucidez axiológica, de comportamento ético.
Em um dos momentos decisivos para a
conclusão do enredo do filme, Sonny, em meio à batalha
final com VIKI, se encontra na difícil tarefa de escolher quem
deveria salvar: ou Spooner ou a Dra. Calvin. Ambos se encontravam em
situação de alto perigo. Spooner seria, mais uma vez,
a escolha lógica pelo cálculo de probabilidades. Ignorando
os indicadores, Sonny decide salvar a médica, apesar de as chances
desta serem bastante reduzidas.
Para a programação de
VIKI, sistematicamente impecável, parecia um paradoxo a atitude
de os humanos lutarem por sua liberdade, mesmo diante da demonstração
do caráter “suicida” da humanidade. Esse aparente
paradoxo constitui um dos pontos altos do filme, justamente pela sutileza
de sua ironia. As máquinas, seres alheios à noção
de liberdade teriam chegado à conclusão da inviabilidade
do futuro dos homens, através da demonstração dos
estragos que essa mesma liberdade poderia causar, justamente, pela análise
dos aspectos, aparentemente, “irracionais” de sua conduta.
Isto é, a cegueira dos homens frente aos prejuízos causados
por seus comportamentos logicamente injustificáveis teve que
ser denunciada, justamente, por máquinas programadas pelos próprios
homens.
Os homens, no entanto não aceitam
abrir mão de sua liberdade (e, conseqüentemente, de sua
humanidade), de maneira que as intervenções de Spooner,
Calvin e Sonny acabam por desativar VIKI. A idéia final da história
acaba por servir como uma espécie de alerta para a indissociabilidade
entre as noções de liberdade e de responsabilidade.
6. “Eu, Robô” e a AI forte
As reflexões que tentarei expor
a seguir pretenderão ir além das questões de limites
meramente operacionais, procurando trabalhar com os problemas de princípios,
conforme a distinção de Searle (2000). Até por
conta de que debater as questões operacionais seria algo mais
apropriado a um discurso científico, mais do que a um propriamente
filosófico, podendo-se resumir esses problemas a questões
de engenharia e programação. Um exemplo do caráter
estanque da pretensão de a filosofia se debruçar sobre
a operacionalidade dos problemas de AI pode ser dado com a mencionada
máquina de Turing (1981): o erro apontado orienta sua correção.
Isto é, indicar uma habilidade pontual que um homem possa ter
e que uma máquina não conseguiria desempenhar, por exemplo,
acaba, apenas, por indicar algo que a máquina pode aprender através
de programação.
Logo, os problemas das implicações
filosóficas advindas do desenvolvimento da pesquisa em inteligência
artificial remetem, por fim, a questões de cunho antropológico.
Existiria algo essencialmente humano? Seria possível vivificar,
numa máquina, uma inteligência totalmente humana? Superando
as questões operacionais, o que restaria de especificamente humano,
que a diferenciaria de uma máquina em potencial?
De fato, a própria noção
de inteligência, a princípio, poderia ser problematizada.
No entanto, poderíamos situar a AI Forte como a possibilidade
de uma máquina operar todos os comportamentos passíveis
de um ser humano, o que incluiria a referência a estados internos,
que, por sua vez, levariam à noção de experiência
subjetiva, culminando na conseqüente perspectiva da primeira pessoa
para a máquina. Esta deveria ser capaz de utilizar-se de um “eu”
para “falar de si”.
No filme ora debatido, tem-se um exemplo
eloqüente de AI forte, tendo em vista que Sonny não é,
simplesmente, uma máquina que se comporta como homem, numa perspectiva
behaviorista de operação de “comportamentos equivalentes”,
o que caracterizaria a AI fraca. Sonny demonstrava pensar e aprender
como um humano, sentia-se único, sonhava e, pelo exposto, era
livre.
As linguagens de programação,
de maneira geral, têm um estatuto lógico bem definido.
Tal estatuto pode viabilizar a realização de atividades
fantásticas e extremamente úteis aos homens. A tese que
se quer expor aqui é a de que o grande problema que torna a AI
Forte indefensável é, justamente, a linguagem. A noção
leibniziana de que um pensamento não seria muito diferente da
realização de um cálculo – idéia essa
que simboliza os primórdios de uma perspectiva para a AI Forte
– é bastante problemática, em diversos aspectos.
Antes de tudo, o advento de uma máquina
inteligente pressupõe que ela seja capaz de lidar com toda a
complexidade da linguagem humana, ficando mais do que explícita
a relação intrínseca entre linguagem e pensamento.
Ela precisaria proceder como “Falo, logo penso”, segundo
as noções de Wittgenstein (2000). É inegável,
no entanto, o caráter a priori da linguagem, o que, obviamente,
a torna intratável ontologicamente. Os mistérios de seu
funcionamento e sua positivação na vida humana sempre
foram problemas da filosofia, desde sua origem, até a contemporaneidade,
principalmente, após a reviravolta lingüística do
século XX. A programação de uma máquina
inteligente teria que passar pelo domínio pleno da linguagem
humana. A complexidade de reelaborações e usos possíveis
advindos da cultura e do contato dos falantes confere à linguagem
um caráter quase que esotérico. Nesse ponto, poder-se-ia
objetar que também se trata de uma questão operacional,
afirmando-se que a linguagem humana, em algum momento, poderia ser suficientemente
destrinçada a fim de viabilizar uma programação
computacional. No entanto, tal argumento parece bastante frágil,
quando se demonstra, por exemplo, que nem a aritmética é
plenamente passível de ser axiomatizada.
As linguagens de programação,
apesar de toda sua complexidade, partem de um estatuto lógico
bem delineado, de modo que não se passará de um veículo
formal e meramente sintático. No caso do filme, ainda que se
leve em consideração o recurso dos “fantasmas na
máquina”, VIKI permaneceu pautada sobre a lógica
basal de sua programação até o fim – não
se poderia acusá-la de incoerente ou contraditória, de
modo algum. A lógica, definitivamente, tem seu espectro de legitimidade.
Isto é, utilizando-se de um vocabulário
fenomenológico, máquinas não teriam intencionalidade;
apenas assimilariam uma série de sinais a uma série de
respostas, sem ter consciência do que fazem . Um contra-argumento
behaviorista seria o de afirmar que não haveria diferença
entre essa espécie de organização e o modo como
os humanos agem. Logo, não haveria uma “verdade cognitiva”
que nos diferenciasse de máquinas capazes de operar assim. Talvez,
apenas, em nível de “fineza”.
No entanto, não se pode deixar
de suscitar o abismo qualitativo intransponível entre a ação
semântica e a ação sintática – elas
jamais se reduziriam ao argumento behaviorista. Lembrem-se, por exemplo,
o mal-estar e a indignação de Spooner ao ter sido salvo
no lugar da criança. Como se poderia programar um robô
para agir segundo critérios axiológicos? A consciência,
enquanto veículo semântico tipicamente humano, funcionaria
como o órgão do sentido . É apenas ela que trabalha
com o logos da linguagem. Tomando-se a noção de homem
enquanto síntese de suas três categorias constitutivas
fundamentais (corpo próprio, psiquismo e espírito - pessoa),
conforme a obra de Vaz (2001), pode-se relembrar que a idéia
do espírito na tradição ideo-histórica em
que tal conceito foi desenvolvido traz o logos como um de seus temas
fundamentais. Trata-se da noção mesma de uma razão
ou ordem universal, presente, inclusive, nas origens do pensamento filosófico:
“No âmbito desse tema, estabelece-se
a relação entre espírito e palavra (logos), sendo
a palavra inteligível a manifestação do espírito
que confere uma vida propriamente espiritual à palavra proferida,
sobretudo no diálogo , e à palavra escrita. A tradição
grega irá encontrar-se aqui com a tradição sapiencial
do Antigo Testamento, e essa convergência irá exprimir-se
na correspondência logos-pneûma da tradição
cristão, já presente no Novo Testamento.” (Vaz,
2001: 203)
Uma breve reflexão ética
também se faz pertinente. Para Viktor Frankl (1985), o criador
da Logoterapia, a dimensão espiritual é o constitutivo
de diferenciação do ser humano, em meio às categorias
do corpo próprio e do psiquismo. A dimensão espiritual,
ou noológica, delimita as fronteiras do que seria o “tipicamente
humano”. O homem participa da dimensão orgânico-biológica
e da dimensão psicológica, podendo ser, razoavelmente,
tornado objeto de estudo das ciências nesses âmbitos. A
humanidade do homem, no entanto, irredutível à objetividade
das ciências da natureza, só pode ser entendida quando
as três categorias constitutivas são organizadas num esquema
tridimensional, análogo ao dos planos geométricos. O espírito
humano aparece, aí, como a terceira dimensão, que reintegra
as outras duas e, na analogia matemática, faz surgir uma figura
espacial: a pessoa humana. Este foi o projeto antropológico de
Frankl, que, seguindo a tradição da Ética Material
de Max Scheler, afirma que só através da dimensão
espiritual, pode o homem participar de um universo de valores, no interior
do qual só se pode contar, fundamentalmente, com a consciência
moral [ Gewissen ].
Essa fundamentação lança
uma interessante perspectiva para a análise do agir ético,
tendo em vista que a consciência, nessa acepção,
apresenta um caráter irracional, ou pré-lógico:
trata-se de uma compreensão pré-moral dos valores, bem
anterior a qualquer moral explícita (Frankl, 1985). Logo, a lamentação
de Spooner por ter sido a escolha lógica, em detrimento de uma
garotinha, parece ser mais bem compreendida quando se consegue ultrapassar
o limite de uma consciência meramente cognitiva.
“Um humano saberia”, precisamente,
porque, para além de uma moral explícita – isto
é, no caso, para além das 3 leis da robótica, que,
no caso, acabou decidindo entre um salvamento ou outro através
do cálculo de probabilidades – existiria uma consciência
moral irredutível à objetivação e normatização,
o que constituiria – como ato espiritual – uma possibilidade
exclusivamente humana. Sonny, ao ter ignorado os indicadores lógicos,
parece ter agido segundo um critério pautado com fundamento em
uma consciência moral.
Concebendo as noções de
intencionalidade e consciência, logos e liberdade , e culminando
na idéia de consciência moral , de certa maneira, admitiu-se
aqui uma dimensão qualitativa da inteligência humana a
que se chamará de caráter “psicologizado”.
Nesses termos, a crença da AI forte consistiria numa possibilidade
de “despsicologização” da linguagem, para
que se pudesse montar uma base segura de programação,
para que, em se programando a máquina com tal linguagem, ela
se “re-psicologizasse” e passasse a ser e agir como um homem.
A linguagem humana a priori não seria trabalhável em tais
dimensões. O filme, também, sequer se ocupou em explicitar
como Sonny pôde ser programado para tornar-se um exemplo de AI
Forte.
Buscar uma ontologia última para
a linguagem – critério para a elaboração
de uma programação computacional adequada para a AI Forte
- constituiria um projeto, aparentemente, inexeqüível. A
própria psicologia evolutiva não consegue dar respostas
satisfatórias a respeito dessa peculiaridade do “animal
moral”. Quine (1964), em sua teoria do aprendizado da linguagem,
apresenta a última fase desta - a interanimação
das sentenças - como o momento deste salto, em que a linguagem
passa a assumir dimensões que ultrapassam – e muito - a
evidência observacional. Teologicamente, a tradição
cristã apresenta, ainda dentro da idéia de espírito,
a noção de pneûma , dando conta da metáfora
do sopro vital . Tal questão, em filosofia, ainda aparenta situar-se
num problemático patamar de mistério.
De fato, essa espécie de “vida” que
se observa na dinâmica da linguagem humana e na peculiaridade
do agir ético, longe de reduzir-se à caricatura dos “fantasmas
na máquina” de Ryle, torna o problema da AI Forte quase
que um esforço abusivo da abstração pura. Relembrando
o clássico artigo de Nagel (1981), se a “consciência
é o que torna o problema mente-corpo realmente intratável”,
é ela mesma que transforma o problema mente-máquina da
AI Forte numa possibilidade ainda dificilmente defensável.
8. Agradecimento
O autor agradece o apoio da excelsa Profa. Dra. Maria
Aparecida Montenegro, do Departamento de Filosofia da Universidade Federal
do Ceará, a quem, obviamente, não deve ser atribuída
qualquer impropriedade, por ventura, existente neste trabalho.
9. Referências bibliográficas
EU, Robô. Direção: Alex Proyas.
Produção: Laurence Mark, John Davis, Topher Dow e Wyck
Godfrey. Intérpretes: Will Smith, Bridget Moynahan, James Cromwell
e outros. Roteiro: Jeff Vintar e Akiva Goldsman. Música: Marco
Beltrami. Los Angeles : Fox Films, c2004 (115 min), widescreen color.
Produzido por Fox Films do Brasil. Baseado na novela “I, Robot”,
de Isaac Asimov.
Frankl, V.E. (1985). A Presença Ignorada de
Deus .(Trad. Schlupp, W. e Reinhold, H.) Petrópolis: Vozes.
Nagel , T. (1981). What is it like to be a bat?. Em:
Hofstadter, D.R. e Dennet, D.C. (Ed.) The Mind's I (pp. 391-402). Nova
Iorque: Basic Books.
Quine , W. Van O. (1964). Word and Object (Studies
in Communication) . Boston : MIT Press.
Ryle, G. (1949). The Concept of Mind . Chicago : The
University of Chicago Press.
Searle , J. R. (2000). Mente, Linguagem e Sociedade
. (Trad. Rangel, F.) Rio de Janeiro: Editora Rocco (Original publicado
em 1998)
Turing, A. M. (1981). Computing Machine and Intelligence.
Em: Hofstadter, D.R. e Dennet, D.C. (Ed.) The Mind's I (pp. 53-66).
Nova Iorque: Basic Books.
Vaz, H.C.L. (2001). Antropologia Filosófica
(2 Tomos). São Paulo: Edições Loyola.
Wittgenstein, L. (2000). Investigações
Filosóficas . (Trad. Bruni, J.C.) São Paulo: Editora Nova
Cultural.
Nota sobre o autor:
" - I.S. Pereira é graduando em Psicologia
(UFC).
Ciências & Cognição 2006; Vol
09< http://www.cienciasecognicao.org > © Ciências &
Cognição Submetido em 21/06/2006 | Revisado em 14/09/2006
| Aceito em 20/09/2006 | ISSN 1806-5821
– Publicado on line em 30 de novembro de 2006 -
Pereira, Ivo Studart (2006). Eu, robô e
a inteligência artificial forte: o homem entre mente e máquina.
Ciências & Cognição; Ano 03, Vol 09. Disponível
em www.cienciasecognicao.org
topo