25/06/2021
Antropomorfismo na IA: equívocos na apropriação
da linguagem humana
Os algoritmos de IA, mesmo superando a capacidade
humana em diversas tarefas, não aprendem no sentido atribuído
ao termo "aprendizagem" pelos educadores
por Dora Kaufman
A autodenominação de “Homo sapiens” expressa
a crença dos humanos de que sua superioridade está no
fato de serem os únicos seres vivos dotados de inteligência.
Yuval Harari (Homo Deus: Uma breve história do amanhã,
2016) relativiza a inteligência como explicação
de nossa posição dominante no planeta; para ele, o fator
crucial seria a capacidade do Homo sapiens de cooperar uns com os outros
de forma flexível e em larga escala (a cooperação
de abelhas e formigas, por exemplo, carece de flexibilidade; e os elefantes
e chimpanzés cooperam em pequenos grupos): "os Sapiens governam
o mundo porque somente eles são capazes de tecer uma teia intersubjetiva
de significados: uma teia de leis, forças, entidades e lugares
que existem unicamente em nossa imaginação comum. Essa
teia permite apenas aos humanos organizar cruzadas, revoluções
socialistas e movimentos de direitos humanos”.
Para o filósofo inglês Nick Bostrom (Superintelligence:
Paths, Dangers, Strategies, 2014), essa soberania estaria ameaçada
com a "explosão da inteligência" e o advento
da Superinteligência (“qualquer intelecto que exceda o desempenho
cognitivo dos seres humanos em praticamente todos os domínios
de interesse”). A Superinteligência seria detentora da vantagem
estratégica de moldar o futuro da vida inteligente com base em
suas próprias motivações, enxergando os humanos
como um perigo potencial, portanto, devendo ser subjugados ou eliminados,
o que o filósofo chamou de “segundo risco existencial”
(o primeiro foi a bomba atômica). Esse cenário é
mera ficção, a inteligência artificial hoje é
“apenas" um conjunto de técnicas estatísticas.
O campo da inteligência artificial (IA) foi inaugurado em 1956,
quando dois jovens matemáticos – John McCarthy e Marvin
Minsky – convidaram Claude Shannon (formulador da teoria da informação),
Ad Nathaniel Rochester (projetista do primeiro computador comercial
da IBM) e outros seis eminentes pesquisadores para um programa de verão
no Dartmouth College, uma das Ivy League situada no estado de New Hampshire,
EUA. O convite tinha como pressuposto que "todos os aspectos da
aprendizagem ou qualquer outra característica da inteligência
podem, em princípio, ser descritos com tanta precisão
que uma máquina pode ser feita para simulá-los".
Quase 70 anos depois, essa profecia ainda não se realizou, mas
é fato que os algoritmos de IA estão desempenhando com
mais eficiência e mais rápido algumas funções
exercidas pelo cérebro biológico (não restrito
ao cérebro humano).
Os humanos são considerados inteligentes porque suas ações
visam atingir seus objetivos ou, alternativamente, são inteligentes
na medida em que são capazes de perceber e alcançar o
que desejam. Como argumenta Stuart Russell (Human Compatible: Artificial
Intelligence and the Problem of Control, Viking/Penguin, 2019),
"todas as outras características da inteligência –
perceber, pensar, aprender, inventar e assim por diante – podem
ser compreendidas por meio de suas contribuições para
nossa capacidade de agir com sucesso". Essa definição
generalista enseja o questionamento inicial a ideia de “máquinas
inteligentes”: os sistemas automatizados não têm
objetivos próprios, os objetivos são dos humanos.
Em 1959, foi criado o subcampo da IA denominado “Aprendizado
de Máquina” (machine learning). Para Melanie Mitchel (Why
AI is Harder Than We Think, 2021), “aprender” é
um termo impróprio porque se uma máquina realmente “aprendesse”
uma nova habilidade, seria capaz de aplicá-la em diferentes contextos.
O que um algoritmos de IA faz, efetivamente, interfere no ambiente e
nas pessoas, mas não é "aprender" no sentido
humano. É frequente a apropriação da linguagem
humana pelos tecnólogos para descrever o funcionamento dos algoritmos
de IA (até mesmo porque não existe opção;
a linguagem das máquinas, a matemática, é hermética).
Os profissionais de tecnologia, por vezes, extrapolam essa apropriação
ao comentar o desempenho de seus modelos. Em 2011, por exemplo, quando
o Computador Watson venceu o Jeopardy, John E. Kelly III, executivo
da IBM considerado o “pai do Watson", declarou: “Estamos
em um momento muito especial, o Watson pode ler todos os textos sobre
cuidados de saúde do mundo em segundos”. Em 2017, quando
AlphaGo venceu por 3x0 o campeão mundial de Go Ke Jie, repetindo
a façanha do ano anterior quando derrotou por 4x1 o sul-coreano
Lee Sedol, Dave Silver, pesquisador-chefe do projeto AlphaGo da empresa
de tecnologia DeepMind da Alphabet (Google), afirmou: "Sempre podemos
perguntar ao AlphaGo se ele pensa que está indo bem durante o
jogo”, complementando "Foi apenas no final do jogo que o
AlphaGo pensou que iria ganhar”. Evidente que os cientistas da
IBM sabem que o Watson não lê ou entende como os humanos,
e que os cientistas da DeepMind sabem que o AlphaGo não tem objetivos
nem pensamentos como os humanos, contudo, essas apropriações
indevidas, reverberadas pela mídia, têm o potencial de
confundir os usuários.
As narrativas antropomórficas – presumindo para outros
animais e/ou seres inanimados características humanas –
para designar as funcionalidades dos sistemas de IA não são
inteiramente eficazes, apesar do benefício de tornar essas funcionalidades
mais acessíveis ao público leigo. No início da
década de 1980, Drew McDermott, eminente professor de IA na Universidade
de Yale (Artificial Intelligence Meets Natural Stupidity, MIT
Press, Cambridge, 1981, expressou preocupação com o potencial
descrédito do campo da IA pelo uso da linguagem humana para descrever
seus programas. Na visão de McDermott, o uso desses termos representa
as aspirações dos pesquisadores, e não o que os
computadores efetivamente fazem, denominando-os de “mnemônicos
de desejo”("wishful mnemonics”).
Os algoritmos de IA, mesmo superando a capacidade humana em diversas
tarefas, não são "sencientes” (aplicado a seres
vivos dotados de sentimentos e sensibilidade), não aprendem no
sentido atribuído ao termo "aprendizagem" pelos educadores:
processo de mudança de comportamento gerado pela experiência
com base em fatores emocionais, neurológicos, relacionais e ambientais.
Como pondera a educadora Priscila Gonsales “talvez fosse mais
apropriado, na associação com os algoritmos de IA, considerar
o verbo treinar no lugar de aprender”. Alternativamente, a opção
é ressignificar o sentido de, pelo menos, determinados termos
da linguagem humana.
Fonte: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/06/antropomorfismo-na-ia-equivocos-na-apropriacao-da-linguagem-humana.html
A IA hoje não é inteligente, não é artificial,
nem objetiva e neutra. Como pondera Kate Crawford, os sistemas de IA
"estão embutidos nos mundos social, político,
cultural e econômico, moldados por humanos, instituições
e imperativos que determinam o que eles fazem e como o fazem”.
A IA também não possui agenciamento moral, é "meramente"
um modelo estatístico de probabilidade.
Fonte: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/05/inteligencia-artificial-nao-e-inteligente-nem-artificial.html
*Dora Kaufman professora do TIDD PUC - SP, pós-doutora
COPPE-UFRJ e TIDD PUC-SP, doutora ECA-USP com período na Université
Paris – Sorbonne IV. Autora dos livros “O Despertar
de Gulliver: os desafios das empresas nas redes digitais”,
e “A inteligência artificial irá suplantar a
inteligência humana?”. Professora convidada da Fundação
Dom Cabral
>>> clique aqui para acessar a página principal
de Notícias
>>>
clique aqui para voltar a página inicial do site
>>>
clique para ir direto para a primeira página de Artigos, Teses e Publicações