Espirituialidades e Sociedade


Notícias:

>  Antropomorfismo na IA: equívocos na apropriação da linguagem humana



 

 

25/06/2021


Antropomorfismo na IA: equívocos na apropriação da linguagem humana

Os algoritmos de IA, mesmo superando a capacidade humana em diversas tarefas, não aprendem no sentido atribuído ao termo "aprendizagem" pelos educadores

 

por Dora Kaufman

 

 

A autodenominação de “Homo sapiens” expressa a crença dos humanos de que sua superioridade está no fato de serem os únicos seres vivos dotados de inteligência. Yuval Harari (Homo Deus: Uma breve história do amanhã, 2016) relativiza a inteligência como explicação de nossa posição dominante no planeta; para ele, o fator crucial seria a capacidade do Homo sapiens de cooperar uns com os outros de forma flexível e em larga escala (a cooperação de abelhas e formigas, por exemplo, carece de flexibilidade; e os elefantes e chimpanzés cooperam em pequenos grupos): "os Sapiens governam o mundo porque somente eles são capazes de tecer uma teia intersubjetiva de significados: uma teia de leis, forças, entidades e lugares que existem unicamente em nossa imaginação comum. Essa teia permite apenas aos humanos organizar cruzadas, revoluções socialistas e movimentos de direitos humanos”.

Para o filósofo inglês Nick Bostrom (Superintelligence: Paths, Dangers, Strategies, 2014), essa soberania estaria ameaçada com a "explosão da inteligência" e o advento da Superinteligência (“qualquer intelecto que exceda o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse”). A Superinteligência seria detentora da vantagem estratégica de moldar o futuro da vida inteligente com base em suas próprias motivações, enxergando os humanos como um perigo potencial, portanto, devendo ser subjugados ou eliminados, o que o filósofo chamou de “segundo risco existencial” (o primeiro foi a bomba atômica). Esse cenário é mera ficção, a inteligência artificial hoje é “apenas" um conjunto de técnicas estatísticas.

O campo da inteligência artificial (IA) foi inaugurado em 1956, quando dois jovens matemáticos – John McCarthy e Marvin Minsky – convidaram Claude Shannon (formulador da teoria da informação), Ad Nathaniel Rochester (projetista do primeiro computador comercial da IBM) e outros seis eminentes pesquisadores para um programa de verão no Dartmouth College, uma das Ivy League situada no estado de New Hampshire, EUA. O convite tinha como pressuposto que "todos os aspectos da aprendizagem ou qualquer outra característica da inteligência podem, em princípio, ser descritos com tanta precisão que uma máquina pode ser feita para simulá-los". Quase 70 anos depois, essa profecia ainda não se realizou, mas é fato que os algoritmos de IA estão desempenhando com mais eficiência e mais rápido algumas funções exercidas pelo cérebro biológico (não restrito ao cérebro humano).

Os humanos são considerados inteligentes porque suas ações visam atingir seus objetivos ou, alternativamente, são inteligentes na medida em que são capazes de perceber e alcançar o que desejam. Como argumenta Stuart Russell (Human Compatible: Artificial Intelligence and the Problem of Control, Viking/Penguin, 2019), "todas as outras características da inteligência – perceber, pensar, aprender, inventar e assim por diante – podem ser compreendidas por meio de suas contribuições para nossa capacidade de agir com sucesso". Essa definição generalista enseja o questionamento inicial a ideia de “máquinas inteligentes”: os sistemas automatizados não têm objetivos próprios, os objetivos são dos humanos.

Em 1959, foi criado o subcampo da IA denominado “Aprendizado de Máquina” (machine learning). Para Melanie Mitchel (Why AI is Harder Than We Think, 2021), “aprender” é um termo impróprio porque se uma máquina realmente “aprendesse” uma nova habilidade, seria capaz de aplicá-la em diferentes contextos. O que um algoritmos de IA faz, efetivamente, interfere no ambiente e nas pessoas, mas não é "aprender" no sentido humano. É frequente a apropriação da linguagem humana pelos tecnólogos para descrever o funcionamento dos algoritmos de IA (até mesmo porque não existe opção; a linguagem das máquinas, a matemática, é hermética).

Os profissionais de tecnologia, por vezes, extrapolam essa apropriação ao comentar o desempenho de seus modelos. Em 2011, por exemplo, quando o Computador Watson venceu o Jeopardy, John E. Kelly III, executivo da IBM considerado o “pai do Watson", declarou: “Estamos em um momento muito especial, o Watson pode ler todos os textos sobre cuidados de saúde do mundo em segundos”. Em 2017, quando AlphaGo venceu por 3x0 o campeão mundial de Go Ke Jie, repetindo a façanha do ano anterior quando derrotou por 4x1 o sul-coreano Lee Sedol, Dave Silver, pesquisador-chefe do projeto AlphaGo da empresa de tecnologia DeepMind da Alphabet (Google), afirmou: "Sempre podemos perguntar ao AlphaGo se ele pensa que está indo bem durante o jogo”, complementando "Foi apenas no final do jogo que o AlphaGo pensou que iria ganhar”. Evidente que os cientistas da IBM sabem que o Watson não lê ou entende como os humanos, e que os cientistas da DeepMind sabem que o AlphaGo não tem objetivos nem pensamentos como os humanos, contudo, essas apropriações indevidas, reverberadas pela mídia, têm o potencial de confundir os usuários.

As narrativas antropomórficas – presumindo para outros animais e/ou seres inanimados características humanas – para designar as funcionalidades dos sistemas de IA não são inteiramente eficazes, apesar do benefício de tornar essas funcionalidades mais acessíveis ao público leigo. No início da década de 1980, Drew McDermott, eminente professor de IA na Universidade de Yale (Artificial Intelligence Meets Natural Stupidity, MIT Press, Cambridge, 1981, expressou preocupação com o potencial descrédito do campo da IA pelo uso da linguagem humana para descrever seus programas. Na visão de McDermott, o uso desses termos representa as aspirações dos pesquisadores, e não o que os computadores efetivamente fazem, denominando-os de “mnemônicos de desejo”("wishful mnemonics”).

Os algoritmos de IA, mesmo superando a capacidade humana em diversas tarefas, não são "sencientes” (aplicado a seres vivos dotados de sentimentos e sensibilidade), não aprendem no sentido atribuído ao termo "aprendizagem" pelos educadores: processo de mudança de comportamento gerado pela experiência com base em fatores emocionais, neurológicos, relacionais e ambientais. Como pondera a educadora Priscila Gonsales “talvez fosse mais apropriado, na associação com os algoritmos de IA, considerar o verbo treinar no lugar de aprender”. Alternativamente, a opção é ressignificar o sentido de, pelo menos, determinados termos da linguagem humana.

 

Fonte: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/06/antropomorfismo-na-ia-equivocos-na-apropriacao-da-linguagem-humana.html

 

A IA hoje não é inteligente, não é artificial, nem objetiva e neutra. Como pondera Kate Crawford, os sistemas de IA "estão embutidos nos mundos social, político, cultural e econômico, moldados por humanos, instituições e imperativos que determinam o que eles fazem e como o fazem”. A IA também não possui agenciamento moral, é "meramente" um modelo estatístico de probabilidade.


Fonte
: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/05/inteligencia-artificial-nao-e-inteligente-nem-artificial.html

 

*Dora Kaufman professora do TIDD PUC - SP, pós-doutora COPPE-UFRJ e TIDD PUC-SP, doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais”, e “A inteligência artificial irá suplantar a inteligência humana?”. Professora convidada da Fundação Dom Cabral

 

 

 

 

 

>>>   clique aqui para acessar a página principal de Notícias

>>>   clique aqui para voltar a página inicial do site

>>>   clique para ir direto para a primeira página de Artigos, Teses e Publicações