Especialistas falam sobre iminência da IA tão inteligente quanto a mente humana

A inteligência artificial continua em pleno desenvolvimento. Ainda há muito o que aperfeiçoar na área, em especial no que tange o sonho disruptivo sobre quando a humanidade conseguirá alcançar a chamada “inteligência artificial geral” (AGI, da sigla em inglês) — um sistema tão inteligente quanto os humanos. Isso porque atualmente existem inúmeros estudos e testes aplicados em supermáquinas, mas nenhuma tecnologia do gênero é capaz de superar um cérebro humano, por enquanto.

E quando essa façanha poderá ser alcançada pela humanidade? Este é justamente o tema central do livro Arquitetos da Inteligência, publicado pelo escritor e futurista Martin Ford. Em sua obra, ele entrevistou 23 das mais proeminentes mentes que trabalham com IA atualmente, incluindo o CEO do DeepMind, Demis Hassabis; Jeff Dean, diretor da divisão de AI da Google; e Fei-Fei Li, diretor da AI de Stanford. E a todos eles foi perguntado quando eles acham que a humanidade chegará a pelo menos 50% de chance de construir uma AGI.

Apenas 18 pessoas responderam Ford e, dessas, apenas duas tiveram suas opiniões registradas, fornecendo visões bastante divergentes: Ray Kurzweil, futurista e diretor de engenharia da Google, sugeriu que em 2029 haverá 50% de chance de uma AGI ser construída, enquanto que Rodney Brooks, roboticista e co-fundador da iRobot, apostou no longínquo ano 2200. Os demais palpites serviram para formar uma média, compilando uma estimativa de 81 anos (ou seja, até 2099, mais ou menos).

Os especialistas, portanto, concordam que a AGI é possível, mas ainda haverá muito estudo a ser feito no campo. Em entrevista ao The Verge, Ford destaca como achou curioso que as opiniões coletadas variam do otimismo ao pessimismo conforme a idade dos entrevistados, bem como o tempo que cada um deles vem trabalhando na área. Além disso, os métodos para se alcançar a inteligência artificial geral foi um dos pontos altos e de maior discussão em toda a pesquisa.

Alguns pesquisadores, por exemplo, acreditam que para se construir uma AGI basta tempo e esforço, enquanto que outros afirmam que será necessário passar por algumas descobertas ainda, até se alcançar a meta. Curiosamente, os especialistas fundamentados no subcampo de Deep Learning tendem a pensar que o progresso será feito através de redes neurais — um dos temas mais em voga da inteligência artificial contemporânea.

Por outro lado, outros acreditam que ainda falta avançar em subcampos adicionais, tais como lógica simbólica. Ainda assim, um ponto em comum convergiu em praticamente todas as afirmações: todos observaram que existem limitações com a tecnologia atual, apontando para habilidades que ainda precisam ser aperfeiçoadas na área de IA.

Uma dessas técnicas é a “transferência de aprendizagem”, cujo título é autoexplicativo; bem como o aprendizado não supervisionado, em que os sistemas aprendem sem interferências humanas notáveis.

Previsões x provisões

Os entrevistados do livro de Ford também enfatizaram que é praticamente impossível realizar uma previsão exata no campo da inteligência artificial, por mais irônica que essa frase possa parecer. O motivo é a tecnologia-chave, cujo verdadeiro potencial ainda não foi realmente descoberto — ou assim afirma Stuart Russell, professor da Universidade da Califórnia e autor de um dos livros fundamentais sobre IA. Para ele, o avanço necessário para se construir uma AGI “não tem nada a ver com conjuntos de dados maiores ou máquinas mais rápidas”.

E quando se fala sobre inteligência artificial é quase inevitável não levantar questões sobre a ansiedade robótica, isto é, os perigos que as máquinas podem representar em algum possível futuro — a hipótese da hipótese. Segundo Nick Bostrom, filósofo de Oxford e autor do livro Superintelligence, a maior ameaça reside no alinhamento de valores; afinal, seria difícil ensinar uma AGI sobre a ética e a moral humana.

“A preocupação não é que [a AGI] odiaria ou se ressentiria por ser escravizada, ou que de repente uma centelha de consciência surgiria e se rebelaria”, explica Bostrom, “mas sim que seria muito competente perseguir um objetivo que se difere do que realmente queremos”. Ainda mais quando humanos, por si só, tendem a ter visões e desejos divergentes a respeito de tudo, praticamente. Isso sem contar outras questões além das existenciais, como uma possível ruptura econômica ou o uso de autômatos como material de guerra.

Essas questões podem parecer uma distração para os verdadeiros avanços que a área pode estar perdendo, enquanto os cientistas debatem. Contudo, para Ford, esse tipo de debate é um dos aspectos mais importantes para os arquitetos da inteligência; afinal, não existem respostas simples em um campo tão complexo quanto o da inteligência artificial — e menos ainda no que tange a “geral”. A única certeza, no fim das contas, é que quando essa realidade for alcançada, será algo perturbador — se já não o está sendo.

via Canaltech

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *