O psicólogo e cientista de computação Geoffrey Hinton despediu-se da Google para poder discutir abertamente os perigos da Inteligência Artificial (IA). Para Hinton, o principal problema está na capacidade da IA de desvirtuar os fluxos de informação diários. Fotografias, vídeos e textos podem agora ser adulterados sem grande dificuldade, e as consequências para a estabilidade social podem ser graves
Geoffrey Hinton, conhecido como o “Padrinho da Inteligência Artificial (IA)”, despediu-se da empresa norte-americana Google, onde trabalhava há mais de dez anos, para poder alertar de forma mais livre para os perigos da tecnologia que ajudou a desenvolver, avançou o The New York Times.
Hinton, de 75 anos, é um dos principais responsáveis pelos sistemas digitais que servem de motor a programas como o ChatGPT, a famosa plataforma de texto inteligente alimentada por IA.
Após dedicar uma vida ao estudo e à aplicação prática de redes neurais, sistemas matemáticos complexos que aprendem através da análise de dados, sejam eles fotografias ou texto, o psicólogo cognitivo e cientista de computação britânico teve o seu primeiro grande sucesso em 2012. Nesse ano, juntamente com dois estudantes da Universidade de Toronto, no Canadá, onde lecionava, construiu um sistema com a capacidade de analisar milhares de fotografias e ensinar-se a identificar objetos comuns, como árvores e automóveis. Por essa descoberta, receberia em 2018 um Prémio Turing, o “Nobel da computação”, a culminação de uma longa carreira académica que começou ainda nos seus dias de estudante na Universidade de Edimburgo, na Escócia.
Apercebendo-se do seu potencial transformador no mercado da IA, a Google comprou a empresa estabelecida por Hinton por 44 milhões de dólares (40 milhões de euros), aplicou o seu sistema a uma vasta gama de produtos e abriu um laboratório de IA em Toronto.
Agora, ao diário norte-americano The New York Times e ao canal britânico BBC, o cientista mostra-se arrependido do seu papel na edificação de uma tecnologia cujos perigos são “assustadores”. Os ‘chatbots’ mais avançados, tais como o ChatGPT ou o Bard, produzido pela Google, “ainda não são mais inteligentes do que nós, mas penso que em breve poderão vir a sê-lo", disse Hinton à BBC.
“Neste momento, o que estamos a ver é que programas como o GPT-4 ultrapassam uma pessoa na quantidade de conhecimentos gerais que têm, e ultrapassam-na por muito”, continuou. "E dado o ritmo do progresso, espera-se que as coisas evoluam muito rapidamente. Por isso, temos de nos preocupar com isto".
Para o cientista, o grande perigo da inteligência artificial está na sua capacidade de desvirtuar os fluxos de informação a que os cidadãos têm acesso no dia a dia. Os artigos que lemos, as imagens que vemos, os vídeos que vemos e ouvimos, tudo isto pode ser falsificado ou adulterado com recurso a programas de IA – até ao ponto em que passará a ser impossível tomar por garantida a sua veracidade. Nas mãos erradas, estas ferramentas poderão ser utilizadas com fim a espalhar o caos e minar as bases democráticas de várias sociedades: "É difícil ver como se pode evitar que maus agentes utilizem esta tecnologia para coisas más", alertou Hinton ao The New York Times.
Depois, há o risco para os mercados laborais, com milhares de empregos postos em causa por sistemas de automação que ficam mais baratos. Com o possível aumento do desemprego crescerá a precariedade e a instabilidade social. Mais: as máquinas poderão tornar-se mais inteligentes do que os humanos, já que aprendem de forma inesperada e muitas vezes incontrolável: “Algumas pessoas acreditavam na ideia de que este material podia ficar mais inteligente do que as pessoas. Eu achava que estava a 30 ou 50 anos de distância, ou até mais. Obviamente, já não penso assim," admitiu.
Em resposta às preocupações de Hinton, em comunicado citado pela BBC, Jeff Dean, cientista-chefe da Google, disse estar “comprometido com uma abordagem responsável da inteligência artificial” e a “aprender continuamente os riscos emergentes.”
O certo é que esta é apenas a última voz a erguer-se contra a aceleração desregulada da inteligência artificial. Ainda no passado domingo, o G7, o grupo de economias mais desenvolvidas do mundo, apelou aos países “para que participem ativamente no desenvolvimento de normas internacionais sobre a regulamentação da IA e promovam o diálogo sobre questões como a avaliação de riscos”. Em 29 de março, mais de mil líderes da área tecnológica, entre eles o empresário Elon Musk, assinaram uma carta conjunta que urgia os produtores de IA a suspenderem o desenvolvimento dos seus sistemas mais avançados, alertando para os "riscos profundos para a sociedade e para a humanidade".
Texto de José Gonçalves Neres, editado por João Pedro Barros