Mostrar mensagens com a etiqueta Inteligência artificial. Mostrar todas as mensagens
Mostrar mensagens com a etiqueta Inteligência artificial. Mostrar todas as mensagens

28.4.23

Noam Chomsky: “Esta inteligência artificial é o ataque mais radical ao pensamento crítico”

Ivo Neto e Karla Pequenino, in Público online

Um dos maiores intelectuais do nosso tempo, Noam Chomsky, alerta para os problemas de sistemas como o ChatGPT. Uma entrevista em que também fala de redes sociais, luta de classes e neofascismo.

Há um mês, o reputado filósofo e linguista Noam Chomsky co-assinou um artigo no New York Times em que condena a “falsa promessa do ChatGPT”, criticando o rumo que o desenvolvimento da inteligência artificial (IA) levou. Ao Ípsilon, numa videochamada, o especialista do MIT reforçou o desassossego com a forma como a tecnologia está a evoluir, com algoritmos que nos dão conteúdo à nossa medida e chatbots que simulam a comunicação humana e contribuem para a inércia analítica e criativa.

“Este é o ataque mais radical ao pensamento crítico, à inteligência crítica e particularmente à ciência que eu alguma vez vi”, diz o pensador, com 94 anos, apontando a forma como as ferramentas assumem cada vez mais uma dimensão “corporativa”. “A ideia de que podemos aprender alguma coisa com este tipo de IA é um erro”, atira.

Questionado sobre o que fazer com esta mudança tecnológica, que aconteceu de forma tão brusca, destaca o papel da educação. “É impossível travar os sistemas”, avisa Chomsky, que não assinou a carta em que especialistas de todo o mundo pediram uma moratória no desenvolvimento de IA. Explica porquê: “A única maneira [de controlar a evolução tecnológica] é educar as pessoas para a autodefesa. Levar as pessoas a compreender o que isto é e o que não é.” Atribui um significado político a ferramentas como o ChatGPT: “É basicamente como qualquer outra ideologia ou doutrina. Como é que se defende alguém contra a doutrina neofascista? Educando as pessoas.”

O especialista, que tem várias obras traduzidas em Portugal, como As Consequências do Capitalismo, Requiem para um Sonho Americano e Quem Governa o Mundo?, diz que o cenário actual representa “a longa luta de classes”. “É outro caso em que se tenta subordinar, marginalizar as pessoas, ao levá-las a olhar para o Instagram, ou falar com um chatbot sem pensar no que está a acontecer no mundo”, defende.

Quando nos confirmou a disponibilidade para esta entrevista, fomos ao ChatGPT, que se tornou uma das ferramentas mais associadas à IA, e perguntámos que questões colocar a Noam Chomsky. Vamos, então, começar com uma dessas perguntas. Seria possível criar uma inteligência artificial capaz de compreender e utilizar a linguagem humana da mesma forma que os seres humanos o fazem?
Há um campo de estudo que se liga a essas questões: é a ciência cognitiva. A IA não lida com isso, centra-se noutros aspectos. Actualmente é um dos elementos do movimento anticiência. Preocupa-se, sobretudo, com simulação e não com o entendimento. O ChatGPT é, assim, um exercício inteligente de simulação. Percorre quantidades astronómicas de dados, através de programas inteligentes, para produzir resultados semelhantes à informação que encontra. Não diz nada sobre linguagem, aprendizagem, inteligência. E isso é muito fácil de provar.

Como é que se mostra que o ChatGPT é só um simulador?
Estes sistemas, se olharmos para eles, funcionam para linguagens impossíveis. Funcionam com linguagens que as crianças não conseguem aprender, assim como as linguagens existentes. Seria o mesmo que um físico chegasse e dissesse: está aqui um conjunto de possibilidades que podem acontecer e outras que não podem acontecer e não identifico qualquer diferença entre elas. Isto não é ciência.

O que vê então como inteligência artificial?
Se olharmos para o que Alan Turing [1912-1954] disse, há já muito tempo, a IA é descrita como a capacidade para utilizar computadores e programação para ver se conseguimos alguma compreensão sobre o que é a inteligência humana. Isso é ciência pura. Só que a IA, tal como é entendida actualmente, é um projecto corporativo que visa reunir conteúdos para serem usados por sistemas de simulação em grande escala. A ideia de que podemos aprender alguma coisa com este tipo de IA é um erro. Elas [as tecnologias de IA] criam uma atmosfera onde a explicação e a compreensão não têm qualquer valor. O que se faz é tentar simular um ataque profundo à natureza não só da ciência, mas também da investigação racional no seu conjunto.

Como é que os especialistas deveriam estar a tratar de questões relacionadas com a IA?
Não há nada de errado no que estão a fazer, se o interesse for a simulação. Pode ser positivo. Eu uso [programas de inteligência artificial] nas legendas durante as entrevistas porque já tenho dificuldades auditivas. Mas a investigação de IA acontece, por exemplo, nos estudos sobre a forma como os bebés pensam. O livro What Babies Know, de Elizabeth Spelke, inclui uma análise detalhada sobre a forma como os bebés adquirem a linguagem e a compreensão do ambiente que os rodeia durante o primeiro ano de vida. Isto é feito usando experimentação científica e outros métodos, como análises estatísticas dos exemplos disponíveis para as crianças [aprenderem]. Estes métodos de investigação convergem para se descobrir como é que os humanos desenvolveram as capacidades intelectuais. É como estudar uma colónia de formigas para perceber como operam. Para isso, é preciso ciência, não simulação.

O desenvolvimento das plataformas de IA generativa, como o ChatGPT ou o Dall-E, tem suscitado receios devido à desinformação. Há umas semanas, uma imagem, em que o Papa aparecia vestido com roupa diferente da que habitualmente usa, foi partilhada por muitos como se fosse verdadeira. A mente humana está preparada para lidar com o que é falso ou verdadeiro?
Vamos pegar num caso concreto e possível, com o qual estamos bastante familiarizados há centenas de anos: um hábil estudante de Arte vai ao museu e cria uma cópia muito sofisticada do auto-retrato de Rembrandt. É preciso um historiador de arte sofisticado para dizer a diferença entre o original e a cópia. Hoje em dia, os historiadores de arte utilizam alta tecnologia para tentar distinguir as cópias das obras originais. E é muito difícil.

Isso é a natureza da simulação. Pode ser tão sofisticada que uma pessoa que não esteja tão bem preparada não nota a diferença. É o caso da imagem do Papa. Isso abre portas a outras questões.

Como roubo de identidade ou difamação.
Exactamente. Estes novos sistemas são uma ferramenta fantástica para a difamação e serão certamente utilizados para isso. O exemplo [do Papa] que mencionou é uma espécie de piada e pretendia, certamente, ser uma piada. Mas muito em breve, podem ter a certeza, haverá uma utilização maciça da simulação de vozes, de rostos, de elementos, que, combinados, pretenderão atribuir algo a uma pessoa que, na verdade, não tem responsabilidade nisso. Podem ser criados conteúdos, atribuídos a pessoas credíveis, dando credibilidade aos maiores disparates imagináveis.
Os desenvolvimentos na inteligência artificial são “o mais radical ataque ao pensamento crítico, à inteligência crítica e à ciência que alguma vez" Chomsky viu

Mas há outro tipo de riscos. Como as pessoas que olham para estes programas como reais. E fazem perguntas como: devo deixar a minha mulher? As pessoas são extremamente ingénuas. Já há casos [em que foram feitas perguntas como estas] com sistemas como a Alexa ou a Siri… As pessoas desenvolvem relações [com as máquinas] e até se podem apaixonar. Isto é muito perigoso. Há casos de suicídio em que as pessoas seguiram os conselhos dos dispositivos de simulação.

A capacidade de danos é extraordinária. Há algumas semanas, um grande número de especialistas de todo o espectro pediu uma moratória no desenvolvimento desta tecnologia, devido aos enormes danos que podem ser causados.

Há forma de travar o desenvolvimento de uma tecnologia deste tipo?
[A desinformação] já acontecia com a Internet. Há artigos publicados online em que eu apareço como autor principal e não foram escritos por mim. E depois de chegarem à Internet, é impossível parar a sua propagação. E, depois, há outra pergunta: o que resulta desse esforço tecnológico é tão útil, como acontece com as legendas desta entrevista? Isso não é assim tão óbvio.

Então concorda com as pessoas que assinaram a petição pedindo calma na evolução da tecnologia de IA?

Pois. De facto, estávamos à espera de ver lá o seu nome.
Não assinei por duas razões. Primeiro, porque exagerou muito o que os sistemas de facto estão a fazer e são capazes de fazer – e, portanto, contribui para estas ilusões e mal-entendidos. A outra razão é que é impossível travar os sistemas. Não se pode impedir os actores maliciosos de inundar a Internet com todo o tipo de lixo.

A única maneira de ajudar é educar as pessoas para a autodefesa. Podemos levar as pessoas a compreender o que IA é e o que não é. Acabar com a euforia e olhar para a realidade como ela é. É basicamente como qualquer outra ideologia ou doutrina. Como é que se defende alguém contra a doutrina neofascista? Educando as pessoas. Não há maneira de a impedir, não vai acabar nem desaparecer. Pode educar-se a população para compreender como realmente são as coisas.

E como é que se deve educar? Pode dar exemplos mais concretos?
Pegue num demagogo como Trump. É um actor muito hábil. Ele sabe como carregar nos botões certos. Sabe falar para as pessoas com um cartão numa mão a dizer “amo-te” enquanto as apunhala nas costas com a outra.

Não podemos dizer às pessoas: "Olha, ele não te ama." É preciso dizer: "Olha, estão a apunhalar-te pelas costas." Deve-se apontar para o programa legislativo [destes políticos] e mostrar o que realmente é – um serviço abjecto à riqueza privada e ao poder empresarial. Mas a verborreia [de Trump] não fala disso. Pelo contrário, diz que é do partido das pessoas, das pessoas que trabalham. E safa-se. Basta olhar para as sondagens. Falta educação, e essa educação, essa protecção, era o que se fazia quando se tinham organizações que representavam as pessoas.

Os movimentos sindicais.
Ronald Reagan e Margaret Thatcher, quando inauguraram o assalto neoliberal, tiveram, eles ou os assessores, uma primeira ideia-chave: acabar com os sindicatos. Porque é o meio de defesa que as pessoas têm para se reunir, deliberar, e trabalhar em conjunto. Portanto, o primeiro passo das administrações de Reagan e Thatcher foi destruir os sindicatos e abrir a porta para que o sector empresarial avançasse com todo o tipo de meios, na sua maioria ilegais, de trabalho.

Os chamados libertários, como Milton Friedman, odiavam os sindicatos. O próprio Mussolini foi elogiado por ter destruído os sindicatos em Itália porque interferiram com a economia. Este é o cerne da ideologia. Se está a servir grandes riquezas ou poder, assegure-se de que não há oposição.

Acredita que as novas ferramentas de IA também podem contribuir para uma realidade ainda mais polarizada?
Vão certamente ser usadas com esse propósito, basta olharmos para o mundo em que vivemos. Estes movimentos anticiência começaram há várias gerações. A indústria do tabaco, há 70 anos, foi uma das propulsoras, com um amplo programa de desinformação. Quando se descobriu que o tabaco era letal, a indústria do tabaco não se limitou a negar esses factos: tentou denegrir as provas científicas, explicando que a ciência não é definitiva. Mais recentemente, temos a indústria dos combustíveis fósseis. A estratégia é influenciar o público a ponto de negar a objectividade da ciência, ao semear dúvidas, ao dizer que a ciência não é fiável, ao alertar para o desemprego.
Todos estão sozinhos, a perseguir as suas próprias fantasias. É o sistema ideal para controlar as pessoas. A longa luta de classes está sempre em curso. O cenário actual, com a tecnologia e a IA, é outro caso em que se tenta subordinar, marginalizar as pessoas, ao levá-las a olhar para o Instagram ou a falar com um chatbot sem pensar no que está a acontecer no mundoNoam Chomsky

E penso que a chamada inteligência artificial enquadra-se muito bem nisto. [As ferramentas de IA] estão a induzir no público uma sensibilidade que nega fundamentalmente o objectivo da ciência. De que vale compreender o que quer que seja quando se pode analisar um sem fim de dados e prever o que vai acontecer? Este é o mais radical ataque ao pensamento crítico, à inteligência crítica e particularmente à ciência que eu alguma vez vi.

A azáfama em torno da IA faz com que as pessoas também comecem a estar dessensibilizadas em relação aos riscos. Como é que se luta contra isto?
Pensemos nos direitos das mulheres. Se perguntassem à minha avó, quando ela estava na cozinha a tomar conta da família, “Estás privada dos teus direitos?”, ela não saberia do que estavam a falar. As mentalidades começaram a mudar por causa de mulheres jovens em movimentos activistas que começaram a questionar-se: “Porque é que temos de fazer isso? Porque é que temos de estar subordinadas?” Essas dúvidas propagaram-se e conduziram àquele que é provavelmente o principal movimento da história moderna em termos de consequências e resultados.

Não há forma de parar estas coisas, excepto pela forma como foi feito ao longo da História por pessoas que se organizam e lutam por direitos, conquistando-os ao longo dos anos.

Alguns países começaram a avançar com legislação nesta área. Concorda com este modus operandi?
A legislação não ajuda. Não podemos proibir o Mein Kampf [livro de Adolf Hitler]. O que se tem de fazer é encorajar as pessoas a lê-lo e a descobrir o que é. Quer viver neste tipo de mundo? Isso é o que se faz.

Não nos podemos esquecer de uma coisa: há imenso capital investido nestas tecnologias. Há instituições e organizações poderosas que se vão envolver nestas tecnologias e encontrarão inúmeras formas de contornar a legislação. Especialmente se as pessoas realmente quiserem isto [IA], criando uma lógica de procura e oferta. Aí as grandes organizações vão, certamente, encontrar uma forma de contornar a lei.

E há alguma forma de mitigar essa procura? Vivemos numa sociedade inteiramente digital. Já não deve faltar muito tempo para termos os nativos digitais em órgãos de decisão.
A verdadeira forma de controlar o processo é acabar com a procura. Fazer com que as pessoas compreendam que há mais coisas no mundo além das fantasias na Internet. Há situações cada vez mais preocupantes. Recentemente foi publicado um estudo, aqui nos EUA, sobre a Geração Z, crianças que nasceram depois de 1997, e a forma como encontram informação sobre o mundo. Quase ninguém lê jornais ou vê televisão. Muito poucos vão ao Facebook, porque já é antiquado. Imaginem o que é ter uma geração inteira a criar a sua visão do mundo através do que se vê no TikTok? Estamos a falar da possibilidade de perdermos uma geração. E a legislação aqui não vai ter grande poder. Não se pode banir o Instagram ou o TikTok.

Gostávamos de voltar atrás, ao facto de as pessoas confiarem e procurarem respostas em tecnologias de IA, como os chatbots, mesmo não se tratando de humanos, o chamado “efeito Eliza”. Porque é que as pessoas confiam nas máquinas?
Porque é que uma criança de três anos fala para os seus brinquedos? Há algo nestas tecnologias que lembra a nossa infância e todos podemos ser apanhados nisso.

A confiança que damos à IA vem de uma necessidade de continuarmos a ter amigos imaginários?
Há uma possibilidade de desenvolvermos o nosso próprio mundo, como se fossemos avatares. Pode ser um acto de criatividade. Outro exemplo é a literatura. Se passar grande parte do tempo a ler romances, vai conhecer melhor as pessoas desses romances do que as pessoas que realmente conhece. Porque sabe aquilo em que acreditam. Não temos esse tipo de informação sobre os nossos melhores amigos. Não há nada de errado [com a criatividade], é uma das mais importantes conquistas da inteligência do ser humano. Mas se alguém se apaixona verdadeiramente por uma personagem de um romance, então isso é um problema.

Esse é um dos problemas da IA? A ideia de que nos pode dar a verdade que queremos?
Pode dar algo tranquilizante, confortável, alguma coisa de que o utilizador gosta e encaminhá-lo para este tipo de mundo. Dar essa ilusão. E isto vai ser utilizado por actores maliciosos.

Se continuarmos a desenvolver estes simuladores, corremos o risco de estar presos em visões distintas do mundo com máquinas que repetem aquilo que queremos ouvir?
É como doutrina e ideologia. Pensemos em Itália: durante o período fascista, as pessoas aceitavam, acreditavam e apoiavam ideologia fascista. Não vale a pena fingir que não o fizeram. Mussolini era muito popular e, na Alemanha, Hitler era ainda mais popular. As pessoas acreditavam neles e queriam-nos.

O que se faz, nestes casos, é criar meios de autodefesa. E, como disse, algo que Mussolini, Hitler e também Thatcher compreendiam todos muito bem é que se tem de destruir a principal forma de as pessoas se defenderem – é preciso eliminar os sindicatos, impedir as pessoas de falarem umas com as outras. É preciso deixá-las separadas. Isto é o mercado ideal. Todos estão sozinhos, a perseguir as suas próprias fantasias, sejam elas quais forem. É o sistema ideal para controlar as pessoas. A longa luta de classes está sempre em curso. O cenário actual, com a tecnologia e a IA, é outro caso em que se tenta subordinar, marginalizar as pessoas, ao levá-las a olhar para o Instagram ou a falar com um chatbot sem pensar no que está a acontecer no mundo.

Já vimos alguns comentadores e políticos de direita a dizer que a IA generativa é enviesada e privilegia opiniões de esquerda e que precisam de criar a “sua” versão das ferramentas. É o começo de um novo tipo de guerra cultural?
Bom, a direita adora falar sobre como é vitimizada. São donos de tudo, gerem tudo, mas argumentam que são vítimas. Lembra a teoria da Grande Substituição. É a ideia de que a raça branca, que tem todas as vantagens, é a vítima porque sente que está a ser substituída. Que o dono dos escravos é a vítima se o escravo não consegue fazer o seu trabalho. E, provavelmente, o dono dos escravos acredita mesmo nisso.

Muitos economistas dizem que não vai demorar muito tempo para que estas máquinas substituam os trabalhadores humanos em algumas actividades.
Actualmente há uma grande preocupação quanto a escritores, arquitectos e engenheiros perderem os seus empregos. Isso é bastante interessante. A classe operária tem vindo a perder os postos de trabalho há muito tempo devido à automação. Quem se preocupa com isso? Mas se os trabalhos de colarinho branco, detidos por homens, estiverem em risco, então é uma catástrofe... Desde o século XVII que a automatização eliminou empregos, com o fim dos tecelões na Índia.

Acredita que as máquinas vão mesmo substituir as pessoas no trabalho?
Não creio que seja provável que muitas destas pessoas percam o emprego. Mas, se o fizerem, bem, isso tem sido o curso da História durante muito tempo. Agora está apenas a atingir algumas pessoas privilegiadas, em vez das vítimas habituais.

E será que as grandes empresas tecnológicas como o Google e a Meta terão mais poder político porque estão por detrás da tecnologia que as pessoas começam a precisar de usar?
As grandes empresas têm poder político por uma razão muito simples: dinheiro, capital. Podem comprar congressistas, podem comprar senadores, podem comprar eleições. Chama-se a isso poder. Não é nada de novo.

Suponha que é eleito para o Congresso nos Estados Unidos. A primeira coisa que faz é telefonar aos financiadores para se certificar de que eles o ajudarão nas próximas eleições. Quando o congressista desliga o telefonema, vai ao seu escritório e assina a nova legislação sobre aquilo que precisam. Estou a fazer uma caricatura, mas é basicamente assim que o sistema legislativo funciona. Com isto, cerca de 70% da população dos Estados Unidos não é representada. Não há uma correlação entre as suas atitudes e preferências e a legislação que é aprovada pelo seu representante no Congresso. Ou seja, eles não estão representados. São os poderosos que escrevem a legislação. Isto é um problema que existe nas sociedades capitalistas.

8.3.23

Uma nova era

Arlindo Oliveira, in Fundação Francisco  Manuel dos Santos

O aparecimento da plataforma ChatGPT, lançada pela OpenAI, apanhou de surpresa muitas pessoas que desconheciam os mais recentes avanços da inteligência artificial. Pela primeira vez, um sistema de inteligência artificial é capaz de dialogar com seres humanos sem cometer erros demasiado óbvios, escreve o professor Arlindo Oliveira.

O aparecimento da plataforma ChatGPT, lançada pela OpenAI, apanhou de surpresa muitas pessoas que desconheciam os mais recentes avanços da inteligência artificial. Porém, o ChatGPT representa uma clara evolução na continuidade de uma linha de investigação em inteligência artificial que, desde há alguns anos, tem conseguido resultados notáveis, escreve o professor Arlindo Oliveira.

O ChatGPT pode ser visto como a mais recente encarnação de modelo da grande família de grandes modelos de linguagem, também chamados de modelos fundacionais. Estes modelos resultam da combinação de dois factores importantes: a utilização de uma família de arquitecturas de redes neuronais artificiais (transformadores ou transformers, em inglês) e a aplicação de uma metodologia que consiste em treinar estas arquitecturas com grandes volumes de dados extraídos da Internet. Alguns destes modelos são treinados também com imagens, permitindo associar textos e imagens e executar tarefas relacionadas, tais como gerar uma imagem a partir de um texto.

Este tipo de arquitectura, o transformador, foi proposto por um artigo científico publicado em 2017 e teve um impacto quase imediato na comunidade científica. Esta arquitectura de redes neuronais faz um uso muito eficaz do tipo de computadores mais usados para treinar estas redes (GPUs, ou graphics processing units) e foi originalmente desenvolvida para permitir que as redes neuronais pudessem relacionar palavras distantes entre si numa frase ou fragmento de texto. Os transformadores vieram a revelar-se muito eficazes em tarefas relacionadas com linguagem, tais como responder a uma pergunta, ou prever uma palavra oculta numa frase.

No entanto, o verdadeiro potencial desta arquitectura revelou-se apenas quando estes modelos começaram a ser treinados com grandes volumes de dados retirados da Internet.

Um dos maiores destes modelos, o GPT-3, disponibilizado em 2020, foi treinado em textos que um ser humano demoraria 5000 anos a ler, se lesse durante 24 horas por dia. O GPT-3 (Generative Pre-Trained Transformer), o terceiro da sua linhagem, é usado pelo ChatGPT e foi treinado para prever a próxima palavra numa sequência de palavras, uma capacidade que lhe permite, por exemplo, responder a perguntas, completar textos ou elaborar artigos. Dada uma sequência de palavras, o GPT-3 consegue adivinhar quais as palavras mais prováveis que se seguem e, escolhendo uma destas palavras, pode gerar textos longos, simplesmente olhando para as palavras anteriores e prevendo as próximas.

O verdadeiro potencial revelou-se quando estes modelos começaram a ser treinados com grandes volumes de dados retirados da Internet. O GPT-3, disponibilizado em 2020, foi treinado em textos que um ser humano demoraria 5000 anos a ler, se lesse durante 24 horas por dia

Arlindo Oliveira

A complexidade destes modelos mede-se pelo número de parâmetros que têm, sendo que o GPT-3 usa 175 mil milhões de parâmetros. Cada um dos parâmetros de uma destas redes representa o peso de uma ligação entre dois neurónios da rede neuronal artificial, um pouco como as sinapses que interligam os neurónios biológicos que temos no nosso cérebro. Por enquanto, os cérebros humanos ainda são muito mais complexos que estes modelos. Estimam-se que existam cerca de mil biliões de sinapses (existe grande incerteza sobre este número) num cérebro humano, um número mais de mil vezes superior ao número de parâmetros dos maiores modelos de linguagem de hoje. Mas uma comparação directa entre o cérebro humano e estes modelos acaba por ter pouco significado, porque os princípios de funcionamento e a forma como aprendem são muito diferentes.

Como funciona, afinal, o ChatGPT e qual a razão porque atingiu tão rapidamente a fama, sendo hoje a plataforma de inteligência artificial mais conhecida do planeta? O ChatGPT representa, de facto, uma pequena mas significativa alteração ao GPT-3, que é o modelo de linguagem subjacente que é usado pelo ChatGPT. Quando se interage directamente com o GPT-3, ele tem tendência a gerar respostas que não são o que esperávamos, inventando frequentemente factos inexistentes ou divergindo de formas inesperadas. O ChatGPT foi treinado para analisar as sugestões de textos feitas pelo GPT-3 e, de entre as várias possibilidades (existe sempre mais de uma palavra possível para completar uma frase), gerar aquelas que parecem mais naturais para um ser humano.

Dezenas de pessoas trabalharam intensamente para escolher de entre as diversas possibilidades de resposta geradas pelo GPT-3 quais as mais adequadas e estas preferências foram introduzidas no ChatGPT, usando um mecanismo conhecido como aprendizagem por reforço baseado nas preferências humanas. A aprendizagem por reforço é o mesmo mecanismo que permitiu desenvolver o sistema que é hoje o melhor jogador de Xadrez e Go, o AlphaZero, desenvolvido pela DeepMind, uma empresa do grupo Google. De entre as miríades de possibilidades de completar uma frase, ou responder a uma pergunta, propostas pelo GPT-3, o ChatGPT foi treinado para escolher aquelas que são preferidas pelos seres humanos.

Pela primeira vez, um sistema de inteligência artificial é capaz de dialogar com seres humanos sem cometer erros demasiado óbvios.

Arlindo Oliveira

A complexidade destes modelos mede-se pelo número de parâmetros que têm, sendo que o GPT-3 usa 175 mil milhões de parâmetros. Cada um dos parâmetros de uma destas redes representa o peso de uma ligação entre dois neurónios da rede neuronal artificial, um pouco como as sinapses que interligam os neurónios biológicos que temos no nosso cérebro. Por enquanto, os cérebros humanos ainda são muito mais complexos que estes modelos. Estimam-se que existam cerca de mil biliões de sinapses (existe grande incerteza sobre este número) num cérebro humano, um número mais de mil vezes superior ao número de parâmetros dos maiores modelos de linguagem de hoje. Mas uma comparação directa entre o cérebro humano e estes modelos acaba por ter pouco significado, porque os princípios de funcionamento e a forma como aprendem são muito diferentes.

Como funciona, afinal, o ChatGPT e qual a razão porque atingiu tão rapidamente a fama, sendo hoje a plataforma de inteligência artificial mais conhecida do planeta? O ChatGPT representa, de facto, uma pequena mas significativa alteração ao GPT-3, que é o modelo de linguagem subjacente que é usado pelo ChatGPT. Quando se interage directamente com o GPT-3, ele tem tendência a gerar respostas que não são o que esperávamos, inventando frequentemente factos inexistentes ou divergindo de formas inesperadas. O ChatGPT foi treinado para analisar as sugestões de textos feitas pelo GPT-3 e, de entre as várias possibilidades (existe sempre mais de uma palavra possível para completar uma frase), gerar aquelas que parecem mais naturais para um ser humano.

Dezenas de pessoas trabalharam intensamente para escolher de entre as diversas possibilidades de resposta geradas pelo GPT-3 quais as mais adequadas e estas preferências foram introduzidas no ChatGPT, usando um mecanismo conhecido como aprendizagem por reforço baseado nas preferências humanas. A aprendizagem por reforço é o mesmo mecanismo que permitiu desenvolver o sistema que é hoje o melhor jogador de Xadrez e Go, o AlphaZero, desenvolvido pela DeepMind, uma empresa do grupo Google. De entre as miríades de possibilidades de completar uma frase, ou responder a uma pergunta, propostas pelo GPT-3, o ChatGPT foi treinado para escolher aquelas que são preferidas pelos seres humanos.

Pela primeira vez, um sistema de inteligência artificial é capaz de dialogar com seres humanos sem cometer erros demasiado óbvios.


Arlindo Oliveira



O resultado final foi um sistema que, pela primeira vez, é convincente de um ponto de vista das respostas que gera e dos textos que escreve. Embora seja possível, e não muito difícil, fazer com que o ChatGPT erre ou gere informação errada, de uma forma geral os textos e as respostas são adequados, convincentes e esclarecedores. Pela primeira vez, um sistema de inteligência artificial é capaz de dialogar com seres humanos sem cometer erros demasiado óbvios. Combinando este facto com a enorme quantidade de informação que foi usada para treinar o modelo de linguagem subjacente resultou num sistema que, embora puramente estatístico, contém uma enorme quantidade de conhecimento e é capaz de o usar para responder aos mais diversos tipos de solicitações.

O ChatGPT não passa, ainda, o teste de Turing, e talvez nunca nenhuma máquina venha a consegui-lo. Muitos investigadores acreditam, de resto, que esse não será um objectivo particularmente relevante. Mas isso não significa que o ChatGPT não seja uma ferramenta útil e impressionante. Modelos deste tipo irão tornar-se progressivamente mais comuns e irão, seguramente, mudar a forma como interagimos uns com os outros e com os computadores. Podemos estar a assistir ao começo de uma nova era na forma como usamos e interagimos com as máquinas.

Autor


Arlindo Oliveira
Professor catedrático e especialista em inteligência artificial

23.2.23

Inteligência artificial no estudo do autismo aplicada em Coimbra

Por Lusa, in Diário das Beiras

A caracterização das perturbações do desenvolvimento do autismo através da análise de tarefas de imitação, com recurso a inteligência artificial, é o objetivo de um projeto, hoje anunciado, das universidades de Coimbra (UC) e de Oxford (Reino Unido).

Denominado Move4ASD, o estudo científico pretende “utilizar abordagens tecnológicas baseadas em metodologias de inteligência artificial para caracterizar o autismo através da análise de tarefas de imitação”, explicou João Ruivo Paulo, investigador do Instituto de Sistemas e Robótica (ISR) da UC, citado em nota de imprensa daquela instituição enviada à agência Lusa.

De acordo com o cientista do Departamento de Engenharia Eletrotécnica e de Computadores (DEEC) da Faculdade de Ciências e Tecnologia da Universidade de Coimbra (FCTUC), o Move4ASD “estuda a hipótese de, nos indivíduos diagnosticados com autismo, o mecanismo de aprendizagem – designado neurónio-espelho – estar alterado, em relação a indivíduos saudáveis”.

“Assim, acredita-se que a aprendizagem de atividades motoras, como andar e dançar, e outras atividades de interação social, possam ser mal interpretadas por indivíduos diagnosticados com esta condição”, observou João Ruivo Paulo.

O Move4ASD vai analisar dados neurofisiológicos e comportamentais, captados através de eletroencefalografia e movimento tridimensional, dados que serão processados com recurso a inteligência artificial para descobrir distinções entre indivíduos saudáveis e participantes do grupo clínico.

“Através desta diferenciação entre grupos será possível identificar biomarcadores neurofisiológicos de padrões motores ainda pouco compreendidos”, frisou o coordenador do projeto.

A equipa científica – que inclui ainda Paulo Menezes e Gabriel Pires (ISR), Miguel Castelo Branco e Teresa Sousa, do Instituto de Imagem Biomédica e de Investigação Translacional de Coimbra (CIBIT) do Instituto de Ciências Nucleares Aplicadas à Saúde (ICNAS) da Universidade de Coimbra, e Tingting Zhu, investigadora da Universidade de Oxford – acredita que com este estudo “será possível contribuir para um melhor conhecimento do autismo, no que diz respeito ao sistema neurónio-espelho”.

No futuro, esperam que possa vir a ser desenvolvida “uma ferramenta automática para identificar estes biomarcadores, que, por sua vez, pode conduzir a uma caracterização otimizada destas perturbações”.

A iniciativa envolve também uma colaboração com a Associação Portuguesa para as Perturbações do Desenvolvimento e Autismo (APPDA), tendo vários jovens desta entidade realizado recentemente uma visita ao ISR, para conhecerem o trabalho ali desenvolvido e o projeto Move4ASD, interagir com robôs e praticar jogos interativos.

“Esta colaboração será essencial para se desenvolver conhecimento científico relevante no âmbito destas perturbações de desenvolvimento”, notou a equipa de investigadores.

19.2.21

Inteligência artificial, o caçador furtivo e a automatização da pobreza

António Covas, in o Observador

Temos de encontrar rapidamente um novo modo de pensar, estar e fazer a política, sob pena de sermos reduzidos a uns idiotas úteis da governação algorítmica.

A inteligência artificial e as máquinas inteligentes continuam a fazer o seu caminho em direção ao ponto de singularidade, o ponto onde a criatura se pode separar do criador. Em pleno processo de deep learning espero bem que o mestre-escola esteja à altura dos desafios e não converta as máquinas inteligentes numa espécie de caçadores furtivos. Seja como for, vamos passar, gradualmente, dos comportamentos prováveis e previsíveis para os comportamentos preditivos e prescritivos, isto é, doravante, vigiar e punir, sensores e censores, a estatística e a matemática no lugar das normas e das regras institucionais, farão parte do novo normal. E os motivos não faltam, senão vejamos: a Segurança Social precisa de vigiar as suas prestações sociais e subsídio de desemprego, o sistema bancário a sua concessão de crédito, as seguradoras os seus serviços de seguro, os serviços fiscais as práticas de fuga e evasão ao fisco, a segurança pública os serviços de vigilância e policiamento, a Justiça os serviços de administração de justiça, a Saúde a prestação de serviços de saúde, o Estado os serviços de segurança. Em todos os casos, um traço comum, prevenir o desvio à norma, logo, vigiar e punir o eventual infrator. Doravante, na nossa circunstância pessoal, vamos acumular pontos de suspeição até atingirmos uma linha vermelha. Um jogo perfeito, uma espécie de playstation para um caçador furtivo.

No século XXI já não precisamos do panótico de Foucault para vigiar e punir, hoje temos um caçador furtivo muito mais eficaz e instruído pela inteligência artificial por via de machine e deep learning. Onde antes havia um projeto arquitetónico singular, hoje temos uma tecnologia com as mesmas propriedades de então, mas muito mais insidiosa e invisível porque totalmente disseminada, pulverizada, anónima, personalizada e altamente eficaz. E, mais grave ainda, podemos estar, em boa medida, a “automatizar os mais pobres”.
Transição digital, reduzir a alienação e a servidão voluntária

No mandato do ex-presidente americano Trump pudemos observar como se processa a governação através das redes sociais e como a alienação e servidão voluntária servem tão elevado propósito de governação. Etienne de la Boétie, que morreu em 1563 com 33 anos de idade, deixou-nos o mais forte e vibrante hino à liberdade que algum dia se escreveu, O discurso sobre a servidão voluntária. A sua mensagem fundamental permanece e foi muito visível ao longo do mandato de Trump: quanta servidão voluntária há nas relações de poder, ou ainda, como fica a liberdade nas relações de poder quando uma parte da servidão é consentida? Lembremo-nos de George Orwell, autor do livro 1984, e das três palavras de ordem inscritas na fachada branca do Ministério da Verdade: Guerra é paz, Liberdade é escravidão, Ignorância é força.

Hoje, em plena era digital, mergulhados na cibercultura e a caminho da pós-humanidade, perguntamos de novo: quanta servidão voluntária estaremos nós a criar por intermédio de um qualquer assistente inteligente, seja ele um robot de companhia, uma machine learning, um mestre-algoritmo ou uma simples aplicação?

Já sabemos que a transição digital significa a criação de mais tecnologias imersivas, intrusivas e invasivas. Por isso mesmo, uma das facetas mais intrigantes do próximo futuro é aquela que diz respeito à divisibilidade e miniaturização tecnológicas e sua transferência para os domínios da liberdade individual e da vida quotidiana e, mesmo, para o interior do nosso habitáculo biológico. Refiro-me à transformação de necessidades individuais e desejos pessoais em objetos de consumo e gadgets pessoais que, doravante, ficam ao alcance da “internet das coisas” e a indústria de serviços digitais personalizados.

Para prevenir e reduzir a alienação digital e a servidão voluntária teremos de fazer um esforço acrescido, não apenas para acautelar os nossos níveis de atenção, mas, também, para entender alguns ambientes digitais onde a alienação e a servidão podem acontecer.

Em primeiro lugar, as cadeias de valor que buscam cada vez mais o consumidor para ser prosumidor, coprodutor e cogestor. É preciso estar muito atento para não ser ludibriado como colaborador, em particular em matéria de direitos, liberdades e garantias socio-laborais.

Em segundo lugar, as redes sociais onde se formam bolhas de opinião quase tribais e onde somos capturados para alimentar algumas teorias da conspiração em favor de terceiros.

Em terceiro lugar, o deslumbramento com a conversão de um serviço público, coletivo ou social, num objeto ou serviço privado produzido pelo mercado e tornado possível pelo avanço tecnológico e digital. Alguns serviços públicos prestados pelo Estado e outras coletividades que são financiados por via do imposto serão, assim, progressivamente substituídos por objetos e serviços personalizados prestados por empresas privadas por via do preço. O Estado será progressivamente desmaterializado e reduzido à sua dimensão mínima, mas os cidadãos mais desfavorecidos podem ser, mais uma vez, ludibriados por esta conversão tecnológica que os atinge diretamente.

Por último, um ambiente digital mais recente onde, supostamente, poderemos reduzir a alienação e servidão voluntária diz respeito à emergência da sociedade colaborativa. É um ambiente digital cheio de equívocos onde coabitam iniciativas colaborativas genuínas e negócios ditos colaborativos de grandes companhias tecnológicas multinacionais e onde, portanto, a dose de ilusão digital e servidão voluntária é muito variável.

A transição digital e a nova governação dos limites

Com a economia digital está de novo em causa o chamado governo dos limites. Ora, em nome de um novo governo dos limites, não podemos inverter os termos da equação, ou seja, as tecnologias serão sempre instrumentos ao serviço dos direitos humanos, a humanidade será sempre um princípio de ordem e a tecnologia um coadjuvante fundamental, tão somente. Todavia, o capitalismo não desistirá e quanto mais imersivas, invasivas e intrusivas forem as tecnologias digitais, maior será a probabilidade de ocorrer alienação digital e servidão voluntária e muito maior a intrusão do machine e deep learning no nosso comportamento.

A pandemia da Covid-19 teve e terá um impacto fortíssimo na transformação digital da sociedade, acelerando a digitalização de processos e procedimentos, por exemplo, na telemedicina, no teletrabalho, no ensino à distância, no comércio online, nos serviços públicos online, nos captores/sensores ambientais, nas câmaras de segurança, no combate ao cibercrime, para referir apenas os casos mais citados. A pandemia da Covid-19 apertou a malha digital e digitalizou ainda mais os cidadãos. Digamos que, involuntariamente, a pandemia causou uma maior adição digital nos cidadãos. Quanto mais isolados e distanciados socialmente, mais ligados e conectados digitalmente.


Não é impunemente que tudo isto acontece. É imprescindível que os cidadãos sejam alertados para o efeito sistémico perverso deste caldeirão digital e para o risco de servidão voluntária, se não for adotado com conta, peso e medida. Os hipermercados digitais já aí estão, basta comprar e descarregar. Cuidado, mais uma vez. Uma aceleração digital feita num ambiente sem literacia e cultura digitais suficientes envolve um risco muito elevado e pode abrir a porta a graves episódios de violação da privacidade e da liberdade.

Por todas estas razões, o jogo do caçador furtivo só agora começou. Será uma espécie de jogo do gato e do rato. De um lado, o exercício de híper-vigilância que os diferentes prestadores de serviços não deixarão de manipular tendo em vista gerar obediência e conformidade, do outro, o nosso génio digital tirando partido dos inúmeros dispositivos tecnológicos e canais de comunicação disponíveis, no grande intervalo entre a colaboração benigna e a pirataria informática.

A nossa relação com o Estado-administração será particularmente visada. Por um lado, com a inteligência artificial e as máquinas inteligentes, a socialização dos prejuízos pode ser bem escrutinada e substancialmente reduzida, uma socialização que é, como sabemos, uma regra fundamental do capitalismo contra a administração e o contribuinte cumpridor. Por outro lado, na posse de inúmeros dispositivos digitais, o contribuinte, qual passageiro clandestino, continuará a tirar partido do risco moral assumindo ele próprio o papel de um caçador furtivo, não só de despesa pública, mas, também, de contribuinte incumpridor. A administração, em princípio, estará mais avisada, o escrutínio público será mais apertado e, talvez, a redução progressiva dos orçamentos públicos nos empurre para soluções colaborativas e partilhadas de risco, quem sabe, para um regresso às cooperativas e mútuas de seguro, numa aceção moderna e responsável de risco pessoal.


Na desintermediação institucional e administrativa os limites mudam todos os dias e muitos dos serviços públicos serão, então, tratados em inovadoras “caixas multisserviços” à imagem e semelhança das caixas multibanco, de acordo com um conceito muito mais amplo de “internet das coisas”. Em princípio, a personalização do serviço caminhará a par com a personalização do utente, todavia, no terreno concreto, a exclusão digital poderá crescer com o envelhecimento, a pobreza e a iliteracia. É isto a automatização da pobreza. As próprias câmaras municipais caminharão, também, para uma espécie de loja do cidadão com muito maior interatividade tecnológica e digital, mas, por dever de cidadania elementar, elas estarão obrigadas a usar as suas juntas de freguesia como novos lugares centrais e, assim, impedir que a automatização da pobreza aconteça.

Na internet das pessoas e das coisas a nossa rastreabilidade será quase total. Não é apenas a administração que traça novos limites, nós também pagaremos o preço pelo nosso crescente nomadismo digital ou, se quisermos, por uma geografia desejada feita de ubiquidade e topoligamia. Num jogo permanente de sedução e distração, a nossa tolerância e o nosso narcisismo digital irão, muitas vezes, abrir o flanco e cair na alienação digital e a servidão voluntária.
Notas Finais

Em resumo, a governação política está obrigada, mais uma vez, a definir novos limites éticos e jurídico-políticos que preservem a espécie humana da sua loucura pós-humanista. Por outro lado, por causa de uma elevada conectividade e interatividade, não podemos ficar reféns das máquinas inteligentes, mas, também, do passageiro clandestino e do seu comportamento furtivo, donde a relevância em tratar com extremo cuidado as questões de segurança das redes e privacidade dos cidadãos.

Esta tendência crescente de converter cada gesto da nossa vida num aplicativo digital e, logo de seguida, atribuir ao nosso assistente inteligente, o smartphone, a função reguladora principal da nossa existência, é uma tendência deveras perturbadora. Na grande tradição dos romances distópicos – a recente republicação das obras de George Orwell, em especial o livro 1984, é um bom sinal disso mesmo – estamos, de novo, no limiar de uma era misteriosa, aquela que relaciona humanidade e tecnologia, plena de mistério, esperança e muitos perigos. Todos eles falam de condicionamento e manipulação, de vigilância e polícia do pensamento e, no caso de Orwell, de uma novilíngua.

Terá a era digital alguma relação com esta tradição distópica? Será o hibridismo homem-máquina uma transição para outros universos de sentido e estados mentais? Quem está por detrás das novas corporações do algoritmo, do big data e do cloud computing e qual é o grau de responsabilidade pública e democrática que eles nos devem? Vamos deixar-nos ludibriar pelas apps de gamificação e ludificação que apenas servem para nos infantilizar e distrair?

Em nenhum caso, poderemos consentir que a nossa servidão voluntária se transforme em guarda pretoriana de um qualquer populista candidato a ditador. Temos de encontrar rapidamente um novo modo de pensar, estar e fazer a política, sob pena de sermos reduzidos a uns idiotas úteis da governação algorítmica, clientes da Big Appstore e súbditos de um qualquer Grão-Mestre Algoritmo. Sem uma robusta literacia digital e uma cultura política humanista que a proteja tudo pode acontecer, o melhor e o pior.







4.7.19

A Inteligência Artificial irá criar 58 milhões de postos de trabalho

Nuria Oliver, in Expresso

Nuria Oliver vê na evolução das máquinas uma oportunidade que não devemos deixar passar: "É muito importante que vejamos a Inteligência Artificial como uma oportunidade para melhorar a sociedade, para sobrevivermos enquanto espécie. No entanto, temos de nos preparar e de nos formar, para que isso possa ser uma realidade”.

Entre a desconfiança, a piada fácil e o medo absoluto, a extensão da inteligência artificial a todas as vertentes da nossa vida não deixa ninguém indiferente. Antes de morrer, o físico britânico Stephen Hawking afirmou que “o desenvolvimento de uma inteligência artificial completa pode significar o fim da espécie humana”. Outras figuras de relevo da área da tecnologia, como Elon Musk ou o cofundador da Apple, Steve Wozniak, comungam dessa preocupação. E, se as opiniões dos que estão destinados a abrir caminho neste terreno são tão pouco tranquilizadoras, ninguém pode censurar aqueles que, de posições mais desfavorecidas, olham com receio para umas máquinas que, a curto prazo, podem vir a pôr em causa o seu posto de trabalho.

Também não ajudaram os filmes em que os robôs se lançavam à conquista do mundo, aniquilando ou escravizando a humanidade. A propósito deste ódio — menos irracional — o professor da universidade de Loyola, em Chicago, Steve Jones, afirmava num artigo para a revista Forbes que a população tem “a sensação de que há uma força não humana, chamada tecnologia, que é uma ameaça”. Jones assegurava existir o risco real de aparecer um movimento neoludita que, à imagem e semelhança dos Britânicos do século XVIII, encete uma luta contra as máquinas por porem em perigo o seu emprego. Um movimento que — realça Jones — não acredita que a política e a economia sejam as vias para lidar com o inevitável avanço das novas tecnologias.

Nuria Oliver, prémio nacional de Informática 2016 e diretora de pesquisa de ciência de dados na Vodafone, crê que a inteligência artificial "terá um enorme impacto positivo na sociedade". E dá como exemplo o campo da saúde, onde as possibilidades que as novas tecnologias oferecem em áreas como a sequenciação do genoma humano ou a análise radiológica comparativa eram impensáveis há poucos anos. A inteligência artificial e os robôs serão, garantidamente, protagonistas daquilo a que já se chama quarta revolução industrial.

Não obstante, Oliver está consciente do receio que esta difusão rápida das máquinas em tão pouco tempo desperta, particularmente no que diz respeito ao emprego: "todos os estudos antecipam uma transformação radical que vai implicar a extinção de milhões de postos de trabalho; no entanto, serão criados muitos mais. Segundo o Foro Económico Mundial, criar-se-ão 58 milhões de postos de trabalho”. Este otimismo que abre um leque de possibilidades deve ser acompanhado de uma adequada política educativa, visto que ser utilizador de tecnologia não é o mesmo que entender como funciona, e atualmente as crianças não são preparadas para virem a ocupar esses novos postos de trabalho que serão exigidos nos próximos anos. Oliver vê na evolução das máquinas uma grande oportunidade que não devemos deixar passar: "É muito importante que vejamos a inteligência artificial como uma oportunidade para melhorar a sociedade, para sobrevivermos enquanto espécie. No entanto, temos de nos preparar e de nos formar, para que isso posso ser uma realidade”.

Entrevista e edição: Azahara Mígel, Maruxa Ruiz del Árbol, David Giraldo

Texto: José L. Álvarez Cedena

20.6.17

E vivemos desempregados para sempre

Filipa Correia de Araújo, in Observador

Com mais tempo livre, a forma como o ocupamos será uma das nossas maiores preocupações e uma que poderíamos ter já. Estamos entre os maiores workaholics da Europa e tiramos disso poucos benefícios.

Até há bem pouco tempo não conseguíamos passar um dia sem ouvir falar do desemprego dos jovens licenciados em Portugal. Depois vieram os estágios do Instituto de Emprego e Formação Profissional (IEFP) e os milhões neles injectados (18,8 só na primeira de três fases em 2017) e deixámos de prestar tanta atenção a este problema. Saber que há jovens a mergulhar da faculdade directamente para o desemprego salta-nos se calhar mais à vista do que pais de família com quarentas e cinquentas que deixam de ter lugar no mercado de trabalho, apesar de ainda longe da idade da reforma.

Podemos estar um tanto ou quanto anestesiados, mas os problemas que levaram a essas elevadas taxas continuam longe de estar resolvidos. O desemprego é um dos tópicos a que damos atenção no Lisbon Hub dos Global Shapers e, no rescaldo da conferência AI for Good das Nações Unidas em Genebra, parece-me pertinente falar de inteligência artificial e de robôs a trabalhar por nós e do que vamos fazer quando for bastante mais raro termos um emprego ou mesmo um trabalho.

Curiosamente, os avanços da inteligência artificial têm-se dado de forma simultaneamente célere e lenta. Se, por um lado, já estamos a desenvolver robôs com capacidades incríveis (como a Sophia), por outro ainda não os estamos a ver entrar na nossa vida adentro de forma demasiado rápida para não parecer natural.

A comercialização de robôs que vão ajudar idosos e dar banho aos miúdos ainda se vislumbra distante, mas a inteligência artificial mais discreta já está a espreitar por debaixo da porta, especialmente da do nosso emprego. A maior parte da automatização em Portugal ainda está reservada à indústria, mas já conseguimos vislumbrar que muitas das tarefas que hoje em dia fazemos daqui a alguns anos serão mais económicas se feitas por sistemas de inteligência artificial. Claro que nessa altura haverá consequências negativas para o emprego, mas os efeitos positivos também lá estarão, à espera que os saibamos aproveitar.

Pensando no incêndio em Pedrógão Grande e no da semana passada em Londres, surge o anseio por robôs bombeiros que consigam enfrentar as chamas como não conseguem os seres humanos, programados para preservar a vida e a natureza em detrimento de si próprios. Também é de algum modo agradável saber que pode deixar de ser necessário ter pessoas a trabalhar no meio de lixeiras e esgotos e que daqui a uns anos os elementos repetitivos da maior parte dos empregos serão todos automatizados, deixando-nos livres para nos dedicarmos às tarefas com que acrescentamos mais valor.

O ajustamento à inteligência artificial como força produtiva vai demorar o seu tempo e viver diferentes fases, nas quais provavelmente teremos de nos reinventar e lançar a novas tarefas de modo consecutivamente mais rápido. Os millennials talvez já sejam uma geração relativamente bem preparada para esta adaptação, sabendo como perguntar tudo o que não sabem ao Google e habituados a aprender online aquilo que os professores ao vivo e a cores não lhes ensinam. As gerações anteriores provavelmente necessitarão de mais apoio nesta transição e, nesse caso, não só as reformas legais, mas também as decisões ao nível da regulação da inteligência artificial desempenharão um papel fulcral. Não seremos necessariamente obrigados a aceitar a introdução de todas as tecnologias à medida que são desenvolvidas e poderemos decidir que há algumas que destroem demasiados empregos demasiado depressa para serem adoptadas num certo momento.

Portugal está bem posicionado para a inovação de base científica, como escreveu o meu colega Global Shaper David Braga Malta, e isso pode dar-nos uma vantagem na introdução da inteligência artificial em grande escala no mercado de trabalho. Talvez os maiores desafios na adaptação a estas mudanças far-se-ão sentir nos países em desenvolvimento, que com uma população cada vez mais jovem e mais numerosa, estão actualmente com dificuldades em garantir um número mínimo de empregos para que uns poucos na família possam sustentar os muitos restantes.

Imaginar as pressões que as economias em desenvolvimento sentirão num mundo em que menos empregos estarão disponíveis, principalmente para aqueles sem formação tecnológica, não nos deixa antever um cenário positivo. O investimento de mais esforços na educação, tecnologia e estabilidade política, bem como o aumento da consciência de que neste mundo global a negligência com uns rapidamente se torna num mal para todos, serão instrumentais para garantir que limitamos o número de guerras e revoluções com efeitos devastadores.

Agradar-nos-ia a ideia de poder vir a ficar desempregados para sempre? Nos moldes do que é hoje o desemprego provavelmente não, mas se forem outros, porque não? Tendo por base alguns dos sistemas de previdência social na Europa, não é difícil de imaginar que sejamos capazes de chegar a um equilíbrio em que mesmo as 35 horas de trabalho semanais sejam em demasia para produzirmos o suficiente de modo a garantir que nós e os outros recebemos o que necessitamos para viver bem. Nesse caso, poderemos suportar bem mais pessoas sem emprego, ou com formas radicalmente diferentes das actuais de se estar empregado.

Com mais tempo livre, a forma como o ocupamos será possivelmente uma das nossas maiores preocupações e é uma que bem poderíamos ter já. Estamos entre os maiores workaholics da Europa e os benefícios que disso tiramos são poucos. Passar menos tempo no trabalho e dedicar mais tempo aos nossos hobbies, talvez até a investir em novas competências, é possivelmente uma das melhores formas de nos prepararmos para a maior convivência com os robôs.

Filipa Correia de Araújo tem 26 anos e é gestora de projectos de desenvolvimento internacional na CESO Development Consultants. Licenciou-se em Economia pela Universidade Nova de Lisboa em 2009 e antes de terminar o mestrado CEMS MIM em Gestão Internacional em 2015, trabalhou em países tão diversos como o Uganda, Timor e a Alemanha. A sua área de foco é a promoção do empreendedorismo como resposta à falta de emprego e estímulo ao sector privado em países em desenvolvimento.

O Observador associa-se aos Global Shapers Lisbon, comunidade do Fórum Económico Mundial para, semanalmente, discutir um tópico relevante da política nacional visto pelos olhos de um destes jovens líderes da sociedade portuguesa. Ao longo dos próximos meses, partilharão com os leitores a visão para o futuro do país, com base nas respetivas áreas de especialidade, como aconteceu com este artigo sobre desemprego na era dos robôs. O artigo representa, portanto, a opinião pessoal da autora e não vincula os Global Shapers de Lisboa.