Luís Moniz Pereira
“A máquina é mais barata do que o Homem para executar as mesmas tarefas.
As pessoas vão viver num limiar de sobrevivência e a consumir coisas que não lhes interessam para nada “
Luís Moniz Pereira, 70 anos, professor catedrático aposentado, há uma década, da Faculdade de Ciência e Tecnologia da Universidade Nova de Lisboa, dedica-se agora a tempo inteiro à Inteligência Artificial (IA), como investigador no Laboratório de Ciência Computacional e Informática. Neste tempo, consolidou ideias sobre a forma de introduzir conceitos morais e éticos nas máquinas, de modo a prevenir os riscos associados à sua crescente autonomia e que já hoje as habilita, por exemplo, a disparar sem ordem humana. É esse o tema que levará ao Festival de Filosofia de Abrantes, que decorre entre 9 e 18 de novembro.
Em que medida a Inteligência Artificial está a tomar conta das nossas vidas?
Na verdade, a Inteligência Artificial ainda não chegou. Ou chegou apenas uma pequena amostra. A maior parte do que hoje se chama com espetacularidade Inteligência Artificial é aquilo que, em Ciências da Computação, os cientistas mais rigorosos apelidam de Data Science. Essencialmente, é uma tecnologia que reconhece padrões ou imagens. O tradutor do Google ou a Siri, que traduzem frases completas, não percebem absolutamente nada. Limitam-se a recorrer a uma enorme base de dados para encontrarem frases muito parecidas. Isso não deixa de ser útil, mas a IA é muito mais do que isso – significa um todo que envolve imaginar, argumentar, provar teoremas matemáticos, e tudo continua ausente. Portanto, a IA ainda vai tomar conta das nossas vidas de maneiras muito mais sofisticadas.
As máquinas vão pensar?
Claro. Digamos que são mais um utensílio que os humanos vão ter, como em tempos tiveram o arco e a flecha. O desafio é pôr o pensamento fora do cérebro, transpor para outro hardware todas as nossas capacidades cognitivas, criatividade incluída. Da mesma forma que os biólogos pensaram em criar vida num laboratório, outros cientistas pensam em colocar inteligência noutro suporte. Não será num tubo de ensaio, certamente.
Desta amostra de IA, como lhe chama, o que mais o surpreendeu?
Surpreendeu-me muito o Watson, a máquina da IBM que ganhou o concurso [televisivo de cultura geral] Jeopardy. O jogo exige muito conhecimento e algum raciocínio. Houve ali uma combinação de tecnologias e de saberes desenvolvidos pela IA para tornar aquilo possível. Já não é só um programazinho para uma coisa muito específica.
Se faz raciocínios já não é só uma máquina que analisa padrões e imagens.
Justamente. Os robôs autónomos são outra forma da IA que me surpreendeu. Já não é o robô que faz sempre o mesmo, começa a ter autonomia. São os drones, os carros sem condutor, os robôs que vão à mercearia pela rua fora e fazem a entrega das compras. A simbiose homem-máquina vai ser o futuro e, certamente, as máquinas vão tornar-se mais humanas. A autonomia obriga-as a conviver connosco e, para se inserirem na sociedade, vão precisar de regras sociais e morais. Até mesmo na convivência entre elas. Imaginemos uma equipa de robôs a fazer a segurança num centro comercial. Eles terão de se coordenar na reação a um roubo, um incêndio, um ataque, seja o que for.
Esse cenário pressupõe que não exista um humano a supervisionar?
As máquinas podem estar em Marte, no fundo do mar, numa missão de salvamento no topo de uma montanha ou a lidar com uma tragédia qualquer, um terramoto, um tsunâmi… Cada vez haverá mais robôs com esse grau de iniciativa e que não podem estar à espera das instruções de um humano, além de que a máquina que está no terreno tem muito mais informação do que o humano que está longe. É o que já acontece com os drones autónomos, que são capazes de identificar caras e têm autonomia para atacar. Ainda não a usam, ou é-lhes negado que a usem, mas a tecnologia existe e pode começar a ser utilizada de um momento para o outro, até porque o inimigo também a tem.
As grandes potências estão numa corrida para terem o melhor desse tipo de armamento?
Temos o exemplo do projeto da Google com o Departamento de Defesa dos Estados Unidos da América, que contribui com o seu know how de gestão de imagens para a identificação de caras. Os drones conseguem reconhecer pessoas no meio de uma manifestação, coisa que também já se faz na China. Não se trata de um clima de guerra, mas as autoridades têm uma espécie de ficha em que vão pondo as coisas boas e más das pessoas e em que lhes atribuem pontos que determinam a rapidez do acesso à saúde, ao emprego, a uma casa, etc. Sabem quem contactou com fulanos suspeitos, quem encomendou alguma coisa pela internet, quem andou a ler artigos sobre o fabrico de explosivos – é uma espécie de controlo social através de ferramentas de IA.
Foi um dos 56 cientistas e académicos que apelaram, em abril, ao boicote a uma universidade sul-coreana, devido ao envolvimento num projeto para desenvolver robôs de guerra autónomos. Há um risco demasiado elevado de haver um engano nos algoritmos ou até de serem criados algoritmos com as piores intenções?
Ainda não há técnicas de informática que certifiquem as propriedades morais das máquinas. Estamos muito atrasados na criação de um software de segurança, com padrões internacionais, que também as protejam, por exemplo, de ataques de hackers. E enquanto uma bomba atómica exige tecnologia muito complicada, já os drones estão ao alcance de todos. Hão de aparecer robôs para roubar e matar, ou um drone que entra por uma janela com um explosivo sem ninguém saber quem o enviou. É muito difícil ter a certeza de que as máquinas não fazem nada de errado, e aí entramos no campo da moral.
Tem sido esse o centro das suas investigações. Porque diz que estamos muito atrasados na introdução de uma moral nas máquinas?
Sabemos pouco sobre a nossa moral, e as teorias não se entendem quanto a esta questão. Temos várias religiões no mundo e, entre os seus pares, são todos muitos bonzinhos, mas com os outros já não o são. Porque a moral evoluiu para se criar coesão dentro de determinado grupo, e a Humanidade encontra-se nesta encruzilhada em que ainda não foi capaz de se ver como um único grupo, à escala planetária.
Não existindo uma moral universal, como se poderão minimizar as divergências para impor alguma ordem na autonomia crescente dos robôs?
Não podemos esperar que eles tenham logo uma moral completa que se aplique a todos os casos. Podemos criar uma base moral, com um conjunto de regras gerais, e depois o informático configura o programa de acordo com as regras morais específicas de cada cultura. E também tem de haver a possibilidade de o robô ir revendo a sua moral à medida que as situações se desenrolam. Mas estamos longe de poder produzir esse software, além de também nos encontrarmos atrasados a nível legal. Imagine-se um acidente entre dois carros sem condutor. Quem é o culpado? É o carro? É o Estado? É o fabricante? É o proprietário? Os especialistas de Direito, como não percebem nada de máquinas, estão à espera para ver o que acontece.
Ao nível da introdução de conceitos morais nas máquinas, falamos de um futuro a que distância?
Vai depender do investimento que se faça, mas serão umas boas dezenas de anos, e é por isso digo que estamos atrasados. The Future of Life Institute, que reuniu grandes nomes da ciência e tecnologia, como o Elon Musk e o já falecido Stephen Hawking, é uma instituição privada sem fins lucrativos que levanta o problema da segurança na corrida à IA, por analogia à corrida às armas nucleares. Este ano, escolheu dez projetos para apoiar, entre 200 candidatos, e o meu é um deles. O objetivo é precisamente criar mecanismos que levem as empresas de IA a desenvolverem software que promova a segurança das máquinas.
Qual o ponto de partida para se concretizar um objetivo desses?
Há várias maneiras, por exemplo com incentivos ou penalizações, conforme o grau de colaboração com outras empresas do setor. Cada interveniente quer ser o primeiro a ter determinado produto para ganhar mais dinheiro, mas deixa de receber informação partilhada da concorrência se descurar a segurança, por exemplo. Ou fica sem acesso ao fundo de financiamento para o qual todos contribuíram no início. O projeto passa por mostrar que, definindo-se certas regras de jogo, com diferentes consequências, quanto mais longe se estiver disposto a ir na cooperação com os outros, mais recompensas se terá.
Alinha com a tese de que as máquinas nos vão roubar empregos e criar maior desigualdade social entre pobres e ricos?
É inevitável. O próprio trilho da nossa espécie diz-nos que há sempre uns que beneficiam mais do que outros. E com a amplificação tecnológica, os ricos são cada vez mais ricos e os pobres cada vez mais pobres. Acredito que vamos evoluir para uma sociedade de castas, no sentido em que teremos acima de todos os donos dos robôs, depois os administradores das máquinas, a seguir os seus executivos e, por fim, os explorados. Para uns criarem riqueza vão ter de explorar outros. Isso vai gerar revoltas, e os robôs serão usados para proteger as castas mais elevadas e dominar a população.
Como nos filmes de ficção científica?
Nós já estamos bastante robotizados nas nossas vidas de consumo permanente. As crianças estão tão habituadas ao smartphone que nem sabem lidar com as outras. As pessoas são transformadas em meros objetos de consumo e serão ainda mais mal pagas. Como o software vai ser cada vez mais cognitivo, as máquinas e os robôs vão substituindo os humanos com uma perversidade que é como se estivéssemos a marcar golo na própria baliza. Há centenas de milhares de pessoas a ganhar dinheiro no ensino das máquinas. Estão a trabalhar para ficarem sem emprego.
Já não vamos a tempo de virar o jogo a nosso favor?
Vamos caminhar para uma “uberização” de todas as profissões. Está um arquiteto numa “uber” de arquitetos e recebe uma chamada a solicitar os seus serviços durante três horas, para verificar se uma planta está conforme os regulamentos. “Está livre?” “Sim, estou, vou a caminho.” Vai ser assim.
Olha o futuro com preocupação?
É uma questão ideológica. A Humanidade cria instrumentos que permitem aproveitar recursos da Natureza. Pergunta-se: quem beneficia com isso? Porque há de ser o grande beneficiado o presidente da empresa tal, que a criou com vários contributos da sociedade envolvente, a começar nas universidades? Como a sociedade está cada vez mais globalizada, deve ser o todo a beneficiar da riqueza que produz. Tem de haver uma distribuição muito maior, mas o que se vê é que o hiato está a aumentar e não a diminuir. Em vez de ser posta ao serviço de todos, a IA vai agravar esse problema de uma maneira muito aguda. A máquina é mais barata do que o humano para executar as mesmas tarefas. Cada vez mais, as pessoas vão viver num limiar de sobrevivência e a consumir coisas que não lhes interessam para nada. Seremos como aquelas quintas de galinhas e porcos em que os animais vivem todos ao molho, só a produzir riqueza para outros.
É um cenário catastrófico.
Por isso é que ninguém fala dele. É completamente tabu. Tenho 70 anos e a mim este cenário já não me vai afetar, mas acho que não está muito distante.
É para o século XXI?
É certamente para o século XXI.
_______________________________________________________________________
L. M. Pereira, A IA ainda não chegou, Interview by Rui Antunes, in: magazine VISÃO, pp. 12-14, 8 November 2018.