“Inteligência Artificial: riscos e promessas”
Em 29 de Novembro último, teve lugar no Auditório Paquete de Oliveira do Instituto Universitário de Lisboa (Iscte) a Mesa-Redonda “Inteligência Artificial: riscos e promessas”, uma iniciativa conjunta da OTC e do DINÂMIA’CET-Iscte – Centro de Estudos sobre a Mudança Socioeconómica e o Território. O encontro foi realizado em modo híbrido com um número significativo de participantes a distância.
Intervieram da Mesa, pela seguinte ordem, Luís Moniz Pereira, Professor Emérito da Universidade Nova de Lisboa, membro dos órgãos sociais da OTC, que discorreu sobre “Inteligência Artificial e Democracia”; Maria Francisca Saraiva, Professora Auxiliar do Instituto Superior de Ciências Sociais e Políticas da Universidade de Lisboa, abordou a questão delicada da “Inteligência Artificial e Controlo de Armamentos: Oportunidades e Desafios“; Ricardo Paes Mamede, Professor Associado do Departamento de Economia Política do Iscte, explanou o seu entendimento de que “Os impactos da IA serão os que as sociedades quiserem”; por último, Irene Pimenta Rodrigues, Professora Associada do Departamento de Informática da Universidade de Évora, tratou o tema “A Língua Natural e a Inteligência Artificial”. Às intervenções seguiu-se um debate com a assistência.
A coordenação dos trabalhos, que envolveram cerca de seis dezenas de participantes, coube a Ana Maria Silva, Professora Associada jubilada da Universidade de Évora, sócia e ex-membro da Direcção da OTC.
Como claramente ressaltou das exposições dos oradores convidados, a Inteligência Artificial é um domínio de investigação de grande actualidade e de inegável importância desde logo quando se perspectivam os impactos potenciais nas nossas vidas, alguns já ressentidos, mas sobretudo os que decorrerão do inevitável progresso do conhecimento nessa área e das aplicações que tornará possíveis. As Humanidades, em particular as Ciências Sociais, não deverão alhear-se desse progresso e dessas aplicações e tal, certamente, não acontecerá.
Uma questão essencial que foi levantada foi a necessidade de uma regulamentação adequada e rigorosa da utilização da Inteligência Artificial e, naturalmente, a necessidade da existência de condições ou mecanismos que a façam respeitar. A importância da regulação coloca-se nos múltiplos domínios de possíveis aplicações, nomeadamente no domínio laboral ou das relações de poder a todos os níveis. O poder não escrutinado de quem cria e utiliza o instrumento tecnológico que é a IA pode, designadamente, criar condições para uma mais eficaz manipulação de crenças e valores no seio de grupos sociais especificamente caracterizados. Manipulação certamente mais eficaz do que a que já hoje permite o controlo dos meios de comunicação social.
Os centros de decisão políticos, económicos e militares, naturalmente, ponderam a melhor forma de tirar partido dos avanços que se vão verificando no domínio tecnológico de que falamos, no sentido de melhor servir os seus interesses, nem sempre coincidentes com o interesse geral das sociedades humanas em que se inserem e cujos destinos procuram determinar.
Importa reconhecer – e isso ficou claro nas intervenções dos vários oradores, mais ou menos acentuadamente – o lado positivo das extraordinárias possibilidades de progresso oferecidas pelo desenvolvimento de sistemas dotados de processos intelectuais característicos dos humanos, como a capacidade de raciocinar, descobrir significado, generalizar ou aprender com experiências passadas. Um domínio, também abordado na Mesa-Redonda, onde esses progressos são já uma realidade reconhecida é o do processamento de Linguagem Natural – uma subárea da IA – que tem como objecto as técnicas de aprendizagem automática, ferramenta usada, designadamente, para levar uma máquina — um computador digital — a entender e processar a linguagem natural humana.
A sessão foi gravada. No vídeo abaixo, podem seguir-se as intervenções dos quatro oradores convidados e as questões levantadas no espaço de debate que se lhes seguiu.
2 Trackbacks / Pingbacks
Os comentários estão encerrados.