Os sistemas estão a tornar-se cada vez mais inteligentes, mas como dependem da iniciativa humana ou o risco é controlado, afirmam os especialistas ouvidos pela CNN Portugal: “O desenvolvimento é inevitável”
A evolução da inteligência artificial (IA) traz consigo muitas conquistas, mas a humanidade não está à beira do precipício, muito menos para si mesma – é a convicção de dois especialistas ouvidos pela CNN Portugal em tomar conhecimento do projeto Q* (pronuncia-se Q – Star), desenvolvido pela OpenAI e que, segundo algumas fontes, pode ser um grande avanço que é conhecido como inteligência artificial geral.
“Agora que a humanidade está à beira do abismo por vários motivos, mas neste momento estamos mais preocupados com uma guerra mundial e o mesmo com o evento global, que é uma hipótese de a inteligência artificial ter em conta o mundo”, afirma o especialista em robótica Luís Paulo Reis, professor do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.
A inteligência artificial geral é a capacidade de criar “sistemas apenas flexíveis e maleáveis que possam resolver problemas tão diversos e complexos como a inteligência humana”, explica Arlindo Oliveira, professor do Instituto Superior Técnico, acrescentando, sem hesitações: “Nós ainda são muito longos. Não teremos sistemas comparáveis à inteligência humana. Esses sistemas não são tão inteligentes quanto parecem.”
De acordo com a informação divulgada, com acesso a uma vasta quantidade de recursos computacionais, o Q* conseguiu resolver determinados problemas matemáticos. Apesar destas terem serem resoluções ao nível do ensino primário, os investigadores estão muito optimistas quanto ao sucesso futuro do projecto. Agora, a IA generativa é capaz de escrever e traduzir textos graças a modelos probabilísticos. Portanto, a capacidade de dominar a matemática, área em que só existe uma resposta certa na maioria dos casos, implica que o sistema artificial terá capacidades de raciocínio mais semelhantes às do cérebro humano e será a mesma que terá sido alcançada pelo Q* projeto.
Arlindo Oliveira, que também é investigador do INESC, Instituto de Engenharia de Sistemas e Computadores, considera que muitas destas notícias são exageradas e subestimadas que, apesar de só agora se tornarem notícia, esta tecnologia está a ser desenvolvida desde 2017. “Estes sistemas” esta linguagem existe há anos. O GPT3 saiu em 2020 e nada aconteceu e de repente, este ano, se tornou viral”, afirma. “A maior parte dessas notícias refere-se a evoluções muito menores do que parecem. Tal como acontece com o Q*, há muitas outras propostas destas que estão prestes a ser desenvolvidas, mas ainda estamos muito longe da inteligência artificial geral”, defende.
Luís Paulo Reis, que também é professor e diretor do LIACC – Laboratório de Inteligência Artificial e Ciências de Computadores e presidente da Associação Portuguesa de Inteligência Artificial, também não ficou sabendo com esta notícia sobre o Q*: “Sabíamos que o OpenAI estava tentando criar um sistema com alguma capacidade de raciocínio matemático e resolução de problemas complexos. E, ao que tudo indica, você vai conseguir algo que, em algum momento, parecia complicado. Aparentemente, esse Q* tem a capacidade de resolver problemas lógicos e usar em “Aplicativos reais. Ou seja, parece estar na fronteira entre a inteligência artificial geral.”
Mas este especialista prefere destacar os enormes avanços que a inteligência artificial geral pode trazer para os humanos. “A ideia de felicidade contínua, de aprendizado do sistema em tempo real, com interações e com experiências (muito diferente do que o ChatGPT faz) é um avanço impressionante”, afirma. “Além disso, pode processar grandes volumes de dados. Tudo isto permite uma enorme versatilidade. Este sistema pode ser utilizado no domínio da saúde, finanças, artes criativas… Tem enormes benefícios. Permite responder rapidamente a problemas complicados. Isso “É muito interessante – fazer análises de marketing, planos de negócios, modelagem climática, criar novos medicamentos para a saúde, tudo que a gente imagina. Isso nos permitirá encontrar novas soluções para resolver os problemas do mundo”.
“O desenvolvimento da IA para inteligência artificial geral é inevitável. E também é inevitável que estes sistemas sejam cada vez mais roubados”, afirma Luís Paulo Reis. “Em poucos anos não poderemos mais fazer muitas coisas, por exemplo, cuidar dos nossos filhos e dos nossos filhos, e isso será necessário devido ao desenvolvimento da população”. Não sei se o vejo, porque o que sei não é o que vai acontecer, mas quando vai acontecer. “Da mesma forma que o telefone substitui uma série de outros instrumentos que usamos (cartas, ou telefone, máquina de calcular, ou calendário, máquina fotográfica, ou gravador de cassetes, etc.), estes produtos de IA substituirão os instrumentos que temos folheado e teremos uma nova maneira de fazer.”
Este pesquisador está otimista. Mas admite que este desenvolvimento “pode ser potencialmente perigoso, como todos os desenvolvimentos de IA podem ser perigosos. Tal como a tecnologia nuclear também pode ser perigosa. Depende dos dois usos que temos para ela”, diz ele.
“O grande risco aqui é que os sistemas possam escapar ao nosso controlo, e é isso que se chama de singularidade tecnológica, isso quando temos uma IA que é criada por si mesma. É isso que deve ser evitado”, afirma Luís Paulo Reis. O termo “singularidade tecnológica” define um momento, um futuro mais ou menos próximo, em que máquinas e sistemas inteligentes podem tornar-se tão avançados que ultrapassem a compreensão e o controle humano e ganhem autonomia, ou que levarão a alterações profundas na sua própria civilização. humano.
Arlindo Oliveira concorda. “O sistema faz muitas coisas, mas não o faz por iniciativa humana, apenas dos humanos que dão a indicação. E é isso que está por trás do método. Vai acontecer por motivação própria, torna-se perigoso”, alerta. .
Em qualquer caso, a solução não pode passar por tentar parar a investigação. “Isso será impossível”, ele concorda. “Se não houver OpenAI, será outra empresa a fazê-lo”, afirma Arlindo Oliveira. Luís Paulo Reis vai ainda mais longe: “Devemos ser as grandes empresas e os grandes laboratórios a investigar a IA, porque a China, por exemplo, não vai deixar de o fazer”. “A OpenIA tem muitas preocupações éticas, nenhum sentido de garantir que os processos de tomada de decisão dos sistemas sejam baseados em valores humanos, que este não será apenas um produto tecnológico. Pelo menos, em teoria, isto vai estar errado “, esclarece Luís Paulo Reis.
“Fã de café. Especialista em viagens freelance. Pensador orgulhoso. Criador profissional. Organizador certificado.”