Lei europeia de IA "é fraca" na componente da competitividade

O presidente do Instituto de Engenharia de Sistemas e Computadores (INESC) considerou, em declarações à Lusa, que a lei da inteligência artificial (IA) europeia "é relativamente fraca" na parte da competitividade e defendeu o reforço desta componente.

Arlindo de Oliveira falava à Lusa à margem da conferência "Inteligência artificial do lado certo dos negócios", organizada pela Vodafone e que decorreu no Museu do Oriente, em Lisboa.

Questionado sobre a lei europeia (AI Act), o responsável apontou que esta "é relativamente fraca na componente da competitividade", focando-se "muito na componente da segurança dos níveis de risco das aplicações".

"Acho que era importante reforçar a componente de criar um ambiente competitivo na Europa onde as empresas europeias pudessem depois competir em igualdade de oportunidades com as empresas norte-americanas e chinesas", defendeu.

Caso contrário, a Europa continuará a perder terreno face aos EUA e China em matéria de IA.

Em 14 de julho, o Parlamento Europeu deu 'luz verde' às primeiras regras da União Europeia (UE) para a IA.

"As regras visam promover a adoção de uma IA centrada no ser humano e fiável e proteger a saúde, a segurança, os direitos fundamentais e a democracia dos seus efeitos nocivos", referiu a assembleia europeia, na altura.

Em concreto, nesta posição agora adotada pelos eurodeputados, está definido que as novas regras prevejam uma total proibição da IA para vigilância biométrica, reconhecimento de emoções e policiamento preventivo, imponham que sistemas geradores desta tecnologia como o ChatGPT indiquem de forma transparente que os conteúdos foram gerados por IA e ainda que os programas utilizados para influenciar os eleitores nas eleições sejam considerados de alto risco.

A Comissão Europeia apresentou, em abril de 2021, uma proposta para regular os sistemas de IA, a primeira legislação ao nível da UE e que visa salvaguardar os valores e direitos fundamentais da UE e a segurança dos utilizadores, obrigando os sistemas considerados de alto risco a cumprirem requisitos obrigatórios relacionados com a sua fiabilidade.

Na sua intervenção na conferência organizada pela Vodafone, Arlindo de Oliveira abordou um dos problemas levantados pela analítica (análise de dados), que é a criação de bolhas de informação.

Estas bolhas informativas "têm um certo risco porque as pessoas como veem conteúdos que são diferentes através das redes sociais, através dos media, tendem a ver realidades diferentes e isso dificulta o diálogo e radicaliza muito as posições", explicou, posteriormente, em declarações à Lusa, o especialista.

Ou seja, "vemos cada vez maior dificuldade no debate político, cada vez mais dificuldade em as pessoas perceberem outro ponto de vista" e "essas bolhas são um desafio para o futuro das sociedades", apontou Arlindo de Oliveira.

O presidente do INESC deu como exemplos os EUA e o Brasil, onde se assiste a essas bolhas de informação de "maneira muito marcada", mas "também na Europa em alguns aspetos".

Questionado sobre como mitigar este problema, apontou que "existem abordagens legislativas e estatais".

Por exemplo, disse, "podemos obrigar que os conteúdos não sejam tão personalizados, aliás, há leis a serem discutidas sobre isso".

Para além disso, "as pessoas podem, elas mesmas, tentar informar-se melhor, a terem visões mais equilibradas das questões e não irem sempre aos mesmos canais, às mesmas redes sociais", acrescentou.

Fonte: Notícias ao Minuto
Foto: Shutterstock