Siga-nos no Whatsapp
Euranet
Euranet
Os assuntos da atualidade nacional e europeia numa parceria Renascença Euranet Plus.
A+ / A-
Arquivo

"Se criasse hoje uma empresa não esperaria pela regulamentação da Inteligência Artificial"

27 nov, 2023 • José Pedro Frazão


Dois gestores de capital de risco portugueses defenderam na Web Summit que a melhor regulação da inteligência artificial será a que se aplica setor a setor. Alexandre Barbosa, da Faber, e Cristina Fonseca, da Indico Capital argumentam que a própria indústria pode fornecer autorregulação, mas a questão do risco e da confiança dos clientes será decisiva para florescer a Inteligência Artificial.

A China começa, os Estados Unidos acompanham e a Europa regulamenta. É desta forma que a dinâmica da Inteligência Artificial (AI) é relatada por Cristina Fonseca, investidora da Indico Capital Partners, fundo de capital de risco que investe em startups ibéricas.

"A Europa está à frente na compreensão sobre como regular a Inteligência Artificial. Mas é muito, muito difícil regular uma indústria inteira quando a cada seis meses ela está a desenvolver novos modelos e a registar avanços", admite a co-fundadora da Talkdesk - um dos unicórnios portugueses, ao conseguir capitalização de 100 milhões de dólares.

Cristina Fonseca sugere mesmo que o mundo pode estar enganado em relação ao que a Inteligência Artificial trará. "Inicialmente pensámos que a IA iria automatizar muitas das tarefas manuais que realizamos. Mas a primeira coisa que fazemos com os grandes modelos de linguagem é ser criativos, gerar texto, imagens e vídeo", argumenta a investidora.

Para Alexandre Barbosa, da empresa de capital de risco Faber, esta é uma discussão que, estando dominada pelos grandes modelos de linguagem (Large Language Models), deve ser trazida para o nível das startups, nomeadamente no plano do impacto das regulamentações nas empresas que estão em estágio inicial. O investidor admite que a regulação pode "dificultar a velocidade da inovação", essencial para estas empresas poderem passar do laboratório ao mercado, por via da experimentação de novos modelos e soluções.

Regular na vertical

O investidor da Faber antecipa uma regulação setor a setor, vertical, como um "alicerce crucial" no cenário regulatório geral, onde o essencial está no nível de risco incorporado na regulamentação, nivelado para todos os agentes, independentemente da escala da empresa.

"Na indústria financeira, as regras serão muito diferentes dos recursos humanos ou da saúde. Na área de saúde, por exemplo, queremos ter certeza de que o software assistido ou alimentado por IA pode atuar como um dispositivo médico. E, como tal, é necessário que haja um certo nível de conformidade com as regras específicas do setor. Queremos ter certeza de que entendemos como as decisões são tomadas. Mas sempre que há julgamentos sobre riscos ou procedimentos médicos, queremos garantir que há justiça, que não há preconceitos e que há uma abordagem equitativa e precisa", afirmou Alexandre Barbosa na Web Summit em Lisboa.

O investidor diz que o mundo vive "a primeira onda de esforços regulatórios" que tenta entender o nível de conformidade necessário para lidar com o nível de velocidade de progresso e inovação que se vive atualmente no espaço da Inteligência Artificial. Alexandre Barbosa defende a colaboração entre grandes empresas de tecnologia, governos e fundadores de startups no seu estágio inicial e alerta para a centralidade da definição dos níveis de risco.

"Não podemos confiar na discussão sobre regulação que é exclusivamente protecionista, com certos países da União Europeia a emitir determinadas posições por causa das empresas com origem naquela geografia específica. Tudo se resumirá à discussão em torno dos níveis de risco. Precisamos de ter a certeza de que não travamos o progresso e que temos o uso massivo de tecnologias seguras e justas", apela Barbosa, admitindo que se o nível de regulamentação for "adequado e razoável" está potencialmente criado um "contexto equilibrado para startups face a incumbentes de grandes empresas".

Autorregulação transitória

A regulação é necessária porque estabelecerá condições de concorrência equitativas, defende Cristina Fonseca, que se assume não apenas como investidora mas também empreendedora na área da Inteligência Artificial. A cofundadora da Talkdesk acredita, no entanto, que a indústria tenta fazer o seu trabalho da forma mais correta e, defendendo que a regulação é necessária, admite que a velocidade da inovação impõe uma certa autorregulação.

"Realmente acredito que os agentes do setor estão a fazer o que podem para garantir que a IA permaneça dentro dos limites. Se estivesse a construir uma empresa hoje, tentaria fazer as coisas da forma certa, claro, mas não esperaria por uma regulamentação. Os ritmos a que os governos e as instituições podem criar regulamentação e a que a IA se desenvolve, com startups a ter oportunidade de mudar indústrias inteiras, são muito diferentes", sustenta Cristina Fonseca.

Membro do Conselho Geral do Centro para uma Inteligência Artificial Responsável, criado em Portugal em 2023, Cristina Fonseca alerta para o risco de perda de competitividade pela "vontade de regular" na Europa, levando ao florescimento mais rápido da inovação nos Estados Unidos ou na China. "Isso é algo que nós não queremos que aconteça. É um equilíbrio difícil, mas ainda estamos no início e acredito que há tantas pessoas a trabalhar nisso que chegaremos ao equilíbrio certo", afirma.

Para Alexandre Barbosa, o Centro a que pertence Cristina Fonseca, a exemplo de outras instituições criadas em todo o mundo, pode representar "um começo" que passa por um compromisso comum em relação a "um determinado conjunto de diretrizes não exclusivamente obrigatórias", a par de um papel de prevenção de comportamentos de agentes com "liberdade para operar, mas com uma abordagem direcional de responsabilidade.

Risco, confiança e intervenção humana

Um dos maiores desafios na indústria da Inteligência Artificial é construir confiança, argumenta Cristina Fonseca. A investidora defende que para convencer clientes a confiarem numa solução com a IA no seu núcleo é preciso agir em diversas frentes. "É necessário colocar limites e ter algum nível de explicabilidade sobre como os modelos funcionam. E a empresa tem que ser capaz de ensinar os modelos para se tornarem melhores e torná-los transparentes", acrescentou na sua intervenção num debate na Web Summit.

A intervenção humana pode ser aqui essencial, tendo em conta um papel importante na aprendizagem do modelo de Inteligência Artificial. "E há a curadoria do conteúdo e do conhecimento. Quando treinamos um grande modelo de linguagem, como base em todo o conteúdo da Wikipedia, preciso ter a certeza de que o conteúdo na Wikipedia está completo e atualizado, certo? Se os fatos não forem verdadeiros, exatamente, a minha IA dará o resultado errado. Como podemos ter certeza de que o conhecimento que estamos a usar para fornecer a esses modelos está completo e atualizado?", questiona a cofundadora da Talkdesk.

Cristina Fonseca acredita que serão criados muitos novos empregos para auditores e consultores, dando o exemplo de legislação recente no estado de Nova Iorque, nos Estados Unidos, que definiu que uma empresa de recursos humanos que use um sistema de Inteligência Artificial para ajudar a selecionar candidatos, precisa de ter um auditor para garantir que os seus sistemas de IA não sejam tendenciosos.

No plano da intervenção pública, a investidora dá o exemplo da proibição do serviço ChatGPT da OpenAI em Itália. "O governo da Itália considerou que era ilegal permitir que pessoas abaixo de determinada idade estivessem a usar o ChatGPT e a OpenAI colocou alguns controlos em menos de duas semanas. Problema resolvido", exemplificou Cristina Fonseca que se mostra confiante de que "haverá uma forma natural de garantir que mantemos os processos de IA seguros, protegidos, confiáveis e transparentes".

Comentários
Tem 1500 caracteres disponíveis
Todos os campos são de preenchimento obrigatório.

Termos e Condições Todos os comentários são mediados, pelo que a sua publicação pode demorar algum tempo. Os comentários enviados devem cumprir os critérios de publicação estabelecidos pela direcção de Informação da Renascença: não violar os princípios fundamentais dos Direitos do Homem; não ofender o bom nome de terceiros; não conter acusações sobre a vida privada de terceiros; não conter linguagem imprópria. Os comentários que desrespeitarem estes pontos não serão publicados.