Algumas das maiores empresas ligadas à Inteligência Artificial (IA), como a Amazon, Google e Meta, vão adotar adotar novas medidas de segurança de forma proativa, anunciou esta sexta-feira a Casa Branca.
O compromisso das sete empresas - Amazon, Alphabet, Antropic, Google, Meta, Microsoft, e OpenAI - foi assumido de forma voluntária junto da administração norte-americana, com o objetivo de implementar medidas como a marca d'água de conteúdo gerado por IA para ajudar a tornar a tecnologia mais segura, adiantou a administração Biden.
As empresas irão testar estes sistemas antes de os divulgar e compartilhar informações sobre como reduzir riscos e investir em segurança cibernética.
Segundo o New York Times, como parte do acordo, as empresas comprometeram-se ao cumprimento de várias medidas, entre as quais:
- Realizar testes de segurança aos seus produtos de IA, em parte por especialistas independentes e para compartilhar informações sobre os seus produtos com governos e outros que tentam gerenciar os riscos da tecnologia.
- Garantir que os consumidores sejam capazes de identificar o material gerado por IA através da implementação de marcas d'água ou outros meios de identificar o conteúdo gerado.
- Relatar publicamente os recursos e limitações de seus sistemas regularmente, incluindo riscos de segurança e evidências de viés.
- Implementar ferramentas avançadas de inteligência artificial para enfrentar os maiores desafios da sociedade, como a cura do cancro e o combate às mudanças climáticas.
- Realizar pesquisas sobre os riscos de discriminação e invasão de privacidade a partir da disseminação de ferramentas de IA.
O compromisso é visto como uma vitória para Biden, cujo Governo tem exercido crescentes pressões sobre as tecnológicas para regular o uso da IA, face a um aumento exponencial de investimentos no setor e à sua popularidade junto dos consumidores.
Corrida para proteger utilizadores
Com o surgimento da IA generativa, patente em exemplos como o ChatGPT e o Bard, ferramentas que usam dados para criar novos conteúdos, legisladores de todo o mundo têm estado a avaliar as melhores formas de mitigar os perigos da tecnologia emergente para a segurança nacional e a economia.
O líder da maioria no Senado dos EUA, o democrata Chuck Schumer, que pediu uma "legislação abrangente" para garantir salvaguardas quanto à Inteligência Artificial, já elogiou o compromisso hoje anunciado pelas empresas norte-americanas, garantindo que continuará a trabalhar para a sua construção e expansão.
A administração norte-americana diz que vai agora trabalhar em conjunto com as empresas para estabelecer uma estrutura internacional de supervisão do desenvolvimento e uso de IA, adianta a Casa Branca.
O Congresso está, neste momento, a analisar um projeto de lei que exige que anúncios políticos revelem se houve recurso à Inteligência Artificial para criar imagens ou outros conteúdos de campanha.
Da mesma forma, também a presidência está a preparar uma ordem executiva nesse sentido, a juntar a legislação bipartidária sobre este tipo de tecnologia.
Marca d'água e outros compromissos
Como parte do esforço, as sete empresas comprometeram-se a desenvolver um sistema para usar marca d'água em todos os tipos de conteúdo, desde textos, imagens, áudios, até vídeos gerados por IA, para que os utilizadores saibam quando a tecnologia foi usada.
Essa marca d'água, embutida no conteúdo de forma técnica, pretende facilitar a identificação de imagens ou áudios deep-fake que podem, por exemplo, mostrar violência que não ocorreu ou distorcer uma foto de um político, por exemplo, colocando-o em posições comprometedoras.
Ainda não é claro como é que esta marca d'água será evidente na partilha das informações.
As empresas também se comprometem a proteger a privacidade dos utilizadores à medida que a IA se desenvolve e a garantir que a tecnologia seja livre de preconceitos e não usada para discriminar grupos vulneráveis.
Para além disso, comprometem-se ainda a desenvolver soluções de IA para áreas como a investigação médica e científica e a mitigação das mudanças climáticas.