A Comissão Federal do Comércio (FTC) iniciou uma ampla investigação sobre a OpenAI para determinar se o seu 'chatbot' ChatGPT violou leis de proteção do consumidor ao colocar em risco a reputação e dados pessoais dos utilizadores.
Esta informação foi avançada pelo jornal Washington Post, que adianta que o processo de investigação civil, com 20 páginas, foi enviado esta semana à empresa liderada por Sam Altman, contendo várias perguntas sobre as práticas de formação de modelos de IA (inteligência artificial) e tratamento de informações pessoais dos utilizadores pela OpenAI.
Entre os vários exemplos que são detalhados na extensa carta, a que o Washington Post teve acesso, está um incidente verificado em 2020 em que a empresa revelou um 'bug' que permitia aos utilizadores ver informações sobre outros 'chats' e informação relacionada com pagamentos de outros utilizadores.
O ChatGPT ganhou grande visibilidade depois de ter sido lançado publicamente e em versão gratuita em novembro de 2022, tendo registado um recorde de 100 milhões de 'downloads' em apenas dois meses.
A FCT solicitou à OpenAI descrições pormenorizadas de todas as queixas recebidas sobre os seus produtos relativamente a declarações "falsas, enganosas, depreciativas ou prejudiciais".
Além disso, a comissão está também a investigar se a empresa se envolveu em práticas desleais ou enganosas que resultaram em "danos de reputação" dos consumidores.
Numa das suas respostas, o ChatGPT disse que um advogado tinha feito comentários de cariz sexual e tentado tocar numa aluna durante uma visita de estudo, citando para tal um artigo que o 'chatbot' diz ter surgido no Washington Post.
Só que esse artigo nunca existiu, a visita de estudo nunca aconteceu e o advogado afirmou que nunca foi acusado de assédio a nenhuma aluna.
A Comissão Federal do Comércio também exigiu uma descrição pormenorizada dos dados que a OpenAI utiliza para treinar os seus produtos e o que está a fazer para evitar aquilo que na indústria tecnológica é conhecido como "alucinação", um problema que ocorre quando as respostas do 'chatbot' estão bem estruturadas, mas são totalmente erradas.
Quando a FTC determina que uma empresa viola as leis de proteção do consumidor pode aplicar multas ou impor-lhe um decreto de consentimento, que pode ditar a forma como a empresa trata os dados.