Chelsea Manning é, no mínimo, uma figura controversa desde que se tornou num dos maiores denunciantes da História recente. De dados percebe ela, ou não fosse a responsável pela divulgação de um enorme volume de documentos classificados via Wikileaks (facto que a levou a cumprir pena por espionagem nos EUA).
Desta feita, veio até à Web Summit em nome da Nym Technologies, onde trabalha, apresentar em vários palcos um VPN (uma rede privada virtual) que garante proteger os dados de quem usa a Internet... ou melhor, a mixnet (redes mistas), uma vez que, desta forma, as mensagens são "partidas e enviadas por diferentes caminhos". A ideia é garantir privacidade através de encriptação de uma forma simples e que sirva os comuns mortais. Um assunto que, diz, nos devia interessar a todos.
Andamos a segui-la de palco em palco, esta quinta-feira para perceber se, num mundo em que estamos rodeados de aparelhos, ainda é possível garantirmos a nossa privacidade. Chelsea Manning foi defendendo, em todas as palestras que deu, que acredita que sim, apesar de "termos a vida moldada pela tecnologia" e vivermos "num mundo radicalmente transparente".
"Às vezes pergunto-me: estamos a criar as tecnologias certas? Estamos a responder às perguntas certas? Ou estamos só a tentar gerar conteúdo simplesmente por gerar e a transformar as nossas interações humanas em mercadoria?", questiona, a dada altura.
"Tu tens direito à privacidade dos teus dados"
O problema ainda piora com a Inteligência Artificial (AI), defende Chelsea, porque os modelos grandes de linguagem, como ChatGPT, são "treinados com recurso a grandes bases de dados". "Quando se treinam, os dados deixam de ser ficheiros e, por isso, não podemos simplesmente apagá-los", explicou, já no palco principal, a fechar o certame. O cenário complica quando o assunto é privacidade. "Tu tens direito à privacidade dos teus dados e a ter os teus dados apagados, mas isso não acontece nestes modelos", entende.
"Temos de garantir que os nossos dados pessoais não estão lá porque, assim que estiverem, não saem. Passam a ser artefactos e ficam lá para sempre", explica.
Posto isto, é realmente possível garantir a nossa privacidade num mundo digital em constante evolução? Chelsea Manning diz que precisamos, primeiro, de perceber "que tipo de dados nossos circulam por aí" e "construir mecanismos e ferramentas para contrariar isso".
"Acho que a responsabilidade devia estar em nós, tecnólogos. Quando fazemos as ferramentas temos de, pelo menos, ter em conta o facto de que as pessoas precisam de ter alguma privacidade, que as comunicações não são um recurso a ser extraído, uma moeda de troca", defende.
"Não quero viver num mundo em que as relações que temos têm um valor numérico", exalta, pedindo para que os criadores do futuro, neste "tempo sem precedentes para a tecnologia", decidam "construir ferramentas digitais de forma diferente".
Engenheiros deviam seguir regras éticas como advogados e médicos
Chelsea Manning critica, por isso, que os engenheiros, que têm "mais poder para mudar o mundo que médicos e advogados", não sejam obrigados a seguir "os mesmos padrões éticos". "Esperamos que o nosso médico tenha tido muito treino e padrões profissionais, mas não temos essas regras no caso de 'machine learning' ou 'data science', ou até, agora, no espaço da IA", diz. "Enquanto desenvolvemos estas novas ferramentas temos de pensar se estamos a respeitar valores, porque vamos impactar muitas pessoas pelo mundo fora".
"Devíamos ser responsabilizados", frisou, durante uma sessão em que respondeu a perguntas de participantes, no meio de um dos pavilhões do evento.
Manning rejeita a rapidez e disrupção de Silicon Valley e pede para que os tecnólogos sejam como cirurgiões que criam ferramentas eticamente responsáveis e... simples de utilizar. "Quem faz tecnologia não precisa de fazer as coisas da forma que são feitas agora", entende. "E não podemos usar o argumento de que, se não criarmos, alguém há-de criar, porque foi esse o argumento que levou à criação da bomba atómica".
Solução pode passar por "democratizar a encriptação"
Uma solução possível para uma IA que não fira a nossa privacidade? A criptografia. "A inteligência artificial não pode ser treinada para ultrapassar as leis da criptografia", explica. "Podemos usar, por exemplo, uma assinatura criptográfica para contrabalançar os efeitos negativos da IA e garantir a veracidade de uma informação", repara.
A solução parece, à partida, simples, mas esbarra no mesmo problema de sempre: falar de encriptação com um utilizador comum não é uma tarefa fácil.
"A encriptação devia ser intuitiva. Não devia ser dificíl de usar", desabafa. "Devia ser tão simples como colocar uma fechadura na porta ou fechar as cortinas de uma janela".
"Não estamos condenados a não ter privacidade porque é uma necessidade. Queremos poder fechar a nossa porta mesmo que não tenhamos nada a esconder. Isso é um valor e é um valor que não queremos perder", vaticina.