
Não estamos a perceber que há riscos de privacidade ao usar IA no trabalho: “As interações podem ser registadas”.
A empresa de cibersegurança NordVPN revelou novos dados sobre os riscos de privacidade que os portugueses enfrentam – à medida que as ferramentas de IA se tornam parte integrante das rotinas de trabalho diárias.
Essas ferramentas entraram na rotina de milhões de pessoas, que utilizam o ChatGPT, o Copilot e outras ferramentas generativas para aumentar a produtividade, para optimizar processos.
Mas o Teste Nacional de Privacidade mostra que, ao longo do ano passado, 92% dos portugueses não compreendem que questões de privacidade devem ter em conta ao utilizar IA no trabalho.
É que usar IA não é estar a falar com o colega da mesa do lado: “As interações com ferramentas de IA podem ser registadas, analisadas e potencialmente utilizadas para treinar modelos futuros. Quando os colaboradores partilham dados de clientes, estratégias internas ou informações pessoais com assistentes de IA, podem estar a criar vulnerabilidades de privacidade sem querer”, avisa Marijus Briedis, diretor de tecnologia da NordVPN.
“As pessoas estão a introduzir informações confidenciais em ferramentas de IA sem perceberem para onde esses dados vão, como são armazenados ou quem pode ter acesso a eles”, continua.
É que a tecnologia que serve para aumentar a produtividade no trabalho também é a tecnologia utilizada por cibercriminosos para criar burlas mais convincentes do que nunca.
O mesmo Teste Nacional de Privacidade indica que 35% dos portugueses não sabe identificar corretamente burlas comuns realizadas com recurso a tecnologia de IA (deepfakes e clonagem de voz, sobretudo).
E a verdade é que os vídeos ou gravações de vozes parecem cada vez mais reais – e essas zombarias se tornam cada vez mais difíceis de detetar.
Resultado: mais burlas e mais vítimas. A IA simplificou o cibercrime.
Para diminuir riscos ao utilizar IA no trabalho, ficam algumas dicas: nunca introduzir dados confidenciais da empresa, informações de clientes ou dados pessoais; lembrar-se que as conversas com ferramentas IA podem ser registadas; e verificar as políticas de utilização de IA da empresa.
