
Ao iniciarmos um novo ano, muitos pediram minhas previsões sobre privacidadeespecialmente porque o uso de IA e processamento de dados baseado em nuvem pelas organizações disparou ultimamente. A minha resposta centra-se no que acredito que será uma grande mudança na forma como a privacidade e os dados confidenciais são percebidos.
As blockchains públicas há muito prometem transparência e confiança, mas a sua abertura também as tornou impraticáveis para aplicações do mundo real, como folha de pagamento, identidade e finanças institucionais; um dilema que gosto de chamar de “paradoxo da transparência”.
No ano seguinte, no entanto, este compromisso – que acredito ser o maior obstáculo à adopção generalizada – começará a ser resolvido e, por sua vez, fará com que a confidencialidade passe de um tópico especializado para um requisito a nível do conselho de administração.
O que há de especial em 2026?
Quando se trata de por que acredito que esta mudança acontecerá este ano, e não apenas “em algum momento no futuro”, há muitas peças em jogo. Mas primeiro é a tecnologia. Avanços recentes, mas significativos, na criptografia totalmente homomórfica (FHE) agora finalmente tornam os blockchains confidenciais práticos em escala.
Ao permitir cálculos em criptografia dados sem expor informações confidenciais, estamos efetivamente vendo o equivalente blockchain do HTTPS, ou “HTTPZ”, agora se materializar.
No entanto, embora a preparação da tecnologia seja certamente necessária, ela não é suficiente por si só. O que muda a privacidade em 2026 é a convergência de várias forças ao mesmo tempo:
Ferramentas de IA estão a passar da experimentação para a produção: em 2024–2025, muitas implementações de IA ainda eram pilotos ou ferramentas de âmbito limitado. Agora, em 2026, a IA já está incorporada nos principais fluxos de trabalho, incluindo preços, tomada de decisões, P&D, jurídico, saúde e finanças. Depois que a IA atinge o IP central e os dados regulamentados, a privacidade deixa de ser opcional.
Os conselhos de administração tornam-se diretamente responsáveis pelo risco da IA: a governação da IA está a passar de uma política abstrata para uma responsabilidade fiduciária. Falhas de alto perfil – vazamentos de dados, ataques de inversão de modelos, aplicação de regulamentações ou escândalos de uso indevido de IA – atuarão como eventos forçados. Os conselhos não perguntarão “é bom ter privacidade?” mas “podemos provar que os dados nunca vazaram?”
Grandes compradores redefinindo os padrões de aquisição: À medida que algumas grandes empresas e atores do setor público estabelecem arquiteturas que preservam a privacidade como requisitos padrão, o mercado irá inclinar-se. É assim segurança certificações e padrões de nuvem tornaram-se obrigatórios. Uma vez que um punhado de grandes players o exija, o resto do ecossistema o segue rapidamente.
Pressão competitiva, não apenas regulamentação: É importante ressaltar que isto não será impulsionado apenas pela regulamentação. As empresas verão os concorrentes se movimentando mais rapidamente, acessando dados melhores e fechando negócios que não conseguem. A privacidade torna-se um facilitador de receitas e não apenas um controlo de riscos.
É por isso que 2026 é importante: é o ponto em que as expectativas alcançam a capacidade e onde o custo de não ter privacidade desde a concepção se torna visível, mensurável e estratégico. Mas nem todos serão beneficiados.
Quem provavelmente ficará de fora
As partes do ecossistema com maior probabilidade de interpretar mal esta mudança não são os actores óbvios “hostis à privacidade”, mas aqueles que acreditam que já estão a fazer o suficiente.
Isto inclui empresas lideradas por plataformas que combinam abertura com confiança. Alguns intervenientes – especialmente em plataformas de IA e de dados – continuarão a assumir que a transparência, os pesos abertos ou as API abertas são suficientes para gerar confiança.
Eles vão subestimar a rapidez com que clientes estão aprendendo a distinguir inspecionabilidade de confidencialidade. A abertura pode ajudar na auditabilidade, mas não contribui em nada para proteger informações confidenciais depois que os dados são compartilhados. Em alguns casos, destrói ativamente a privacidade.
Estas empresas ficarão surpreendidas quando os compradores empresariais recuarem, não na qualidade do modelo, mas no risco de exposição dos dados.
Da mesma forma, as empresas que assumem que a privacidade pode ser adaptada – tratando-a como uma “camada” arquitetónica que pode adicionar posteriormente através de políticas, controlos de acesso ou garantias contratuais – provavelmente ficarão excluídas de casos de utilização de maior valor (dados regulamentados, colaboração entre entidades, propriedade intelectual sensível) simplesmente porque as suas fundações não são credíveis.
Na verdade, isso reflete como a segurança já foi tratada (e ainda é em muitos setores). O erro é que a computação confidencial, o ML criptografado e a inferência que preserva a privacidade moldam fundamentalmente o design do sistema. A adaptação posterior da privacidade é cara, frágil e muitas vezes incompleta.
Qualquer fornecedor que interprete mal o relativo silêncio de hoje como falta de demanda corre o risco de ficar para trás. Na realidade, a privacidade é muitas vezes suprimida pela procura: os compradores não pedem o que consideram impossível. Assim que existem soluções viáveis, as expectativas são redefinidas com extrema rapidez.
Vimos esse padrão com nuvem segurança, confiança zero e agora governança de IA. Assim, quando a demanda for explícita, os retardatários já estarão desqualificados.
Quando a privacidade se torna uma aposta na mesa
Para aqueles que levam a privacidade a sério desde o início e a incorporam em seus produtos desde o primeiro dia, vejo uma história diferente se desenrolando.
Para eles, eles terão acesso a dados mais ricos, mais sensíveis e de sinal mais alto porque os clientes confiam neles, enquanto outros ficarão presos no treinamento e na operação em conjuntos de dados mais finos, higienizados ou sintéticos.
Eles também se beneficiarão da velocidade de implantação, especialmente em ambientes sensíveis, graças a menos revisões jurídicas, controles personalizados e vetos internos. Quando isso acontece, o tempo de obtenção de valor se torna um verdadeiro diferencial.
Finalmente, haverá uma mudança na profundidade da integração e colaboraçãoe isso se deve ao fato de que os sistemas de preservação da privacidade desbloqueiam a colaboração através das fronteiras organizacionais (parceiros, fornecedores, jurisdições) que antes era impossível. Isto não só melhorará as margens, mas expandirá drasticamente os mercados endereçáveis.
Apresentamos o melhor software de criptografia.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes do setor de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não são necessariamente da TechRadarPro ou Future plc. Se você estiver interessado em contribuir saiba mais aqui: https://www.techradar.com/news/submit-your-story-to-techradar-pro
