Os avanços notáveis na inteligência artificial (IA) abriram possibilidades sem precedentes, impactando praticamente todas as facetas das nossas vidas. O que antes era um domínio reservado a especialistas especializados tornou-se agora acessível a indivíduos em todo o mundo, que estão a aproveitar as capacidades da IA em grande escala. Essa acessibilidade está revolucionando a forma como trabalhamos, aprendemos e nos divertimos.
Embora a democratização da IA prenuncie o potencial ilimitado de inovação, também introduz riscos consideráveis. As preocupações crescentes com o uso indevido, a segurança, o preconceito e a desinformação sublinham a importância de adotar práticas responsáveis de IA agora mais do que nunca.
Um enigma ético
Derivado da palavra grega ética que pode significar costume, hábito, caráter ou disposição, a ética é um sistema de princípios morais. A ética da IA refere-se tanto ao comportamento dos humanos que constroem e utilizam sistemas de IA, como ao comportamento desses sistemas.
Já há algum tempo, tem havido conversas – académicas, empresariais e regulamentares – sobre a necessidade de práticas responsáveis de IA para permitir uma IA ética e equitativa. Todos nós, partes interessadas – desde fabricantes de chips a fabricantes de dispositivos e desenvolvedores de software – devemos trabalhar juntos para projetar capacidades de IA que reduzam os riscos e mitiguem usos potencialmente prejudiciais da IA.
Até Sam Altman, diretor executivo da OpenAI, observou que embora a IA seja “a maior tecnologia que a humanidade já desenvolveu”, ele estava “um pouco assustado” com o seu potencial.
Enfrentando esses desafios
O desenvolvimento responsável deve constituir a base da inovação ao longo de todo o ciclo de vida da IA para garantir que a IA seja construída, implementada e utilizada de forma segura, sustentável e ética. Há alguns anos, a Comissão Europeia publicou Diretrizes de Ética para IA Confiável, estabelecendo requisitos essenciais para o desenvolvimento de uma IA ética e confiável. De acordo com as diretrizes, a IA confiável deve ser legal, ética e robusta.
Embora abraçar a transparência e a responsabilidade seja um dos pilares dos princípios éticos da IA, a integridade dos dados também é fundamental, uma vez que os dados são a base para todos os algoritmos de aprendizagem automática e Grandes Modelos de Linguagem (LLMs). Além de salvaguardar a privacidade dos dados, há também a necessidade de obter consentimento explícito para a utilização de dados, com origem e processamento responsáveis desses dados. Além disso, uma vez que os nossos preconceitos e preconceitos inerentes são exibidos nos nossos dados, os modelos de IA treinados nestes conjuntos de dados podem potencialmente amplificar e dimensionar estes preconceitos humanos. Devemos, portanto, mitigar proativamente os preconceitos nos dados, garantindo ao mesmo tempo a diversidade e a inclusão no desenvolvimento de sistemas de IA.
Depois, há a preocupação em torno da mídia sintética manipulada digitalmente, chamada deepfakes. No recente Conferência de Segurança de Munique, algumas das maiores empresas de tecnologia do mundo uniram-se comprometendo-se a combater o conteúdo enganoso gerado pela IA. O acordo surge no contexto de preocupações crescentes sobre o impacto da desinformação provocada por imagens, vídeos e áudio falsos nas eleições de alto nível que terão lugar este ano nos EUA, no Reino Unido e na Índia.
Mais esforços desse tipo podem ser aproveitados pelas plataformas de mídia social e organizações de mídia para evitar a amplificação de vídeos deepfake prejudiciais. A Intel, por exemplo, introduziu uma plataforma de detecção de deepfake em tempo real – FakeCatcher – que pode detectar vídeos falsos com uma taxa de precisão de 96% e retornar resultados em milissegundos.
Por último, embora os fãs de ficção científica se entreguem a conversas sobre a singularidade tecnológica, há uma necessidade definitiva de identificar riscos e definir controlos para resolver a falta de agência humana e, portanto, a falta de responsabilização clara para evitar quaisquer consequências não intencionais de uma IA desonesta.
Moldando diretrizes éticas de IA
As principais empresas de tecnologia estão definindo cada vez mais diretrizes éticas de IA, num esforço para criar princípios de confiança e transparência, ao mesmo tempo que alcançam os objetivos de negócios desejados. Esta abordagem proativa é refletida por governos de todo o mundo. No ano passado, o presidente dos EUA, Joe Biden, assinou uma ordem executiva sobre IA, descrevendo “as ações mais abrangentes já tomadas para proteger os americanos dos riscos potenciais da IA”. E agora, a União Europeia aprovou a Lei da IA, que é o primeiro quadro regulamentar do mundo centrado na governação da IA. As regras proibirão certas tecnologias de IA com base nos seus riscos potenciais e nível de impacto, introduzirão novas regras de transparência e exigirão avaliações de risco para sistemas de IA de alto risco.
Tal como os seus homólogos globais, o governo indiano reconhece o profundo impacto social da IA, reconhecendo tanto os seus potenciais benefícios como os riscos de preconceitos e violações de privacidade. Nos últimos anos, a Índia implementou iniciativas e diretrizes para garantir o desenvolvimento e implantação responsáveis da IA. Em Março, a MeitY reviu o seu aconselhamento anterior às principais empresas de redes sociais, alterando uma disposição que obrigava os intermediários e as plataformas a obterem permissão do governo antes de implementarem modelos e ferramentas de IA “subtestados” ou “não fiáveis” no país.
O novo comunicado mantém a ênfase da MeitY em garantir que todos os deepfakes e desinformação sejam facilmente identificáveis, aconselhando os intermediários a rotular ou incorporar o conteúdo com “metadados ou identificadores exclusivos”.
Para concluir, num cenário onde a inovação está a ultrapassar a regulamentação, a importância de defender os princípios responsáveis da IA não pode ser exagerada. O potencial de danos sociais aumenta quando o desenvolvimento da IA é separado dos quadros éticos. Portanto, devemos garantir que a inovação seja temperada com responsabilidade, protegendo-nos contra as armadilhas do uso indevido, do preconceito e da desinformação. Somente através da vigilância colectiva e da dedicação inabalável à prática ética poderemos aproveitar o verdadeiro potencial da IA para a melhoria da humanidade.
– Escrito por Santhosh Viswanathan, VP e MD-região Índia, Intel.