O EU TENHO Agir entra em vigor hoje, delineando regulamentações para o desenvolvimento, colocação no mercado, implementação e uso de inteligência artificial na União Europeia.
O Conselho escreveu que a Lei visa “promover a adopção de inteligência artificial centrada no ser humano e fiável, garantindo simultaneamente um elevado nível de protecção da saúde, da segurança, [and] direitos fundamentais…incluindo a democracia, o Estado de direito e a proteção ambiental, para proteger contra os efeitos nocivos dos sistemas de IA na União e para apoiar a inovação.”
De acordo com a Lei, os casos de uso de alto risco da IA incluem:
-
Implementação da tecnologia em dispositivos médicos.
-
Utilizando-o para identificação biométrica.
-
Determinar o acesso a serviços como assistência médica.
-
Qualquer forma de processamento automatizado de dados pessoais.
-
Reconhecimento emocional por razões médicas ou de segurança.
“Identificação biométrica” é definida como “o reconhecimento automatizado de características físicas, fisiológicas e comportamentais humanas, como rosto, movimento dos olhos, formato do corpo, voz, prosódia, marcha, postura, frequência cardíaca, pressão arterial, odor, características de digitação, com o propósito de estabelecer a identidade de um indivíduo comparando dados biométricos desse indivíduo com dados biométricos armazenados de indivíduos em um banco de dados de referência, independentemente de o indivíduo ter dado seu consentimento ou não”, escreveram os reguladores.
A regulamentação da identificação biométrica exclui o uso de IA para fins de autenticação, como para confirmar que um indivíduo é quem diz ser.
A Lei diz que consideração especial deve ser usada ao utilizar IA para determinar se um indivíduo deve ter acesso a serviços públicos e privados essenciais, como assistência médica em casos de maternidade, acidentes industriais, doença, perda de emprego, dependência ou velhice, e assistência social e habitacional, pois isso seria classificado como de alto risco.
Usar a tecnologia para o processamento automatizado de dados pessoais também é considerado de alto risco.
“O espaço europeu de dados de saúde facilitará o acesso não discriminatório aos dados de saúde e o treinamento de algoritmos de IA nesses conjuntos de dados, de forma segura, oportuna, transparente e confiável, preservando a privacidade e com uma governança institucional apropriada”, diz a lei.
“As autoridades competentes relevantes, incluindo as setoriais, que fornecem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de alta qualidade para o treinamento, validação e teste de sistemas de IA.”
Quando se trata de testar sistemas de IA de alto risco, as empresas devem testá-los em condições do mundo real e obter o consentimento informado dos participantes.
As organizações também devem manter registros (logs) de eventos que ocorram durante os testes de seus sistemas por pelo menos seis meses, e incidentes graves que ocorram durante os testes devem ser relatados às autoridades de fiscalização de mercado dos Estados-Membros onde o incidente ocorreu.
A lei diz que a IA não deve ser usada para reconhecimento emocional relacionado a “emoções ou intenções como felicidade, tristeza, raiva, surpresa, desgosto, constrangimento, excitação, vergonha, desprezo, satisfação e diversão”.
No entanto, a IA para uso de reconhecimento emocional referente a estados físicos, como dor ou fadiga, como sistemas usados para detectar o estado de fadiga de pilotos ou motoristas profissionais para prevenir acidentes, não é proibida.
Requisitos de transparência, ou seja, rastreabilidade e explicabilidade, existem para aplicações específicas de IA, como sistemas de IA que interagem com humanos, conteúdo gerado ou manipulado por IA (como deepfakes) e sistemas permitidos de reconhecimento emocional e categorização biométrica.
As empresas também são obrigadas a eliminar ou reduzir o risco de viés em suas aplicações de IA e abordar o viés quando ele ocorre com medidas de mitigação.
A lei destaca a intenção do Conselho de proteger os cidadãos da UE dos riscos potenciais da IA; no entanto, descreve seu objetivo de não sufocar a inovação.
“Este Regulamento deve apoiar a inovação, deve respeitar a liberdade da ciência e não deve prejudicar a atividade de pesquisa e desenvolvimento. Portanto, é necessário excluir de seu escopo sistemas e modelos de IA especificamente desenvolvidos e colocados em serviço com o único propósito de pesquisa e desenvolvimento científico”, escreveram os reguladores.
“Além disso, é necessário garantir que este Regulamento não afete de outra forma a atividade de pesquisa e desenvolvimento científico de sistemas ou modelos de IA antes de serem colocados no mercado ou colocados em serviço.”
O HIMSS Healthcare Cíber segurança O fórum está programado para ocorrer de 31 de outubro a 1º de novembro em Washington, DC Saiba mais e registre-se.