• Seg. Set 30th, 2024

A Lei da UE sobre IA entra em vigor

Byadmin

Ago 1, 2024
A Lei da UE sobre IA entra em vigor

O EU TENHO Agir entra em vigor hoje, delineando regulamentações para o desenvolvimento, colocação no mercado, implementação e uso de inteligência artificial na União Europeia.

O Conselho escreveu que a Lei visa “promover a adopção de inteligência artificial centrada no ser humano e fiável, garantindo simultaneamente um elevado nível de protecção da saúde, da segurança, [and] direitos fundamentais…incluindo a democracia, o Estado de direito e a proteção ambiental, para proteger contra os efeitos nocivos dos sistemas de IA na União e para apoiar a inovação.”

De acordo com a Lei, os casos de uso de alto risco da IA ​​incluem:

  • Implementação da tecnologia em dispositivos médicos.

  • Utilizando-o para identificação biométrica.

  • Determinar o acesso a serviços como assistência médica.

  • Qualquer forma de processamento automatizado de dados pessoais.

  • Reconhecimento emocional por razões médicas ou de segurança.

“Identificação biométrica” ​​é definida como “o reconhecimento automatizado de características físicas, fisiológicas e comportamentais humanas, como rosto, movimento dos olhos, formato do corpo, voz, prosódia, marcha, postura, frequência cardíaca, pressão arterial, odor, características de digitação, com o propósito de estabelecer a identidade de um indivíduo comparando dados biométricos desse indivíduo com dados biométricos armazenados de indivíduos em um banco de dados de referência, independentemente de o indivíduo ter dado seu consentimento ou não”, escreveram os reguladores.

A regulamentação da identificação biométrica exclui o uso de IA para fins de autenticação, como para confirmar que um indivíduo é quem diz ser.

A Lei diz que consideração especial deve ser usada ao utilizar IA para determinar se um indivíduo deve ter acesso a serviços públicos e privados essenciais, como assistência médica em casos de maternidade, acidentes industriais, doença, perda de emprego, dependência ou velhice, e assistência social e habitacional, pois isso seria classificado como de alto risco.

Usar a tecnologia para o processamento automatizado de dados pessoais também é considerado de alto risco.

“O espaço europeu de dados de saúde facilitará o acesso não discriminatório aos dados de saúde e o treinamento de algoritmos de IA nesses conjuntos de dados, de forma segura, oportuna, transparente e confiável, preservando a privacidade e com uma governança institucional apropriada”, diz a lei.

“As autoridades competentes relevantes, incluindo as setoriais, que fornecem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de alta qualidade para o treinamento, validação e teste de sistemas de IA.”

Quando se trata de testar sistemas de IA de alto risco, as empresas devem testá-los em condições do mundo real e obter o consentimento informado dos participantes.

As organizações também devem manter registros (logs) de eventos que ocorram durante os testes de seus sistemas por pelo menos seis meses, e incidentes graves que ocorram durante os testes devem ser relatados às autoridades de fiscalização de mercado dos Estados-Membros onde o incidente ocorreu.

A lei diz que a IA não deve ser usada para reconhecimento emocional relacionado a “emoções ou intenções como felicidade, tristeza, raiva, surpresa, desgosto, constrangimento, excitação, vergonha, desprezo, satisfação e diversão”.

No entanto, a IA para uso de reconhecimento emocional referente a estados físicos, como dor ou fadiga, como sistemas usados ​​para detectar o estado de fadiga de pilotos ou motoristas profissionais para prevenir acidentes, não é proibida.

Requisitos de transparência, ou seja, rastreabilidade e explicabilidade, existem para aplicações específicas de IA, como sistemas de IA que interagem com humanos, conteúdo gerado ou manipulado por IA (como deepfakes) e sistemas permitidos de reconhecimento emocional e categorização biométrica.

As empresas também são obrigadas a eliminar ou reduzir o risco de viés em suas aplicações de IA e abordar o viés quando ele ocorre com medidas de mitigação.

A lei destaca a intenção do Conselho de proteger os cidadãos da UE dos riscos potenciais da IA; no entanto, descreve seu objetivo de não sufocar a inovação.

“Este Regulamento deve apoiar a inovação, deve respeitar a liberdade da ciência e não deve prejudicar a atividade de pesquisa e desenvolvimento. Portanto, é necessário excluir de seu escopo sistemas e modelos de IA especificamente desenvolvidos e colocados em serviço com o único propósito de pesquisa e desenvolvimento científico”, escreveram os reguladores.

“Além disso, é necessário garantir que este Regulamento não afete de outra forma a atividade de pesquisa e desenvolvimento científico de sistemas ou modelos de IA antes de serem colocados no mercado ou colocados em serviço.”

O HIMSS Healthcare Cíber segurança O fórum está programado para ocorrer de 31 de outubro a 1º de novembro em Washington, DC Saiba mais e registre-se.

Source

By admin

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *