O A Lei da UE sobre IA entra hoje em vigor e estabelece regulamentos para o desenvolvimento, comercialização, implementação e utilização de inteligência artificial na União Europeia.
O conselho escreveu que a lei visa “promover a adoção de inteligência artificial confiável e centrada no ser humano, garantindo ao mesmo tempo um alto nível de proteção à saúde, segurança, [and] Direitos fundamentais… incluindo a democracia, o Estado de direito e a proteção ambiental, para proteger contra os efeitos nocivos dos sistemas de IA na União e promover a inovação.»
De acordo com a lei, os casos de uso arriscado de IA incluem:
-
Implementação de tecnologia em dispositivos médicos.
-
Use para identificação biométrica.
-
Determinar o acesso a serviços como cuidados de saúde.
-
Qualquer forma de tratamento automatizado de dados pessoais.
-
Reconhecimento emocional por razões médicas ou de segurança.
“Identificação biométrica” significa “o reconhecimento automático de características humanas físicas, fisiológicas e comportamentais, tais como rosto, movimento dos olhos, formato do corpo, voz, prosódia, marcha, postura, frequência cardíaca, pressão arterial, olfato e pressionamentos de teclas, com a finalidade de estabelecer o identidade de uma pessoa comparando os dados biométricos dessa pessoa com os dados biométricos de indivíduos armazenados em um banco de dados de referência, independentemente de a pessoa ter dado consentimento ou não”, escreveram os reguladores.
O regulamento de identificação biométrica exclui a utilização de inteligência artificial para fins de autenticação, como a confirmação de que uma pessoa é quem afirma ser.
A lei estabelece que cuidados especiais devem ser tomados ao usar IA ao decidir se uma pessoa deve ter acesso a serviços públicos e privados essenciais, como cuidados médicos de maternidade, acidentes industriais, doenças, perda de emprego, necessidade de cuidados ou também na velhice como assistência social e habitacional, pois seriam classificadas como de alto risco.
A utilização desta tecnologia para o tratamento automatizado de dados pessoais também é considerada arriscada.
“O Espaço Europeu de Dados de Saúde permitirá o acesso não discriminatório aos dados de saúde e o treinamento de algoritmos de IA nesses conjuntos de dados, de maneira que preserve a privacidade, seja segura, oportuna, transparente e confiável e com governança institucional adequada”, diz a lei. .
“As autoridades relevantes relevantes, incluindo autoridades setoriais, que fornecem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de alta qualidade para formação, validação e teste de sistemas de IA.”
Quando se trata de testar sistemas de IA de alto risco, as empresas devem testá-los em condições reais e obter o consentimento informado dos participantes.
Além disso, as organizações devem reter registos (registos) de eventos que ocorrem durante a auditoria dos seus sistemas durante pelo menos seis meses. Os incidentes graves durante os testes devem ser comunicados às autoridades de fiscalização do mercado dos Estados-Membros onde ocorreu o incidente.
A lei afirma que a IA não pode ser usada para reconhecimento de emoções relacionadas a “emoções ou intenções como felicidade, tristeza, raiva, surpresa, nojo, constrangimento, excitação, vergonha, desprezo, satisfação e diversão”.
No entanto, não é proibida a utilização de IA para reconhecer as emoções de estados físicos como dor ou fadiga, como os utilizados em sistemas para reconhecer o nível de fadiga de pilotos ou motoristas profissionais para prevenir acidentes.
Existem requisitos de transparência, ou seja, rastreabilidade e explicabilidade, para determinadas aplicações de IA, como sistemas de IA que interagem com seres humanos, conteúdos gerados ou manipulados pela IA (como deepfakes) e sistemas permissíveis para reconhecimento de emoções e categorização biométrica.
As empresas também são obrigadas a eliminar ou reduzir o risco de preconceitos nas suas aplicações de IA e a abordar os preconceitos que surgem através de ações corretivas.
A lei sublinha a intenção do Conselho de proteger os cidadãos da UE dos riscos potenciais da IA; Ao mesmo tempo, também traça o objetivo de não impedir a inovação.
“Este regulamento deve apoiar a inovação, respeitar a liberdade académica e não prejudicar as atividades de investigação e desenvolvimento. É, portanto, necessário excluir do seu âmbito os sistemas e modelos de IA que tenham sido especificamente desenvolvidos e colocados em funcionamento com o único propósito de investigação e desenvolvimento científico”, escreveram os reguladores.
“Além disso, é necessário garantir que este regulamento não afete de outra forma a investigação científica e o desenvolvimento de sistemas ou modelos de IA antes de estes serem introduzidos no mercado ou em funcionamento.”
O Sistema de Saúde HIMSS Segurança da Internet O fórum acontecerá de 31 de outubro a 1º de novembro em Washington, DC. Mais informações e inscrições.