União Europeia chega a acordo para proibir IA que cria imagens de teor sexual
Os Estados-Membros e o Parlamento Europeu chegaram a acordo esta quarta-feira à noite para proibir na União Europeia (UE) os serviços de inteligência artificial (IA) que possam “despir” pessoas sem o seu consentimento.
A iniciativa surge na sequência da introdução, há alguns meses, de uma funcionalidade no Grok, o assistente de IA da rede social X, que permitia aos utilizadores solicitar a criação de montagens hiper-realistas (ou ‘deepfakes’) de adultos e crianças nus a partir de fotografias reais, sem o seu consentimento.
O caso gerou indignação em muitos países e levou a UE a abrir uma investigação.
Na terça-feira, a primeira-ministra italiana, Giorgia Meloni, condenou veementemente as fotos falsas de si própria geradas por IA, classificando os ‘deepfakes’ como uma “ferramenta perigosa”.
De acordo com o Parlamento Europeu, a nova proibição visa sistemas que possam criar imagens, vídeos e sons de natureza pornográfica com crianças, ou representações das partes íntimas de uma pessoa identificável, ou imagens dessa pessoa envolvida em atividade sexual, sem o seu consentimento.
As novas regras entrarão em vigor em 02 de dezembro. A partir dessa data, os sistemas de IA deverão estar equipados com medidas de segurança que os impeçam de gerar este tipo de conteúdo.
A medida foi adotada no âmbito de uma revisão da legislação europeia sobre a IA, ou Lei da IA, uma lei pioneira formalmente aprovada há dois anos.
Nessa ocasião, os 27 Estados-Membros e os eurodeputados acordaram ainda, conforme proposto pela Comissão Europeia, adiar a entrada em vigor de novas regras destinadas a regular a atividade dos chamados sistemas de IA de alto risco, ou seja, aqueles que operam em áreas sensíveis como a segurança, a saúde ou os direitos fundamentais.
As regras deveriam entrar em vigor já em agosto, mas a Comissão quis dar mais tempo às empresas para se adaptarem ao novo quadro.
A principal alteração em relação à proposta da Comissão é que os Estados-Membros e os eurodeputados adotaram datas fixas para o adiamento, enquanto Bruxelas tinha proposto um calendário mais flexível.
As novas datas são 02 de dezembro de 2027 para os sistemas “autónomos” de alto risco e 02 de agosto de 2028 para os sistemas integrados noutros programas ou produtos.
O acordo foi alcançado numa altura em que as preocupações com os riscos associados à IA voltaram à discussão na UE nas últimas semanas devido ao Mythos, o novo modelo da ‘startup’ norte-americana Anthropic.
A Anthopic decidiu não disponibilizar o Mythos ao público em geral, mas apenas a um grupo restrito de empresas norte-americanas, devido à excecional capacidade do modelo de identificar vulnerabilidades críticas de programação, que poderiam desencadear uma crise de cibersegurança.
Share this content:



Publicar comentário