Entre em contato

inteligência artificial

Lei sobre inteligência artificial: Conselho e Parlamento chegam a acordo sobre as primeiras regras para a IA no mundo

Compartilhar:

Publicado

on

Usamos sua inscrição para fornecer conteúdo da maneira que você consentiu e para melhorar nosso entendimento sobre você. Você pode cancelar sua inscrição a qualquer momento.

Após uma «maratona» de conversações de três dias, a Presidência do Conselho e os negociadores do Parlamento Europeu chegaram a um acordo provisório sobre a proposta de regras harmonizadas em matéria de inteligência artificial (IA), a chamada lei da inteligência artificial. O projeto de regulamento visa garantir que os sistemas de IA colocados no mercado europeu e utilizados na UE sejam seguros e respeitem os direitos fundamentais e os valores da UE. Esta proposta histórica também visa estimular o investimento e a inovação em IA na Europa.

Carme Artigas, secretária de estado espanhola para digitalização e inteligência artificial

Esta é uma conquista histórica e um grande marco em direção ao futuro! O acordo de hoje aborda eficazmente um desafio global num ambiente tecnológico em rápida evolução num domínio fundamental para o futuro das nossas sociedades e economias. E neste esforço, conseguimos manter um equilíbrio extremamente delicado: impulsionar a inovação e a adoção da inteligência artificial em toda a Europa, respeitando plenamente os direitos fundamentais dos nossos cidadãos.Carme Artigas, secretária de Estado espanhola para a digitalização e a inteligência artificial

O ato de IA é um navio almirante iniciativa legislativa com potencial para promover o desenvolvimento e a adoção de uma IA segura e fiável em todo o mercado único da UE, tanto por intervenientes privados como públicos. A ideia principal é regular a IA com base na capacidade desta última de causar danos à sociedade após um 'baseado em risco' abordagem: quanto maior o risco, mais rigorosas são as regras. Sendo a primeira proposta legislativa deste tipo no mundo, pode estabelecer um padrão global para a regulamentação da IA ​​noutras jurisdições, tal como o GDPR fez, promovendo assim a abordagem europeia à regulamentação tecnológica no cenário mundial.

Os principais elementos do acordo provisório

Em comparação com a proposta inicial da Comissão, os principais novos elementos do acordo provisório podem ser resumidos da seguinte forma:

  • regras sobre modelos de IA de uso geral de alto impacto que podem causar risco sistêmico no futuro, bem como em riscos Sistemas de IA
  • um sistema revisto de governo com alguns poderes de aplicação a nível da UE
  • extensão da lista de proibições mas com a possibilidade de usar identificação biométrica remota pelas autoridades responsáveis ​​pela aplicação da lei em espaços públicos, sujeitos a salvaguardas
  • melhor proteção dos direitos através da obrigação de os implantadores de sistemas de IA de alto risco realizarem uma avaliação de impacto nos direitos fundamentais antes de colocar um sistema de IA em uso.

Em termos mais concretos, o acordo provisório abrange os seguintes aspectos:

Definições e escopo

Para garantir que o definição de um sistema de IA fornece critérios suficientemente claros para distinguir a IA de sistemas de software mais simples, o acordo de compromisso alinha a definição com a abordagem proposta pela OCDE.

O acordo provisório também esclarece que o regulamento não se aplica a áreas fora do âmbito de aplicação do direito da UE e não deve, em caso algum, afectar as competências dos Estados-Membros em matéria de segurança nacional ou qualquer entidade encarregada de tarefas nesta área. Além disso, a lei relativa à IA não se aplicará a sistemas utilizados exclusivamente para militar or defesa propósitos. Da mesma forma, o acordo prevê que o regulamento não se aplicará aos sistemas de IA utilizados exclusivamente para efeitos de pesquisa e inovação, ou para pessoas que usam IA por motivos não profissionais.

Anúncios

Classificação dos sistemas de IA como práticas de IA proibidas e de alto risco

O acordo de compromisso prevê uma camada horizontal de proteção, incluindo uma classificação de alto risco, para garantir que os sistemas de IA que não sejam suscetíveis de causar violações graves dos direitos fundamentais ou outros riscos significativos não sejam capturados. Sistemas de IA apresentando apenas risco limitado estaria sujeito a muita luz obrigações de transparência, por exemplo, divulgando que o conteúdo foi gerado por IA para que os usuários possam tomar decisões informadas sobre seu uso futuro.

Uma ampla varidade de alto risco Os sistemas de IA seriam autorizados, mas sujeitos a um conjunto de requisitos e obrigações para obter acesso ao mercado da UE. Estes requisitos foram clarificados e ajustados pelos colegisladores de forma a serem mais tecnicamente viável e menos oneroso que as partes interessadas devem cumprir, por exemplo no que diz respeito à qualidade dos dados, ou em relação à documentação técnica que deve ser elaborada pelas PME para demonstrar que os seus sistemas de IA de alto risco cumprem os requisitos.

Uma vez que os sistemas de IA são desenvolvidos e distribuídos através de cadeias de valor complexas, o acordo de compromisso inclui alterações que clarificam a atribuição de responsabilidades e papéis dos vários atores nessas cadeias, em particular fornecedores e utilizadores de sistemas de IA. Clarifica também a relação entre as responsabilidades ao abrigo da Lei relativa à IA e as responsabilidades que já existem ao abrigo de outra legislação, como a legislação relevante em matéria de proteção de dados da UE ou a legislação setorial.

Para alguns usos da IA, o risco é considerado inaceitável e, portanto, estes sistemas serão banidos da UE. O acordo provisório proíbe, por exemplo, atividades cognitivas manipulação comportamental, o não direcionado demolição de imagens faciais da Internet ou imagens de CCTV, reconhecimento de emoção no local de trabalho e nas instituições educacionais, pontuação social, categorização biométrica para inferir dados sensíveis, como orientação sexual ou crenças religiosas, e alguns casos de policiamento preditivo para indivíduos.

Exceções de aplicação da lei

Considerando as especificidades autoridades policiais e a necessidade de preservar a sua capacidade de utilizar a IA no seu trabalho vital, foram acordadas várias alterações à proposta da Comissão relacionadas com a utilização de sistemas de IA para fins de aplicação da lei. Sujeito a apropriado proteções, estas alterações pretendem refletir a necessidade de respeitar a confidencialidade dos dados operacionais sensíveis em relação às suas atividades. Por exemplo, foi introduzido um procedimento de emergência que permite às autoridades responsáveis ​​pela aplicação da lei implementar uma ferramenta de IA de alto risco que não tenha sido aprovada no avaliação de conformidade procedimento em caso de urgência. No entanto, foi também introduzido um mecanismo específico para garantir que direitos fundamentais estarão suficientemente protegidos contra quaisquer potenciais utilizações indevidas dos sistemas de IA.

Além disso, no que diz respeito à utilização de dados em tempo real identificação biométrica remota sistemas em espaços acessíveis ao público, o acordo provisório clarifica os objetivos sempre que tal utilização seja estritamente necessária para fins de aplicação da lei e para os quais as autoridades responsáveis ​​pela aplicação da lei deverão, portanto, ser excecionalmente autorizadas a utilizar esses sistemas. O acordo de compromisso prevê salvaguardas adicionais e limita estas exceções aos casos de vítimas de determinados crimes, à prevenção de ameaças genuínas, presentes ou previsíveis, como ataques terroristas, e à busca de pessoas suspeitas dos crimes mais graves.

Sistemas de IA de uso geral e modelos básicos

Foram acrescentadas novas disposições para ter em conta situações em que os sistemas de IA podem ser utilizados para muitos fins diferentes (IA de uso geral), e onde a tecnologia de IA de uso geral é posteriormente integrada noutro sistema de alto risco. O acordo provisório também aborda os casos específicos de sistemas de IA de uso geral (GPAI).

Foram também acordadas regras específicas para modelos de fundação, grandes sistemas capazes de executar com competência uma ampla gama de tarefas distintas, como gerar vídeo, texto, imagens, conversar em linguagem lateral, computar ou gerar código de computador. O acordo provisório prevê que os modelos de fundação devem obedecer a requisitos específicos obrigações de transparência antes de serem colocados no mercado. Foi introduzido um regime mais rigoroso para 'alto impacto' modelos de fundação. São modelos básicos treinados com grande quantidade de dados e com complexidade, capacidades e desempenho avançados bem acima da média, que podem disseminar riscos sistêmicos ao longo da cadeia de valor.

Uma nova arquitetura de governança

Na sequência das novas regras relativas aos modelos GPAI e da necessidade óbvia da sua aplicação a nível da UE, Escritório de IA dentro da Comissão é incumbido de supervisionar esses modelos de IA mais avançados, contribuir para promover padrões e práticas de teste e fazer cumprir as regras comuns em todos os estados membros. A painel científico de especialistas independentes irá aconselhar o AI Office sobre modelos GPAI, contribuindo para o desenvolvimento de metodologias de avaliação das capacidades dos modelos de fundações, aconselhando sobre a designação e o surgimento de modelos de fundações de alto impacto, e monitorizando possíveis riscos de segurança de materiais relacionados com modelos de fundações.

A Conselho de IA, que incluiria representantes dos Estados-Membros, permanecerá como uma plataforma de coordenação e um órgão consultivo da Comissão e atribuirá um papel importante aos Estados-Membros na implementação do regulamento, incluindo a concepção de códigos de prática para modelos de fundação. Finalmente, um fórum consultivo para as partes interessadas, como representantes da indústria, PME, empresas em fase de arranque, sociedade civil e mundo académico, será criado para fornecer conhecimentos técnicos ao Conselho da IA.

Penalidades

As multas por violações da lei de IA foram fixadas como uma percentagem do volume de negócios anual global da empresa infratora no exercício financeiro anterior ou num montante pré-determinado, o que for maior. Isto seria de 35 milhões de euros ou 7% para violações das aplicações de IA proibidas, 15 milhões de euros ou 3% para violações das obrigações da lei de IA e 7,5 milhões de euros ou 1,5% para o fornecimento de informações incorretas. No entanto, o acordo provisório prevê limites mais proporcionais sobre multas administrativas para PME e empresas em fase de arranque em caso de infração às disposições da lei relativa à IA.

O acordo de compromisso também deixa claro que uma pessoa singular ou colectiva pode apresentar uma reclamação ao órgão competente autoridade de fiscalização do mercado relativa ao não cumprimento da lei de IA e pode esperar que tal reclamação seja tratada de acordo com os procedimentos específicos dessa autoridade.

Transparência e proteção dos direitos fundamentais

O acordo provisório prevê uma avaliação de impacto nos direitos fundamentais antes que um sistema de IA de alto risco seja colocado no mercado pelos seus implantadores. O acordo provisório prevê também um aumento transparência relativamente à utilização de sistemas de IA de alto risco. Nomeadamente, algumas disposições da proposta da Comissão foram alteradas para indicar que determinados utilizadores de um sistema de IA de alto risco que sejam entidades públicas também serão obrigados a registar-se no Base de dados da UE para sistemas de IA de alto risco. Além disso, as disposições recentemente acrescentadas colocam ênfase numa obrigação para os utilizadores de um sistema de reconhecimento de emoções informar as pessoas singulares quando estas estiverem expostas a esse sistema.

Medidas de apoio à inovação

Com vista a criar um quadro jurídico mais favorável à inovação e a promover a aprendizagem regulamentar baseada em evidências, as disposições relativas medidas de apoio à inovação foram substancialmente modificados em comparação com a proposta da Comissão.

Notavelmente, foi esclarecido que a IA caixas de areia regulatórias, que deverão estabelecer um ambiente controlado para o desenvolvimento, ensaio e validação de sistemas de IA inovadores, deverão também permitir o ensaio de sistemas de IA inovadores em condições reais. Além disso, foram acrescentadas novas disposições que permitem ensaio de sistemas de IA em condições do mundo real, sob condições e salvaguardas específicas. Para aliviar os encargos administrativos das pequenas empresas, o acordo provisório inclui uma lista de ações a empreender para apoiar esses operadores e prevê algumas derrogações limitadas e claramente especificadas.

Entrada em vigor

O acordo provisório prevê que a lei sobre IA deve ser aplicada dois anos após a sua entrada em vigor, com algumas exceções para disposições específicas.

Próximos passos

Na sequência do acordo provisório de hoje, os trabalhos continuarão a nível técnico nas próximas semanas para finalizar os detalhes do novo regulamento. A Presidência apresentará o texto de compromisso aos representantes dos Estados-Membros (Coreper) para aprovação assim que este trabalho estiver concluído.

Todo o texto terá de ser confirmado por ambas as instituições e submetido a uma revisão jurídico-linguística antes da adoção formal pelos colegisladores.

Informação de fundo

A proposta da Comissão, apresentada em abril de 2021, é um elemento fundamental da política da UE para promover o desenvolvimento e a adoção em todo o mercado único de uma IA segura e legal que respeite os direitos fundamentais.

A proposta segue uma abordagem baseada no risco e estabelece um quadro jurídico uniforme e horizontal para a IA que visa garantir a segurança jurídica. O projeto de regulamento visa promover o investimento e a inovação na IA, melhorar a governação e a aplicação efetiva da legislação existente em matéria de direitos fundamentais e segurança, e facilitar o desenvolvimento de um mercado único para aplicações de IA. Acompanha outras iniciativas, incluindo o plano coordenado sobre inteligência artificial, que visa acelerar o investimento em IA na Europa. Em 6 de dezembro de 2022, o Conselho chegou a acordo sobre uma orientação geral (mandato de negociação) sobre este dossiê e iniciou conversações interinstitucionais com o Parlamento Europeu («trílogos») em meados de junho de 2023.

Compartilhe este artigo:

O EU Reporter publica artigos de várias fontes externas que expressam uma ampla gama de pontos de vista. As posições tomadas nestes artigos não são necessariamente as do EU Reporter.

TENDÊNCIA