Parlamento Europeu regula inteligência artificial
- Ivo Almeida
- 13 de mar. de 2024
- 3 min de leitura
Atualizado: 14 de mar. de 2024
O Parlamento Europeu [PE] deu hoje um passo importante ao aprovar formalmente a lei que irá regular a utilização da inteligência artificial na União Europeia. [AI ACT]. Aprovada com 523 votos favoráveis, 46 contra e 49 abstenções.
Finalmente, temos a primeira lei vinculativa do mundo em matéria de inteligência artificial, a fim de reduzir os riscos, criar oportunidades, combater a discriminação e trazer transparência. As práticas inaceitáveis de IA serão proibidas na Europa e os direitos dos trabalhadores e dos cidadãos serão cada vez mais protegidos.
O Regulamento Inteligência Artificial vem responder diretamente às propostas dos cidadãos durante a Conferência sobre o Futuro da Europa.
A regulamentação então aprovada, visa proteger os direitos fundamentais, a Democracia, assim como, o Estado de Direito – colocando a Europa como líder neste desígnio essencial.
A «AI ACT» é uma proposta que assenta em quatro princípios fundamentais.
A salvaguarda para a inteligência artificial de uso geral;
Limites à utilização de sistemas de identificação biométricas pelas autoridades policiais.
Proibição da classificação social e da IA utilizada para manipular ou explorar vulnerabilidades dos utilizadores.
Direito dos consumidores a apresentar queixas e a receber explicações significativas.
Proibição de aplicações
As novas regras proíbem determinadas aplicações de IA que ameaçam os direitos dos cidadãos, incluindo sistemas de categorização biométrica baseados em características sensíveis e a recolha não direcionada de imagens faciais da Internet ou de televisão em circuito fechado para criar bases de dados de reconhecimento facial. Serão também proibidos o reconhecimento de emoções no local de trabalho e nas escolas, a classificação social, o policiamento preditivo (quando se baseia exclusivamente na definição de perfis de uma pessoa ou na avaliação das suas características) e a IA que manipula o comportamento humano ou explora as vulnerabilidades das pessoas.
Exceções à aplicação da proposta
Existem, no entanto, exceções para efeitos de aplicação de lei. A utilização de sistemas de identificação biométrica à distância pelas autoridades policiais é, em princípio, proibida, exceto em situações enunciadas exaustivamente e definidas de modo restrito. A identificação biométrica à distância «em tempo real» só pode ser aplicada se forem cumpridas salvaguardas rigorosas, nomeadamente se a sua utilização for limitada no tempo e no âmbito geográfico e se estiver sujeita a uma autorização judicial ou administrativa prévia específica. Tais utilizações podem incluir, por exemplo, a busca seletiva de uma pessoa desaparecida ou a prevenção de um ataque terrorista. A utilização de sistemas de identificação biométrica à distância «em diferido» é considerada um caso de uso de alto risco, exigindo uma autorização judicial associada a uma infração penal.
Sistemas de alto risco
Os considerados «Sistemas de alto risco» também foram uma preocupação nesta proposta, pois estão igualmente previstas obrigações claras para outros sistemas de IA de alto risco, devido aos seus potenciais danos significativos para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito.
Exemplos de utilizações de IA de alto risco incluem infraestruturas críticas, educação e formação profissional, emprego, serviços públicos e privados essenciais (nomeadamente os cuidados de saúde e a banca), determinados sistemas de aplicação da lei, migração e gestão das fronteiras, justiça e processos democráticos (por exemplo, influenciando eleições).
Esses sistemas devem avaliar e reduzir os riscos, manter registos de utilização, ser transparentes e exatos e garantir a supervisão humana. Os cidadãos terão o direito de apresentar queixas sobre os sistemas de IA e de receber explicações sobre as decisões baseadas em sistemas de IA de alto risco que afetem os seus direitos.
Requisitos de transparência
Os sistemas de IA de uso geral, bem como os modelos de IA de uso geral em que tais sistemas se baseiam, devem cumprir determinados requisitos de transparência, incluindo o respeito pela legislação da UE sobre direitos de autor e publicar informação detalhada dos conteúdos usados para treino. Os modelos de IA de uso geral mais poderosos que possam colocar riscos sistémicos terão de cumprir requisitos adicionais, tais como realizar avaliações de modelos, avaliar e atenuar os riscos sistémicos e comunicar incidentes.
Além disso, os conteúdos de imagem, áudio ou vídeo artificiais ou manipulados («falsificações profundas») devem ser claramente rotulados como tal.
Medidas de apoio à inovação e às PME
Terão de ser criados, a nível nacional, ambientes de testagem da regulamentação e testes em condições reais, acessíveis às PME e às empresas em fase de arranque (start-ups), a fim de desenvolver e treinar IA inovadora antes da sua colocação no mercado.
O regulamento ainda terá de ser sujeito a uma verificação final pelos juristas-linguistas, prevendo‑se que venha a ser definitivamente adotado antes do final da legislatura (através do chamado «processo de retificação»). A legislação também tem ainda de ser formalmente apoiada pelo Conselho.

Comentários