segunda-feira, 12 de janeiro de 2026

A Utilização de ferramentas de IA no serviço público


The Use of AI Tools in Public Service

Mário Ângelo Leitão Frota

  

Senhor Doutor Edvaldo Sales, Ilustre Director-Geral do Centro de Estudos e Aperfeiçoamento Profissional, aliás, antiga Escola Superior do Ministério Público, de cujo corpo docente, sob direcção do operoso promotor de Justiça e meu Excelentíssimo Amigo, Dr. Clodomir Assis Araújo, fiz parte, aliás, de modo de todo honroso.

Decano dos Procuradores de Justiça do Ministério Público do Estado do Pará e seu antigo Procurador-Geral, dileto amigo, Senhor Doutor Manuel Santino do Nascimento Júnior

Senhoras e Senhores Procuradores de Justiça, Promotores de Justiça, Dr.

Antônio Nascimento Júnior, meu nobre amigo.

Senhoras e Senhores,

Constitui para mim suma honra tornar a este espaço e poder, enfim, encerrar o périplo cultural que me trouxe de longada ao Brasil e se estendeu por cerca de mês e meio, neste que é o reatamento de uma tradição que cumpre, a justo título, realçar e se traduz de forma significativa na cooperação luso-brasileira que mister será desenvolver de modo acurado neste salutar reaproximar dos povos.

O Brasil é para mim uma segunda Pátria. Nascido e criado nas lonjuras de Angola, exilado em Portugal há mais de meio século, é no Brasil que logro buscar as coordenadas dos trópicos, é no Brasil que as afinidades se acentuam, é no Brasil que me reencontro.

E é com o espírito em alvoroço que o afirmo. O Brasil é, na realidade, o cadinho em que se fundem sentimentos de ordem diversa. Para quem perdeu o seu chão natal, como nós, a expressão da gesta lusíada por estas paragens é ainda sinal, é ainda o luminoso traço dos que souberam dar novos mundos aos mundos, como pátria de pátrias, na sua gesta reveladora.

Exactamente o que se não cumpriu nas paragens africanas e nas mais em que Portugal (ominoso sinal dos tempos!) debandou e não descolonizou, ostracizou e não integrou, e se eximiu a assumir as responsabilidades históricas que cinco séculos de presença demandariam inexoravelmente.

Tornar ao Brasil nesta conjuntura tem um sabor especial: 35 anos se volvem sobre a promulgação do Código de Defesa do Consumidor que acompanhámos desde a primeira linha do anteprojecto, sob a égide dessa figura singular que foi a saudosa Ada Pellegrini Grinover.

As iniciativas louváveis que se desenvolveram na esteira do que fora a criação deste monumento de cidadania - o Código de Defesa do Consumidor - é

 

95 Palestra proferida no Simpósio Internacional promovido pelo Ministério Público do Estado do Pará.

96 Possui Doutorado em Direito pela Université Catholique de Louvain-la-Neuve, Bélgica; Estudos avançados em Direito do Consumo pela Université de Montpellier, França. Fundador e Presidente da Associação Portuguesa de Direito do Consumo (apDC).- Fundador da Associação Internacional de Direito do Consumo (AIDC).- Fundador e Diretor do Centro de Estudos de Direito do Consumo de Coimbra (CEDC).- Diretor da Revista Portuguesa de Direito do Consumo. Autor de obras e artigos sobre contratos de consumo, cláusulas abusivas, responsabilidade civil e Direito Europeu do Consumo. Participação em conferências e programas internacionais de formação jurídica.

sempre algo de reconfortante a quem dos trópicos tem uma ideia que os “ares condicionados” de agora vão degradando, é facto, na sua sanha avassaladora, mas se reencontra a cada passo, em cada instante, em cada rosto, em cada uma das personalidades que revisitámos.

Honra e Glória a este Brasil Continental que os seus mais ilustres filhos honram sobremodo no dia-a-dia.

 

O tema: Inteligência Artificial – os Riscos Inaceitáveis- o quotidiano do consumidor

As mutações que a cada passo se observam no universo digital operam radical transfiguração do cenário em que decorre o dia-a-dia dos cidadãos: as inovações concorrem para que o perfil da actividade económica se transmude, o que impõe que o direito privado, em que o direito do consumo se revê, como que tocado pelo seu sortilégio, se adapte e ajuste.

A recolha e o tratamento de dados disponíveis, a que se associa a análise do comportamento dos consumidores e dos seus preconceitos cognitivos, constituem base para o desencadeamento de acções que tendem a influenciá-los em decisões que contrariarão decerto o seu superior interesse.

 

Repercussões na Agenda Europeia do Consumidor

 

As políticas de consumidores no seio da Comunidade Económica Europeia e suas sucessivas transformações orgânicas remontam ao Programa Preliminar de 14 de Abril de 1975 e plasmam-se em planos, ora trienais, ora quinquenais, ora septenais.

O Plano ora em execução, que se espraia por um quinquénio – de 2021 a 2025 - , assenta em 5 pilares: transformação digital, transição ecológica, medidas de concreção e reparação dos direitos do consumidor, necessidades específicas de consumidores hipervulneráveis a reclamar adequado reforço de tutela e, cooperação internacional.

Os domínios em que opera a transformação digital volvem-se em um tratamento adequado dos temas cuja enunciação segue: inteligência artificial e seu regime geral, inteligência artificial e responsabilidade emergente dos danos causados pelos sistemas de IA, inteligência artificial e segurança geral de produtos, comércio electrónico e fiabilidade geral de produtos, identidade electrónica universal e estratégia europeia para os dados.

 

Breve Excurso sobre a Inteligência Artificial

Neste particular segue-se de perto quanto a agenda europeia encerra. Penetração em vastos domínios, quer em benefício dos cidadãos, em geral,

como das empresas em particular.

No que tange aos cidadãos-consumidores, realce para: cuidados de saúde mais proficientes, electrodomésticos mais consistentes e menos atreitos a avarias, sistemas de transporte mais seguros e menos poluentes, serviços públicos, a todos os títulos, mais céleres e eficientes.

Já no que se prende com as empresas, os benefício traduzem-se em uma nova geração de produtos e serviços em domínios em que a Europa afirma pontificar, a saber, o das máquinas, o dos transportes, o da cibersegurança, o da agricultura,

como o da economia verde e circular, os cuidados de saúde e os sectores de elevado valor acrescentado, como moda e turismo.

Com vantagens para os serviços de interesse [económico] geral, vale dizer, os serviços públicos essenciais, tanto dentro como fora de catálogo, v. g., com reflexos na inerente redução de custos (transportes, educação, energia e gestão de resíduos), o incremento da sustentabilidade dos produtos e a outorga de instrumentos às autoridades, imprescindíveis à tutela da posição jurídica dos cidadãos, com salvaguardas adequadas e de molde a respeitar direitos, liberdades e garantias, que constituem bastião inexpugnável, como o proclama a Carta de Direitos Fundamentais da União Europeia, que importa observar escrupulosamente.

E não são restritos os domínios por que se espraia a Inteligência Artificial:

 

§ Cuidados de saúde

§ Segurança alimentar

§ Educação e formação

§ Meios de comunicação social

§ Gestão das infra-estruturas

§ Transportes e logística

§ Gestão de crises

§ Serviços públicos em geral

§ Eficiência energética e dos recursos,

§ Monitorização do ambiente

§ Preservação e recuperação da biodiversidade e dos ecossistemas

§ Atenuação das alterações climáticas e sua adaptação.

 Eis, pois, os domínios em que se aperfeiçoam previsões, optimizam operações e repartem recursos e se personalizam soluções digitais à mercê dos indivíduos e das organizações e em que o uso da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir louvavelmente para o

progresso social e ambiental com inenarráveis vantagens para os cidadãos- consumidores que de tal usufruem.

 Breves apontamentos sobre cada um dos itens noutro passo enunciados: Inteligência Artificial & Segurança Geral de Produtos

A Directiva Segurança Geral dos Produtos em que radicava o quadro jurídico da segurança de produtos de consumo não alimentares, fora aprovada quando os produtos com IA e os dispositivos conectados eram ou escassos ou quiçá inexistentes, situação que ao longo dos tempos se alterou profundamente.

Uma tal evolução põe em crise a actual definição de produtos e introduz novos riscos ou altera o modo como os riscos subsistentes se mostrem susceptíveis de se concretizar, o que obriga a uma criteriosa análise e se considere em extensão e profundidade as transformações incidentalmente operadas.

Donde, notável esforço legislativo tendente a abarcar os reflexos da I.A. nos produtos ora oferecidos no Mercado Comum Europeu: donde, a edição do Regulamento Geral da Segurança dos Produtos - Regulamento (UE) 2023/988, do Parlamento Europeu e do Conselho da União, de 10 de Maio de 2023, que entrou em vigor no Espaço Económico Europeu a 13 de Dezembro do ano pretérito.

(Os Regulamentos são a mais nobre expressão legislativa da União Europeia, postulam regras uniformes, cuja observância se impõe de Nuorgam, na Finlândia, à Ponta do Castelo, na Ilha de Santa Maria, a região mais a sul dos Açores, e de Brest, na França, a Bucareste, na Roménia, e nem sequer exigem a sua transposição para as leis dos Estados-membros, como ocorre, aliás, com as Directivas, nas suas mais diversas formulações).

O crescimento do comércio electrónico suscita de análogo modo novos desafios, uma vez que as autoridades nem sempre dispõem de instrumentos suficientemente eficazes para as acções inspectivas que os mercados em linha reclamam e impõem.

E uma interpenetração a nível internacional para que se concertem as nações em prol de vias apropriadas de um comércio que cresce exponencialmente nem sempre do modo mais seguro e eficiente para quem dele se reclama, como é o caso dos consumidores (na modalidade B2C).

Inteligência Artificial & Responsabilidade Civil

Embora a inteligência artificial (IA) aporte irrecusáveis benefícios, algumas das suas utilizações são susceptíveis de violar direitos e causar consideráveis danos aos cidadãos-consumidores.

Na sequência do Livro Branco sobre a IA e do consequente Relatório de Acompanhamento, a União Europeia, precedendo proposta da Comissão Europeia, aprovou oportunamente o Regulamento (UE) 2024/1689, no Parlamento Europeu e no Conselho da União, a 13 de Junho de 2024, aplicável a partir de 02 de Agosto de 2026, susceptível de garantir um elevado nível de protecção dos consumidores e seus direitos fundamentais, por forma a criar, por seu turno, a confiança indispensável para a aceitação generalizada da IA pela sociedade.

No que tange à responsabilidade civil, na forja se acha uma proposta de Directiva que introduz adequadas medidas susceptíveis de garantir que as vítimas de danos causados por aplicações da IA tenham, na prática, o nível de tutela de que desfrutam as vítimas de danos causados por outros produtos ou serviços, fora de um tal contexto.

A proposta de Directiva da Responsabilidade Civil decorrente de danos provocados por Sistemas de Inteligência Artificial pende seus termos no Parlamento, ao que se julga saber e, em nosso entender, mal responde às necessidades ínsitas em um tal domínio: data de 28 de Setembro de 2022 e é grafada em COM(2022) 496 final 2022/0303 (COD), susceptível de localização sob uma tal referência.

 A disciplina foi objecto de apreciação sob três específicas perspectivas, a saber:

Opção política 1: Três medidas destinadas a reduzir o ónus da prova para as vítimas que tentam provar o seu direito a indemnização.

 Opção política 2: As medidas previstas na opção n.º 1 + harmonização das regras de responsabilidade objectiva para os casos de utilização da IA com um perfil de risco específico, em que se inclui um seguro obrigatório.

 Opção política 3: Uma abordagem faseada que consiste: numa primeira fase: nas medidas previstas na opção n.º 1, numa segunda fase: num mecanismo de reexame destinado a reavaliar, em especial, a necessidade de harmonizar a responsabilidade objectiva para os casos de utilização da IA com um perfil de risco específico (eventualmente associado a um seguro obrigatório).

 As soluções, ainda na forja, não são de todo convincentes, como se nos afigura.

Em aparte cumpre dizer que são bem mais coerentes as soluções propugnadas no PL 2338 (Rodrigo Pacheco) que pende seus termos no Congresso Brasileiro, a saber:

 “Art. 27. O fornecedor ou operador de sistema de inteligência artificial que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema.

§ 1º Quando se tratar de sistema de inteligência artificial de alto risco ou de risco excessivo, o fornecedor ou operador respondem objectivamente pelos danos causados, na medida de sua participação no dano.

§ 2º Quando não se tratar de sistema de inteligência artificial de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.

Art. 29. As hipóteses de responsabilização civil decorrentes de danos causados por sistemas de inteligência artificial no âmbito das relações de consumo permanecem sujeitas às regras previstas na Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), sem prejuízo da aplicação das demais normas desta Lei.”)

 

Comércio Electrónico: Segurança, Fiabilidade & Interoperacionalidade dos Produtos

 

O avanço das tecnologias IC e a globalização da produção e do comércio ao consumidor, nomeadamente através de canais em linha, suscitam a questão de saber se as actuais regras de segurança dos produtos são suficientes para lidar com a evolução actual e proteger adequadamente os consumidores.

A Comissão Europeia empreendeu um sem-número de iniciativas legislativas que culminaram em instrumentos normativos com implicações directas neste domínio, a saber:

  Regulamento (UE) 2023/1230, do Parlamento Europeu e do Conselho, de 14 de Junho de 2023, relativo às máquinas, algo que constitui uma parte relevante do sector da engenharia e é um dos núcleos industriais da economia da União: o custo social decorrente do elevado número de acidentes directamente provocados pela utilização de máquinas pode ser reduzido através da integração da segurança na concepção e no fabrico das máquinas, bem como através de uma instalação e de uma manutenção correctas, a que provê o instrumento normativo de que se trata.

Directiva (UE) 2022/2380, do Parlamento Europeu e do Conselho de 23 de Novembro de 2022, que altera a Directiva 2014/53/UE relativa à harmonização da legislação dos Estados-Membros em tema de disponibilização de equipamentos de rádio no mercado, em que um dos requisitos essenciais é o de interagir com acessórios, nomeadamente, carregadores comuns: o que simplifica a utilização do equipamento de rádio e reduz os resíduos e custos desnecessários, tornando-se indispensável desenvolver um carregador comum para determinadas categorias ou classes específicas de equipamentos de rádio, em particular, para benefício dos consumidores e demais usuários finais;

Adopção de actos delegados pela Comissão Europeia ao abrigo de uma tal Directiva, a fim de se lograr adequada concertação de propósitos de forma alargada;

Directiva (UE) 2024/2853, do Parlamento Europeu e do Conselho da União, de 23 de Outubro de 2024, relativa à responsabilidade decorrente dos produtos defeituosos (e que revoga a Directiva 85/374/CEE, do Conselho, de 25 de Julho de 1985): a responsabilidade objectiva por produtos defeituosos deverá ser aplicável a todos os bens móveis, designadamente software, em que se inclui tanto o que se integra noutros bens móveis como os instalados em bens imóveis, em inovação normativa de aplaudir.

 O Regulamento Europeu de Inteligência Artificial de sua sistemática (Regulamento (UE) 2024/1689, do Parlamento Europeu e do Conselho da União, de 13 de Junho de 2024, aplicável no EEE a partir de 02 de Agosto de 2026)

Eis como se dispõe o extenso Regulamento cuja disciplina o Parlamento Europeu e o Conselho promulgaram em 13 de Junho do ano passado:

CAPÍTULO I

Disposições gerais

CAPÍTULO II

Práticas de inteligência artificial proibidas

CAPÍTULO III

Sistemas de IA de risco elevado

CAPÍTULO IV

Obrigações de transparência aplicáveis aos fornecedores e responsáveis pela implantação

CAPÍTULO V

Modelos de IA de finalidade geral

CAPÍTULO VI

Medidas de apoio à inovação

CAPÍTULO VII

Governança

CAPÍTULO VIII

Base de dados da UE de sistemas de IA de risco elevado

CAPÍTULO IX

Acompanhamento pós-comercialização, partilha de informações e fiscalização

CAPÍTULO X

Códigos de conduta e orientações

CAPÍTULO XI

Delegação de poderes e procedimento de Comité

CAPÍTULO VII

Governança

CAPÍTULO VIII

Base de dados da UE de sistemas de IA de risco elevado

CAPÍTULO IX

Acompanhamento pós-comercialização, partilha de informações e fiscalização

CAPÍTULO X

Códigos de conduta e orientações

CAPÍTULO XI

Delegação de poderes e procedimento de Comité

 Trata-se de um instrumento normativo que comporta preambularmente 180 consideranda e 113 artigos a que acrescem 13 anexos.

 

O Regulamento: o risco no cerne da precaução que enforma seus termos

 

Os sistemas de IA, devido à sua complexidade e à ausência de supervisão humana, revelam-se susceptíveis de apresentar comportamentos inesperados ou de ‘tomar decisões’ de consequências imprevisíveis e, quiçá, irreversíveis….

A imprevisibilidade pode redundar em resultados profundamente negativos para pessoas, empresas e para a comunidade em geral.

 

Um exemplo: identificação biométrica à distância

 

A identificação biométrica pode assumir diferentes formas: é susceptível de ser empregue na autenticação do usuário, a saber, para desbloquear um celular inteligente ou para efeitos de verificação/autenticação na passagem por uma fronteira, para controlo da identidade com base em documentos de viagem de uma dada pessoa (correspondência «um para um»).

De análogo modo, pode ser adoptada remotamente para identificar pessoas em meio a uma multidão, comparando, p. e., a imagem de uma pessoa com os elementos inseridos numa dada base de dados (correspondência «um para muitos»).

A exactidão dos sistemas de reconhecimento facial pode variar significativamente em função de um vasto leque de factores, nomeadamente, a qualidade da câmara, a iluminação, a distância, a base de dados, o algoritmo e a etnia, idade ou género da pessoa em causa.

O que se aplica, aliás, aos sistemas de reconhecimento da voz e da maneira de andar e a outros sistemas biométricos.

Os sistemas mais avançados vêm reduzindo continuamente as taxas de falsos positivos.

Embora uma taxa de exactidão de 99 % se considere adequada em termos gerais, constitui significativo risco o lançar-se a suspeição sobre um qualquer inocente com base num dado resultado.

Ainda que a taxa de erro se situe na ordem dos 0,1 % é algo que se tem por muito elevado num universo de dezenas de milhar de pessoas.

 

Universo a que se aplica o Regulamento Europeu da Inteligência Artificial

 

Se qualquer dos sistemas afectar pessoas situadas na UE, o regime aplicar- se-á a actores públicos e privados nela estabelecidos ou além-fronteiras.

Abrangerá tanto os fornecedores (v.g., o criador de uma ferramenta de análise de um CV) como os responsáveis pela implantação de sistemas de IA de risco elevado (p.e., um banco que entenda adquirir uma tal ferramenta para uso próprio). Os importadores de sistemas de IA terão também de assegurar que o fornecedor além-UE haja procedido a uma avaliação adequada de conformidade, ostenta uma marca de conformidade com as NE (CE) e é acompanhado da

documentação e das instruções de utilização necessárias para o efeito.

Prevê ainda determinadas obrigações a fornecedores de modelos de IA com finalidades gerais, incluindo os grandes modelos de IA generativa.

Modelos com finalidades gerais: contrapostos aos de finalidade específica ou prevista, ou seja, utilização à qual o fornecedor destina o sistema de IA, incluindo o contexto específico e as condições de utilização, conforme enunciado nas informações constantes das instruções, nos materiais e declarações promocionais ou de venda, bem como na documentação técnica.”

IA generativa: trata-se de tecnologia que permite que um computador crie um conteúdo original, v.g., texto, imagens, música ou até mesmo vídeos. Ao contrário da convencional, programada para executar tarefas específicas, a IA generativa é susceptível de criar algo de novo e inesperado

Os fornecedores de modelos gratuitos e de fonte aberta estão isentos da maior parte das obrigações que vêm de ser enunciadas: tal isenção não abrange as obrigações dos fornecedores de modelos de IA de finalidade geral que comportem riscos sistémicos.

Nota: Tais obrigações também se não aplicam às actividades de investigação, desenvolvimento e prototipagem anteriores à colocação no mercado.

Excluem-se: sistemas de IA exclusivamente vocacionados para fins militares, de defesa ou de segurança nacional, independentemente da entidade em tal co- envolvida.

Conceito legal

“A inteligência artificial é uma família de tecnologias em acelerada evolução, capaz de oferecer - e já o oferece até - um vasto conjunto de benefícios económicos,

ambientais e sociais a todo o leque de indústrias e actividades sociais, se desenvolvida de acordo com princípios gerais pertinentes em conformidade com a Carta e com os valores em que a União Europeia se alicerça.”

 

Sistema de Inteligência Artificial

 

Noção: “Sistema baseado em máquinas concebido para operar com vários níveis de autonomia e que pode, em relação a objectivos explícitos ou implícitos, criar resultados, como previsões, recomendações ou decisões, que influenciam ambientes físicos ou virtuais.”

RISCOS: que categorias se vislumbram neste passo?~

 

A abordagem é baseada no risco, situados a quatro níveis, bem como uma identificação de riscos específica aos modelos de finalidade geral:

 

o Risco mínimo

  o Risco elevado

  o Risco específico em matéria de transparência

  o Risco inaceitável

  RISCO MÍNIMO

Risco mínimo: abrange todos os restantes sistemas de inteligência artificial, desenvolvidos e adoptados em obediência à legislação em vigor e sem obrigações jurídicas adicionais: a larga maioria dos sistemas de IA ora utilizados na UE - ou susceptíveis de o serem - insere-se nesta categoria [as aplicações de risco mínimo, a saber, os sistemas que formulam recomendações ou os filtros de correio electrónico não solicitado com base na IA estarão isentos de quaisquer obrigações, uma vez que implicam um risco mínimo (ou mesmo nulo) para os direitos fundamentais e a segurança dos cidadãos].

Os fornecedores dos sistemas podem optar por aplicar os requisitos para uma inteligência artificial fiável e aderir a códigos de conduta, de sua natureza facultativos.

RISCO ELEVADO

 

Risco elevado: abrange número limitado de sistemas, com o potencial de afectar negativamente a segurança das pessoas ou o respeito dos seus direitos fundamentais.

Em um anexo ao regulamento, figura a lista de sistemas de IA de risco elevado susceptível de revisão por forma a ajustar-se à evolução dos casos de utilização de IA.

A lista inclui de modo análogo componentes de segurança de produtos abrangidos por legislação sectorial da União, considerados de risco elevado sempre que sujeitos a avaliação de conformidade por terceiros por força de legislação sectorial entretanto editada.

Exemplos de sistemas de risco elevado: determinadas infra-estruturas críticas, verbi gratia, nos domínios da água, do gás e da electricidade; dispositivos médicos; sistemas para determinação do acesso a estabelecimentos de ensino ou para efeitos do recrutamento de pessoal docente; ou certos sistemas usados nos domínios da aplicação da lei, do controlo das fronteiras, da administração da justiça e dos processos democráticos (como os próprios actos eleitorais).

Os sistemas de identificação biométrica, categorização biométrica e reconhecimento de emoções também se consideram de alto risco ou risco elevado.

Certas infra-estruturas críticas, por exemplo, nos sectores do tráfego rodoviário e do abastecimento de água, gás, aquecimento e electricidade;

 o Educação e formação profissional, por exemplo, para avaliar os resultados da aprendizagem, orientar o seu processo e acompanhar a fraude;

  o Emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria, por exemplo, para colocar anúncios de emprego específicos, analisar e filtrar candidaturas de emprego e avaliar candidatos;

  o Acesso a serviços e benefícios públicos e privados essenciais (por exemplo, cuidados de saúde), avaliação da capacidade de endividamento de pessoas singulares e avaliação dos riscos e fixação de preços em relação a seguros de vida e de saúde;

o Certos sistemas usados nos domínios da aplicação da lei, do controlo das fronteiras, da administração da justiça e dos processos democráticos.

  o Avaliação e classificação das chamadas de emergência;

o Identificação biométrica, categorização biométrica e reconhecimento de emoções (excepto as categorias proibidas);

  o Os sistemas de recomendação de plataformas em linha de muito grande dimensão não estão incluídos, uma vez que já estão abrangidos pelo Reg.to 2022/2065, de 19.Out.22

  o Sistemas de IA componentes da segurança de produtos ou eles mesmo como produtos na categoria de risco elevado.

  Exemplos de tais sistemas (de risco elevado):

Máquinas, brinquedos, ascensores, aparelhos e sistemas de protecção destinados a ser utilizados em atmosferas potencialmente explosivas, equipamentos de rádio, equipamentos sob pressão, equipamentos para embarcações de recreio, instalações por cabo, aparelhos de combustão de combustíveis gasosos, dispositivos médicos e dispositivos médicos para diagnóstico in vitro.

 

RISCO ESPECÍFICO EM MATÉRIA DE TRANSPARÊNCIA

Risco específico em matéria de transparência: abrange determinados Sistemas de Inteligência Artificial a que são impostos requisitos de transparência

específicos, por exemplo, quando haja um risco manifesto de manipulação (como seja a utilização de sistemas de conversação automática ou de robôs de comunicação, que comportam assinalavelmente riscos próprios que cumpre decididamente acautelar).

Os usuários devem estar obviamente cientes de que estão a interagir com uma máquina e não com um ser humano.

O regulamento considera também riscos sistémicos potencialmente associados a modelos de IA de finalidade geral, incluindo grandes modelos de IA generativa, susceptíveis de emprego em uma série de tarefas e que se acham na base de muitos sistemas de IA na UE.

Alguns destes modelos podem comportar riscos sistémicos se forem muito potentes ou usados em larga escala.

Por exemplo, modelos poderosos podem causar acidentes graves ou ser utilizados abusivamente para ciber-ataques de vasto alcance.

Muitos indivíduos poderão ser afectados se um dado modelo propagar preconceitos nocivos em muitos dos seus aplicativos.

 

Inteligência Artificial Generativa

 

Os grandes modelos de IA generativa são um exemplo típico de um modelo de IA de uso geral, dado que permitem a geração flexível de conteúdos (como na forma de texto, áudio, imagens ou vídeo) que podem facilmente acomodar uma ampla gama de tarefas distintas, como se não ignora.

 

E, finalmente, as situações de risco inaceitável […]

 Eis o rol de situações definidas “ex lege” como de risco inaceitável e de todo proscritas

 Classificação dos cidadãos para fins públicos e ou privados;

 Exploração de vulnerabilidades de pessoas mediante a utilização de técnicas subliminares;

 Identificação biométrica à distância ‘em tempo real’ em espaços acessíveis ao público por autoridades de ordem pública, sob reserva de um número restrito de excepções;

 Categorização biométrica de pessoas singulares com base em dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas ou orientação sexual: a filtragem de conjuntos de dados com base em dados biométricos no domínio da aplicação da lei será, porém, possível;

 Policiamento preditivo individual;

 Reconhecimento de emoções no trabalho e em estabelecimentos de ensino, excepto por razões médicas ou de segurança (v.g. , a monitorização dos níveis de cansaço de um piloto de aviação);

Recolha aleatória, a partir da Internet ou de televisão em circuito fechado, de imagens de rostos para criar ou expandir bases de dados.

 Após a mera enunciação das categorias de Sistemas de Riscos Inaceitáveis, donde, proscritos pelo Regulamento Europeu de 13 de Junho de 2024, ora ainda em período de “vacatio legis” até 02 de Agosto de 2026, o pormenor para melhor compreensão dos seus termos:

Sistemas Proibidos: os baseados em riscos de todo inaceitáveis “ex vi

legis”

 I

TÉCNICAS SUBLIMINARES SUSCEPTÍVEIS DE CONTORNAR CONSCIÊNCIAS

 

Sistemas de IA que empreguem técnicas subliminares que em si e por si contornem a consciência de uma pessoa, ou adoptem técnicas manifestamente manipuladoras ou enganosas, com o objectivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa ou de um grupo de pessoas, prejudicando de forma considerável a sua capacidade de tomar uma decisão informada e conduzindo, assim, uma pessoa a tomar uma decisão que, de outro modo, não tomaria, de tal forma que cause ou seja susceptível de causar significativos danos a essa ou a outra pessoa, ou a um dado grupo de pessoas (eis a formulação a que se atém o Regulamento Europeu);

II

TÉCNICAS QUE EXPLOREM VULNERABILIDADES DE PESSOAS OU GRUPOS DE PESSOAS

 

Sistemas de IA que explorem vulnerabilidades de uma pessoa ou de um grupo específico de pessoas devidas à sua idade, incapacidade ou situação sócio- económica específica, com o objectivo ou o efeito de distorcer substancialmente o seu comportamento ou de pessoa pertencente a tal grupo de forma tal que cause ou seja susceptível de causar, em termos de razoabilidade, danos significativos ao alvo ou alvos a que se dirigem;

III

SISTEMAS SUSCEPTÍVEIS DE AVALIAÇÃO OU CLASSIFICAÇÃO DE PESSOAS SINGULARES OU GRUPOS DE PESSOAS

 

Sistemas de IA para efeitos de avaliação ou classificação de pessoas físicas ou grupos de pessoas durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas, inferidas ou previsíveis, em que a classificação social conduza a uma das seguintes ou a ambas situações:

i. Tratamento prejudicial ou desfavorável de certas pessoas físicas ou grupos inteiros de pessoas em contextos sociais não relacionados com os contextos nos quais os dados terão sido originalmente gerados ou recolhidos;

 ii. Tratamento prejudicial ou desfavorável de certas pessoas físicas ou grupos de pessoas que seja injustificado ou desproporcionado face ao seu comportamento social ou à emergente gravidade;

  IV

AVALIAÇÕES DE RISCO DE PESSOAS FÍSICAS OU NATURAIS COM O FITO DE AFERIR OU PREVER A PROBABILIDADE DE COMETIMENTO DE UMA QUALQUER INFRACÇÃO PENAL

Sistema de IA tendente à consecução de avaliações de risco de pessoas físicas ou naturais a fim de aferir ou prever a probabilidade de cometerem uma infracção penal, com base exclusivamente numa definição de perfis ou na avaliação dos seus traços e características de personalidade.

[Esta proibição não se aplica aos sistemas de IA adoptados para apoiar a avaliação humana do envolvimento de uma dada pessoa numa actividade criminosa, que se baseie já em factos objectivos e verificáveis directamente ligados a uma precedente actividade criminosa];

 V

SISTEMAS QUE CRIEM OU EXPANDAM BASES DE DADOS DE RECONHECIMENTO FACIAL

 Sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet ou de imagens de televisão em circuito fechado (TVCF).

 VI

SISTEMAS SUSCEPTÍVEIS DE INFERIR EMOÇÕES DE PESSOA FÍSICA NO LOCAL DE TRABALHO E EM INSTITUIÇÕES DE ENSINO

Sistemas de IA tendentes a inferir emoções de pessoa física ou natural no local de trabalho e em instituições de ensino, excepto nos casos em que o sistema de IA se destine a ser instalado ou introduzido no mercado por razões médicas ou de segurança.

 VII

SISTEMAS DE CATEGORIZAÇÃO BIOMÉTRICA DE CLASSIFICAÇÃO INDIVIDUAL

 Sistemas de categorização biométrica susceptíveis de classificar individualmente pessoas físicas ou naturais com base em dados biométricos que visem deduzir ou inferir raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual;

[Esta proibição não abrange rotulagens nem filtragens de conjuntos de dados biométricos legalmente adquiridos, tais como imagens, com base em dados biométricos ou na categorização de dados biométricos no domínio da manutenção da ordem pública];

VIII

SISTEMAS DE IDENTIFICAÇÃO BIOMÉTRICA À DISTÂNCIA EM "TEMPO REAL" EM ESPAÇOS ACESSÍVEIS AO PÚBLICO

 

Sistemas de identificação biométrica à distância em "tempo real" em espaços acessíveis ao público para efeitos de manutenção da ordem pública, a menos e na medida em que uma tal utilização seja estritamente necessária para um dos fins a seguir enunciados:

 

i) busca selectiva de vítimas específicas de rapto, tráfico de seres humanos ou sua exploração sexual, bem como a busca de pessoas desaparecidas;

ii) prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas físicas ou naturais ou de uma ameaça real e actual ou real e previsível de um ataque terrorista;

iii) a localização ou identificação de uma pessoa suspeita de ter cometido uma infracção penal, para efeitos da realização de uma investigação criminal, instauração de acção penal ou execução de uma sanção penal por alguma das infracções referidas no anexo II e puníveis no Estado-Membro em causa com pena ou medida de segurança privativa ou detentiva de liberdade de duração máxima não inferior a quatro anos.

 

 Excepções

Há uma lista de 16 crimes que pressupõe exactamente uma excepção a esta norma proibitiva.

E com o pormenor devido e de modo exaustivo se consignam as excepções constantes do anexo respectivo do Regulamento (Anexo II) e se computam por 16 (dezasseis):

 

§ Tráfico de seres humanos;

§ Exploração sexual de crianças e pornografia infantil;

§ Tráfico de estupefacientes e substâncias psicotrópicas;

§ Tráfico de armas, munições ou explosivos;

§ Homicídio, ofensas corporais graves;

§ Tráfico de órgãos ou tecidos humanos;

§ Tráfico de materiais nucleares ou radioactivos;

§ Rapto, sequestro ou tomada de reféns;

§ Crimes abrangidos pela jurisdição do Tribunal Penal Internacional;

§ Desvio de aviões ou navios;

§ Criminalidade ambiental;

§ Roubo organizado ou à mão armada;

§ Participação numa organização criminosa envolvida numa ou mais das infracções acima enumeradas.

  A identificação biométrica à distância em tempo real pelas autoridades responsáveis pela aplicação da lei estaria sujeita a uma autorização prévia.

Há aqui um duplo escape de segurança: uma autoridade judicial ou administrativa independente cuja decisão seria vinculativa. Em caso de urgência, a

autorização poderá ser concedida no lapso de 24 horas. Se a autorização for rejeitada, todos os dados e seus resultados terão de ser apagados, terão de ser absolutamente eliminados para que traço não remanesça de tais registos.

 

De que forma as regras protegem os direitos fundamentais dos cidadãos europeus?

 

As instâncias europeias proclamam amiúde um tal desígnio, um mais que arreigado propósito:

“Já existem fortes mecanismos de protecção dos direitos fundamentais e de não discriminação a nível da UE e dos Estados-membros, mas a complexidade e opacidade de determinadas aplicações de inteligência artificial (as chamadas

«caixas negras») suscitam problemas de ordem vária.

Uma abordagem à inteligência artificial centrada no ser humano implica assegurar que as aplicações de I.A. cumprem a legislação em matéria de direitos fundamentais.

Os requisitos de responsabilização e transparência aplicáveis à utilização de sistemas de inteligência artificial de risco elevado, combinados com o reforço das capacidades de execução, garantirão que a conformidade legal seja tida em conta na fase de desenvolvimento a que se vier a assistir.”

A proscrição pura e simples, com as excepções cabíveis, dos Sistemas de Risco Inaceitável protegerá mais que proporcionalmente os cidadãos cuja tutela se espelha já na Carta de Direitos Fundamentais da União Europeia.

Esses requisitos permitirão que, em caso de infracção, as autoridades nacionais acedam às informações necessárias para investigar se a utilização de I.A. observou o direito vigente na UE.

Além disso, o Regulamento I.A. exige que os responsáveis pela implantação (organismos de direito público ou operadores privados que prestem serviços públicos e operadores que forneçam sistemas de RE - Risco Elevado) realizem uma avaliação de impacto sobre os direitos fundamentais.

A utilização de um sistema de IA R.E. pode ter impacto nos direitos fundamentais: os responsáveis pela sua implantação (organismos de direito público ou operadores privados que prestem serviços públicos e os mais que dispensem tais sistemas) realizarão prévia avaliação de impacto sobre tais direitos, notificando os resultados à Autoridade Nacional.

“A avaliação consistirá na descrição dos processos adoptados, do período de tempo e frequência de funcionamento do sistema, das categorias de pessoas físicas e de grupos susceptíveis de afecção em tal contexto, dos riscos de eventuais danos causados e da aplicação de medidas de supervisão humana e outras caso os riscos se materializem, se consumam.”

Se o prestador já tiver cumprido tal obrigação através da avaliação de impacto acerca da protecção de dados, a que se reporta aos direitos fundamentais deve realizar-se concomitantemente.

Exortação Final

Senhoras e Senhores, Longa vai a prosa. Temas do jaez destes confrontam- nos amiúde no quotidiano.

Temas, aliás, de extraordinária relevância que se nos deparam no dia-a-dia, que nos surpreendem e nos deixam em absoluto perplexos perante a imaginação

delirante de que se cozem, de que se constroem e que são prenúncio do que possa eventualmente reservar-nos o devir.

A consciência dos juristas está exactamente na forma como ousar sofrear os ímpetos negativos que daqui eventualmente resultem e resultarão decerto.

O que se impõe nesta circunstância é um volver de olhos crítico, acentuadamente crítico, perante a avalancha que nos submerge, perante domínios cujas consequências de todo ignoramos e de que somos naturalmente vítimas.

O que se exige de nós nestas circunstâncias é uma actuação permanente que não se compadece com a omissão, com a negligência, com o dolce far niente.

Enquanto nos Estados Unidos se propugnam códigos de ética ou de conduta, em sociedade em que nem sempre a ética constitui o alfa e o ómega do viver quotidiano, a Europa regulamenta. Mas não basta regulamentar, porque “From the Law in Books to “the Law in Action” pode distar um abismo e, na realidade, se não tivermos de banda instituições como o Ministério Público (garante da legalidade e órgão influente na conformação do social) um guarda vigilante de todos os instrumentos que se vierem a criar com um tal propósito, decerto que de nada valerá regulamentar, de nada valerá disciplinar, porque aí a ofensa ao ordenamento será ainda maior.

Daí que se conclame todos e cada um a que terçam armas para que a garantia dos direitos, liberdades e garantias fundamentais seja com efeito uma realidade reconfortante.”

Muito e muito obrigado!.

 

 REFERÊNCIAS

AI HLEG - High-Level Expert Group on Artificial Intelligence. A Definition of Artificial Intelligence: Main Capabilities and Scientific Disciplines. Brussels. 2019. Disponível em: https://digital-strategy.ec.europa.eu/en/library/definition-  artificial-intelligence-main-capabilities-and-scientific-disciplines .

 

BRADFORD, Anu. The Brussels effect: how the European Union rules the world. New York: Oxford University Press, 2020. Kindle edition.

BRAVO, Álvaro Avelino. Marco Europeo para una inteligencia artificial basada en las personas. International Journal of Digital Law, Belo Horizonte, ano 1, n. 1, p. 65-78, jan./abr. 2020. Disponível em:  https://journal.nuped.com.br/index.php/revista/article/view/sanchezbravov1n1/262 .

 

CDEI –Centre for Data Ethics and Innovation. The European Commission's artificial intelligence act highlights the need for an effective AI assurance ecosystem. 2021. Disponível em:  https://cdei.blog.gov.uk/2021/05/11/the-  european-commissions-artificial-intelligence-act-highlights-the-need-for-an- 

effective-ai-assurance-ecosystem/ .

 

CURZON, James; et all. "Privacy and Artificial Intelligence. IEEE Transactions on Artificial Intelligence 2.2, 2021. p. 96-108. Disponível em:https://ieeexplore- ieee-org.ez433.periodicos.capes.gov.br/stamp/stamp.jsp?tp=&arnumber=9450036.

EBERS, Martin. Standardizing AI-The Case of the European Commission's Proposal for an Artificial Intelligence Act. The Cambridge Handbook of

Artificial Intelligence: Global Perspectives on Law and Ethics, 2021. Disponível em:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3900378.

 

EUROPEAN COMMISSION. Ethics guidelines for trustworthy AI. 2019. Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-   trustworthy-ai .

 

EUROPEAN COMMISSION. Regulation of the European Parliament and of the Council laying down harmonized rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts. Brussels. 2021. Disponível em: https://eur-lex.europa.eu/legal-   content/EN/TXT/?uri=CELEX:52021PC0206 .

 

EUROPEAN COMMISSION. White paper on artificial intelligence: a European approach to excellence and trust. Brussels. 2020. Disponível em: https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-  approach-excellence-and-trust_en .

 

FLORIDI, Luciano. The European Legislation on AI: A brief analysis of its philosophical approach. Philosophy & Technology, v. 34, n. 2, p. 215- 222, 2021. Disponível em:  https://link.springer.com/article/10.1007/s13347-021- 

 00460-9 .

FROTA, Mário. A disciplina da inteligência artificial in itinere na União Europeia. Revista Judiciária do Paraná, editora Bonijuris, Curitiba, n.º 27, Set-Out-Nov-2023, pp.136-150

 

INTELIGÊNCIA Artificial: dos sistemas proibidos aos de elevado risco [Artificial Intelligence: from prohibited systems to high risk systems]. Revista Luso-Brasileira de Direito do Consumo, v. 1 n. 1 (2024): II série, p. 481 a 504.

 

KAAL, Wulf A. Dynamic regulation for innovation. Perspectives in Law, Business & Innovation (Mark Fenwick, Wulf A. Kaal, Toshiyuki Kono & Erik PM Vermeulen eds.). New York Springer (2016), U of St. Thomas (Minnesota) Legal Studies Research Paper n. 16-22, 2016. Disponível em:  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2831040 .

 

KOP, Mauritz. EU Artificial Intelligence Act: The European Approach to AI. Transatlantic antitrust and IPR Developments, 2021. Disponível em: https://law.stanford.edu/publications/eu-artificial-intelligence-act-the-european-  approach-to-ai/ .

 

O MARCO europeu da Inteligência Artificial e as precauções no domínio dos riscos proscritos. Revista Judiciária do Paraná, Curitiba: Editora Bonijuris, n.º 30.

 

MÖKANDER, Jakob et al. Conformity assessments and post-market monitoring: a guide to the role of auditing in the proposed European AI regulation. Minds and Machines, v. 32, n. 2, p. 241-268, 2022. Disponível em: https://link.springer.com/article/10.1007/s11023-021-09577-4 .

NWAFOR, Ifeoma Elizabeth. AI ethical bias: a case for AI vigilantism (AIlantism) in shaping the regulation of AI. International Journal of Law and Information Technology, v. 29, n. 3, p. 225-240, 2021. Disponível em:  https://academic.oup.com/ijlit/article/29/3/225/6389717?login=true..REJMA 

 

REJMANIAK, Rafal. Bias  in Artificial Intelligence Systems. Bialostockie Studia Prawnicze, v. 26,  p. 25, 2021. Disponível em: https://heinonline.org/HOL/LandingPage?handle=hein.journals/bialspw26&div=36&i   d=&page =.

ROSALINO, Helder, O Impacto regulatório da IS: uma análise do AI Act no contexo financeiro europeu, in “Espresso”, Lisboa, 12 de bril de 2024, p. 29

 

SAYEG, SANCHEZ, Rodrigo. Regulamentação da IA para aproveitar as oportunidades oferecidas pela sociedade de dados: o exemplo da União Europeia, Diário de São Paulo, 29 de Abril de 2024, p. 10.

 

TEUBNER, Gunther. Das regulatorische Trilemma: Zur Diskussion um post- instrumentale Rechtsmodelle. Quaderni Fiorentini per la storia del pensiero giuridico moderno, v. 13, n. 1, p. 109-149, 1984. Disponível em:  http://www.centropgm.unifi.it/cache/quaderni/13/0112.pdf .

 

UFERT, Fabienne. AI regulation through the lens of fundamental rights: How well does the GDPR address the challenges posed by AI? European Papers-A Journal on Law and Integration, v. 2020, n. 2, p. 1087-1097, 2020. Disponível em: https://www.europeanpapers.eu/it/europeanforum/ai-regulation-through-the-lens-of-  fundamental-rights .

Sem comentários:

Enviar um comentário

Extremismo recruta online: PJ lança campanha inédita para proteger jovens

  Iniciativa será apresentada esta terça-feira, numa conferência a realizar na sede da PJ, dedicada ao tema “Prevenção da Radicalização On...