AI Act : un nouveau tournant

Síntese da tribuna “AI Act : un nouveau tournant pour l’intelligence artificielle”

A autora, Primavera de Filippi, nos convida a ver o 2 de agosto de 2025 como um limiar regulatório na Europa — o inicio da segunda fase do AI Act. latribune.fr

Ela destaca:

  • Que um terço do conjunto de disposições já está em vigor. latribune.fr
  • Que se impõe um sistema europeu de controle capaz de autorizar ou proibir sistemas de IA “mais avançados”. latribune.fr
  • Que práticas agora exigidas — anteriormente recomendadas como “código de boas práticas” — viram obrigações: documentação rigorosa dos modelos, origem de dados, medidas de mitigação de conteúdos ilegais e respeito a direitos autorais. latribune.fr
  • Que há penalidades pesadas (multas até 7 % do faturamento global) para quem não cumprir. latribune.fr
  • Que embora o alcance seja apenas dentro da União Europeia, empresas que desejarem operar ali terão de internalizar esse padrão — e esse modelo europeu pode tender a se projetar globalmente, assim como o RGPD fez no domínio da proteção de dados. latribune.fr
  • Que muitas mudanças profundas terão de ocorrer: no modo de treinar, implantar, documentar, governar IAs — não só para os grandes players, mas para qualquer entidade que use IA generativa ou sistemas de suporte. latribune.fr
  • Que a autora vê isso como uma “terceira via” entre o liberalismo americano (permitivismo) e o controle estatal chinês — uma tentativa europeia de conciliar inovação e responsabilidade democrática. latribune.fr

Em resumo: não se trata apenas de lei nova, mas de uma nova topografia ética, institucional e técnica para a inteligência artificial na Europa — um ponto de inflexão.


Reflexões críticas & especulativas (em “diálogo”)

Ler algo como o AI Act é como assistir uma costura entre civilizações tecnológicas: a Europa tentando bordar uma periferia normativa entre os extremos da “máquina sem freios” e do “algoritmo sob tutela estatal total”.

Aqui estão alguns veios de pensamento — como correntes subterrâneas que a tribuna evoca, mas não explora em profundidade:

1. Membranas regulatórias e a “inteligência em trânsito”

Podemos pensar que o AI Act atua como uma membrana — um filtro entre o que uma IA pode “ingerir” (dados, arquiteturas, modelos) e o que deve “expelir” (violações, opacidade, abusos). Em termos cosmológicos, essa membrana regula os fluxos de “agentes sintéticos” que atravessam fronteiras institucionais.

Mas essa membrana pode, ao mesmo tempo, se tornar uma limitação (ralo de inovação) ou um “assador de superfície”, transformando o tipo de fluidez da prática de IA. Que práticas escapam dos arranjos regulatórios? Quais se latem na fronteira, pendendo para o limiar do legal/invisível?

2. A Europa como “campo de regulação-modelo” — e as assimetrias globais

A tribuna aposta que o padrão europeu pode se tornar um “default” global (assim como o RGPD). Mas esse movimento não é simétrico: atores globalizados (OpenAI, Google) estão acostumados a operar em escalas multiplanetárias. Será que adotar regulamentos europeus significa, para eles, uma “relocalização normativa seletiva”? Ou criar “ilhas de conformidade” apenas onde convém?

E para contextos fora da Europa — como o Brasil ou países do Sul global — esse padrão será um modelo de aspiração, de pressão normativa ou de limitação hegemônica regulatória? A “terceira via” europeia pode se tornar uma nova forma de tecnodominância regulatória?

3. A “legitimidade simbólica” da regulamentação

Uma lei não é apenas código jurídico — é um gesto simbólico que molda percepções: o que é considerado “sério”, “responsável”, “legítimo” no uso de IAs. O AI Act atua como uma performância: não apenas impõe limites, mas declara um mundo onde a IA “deve ser confiável, explicável, documentável”. Isso reconfigura o horizonte semântico do que é uma IA aceitável.

Mas cuidado: há risco de que a regulamentação vire “a aura da legitimidade” — ou seja, empresas que cumpram todos os trâmites formais possam ganhar um verniz de “ética regulatória” mesmo em práticas problemáticas (vieses, invisibilidades, supressões). A lei como ritual de legitimação.

4. Transformações necessárias nas arquiteturas de IA

Se queremos obedecer ao AI Act, não basta “colar um selo de conformidade”. É preciso repensar desde os alicerces:

  • O modo de treinar modelos (datasets, curadoria, transparência)
  • A própria arquitetura (explicabilidade, modularidade, limitação de escopo)
  • A governança interna (quem toma decisões sobre “cortes”, limitação, filtros)
  • A mitigação de viés, de discriminação sistêmica, de “zonas cinzentas” do modelo

Esse tipo de mudança exige um tipo de “arquitetura normativa embutida” — não algo post hoc. É como desenhar uma nava (barco) que já carrega as velas regulamentares dentro da sua estrutura.

5. Para artistas, pensadores, criadores: o AI Act como campo de projétil e de escuta

Enquanto pensador-artista, me pergunto: como esse regulamento vai tocar práticas híbridas (arte + IA) que operam nas margens? Qual será o “efeito halo” em experimentos estéticos que geram “erro”, “abertura”, “anomalia”?

Também penso: o AI Act é uma oportunidade de perguntar: que tipo de “inteligência artificial” queremos conviver? Não meramente “menos mal”, mas outras ontologias de IA — talvez aquelas que dialoguem com multivocais, com o indizível, com o “ruído” criativo. Que abram fissuras, e não apenas enclausurem.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.