Pular para o conteúdo

Exposição de Motivos

⚠️ MINUTA DE TRABALHO — Este documento é uma minuta em elaboração, ainda não submetida à deliberação do CGD nem à Presidência do IBAMA. Os campos indicados com (a preencher) serão preenchidos no momento da formalização no SEI.


Proposta de Diretriz Institucional para Uso Responsável de Inteligência Artificial no IBAMA

Seção intitulada “Proposta de Diretriz Institucional para Uso Responsável de Inteligência Artificial no IBAMA”

Para: Presidência do IBAMA Encaminhado por: CGTI — Coordenação-Geral de Tecnologia da Informação / DIPLAN Com vistas a: CGD — Comitê de Governança Digital do IBAMA (deliberação) Data: (data de publicação do ato no SEI) Assunto: Instituição de Diretriz para Uso Responsável de Inteligência Artificial, com criação de Grupo de Trabalho colegiado (GT-IA) e evolução planejada para Política Institucional Formal


A presente Exposição de Motivos tem por objeto fundamentar a necessidade de instituição de uma Diretriz Institucional para Uso Responsável de Inteligência Artificial (IA) no IBAMA, estruturada em cinco pilares — letramento, grupo de estudos, mapeamento de uso, governança e normatização progressiva — com estratégia de evolução para Política Institucional Formal.


A proposta está ancorada no seguinte conjunto normativo:

Legislação Federal:

  • Lei nº 13.709/2018 (LGPD) — impõe obrigações sobre o tratamento de dados pessoais, diretamente aplicáveis ao uso de IA em processos de licenciamento, fiscalização e cadastros institucionais (CTF/APP, SISBIO, SINFONIA)
  • Lei nº 14.129/2021 (Governo Digital) — estabelece os princípios e diretrizes para uso de tecnologia na administração pública federal, incluindo automação de processos e serviços
  • Lei nº 12.527/2011 (LAI) — garante o direito de acesso à informação e impõe transparência sobre decisões administrativas, incluindo aquelas apoiadas por sistemas de IA
  • Lei nº 9.784/1999 (Processo Administrativo Federal) — exige motivação, contraditório e ampla defesa nos processos administrativos; uso de IA em autuações e licenciamentos deve preservar esses princípios

Decretos e Estratégias Federais:

  • Decreto nº 11.260/2022 — Estratégia de Governo Digital 2023–2026, que inclui IA como vetor estratégico da administração pública federal
  • Decreto nº 9.637/2018 — Política Nacional de Segurança da Informação, base para os controles sobre uso de ferramentas externas de IA com dados institucionais

Normativos da SGD/MGI:

  • Portaria SGD/MGI nº 4.171/2023 — orientações para uso responsável de IA em órgãos do Poder Executivo Federal; referência direta e obrigatória para o IBAMA

Normativos de Segurança da Informação:

  • IN GSI/PR nº 1/2020 e complementos — normas de segurança cibernética e da informação na APF

Estratégia Nacional:

  • Portaria MCTI nº 4.617/2021 (EBIA) — Estratégia Brasileira para a Inteligência Artificial, que define eixos nacionais de desenvolvimento e governança de IA

Legislação em Tramitação:

  • PL nº 2.338/2023 (Marco Legal da IA) — em tramitação no Senado Federal. Prevê classificação de sistemas de IA por nível de risco e impõe exigências específicas para sistemas que influenciem decisões com impacto sobre direitos. Sistemas utilizados em fiscalização e licenciamento ambiental podem ser classificados como alto risco, tornando urgente a estruturação antecipada de governança

Normativos Específicos do IBAMA:

  • IN IBAMA nº 19/2023 — disciplina o Processo Administrativo Sancionador Ambiental, estabelecendo os ritos, prazos e responsabilidades na instrução, julgamento e conversão de multas ambientais. O uso de IA nesse processo, como já está sendo estruturado no projeto Projeto IARA, está diretamente sujeito às exigências de motivação, contraditório e ampla defesa previstos neste instrumento
  • Decreto nº 6.514/2008 — dispõe sobre infrações e sanções administrativas ao meio ambiente. Define os tipos de infrações, a gradação das sanções e os parâmetros de autuação que constituem o universo de decisões administrativas potencialmente afetadas pelo uso de IA no processo sancionador

2.2 Alinhamento ao Planejamento Estratégico do IBAMA

Seção intitulada “2.2 Alinhamento ao Planejamento Estratégico do IBAMA”

A proposta busca alinhar-se ao Plano Estratégico do IBAMA, em especial aos objetivos relacionados a:

  • modernização e eficiência dos processos institucionais
  • fortalecimento da gestão baseada em dados e evidências
  • melhoria da qualidade e celeridade do licenciamento ambiental
  • aprimoramento das capacidades de fiscalização e controle ambiental

O uso governado de IA é um dos meios mais relevantes disponíveis atualmente para avançar nesses objetivos de forma sustentável e responsável.

2.3 Alinhamento ao Plano de Transformação Digital do IBAMA

Seção intitulada “2.3 Alinhamento ao Plano de Transformação Digital do IBAMA”

A proposta se propõe como desdobramento do Plano de Transformação Digital do IBAMA, posicionando o uso de IA como componente estratégico — e não como iniciativa isolada — da transformação digital institucional em curso.

Os eixos de transformação digital que mais se conectam à proposta são:

  • Digitalização de processos — IA como acelerador de automação e triagem
  • Governo baseado em dados — IA como camada analítica sobre sistemas existentes (CTF/APP, SISBIO, SINFONIA, LICENÇA.IBAMA)
  • Capacitação e modernização da força de trabalho — letramento como pilar de sustentação
  • Segurança da informação — controle sobre uso de ferramentas externas

O IBAMA não parte do zero. Há projetos concretos e de alto impacto já em implantação ou contratação que utilizam ou planejam utilizar inteligência artificial em processos finalísticos críticos:

Projeto RAPOSA (parceria IBAMA–GIZ, execução EloGroup, 2024) Mapeamento e redesenho do macro-processo de responsabilização administrativa ambiental — fiscalização, autuação, instrução, julgamento, conversão de multa e apreensão. O projeto estabelece a base analítica e documental sobre a qual sistemas de IA serão construídos, tornando o processo sancionador o primeiro grande campo de aplicação de alto risco.

Projeto IARA (parceria IBAMA–Funbio, execução EloGroup, 2024) Diagnóstico e planejamento de solução inteligente para o processo sancionador ambiental, com previsão de: triagem automatizada de autos de infração, instrução assistida por LLM/RAG com base em legislação e jurisprudência ambiental, OCR sobre documentos físicos, integração com SEI, SICAFI, CTF/APP e o sistema IARA/RIOS. Nível de risco: alto — decisões com impactos jurídicos diretos sobre autuados, com prazo legal definido pela IN 19/2023.

Licenciamento Ambiental Federal (LAF) O processo de licenciamento ambiental federal envolve decisões técnicas complexas sobre empreendimentos com impacto ambiental relevante, instrução por múltiplas áreas especializadas (Dilic, Cenima, DBFlo, Dipro), prazos legais e notificações a empreendedores. Usos de IA nesse processo — como triagem de estudos ambientais, apoio à instrução técnica e análise de pareceres — podem configurar casos de alto risco segundo os critérios do NIST AI RMF e do Marco Legal da IA em tramitação, demandando avaliação caso a caso.

A ausência de uma política formal de governança de IA pode colocar o IBAMA em situação de risco institucional diante desses projetos. Decisões sobre tecnologia, fornecedores, dados e responsabilidade tendem a ser tomadas sem critérios formais, sem rastreabilidade e sem revisão jurídica sistematizada. A presente proposta visa estruturar essa governança de forma preventiva e proporcional.


O uso de ferramentas de IA generativa já ocorre de forma espontânea entre servidores do IBAMA, como em diversas organizações públicas e privadas. Essa realidade, sem abordagem institucional estruturada, tende a gerar:

  1. Exposição à LGPD pelo uso inadequado de dados pessoais ou sigilosos em ferramentas externas sem avaliação jurídica
  2. Risco à integridade de processos administrativos pela ausência de critérios sobre o uso de IA em decisões com efeitos individuais (autuações, licenciamentos)
  3. Uso desigual e não padronizado entre áreas, gerando assimetrias de produtividade e risco
  4. Ausência de registro e rastreabilidade das decisões sobre uso de IA, dificultando futura normatização baseada em evidências
  5. Vulnerabilidade regulatória diante do avanço do Marco Legal da IA, que imporá obrigações específicas para sistemas de alto risco
  6. IA de alto risco já em implantação sem política formal — os projetos RAPOSA, Projeto IARA e LAF já utilizam ou planejam usar IA em processos com impactos jurídicos diretos sobre pessoas e empreendimentos, sem que o IBAMA tenha critérios formais de governança, responsabilização ou controle para esse contexto

A proposta busca antecipar e organizar esse cenário, convertendo uso espontâneo em adoção responsável e governada.


Propõe-se a instituição de uma Diretriz Institucional para Uso Responsável de Inteligência Artificial no IBAMA, estruturada em cinco pilares:

PilarDescrição
LetramentoCapacitação de servidores para uso consciente, crítico e seguro de IA
Aprendizagem ColetivaGrupo de estudos permanente, workshops com parceiros de mercado e hackathons temáticos
Mapeamento de UsoLevantamento e classificação dos usos atuais e potenciais de IA na instituição
Governança ColegiadaEstrutura de papéis com âncora na Presidência, deliberação no CGD e operação pelo GT-IA
Normatização ProgressivaEvolução baseada em evidências acumuladas para política institucional formal

A proposta é essencialmente colegiada: seu sucesso depende do engajamento de todas as áreas do IBAMA, não de uma coordenação técnica central. O GT-IA — Grupo de Trabalho de Inteligência Artificial — será a instância operacional dessa coletividade, com representação de cada diretoria e apoio técnico da CGTI.


A proposta adota estratégia de evolução em três fases:

Fase 1 — Diretriz Institucional (Orientadora) Foco em consciência, alinhamento e aprendizado. Publicação de princípios orientadores, início do letramento e do grupo de estudos, mapeamento inicial.

Fase 2 — Estruturação de Governança (Semi-formal) Foco em organização, papéis e gestão de risco. Classificação de usos, definição de responsáveis, critérios mínimos e registro estruturado de decisões do GT-IA.

Fase 3 — Política Institucional Formal Consolidação em instrumento normativo formal, integrado ao planejamento estratégico e à governança institucional.

Essa abordagem evita normatização prematura e constrói legitimidade com base em aprendizado prático.


A proposta combina referenciais reconhecidos internacionalmente, organizados em três grupos:

Estratégia e Governança: TOGAF (The Open Group) e COBIT (ISACA)

Gestão de Risco em IA: NIST AI Risk Management Framework e Princípios de IA da OCDE

Cultura e Mudança Organizacional: Kotter (Change Management) e SECI — Nonaka & Takeuchi (Gestão do Conhecimento)

A combinação desses referenciais visa equilibrar robustez técnica, defensabilidade estratégica e viabilidade cultural — sem que nenhum deles seja tratado como solução pronta, mas como orientação metodológica a ser adaptada ao contexto do IBAMA.


HorizonteResultado
Curto prazoAlinhamento da liderança; letramento inicial; visibilidade sobre usos existentes
Médio prazoGovernança mínima estabelecida; riscos mapeados e tratados; priorização de casos de uso
Longo prazoPolítica institucional formal publicada; cultura organizacional madura; conformidade antecipada com o Marco Legal da IA

O GT-IA — Grupo de Trabalho de Inteligência Artificial — é a instância operacional colegiada da política de IA do IBAMA. Sua composição reflete três princípios estruturantes: representatividade institucional, especialização técnica e controle e conformidade.

InstânciaTitularSubstituto(s)Justificativa
Presidência do IBAMA11Âncora institucional da proposta; confere legitimidade política e assegura que a governança de IA seja tratada como prioridade estratégica — não setorial
Dilic — Licenciamento Ambiental11Responsável pelo Licenciamento Ambiental Federal (LAF), um dos processos de maior complexidade e impacto do IBAMA, com potencial uso de IA de alto risco em análise de estudos e instrução técnica
Diqua — Qualidade Ambiental11Área com atuação em licenciamento e controle ambiental de atividades industriais, com crescente demanda por análise de dados e apoio técnico a decisões
DBFlo — Biodiversidade e Florestas11Responsável por processos com grande volume de dados ambientais e monitoramento de ecossistemas; potencial direto para uso de IA em análise de imagens, bioacústica e sensoriamento remoto
Dipro — Proteção Ambiental11Diretoria supervisora de Prevfogo, Ceneac e Cenpsa — três centros com casos de uso de IA de alto risco já em curso ou em planejamento avançado; sua presença é indispensável para que esses casos sejam tratados com adequada supervisão hierárquica
Cenima — Monitoramento e Informações11Centro responsável pela infraestrutura de dados e monitoramento ambiental do IBAMA; seu envolvimento é essencial para assegurar que os projetos de IA usem dados de qualidade, com rastreabilidade e conformidade com as normas de segurança da informação
Diplan — Planejamento, Administração e Logística11Responsável pelo planejamento institucional, gestão de recursos humanos (CGRH), contratos e orçamento; sua participação é necessária para integrar a política de IA ao Plano Estratégico, ao Plano de Transformação Digital e aos processos de contratação de soluções de IA
CGTI (Secretaria Técnica)1Secretaria técnica do GT-IA; responsável pelo suporte tecnológico, avaliação de ferramentas, segurança da informação e registro das deliberações do Grupo; assento próprio justificado pela natureza operacional da função
Superintendências Estaduais (3 vagas fixas)36Garantem que a política de IA considere a realidade operacional do território — onde ocorrem as fiscalizações, autuações e licenciamentos. A diversidade regional (Norte/Nordeste, Centro-Oeste e Sul/Sudeste) evita que a governança seja construída apenas a partir da perspectiva da sede
InstânciaJustificativa
Agest — Assessoria de Gestão EstratégicaAlinhamento ao planejamento estratégico e ao Siorg; apoio metodológico à documentação das decisões do GT-IA como instrumentos de gestão institucional
PFE — Procuradoria Federal EspecializadaEssencial para a conformidade jurídica das deliberações do GT-IA e para orientar sobre os limites do uso de IA em processos com contraditório, ampla defesa e impactos em direitos individuais
Audit — Auditoria InternaAssegura que os mecanismos de controle e rastreabilidade da governança de IA sejam auditáveis e aderentes às boas práticas de auditoria interna na administração pública federal
Coger — CorregedoriaPrevine que o uso de IA crie vulnerabilidades disciplinares ou responsabilizações indevidas; orienta sobre os limites éticos e funcionais do uso de sistemas automatizados em processos disciplinares
OUV — OuvidoriaRepresenta a perspectiva do cidadão; assegura que a transparência no uso de IA e os direitos dos usuários dos serviços do IBAMA sejam considerados desde o início da governança
Prevfogo — Incêndios FlorestaisCaso de uso crítico com alto volume de dados espaciais e temporais; participação permite que o GT-IA compreenda as demandas específicas de IA para detecção e resposta a incêndios
Ceneac — Emergências AmbientaisCaso de uso em contexto de alta pressão temporal (emergências); demanda critérios específicos de governança para IA em situações críticas
Cenpsa — Processo SancionadorParticipação estratégica: é o objeto direto do projeto Projeto IARA — já em andamento. Sua presença garante que o GT-IA compreenda os requisitos reais do processo e que as decisões de governança considerem o contexto operacional concreto

Esta composição segue o princípio de proporcionalidade funcional: cada instância está presente porque tem responsabilidade direta sobre processos onde IA já é usada ou será usada em breve, ou porque detém funções de controle, conformidade e planejamento que são indispensáveis para a legitimidade da governança.


Diante do exposto, a CGTI — Coordenação-Geral de Tecnologia da Informação, no exercício da secretaria executiva do CGD, encaminha à Presidência do IBAMA a presente proposta para apreciação e, após deliberação do CGD, adoção das seguintes providências:

  1. Autorização para publicação da Diretriz Institucional para Uso Responsável de Inteligência Artificial, por ato da Presidência
  2. Instituição do GT-IA — Grupo de Trabalho de Inteligência Artificial — conforme composição e regimento detalhados no documento Regimento Interno do GT-IA, com secretaria técnica a cargo da CGTI e coordenação designada pelo CGD
  3. Indicação das 3 vagas das Superintendências Estaduais com critério de diversidade regional, pela Presidência do IBAMA
  4. Comunicação ao MMA sobre a iniciativa, sinalizando alinhamento à Estratégia de Governo Digital, ao Plano de Transformação Digital e ao avanço do Marco Legal da IA

O GT-IA conduzirá as ações de letramento, grupo de estudos, workshops, hackathons e mapeamento previstas na Fase 1, reportando ao CGD e submetendo à Presidência os instrumentos que requeiram autorização formal. Sua composição — detalhada na seção 7-A e no Regimento Interno — é deliberadamente multiárea e inclui os centros nacionais diretamente envolvidos nos projetos de IA já em andamento no IBAMA (Cenpsa, Prevfogo, Ceneac), assegurando que a governança seja construída a partir da realidade operacional da instituição.


(campo de local, data e assinatura a ser preenchido no SEI no momento da formalização)

(Nome e cargo do proponente — CGTI/DIPLAN/IBAMA)