Pular para o conteúdo

Proposta Executiva

⚠️ MINUTA DE TRABALHO — Este documento é uma minuta em elaboração, ainda não submetida à deliberação do CGD nem à Presidência do IBAMA. Não constitui ato formal nem política institucional aprovada.


Diretriz Institucional para Uso Responsável de Inteligência Artificial

Seção intitulada “Diretriz Institucional para Uso Responsável de Inteligência Artificial”

Com evolução planejada para Política Institucional Formal

Seção intitulada “Com evolução planejada para Política Institucional Formal”

Esta proposta apresenta um caminho gradual, estruturado e seguro para adoção de Inteligência Artificial (IA) na instituição, organizado em cinco pilares complementares:

  • Letramento institucional — capacitação e uso consciente
  • Grupo de estudos permanente — aprendizado coletivo
  • Mapeamento de usos — diagnóstico e oportunidades
  • Governança e gestão de riscos — uso responsável e rastreável
  • Evolução para normatização formal — formalização baseada em evidências

A estratégia recomendada é iniciar por uma Diretriz Institucional — orientadora e flexível — permitindo aprendizado prático e maturidade organizacional antes da formalização, evoluindo progressivamente para uma Política Institucional de IA estável e integrada à governança da instituição.


Estabelecer uma base institucional para adoção de IA que seja:

  • Estratégica — alinhada à missão e planejamento da instituição
  • Segura — com gestão de riscos e conformidade legal
  • Culturalmente sustentável — com letramento, participação e mudança gradual
  • Documentada e rastreável — com registro formal de decisões e evolução contínua

O uso de IA já ocorre de forma espontânea em diversas organizações. Sem uma abordagem institucional, esse cenário tende a gerar:

  • uso desigual e não padronizado entre áreas
  • riscos de segurança da informação, privacidade e qualidade
  • exposição à LGPD (Lei 13.709/2018) por uso inadequado de dados institucionais
  • perda de oportunidades de ganho de produtividade e eficiência
  • dificuldade futura para normatizar com base em evidências reais
  • risco imediato: projetos de IA de alto risco já estão em andamento no IBAMA (processo sancionador, licenciamento ambiental) sem que haja política formal de governança, critérios de responsabilização ou rastreabilidade aprovados

A proposta busca antecipar e organizar esse cenário por meio de adoção progressiva e governada.


4. Estratégia de Evolução: Diretriz → Governança → Política

Seção intitulada “4. Estratégia de Evolução: Diretriz → Governança → Política”

Foco: ação imediata — letramento, workshops e constituição do GT-IA

  • Letramento já na semana 2 — antes da portaria, antes da norma
  • Primeiro workshop no mês 1 — com parceiros dos projetos RAPOSA/IARA
  • Constituição do GT-IA e grupo de estudos
  • Declaração de princípios e Diretriz Institucional
  • Mapeamento inicial de usos e necessidades
  • Orientação sobre ferramentas externas e dados sensíveis

Fase 2 — Estruturação de Governança (3–9 meses)

Seção intitulada “Fase 2 — Estruturação de Governança (3–9 meses)”

Foco: organização, papéis e gestão de risco

  • Classificação de tipos de uso por nível de risco
  • Definição de papéis e responsabilidades
  • Critérios mínimos de uso seguro
  • Monitoramento e revisão periódica

Fase 3 — Política Institucional Formal (9–18 meses)

Seção intitulada “Fase 3 — Política Institucional Formal (9–18 meses)”

Foco: consolidação e integração institucional

  • Política formal aprovada com base em aprendizado acumulado
  • Integração com planejamento estratégico e governança
  • Regras claras para uso de IA em processos e decisões
  • Estrutura permanente de supervisão e atualização

Capacitar servidores e equipes para uso consciente, crítico e produtivo de IA.

Temas mínimos sugeridos:

TemaDescrição
FundamentosO que é IA generativa, como funciona, principais ferramentas
Limites e riscosAlucinações, viés, dependência, imprecisão
Uso seguro de dadosLGPD aplicada ao uso de IA; o que não compartilhar
Boas práticasPrompting eficaz; revisão crítica dos resultados
Ética e responsabilidadeAutoria, transparência, impacto nas decisões

Espaço institucional de aprendizagem coletiva, experimentação e troca de experiências, organizado pelo GT-IA e aberto à participação de todas as áreas. Inclui:

  • Grupo de estudos permanente — reuniões regulares para discussão de casos, tendências e práticas
  • Workshops temáticos — encontros estruturados com parceiros de mercado, universidades e órgãos de referência em IA no setor público
  • Hackathons — eventos de experimentação prática com desafios reais da instituição, abertos a servidores e, quando pertinente, a parceiros externos

Esses formatos se complementam: o grupo de estudos sustenta o aprendizado contínuo; os workshops trazem perspectivas externas qualificadas; os hackathons geram protótipos e evidências de valor real.

Levantar e classificar usos atuais e potenciais de IA na instituição para:

  • identificar onde já há uso espontâneo
  • reconhecer riscos existentes
  • priorizar casos com maior valor institucional
  • gerar base empírica para a governança

Ponto de partida obrigatório: o mapeamento deve iniciar pelos projetos já em andamento — Projeto RAPOSA (macro-processo sancionador), Projeto IARA (solução inteligente para o Cenpsa) e o processo de Licenciamento Ambiental Federal — que representam usos de alto risco com decisões em andamento. Esses casos não precisam ser descobertos: já são conhecidos e devem ser os primeiros a receber governança formal.

Estabelecer estrutura de governança colegiada, ancorada na Presidência do IBAMA e operacionalizada pelo CGD e pelo GT-IA.

Estrutura de governança:

InstânciaPapel
Presidência do IBAMAÂncora institucional — confere legitimidade, assina os instrumentos formais, comunica ao MMA
CGDInstância deliberativa — aprova estratégia, homologa decisões, monitora evolução, delibera sobre fases
GT-IA (Grupo de Trabalho de IA)Corpo operacional colegiado — coordena letramento, workshops, hackathons, mapeamento e registro de decisões
CGTISecretaria técnica do GT-IA — suporte técnico, avaliação de ferramentas e riscos
Representantes das áreasMembros do GT-IA — participação ativa, não apenas reporte

Composição do GT-IA — Membros com direito a voto:

InstânciaTitularSubstituto(s)
Presidência do IBAMA11
Dilic — Licenciamento Ambiental11
Diqua — Qualidade Ambiental11
DBFlo — Biodiversidade e Florestas11
Dipro — Proteção Ambiental (representa Prevfogo, Ceneac e Cenpsa)11
Cenima — Monitoramento e Informações11
Diplan — Planejamento, Administração e Logística11
CGTI — Secretaria Técnica1
Superintendências Estaduais (3 vagas fixas, indicadas pela Presidência)36

Convidados permanentes (sem voto): Agest, PFE, Audit, Coger, OUV, Prevfogo, Ceneac e Cenpsa.

Composição completa, atribuições e regras de funcionamento detalhadas no Regimento Interno do GT-IA.

Classificação de uso por risco (inspirada no NIST AI RMF e EU AI Act):

NívelExemplos no IBAMA
BaixoApoio à redação, pesquisa, resumo de documentos internos
MédioApoio à análise técnica em licenciamento, triagem de documentos ambientais
AltoTriagem automatizada de autos de infração (Cenpsa/Discovery IA), instrução assistida por LLM no processo sancionador, análise de estudos de impacto ambiental no LAF, decisões integradas a CTF/APP e SICAFI

Transformar aprendizado e evidências acumuladas em base para política formal, evitando regulamentação prematura e sem lastro prático.


6. Base Conceitual (Referenciais Reconhecidos de Mercado)

Seção intitulada “6. Base Conceitual (Referenciais Reconhecidos de Mercado)”

A proposta combina referenciais consolidados de forma equilibrada entre estratégia, técnica e cultura:

ReferencialAplicação na Proposta
TOGAF (The Open Group)Estrutura a visão estratégica, roadmap e alinhamento institucional
COBIT (ISACA)Define governança, responsabilidades, accountability e controle
NIST AI RMF (EUA)Orienta mapeamento, avaliação e gestão de riscos de IA
Princípios de IA da OECDFundamenta uso responsável, transparência e confiabilidade
Gestão da Mudança — KotterSustenta adesão institucional, letramento e grupo de estudos
SECI — Nonaka & TakeuchiModela como o conhecimento vira cultura: socialização → norma
LGPD / Marco Legal da IA (BR)Garante conformidade com o ordenamento jurídico brasileiro

Nota sobre o Marco Legal da IA: o PL 2338/2023 encontra-se em tramitação no Congresso Nacional. Sua estrutura conceitual já converge com o EU AI Act e o NIST AI RMF, tornando esta proposta naturalmente alinhada à regulação que se consolidará no Brasil.


O uso de LLMs externos (ex.: ChatGPT, Gemini, Copilot) com dados institucionais representa um risco concreto que deve ser endereçado desde a Fase 1.

Orientação mínima já na diretriz inicial:

  • Proibir o envio de dados pessoais, sigilosos ou sensíveis a ferramentas externas
  • Orientar sobre termos de uso e políticas de retenção de dados das ferramentas
  • Avaliar soluções com maior controle institucional para usos de maior risco
  • Registrar ferramentas em uso no mapeamento institucional

FaseIndicadorMeta Sugerida
Fase 1 (0–3m)Primeiro workshop realizadoMês 1
Fase 1 (0–3m)% de membros do GT-IA capacitados100% até o mês 2
Fase 1 (0–3m)Número de usos mapeadosLevantamento inicial completo
Fase 2 (3–9m)Taxonomia de risco aprovadaMês 5
Fase 2 (3–9m)Número de riscos identificados e tratadosRegistro completo por categoria
Fase 3 (9–18m)Política institucional aprovadaInstrumento normativo publicado
Fase 3 (9–18m)Nível de maturidade institucional em IAEvolução documentada por ciclo

  • Alinhamento da liderança sobre o tema
  • Melhoria do letramento e uso consciente de IA
  • Visibilidade sobre usos já existentes na instituição
  • Governança mínima estabelecida
  • Redução de riscos por uso desorientado
  • Priorização de casos de uso com maior valor institucional
  • Política institucional formal de IA publicada
  • Cultura organizacional mais madura e responsável
  • Adoção de IA mais segura, útil e sustentável

  1. Iniciar letramento imediatamente após deliberação do CGD — semana 2, antes da portaria
  2. Realizar o primeiro workshop no mês 1 com GIZ/EloGroup/Funbio — parceiros do RAPOSA e IARA
  3. Constituir o GT-IA por portaria da Presidência — em paralelo, não como pré-requisito
  4. Publicar Diretriz Institucional inicial — enxuta, orientadora, assinada pela Presidência (mês 2–3)
  5. Iniciar o mapeamento de usos, começando pelos projetos RAPOSA, IARA e LAF
  6. Planejar o hackathon como evento de consolidação ao fim da Fase 1
  7. Revisar a diretriz após a Fase 1 (mês 3) e avançar para a Fase 2

Esta proposta adota uma trajetória institucionalmente madura: orientar primeiro, aprender com a prática, organizar a governança e então formalizar.

Essa abordagem:

  • reduz o risco de rejeição institucional
  • evita normatização prematura e sem lastro
  • cria base sólida e defensável para uma política formal
  • garante conformidade legal desde o início (LGPD)
  • posiciona a instituição com maturidade acima da média em adoção responsável de IA

A combinação de referenciais consolidados de mercado visa equilibrar robustez técnica, defensabilidade estratégica e viabilidade cultural — tratando cada referencial como orientação metodológica a ser adaptada ao contexto do IBAMA, e não como modelo a ser seguido de forma literal.


Documento elaborado com base em referenciais internacionais reconhecidos: TOGAF, COBIT, NIST AI RMF, OECD AI Principles, Kotter Change Management e SECI (Nonaka & Takeuchi), alinhado ao ordenamento jurídico brasileiro (LGPD e Marco Legal da IA).