Proposta Executiva
⚠️ MINUTA DE TRABALHO — Este documento é uma minuta em elaboração, ainda não submetida à deliberação do CGD nem à Presidência do IBAMA. Não constitui ato formal nem política institucional aprovada.
Proposta Executiva
Seção intitulada “Proposta Executiva”Diretriz Institucional para Uso Responsável de Inteligência Artificial
Seção intitulada “Diretriz Institucional para Uso Responsável de Inteligência Artificial”Com evolução planejada para Política Institucional Formal
Seção intitulada “Com evolução planejada para Política Institucional Formal”1. Síntese Executiva
Seção intitulada “1. Síntese Executiva”Esta proposta apresenta um caminho gradual, estruturado e seguro para adoção de Inteligência Artificial (IA) na instituição, organizado em cinco pilares complementares:
- Letramento institucional — capacitação e uso consciente
- Grupo de estudos permanente — aprendizado coletivo
- Mapeamento de usos — diagnóstico e oportunidades
- Governança e gestão de riscos — uso responsável e rastreável
- Evolução para normatização formal — formalização baseada em evidências
A estratégia recomendada é iniciar por uma Diretriz Institucional — orientadora e flexível — permitindo aprendizado prático e maturidade organizacional antes da formalização, evoluindo progressivamente para uma Política Institucional de IA estável e integrada à governança da instituição.
2. Objetivo da Proposta
Seção intitulada “2. Objetivo da Proposta”Estabelecer uma base institucional para adoção de IA que seja:
- Estratégica — alinhada à missão e planejamento da instituição
- Segura — com gestão de riscos e conformidade legal
- Culturalmente sustentável — com letramento, participação e mudança gradual
- Documentada e rastreável — com registro formal de decisões e evolução contínua
3. Problema que a Proposta Endereça
Seção intitulada “3. Problema que a Proposta Endereça”O uso de IA já ocorre de forma espontânea em diversas organizações. Sem uma abordagem institucional, esse cenário tende a gerar:
- uso desigual e não padronizado entre áreas
- riscos de segurança da informação, privacidade e qualidade
- exposição à LGPD (Lei 13.709/2018) por uso inadequado de dados institucionais
- perda de oportunidades de ganho de produtividade e eficiência
- dificuldade futura para normatizar com base em evidências reais
- risco imediato: projetos de IA de alto risco já estão em andamento no IBAMA (processo sancionador, licenciamento ambiental) sem que haja política formal de governança, critérios de responsabilização ou rastreabilidade aprovados
A proposta busca antecipar e organizar esse cenário por meio de adoção progressiva e governada.
4. Estratégia de Evolução: Diretriz → Governança → Política
Seção intitulada “4. Estratégia de Evolução: Diretriz → Governança → Política”Fase 1 — Diretriz Institucional (0–3 meses)
Seção intitulada “Fase 1 — Diretriz Institucional (0–3 meses)”Foco: ação imediata — letramento, workshops e constituição do GT-IA
- Letramento já na semana 2 — antes da portaria, antes da norma
- Primeiro workshop no mês 1 — com parceiros dos projetos RAPOSA/IARA
- Constituição do GT-IA e grupo de estudos
- Declaração de princípios e Diretriz Institucional
- Mapeamento inicial de usos e necessidades
- Orientação sobre ferramentas externas e dados sensíveis
Fase 2 — Estruturação de Governança (3–9 meses)
Seção intitulada “Fase 2 — Estruturação de Governança (3–9 meses)”Foco: organização, papéis e gestão de risco
- Classificação de tipos de uso por nível de risco
- Definição de papéis e responsabilidades
- Critérios mínimos de uso seguro
- Monitoramento e revisão periódica
Fase 3 — Política Institucional Formal (9–18 meses)
Seção intitulada “Fase 3 — Política Institucional Formal (9–18 meses)”Foco: consolidação e integração institucional
- Política formal aprovada com base em aprendizado acumulado
- Integração com planejamento estratégico e governança
- Regras claras para uso de IA em processos e decisões
- Estrutura permanente de supervisão e atualização
5. Pilares da Proposta
Seção intitulada “5. Pilares da Proposta”5.1 Letramento em IA
Seção intitulada “5.1 Letramento em IA”Capacitar servidores e equipes para uso consciente, crítico e produtivo de IA.
Temas mínimos sugeridos:
| Tema | Descrição |
|---|---|
| Fundamentos | O que é IA generativa, como funciona, principais ferramentas |
| Limites e riscos | Alucinações, viés, dependência, imprecisão |
| Uso seguro de dados | LGPD aplicada ao uso de IA; o que não compartilhar |
| Boas práticas | Prompting eficaz; revisão crítica dos resultados |
| Ética e responsabilidade | Autoria, transparência, impacto nas decisões |
5.2 Grupo de Estudos, Workshops e Hackathons
Seção intitulada “5.2 Grupo de Estudos, Workshops e Hackathons”Espaço institucional de aprendizagem coletiva, experimentação e troca de experiências, organizado pelo GT-IA e aberto à participação de todas as áreas. Inclui:
- Grupo de estudos permanente — reuniões regulares para discussão de casos, tendências e práticas
- Workshops temáticos — encontros estruturados com parceiros de mercado, universidades e órgãos de referência em IA no setor público
- Hackathons — eventos de experimentação prática com desafios reais da instituição, abertos a servidores e, quando pertinente, a parceiros externos
Esses formatos se complementam: o grupo de estudos sustenta o aprendizado contínuo; os workshops trazem perspectivas externas qualificadas; os hackathons geram protótipos e evidências de valor real.
5.3 Mapeamento de Uso e Oportunidades
Seção intitulada “5.3 Mapeamento de Uso e Oportunidades”Levantar e classificar usos atuais e potenciais de IA na instituição para:
- identificar onde já há uso espontâneo
- reconhecer riscos existentes
- priorizar casos com maior valor institucional
- gerar base empírica para a governança
Ponto de partida obrigatório: o mapeamento deve iniciar pelos projetos já em andamento — Projeto RAPOSA (macro-processo sancionador), Projeto IARA (solução inteligente para o Cenpsa) e o processo de Licenciamento Ambiental Federal — que representam usos de alto risco com decisões em andamento. Esses casos não precisam ser descobertos: já são conhecidos e devem ser os primeiros a receber governança formal.
5.4 Governança e Gestão de Riscos
Seção intitulada “5.4 Governança e Gestão de Riscos”Estabelecer estrutura de governança colegiada, ancorada na Presidência do IBAMA e operacionalizada pelo CGD e pelo GT-IA.
Estrutura de governança:
| Instância | Papel |
|---|---|
| Presidência do IBAMA | Âncora institucional — confere legitimidade, assina os instrumentos formais, comunica ao MMA |
| CGD | Instância deliberativa — aprova estratégia, homologa decisões, monitora evolução, delibera sobre fases |
| GT-IA (Grupo de Trabalho de IA) | Corpo operacional colegiado — coordena letramento, workshops, hackathons, mapeamento e registro de decisões |
| CGTI | Secretaria técnica do GT-IA — suporte técnico, avaliação de ferramentas e riscos |
| Representantes das áreas | Membros do GT-IA — participação ativa, não apenas reporte |
Composição do GT-IA — Membros com direito a voto:
| Instância | Titular | Substituto(s) |
|---|---|---|
| Presidência do IBAMA | 1 | 1 |
| Dilic — Licenciamento Ambiental | 1 | 1 |
| Diqua — Qualidade Ambiental | 1 | 1 |
| DBFlo — Biodiversidade e Florestas | 1 | 1 |
| Dipro — Proteção Ambiental (representa Prevfogo, Ceneac e Cenpsa) | 1 | 1 |
| Cenima — Monitoramento e Informações | 1 | 1 |
| Diplan — Planejamento, Administração e Logística | 1 | 1 |
| CGTI — Secretaria Técnica | 1 | — |
| Superintendências Estaduais (3 vagas fixas, indicadas pela Presidência) | 3 | 6 |
Convidados permanentes (sem voto): Agest, PFE, Audit, Coger, OUV, Prevfogo, Ceneac e Cenpsa.
Composição completa, atribuições e regras de funcionamento detalhadas no Regimento Interno do GT-IA.
Classificação de uso por risco (inspirada no NIST AI RMF e EU AI Act):
| Nível | Exemplos no IBAMA |
|---|---|
| Baixo | Apoio à redação, pesquisa, resumo de documentos internos |
| Médio | Apoio à análise técnica em licenciamento, triagem de documentos ambientais |
| Alto | Triagem automatizada de autos de infração (Cenpsa/Discovery IA), instrução assistida por LLM no processo sancionador, análise de estudos de impacto ambiental no LAF, decisões integradas a CTF/APP e SICAFI |
5.5 Evolução para Normatização
Seção intitulada “5.5 Evolução para Normatização”Transformar aprendizado e evidências acumuladas em base para política formal, evitando regulamentação prematura e sem lastro prático.
6. Base Conceitual (Referenciais Reconhecidos de Mercado)
Seção intitulada “6. Base Conceitual (Referenciais Reconhecidos de Mercado)”A proposta combina referenciais consolidados de forma equilibrada entre estratégia, técnica e cultura:
| Referencial | Aplicação na Proposta |
|---|---|
| TOGAF (The Open Group) | Estrutura a visão estratégica, roadmap e alinhamento institucional |
| COBIT (ISACA) | Define governança, responsabilidades, accountability e controle |
| NIST AI RMF (EUA) | Orienta mapeamento, avaliação e gestão de riscos de IA |
| Princípios de IA da OECD | Fundamenta uso responsável, transparência e confiabilidade |
| Gestão da Mudança — Kotter | Sustenta adesão institucional, letramento e grupo de estudos |
| SECI — Nonaka & Takeuchi | Modela como o conhecimento vira cultura: socialização → norma |
| LGPD / Marco Legal da IA (BR) | Garante conformidade com o ordenamento jurídico brasileiro |
Nota sobre o Marco Legal da IA: o PL 2338/2023 encontra-se em tramitação no Congresso Nacional. Sua estrutura conceitual já converge com o EU AI Act e o NIST AI RMF, tornando esta proposta naturalmente alinhada à regulação que se consolidará no Brasil.
7. Uso de Ferramentas Externas de IA
Seção intitulada “7. Uso de Ferramentas Externas de IA”O uso de LLMs externos (ex.: ChatGPT, Gemini, Copilot) com dados institucionais representa um risco concreto que deve ser endereçado desde a Fase 1.
Orientação mínima já na diretriz inicial:
- Proibir o envio de dados pessoais, sigilosos ou sensíveis a ferramentas externas
- Orientar sobre termos de uso e políticas de retenção de dados das ferramentas
- Avaliar soluções com maior controle institucional para usos de maior risco
- Registrar ferramentas em uso no mapeamento institucional
8. Indicadores de Acompanhamento
Seção intitulada “8. Indicadores de Acompanhamento”| Fase | Indicador | Meta Sugerida |
|---|---|---|
| Fase 1 (0–3m) | Primeiro workshop realizado | Mês 1 |
| Fase 1 (0–3m) | % de membros do GT-IA capacitados | 100% até o mês 2 |
| Fase 1 (0–3m) | Número de usos mapeados | Levantamento inicial completo |
| Fase 2 (3–9m) | Taxonomia de risco aprovada | Mês 5 |
| Fase 2 (3–9m) | Número de riscos identificados e tratados | Registro completo por categoria |
| Fase 3 (9–18m) | Política institucional aprovada | Instrumento normativo publicado |
| Fase 3 (9–18m) | Nível de maturidade institucional em IA | Evolução documentada por ciclo |
9. Resultados Esperados
Seção intitulada “9. Resultados Esperados”Curto prazo
Seção intitulada “Curto prazo”- Alinhamento da liderança sobre o tema
- Melhoria do letramento e uso consciente de IA
- Visibilidade sobre usos já existentes na instituição
Médio prazo
Seção intitulada “Médio prazo”- Governança mínima estabelecida
- Redução de riscos por uso desorientado
- Priorização de casos de uso com maior valor institucional
Longo prazo
Seção intitulada “Longo prazo”- Política institucional formal de IA publicada
- Cultura organizacional mais madura e responsável
- Adoção de IA mais segura, útil e sustentável
10. Próximos Passos Recomendados
Seção intitulada “10. Próximos Passos Recomendados”- Iniciar letramento imediatamente após deliberação do CGD — semana 2, antes da portaria
- Realizar o primeiro workshop no mês 1 com GIZ/EloGroup/Funbio — parceiros do RAPOSA e IARA
- Constituir o GT-IA por portaria da Presidência — em paralelo, não como pré-requisito
- Publicar Diretriz Institucional inicial — enxuta, orientadora, assinada pela Presidência (mês 2–3)
- Iniciar o mapeamento de usos, começando pelos projetos RAPOSA, IARA e LAF
- Planejar o hackathon como evento de consolidação ao fim da Fase 1
- Revisar a diretriz após a Fase 1 (mês 3) e avançar para a Fase 2
11. Conclusão
Seção intitulada “11. Conclusão”Esta proposta adota uma trajetória institucionalmente madura: orientar primeiro, aprender com a prática, organizar a governança e então formalizar.
Essa abordagem:
- reduz o risco de rejeição institucional
- evita normatização prematura e sem lastro
- cria base sólida e defensável para uma política formal
- garante conformidade legal desde o início (LGPD)
- posiciona a instituição com maturidade acima da média em adoção responsável de IA
A combinação de referenciais consolidados de mercado visa equilibrar robustez técnica, defensabilidade estratégica e viabilidade cultural — tratando cada referencial como orientação metodológica a ser adaptada ao contexto do IBAMA, e não como modelo a ser seguido de forma literal.
Documento elaborado com base em referenciais internacionais reconhecidos: TOGAF, COBIT, NIST AI RMF, OECD AI Principles, Kotter Change Management e SECI (Nonaka & Takeuchi), alinhado ao ordenamento jurídico brasileiro (LGPD e Marco Legal da IA).