Modalidade: Presencial ou Online Ao Vivo.
56h de engenharia aplicada — A densidade que a sua operação exige.
Sua equipe treina modelos, mas ninguém sabe quem aprovou, com quais dados ou qual versão do código está rodando agora. Onde está o controle?
O modelo começa a errar porque o mercado mudou, mas você só descobre quando o prejuízo financeiro aparece. Como detectar o erro antes do impacto?
O processo de colocar a IA no ar é lento e depende de "heróis". Um erro manual pode derrubar serviços críticos por horas.
Sua operação de IA depende de consultorias externas caras ou de conhecimentos que saem da empresa com o colaborador.
Implementamos o triângulo de ferro do MLOps (Código, Dados e Parâmetros) com MLflow. Cada decisão da sua IA torna-se auditável e recuperável.
Dashboards de Drift com Prometheus e Grafana que alertam seu time antes que a performance caia. Estabilidade real para o core business.
Deploy automático com Canary e Rollback testados em Kubernetes. IA em produção com risco zero e zero downtime.
Opere LLMs e modelos de ML em escala na sua infraestrutura, com governança rigorosa (BACEN/LGPD) e custos previsíveis.
Da Engenharia de Dados ao Deploy Canário
O ciclo completo de vida de modelos de ML em organizações reais
Modelo de maturidade de MLOps
Por que MLOps é diferente de DevOps
Papéis e responsabilidades em times de MLOps
Dívida técnica de ML
Anti-padrões de times reais
Por que code version control não é suficiente
MLflow em profundidade
Model Registry como sistema de aprovação
Versionamento de datasets sem duplicação
Reprodutibilidade de experimentos
MLflow em ambiente multi-usuário
MLflow Projects
Separação de ambientes em MLOps
Gates de promoção
Paralelização de experimentos
Feature stores open source
Gestão de artefatos pesados
CI/CD para modelos de ML
Serving frameworks open source
Estratégias avançadas de deploy
Rollback de modelos
CI/CD open source para ML
Kubernetes avançado para MLOps
Três camadas de observabilidade em MLOps
Data drift vs. concept drift vs. model decay
Prometheus para MLOps
Grafana para modelos
Evidently AI
Alertas inteligentes
Governança de modelos como processo organizacional
Audit trail completo
Controle de acesso em pipelines de MLOps
Segregação de ambientes
Compliance setorial para modelos de ML
Model card corporativo
Por que LLMs quebram as premissas do MLOps clássico
O ciclo de vida de um LLM corporativo
Rastreamento de prompts como experimentos no MLflow
Evals de LLMs em produção
Observabilidade de LLMs com Langfuse
LLMOps para fine-tuning
Gestão de custo de inferência
Operação de plataformas de ML em escala
SRE aplicado a MLOps
Quando re-treinar, substituir ou descontinuar
Planejamento de capacidade
Maturidade organizacional
Na 4Linux, não entregamos apenas certificados. Entregamos equipes prontas para arquitetar o futuro da IA com independência. Onde outros veem "ferramentas de moda", nós aplicamos 25 anos de rigor em infraestrutura Open Source. Se o seu projeto de IA não pode falhar, ele precisa da base sólida que só quem domina o código aberto pode oferecer.
Seu time é treinado para detectar e corrigir falhas de IA sob pressão, garantindo que o sistema não fique fora do ar.
Saia com a stack de MLflow, Kubernetes e Prometheus configurada e pronta para escalar os modelos da sua empresa.
O curso termina com o Model Card Corporativo e o Runbook Operacional (procedimentos de emergência) iniciados para sua organização.
Tem dificuldade em acompanhar o aprendizado do seu time? Com nossos relatórios e dashboards em tempo real, você obtém insights detalhados sobre engajamento, cursos concluídos, atividades realizadas e muito mais.
Gerencie alunos de forma eficiente.
Avalie o progresso e o interesse da equipe para tomar decisões assertivas e aprimorar os resultados da empresa.
Acompanhe cursos concluídos por período e obtenha relatórios detalhados sobre frequência e notas dos alunos.

Analista de Sistemas na XP Investments

Gerente de TI na Caixa

Coordenador de Infraestrutura na Eicon
Nosso retorno é rápido. Ou se preferir
fale conosco pelo WhatsApp.