Construa pipelines de dados de ponta a ponta com Apache Airflow 3.0 + dbt — do ambiente local ao deploy em produção
Neste workshop online e ao vivo, você vai aprender, na prática, a orquestrar processos de Extração-Transformação-Carga (ETL/ELT) usando o Astro CLI, o Cosmos e o dbt. Em apenas 5 horas, sairá com um pipeline completo rodando em produção, monitorado e versionado.
Data e horário: 31/05 (sábado), das 9h às 14h
Formato: 100% online e ao vivo, com acesso à gravação por 1 ano
Instrutor: Alan Silva – Engenheiro de Dados com experiência real em Airflow 3.0, dbt e Astro
O que você vai aprender:
Fundamentos práticos do Apache Airflow 3 (DAGs, Tasks, Assets, Scheduler e nova interface)
Como modelar dados no dbt com versionamento, testes e documentação
Integração entre Airflow e dbt usando o Astronomer Cosmos
Criação de ambientes locais com Astro CLI (containers prontos para desenvolvimento)
Deploy “git-ops” contínuo no Astro Cloud (GitDagBundle e DAG Versioning)
Projeto final (feito passo a passo):
Pipeline E-T-L: dados brutos ? modelos dbt ? tabela fato
Código versionado em Git e implantado automaticamente no Astro Cloud
Ambiente de produção com conexões seguras, variáveis e monitoramento configurados
Para quem é:
Engenheiros(as) e Analistas de Dados que querem acelerar a orquestração de pipelines
Times de BI/Analytics que precisam de processos reproduzíveis e versionados
Profissionais de DevOps/DataOps interessados em CI/CD para dados
Pessoas curiosas que já conhecem SQL/Python e desejam dar o próximo passo em Data Engineering
Garanta sua vaga e domine Airflow 3.0 + dbt em poucas horas — sem sofrimento com infraestrutura.