Plano 30-60-90 para Migrar para Análise de Dados Rápido

Este é um plano prático, direto e sem enrolação para você sair do zero e entrar no mercado de análise de dados em 90 dias.

Se seu objetivo é reskilling rápido e construir um portfólio que abra portas, siga este roteiro semanal com tarefas acionáveis, projetos mínimos viáveis (MVPs) e recursos gratuitos e pagos. Nada de teoria vazia — só entregáveis que você pode mostrar em entrevistas.

Por que um plano 30-60-90 funciona para análise de dados

O modelo 30-60-90 força objetivos mensuráveis em blocos curtos: aprender fundamentos, consolidar habilidades e entregar projetos reais. Para quem busca reskilling rápido, essa cadência cria momentum e resulta em material concreto para o portfólio — essencial para contratação na área de dados.

Como usar este roteiro

Siga semana a semana. Reserve 2–3 horas por dia nos dias úteis (ou 10–15 horas por semana). Priorize prática sobre consumo de conteúdo. No final de cada bloco (30, 60 e 90 dias) você terá um MVP para mostrar.

Resumo do plano

– Dias 0–30 (Semana 1–4): Fundamentos e primeiros projetos rápidos. Objetivo: SQL básico, Excel/Google Sheets avançado, estatística descritiva, Python básico. – Dias 31–60 (Semana 5–8): Consolidação e projetos intermediários. Objetivo: pandas, visualização, limpeza de dados, storytelling, um dashboard simples. – Dias 61–90 (Semana 9–12): Projeto end-to-end, automação e aplicação. Objetivo: projeto completo com análise, dashboard e repositório GitHub + preparação para entrevistas.

Semana a semana: tarefas práticas

Semana 1 — Fundamentos essenciais – Meta: entender o que faz um analista de dados e dominar Excel/Google Sheets. – Tarefas: 1) Ler artigos sobre carreira em análise de dados (1h). 2) Curso rápido de Excel: funções (VLOOKUP/XLOOKUP, pivot tables, fórmulas condicionais) — 6 aulas práticas. 3) Praticar com uma planilha real (baixe dados abertos do IBGE ou Kaggle e crie pivots e gráficos). 4) Criar perfil no GitHub e no LinkedIn (foco em headline objetiva: “Analista de Dados em transição – SQL • Python • Tableau”). – Entregável: planilha com análise descritiva e 3 gráficos; publicar no GitHub (arquivo .xlsx + README).

Semana 2 — SQL básico aplicado – Meta: escrever queries SQL para selecionar, agrupar, filtrar e fazer joins. – Tarefas: 1) Curso interativo (SQLBolt ou Mode SQL Tutorial). 2) Resolver exercícios no Kaggle/LeetCode (SQL). 3) Aplicar SQL em dataset real (ex.: dados de vendas) usando SQLite ou BigQuery sandbox. – Entregável: 5 queries úteis (ex.: receita por cliente, churn proxy, top produtos) com um notebook .sql no GitHub.

Semana 3 — Python básico + pandas introdução – Meta: ler CSV, fazer limpeza básica e sumarizações com pandas. – Tarefas: 1) Python essentials (variáveis, estruturas, funções) — 4 horas. 2) Pandas: read_csv, head, groupby, merge, dropna. 3) Refatorar a análise da semana 1 usando pandas. – Entregável: Jupyter Notebook com ETL simples e análise descritiva (publicar no GitHub).

Semana 4 — Estatística prática e visualização – Meta: métricas essenciais (média, mediana, desvio padrão), correlação, e visualização com matplotlib/seaborn. – Tarefas: 1) Microcurso de estatística descritiva (Khan Academy ou curso gratuito). 2) Criar 4 visualizações que respondam perguntas de negócio (distribuição de vendas, tendência mensal, correlação preço vs. quantidade). 3) Escrever insights curtos (3 bullets) e recomendações práticas. – Entregável: Notebook com visualizações + README com 3 insights de negócio.

MVP do primeiro 30 dias: Painel simples em Google Sheets + Jupyter Notebook com ETL e análises. Esse é seu cartão de visitas inicial.

Dias 31–60: consolidar e subir o nível

Semana 5 — Tratamento de dados avançado – Meta: data cleaning robusto e feature engineering básica. – Tarefas: 1) Aprender técnicas de tratamento (outliers, imputação, normalização). 2) Criar um pipeline simples em pandas que transforme dados sujos em um dataset analisável. – Entregável: Script/notebook com pipeline e documentação dos passos.

Semana 6 — Visualização e storytelling – Meta: construir visualizações que contam história e preparar apresentação curta. – Tarefas: 1) Aprender Power BI ou Tableau (escolha 1). 2) Recriar as visualizações do seu notebook em um dashboard. 3) Escrever um slide deck de 5 slides: pergunta, dados, análise, insights, recomendações. – Entregável: Dashboard público (Power BI Public/ Tableau Public) + slides no Google Slides.

Semana 7 — Estatística inferencial e A/B básico – Meta: entender testes A/B, intervalos de confiança e p-values básicos. – Tarefas: 1) Curso rápido (Coursera/YouTube). 2) Simular um teste A/B em Python e reportar resultados. 3) Identificar como um analista usa esses conceitos para tomar decisão. – Entregável: Notebook com simulação A/B e conclusão.

Semana 8 — Integração e mini-projeto – Meta: entregar um mini-projeto que combine SQL + Python + dashboard. – Tarefas: 1) Escolher dataset (vendas, finanças pessoais, análise de churn). 2) Construir pipeline: extração (SQL), transformação (pandas), visualização (Tableau/Power BI). 3) Documentar problema, hipótese, métricas e conclusão. – Entregável: Projeto no GitHub com link do dashboard.

MVP dos 60 dias: Projeto intermediário com dashboard público e código bem documentado. Isso já te coloca em condições de candidatar a vagas júnior e estágiario.

Dias 61–90: projeto end-to-end e aplicação

Semana 9 — Escolha do projeto final (problema de negócio real) – Meta: selecionar um tema com apelo para recrutadores (ex.: análise de churn, cohort analysis, previsão de demanda simples). – Tarefas: 1) Pesquisar vagas e identificar palavras-chave (stack pedida). 2) Escolher dataset que permita métricas de negócio claras. 3) Planejar cronograma do projeto final. – Entregável: Documento de escopo (objetivo, hipóteses, métricas, timeline).

Semana 10 — Construção do pipeline e modelagem simples – Meta: completar ETL e construir análises/algoritmos simples (forecasts ou classificação básica). – Tarefas: 1) ETL modularizado (scripts ou notebooks). 2) Se aplicar modelagem, usar modelos simples (linear regression, decision tree) e explicar limitações. – Entregável: Código limpo + resultados comparáveis (métricas de performance simples).

Semana 11 — Dashboard final e automação – Meta: transformar análise em dashboard acionável e automatizar atualização mínima. – Tarefas: 1) Criar dashboard com filtros e narrativa. 2) Configurar atualização automática (Agendar notebook no GitHub Actions, ou usar Google Sheets + Apps Script). 3) Testar com dados novos. – Entregável: Dashboard público + script de atualização.

Semana 12 — Apresentação, portfólio e preparação para entrevistas – Meta: ter material pronto para candidaturas: GitHub, LinkedIn, 3 projetos com README e apresentação de 5 minutos. – Tarefas: 1) Gravar um vídeo de 3–5 minutos explicando um projeto (ponto chave em entrevistas). 2) Escrever descrições de projeto no LinkedIn e nos repositórios. 3) Simular entrevistas técnicas (SQL + interpretação de dashboard + perguntas situacionais). – Entregável: Portfólio público com 3 projetos, vídeo curto e perfil LinkedIn otimizado.

Projetos mínimos viáveis (MVP) sugeridos

– Projeto 1 (30 dias): Análise de vendas mensal — Excel + gráficos + insights (foco em visualização e métricas básicas). – Projeto 2 (60 dias): Dashboard de retenção/churn — SQL + pandas + Tableau (foco em métricas de negócio e storytelling). – Projeto 3 (90 dias): Previsão de demanda simples ou segmentação de clientes — ETL automatizado, notebook, dashboard, e README com decisões de negócio.

Recursos gratuitos e pagos (o que usar quando) — direto ao ponto

Gratuitos essenciais: – Kaggle Learn (Python, pandas, SQL) — hands-on. – Mode Analytics SQL Tutorial — prática real. – SQLBolt — exercícios interativos. – Google Data Studio / Google Sheets — dashboards gratuitos. – YouTube (Data School, Ken Jee, StatQuest) — conceitos explicados rápido.

Pagos que valem investimento: – Coursera: Google Data Analytics Professional Certificate (bom para principiantes com certificado). – DataCamp / Dataquest: exercícios práticos guiados (assinatura paga ajuda acelerar curva). – Udemy: cursos específicos (p. ex., Python for Data Analysis) — comprar em promoção. – Alura (Brasil): trilhas aplicadas e material em português.

Ferramentas de produção: – Python (pandas, matplotlib, seaborn), Jupyter/Colab. – SQL (SQLite, PostgreSQL, BigQuery quando possível). – Tableau Public / Power BI / Google Data Studio. – Git + GitHub (para portfólio). – Streamlit / Flask (se quiser transformar em app simples).

Como montar um portfólio que fecha entrevistas

– Foco em problemas de negócio, não só código. Cada projeto precisa: contexto, pergunta, dados, abordagem, resultados e recomendação. – Tenha 3 projetos distintos: análise descritiva + dashboard, experimento/teste A/B, e um projeto com alguma modelagem simples ou previsão. – Documentação: README claro, notebooks organizados e um vídeo de 3 minutos por projeto. – LinkedIn: coloque projetos em destaque e descreva resultados com números (“redução de churn em X% segundo análise”).

Métricas para medir progresso

– 30 dias: conseguir executar queries SQL básicas e entregar 1 notebook + 1 dashboard. – 60 dias: ter 2 projetos públicos com código + dashboard. – 90 dias: 3 projetos prontos, entrevistas iniciadas, 1-3 candidaturas por semana.

Erros comuns e como evitá-los

– Gastar tempo demais em cursos sem praticar — limite consumo a 20% do tempo. – Projetos sem contexto de negócio — sempre responda “por que isso importa”. – Portfólio bagunçado — organização vale mais que quantidade.

Conclusão e próxima ação (CTA)

Este Plano 30-60-90 para Migrar para Análise de Dados Rápido transforma aprendizado em entrega. Comece agora: escolha um dataset e publique seu primeiro notebook até o final desta semana. Quer um modelo de README e um checklist semanal pronto para usar? Comente “Quero o checklist” que eu te passo o template e uma lista de datasets prontos para iniciar.

Palavras-chave: análise de dados, reskilling rápido, plano 30-60-90.

Cristina Olivia

Cristina Olivia

Olivia Cristina es redactora especializada en carrera y productividad. Escribe sobre aceleración profesional, hábitos de alta performance y estrategias financieras inteligentes para quienes quieren crecer rápido y con propósito.