๐ Por que 70/20/10 e nao 50/30/20
A proporcao espelha a distribuicao real de tarefas em projetos. Forcar outra divisao desperdica modelos caros em tarefas que nao pedem.
๐ A distribuicao real do trabalho
- โข~70% implementacao mecanica (componentes, testes, refactor)
- โข~20% raciocinio nao-trivial (arquitetura, debug, decisoes)
- โข~10% criatividade e julgamento (UX, copy, polimento)
โฑ๏ธ Como medir esses percentuais na pratica
A regra se aplica em tokens de saida, nao em numero de chamadas. DeepSeek consome muito mais token gerando codigo do que GPT consome planejando.
๐งฎ Exemplo numerico
Em 1 feature media:
- โข GPT-5.5 plano: 5 chamadas, 8k tokens
- โข Opus polimento: 2 chamadas, 4k tokens
- โข DeepSeek codigo: 30 chamadas, 60k tokens
Em chamadas: 81% / 14% / 5%. Em tokens: 83% / 11% / 6%. Proximo de 80/15/5 โ perfeitamente saudavel para uma feature.
๐ฐ Calculo de custo: exemplo real
Projeto de 1M tokens de saida. Numeros lado a lado.
| Setup | Custo | Calculo |
|---|---|---|
| Single-Opus | $75.00 | 1M ร $75/M |
| Single-GPT 5.5 | $30.00 | 1M ร $30/M |
| Single-DeepSeek | $1.20 | 1M ร $1.20/M (sem revisao = bugs) |
| 70/20/10 | $10.84 | 0.7M ร $1.20 + 0.2M ร $30 + 0.1M ร $75 |
๐ก A licao
70/20/10 entrega ~7x mais barato que single-Opus, com qualidade equivalente. E ~9x mais qualidade que single-DeepSeek puro (que vem com bugs).
๐ง Quando ajustar para 60/30/10 ou 80/15/5
A regra nao e dogma. Calibre para o risco e a natureza do projeto.
50/40/10
Sistemas criticos
Banco, saude, infra. Mais GPT-5.5 para reduzir risco. Custo mais alto, mas justificado.
70/20/10
Padrao
SaaS consumer, app medio, MVP. Sweet spot entre custo, velocidade e qualidade.
85/10/5
Volume
Geracao de docs, posts, traducao, scripts. Risco baixo, volume alto. DeepSeek domina.
๐จ Sinais de que voce esta usando errado
Diagnosticar pela "dor" te leva ao ajuste certo. Cada sintoma aponta para um vertice.
โ ๏ธ Sinais e ajustes
๐ Evolucao: comecar conservador, ir migrando
Pular direto para 70/20/10 sem treino faz voce ter sustos com bugs e voltar para single-model. Adocao em fases mantem confianca.
Semana 1-2: 50/30/20
Comece dependendo mais de Opus. Use DeepSeek so em tarefas ja conhecidas. Ganhe confianca observando que funciona.
Semana 3-4: 60/25/15
Migre testes e refatoracoes para DeepSeek. Mantenha plano sempre em GPT-5.5. Comece a sentir a economia.
Mes 2+: 70/20/10 โ
Voce ja sabe quando subir para modelo caro e quando ficar no DeepSeek. A intuicao e automatica.
๐ Resumo do Modulo
Proximo Modulo:
1.4 โ ๐ฏ Quando usar cada modelo