🎓 Casos de Uso e Aplicações
Explorar aplicações reais do Unitree G1 em pesquisa, indústria, educação e casos de uso emergentes.
🔬 Pesquisa Acadêmica
Universidades Usando G1
Instituições Conhecidas (2024):
-
MIT - Massachusetts Institute of Technology (USA)
- Quantidade: 2 unidades (Standard)
- Projeto: Navegação autônoma em ambientes complexos
- Publicações: 3 papers em ICRA 2024
-
Universidade de São Paulo (USP) (Brasil)
- Quantidade: 3 unidades (1 EDU, 2 Standard)
- Projeto: Manipulação bi-manual com aprendizado por reforço
- Lab: LAR - Laboratório de Automação e Robótica
-
Tsinghua University (China)
- Quantidade: 8 unidades (mix)
- Projeto: Coordenação multi-robô para busca e resgate
- Funding: National Natural Science Foundation
-
ETH Zurich (Suíça)
- Quantidade: 2 unidades (Advanced)
- Projeto: Locomoção em terrenos extremos
- Lab: Robotic Systems Lab
Áreas de Pesquisa
- Locomoção
- Manipulação
- Interação Humano-Robô
Pesquisa: Gait Optimization
# Exemplo: Otimizar marcha para eficiência energética
# Paper: "Energy-Efficient Bipedal Locomotion via RL" (MIT, 2024)
import gym
from stable_baselines3 import PPO
# Ambiente customizado
env = gym.make('UnitreeG1Walk-v0')
# Recompensa: -energia_gasta + velocidade
def reward_function(state, action, next_state):
power = sum(abs(torque * velocity) for torque, velocity in zip(action, state.joint_velocities))
speed = next_state.linear_velocity
return speed - 0.1 * power # Balance speed vs energy
# Treinar política
model = PPO('MlpPolicy', env)
model.learn(total_timesteps=5_000_000)
# Resultado: 30% menos energia para mesma velocidade
Publicações Relevantes:
- "Learning Agile Locomotion on Unitree G1" (2024)
- "Robust Bipedal Walking via Model Predictive Control" (2024)
- "Terrain Adaptation through Proprioceptive Feedback" (2024)
Pesquisa: Bi-Manual Manipulation
# Projeto: Pegar objeto com duas mãos simultaneamente
# USP - Laboratório de Automação e Robótica
from unitree_sdk import Robot
import numpy as np
def bimanual_grasp(robot, object_position):
"""
Coordenar braços L/R para pegar objeto grande
"""
# Planejar trajetórias simétricas
traj_left = plan_trajectory(
start=robot.arm_left.get_ee_pose(),
goal=object_position + np.array([0, 0.15, 0]), # 15cm esquerda
)
traj_right = plan_trajectory(
start=robot.arm_right.get_ee_pose(),
goal=object_position + np.array([0, -0.15, 0]), # 15cm direita
)
# Executar sincronizado
for left_wp, right_wp in zip(traj_left, traj_right):
robot.arm_left.move_to(left_wp)
robot.arm_right.move_to(right_wp)
time.sleep(0.01)
# Fechar garras simultaneamente
robot.hand_left.close(force=5.0)
robot.hand_right.close(force=5.0)
# Resultado: 95% taxa sucesso em pegar caixas até 5kg
Desafios:
- Sincronização precisa (< 10ms offset)
- Força balanceada (evitar objeto escorregar)
- Collision avoidance (braços não se tocam)
Pesquisa: Natural Language Commands
# Projeto: Controle por voz em português
# UFMG - Universidade Federal de Minas Gerais
from transformers import pipeline
import speech_recognition as sr
# LLM para interpretar comandos
llm = pipeline('text-generation', model='maritaca-ai/sabia-7b')
# Reconhecimento de voz
recognizer = sr.Recognizer()
def voice_control_loop():
while True:
# Ouvir comando
with sr.Microphone() as source:
audio = recognizer.listen(source)
try:
text = recognizer.recognize_google(audio, language='pt-BR')
print(f"Ouviu: {text}")
# LLM interpreta intenção
prompt = f"""
Comando do usuário: "{text}"
Traduza para ação do robô. Responda em JSON:
{{"action": "walk/grab/wave/sit", "parameters": {{...}}}}
"""
response = llm(prompt, max_length=100)[0]['generated_text']
action = json.loads(response)
# Executar
execute_action(robot, action)
except Exception as e:
print(f"Erro: {e}")
# Exemplos funcionais:
# "Ande para frente 2 metros" → walk(distance=2.0)
# "Pegue o copo vermelho" → detect('copo', color='vermelho') + grab()
# "Acene para mim" → pose('wave')
Taxa de Sucesso (paper UFMG):
- Comandos simples: 92%
- Comandos complexos: 67%
- Ambiguidade resolvida via diálogo
🏭 Aplicações Industriais
Casos de Uso Reais
- Inspeção Industrial
- Logística/Warehouse
- Hospitalidade
Empresa: Petrobras (Brasil) Aplicação: Inspeção de equipamentos em refinaria
Problema:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Inspeção manual de medidores/válvulas em altura:
- Risco para operadores humanos
- Acesso difícil (andaimes, escadas)
- Demorado (4h por turno)
Solução com G1:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1. Navegação autônoma até equipamento
2. Câmera frontal lê displays/medidores
3. OCR extrai valores
4. Braço tira fotos detalhadas se anomalia
5. Reporta via WiFi para sala de controle
Resultados (6 meses teste):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
✅ Tempo reduzido: 4h → 1.5h (62.5%)
✅ Zero acidentes (vs 2 lesões/ano com humanos)
✅ Anomalias detectadas: +30% (vs inspeção manual)
✅ ROI: Payback em 18 meses
Código Simplificado:
# inspection_route.py
waypoints = [
(10, 5, 'Medidor pressão A'),
(15, 5, 'Válvula 23B'),
(15, 10, 'Compressor C1'),
# ... 50 pontos totais
]
for x, y, name in waypoints:
# Navegar
robot.navigate_to(x, y)
# Capturar imagem
img = robot.camera_front.read()
# OCR
text = ocr_engine(img)
value = extract_number(text)
# Comparar com baseline
if abs(value - expected_value) > threshold:
print(f"⚠️ Anomalia em {name}: {value} (esperado {expected_value})")
# Foto detalhada
robot.arm_right.point_at_camera()
detailed_img = robot.camera_front.read_hires()
send_to_operator(detailed_img, name)
# Retornar à base
robot.navigate_to(0, 0)
robot.charge()
Empresa: Mercado Livre (Argentina) Aplicação: Picking de produtos leves
Problema:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Centro de distribuição:
- Produtos espalhados em estantes (1.8m altura)
- Picking manual cansativo
- Pico: Black Friday (10x demanda)
Solução com G1:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1. Recebe lista de produtos via WiFi
2. Navega até estante
3. Detecta produto (YOLO + código de barras)
4. Pega com braço (altura até 1.8m)
5. Coloca em carrinho que segue robô
6. Repete até lista completa
Configuração:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• 2x G1 Standard (operação 24/7 revezamento)
• Carrinhos móveis autônomos (seguem G1 via Lidar)
• Sistema WMS integrado
Resultados (1 ano):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
✅ Produtividade: +40% vs humano
✅ Acurácia: 99.2% (vs 95% humano)
✅ Trabalham 22h/dia (2h manutenção/carga)
✅ Custo: $0.80/hora (vs $8/hora humano)
Limitações:
- ❌ Payload 3kg (só produtos leves - eletrônicos, livros)
- ❌ Requer estantes padronizadas (acessibilidade)
- ✅ Para payloads maiores, usar Agility Digit
Hotel: Hyatt Regency (Tóquio, Japão) Aplicação: Concierge robótico
Serviços Oferecidos:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1. Guiar hóspedes até quarto
• Carrega 1 mala (3kg max)
• Conversa durante trajeto (LLM)
2. Room service delivery
• Comida/bebidas leves
• Bate na porta, espera hóspede abrir
3. Informações turísticas
• "Onde fica a estação de metrô?"
• Mostra mapa no tablet preso ao torso
4. Entretenimento (lobby)
• Dance performances
• Tira selfies com crianças
Feedback Hóspedes (6 meses):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
⭐⭐⭐⭐⭐ (4.7/5.0)
• "Muito fofo!"
• "Crianças adoraram"
• "Pontual (vs humanos)"
• Crítica: "Ainda um pouco lento"
Impacto Negócio:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
✅ Menções na mídia (+20% reservas)
✅ Instagram/TikTok viralização
✅ Redução custo operacional (-10%)
🎓 Educação
Cursos Universitários com G1
- MIT Course
- USP - Projeto
- Ensino Médio
Curso: 6.8210 - Underactuated Robotics Professor: Russ Tedrake (Toyota Research Institute)
Estrutura do Curso (12 semanas):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Semanas 1-4: Teoria
├─ Dinâmica de sistemas robóticos
├─ Controle ótimo (LQR, MPC)
└─ Stabilization de sistemas underactuated
Semanas 5-8: Simulação
├─ Modelagem G1 em Drake (Python)
├─ Implementar controlador
└─ Testar em sim (Gazebo)
Semanas 9-12: Hardware (G1 real!)
├─ Transferir controlador para G1
├─ Refinar com dados reais
└─ Projeto final: Caminhada em terreno inclinado
Projeto Final (grupos de 3):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Objetivo: G1 andar em rampa 15° sem cair
Avaliação:
• 40% - Estabilidade (não cai)
• 30% - Eficiência energética
• 20% - Velocidade
• 10% - Relatório técnico
Exemplo vencedor (2024):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Team: "Bipedal Wizards"
Abordagem: MPC com predição de terreno via LIDAR
Resultado:
✅ 15° rampa, sem quedas (20 tentativas)
✅ 0.8 m/s velocidade mantida
✅ 15% menos energia que baseline
Disciplina: PMR3401 - Robótica Móvel Universidade de São Paulo - Escola Politécnica
Projeto Semestral:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
"Sistema de Navegação Autônoma Indoor"
Etapas:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1. Mapeamento (SLAM)
└─ Mapear laboratório com LIDAR
└─ Criar mapa 2D ocupancy grid
2. Localização (AMCL)
└─ Localizar robô no mapa
└─ Filtro de partículas
3. Planejamento (Nav2)
└─ Planejar caminho livre de obstáculos
└─ A* + DWA planner
4. Controle
└─ Seguir trajetória
└─ Evitar obstáculos dinâmicos
5. Demonstração Final
└─ Robô navega de sala A → sala B
└─ Evita pessoas andando
└─ Chega em <5 min
Ferramentas:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• ROS2 Humble
• Nav2 stack
• Gazebo (sim) + G1 (hardware)
• Python/C++
Resultado Típico:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Taxa de sucesso: 85%
Tempo médio: 3.5 min
Colisões: <1% das tentativas
Programa: FIRST Robotics (adaptado para humanoides) Local: EUA, alguns times elite
Competição: "Humanoid Helper Challenge"
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Objetivo: Robô completa tarefas domésticas
Tarefas (pontos):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1. Pegar objeto de mesa (10 pts)
2. Colocar objeto em cesta (15 pts)
3. Abrir porta (20 pts) ← Difícil!
4. Subir 1 degrau (25 pts)
5. Autonomia (+10 pts se 100% autônomo)
Restrições:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• 3 minutos total
• Budget: $30k (G1 EDU cabe!)
• Safety: E-stop sempre acessível
Times Participantes (2024):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• 12 times (USA)
• Maioria usa G1 EDU ($16k)
• Alguns usam Digit ($$$)
Vencedor 2024:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Team 9999 - "BipedBots"
Pontuação: 68/70 pts
Estratégia:
• Treinou rede neural em sim (1M episodes)
• Transferiu para G1 real
• 95% autonomia
Impacto Estudantes:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
"G1 deixou robótica humanoide acessível para high school.
Antes, só faculdades tinham verba." - Mentor Team 9999
🌟 Casos Emergentes
Aplicações Inovadoras
- Arte e Performance
- Cuidado de Idosos
- Treinamento Espacial
Artista: Huang Yi (Taiwan) Projeto: "Human + G1 Contemporary Dance"
Coreografia:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• Humano dançarino + G1 sincronizados
• G1 segue movimentos via motion capture
• Latência < 100ms
Setup Técnico:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1. Vicon MoCap (30 câmeras IR)
2. Captura esqueleto humano (realtime)
3. Mapeia para joints do G1
4. G1 replica movimentos
Performances:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• Taipei Arts Festival 2024
• 800+ espectadores
• Standing ovation
Crítica:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
"Mesmerizante ver humano e máquina
em harmonia perfeita. Questiona
o que significa ser humano."
- NY Times Arts Review
Projeto Piloto: Silver Care (Japão) Parceiro: Ministry of Health, Labour and Welfare
Problema:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• Japão: 28% população <65 anos
• Falta de cuidadores (aging population)
• Idosos isolados em casa
Solução com G1:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1. Companhia
• Conversa (LLM em japonês)
• Joga shogi (xadrez japonês)
• Lembra de tomar remédios
2. Assistência Física
• Pega objetos que caíram
• Traz copo d'água
• Abre porta para visitantes
3. Monitoramento
• Detecta quedas (câmera)
• Alerta família se anomalia
• Telemetria para enfermeiros
Piloto (50 lares, 6 meses):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Satisfação: 78% idosos "muito satisfeitos"
Redução solidão: -40% (escala UCLA)
Incidentes: 2 quedas detectadas, ajuda solicitada
Desafios:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• Interface simples (idosos não tech-savvy)
• Confiança (medo de robôs)
• Custo ($27k ainda caro para maioria)
Futuro:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Governo subsídio planejado:
$15k/unidade para famílias baixa renda
Meta: 10,000 unidades até 2027
Agência: ESA (European Space Agency) Projeto: Mars Analog Mission
Objetivo:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Testar humanoides para missões Marte/Lua
Por Que Humanoides?
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• Ferramentas projetadas para humanos
• Veículos/habitats antropomórficos
• Backup para astronautas
Setup:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• Base análoga Marte (deserto Nevada)
• G1 com upgrade:
├─ Dust-resistant (IP54)
├─ Temperatura extrema (-40°C a +60°C)
├─ Solar panel backpack (+2h autonomia)
└─ Satcom antenna (simula delay Terra-Marte)
Tarefas Testadas:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1. Coletar amostras geológicas
2. Reparar painel solar (manipulação)
3. Caminhar 5km (navegação longa distância)
4. Entrar/sair rover (mobilidade)
Resultados (preliminares):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
✅ 3/4 tarefas completadas
❌ Entrar rover: Falhou (espaço apertado)
⚠️ Bateria: Requer swaps a cada 3h
Conclusão ESA:
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
"Humanoides promissores mas ainda
5-10 anos de desenvolvimento para
missões reais. G1 é excelente
plataforma de pesquisa."