Upload LeRobot - huggin face.mp4 (1).mp4
Browse filesTítulo do Projeto: Robótica Resiliente: Superando Desafios para a Teleoperação de um Braço Manipulador em Simulação
Integração de outros modelos de hardware com o framework LeRobot.
Em nosso exemplo, integramos o projeto MeArm, composto de quatro servo motores SG90 e uma controladora Arduino.
Os Obstáculos que Enfrentei (e Superei!):
Guerras de Dependência e ModuleNotFoundError: Mesmo com "Factory Resets" e um novo notebook, enfrentei um inferno de dependências e erros como ModuleNotFoundError: No module named 'pyvirtualdisplay' ou cannot import name 'load_from_hub'. Isso me obrigou a entender profundamente como o Colab gerencia ambientes e a garantir que todas as bibliotecas fossem instaladas e importadas na ordem correta, dentro da mesma célula.
Modelos "Perdidos" no Hugging Face (404 Client Error): Meu maior inimigo foram os erros 404 Not Found ao tentar baixar qualquer modelo pré-treinado do Hugging Face Hub (ppo, tqc, a2c, her). Era como se os arquivos tivessem sumido do servidor, mesmo com meu HF_TOKEN configurado e o login bem-sucedido. Cada tentativa (via load_from_hub ou wget com validação de ZIP) resultava em arquivos corrompidos ou downloads de 0 bytes (páginas HTML de erro). Isso nos impediu de usar qualquer inteligência pré-existente.
Renderização Teimosa (DISPLAY e gladLoadGL): Para o MuJoCo funcionar no Colab e gerar um vídeo, o ambiente precisa de um "display virtual". Lutei contra erros como 'X11: The DISPLAY environment variable is missing' e gladLoadGL error, que me forçaram a integrar e depurar o pyvirtualdisplay de forma robusta.
Atingimos um ponto onde, o máximo que conseguíamos, era um robô que se movia aleatoriamente (parecia até 'bugado' no vídeo!). Mas mesmo isso já era uma vitória, pois provava que o ambiente MuJoCo e a física estavam rodando, apesar de todas as falhas.
Nossa Conquista Final: Teleoperação e Controle Humano-em-Loop
Não aceitei parar no robô aleatório. Com o tempo estendido, decidimos focar em um entregável que realmente mostrasse nosso controle e a funcionalidade do ambiente: a teleoperação. Implementei um sistema para que o robô pudesse ser controlado diretamente pelo teclado no próprio notebook do Colab.
No vídeo abaixo, vocês verão a prova de tudo isso. Vocês verão o braço robótico no ambiente FetchPickAndPlace-v3 sendo controlado em tempo real por mim (ou pelo meu colega!). Usando as teclas do teclado, somos capazes de mover o braço e controlar a garra, tentando a tarefa de pegar e mover o bloco.
O que este vídeo demonstra:
Ambiente de Simulação Funcional: O robô e seu ambiente MuJoCo estão perfeitamente carregados e operacionais.
Controle Direto e Interativo: O robô responde aos comandos humanos em tempo real, validando o conceito de "Human-In-the-Loop".
Física Realista: O bloco (ponto vermelho) reage realisticamente às interações com a garra, provando a simulação de física.
Resiliência Técnica: Este projeto é um testemunho da nossa capacidade de depurar problemas complexos, adaptar estratégias (do gym-hil para o Colab, de modelos pré-treinados para teleoperação) e persistir até conseguir um entregável funcional, mesmo diante de falhas críticas de infraestrutura e recursos externos.
Próximos Passos (se houvesse mais tempo):
Com uma base funcional de teleoperação, o próximo passo seria usar essa capacidade para coletar demonstrações de sucesso (e falha) e treinar um agente de Reinforcement Learning de forma autônoma. Gostaríamos de ter explorado tarefas mais complexas, como a separação de lixo por cores em ambientes customizados, utilizando visão computacional.
Código que Utilizei para a Teleoperação (e que gerou o vídeo):
(Você pode colar o código da "Célula Única Final" aqui. Use <details><summary>Clique para ver o código</summary>...o código aqui...</details> para não sobrecarregar a página do projeto)
# ===================================================================
# CÉLULA ÚNICA FINAL: INSTALAÇÃO, SETUP E TELEOPERAÇÃO DO ROBÔ
# (VERSÃO AJUSTADA PARA ERROS DE DEPENDÊNCIA E RENDERIZAÇÃO)
# ===================================================================
# Este código foi o resultado de uma longa jornada de depuração e resiliência.
# Ele instala todas as dependências, configura um display virtual para renderização,
# e permite controlar um robô FetchPickAndPlace-v3 em tempo real via teclado,
# gravando a sessão em um vídeo MP4.
# ===================================================================
print("🚀 INICIANDO O PLANO FINAL: Instalação e execução em uma única célula para o hackathon...")
# --- 1. Instalação de Bibliotecas Python e Dependências do Sistema ---
print(" Instalando bibliotecas Python e dependências do sistema... (Isso pode levar ~2-3 minutos)")
# Desinstalação explícita para garantir instalação limpa de huggingface_hub
!pip uninstall -y huggingface_hub
# Instalação das dependências principais, garantindo huggingface_hub em versão compatível
!pip install -q gymnasium[mujoco] gymnasium-robotics moviepy pyvirtualdisplay ipywidgets stable_baselines3 huggingface_hub>=0.15.0 huggingface_sb3
# Instalação de dependências do sistema para renderização (Xvfb e FFmpeg)
!apt-get update -qq && !apt-get install -y -q xvfb ffmpeg > /dev/null
print(" ✅ Instalações concluídas.")
# --- 2. Importações Necessárias ---
from pyvirtualdisplay import Display
import numpy as np
import gymnasium as gym
import gymnasium_robotics
from stable_baselines3.common.env_util import make_vec_env
from stable_baselines3.common.vec_env import VecVideoRecorder
import os
# Para interação via teclado no Colab
import ipywidgets as widgets
from IPython.display import display as ipy_display, HTML
from threading import Thread, Lock
import time
# --- 3. Configuração do Display Virtual (ESSENCIAL para MuJoCo no Colab) ---
print("\n🖥️ Configurando display virtual para renderização do robô...")
display = None
try:
display = Display(visible=0, size=(1400, 900))
display.start()
print(" ✅ Display virtual configurado e iniciado.")
except Exception as e:
print(f" ❌ ERRO GRAVE: Falha ao configurar o display virtual: {e}")
print(" Não será possível renderizar o vídeo do robô. A execução será interrompida.")
raise Exception("Falha crítica na configuração do display virtual.")
# --- 4. Parâmetros do Ambiente e Vídeo ---
ENV_ID = "FetchPickAndPlace-v3"
VIDEO_FILENAME_PREFIX = "teleoperacao_robo_garra"
video_folder = "videos/"
video_length = 1000 # Duração do vídeo em passos (aprox. 40-50 segundos)
# --- 5. Configurando o Ambiente de Simulação ---
print(f"\n🤖 Carregando o ambiente de simulação '{ENV_ID}'...")
env = make_vec_env(ENV_ID, n_envs=1, env_kwargs=dict(render_mode="rgb_array"))
# --- 6. Configurando o Gravador de Vídeo ---
print(f" Configurando gravador de vídeo na pasta '{video_folder}'...")
env = VecVideoRecorder(env, video_folder,
record_video_trigger=lambda x: x == 0,
video_length=video_length,
name_prefix=VIDEO_FILENAME_PREFIX)
# --- 7. Lógica de Teleoperação por Teclado ---
print("\n⌨️ Configurando teleoperação por teclado...")
# Define os valores de controle para o vetor de ação [delta_x, delta_y, delta_z, delta_gripper]
action_value = np.zeros(env.action_space.shape[0])
action_lock = Lock() # Para proteger o acesso à action_value de múltiplos threads
speed = 0.05 # Velocidade de movimento do braço
gripper_speed = 0.05 # Velocidade da garra
# Função para manipular a ação baseada na tecla pressionada
def on_key_event(event):
global action_value
with action_lock:
# Reseta a ação para não continuar movendo indefinidamente após soltar a tecla
action_value[:] = 0.0
# Movimento XY
if event['key'] == 'w': action_value[0] = speed
elif event['key'] == 's': action_value[0] = -speed
elif event['key'] == 'a': action_value[1] = speed
elif event['key'] == 'd': action_value[1] = -speed
# Movimento Z (para cima/baixo)
elif event['key'] == 'q': action_value[2] = speed
elif event['key'] == 'e': action_value[2] = -speed
# Controle da garra (abrir/fechar)
elif event['key'] == 'z': action_value[3] = gripper_speed # Abrir garra
elif event['key'] == 'x': action_value[3] = -gripper_speed # Fechar garra
# Cria um widget de texto para capturar eventos de teclado
text_area = widgets.Textarea(
value='',
placeholder='Clique aqui e use as teclas W,A,S,D (XY), Q,E (Z), Z,X (Garra)',
description='Controle:',
disabled=False,
layout=widgets.Layout(width='auto', height='auto')
)
# Renderiza o widget para o notebook
ipy_display(text_area)
# Conecta o evento de teclado
text_area.on_msg(lambda widget, content, buffers: on_key_event(content))
# --- 8. Loop Principal de Simulação e Gravação ---
print("\n🎬 INICIANDO SIMULAÇÃO. Clique na caixa de texto acima para ativar o controle do teclado!")
print(" Pressione W,A,S,D para mover o braço (XY). Q,E para cima/baixo. Z para abrir a garra, X para fechar.")
print(" Você terá cerca de 40-50 segundos de gravação. Tente pegar o bloco e movê-lo!")
obs = env.reset()
task_succeeded = False
try:
for step in range(video_length + 1):
with action_lock:
current_action = action_value.copy() # Pega a ação atual do teclado
obs, _, _, info = env.step(np.array([current_action])) # Envia a ação para o ambiente
if info[0].get('is_success'):
print(f" 🏆 TAREFA CONCLUÍDA! O robô completou a tarefa em {step} passos.")
task_succeeded = True
break
time.sleep(0.02) # Pequeno delay para controlar a velocidade da simulação
except Exception as e:
print(f"\n❌ ERRO DURANTE A SIMULAÇÃO: {e}")
print(" A simulação pode ter falhado inesperadamente.")
finally:
env.close()
print("\n🎉 Simulação finalizada!")
if task_succeeded:
print(" �
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:a4804f7041250b0b278e1bb9b9439a072fb7ce795dc2941a2fbc44f29e5a9411
|
| 3 |
+
size 16459835
|