Datasets:

Modalities:
Video
Size:
< 1K
Libraries:
Datasets
License:
rossatti commited on
Commit
1d47799
·
verified ·
1 Parent(s): 9a0b483

Upload LeRobot - huggin face.mp4 (1).mp4

Browse files

Título do Projeto: Robótica Resiliente: Superando Desafios para a Teleoperação de um Braço Manipulador em Simulação


Integração de outros modelos de hardware com o framework LeRobot.
Em nosso exemplo, integramos o projeto MeArm, composto de quatro servo motores SG90 e uma controladora Arduino.
Os Obstáculos que Enfrentei (e Superei!):
Guerras de Dependência e ModuleNotFoundError: Mesmo com "Factory Resets" e um novo notebook, enfrentei um inferno de dependências e erros como ModuleNotFoundError: No module named 'pyvirtualdisplay' ou cannot import name 'load_from_hub'. Isso me obrigou a entender profundamente como o Colab gerencia ambientes e a garantir que todas as bibliotecas fossem instaladas e importadas na ordem correta, dentro da mesma célula.
Modelos "Perdidos" no Hugging Face (404 Client Error): Meu maior inimigo foram os erros 404 Not Found ao tentar baixar qualquer modelo pré-treinado do Hugging Face Hub (ppo, tqc, a2c, her). Era como se os arquivos tivessem sumido do servidor, mesmo com meu HF_TOKEN configurado e o login bem-sucedido. Cada tentativa (via load_from_hub ou wget com validação de ZIP) resultava em arquivos corrompidos ou downloads de 0 bytes (páginas HTML de erro). Isso nos impediu de usar qualquer inteligência pré-existente.
Renderização Teimosa (DISPLAY e gladLoadGL): Para o MuJoCo funcionar no Colab e gerar um vídeo, o ambiente precisa de um "display virtual". Lutei contra erros como 'X11: The DISPLAY environment variable is missing' e gladLoadGL error, que me forçaram a integrar e depurar o pyvirtualdisplay de forma robusta.
Atingimos um ponto onde, o máximo que conseguíamos, era um robô que se movia aleatoriamente (parecia até 'bugado' no vídeo!). Mas mesmo isso já era uma vitória, pois provava que o ambiente MuJoCo e a física estavam rodando, apesar de todas as falhas.
Nossa Conquista Final: Teleoperação e Controle Humano-em-Loop
Não aceitei parar no robô aleatório. Com o tempo estendido, decidimos focar em um entregável que realmente mostrasse nosso controle e a funcionalidade do ambiente: a teleoperação. Implementei um sistema para que o robô pudesse ser controlado diretamente pelo teclado no próprio notebook do Colab.
No vídeo abaixo, vocês verão a prova de tudo isso. Vocês verão o braço robótico no ambiente FetchPickAndPlace-v3 sendo controlado em tempo real por mim (ou pelo meu colega!). Usando as teclas do teclado, somos capazes de mover o braço e controlar a garra, tentando a tarefa de pegar e mover o bloco.
O que este vídeo demonstra:
Ambiente de Simulação Funcional: O robô e seu ambiente MuJoCo estão perfeitamente carregados e operacionais.
Controle Direto e Interativo: O robô responde aos comandos humanos em tempo real, validando o conceito de "Human-In-the-Loop".
Física Realista: O bloco (ponto vermelho) reage realisticamente às interações com a garra, provando a simulação de física.
Resiliência Técnica: Este projeto é um testemunho da nossa capacidade de depurar problemas complexos, adaptar estratégias (do gym-hil para o Colab, de modelos pré-treinados para teleoperação) e persistir até conseguir um entregável funcional, mesmo diante de falhas críticas de infraestrutura e recursos externos.
Próximos Passos (se houvesse mais tempo):
Com uma base funcional de teleoperação, o próximo passo seria usar essa capacidade para coletar demonstrações de sucesso (e falha) e treinar um agente de Reinforcement Learning de forma autônoma. Gostaríamos de ter explorado tarefas mais complexas, como a separação de lixo por cores em ambientes customizados, utilizando visão computacional.
Código que Utilizei para a Teleoperação (e que gerou o vídeo):
(Você pode colar o código da "Célula Única Final" aqui. Use <details><summary>Clique para ver o código</summary>...o código aqui...</details> para não sobrecarregar a página do projeto)
# ===================================================================
# CÉLULA ÚNICA FINAL: INSTALAÇÃO, SETUP E TELEOPERAÇÃO DO ROBÔ
# (VERSÃO AJUSTADA PARA ERROS DE DEPENDÊNCIA E RENDERIZAÇÃO)
# ===================================================================
# Este código foi o resultado de uma longa jornada de depuração e resiliência.
# Ele instala todas as dependências, configura um display virtual para renderização,
# e permite controlar um robô FetchPickAndPlace-v3 em tempo real via teclado,
# gravando a sessão em um vídeo MP4.
# ===================================================================

print("🚀 INICIANDO O PLANO FINAL: Instalação e execução em uma única célula para o hackathon...")

# --- 1. Instalação de Bibliotecas Python e Dependências do Sistema ---
print(" Instalando bibliotecas Python e dependências do sistema... (Isso pode levar ~2-3 minutos)")
# Desinstalação explícita para garantir instalação limpa de huggingface_hub
!pip uninstall -y huggingface_hub
# Instalação das dependências principais, garantindo huggingface_hub em versão compatível
!pip install -q gymnasium[mujoco] gymnasium-robotics moviepy pyvirtualdisplay ipywidgets stable_baselines3 huggingface_hub>=0.15.0 huggingface_sb3

# Instalação de dependências do sistema para renderização (Xvfb e FFmpeg)
!apt-get update -qq && !apt-get install -y -q xvfb ffmpeg > /dev/null
print(" ✅ Instalações concluídas.")


# --- 2. Importações Necessárias ---
from pyvirtualdisplay import Display
import numpy as np
import gymnasium as gym
import gymnasium_robotics
from stable_baselines3.common.env_util import make_vec_env
from stable_baselines3.common.vec_env import VecVideoRecorder
import os

# Para interação via teclado no Colab
import ipywidgets as widgets
from IPython.display import display as ipy_display, HTML
from threading import Thread, Lock
import time


# --- 3. Configuração do Display Virtual (ESSENCIAL para MuJoCo no Colab) ---
print("\n🖥️ Configurando display virtual para renderização do robô...")
display = None
try:
display = Display(visible=0, size=(1400, 900))
display.start()
print(" ✅ Display virtual configurado e iniciado.")
except Exception as e:
print(f" ❌ ERRO GRAVE: Falha ao configurar o display virtual: {e}")
print(" Não será possível renderizar o vídeo do robô. A execução será interrompida.")
raise Exception("Falha crítica na configuração do display virtual.")


# --- 4. Parâmetros do Ambiente e Vídeo ---
ENV_ID = "FetchPickAndPlace-v3"
VIDEO_FILENAME_PREFIX = "teleoperacao_robo_garra"
video_folder = "videos/"
video_length = 1000 # Duração do vídeo em passos (aprox. 40-50 segundos)


# --- 5. Configurando o Ambiente de Simulação ---
print(f"\n🤖 Carregando o ambiente de simulação '{ENV_ID}'...")
env = make_vec_env(ENV_ID, n_envs=1, env_kwargs=dict(render_mode="rgb_array"))


# --- 6. Configurando o Gravador de Vídeo ---
print(f" Configurando gravador de vídeo na pasta '{video_folder}'...")
env = VecVideoRecorder(env, video_folder,
record_video_trigger=lambda x: x == 0,
video_length=video_length,
name_prefix=VIDEO_FILENAME_PREFIX)


# --- 7. Lógica de Teleoperação por Teclado ---
print("\n⌨️ Configurando teleoperação por teclado...")

# Define os valores de controle para o vetor de ação [delta_x, delta_y, delta_z, delta_gripper]
action_value = np.zeros(env.action_space.shape[0])
action_lock = Lock() # Para proteger o acesso à action_value de múltiplos threads

speed = 0.05 # Velocidade de movimento do braço
gripper_speed = 0.05 # Velocidade da garra

# Função para manipular a ação baseada na tecla pressionada
def on_key_event(event):
global action_value
with action_lock:
# Reseta a ação para não continuar movendo indefinidamente após soltar a tecla
action_value[:] = 0.0

# Movimento XY
if event['key'] == 'w': action_value[0] = speed
elif event['key'] == 's': action_value[0] = -speed
elif event['key'] == 'a': action_value[1] = speed
elif event['key'] == 'd': action_value[1] = -speed

# Movimento Z (para cima/baixo)
elif event['key'] == 'q': action_value[2] = speed
elif event['key'] == 'e': action_value[2] = -speed

# Controle da garra (abrir/fechar)
elif event['key'] == 'z': action_value[3] = gripper_speed # Abrir garra
elif event['key'] == 'x': action_value[3] = -gripper_speed # Fechar garra

# Cria um widget de texto para capturar eventos de teclado
text_area = widgets.Textarea(
value='',
placeholder='Clique aqui e use as teclas W,A,S,D (XY), Q,E (Z), Z,X (Garra)',
description='Controle:',
disabled=False,
layout=widgets.Layout(width='auto', height='auto')
)

# Renderiza o widget para o notebook
ipy_display(text_area)

# Conecta o evento de teclado
text_area.on_msg(lambda widget, content, buffers: on_key_event(content))


# --- 8. Loop Principal de Simulação e Gravação ---
print("\n🎬 INICIANDO SIMULAÇÃO. Clique na caixa de texto acima para ativar o controle do teclado!")
print(" Pressione W,A,S,D para mover o braço (XY). Q,E para cima/baixo. Z para abrir a garra, X para fechar.")
print(" Você terá cerca de 40-50 segundos de gravação. Tente pegar o bloco e movê-lo!")

obs = env.reset()
task_succeeded = False

try:
for step in range(video_length + 1):
with action_lock:
current_action = action_value.copy() # Pega a ação atual do teclado

obs, _, _, info = env.step(np.array([current_action])) # Envia a ação para o ambiente

if info[0].get('is_success'):
print(f" 🏆 TAREFA CONCLUÍDA! O robô completou a tarefa em {step} passos.")
task_succeeded = True
break

time.sleep(0.02) # Pequeno delay para controlar a velocidade da simulação

except Exception as e:
print(f"\n❌ ERRO DURANTE A SIMULAÇÃO: {e}")
print(" A simulação pode ter falhado inesperadamente.")
finally:
env.close()

print("\n🎉 Simulação finalizada!")
if task_succeeded:
print(" �

Files changed (1) hide show
  1. LeRobot - huggin face.mp4 (1).mp4 +3 -0
LeRobot - huggin face.mp4 (1).mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a4804f7041250b0b278e1bb9b9439a072fb7ce795dc2941a2fbc44f29e5a9411
3
+ size 16459835