Hjgugugjhuhjggg commited on
Commit
429ebd7
verified
1 Parent(s): ff120f8

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -13
app.py CHANGED
@@ -15,7 +15,6 @@ class PromptRequest(BaseModel):
15
  # Ruta principal para ejecutar el modelo
16
  @app.post("/generate/")
17
  async def generate_text(request: PromptRequest):
18
- # Especificar las rutas del modelo y tokenizador
19
  model_path = "/content/executorch/Llama-3.2-1B-Instruct-SpinQuant_INT4_EO8.pte"
20
  tokenizer_path = "/content/executorch/tokenizer.model"
21
 
@@ -53,25 +52,26 @@ def run_llama_model(model_path, tokenizer_path, prompt):
53
  cmd = f"cd /content/executorch/cmake-out/examples/models/llama && ./llama_main --model_path={model_path} --tokenizer_path={tokenizer_path} --prompt='{prompt}'"
54
  return run_command(cmd)
55
 
 
 
 
 
 
 
 
 
 
 
 
 
56
  # Iniciar el servidor Uvicorn directamente desde el c贸digo Python
57
  if __name__ == "__main__":
58
  # Obtener la ruta del entorno Python
59
  lib_path = sysconfig.get_paths()["purelib"]
60
  print(f"Usando la ruta de la biblioteca Python: {lib_path}")
61
 
62
- # Configurar el entorno y dependencias si es necesario
63
  install_requirements(lib_path)
64
 
65
  # Ejecutar el servidor Uvicorn
66
  uvicorn.run(app, host="0.0.0.0", port=7860)
67
-
68
- def install_requirements(lib_path):
69
- """Instalar dependencias de ejecutorch."""
70
- print("Instalando dependencias de Executorch...")
71
- run_command(f"cd /content/executorch && CMAKE_PREFIX_PATH={lib_path} EXECUTORCH_BUILD_XNNPACK=ON bash ./install_requirements.sh --pybind")
72
- print("Dependencias de Executorch instaladas.")
73
-
74
- # Instalar requerimientos adicionales para el modelo Llama
75
- print("Instalando dependencias para el modelo Llama...")
76
- run_command("cd /content/executorch/examples/models/llama && ./install_requirements.sh")
77
- print("Requerimientos de Llama instalados.")
 
15
  # Ruta principal para ejecutar el modelo
16
  @app.post("/generate/")
17
  async def generate_text(request: PromptRequest):
 
18
  model_path = "/content/executorch/Llama-3.2-1B-Instruct-SpinQuant_INT4_EO8.pte"
19
  tokenizer_path = "/content/executorch/tokenizer.model"
20
 
 
52
  cmd = f"cd /content/executorch/cmake-out/examples/models/llama && ./llama_main --model_path={model_path} --tokenizer_path={tokenizer_path} --prompt='{prompt}'"
53
  return run_command(cmd)
54
 
55
+ def install_requirements(lib_path):
56
+ """Instalar dependencias de ejecutorch y del modelo Llama."""
57
+ # Instalar dependencias para Executorch
58
+ print("Instalando dependencias de Executorch...")
59
+ run_command(f"cd /content/executorch && CMAKE_PREFIX_PATH={lib_path} EXECUTORCH_BUILD_XNNPACK=ON bash ./install_requirements.sh --pybind")
60
+ print("Dependencias de Executorch instaladas.")
61
+
62
+ # Instalar requerimientos adicionales para el modelo Llama
63
+ print("Instalando dependencias para el modelo Llama...")
64
+ run_command("cd /content/executorch/examples/models/llama && ./install_requirements.sh")
65
+ print("Requerimientos de Llama instalados.")
66
+
67
  # Iniciar el servidor Uvicorn directamente desde el c贸digo Python
68
  if __name__ == "__main__":
69
  # Obtener la ruta del entorno Python
70
  lib_path = sysconfig.get_paths()["purelib"]
71
  print(f"Usando la ruta de la biblioteca Python: {lib_path}")
72
 
73
+ # Instalar las dependencias necesarias
74
  install_requirements(lib_path)
75
 
76
  # Ejecutar el servidor Uvicorn
77
  uvicorn.run(app, host="0.0.0.0", port=7860)