Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -15,7 +15,6 @@ class PromptRequest(BaseModel):
|
|
| 15 |
# Ruta principal para ejecutar el modelo
|
| 16 |
@app.post("/generate/")
|
| 17 |
async def generate_text(request: PromptRequest):
|
| 18 |
-
# Especificar las rutas del modelo y tokenizador
|
| 19 |
model_path = "/content/executorch/Llama-3.2-1B-Instruct-SpinQuant_INT4_EO8.pte"
|
| 20 |
tokenizer_path = "/content/executorch/tokenizer.model"
|
| 21 |
|
|
@@ -53,25 +52,26 @@ def run_llama_model(model_path, tokenizer_path, prompt):
|
|
| 53 |
cmd = f"cd /content/executorch/cmake-out/examples/models/llama && ./llama_main --model_path={model_path} --tokenizer_path={tokenizer_path} --prompt='{prompt}'"
|
| 54 |
return run_command(cmd)
|
| 55 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 56 |
# Iniciar el servidor Uvicorn directamente desde el c贸digo Python
|
| 57 |
if __name__ == "__main__":
|
| 58 |
# Obtener la ruta del entorno Python
|
| 59 |
lib_path = sysconfig.get_paths()["purelib"]
|
| 60 |
print(f"Usando la ruta de la biblioteca Python: {lib_path}")
|
| 61 |
|
| 62 |
-
#
|
| 63 |
install_requirements(lib_path)
|
| 64 |
|
| 65 |
# Ejecutar el servidor Uvicorn
|
| 66 |
uvicorn.run(app, host="0.0.0.0", port=7860)
|
| 67 |
-
|
| 68 |
-
def install_requirements(lib_path):
|
| 69 |
-
"""Instalar dependencias de ejecutorch."""
|
| 70 |
-
print("Instalando dependencias de Executorch...")
|
| 71 |
-
run_command(f"cd /content/executorch && CMAKE_PREFIX_PATH={lib_path} EXECUTORCH_BUILD_XNNPACK=ON bash ./install_requirements.sh --pybind")
|
| 72 |
-
print("Dependencias de Executorch instaladas.")
|
| 73 |
-
|
| 74 |
-
# Instalar requerimientos adicionales para el modelo Llama
|
| 75 |
-
print("Instalando dependencias para el modelo Llama...")
|
| 76 |
-
run_command("cd /content/executorch/examples/models/llama && ./install_requirements.sh")
|
| 77 |
-
print("Requerimientos de Llama instalados.")
|
|
|
|
| 15 |
# Ruta principal para ejecutar el modelo
|
| 16 |
@app.post("/generate/")
|
| 17 |
async def generate_text(request: PromptRequest):
|
|
|
|
| 18 |
model_path = "/content/executorch/Llama-3.2-1B-Instruct-SpinQuant_INT4_EO8.pte"
|
| 19 |
tokenizer_path = "/content/executorch/tokenizer.model"
|
| 20 |
|
|
|
|
| 52 |
cmd = f"cd /content/executorch/cmake-out/examples/models/llama && ./llama_main --model_path={model_path} --tokenizer_path={tokenizer_path} --prompt='{prompt}'"
|
| 53 |
return run_command(cmd)
|
| 54 |
|
| 55 |
+
def install_requirements(lib_path):
|
| 56 |
+
"""Instalar dependencias de ejecutorch y del modelo Llama."""
|
| 57 |
+
# Instalar dependencias para Executorch
|
| 58 |
+
print("Instalando dependencias de Executorch...")
|
| 59 |
+
run_command(f"cd /content/executorch && CMAKE_PREFIX_PATH={lib_path} EXECUTORCH_BUILD_XNNPACK=ON bash ./install_requirements.sh --pybind")
|
| 60 |
+
print("Dependencias de Executorch instaladas.")
|
| 61 |
+
|
| 62 |
+
# Instalar requerimientos adicionales para el modelo Llama
|
| 63 |
+
print("Instalando dependencias para el modelo Llama...")
|
| 64 |
+
run_command("cd /content/executorch/examples/models/llama && ./install_requirements.sh")
|
| 65 |
+
print("Requerimientos de Llama instalados.")
|
| 66 |
+
|
| 67 |
# Iniciar el servidor Uvicorn directamente desde el c贸digo Python
|
| 68 |
if __name__ == "__main__":
|
| 69 |
# Obtener la ruta del entorno Python
|
| 70 |
lib_path = sysconfig.get_paths()["purelib"]
|
| 71 |
print(f"Usando la ruta de la biblioteca Python: {lib_path}")
|
| 72 |
|
| 73 |
+
# Instalar las dependencias necesarias
|
| 74 |
install_requirements(lib_path)
|
| 75 |
|
| 76 |
# Ejecutar el servidor Uvicorn
|
| 77 |
uvicorn.run(app, host="0.0.0.0", port=7860)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|