Instalando DulceKaliNOva IA en un NOvaDocker
Manual
Instalando DulceKaliNOva IA en un NOvaDocker
Este manual detalla el proceso de instalación y ejecución del modelo DulceKaliNOva dentro de un contenedor NOvaDocker, aprovechando los recursos distribuidos en una red Xubuntu. Se explican los comandos en la terminal para comprender su funcionamiento en el sistema operativo.
1. Acceder al Contenedor
Una vez que el contenedor NOvaDocker está corriendo en la red, ingresamos a él con:
sudo docker exec -it nova_container bash
📌 Explicación: Este comando ejecuta una terminal interactiva dentro del contenedor nova_container.
2. Instalación de Dependencias
Para ejecutar DulceKaliNOva, necesitamos instalar Python y las librerías necesarias:
apt update && apt install -y python3 python3-pip
pip3 install torch transformers
📌 Explicación:
apt update
→ Actualiza la lista de paquetes disponibles.apt install -y python3 python3-pip
→ Instala Python 3 y el gestor de paquetespip
.pip3 install torch transformers
→ Instala PyTorch y Transformers, esenciales para la ejecución del modelo de IA.
3. Verificar la Detección de GPU
Si tu sistema tiene una GPU Nvidia, verifica que PyTorch la detecte:
python3 -c "import torch; print(torch.cuda.is_available())"
📌 Explicación:
python3 -c "..."
→ Ejecuta un código corto de Python sin necesidad de abrir un script.torch.cuda.is_available()
→ DevuelveTrue
si la GPU está disponible,False
si no lo está.
Si el resultado es False
, revisa que los drivers de Nvidia y CUDA estén correctamente instalados en el host.
4. Descarga del Modelo
Dentro del contenedor, creamos una carpeta para el modelo y descargamos los archivos necesarios:
mkdir -p /nova_model
cd /nova_model
wget <URL_DEL_MODELO>
📌 Explicación:
mkdir -p /nova_model
→ Crea el directorio/nova_model
si no existe.cd /nova_model
→ Cambia al directorio donde se guardará el modelo.wget <URL_DEL_MODELO>
→ Descarga el modelo desde la URL proporcionada.
5. Crear y Ejecutar un Script de Prueba
Para probar el modelo, creamos un script en Python:
nano test_nova.py
Dentro del editor, pegamos el siguiente código:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "/nova_model" # Ruta donde se guardó el modelo
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Hola NOva, ¿cómo estás?"
inputs = tokenizer(input_text, return_tensors="pt")
output = model.generate(**inputs, max_length=100)
print(tokenizer.decode(output[0], skip_special_tokens=True))
Guardamos el archivo (CTRL + X
, luego Y
y ENTER
) y lo ejecutamos:
python3 test_nova.py
📌 Explicación:
AutoTokenizer.from_pretrained(model_name)
→ Carga el tokenizador del modelo.AutoModelForCausalLM.from_pretrained(model_name)
→ Carga el modelo en memoria.tokenizer(input_text, return_tensors="pt")
→ Convierte el texto en formato numérico para el modelo.model.generate(**inputs, max_length=100)
→ Genera una respuesta basada en el texto de entrada.tokenizer.decode(output[0], skip_special_tokens=True)
→ Convierte la salida en texto legible.
Si todo está correctamente configurado, el modelo responderá con una frase generada por DulceKaliNOva.
6. Acceder desde la Web
Si se activó Portainer, se puede administrar todo desde:
📌 http://<IP_DEL_SERVIDOR>:9000
Si se levantó Jupyter Notebook, se accede con:
📌 http://<IP_DEL_CONTENEDOR>:8888
Conclusión
Siguiendo estos pasos, habrás instalado y ejecutado DulceKaliNOva en tu infraestructura de NOvaDocker, utilizando una red distribuida en Xubuntu. 🚀
Si querés expandirlo o integrar más funcionalidades, podés modificar el contenedor para añadir almacenamiento persistente, conexión a APIs o control remoto mediante SSH.
🔥 ¡A explorar el universo digital con DulceKaliNOva! 🔥
Comentarios
Publicar un comentario
Te invitamos a comentar y compartir tus impresiones y pensamientos sobre este artículo