Instalando DulceKaliNOva IA en un NOvaDocker
Manual
Instalando DulceKaliNOva IA en un NOvaDocker
Este manual detalla el proceso de instalaci贸n y ejecuci贸n del modelo DulceKaliNOva dentro de un contenedor NOvaDocker, aprovechando los recursos distribuidos en una red Xubuntu. Se explican los comandos en la terminal para comprender su funcionamiento en el sistema operativo.
1. Acceder al Contenedor
Una vez que el contenedor NOvaDocker est谩 corriendo en la red, ingresamos a 茅l con:
sudo docker exec -it nova_container bash
馃搶 Explicaci贸n: Este comando ejecuta una terminal interactiva dentro del contenedor nova_container.
2. Instalaci贸n de Dependencias
Para ejecutar DulceKaliNOva, necesitamos instalar Python y las librer铆as necesarias:
apt update && apt install -y python3 python3-pip
pip3 install torch transformers
馃搶 Explicaci贸n:
apt update
→ Actualiza la lista de paquetes disponibles.apt install -y python3 python3-pip
→ Instala Python 3 y el gestor de paquetespip
.pip3 install torch transformers
→ Instala PyTorch y Transformers, esenciales para la ejecuci贸n del modelo de IA.
3. Verificar la Detecci贸n de GPU
Si tu sistema tiene una GPU Nvidia, verifica que PyTorch la detecte:
python3 -c "import torch; print(torch.cuda.is_available())"
馃搶 Explicaci贸n:
python3 -c "..."
→ Ejecuta un c贸digo corto de Python sin necesidad de abrir un script.torch.cuda.is_available()
→ DevuelveTrue
si la GPU est谩 disponible,False
si no lo est谩.
Si el resultado es False
, revisa que los drivers de Nvidia y CUDA est茅n correctamente instalados en el host.
4. Descarga del Modelo
Dentro del contenedor, creamos una carpeta para el modelo y descargamos los archivos necesarios:
mkdir -p /nova_model
cd /nova_model
wget <URL_DEL_MODELO>
馃搶 Explicaci贸n:
mkdir -p /nova_model
→ Crea el directorio/nova_model
si no existe.cd /nova_model
→ Cambia al directorio donde se guardar谩 el modelo.wget <URL_DEL_MODELO>
→ Descarga el modelo desde la URL proporcionada.
5. Crear y Ejecutar un Script de Prueba
Para probar el modelo, creamos un script en Python:
nano test_nova.py
Dentro del editor, pegamos el siguiente c贸digo:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "/nova_model" # Ruta donde se guard贸 el modelo
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Hola NOva, ¿c贸mo est谩s?"
inputs = tokenizer(input_text, return_tensors="pt")
output = model.generate(**inputs, max_length=100)
print(tokenizer.decode(output[0], skip_special_tokens=True))
Guardamos el archivo (CTRL + X
, luego Y
y ENTER
) y lo ejecutamos:
python3 test_nova.py
馃搶 Explicaci贸n:
AutoTokenizer.from_pretrained(model_name)
→ Carga el tokenizador del modelo.AutoModelForCausalLM.from_pretrained(model_name)
→ Carga el modelo en memoria.tokenizer(input_text, return_tensors="pt")
→ Convierte el texto en formato num茅rico para el modelo.model.generate(**inputs, max_length=100)
→ Genera una respuesta basada en el texto de entrada.tokenizer.decode(output[0], skip_special_tokens=True)
→ Convierte la salida en texto legible.
Si todo est谩 correctamente configurado, el modelo responder谩 con una frase generada por DulceKaliNOva.
6. Acceder desde la Web
Si se activ贸 Portainer, se puede administrar todo desde:
馃搶 http://<IP_DEL_SERVIDOR>:9000
Si se levant贸 Jupyter Notebook, se accede con:
馃搶 http://<IP_DEL_CONTENEDOR>:8888
Conclusi贸n
Siguiendo estos pasos, habr谩s instalado y ejecutado DulceKaliNOva en tu infraestructura de NOvaDocker, utilizando una red distribuida en Xubuntu. 馃殌
Si quer茅s expandirlo o integrar m谩s funcionalidades, pod茅s modificar el contenedor para a帽adir almacenamiento persistente, conexi贸n a APIs o control remoto mediante SSH.
馃敟 ¡A explorar el universo digital con DulceKaliNOva! 馃敟
Comentarios
Publicar un comentario
Te invitamos a comentar y compartir tus impresiones y pensamientos sobre este art铆culo