RAG Configuracion del Entorno

RAG Configuracion del Entorno

RAG Configuracion del Entorno

Para desarrollar un sistema RAG (Retrieval-Augmented Generation) con herramientas open source, es necesario configurar un entorno de desarrollo adecuado. En este mรณdulo, instalaremos y configuraremos los componentes clave: Python, Ollama, DeepSeek, LangChain y Streamlit. Ademรกs, instalaremos dependencias y realizaremos pruebas bรกsicas para asegurarnos de que todo funciona correctamente.

2.1 Instalaciรณn de Python y entorno virtual

Python es el lenguaje principal que usaremos para nuestro sistema RAG. Se recomienda instalar la รบltima versiรณn estable de Python y crear un entorno virtual para gestionar las dependencias del proyecto.

Pasos para instalar Python:
  • Descarga e instala Python desde python.org.
  • Verifica la instalaciรณn con el comando:
python --version
Crear un entorno virtual:
  • Abre una terminal y ejecuta:
python -m venv rag_env
  • Activa el entorno virtual:

# En Windows
rag_env\Scripts\activate

# En macOS/Linux
source rag_env/bin/activate

2.2 Instalaciรณn de Ollama

Ollama es un sistema que permite ejecutar modelos de lenguaje de manera local. Lo utilizaremos para cargar modelos como Llama o DeepSeek.

Pasos para instalar Ollama:
  • Descarga e instala Ollama desde ollama.com.
  • Verifica la instalaciรณn con:
ollama --version
Descargar un modelo de lenguaje:
  • Ejecuta el siguiente comando para descargar un modelo compatible:
ollama pull deepseek

2.3 Instalaciรณn de LangChain

LangChain es una librerรญa que facilita la integraciรณn de modelos de IA con fuentes de datos externas, como bases de datos y documentos.

Instalar LangChain en el entorno virtual:
pip install langchain
Verificar la instalaciรณn:
python -c "import langchain; print(langchain.__version__)"

2.4 Instalaciรณn de DeepSeek

DeepSeek es un modelo de IA open source optimizado para tareas de generaciรณn de texto. Se integra con Ollama y LangChain.

Pasos para instalar DeepSeek:
  • Ejecuta el siguiente comando para obtener el modelo:
ollama pull deepseek
  • Prueba el modelo con:
ollama run deepseek "Explica quรฉ es un sistema RAG"

2.5 Instalaciรณn de Streamlit

Streamlit nos permitirรก crear una interfaz web para nuestro sistema RAG.

Instalar Streamlit:
pip install streamlit
Verificar la instalaciรณn:
streamlit hello

2.6 Prueba de configuraciรณn

Para asegurarnos de que todo estรก correctamente instalado, podemos ejecutar un pequeรฑo script que use LangChain con Ollama.

Crear un archivo test_rag.py:

from langchain.llms import Ollama

llm = Ollama(model="deepseek")

respuesta = llm.predict("ยฟQuรฉ es Retrieval-Augmented Generation?")
print(respuesta)
Ejecutar el script:
python test_rag.py

Si todo estรก configurado correctamente, deberรญamos recibir una respuesta generada por el modelo DeepSeek.

RAG Configuracion del Entorno

En este mรณdulo hemos configurado todas las herramientas necesarias para construir nuestro sistema RAG. En el siguiente mรณdulo, veremos cรณmo conectar nuestro modelo a fuentes de datos externas y mejorar la recuperaciรณn de informaciรณn.

Indice del curso

Curso Sistemas RAG

Capitulo anterior

ยฟQue es un sistema RAG?