RAG Configuracion del Entorno

RAG Configuracion del Entorno

RAG Configuracion del Entorno

Enlace Patrocinado

Respondent.io

Respondent.io es una plataforma en línea que conecta investigadores y empresas con participantes para estudios de mercado y encuestas remuneradas. Su objetivo es facilitar la recopilación de datos cualitativos y cuantitativos mediante entrevistas, encuestas y pruebas de usuario

Para desarrollar un sistema RAG (Retrieval-Augmented Generation) con herramientas open source, es necesario configurar un entorno de desarrollo adecuado. En este módulo, instalaremos y configuraremos los componentes clave: Python, Ollama, DeepSeek, LangChain y Streamlit. Además, instalaremos dependencias y realizaremos pruebas básicas para asegurarnos de que todo funciona correctamente.

2.1 Instalación de Python y entorno virtual

Python es el lenguaje principal que usaremos para nuestro sistema RAG. Se recomienda instalar la última versión estable de Python y crear un entorno virtual para gestionar las dependencias del proyecto.

Pasos para instalar Python:
  • Descarga e instala Python desde python.org.
  • Verifica la instalación con el comando:
python --version
Crear un entorno virtual:
  • Abre una terminal y ejecuta:
python -m venv rag_env
  • Activa el entorno virtual:

# En Windows
rag_env\Scripts\activate

# En macOS/Linux
source rag_env/bin/activate

2.2 Instalación de Ollama

Ollama es un sistema que permite ejecutar modelos de lenguaje de manera local. Lo utilizaremos para cargar modelos como Llama o DeepSeek.

Pasos para instalar Ollama:
  • Descarga e instala Ollama desde ollama.com.
  • Verifica la instalación con:
ollama --version
Descargar un modelo de lenguaje:
  • Ejecuta el siguiente comando para descargar un modelo compatible:
ollama pull deepseek

2.3 Instalación de LangChain

LangChain es una librería que facilita la integración de modelos de IA con fuentes de datos externas, como bases de datos y documentos.

Instalar LangChain en el entorno virtual:
pip install langchain
Verificar la instalación:
python -c "import langchain; print(langchain.__version__)"

2.4 Instalación de DeepSeek

DeepSeek es un modelo de IA open source optimizado para tareas de generación de texto. Se integra con Ollama y LangChain.

Pasos para instalar DeepSeek:
  • Ejecuta el siguiente comando para obtener el modelo:
ollama pull deepseek
  • Prueba el modelo con:
ollama run deepseek "Explica qué es un sistema RAG"

2.5 Instalación de Streamlit

Streamlit nos permitirá crear una interfaz web para nuestro sistema RAG.

Instalar Streamlit:
pip install streamlit
Verificar la instalación:
streamlit hello

2.6 Prueba de configuración

Para asegurarnos de que todo está correctamente instalado, podemos ejecutar un pequeño script que use LangChain con Ollama.

Crear un archivo test_rag.py:

from langchain.llms import Ollama

llm = Ollama(model="deepseek")

respuesta = llm.predict("¿Qué es Retrieval-Augmented Generation?")
print(respuesta)
Ejecutar el script:
python test_rag.py

Si todo está configurado correctamente, deberíamos recibir una respuesta generada por el modelo DeepSeek.

RAG Configuracion del Entorno

En este módulo hemos configurado todas las herramientas necesarias para construir nuestro sistema RAG. En el siguiente módulo, veremos cómo conectar nuestro modelo a fuentes de datos externas y mejorar la recuperación de información.

Indice del curso

Curso Sistemas RAG

Capitulo anterior

¿Que es un sistema RAG?