MCP Hub
Back to servers

ai-notebook-lab

Repository containing practical exercises and notebooks focused on AI application development and experimentation.

Stars
3
Updated
Nov 26, 2025
Validated
Jan 9, 2026

🤖 AI Notebook Lab

Laboratorios prácticos de Inteligencia Artificial
Desde fundamentos de LLMs hasta sistemas de agentes avanzados

Python License Status

🚀 Comenzar📚 Documentación🛠️ Instalación


📖 Descripción

Repositorio de laboratorios hands-on para el curso de Inteligencia Artificial, diseñados para construir competencias prácticas en:

  • 🧠 Large Language Models (LLMs) y prompting avanzado
  • 🗄️ Bases de datos vectoriales y búsqueda semántica
  • 🔗 RAG (Retrieval-Augmented Generation) end-to-end
  • 🤖 AI Agents con herramientas y frameworks
  • 🌐 Model Context Protocol (MCP) para arquitecturas distribuidas

Cada laboratorio incluye notebooks interactivos con ejercicios progresivos, desde conceptos básicos hasta implementaciones de producción.


🗂️ Estructura de Laboratorios

ai-notebook-lab/
│
├── 📂 01-llm-fundamentals/
│   └── Fundamentos de modelos de lenguaje y técnicas de prompting
│
├── 📂 02-vector-databases/
│   └── Embeddings, bases de datos vectoriales y búsqueda semántica
│
├── 📂 03-rag-retrieval-augmented-generation/
│   └── Construcción de pipelines RAG completos
│
├── 📂 04-agents-and-tools/
│   └── Agentes de IA con herramientas y toma de decisiones
│
├── 📂 05-advanced-rag-agents/
│   └── Sistemas avanzados combinando RAG y agentes autónomos
│
├── 📂 06-model-context-protocol/
│   ├── local-mcp-server/         # Implementación local con STDIO
│   ├── cloud-deployment/          # Despliegue en FastMCP Cloud
│   └── openai-integration/        # Integración OpenAI + MCP
│
├── 📂 07-custom-mcp-servers/
│   └── custom-fastmcp-server/     # Servidor MCP personalizado con FastMCP
│
├── 📂 08-evals-for-ai-models/
│   └── ragas-evals/               # Sistema de evaluación con RAGAS
│       ├── evals.py               # Script principal de evaluación
│       ├── custom_metrics.py      # Métricas personalizadas
│       └── rag.py                 # Sistema RAG para testing
│
└── 📂 09-monitoring-for-ai-models/
    └── langfuse-project/          # Monitoreo con Langfuse
        ├── basics/                # Instrumentación básica
        ├── optimization/          # Optimización de prompts
        ├── prompt_management/     # Gestión de prompts y A/B testing
        └── rag_evaluation/        # Evaluación RAG con RAGAS + Langfuse

📚 Contenido de Cada Laboratorio

🎯 Lab 1: LLM Fundamentals

Fundamentos de Modelos de Lenguaje

Explora los conceptos esenciales de los Large Language Models:

  • 🔹 Arquitectura y funcionamiento de LLMs
  • 🔹 Técnicas de prompting (zero-shot, few-shot, chain-of-thought)
  • 🔹 Integración con APIs gratuitas (HuggingFace)
  • 🔹 LangChain para orquestación de LLMs

Tecnologías: LangChain, HuggingFace Transformers, prompt engineering

💡 Sin costo: Usa modelos gratuitos de HuggingFace


🗄️ Lab 2: Vector Databases

Bases de Datos Vectoriales y Búsqueda Semántica

Domina el almacenamiento y búsqueda de embeddings:

  • 🔹 Generación de embeddings con modelos open-source
  • 🔹 Implementación de bases de datos vectoriales (Chroma, Pinecone, FAISS)
  • 🔹 Búsqueda por similitud semántica
  • 🔹 Indexación y optimización de consultas

Tecnologías: ChromaDB, FAISS, Pinecone (tier gratuito), Sentence Transformers, HuggingFace Embeddings

💡 Sin costo: Usa Pinecone Free Tier y modelos HuggingFace


🔗 Lab 3: RAG (Retrieval-Augmented Generation)

Sistemas RAG End-to-End

Construye pipelines completos de Retrieval-Augmented Generation:

  • 🔹 Pipeline de ingesta de documentos (chunking, embeddings)
  • 🔹 Retrievers y estrategias de búsqueda
  • 🔹 Generación aumentada con contexto relevante
  • 🔹 Evaluación de calidad de respuestas

Tecnologías: LangChain, ChromaDB, Pinecone, HuggingFace, document loaders

💡 Sin costo: Implementación completa con herramientas gratuitas


🤖 Lab 4: Agents and Tools

Agentes de IA con Herramientas

Implementa agentes inteligentes con capacidades de uso de herramientas:

  • 🔹 Arquitectura de agentes (ReAct, Plan-and-Execute)
  • 🔹 Creación de herramientas personalizadas
  • 🔹 Toma de decisiones autónoma
  • 🔹 Integración con APIs externas

Tecnologías: LangChain Agents, OpenAI Function Calling, custom tools

⚠️ Requiere: OpenAI API Key (desde este lab en adelante)


🚀 Lab 5: Advanced RAG + Agents

Sistemas Avanzados RAG con Agentes

Combina RAG y agentes para sistemas de nivel producción:

  • 🔹 Agentes con acceso a bases de conocimiento
  • 🔹 Multi-query strategies y query rewriting
  • 🔹 Agentes conversacionales con memoria
  • 🔹 Optimización y debugging de sistemas complejos

Tecnologías: LangChain, RAG avanzado, agent orchestration, memory systems


🌐 Lab 6: Model Context Protocol (MCP)

Arquitecturas Distribuidas con MCP

Domina el protocolo estándar para comunicación modelo-herramientas:

📂 Parte 1: Local MCP Server

  • 🔹 Servidor MCP local con protocolo STDIO
  • 🔹 Implementación de herramientas personalizadas
  • 🔹 Cliente MCP para consumo local

☁️ Parte 2: Cloud Deployment

  • 🔹 Despliegue en FastMCP Cloud
  • 🔹 Autenticación con Bearer Tokens
  • 🔹 Comunicación remota vía JSON-RPC + SSE

🤖 Parte 3: OpenAI Integration

  • 🔹 Integración GPT-4o-mini con herramientas MCP
  • 🔹 Function calling end-to-end
  • 🔹 Arquitectura cliente-servidor distribuida

Tecnologías: FastMCP, MCP SDK, OpenAI API, JSON-RPC, Server-Sent Events

🎁 Bonus: openai-integration-extra/ - Extensión avanzada con Resources, Prompts y gestión de estado


🌐 Lab 7: Custom MCP Servers

Servidores MCP Personalizados Avanzados

Crea e integra servidores Model Context Protocol personalizados en FastMCP Cloud:

  • 🔹 Desarrollo de servidores MCP con FastMCP
  • 🔹 Definición de herramientas personalizadas (texto, sistema, archivos, datos)
  • 🔹 Integración en VS Code mediante .vscode/mcp.json
  • 🔹 Integración de Notion MCP desde el IDE
  • 🔹 Arquitectura cliente-servidor en la nube

Tecnologías: FastMCP, FastMCP Cloud, MCP Protocol, Notion API, VS Code MCP

🎯 Requisitos:

  • ✅ FastMCP Cloud deployment (sin instalación local)
  • ✅ Notion API Key (opcional, para integración Notion)
  • ✅ Configuración IDE mediante .vscode/mcp.json

🧪 Lab 8: Evals for AI Models

Evaluación de Modelos de IA con RAGAS

Implementa un sistema completo de evaluación de calidad de respuestas generadas por IA:

  • 🔹 Construcción de datasets de evaluación con contexto
  • 🔹 Métricas estándar de RAGAS (Faithfulness, Answer Relevancy)
  • 🔹 Desarrollo de métricas personalizadas (Formalidad, Completitud, Claridad)
  • 🔹 Visualización de resultados y análisis comparativo
  • 🔹 Sistema RAG integrado para generación de respuestas

Tecnologías: RAGAS, OpenAI GPT-4o-mini, Matplotlib, Pandas, logging estructurado

Salida: Gráficos PNG (comparación, promedios, heatmap) + CSV + logs JSON

⚠️ Requiere: OpenAI API Key


📊 Lab 9: Monitoring for AI Models

Monitoreo de Aplicaciones LLM con Langfuse

Implementa observabilidad completa para aplicaciones de IA usando Langfuse como plataforma de monitoreo:

  • 🔹 Instrumentación de trazas para llamadas a LLM
  • 🔹 Análisis de métricas: latencia, tokens y costos
  • 🔹 Optimización de prompts con comparativas pre/post
  • 🔹 Gestión centralizada de prompts y versionado
  • 🔹 A/B Testing de prompts con análisis estadístico
  • 🔹 Integración de métricas RAGAS en dashboard de Langfuse

Tecnologías: Langfuse, OpenAI API, RAGAS, trazado manual con spans

📊 Dashboard: Resultados visibles en https://cloud.langfuse.com

⚠️ Requiere: OpenAI API Key + Langfuse API Keys (cuenta gratuita)


Core Libraries

  • Python 3.8+: Lenguaje principal
  • LangChain: Framework para aplicaciones LLM
  • OpenAI API: Modelos GPT (GPT-4, GPT-4o-mini)
  • FastMCP: Despliegue de servidores MCP en la nube

Vector Stores & Embeddings

  • ChromaDB: Base de datos vectorial local
  • FAISS: Facebook AI Similarity Search
  • Sentence Transformers: Generación de embeddings

Notebooks & Environment

  • Jupyter Lab/Notebook: Entorno interactivo
  • Python-dotenv: Gestión de variables de entorno
  • Asyncio/Anyio: Programación asíncrona

📋 Requisitos

Software

  • Python: 3.8 o superior
  • Jupyter Notebook / JupyterLab: Entorno de desarrollo interactivo
  • Git: Control de versiones

💻 Entorno de Ejecución Recomendado

Google Colab (Recomendado para Labs 1-5):

  • Ventajas: GPU gratuita, sin instalación local, ejecución en la nube
  • Ideal para: Notebooks interactivos (Labs 1-5)
  • 🔗 Acceso: colab.research.google.com
  • 📝 Cómo usar: Sube los archivos .ipynb directamente o conéctalos desde GitHub

⚠️ Excepción: El Lab 6 (Model Context Protocol) requiere ejecución local con Python:

  • Usa scripts .py que necesitan entorno local
  • Requiere instalación de dependencias específicas
  • No compatible con Google Colab

API Keys

🆓 Gratuitas (Labs 1-3)

  • HuggingFace API Key:

    • Crear cuenta en huggingface.co
    • Generar token en Settings → Access Tokens
    • Necesaria para Labs 1-3 (modelos y embeddings)
  • Pinecone API Key (tier gratuito):

    • Crear cuenta en pinecone.io
    • Obtener API key desde el dashboard
    • Necesaria para Labs 2-3 (base de datos vectorial)

💳 Requieren API Key OpenAI (Labs 4-6)

  • OpenAI API Key:

    • Crear cuenta en platform.openai.com
    • Agregar método de pago y generar API key
    • Requerida desde Lab 4 en adelante
  • FastMCP API Key (Lab 6-7):

    • Crear cuenta en gofastmcp.com
    • Generar API key para despliegue en la nube
  • Langfuse API Keys (Lab 9):

    • Crear cuenta en cloud.langfuse.com
    • Generar public_key y secret_key desde Settings → API Keys
    • Tier gratuito disponible para desarrollo y testing

📖 Guía de Navegación

Para Principiantes

  1. Comienza con Lab 1 (LLM Fundamentals)
  2. Avanza secuencialmente hasta Lab 3 (RAG)
  3. Practica con Lab 4 (Agents)

Para Avanzados

  • Dirígete directamente a Lab 5 (Advanced RAG)
  • Explora Lab 6 (MCP) para arquitecturas distribuidas
  • Crea servidores personalizados con Lab 7 (Custom MCP Servers)
  • Evalúa calidad de respuestas con Lab 8 (Evals for AI Models)
  • Monitorea aplicaciones LLM con Lab 9 (Monitoring con Langfuse)
  • Experimenta con openai-integration-extra/ para features avanzadas

🎓 Objetivos de Aprendizaje

Al completar estos laboratorios, serás capaz de:

  • ✅ Diseñar e implementar aplicaciones LLM de producción
  • ✅ Construir sistemas RAG escalables y eficientes
  • ✅ Crear agentes de IA autónomos con herramientas
  • ✅ Desplegar arquitecturas MCP distribuidas
  • ✅ Integrar múltiples modelos y servicios de IA
  • ✅ Evaluar y optimizar calidad de respuestas con métricas estándar y personalizadas
  • ✅ Implementar observabilidad y monitoreo de aplicaciones LLM
  • ✅ Realizar A/B testing y gestión centralizada de prompts
  • ✅ Optimizar performance y costos de aplicaciones IA

📬 Contacto

Autor: jMautone
Repositorio: github.com/jMautone/ai-notebook-lab


⭐ Si este repositorio te resulta útil, considera darle una estrella ⭐

Reviews

No reviews yet

Sign in to write a review