¡Hasta 17% de descuento por CYBER SAN JUAN WEEK!⏰ Solo hasta el 02/07/2025 ⏰
00 días
00 horas
00 minutos
00 segundos
Obtener Promo

Especialización

6ta Edición

IA Generativa Aplicada: LLM’s y Automatización Inteligente

La IA está transformando el mundo ¡Prepárate!

Aprenderás a entrenar, crear y optimizar prompts, configurar cuentas en nubes como GCP, y desarrollar soluciones prácticas con herramientas low-code/no-code como N8N, Vertex AI, Palm AI, Chat GPT, entre otros
  •   Clases en vivo
  • 60 Hrs. Acad.
  • 15 sesiones
  • Clases en vivo
  • 60 Hrs. Acád. | 15 Sesiones

$351

Precio regular: $702

$351

Precio regular:
$702

6ta Edición

Acerca del Curso

Introducción

Este curso te llevará a través de los conceptos fundamentales y avanzados de los Modelos de Lenguaje de Gran Escala (LLM).
A través de ejemplos y un proyecto final, serás capaz de integrar LLM en aplicaciones reales, potenciando tus habilidades en inteligencia artificial y automatización sin necesidad de escribir código. Ideal para profesionales que desean aplicar IA en sus productos y vida diaria.

Requisitos
  • Conocimientos básicos de tecnología e interés en inteligencia artificial.
  • Familiaridad con términos básicos como APIs y nubes (no excluyente).
  • Laptop o PC con acceso a internet.
  • Cuenta en Google Cloud y OpenAI (opcional, se puede usar la cuenta gratuita)
Público Objetivo

Profesionales y estudiantes interesados en adentrarse en el ecosistema completo de la inteligencia artificial basada en modelos de lenguaje (LLM), desde sus fundamentos hasta el diseño de sistemas complejos con recuperación de información (RAG), agentes inteligentes y arquitecturas modulares. Ideal para roles de tecnología, analítica, desarrollo de software, gestión de proyectos o emprendimiento que deseen:
• Comprender el entrenamiento y la teoría de los LLM y su extensión con RAG.
• Diseñar y optimizar prompts, cadenas y pipelines de recuperación y
generación.
• Desplegar soluciones con herramientas low-code/no-code.
• Construir y orquestar agentes inteligentes, incluyendo comunicación agent-to-agent, generación contextual (CAG) y procesamiento multi-componente (MCP).

Objetivo General
  • Formar a los participantes en el ciclo completo de creación de soluciones de IA con LLM—incluyendo Retrieval-Augmented Generation (RAG)—abarcando desde la teoría de su entrenamiento y las mejores prácticas de prompting, hasta la configuración en la nube, el desarrollo de chains, agentes con herramientas externas, la coordinación entre agentes (agent-to-agent), la generación consciente del contexto (CAG) y el procesamiento multi-componente (MCP), todo mediante plataformas low-code/no-code y un proyecto integrador final.
Objetivos específicos
  1. Explicar los conceptos fundamentales de los LLM, su arquitectura Transformer y el uso de embeddings.
  2. Describir y aplicar Retrieval-Augmented Generation (RAG) para enriquecer las respuestas de un LLM con información externa.
  3. Diseñar y evaluar prompts efectivos, aplicando técnicas de claridad, ejemplos y gestión de contexto.
  4. Definir y construir chains de operaciones: secuenciales, condicionales e iterativas.
  5. Configurar cuentas y servicios en GCP y OpenAI, gestionando API keys, costos y accesos.
  6. Desarrollar agentes capaces de interactuar con APIs, bases de datos y otros servicios (tools).
  7. Orquestar la comunicación entre agentes (agent-to-agent) para flujos distribuidos y coordinados.
  8. Implementar Context-Aware Generation (CAG) para mantener y utilizar historial de conversación y metadatos.
  9. Diseñar pipelines de Multi-Component Processing (MCP) que integren varios submodelos o agentes especializados.
  10. Usar plataformas low-code/no-code para prototipar y desplegar chains, agentes, RAG y pipelines de IA.
  11. Aplicar todos los conocimientos en un proyecto final que combine RAG, prompts, chains, agentes, CAG y MCP.
Temario
  • Unidad 1
  • Introducción a los Modelos LLM
  • Qué es un LLM (Large Language Model)
  • Definición y características de los LLM.
  • Diferencia entre LLM y otros modelos de IA.
  • Casos de uso de LLM (chatbots, generación de texto, traducción, etc.).
  • Unidad 2
  • Entrenamiento de los Modelos LLM
  • Teoría detrás del entrenamiento de modelos LLM
  • Embeddings en LLM.
  • Redes neuronales profundas y Transformers.
  • Cómo se entrenan los LLM actuales
  • Procesos de pre-entrenamiento y fine-tuning.
  • RAG
  • Unidad 3
  • Fundamentos del Prompting
  • Qué es un prompt
  • Definición y función del prompt en los LLM.
  • Tipos de prompts (instructivos, de completado, conversacionales).
  • Cómo los LLM entienden los prompts
  • Tokenización y procesamiento de texto.
  • Contextualización y respuesta generada.
  • Unidad 4
  • Metodologías para Crear Prompts Eficaces
  • Técnicas y buenas prácticas para diseñar prompts
  • Claridad y especificidad en el prompt.
  • Uso de ejemplos y feedback iterativo.
  • Gestión de la longitud de los prompts.
  • Ejemplos prácticos de creación de prompts
  • Generación de texto, resumen, clasificación.
  • Búsqueda de información en bases de datos.
  • Preguntas y respuestas.
  • Herramientas para probar y mejorar prompts
  • Plataformas como OpenAI, Hugging Face, etc.
  • Unidad 5
  • Configuración de Cuentas en Nubes con LLM
  • Configuración de cuentas en Google Cloud (GCP) y OpenAI
  • Creación y gestión de cuentas en GCP y OpenAI.
  • Activación y configuración de API keys.
  • Configuración de servicios para uso de LLM (API de OpenAI, Vertex AI en GCP).
  • Control de costos y acceso (limitar uso, establecer presupuestos).
  • Implementación de modelos LLM en la nube
  • Uso de LLM disponibles (GPT, PaLM, etc.).
  • Integración básica de LLM en aplicaciones en la nube.
  • Unidad 6
  • Conceptos Avanzados: Chains en LLM
  • Qué es un chain en el contexto de LLM
  • Definición de un chain: Secuencia de operaciones para lograr un resultado más complejo.
  • Tipos de chains (secuencia, condicional, iterativo).
  • Cómo implementar un chain en un LLM
  • Ejemplos prácticos: Combinación de múltiples prompts, uso de memoria y contextos previos.
  • Unidad 7
  • Aplicaciones Low-Code / No-Code para Implementar Chains y RAG
  • Herramientas Low-Code / No-Code para crear chains
  • Plataformas populares como n8n.
  • Integración con APIs de LLM (GPT, Cohere, etc.)
  • Creación de una aplicación de LLM sin escribir código
  • Ejemplo práctico: Automatización de tareas con n8n.
  • Diseño de flujos de trabajo simples para automatizar tareas usando LLM.
  • Unidad 8
  • Agentes y herramientas
  • Qué es un agente en el contexto de LLM
  • Definición de agente, ciclo de percepción–decisión–acción.
  • Diferencias entre un simple chain y un agente con herramientas.
  • Integración de tools
  • Conexión de un agente a APIs, bases de datos y servicios externos.
  • Ejemplos: uso de buscadores, calendarios, sistemas de tickets.
  • Unidad 9
  • Agent-to-Agent
  • Comunicación entre agentes
  • Protocolos y formatos de intercambio de mensajes.
  • Coordinación de tareas distribuidas.
  • Casos de uso
  • Orquestación de flujos de trabajo complejos.
  • Ejemplo práctico: un agente de consulta de datos + un agente de generación de informes.
  • Unidad 10
  • CAG – Context-Aware Generation
  • Principios de generación contextual
  • Definición de CAG y su relación con chains y agentes.
  • Mantenimiento de contexto a lo largo de múltiples turnos.
  • Implementación
  • Estrategias para inyectar contexto histórico y metadatos.
  • Ejemplo práctico: generación de respuestas que varían según el entorno del usuario.
  • Unidad 11
  • MCP – Model Context Protocol
  • Patrones de composición modular
  • Definición de MCP y cómo difiere de un chain tradicional.
  • Ventajas del modularidad y la reutilización de componentes.
  • Unidad 12
  • Proyecto Final
  • Desarrollo de un caso real que combine:
  • Prompts avanzados.
  • Chains y agentes con tools.
  • Comunicación agent-to-agent.
  • Context-Aware Generation y Multi-Component Processing.
  • Presentación y retroalimentación.
Horarios

Inicio
21 de Agosto

Fin
09 de Octubre

Dias
Martes y Jueves

Horario
7:00pm a 10:00pm 🇵🇪 🇨🇴 🇪🇨 🇵🇦
6:00pm a 9:00pm 🇲🇽 🇨🇷 🇬🇹
8:00pm a 11:00pm 🇧🇴 🇺🇸 🇩🇴 🇨🇱
9:00pm a 12:00pm 🇦🇷
Certificados

Diploma de reconocimiento Smart Data

Diploma de Reconocimiento

A los alumnos que aprueben los exámenes del curso satisfactoriamente se les otorgará un diploma de reconocimiento.

Diploma de participación Smart Data

Diploma de Participación

A los alumnos que no aprueben los exámenes del curso se les otorgará un diploma de participación.

Docente

John Andersson Cardozo

Director de Analítica e Inteligencia de Negocios en Domina Entrega Total

MSc Geanfranco Palomino

Head of Data Science & Analytics - Yanbal

Clase Modelo

Medios de Pago

Fechas:

Inicio:

21 Agosto

Fin:

09 Octubre

Duración:

15 Sesiones

Días:

Martes y Jueves
19:00 a 22:00 GMT-5

¡Únete a nuestra comunidad de Cloud Computing!

¿Quieres estar siempre a la vanguardia en Azure, AWS, GCP y mucho más sobre Cloud?

En nuestra comunidad te enviaremos información valiosa gratis todos los días.
¡Únete a nuestra comunidad de Cloud Computing!

¿Quieres estar siempre a la vanguardia en Azure, AWS, GCP y mucho más sobre Cloud?

En nuestra comunidad te enviaremos información valiosa gratis todos los días.

Preguntas frecuentes

¿Qué formas de pago hay?
Puedes hacer el pago con tu tarjeta de débito/crédito Visa, Mastercard u otros o con tu cuenta de Paypal o Mercado Pago. Para coordinar medios de pago como Western Union, Moneygram, Yape o Plin escribir al Whatsapp de la parte inferior derecha (+51917646049).
¿El curso esta en español?
El curso está completamente en español. Algún material adicional de vanguardia podría estar en inglés.
¿El curso es en vivo o pregrabado?
Las clases son en vivo vía Zoom y podrás hacer todas tus consultas en tiempo real. La clase se grabará y se subirá al Classroom para que puedas repasar.
¿Puedo pagar en otra moneda?
No te preocupes, puedes pagar con tu moneda nacional en cualquier momento, el monto se convierte a tu moneda nacional en automatico al momento del pago.