Ingeniería de Datos e IA con Databricks

Este curso está diseñado para una amplia gama de profesionales y estudiantes que buscan dominar las habilidades y herramientas esenciales para procesar, analizar y transformar grandes volúmenes de datos esto incluye a los analistas de datos, ingenieros de datos, científicos de datos, estudiantes y cualquier persona que esté interesada en big data y la programación.
  •   Clases en vivo
  • Inicio: 25 Noviembre
  • 40 Hrs. Acad.
  • Fin: 30 Diciembre
  • 10 sesiones
  • Lunes y Miércoles
  • Clases en vivo
  • Inicio: 25 Noviembre
  • Fin: 30Diciembre
  • 40 Hrs. Acád.
  • 10 Sesiones
  • Lunes y Miércoles

$249.00

Precio regular: $500.00

$249.00

1ra Edición

Acerca del Curso

Introducción

  • El objetivo general de este curso es formar ingenieros de datos capaces de diseñar y construir soluciones de datos escalables y confiables en Azure Databricks. A través de un enfoque teórico-práctico y el uso de casos de estudio reales, los participantes adquirirán las habilidades necesarias para trabajar con grandes volúmenes de datos, transformarlos y generar insights valiosos para la toma de decisiones.
  • Prepárate para la certificación de Databricks Fundamentals, Databricks Generative AI Fundamentals y Databricks Data Engineer Associate.
Requisitos
  • No necesitas tener una laptop o computadora potente pues todo se trabaja en la nube.
  • Conocimientos previos: lenguaje de programación y SQL.
Público Objetivo
  • Ingenieros de Datos
  • Analistas de Datos
  • Científicos de Datos
  • Desarrolladores
  • Estudiantes de carreras relacionadas con datos.
  • Personas con conocimiento básico en análisis de datos.
Temario
  • 1. Conceptos de la nube y databricks
  • Informática en la nube
  • Conceptos de Azure y databricks
  • Creación de workspace databricks en azure (configuración de cluster)
  • Exploración de la interfaz de Databricks

Laboratorio: Creación de cuenta de azure, creación de workspace databricks, configuración del cluster, costeo del cluster.

  • 2. Carga y Procesamiento de datos con Pyspark
  • Introducción a Pyspark
  • Lectura y escritura de datos (CSV, JSON, Parquet)
  • Manipulación de datos con Pyspark: Operaciones básicas, agregación, funciones, selección
  • Trabajar con la arquitectura bronce, silver y Golden.

Laboratorio: Creación de azure storage, lectura de archivos, manipulación.

  • 3. SQL y Delta Lake con Pyspark
  • Realizar consultas SQL
  • Funciones UDF en Pyspark
  • Conceptos de Delta Lake
  • Creación de Delta Tables

Laboratorio: Creación de tablas delta, creación de funciones UDF, usar Spark SQL

  • 4. Incremental Data Processing
  • Que es la carga incremental, maestra, temporal
  • Funciones de Carga Incremental
  • Merge, Auto Loader, Copy Into

Laboratorio: Incremental Data en casos reales y prácticos con pyspark y spark sql

  • 5. Workflows en Databricks
  • Qué son los workflows
  • Creación de pipelines con workflows
  • Conceptos de Jobs, triggers, dependencias
  • Parametrización de workflows

Laboratorio: Creación de un workflow completo en Databricks.

  • 6. Delta Live Tables
  • Introducción a Delta Live Tables
  • Creación de pipeline de datos
  • Automatización de workflows con delta live tables

Laboratorio: Creación de pipelines con Delta Live Table.

  • 7. Unity Catalog y Data Governance
  • Introducción a Unity Catalog
  • Conceptos de Gobernanza de Datos
  • Catálogos, esquemas y permisos
  • Administración de metadatos

Laboratorio: Creación de un workspace Unity Catalog.

  • 8. Construyendo Pipelines con Data Factory
  • Introducción a Azure Data Factory
  • Creación de pipelines
  • Integración con Azure Databricks
  • Orquestación de pipelines

Laboratorio: Creación de un ETL con Data Factory y Databricks.

  • 9. Real Time Streaming con Azure Event Hubs, Azure Streaming
  • Introducción a Event Hubs y Azure Streaming
  • Integración de Event Hubs con Databricks
  • Integración de Azure Streaming con Databricks
  • Procesamiento con spark streaming

Laboratorio: Integración de servicios streaming con Databricks.

  • 10. IA Generativa con Databricks
  • Introducción a la IA Generativa
  • Modelos de Lenguaje Grande (LLM)
  • Integración de modelos de IA con Databricks

Laboratorio: Creación de un modelo de IA Generativa en Databricks.

Horarios

Inicio
25 de Noviembre

Fin
30 de Diciembre

Dias
Lunes y Miércoles

Horario
7:00pm a 10:00pm 🇵🇪 🇨🇴 🇪🇨 🇵🇦
6:00pm a 9:00pm 🇲🇽 🇨🇷 🇬🇹
8:00pm a 11:00pm 🇧🇴 🇺🇸 🇩🇴
9:00pm a 12:00pm 🇦🇷 🇨🇱
Certificados

Diploma de reconocimiento Smart Data

Diploma de Reconocimiento

A los alumnos que aprueben los exámenes del curso satisfactoriamente se les otorgará un diploma de reconocimiento.

Diploma de participación Smart Data

Diploma de Participación

A los alumnos que no aprueben los exámenes del curso se les otorgará un diploma de participación.

Docente

Daniel Santos - Smart Data

Daniel Santos

Senior Data Engineer - Indra

Clase Modelo

Medios de Pago

¡Únete a nuestra comunidad de Cloud Computing!

¿Quieres estar siempre a la vanguardia en Azure, AWS, GCP y mucho más sobre Cloud?

En nuestra comunidad te enviaremos información valiosa gratis todos los días.
¡Únete a nuestra comunidad de Cloud Computing!

¿Quieres estar siempre a la vanguardia en Azure, AWS, GCP y mucho más sobre Cloud?

En nuestra comunidad te enviaremos información valiosa gratis todos los días.

Preguntas frecuentes

¿Qué formas de pago hay?
Puedes hacer el pago con tu tarjeta de débito/crédito Visa, Mastercard u otros o con tu cuenta de Paypal o Mercado Pago. Para coordinar medios de pago como Western Union, Moneygram, Yape o Plin escribir al Whatsapp de la parte inferior derecha (+51917646049).
¿El curso esta en español?
El curso está completamente en español. Algún material adicional de vanguardia podría estar en inglés.
¿El curso es en vivo o pregrabado?
Las clases son en vivo vía Zoom y podrás hacer todas tus consultas en tiempo real. La clase se grabará y se subirá al Classroom para que puedas repasar.
¿Puedo pagar en otra moneda?
No te preocupes, puedes pagar con tu moneda nacional en cualquier momento, el monto se convierte a tu moneda nacional en automatico al momento del pago.