¡Hasta 17% de descuento por CYBER HABEMUS DATA!⏰ Solo hasta el 20/05/2025 ⏰
00 días
00 horas
00 minutos
00 segundos
Obtener Promo

Especialización

6ta Edición

Ingeniería de Datos e IA con Databricks

Gestiona las herramientas más poderosas para procesar de datos en la nube

Este curso está diseñado para una amplia gama de profesionales y estudiantes que buscan dominar las habilidades y herramientas esenciales para procesar, analizar y transformar grandes volúmenes de datos esto incluye a los analistas de datos, ingenieros de datos, científicos de datos, estudiantes y cualquier persona que esté interesada en big data y la programación.
  •   Clases en vivo
  • 60 Hrs. Acad.
  • 15 sesiones
  • Clases en vivo
  • 60 Hrs. Acád. | 15 Sesiones

$324

Precio regular: $650

$324

Precio regular:
$650

6ta Edición

Acerca del Curso

Introducción

  • El objetivo general de este curso es formar ingenieros de datos capaces de diseñar y construir soluciones de datos escalables y confiables en Azure Databricks. A través de un enfoque teórico-práctico y el uso de casos de estudio reales, los participantes adquirirán las habilidades necesarias para trabajar con grandes volúmenes de datos, transformarlos y generar insights valiosos para la toma de decisiones.
  • Prepárate para la certificación de Databricks Fundamentals, Databricks Generative AI Fundamentals,  Databricks Data Engineer Associate y Databricks Platform Administrator Accreditation .
Requisitos
  • No necesitas tener una laptop o computadora potente pues todo se trabaja en la nube.
  • Conocimientos previos: lenguaje de programación y SQL.
Público Objetivo
  • Ingenieros de Datos
  • Analistas de Datos
  • Científicos de Datos
  • Desarrolladores
  • Estudiantes de carreras relacionadas con datos.
  • Personas con conocimiento básico en análisis de datos.
Temario
  • 1. Conceptos Básicos de Cloud y Databricks
  • Informática en la nube
  • Conceptos de Azure y Databricks
  • Creación de workspace Databricks en azure (configuración de clúster)
  • Exploración de la interfaz de Databricks

Laboratorio: Navegación por Azure, configuración de workspace en Databricks y manejo clúster.

  • 2. Procesamiento con Spark SQL
  • Fundamentos de Spark SQL
  • Lectura y escritura de datos con JSON, CSV, parquet
  • Manipulación de datos con Spark SQL
  • Visualización de datos con Spark SQ

Laboratorio: Lectura, manipulación y transformación de datos con Spark SQL.

  • 3. Procesamiento con PySpark
  • Introducción a PySpark
  • Lectura y escritura de datos con JSON, CSV, parquet
  • Manipulación de datos con PySpark (métodos, funciones, UDF)
  • Visualización de datos con PySpark

Laboratorio: Lectura, manipulación y transformación de datos con PySpark.

  • 4. Optimizaciones en Delta Lake con PySpark
  • Introducción a Delta Lake
  • Conceptos de tablas delta
  • Delta time Table (DTT)
  • Conversiones a tablas delta
  • Optimizaciones (Z-ordering, partitioning, Vacuum, Optimize)

Laboratorio: Creación de tablas delta, particionamiento de tablas, y optimizaciones en tablas delta.

  • 5. ETL con Spark SQL y PySpark
  • Diseño de procesos ETL
  • Extracción de datos desde diversas fuentes
  • Transformaciones complejas con PySpark y SQL

Laboratorio: Desarrollo de ETL complejo usando PySpark y Spark SQL desde múltiples fuentes aplicando transformaciones completas con buenas prácticas de desarrollo.

  • 6. Incremental Data Processing
  • Definición de carga incremental, maestra y temporal.
  • Funciones de Carga Incremental.
  • Merge, Auto Loader, Copy Into.

Laboratorio: Incremental Data en casos reales y prácticos con PySpark y Spark SQL

  • 7. Workflows en Azure Databricks
  • Definición de workflows
  • Creación de pipelines con workflows
  • Conceptos de Jobs, triggers, dependencias
  • Parametrización de workflows

Laboratorio: Creación de workflows en Databricks completo.

  • 8. Delta Live Tables (DLT)
  • Introducción a Delta Live Tables
  • Creación de pipeline de datos
  • Automatización de workflows con delta live tables

Laboratorio: Creación de pipelines con Delta Live Table.

  • 9. Gobernanza en Databricks con Unit Catalog
  • Creación de metastore
  • Manejo de permisos y roles en Databricks
  • Creación de storage credential y external location
  • Linaje y auditoria de datos

Laboratorio: Montar unit catalog , asignación de roles, definición de storage credential y external location, linaje y auditoria de datos sobre Databricks.

  • 10. Seguridad y administración de Databricks
  • Administración de usuarios y grupos dentro de unit catalog
  • Seguridad a nivel de red y cifrado
  • Monitorización de actividad y auditorías
  • Creación de políticas dentro de Databricks

Laboratorio: Trabajo sobre usuarios, grupos, definición de accesos y creación de políticas.

  • 11. Construyendo Dataflows y pipelines de datos con Data Factory
  • Introducción a Azure Data Factory
  • Creación de pipelines
  • Integración con Azure Databricks
  • Orquestación de pipelines

Laboratorio: Creación de dataflows y pipelines de datos usando Data Factory y Databricks.

  • 12. Real time streaming con even hubs, stream Analitycs y Azure Databricks
  • Introducción a Event Hubs y Azure Streaming
  • Integración de Event Hubs con Databricks
  • Integración de Azure Streaming con Databricks
  • Procesamiento con Spark streaming

Laboratorio: Integración de servicios streaming con Databricks.

  • 13. Dashboard Databricks y PowerBI
  • Generación de dashboard con PySpark
  • Generación de dashboard con tablas de unit catalog
  • Conexión de Databricks con power bi

Laboratorio: Creación de dashboard interactivos con Databricks y Conexión de tablas de unit catalog con Power BI.

  • 14. CI/CD features con Databricks  
  • Introducción a CI/CD en Databricks
  • Git Repos, Databricks CLI y API
  • Integración con Azure DevOps y GitHub Actions

Laboratorio: Configuración de repositorio git, uso de Databricks CLI y creación de CI/CD con git hub actions.

  • 15. IA Generativa con Databricks
  • Introducción a la IA Generativa
  • Modelos de Lenguaje Grande (LLM)
  • Integración de modelos de IA con Databricks

Laboratorio: Creación de un modelo de IA Generativa en Databricks.

Horarios

Inicio
11 de Junio

Fin
04 de Agosto

Dias
Lunes y Miércoles

Horario
7:00pm a 10:00pm 🇵🇪 🇨🇴 🇪🇨 🇵🇦
6:00pm a 9:00pm 🇲🇽 🇨🇷 🇬🇹
8:00pm a 11:00pm 🇧🇴 🇺🇸 🇩🇴
9:00pm a 12:00pm 🇦🇷 🇨🇱
Certificados

Diploma de reconocimiento Smart Data

Diploma de Reconocimiento

A los alumnos que aprueben los exámenes del curso satisfactoriamente se les otorgará un diploma de reconocimiento.

Diploma de participación Smart Data

Diploma de Participación

A los alumnos que no aprueben los exámenes del curso se les otorgará un diploma de participación.

Docente

Ing. Anthony Huaccachi

Data Engineer Senior - BCP

Clase Modelo

Medios de Pago

Fechas:

Inicio:

11 Junio

Fin:

04 Agosto

Duración:

15 Sesiones

Días:

Lunes y Miércoles
19:00 a 22:00 GMT-5

¡Únete a nuestra comunidad de Cloud Computing!

¿Quieres estar siempre a la vanguardia en Azure, AWS, GCP y mucho más sobre Cloud?

En nuestra comunidad te enviaremos información valiosa gratis todos los días.
¡Únete a nuestra comunidad de Cloud Computing!

¿Quieres estar siempre a la vanguardia en Azure, AWS, GCP y mucho más sobre Cloud?

En nuestra comunidad te enviaremos información valiosa gratis todos los días.

Preguntas frecuentes

¿Qué formas de pago hay?
Puedes hacer el pago con tu tarjeta de débito/crédito Visa, Mastercard u otros o con tu cuenta de Paypal o Mercado Pago. Para coordinar medios de pago como Western Union, Moneygram, Yape o Plin escribir al Whatsapp de la parte inferior derecha (+51917646049).
¿El curso esta en español?
El curso está completamente en español. Algún material adicional de vanguardia podría estar en inglés.
¿El curso es en vivo o pregrabado?
Las clases son en vivo vía Zoom y podrás hacer todas tus consultas en tiempo real. La clase se grabará y se subirá al Classroom para que puedas repasar.
¿Puedo pagar en otra moneda?
No te preocupes, puedes pagar con tu moneda nacional en cualquier momento, el monto se convierte a tu moneda nacional en automatico al momento del pago.