¡Ya tenemos profesor del mes de marzo en IEBS! Se llama Antonio Pabón y es docente de la asignatura ‘Proceso de ETL. Del dato a la información’. Para conocerle un poco más y ver cómo ha conseguido tan buena motivación y entusiasmo por parte de los estudiantes, le hacemos una pequeña entrevista. ¿Empezamos?
Tu asignatura se llama ‘Proceso de ETL. Del dato a la información’: ¿Qué es lo que más te gusta de ella?
Lo que más me gusta de poder impartir esta asignatura es que puedo, de una forma muy natural, transmitir conceptos en torno a la integración de datos con procesos ETL, contando mis propias experiencias y situaciones con las que me enfrento a diario. Me encanta, además, que le he dado a este módulo una orientación muy práctica, permitiendo a los alumnos entrar en contacto con herramientas ETL y adquirir ciertas destrezas en el tratamiento del dato.
Tienes muy buenas valoraciones por parte del alumnado. ¿Cómo consigues que se motiven y enganchen a la asignatura desde el principio?
Con empatía, paciencia y mucha vocación por el servicio educativo. Soy consciente de que, al llegar a este módulo, algunos alumnos no han tenido experiencia previa ni con lenguajes de programación como SQL, ni mucho menos con herramientas ETL. Con lo cual, lo que les transmito es tranquilidad, ya que más que esperar que terminen siendo expertos en alguna herramienta, algo prácticamente imposible, mi mayor satisfacción al finalizar el módulo es que los alumnos hayan asimilado los conceptos y que, a partir de las prácticas realizadas, comprendan que las herramientas ETL pueden ayudarles, en el plano laboral, en la gestión del dato.
¿Qué te aporta ser docente en tu desarrollo profesional? ¿Hay alguna anécdota que quieras compartir?
Siempre he pensado que enseñando también se aprende, y mucho. Para la parte práctica de este módulo tuve que explorar varias herramientas ETL más orientadas a científicos de datos que no conocía con el fin de ampliar las opciones de los alumnos.
La mención que me han hecho algunos de ellos en Linkedin es el mayor de los premios que puedo recibir por la pasión que representa para mí el hecho de ser docente.
Tienes muchos años de experiencia profesional. ¿Cómo crees que ha cambiado el procesamiento de datos en los últimos años?
Tanto el procesamiento de los datos como el almacenamiento de los mismos ha cambiado y evolucionado mucho en los últimos tiempos. Con la entrada de conceptos como el Big Data, la tendencia en el procesamiento es la de cargar inmensos volúmenes de datos de distinta tipología y variedad a gran velocidad, además de garantizar la veracidad de la información.
¿Dónde y cómo almacenar los datos? Ese es otro aspecto que ha evolucionado mucho. Además de las bodegas de datos tradicionales, ahora tenemos otros tipos de repositorios como los lagos de datos (data lakes), la nube y otras arquitecturas más recientes como los data lake houses, que combinan lo mejor de los data warehouse y los data lakes.
En cualquier caso, el procesamiento y almacenamiento carece de sentido si después no somos capaces de integrar, esquematizar o estructurar el dato para poder analizarlo y explotarlo, que al final es lo realmente importante. No hacemos nada con cantidades inmensas de datos si no los podemos analizar o sacar insights de ellos.
¿Qué fase consideras la principal en todo el proceso de ETL?
Todas son realmente importantes y en cada una de ellas hay buenas prácticas y técnicas a aplicar de cara a garantizar flujos de datos eficientes y eficaces.
En la fase de extracción de datos debemos garantizar poder hacerlo en el menor tiempo posible, sin penalizar el sistema fuente. En la fase de transformación de datos debemos aprovechar para enriquecer el dato, de cara a minimizar tareas de cálculos o limpieza de datos en fases posteriores. Los usuarios deben invertir la mayor parte de su tiempo en analizar los datos. Y en la fase de carga debemos saber elegir el mejor repositorio para nuestros datos y garantizar la veracidad en la entrega de los mismos.
Una lectura que recomendarías:
Toda aquella bibliografía que haga referencia a las metodologías, buenas prácticas y tendencias en el procesamiento e integración de datos. Particularmente, tomo como base dos títulos sobre metodologías muy aceptadas en el mercado: ‘The Data Warehouse ETL Toolkit’, de Ralph Kimball, y ‘Building the Data Warehouse’, de William H. Inmon.
Sobre tendencias más recientes recomendaría ‘Building a Scalable Data Warehouse with Data Vault 2.0’, de Daniel Linstedt y Michael Olschimke. Y también ‘La guía del conocimiento para la Gestión de Datos (DAMA-DMBOK)’, que presenta una visión integral de los desafíos, las complejidades y el valor de la gestión eficaz de datos.
Mil gracias Antonio por tu gran trabajo además de por todas las referencias que nos has dado para profundizar en estas metodologías, ya sea para nuestra trayectoria profesional o simplemente por pura curiosidad. ¿Y tú? ¿Conoces algún otro libro o artículo que nos quieras recomendar? ¿Ya sabías de la existencia de alguno de los que nos ha dejado el profesor? ¡Compártelo con nosotros en un comentario!