-
¿Qué aprendiste en la sección “Optimize model performance”?
¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?
¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?
-
Buenas tardes estimados compañer@s,
Lo aprendido fue:
¿Qué aprendiste en la sección “Optimize model performance”?
- La importancia de importar las columnas que son necesarias.
- No duplicar columnas, es decir solo tener una columna en una tabla y que no se repita en otra.
- Siempre realizar un test del desempeño de nuestras visualizaciones antes de utilice el usuario final.
- Trabajar con “aggregations” nos puede ayudar mucho a optimizar el tiempo de respuesta de la carga de una visualización.
¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?
- A enfocarme en el desempeño de mi archivo (entregable) antes de presentarlo al usuario final.
Saludos,
SantiagoBuenisima esta sección, no conocía nada de esas practicas para la simplificación de modelo y el tamaño de los archivos de power BI, había leido que se debe de cambiar de date/time a date para eso pero no tenía mucha idea del por qué , ahora con los ejemplos me doy cuenta. Otro tema interesante es el de aggregation, utilizando directQuery , solo que note que tengo que tener importada la misma tabla pero resumida por Group By , es un tema a explorar porque considero que tiene muchas funcionalidades más allá de lo presentado.
A seguir aprendiendo
Sinceramente me ha servido bastante esta sección, no me había dado a la tarea de investigar sobre como hace PBI para compactar los datos, super bien explicado sobre el VertiPad Engine, sinceramente tengo que reparsar un poco mas el tema de Aggregations, ya que como bien comento Diego nos puede ayudar demasiado para modelos muy grandes o si mi info tarda mucho en consultarse.
No se diga más, a seguir practicando.
Qué aprendiste en la sección “Optimize model performance”?
Toda la información que coloquemos en el modelo ya sea a través de un archivo excel, conexión a una BD en la nube por import o Direct Query debemos revisar que no tengamos información duplicada y tratar de que la cardinalidad sea la menor posible. Por otro lado, las “aggregations” son una buena práctica que optimiza el desempeño y velocidad del cuadro de mando que estemos desarrollando.
¿Qué aprendiste en la sección “Optimize model performance”?
Aprendí sobre el Performance Analyzer, una herramienta que nos ayuda a identificar los problemas de desempeño.
Aprendí a crear y manejar agregaciones con el objetivo de centrarnos en los datos más importantes y significativos para un análisis mas detallado.
Aprendí que es recomendable eliminar filas y columnas de la tabla de hechos y si quiero alguna información peculiar de la eliminado irme a las demás tablas dinámicas para encontrar dicha información.
Aprendí que el Verti Paq sirve para comprimir los datos y mientras mas columnas innecesarias elimine menor trabajo le voy a dejar para comprimir.¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?
Me sirve muchísimo porque nos da las claves para fijarnos en la etapa para mi mas importante de Power BI que es el modelo de datos.
Quiero dejar una frase que me gusta mucho que resume todo lo aprendido; “Primero el modelo, después el modelo y al final el modelo”.¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?
Me servirá para diferenciarme de mi competencia y ser un profesional atractivo para el mercado que sabe controlar una herramienta disruptiva como es el Power BI.Hola, Optimizar el Modelo y su performance, me parecio super buenisimo, asi como el aprender sobre el Analizador de Rendimientos.
En Crear y manejar AGGREGATIONS, me quedo una duda, esta nueva tabla creada se debe terminar por relacionar al modelo?, lo volvere a ver de todas maneras. Gracias.Eliminar columnas innecesarias de una tabla ayuda de manera importante en el performance de los reportes
Conocer el medidor de performance es de gran utilidad y eso fue notorio en el uso de aggregationsQue bien que te estén sirviendo mi idea es poder ayudar a cada uno a aportar de la mejor manera en la comunidad. Por otro lado muchas gracias por la información adicional que complementas sobre aggregattions me sirve mucho.
Espero de corazón que te vaya increíble en la certificación y mucho ánimo
@KevinRoger Excelente los resúmenes que compartes ! Me sirve de mucho para recapitular cada tema.
Solo añadir a tu resumen respecto a las “Aggregations” que estas funcionan solo con las tablas con Storage Mode: Direct Query (extrae directamente la información de la BD realizando actualizaciones). Este tema me pareció muy importante para el rendimiento de los análisis, aún falta investigar un poco más!
Saludos!
Lo que he aprendido en este módulo para optimizar la performance de nuestro modelo:
- Dejar filas por fuera a través de la utilización del filtro en el Power Query Editor
- Eliminar columnas innecesarias evitando información duplicada entre tablas.
- Utilizar el performance analyzer para monitorear cuanto tarda en actualizarse el gráfico seleccionado.
- Vertipaq Enginee
- Uso de agregations y funcionalidades.
Buenas noches:
Me ha sido de mucha ayuda entender esta sección.
Entender el modo de compresion del VertiPaq Engine.
Los conceptos de cardinalidad-levels me eran totalmente desconocidos y lo aplicaré en mis proyectos para reducir el tamaño de los archivos.
El concepto de agregaciones para agilizar las consultas en el direct query era totalmente ajeno. En casi todos los proyectos con conexión a direct query las consultas se demoraban y la visualización de los reportes excedian. Pondré en practica las agregaciones provenientes de conexioned import.
Saludos,
Muchas gracias @Isidre, me animas mucho. Voy con todo el ánimo para preparar este examen. Fue un objetivo que nos propusimos y lo vamos a cumplir.
Una vez más felicidades por lograr tu certificación, ahora a seguir aprendiendo .
Un abrazo a la distancia.
¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?
- Eliminar filas y Columnas no necesarias y el porque es útil.
- Este punto señala que un reporte independiente de su calidad en la información, también es importante fijarse en cuanto pesa el archivo y qué es lo que hace que pese más o menos.
- Para esta sección se trata el concepto de Vertipaq Engine, el cual es un mecanísmo que comprime los datos dentro de Power BI donde:
-Si hay + cantidad de datos en el modelo, + grande el archivo.
-Si hay - cantidad de datos en el modelo, + liviano es el archivo. - Es por esto que se hace la recomendación de acceder a Power Query y decidir que columnas de la base a la que nos conectaremos, serán necesarias o no. Una vez tomada esa decisión proceder a eliminar las columnas y filas innecesarias (utilizando los filtros de la columna).
- Por último si una columna de una tabla está contenida en otra tabla, se recomienda eliminarla dado que se podrán obtener los datos al momento de relacionar las tablas usando la función RELATED()
-
- Identificar medidas, relaciones y visualizaciones con mal desempeño.
- En este apartado aprendimos utilizar el Performance Analyzer, el cual cumple la función de ayudarnos a detectar cuanto tarda en cargar el reporte y todo lo que contiene, con el fin medir el desempeño del reporte antes de dejarlo en “Productivo”. Dentro de los datos que muestra esta función está.
-Gráficos, campos utilizados o medidas, tiempo que toma en actualizarse el reporte, etc.
- Mejorar los niveles de cardinalidad (Cardinality Levels) al combinar el “Data Type”.
- Si tengo una columna del tipo tiempo donde en una sola celda se contiene hora:minutos:segundo y todos los valores de este campo son únicos, hará que el reporte pierda eficiencia, por lo que se recomienda: agregar columnas nuevas en Power Query, extrayendo la hora, minuto y segundo en columnas distintas y elimnando en un nuevo paso el campo original.
- En el caso de tener Fecha con tiempo, solo transformar la vista del dato a formato Fecha: dd/mm/aaaa.
- Mejorar “Cardinality levels” mediante "Summarization"
- En este apartado hace mención a la misma idea anterior pero reduciendo el nivel de datos a través de la opción GROUP BY , donde puedes sumar, contabilizar datos respecto a fechas.
Ejemplo: -
- Utilización de Aggregattions.
- Aquí aprendimos que se puede utilizar para encontrar los Insight más importantes, siendo que la base maneja mucho volumen de información, creando así una tabla intermedia que será utilizada para consultar la información de manera más rápida.
¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?
- Creo que la mejor manera de definir la importancia de esta sección es su enfoque a La eficiencia de un reporte y creo que para la certificación es muy importante no solamente que sabemos crear buenos modelos de datos o limpieza de datos, si no que el reporte cumpla con el objetivo que ofrece la herramienta que es optimizar el tiempo.
Lo aprendido :
- La funcionalidad que hay detrás de la tecnología de VERTIPAQ y aquellos supuestos en los que realmente se aprovecha al máximo.
- Para no perjudicar a VERTIPAQ debemos importar solo aquellas filas que sean objeto de análisis. Eliminar columnas innecesarias, que es la parte que perjudica más al motor de compresión.
- Disminuir la cardinalidad de los datos al mínimo posible. Para ello podemos utilizar la opción de “Group by” para “resumir” los datos.
- Para los modelos que se conecten en modo “Direct Query”, podemos utilizar la opción de “aggregations”
- Aggregations nos permite utilizar lo mejor de Direct Query sin renunciar al rendimiento de las consultas.
Utilidad :
Mucha, aunque hasta el momento no he tenido la oportunidad de trabajar en modo Query de manera
profesional.Para la Certificación :
Al ser un apartado que no había trabajado antes seguro que será útil, e imagino que algún punto acabará apareciendo en el examen.
Buenos días,
Lo aprendido:
- Como funciona el motor Vertipaq, siempre es bueno tener noción de como funcionan las cosas.
- La cardinalidad, aunque no lo conocía con ese concepto en un modelo que tengo ya lo había aplicado reduciendo el tamaño considerablemente.
- El performance Analyzer está muy bien para tener una idea de como trabaja el modelo, en Excel usaba VBA para evaluar el tiempo que tomaba una macro en ejecutarse.
- Agreggations está muy bien, solo que habría que practicar para poder afianzar mejor los datos.
Siempre será mejor mantener el mínimo de columnas y filas necesarias que no afecten al modelo claro, para tener optimizado el modelo.
Considerable cuanto disminuye el tiempo usando agreggations, una muestra de mi modelo.
- Debes estar registrado para responder a este debate.