Aprendizajes de la sección “Optimize model performance” del módulo “Model the data”

  • dlom
    Participante

      ¿Qué aprendiste en la sección “Optimize model performance”?
      ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?
      ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?

    • dlom
      Participante

        Es bastante diferencia, @chaffardet
        Gracias por compartir tus resultados :raised_hands:t2:

        Carlos_Figueroa
        Espectador

          ¿Qué aprendiste en la sección “Optimize model performance”?
          La importancia de tener un Modelo bien diseñado, te facilita la gestión de los datos, es más liviano, rápido, etc.

          ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?
          La velocidad de ejecución es clave para los usuarios finales. He visto muchas aplicaciones de calidad fallar porque no funcionan rápido. Hoy en día un aspecto clave del éxito es la velocidad de ejecución.

          ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?
          Considero que el tema de los cardinality levels y los aggregations deberían ser preguntas fijas en el Examen.

          dlom
          Participante

            Bien dicho @Carlos_Figueroa .
            El modelo de datos es crucial para desarrollar una buena solución en Power BI.

            jburrull
            Espectador
              • Aprendí cómo trabaja el motor Vertipaq Engine en cuanto a reducir o comprimir modelo de datos
              • Aprendí técnicas para que modelo se reduzca, eliminando columnas innecesarias, cambiando formatos, etc.
              • Finalmente usando conexiones Import Query para agrupaciones y Direct Query para detalles. Así se reduce considerablemente el tiempo de refresh del modelo.
              josses
              Espectador

                En esta sección he aprendido que hay que tener paciencia antes de hacer las visualizaciones para poder ordenar y optimizar el procesamiento de los datos. De nada sirve tener hermosas visualizaciones si van a tener un tiempo de carga y procesamiento elevado. Para ello, las herramienta que hemos podido ver en la sección, como Group by, eliminar columnas innecesarias, procesamiento de fechas y horas, decimales y varios detalles que son relativamente simples de manejar, nos pueden hacer mejorar la performance de nuestro modelo de datos.
                El concepto de reducir la cardinalidad y el uso del Performance Analycer es fundamental antes de pasar a las visualizaciones.
                No he tenido la posibilidad de poner en práctica aún las agregaciones, pero me pareció realmente una herramienta que será muy útil al momento de su aplicación.

                llopez
                Espectador

                  Buenos dias

                  Esto fue lo aprendido en la presente sección:

                  • Eliminar filas y/o columnas no necesarias para el modelo a realizar ,quedarse con lo necesario y no tener información que se pueda sacar de otras tablas relacionadas
                  • Analizador de rendimiento, que nos permite ver el tiempo en milisegundos de lo que se demora en cargar los resultados y las visualizaciones, buen tip el revisar este tiempo para que no sea extenso, lo cual causaría incomodidad al usuario final
                  • La parte de “cardinality levels”, no enseña a que sea lo mas bajo la cardinalidad, mientras mas bajo es, se reducirá el peso de las tablas y por ende del archivo; se puede utilizar la opción de group by para tener los datos resumidos (a mi opinión, una opción, considero esto podría ser un data mart extraído desde una base de datos, y no necesariamente todas las tablas que ocuparían mas espacio)
                  • Aggregation: Este apartado aunque fue corto y directo, considero que se puede revisar mas a fondo y ver que ventajas nos da el usar el direct query con agregaciones, quizás para hacer reportes en tiempo real y que no demoren mucho.

                  Saludos.

                  jluis
                  Espectador

                    Modulo muy interesante. Además me viene genial porque en mi empresa estoy trabajando en la creación de un reporte en PowerBI conectado a Dynamics, el cual contiene una gran cantidad de información y he realizado todo lo visto hasta este capitulo para intentar que sea lo menos pesado posible pero aún así buscaba mejorar más el rendimiento, por lo que este modulo me viene perfecto para intentar incorporar estas funcionalidades. En esta sección he aprendido:

                    • Como funciona muy por encima el VertiPag Engine. Siempre está bien conocerlo para poder adaptar tu trabajo a las necesidades que requiere PowerBI y así obtener el archivo lo más fino posible. Rebajando en la medida de lo posible la cardinalidad de nuestras columnas entre otras acciones.
                    • Ver los cuellos de botella de nuestros reportes con el botón de Perfomance Analyzer.
                    • Crear y manejar las agregaciones cuando estamos trabajando con grandes cantidades o tarden demasiado las consultas. Esta parte me ha encantado y voy a investigar más para poder incorporarlo a mis reports.

                    Tema interesantísimo.

                    PS: @Diego, te mandé un mensaje privado porque estoy teniendo problemas en las visualizaciones de las fichas de Repaso que hay tras los Quiz. Muchas gracias.

                    Isidre
                    Espectador

                      Hola Kevin,

                      ¡Qué manera de empezar el año!
                      Te vas comer con patatas el examen DA-100. Sin duda los resúmenes que se van acumulando son una fuente de repaso para el resto de la comunidad.

                      Sin prisas, pero con paso firme. Felicidades y sigue con tu objetivo, caerá como la fruta madura.

                      Un saludo!!

                      JoseSanchez
                      Participante

                        ¿Qué aprendiste en la sección “Optimize Model Performance”?

                        Varios temas importantes a la hora de reducir el tamaño del Pbix.

                        ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?

                        A pararme a analizar más, previamente a comenzar limpieza, etc. qué nivel de granularidad voy a necesitar, incluso la posibilidad de realizar agregaciones si es el caso. Creo que básico sobre todo cuando hablamos de muchísimos registros procedentes, por ejemplo, de sensores de fabricación provenientes de IoT en un proceso productivo.

                        ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?

                        Tener más claras las ideas relativas a rendimiento y optimización.

                        dat2194862088
                        Participante
                          dlom dijo

                          ¿Qué aprendiste en la sección “Optimize model performance”?

                          Esta sección fue chévere, pq se pudo ver como optimizar nuestros datos, para mejorar el rendimiento de los informes en Porwer BI

                          ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?

                          Será muy útil ya que algunas veces los informes empiezan a tornarse lentos y pesados, y este tipo de optimización sería la mejor manera de mejorar eso.

                          ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?

                          Espero que pueda responder con certeza los puntos relacionados con este tema.

                           

                          dennysSalazar117
                          Participante

                            Saludos, del tema Mejorar cardinality levels al cambiar el data type he concluído lo siguiente:

                            -La cardinalidad será mayor si existen más valores distintos, esto aumenta el tamaño del archivo lo cual no es beneficioso.

                            -La herramienta para analizar el rendimiento desgloza para cada proceso el tiempo en que se demora el realizar su trabajo. Este indicador permite al analista centrarse en aquel proceso que mayor tiempo tarda para tomar las acciones necesarias y mejorar dichos inconvenientes.

                            -Las agregaciones se enfocan en los datos más importante, con ello se reduce el tiempo de análisis, la cara innecesaria de otros datos, entre otros beneficios.

                            Héctor Vicente Delgado
                            Participante

                              ¿Qué aprendiste en la sección “Optimize model performance”?

                              -La importancia de eliminar columnas innecesarias o duplicadas para un optimo funcionamiento del modelo.
                              -Trabajar con agregaciones cuando nuestro volumen de datos es muy grande y el tiempo de respuesta en las consultas es elevado.
                              -Reducir la cardinalidad para reducir el peso de las tablas.
                              -Nociones de funcionamiento del motor VERIPAQ.

                              Nicolas
                              Participante

                                Vertipaq engine es un nuevo concepto el cual nos ayuda a comprimir más nuestro archivo para que las consultas funcionen aun más rápido , perfomance analyzer es una excelente herramienta para ver la velocidad de nuestros objetos visuales y de esta manera evaluar como se puede mejorar con las técnicas que hemos aprendido.

                                Lo de cardinalidad quedo clarisimo y muchas veces nos centramos en arreglar el tipo de dato pero no analizamos realmente si se puede reducir los caracteres de una columna o ver si hay ID innecesarios ya que millones de filas con valores unicos sin repetir nos pueden traer problemas importantes a nivel de capacidad de respuesta para el usuario final.

                                Juan
                                Participante

                                  Una sección bastante importante la cual me enseño y dio mayor claridad en los siguientes puntos:

                                  – Conocer como funciona el Storage Engine a través de la compresión de datos con el motor Vertipaq. Por lo que ahora me queda claro que Power BI emplea dos motores de procesamiento los cuales son: el Formula Engine a través del motor Dax y el Storage Engine a través de los motores Vertipaq y DirectQuery.

                                  – Cardinality levels: Conocer que significaba la cardinalidad en Power BI, lo cual es la cantidad de valores únicos en una columna. Poder reducirla a través del cambio de tipo de datos, creación de columnas separando data innecesaria y las agrupaciones logrando así reducir el tamaño del archivo y optimizar su velocidad de carga.

                                  – Performance Analyzer: Una herramienta muy poco valorada pero que adquiere valor cuando trabajas en proyectos con grandes volúmenes de datos.

                                  – Aggregations: Desconocía esta funcionalidad y me sorprendió la forma en que optimizo la velocidad y tamaño del reporte. Lamentablemente solo se puede realizar con la conexión a la data a través del Direct Query.

                                   

                                Viendo 14 respuestas - de la 16 a la 29 (de un total de 29)
                                • Debes estar registrado para responder a este debate.