Héctor Vicente Delgado

Respuestas de foro creadas

Viendo 14 respuestas - de la 1 a la 14 (de un total de 14)
  • Héctor Vicente Delgado
    Participante

      ¿Qué aprendí en la sección “Create and Manage Workspaces”?

      -Como crear un App Workspace para colaborar con otros usuarios dentro de la organizacion.

      -Asignar roles a los usuarios de las areas de trabajo.

      -Agregar contenido al workspace y revisar las métricas de los reportes.

      -Conocer los cuatro roles de usuario disponibles en un workspace: -Admin, Member, Contributor y Viewer.

      -Comprender la relación entre distintos elementos del Workspace con la vista linaje.

      -Como organizar el método de trabajo en función de la cantidad de usuarios que participen en el area.

      Héctor Vicente Delgado
      Participante

        ¿Que he aprendido e la sección “Manage datasets”?

        -A comprender el proceso: Preparar los datos, modelar los datos, visualizar los datos, analizar los datos e implementar y mantener los recursos.

        -Administrar el acceso de los datasets que has creado a diferentes usuarios. Con ello conseguimos que todos los miembros de la organización trabajen con una unica fuente de datos (one source of truth) para que posteriormente puedan crear sus dashboards.
        Para realizar este proceso, tenemos que cambiar el acceso a los usuarios implicados marcandolos como colaboradores, y no solo como viewrs, de este modo podrán acceder a nuestro dataset y crear en torno a él.

        -La opción promoted y la opcion certified, las cuales ayudan a mantener organizados los conjuntos de datos.
        Estas etiquetas se agregan a los conjuntos de datos para que puedan ser identificadas por los consumidores de dichos conjuntos de datos.
        Con la etiqueta de promoted, conseguimos que el consumidor pueda ver rápidamente, dentro de todos sus conjuntos de datos, cuales son los mas importantes o cuales está recomendando la organización. Es el creador del dataset quien puede realizar la acción de asignar el promoted a su fichero.
        En certified tienes que tener ciertos permisos especiales, y esto solo pueden hacerlo usuarios que hayan pasado por un proceso altamente selectivo.

        -Aprender a configurar una actualización programada para que los conjuntos de datos se actualicen solos con una periodicidad de tiempo elegida por ti.
        Hay dos opciones, actualizar ahora (tienes que poner las credenciales del servidor al que te conectes) o programar actualización (tienes que seleccionar la frecuencia de actualizacion.
        Cuando nos conectamos a un conjunto de datos local tenemos que crear una puerta de enlace para acceder a ese servidor o archivo local.
        Esta puerta de enlace funciona como un puente entre Power Bi Service y los datos de tu ordenador o servidor.

        -Saber manejar la actualización incremental.
        La actualización regular “provoca” que todos nuestros datos originales se crean en una sola tabla con nuestros nuevos datos, de esta manera se pierde la información que teniamos en la tabla original y la actualización tardara muchísimo tiempo.
        Con la actualizacion incremental solo se actualizarán los datos nuevos, mejorando la eficiencia y velocidad.
        Para que esto funcione solo podremos hacerlo con fuentes de datos que acepten el plegado de consultas.
        Esta actualización se configura desde el desktop con la creación de parámetros (RangeStart y RangeEnd). Estos parámetros se tienen que configurar si o si en nuestra tabla de hechos, mediante la adición de un nuevo filtro.

        -Administrar el RLS en grupos, en lugar de por personas. Tu misión como desarrollador es crear esos grupos.

        Héctor Vicente Delgado
        Participante

          ¿Que he aprendido en la sección “Técnicas avanzadas de análisis”?

          -Saber que es un outlier, como identificarlo (a través de visualizaciones) y aislarlo para analizarlo posteriormente.

          -Crear listas y grupos y entender las diferencias. En las listas trabajaremos con datos categóricos, y en los grupos trabajaremos con valores continuos, con rangos.
          Podemos crearlos gracias a las visualizaciones.

          -Analizar datos en función de la dimensión del tiempo. Esto nos servirá para identificar tendencias y hacer pronósticos.
          Una herramienta para ello es el objeto visual Play Axis, la cual nos creará una visualización animada.

          -Utilizar la visualización de elementos influyentes clave para descubrir los elementos que mas impacto están generando.
          Esta visualización trabaja con elementos de IA.

          -Descubrir el objeto visual de esquema jerárquico para desglosar medidas. Este visual puede trabajar con columnas y con medidas.
          Podemos desglosar el análisis por cualquiera de los valores que hayamos incluido y también identificando el valor mas elevado y el mínimo.
          Esto nos ayuda a detectar donde esta el problema en el desempeño de la organización.

          -Agrupar los clusters para identificar segmentos de datos similares entre ellos pero diferentes al resto. Con ello podemos juntar y aislar grupos de datos. La visualización detecta automáticamente los clusters y tu decides que cantidad de ellos quieres.

          Héctor Vicente Delgado
          Participante

            ¿Que he aprendido en la seccion “enhance reports to expose insights”?

            -Aplicar formato condicional para resaltar información esencial mediante colores. Por ejemplo utilizar diferentes colores para valores negativos y positivos y así poder ver inmediatamente las tendencias.

            -Agregar segmentadores y filtros, concretamente la funcionalidad de fecha relativa dentro de un slicer para medir lo que desees desde el día actual.

            -Utilizar la opción TOP N para mostrar un numero de elementos concretos y así enfocarnos en los datos mas relevantes. Podemos utilizarlo mediante el panel de filtros o a través de DAX.
            Tambien tenemos la funcion RANKX que lo que hace es devolvernos un ranking ordenado por posiciones.

            -Utilizar el resumen estadístico para identificar patrones o tendencias, mediante por ejemplo un grafico de dispersión.

            -La importancia del Q&A visual para responder de forma rápida y eficaz a preguntas de todo tipo. Esta funcionalidad es magnifica para el usuario final.

            -Agregar quick insights tanto en desktop como en Power BI Service. Esto ayuda a analizar informacion con un nivel de amplitud muy grande. Esto ayuda a buscar distribuciones diferentes a las que hemos aplicado en las visualizaciones.

            -Crear líneas de tendencia, de mínimos o de máximos para enriquecer tu reporte.

            -La función Play Axis para crear una visualización animada y atractiva para el usuario final.

            Héctor Vicente Delgado
            Participante

              ¿Qué he aprendido en la sección “Enrich reports for usability”?

              -Configurar los marcadores para fijar la configuración actual de la vista que tienes en la pantalla.
              -Agregar botones para desplazarse a través del informe.
              -Aplicar una correcta sincronizacion de los slicers para no causar confusión al usuario final.
              -Configurar correctamente las acciones de los botones para mejorar la experiencia de navegación.
              -Entender la finalidad de los tooltips y como pueden ayudarnos a obtener información adicional al pasar el ratón por encima.
              -Aprender que los reportes son interactivos y pueden relacionarse entre si a traves del botón “editar interacciones”. Los 3 niveles de interacción son, filtrar, resaltar y ninguno.
              -Trabajar con “sorting” para ordenar y resaltar la información del reporte. Ordenando en función del parámetro que desees y en forma ascendente o descendente.
              -Conocer el panel de selección para ordenar todas las capas del reporte y facilitar la navegaciones a través de las visualizaciones.
              -La funcionalidad “drill througt” para filtrar las paginas por completo a un elemento que tengamos seleccionado en una visualización.
              -El funcionamiento de la opción “drill down” para trabajar entre distintos niveles de interacción.
              -Diseñar reportes para dispositivos móviles.
              -Exportar los datos de las visualizaciones a archivos CSV, PDF y Excel.

              Héctor Vicente Delgado
              Participante

                ¿Qué aprendiste en la sección “Create dashboards”?

                -Diferencia entre dashboard e informe.
                -Adaptar los dashboards a la mobile view.
                -La configuración de las data alerts para KPI y tarjetas.
                -La utilización del Q&A y los sinónimos.
                -Añadir descripciones en los dashboards

                Héctor Vicente Delgado
                Participante

                  ¿Qué aprendiste en la sección “Create reports”?

                  -Aplicar el formato condicional en las visualizaciones.
                  -La utilización de filtros y segmentadores en los reportes.
                  -La accesibilidad de los formatos, por ejemplo para personas con problemas visuales.
                  -El orden dentro de las tabulaciones.
                  -Cambiar y jugar con distintos formatos dentro de las visualizaciones.
                  -Como trabajar con R y Phyton dentro de Power BI.

                  Héctor Vicente Delgado
                  Participante

                    ¿Qué aprendiste en la sección “Optimize model performance”?

                    -La importancia de eliminar columnas innecesarias o duplicadas para un optimo funcionamiento del modelo.
                    -Trabajar con agregaciones cuando nuestro volumen de datos es muy grande y el tiempo de respuesta en las consultas es elevado.
                    -Reducir la cardinalidad para reducir el peso de las tablas.
                    -Nociones de funcionamiento del motor VERIPAQ.

                    Héctor Vicente Delgado
                    Participante

                      ¿Qué aprendiste en la sección “Create measures by using DAX”?

                      -Es una buena práctica crear un grupo donde almacenar conjuntas todas las nuevas medidas.
                      -AVERAGE, MAX, MIN, COUNT…. como medidas estadísticas basicas.
                      -Es preferible trabajar con medidas antes que hacerlo con columnas.
                      -DAX permite combinar medidas dentro de otras medidas.
                      -Dentro de CALCULATE, tenemos el row context (valores dentro de una fila) y el filter context (valores dentro de una tabla).
                      -La función CALCULATE puede modificar el filter context.
                      -Las “semi-additive measures” no pueden ser agregadas a través de todas las dimensiones, no se suman o acumulan de la misma manera en todos los niveles de jerarquia.
                      -Las medidas de time inteligence son formulas que se utilizan para realizar calculos relacionados con el tiempo, tales como comparaciones entre periodos o acumulaciones.
                      Algunas de ellas son DATESYTD, PREVIOUSMONTH, TOTALMTD. Permiten realizar calculos precisos y flexibles en el contexto temporal de los datos.

                      Héctor Vicente Delgado
                      Participante

                        ¿Qué he aprendido en la sección “Develop a data model”?

                        -Creación de columnas calculadas y su contexto de fila (Row Context).
                        -Como manejar y administrar las Q&A.
                        -Como implementar los  roles de seguridad a nivel de fila para controlar quien tiene acceso a la información.
                        -La creación de jerarquías para resumir la información.
                        -El concepto cross-filter direction para manejar los datos de forma correcta.
                        -La funcion  addcolumns(calendarauto()), creada en este caso desde DAX.

                        Héctor Vicente Delgado
                        Participante

                          ¿Qué he aprendido en la sección “Design a Data Model”?

                          -La diferencia entre los modelos tipo estrellas y los modelos tipo de nieve, especialmente la importancia del primero.
                          -Interpretar y definir la granularidad de los datos.
                          -Aplanar jerarquías independientemente de su numero de niveles (PATH y PATHITEM)
                          -La forma de administrar relaciones entre tablas tanto con Query editor como con DAX.
                          -La creación de tablas auxiliares para resolver las many-to-many relationships.
                          -Las diferencias entre fact tables y dimension tables y como realizar buenas prácticas.
                          -Conocer el tipo de relación  entre tablas:
                          One to One
                          One to Many
                          Many to Many

                          Héctor Vicente Delgado
                          Participante

                            ¿Qué aprendiste en la sección “Clean, Transform, and Load the data”? :

                            -Como la funcion “append” te permite anexar varias tablas, y “merge” te ayuda a fusionar las consultas.

                            -Las opciones transpose y unpivot para facilitar la lectura de estructuras mas complejas.

                            -El editor avanzado para el uso de lenguaje M.

                            -La función habilitar y deshabilitar las cargas de las tablas para no mostrar en el modelado las tablas que no necesites.

                            -La gestión y manejo de los errores para una correcta lectura de los datos.

                            Héctor Vicente Delgado
                            Participante

                              En la sección “Profile the data” he aprendido lo siguiente:

                               

                              -La importancia de detectar anomalías en los datos y como tratarlos posteriormente.
                              -La utilización de la opcion “Column profile” para ser capaz de descubrir cuales son los distintos valores estadísticos que tienen nuestras columnas.
                              -Como la opción “Column distribution” nos permite identificar la cantidad de veces que se repiten valores en las columnas.
                              -La multitud de maneras diferentes para evaluar la calidad de mis datos.

                              Héctor Vicente Delgado
                              Participante

                                ¡Hola!

                                Os dejo las principales lecciones que he aprendido en esta primera parte del curso:

                                ~Diferencia entre import y Direct Query.

                                ~Existencia de conectores genéricos como OBDC y OLE DB.

                                ~Creación de parámetros y filtros.

                                ~Los shared datasets para que todos los miembros de la organización puedan trabajar con el mismo tipo y volumen de datos.

                                ~El mundo dataverse y sus peculiaridades.

                                Estoy deseando seguir avanzando y conocer más en profundidad esta herramienta. Animo a todos.

                              Viendo 14 respuestas - de la 1 a la 14 (de un total de 14)