Respuestas de foro creadas
-
Asignar roles en el app workspace es una funcionalidad que nos ayuda mucha a organizar como queremos compartir la data (datasets, reportes y dashboards) y asi mismo trabajar con ella.
Basado en la primera linea debemos por default, colaborar con más personas de un proyecto de Power BI, mediante un App workspace.
Publicar, importar, y actualizar los elementos que confluyen en el workspace vimos la opcion de View Lineage, la cual nos sirve para identificar cómo fluyen los datos a través de los distintos elementos en el workspace y poder identificar algún problema o bajo rendimiento del flujo.
Muy interesante el Incremental refresh por sobre todo porque no conocia mucho del tema, particularmente usar los parametros "RangeStart" y "RangeEnd". Asi mismo, rescato las medallas y certificaciones (Certify) para avalar un Dataset, me parece una funcion que brinda seguridad y confianza a los developers. Por ultimo, Configurar un dataset scheduled refresh es una optimizacion para cualquier desarrollador power bi ya que ahorras tiempo y te enfocas en temas mas prioritarios.
Muy interesante esta seccion sobre todo xq no conocia algunas funcionalidades como Analyze en ciertos gráficos nos permite analizar distintas distribuciones de nuestros datos. Emplear el scatter plott para Identificar outliers. La ayuda y ahorro de tiempo que te pueden dar las funcionalidades de Q&A y finalmente usar el decomposition tree para desglosar una medida entre valor más alto o valor más bajo, dependiendo de lo que estemos analizando o buscando. Esto nos permite incentivar la exploración de los indicadores y realizar un análisis de causa raíz.
El Formato condicional en Power Bi con las ultimas actualizaciones se ha vuelto muy flexible y dinamico lo cual te permite realizar diferentes tipo de configuraciones para que nuestro usuario pueda apreciar de mejor manera los resultados mas resaltantes o llamativos.
Rescato tambien las funciones RANKX y TOP N las cuales uno pensara que son lo mismo pero en realidad son para diferentes tipo de cálculos, el primero da un valor scalar mientra que el otro una tabla.
Por ultimo, me gusto mucha la sección del empleo del Analytics Pane, es un gran forma de empezar a analizar patrones de comportamiento de nuestra data.Esta sección es muy importante para el diseño de nuestros reportes y aplicar consideraciones que abarcan el UX y el UI. Mediante el uso de bookmars: para facilitar la navegación del usuario y su experiencia con el reporte, podemos editar y configurar las interacciones entre visualizaciones y filtros para enriquecer o puntualizar alguna información, podemos configurar la navegación del reporte, y finalmente implementar drill through, Cross filter, o Drill down a nuestros datos utilizando visualizaciones interactivas.
En esta seccion rescato lo siguiente:
- Los reportes pueden tener multiples hojas de trabajo mientras que los dashboards solo una.
- Los reportes se relacionan con un solo modelo de datos mientras que los dashboards pueden estar relacionados con distintos modelos de datos a traves de las visualizaciones agregadas.
- El tema Q&A vimos que las preguntas sugeridas y los sinónimos para esta funcionalidad se configuran para el dataset.- El tema de data classification no lo conocio y me parecio genial podamos comunicar la confidencialidad y sensibilidad de nuestros datos utilizando esta funcionalidad.
- Tampoco conocia los data alerts y estas alertas de datos las podíamos configurar en los dashboards de Power BI Service y solo se podían configurar en las KPI cards, cards y gauges.
En esta sección de Visualizar y analizar los datos, rescato su importancia y valoración que tiene el correcto diseño del reporte para un PBI report Developer ya que en resumidas cuentas es la forma en que nuestro cliente se relacionara con nuestro trabajo. Por lo tanto la selección de los visuales, el uso correcto de los colores, la proximidad de nuestros elementos visuales, alineación de los elementos, el contraste y el orden es muy importante para darle ese toque profesional y valor agregado a nuestros reportes.
Así mismo, debemos considerar el uso de Tooltips para ayudar al usuario a entender mejor la información o brindarle mayor detalle de la data.
Una sección bastante importante la cual me enseño y dio mayor claridad en los siguientes puntos:
- Conocer como funciona el Storage Engine a través de la compresión de datos con el motor Vertipaq. Por lo que ahora me queda claro que Power BI emplea dos motores de procesamiento los cuales son: el Formula Engine a través del motor Dax y el Storage Engine a través de los motores Vertipaq y DirectQuery.
- Cardinality levels: Conocer que significaba la cardinalidad en Power BI, lo cual es la cantidad de valores únicos en una columna. Poder reducirla a través del cambio de tipo de datos, creación de columnas separando data innecesaria y las agrupaciones logrando así reducir el tamaño del archivo y optimizar su velocidad de carga.
- Performance Analyzer: Una herramienta muy poco valorada pero que adquiere valor cuando trabajas en proyectos con grandes volúmenes de datos.
- Aggregations: Desconocía esta funcionalidad y me sorprendió la forma en que optimizo la velocidad y tamaño del reporte. Lamentablemente solo se puede realizar con la conexión a la data a través del Direct Query.
Hola, esta sección es una de las mas valiosas en mi humilde opinión. Ver la potencia y la diversidad de la función: CALCULATE() con la función DATEADD(). Conocer o valorar otras que no tenia muy bien mapeadas como: TOTALYTD() o LASTNONBLANK han sumado en mi repertorio de conocimientos valiosas funciones para realizar análisis y cálculos a través del tiempo dándole un correcto contexto de Filtro o Filter context.
Buenas noches,
Muy buen modulo el cual me esclareció dudas que tenia con respecto a:
- Me gusto mucho conocer la función de SUMMARIZECOLUMNS en el apartado de Crear tablas calculadas, ya que con ella podemos relacionar dos elementos de diferentes tablas para nuestros analisis.
- El apartado de las jerarquías son muy útiles para potenciar nuestros visuales y tambien para facilitar el uso del reporte a los usuarios.
- Row Level Security y su configuración, sobre todo la dirección del filtro que también involucra esta funcionalidad.
- Finalmente, lo de Q&A le agrego mucho valor para mi a la sección ya que no tenia idea las posibilidades de configuración que se tenía disponible.
Muchas gracias!
El diseño, construcción y funcionamiento de nuestro modelo de datos es una pieza fundamental para cualquier reporte de calidad. En esta sección me llevo un gran aprendizaje en como hacer este proceso con las mejores prácticas disponibles. Adicionalmente a ello, me quedó mucho mas claro como funcionan los cross-filter en dirección BOTH y como a veces no da los resultados esperados, lo mejor es respetar las recomendaciones y armar tu modelo bajo relaciones de: Uno a muchos con dirección *Single* de la *Dim Table* hacia la *Fact table*.
Muy interesante esta sección, si bien ya me eran familiares varias de las funciones y herramientas aquí mencionadas resalto dos que no conocía a profundidad el como funcionaban:
1) La opción del KEPT ERRORS en Power Query, lo cual facilita la revisión y análisis de valores errados o fallados en nuestras consultas.
2) Lenguaje M, yo pensaba que el # se colocaba en cada nuevo paso o linea de codigo, pero solo se coloca si el nombre de ese nuevo paso tiene; en su nombre, un espacio en blanco.
Gracias por lo compartido,
Saludos
En esta sección me pareció muy interesante la opcion que te brinda Power Query para detectar la calidad de tu data. Con funcionalidades que no conocía como: el Colum Profile y el Column Distribution. Anteriormente, solo empleaba el Data Quality, así que esto es un salto de calidad en mi análisis de Data Quality.
Lo que me pareció más interesante y me brindo mayor entendimiento del mismo, fue el punto de DIRECTQUERY tocado en esta sección. El uso de este tipo de conexión es útil cuando hay grandes volúmenes de datos que la memoria Cache del PBI a través del import se le dificulte manejar además que nos brinda una imagen casi en vivo de los datos.