Foro Empleos Academia Blog
Recursos
  • Ejemplos de dashboards
  • DatData Games
  • Alumnos destacados
  • Torneos pasados
Search Icon Iniciar sesión Inscribirme
Back arrow

Power BI

hace 2 años

Aprendizajes de la sección “Optimize model performance” del módulo “Model the data”

dlom

¿Qué aprendiste en la sección “Optimize model performance”? ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI? ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?
0 Votos
32
Respuestas
Respuestas

IsidreBague646

hace 2 años

Lo aprendido :
  • La funcionalidad que hay detrás de la tecnología de VERTIPAQ y aquellos supuestos en los que realmente se aprovecha al máximo.
  • Para no perjudicar a VERTIPAQ debemos importar solo aquellas filas que sean objeto de análisis. Eliminar columnas innecesarias, que es la parte que perjudica más al motor de compresión.
  • Disminuir la cardinalidad de los datos al mínimo posible. Para ello podemos utilizar la opción de “Group by” para “resumir” los datos.
  • Para los modelos que se conecten en modo “Direct Query”, podemos utilizar la opción de “aggregations”
  • Aggregations nos permite utilizar lo mejor de Direct Query sin renunciar al rendimiento de las consultas.
Utilidad : Mucha, aunque hasta el momento no he tenido la oportunidad de trabajar en modo Query de manera profesional. Para la Certificación : Al ser un apartado que no había trabajado antes seguro que será útil, e imagino que algún punto acabará apareciendo en el examen.
1 Votos

SantiagoNavarrete218

hace 2 años

Buenas tardes estimados compañer@s, Lo aprendido fue: ¿Qué aprendiste en la sección “Optimize model performance”?
  • La importancia de importar las columnas que son necesarias.
  • No duplicar columnas, es decir solo tener una columna en una tabla y que no se repita en otra.
  • Siempre realizar un test del desempeño de nuestras visualizaciones antes de utilice el usuario final.
  • Trabajar con “aggregations” nos puede ayudar mucho a optimizar el tiempo de respuesta de la carga de una visualización.
¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?
  • A enfocarme en el desempeño de mi archivo (entregable) antes de presentarlo al usuario final.
Saludos, Santiago
0 Votos

ArgenisChaffardet727

hace 2 años

Buenos días, Lo aprendido:
  • Como funciona el motor Vertipaq, siempre es bueno tener noción de como funcionan las cosas.
  • La cardinalidad, aunque no lo conocía con ese concepto en un modelo que tengo ya lo había aplicado reduciendo el tamaño considerablemente.
  • El performance Analyzer está muy bien para tener una idea de como trabaja el modelo, en Excel usaba VBA para evaluar el tiempo que tomaba una macro en ejecutarse.
  • Agreggations está muy bien, solo que habría que practicar para poder afianzar mejor los datos.
Siempre será mejor mantener el mínimo de columnas y filas necesarias que no afecten al modelo claro, para tener optimizado el modelo. Considerable cuanto disminuye el tiempo usando agreggations, una muestra de mi modelo. Performance Analyzer Power BI
0 Votos

dlom

hace 2 años

Es bastante diferencia, @chaffardet Gracias por compartir tus resultados :raised_hands:t2:
0 Votos

CarlosFigueroa597

hace 2 años

¿Qué aprendiste en la sección “Optimize model performance”? La importancia de tener un Modelo bien diseñado, te facilita la gestión de los datos, es más liviano, rápido, etc. ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI? La velocidad de ejecución es clave para los usuarios finales. He visto muchas aplicaciones de calidad fallar porque no funcionan rápido. Hoy en día un aspecto clave del éxito es la velocidad de ejecución. ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación? Considero que el tema de los cardinality levels y los aggregations deberían ser preguntas fijas en el Examen.
0 Votos

dlom

hace 2 años

Bien dicho @Carlos_Figueroa . El modelo de datos es crucial para desarrollar una buena solución en Power BI.
0 Votos

josemiguelburrull392

hace 2 años

  • Aprendí cómo trabaja el motor Vertipaq Engine en cuanto a reducir o comprimir modelo de datos
  • Aprendí técnicas para que modelo se reduzca, eliminando columnas innecesarias, cambiando formatos, etc.
  • Finalmente usando conexiones Import Query para agrupaciones y Direct Query para detalles. Así se reduce considerablemente el tiempo de refresh del modelo.
0 Votos

JoseOsses541

hace 2 años

En esta sección he aprendido que hay que tener paciencia antes de hacer las visualizaciones para poder ordenar y optimizar el procesamiento de los datos. De nada sirve tener hermosas visualizaciones si van a tener un tiempo de carga y procesamiento elevado. Para ello, las herramienta que hemos podido ver en la sección, como Group by, eliminar columnas innecesarias, procesamiento de fechas y horas, decimales y varios detalles que son relativamente simples de manejar, nos pueden hacer mejorar la performance de nuestro modelo de datos. El concepto de reducir la cardinalidad y el uso del Performance Analycer es fundamental antes de pasar a las visualizaciones. No he tenido la posibilidad de poner en práctica aún las agregaciones, pero me pareció realmente una herramienta que será muy útil al momento de su aplicación.
0 Votos

llopezg2810805

hace 2 años

Buenos dias Esto fue lo aprendido en la presente sección:
  • Eliminar filas y/o columnas no necesarias para el modelo a realizar ,quedarse con lo necesario y no tener información que se pueda sacar de otras tablas relacionadas
  • Analizador de rendimiento, que nos permite ver el tiempo en milisegundos de lo que se demora en cargar los resultados y las visualizaciones, buen tip el revisar este tiempo para que no sea extenso, lo cual causaría incomodidad al usuario final
  • La parte de “cardinality levels”, no enseña a que sea lo mas bajo la cardinalidad, mientras mas bajo es, se reducirá el peso de las tablas y por ende del archivo; se puede utilizar la opción de group by para tener los datos resumidos (a mi opinión, una opción, considero esto podría ser un data mart extraído desde una base de datos, y no necesariamente todas las tablas que ocuparían mas espacio)
  • Aggregation: Este apartado aunque fue corto y directo, considero que se puede revisar mas a fondo y ver que ventajas nos da el usar el direct query con agregaciones, quizás para hacer reportes en tiempo real y que no demoren mucho.
Saludos.
0 Votos

JoseLuis422

hace 2 años

Modulo muy interesante. Además me viene genial porque en mi empresa estoy trabajando en la creación de un reporte en PowerBI conectado a Dynamics, el cual contiene una gran cantidad de información y he realizado todo lo visto hasta este capitulo para intentar que sea lo menos pesado posible pero aún así buscaba mejorar más el rendimiento, por lo que este modulo me viene perfecto para intentar incorporar estas funcionalidades. En esta sección he aprendido:
  • Como funciona muy por encima el VertiPag Engine. Siempre está bien conocerlo para poder adaptar tu trabajo a las necesidades que requiere PowerBI y así obtener el archivo lo más fino posible. Rebajando en la medida de lo posible la cardinalidad de nuestras columnas entre otras acciones.
  • Ver los cuellos de botella de nuestros reportes con el botón de Perfomance Analyzer.
  • Crear y manejar las agregaciones cuando estamos trabajando con grandes cantidades o tarden demasiado las consultas. Esta parte me ha encantado y voy a investigar más para poder incorporarlo a mis reports.
Tema interesantísimo. PS: @Diego, te mandé un mensaje privado porque estoy teniendo problemas en las visualizaciones de las fichas de Repaso que hay tras los Quiz. Muchas gracias.
0 Votos

kevinmunozu374

hace 2 años

¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI?
  1. Eliminar filas y Columnas no necesarias y el porque es útil.
  • Este punto señala que un reporte independiente de su calidad en la información, también es importante fijarse en cuanto pesa el archivo y qué es lo que hace que pese más o menos.
  • Para esta sección se trata el concepto de Vertipaq Engine, el cual es un mecanísmo que comprime los datos dentro de Power BI donde: -Si hay + cantidad de datos en el modelo, + grande el archivo. -Si hay - cantidad de datos en el modelo, + liviano es el archivo.
  • Es por esto que se hace la recomendación de acceder a Power Query y decidir que columnas de la base a la que nos conectaremos, serán necesarias o no. Una vez tomada esa decisión proceder a eliminar las columnas y filas innecesarias (utilizando los filtros de la columna).
  • Por último si una columna de una tabla está contenida en otra tabla, se recomienda eliminarla dado que se podrán obtener los datos al momento de relacionar las tablas usando la función RELATED()
  • Optimizar modelo
    1. Identificar medidas, relaciones y visualizaciones con mal desempeño.
    • En este apartado aprendimos utilizar el Performance Analyzer, el cual cumple la función de ayudarnos a detectar cuanto tarda en cargar el reporte y todo lo que contiene, con el fin medir el desempeño del reporte antes de dejarlo en “Productivo”. Dentro de los datos que muestra esta función está. -Gráficos, campos utilizados o medidas, tiempo que toma en actualizarse el reporte, etc.
    1. Mejorar los niveles de cardinalidad (Cardinality Levels) al combinar el “Data Type”.
    • Si tengo una columna del tipo tiempo donde en una sola celda se contiene hora:minutos:segundo y todos los valores de este campo son únicos, hará que el reporte pierda eficiencia, por lo que se recomienda: agregar columnas nuevas en Power Query, extrayendo la hora, minuto y segundo en columnas distintas y elimnando en un nuevo paso el campo original.
    • En el caso de tener Fecha con tiempo, solo transformar la vista del dato a formato Fecha: dd/mm/aaaa.
    1. Mejorar “Cardinality levels” mediante "Summarization"
    • En este apartado hace mención a la misma idea anterior pero reduciendo el nivel de datos a través de la opción GROUP BY , donde puedes sumar, contabilizar datos respecto a fechas. Ejemplo:
      GROUP BY
      1. Utilización de Aggregattions.
      • Aquí aprendimos que se puede utilizar para encontrar los Insight más importantes, siendo que la base maneja mucho volumen de información, creando así una tabla intermedia que será utilizada para consultar la información de manera más rápida.
      ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación?
      • Creo que la mejor manera de definir la importancia de esta sección es su enfoque a La eficiencia de un reporte y creo que para la certificación es muy importante no solamente que sabemos crear buenos modelos de datos o limpieza de datos, si no que el reporte cumpla con el objetivo que ofrece la herramienta que es optimizar el tiempo.
0 Votos

IsidreBague646

hace 2 años

Hola Kevin, ¡Qué manera de empezar el año! Te vas comer con patatas el examen DA-100. Sin duda los resúmenes que se van acumulando son una fuente de repaso para el resto de la comunidad. Sin prisas, pero con paso firme. Felicidades y sigue con tu objetivo, caerá como la fruta madura. Un saludo!!
0 Votos

kevinmunozu374

hace 2 años

Muchas gracias @Isidre, me animas mucho. Voy con todo el ánimo para preparar este examen. Fue un objetivo que nos propusimos y lo vamos a cumplir. Una vez más felicidades por lograr tu certificación, ahora a seguir aprendiendo :smiley:. Un abrazo a la distancia.
0 Votos

FiorellaMosquera406

hace 2 años

Buenas noches: Me ha sido de mucha ayuda entender esta sección. Entender el modo de compresion del VertiPaq Engine. Los conceptos de cardinalidad-levels me eran totalmente desconocidos y lo aplicaré en mis proyectos para reducir el tamaño de los archivos. El concepto de agregaciones para agilizar las consultas en el direct query era totalmente ajeno. En casi todos los proyectos con conexión a direct query las consultas se demoraban y la visualización de los reportes excedian. Pondré en practica las agregaciones provenientes de conexioned import. Saludos,
0 Votos

Anade232

hace 2 años

Lo que he aprendido en este módulo para optimizar la performance de nuestro modelo:
  1. Dejar filas por fuera a través de la utilización del filtro en el Power Query Editor
  2. Eliminar columnas innecesarias evitando información duplicada entre tablas.
  3. Utilizar el performance analyzer para monitorear cuanto tarda en actualizarse el gráfico seleccionado.
  4. Vertipaq Enginee
  5. Uso de agregations y funcionalidades.
0 Votos

raulrenatocip353

hace 2 años

@KevinRoger Excelente los resúmenes que compartes ! Me sirve de mucho para recapitular cada tema. Solo añadir a tu resumen respecto a las “Aggregations” que estas funcionan solo con las tablas con Storage Mode: Direct Query (extrae directamente la información de la BD realizando actualizaciones). Este tema me pareció muy importante para el rendimiento de los análisis, aún falta investigar un poco más! Saludos!
0 Votos

kevinmunozu374

hace 2 años

Que bien que te estén sirviendo mi idea es poder ayudar a cada uno a aportar de la mejor manera en la comunidad. Por otro lado muchas gracias por la información adicional que complementas sobre aggregattions me sirve mucho. Espero de corazón que te vaya increíble en la certificación y mucho ánimo :muscle:t3::muscle:t3:
0 Votos

JoseRoberto584

hace 2 años

Eliminar columnas innecesarias de una tabla ayuda de manera importante en el performance de los reportes Conocer el medidor de performance es de gran utilidad y eso fue notorio en el uso de aggregations
0 Votos

JulioZarate401

hace 2 años

Hola, Optimizar el Modelo y su performance, me parecio super buenisimo, asi como el aprender sobre el Analizador de Rendimientos. En Crear y manejar AGGREGATIONS, me quedo una duda, esta nueva tabla creada se debe terminar por relacionar al modelo?, lo volvere a ver de todas maneras. Gracias.
0 Votos

CESARCHUNGA368

hace 2 años

¿Qué aprendiste en la sección “Optimize model performance”? Aprendí sobre el Performance Analyzer, una herramienta que nos ayuda a identificar los problemas de desempeño. Aprendí a crear y manejar agregaciones con el objetivo de centrarnos en los datos más importantes y significativos para un análisis mas detallado. Aprendí que es recomendable eliminar filas y columnas de la tabla de hechos y si quiero alguna información peculiar de la eliminado irme a las demás tablas dinámicas para encontrar dicha información. Aprendí que el Verti Paq sirve para comprimir los datos y mientras mas columnas innecesarias elimine menor trabajo le voy a dejar para comprimir. ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI? Me sirve muchísimo porque nos da las claves para fijarnos en la etapa para mi mas importante de Power BI que es el modelo de datos. Quiero dejar una frase que me gusta mucho que resume todo lo aprendido; “Primero el modelo, después el modelo y al final el modelo”. ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación? Me servirá para diferenciarme de mi competencia y ser un profesional atractivo para el mercado que sabe controlar una herramienta disruptiva como es el Power BI.
0 Votos

LUISCHOMBO157

hace 2 años

Qué aprendiste en la sección “Optimize model performance”? Toda la información que coloquemos en el modelo ya sea a través de un archivo excel, conexión a una BD en la nube por import o Direct Query debemos revisar que no tengamos información duplicada y tratar de que la cardinalidad sea la menor posible. Por otro lado, las “aggregations” son una buena práctica que optimiza el desempeño y velocidad del cuadro de mando que estemos desarrollando.
0 Votos

JorgeMeneses594

hace 2 años

Sinceramente me ha servido bastante esta sección, no me había dado a la tarea de investigar sobre como hace PBI para compactar los datos, super bien explicado sobre el VertiPad Engine, sinceramente tengo que reparsar un poco mas el tema de Aggregations, ya que como bien comento Diego nos puede ayudar demasiado para modelos muy grandes o si mi info tarda mucho en consultarse. No se diga más, a seguir practicando.
0 Votos

RubenPayan125

hace 2 años

Buenisima esta sección, no conocía nada de esas practicas para la simplificación de modelo y el tamaño de los archivos de power BI, había leido que se debe de cambiar de date/time a date para eso pero no tenía mucha idea del por qué , ahora con los ejemplos me doy cuenta. Otro tema interesante es el de aggregation, utilizando directQuery , solo que note que tengo que tener importada la misma tabla pero resumida por Group By , es un tema a explorar porque considero que tiene muchas funcionalidades más allá de lo presentado. A seguir aprendiendo :smile:
0 Votos

JoseAntonio314

hace 2 años

¿Qué aprendiste en la sección “Optimize Model Performance”? Varios temas importantes a la hora de reducir el tamaño del Pbix. ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI? A pararme a analizar más, previamente a comenzar limpieza, etc. qué nivel de granularidad voy a necesitar, incluso la posibilidad de realizar agregaciones si es el caso. Creo que básico sobre todo cuando hablamos de muchísimos registros procedentes, por ejemplo, de sensores de fabricación provenientes de IoT en un proceso productivo. ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación? Tener más claras las ideas relativas a rendimiento y optimización.
0 Votos

InesJojoa984

hace 2 años

dlom dijo
¿Qué aprendiste en la sección “Optimize model performance”? Esta sección fue chévere, pq se pudo ver como optimizar nuestros datos, para mejorar el rendimiento de los informes en Porwer BI ¿Cómo te servirá esto que aprendiste en tus desarrollos de Power BI? Será muy útil ya que algunas veces los informes empiezan a tornarse lentos y pesados, y este tipo de optimización sería la mejor manera de mejorar eso. ¿Cómo te servirá esto que aprendiste al presentar el examen de certificación? Espero que pueda responder con certeza los puntos relacionados con este tema.
 
0 Votos

DennysSalazar800

hace 2 años

Saludos, del tema Mejorar cardinality levels al cambiar el data type he concluído lo siguiente: -La cardinalidad será mayor si existen más valores distintos, esto aumenta el tamaño del archivo lo cual no es beneficioso. -La herramienta para analizar el rendimiento desgloza para cada proceso el tiempo en que se demora el realizar su trabajo. Este indicador permite al analista centrarse en aquel proceso que mayor tiempo tarda para tomar las acciones necesarias y mejorar dichos inconvenientes. -Las agregaciones se enfocan en los datos más importante, con ello se reduce el tiempo de análisis, la cara innecesaria de otros datos, entre otros beneficios.
0 Votos

HectorVicente687

hace 1 año

¿Qué aprendiste en la sección “Optimize model performance”? -La importancia de eliminar columnas innecesarias o duplicadas para un optimo funcionamiento del modelo. -Trabajar con agregaciones cuando nuestro volumen de datos es muy grande y el tiempo de respuesta en las consultas es elevado. -Reducir la cardinalidad para reducir el peso de las tablas. -Nociones de funcionamiento del motor VERIPAQ. -
0 Votos

NicolasMachin259

hace 1 año

Vertipaq engine es un nuevo concepto el cual nos ayuda a comprimir más nuestro archivo para que las consultas funcionen aun más rápido , perfomance analyzer es una excelente herramienta para ver la velocidad de nuestros objetos visuales y de esta manera evaluar como se puede mejorar con las técnicas que hemos aprendido. Lo de cardinalidad quedo clarisimo y muchas veces nos centramos en arreglar el tipo de dato pero no analizamos realmente si se puede reducir los caracteres de una columna o ver si hay ID innecesarios ya que millones de filas con valores unicos sin repetir nos pueden traer problemas importantes a nivel de capacidad de respuesta para el usuario final.
1 Votos

JuanIgnacio515

hace 1 año

Una sección bastante importante la cual me enseño y dio mayor claridad en los siguientes puntos: - Conocer como funciona el Storage Engine a través de la compresión de datos con el motor Vertipaq. Por lo que ahora me queda claro que Power BI emplea dos motores de procesamiento los cuales son: el Formula Engine a través del motor Dax y el Storage Engine a través de los motores Vertipaq y DirectQuery. - Cardinality levels: Conocer que significaba la cardinalidad en Power BI, lo cual es la cantidad de valores únicos en una columna. Poder reducirla a través del cambio de tipo de datos, creación de columnas separando data innecesaria y las agrupaciones logrando así reducir el tamaño del archivo y optimizar su velocidad de carga. - Performance Analyzer: Una herramienta muy poco valorada pero que adquiere valor cuando trabajas en proyectos con grandes volúmenes de datos. - Aggregations: Desconocía esta funcionalidad y me sorprendió la forma en que optimizo la velocidad y tamaño del reporte. Lamentablemente solo se puede realizar con la conexión a la data a través del Direct Query.  
1 Votos

FAUSTOPAGNONE171

hace 10 meses

En esta sección me pareció importante lo de quitar columnas que no sean necesarias o se repitan para mejorar la performance. Por otra parte, no conocía este concepto de "Cardinalidad" para reducir el tamaño de los informes, y cómo hacer buenas prácticas para reducir el volumen de información.  
0 Votos

josemazza

hace 3 meses

En esta sección aprendí muchísimo sombre la optimización de un proyecto con grandes volúmenes de datos por que allí es que se notaran los retrasos de tiempo, en esos momentos es que se vera muy necesario este conocimiento, las mas sencillas ya las utilizaba pero me encontré con algunas sorpresas: 

  1. Eliminar Filas y Columnas innecesarias, como su nombre lo indica, simplemente intentar que no entren a las tablas desde el origen si no eliminarlas en el proceso ETL estudiando y las mismas se repiten.
  2. Uso del Analizador de Rendimiento para identificar algún proceso deficiente.
  3. Aprendí de lo que significa y como usar a mi favor la "Cardinality Levels" al cambiar el "Data Type" para aumentar significativamente el Performace del modelo.
  4. Uso eficiente del Resumen de Datos.
  5. El punto que mas me impresiono entre todo lo que aprendí, fue la creación y menejo de las "Aggregations".

Fabulosa la compresión del Vertipag Engine.
0 Votos

SantiagoVargas673

hace 2 meses



Esta seccion es muy valisosa ya que nos permite conocer una manera adicional de mejorar el performance de nuestros reportes haciendolos mas óptimos, aplicando múltiples acciones como eliminacion de columnas innecesarias, también como usar el cardinality levels y de que forma este puede disminuir el tamaño de nuestros reportes.


0 Votos
Es necesario estar inscrito para dejar tu duda, comentario y/o respuesta

Sobre el alumno

dlom

dlom

Cursos completados

No ha completado ningún curso aún

Más preguntas sobre el tema

Ordenar el Eje Y de un grafico de barras Stacked, que tiene dos variables.

GermanQuintana914

Guia para certificacion de Power Bi en Microsoft

Miro

signos - y ( ) en "DX38🔴 - Modelar Estados Financieros desde cero"

Charcho

Duda sobre una matriz relacionada con subtotales

Charcho

Analizar diferencias mes actual con mes anterior

Charcho

Recursos
  • Foro
  • Inscribirse
  • Blog
  • Ejemplos de dashboards
Cursos
  • Aprende Power BI con Proyectos
  • Análisis de Datos con Power BI y Excel
  • Especialización en Power Query
  • Certificación de Power BI
  • Tu Portafolio de Dashboards
Legales
  • Términos del servicio
  • Política de privacidad
  • Política de cookies
  • Contacto
  • Acerca
Canal de YouTube de datdata Cuenta de Linkedin de datdata Cuenta de Instagram de datdata Página de Facebook de datdata Cuenta de TikTok de datdata
© 2025 © datdata - Todos los derechos reservados