Parte de nuestra serie Performance & Scalability
Leer la guía completaPlanificación de capacidad de Power BI: dimensionamiento de Premium y Fabric
Elegir el nivel de capacidad de Power BI incorrecto es uno de los errores de análisis más costosos que puede cometer una organización. El tamaño insuficiente crea limitaciones, consultas lentas y fallas de actualización durante los períodos pico. El sobredimensionamiento compensa la computación que permanece inactiva la mayor parte del día. Obtener la capacidad adecuada requiere comprender cómo Power BI utiliza los recursos informáticos, qué exige realmente su carga de trabajo y cómo las opciones de SKU se corresponden con esas demandas.
Esta guía cubre la planificación de la capacidad de Power BI Premium y Microsoft Fabric, desde la comprensión del modelo informático, pasando por el monitoreo de la utilización actual, hasta el dimensionamiento de nuevas implementaciones y la administración de costos con escalado automático.
Conclusiones clave
- La capacidad de Power BI Premium se mide en núcleos virtuales (v-cores) que gobiernan la memoria y el rendimiento informático.
- Microsoft Fabric utiliza unidades de capacidad (CU) como unidad de facturación fundamental, reemplazando los niveles de SKU
- Las cargas de trabajo en segundo plano (actualización del conjunto de datos) y las cargas de trabajo interactivas (ejecución de consultas) compiten por los recursos de capacidad.
- La aplicación Capacidad Métricas es la herramienta de monitoreo esencial para comprender la utilización de recursos
- La suavización de la CPU durante 24 horas significa que las ráfagas se promedian; los períodos pico cortos no activan inmediatamente la aceleración
- Autoscale (Premium Gen2) agrega computación automáticamente durante los períodos pico y la elimina cuando cae la demanda.
- El consumo de memoria del conjunto de datos es la causa más común de bajo rendimiento de la capacidad.
- La planificación adecuada de la capacidad requiere una medición de referencia antes del dimensionamiento
Modelo de capacidad premium de Power BI
Power BI Premium proporciona recursos informáticos dedicados, aislados de la infraestructura compartida utilizada por los espacios de trabajo Pro. Este aislamiento ofrece un rendimiento constante independientemente de lo que estén haciendo otros inquilinos de Power BI.
El modelo de recursos: La capacidad premium se mide en núcleos virtuales (v-cores). Cada v-core proporciona una cantidad específica de memoria y procesamiento de CPU. La relación entre los núcleos virtuales y las capacidades determina qué cargas de trabajo puede manejar la capacidad simultáneamente.
| SKU | Núcleos V | RAM | Rendimiento de conexión DirectQuery/Live |
|---|---|---|---|
| P1 | 8 núcleos V | 25 GB | 30 consultas/segundo |
| P2 | 16 núcleos V | 50GB | 60 consultas/segundo |
| P3 | 32 núcleos V | 100 GB | 120 consultas/segundo |
| P4 | 64 núcleos V | 200 GB | 240 consultas/segundo |
| P5 | 128 núcleos V | 400 GB | 480 consultas/segundo |
Microsoft Fabric reemplaza el modelo P-SKU con unidades de capacidad de Fabric (CU). La tela F64 equivale aproximadamente a P1, F128 a P2, y así sucesivamente. El modelo Fabric permite un dimensionamiento más granular y una facturación de pago por uso (pausar/reanudar), que suele ser más rentable que la suscripción mensual de P-SKU.
| SKU de tela | CU | SKU P equivalente | Estimación mensual |
|---|---|---|---|
| F2 | 2 CU | — (pequeño desarrollo/prueba) | ~$262 |
| F4 | 4 CU | — | ~$524 |
| F8 | 8 CU | — | ~$1,047 |
| F16 | 16 CU | — | ~$2,095 |
| F32 | 32 CU | — | ~$4,189 |
| F64 | 64 CU | P1 | ~$8,378 |
| F128 | 128 CU | P2 | ~$16,756 |
| F256 | 256 CU | P3 | ~$33,512 |
(Los precios son aproximados en dólares estadounidenses; los precios reales varían según la región y los acuerdos negociados).
Categorías de carga de trabajo
La capacidad de Power BI maneja dos categorías de cargas de trabajo y compiten por los mismos recursos informáticos:
Cargas de trabajo en segundo plano se ejecutan sin interacción del usuario:
- Actualización del conjunto de datos (actualizaciones en modo de importación)
- Actualización del flujo de datos
- Cargas de trabajo de IA (entrenamiento de modelos, inferencia)
- Representación de informes paginados activados por suscripciones
- Operaciones de exportación
Las cargas de trabajo interactivas responden a las interacciones del usuario:
- Ejecución de consultas (el usuario abre una página de informe)
- Consultas de conexión DirectQuery/Live
- Actualización de mosaicos del tablero
- Exportación de informes activada por un usuario
- Preguntas y respuestas en lenguaje natural
Cuando ambos tipos de carga de trabajo compiten por los mismos núcleos virtuales, la capacidad debe tener recursos suficientes para manejar la superposición máxima. Es posible que sea necesario dimensionar una capacidad que ejecuta 20 actualizaciones simultáneas de conjuntos de datos durante la noche laboral y al mismo tiempo maneja 200 consultas de usuarios simultáneas durante el día laboral para ambos picos.
La aplicación de métricas de capacidad
La aplicación Microsoft Fabric Capacidad Métricas (anteriormente aplicación Power BI Premium Capacidad Métricas) es la herramienta esencial para la supervisión y planificación de la capacidad. Instálelo desde AppSource y conéctelo a su capacidad.
Qué muestra:
Utilización de CPU y memoria por tipo de carga de trabajo. El gráfico de utilización muestra el consumo de CPU a lo largo del tiempo, con series separadas para cargas de trabajo interactivas y en segundo plano. La línea suavizada muestra el promedio suavizado de 24 horas (lo que usa Power BI para limitar las decisiones).
Eventos de limitación: cuando la CPU suavizada durante 24 horas supera el 100 % de los recursos de capacidad, Power BI comienza a limitar las cargas de trabajo en segundo plano (retrasando las actualizaciones). Cuando supera significativamente el umbral de suavizado, las cargas de trabajo interactivas también se limitan. La aplicación de métricas muestra eventos de limitación con duración y gravedad.
Memoria del conjunto de datos: la cascada de memoria muestra qué conjuntos de datos se cargan en la memoria, cuánta memoria consumen y cuándo se desalojan. Un conjunto de datos que se desaloja y recarga constantemente (recuento alto de "desalojos") es demasiado grande para la memoria disponible, lo que provoca retrasos mientras los usuarios esperan a que el conjunto de datos se recargue en cada consulta.
Principales conjuntos de datos e informes por consumo de recursos: la aplicación de métricas identifica qué conjuntos de datos e informes consumen la mayor cantidad de recursos; estos son los candidatos para la optimización antes de ampliarlos.
Métricas clave a monitorear:
| Métrica | Saludable | Advertencia | Crítico |
|---|---|---|---|
| Utilización de CPU (suavizada 24 horas) | < 70% | 70–90% | > 90% |
| Utilización de la memoria | < 80% | 80–90% | > 90% |
| Desalojos de conjuntos de datos (diarios) | < 10 | 10–50 | > 50 conjuntos de datos frecuentes |
| Espera de consulta interactiva | < 1s promedio | Promedio de 1 a 3 s | > 3s promedio |
| Actualizar tasa de éxito | > 98% | 95–98% | < 95% |
Dimensionamiento de una nueva implementación
Al dimensionar una implementación de Power BI Premium por primera vez (sin datos de métricas existentes), el proceso de estimación utiliza estas entradas:
Paso 1: Cuente los usuarios y los patrones de uso
- ¿Cuántos usuarios en total accederán a los informes de Power BI?
- ¿Cuál es el número máximo de usuarios simultáneos? (Normalmente entre el 10% y el 20% del total de usuarios)
- ¿Cuáles son las horas pico de uso? (Por lo general, de 9 a 11 a. m. y de 2 a 4 p. m., horario laboral)
Paso 2: Estimar los requisitos de memoria del conjunto de datos
- Sumar el tamaño sin comprimir de todos los conjuntos de datos que estarán activos simultáneamente
- Aplique una relación de compresión VertiPaq promedio de 5:1 para estimar el tamaño en memoria
- Agregue un 20% de gastos generales para operaciones de consulta.
- Requisito total de memoria del conjunto de datos = la restricción de tamaño dominante para la mayoría de las implementaciones
Paso 3: Estimar la carga de trabajo de actualización
- ¿Cuántos conjuntos de datos deben actualizarse simultáneamente en el pico?
- ¿Cuál es la duración de actualización esperada para cada uno?
- Consumo máximo de recursos de actualización = (número de actualizaciones simultáneas × memoria promedio por actualización del conjunto de datos)
Paso 4: Agregar rendimiento de DirectQuery/Live Connection
- ¿Cuántos usuarios utilizarán informes con DirectQuery?
- ¿Cuál es el pico esperado de consultas por segundo?
- Comparar con los límites de rendimiento de SKU (P1 maneja 30 consultas DQ/segundo)
Ejemplo de cálculo de tamaño:
Organización con 500 usuarios de Power BI:
- 50 usuarios simultáneos en el pico (10% del total)
- 15 conjuntos de datos activos, promedio de 4 GB sin comprimir → ~0,8 GB cada uno en memoria = 12 GB de memoria total del conjunto de datos
- 10 conjuntos de datos se actualizan durante la noche simultáneamente; cada uno consume 2 GB durante la actualización = 20 GB de memoria de actualización
- 20 páginas de informes de DirectQuery en su punto máximo = ~5 consultas/segundo
Análisis: 32 GB de memoria máxima (conjuntos de datos de 12 GB + actualizaciones de 20 GB) + gastos generales = requiere P1 (25 GB) puede ser limitado → considere P2 (50 GB). El rendimiento de DirectQuery está dentro del límite de 30 qps de P1, por lo que la memoria determina la decisión sobre el tamaño.
Comenzar con P1 y monitorear con la aplicación Metrics durante 30 días revelará si P2 es necesario.
Configuración de escala automática
Power BI Premium Gen2 (y Fabric) admite el escalado automático: agrega automáticamente recursos informáticos cuando la demanda excede la capacidad aprovisionada y luego los elimina cuando la demanda cae.
Escala automática para Premium (P-SKU): Configure en el Portal de administración de Power BI → Configuración de capacidad → Capacidad premium → Escalado automático. Establezca la cantidad máxima de núcleos virtuales adicionales que se pueden agregar (1 a 71 para P1). Cuando la utilización de la capacidad se acerca a los límites, el escalado automático agrega núcleos virtuales en incrementos.
Facturación de escala automática: los núcleos virtuales adicionales se facturan por hora a una tarifa por núcleo virtual. Un P1 que agrega 8 núcleos virtuales durante 2 horas durante un período pico paga por 16 horas de núcleos virtuales.
Escala automática para tela: Las capacidades de Fabric se pueden pausar y reanudar (rentable para desarrollo/pruebas) y tener una computación ampliable que escala dentro de los límites de CU adquiridos. Fabric también admite reservas (gastos comprometidos para descuentos importantes) junto con precios de pago por uso.
Cuándo utilizar la escala automática:
- Tiene picos diarios predecibles (por ejemplo, los informes financieros de fin de mes generan 3 veces la carga normal)
- No desea aprovisionar permanentemente la capacidad máxima que sólo se necesita ocasionalmente
- Quiere previsibilidad de costos con una válvula de seguridad para aumentos inesperados de la demanda.
Cuándo NO utilizar la escala automática:
- Alta utilización sostenida (está constantemente al máximo de su capacidad); en su lugar, actualice el nivel base
- Cargas de procesamiento de informes únicas muy grandes: es posible que el escalado automático no reaccione lo suficientemente rápido
- Restricciones presupuestarias estrictas donde cualquier facturación variable es inaceptable
Optimización de la capacidad antes de escalar
Antes de actualizar a una capacidad mayor, optimice las cargas de trabajo existentes. La mayoría de los problemas de rendimiento se pueden solucionar sin gastar más dinero.
Optimización del conjunto de datos:
- Ejecute VertiPaq Analyzer de DAX Studio para identificar tablas y columnas grandes que se pueden eliminar o resumir
- Compruebe si hay columnas no utilizadas y medidas que consumen memoria sin que se haga referencia a ellas en ningún informe.
- Optimice los tipos de datos (use números enteros en lugar de texto para claves de fecha, booleanos en lugar de cadenas para indicadores)
- Aplicar actualización incremental para reducir la duración de la actualización y el consumo de memoria durante los ciclos de actualización
Optimización de informes:
- Reduzca la cantidad de objetos visuales por página de informe: cada objeto visual genera al menos una consulta DAX al cargar
- Reemplazar imágenes de bajo valor con tarjetas o KPI que generen consultas más simples
- Evite relaciones bidireccionales y DAX complejos que generan múltiples consultas al motor de almacenamiento.
- Utilice parámetros de campo en lugar de muchas columnas calculadas similares
Optimización de la programación de actualización:
- Escalonar los tiempos de actualización para evitar la actualización simultánea de múltiples conjuntos de datos grandes
- Programe conjuntos de datos de menor prioridad durante las horas de menor actividad
- Utilice la actualización incremental para acortar la ventana de actualización para conjuntos de datos grandes
- Pausar o desactivar las actualizaciones para conjuntos de datos poco utilizados
Arquitectura de múltiples capacidades
Las grandes organizaciones a veces utilizan múltiples capacidades para aislar cargas de trabajo, separar centros de costos o proporcionar redundancia geográfica.
Patrones comunes de capacidad múltiple:
- Aislamiento de niveles: Producción en P2, Desarrollo/Prueba en F8. Evita que las actualizaciones de desarrollo consuman capacidad de producción.
- Aislamiento de carga de trabajo: Finanzas en un P1, Recursos Humanos en otro P1. Evita que las cargas de trabajo del departamento se afecten entre sí.
- Distribución geográfica: usuarios de EE. UU. con capacidad en el Este de EE. UU., usuarios de la UE con capacidad en Europa Occidental. Reduce la latencia para las poblaciones de usuarios regionales.
- Separación de centros de costos: cada unidad de negocio tiene su propia capacidad, lo que permite un contracargo de costos preciso.
Consideraciones sobre capacidades cruzadas: los conjuntos de datos y los informes deben publicarse en espacios de trabajo asignados a capacidades específicas. Un informe solo puede utilizar conjuntos de datos en la misma capacidad (o importar desde una capacidad diferente, lo que tiene implicaciones en el rendimiento). Planifique las asignaciones del espacio de trabajo a la capacidad antes de publicar para evitar patrones de acceso a datos entre capacidades.
Preguntas frecuentes
¿Cuál es el nivel mínimo de capacidad de Power BI para uso empresarial?
Power BI Premium P1 (o Fabric F64) es el nivel mínimo que admite el conjunto completo de características empresariales: informes paginados, canalizaciones de implementación, acceso a puntos finales XMLA, información de inteligencia artificial, entidades calculadas de flujo de datos y tamaños de modelo de hasta 400 GB. Para organizaciones más pequeñas o implementaciones departamentales, Power BI Premium por usuario (PPU) a $20/usuario/mes proporciona la mayoría de las funciones sin requerir un compromiso de capacidad. Para el desarrollo y las pruebas, Fabric F2 o F4 es suficiente.
¿Cómo afecta la suavización de CPU las 24 horas a la planificación de capacidad?
Power BI utiliza un algoritmo de suavizado de CPU de 24 horas para determinar si una capacidad está sobrecargada. Las ráfagas breves de alto consumo de CPU (una actualización grande que se completa en 30 minutos) no provocan una aceleración inmediata: la ráfaga se promedia durante el período de 24 horas. Esto significa que puede manejar cargas de trabajo en ráfagas moderadas sin necesidad de ajustar el tamaño para el pico. Sin embargo, una CPU alta y sostenida (más de 3 horas de carga de trabajo intensiva) hará que el promedio suavizado supere el umbral de limitación. Tamaño para tu pico sostenido, no para tu máximo momentáneo.
¿Microsoft Fabric es mejor que Power BI Premium para nuevas implementaciones?
Para nuevas implementaciones empresariales en 2026, Fabric es generalmente la ruta recomendada. Proporciona las mismas capacidades de Power BI que Premium más cargas de trabajo adicionales (ingeniería de datos, ciencia de datos, almacén de datos, análisis en tiempo real), facturación más flexible (pausar/reanudar, reservas) y un modelo de gobierno unificado. Las organizaciones que ya tienen P-SKU Premium con contratos a largo plazo pueden considerar permanecer en Premium hasta que la renovación tenga sentido financiero. Todo el contenido de Power BI Premium es compatible con Fabric.
¿Cómo puedo reducir los costos de capacidad sin degradar la experiencia del usuario?
Las palancas de reducción de costos de mayor impacto son: (1) optimizar los conjuntos de datos para reducir el uso de memoria antes de aumentar su tamaño, (2) escalonar los cronogramas de actualización para evitar la competencia simultánea de recursos, (3) usar Fabric con pausa/reanudación para las capacidades de desarrollo (pague solo durante el horario comercial), (4) habilitar la escala automática en la capacidad de producción en lugar de aprovisionar permanentemente para los picos, y (5) auditar los espacios de trabajo para detectar informes y conjuntos de datos no utilizados que consumen recursos de actualización sin usuarios activos.
¿Qué herramientas de supervisión proporciona Microsoft para el estado de la capacidad?
La herramienta principal es la aplicación Microsoft Fabric Capacity Metrics (disponible en AppSource). Proporciona utilización de CPU, utilización de memoria, limitación de eventos, actividad de conjuntos de datos y métricas de rendimiento de consultas. Para un diagnóstico más profundo, el punto final XMLA (accesible a través de SSMS o Tabular Editor) permite consultar DMV (vistas de administración dinámica) para obtener datos de rendimiento de consultas en tiempo real. La API REST de Power BI proporciona acceso programático a métricas de capacidad para paneles de monitoreo personalizados.
Próximos pasos
La planificación de la capacidad es una actividad continua, no una decisión única. Comience con el nivel correcto, supervise activamente con la aplicación Capacidad Métricas, optimice las cargas de trabajo antes de escalar y planifique el crecimiento. Las organizaciones que obtienen el máximo valor de Power BI Premium tratan la gestión de la capacidad como una disciplina de ingeniería del rendimiento.
Los servicios de optimización del rendimiento de Power BI de ECOSIRE incluyen evaluación de capacidad, análisis de carga de trabajo y recomendaciones de tamaño. Contáctenos para auditar su utilización de capacidad actual e identificar el camino más rentable para mejorar el rendimiento.
Escrito por
ECOSIRE Research and Development Team
Construyendo productos digitales de nivel empresarial en ECOSIRE. Compartiendo perspectivas sobre integraciones Odoo, automatización de eCommerce y soluciones empresariales impulsadas por IA.
Artículos relacionados
Building Financial Dashboards with Power BI
Step-by-step guide to building financial dashboards in Power BI covering data connections to accounting systems, DAX measures for KPIs, P&L visualisations, and best practices.
Case Study: Power BI Analytics for Multi-Location Retail
How a 14-location retail chain unified their reporting in Power BI connected to Odoo, replacing 40 spreadsheets with one dashboard and cutting reporting time by 78%.
GoHighLevel + Power BI: Advanced Reporting and Analytics
Connect GoHighLevel to Power BI for advanced marketing analytics. Build executive dashboards, track multi-channel ROI, and create automated reports that go beyond GHL's native reporting.
Más de Performance & Scalability
k6 Load Testing: Stress-Test Your APIs Before Launch
Master k6 load testing for Node.js APIs. Covers virtual user ramp-ups, thresholds, scenarios, HTTP/2, WebSocket testing, Grafana dashboards, and CI integration patterns.
Nginx Production Configuration: SSL, Caching, and Security
Nginx production configuration guide: SSL termination, HTTP/2, caching headers, security headers, rate limiting, reverse proxy setup, and Cloudflare integration patterns.
Odoo Performance Tuning: PostgreSQL and Server Optimization
Expert guide to Odoo 19 performance tuning. Covers PostgreSQL configuration, indexing, query optimization, Nginx caching, and server sizing for enterprise deployments.
Odoo vs Acumatica: Cloud ERP for Growing Businesses
Odoo vs Acumatica compared for 2026: unique pricing models, scalability, manufacturing depth, and which cloud ERP fits your growth trajectory.
Testing and Monitoring AI Agents in Production
A complete guide to testing and monitoring AI agents in production environments. Covers evaluation frameworks, observability, drift detection, and incident response for OpenClaw deployments.
Compliance Monitoring Agents with OpenClaw
Deploy OpenClaw AI agents for continuous compliance monitoring. Automate regulatory checks, policy enforcement, audit trail generation, and compliance reporting.