Power BI Capacity Planning: Sizing Premium and Fabric

Learn how to size Power BI Premium and Microsoft Fabric capacity — understand SKU options, workload factors, monitoring, and autoscale to optimize cost and performance.

E
ECOSIRE Research and Development Team
|19 de março de 202613 min de leitura2.9k Palavras|

Parte da nossa série Performance & Scalability

Leia o guia completo

Planejamento de capacidade do Power BI: Dimensionamento Premium e Fabric

Escolher o nível de capacidade errado do Power BI é um dos erros analíticos mais caros que uma organização pode cometer. O subdimensionamento cria restrições, consultas lentas e falhas de atualização durante períodos de pico. O superdimensionamento paga pela computação que fica ociosa a maior parte do dia. Obter a capacidade certa requer a compreensão de como o Power BI usa recursos de computação, o que sua carga de trabalho realmente exige e como as opções de SKU são mapeadas para essas demandas.

Este guia aborda o planejamento de capacidade do Power BI Premium e do Microsoft Fabric, desde a compreensão do modelo de computação, passando pelo monitoramento da utilização atual, até o dimensionamento de novas implantações e o gerenciamento de custos com dimensionamento automático.

Principais conclusões

  • A capacidade do Power BI Premium é medida em núcleos virtuais (v-cores) que controlam a memória e a taxa de transferência de computação
  • O Microsoft Fabric usa Unidades de Capacidade (CUs) como unidade de cobrança fundamental, substituindo as camadas de SKU
  • Cargas de trabalho em segundo plano (atualização de conjunto de dados) e cargas de trabalho interativas (execução de consultas) competem por recursos de capacidade
  • O aplicativo Capacity Metrics é a ferramenta de monitoramento essencial para entender a utilização de recursos
  • A suavização da CPU ao longo de 24 horas significa que as rajadas são calculadas em média — períodos de pico curtos não acionam imediatamente a aceleração
  • Autoscale (Premium Gen2) adiciona computação automaticamente durante períodos de pico e a remove quando a demanda cai
  • O consumo de memória do conjunto de dados é a causa mais comum de desempenho insuficiente de capacidade
  • O planejamento de capacidade adequado requer medição de linha de base antes do dimensionamento

Modelo de capacidade premium do Power BI

O Power BI Premium fornece recursos de computação dedicados, isolados da infraestrutura compartilhada usada pelos workspaces Pro. Este isolamento proporciona um desempenho consistente, independentemente do que outros inquilinos do Power BI estejam a fazer.

O modelo de recursos: A capacidade premium é medida em núcleos virtuais (v-cores). Cada v-core fornece uma quantidade específica de memória e computação de CPU. A relação entre v-cores e capacidades determina quais cargas de trabalho a capacidade pode suportar simultaneamente.

SKUNúcleos Vmemória RAMTaxa de transferência de conexão DirectQuery/Live
P18 v-cores25 GB30 consultas/segundo
P216 v-cores50 GB60 consultas/segundo
P332 v-cores100 GB120 consultas/segundo
P464 v-cores200 GB240 consultas/segundo
P5128 v-cores400 GB480 consultas/segundo

Microsoft Fabric substitui o modelo P-SKU por unidades de capacidade de malha (CUs). Fabric F64 é aproximadamente equivalente a P1, F128 a P2 e assim por diante. O modelo Fabric permite dimensionamento mais granular e faturamento pré-pago (pausa/retomada), que geralmente é mais econômico do que a assinatura mensal de P-SKUs.

SKU de tecidoUCsP-SKU equivalenteEstimativa Mensal
F22 UCs— (desenvolvimento/teste pequeno)~$262
F44 UCs~$524
F88 UCs~$1.047
F1616 UCs~$2.095
F3232 UCs~$4.189
F6464 UCsP1~$8.378
F128128 UCsP2~$16.756
F256256 UCsP3~$33.512

(Os preços são aproximados em dólares americanos; os preços reais variam de acordo com a região e os acordos negociados.)


Categorias de carga de trabalho

A capacidade do Power BI lida com duas categorias de carga de trabalho e elas competem pelos mesmos recursos de computação:

Cargas de trabalho em segundo plano são executadas sem interação do usuário:

  • Atualização do conjunto de dados (atualizações do modo de importação)
  • Atualização do fluxo de dados
  • Cargas de trabalho de IA (treinamento de modelo, inferência)
  • Renderização de relatório paginado acionada por assinaturas
  • Operações de exportação

Cargas de trabalho interativas respondem às interações do usuário:

  • Execução de consulta (o usuário abre uma página de relatório)
  • Consultas de conexão DirectQuery/Live
  • Atualização do bloco do painel
  • Exportação de relatório acionada por um usuário
  • Perguntas e respostas em linguagem natural

Quando ambos os tipos de carga de trabalho competem pelos mesmos v-cores, a capacidade deve ter recursos suficientes para lidar com a sobreposição de picos. Uma capacidade que execute 20 atualizações simultâneas de conjuntos de dados durante a noite comercial e, ao mesmo tempo, lide com 200 consultas simultâneas de usuários durante o dia útil, pode precisar ser dimensionada para ambos os picos.


O aplicativo de métricas de capacidade

O aplicativo Microsoft Fabric Capacity Metrics (anteriormente aplicativo Power BI Premium Capacity Metrics) é a ferramenta essencial para monitoramento e planejamento de capacidade. Instale-o do AppSource e conecte-o à sua capacidade.

O que mostra:

Utilização de CPU e memória por tipo de carga de trabalho. O gráfico de utilização mostra o consumo de CPU ao longo do tempo, com séries separadas para cargas de trabalho interativas e em segundo plano. A linha suavizada mostra a média suavizada de 24 horas (o que o Power BI usa para limitar decisões).

Eventos de limitação: quando a CPU suavizada de 24 horas excede 100% dos recursos de capacidade, o Power BI começa a limitar as cargas de trabalho em segundo plano (atrasando as atualizações). Quando excede significativamente o limite de suavização, as cargas de trabalho interativas também são limitadas. O aplicativo de métricas mostra eventos de limitação com duração e gravidade.

Memória do conjunto de dados: a cascata de memória mostra quais conjuntos de dados são carregados na memória, quanta memória eles consomem e quando são removidos. Um conjunto de dados que é constantemente despejado e recarregado (alta contagem de "despejos") é muito grande para a memória disponível, causando atrasos enquanto os usuários aguardam o recarregamento do conjunto de dados em cada consulta.

Principais conjuntos de dados e relatórios por consumo de recursos: o aplicativo de métricas identifica quais conjuntos de dados e relatórios consomem mais recursos — esses são os candidatos à otimização antes da expansão.

Principais métricas a serem monitoradas:

MétricaSaudávelAvisoCrítico
Utilização da CPU (24h suavizada)<70%70–90%> 90%
Utilização de memória<80%80–90%> 90%
Despejos de conjuntos de dados (diariamente)<1010–50> 50 conjuntos de dados frequentes
Consulta interativa Aguarde< 1s médiaMédia de 1–3s> Média de 3s
Taxa de sucesso de atualização> 98%95–98%<95%

Dimensionando uma nova implantação

Ao dimensionar uma implantação do Power BI Premium pela primeira vez (sem dados de métricas existentes), o processo de estimativa usa estas entradas:

Etapa 1: contar usuários e padrões de uso

  • Quantos usuários no total acessarão os relatórios do Power BI?
  • Qual é o pico de contagem de usuários simultâneos? (Normalmente 10–20% do total de usuários)
  • Quais são os horários de pico de uso? (Normalmente das 9h às 11h e das 14h às 16h, horário comercial)

Etapa 2: estimar os requisitos de memória do conjunto de dados

  • Somar o tamanho não compactado de todos os conjuntos de dados que estarão ativos simultaneamente
  • Aplique uma taxa média de compactação VertiPaq de 5:1 para estimar o tamanho da memória
  • Adicione 20% de sobrecarga para operações de consulta
  • Requisito total de memória do conjunto de dados = a restrição de dimensionamento dominante para a maioria das implementações

Etapa 3: estimar a carga de trabalho de atualização

  • Quantos conjuntos de dados precisam ser atualizados simultaneamente no pico?
  • Qual é a duração de atualização esperada para cada um?
  • Consumo máximo de recursos de atualização = (número de atualizações simultâneas × memória média por atualização do conjunto de dados)

Etapa 4: adicionar taxa de transferência DirectQuery/Live Connection

  • Quantos usuários usarão relatórios com DirectQuery?
  • Qual é o pico esperado de consultas por segundo?
  • Compare com os limites de taxa de transferência de SKU (P1 lida com 30 consultas DQ/segundo)

Exemplo de cálculo de tamanho:

Organização com 500 usuários do Power BI:

  • 50 usuários simultâneos no pico (10% do total)
  • 15 conjuntos de dados ativos, média de 4 GB descompactados → ~0,8 GB cada na memória = 12 GB de memória total do conjunto de dados
  • 10 conjuntos de dados são atualizados simultaneamente durante a noite, cada um consumindo 2 GB durante a atualização = 20 GB de memória de atualização
  • 20 páginas de relatório DirectQuery no pico = aproximadamente 5 consultas/segundo

Análise: pico de memória de 32 GB (conjuntos de dados de 12 GB + atualizações de 20 GB) + sobrecarga = requer P1 (25 GB) pode ser apertado → considere P2 (50 GB). A taxa de transferência do DirectQuery está dentro do limite de 30 qps do P1, portanto a memória determina a decisão de dimensionamento.

Começar com P1 e monitorar com o aplicativo Metrics por 30 dias revelará se P2 é necessário.


Configuração de escalonamento automático

O Power BI Premium Gen2 (e Fabric) dá suporte ao dimensionamento automático, adicionando automaticamente recursos de computação quando a demanda excede a capacidade provisionada e removendo-os quando a demanda cai.

Escalonamento automático para Premium (P-SKUs): Configure no Portal de administração do Power BI → Configurações de capacidade → Capacidade premium → Dimensionamento automático. Defina o número máximo de v-cores adicionais que podem ser adicionados (1–71 para P1). Quando a utilização da capacidade se aproxima dos limites, a autoescala adiciona v-cores em incrementos.

Faturamento de escala automática: v-cores adicionais são cobrados por hora a uma taxa por v-core. Um P1 que adiciona 8 v-cores por 2 horas durante um período de pico paga por 16 v-core-horas.

Escala automática para tecido: As capacidades de malha podem ser pausadas e retomadas (com boa relação custo-benefício para desenvolvimento/teste) e possuem computação expansível que pode ser dimensionada dentro dos limites de CU adquiridos. O Fabric também oferece suporte a reservas (gastos comprometidos para descontos significativos) juntamente com preços pré-pagos.

Quando usar o dimensionamento automático:

  • Você tem picos diários previsíveis (por exemplo, relatórios financeiros de final de mês geram 3x a carga normal)
  • Você não deseja provisionar permanentemente a capacidade de pico que só é necessária ocasionalmente
  • Você deseja previsibilidade de custos com uma válvula de segurança para picos inesperados de demanda

Quando NÃO usar a escala automática:

  • Alta utilização sustentada (você está consistentemente na capacidade) — em vez disso, atualize o nível base
  • Cargas muito grandes de renderização de relatórios únicos — o dimensionamento automático pode não reagir rápido o suficiente
  • Restrições orçamentárias rigorosas onde qualquer faturamento variável é inaceitável

Otimização de capacidade antes do dimensionamento

Antes de atualizar para uma capacidade maior, otimize as cargas de trabalho existentes. A maioria dos problemas de desempenho pode ser corrigida sem gastar mais dinheiro.

Otimização do conjunto de dados:

  • Execute o VertiPaq Analyzer do DAX Studio para identificar tabelas e colunas grandes que podem ser removidas ou resumidas
  • Verifique colunas e medidas não utilizadas que consomem memória sem serem referenciadas em nenhum relatório
  • Otimize os tipos de dados (use Inteiro em vez de Texto para chaves de data, Booleano em vez de string para sinalizadores)
  • Aplique atualização incremental para reduzir a duração da atualização e o consumo de memória durante os ciclos de atualização

Otimização de relatórios:

  • Reduza o número de recursos visuais por página do relatório — cada visual gera pelo menos uma consulta DAX durante o carregamento
  • Substitua recursos visuais de baixo valor por cartões ou KPIs que geram consultas mais simples
  • Evite relacionamentos bidirecionais e DAX complexos que geram múltiplas consultas de mecanismo de armazenamento
  • Use parâmetros de campo em vez de muitas colunas calculadas semelhantes

Otimização da programação de atualização:

  • Escalone os tempos de atualização para evitar a atualização simultânea de vários grandes conjuntos de dados
  • Programe conjuntos de dados de baixa prioridade fora dos horários de pico
  • Use atualização incremental para reduzir a janela de atualização para grandes conjuntos de dados
  • Pausar ou desativar atualizações para conjuntos de dados raramente usados

Arquitetura multicapacidade

Às vezes, grandes organizações usam múltiplas capacidades para isolar cargas de trabalho, separar centros de custo ou fornecer redundância geográfica.

Padrões comuns de multicapacidade:

  • Isolamento de camada: Produção em P2, Desenvolvimento/Teste em F8. Impede que atualizações de desenvolvimento consumam capacidade de produção.
  • Isolamento da carga de trabalho: Finanças em um P1, RH em outro P1. Evita que as cargas de trabalho dos departamentos se afetem.
  • Distribuição geográfica: usuários dos EUA na capacidade do Leste dos EUA, usuários da UE na capacidade da Europa Ocidental. Reduz a latência para populações de usuários regionais.
  • Separação de centros de custos: Cada unidade de negócios possui capacidade própria, permitindo estorno preciso de custos.

Considerações sobre capacidades cruzadas: conjuntos de dados e relatórios devem ser publicados em workspaces atribuídos a capacidades específicas. Um relatório só pode usar conjuntos de dados na mesma capacidade (ou importar de uma capacidade diferente, o que tem implicações no desempenho). Planeje atribuições de espaço de trabalho para capacidade antes de publicar para evitar padrões de acesso a dados entre capacidades.


Perguntas frequentes

Qual é o nível mínimo de capacidade do Power BI para uso empresarial?

O Power BI Premium P1 (ou Fabric F64) é o nível mínimo que dá suporte ao conjunto completo de recursos empresariais: relatórios paginados, pipelines de implantação, acesso de endpoint XMLA, insights de IA, entidades computadas de fluxo de dados e tamanhos de modelo de até 400 GB. Para organizações menores ou implementações departamentais, o Power BI Premium por usuário (PPU) a US$ 20/usuário/mês fornece a maioria dos recursos sem exigir um compromisso de capacidade. Para desenvolvimento e teste, Fabric F2 ou F4 é suficiente.

Como a suavização de CPU de 24 horas afeta o planejamento de capacidade?

O Power BI usa um algoritmo de suavização de CPU de 24 horas para determinar se uma capacidade está sobrecarregada. Intervalos curtos de alto consumo de CPU (uma grande atualização concluída em 30 minutos) não causam limitação imediata — a média do intermitência é calculada ao longo da janela de 24 horas. Isso significa que você pode lidar com cargas de trabalho moderadas sem precisar dimensionar para pico. No entanto, uma CPU elevada e sustentada (mais de 3 horas de carga de trabalho intensiva) empurrará a média suavizada para além do limite de limitação. Dimensione para o seu pico sustentado, não para o seu máximo momentâneo.

O Microsoft Fabric é melhor que o Power BI Premium para novas implantações?

Para novas implantações empresariais em 2026, o Fabric geralmente é o caminho recomendado. Ele fornece os mesmos recursos do Power BI que o Premium, além de cargas de trabalho adicionais (Engenharia de Dados, Ciência de Dados, Data Warehouse, Análise em Tempo Real), faturamento mais flexível (pausa/retomada, reservas) e um modelo de governança unificado. As organizações que já utilizam P-SKUs Premium com contratos de longo prazo podem achar que permanecer no Premium até a renovação faz sentido financeiramente. Todo o conteúdo do Power BI Premium é compatível com o Fabric.

Como posso reduzir os custos de capacidade sem prejudicar a experiência do usuário?

As alavancas de redução de custos de maior impacto são: (1) otimizar conjuntos de dados para reduzir o consumo de memória antes de dimensioná-los, (2) escalonar cronogramas de atualização para evitar a competição simultânea de recursos, (3) usar o Fabric com pausa/retomada para capacidades de desenvolvimento (pague apenas durante o horário comercial), (4) permitir escalonamento automático na capacidade de produção em vez de provisionamento permanente para pico e (5) auditar espaços de trabalho para relatórios e conjuntos de dados não utilizados que estão consumindo recursos de atualização sem usuários ativos.

Quais ferramentas de monitoramento a Microsoft fornece para a integridade da capacidade?

A ferramenta principal é o aplicativo Microsoft Fabric Capacity Metrics (disponível no AppSource). Ele fornece utilização de CPU, utilização de memória, eventos de limitação, atividade de conjunto de dados e métricas de desempenho de consulta. Para diagnósticos mais profundos, o endpoint XMLA (acessível via SSMS ou Editor Tabular) permite consultar DMVs (Dynamic Management Views) para obter dados de desempenho de consulta em tempo real. A API REST do Power BI fornece acesso programático a métricas de capacidade para painéis de monitoramento personalizados.


Próximas etapas

O planejamento de capacidade é uma atividade contínua e não uma decisão única. Comece com o nível certo, monitore ativamente com o aplicativo Capacity Metrics, otimize as cargas de trabalho antes de escalar e planeje o crescimento. As organizações que obtêm o máximo valor do Power BI Premium tratam o gerenciamento de capacidade como uma disciplina de engenharia de desempenho.

Os serviços de otimização de desempenho do Power BI da ECOSIRE incluem avaliação de capacidade, análise de carga de trabalho e recomendações de dimensionamento. Entre em contato conosco para auditar sua utilização atual de capacidade e identificar o caminho mais econômico para melhorar o desempenho.

E

Escrito por

ECOSIRE Research and Development Team

Construindo produtos digitais de nível empresarial na ECOSIRE. Compartilhando insights sobre integrações Odoo, automação de e-commerce e soluções de negócios com IA.

Converse no WhatsApp