Teil unserer Performance & Scalability-Serie
Den vollständigen Leitfaden lesenPower BI-Kapazitätsplanung: Dimensionierung von Premium und Fabric
Die Wahl der falschen Power BI-Kapazitätsstufe ist einer der teuersten Analysefehler, die ein Unternehmen machen kann. Eine Unterdimensionierung führt zu Drosselung, langsamen Abfragen und Aktualisierungsfehlern in Spitzenzeiten. Eine Überdimensionierung zahlt sich für Rechenleistung aus, die den größten Teil des Tages ungenutzt bleibt. Um die richtige Kapazität zu erreichen, müssen Sie verstehen, wie Power BI Rechenressourcen nutzt, was Ihre Arbeitslast tatsächlich erfordert und wie die SKU-Optionen diesen Anforderungen entsprechen.
Dieser Leitfaden behandelt die Kapazitätsplanung für Power BI Premium und Microsoft Fabric – vom Verständnis des Rechenmodells über die Überwachung der aktuellen Auslastung bis hin zur Dimensionierung neuer Bereitstellungen und der Kostenverwaltung mit Autoskalierung.
Wichtige Erkenntnisse
– Die Power BI Premium-Kapazität wird in virtuellen Kernen (V-Kernen) gemessen, die den Speicher und den Rechendurchsatz steuern – Microsoft Fabric verwendet Kapazitätseinheiten (CUs) als grundlegende Abrechnungseinheit und ersetzt die SKU-Stufen – Hintergrund-Workloads (Datensatzaktualisierung) und interaktive Workloads (Abfrageausführung) konkurrieren um Kapazitätsressourcen
- Die Capacity Metrics-App ist das unverzichtbare Überwachungstool zum Verständnis der Ressourcennutzung
- CPU-Glättung über 24 Stunden bedeutet, dass Bursts gemittelt werden – kurze Spitzenzeiten lösen nicht sofort eine Drosselung aus – Autoscale (Premium Gen2) fügt in Spitzenzeiten automatisch Rechenleistung hinzu und entfernt sie, wenn die Nachfrage sinkt
- Der Speicherverbrauch von Datensätzen ist die häufigste Ursache für eine unzureichende Kapazitätsleistung – Eine ordnungsgemäße Kapazitätsplanung erfordert eine Basismessung vor der Größenbestimmung
Power BI Premium-Kapazitätsmodell
Power BI Premium bietet dedizierte Rechenressourcen – isoliert von der gemeinsamen Infrastruktur, die von Pro-Arbeitsbereichen verwendet wird. Diese Isolierung sorgt für eine konsistente Leistung, unabhängig davon, was andere Power BI-Mandanten tun.
Das Ressourcenmodell: Die Premium-Kapazität wird in virtuellen Kernen (V-Kernen) gemessen. Jeder V-Kern stellt eine bestimmte Menge an Speicher und CPU-Rechenleistung bereit. Die Beziehung zwischen V-Kernen und Fähigkeiten bestimmt, welche Arbeitslasten die Kapazität gleichzeitig bewältigen kann.
| Artikelnummer | V-Kerne | RAM | DirectQuery/Live-Verbindungsdurchsatz |
|---|---|---|---|
| P1 | 8 V-Kerne | 25 GB | 30 Abfragen/Sekunde |
| P2 | 16 V-Kerne | 50 GB | 60 Abfragen/Sekunde |
| P3 | 32 V-Kerne | 100 GB | 120 Abfragen/Sekunde |
| P4 | 64 V-Kerne | 200 GB | 240 Abfragen/Sekunde |
| P5 | 128 V-Kerne | 400 GB | 480 Abfragen/Sekunde |
Microsoft Fabric ersetzt das P-SKU-Modell durch Fabric Capacity Units (CUs). Stoff F64 entspricht in etwa P1, F128 P2 usw. Das Fabric-Modell ermöglicht eine detailliertere Größenanpassung und eine Pay-as-you-go-Abrechnung (Pause/Fortsetzung), was häufig kostengünstiger ist als das monatliche Abonnement von P-SKUs.
| Stoff-SKU | CUs | Äquivalente P-SKU | Monatliche Schätzung |
|---|---|---|---|
| F2 | 2 CUs | — (kleiner Entwickler/Test) | ~262 $ |
| F4 | 4 CUs | — | ~524 $ |
| F8 | 8 CUs | — | ~1.047 $ |
| F16 | 16 CUs | — | ~2.095 $ |
| F32 | 32 CUs | — | ~4.189 $ |
| F64 | 64 CUs | P1 | ~8.378 $ |
| F128 | 128 CUs | P2 | ~16.756 $ |
| F256 | 256 CUs | P3 | ~33.512 $ |
(Die Preise sind ungefähre Angaben in US-Dollar; die tatsächlichen Preise variieren je nach Region und ausgehandelten Vereinbarungen.)
Arbeitslastkategorien
Die Power BI-Kapazität bewältigt zwei Kategorien von Arbeitslasten und sie konkurrieren um die gleichen Rechenressourcen:
Hintergrund-Workloads werden ohne Benutzerinteraktion ausgeführt:
- Aktualisierung des Datensatzes (Aktualisierung des Importmodus)
- Datenflussaktualisierung
- KI-Workloads (Modelltraining, Inferenz)
- Durch Abonnements ausgelöste Darstellung paginierter Berichte
- Exportvorgänge
Interaktive Workloads reagieren auf Benutzerinteraktionen:
- Abfrageausführung (Benutzer öffnet eine Berichtsseite)
- DirectQuery/Live-Verbindungsabfragen
- Aktualisierung der Dashboard-Kacheln
- Von einem Benutzer ausgelöster Berichtsexport
- Fragen und Antworten zu natürlicher Sprache
Wenn beide Arten von Workloads um die gleichen V-Kerne konkurrieren, muss die Kapazität über ausreichende Ressourcen verfügen, um Spitzenüberlappungen zu bewältigen. Eine Kapazität, die während der Geschäftsnacht 20 gleichzeitige Datensatzaktualisierungen ausführt und während des Geschäftstages 200 gleichzeitige Benutzerabfragen verarbeitet, muss möglicherweise für beide Spitzenzeiten dimensioniert werden.
Die Kapazitätsmetrik-App
Die Microsoft Fabric Capacity Metrics-App (vormals Power BI Premium Capacity Metrics-App) ist das wesentliche Tool für die Kapazitätsüberwachung und -planung. Installieren Sie es von AppSource und verbinden Sie es mit Ihrer Kapazität.
Was es zeigt:
CPU- und Speicherauslastung nach Workload-Typ. Das Auslastungsdiagramm zeigt den CPU-Verbrauch im Zeitverlauf mit separaten Reihen für interaktive und Hintergrund-Workloads. Die geglättete Linie zeigt den geglätteten 24-Stunden-Durchschnitt (was Power BI für Drosselungsentscheidungen verwendet).
Drosselungsereignisse: Wenn die 24-Stunden-geglättete CPU 100 % der Kapazitätsressourcen überschreitet, beginnt Power BI mit der Drosselung von Hintergrundarbeitslasten (Verzögerung von Aktualisierungen). Wenn der Glättungsschwellenwert erheblich überschritten wird, werden auch interaktive Arbeitslasten gedrosselt. Die Metrik-App zeigt Drosselungsereignisse mit Dauer und Schweregrad an.
Datensatzspeicher: Der Speicherwasserfall zeigt, welche Datensätze in den Speicher geladen werden, wie viel Speicher sie verbrauchen und wann sie entfernt werden. Ein Datensatz, der ständig entfernt und neu geladen wird (hohe Anzahl „Räumungen“), ist zu groß für den verfügbaren Speicher – was zu Verzögerungen führt, da Benutzer bei jeder Abfrage darauf warten müssen, dass der Datensatz neu geladen wird.
Top-Datensätze und -Berichte nach Ressourcenverbrauch: Die Metrik-App ermittelt, welche Datensätze und Berichte die meisten Ressourcen verbrauchen – dies sind die Kandidaten für eine Optimierung vor der Skalierung.
Wichtige zu überwachende Kennzahlen:
| Metrisch | Gesund | Warnung | Kritisch |
|---|---|---|---|
| CPU-Auslastung (24 Stunden geglättet) | < 70 % | 70–90 % | > 90 % |
| Speichernutzung | < 80 % | 80–90 % | > 90 % |
| Datensatz-Räumungen (täglich) | < 10 | 10–50 | > 50 häufige Datensätze |
| Interaktive Abfrage warten | < 1s Durchschnitt | 1–3 s durchschnittlich | > 3s Durchschnitt |
| Erfolgsrate aktualisieren | > 98 % | 95–98 % | < 95 % |
Dimensionierung einer neuen Bereitstellung
Bei der erstmaligen Dimensionierung einer Power BI Premium-Bereitstellung (ohne vorhandene Metrikdaten) verwendet der Schätzungsprozess die folgenden Eingaben:
Schritt 1: Benutzer und Nutzungsmuster zählen – Wie viele Benutzer werden insgesamt auf Power BI-Berichte zugreifen?
- Wie hoch ist die maximale Anzahl gleichzeitiger Benutzer? (Normalerweise 10–20 % aller Benutzer)
- Was sind die Hauptnutzungszeiten? (Normalerweise 9–11 Uhr und 14–16 Uhr während der Geschäftszeiten)
Schritt 2: Schätzen Sie den Speicherbedarf des Datensatzes
- Summieren Sie die unkomprimierte Größe aller gleichzeitig aktiven Datensätze
- Wenden Sie ein durchschnittliches VertiPaq-Komprimierungsverhältnis von 5:1 an, um die In-Memory-Größe abzuschätzen – Fügen Sie 20 % Overhead für Abfragevorgänge hinzu
- Gesamtspeicherbedarf des Datensatzes = die vorherrschende Größenbeschränkung für die meisten Implementierungen
Schritt 3: Schätzung der Aktualisierungsarbeitslast
- Wie viele Datensätze müssen zu Spitzenzeiten gleichzeitig aktualisiert werden?
- Wie lang ist jeweils die erwartete Aktualisierungsdauer?
- Spitzenverbrauch der Aktualisierungsressourcen = (Anzahl gleichzeitiger Aktualisierungen × durchschnittlicher Speicher pro Datensatzaktualisierung)
Schritt 4: DirectQuery/Live Connection-Durchsatz hinzufügen – Wie viele Benutzer werden Berichte mit DirectQuery verwenden?
- Wie hoch sind die erwarteten Spitzenabfragen pro Sekunde? – Vergleich mit SKU-Durchsatzgrenzen (P1 verarbeitet 30 DQ-Abfragen/Sekunde)
Beispiel zur Größenberechnung:
Organisation mit 500 Power BI-Benutzern:
- 50 gleichzeitige Benutzer in der Spitze (10 % der Gesamtzahl)
- 15 aktive Datensätze, durchschnittlich 4 GB unkomprimiert → jeweils ~0,8 GB im Speicher = 12 GB gesamter Datensatzspeicher
- 10 Datensätze werden über Nacht gleichzeitig aktualisiert, wobei jeder während der Aktualisierung 2 GB verbraucht = 20 GB Aktualisierungsspeicher – 20 DirectQuery-Berichtsseiten zu Spitzenzeiten = ~5 Abfragen/Sekunde
Analyse: 32 GB Spitzenspeicher (12 GB Datensätze + 20 GB Aktualisierungen) + Overhead = erfordert P1 (25 GB), kann knapp sein → P2 (50 GB) in Betracht ziehen. Der DirectQuery-Durchsatz liegt innerhalb der 30-qps-Grenze von P1, sodass der Arbeitsspeicher die Größenentscheidung bestimmt.
Wenn Sie mit P1 beginnen und 30 Tage lang mit der Metrics-App überwachen, wird sich zeigen, ob P2 erforderlich ist.
Autoscale-Konfiguration
Power BI Premium Gen2 (und Fabric) unterstützt die automatische Skalierung – das automatische Hinzufügen von Rechenressourcen, wenn der Bedarf die bereitgestellte Kapazität übersteigt, und das Entfernen dieser Ressourcen, wenn der Bedarf sinkt.
Autoscale für Premium (P-SKUs): Konfigurieren Sie im Power BI-Admin-Portal → Kapazitätseinstellungen → Premium-Kapazität → Autoscale. Legen Sie die maximale Anzahl zusätzlicher V-Kerne fest, die hinzugefügt werden können (1–71 für P1). Wenn sich die Kapazitätsauslastung den Grenzen nähert, fügt die automatische Skalierung schrittweise V-Kerne hinzu.
Automatische Skalierungsabrechnung: Zusätzliche V-Kerne werden pro Stunde zu einem Satz pro V-Kern abgerechnet. Ein P1, der während einer Spitzenzeit 2 Stunden lang 8 V-Kerne hinzufügt, zahlt 16 V-Kernstunden.
Automatische Skalierung für Fabric: Fabric-Kapazitäten können angehalten und wieder aufgenommen werden (kostengünstig für Entwicklung/Test) und verfügen über stoßfähige Rechenleistung, die innerhalb der erworbenen CU-Grenzwerte skaliert. Fabric unterstützt neben der nutzungsbasierten Preisgestaltung auch Reservierungen (verbindliche Ausgaben für erhebliche Rabatte).
Wann sollte die automatische Skalierung verwendet werden:
- Sie haben vorhersehbare Tagesspitzen (z. B. erzeugt die Finanzberichterstattung am Monatsende das Dreifache der normalen Belastung)
- Sie möchten nicht dauerhaft für Spitzenkapazitäten sorgen, die nur gelegentlich benötigt werden
- Sie möchten Kostenvorhersehbarkeit mit einem Sicherheitsventil für unerwartete Nachfragespitzen
Wann Autoskalierung NICHT verwendet werden sollte:
- Anhaltend hohe Auslastung (Sie sind ständig ausgelastet) – aktualisieren Sie stattdessen die Basisstufe
- Sehr große einmalige Berichtsrenderinglasten – die automatische Skalierung reagiert möglicherweise nicht schnell genug
- Strenge Budgetbeschränkungen, bei denen eine variable Abrechnung nicht akzeptabel ist
Kapazitätsoptimierung vor der Skalierung
Optimieren Sie vor dem Upgrade auf eine größere Kapazität die vorhandenen Arbeitslasten. Die meisten Leistungsprobleme können behoben werden, ohne mehr Geld auszugeben.
Datensatzoptimierung:
- Führen Sie den VertiPaq Analyzer von DAX Studio aus, um große Tabellen und Spalten zu identifizieren, die entfernt oder zusammengefasst werden können
- Suchen Sie nach ungenutzten Spalten und Maßnahmen, die Speicher verbrauchen, ohne dass in einem Bericht darauf verwiesen wird
- Datentypen optimieren (Integer statt Text für Datumsschlüssel, Boolean statt String für Flags verwenden) – Wenden Sie eine inkrementelle Aktualisierung an, um die Aktualisierungsdauer und den Speicherverbrauch während der Aktualisierungszyklen zu reduzieren
Berichtsoptimierung:
- Reduzieren Sie die Anzahl der Visuals pro Berichtsseite – jedes Visual generiert beim Laden mindestens eine DAX-Abfrage
- Ersetzen Sie minderwertige visuelle Elemente durch Karten oder KPIs, die einfachere Abfragen generieren
- Vermeiden Sie bidirektionale Beziehungen und komplexes DAX, das mehrere Speicher-Engine-Abfragen generiert
- Verwenden Sie Feldparameter anstelle vieler ähnlicher berechneter Spalten
Optimierung des Aktualisierungsplans:
- Staffeln Sie die Aktualisierungszeiten, um zu vermeiden, dass mehrere große Datensätze gleichzeitig aktualisiert werden
- Planen Sie Datensätze mit niedrigerer Priorität außerhalb der Hauptverkehrszeiten – Verwenden Sie die inkrementelle Aktualisierung, um das Aktualisierungsfenster für große Datensätze zu verkürzen – Pausieren oder deaktivieren Sie Aktualisierungen für selten verwendete Datensätze
Multi-Capacity-Architektur
Große Unternehmen nutzen manchmal mehrere Kapazitäten, um Arbeitslasten zu isolieren, Kostenstellen zu trennen oder geografische Redundanz bereitzustellen.
Gemeinsame Multi-Capacity-Muster:
- Tierisolation: Produktion auf P2, Entwicklung/Test auf F8. Verhindert, dass Entwickleraktualisierungen Produktionskapazität verbrauchen.
- Workload-Isolation: Finanzen auf einem P1, Personalwesen auf einem anderen P1. Verhindert, dass sich die Arbeitslasten der Abteilungen gegenseitig beeinflussen.
- Geografische Verteilung: US-Nutzer auf Kapazität in Osteuropa, EU-Nutzer auf Kapazität in Westeuropa. Reduziert die Latenz für regionale Benutzergruppen.
- Kostenstellentrennung: Jede Geschäftseinheit verfügt über eigene Kapazitäten, was eine präzise Kostenverrechnung ermöglicht.
Kapazitätsübergreifende Überlegungen: Datensätze und Berichte müssen in Arbeitsbereichen veröffentlicht werden, die bestimmten Kapazitäten zugewiesen sind. Ein Bericht kann nur Datensätze derselben Kapazität verwenden (oder aus einer anderen Kapazität importieren, was Auswirkungen auf die Leistung hat). Planen Sie vor der Veröffentlichung die Zuordnung von Arbeitsbereich zu Kapazität, um kapazitätsübergreifende Datenzugriffsmuster zu vermeiden.
Häufig gestellte Fragen
Was ist die Mindestkapazitätsstufe von Power BI für die Unternehmensnutzung?
Power BI Premium P1 (oder Fabric F64) ist die Mindeststufe, die den gesamten Funktionsumfang des Unternehmens unterstützt: paginierte Berichte, Bereitstellungspipelines, XMLA-Endpunktzugriff, KI-Einblicke, berechnete Datenflussentitäten und Modellgrößen von bis zu 400 GB. Für kleinere Organisationen oder Abteilungsimplementierungen bietet Power BI Premium pro Benutzer (PPU) für 20 $/Benutzer/Monat die meisten Funktionen, ohne dass eine Kapazitätsverpflichtung erforderlich ist. Für Entwicklung und Tests ist Fabric F2 oder F4 ausreichend.
Wie wirkt sich die 24-Stunden-CPU-Glättung auf die Kapazitätsplanung aus?
Power BI verwendet einen 24-Stunden-CPU-Glättungsalgorithmus, um festzustellen, ob eine Kapazität überlastet ist. Kurze Ausbrüche hoher CPU-Auslastung (eine große Aktualisierung wird in 30 Minuten abgeschlossen) führen nicht sofort zu einer Drosselung – der Ausstoß wird über das 24-Stunden-Fenster gemittelt. Dies bedeutet, dass Sie moderate Burst-Arbeitslasten bewältigen können, ohne die Größe für Spitzenzeiten anpassen zu müssen. Eine anhaltend hohe CPU-Leistung (3+ Stunden intensive Arbeitslast) führt jedoch dazu, dass der geglättete Durchschnitt den Drosselungsschwellenwert überschreitet. Größe für Ihren anhaltenden Höhepunkt, nicht für Ihr momentanes Maximum.
Ist Microsoft Fabric für neue Bereitstellungen besser als Power BI Premium?
Für neue Unternehmensbereitstellungen im Jahr 2026 ist Fabric im Allgemeinen der empfohlene Weg. Es bietet die gleichen Power BI-Funktionen wie Premium sowie zusätzliche Workloads (Data Engineering, Data Science, Data Warehouse, Echtzeitanalysen), eine flexiblere Abrechnung (Pause/Fortsetzung, Reservierungen) und ein einheitliches Governance-Modell. Für Organisationen, die bereits Premium-P-SKUs mit langfristigen Verträgen nutzen, kann es finanziell sinnvoll sein, Premium bis zur Verlängerung beizubehalten. Alle Power BI Premium-Inhalte sind mit Fabric kompatibel.
Wie reduziere ich die Kapazitätskosten, ohne die Benutzererfahrung zu beeinträchtigen?
Die wirkungsvollsten Hebel zur Kostenreduzierung sind: (1) Datensätze optimieren, um den Speicherbedarf vor der Größenänderung zu reduzieren, (2) Aktualisierungszeitpläne zeitlich versetzt, um gleichzeitigen Ressourcenwettbewerb zu verhindern, (3) Fabric mit Pause/Fortsetzung für Entwicklungskapazitäten verwenden (Zahlung nur während der Geschäftszeiten), (4) automatische Skalierung auf Produktionskapazität aktivieren, anstatt permanent für Spitzenzeiten bereitzustellen, und (5) Arbeitsbereiche für ungenutzte Berichte und Datensätze prüfen, die Aktualisierungsressourcen ohne aktive Benutzer verbrauchen.
Welche Überwachungstools stellt Microsoft für den Kapazitätszustand bereit?
Das primäre Tool ist die Microsoft Fabric Capacity Metrics-App (verfügbar auf AppSource). Es bietet CPU-Auslastung, Speicherauslastung, Drosselungsereignisse, Datensatzaktivität und Abfrageleistungsmetriken. Für eine tiefergehende Diagnose ermöglicht der XMLA-Endpunkt (zugänglich über SSMS oder Tabular Editor) die Abfrage von DMVs (Dynamic Management Views) nach Abfrageleistungsdaten in Echtzeit. Die Power BI REST-API bietet programmgesteuerten Zugriff auf Kapazitätsmetriken für benutzerdefinierte Überwachungs-Dashboards.
Nächste Schritte
Die Kapazitätsplanung ist eine fortlaufende Aktivität und keine einmalige Entscheidung. Beginnen Sie mit der richtigen Stufe, überwachen Sie aktiv mit der Capacity Metrics-App, optimieren Sie Arbeitslasten vor der Skalierung und planen Sie Wachstum. Die Organisationen, die den größten Nutzen aus Power BI Premium ziehen, betrachten das Kapazitätsmanagement als eine Performance-Engineering-Disziplin.
Die Power BI-Leistungsoptimierungsdienste von ECOSIRE umfassen Kapazitätsbewertung, Arbeitslastanalyse und Größenempfehlungen. Kontaktieren Sie uns, um Ihre aktuelle Kapazitätsauslastung zu überprüfen und den kostengünstigsten Weg zur Leistungsverbesserung zu ermitteln.
Geschrieben von
ECOSIRE TeamTechnical Writing
The ECOSIRE technical writing team covers Odoo ERP, Shopify eCommerce, AI agents, Power BI analytics, GoHighLevel automation, and enterprise software best practices. Our guides help businesses make informed technology decisions.
Verwandte Artikel
Building Financial Dashboards with Power BI
Step-by-step guide to building financial dashboards in Power BI covering data connections to accounting systems, DAX measures for KPIs, P&L visualisations, and best practices.
Case Study: Power BI Analytics for Multi-Location Retail
How a 14-location retail chain unified their reporting in Power BI connected to Odoo, replacing 40 spreadsheets with one dashboard and cutting reporting time by 78%.
GoHighLevel + Power BI: Advanced Reporting and Analytics
Connect GoHighLevel to Power BI for advanced marketing analytics. Build executive dashboards, track multi-channel ROI, and create automated reports that go beyond GHL's native reporting.
Mehr aus Performance & Scalability
k6 Load Testing: Stress-Test Your APIs Before Launch
Master k6 load testing for Node.js APIs. Covers virtual user ramp-ups, thresholds, scenarios, HTTP/2, WebSocket testing, Grafana dashboards, and CI integration patterns.
Nginx Production Configuration: SSL, Caching, and Security
Nginx production configuration guide: SSL termination, HTTP/2, caching headers, security headers, rate limiting, reverse proxy setup, and Cloudflare integration patterns.
Odoo Performance Tuning: PostgreSQL and Server Optimization
Expert guide to Odoo 19 performance tuning. Covers PostgreSQL configuration, indexing, query optimization, Nginx caching, and server sizing for enterprise deployments.
Odoo vs Acumatica: Cloud ERP for Growing Businesses
Odoo vs Acumatica compared for 2026: unique pricing models, scalability, manufacturing depth, and which cloud ERP fits your growth trajectory.
Testing and Monitoring AI Agents in Production
A complete guide to testing and monitoring AI agents in production environments. Covers evaluation frameworks, observability, drift detection, and incident response for OpenClaw deployments.
Compliance Monitoring Agents with OpenClaw
Deploy OpenClaw AI agents for continuous compliance monitoring. Automate regulatory checks, policy enforcement, audit trail generation, and compliance reporting.