
Ihre KPIs zeigen Ihnen, was gestern passiert ist. Das Problem: Gestern können Sie nicht mehr ändern. Die meisten Unternehmen im Mittelstand steuern ihre Prozesse mit Kennzahlen, die ausschließlich in den Rückspiegel schauen — Durchlaufzeiten des letzten Monats, Fehlerquoten des letzten Quartals, Auslastung der vergangenen Woche. Predictive Analytics für Prozesse dreht diese Logik um. Es geht nicht mehr darum, was war, sondern darum, was kommen wird.
Zwei Gruppen von Unternehmen zeichnen sich ab. Die einen erkennen Engpässe drei Wochen bevor sie die Liefertreue gefährden. Die anderen erfahren davon durch eine Kundenbeschwerde. Dieser Artikel zeigt, wie Predictive Process Analytics im operativen Mittelstand funktioniert, welche Voraussetzungen tatsächlich nötig sind und warum die Technologie nur der letzte Baustein ist.
Rückwärts messen ist wie Autofahren mit zugeklebter Windschutzscheibe
Die operative Steuerung in den meisten mittelständischen Unternehmen folgt einem Muster: Am Monatsende erstellt jemand einen Report. Der Report zeigt, dass die Durchlaufzeit im Auftragsmanagement bei 6,2 Tagen lag — 1,4 Tage über dem Zielwert. Es folgt ein Meeting. Im Meeting wird beschlossen, den Prozess zu „optimieren“. Vier Wochen später zeigt der nächste Report: 5,8 Tage. Fortschritt. Oder statistische Schwankung. Niemand weiß es genau.
Dieses Muster hat einen strukturellen Fehler. Retrospektive KPIs messen Symptome, nicht Ursachen. Sie zeigen, dass die Durchlaufzeit gestiegen ist, aber nicht, warum sie nächste Woche weiter steigen wird. In einem unserer Projekte bei einem Fertigungsunternehmen mit 280 Mitarbeitern lag die durchschnittliche Reaktionszeit auf Prozessabweichungen bei 11 Tagen. Nicht weil das Team langsam war, sondern weil die Abweichung erst im Monatsreport sichtbar wurde. 11 Tage, in denen sich fehlerhafte Teile durch die gesamte Wertschöpfungskette zogen.
Reaktiv vs. Prädiktiv: Zwei Steuerungslogiken
Reaktive Steuerung
11 Tage
Ø Reaktionszeit auf Prozessabweichungen
Abweichung entsteht → Monatsreport zeigt Problem → Meeting → Maßnahme → Wirkung (vielleicht)
Prädiktive Steuerung
–3 Tage
Frühwarnung vor dem Eintreten der Abweichung
Muster erkannt → Prognose berechnet → Alert ausgelöst → Gegenmaßnahme greift, bevor der Schaden entsteht
Predictive Analytics für Prozesse bedeutet nicht, in eine Kristallkugel zu schauen. Es bedeutet, Muster in Prozessdaten zu erkennen, die auf zukünftige Abweichungen hindeuten. Der Auftragseingang steigt seit drei Tagen über den saisonalen Durchschnitt? Die Wahrscheinlichkeit, dass die Kommissionierung in sechs Tagen zum Engpass wird, liegt bei 78 %. Das ist keine Magie. Das ist Mathematik auf Basis sauberer Prozessdaten.
Und genau hier liegt die Verbindung zum 3-Layer Framework. Predictive Analytics ist Layer 3 in seiner fortschrittlichsten Ausprägung. Aber es funktioniert nur, wenn Layer 1 — das Prozessfundament — steht. Wer seine Prozesse nicht kartiert hat, kann keine Muster erkennen, weil er nicht weiß, wo er messen soll.
Was Predictive Process Analytics wirklich ist — und was nicht
Der Begriff „Predictive Analytics“ wird inflationär verwendet. Jeder BI-Vendor klebt ihn auf sein Produkt. Deshalb lohnt sich eine Abgrenzung, die für die operative Praxis relevant ist.
Predictive Process Analytics nutzt historische und Echtzeit-Prozessdaten, um Vorhersagen über zukünftige Prozesszustände zu treffen. Konkret bedeutet das drei Fähigkeiten:
Die drei Fähigkeiten prädiktiver Prozesssteuerung
Fähigkeit 1
Engpass-Prognose
Vorhersage, welche Prozessschritte in den nächsten 5–14 Tagen zum Flaschenhals werden. Basis: Auftragseingang, Personalverfügbarkeit, saisonale Muster, aktuelle Durchlaufzeiten.
Fähigkeit 2
Anomalie-Erkennung
Identifikation von Prozessdurchläufen, die vom Normalmuster abweichen, bevor sie zu Fehlern eskalieren. Beispiel: Eine Bestellposition durchläuft die Prüfung 3x statt 1x — Frühindikator für Datenqualitätsprobleme.
Fähigkeit 3
Kapazitätsplanung
Datengestützte Prognose des Ressourcenbedarfs pro Prozessschritt. Statt reaktiver Personalplanung: vorausschauende Allokation basierend auf Prozessvolumen-Trends.
Was Predictive Process Analytics nicht ist: ein KI-System, das Ihnen sagt, welche Prozesse Sie abschaffen sollen. Es ist kein Strategietool. Es ist ein Steuerungsinstrument für die operative Ebene. Und es funktioniert nur so gut wie die Datenqualität in Ihren Prozessen — ein Punkt, den die meisten Vendoren gerne überspringen.
Vier prädiktive KPIs, die operative Führungskräfte tatsächlich brauchen
Die klassische KPI-Landschaft im Mittelstand kennt Durchlaufzeit, Fehlerquote, Auslastung. Das sind retrospektive Kennzahlen. Sie zeigen Ergebnisse, keine Vorzeichen. Für eine prädiktive Steuerung brauchen Sie Kennzahlen, die als Frühwarnsystem funktionieren.
KPI 1: Process Velocity Index (PVI)
Der PVI misst nicht die Durchlaufzeit selbst, sondern die Veränderungsrate der Durchlaufzeit. Steigt die durchschnittliche Durchlaufzeit eines Prozesses drei Tage in Folge um mehr als 5 %, signalisiert das einen sich aufbauenden Engpass.
In der Praxis setzen wir den PVI als gleitenden Sieben-Tage-Durchschnitt im Verhältnis zum 30-Tage-Durchschnitt um. Liegt der Sieben-Tage-Wert mehr als 10 % über dem 30-Tage-Wert, wird ein Alert ausgelöst. Einfache Mathematik. Aber sie erfordert, dass Sie Ihre Prozesse durchgängig messen — nicht nur am Anfang und Ende, sondern an jedem relevanten Übergabepunkt.
KPI 2: Queue Depth Forecast
Jeder Prozess hat Warteschlangen — Aufträge, die auf Bearbeitung warten. Die aktuelle Warteschlangenlänge ist eine retrospektive Kennzahl. Die prognostizierte Warteschlangenlänge in fünf Tagen ist eine prädiktive. Der Queue Depth Forecast kombiniert den aktuellen Auftragseingang mit der historischen Bearbeitungskapazität und Saisonalität. Das Ergebnis: Sie sehen heute, ob Sie am Freitag ein Problem haben werden.
Prädiktive KPIs: Was sie messen und warum
Vier Kennzahlen, die nach vorne schauen statt zurück
Process Velocity Index
Veränderungsrate der Durchlaufzeit. Zeigt Engpässe 5–10 Tage vor dem Eintreten.
Queue Depth Forecast
Prognostizierte Warteschlangenlänge. Zeigt Kapazitätsprobleme 3–7 Tage im Voraus.
Error Drift Rate
Trendentwicklung der Fehlerquote pro Prozessschritt. Identifiziert systematische Qualitätsdegradation.
Capacity Utilization Forecast
Prognostizierte Auslastung pro Ressource. Ermöglicht vorausschauende Personalplanung.
KPI 3: Error Drift Rate
Die Fehlerquote in einem Prozess ist selten stabil. Sie driftet. Die Error Drift Rate misst genau diesen Trend. Steigt die Fehlerquote in der Rechnungserstellung über vier Wochen von 2,1 % auf 2,4 % auf 2,8 % auf 3,3 %, ist das kein Zufall. Das ist ein systemisches Problem, das sich verschärft.
KPI 4: Capacity Utilization Forecast
Die aktuelle Auslastung Ihrer Teams sagt wenig über nächste Woche. Der Capacity Utilization Forecast kombiniert geplante Aufträge, historische Bearbeitungszeiten und Verfügbarkeitsdaten zu einer Prognose. In einem Logistikunternehmen ermöglichte dieser KPI eine Reduzierung der Leiharbeiterstunden um 23 %, weil das Team Spitzenlasten zwei Wochen im Voraus sah und Schichten gezielt umplanen konnte.
Voraussetzungen: Was Sie brauchen, bevor Sie anfangen
Hier kommt die unbequeme Wahrheit, die kein Vendor-Whitepaper Ihnen sagt: Predictive Analytics für Prozesse scheitert in den meisten Fällen nicht an der Technologie. Es scheitert an fehlenden Grundlagen.
Wer seine Prozesse nicht dokumentiert hat, kann keine Daten erheben. Wer keine Daten hat, kann keine Muster erkennen. Wer keine Muster erkennt, kann keine Vorhersagen treffen. Die Kette ist so einfach wie unerbittlich.
Im 3-Layer Framework ist Predictive Analytics die Spitze von Layer 3 — der KPI- und Performance-Ebene. Aber die Pyramide steht auf Layer 1.
Voraussetzungen für Predictive Process Analytics
1
Prozesse sind kartiert und dokumentiert
Nicht im QM-Handbuch von 2019. Der aktuelle Ist-Zustand, mit allen Varianten und Workarounds.
2
Messpunkte sind definiert und liefern Daten
Mindestens 3 Monate historische Daten an den relevanten Prozesspunkten.
3
Retrospektive KPIs funktionieren bereits
Wer seine aktuellen Durchlaufzeiten nicht kennt, kann keine Trends berechnen.
4
Jemand reagiert auf die Vorhersagen
Die beste Prognose nützt nichts ohne definierte Eskalationspfade und Entscheidungsregeln.
Die vierte Voraussetzung ist die am häufigsten übersehene. Wir haben Unternehmen gesehen, die ausgefeilte Frühwarnsysteme implementiert haben — und dann passierte nichts. Die Alerts kamen, aber niemand hatte definiert, wer auf welchen Alert wie reagiert. Ein prädiktiver KPI ohne Handlungsanweisung ist ein teures Dashboard-Widget.
Der Einstieg: Wo der Mittelstand konkret anfangen kann
Die gute Nachricht: Sie brauchen kein Data-Science-Team und keine sechs Monate Implementierungszeit, um mit prädiktiver Prozesssteuerung zu starten. Sie brauchen einen Prozess, der Ihnen Geld kostet, und Daten, die Sie bereits haben.
Der Einstieg funktioniert in drei Schritten. Erstens: Wählen Sie einen Kernprozess mit hohem Schmerzpotenzial. Zweitens: Identifizieren Sie die retrospektiven KPIs, die Sie bereits messen. Drittens: Berechnen Sie die Trendlinien dieser KPIs über die letzten 90 Tage und definieren Sie Schwellenwerte, bei denen ein Alert ausgelöst wird.
In einem unserer Projekte bei einem mittelständischen Maschinenbauer begann das Team mit einer einfachen Trendanalyse der Auftragsbearbeitungszeiten in Excel. Innerhalb von sechs Wochen identifizierten sie ein Muster: Immer wenn die Verfügbarkeit eines bestimmten Zulieferers unter 92 % fiel, stieg die eigene Durchlaufzeit mit einer Verzögerung von acht Tagen. Diese Erkenntnis ermöglichte eine proaktive Eskalation beim Zulieferer, die die Liefertreue um 14 Prozentpunkte verbesserte.
Drei Schritte zum Einstieg in Predictive Process Analytics
Schritt 1 — Woche 1–2
Kernprozess auswählen und Datenlage prüfen
Welcher Prozess hat den größten wirtschaftlichen Impact? Welche Daten liegen bereits vor?
Schritt 2 — Woche 3–6
Trendanalyse aufsetzen und Schwellenwerte definieren
Gleitende Durchschnitte berechnen, Abweichungsgrenzen festlegen, erste Alerts konfigurieren.
Schritt 3 — Ab Woche 7
Handlungsregeln definieren und operationalisieren
Wer bekommt welchen Alert? Welche Gegenmaßnahme wird bei welchem Schwellenwert eingeleitet?
Wer diesen pragmatischen Einstieg wählt, schafft etwas Entscheidendes: Vertrauen in datenbasierte Steuerung. Das ist die Grundlage, auf der Sie später anspruchsvollere Modelle aufbauen können — mit Process Mining, Machine-Learning-Algorithmen oder echten KI-basierten Prognosen.
Warum die meisten Predictive-Analytics-Projekte trotzdem scheitern
Es gibt ein Muster, das wir in fast jedem gescheiterten Analytics-Projekt sehen: Das Unternehmen startet mit der Technologie statt mit dem Prozess. Ein BI-Tool wird evaluiert, ein Data Warehouse aufgebaut, ein Dashboard designt. Sechs Monate und 150.000 Euro später gibt es ein System, das Vorhersagen trifft, die niemand versteht, und Alerts generiert, auf die niemand reagiert.
Der Fehler liegt nicht in der Technologie. Er liegt in der Reihenfolge. Das 3-Layer Framework macht die richtige Reihenfolge explizit: Erst der Prozess (Layer 1), dann die Automatisierung der Datenerfassung (Layer 2), dann die Analyse und Prognose (Layer 3).
Unternehmen, die diese Reihenfolge einhalten, erreichen belastbare prädiktive KPIs in drei bis sechs Monaten. Wer seine operativen KPIs nicht sauber definiert hat, wird keine sinnvollen Vorhersagen daraus ableiten können. Wer Medienbrüche in seinen Prozessen nicht beseitigt hat, wird keine durchgängigen Daten haben. Wer seinen ROI nicht berechnen kann, wird kein Budget für die nächste Phase bekommen.
Die erfolgreichsten Implementierungen hatten drei Gemeinsamkeiten: Sie starteten klein — ein Prozess, drei KPIs, ein Team. Sie definierten den Erfolg vor der Implementierung. Und sie hatten einen Sponsor auf C-Level, der die Ergebnisse im operativen Alltag einforderte.
Die nächsten 24 Monate: Wohin sich Predictive Process Analytics entwickelt
Drei Entwicklungen werden Predictive Process Analytics im Mittelstand in den nächsten zwei Jahren verändern. Erstens: KI-Modelle, die Prozessdaten automatisch auf Muster durchsuchen, werden als Standardfunktion in Workflow-Plattformen integriert. Das senkt die Einstiegshürde dramatisch. Zweitens: Process Mining wird von der Diagnose zur Prognose erweitert. Drittens: Echtzeitdaten aus IoT-Sensoren, ERP-Systemen und Workflow-Tools fließen zunehmend in einheitliche Datenplattformen zusammen, die prädiktive Modelle in Echtzeit speisen können.
Für den Mittelstand bedeutet das: Der Zeitpunkt, die Grundlagen zu legen, ist jetzt. Nicht weil die Technologie heute schon perfekt ist, sondern weil die Unternehmen, die heute ihre Prozesse kartieren, ihre KPIs definieren und ihre Datenqualität aufbauen, in 18 Monaten diejenigen sein werden, die prädiktive Steuerung tatsächlich nutzen können. Die anderen werden noch dabei sein, ihre Prozesse zu dokumentieren.
Die Frage ist nicht, ob Ihre Prozesse vorhersagbar sind. Die meisten sind es. Die Frage ist, ob Sie bereit sind, die Datengrundlage zu schaffen, die Vorhersagen möglich macht. Wer heute noch mit Monatsreports steuert, fährt mit dem Blick in den Rückspiegel. Das funktioniert — bis die nächste Kurve kommt.
Bereit für Prozessklarheit?
EvarLink analysiert Ihre operative Prozesslandschaft und zeigt Ihnen, wo die größten Hebel für Automatisierung und datengetriebene Steuerung liegen.
Erstgespräch vereinbaren →




