Bessere Planer, Hexenwerk?

Das dritte Quartal, Endspurt für das laufende und Hoch-Zeit für das kommende Budget. Woher stammt eigentlich die Aussage, dass monatlich zwei Stunden Planung Best Practice sind? Es klingt ironisch, dass der Ausweg ein rollierender, also öfter zu wiederholender Forecast sein soll. Steve Morlidge hat dazu gute Bücher geschrieben und auf dem Adaptive Insights Event in London erneut gute Tipps gegeben. Wer nicht gleich „beyond“, also die Budgetierung hinter sich lassen möchte, dem seien seine Bücher empfohlen und folgende Stories mit auf den Weg gegeben.
Selbstzweck – worum dreht sich Planung eigentlich? Ist es ein jährliches internes Spiel oder doch mehr serious gaming? Die Vergleiche in den Berichten – oft benannt als Ist, Budget, Abweichung – sind ein guter Indikator. Statt Vergleiche mit sich selbst und fehlendem Blick über den Tellerrand, sollte eine Spalte „Wettbewerb“ heißen. Eine gut gemischte Hand diverser Kennzahlen schafft weiter Abhilfe.
Der Zeitbezug ist eine kritische Größe zwischen Fortschreibung aus der Realität und der strategischen Aspiration.
  1. Fortschreibung? Der vorliegende Vertrag, bzw. das Auftragsbuch definiert einen Teil zukünftiger Umsätze. Das ist etwas anderes als das Umsatz-Grundrauschen. Gefährlich wird Regression, wenn Verträge auslaufen oder die Großwetterlage sich ändert. Ante Mortem ist eine gute Methode, das zu trennen. Ante Mortem ist die Frage: „Was muss passieren, damit es ordentlich bergab geht?“.
  2. Der zeitliche Rahmen der Planung soll aus dem Geschäftsmodell folgen. Dann führt der Zeitraum zu Messbarkeit und Qualität; Forecast-Qualität und Qualität des Forecasters. Ein aktueller Harvard Business Review Artikel zeigt, dass selbst vage formulierte KPIs enorm an Qualität zunehmen, sobald der Sachverhalt schon etwas objektiv messbar ist.
Die Detail-Ebene geht über die Frage nach Planung ein, drei oder zehn Personalkonten hinaus. Die Autonomie der Einheiten sollte die Granularität definieren.
  1. Mehr Daten bringen nicht mehr Transparenz. Die KPI-Vorlage mit 200 KPIs wird zu einigen Schmunzlern über den Ersteller führen.
  2. Als Einwurf aus eigener Erfahrung: Simplifizierungen sind gut gemeinte Ansätze, allerdings stets mit hohem Aufwand für die; die auf den alten Prozess eingeschworen sind. Die Einbindung dieser bindet anfangs Zeit, erspart später dafür sicher Zeit und Nerven.
Relevante Treiber sind ein umfangreiches, stetem Wandel unterworfenes Phänomen. Die Identifikation und Planung der relevanten Treiber bringt die Planung auf ein neues Qualitäts-Niveau. Und selbst dann; qualitative Informationen, wie rein textlich erfassbare Sachverhalte, kommen weiter zu kurz. Ein Risiko-Register kann Abhilfe schaffen, ist aber negativ Konnotiertes. Nennen wir es also Risiko-Chancen-Register. Als Treiber der Treiber bringt es Tiefe und der Name verspricht echtes Unternehmertum. Übrigens: eine Google-Suche zu „Chancenregister“ bringt 0 Treffer in diesem Sinne und viele zu „last chance to register“. Ein Satz zu Dimensionen, die helfen eine Zahl detaillierter zu quantifizieren. Es ist Vorsicht angebracht, denn der quantifizierten Wahrheit im Ist steht die unsichere Zukunft entgegen.
Die Datenqualität ist besonders für die Ist- und externen Zahlen zu beachten. Das gilt auch für die Treiber wie Arbeitsvertrag, Anlagegüter, Darlehen oder Wartungsverträge. Eine gute Verwendbarkeit (= Qualität über die Planung hinaus) bedeutet die Führung und Nutzung der relevanten Eigenschaften in der Planung. Dann zeigen sich Vorteile wie
  1. weniger Anpassungsbedarf durch
  2. eine im operativen System fundierte Grundlage der Planung und
  3. bes. eine Diskussion über Veränderungen wie neue Stellen statt Diskussion, ob denn die Grundlage stimmt.
Zu guter Letzt sollte sich Zeit für „serious gaming“ genommen werden. Das ist kein Hexenwerk. Die Sensitivität des Treibers im Modell zeigt sich durch Eingabe kleinster und größter Werte. Szenarien kombinieren die Veränderung mehrerer Treiber zu einem Szenario und ermöglichen die Analyse der Ergebnisse. Der Punkt könnte am Anfang stehen, doch leitet er gut auf den oft fehlenden kritischen Erfolgsfaktor „People, Lessons Learned & Feedback“ hin. Messbare gemessene Planung führt zu besseren Planern . Dann klappt Zukunft ohne Hexen und Auguren und es läuft anders als bei Nokia, Arcandor, Schlecker, Praktiker, Woolworth, Air Berlin. Vielleicht sind Management-Fehler im Planungsansatz die Wurzel des Niedergangs? So denkt zumindest das Finance Magazin und führt die sechs häufigsten auf:
  1. Vergangenheitsgläubigkeit (die VHS wird nie untergehen, die CD danach auch nicht),
  2. Überschätzung,
  3. Planungsfehlschüsse und fehlende zeitige Anpassung,
  4. falsche Referenzen, genannt Anker,
  5. das Konsistenzbedürfnis und
  6. Kosten-Irrationalität, besser bekannt als sunk cost

Internationaler Planspieltag am 17.11.18

Zu der intern gelebten Lernbereitschaft gehört für uns, dass wir sowohl mit anderen agieren und Räume schaffen, in denen wir gemeinsam Erfahrungen sammeln. Gerne beteiligen wir uns am Internationalen Planspieltag, organisiert durch den Fachverband SAGSAGA „Swiss Austrian German Simulation And Gaming Association“. Als Teil des interdisziplinären SAGSAGA Netzwerkes aus Planspielentwicklern, -anwendern und –forschern, fließen die Erfahrungen in unsere „people driven“ Produkte und Arbeit ein – wie bei BMW mit „Freude am Fahren.“ Das Planspiel ist die Lern-Methode, mit der problematische oder konfliktreiche Szenarien simuliert werden können, um die Teilnehmer auf die Realität vorzubereiten. Besonders das Feedback am Ende eines jeden Planspiels trägt ungemein zum Erfahrungsschatz bei.

Der zweite internationale Planspieltag findet vom 15. bis 17. November statt. Unser Beitrag ist ein spielerischer Morgen in unseren Räumlichkeiten zur Optimierung unternehmerischer Planungsprozesse. Gute Prognosen sind keine Kunst. Sie sind erlernbar und wie ein guter Pokerspieler kann der Planer das Verhalten der Beteiligten verstehen lernen, transparent machen und antizipatorisch Maßnahmen im Sinne der Unternehmensziele treffen.

Für nähere Informationen rund um den Planspieltag bei uns in Hamburg gern eine E-Mail an: planspieltag@implexa.de oder für allgemeine Informationen hier.

 

 

Elastische Hypercubes & Innovationen bei Adaptive Insights

Innovationen haben bei Adaptive Insights eine lange Tradition. In diesem Monat wird mit der zum Patent angemeldeten Elastic Hypercube Technology ein neues Kapitel aufgeschlagen. Die frühe Festlegung auf eine Cloud only Strategie hat es einfach gemacht, neue Funktionen für Nutzer reibungslos integriert auszurollen. Einige bahnbrechende Technologien oder nicht minder wichtige Verbesserungen in der Benutzerfreundlichkeit haben wir miterlebt.

Als Abkürzung, hier geht es zum elastic Hyercube Technologe Blogbeitrag von Bhaskar „In Enterprise Software, Promises Are Easy. Keeping Them Is Hard.“

In Las Vegas wurde 2014 das neue, einheitliche User Interface präsentiert. So gut wie jede Aufgabe oder Information ist seitdem mit zwei Klicks zu erreichen. Die Kunden waren von einem Tag auf den anderen in einer neuen Einfachheit.
Im folgenden Jahr wurde OfficeConnect ausgerollt. Microsoft Excel, Word und PowerPoint sind fortan mit der Datenbank verknüpft, ein Großteil des Aufwands in der Monatsumstellung von Spalten, Zellen und Folien entfällt.

Drei große Neuerungen lieferte das Jahr 2016:

  1. Adaptive Integration ist eine ETL Plattform, die technische Schnittstellen (APIs) für den Nutzer zugänglich macht. Daten aus Systemen wie Salesforece, NetSuite oder Intacct werden wie gewohnt, ohne eine Zeile Code zu schreiben, angebunden. Beliebige Datenquellen, wie Excel- oder Text-Dateien, SAP, Navision, Datev oder einfach SQL Datenbanken, sind direkt von der Business Planning Cloud aus erreichbar. Der Marketing Leiter kann mit einem Klick seine Pipeline aus Salesforce aktualisieren und andersherum seine Adaptive Insights Planung direkt in Salesforce durchführen.
  2. Die offline Planung mit dem Excel Interface for Planning entspricht der Planung im Browser und zeigt die tiefe Integration in des Controllers Kulturgut. Excel und Online wurden nahtlos vernetzt, was bspw. der Aufruf des Zellexplorers im Browser aus dem Kontextmenü einer Zeile zeigt.
  3. Der Zero Footprint sorgt für Erleichterung bei den Administratoren. Modell-Aufbau und -Pflege erfolgen ab sofort ohne lokales Java Applet. So ist die Lösung auch am Tablet administrierbar. Die Planung über Smartphone und Tablet ist von Anfang an möglich.

Die Abschaffung der Java Applets war aufwändig, Bahn frei für elastische Hypercubes.Bhaskar besetzt die neue geschaffene Position des Chief Product Officer und soll eine Antwort auf die wachsende Daten- und Aufgabenmenge in Controlling und FP&A liefern. Vor der Umsetzung mit einem der größten Entwicklerteams der Branche, bringt 2017 Neuerungen wie die „Punkt“ Notation. Formeln werden einfacher zu schreiben, zu lesen und kommentierbar.

In diesem Bild sehen Sie eine gültige, vielleicht nur bedingt sinnige Formel, die in dieser Formatierung stehen bleibt.  Neue Formeln wie switch() vereinfachen komplexe und verschachtelte Geschäftslogik und damit den Plan. Als Implementierer sind das für uns heute etablierte Standards.

Weiter wird eine komplett neue Dashboard Lösung ausgerollt und die Art Berichte zu gestalten, vereinfacht sich weiter. Sehen Sie hier ein Release-Video, vorgestellt von Tom, Finance Director bei Adpative Insights.

Ein oft nachgefragtes Feature war bis zum Roll Out 2017 virtuelle Versionen. Diese bieten besonders den Großkunden – etwa 1.000 der fast 4.000 Kunden legen über 500 Mio USD Umsatz – einfach und dauerhaft Vergleichs-Szenarien mit frei definierbaren Wechselkursen. Es war viel los und so passierte auch etwas mit der Zeit. Sie wurde für jedes Teil des Modells frei wählbar. Planung in Tagen, Wochen, Quartalen oder Jahren fließen reibungslos in den monatlichen Plan. Das ist durchaus komplex, überlagern Wochen den Monat und auch bei Unterteilung eines Jahres in Monate sind Formeln und Logiken anzupassen.

2018, elastische Hypercube Technologie. Nach dem Flug über die Jahre kommt der Schritt kleiner vor, denn die Plattform scheint sich in der Tat flexibel an neue Anforderungen anzupassen. Manchmal dauert das etwas, wie Bhaskar sagt: „Versprechen ist einfacher als halten“, er hat etwas Besonderes geliefert: die Erweiterung des leistungsstarken in-Memory Modellierungskerns:

  1. Ziel ist eine performante, skalierbare, flexible Integration weiterer Daten und Informationen. Dabei ist die Zeit für Verarbeitung einer Anfrage kritisch, sei es im Reporting oder bei Änderungen in der Planung.
  2. Die Technologie versteht es, nur die von Änderungen betroffenen Teile eines Modells zu berechnen. Das spart Berechnungsaufwand.
  3. Die Optimierung der Cache Nutzung ist ein weiterer Baustein, der die wahrscheinlich relevanten Teile der Lösung bevorzugt.
  4. Die Vorteile paralleler Berechnungen werden nun vollumfänglich und Modell getrieben genutzt. Verteilte Ressourcen zu nutzen und bei Bedarf nach oben zu skalieren, ist ein komplexes Unterfangen.

Der Roll Out erfolgt für den Kunden gewohnt geräuschlos. Sicherheit und Verfügbarkeit sind oberstes Gebot. Denn: fällt ein Kunde aus, fallen alle aus.

„Kleine Verbesserungen im großen Ganzen“ von einem ganz Großen

Hans Rosling hat Fidel Castro und Al Gore Lektionen über den Zustand der Welt erteilt. Bis 2017 hat ihm der Krebs Zeit gelassen für sein Geschenk an die Welt: „Factfulness, wie wir lernen die Welt so zu sehen, wie sie wirklich ist.“Dieser Titel verwandelt das eigene Unwissen in Wohlbefinden. Die zehn Verzerrungen, die eine sachliche Analyse behindern, sind mit einfachen Mitteln behandelbar. Das ist so überzeugend, dass Bill Gates das Buch jedem US Absolventen schenkt und Lektionen für unser Anliegen einer besseren Finanzplanung & Analyse gezogen werden.

Im Ergebnis münden diverse Aspekte stets in der einen Aussage: stetig kleine statt weniger großer Schritte ergeben sich aus unaufgeregter Fakten-Analyse mit dem Wissen um Unsicherheit in jeder Prognose.

Unsere Schulbücher aus den 70ern und die Welt 2015 zeichnen zwei unterschiedliche Bilder (Quelle Gapminder).

Die erste Lektion, Schulwissen altert und ohne „Refresh“(eine intendierte Anspielung an das Buch des heutigen Microsoft CEO) bleibt unsere Weltsicht dort verhaftet. Zum Beispiel existiert die Lücke zwischen arm und reich nicht mehr. Die Lücke ist geschlossen mit der Mehrheit der Menschheit, die mit 2 USD bis 32 USD täglichem Einkommen lebt. Elektrizität, Wasser, Gesundheitsversorgung und 9 Jahre Schulbildung stehen fast 90% zur Verfügung. In Demokratie leben knapp 60%. Was uns fehlt, ist der Refresh und die stete Analyse der Effekte kleiner Veränderungen. Diese werden zu häufig überlagert mit Durchschnittswerten und Geschichten über die Extreme.

Woher also die Schwarzmalerei,im Buch unter „negativity instinct“geführt? Die extreme Armut hat sich seit 1996 absolut fast halbiert. Relativ ist sie durch das Bevölkerungswachstum gar von einem Drittel auf 9% zurückgegangen. Auch die Lebenserwartung liegt bei 72 Jahren –weltweit wohlgemerkt. Nackte Zahlen helfen Schwarzmalerei zu begegnen und rückläufige Zahlen in Bezug zu setzen. Im Unternehmen relativiert ein relevanter Zeitraum manchen Instinkt zum Aktionismus aus dem Ist-Ist Vergleich. Weiter zu beachten ist eine entfernt stattfindende Katastrophe in den lokalen Medien. Es bleibt unerwähnt, dass der rapide Rückgang an Katastrophenopfern durch viele kleine Schritte das entfernte Leid an den heimischen Leser bringt. Das lässt sich auch anwenden auf die vermeintlich unvermeidlichen Digitale-Disruptions-Vermeidungs-Investitionen.

Punkt 3 ist eine Lektion in der Erkennung von Trends und eine Absage an die lineare Regression. Exponentielle Sachverhalte bieten bei früher Erkennung Chancen und sind trotzdem zu verifizieren. Die großen Plattformen (Google, Apple, Facebook, Microsoft und Amazon) konzentrieren ihre M&A Strategie u.a. um diesen Effekt. Ein schönes Beispiel sind die Gapminder Visualisierungen. Das kostenfreie Programm für die Analyse öffentlicher Daten entstammt der Stiftung von Hans und seinem Sohn (Link zum Download).

Die instinktive Angsttreibt unsere Gesellschaft um. Sie ist schlechter Ratgeber und guter Verkäufer. Die Risiko-Betrachtung als Gefahr  Eintrittswahrscheinlichkeitsorgt für eine reflektierte Entscheidung. Terror bspw. führt in unserer Region (>32 USD Einkommen) seit 1997 konstant zu ca. 150 Opfern p.a. (ausgenommen 9/11). Die„ärmeren“drei Gebiete darunter verzeichnen einen Anstieg von 5k auf 15k Terroropfer.

Das Kapitel über Größeverlangt, Zahlen in Relation zu sehen.  Eine Forderung des Beyond Budgeting ist bspw. der Vergleich mit Wettbewerbern. Was bedeutet Umsatzwachstum am unteren Ende eines expandierenden Marktes? Rosling greift das Pareto-Prinzip auf und fordert weiter, die erste Auseinandersetzung mit dem Elefanten im Raum zu führen.

Generalisierungist ein Instinkt, der mögliche Potentiale überblendet. Das Kapitel ist wertvoll im Ansatz, Gruppen an sich und übergreifend auf Unterschiede und Gemeinsamkeiten hin zu prüfen sowie zu verfeinern. Auch die Mehrheit lässt Spielraum für Potentiale, beginnt sie doch bei 50%. Ganz im Sinne der Superforecaster ist Neugier bei Unbekanntem neben dem Refresh des Bekannten ein guter Partner der Entscheidungsfindung.

Unter Schicksal versteht Rosling das Beharren auf vermeintlichen Axiomen. Chinesische Touristen geben in München mittlerweile mehr aus als arabische Gäste, wenn das die Großeltern wüssten. Kleine Veränderungen konstant zu verfolgen und mit der Frage: „wie wurde das vor 20 Jahren gemacht?“einzurahmen, bietet eine Perspektive auf vermeintlich unabwendbare Schicksale.

Apropos Perspektive. Die Einzelne ist stets zu hinterfragen, selbst die eigene. Hier habe ich einige besondere Aspekte verzerrter Perspektiven in der Planung durchleuchtet. Das Kapitel liefert mit der Kombination und Gleichstellung von Zahlen und Geschichte das stärksten Argument für eine bessere Planung. Auch die Welt der künstlichen Intelligenz hat das verstanden und führt mit „Hypbrid Forecasting“ eine Kombination unseren kognitiven Fähigkeiten (Analyse, Interpretation, Neugierde) und der Rechenleistung sich aktualisierende Datenbanken (Refresh) auszuwerten (Statistik) als Best Practise für Prognosequalität und – genauigkeit.

 

Der zehnte Punkt ist das Blame Game. Statt sich auf vermeintliche Schuldige einzuschießen, ist die Ursachenforschung zielführender. Das verlangt einen strukturierten Ansatz. Sich gute Ergebnisse auf die Brust zu heften, ist am anderen Ende des Ergebnisspektrums ebenso wenig zielführend. Jim Collins hat daraus in seinem Buch „Good to Great“ den Level 5 Manager abgeleitet. Der Level 5 Manager verweist bei guten Ergebnissen auf glückliche Umstände und bei schlechten auf das eigene Handeln, die Stufen unter ihm machen es anders herum.
Das Ergebnis ist oben vorweggenommen und im Buch für eine gute Sache eingesetzt. Folgt man diesem Ansatz, ist die Welt wirklich besser als ihr Ruf. Danke Hans Rosling für dieInspiration.

 

Controlling in VUKA-Zeiten, FP&A als Antwort?

Digitale Transformation im Rechnungswesen und Controlling

Dürfen vier Jahre alte Studien zur digitalen Transformation heute noch zitiert werden? 2014 war laut MIT das Jahr mobiler Kooperation und McKinsey das Rechnungswesen zu einem Drittel als „mit verfügbaren Mitteln automatisierbar“ deklariert. Vom Controlling wird im Spannungsbogen von Big Data Potentialen und Fachkräftemangel Flexibilität, Verständnis für das Geschäftsmodell und eine strategische Unterstützung erwartet. Das scheinen gute Vorzeichen für den Durchbruch einer Finance Automation und stärkere Ausrichtung hin zu mehr interner Kommunikation zu sein? Letzteres erfordert individuelle Fähigkeiten, die erfolgreiche Automatisierung ist Ergebnis vorab standardisierter, von menschlicher Ermessensentscheidung befreiter Prozesse.

Der CFO Indicator Bericht von Adaptive Insights hat zur Finance Automation hunderte CFOs interviewt. Die Kernaussagen lassen sich in einer Hypothese zusammenfassen: CFOs wünschen sich in 2018 tiefer gehende visuelle Analysen und Berichte, mehr Investments in Technologie und die Entwicklung professioneller Fähigkeiten im Team. Das kann als ein Fehlen an Daten, Infrastruktur und Fähigkeiten gelesen werden, eben dass „die Daten für angefragte Analysen stehen meistens nicht parat“.  Nun denn, mit der richtigen Investition soll es klappen. Keine leichte Aufgabe für die Stelle in der Informationsflüsse zusammenlaufen und die Geschichte von Heute und Morgen geschrieben werden soll.

 

Wer und was treibt die Entwicklung?

Die Hälfte der Führungskräfte spürt den Druck digitaler Transformation durch Kollegen, doch bitte die Automatisierung der Datenbasis voran zu treiben. Die Ablösung abteilungsspezifischer Silos ist ein Anliegen, dass die hauptsächlich amerikanischen Finanzer dabei als umsetzbar ansehen. Wichtiger ist die Implikation, dass Finance schon bei der Hälfte als Treiber einer zeitnahen, qualitativ hochwertigen Informationsversorgung akzeptiert ist.

Der Mangel an Standardisierung wird angemerkt. In der Regel existiert eine Variantenvielfalt, die eine Automatisierung schon auf Systemebene erschwert. Mangelnder Gestaltungswillen der – dann „gewachsenen“ – Geschäftsprozesse ist ein Haupt-Treiber der Vielfalt. Eine frei gewachsene Wiese erzeugt eine Vielfalt an Blumen, leider weniger geeignet für eine effiziente Ernte als die Tulpenbeete unserer holländischen Nachbarn.

 

Im Fokus der nächsten 18 Monate

 

Die Studie stellt in Folge den Lebenszyklus der Automatisierung deutlich dar. Aufgaben in stark frequentierten Prozessen, wie dem Monatsabschluss, sind besonders häufig automatisiert. Prozess-Schritte mit Ermessensentscheidungen sind weniger häufig automatisiert. Dabei stehen Dashboards und Planung/ Forecasts oben auf der Automatisierungs-Wunschliste.

Letzteres verspricht eine vermeintliche Sicherheit. Statistisch validierte Vorhersagen sind erstens zu verstehen und zweitens laufend auf ihre Validität zu prüfen. Der Weg zu Predictive und Prescriptive Forecasting ist lang und erfordert einen für Finance Verhältnisse großen Datenbestand. Viele der CFOs werden bei der Beantwortung eher an eine Treiber-basierte Planung gedacht haben.

 

Zur Notwendigkeit der Automatisierung

Die Reduktion von Kosten steht interessanterweise nur bei jedem 50. CFO im Vordergrund. Die Hauptkriterien der CFOs für die Durchführung einer Automatisierung sind:

  1. eine qualitativ hochwertige Datenbasis zur Entscheidungsfindung – besonders im Mittelstand scheint Aufholbedarf zu bestehen,
  2. Zeit für wertschöpfende Aufgaben schaffen und Mitarbeiter zu entlasten,
  3. Die Produktivität der Abteilung und Wahrnehmung im Unternehmen insgesamt zu erhöhen und
  4. eine treffsichere Planung zu ermöglichen.

Die Fähigkeiten im Team und das Ergebnis der Arbeit ist geprägt durch die Verifikation und Validierung der Berichte, Analysen und Datenquellen. Gefühlt steht knapp ein Arbeitstag für Punkt 2 zur Verfügung. Das Gehaltsgefüge verspricht eine andere Gewichtung.

Fehlt die Möglichkeit der Standardisierung, halten CFOs eine Anwendung Künstlicher Intelligenz bis 2023 für möglich. Künstliche Intelligenz im Controlling ist noch rar gesät. In den bekannten Fällen stellt sich der initiale oder in Folge propagierte Erfolg „trainierter“ Algorithmen selten ein.

[bctt tweet=““Die Reduktion von Kosten steht interessanterweise nur bei jedem 50. CFO im Vordergrund.“ CFO Indicator Report“ via=“no“]

Trotz alledem, bisherige Bestrebungen werden zu zwei Dritteln als Erfolg bejaht. Dabei

  1. existiert eine Disparität zwischen „Einsparung an Zeit“ und „Fehlende Zeit“ als „#1 erreichtes Ziel“ und „#1 Verhinderungsgrund“,
  2. soll das Controlling technologisch fortschrittlicher und in Folge rutscht Excel als notwendige Fähigkeit von 78% in 2016 auf heuer ganze 7% ab.

Gründe, die eine stärkerer Automatisierung in Controlling und FP&A verhindern.

Der Blick in die Vergangenheit lohnt sich. Im Bereich der Abschlussautomatisierung scheint einiger erreicht, die Datenflut wirft neue Herausforderungen auf. Herausforderung bleibt das Methoden-Verständnis zu Standardisierung und Automatisierung und das Einfinden in der dem diametral entgegenstehenden Rolle als interner Kommunikator. Der Terminkalender des Controllings wird in naher Zukunft weiter wenig Zeit für tiefergehende Analysen bereithalten. Diese Zeit müssen wir uns nehmen.

Lesen Sie den CFO Indicator Report hier.

 

Die AFP Budget Umfrage 2017 und eine Künstler-Anekdote

Früh ist ein Kölsch und früh wird es in der Hochsaison vieler Konzerne dunkel. Unter dem Weihnachtsbaum liegt das fertige Budget, veraltet bevor mit guten Vorsätzen eine Woche später das neue Jahr beginnt. Während die Effekte der rheinischen Braukultur hinlänglich bekannt sind, ist die Relevanz des Budgets umstritten. Eine Studie der Association for Financial Professionals (AFP) bringt mit 606 Meinungen und den Ergebnissen seiner jährlichen Konferenz – dieses Jahr mit über 6.000 Teilnehmern in San Diego – Licht ins Dunkel. Die Ergebnisse haben einen gewissen US Fokus. Da 40% davon für ein Unternehmen mit mehr als einer Milliarde USD Umsatz arbeiten und 20% der Unternehmen Produktionsunternehmen sind, kann trotzdem eine gewisse globale Gültigkeit abgeleitet werden. Die Ergebnisse scheinen weiter vertraut:

  1. Das Budget besteht im Wesentlichen aus Finanzzielen für die Organisation für ein Geschäftsjahr.
  2. 75% finden Budgets nützlich oder sehr nützlich.
  3. Die Dauer – in der Studie gleichgesetzt mit der Intensität – des Budgetprozesses hat keinen Einfluss auf die Zufriedenheit.
  4. Budgets scheinen einen gewissen Grad an Flexibilität und Ermessensspielraum entwickelt zu haben.
  5. Lediglich 15% nutzen das Budget für die Bonuszwecke, 75% führen quartalsweise Aktualisierungen zur Analyse der Geschäftsentwicklung durch.
  6. 7 von 10 Meetingstunden werden für die Ergebnisanalyse verwendet, die Hälfte davon sind Plan-Ist, wir bevorzugen die AvB Übersetzung „Ist-Plan“, und Ist-Ist Vergleiche.
  7. Zwei von Drei sehen Verbesserungspotential im Prozess und ein Unternehmen von fünf verbringt mehr als drei Monate mit dem originären Budget für das Folgejahr.

Eine 1:1 Übersetzung sei zu Gunsten interessanter Aussagen vermieden, das Original ist steht hier zum Download bereit.

Die Top 3 Gründe für das Budget sind der Forecast von Umsatz und Profitabilität, Analyse der Geschäftsentwicklung und die Entscheidungsunterstützung. Kontrolle und Disziplin folgt auf Rang 4. Auffällig ist die Willkür, mit der ein Vertriebs-/ Umsatz-Forecast mit der ungleich komplexeren Steuerung der Profitabilität, besonders der Einzelprodukt-Profitabilität, in einem Atemzug genannt wird. Dem Markt und der internen Wertschöpfung als Herausforderung ist unterschiedlich zu begegnen.

Hauptadressat des Budgets ist das Mittlere Management aufwärts. Je „senioriger“ die Position, desto höher ist der wahrgenommene Nutzen. Das Gute ist, offensichtlich kommen die Ergebnisse der Top Down und Bottom Up Prozesse an. Als Anekdote der Studie ist das Ergebnis der Supply Chain Manager zu werten, die mit ihrer täglichen Arbeit an Stabilität und Realitätstreue der Supply Chain den wenigsten Nutzen im Prozess der unternehmensweiten Planung sehen.

Schnell erstellte Budgets, ein Prozess von maximal vier Wochen, existieren in kleinen Unternehmen unter 50 Millionen USD Umsatz. Ein knackig durchgeführter Budget-Prozess bedeutet en Gross knackig durchgeführte unterjährige Updates. Die Komplexität der Organisation scheint sich in der Dauer und in der Nutzung durch die Führungsebene widerzuspiegeln. Dem Mehr an Umsatz und Größe folgt eine längere Erhebung und mehr wahrgenommener Nutzen für das Management.

Die seit Jahrzehnten bekannte Verzerrung weicher Pläne durch eine Kopplung individueller Boni an die Zielerreichung des Budgets, scheint auf dem Rückzug. Individuelle Kompensation und langfristige Unternehmensziele werden zunehmend getrennt betrachtet. In diesen Rahmen fällt die Unterscheidung zwischen Forecast als wahrscheinliche Zukunft und Budget als Zielvorstellung.

Vier von fünf Befragten denken, dass die kontinuierliche Verankerung des Forecasts an Stelle eines jährlichen und aktualisierten Budgets die Leistung des Unternehmens beeinflussen würde.

Summa Summarum scheinen sich Budgets langsam und stetig zu entwickeln. Das sind doch gute Nachrichten zu Weihnachten. Es fehlt die Anekdote: Das Supply Chain Management hat enorme Fortschritte in der zeitnahen Reaktionsfähigkeit durch technologisch beschleunigte statistische Analysen erzielt. Deshalb findet die kommunikative Koordination des weichen Betriebsmittels Mensch dort wenig Freunde. Die Versuchung einer Übernahme dieser Methoden in die Unternehmensplanung liegt nahe; und wir haben sinnvolle Einsätze gesehen, wie umgesetzt. Ein Münchener Mädel, Professorin an der Berliner Universität der Künste und brandneu vom ArtReview zur einflussreichsten zeitgenössischen Künstlerin ernannt – Hito Steyerl –entgegnet:

“Statistics have moved from constructing models and trying to test them using empirical data to just using the data and letting the patterns emerge somehow from the data. This is a methodology based on correlation. They keep repeating that correlation replaces causation. But correlation is entirely based on identifying surface patterns, right? The questions–why are they arising? why do they look the way they look? – are secondary now. If something just looks like something else, then it is with a certain probability identified as this “something else,” regardless of whether it is really the “something else” or not.”

No-Brainer sind operationalisierbar, die Koordination der Zukunft ist es nicht.

Das gesamte Interview mit Katie Crawford ist hier zu finden.