Feeds:
Beiträge
Kommentare

Die Social-Mobile-Cloud ist da.

In einer Zeit sozialer Kommunikation in der ‘Social Mobile Cloud’ wird ein umfassendes Bild seiner Kundenbeziehungen für jedes Unternehmen zum Kriterium für den Fortbestand. Das Ende der Papierkommunikation als primäres Medium bringt eine neue Informatikwelt digitaler Kollaboration. Die Verwaltung der rohen Kundendaten im CRM sowie die starren Serviceprozesse müssen erweitert und adaptierbar werden.

Dokumente im Kontext der Kundeninteraktion.

Es wird wieder der Dokumenteninhalt, der im Kontext der Kundeninteraktion zur zielorientierten Kollaboration genutzt wird, zum zentralen Element. Vorgeschriebene Prozessflüsse und CRM stellen die Kundenbeziehung nur als standardisierte Arbeitsschritte und mittels starren Datenbankfeldern dar. Es ist nun essentiell den Kunden als Individuum zu behandeln und mittels adaptiven, zielorientierten Prozessen effektiver als der Mitbewerb zu sein.

Zielerreichung und Effizienz im Kundenprozess.

Der Aufbau und die Erhaltung der Kundenbeziehung wird durch qualifizierte individuelle Kommunikation über verschiedene Kanäle verbessert. Effektivere Kommunikation erhöht in Summe auch die Effizienz substantiell. Herkömmliches BPM und CRM hat den Fokus auf simple, immer wiederkehrende Prozesse. Geschäftsvorfälle, wie etwa die Bearbeitung von Anfragen, Kundenbeschwerden oder bei der Ausnahmebehandlung z.B. im Zahlungsverkehr bestimmen die Kundenzufriedenheit und sind dennoch kostenrelevante Geschäftstätigkeit. Sowohl Zielerreichung als auch Effizienz müssen gleichzeitig angestrebt werden. Kommunikation die heute ausgekoppelt in Emails und MS-Office erfolgt muss als Kundeninformation und prozessrelevante Inhalte im Kundeninformationssystem nahtlos eingebunden sein. Automatische Erkennung von Dokumenten und Datenfeldern erleichtern diese Zuordnung und zeitgerechte Bearbeitung beträchtlich.

Der ganzheitliche Beratungsansatz.

Individuelle Kundenbetreuung muss den Sachbearbeiter ermöglichen flexibel auf den einzelnen Geschäftsvorfall zu reagieren und je nach Sachlage unterschiedliche Bearbeitungswege einzuschlagen. Es ist wesentlich, dass vor allem die Bedienungsoberfläche den Mitarbeiter effizient in der täglichen Arbeit unterstützt. Vertrieb und Kundenbetreuung benötigen alle Informationen für einen ganzheitlichen Beratungsansatz im direkten Zugriff. Eine zentrale Rolle bei der Optimierung dieser Prozesse – nicht nur im Sinne der Kostenkontrolle – spielt kollaborative, zielorientierte Fallbearbeitung wie z.B. Papyrus Care mit Adaptive Case Management.

Integration von Kommunikation, Prozessen und Regeln.

Produktivitätsverluste gibt es vor allem auch dadurch, dass Kommunikation, Prozesse, Regeln und Kernwendungen nicht ausreichend integriert sind. Durch den ständigen Wechsel zwischen verschiedenen Anwendungen geht Zeit verloren und Daten müssen zwischen verschiedenen Anwendungen abgestimmt werden. Bestehende Systeme der ersten Generation sind heute nicht mehr ausreichend um diese neue Kundenkommuikation abzudecken. Die moderne Papyrus Plattform unterstützt eine viel höhere Integration und Interaktion.

Adaptive Prozesse optimieren das Kundenservice durch Effektivität.

Papyrus bietet alle Kollaborations- und Dokumenten-Funktionen in einer Oberfläche die modular als Lösung konfiguriert werden kann. Der Kommunikationsprozess mit Kunden und Partner wird optimiert und für jede Benutzerrolle wird eine individuelle Oberfläche über Anwendungen hinweg konsolidiert zur Verfügung gestellt. Durch adaptives Prozessmanagement (ACM) kann im Kundenservice- und Verkaufsfall auf unvorhergesehene Kundenwünsche und Situationen optimal eingegangen werden. Dabei wird die freie Kollaboration verschiedener Personen möglich und gleichzeitig Compliance mit Regeln sichergestellt.

Advertisements

Ich war nun einige Zeit auf Reisen und habe in meiner kargen Freizeit primär an meinen englischen Blogs sowie an zwei Büchern geschrieben.  Eines davon ist wieder eine Koproduktion mit einem anderen Author zum Thema Social Media und Beziehungen, mit dem Titel ‚Who’s in Your Orbit?‘ und wird definitiv im Februar 2011 im Handel sein. Das zweite ist mein lange in Vorbereitung befindliches und immer wieder aufgeschobenes Buch zum Thema Strategie und Prozesse. Der Markt ist nun durch den Social Media Hype auch eher bereit meine Ideen zu diesem Thema anzunehmen. Daher ist mein deutschsprachiger Blog etwas ins Hintertreffen geraten. Ich bitte um Geduld (wie die Knef schon sagte)!

Mit dem Thema Social Media scheint nun wieder einmal das Pendel in die absolute Gegenrichtung auszuschlagen. Während ich mich darum bemühe in Unternehmen dafür Verständnis zu wecken, dass Prozesse keine starren Flussdiagrammgebilde sind, wird von der Horde der Social Media Proponenten jedwede Tätigkeit als freie ’soziale Interaktion‘ beworben. Grundsätzlich stimme ich diesem Ansatz auch zu weil er zu meinem Konzept von Unternehmen als komplexe, adaptive Systeme auch gut passt. Dabei darf man aber nicht das Kind mit dem Bade ausschütten.

Als Schnellschuss (Lipstick on Pigs) werden an  BPM-Systeme einfach Kollaborationswerkzeuge angeflanscht und damit das Produkt zu Social-BPM aufgemotzt. Niemandem scheint dabei aufzufallen, dass es sich dabei um ein Oxymoron, also eine Wortkombination mit Widerspruch handelt. BPM stellt in zweierlei Form diesen Widerspruch dar. Einerseits mit der Kommunikation zum Zeitpunkt der Prozessanalyse und -design und zweitens zum Zeitpunkt der Prozessausführung. Ist nicht das erklärte Ziel von BPM alle Prozesse definitiv und eindeutig zu machen? Ist dazu nicht eine solide Governance mit aufwendiger Bürokratie von Nöten damit Management, Architekten, Analysten, Prozesseigner, Ausführende, Informatikbetreiber und Kostenverantwortliche die Einhaltung all ihrer Vorgaben und Ziele auch sicherstellen können? Und da sollen irgendwelche Mitarbeiter plötzlich auf die Prozesse zum Designzeitpunkt oder noch schlimmer bei der Ausführung Ad-Hoc Einfluss nehmen können? Da könnte ja jeder kommen und wo kämen wir denn da hin?

Oder ist ARISalign nur ein anderer Name für Projektmanagement mit Kollaboration? Vielleicht sind wirklich ‚Activity Streams‘ oder SAP-Streamworks die Zukunft? Moment einmal. Irgendwie ist das alles zusammenhanglos. Was ist den nun mit Enterprise Architecture? Hat nicht SAP da auch was mit ASAP-7 und Business-by-Design im Portfolio Köcher? Was ist mit Balanced Scorecard und anderen Strategiemethodologien? Hey, da gab es doch auch so etwas wie Best Practices? Alles Mumpitz? Ich stelle die Frage ob die reine Bereitstellung von mehr Kommunikation (haben wir doch schon zuviel mit Emails, oder) tatsächlich die Funktion des Unternehmens verbessert. Jetzt zwitschert mir dann dauernd einer in die Ohren? Ich halte fest, dass Social Media mehr MEDIA als ’social‘ sind und mit Beziehungen nichts zu tun haben. Dazu mehr andermal. Prozesse werden dadurch auch nicht ersetzt aber diese müssen aus dem Flowchart-Gefängnis befreit werden.

Ich möchte betonen, dass ich mit meinen Vorstellungen zu ADAPTIVEN PROZESSEN nicht alleine dastehe und mir das auch nicht aus den Fingern gesogen habe (ich beisse höchstens an meinen Nägeln …). Die Überlegungen zu adaptiven Unternehmensstrukturen sind auch an die Vordenker des System Designs wie Russel Ackoff angelehnt. Dieser schrieb in 1981 zu ‚Creating the Corporate Future‘:

  • „Systeme zur Bebachtung, Kommunikation und Berechnung können zum Zwecke der Automation kombiniert werden. Mechanisierung (in der Fabrik) ersetzt den Muskel, Automation jedoch den Geist.
  • Durch die Verteilung von Vermögen und Wissen ins Volk nach dem Zweiten Weltkrieg, konnten Arbeiter plötzlich ihre Tätigkeit kompetenter als ihre Vorgesetzten verrichten. Diese wurden daher primär dazu benötigt die Interaktion der Arbeiter zu koordinieren anstatt die Arbeit selbst.
  • Die Fortschritte von Kommunikation an sich führten jedoch nicht zu der Verbesserung dieser neuen Organisation wie man sich das erhofft hatte. Mehr Information ist nicht implizit mit Verbesserungen verbunden, wenn es sich um Individuen mit freiem Willen handelt. Mehr Information wird auch aufgrund von Übersättigung irgendwann zurückgewiesen.
  • Der Grund für diese Problematik liegt darin, dass freie Wahl auch die Entstehung von Konflikten fördert. Verbindet man das mit mehr Information werden dadurch die Konflikte zum Thema Ressourcenengpässe und Wertvorstellungen verstärkt.
  • Das Social-Systemic Model (Ackoff 1981) nutzt demokratischere Organisationsformen mit einer internen freien Marktwirtschaft, in dem Anbieter in einer multi-dimensionalen Struktur entweder interne oder externe Käufer (Kunden) servicieren. Anstatt einer rigiden Top-Down Planung nutzt man dazu interaktive Modellierung die adaptiv an sich ändernde Anforderungen anpasst.
  • Der Schlüssel dazu ist ein System zur Entscheidungsfindung welches Lernen und Adaptierung unterstützen kann, und dazu die Erwartungen, Annahmen, sowie Informationen zu den Prozessen allen zugänglich macht.“

Wenn Ihnen 1981 zu lange her ist, dann möchte ich dazu möchte ich Tom Austin, VP und Fellow von Gartner Group, mit seinen Vorhersagen zum Arbeitsbild 2020 zitieren:

„Arbeit wird immer weniger Routine werden, dies sich bezeichnend durch erhöhte Volatilität, Hyperkonnektion, und Teambildung in Schwärmen darstellen wird. Bis 2015, werden 40% oder mehr Tätigkeiten eines Unternehmens nicht-routine Tätigkeiten sein, höher als die derzeitigen 25%. Die Arbeitszuordnung wird in dynamischen Teams (swarms) erfolgen. Die Zusammenarbeit wird mit mehr Personen mit schwächeren Kontakten erfolgen und die Teams werden öfter aus Personen bestehen, die nicht unter der Kontrolle des Unternehmens stehen. Weiters wird die Simulation, Visualisierung und Vereinheitlichung von unvorstellbaren Datenmengen neue Anforderungen an unsere Aufnahmefähigkeiten stellen.“

Dass die erfolgreichsten Unternehmen der Welt heute schon so arbeiten zeigt diese interessante Dokumentation zu Google’s Unternehmensstil.

Nehmen wir nun an, dass nicht alles was Tom Austin sich hier so vorstellt  auch so kommen wird, aber klingt die Richtung irgendwie nach mehr an Prozessplanung oder nach Flussdiagrammen? Sicher nicht! 2015 ist aber nur mehr drei Jahre weg. Solange dauert ja schon eine BPM Einführung! Und was machen Sie dann? Ausschwärmen? Den Unternehmen wird vor allem schwerfallen die Kontrollpunkte die es benötigt um die Ergebnisse zu beeinflussen zu erkennen und entsprechend zu handeln. Dies sind die ‚Strategic Leverage Points‘ also strategischen Angelpunkte über die ich in meinem Buch schreibe.

 

Strategische Angelpunkte der Unternehmensführung

 

Nun gut, mal zurück zu Heute. Ich behaupte, dass Russel Ackoff den Finger am Puls des Menschen hatte. Tom Austin sieht primär Dinge in der Zukunft die immer schon da waren, aber nicht akzeptiert wurden. Man hat in der Vergangenheit, sowie noch heute, Unternehmen nur zum Zwecke der Planbarkeit zureguliert. Mit den modernen Medien wird das jedoch hinfällig da den Unternehmen die Möglichkeit den Markt zu steuern genommen wird. Diese Volatilität und Unsicherheit die immer da war, wird nun sichtbarer. Vieles was man mit Social Media als machbar sieht wird man so nicht nutzen können und sei es nur aus Datenschutzgründen. Dennoch werden starre Prozesse jedes Unternehmen in diesen kommenden dynamischen Märkten benachteiligen.

Was muss eine zukunftsorientierte Lösung anbieten? Wert wird für den Kunden nur einem Prozess geliefert der sich an dessen erwartetem und wahrgenommenem Endergebnis orientiert. Ein ‚Schwarm‘ der vor sich hin-twittert wird von diesem Ziel keine Ahnung haben. Prozesse entstehen im Zusammenspiel von Daten und Informationen durch Aktionen von entsprechend mit Zielen und Autorität bestallten Teilnehmern. Idealerweise ist der Kunde auch ein Teilnehmer an diesem Prozess, dessen zielorientierte Dynamik nicht eingeschränkt ist. Modelle und Strukturen müssen ohne Programmierung von den Verantwortlichen änderbar sein. Die Kollaborationslösung erkennt eigenständig die Prozessmuster und schlägt optimalere Varianten den Akteuren vor. Im Grundsatz entspricht dies allen Kriterien die ich für Adaptive Prozesse definiert habe.

Mir ist klar, dass diese Änderungen den heutigen Vorständen und Managers schwerfallen, aber wenn diese es nicht erkennen, werden deren Unternehmen an diesen Änderungen scheitern! Da die Dynamik und Unsicherheit durch den technologischen Fortschritt verursacht und sichtbarer wird, wird man es nur mittels Technologie in den Griff bekommen.

Die Diskussion um das Thema Geschäftsstrategie führt zu sehr interessanten Überlegungen. Wie schon von James March in 1991 festgestellt, ist es jedoch essentiell, dass ein Unternehmen in seiner Strategie nicht nur aus bestehendem Wissen Umsatz generiert, sondern auch laufend neues Wissen erarbeitet. Die Innovation muss in der Strategie abgebildet sein. Auch Tao-Stratege Sun Tzu hatte dies schon vor 2500 Jahren so gefordert: „Kreativität ist nicht nur eine neue Idee zu haben, sondern kontinuierlich innovativ zu sein.“

Ich stelle zur Diskussion, dass die Fähigkeit zur Innovation nicht nur ein Teil der Strategie sein sollte, sondern dass Unternehmen auf allen Ebenen innovativ sein müssen. Warum sollte Innovation nicht laufend auf strategischer, operationaler oder prozessgesteuerter Ebene stattfinden? Man unterscheidet zwar zwischen unternehmerischer Innovation und Optimierung, aber muss eine Innovation immer ein in Zahlen messbares Ergebnis haben? Werden vielleicht zu viele Innovationen durch einen Fokus auf Wirtschaftlichkeit verhindert? M. Johnson hat diesen Punkt in „Seizing the White Space“ in den Raum gestellt. Ein von HP in Auftrag gegebene Studie hat festgestellt, dass man sich in USA Wirtschaftlichkeit zwischen 6 und 12 Monaten erwartet und in Europa zwischen 12 und 24. Wird dadurch in Großunternehmen nur mehr in operationale Heftpflaster investiert?

Clayton Christensen stellt in „The Innovator’s Dilemma“ die These auf, dass es für börsennotierte Unternehmen nicht akzeptabel ist das Risiko von Abschreibungen hinzunehmen, da man vor der negativen Reaktion der Aktienkäufer zurückschreckt. Die Finanzsicht killt daher Innovationen die immer mit Risken verbunden sind! Ich finde das sehr eigenartig, da sonst Börsenspekulanten wohl die risikofreudigste Gruppe sind. Versteht jemand diese Argumentation?

Warum ist Innovation in großen Hierarchien so schwierig? Ist es die menschliche Angst vor Veränderung? In „From Business Strategy to IT Action“ wird behauptet, dass Innovation nicht von der Strategie ausgeht sondern von der Informationstechnologie als Enabler. Ich stimme dem umfassend zu. Technologie verändert die Welt durch Innovation und die Strategie muss dafür den Raum schaffen. Innovation kann man jedoch nicht methodisch planen, man kann sie nur ermöglichen! Noch kein EU-geplantes Projekt hat echte Innovation hervorgebracht. Diese passiert immer im Freiraum der Wirtschaft (siehe Milton Friedmann).

Gibt es auch andere wissenschaftliche Erkenntnisse die Strategie und Innovation miteinander verknüpfen? Wie wäre es mit Spieltheorie, die Mathematik und Soziologie miteinander verbindet und dabei versucht soziale Systeme mit mehreren Akteuren und deren Entscheidungsverhalten theoretisch abzubilden. Strategie ist genau so ein Spiel. Nun ja, ich denke dass dies spannende Theorien sind die aber nur für unser Leben relevant werden wenn sie evolutionäre Vorgänge, sowie heuristische Entscheidungsfindung in nicht kooperativen Spielen behandeln. Vor allem Theorien die das laufende Verändern der Spielregeln durch Akteure behandeln sind am ehesten realitätsnah. Dafür wurde in 2007 Myerson, Hurwicz and Maskin der Nobelpreis verliehen. Von praktischem Nutzen für unsere Strategie- und Innovationsplanung sind diese Theorien sehr weit entfernt. Menschen entscheiden nicht rational, wie schon Gerd Gigerenzer mit seiner ‚bounded rationality toolbox‘ plausibel festgestellt hat.

Emotionale Intuition ist mächtiger als Logik!

Interessanterweise wurde nun meine seit 2003 immer wieder aufgestellte Behauptung, dass die besten Unternehmensköpfe nicht logisch handeln durch wissenschaftliche Untersuchungen bestätigt! Im Havard Business Review Artikel “When Emotional Reasoning Trumps IQ.” wurde eine Studie vorgestellt in der die Gehirne von Managern mittels fMRI (functional magnetic resonance imaging) während der Lösung von Strategieaufgaben untersucht wurden.

Erstaunlicherweise (nicht für mich) wurden bei den erfolgreichsten Strategen bei Lösung Ihrer Aufgaben nicht die Logikbereiche sondern primär Insula (Empathie und Emotion) und der vordere Cingulate Cortex (Motivation), sowie für operationale Aufgaben der Superior Temporal Sulcus (Wahrnehmung von Emotionen) am stärksten durchblutet.

Das ist ganz einfach zu begründen. Wenn sich die dynamische Realität unserer sozialen Interaktion weder in sinnvolle Zahlen fassen lässt (ausser in statistischer Vergangenheitsbewältigung), noch sich die darin stattfindenden Abläufe in kalkulierbaren Modelltheorien abbilden lassen, dann ist die zielführendste Methode der Strategieplanung und Ausführung die Nutzung von emotionaler Intuition! Und nichts anderes als das hat uns die Evolution mitgegeben! Die menschliche Intuition ist die BESTE Funktion zur Erstellung und Ausführung von Strategien. Keine noch so mächtigen Rechner und komplexeren Zahlenmodelle werden dies verbessern. Die einzige sinvolle Rolle der Technologie ist die Transparenz in Echtzeit zu erhöhen und die Handlungsfähigkeit zu verbessern. Dies macht aber nur auf allen Ebenen und für alle Akteure in gleichem Masse Sinn.

Fazit: Es sind die rationalen, illusionären Zahlenspiele die Innovation behindern. Die Forderung nach kurzfristiger Wirtschaftlichkeit verlangt nach Kostensenkung ohne den Einfluss auf die langfristige Unternehmensstrategie zu berücksichtigen. Standardisierte Prozesse mögen zwar die Kosten senken, aber sie erzeugen eine spröde Unternehmensstruktur die an der Dynamik der Wirtschaft zerbricht. Eine gute Strategie muss nicht laufend an Zahlen angepasst werden – wie von Stefan Stern in seiner Financial Times Kolumne gefordert wurde – sondern gibt dem Unternehmen einen soliden Fokus und ermächtigt die Mitarbeiter die Prozesse zur Erreichung klar definierter Kundenziele anzupassen. Nicht die Kosteneffizienz steht im Vordergrund sondern der Mensch!

In ‘Mastering The Unpredictable’ habe ich über nicht planbare, wissensintensive Prozesse geschrieben. Ich möchte nun auf die Verbindung zum wichtigsten Wissensprozess eingehen: die Definition der Unternehmensstrategie.

Vor wenigen Wochen habe ich behauptet, dass Management eine Kunst ist. Exzellente Führungspersonen sind immer kreative Köpfe. Für das Erstellen und Umsetzen einer Strategie ist das aus meiner Sicht eine Voraussetzung. Was ist eine Strategie? Anstatt nun die 08-15 Phrasen zu wiederholen, möchte ich mich auf den Chinesischen General Sun Tzu (ca. 500BC) berufen, dessen Schrift ‚Die Kunst der Kriegsführung‘ (The Art of War) Kultcharakter hat. Aus gutem Grund, denn Sun Tzu war auch ein Meister des Tao, einer asiatischen, spirituellen Lebensphilosophie. Daher sind seine Überlegungen nicht nur auf dem Schlachtfeld anzuwenden. In USA wurde Sun Tzu von Managementtrainern vor allem dazu berufen um die Vernichtung des Gegners (Mitbewerbers) zu erzielen. Das ist simple Zeitverschwendung. Sun Tzu war vor allem ein Meister der Strategie.

Eine Strategie zu erstellen ist ein wissensintensiver Prozess der die wissensintensiven Prozesse des Unternehmens ermöglicht. Man kann das nicht nach Handbuch machen und dennoch werden viele Strategiemethoden verkauft. Der Terminus Strategie kommt vom griechischen ’strat-egos‘ also ‚des Generals Kunst‘. Aus Sun Tzu’s militärischer Strategie abgeleitet, kann man dies auf wenige Prinzipien zurückführen:

  • Definition von einfachen, erzielbaren Ergebnissen
  • Für jedes Ergebnis einen alleinigen Verantwortlichen definieren
  • Ergreifen der Initiative anstatt nur zu reagieren
  • Setzen von Prioritäten um Konflikte zu vermeiden
  • Bewahren der Beweglichkeit um auf Änderungen reagieren zu können
  • Sichere Kommunikation verhindert Informationsprobleme

Eine gute Strategie ist nicht auf langwierige Analysen angewiesen und erwartet nicht, dass die Zukunft vorhergesagt werden kann. Annahmen über die aktuellen Bedingungen und daraus abgeleitete Prozeduren sind nicht geeignet eine solide Strategie zu erstellen. Leider verlässt sich das moderne Management mit BI und BPM auf Analysen und Prozesse um dann mittels Bürokratie verbessert zu werden. Eine solide Strategie wird nicht durch Änderungen der Situation, im Umfeld oder Technologie aus den Angeln gehoben, sondern erlaubt dies auf taktischer Ebene zu berücksichtigen. Dazu ist viel Dynamik und Eigenständigkeit bei den Verantwortlichen notwendig, was nur in flachen Hierarchien einfach ist, wo jede Ebene unabhängig die Ziele verfolgt.

Auch Sun Tzu sprach schon davon: „Wenn Menschen wohlwollend, gerecht, und aufrichtig behandelt werden, und man Ihnen dabei Vertrauen zeigt, dann wird die Armee einstimmig den Generälen folgen.“ Die wirksamste Ermächtigung der Mitarbeiter erzielt man mit Vertrauen. Man sagt aber auch „Vertrauen ist gut. Kontrolle ist besser.“ Ich würde an dieser Stelle Kontrolle mit Transparenz (in beiden Richtungen) ersetzen.

Ich behaupte, dass es nicht sinnvoll möglich ist eine ausführbare Unternehmensstrategie ohne  Geschäftsarchitektur (Business Architecture) transparent zu machen. Es fehlt dazu die Terminologie. Da es keine Standard Architektur Frameworks gibt, muss jedes Unternehmen mit einer eigenen Architekturdefinition beginnen. Jede anders definierte Strategie sind nur leere Phrasen ohne Vernetzung zu Zielen.

Informationssysteme erzeugen mehr Daten und damit mehr Unsicherheit. Daten erzeugen keine Transparenz und liefern auch kein Wissen welches die Strategie verbessert. Sun Tzu warnt davor, dass mehr Informationen nicht die Situation verändert: „Das Terrain bestimmt die Distanz. Die Distanz definiert die Zahlen.“ Verändert wird die Situation nur durch das Potential (Bewegungsspielraum) zu agieren und die Aktion. Mehr Daten erzeugen eine Wissensillusion die sich ‚Measure To Manage‘ nennt, zu denen auch die berühmten KPI Key Performance Indicators gehören. Die Wertigkeit von Zahlen wird jedoch durch die Distanz, die Zeit und die Verarbeitung reduziert. Auch bei Lebensmitteln ist das frische Obst aus dem Garten ist am wertvollsten. Daher kann die Distanz eben nur durch Mitarbeiter reduziert werden, die lokal mit lokalen Informationen entscheiden und agieren. Damit sie das können, benötigen sie die Transparenz einer Architektur, welche die Definition  von einfachen und erzielbaren Ergebnissen erlaubt. Ein Data-Warehouse im Gegensatz erhöht die Distanz zur Realität durch statistische Unschärfe und Korrelationshypothesen.

Vernetzung von Strategy, Taktik und Prozess

Wie kann nun die Informatik die lokale Situation und die notwendigen Entscheidungen in Echtzeit unterstützen?

Eine Option ist, eben nicht veraltete Daten statistisch zu bearbeiten, sondern auf Events direkt mittels Regeln reagieren zu können. Interessanterweise ist das professionell auch nur mit einer Business Architecture möglich. Die Regeldefinition für Geschäftsvorfälle kann aber sehr komplex werden und müsste dauernd angepasst werden. Viele Events sind eigentlich nur Ausnahmen und Varianten von definierten Prozessen. Sie zeigen jedoch nicht auf, dass die Ausführung falsch ist, sondern dass der Prozess zu starr ist. Wenn man den Prozess aber nun ADAPTIV macht, wie weiss man ob er richtig ist? Erzwungene Schritte lösen das Problem nicht aber zusätzliche Ziele können das perfekt. Auch Regeln die Gesetzesvorgaben prüfen, können natürlich Sinn machen.

Zur Vereinfachung der Event-Steuerung kann die Architektur eine Taxonomie vorgeben in die die Datenmuster  entsprechend klassifiziert werden. Dazu ist ein Agent notwendig der die Daten in Echtzeit mit Events und User-Aktionen verbindet. Durch die Architektur kann der Agent direkt in der Ausführung der Prozesse diese Daten verarbeiten ohne dass ein externer Knowledge Management Schritt notwendig ist.

Eine Strategie ist nur dann langfristig gültig, wenn die Organisation in Echtzeit erkennen kann ob  operationale Vorgaben und deren Prozess-Ziele erreicht werden. Nur das ermöglich Agilität und Initiative. Echtzeit-Information und transparente Ziele ermächtigt die Mitarbeiter eigenständig zu handeln. Herkömmliches BPM kann eine Kostenreduktion durch vorhersagbare Abläufe erzwingen, aber das macht ein Unternehmen starr, brüchig und unfähig sich der raschen Veränderung anzupassen.

Adaptive Prozesse für die Strategieplanung und die taktische Ausführung benötigen Prozessdefinitionen die zielorientiert sind. Das Architekturmodell muss von nicht-IT Fachleuten bearbeitet werden können. Die Echtzeit-Vernetzung von Strategie und Prozesszielen in Adaptiven Prozessen produziert die unternehmerische Hebelwirkung nach der jede Führungskraft sucht.

Muss jetzt das ganze Unternehmen in einer Geschäftsarchitektur ausdefiniert sein um eine Strategie erstellen zu können? Auch wenn dies wünschenswert wäre, so ist jedoch die richtige Strategiedefinition für jeden Bereich im einzelnen schon wirksam. Man kann die Prinzipien der Strategie daher auch in Teilbereichen umsetzen. Das gilt auch für die Daten-Definition der Events, Regeln und Klassifikation der Muster. Dadurch ist es nicht notwendig die Architektur in einem Monsterprojekt zu erstellen, sondern in Teilprojekten zu beginnen. Ein gemeinsames Repository stellt die Wiederverwendung sowie die korrekte Verkoppelung von Strategie, Taktik und Prozess auf allen Ebenen sicher.

Die Architektur erlaubt die transparente Kooperation von Führungskräften, Managern und Prozessteams  um die Kunst der Strategie in die Realität umsetzen zu können.

Meine Mitautorschaft an ‚Mastering The Unpredictable‘ bezog sich auf Konzepte zur technischen Gestaltung von adaptiven Prozessen. Dies ist klarerweise nur ein kleiner Teil des Gesamtthemas. Seit dem Erscheinen dieses Buches kommt es zu Diskussionen – die ich für extrem wichtig erachte – ob und wie Prozesse gestaltet und ausgeführt werden sollten. Dazu gibt es folgende Überlegungen:

1) Sind unplanbare oder unvorhersehbare Tätigkeiten auch Prozesse oder sind es Aberrationen die durch Prozessplanung beseitigt werden sollten?

Viele sind der Meinung, dass Prozessmanagement das Ziel haben sollte alle Tätigkeiten des Unternehmens in Flussdiagramme zu fassen. Die Idee, dass Prozesse sich einer Planbarkeit widersetzen wird damit abgelehnt, dass man eben noch nicht alle Varianten und Möglichkeiten erfasst und umgesetzt hat. Dem ist aber nicht so. In vielen Prozessen – Schadensmeldungen, Sozialzuschüssse, Umweltprüfungen, Rechtsangelegenheiten, Unternehmensstrategie, Forschung, und medizinische Behandlung – wird der Arbeitsablauf durch unvorhergesehene Situationen und die Einbindung von neuen Teilnehmern so verändert, dass es einfach unmöglich wird alle Eventualitäten vorherzusehen. Des weiteren müßte zum größten Teil das Wissen der Teilnehmer in den Prozess verkodiert werden um diesen zu unterstützen. Zusätzlich kommt es zur laufenden Veränderung der Abläufe, was eine sinnvolle Analyse und solide Planung verhindert. Fazit: Unplanbar heisst nicht chaotisch oder nicht ausreichend analysiert. Solche Arbeit besteht zu einem substantiellen Anteil aus Tätigkeiten die das Fachwissen der Teilnehmer benötigen – daher der Terminus ‚Wissensarbeitsprozesse‘ oder WAP. Der WAP entsteht nicht durch vorlaufende Analyse, sondern vernetzt analytische, planerische und ausführende Tätigkeiten von nach Bedarf beigezogenen Teilnehmern während der Ausführung. Dabei werden Informationen gesammelt, bestehendes Wissen angewendet aber auch neues Wissen dokumentiert. Es geht nicht darum Entscheidungen zu kodieren, sondern die notwendigen Entscheidungsinformation zur Verfügung zu stellen.

2) Ist es daher sinnvoll bestehende BPMS mit den notwendigen Funktionen zu erweitern um WAP zu unterstützen?
Dazu würden Semantik, Ontologien, Ad-Hoc Prozesse, Zielorientierung, und Dokumenten-Kollaboration gehören. Ich bezweifle, dass man herkömmliche BPMS mit Ad-Hoc erstellten TODO Listen und Kollaboration über Dokumente  einfach für Wissensarbeit aufrüsten kann. Das liegt aus meiner Sicht daran, dass BPMS üblicherweise nicht in der Lage sind dem Benutzer interaktiven Zugriff auf Datenmodelle und Dokumente zu ermöglichen. Ohne eine solche Funktion ist es nicht möglich aus den entstehenden Prozessen eine Bibliothek von Aufgaben zu ermitteln, die als Vorlagen die zukünftige Bearbeitung erleichtern. Die reine Taskliste enthält kaum wiederverwendbares Wissen (actionable knowledge). Dies ist viel mehr als nur relevante Information zur Entscheidungsfindung verfügbar zu machen. Ein Ansatz dazu (Frommholz 2007) nutzt Ontologien um den Wissensbedarf semantisch aufzulösen und die Suchalgorithmen dadurch breiter aber im Endeffekt fokussierter zu machen.

Quelle: Frommholz 2007 – Wissensintensive Aufgaben Uni Duisburg

Ich sehe die integrale Nutzung von Ontologien als essentiell, wobei die Suchfunktion kaum die Dynamik des WAP unterstützt. Die Ontologie muss jedoch die Daten- und Dokumentenmodelle abbilden, sowie die Formulierung von Regeln in natürlicher Sprache unterstützen. Actionable Knowledge definiert ausführende Aktionen auf Basis des Daten- und Dokumentenmodells, die das Datenmuster von der aktuellen unzufriedenstellenden in ein gewünschtes Muster wandelt. Dazu ist auch die Organisation des Unternehmens mit den entsprechenden Verantwortlichkeiten (vor allem Prozesseigner) in der Ontologie definierbar zu machen. Da hier mehrere Ontologien miteinander vernetzt werden (siehe Bild) ist ein gemeinsames Meta-Modell unabdingbar. Ohne dieses ist die Formulierung von Zielen, Regeln und Aktionen für den Benutzer gar nicht möglich.

3) Was ist der Unterschied zwischen einem BPM Prozess und einer WAP Vorlage?
Das Kernproblem von Wisensarbeit ist: WO und WIE formuliert ein Benutzer AKTIONEN an Daten oder Dokumenten, die entweder den aktuellen Prozess verändern oder die Vorlage für zukünftige Ausführungen adaptieren? In einem BPMS ist es klar, dass der Analytiker diese Änderungen an den Flussdiagrammen vornimmt. Für WAP sehe ich nur die Möglichkeit zielorientierte Taskmodelle zu erstellen, weil sonst der Benutzer die Ablauffragmente nicht zuordnen kann. Auch die Zuordnung von Dokumenten benötigt entsprechende Unterstützung und diese erfolgt mittels einer Taxonomie. Ontologien und Taxonomien werden oft verwechselt, da der Unterschied nicht immer ersichtlich ist. Ontologien definieren die Terminologie einer Modellbeschreibung und werden in einem Designprozess erstellt, während Taxonomien durch Analyse entstehen und die Kategorien von verallgemeinernden und spezialisierenden Eigenschaften beschreiben. Taxonomie beschreibt eine Zuordnung und Ontologie die Terminologie der Eigenschaften des Objekts. Fazit: Modellierung benötigt immer beides. Das menschliche Gehirn arbeitet genauso. Wiederholte Muster werden klassifiziert und dann mit Terminologie versehen die eine logische Bearbeitung ermöglichen. Nur wenn ein BPMS Meta-Daten zur Definition von Modellen mittels Ontologien und Zuordnung der realen Welt durch Taxonomie ermöglicht, kann es tatsächlich adaptive Behandlung von Wissensarbeitsprozessen unterstützen. Soweit als möglich müssen diese Funktionen dem Benutzer in nicht-technischer Form zur Verfügung stehen. Eine WAP Vorlage kann von einem entsprechend autorisierten Benutzer aus Daten, Dokumenten, Regeln, und Zielen in einfachen GUI Komponenten zusammengestellt werden.

Fazit: 1) Alle hochwertigen Wissensarbeitsprozesse sind chaotisch (sensitiv auf Anfangsbedingungen) und daher unplanbar; sowie 2) können Benutzer mittels Zielorientierung Ontologien praktisch vewenden; und 3) haben orthodoxe BPMS  nicht ausreichend Funktionalität um die Dynamik von Wissensarbeitsprozessen umfassend abzubilden!

Die Ideen und Konzepte rund um adaptive Prozesse sind absolut nichts Neues. Mein Bekanntheitsgrad wie ein bunter Hund kommt daher, dass ich seit zehn Jahren lautstark bis provokativ gegen die Idee protestiere, dass man Unternehmen mittels BPM perfekt strukturieren und damit verbessern kann. Sie werden damit zu Tode organisiert. Ich finde auch, dass man den Terminus ‚ADAPTIV‘ für BPM falsch verwendet. Er wird jedoch nun zum nächsten Schlagwort im ‚IT Buzzword Bingo‘ Spiel. Hersteller die simples, orthodoxes BPM anbieten schmücken sich nun mit dem neuen Adjektiv. Ach, wie hübsch! Wie bei Sex ist es ein substantieller Unterschied darüber zu reden oder es zu tun. Zum Glück ist es nicht unmoralisch (wie etwa bei Sex) die großspurigen Behauptungen von Anbietern auszutesten. Sie sollten daher jede Software intensiv probefahren (natürlich auch Papyrus …) bevor sie sich entscheiden.

1997 begann ich meine Theorien zu ‚Adaptive Applications‘ in die Praxis umzusetzen mit der Entwicklung der Papyrus Platform (damals noch Objects genannt), die dann in 2000 auch erstmals installiert wurde. Schon davor gab es jedoch akademische Forschung zu adaptiven Prozessen von Manfred Reichert and Peter Dadam et al. an der Universität Ulm mit dem ADEPT Konzept, sowie zu Process Mining von Prozesslogs durch Christian W. Günther and Wil M.P. van der Aalst an der Eindhoven University of Technology. Die theoretische Arbeit an den Universitäten zeigt auf, dass es seit damals kritische Denker zu starren Prozessen gibt und nicht nur ich meinen kontroversen Ideen nachlaufe. Dennoch gibt es Unterschiede zwischen der theoretischen Forschung und den realen Problemen in Unternehmen. Diese möchte ich hier diskutieren.

ADEPT1 von 1998 fokussierte auf Ad-Hoc Flexibilität und die verteilte Ausführung von Prozessen, mit der auch Prozessänderungen an bereits laufende Instanzen weitergeleitet werden. Die Ad-Hoc Erstellung und Änderung wurde mittels formellen Änderungsfunktionen mit Pre- und Post-Constraints erreicht. Die Limitationen der Prozessstruktur sind damit nicht ein Nachteil sondern so gewollt. Ich stelle jedoch den praktischen Nutzen der formellen Richtigkeit in Frage, da es bei Prozessen immer zu Ausnahmen kommen kann und deren Lösung ist kein Fehler sondern normale Prozessarbeit. Bei ADEPT2 wurde vor allem eine unabhängige Datenstruktur eingeführt, die Geschäftsdaten als versionierte Objekte definiert und damit die transaktionelle Richtigkeit von Daten sicherstellt. ADEPT2 ist eine theoretische Lösung für die Adaptierung von Flussdiagrammen, die jedoch sich mit einigen praktischen Aspekten nicht auseinandersetzt. Ich gestehe, dass ich den allerletzten Stand der Arbeiten nicht kenne.

Was sind nun die Unterschiede zu meiner Forschungs- und Entwicklungsarbeit. ADPET2 berücksichtigt die Adaptierbarkeit der notwendigen Prozessressourcen, wie eingehende und ausgehende Dokumente, Geschäftsregeln, und Benutzeroberflächen nicht. Flexibiitäten, wie das freie Hinzufügen von Teilnehmern, das Einfügen von Meilensteinen, Regeln und Dokumenten erfordert weiters eine starke Authorisierungsfunktion über Rollenmodelle. Einige Eigenschaften von ADEPT2 – modellausführend und objektorientiert – werden in BPMN System wie Papyrus gefunden. Es gibt auch eine kommerzielle Version von ADEPT2. Papyrus bildet auch das Prozessmodell auf Basis von frei-definierbaren Objekten ab und alle Datenobjekte haben ausserdem eine prozessunabhängige Existenz und können in vielen Prozessen genutzt werden. Weiters nutzt das Taskmodell von ADEPT2 eine starre State-Engine und in Papyrus ist diese frei definierbar. Prozesse können aus beliebig vielen Elementen bestehen die mit State/Events und Regeln vernetzt sind. Das Flussdiagramm ist nur eine Sicht aber nicht die logische Struktur des Prozesses.

Wie sieht es mit den Forschungen zu Process-Mining von Christian W. Günther and Wil M.P. van der Aalst an der Eindhoven University of Technology aus? Liefern diese mehr realitätsbezogene Lösungen? Die erste Frage die man stellen muss ist, von wo man die Prozesslogs bekommt? Die Logs eines üblichen BPM Systems liefern keine Information weil diese ja schon starr sind und daher nur die Häufigkeit von Gateway-Entscheidungen liefern würde. Bei Ad-Hoc oder dynamischem BPM bekommt man mehr Informationen, aber diese sind auch schon eingeschränkt um damit Prozesse aus der Realität zu ermitteln. Eigentlich müßten Email oder Soziale Netzwerke analysiert werden. Aalst verfolgte auch eine Lösung bei der Process Mining die Änderungsvorschläge liefert und ADEPT 2 die Funktion. Aalst schrieb dazu: “that process mining, in order to become more meaningful, and to become applicable in a wider array of practical settings, needs to address the problems it has with unstructured processes.”

ADEPT2 und Process-Mining (Quelle: W. Van Der Aalst)

Wenn Benutzer jedoch frei agieren können führt dies zu einer weiteren Dynamik die in der Analyse als ‚Spaghetti-Diagramme‘ sichtbar werden. Diese zeigen zwar die Realität, erlauben aber nicht die Richtung eines Prozessflusses oder die kausalen Zusammenhänge zu ermitteln, da jeder Event-Knoten mit jedem anderen irgendwie vernetzt ist. Dies führte Aalst von der Funktion des Heuristic Miner zu der des Fuzzy Miner in dem ein flexibler Algorithmus die Wertigkeit der Vernetzungen ermittelt und mittels Edge-Filtering zu einer Abstraktion und Aggregation führt. Das Tuning dieser Parameter muss jedoch Prozesstyp-spezifisch definiert werden. Es wird also noch einige Zeit dauern bis dieser Ansatz praktischen Nutzen bringen könnte.

In meiner Forschungsarbeit zu adaptiven Prozessen habe ich einen komplett anderen Ansatz gewählt, da ich immer die menschliche Perspektive im Vordergrund sah. Mir erschien es als der logische Schritt, dass Benutzer direkt alle Elemente einer Anwendung bearbeiten können. Das schloss eine kompilierte Lösung aus und ich entschied mich (in 1997) für eine modellausführende Technologie. Es werden alle Definitionen (Daten und Prozesse) in einem Metadaten-Objektmodell (UML-konform) erstellt und ausgeführt. Der typische Fachbenutzer hat jedoch keine Ahnung von Objektmodellen oder Flussdiagrammen und daher arbeitet er mit Datenelementen die aus der Geschäftsarchitektur von der IT erstellt  wird. Durch diese Technologie kann ein entsprechend autorisierter Benutzer jedes Element in der Vorlage/Modell oder auch zur Laufzeit ändern. Mittels SOA (oder anderen Adaptern) werden die Echtdaten eingekoppelt. Aufgrund meiner enttäuschenden Erfahrungen mit Java, XML und SOA in diesem Zusammenhang, bleiben diese nur eine Option. Ich entschied ich mich für C++, Binärdaten, und freie Schnittstellenwahl.

Aber auch das Process Mining war für mich eine interessante Option dem wir uns in 2003 zu widmen begannen. Ich stelle zur Diskussion, dass das Bild eines Prozesses nur aus der menschliche Wahrnehmung entsteht, weil unser Erinnerungsvermögen nur relativ ist und nicht absolut. Wir erinnern uns an Änderungen und Unterschiede aber kaum an absolute Werte. Daher ist ja auch das absolute Gehör nur Wenigen und mit viel Übung zugänglich. Tatsächlich besteht die Realität aus einem komplexen Konstrukt aus Zuständen mit resonanten, kausalen Vernetzungen, die wir nur in wiederkehrenden Mustern erkennen können ohne deren genauen Inhalt wahrzunehmen. Flowcharts können dies sicher nicht realistisch abbilden. Diese Übersimplifikation ist ein Kernübel von heute marktüblichem BPM in Methode und Software. Primär, weil es weder notwendig noch effizient ist. Wir erkennen aber dafür Gesichter in ganz niederer Auflösung. Wenn wir bestimmte Muster erkennen dann haben wir unser Gehirn trainiert darauf mit Aktionen (Denken oder Motorik) zu reagieren. Diese Fähigkeit wollte ich nachempfinden. Entscheidungen treffen Menschen jedoch emotional und das bleibt der Technik sicher verborgen, jedoch ist es bei Mustererkennung gar nicht notwendig das ‚Warum‘ zu ermitteln. Man vernetzt einfach Muster und Aktion kausal. Ausführbares Wissen wird nur durch Informationen vermittelt die sowohl aktuell als auch im Kontext sind. Lernen sollte man adaher auch am Besten von dem der Wissen hat. Um die Lerninhalte zu strukturieren, ist es hilfreich den Akteuren Rollen zuzuweisen und dann die Aktionen dieser Akteure zu erkennen. Dies kann ganz abstrakt auf einer freien Sammlung von Objekten mit deren Methoden erfolgen, aber es ist schneller und zielführender die Strukturen einer Geschäftsarchitektur dazu zu benutzen um aus den prozess-relevanten Benutzer-Aktionen zu lernen.

Dies führte zum Konzept des User-Trained Agent, also benutzertrainiertes Lernen. Dieser seit 2007 verfügbare Agent lernt nicht aus Prozesslogs der Vergangengeit, sondern in Echtzeit und macht auch in Echtzeit entsprechende Vorschläge. Er beobachtet die Aktionen einer Benutzerrolle und geht davon aus, dass die entscheidungsrelevanten Daten alle im Zustandmuster des Prozessmodells enthalten sind. Sowohl Prozess-, als auch Geschäftsdaten werden dabei als Muster erfasst. Je besser die Daten strukturiert sind umso besser und schneller erlernt der Agent was relevant ist und was nicht. Diese Technologie motiviert Unternehmen dazu übersichtliche Daten- und Geschäftsmodelle zu erstellen. Sobald der Agent eine definierbare Anzahl von Mustern wiedererkannt hat, beginnt er Aktionen Benutzern zu empfehlen. Nimmt der Benutzer diese Vorschläge an, wird das Vertrauen des Agenten verstärkt. Wenn nicht, dann versucht er feinere Unterschiede in den Daten zu erkennen. Das Vertrauen in das eigene Wissen sinkt wieder. Der Benutzer kann auch mehrere wahrscheinliche Aktionen vorgeschlagen bekommen.

Es können beliebig viele Papyrus UTAs parallel und mit übergreifenden Zustandsräumen arbeiten. Werden Prozessergebnisse in einen solchen zurückgeführt (was normal ist), werden dadurch mehrere Aktionen in ihrer Sequenz voneinander abhängig da das Ergebnis der Vor-Aktion zum kausalen Muster der Folgeaktion gehört. Der tatsächliche Plan ist im Moment der Entscheidung für den UTA nicht wirklich wichtig, sondern nur das was bisher geschah. Wenn man jedoch in den Datenobjekten auch Planungsschätzungen, Prozessregeln, sowie Zielvorgaben einschliesst, dann wird er UTA auch diese dazu verwenden um aus den Benutzeraktionen zu lernen. Setzt ein Benutzer eine bestimmte Aktion um damit eine große Diskrepanz zwischen Ziel und erwartetem Wert zu korrigieren, dann wird dies der UTA auch vorschlagen ohne zu verstehen warum. Im Machine Learning Umfeld nennt man solche Funktionen ‚TRANSDUCTIVE TRAINING‘. Der UTA führt weder Induktion, Deduktion, noch Abstraktion von Regeln durch. Er erkennt nur wiederkehrende Muster. In kurz war das der Inhalt meines UTA-Patents von 2007.

Im Unterschied zu universitärer Forschung — die ich nicht abtun will — befasst sich Papyrus mit den Problemen der realen Geschäftswelt. Ich habe erst im März 2010 wieder auf der Uni Wien vorgetragen und bin immer erstaunt wie wenig Interesse an realitätsnahen Lösungen besteht. Dabei war man den Softwareherstellern mit den Konzepten zu ‚adaptiven Prozessen‘ um zehn Jahre voraus. Eigentlich schade!

April 2010 war durch USA Reisen (mit Vulkanasche-Stau) und durch die Vorbereitungen zum ISIS OpenHouse in Wien ein extrem hektisches Monat. Unser OpenHouse war mit 130 Kunden ein voller Erfolg. Wir haben vor allem die EYE Widgets Oberfläche und die IPhone/iPad Anwendungen als Neuerungen zeigen können. Daher bin ich einfach nicht dazu gekommen meinen deutschen Blog aktuell zu halten. Ich werde versuchen nur ganz konzentriert die Erkenntnisse des letzten Monats hier wiederzugeben.

Das heisseste Thema derzeit ist die Frage wo es mit BPM Business Process Management lang geht. Bleibt die Definition so unklar wie sie ist oder sollte man BPM erweitern? Für viele vielleicht ein Nicht-Thema, weil es entweder klar ist oder irrelevant. Ich tendiere zum Zweiteren. Ausgelöst wurde dies zum Teil durch das ACM Adaptive Case Management Thema und unserem Buch ,Mastering The Unpredictable‘. Ich wurde ersucht – aufgrund meiner Chief Architect Rolle und dem fortgeschrittenen Stand unserer Papyrus Platform – die notwendigen ACM Bausteine technisch zu erläutern. Nur auf zwei Seiten konnte ich die längerfristigen Konzepte zu ,Adaptive Process‘ mit der Konsolidierung von ECM, CRM, BPM und ACM anklingen lassen. Mehr dazu muss ich eben in meinem eigenen Buch niederschreiben.


Ich zeige hier eine Grafik die eine Übersicht der Marktsegmente erläutert, und zwar nur aus der Sicht von Prozesskomplexität und Unplanbarkeit. Da kommt es sofort zur Frage ob denn adaptive Prozesse – gefällt mir besser als unstrukturiert oder unplanbar weil es doch beides ist – überhaupt zu BPM gehören? Wenn es sich dabei nur um die Unternehmenssicht handelt und nicht um Software dann würde man das wohl bejahen. Auf der anderen Seite haben sich jene Analysten die die Marktsegmente kreieren klar geweigert Produkte die keinen Flowchart Designer haben als BPM anzuerkennen. Ich halte mich daher aus der Diskussion um Marktfragmente heraus. Irgendwie Zeitverschwendung.

Wir wollen mit ACM erreichen, dass den wissensbasierten Mitarbeitern mehr Kontrolle und Unterstützung bei unplanbaren Prozessen bekommen, als heute von BPM, Kollaboration oder Case Management. Adaptiv bedeutet im Kern, dass Prozesse nur in Ihren Ressource-Elementen aber nicht im Ablauf definiert werden. Die Vorlagenelemente – Datenobjekte, Dokumente, Akteure, Regeln und Darstellung können vom Benutzer ohne Flussdiagramm zusammengestellt werden. Der Analyseaufwand für die Prozess-Elemente ist  wiederverwendbar ohne dabei Prozesse zu standardisieren. Prozesse werden nur zur Erreichung bestimmter Ziele ausgeführt. Nun gut, das ist ja wohl auch eine Binsenweisheit – könnte Prof. Allweyer sagen – aber ich mache darauf aufmerksam, dass man in BPM den Schritt vom grundsätzlichen Ziel sofort zur – nur hypothetisch idealen Ausführung macht.  Ich  behaupte, dass Prozesse eine Hierarchie von zu erfüllenden Zielen und Regeln anstatt einer Abfolge von Arbeitsschritten sein müssen. ADAPTIV wird damit ZIELORIENTIERT gleichgestellt. Viele sind sich nicht einmal bewusst, dass Ziele immer Regeln sind und nicht Schwellwerte oder Trends. Viele KPI‘s – Key Performance Indicators oder Leistungsindikatoren sind kaum mit kausalen Steuerungen und dem Prozess zu verbinden. Oft wird im Prozess gerade mal der geplante SLA Service Level überwacht. BAM Business Actitvity Monitoring liefert kaum klare Aussagen zu Verbesserungsaktionen, da ebenfalls vom Prozess abgekoppelt.

Wenn man nun den Benutzer dazu ermächtigen will, selbst Prozesse zu erstellen und zu verbessern dann muss die Lösung einiges an der Benutzeroberfläche anbieten können. Ein Flussdiagramm-Editor wie bei Social-BPM (siehe ARISalign) macht da absolut keinen Sinn. Viele Prozesstools – auch dynamische oder adaptive – haben dann für die Benutzerinteraktion nur simplizistische Webforms anzubieten. Das ist heute nicht mehr akzeptabel und morgen sowieso nicht. Für die Erstellung von Prozessen reicht das lange nicht. Es geht dabei nicht um bunte Bildchen sondern um ein moderne grafische Darstellung der Prozessabhängigkeiten. Eine elegante Form davon ist die Gantt Chart, wie man sie aus dem Projektmanagement kennt, oder auch Ziel- oder Meilensteinnetze oder -bäume. Damit kann man die wandfüllenden Flussdiagramme in die Vergangenheit verbannen. Mitarbeiter wollen ja nicht ‚BPM machen‘, sondern ihrer Arbeit nachgehen. Benutzer können damit nicht nur die Prozesse so erstellen, sondern sie auch zu jedem Zeitpunkt anpassen. Durch Transparenz und Grenzregeln kann man verhindern, dass dabei Vorgaben oder gesetzliche Regulationen verletzt werden. Die gleiche Funktionalität muss dem Benutzer auch auf dem Mobile zur Verfügung stehen.

ACM Inbox mit Gantt Chart

Man kann Zielorientierung in adaptiven Prozessen so zusammenfassen:

  • ,Agile‘ Flussdiagrammanalysen sind einfach nicht agil genug.
  • ‚Adaptive‘ wird nur erreicht wenn Modelle direkt exekutiert werden.
  • Die Vorlagen müssen Daten, Dokumente, Akteure, Regeln und Ziele beinhalten.
  • Die Erstellung des Prozesses erfolgt bei der Ausführung aus Vorlagen.
  • Es werden Zielvorgaben und Meilensteine in Gantt Charts angezeigt.
  • Einzelne Meilensteine können aus Flussdiagrammen bestehen.
  • Benutzerinteraktion und Anwendungsintegration ist konsolidiert.
  • Durch die adaptive Ausführung benötigt man keine Ausnahmeregeln.
  • Die Prozessvorlagen werden aus der Ausführung wo notwendig erneuert.
  • Die Prozesse sind mittels Events mit anderen Prozessen und Systemen vernetzt.
  • Selbstlernende Agenten machen Benutzern Ausführungsvorschläge.
%d Bloggern gefällt das: