Wie „schwarze Schwäne“und „perfekte Stürme“zu lahmen Ausreden für schlechtes Risikomanagement werden

Wie „schwarze Schwäne“und „perfekte Stürme“zu lahmen Ausreden für schlechtes Risikomanagement werden
Wie „schwarze Schwäne“und „perfekte Stürme“zu lahmen Ausreden für schlechtes Risikomanagement werden
Anonim

Anstatt über die Unwahrscheinlichkeit seltener Katastrophen im Nachhinein nachzudenken, schreibt Elisabeth Paté-Cornell, Expertin für Risikoanalyse aus Stanford, einen technischen Ansatz vor, um sie zu antizipieren, wenn möglich, und sie zu bewältigen, wenn dies nicht der Fall ist.

Die Begriffe "schwarzer Schwan" und "perfekter Sturm" sind Teil des öffentlichen Vokabulars geworden, um Katastrophen zu beschreiben, die von der Kernschmelze im Finanzsektor 2008 bis zu den Terroranschlägen vom 11. September reichen. Aber laut Elisabeth Paté-Cornell, ein Stanford-Professor für Managementwissenschaft und -ingenieurwesen, verwenden Menschen in Regierung und Industrie diese Begriffe nach einer Katastrophe zu großzügig als Entschuldigung für schlechte Planung.

Ihre Forschung, die in der Novemberausgabe der Zeitschrift Risk Analysis veröffentlicht wurde, deutet darauf hin, dass andere Bereiche Risikoanalysestrategien aus dem Ingenieurwesen ausleihen könnten, um bessere Managemententscheidungen zu treffen, selbst im Fall von „Once-in-a-blue-moon“. Ereignisse, bei denen Statistiken spärlich, unzuverlässig oder nicht vorhanden sind.

Paté-Cornell argumentiert, dass ein echter "schwarzer Schwan" - ein Ereignis, das man sich unmöglich vorstellen kann, weil wir in der Vergangenheit nichts Vergleichbares gekannt haben - extrem selten ist. Das AIDS-Virus ist eines von sehr wenigen Beispielen. Aber in der Regel gibt es wichtige Hinweise und Warnsignale für aufkommende Gefahren (z. B. ein neues Grippevirus), die überwacht werden können, um schnelle Risikomanagementmaßnahmen einzuleiten.

In ähnlicher Weise argumentiert sie, dass das Risiko eines "perfekten Sturms", bei dem sich mehrere Kräfte zusammenschließen, um eine Katastrophe zu schaffen, die größer ist als die Summe ihrer Teile, systematisch vor dem Ereignis bewertet werden kann, weil obwohl ihr Konjunktionen sind selten, die Ereignisse, aus denen sie bestehen - und all ihre Abhängigkeiten - wurden in der Vergangenheit beobachtet.

"Bei der Risikoanalyse geht es nicht darum, etwas vorherzusagen, bevor es passiert, es geht nur darum, die Wahrscheinlichkeit verschiedener Szenarien anzugeben", sagte sie. Sie argumentiert, dass die systematische Untersuchung dieser Szenarien Unternehmen und Aufsichtsbehörden dabei helfen kann, angesichts der Ungewissheit klügere Entscheidungen vor einem Ereignis zu treffen.

Denke wie ein Ingenieur

Ein technischer Risikoanalyst denkt in Systemen, ihren funktionalen Komponenten und ihren Abhängigkeiten, sagte Paté-Cornell. In vielen Kraftwerken, die Kühlung benötigen, tragen beispielsweise Generatoren, Turbinen, Wasserpumpen, Sicherheitsventile und mehr dazu bei, dass das System funktioniert. Daher muss der Analyst zunächst verstehen, wie das System als Ganzes funktioniert, um zu identifizieren, wie es versagen könnte. Die gleiche Methode gilt für medizinische Systeme, finanzielle oder ökologische Systeme.

Paté-Cornell betont, wie wichtig es ist, abhängige Ereignisse zu berücksichtigen, deren Wahrscheinlichkeiten miteinander verflochten sind, um eine vollständige Liste von Szenarien – einschließlich der Abhängigkeiten – zu erstellen, die in der Risikoanalyse berücksichtigt werden müssen.Daher ist es wichtig, dass die technische Risikoanalyse externe Faktoren berücksichtigt, die das gesamte System beeinflussen können, sagte Paté-Cornell.

Im Falle eines Kernkraftwerks muss die seismische Aktivität oder das Potenzial für Tsunamis in der Region Teil der Gleichung sein, insbesondere wenn lokale Erdbeben in der Vergangenheit zu Flutwellen und zerstörerischen Überschwemmungen geführt haben. Paté-Cornell erklärte, dass die Konstrukteure des Kernkraftwerks Fukushima Daiichi wichtige historische Präzedenzfälle ignorierten, darunter zwei Erdbeben in den Jahren 869 und 1611, die ähnliche Wellen erzeugten wie im März 2011.

Was einige als "perfekten Sturm" sich vermehrender Pannen bezeichneten, sieht Paté-Cornell als Versäumnis, grundlegende Ausfallwahrscheinlichkeiten auf der Grundlage von Erfahrung und elementarer Logik einzuschätzen.

Ein vielseitiges Framework

Engineerische Risikoanalysen können komplex werden, aber ihre Bestandteile sind konkrete Objekte, deren Mechanismen normalerweise gut verstanden sind. Paté-Cornell sagt, dass dieser systematische Ansatz für menschliche Aspekte der Risikoanalyse relevant ist.

"Einige argumentieren, dass man in der Technik harte Daten über harte Systeme und harte Architekturen hat, aber sobald man Menschen einbezieht, kann man aufgrund der Ungewissheit menschlicher Fehler nicht dieselben Methoden anwenden. Ich glaube das nicht ist wahr", sagte sie.

Tatsächlich haben Paté-Cornell und ihre Kollegen seit langem "weiche" Elemente in ihre Systemanalyse integriert, um die Wahrscheinlichkeit menschlicher Fehler zu berechnen. Sie sehen sich alle Personen an, die Zugriff auf das System haben, und berücksichtigen alle verfügbaren Informationen über vergangene Verh altensweisen, Schulungen und Fähigkeiten. Paté-Cornell hat herausgefunden, dass menschliche Fehler, alles andere als unvorhersehbar, oft in der Art und Weise verwurzelt sind, wie eine Organisation geführt wird.

"Wir sehen uns an, wie das Management die Mitarbeiter geschult, informiert und ihnen Anreize gegeben hat, das zu tun, was sie tun, und Risiken basierend auf diesen Bewertungen zuzuweisen", sagte sie.

Paté-Cornell hat diesen Ansatz erfolgreich auf den Finanzbereich angewendet und die Wahrscheinlichkeit geschätzt, dass ein Versicherungsunternehmen angesichts seines Alters und seiner Größe scheitern würde.Sie sagte, die Unternehmen hätten sie kontaktiert und die Forschung finanziert, weil sie zukunftsweisende Modelle benötigten, die ihre Finanzanalysten im Allgemeinen nicht zur Verfügung stellten.

Traditionelle Finanzanalysen, sagte sie, basieren auf der Auswertung vorhandener statistischer Daten über vergangene Ereignisse. Ihrer Ansicht nach können Analysten Marktversagen – wie die Finanzkrise, die 2008 begann – besser antizipieren, indem sie Vorboten und Warnsignale erkennen und sie in eine systemische probabilistische Analyse einbeziehen.

Medizinische Spezialisten müssen auch angesichts begrenzter statistischer Daten Entscheidungen treffen, und Paté-Cornell sagt, dass der gleiche Ansatz für die Berechnung des Patientenrisikos nützlich ist. Sie nutzte die Systemanalyse, um Daten zu Anästhesieunfällen auszuwerten – ein Fall, in dem menschliche Fehler zu einer Unfallkette führen können, die, wenn sie nicht schnell erkannt wird, das Leben des Patienten gefährdet. Basierend auf ihrem Ergebnis schlug sie Umschulungs- und Rezertifizierungsverfahren für Anästhesisten vor, um ihr System sicherer zu machen.

Professor Paté-Cornell glaubt, dass der Finanz- und Medizinsektor nur zwei von vielen Bereichen sind, die von der Systemanalyse in unsicheren, dynamischen Situationen profitieren könnten. „Viele Leute mögen Wahrscheinlichkeiten nicht, weil sie sie nicht verstehen“, sagte sie, „und sie denken, wenn sie keine harten Statistiken haben, können sie keine Risikoanalyse durchführen. Tatsächlich machen wir im Allgemeinen ein System … basierende Risikoanalyse, da wir keine zuverlässigen Statistiken über die Leistung des gesamten Systems haben."

Sie hofft, dass ihr probabilistischer Ansatz die Vorstellungen von schwarzen Schwänen und perfekten Stürmen ersetzen kann, wodurch die Öffentlichkeit sicherer und besser über Risiken informiert wird. Anscheinend haben andere dieselbe Hoffnung.

"Es muss einen Nerv getroffen haben", sagte sie, "denn ich bekomme bereits viele Kommentare, Antworten und Ideen zu diesem Thema von Menschen auf der ganzen Welt."

Beliebtes Thema