Start | Kontakt | Impressum
 
 
 

Aktuelles

 
 
 
 
 
 

Annette Heinisch, Rechtsanwältin

Gesteuerte Angst

Frankreichwahl

Die schädliche und teure Energiewende wurde schon häufiger kritisiert. In dem Beitrag von letzter Woche "Kerntechnische und andere Irrtümer" wurde ausgeführt, es habe sich jedenfalls gezeigt, dass der allgemeine Kenntnisstand zu diesen Fragen in der Öffentlichkeit viel zu unterentwickelt für eine sachkundige Diskussion sei. Das ist  völlig richtig. Dabei ist einigen immerhin bewusst, dass das Erdbeben in Japan mit nachfolgendem Tsunami in Fukushima, welcher zu 18.000 Todesopfern führte, nicht einmal ansatzweise Anlass gab, in Deutschland die Atomkraftwerke abzuschalten. Weniger bekannt ist, dass auch Tschernobyl nicht geeignet ist, die Gefahren der Atomkraft zu demonstrieren. Alles, was dort geschah, haben Menschen bewusst herbei geführt, wenngleich ihnen die Folgen ihres Handelns nicht bewusst waren.

Tschernobyl ist daher für die Arbeitspsychologie und die Human – Factors – Forschung viel interessanter gewesen als für die Physik. Der Psychologe Prof. Dietrich Dörner widmet in seinem bekannten Buch "Logik des Misslingens" Tschernobyl ein eigenes Kapitel. Seine Forschungsergebnisse, die auf computerbasierten Simulationen beruhen, wurden nämlich von diesen realen Ereignissen bestätigt. Dörner hat die Ereignisse auf der Grundlage des Berichts von James T. Reason der Universität Manchester (J. T Reason: The Chernobyl Errors, Bulletin of the British Psychological Society, 1987, 40, 201 – 206; Dörner: Logik des Misslingens, Strategisches Denken in komplexen Situationen, 9. Aufl. 2010, S. 47 f.) zusammengefasst:

Der Reaktor in Tschernobyl stand Ende April 1986 kurz vor seiner jährlichen Wartung. Vor der Wartung wollte man bis zu den Maifeiertagen noch ein Experiment durchführen, welches zur Verbesserung einer Sicherheitseinrichtung führen sollte. Daher begann man am Freitag, den 25.04.1986 um 13 Uhr den Reaktor herunter zu fahren. Beabsichtigt war, ihn auf 25 % der Leistung  zu bringen, um dann auf diesem Niveau das Experiment durchzuführen. Um 14 Uhr koppelte man im Rahmen des Testplans das Notkühlsystem vom Reaktor ab, damit es nicht unbeabsichtigt in der Testphase gestartet wurde.

Dann allerdings trat eine unvorhergesehene Energienachfrage ein, so dass der Reaktor nicht vom Netz gehen konnte, dazu kam es erst um 23.10 Uhr. Wohl um die verlorene Zeit aufzuholen hatte der Operateur die automatische Steuerung des Reaktors ausgeschaltet und auf Handsteuerung umgestellt. Dabei übersteuerte er - vermutlich hat er das Eigenbremsverhalten des Reaktors nicht ausreichend berücksichtigt -, denn gegen 00.30 Uhr wurde nur 1 % Leistung erreicht.

An dieser Stelle ist anzumerken, dass es sich dabei um ein ganz typisches Problem handelt: In dynamischen Systemen neigen Menschen zur Übersteuerung. Dörner beschreibt das so: "Man reguliert den Zustand und nicht den Prozess und erreicht damit, dass das Eigenverhalten des Systems und die Steuerungseingriffe sich überlagern und die Steuerung überschießend wird."

Es war streng verboten, den Reaktor unter 20 % zu "fahren", denn dann war er instabil und damit gefährlich. Also versuchte man, die Leistung wieder hoch zu fahren, was gelang. Als der Reaktor 7 % Leistung aufwies, entschlossen sich die Operateure, das Testprogramm wie geplant durchzuführen. Das war ein fataler Fehler, der auf drei Faktoren beruht:

Der erste war Zeitdruck, denn das eigentlich lästige Testprogramm der Moskauer Ingenieure sollte möglichst schnell beendet werden und es gab ja schon eine Verzögerung. Der zweite Faktor war, dass zwar allen theoretisch die Gefahr einer Reaktor – Instabilität bekannt war, sie sich das aber praktisch nicht vorstellen konnten. Wie Dörner es ausdrückt:

"Theoretisches Wissen braucht kein "Handlungswissen" zu sein."

Der dritte Faktor ist ein auch uns bekannter, nämlich die Gewöhnung an die Verletzung von (Sicherheits-)Vorschriften. Die Sicherheitsvorschriften hatte man in der Vergangenheit in Tschernobyl schon häufiger ignoriert, das war nichts Besonderes mehr. Aus der lerntheoretischen Forschung ist bekannt, dass ein solches Verhalten sich verstärkt, weil es sich "lohnt", man hat etwas davon: Die Nichtbeachtung von Vorschriften macht das Leben einfacher und freier. Diese Belohnung verbunden damit, dass tatsächlich die Verletzung von Vorschriften nicht immer oder sofort zu schlimmen Folgen führt, lässt Hemmungen schwinden, Vorschriften zu übertreten, es wird Methode. Diese Methode erhöht natürlich das Risiko, dass etwas passiert.

Vermutlich um die Stabilität des Reaktors abzusichern, schaltete man gegen 1 Uhr nachts alle 8 Pumpen des Primärkreislaufs an. Erlaubt waren maximal 6 Pumpen, aber man wollte wohl eine zusätzliche Kühlung. Unberücksichtigt blieb, dass aufgrund einer automatischen Rückkoppelung ein großer Teil der Graphitbremsstäbe aus dem Reaktor entfernt wurden, es wurden also als Reaktion auf die erhöhte Belastung die "Bremsen" des Reaktors entfernt. Dass eine ungewollte aber logische Nebenwirkung schlicht übersehen wird, weil man sich völlig auf die gewollte Hauptwirkung fokussiert, ist ein ganz typisches menschliches Fehlverhalten.

Als Folge des Einschaltens der Pumpen fiel der Wasserdruck ab, deshalb erhöhte man den Wasserdurchfluss. Es wurde übersehen, dass dieses den gegenteiligen Effekt hatte. Es führte außerdem dazu, dass noch mehr Graphitbremsstäbe aus dem Reaktor entfernt wurden. Man stellte zudem die automatische Abschaltung des Reaktors bei fallendem Dampfdruck aus, wie man alle Sicherheitsvorkehrungen abgeschaltet hatte. Im Rahmen des Testprogramms schloss man um 1.23 Uhr eines der Dampfrohre, das zu einer Turbine führte, was dazu führte, dass eine weitere automatische Sicherheitskoppelung abschaltete. Eine Minute vor der Katastrophe, um 1.24 Uhr, wurde wohl klarer, was bevor stand, denn man versuchte eine Art Notbremsung, d. h. die Graphitstäbe in den Reaktor zurückzuschieben. Leider war es dafür zu spät, die Rohre waren bereits durch die große Hitzeentwicklung verbogen. Was dann passierte, ist bekannt.

In Tschernobyl haben sich also keineswegs die Gefahren der Atomkraft gezeigt, nichts hat versagt oder ist einfach unkontrollierbar geworden. Es haben sich vielmehr deutlich die Gefahren menschlichen Verhaltens gezeigt. Bemerkenswert ist, dass die Fahrer des Reaktors erfahrene Fachleute waren, sie waren der festen Überzeugung, alles voll im Griff zu haben. Um noch einmal Dörner (S. 56) zu zitieren:" Die Tendenz einer Gruppe von Fachleuten, sich selbst zu bestätigen, alles gut und richtig zu machen, Kritik in der Gruppe implizit durch Konformitätsdruck zu unterbinden, hat Janis (1972) als die Gefahr des "Groupthink" bei politischen Entscheidungsteams geschildert, zum Beispiel beim Team der Kennedy – Berater vor der katastrophal endenden "Schweinebuchtaffaire".

Nur am Rande sei bemerkt, dass die Art, wie die Fachleute mit dem Reaktor in Tschernobyl umgingen, dem Verhalten unserer politischen Führung bezüglich der Steuerung unseres Landes fatal ähnelt. Zu keinem Zeitpunkt wurden aber die wirklichen Gefahren, die zu der Katastrophe in Tschernobyl führten, thematisiert und öffentlich diskutiert.

Tatsächlich wissen die wenigsten Bürger, wie es zu der Explosion des Reaktors kam. Es fehlen ihnen die Informationen, aber auch das Interesse, sich diese zu beschaffen. Außerdem fehlt ihnen das technische Verständnis, die Mehrheit der Bevölkerung kennt sich eher weniger mit Kernphysik aus. Sie haben auch keine Ahnung von den Grenzen menschlichen Denkens und Handelns, wie es sich besonders im Umgang mit komplexen und dynamischen Systemen offenbart. Das Selbstbewusstsein, alles regeln zu können ist unbegrenzt und steht damit in umgekehrt proportionalem Verhältnis zum objektiv Möglichen.

Der allgemeine Kenntnisstand ist folglich wirklich zu begrenzt und zwar nicht nur in Bezug auf Atomkraft.

Da dies so ist, wird Politik nicht vernunftbasiert auf der Grundlage von Fakten und Erkenntnissen betrieben, im Gegenteil. Um Wahlen zu gewinnen, werden bewusst Emotionen geweckt und instrumentalisiert. Eine der größten emotionalen Triebfedern ist die Angst, besonders stark natürlich die Existenzangst. So haben die Habenden Angst, ihr Vermögen zu verlieren und die Habenichtse haben Angst, von Nichts leben zu müssen. Diese Existenzangst haben die zwei großen politischen Lager genutzt, um die Wählerschaft unter sich aufzuteilen. Diese haben damit die politische Bühne lange beherrscht, bis die Grünen kamen. Diese haben die Gefahren für die Umwelt und die Atomkraft als existentielle Bedrohung stilisiert, nur so wurden sie überhaupt konkurrenzfähig.

Wer aber Angst instrumentalisiert, will keine Informationen und vernunftbasierte Auseinandersetzung. Leider verstärkt sich auch eine solche Entwicklung, die Vernunft gerät immer mehr ins Hintertreffen. Und es heißt nicht umsonst "blinde Panik", bei den meisten Menschen wird sofort der Fluchtinstinkt geweckt. So auch hier, in blinder Panik flieht man vor der Atomkraft.

Um an die Macht zu kommen und diese zu behalten, hat die Politik sich angewöhnt, die emotionalen Wellen zu ihrem eigenen Vorteil zu nutzen und sie wie ein Wellenreiter zu reiten. Wenn Gefühle hochkochen, bewahrt man nicht kühlen Kopf und lässt Vernunft walten, sondern man setzt sich an die Spitze der Gefühlswelle und nutzt den Schwung zum eigenen Vorteil. Das machte Merkel nach Fukushima und auch bei der Flüchtlingskrise. Gerade kürzlich wandte von der Leyen diese Methode, indem sie sich beim Aufkommen von Verdächtigungen gegen die Bundeswehr nicht vor ihre Leute gestellt hat, sondern sich jeweils an die Spitze der Empörten setzte.

Es wäre mehr als wünschenswert, wenn wir den Weg zu einer faktenbasierten und vernunftorientierten Politik finden würden. Aber ob sich die Entwicklung der letzten Jahrzehnte so einfach umkehren lässt, ist offen. Ohne eine enorme Anstrengung wird es jedenfalls nicht gehen.

03. Juli 2017


Annette Heinisch

Annette Heinisch. Studium der Rechtswissenschaften in Hamburg, Schwerpunkt: Internationales Bank - und Währungsrecht und Finanzverfassungsrecht. Seit 1991 als Rechtsanwältin sowie als Beraterin von Entscheidungsträgern vornehmlich im Bereich der KMU tätig.