Samstag, 7. Dezember 2013

Innenansichten des Stromkonzerns RWE

Dem Rheinisch-Westfälischen Elektrizitätswerk RWE, einstmals der Stolz des Ruhrgebiets, geht es wirtschaftlich schlecht. Es hat 35 Milliarden Euro Schulden angehäuft, mehr als jeder andere deutsche Energieversorger (EVU); bei E.ON sind es "nur" 33 Milliarden. Der Börsenkurs ist stark gefallen und wer jetzt noch RWE-Aktien kauft, sollte sich des Risikos bewusst sein. Wegen der Überangebots an Ökostrom sind die Preise an der Leipziger Strombörse stark gefallen; ein Drittel der RWE-Kraftwerke verdienen nicht einmal ihre Kapitalkosten. So verwundert es nicht, dass bei RWE bereits über den Ausstieg aus der Braunkohleverstromung nachgedacht wird.

Dabei kann der Konzern auf eine lange und erfolgreiche Geschichte zurückblicken. Einige Facetten der Gründerjahre will ich in diesem Blog aufrollen und dazu an den erstaunlich zögerlichen Eintritt des RWE in die Kernenergie erinnern.


Die Urväter Stinnes und Thyssen

Das Rheinisch-Westfälische Elektrizitätswerk AG wurde 1898, also vor 115 Jahren, gegründet. Richtig aufwärts ging es mit dem RWE allerdings erst als 1902 Hugo Stinnes und August Thyssen dort die Führung übernahmen. Sie waren kongeniale Unternehmerpersönlichkeiten und bezogen von Anbeginn die umgebenden Kommunen (wie Mühlheim, Gelsenkirchen etc..) in ihre Geschäfte mit ein. Im Jahr 1910 hatten diese Gemeinden erstmals die Mehrheit der RWE-Aufsichtsratssitze, aber Stinnes und Thyssen liessen sich die Unternehmensführung nicht aus der Hand nehmen. Dabei waren sie vom Charakter her total verschieden. Hugo Stinnes, ein prüder Protestant, sorgte patriarchalisch für seine Frau (eine gebürtige Wagenknecht, die 101 Jahr alt wurde) und die sieben Kinder; August Thyssen hingegen, nur 1,54 gross und geschiedener Katholik, hatte eine Vorliebe für dralle Damen und derbe Witze.

Kostenbewusst waren beide. Thyssen schrieb beispielsweise an seine Direktoren: "Ich bitte die Herren, zur nächsten Sitzung einige Butterbrote mitzubringen, damit wir durch das Mittagessen keine Zeit verlieren". Stinnes pflegte als Aufsichtsratsvorsitzender die Generalversammlung mit den Tagesordnungspunkten Geschäftsbericht, Dividende und Entlastung innerhalb einer Minute - ohne Erörterung - zu absolvieren. Immerhin verkündete er zum Schluss: "Ich schliesse die Versammlung, die Herren Aktionäre lade ich zu einem bereitstehenden Frühstück ein".

Das Deutsche Reich verlor zwar 1918 den Ersten Weltkrieg, aber das RWE konnte dank der Belieferung der Rüstungsindustrie seinen Stromabsatz von 290 auf 800 Millionen Kilowattstunden steigern und dabei prächtige Gewinne machen. Nach Kriegsende ahnte Stinnes, dass eine Inflation kommen würde und stellte sich entsprechend darauf ein: er kaufte Sachwerte (Firmen, Aktien, Rohstoffe) auf Kredit und zu niedrigen Zinsen, hielt aber andererseits alle Guthaben seines verschachtelten Unternehmens in Devisen. Der Wertverlust der Mark eliminierte die Kreditforderungen, der Devisenwert steigerte sich umgekehrt proportional. Kein Wunder, dass Stinnes zum grössten Inflationsgewinnler und zum verhasstesten Kapitalisten der Weimarer Republik wurde.

Aber im Jahr 1924 ereilte Hugo Stinnes eine schwere Krankheit und er starb im Alter von 54 Jahren. Noch auf dem Sterbebett schärfte er seinen Söhnen ein: "Denkt daran: Was für mich Kredit ist, sind für euch Schulden. Eure Aufgaben wird sein: Schulden bezahlen, Schulden bezahlen, Schulden bezahlen." Aber seine noch nicht 30 Jahre alten Söhne hielten sich nicht an den Rat des Vaters, sondern machte weitere Schulden. Ein Jahr nach dem Tod von Hugo Stinnes zerfiel das auf Kredit zusammengezimmerte Imperium. Nur das RWE überlebte.


Der Atomstreit zwischen Mandel und Meysenburg

Nach dem Zweiten Weltkrieg fehlte es bei RWE an einer unumstrittenen Führungspersönlichkeit wie Stinnes. Bis 1989 besass das gewaltige Unternehmen keinen Vorstandsvorsitzenden, ja, bis zum Ende der sechsziger Jahre gab es nicht einmal reguläre Vorstandssitzungen, obwohl der Vorstand bereits acht Mitglieder umfasste. Wie Helmut Meysenburg, RWE-Vorstand von 1957 bis 1974, später berichtete, "reichte es, wenn man morgens miteinander telefonierte". Erst 1989 installierte man einen Vostandsvorsitzenden mit Friedhelm Gieske (1989 - 94). Auch repräsentativer Aufwand gehörte nicht zum Stil bei RWE: der technische Vorstand Heinrich Schöller kam noch 1960 in einem VW-Käfer zum Dienst. Den Aufsichtsrat dirigierte der charismatische Herrmann Josef Abs als Vorsitzender von 1957 bis 1977. So formlos war damals der Führungsstil eines Unternehmens im Innern, das nach aussen schroff organisiert wirkte.

Kein Wunder, dass sich das bedächtige und risikoscheue RWE erst nach langem Zögern auf das Abenteuer der Kernenergie einliess. Man gründete 1955 eine Kerntechnische Abteilung und besetzte sie mit Heinrich Mandel, der als "Flüchtling" 1948 zum RWE gekommen war. Mandel, in Prag geboren, war eine ungewöhnliche Erscheinung bei RWE. Mit seinen beiden Doktortiteln - später kam noch der Honorarprofessor dazu - besass er einen wissenschaftlichen Habitus. In seinen Reden berührte Mandel selten RWE-spezifische Interessen, zumeist sprach er über europaweite, ja, globale Energieperspektiven, womit er dem Karlsruher Brüterprojektleiter Wolf Häfele sehr nahe kam.

Mit dieser abgehobenen Diktion stiess Mandel auf Widerstand beim RWE-Vorstand Helmut Meysenburg, der für das Ressort Stromwirtschaft zuständig war. Dieser sah in den Energieprognosen von Dr. Dr. Mandel nur "Kurvenmalereien" ohne Bezug zur Praxis. Meysenburg hielt den Erwerb der Mehrheitsbeteiligung an dem Braunkohlekraftwerk Neurath für viel wichtiger und wusste dabei auch den AR-Vorsitzenden Abs auf seiner Seite. Trotzdem gelang es Mandel die Zustimmung zum Bau des 15-MWe-Kernkraftwerks Kahl zu erreichen. Als dieses 1961 ohne grössere Terminverzögerungen und ohne Überschreiten der Plankosten in Betrieb ging, stieg Mandel zum stellvertretenden Vorstandsmitglied auf.




Das RWE-Braunkohlekraftwerk Neurath

Aber beim darauffolgenden 250-MWe-Kraftwerk Gundremmingen, das zusammen mit dem Bayernwerk errichtet wurde, lief manches schief. Der Siedewasserreaktor war bei seiner Fertigstellung 1966 der grösste Reaktor der Welt. Aber anders als bei Kahl gab es diesmal Terminverzögerungen und Mehrkosten. Darüberhinaus kam es zu Auseinandersetzungen mit der Reaktorsicherheitskommission wegen erheblicher betrieblicher Fehler. (Diese Diskussionen wiederholten sich später bei Biblis A und Mühlheim-Kärlich, was RWE bei den Genehmigungsbehörden den Ruf beträchtlicher Arroganz eintrug). Meysenburg bekam wegen des holprigen Projektablaufs bei Gundremmingen wieder Oberwasser bei RWE und revanchierte sich, indem er Mandel in der Folge den Aufstieg zum ordentlichen Vorstandsmitglied volle sieben Jahre lang (bis 1968) blockierte. Die Braunkohle war wieder wichtiger geworden.

Aber Mandel konnte mächtige Verbündete in der Bonner Ministerialbürokratie gewinnen, insbesondere der Forschungsminister Gerhard Stoltenberg förderte seine Pläne zum Ausbau der Kernenergie. Um 1968 vollzog sich bei RWE abrupt eine Kurswende, mit der sich das Unternehmen an die Spitze der deutschen Kernenergieentwicklung stellte. Mandel wurde zum ordentlichen Vorstandsmitglied ernannt und legte sogleich das Projekt Biblis A auf Kiel. Es war zu einem Gutteil als "Gegenprojekt" zu einem Kernkraftwerk der BASF geplant, welches damals in der Diskussion war. Mit diesem Schachzug wollte man die Ludwigshafener Firma von ihren Atomplänen abbringen, was schliesslich auch gelang.

Durch kluges Verhandeln mit dem Reaktoranbieter Siemens gelang es Mandel für Biblis A einen moderaten Festpreis von 850 Millionen Mark herauszuschlagen, was sich in der Rückschau als "Schnäppchen" entpuppte. Bei Siemens ging damals der Spruch um: "Bei Siemens stöhnt man über jeden grossen Auftrag, den man von RWE erhält - aber über diejenigen, welche man nicht erhält, stöhnt man noch viel mehr." Beim Folgeprojekt Biblis B egalisierte Siemens seine Verluste aus Biblis A, indem es in den Vertrag Preisgleitklauseln einfügte, welche die Endkosten auf 1.200 Millionen steigen liess. Vorstand Meysenburg grollte im Hintergrund, "dass der Sprung in den Investitionskosten alle Degressionshoffnungen überspielt hat". Aus seiner Sicht versprachen neue, noch grössere Kernkraftwerke keine Senkung der Stromkosten mehr.

Im Januar 1979 starb Professor Mandel im Alter von 59 Jahren. Am Misserfolg beim Mühlheim-Kärlich und dem Erfolg des 1.400-MWe-Kernkraftwerks Emsland war er nur noch partiell beteiligt. Noch zu nennen ist sein Engagement um die Brennstofffirma NUKEM, die RWE seit 1965 etwa zu einem Drittel gehörte. Typisch für die damalige "Sparsamkeit" der grossen Mutter in Essen ist die Tatsache, dass Nukem nur mit einem Startkapital von vier Millionen ausgestattet wurde und viel staatliches Geld aquirieren musste.  Daher kursierte damals der Witz, dass die Abkürzung NUKEM folgendes bedeute:

" Nur unter keiner Eigenbeteiligung möglich".

Freitag, 29. November 2013

Von Wassernot zu Wassersnot in Fukushima

Die gute Nachricht zuerst: Im Reaktor Nr. 4 des havarierten Atomkraftwerks Fukushima hat die Betreiberfirma TEPCO damit begonnen, die hochradioaktiven Brennelemente zu bergen. Sie befinden sich in einem Abklingbecken in 30 Metern Höhe, welches durch das Erdbeben vom März 2011 ziemlich in Mitleidenschaft gezogen wurde. Jedes weitere starke Beben - und damit muss man in Japan täglich rechnen - könnte das grosse Wasserbecken zum Absturz bringen, oder es zumindest leckschlagen, mit der Folge, dass die Brennelemente sich aufheizen, undicht werden und die gefährlichen Spaltgase Cäsium und Strontium freilassen.

Der Plan des Betreibers sieht vor, dass die 1.500 Brennelemente in CASTOR-ähnliche Abschirmbehälter gezogen werden, die man sodann zu einem sicheren Zwischenlager abtransportiert. In einem Jahr soll diese Prozedur beendet sein, was darauf hinausläuft, dass im Schnitt stündlich ein Brennelement vom Abklingbecken in die Transportbehälter gezogen werden muss. Ein ziemlich ambitionöses Unterfangen, denn man muss damit rechnen, dass manches Brennelement im Becken verklemmt ist und sich nicht so einfach (fernbedient) in den Castorbehälter bugsieren lässt. Immerhin, diese Aktion des Betreibers Tepco ist positiv zu bewerten und man sollte viel Glück dazu wünschen.


Die anfängliche Wassernot

Rekapituliert man den Störfallablauf bei den Kraftwerken Nr. 1 - 3 in Fukushima, so herrschte dort in den ersten Monaten Wassernot. Die Reaktoren hatten sich zwar automatisch abgeschaltet - was bei einem Beben der Stärke 9 nicht trivial ist - aber die Brennelemente im Tank produzierten immer noch Wärme, die sogenannte Nachwärme. (Verglichen mit einem Küchenherd, der noch Hitze abstrahlt, auch wenn der Ofen bereits elektrisch abgeschaltet ist). Diese Nachwärme, in ihrer Stärke vergleichbar mit ca. 10.000 handelsüblichen Tauchsiedern, wäre im Normalfall durch das Nachwärmeabfuhrsystem sicher beherrscht worden. Leider war dieses Notsystem in Fukushima durch die Fluten des Tsunamis zerstört worden. Deshalb sah sich die Betriebsmannschaft gezwungen, die drei Reaktoren - die Nr. 4 war von vornherein ausser Betrieb - aus Feuerwehrschläuchen mit kühlendem Meerwasser zu bespritzen, was in der Konsequenz dazu führte, dass diese aus Korrosionsgründen endgültig unbrauchbar wurden. Die partielle Kernschmelze, verbunden mit dem Austritt der radioaktiven Spaltprodukte Jod, Cäsium und Strontium, konnte trotzdem nicht verhindert werden. Auch strukturelle Schäden in den Beton- und Stahlstrukturen waren die Folge.


Die jetzige Wassersnot

Das eingespritzte Wasser wird durch die Berührung mit den Kernmaterialien selbst kontaminiert und muss deshalb wieder aufgefangen und abgesaugt werden. Ein spezielles Team nicht sonderlich kompetenter Arbeiter schweisst deshalb "auf die Schnelle" Stahlbehälter zusammen, worin dieses radioaktive Abflusswasser eingefüllt wird und die man in der Nähe der Reaktoren positioniert. Die Qualität dieser Wassertanks ist offensichtlich mangelhaft, denn nach eigenen Angaben der Fa. Tepco kommt es immer wieder zu Leckagen. Im August diesen Jahres ergoss sich ein Drittel eines 1.000-Kubikmeter-Tanks in den nahen Pazifik. Ein Aufschrei der lokalen Fischer war die Folge.

Inzwischen sind einige hundert Tanks in der Umgebung der Reaktoren aufgestellt; die grössten haben einen Durchmesser von 12 Meter und sind 11 Meter hoch. Im Jahr 2015 sollen es weit über 2.000 sein: Tepco ersäuft in diesem Wasser, es herrscht Wassersnot! Immer wieder stellen Kontrolltrupps fest, dass an Roststellen mancher Tanks kontaminiertes Wasser ausläuft, im Erdboden versickert und letztlich ins Meer gerät.



Wassersnot und Platznot in Fukushima

Statt nur passiv zu lagern, sollte man diese radioaktiven Wässer dekontaminieren, d. h. verfahrenstechnisch die schädlichen Nuklide abtrennen. Die Grundlagen dafür sind bekannt; schon im ehemaligen Kernforschungszentrum Karlsruhe hat man jahrelang mit Erfolg (kleine Mengen) von strahlenden Flüssigkeiten "dekontaminiert". In Fukushima bräuchte man für diese Prozedur sicherlich eine fabrikartige grosse Anlage. Warum die Japaner mit dem Bau einer solchen Anlage zögern, ist nicht bekannt.


Ring-Lösungen

Inzwischen nimmt die Wassersnot immer mehr überhand. Messungen haben ergeben, dass offensichtlich das Grundwasser unter den beschädigten Reaktoren nach oben drückt, mit den Brennmaterial in Kontakt kommt und dadurch kontaminiert wird. Auf diese Weise sind täglich etwa 400 Kubikmeter Abwasser abzupumpen und in den erwähnten Stahlbehältern zu lagern. Das kann keine Dauerlösung sein. Deshalb ist man auf die Idee gekommen, den Erdboden rings um die vier Reaktoren künstlich zu vereisen, damit das Grundwasser nicht mehr hindurchdringen kann. Kühlstäbe sollen in den Grund versenkt werden, wodurch quasi ein künstlicher Permafrost-Wall entstehen würde, der das Wasser abhalten soll. Das Ganze ist ein gigantisches Unternehmen, denn der Frost-Ring würde einen Umfang von 1,4 Kilometer haben müssen. Noch nirgendwo auf der Erde ist diese (Bergbau-) Methode in diesem Masstab angewendet worden.  Möglicherweise ist dieser Ring aus Permafrost aber gar nicht wirksam, wenn das Wasser nicht nur von der Seite, sondern auch von unten hochdrückt.

Nimmt man alles zusammen, dann wird immer deutlicher, dass der Betreiber Tepco - und die japanische Regierung - dem Wassersproblem nicht gewachsen ist. Dieses Thema wird die Öffentlichkeit über die Medien noch viele Jahre beunruhigen.

Mittwoch, 27. November 2013

Karrierebeschleuniger MBA?

Es gibt Menschen, die möchten sich mit ihrem, von den Eltern tradierten Namen, nicht zufrieden geben. Betrachten wir den Zeitgenossen Franz Meier, an dessen Namen eigentlich nichts auszusetzen ist. Trotzdem nimmt er ein 5- bis 8-jähriges Studium der Volkswirtschaft auf sich, um unter Dr. Franz Meier, bzw. noch ausführlicher unter Dr. rer. pol. Franz Meier firmieren zu dürfen. Aber damit nicht genug: neulich überreichte er mir mit erkennbarem Stolz seine neue Visitenkarte, auf der zu lesen stand: Dr. rer. pol. Franz Meier, MBA. Donnerwetter, jetzt ist der Franz, welcher im Gymnasium kaum auffiel, vorne und hinten mit akademischen Titeln eingemauert.


Teures Zusatzstudium

Es ist keine Bildungslücke, wenn man den Titel "MBA" noch nicht so richtig verorten kann. Bis vor kurzem war er in Deutschland weitgehend unbekannt - ganz im Gegensatz zu den USA, wo er bereits seit mehr als hundert Jahren verliehen wird, allerdings meist anstatt des Doktortitels. MBA heisst in Langschrift Master of Business Administration und ist eine Art Diplom in den Wirtschaftswissenschaften. Der MBA-Lehrplan umfasst alle relevanten Managementfunktionen, wie Mikro- und Makroökonomie, Finanzwirtschaft, Rechnungswesen, Marketing, Produktion, Logistik und Personalwesen. Da fragt man sich doch, was das MBA-Programm von einem gewöhnlichen Betriebs- oder Volkswirtschaftsstudium unterscheidet, das die gleichen Kerndisziplinen hat? Nun, das MBA ist ein Zusatzstudium, bei dem die Studenten auf Internationalität eingeschworen werden, Netzwerke aufbauen sollen und mit Fallstudien arbeiten.


Es geht voran

Das Studium dauert in Deutschland meist nur ein Jahr, in den USA sind zwei Jahre zu veranschlagen. Zuvor muss der MBA-Bewerber mindestens zwei bis drei Jahre in seinem Beruf gearbeitet haben. Ein strikter Auswahlprozess geht dem Studium voraus. Und es ist nicht billig. Eine MBA-Ausbildung an einer deutschen Top-Business School kostet mittlerweile mehrere 10.000 Euro. So muss man für den Mannheim Executive MBA beispielsweise knapp 50.000 Euro berappen, für den WHU Executive MBA (an der Otto Beisheim  School of Management) sogar 75.000 Euro. An amerikanischen Business Schools, z. B. in Harvard, kann es noch teurer werden.


Durchhaltevermögen gefragt

Mit dem MBA können sich auch Geisteswissenschaftler, Juristen oder Ingenieure betriebswirtschaftliche Expertise aneignen. Mehrere hundert Studienangebote wetteifern in Deutschland und es ist nicht leicht, sich auf diesem Markt zurecht zu finden. Es gibt Präsenzprogramme in Vollzeit und in Teilzeit, sogar Fernstudienlehrgänge in Online werden angeboten. Oftmals wird neben dem Beruf studiert, die dadurch entstehende Doppelbelastung ist nicht trivial. Von allen Schulen werden hervorragende Englischkenntnisse verlangt. Im Ranking der britischen Zeitung Financial Times liegen die angloamerikanischen und asiatischen Schulen vorn. Nur wenige deutsche findet man unter den ersten 50, so beispielsweise die Mannheim Business School.

Warum tun sich die Studenten dieses teure und zeitaufwendige Zusatzstudium an? Nun, die Schulen ködern sie alle mit den gleichen Versprechen: Karrierebeschleuniger, Türöffner, Aufstiegsgarantie, Gehaltszuwachs, Laufbahnsprung etc. etc.

Vielleicht auch nur ein Mythos.

Sonntag, 24. November 2013

Die INKA-Austellung in Stuttgart

Wer in diesen Tagen in der Stadt Stuttgart zu tun hat, der möge sich zwei oder drei Stunden Freizeit gönnen zum Besuch der dortigen INKA-Ausstellung im Lindenmuseum. Das Staatliche Museum für Völkerkunde bietet einen umfassenden Blick auf den ehemaligen Staat der Inka, einem südamerikanischen Imperium der Superlative. Es ist die grösste Ausstellung zu diesem Thema, die je in Europa arrangiert worden ist; sie wird noch über die kommenden Feiertage bis zum 16. März 2014 geöffnet sein.

Die Inka, ihr Leben und ihre Kultur haben seit jeher Rätsel aufgegeben und uns zugleich in ihren Bann gezogen. Dieses Volk kannte keine Schrift, kein Geld, kein Eisen, keine Pferde - nicht einmal das Rad. Und doch gründete es das grösste Reich der damaligen Zeit, welches sich - vergleichsweise - über eine Entfernung vom Nordkap nach Sizilien erstreckte. Es war perfekt organisiert und trotzdem gelang es dem spanischen Eindringling Francisco Pizarro mit wenigen Gefolgsleuten dieses Imperium in kurzer Zeit zu Fall zu bringen und nahezu auszulöschen. Ein Rätsel noch bis zum heutigen Tag!


Ein Imperium in den Anden

Geografisch gesehen, erstreckte sich das Reich der Inka über 5.000 Kilometer vom (heutigen) Kolumbien bis zum südlichen Chile. Es bestand im 15. und 16. Jahrhundert nach Christus aus etwa 200 ethnischen Gruppen, die in dem gebirgigen Land der Anden unter grössten klimatischen Gegensätzen zusammenlebten. Der politische Mittelpunkt des Reichs war das heutige Peru mit dem Titicacasee, welcher zu allen Zeiten eine wichtige Trinkwasserreserve bildete. Die Herkunft der Führungsschicht - die ebenfalls als Inka bezeichnet wurden - liegt weitgehend im mythischen Dunkel. Etwa um 1250 n. Chr. sollen sie die Herrschaft angetreten haben, aber nur die sechs letzten Inka-Führer von 1438 - 1633) sind namentlich bekannt. Der wichtigste König der Inka, Pachacutec (1438 - 1471), ist in der Ausstellung als Mumie in Fiberglass zu sehen.



Goldmaske eines Inka-Adeligen

Regiert wurde das Andenreich mit seinen 6 Millionen Bewohnern von der Stadt Cuzco aus, die im Mittelpunkt des langgestreckten Staatsgebiets auf 3.400 Meter Höhe liegt. Zur Zeit seiner Hochblüte bestand Cuzco aus gitterförmig angeorneten Gebäudekomplexen, die durch dicke Mauern mit einer Höhe von bis zu fünf Meter von der Aussenwelt abgetrennt waren. Diese Stadt war das Zentrum der Verwaltung und der Geistlichkeit sowie der Schnittpunkt aller Strassen im Reich. Vieles von der alten Inka-Architektur hat überlebt, deshalb wurde Cuzco 1983 von der UNESCO zum Weltkulturerbe ernannt.

Erst vier Jahrhunderte nach dem Einfall der Spanier wurde das Felsennest Machu Picchu von den US-Amerikaner Hiram Bingham entdeckt. Aufgrund von Radiokarbondatierungen weiss man, dass die Anlage um 1450 n. Chr. von dem genannten König Pachacutec erbaut wurde, um für sich und seine Edelsippe eine Vergnügungsareal zu schaffen. Die Ausgräber legten u. a. ein königliches Bad frei, eine Brauerei für Maisbier sowie ein Sternenobservatorium. Aus konservatorischen Gründen dürfen heute pro Tag maximal 2.500 Touristen diese Stätten besuchen.


Knotenschnüre zur Information

Die Inka benutzten keine Schrift im herkömmlichen Sinne, sondern entwickelten den qiupu, eine Knotenschnur. Ein qiupu besteht aus einer dicken Hauptschnur, an der dünnere Nebenschnüre hängen. Die verschiedenen Knotenarten stehen für unterschiedliche Zahleninformationen. Weitere Hinweis ergeben sich aus Dicke, Farbe, Material, Drehung etc. der herabhängenden Schnüre. Diese "Schrift" ist bis heute erst teilweise verstanden; viele Wissenschaftler beschäftigen sich noch damit. Die Verwalter des Inka-Reichs konnten ihre Berechnungen und Zuweisungen nur mit Hilfe der Knotenschnüre festhalten. Daneben gab es Stafettenläufer zur Übermittlung von Botschaften. Barfuss rannten sie los, mit Schneckenhörnern kündigten sie der nächsten Raststelle und dem nächsten Läufer ihre Ankunft an. So gelang es, Depeschen an einem Tag bis zu 400 Kilometer zu befördern.

Zusammengehalten und regiert wurde das Inka-reich durch eine ausgeklügelte Planwirtschaft. Das ganze Land war in tributpflichtige Einheiten aufgeteilt. Anstelle des Zehnten verlangten die Inka-Herrscher Arbeitsleistung als Tribut. Alle Bürger mussten für den Sohn der Sonne harte Fron leisten. Sie errichteten Wasserleitungen, bauten Tempel und beschäftigten sich mit Ackerbau der Zucht der Lama und Alpaka. Jeder noch so steile Hang wurde terrassiert und mit Bohnen, Tomaten und Avocados bepflanzt. Die Gartenbauern züchteten nicht weniger als 240 verschiedene Sorten von Kartoffeln. Das Land war von einem 40.000 Kilometer langen  Strassennetz durchzogen. Störende Felswände wurden durch Tunnels durchbrochen, Schluchten mit Hängebrücken überwunden.

Die Inka waren kein sonderlich friedfertiges Volk. Jeder neu antretende König musste das Land durch eigene Eroberungen erweitern. Kriegsdienst war wie andere Arbeitspflichten als "Steuer" für das Reich zu entrichten. Planten die Inka eine Eroberung, so forderten sie die Bewohner dieser Länder durch Botschafter auf, sich friedlich zu ergeben. Das gelang in vielen Fällen. Kam es zum Krieg, dann marschierten die Inka mit einem möglichst grossen Heer in das gegnerische Territorium ein und versuchten eine Entscheidungsschlacht zu erzwingen. Zuerst kamen die Steinschleudern zum Einsatz, dann suchte man den Nahkampf mit Palmschwertern. Siegten die Inka in der Schlacht - was häufig der Fall war - dann konnten die Gegner auf Milde hoffen, wenn sie sich schnell ergaben. Dabei verloren die Herrscher nie ihr Ziel aus den Augen: die Gewinnung neuer, produktiver Untertanen.


Die Spanische Eroberung

Im Jahr 1492 landete Christoph Kolumbus in Amerika. Ursprünglich wollte Spanien in der Neuen Welt friedliche Handelsniederlassungen gründen. Aus Geldmangel gab die spanische Krone aber bald die Eroberung Amerikas für "private Investoren" frei. Das Königshaus beanspruchte nur das eroberte Land für sich, sowie 20 Prozent der erbeuteten Edelmetalle. Bald war der amerikanische Kontinent von gierigen Desperados überschwemmt, die auf Schiffen angesegelt kamen.

Einer von ihnen war Francisco Pizarro, ein mutiger und willensstarker Mann. Er stammte aus der ärmlichen Extremadura in Westspanien und war Analphabet. Als Kind musste er Schweine hüten. Nach zwei vorsichtigen Erkundungsreisen, die er von Panama aus antrat, bracht ihn die dritte Reise im Jahr 1531 auf drei Schiffen vor die Küste Ecuadors. Dort ging er an Land und zog mit 180 schwerbewaffneten Spiessgesellen und 27 Pferden in Richtung Süden. In zwei Jahr hatte er das Land der Inka erobert! Wie war das möglich? Es erscheint fast so absurd, als würde der Kleinstaat Liechtenstein die USA angreifen und okkupieren.


Der Eroberer Francisco Pizarro

Nun, der Vergleich hinkt. Militärtechnisch lagen die Spanier weit vorn. Sie besassen Vorderladergewehre, Kanonen und Pferde, währen die Inka noch halb in der Steinzeit steckten mit ihren Steinschleudern und Schwertern aus gehärtetem Palmholz. Ausserdem fanden die spanischen Konquistatoren auf ihrem Marsch in den Süden viele indigene Verbündete wegen der inneren Zerrissenheit des Reiches. Ausschlaggebend war schliesslich, dass es Pizarro in einem kühnen Handstreich gelang, den König Atahualpa zu fangen und ein Jahr festzusetzen. Dadurch konnte er 6.000 Kilogramm Gold erpressen und 11.000 Kilogramm Silber, das aus den Tempeln stammte. Die Spanier schmolzen diese Edelmetalle umgehend ein, weswegen es heute kaum noch lithurgische Objekte aus der Zeit der Inka gibt. Inzwischen brachen bei der Inka-Bevölkerung Epidemien durch eingeschleppte Krankheiten, wie Pocken, aus, welche die Einheimischen um fast 90 Prozent dezimierten. Pizarro brach übrigens nach Erhalt des Tempelgoldes sein ursprüngliches Versprechen auf Freilassung des Königs. Stattdessen liess er Atahualpa durch die Garotte ersticken.

 In der nachfolgenden Kolonialzeit blieb Francisco Pizarro hochgeehrt. Heute rückt das politische Peru von ihm ab, was dadurch zum Ausdruck kommt, dass das gewaltige Reiterstandbild des Eroberers vom Regierungspalast in einen abseitigen Park verbannt wurde. Der Schädel von Pizarro liegt demgegenüber immer noch aufgebahrt in der Kathedrale der Hauptstadt Lima.

Die katholische Kirche steht immer noch unverbrüchlich zu ihrem furor domini.

Sonntag, 17. November 2013

Wer hat Angst vor Google Glass?

...vermutlich viele Menschen, wenn die Computerbrille erst einmal auf dem Markt ist. Google Glass ist eine Art Smartphone - aber fürs Gesicht zum Aufsetzen als Brille. Man kann damit fotografieren, filmen, telefonieren, navigieren und im Internet surfen. Aber im Unterschied zum Handy zeigt das Gerät die Informationen direkt im Blickfeld des Brillenträgers an. Droht uns mit der allgegenwärtigen Kamerabrille die Totalüberwachung des Alltags? Wird der naturbelassene Mensch ohne permanenten Datenanschluss zum Auslaufmodell?


Die Technologie ist bereits vorhanden

Google Glass ist keine Chimäre. Die Technik für diese Datenbrille gibt es bereits, die ersten Prototypen werden seit einem halben Jahr getestet. Die Markteinführung von Google Glass ist für das Frühjahr 2014 geplant.

Google Glass ist ein winziger tragbarer Computer, bestehend aus einer Recheneinheit (CPU), einem Arbeitsspeicher (RAM), einer nach vorne gerichteten Digitalkamera, einem Mikrofon, einem Knochenleitungs-Lautsprecher und weiteren Minikomponenten. Die Rechenleistung soll der eines Smartphones entsprechen, die Videotelefonie erledigt eine 5-Megapixel-Kamera. Diese Komponenten können auf jeder Art von Brille leicht befestigt werden. Der Minicomputer blendet die Informationen in das Sichtfeld des Trägers ein. Sie können kombiniert werden mit den Bildern der integrierten Digitalkamera. Dazu werden Daten unmittelbar aus dem Internet bezogen und anschliessend wieder ins Internet hochgeladen.


Die Datenbrille Google Glass

Die Bedienung der Brille geschieht durch eine leichte Kopfbewegung oder durch Sprechbefehle oder durch ein integriertes Touchpad. Die nötigen Bewegungen sind unauffällig und für Umstehende nicht erkennbar. Es ist sogar möglich, Photos per Augenzwinkern zu schiessen. Die Gesichtserkennung der Umstehenden soll nach Konzernangaben ausgeschlossen werden. Allerdings wurde bereits im Mai 2013 die erste Applikation zur Gesichtserkennung von Programmierern als möglich erachtet. Und Mark Zuckerberg von Facebook hat schon angekündigt, dass er eine Forschergruppe aufstellen wird, die solche Apps für Google Glass entwickeln wird.


Schöne neue Datenwelt

Das Projekt Google Glass stösst bereits vor der Markteinführung auf heftige Kritik der Datenschützer. Sie wehren sich gegen die Brille, weil sie in der Lage ist, unauffällig die Umgebung des Trägers auszuspähen und die Aufzeichnungen sofort auf konzerneigene Google-Server zu übertragen. Die Kombination der technischen Möglichkeiten des Geräts mit der Marktmacht der "Datenkrake" Google löst weltweit Bedenken aus. Das verdeckte Aufzeichnen von Bildern und Tönen im öffentlichen Raum und die automatische Übermittlung an die Speicher des Konzerns in den USA verstösst nach Ansicht vieler Experten gegen das Recht der informationellen Selbstbestimmung. Jeder Träger der Datenbrille übermittelt zudem seinen Standort über GPS und erlaubt so das Erstellen von Bewegungsprofilen. "Weder Orwell noch Hitchcock hätten sich in ihren fürchterlichsten Albträumen Google Glass ausdenken können", tönt es aus Richtung der Datenschützer.

Bedenkt man, dass es jetzt schon in den Grosstädten Hunderte von Überwachungskameras gibt, so könnten es in der Zukunft Hundertausende (zweibeinige) Ü-Kameras sein, die in die Gesichter der Menschen hineinfotografieren und diese Daten sofort online in die USA senden, wo sie möglicherweise - wie zur Zeit diskutiert wird - von NSA und PRISM bereits erwartet werden. Der Grundsatz vom "Recht auf das eigene Bild" ist damit obsolet geworden. Auch der Wirtschaftsspionage ist so Tür und Tor geöffnet.

Aber es droht noch Schlimmeres. Vor geraumer Zeit hat Google ein Patent erworben, das die Erfassung und Auswertung von Hintergrundgeräuschen ermöglicht. Damit erhält man einen "akustischen Fingerabdruck", aus dem entnommen werden kann, welche Personen sich in der Umgebung des Brillenträgers befunden haben. Kein Wunder, dass Russland den Kauf und die Nutzung von Google Glass verbieten will, da die Geräte nach russischer Auffassung zur "Spionagetechnologie" gehören. In den USA ist man da noch liberaler - nicht aber in Las Vegas.

Als eines der ersten Spielcasinos verbietet "Caesars Palace" das Tragen der Datenbrille Google Glass.

Sonntag, 10. November 2013

Die deutschen EVU mächtig unter Druck

Während die Politiker der Union und der SPD in Berlin Koalitionsverhandlungen führen, positionieren sich die Chefs der beiden grössten Energieversorgungsunternehmen (EVU) in den Medien zum Thema Energiewende. Johannes Teyssen von der Eon und Peter Terium von den RWE sind tief besorgt über die Auswirkungen des Atomausstiegs und die missglückte Energiewende. Unisono beklagen beide Vorstandsvorsitzende die schlimmen Folgewirkungen für ihre Konzerne: den Verlust des Börsenwerts, den Rückgang der Rendite und den Zwang zu heftigen Personalreduktionen. Im Folgenden werden die Argumente von Teyssen und Terium zusammengestellt. Man hat den Eindruck: die Hütte brennt!


Johannes Teyssen, Eon

Die öffentliche Unterstützung der sogenannten Energiewende geht bis tief in die Gesellschaft hinein. Viele Menschen nutzen die höchst lukrativen Anlagemöglichkeiten im Solar- und Windbereich. Das hat zur Folge, dass seit über zwei Jahren der reine Strompreis zurückgeht und die Gewinne schrumpfen. Der Preisanstieg für die Kunden resultiert aus Faktoren, welche die EVU nicht zu verantworten haben. Den grössten Teil des Endkundenpreises reichen sie lediglich an den Staat und die Netzbetreiber durch. Ausserdem absentieren sich die Kunden aus der energieintensiven Industrie, z. B. nach Amerika, wo der Strom nur die Hälfte und Gas sogar nur ein Drittel des hiesigen Niveaus kostet.



Johannes Teyssen (54),
seit drei Jahren Chef der Eon

Darüberhinaus fliehen immer mehr Kunden aus dem teuren öffentlichen System der Energieversorgung und -verteilung und produzieren ihren Strom für sich selbst. Man kann dies vergleichen mit der Schwarzbrennerei beim Alkohol. Sie machen das mit Photovoltaikanlagen, Windrädern oder kleineren Blockheizkraftwerken und geben den erzeugten Strom nur noch gelegentlich an das öffentliche Netz ab. Damit entgehen sie den Abgaben und Umlagen, die zur Finanzierung der Energiewende aber notwendig sind. In der Konsequenz bleiben immer weniger Akteure übrig, die für den Atomausstieg zahlen müssen. Die Politik hat diese Nebenwirkung ihrer Entscheidung nicht bedacht.

Die ganz normale Stromproduktion wird in diesem System nicht mehr honoriert. Kohlekraftwerke, hochmoderne Gaskraftwerke und selbst die Wasserkraft verdienen in Deutschland kein Geld mehr. Immer mehr dieser Kraftwerke müssen abgeschaltet werden, da sie unrentabel geworden sind. Aber wenn die Sonne nicht scheint und wenn kein Wind weht, sind sie notwendig - verdienen dann aber allenfalls ihre Kapitalkosten. Inzwischen wird 25 Prozent erneuerbare Energie erzeugt, wofür aber ein horrender Preis zu bezahlen ist; die übrigen 75 Prozent werden sträflich vernachlässigt. Der Bürger zahlt heute 140 Euro für den reinen Strom, aber 220 Euro für die Ökoumlagen. Da stimmt etwas nicht!

Auch der vielbeschworene "Blackout" ist nicht mehr fern. Dieses Jahr hatte Eon mehr als tausend Anweisungen des Netzregulators, Kraftwerke entgegen dem Markt rauf- oder runterzufahren, damit das Stromnetz stabil bleibt. Vor einigen Jahren waren das nicht einmal zehn. Das ganze Netz "vibriert", trotzdem entstehen weiterhin rücksichtslos Photovoltaikanlagen, für die es keine Stromleitungen gibt. Die Betreiber werden finanziell aber trotzdem entgolten.

In Zukunft sollte der Betreiber eines grossen Windparks nicht mehr sagen dürfen: "Ich weiss nicht wann ich Strom liefere und ob ich überhaupt liefere". Er muss im Gegenteil verpflichtet werden, Menge und Zeitpunkt der Stromlieferung zu garantieren. Das kann er, wenn er vertraglich ein Kraftwerk an sich bindet, welches einspringt, falls der Wind nicht weht. Auch die Preisgarantie muss entfallen. Wo bekommt man in einer Marktwirtschaft schon garantierte Preise? Und neue Erzeugungskapazitäten dürfen dort nicht entstehen, wo die Leitungen fehlen. Wenn das aber doch geschieht, dann hat der Investor das Risiko zu tragen. In den kommenden fünf bis zehn Jahren wird der Strompreis sicherlich weiter ansteigen. Denn die Zahlungsverpflichtungen aus dem Erneuerbare Energie Gesetz (EEG) reichen bekanntlich 20 Jahre in die Zukunft und belaufen sich auf jährlich 20 Milliarden Euro.


Peter Terium, RWE

Die deutschen EVU stecken in ihrer grössten Branchenkrise überhaupt. Bei RWE haben sich der Börsenwert und die Gewinne halbiert; im Kraftwerksbereich müssen vermutlich 2.500 Stellen abgebaut werden. Das hängt mit Ereignissen zusammen, die nicht erwartet werden konnten. Zuerst kam die Brennelementesteuer, dann die Katastrophe von Fukushima und schliesslich die Laufzeitverkürzung der Atomkraftwerke. Der Zuwachs an Solarenergieanlagen übertrifft alle Erwartungen und drängt die fossilen Kraftwerke immer mehr aus dem Markt. Auch die Politik wurde von diesen Ereignissen überrollt.


Peter Terium  (50), Holländer,
Vorstandsvorsitzender der RWE

RWE hat in den letzten Jahren 12 Milliarden Euro in neue Kraftwerke investiert und sich dafür hoch verschuldet. (Die meisten Investitionsentscheidungen lagen noch vor der Finanzkrise). Aber diese Kraftwerke stehen häufig still; 30 bis 40 Prozent der Anlagen schreiben Verluste und die Erträge reichen nicht aus um die Schulden zu bedienen. Eine gefährliche Situation für den Konzern! Bis zum Jahr 2016 müssen deshalb 3.100 MW ganz oder teilweise vom Netz genommen werden. Weitere 10.000 MW in Europa stehen unter kritischer Beobachtung. Davon unabhängig ist der Kernenergieausstieg, wofür allein bei RWE bis zum Jahr 2022 nochmals fast 4.000 MW abgeschaltet werden müssen. Wenn das wirtschaftliche Wachstum nach Europa zurückkehrt, dann werden diese Kraftwerke fehlen.

RWE hat 33 Milliarden Schulden und muss deshalb an allen Stellschrauben drehen. In der Erzeugungssparte, RWE Generation, soll mehr als die bereits avisierte halbe Milliarde pro Jahr gespart werden. Auch im Vertriebsgeschäft wird es Veränderungen geben, indem das europäische Geschäft stärker ausgebaut wird. Ausserdem wird sich RWE durch Verkäufe und durch Outsourcing verkleinern und zukünftig mit weniger Mitarbeiter auskommen.

RWE wird dezentraler und dienstleistungsorientierter werden. Ein Beispiel: Fünf Millionen Deutsche produzieren heute ihren Strom schon selbst. RWE kann den Zugang zum Grosshandelsmarkt herstellen und diesen Strom besser vermarkten. Damit könnte Dörfern, die sich mit Ökostrom versorgen wollen, Kraftwerke für Flautezeiten bereitgestellt werden. RWE könnte auch das Energiemanagement übernehmen.

Der Konzern wird am Braunkohle-Tagebau Garzweiler II festhalten, auch wenn mit Garzweiler und Hambach zwei grosse Braunkohlegebiete nebeneinander liegen. Schon aus volkswirtschaftlicher Sicht darf Braunkohle als einer der wenigen heimischen Energieträger nicht ausser Acht gelassen werden. Von der Politik wird erwartet, dass sie ein Strommarktmodell entwickelt und die Kraftwerke unterstützt, wenn sie bereitstehen, falls es weder Sonne noch Wind gibt. Das gilt vor allem für Kraftwerke, die mit Steinkohle und Gas befeuert werden.

Die Bundesregierung sollte ebenso die Förderung des Ökostroms reformieren. Geboten ist die Weiterentwicklung des Strommarktes - die Feuerwehr wird schliesslich auch für ihre Einsatzbereitschaft bezahlt und nicht nur für das Löschwasser. In ganz Europa wird es in den nächsten Jahren eine neue Phase von Übernahmen und Zusammmenschlüssen geben. Im Vergleich zu anderen Branchen ist die Energieindustrie immer noch sehr zersplittert. Diese betriebswirtschaftliche Wahrheit ist nicht zu übersehen.


Durchwachsener Ausblick

Bei den gegenwärtigen Koalitionsverhandlungen zwischen Union und SPD zeigt sich noch kein Ausweg aus der verfahrenen Energiesituation. Selbst innerhalb der Sozialdemokraten gibt es diametrale Meinungsunterschiede. So fordert der baden-württembergische Finanz- und Wirtschaftsminister Nils Schmid bei der Stromerzeugung weitgehendst auf Kohlekraftwerke zu verzichten. "Wir brauchen eine CO2-arme und klimaschonende Erneuerung des Kraftwerkparks" ist sein Petitum. Demgegenüber setzt sich Hannelore Kraft, die Ministerpräsidentin von Nordrhein-Westfalen, für die Nutzung der Braunkohle ein. "Das Ende der Kohleverstromung würde die ganze Region zurückwerfen", sagt Frau Kraft.

Verglichen mit der Sozial- oder Gesundheitspolitik ist die Energiepolitik ein undankbares Themenfeld. Dort kann man innerhalb einer Legislaturperiode sichtbare Erfolge erzielen; bei der Energiewende sind schnelle Fortschritte nicht möglich. Der Umbau der deutschen Stromversorgung wird wohl ein halbes Jahrhundert dauern. Wer immer in der neuen Koalition Energie- oder Umweltminister werden wird, er wird rasche Erfolge in den nächsten vier Jahren nicht herbeizaubern können.

Sonntag, 3. November 2013

In der Wolke

Die gegenwärtige Diskussion um die Sicherheit des Internets bis hin zum Abhören des Mobiltelefons der Bundeskanzlerin beherrscht alle Nachrichtenkanäle. Davon tangiert ist auch das sogenannte "Cloud-Computing", eine schnell wachsende Branche in der Internet-Technologie (IT). Die Idee dabei ist, dass IT-Ressourcen über das Internet oder das Intranet ("die Cloud") bereitgestellt und nach dem tatsächlichen Verbrauch abgerechnet werden. Wegen der (vermuteten) Kosteneffizienz sind besonders die Mittelständler an dieser Technologie interessiert.


Zur Geschichte der "Cloud"

Der Begriff Cloud Computing wurde massgeblich durch einige grosse Internetfirmen wie Amazon, Google und Yahooo geprägt. Diese Unternehmen standen aufgrund ihres schnellen Wachstums vor dem Problem, ständig Rechnersysteme vorhalten zu müssen, um für Spitzenzeiten ausreichend gerüstet zu sein. Bei Amazon war diese Spitzenlast im Jahr 2006 um den Faktor 10 höher als die Grundlast des Tagesgeschäfts. Um diesem Kostenproblem zu begegnen, entschied man sich, daraus ein Produkt zu machen. Software, Betriebssysteme, Rechner- und Speicherkapazität (Server) sowie die Netze wurden im Internet bereitgestellt und international den potentiellen Kunden angeboten. Diese konnten dann mit Rechner oder Smartphone auf diese Infrastruktur  ("die Wolke")  zugreifen um damit ihre Probleme zu lösen.

Infrastruktur in den Wolken 
 
 
Die Vorteile klingen überzeugend: die IT-Kosten werden gesenkt, eigene Grossrechner und Server werden überflüssig, ebenso wie teure Büro-Software und gigantische Datenbestände auf Festplatten. In einem Rechenzentrum liessen sich, nach Abschätzungen der Firma IBM, bis zu 80 Prozent der Fläche und 60 Prozent der Stromkosten durch das Cloud-Computing einsparen. Motto: "Warum eine Kuh kaufen, wenn man nur ein Glas Milch braucht". Man konnte die IT-Ausgaben endlich exakt nach den eigenen Anforderungen dosieren. Die Vorteile ergeben sich insbesondere bei stark schwankender Rechenleistung, wie sie beispielsweise in Logistikunternehmen anfallen. Aber auch renommierte Grossfirmen kündigten an, tausende von Personalcomputer-Arbeitsplätze in eine (gesicherte) Private Cloud zu verlagern, um Kosten zu sparen.

Demgegenüber kann eine Public Cloud von beliebigen Personen und Unternehmen genutzt werden. Bekannt ist das Karten-Tool Google Maps, mit dem sich Reiserouten berechnen lassen. Diese aufwendigen Rechenoperationen im Kontakt mit Satelliten laufen auf  den riesigen Server-Parks der Firma Google ab. Sämtliche Arbeiten erledigt eine fremde Hardware, die Berechnungen geschehen in der Wolke.  Die grössten Player im Markt sind die Technologiekonzerne Amazon, Google, Microsoft und Yahoo. Sie stellen die immensen Kapazitäten von Millionen von Netzwerkrechnern auch externen Nutzern - gegen Bezahlung - zur Verfügung.


Die Risiken machen Angst

Doch angesichts der gegenwärtigen Diskussionen um die gigantischen Datenspeicher in den USA beschleicht manches deutsche Unternehmen die "Höhenangst" beim Cloud-Computing. Sie fürchten bei der Auslagerung ihrer sensiblen Daten den damit einhergehenden Kontrollverlust. Mangelnde Datensicherheit und fehlende Garantien führen zu einem Vertrauensverlust bei dieser ansonsten vorteilhaften Technologie. Die Skepsis im Hinblick auf die Prozesskontrolle überwiegt bei vielen Nutzern.

Denn im Internet ist wenig geheim, die Garantien für Sicherheitsmassnahmen fallen zumeist "wolkig" aus. Haftung und Gewährleistung sowie der Schutz von Urheber- und Patentrechten bei Forschungsergebnissen sind noch nicht befriedigend gelöst. Jedes Unternehmen muss wissen: Wer seine Daten an Dritte auslagert, unterwirft sich deren Geschäftsbedingungen - und auch den Rechtsgrundlagen des jeweiligen Landes, in dem der Service-Anbieter seinen Sitz hat. Also im Regelfall der USA. Im Grunde geht es darum, dass man seine eigene, sensible Daten einem Dritten anvertraut und ihm die Rechenarbeit überlässt. Das Ganze könnte man treffend auch als "Careless Computing" bezeichnen.

Hinzu kommt, dass diese Daten auch für die US-Regierung per Gesetz viel leichter zugänglich sind, als die auf Computern gespeicherte Dokumente, wofür zur Ausspähung eine richterliche Anordnung vorliegen muss. Der strengere deutsche Datenschutz verliert in den globalen Wolken seine Wirkung.
Und, dass Facebook-Chef Mark Zuckerberg kein grosser Freund von Privatsphäre ist, sollte jeder wissen.

Beim Cloud-Computing hat man technisches Neuland betreten - mit dem Risiko, dass die Technik schneller voranschreitet als das Recht und die Juristen.

Sonntag, 27. Oktober 2013

Wirtschaftnobelpreise - anything goes

Mit den Nobelpreisen ist es so eine Sache. Der Eine wartet sein ganzes Leben (vergeblich) darauf, dem Anderen fällt er quasi in den Schoss. Der US-Präsident Barack Obama erhielt schon bei Amtsantritt im Jahr 2009 den Friedensnobelpreis; noch heute rätselt man, wofür er ihn eigentlich bekam. Demgegenüber wartet der amerikanische Schriftsteller Philip Roth seit Jahren sehnlichst auf den Preis für Literatur, den er für seine Romane Good bye, Columbus sowie Jedermann etc. etc. längst verdient hätte. Hoffen wir, dass er diese Auszeichnung noch erlebt; er ist immerhin bereits 80 Jahre alt. Selbst bei den Naturwissenschaftlern wundert man sich zuweilen über die Selektion des Stockholmer Komitees. So wurde der Physiker Albert Einstein nie für die Entdeckung der beiden universellen Relativitätstheorien ausgezeichnet, dafür aber für den vergleichsweise minoren Photoeffekt.

Seit 1969 werden Nobelpreise auch in dem Fach Wirtschaftswissenschaften verliehen. Nicht durch die Nobelstiftung ( Alfred Nobel hasste angeblich die Wirtschaftsleute) sondern durch die Schwedische Reichsbank - aber nach den gleichen Kriterien wie die übrigen Preise. Inzwischen gibt es 74 Preisträger in den Wirtschaftswissenschaften, davon sind 53 US-Amerikaner, fast ausschliesslich Professoren der Volkswirtschaft. Nur ein einziges Mal wurde ein Deutscher ausgezeichnet: der Professor - nomen est omen - Reinhard Selten erhielt den Preis 1994 zusammen mit zwei Engländern für seine "grundlegende Analyse des Gleichgewichts in nichtkooperativer Spieltheorie".


Der deutsche Nobelpreisträger 1994 Reinhard Selten, Universität Bonn

Universität Chicago contra Universität Yale

In diesem Jahr wurde der Nobelpreis für Wirtschaftswissenschaften wiederum zwischen drei US-Amerikanern gesplittet. Eigentlich nichts Besonderes - und doch eine Sensation. Zwei Ökonomen, Eugene Fama und Robert Shiller, erhielten den Preis, obwohl ihre wissenschaftlichen Erkenntnisse diametral entgegengesetzt sind. Der Dritte, Lars Peter Hansen, lief sozusagen ausser Konkurrenz; er wurde für seine statistische Methodik ausgezeichnet.

Fama von der Universität Chicago und Shiller von der Yale Universität in New Haven, Connecticut, beackern seit Jahrzehnten das gleiche Gebiet - nämlich die Finanzmärkte - und kommen dabei zu total unterschiedlichen Ergebnissen. Man häte verstanden, wenn die Schwedische Reichsbank einen von den beiden ausgezeichnet hätte; dass sie beide für preiswürdig hielt - noch dazu im gleichen Jahr - bedarf der Erläuterung.

Eugene Fama untersuchte seit 1960 in langen Zeitreihen die Aktienkurse der New Yorker Börse. Er wollte wissen, wie schnell der Kurs einer Aktie reagiert, wenn beispielsweise eine höhere Dividende angekündigt wird. Er kam zu der Erkenntnis, dass alle (verfügbaren) Informationen umgehend in die Kurse einfliessen, also "eingepreist" werden. Fama erfand dafür die "Theorie der effizienten Finanztmärkte", wonach die Aktienkurse rational alle Informationen widerspiegeln. Die Investoren erkennen, nach Fama, wenn er Kurs zu hoch ist und betreiben Arbitrage, d. h. sie verkaufen und nehmen die Gewinne mit. Folglich können sich auf den Aktienmärkten (wie auf anderen Finanzmärkten) keine "Blasen", also Übertreibungen ausbilden. Nach Professor Fama kann niemand besser sein als der Markt, was seitdem auch die Verkäufer von Indexfonds behaupten.


Der US-Preisträger 2013 Eugene Fama, Universität Chicago

Robert Shiller (dessen Frau übrigens Psychologin ist), traute dem Markt diese "Weisheit" nicht zu. Er griff auf die Erkenntnisse der Massenpsychologie und der Verhaltensökonomie zuück, wo Angst und Gier der Anleger eine grosse Rolle spielen. Seiner Meinung nach können sich sehr wohl Blasen auf den Märkten ausbilden, falls Investoren dem Herdentrieb folgen. Beim Platzen dieser Blasen kann es zu chaotischen Zuständen, sprich Finanzmarktkrisen, kommen. Shiller sagte aufgrund seiner Theorie u. a. das Platzen der Internetblase im Jahr 2001 und den preislichen Niedergang am amerikanischen Häusermarkt im Jahr 2007 voraus. Die Marktpreise werden nach Shillers Auffassung nicht nur von harten Informationen sondern auch von den Emotionen der Anleger bestimmt. Und wenn sich die Preise von den ökonomischen Fundamentaldaten abkoppeln, dann können durchaus Blasen - also Übertreibungen - entstehen. Zur Korrektur von Ungleichheiten, z. B. bei der Einkommensschere, empfiehlt Shiller die (automatische!) Progression der Steuersätze für Reiche. Eingriffe des Staates hält er für berechtigt und notwendig, so wie der britische Nationalökonom John Maynard Keynes dies bereits vor 80 Jahren für die Güterwirtschaft gefordert hat.


Der US-Preisträger 2013 Robert Shiller, Universität Yale

Gravierende politische Konsequenzen

Der Theorienstreit der beiden Ökonomen Fama und Shiller hatte enorme wirtschaftspolitische Konsequenzen während der vergangenen zwei Jahrzehnte. In den 1990er Jahren orientierte sich die amerikanische Wirtschaftspolitik vor allem an den Thesen von Fama, wonach der Markt immer effizient ist und zum Gleichgewicht tendiert. Etwaige Eingriffe des Staates wurden demgegenüber als bürokratisch, ineffizient und als nicht notwendig erachtet. Vor diesem theoretischen Hintergrund kam es in den 1990er Jahren zu der verhängnisvollen Deregulierung der Finanzmärkte unter Clinton und Bush sowie dem Chef der US-Notenbank (Fed) Alan Greenspan. Die Finanzmärkte wurden sich selbst überlassen und die Investmentbanken entwickelte sich zu "Zockerbuden", die später mit viel Staatsgeld gerettet werden mussten. Die Wissenschaftler hatten die sich anbahnende Finanzkrise in ihren Rechenmodellen einfach nicht erkannt und konnte deshalb die Politiker auch nicht davor warnen. Staat und Markt agierten, als wären sie zwei getrennte Sphären.

Greenspan, einst als "Magier der Märkte" bezeichnet, der die Fed 19 Jahre geleitet hat, gibt inzwischen offen zu, dass auch er die chaotischen Marktkrisen nicht vorausgesehen hat. In seinem Buch "The Map and the Territory" schreibt er wörtlich: "Es geht um die Triebe (animal spirits), die Menschen dazu bewegen, sich irrational dem Überschwang oder der Panik hinzugeben. Dieses Verhalten kann durchaus gemessen werden und ist ein wichtiger Teil der ökonomischen Vorhersage". Diese Aussage von Greenpan ist bemerkenswert; lange Zeit war er der Ansicht, dass die Menschen sich im Grunde rational verhalten und die Märkte sich deshalb selbst regulieren. Nun spricht er sich dafür aus, die Banken per Auflage zu zwingen, mehr Eigenkapital und Liquidität vorzuhalten um finanzielle Schieflage zu vermeiden. Ausserdem empfiehlt er die Schrumpfung grosser Banken, damit von ihnen keine Gefahr für die Stabilität des Finanzmarkts ausgeht.


Fazit

Shiller scheint der Sieger in diesem ökonomischen Wettstreits zu sein. Warum hat das Stockholmer Komitee dann aber auch einen (gleichhohen) Preis an den unterlegenen Fama verteilt? Nun, immerhin hat der Marktfan Fama in früheren Jahrzehnten einige Standards bzw. Benchmarks gesetzt, an denen sich sein Kontrahent Shiller erst einmal "abarbeiten" musste, um zu seiner Psychotheorie und Psychoökonomik zu gelangen. Miteinander vereinbar sind die beiden Finanzmarkttheorien nicht. Deshalb bemühte die britische Wirtschaftszeitung "Financial Times" auch einen interessanten Vergleich:

Die Entscheidung des Nobelkomitees ist so, als ob man Ptolemäus und Kopernikus zusammen den Preis gegeben habe - von denen der Eine die Erde für den Mittelpunkt des Universums hielt und der Andere die Sonne.



Sonntag, 20. Oktober 2013

Higgs - oder das Ende der Physik?

Oktober ist Erntezeit. Die Früchte der Natur werden eingesammelt und die Naturwissenschaftler (Physiker, Chemiker) blicken gespannt nach Stockholm, wo ihnen ein allmächtiges Komitee den Nobelpreis zuerkennt - oder auch nicht. Dieses Mal traf es im Fach Physik den Schotten Peter Higgs und den Belgier Francois Englert, beide im vorgerückten Alter von 84 bzw. 80 Jahren. Sie erhielten den Preis, weil sie 1964 ein winziges kernphysikalisches Teilchen vorhergesagt hatten, das nun endlich - nach 48 Jahren - im vergangenen Jahr am Beschleuniger LHC des Forschungszentrums CERN bei Genf auch wirklich gefunden wurde. Von den Medien wird es immer wieder als "Gottesteilchen" bezeichnet, die in Genf jahrelang werkelnden Physiker sprechen häufiger von dem "goddamn particle".


Der Elementbaukasten der Natur

Was ist so besonders an dem Kernteilchen der beiden Forscher Higgs und Englert, das allgemein unter der Bezeichnung "Higgs-Teilchen" bekannt ist?  Nun, es komplettiert den Baukasten der Natur auf eine besondere Weise. Die Physiker haben im Verlaufe des letzten Jahrhunderts herausgefunden, dass die uns umgebende Natur aus rund 60 kleinen und kleinsten Teilchen besteht, sowie aus vier Kräften. Dazu bastelten die Theoretiker eine schöne Theorie - das sogenannte Standardmodell - worin alles zueinander zu passen schien.

Bei näherer Betrachtung hatte das Modell allerdings zumindest einen Makel (auf weitere komme ich später noch): unser Universum hätte demnach kein Gewicht, beziehungsweise es wäre masselos, wie sich die Physiker auszudrücken pflegen. Dieses Defizit wollten Higgs und Genossen mit ihrem prophetisch vorhergesagten Kernteilchen, einem sogenannten Boson, vermeiden. Sie proklamierten: "Unser Teilchen, das letzte im Werkzeugkasten des Schöpfers, verleiht allen anderen Teilchen ihre Masse und macht damit den Weltraum mit seinen Galaxien und die Erde mit uns Menschen überhaupt erst möglich".

Ein hoher Anspruch, der erst einmal bewiesen werden musste. Bald machten sich allüberall die Experimentalphysiker ans Werk, um das Higgs-Boson nachzuweisen. Ohne Erfolg! Es wurde immer klarer, dass man für seine Aufdeckung einen riesigen Beschleuniger brauchen würde, mit dem man die astrophysikalische Situation kurz nach dem Urknall, also der Entstehung der Welt vor 13,8 Milliarden Jahren, simulieren konnte. Die Beschleunigermaschine entstand als "Large Hadron Collider" (LHC) über 20 Jahre hinweg am Forschungszentrum CERN unter finanzieller und personeller Beteiligung vieler Länder, darunter auch Deutschland.

Auf einer kreisförmigen, 27 Kilometer langen Rennstrecke und 100 Meter unter der Erde, wollte man Wasserstoffkerne in zwei Röhren gegenläufig auf (nahezu) Lichtgeschwindigkeit beschleunigen und dann aufeinander prallen lassen. Dabei ergibt sich, für den Bruchteil einer Milliardstel Sekunde, eine ähnliche Situation wie beim Urknall. Die Wasserstoffpartikel zersplittern bei der Kollision, die Trümmer werden in den haushohen Detektoren vermessen, wobei man -  bei etwas Glück -  in diesem Teilchenchaos auch einige Higgs-Bosonen festzustellen erhoffte. Nach vielen Fehlversuchen und geschlagenen 48 Jahren nach der Vorhersage der Theoretiker, gelang dies Mitte 2012 tatsächlich. Für eine Billionstel Sekunde blitzte das Gottesteilchen auf, Zeit genug, um es eindeutig zu identifizieren. Danach zerfiel es wieder. Welch ein enormer Aufwand für so ein winziges Teilchen! Einstein hatte  seine Nobelpreisentdeckung, den Photoeffekt, noch durch einen Aufbau auf einer kleinen Tischplatte demonstrieren können; Gleiches galt für die Entdeckungen von Conrad Röntgen und Otto Hahn. Der Beschleuniger LHC in Genf kostete, indes, 4 Milliarden Euro.


2 Nobelpreisträger, 7000 Kulis

Die Identifikation der Preisträger stellte das Nobelkomitee vor keine geringe Aufgabe. Die Idee für ein masseverleihendes Boson lag 1964 nämlich offensichtlich in der Luft. Nahezu zeitgleich wurden fast identische Vermutungen von mehreren theoretischen Physikern u. a. in der Zeitschrift Physical Review Letters veröffentlicht: nämlich (in alphabetischer Reihenfolge) von Philip Andersen, Robert Brout, Francois Englert, Gerald Guralnik, Carl Hagen, Peter Higgs, Tom Kibble und Gerard ´t Hoft. Warum Peter Higgs zum Namenspatron für dieses Teilchen avancierte, ist heute nicht mehr genau auszumachen. (Vielleicht wegen seines knitzen Namens?) Von den Genannten sind einige, wie Robert Brout, bereits verstorben und kamen deshalb aus Satzungsgründen für die Nobilitierung nicht in Frage. Um den dritten möglichen Namen (streng geheim, aber vermutlich CERN) wurde im Komitee buchstäblich bis zur letzten Minute gerungen, weshalb sich die Verkündigung der Preisträger um eine Stunde verschob. Schlussendlich blieb es bei Peter Higgs und Francois Englert, die sich das Preisgeld von 920.000 Euro teilen dürfen.


Die beiden Preisträger François Englert (links) und Peter Higgs

Leer gingen aus der Chef des CERN, der deutsche Physikprofessor Rolf-Dieter Heuer, die 70 Forscher des Karlsruher Instituts für Technologie (KIT), zumeist Doktoranden der Teilchenphysik und - weltweit - 7.000 Wissenschaftler, Ingenieure und Techniker am Projekt des Higgs-Bosons. Eigentlich hat das Higgs-Teilchen also 7.000 Entdecker. So ist es nicht verwunderlich, dass die Präsidentin der Deutschen Gesellschaft für Physik zwar die Entscheidung des Nobelkomitees begrüsste, aber gleichzeitig bemängelte, "dass es offenbar nicht möglich ist, die zahlreichen Forscher stärker zu würdigen, welche an der Entdeckung des Teilchens mitgewirkt haben".


Das Ende der Physik?

Seit einiger Zeit sind die Physiker mit ihrem Standardmodell nicht mehr zufrieden. Die Welt scheint komplizierter zu sein, als sie darin beschrieben ist - auch nach der Entdeckung des Higgs-Teilchens. Man bekrittelt, dass es in dieser früher als allumfassend geglaubten Theorie, doch einige bedeutsame Lücken geben muss. So kommt in ihr die Antimaterie nicht vor, obwohl sie beim Urknall in gleicher Menge entstanden sein muss. Bei den Kräften vermisst man die Gravitation, welche immerhin die Bewegungen der Himmelskörper im Universum regelt. Und - das ist besonders bedauerlich - gilt das Standardmodell gerade mal für fünf Prozent des Weltraums. nämlich nur für die sichtbare Materie. Die unsichtbare "Dunkle Materie", welche 25 Prozent der Masse im Universum ausmacht, wird durch die mathematischen Gleichungen und die bisher entdeckten Elementarteilchen im Standardmodell überhaupt nicht beschrieben. Für sie gibt es offensichtlich einen ganz anderen Elementbaukasten. Und dass es die Dunkle Materie wirklich gibt, sehen wir an unserer eigenen Galaxie, der Milchstrasse. Ihre rotierenden Spiralarme würden wegen der Fliehkraft abgerissen werden, wenn es den "Klebstoff" der Dunklen Materie nicht gäbe, wie man unschwer ausrechnen kann.

Aber damit sind wir mit den unerklärten Phänomenen noch nicht am Ende. Fast Dreiviertel des Weltalls ist angefüllt mit der "Dunklen Energie", von deren Struktur die Physiker praktisch überhaupt keine Ahnung haben. Sie wissen aber, dass es sie geben muss, denn sonst würde unser Kosmos längst wieder - wie ein empor geworfener Stein - wegen der Schwerkraft und der Massenanziehung der Himmelskörper (auf einen Punkt) zusammenkrachen. Stattdessen ist es genau umgekehrt: unser Universum dehnt sich mit ungeheurer Kraft kontinuierlich aus und das offensichtlich für "ewige Zeiten". Dafür wird eine enorme Energie benötigt, eben die Dunkle Energie.

Die Theoretiker haben sich dieser Probleme angenommen und einen zweiten Elementbaukasten postuliert: die supersymmetrischen Teilchen. Jedes Standardteilchen sollte als Pendant ein "Susy-Teilchen" besitzen, das Higgs-Teilchen beispielsweise ein Teilchen mit dem Namen "Higgsino". So verlangt es die sogenannte "Stringtheorie", mit welcher sich seit 40 Jahren die klügsten Köpfe im Reich der Physik beschäftigen. Leider bislang ohne durchschlagenden Erfolg. Keine ihrer Vorhersagen konnte bis jetzt experimentell bewiesen werden - auch nicht die Behauptung, dass es 10 hoch 500 parallele Universen in einem Super-Weltall gäbe. (Nur zur Veranschaulichung dieser gigantischen Zahl: unser eigenes Universum enthält etwa 10 hoch 80 Atome!) Die Idee der Multiversen ist für Laien immer wieder beeindruckend, leider lässt sie sich - nach Popper - nicht falsifizieren, was aber eine unbedingte Voraussetzung für seriöse Wissenschaft ist.

Seit Jahren heisst es deshalb: "Eine neue, viel leistungsstärkere Beschleunigergeneration muss her; damit wird man die Susy-Teilchen experimentell nachweisen können". Der "Superconducting Super Collider" sollte Anfang der 1990er Jahre in Texas gebaut werden. Nach einigen Jahren der Planung aber strich das US-Repräsentantenhaus die Gelder; der SSC war selbst den reichen Amerikanern zu teuer geworden. In Europa behilft man sich derzeit dadurch, dass man den LHC in CERN während der nächsten Jahre technisch aufrüstet. Seine Leistung und seine Luminosität (vergleichbar der Lichtstärke) soll so weit wie möglich angehoben werden. Ob uns dies zu den Elementarteilchen der Dunklen Materie und der Dunklen Energie führt, bleibt abzuwarten. Viele Physiker zweifeln daran.

Apropos Physiker: nicht wenige der Studenten beginnen die Lust an der Astrophysik zu verlieren. Es dauert lange bis man während des Studiums an dieses Fach herangeführt ist und nur die Besten schaffen es, darin kreativ zu sein. Und auch das nur im Team, als Einzelner hat man keine Chance. Wenn - nach einigen Jahrzehnten - die Zeit der Ernte kommt, dann werden (siehe oben) nur ganz Wenige belohnt. Die Allermeisten haben das Gefühl, als "ghost worker" anonym mitgeschafft zu haben, aber ohne einen persönlichen Ertrag einzufahren.

Als sich 1874 ein junger Mann namens Max Planck nach einem Studium umsah, erklärte ihm der renommierte Professor Philipp von Jolly: "Theoretische Physik ist zwar ein schönes Fach und man kann wohl in dem einen oder anderen Winkel noch ein Stäubchen auskehren, aber was prinzipiell Neues werden Sie nicht mehr finden". Nun, Max Planck wurde darin immerhin zum Entdecker der Quantenphysik und zum Nobelpreisträger.

Was würde ein Professor in einem vergleichbaren Fall einem Studenten wohl heute raten?



PS.: Das Land Österreich ist im Jahr 2011 übrigens aus den Konsortium CERN ausgetreten, dem es 50 Jahre angehörte. Nach Aussage des Forschungsministers war dem Land der jährliche Finanzbeitrag von 20 Millionen Euro zu hoch!












Montag, 14. Oktober 2013

In memoriam: Dr. Gerhard Brudermüller +

Heute wurde Dr. Gerhard ("Gerd") Brudermüller, Mitglied unseres Rotter Freundeskreises, auf dem Friedhof Karlsruhe-Hagsfeld zu Grabe getragen. Gerd liebte diesen Stammtisch auf der Rheininsel Rott, besuchte ihn regelmässig und genoss dort seinen Zander in Weinsosse bis kurz vor seinem Tode. Brudermüller hatte fast sein ganzes berufliches Leben der Kernenergie verschrieben und war dabei ausserordentlich erfolgreich. Da es heute nicht mehr en vogue ist, bei Trauerreden dieses Thema anzuschneiden, sei nachstehend kurz dargestellt, worauf die Verdienste des Verstorbenen um die Reaktortechnologie in Deutschland beruhen.

Zusammengefasst kann man folgendes feststellen: Dr. Brudermüller war im Verlaufe seiner ca. 40-jährigen beruflichen Karriere als technischer Chef für den  Betrieb von drei verschiedenen Kraftwerkstypen verantwortlich - nämlich für Kernkraftwerke, die mit Natrium, mit Schwerwasser und mit Leichtwasser gekühlt wurden. Ich kenne keine Person von seinem Rang, die sich in diesen drei sehr verschiedenen Feldern der Reaktortechnologie versucht hat und dabei ähnlich grosse Erfolge vorzuweisen hätte.

Gerd Brudermüller wurde im Schwäbischen als Jüngstes von drei Kindern geboren, studierte Physik und bekam seine erste Stelle im Kernforschungszentrum Karlsruhe, wo er bei Professor Beckurts Wirkungsquerschnitte an einem Beschleuniger zu messen hatte. Schon früh zog es ihn zur Reaktorphysik und er avancierte zum Projektleiter des Kernkraftwerks KNK I, welches mit Natrium gekühlt wurde. Dort legte er auch die Basis für die KNK II, einem Schnellen Brüter als Vorstufe für das grosse Brüterkraftwerk Kalkar SNR 300. Bald darauf wurde er zum technischen Geschäftsführer für die KNK-Kernkraftwerke berufen, wobei er grosse Verdienste um den sicheren Betrieb dieser heiklen Prototypanlagen hatte.

Der zweite Karriereschritt führte Brudermüller zum Mehrzweckforschungsreaktor MZFR, einem 50 MWe-Kernkraftwerk, das mit Schwerwasser gekühlt wurde. Auch hier war Gerd als technischer Betriebsdirektor sehr erfolgreich. Während des 20-jährigen Betriebs hatte der MZFR - als einziger deutscher Druckwasserreaktor! - keinen Dampferzeugerschaden und acht Jahre lang auch keinen einzigen Brennelementdefekt. Unter seiner Leitung wurde erstmals an einem Kernkraftwerk die nukleare Wärmeauskopplung zur Beheizung eines Forschungszentrums demonstriert.

Der dritte Schritt war seine Ernennung zum Chef des  Kernkraftwerks Obrigheim, einer 300 MWe-Anlage, die mit Leichtwasser gekühlt wurde. Daneben war Brudermüller auch für den Aufbau des Kerntechnischen Hilfszug verantwortlich, der grosse Erfolge beim Einsatz im zerstörten Kraftwerk Tschernobyl vorzuweisen hatte. In Summe hat Gerhard Brudermüller bei all diesen Stationen eine berufliche Lebensleistung vollbracht, die verschiedenartigste Anforderungen mit sich brachten und denen er immer gerecht wurde.

Gerd wurde 83 Jahre alt. Wir, seine Rotter Freunde, bedauern seinen unerwartet schnellen Tod und sind traurig, ihn nicht mehr unter uns zu haben.

Sterben heisst losslassen,
aber die Erinnerung an Dich, lieber Gerd, wird bleiben.


Willy Marth





Sonntag, 13. Oktober 2013

1813 - die Völkerschlacht bei Leipzig

Das Persönlichkeitsbild von Napoleon Bonaparte bleibt schwankend in der historischen Nachbetrachtung. Einerseits war er der Mann, welcher die Französische Revolution nach dem Terror von Robbespierre bändigte und gleichzeitig ihre Errungenschaften bewahrte. In den eroberten Landen hat er die Gleichheit vor dem Gesetz, die Freizügigkeit sowie die Gewerbefreiheit eingeführt und mit der Abschaffung der Leibeigenschaft die Vorrechte des Adels beschnitten. Die vergleichbaren Reformen von Stein und Hardenberg im besiegten Preussen wären ohne Napoleon nicht denkbar gewesen.

Andererseits war der selbstgekrönte Kaiser Napoleon besessen vom Kriegführen. Wo er war, war Krieg. Clausewitz nannte ihn einen "Kriegsgott".  Aber in Jahr 1812 wendete sich sein Kriegsglück. Beim gescheiterten Feldzug gegen Russland starben von den 600.000 Soldaten seiner Grande Armée - wovon nur die Hälfte Franzosen waren - etwa 400.000, weitere 100.000 gerieten in Gefangenschaft. Der Kaiser liess seine Truppen in Stich und floh zurück nach Paris. Jetzt war die Chance der deutschen und benachbarten Staaten gekommen, das Joch der Fremdherrschaft abzuschütteln.

Der Aufmarsch vor Leipzig

Den Anstoss dazu gab der preussische General Ludwig von York, der ein 20.000 Mann starkes Korps geführt hatte, mit dem sich Preussen am Russlandfeldzug beteiligen musste. Nach Napoleons schmählicher Flucht schloss er mit dem russischen General Johann Karl von Diebitsch in der berühmten Konvention von Tauroggen einen Separatfrieden mit Russland. Ausserdem drängte er seinen ewig unentschlosenen König Friedrich Wilhelm III am 16. März 1813 dazu, Frankreich den Krieg zu erklären. Das war möglicherweise etwas voreilig, denn Napoleon gelang es in Paris ein neues Heer aus dem Boden zu stampfen womit er im Mai die Restbestände der verbündeten preussischen und russischen Armeen bei Grossgörschen und Bautzen besiegen konnte. Allerdings unter grossen eigenen Verlusten, denn die Mehrzahl der französischen Soldaten war erst 18 oder 19 Jahre alt und dementsprechend nur flüchtig ausgebildet.

Aber der Funke der Freiheit war auf die deutschen und europäischen Staaten übergesprungen. Befeuert von Literaten wie Ernst Moritz Arndt und Friedrich Ludwig Jahn ("Turnvater") schlossen sich weitere Länder der preussisch-russischen Koalition an, insbesondere die Österreicher und Schweden sowie Verbände aus Württemberg und Bayern. Bei den Verbündeten stand die Hauptarmee (225.000 Österreicher, Russen und Preussen) im nördlichen Böhmen, die Schlesische Armee (105.000 Russen und Preussen) bei Breslau und die Nordarmee (125.000 Preussen, Russen und Schweden) bei Berlin. Napoleons Hauptkräfte befanden sich im besetzten Sachsen. Schon bald zeichnete sich ab, dass die Entscheidungsschlacht im Umkreis von Leipzig stattfinden würde.

Militärische Strategien

Napoleon führte seine Armeen immer höchstpersönlich. Er war ein genialer, aber auch despotisch-brutaler Feldherr. Die Gegner konnten den schnellen Bewegungen  seiner Armeen kaum folgen, weil der Franzosenkaiser mit einer alten Kriegsregel gebrochen hatte: er verzichtete darauf, Tross und Marketenderwagen mitzuführen, was die Beweglichkeit seiner Truppen stark eingeschränkt hätte. Stattdessen organisierte er die Verpflegung seiner Truppen dadurch, dass er die benötigten Güter und Lebensmittel in den Gebieten requirieren liess, die er durchschritt. Zwar erhielt die ansässige Bevölkerung dafür Papiergeld und Schuldscheine, aber wegen der raschen Inflation waren diese praktisch wertlos. Das französische Armeeversorgungssysten war also eine kaschierte Plünderung.

Gemäss dem Verpflegungsregulativ der französischen Armee durften Unteroffiziere und normale Soldaten folgendes erwarten: zum Frühstück Suppe, zum Mittagessen ein Dreiviertelpfund Fleisch mit Gemüse und abends nochmals Gemüse - neben einer täglichen Grundversorgung von eineinhalb Liter Bier und zwei Gläschen Branntwein. Dazu kamen täglich zwei Pfund Brot. Die persönlichen Gardetruppen (immerhin 30.000 Mann) erhielten die doppelte Ration. Kein Wunder, dass selbst in der damaligen "Grosstadt" Leipzig nach wenigen Tagen die Lebensmittel knapp wurden.

Die Waffengänge bei den Schlachten kann man sich kaum grausam genug vorstellen. Bei drohenden Angriffen der gegnerischen Kavallerie schlossen sich die Infanteristen zur klassischen Form des "Karrees" zusammen, einem meist aus drei hintereinander aufgestellten Reihen gebildeten Quaders, der mit aufgepflanzten Bajonetten verteidigt wurde. Um dieses Karree aufzubrechen mussten sich einzelne Kavalleristen opfern, indem sie ihre Pferde mitten in die waffenstarrende Masse der Infanteristen trieben. Erst danach konnten die nachfolgenden Kavalleristen ihre Hieb- und Stichwaffen einsetzen.

Zur Erhöhung der Durchschlagskraft der Heere in der Schlacht hatte sich die "Kolonnentaktik" durchgesetzt. In schmalen, aber tiefgestellten Verbänden boten die Angreifer ein weniger leicht zu treffendes Ziel für die gegnerischen Schützen. Fielen die vorderen Soldaten, so rückten sofort die hinteren nach. Dies war das probate Mittel der Infanterie, um feindliche Linien zu durchbrechen. Im Nahkampf wurden dann vor allem die Bajonette eingesetzt, weil das Nachladen der Gewehre viel zu lange gedauert hätte.

Die Schlacht um Leipzig

Am Morgen des 16. Oktober 1813 war die Stunde der Entscheidung gekommen. Die Verbündeten traten bei Leipzig mit 206.000 Soldaten auf, Napoleon verfügte im Schlachtengebiet über 191.000. Zu seiner Armee zählten noch 20.000 Soldaten aus dem Rheinland und sowie 11.000 Polen. Zur Überraschung Napoleons griffen die Alliierten schon bei Morgengrauen an und eroberten auch einige Dörfer, bis der Franzosenkaiser in einem heftigen Gegenstoss alles wieder in seinem Besitz nahm. Voreilig liess er in Leipzig schon die Siegesglocken läuten.

Zu früh, denn jetzt griffen die österreichischen Divisionen an und um 16 Uhr war Napoleon klar zurückgeschlagen. Besonders verdient machte sich dabei der russische General Eugen von Württemberg, der vor Wachau im mörderischen Feuer ausharrte. Eigentlich war damit für die Franzosen der Kampf bereits verloren. Es gelang ihnen nicht mehr im Süden die Linie der alliierten Hauptarmeen zu durchbrechen und im Norden wurde ihr bestes Korps zerschlagen. Insgesamt sind dabei 61.000 Soldaten gefallen bzw. wurden verwundet, davon 38.000 auf Seiten der Verbündeten und 23.00 auf Seiten der Franzosen.

In den folgenden zwei tagen wurde weiter gekämpft, aber Napoleon konnte sich nicht mehr auf seine Truppen verlassen. Starke Verbände der Rheinbundstaaten liefen zu den Verbündeten über, dazu ein ganzes Bataillon an Sachsen. Einen grossen Effekt erzielten die Raketenbatterie der Briten, die nur 200 Mann umfasste. Das Geheul und die Feuerschweife der anfliegenden Feuerwerkskörper versetzten die französischen Truppen in Panik, sodass sie zurückfluteten. Wer von einer solchen Rakete getroffen wurde, verbrannte bei lebendigem Leibe.

Am 19. Oktober, dem vierten Tag der Völkerschlacht, verliess der französische Kaiser die Stadt Leipzig und trat mit der Hauptmacht den Rückzug nach Westen an. 30.000 Soldaten liess er zurück, sie sollten die Absetzbewegungen seiner Armee sichern. Dabei passierte ein Fehler. Französische Pioniere sprengten voreilig die Elsterbrücke, womit tausenden von napoleonischen Soldaten der Rückzug abgeschnitten war, was den sicheren Tod bedeutete. Gegen 13 Uhr zogen die verbündeten Monarchen aus Preussen, Österreich und Russland in die Stadt Leipzig ein; die Kämpfe waren beendet. Der Blutzoll der Völkerschlacht war enorm: die Verluste der Verbündeten beliefen sich auf 54.000 Tote und Verwundete, Napoleon verlor 37.000 Tote bzw. Verwundete. Hinzu kam eine Vielzahl von Gefangenen, Überläufern und Versprengten.


Völkerschlachtdenkmal in Leipzig

Nach der Schlacht ist vor der Schlacht

Zum Jahresende überschritten die Armeen der Alliierten den Rhein und am 31. März 1814 zogen sie in Paris ein. Napoleon wurde auf die Insel Elba verbannt. Die Bourbonen errichteten den Königsthron neu, der Bruder des 1793 guillotinierten Ludwig XVI. stand als Nachfolger bereit. Doch schon 1815 kehrte Napoleon von Elba im Triumph zurück und riss wieder die Macht in Frankreich an sich. Es kam zur Schlacht bei Waterloo, worüber ich in zwei Jahren bloggen werde.

Versprochen!

Samstag, 28. September 2013

Die Klimaforscher sind ratlos

Dieses Wochenende war es wieder so weit: der Weltklimarat IPCC legte seinen Bericht auf den Tisch und versuchte damit die Menschheit aufzurütteln. Das letzte Mal ist ihm das im Jahr 2007 gelungen. Doch diesmal ist vieles anders. Seit 15 Jahren hat die Erderwärmung nicht mehr zugenommen - obwohl die Menschen mehr Kohlendioxid in die Atmosphäre geblasen haben als je zuvor. Dieser Stillstand der Temperaturen bringt die Klimaforscher (und die Klimapolitologen) in arge Erklärungsnöte. Wie bereits durchgesickert ist, kann der neue IPCC-Bericht dafür keine Gründe angeben: Die Klimaforscher sind ratlos!


Die natürlichen Einflüsse

Die Einflüsse auf das Klima - und damit auf die Temperatur an der Erdoberfläche - sind vielfältiger Natur. Die Wärme, welche sich (noch) nicht in einer Temperatursteigerung niederschlägt, könnte sich nach Ansicht der Fachleute in den Tiefen der Ozeane verbergen. Aber deren Modellierung ist schwierig, da man mathematisch die Turbulenzen des Wassers nicht in den Griff bekommt. Die Klimaexperten simulieren die Ozeane daher wie eine Art Senf, der lediglich hin und her wackelt, was natürlich grosse Auswirkungen auf die Rechengenauigkeit und die Ergebnisse hat.

Ein anderer Einflussfaktor ist die Vegetation, also der Bewuchs mit Pflanzen. Wenn man die Wechselwirkung der Fauna in die Klimamodelle einbaut, dann bekommt man automatisch mehr Freiheitsgrade, was nun wieder die Rechenunsicherheit erhöht. Durch mathematische Zufälligkeiten können sich dadurch Ausreisser nach oben oder unten ergeben.

Ein weiteres grosses Problem sind die Wolken. Ihr Einfluss auf die Erdtemperatur ist sehr komplex, weil sie sowohl kühlen als auch wärmen können. Schon bei zwei Prozent mehr Wolken ist der Einfluss auf die globale Mitteltemperatur erheblich.

Auch der Einfluss der industriellen Schwebstoffe, der Aerosole, muss bedacht werden. Sie ändern sich sowohl in der Quantität als auch in der Qualität ständig, weil sie u. a. vom Aufbau der Industrie (Asien!) abhängig sind. Selbst zum heutigen Zeitpunkt kann man beispielsweise noch nicht sagen, wie sich der Zusammenbruch der osteuropäischen Industrie nach 1989 auf die Temperaturen in der Ostsee ausgewirkt haben.

Schliesslich ist noch die Sonne zu erwähnen. Über ihren Einfluss auf die Erdtemperaturen wird trefflich spekuliert. Der SPD-Politiker und RWE-Aufsichtsrat Fritz Vahrenholt hat darüber ein dickes Buch geschrieben ("Die kalte Sonne) und wirft darin dem IPCC nichts weniger als Panikmache vor.


Die menschlichen Einflüsse

Zuweilen drängt sich der Eindruck auf, als seien die Klimaforscher zur Geisel ihres Anfangserfolgs geworden. Alle sechs Jahre legen sie neue Kompendien von über tausend Seiten auf den Tisch der Öffentlichkeit. Darin sind zehntausende von Veröffentlichungen eingearbeitet, mit denen sich tausende von Experten befasst haben. Gelesen werden von den Medienvertretern eigentlich nur die 20 bis 30 Seiten Zusammenfassung, das Executive Summary. Diese wird vorher von den 195 Regierungsvertretern peinlichst genau durchgefilzt und anschliessend "freigegeben".

Und damit fängt die Malaise schon an. Wer von diesen Leuten ist eigentlich kompetent und neutral? Welche Fremdeinflüsse gibt es während dieser Redaktionssitzungen auf den wissenschaftlichen Gehalt des Urtextes? Nicht einmal eine Mitschrift dieser Verhandlungen in Stockholm soll es geben. So gibt der Grüne Politiker  Ott ganz unumwunden zu: "Die Klimapolitik benötigt das Element der Furcht, sonst würde sich kein Politiker mehr dieses Themas annehmen". Damit verwundert es auch nicht, dass sich mancher Forscher bei seiner Arbeit im IPCC fühlt "wie ein Sandwich zwischen Wissenschaft und Politik". Und dann gibt es noch die Alarmisten und Gurus, die jeden Sommer in Deutschland - sei er heiss, kalt oder nass - als direkten Beweis für die Richtigkeit des jeweiligen IPCC-Berichts hinausposaunen. Der Indien-stämmige Mojib Latif sei dafür als Beispiel genannt.


Quo vadis, IPCC?

Nicht wenige glauben, dass es der Klimaforschung ähnlich ergehen könnte wie vor einigen Jahren der Waldforschung. Auch hier wurden wilde Horrorszenarien aufgestellt, einschneidende Forderungen abgeleitet und am Ende war (fast) gar nichts. Der Klimarat sollte sich ernsthaft überlegen, ob es weiterhin notwendig ist, alle sechs Jahre einen tausendseitigen Wälzer auf den Tisch zu legen, der im wesentlichen nur eine marginale Fortschreibung früherer Berichte ist. So beinhaltet der gegenwärtige Bericht als Novität nur die Vermutung, dass das Wasser an den Küsten in Zukunft zwischen 29 und 82 Zentimeter höher sein könnte. Aber erst am Ende dieses Jahrhunderts! Und welche Konsequenz zieht die Generalsekretärin der UN-Klimakonvention, Frau Christiana Figueres, aus dem neuen Bericht? Sie tönt: Der Klimawandel schreitet derzeit schneller und stärker voran als erwartet.

Das klingt alles nicht nach seriöser Wissenschaft. Schliesslich hat man noch immer im Gedächtnis, dass der engere Zirkel des IPCC seit der Veröffentlichung vieler interner Emails und Skandale im Verdacht steht, Alarmismus zu betreiben und beschwichtigende Wissenschaftler mundtot zu machen. Deshalb sollte man ernsthaft an eine Umstrukturierung des IPCC denken. Personelle Verkrustungen sollten aufgebrochen werden, vielleicht sollte man auch die enge Bindung an die UN lösen und die seit Jahrzehnten aufgebaute Monsterbürokratie zerschlagen.

Schliesslich sollte man einsehen, dass es nicht möglich ist, ein so superkomplexes System wie Erde-Atmosphäre-Sonne mathematisch abzubilden oder zu simulieren. Stattdessen sollte man sich kleinere regionale Systeme und ihre - experimentelle - Exploration vornehmen, wie das schon beispielhaft in Jülich und Geesthacht geschieht.







Donnerstag, 26. September 2013

Feiglinge

Bei der Bundestagswahl am vergangenen Sonntag hat die CDU/CSU einen grossen Erfolg eingefahren. Mit über vierzig Prozent der Wählerstimmen ist sie wieder zur Volkspartei aufgestiegen. Eine kurze Zeit durfte sie sogar an der absoluten Mehrheit schnuppern, aber zum Schluss fehlten ihr fünf Abgeordnetenmandate. Damit fängt die Malaise an: die Union braucht einen Koalitionspartner!


Angst vor der Koalition

Sieht man von den Linken ab, die wegen ihrer Verteidigungs- und Aussenpolitik nicht koalitionsfähig sind, so kommen für eine Regierungskoalition nur die Grünen oder die Sozialdemokraten infrage. Beide sträuben sich wie die Katze im Sack, das wurde schon am Wahlabend erkennbar, besonders aber am Montag bei Plassbergs TV-Sendung "Hart aber fair". Karl Lauterbach von der SPD und Bärbel Höhn von den Grünen wischten das "Ansinnen", mit der Union in einer Koalition zu wirken, brüsk vom Tisch. Allen Ernstes empfahlen sie stattdessen dem CDU-Vertreter Peter Altmaier eine Minderheitsregierung, die vor den Parlamentsabstimmungen sich jeweils bei der Opposition um wechselnde Mehrheiten bemühen möge.

Schlimmer geht's nimmer. Während man bei den Grünen noch etwas Verständnis für ihr Zögern aufbringen kann, weil praktisch ihre ganze Parteispitze wegen Rücktritts verloren ging, gilt dies nicht für die Sozialdemokraten. "Opposition ist Mist", dieses Bonmot ihres früheren Vorsitzenden Franz Müntefering ist noch in aller Ohr, aber jetzt lösen die Lockrufe der Bundeskanzlerin zum Eintritt in die Regierung bei der SPD panische Fluchtbewegungen aus. Lauterbach und seine Kollegen im ehemaligen Kompetenzteam erinnern an die vier Jahre Grosse Koalition von 2005 bis 2009 unter Merkel. Angeblich hätten sie damals im Maschinenraum der Politik geschuftet, während die Union sich auf dem Oberdeck sonnte. Und noch eine Metapher aus dem Tierreich kommt immer wieder: die Bundeskanzlerin Merkel sei vergleichbar mit der Schwarzen Witwe, einer Spinnenart, die all ihr Partner aussauge und umbringe. Nein, das zeugt nicht von Selbstbewusstsein und Verantwortungsgefühl, sondern allenfalls von pathologischen Minderwertigkeitskomplexen.


Die Prioritäten

Umfragen zufolge wollen zwei Drittel der Deutschen eine Grosse Koalition, die Sozialdemokraten sollten deshalb nicht zu lange zögern. Auch die Europäer wollen nicht mehr ewig zusehen, bis sich die Deutschen endlich sortiert haben. Die grossen Parteien müssen schliesslich zu Potte kommen und Deutschland sollte die ihm zugewachsene wirtschaftliche Führungsrolle annehmen und die aufgestauten Probleme lösen helfen. Die Bundeskanzlerin hat es bei dem TV-Duell mit Peer Steinbrück vor einem Monat auf den Punkt gebracht:

"Zuerst kommen die Interessen des Landes,
dann die Interessen der Partei
und zum Schluss die Interessen des Einzelnen".

Freitag, 20. September 2013

KIT - Keine Vertragsverlängerung für Dr. Fritz

Noch ist es nicht offiziell verkündet, aber längst pfeifen es die Spatzen vom Dach: der Vizepräsident des Karlsruher Institut für Technologie (KIT), Dr. Peter Fritz, erhält keine Vertragsverlängerung sondern wird zum 1. Oktober 2013 seinen Posten verlassen. Der Aufsichtsrat des KIT hat in seiner letzten Sitzung im Juli d. J. beschlossen, das Ressort "Forschung und Innovation" vorläufig nicht zu besetzen, nachdem es vorher monatelang ausgeschrieben war und  Fritz sich um diesen Präsidialbereich bewarb, den er seit Jahren inne hatte.



Dr. Peter Fritz

Im ehemaligen Kernforschungszentrum (jetzt: KIT Campus Nord) wird heftig darüber spekuliert, was Fritz seinen Job als Vizepräsident des KIT gekostet haben mag. Sicherlich passte er als ausgewiesener Kerntechniker, langjähriger Vorsitzender der Kerntechnischen Gesellschaft und Vizepräsident des Deutschen Atomforums nicht mehr in das personelle Portfolio der rot-grünen Landesregierung. Hinzu kommt, dass es Fritz nicht gelang, sich im KIT-Uni-Bereich zu profilieren, sondern, dass ihm dort eher der Ruf eines Kerntechnikers der alten Schule anhaftete.

Mehr als eine Ungeschicklichkeit war es, dass Dr. Fritz im letzten Jahr (auf Anregung der IHK) im KIT eine 200-Seiten-Studie anfertigen liess, worin der Energieausstieg sehr negativ bewertet wurde. Als der grüne Landesminister Franz Untersteller davon erfuhr, war er stocksauer und verstieg sich zu dem Satz: Das Orakel von Delphi ist im Vergleich zu diesem Papier eine hochseriöse Veranstaltung.
Für das KIT war die Verstimmung des Ministers durchaus ernst zu nehmen, ist Untersteller doch für die Genehmigungen zuständig und (mittelbar) auch für die Finanzierung dieser Grossorganisation.

Ein weiterer Grund für die Entlassung von Fritz mag darin zu sehen sein, dass die KIT-Aufsichtsräte ihre Enttäuschung über den Verlust des Elite-Titels im Sommer letzten Jahres noch nicht verwunden haben. Nachdem der clevere damalige KIT-Chef Horst Hippler vor der Bestrafung noch rechtzeitig den Absprung zur Hochschulrektorenkonferenz schaffte, wurde nun Fritz als Leiter für Forschung und Innovation (mit Umbach) sanktioniert, weil er an dem Desaster wohl nicht ganz schuldlos sein konnte.

Peter Fritz ist 61 Jahre alt, sechs weitere Jahre bei KIT hätten ihn zum offiziellen Rentenalter gebracht, das einstmals von Franz Müntefering mit 67 dekretiert wurde. Ob wir Dr. Fritz nochmals in einer vergleichbaren Linienfunktion (etwa bei AREVA) sehen werden? Wer weiss es.

Sicherlich wird er nicht der Sozialhilfe zur Last fallen.

Donnerstag, 19. September 2013

Die WAK in rauer See

In der Geschäftsführung der WAK GmbH müssen Experten des Segelsports sitzen. Denn nicht anders ist es zu erklären, dass sie für die Schieflage ihres Unternehmens Metaphern aus dem nautischen Bereich heranziehen. "Das Schiff der WAK ist in raue See geraten", heissst es da in der Betriebszeitschrift. Und: "Die Windrichtung können wir nicht bestimmen, aber die Segel richtig stellen". Erstaunlich, wie schnell diese vormals badische Firma, nach der Übernahme durch die pommersche EWN, den Slang des Greifswalder Bodden angenommen hat.


Knappe Kassen zwingen zur Notbremsung

Der Grund, weshalb "das träge Schiff WAK" sich "in schwerem Wetter" befindet, ist schnell gesagt: die Geschäftsleitung hat beim Rückbau der WAK mehr Aufgaben auf die Hörner genommen, als sie finanzieren konnte. Ihre eigene mittelfristige Finanzplanung hat sie um satte 10 Prozent überschritten - in der schlitzohrigen Erwartung - dass ihnen die Geldgeber bei Bund und Land diesen Zuschlag schon konzedieren würden. Das haben die zuständigen Politiker und Beamte aber nicht getan, sondern sie haben verlangt, dass die WAK GmbH, bitteschön, ihre eigene frühere Finanzplanung einhalten möge.

Nun knirscht es allenthalben und die Geschäftsführung musste die Reissleine ziehen. In diesen Tagen werden die Rückbauarbeiten im Prozessgebäude, dem grössten Trakt der WAK, komplett eingestellt. Die Verträge mit Fremdfirmen, wie Studsvik, wurden bereits gekündigt, wobei es auch trainierte Arbeiter trifft, die bereits seit 30 Jahren in der WAK tätig sind. In Schnitt haben im Prozessgebäude seit 2007 mehr als 50 Personen gearbeitet, die für den Abriss der Betonstrukturen und die Beseitigung der eingedrungenen Aktivität beschäftigt waren. Das eigene Personal der WAK soll sich in Zukunft temporär stärker in diese Abrissarbeiten einschalten, aber das Interesse für einen Wechsel von den gegenwärtigen Bürojobs zu Arbeiten im Vollschutzanzug hält sich in Grenzen.

Der Bestand an über 500 Mann Eigenpersonal, die i. w. administrative, planerische und infrastrukturelle Arbeiten erledigen, wird von manchem Geldgeber zuweilen als etwas "üppig" angesehen. Hinzu kommt, dass im vergangenen Jahr sogar noch eine weitere Hauptabteilung für Technische Dienste und Services installiert wurde, die sich ihrerseits auf vier Abteilungsleiter abstützen kann, wovon zwei promovierte Vollakademiker sind. Auch bei der Hauptabteilung Dekontaminationsbetriebe (HDB) wurde die Anzahl der Stäbe kürzlich von zwei auf drei erhöht. Als Gipfel mag man ansehen, dass derzeit ein neues Verwaltungsgebäude für 5,13 Millionen Euro errichtet wird, das über drei Geschosse Platz für 100 Mitarbeiter bieten wir. Das bisherige Verwaltungsgebäude im WAK-Bereich (auch keine Hartz-IV-Unterkunft) soll erhalten bleiben. Für Investitionen dieser Art kursiert in der WAK der griffige Slogan: "Rückbau ist Neubau




                                           
                                           Neues Verwaltungsgebäude der WAK (im Bau)



Zwischenläger händeringend gesucht

Ein schwieriges, gleichwohl drängendes Problem ist die Zwischenlagerung der abgebauten und konditionierten radioaktiven Materialien. Seit einiger Zeit ist bekannt, dass die derzeitigen Läger dafür nicht ausreichen. Das Zwischenlager für schwachradioaktive Abfälle (LAW) ist bereits zu 80 Prozent, das für mittelradioaktive Abfälle (MAW) nahezu vollständig belegt. Da der Einlagerungsbeginn im Endlager Konrad sich mehrmals verzögert hat, sind keine Auslagerungen aus Karlsruhe nach Niedersachsen möglich. Der Rückbau der WAK und der Reaktoren MZFR und KNK macht aber nur Sinn, wenn das Demontagegut konditioniert und sicher zwischengelagert werden kann. Ist diese Voraussetzung in den nächsten drei Jahren nicht gegeben, so müssen die Rückbauprojekte gedrosselt oder gar ganz eingestellt werden.

Es ist geplant, die Lagerkapazität für den LAW um ein Viertel und für den MAW auf das Doppelte zu erweitern. In beiden Fällen ist noch kein atomrechtlicher Genehmigungsantrag gestellt. Die Zeit wird also knapp, wenn in drei Jahren diese beiden Läger stehen sollen. Die Umlandgemeinden, insbesondere Linkenheim-Hochstetten, reagieren recht negativ auf diese Pläne. Der dortige Bürgermeister Günther Johs, ein strammer Atomgegner, hat bereits eine juristische Normenkontrollklage angekündigt. Verärgert ist er über die weiteren sich abzeichnenden Verzögerungen beim Abriss der WAK bis zur Grünen Wiese, will er doch auf diesem Baugrund ein "Konferenz- und Tagungshotel" hochziehen. Nicht wenige halten das für eine "Verhinderungsplanung", was den temperamentvollen Schultes aber nicht anficht.


An die Gewehre

Wer hat sich nicht schon über gurrende und kackende Tauben in seinem Umfeld geärgert? So erging es wohl auch einem Gabelstaplerfahrer bei der HDB, der darüber nachdachte, wie er die Tauben "vergrämen" konnte, die laufend seine Container im Dekontaminationsbereich verschmutzten. Die üblichen Mittel wie Händeklatschen halfen nicht bzw. nur temporär und so kam er auf eine unglückselige Idee: er entnahm seinem heimischen Arsenal zwei Luftdruckgewehre und eine Luftdruckpistole samt Munition und schmuggelte sie in den HDB-Bereich. Noch bevor er sich - in Anlehnung an den österreichischen Comedian Qualtinger - an die Ausrottung dieser niedlichen aber nervigen Tiere machen konnte, wurde seine Waffen entdeckt und kurze Zeit darauf auch der Eigentümer.

Die Kriminalpolizei machte einen ziemlichen Bohai, die Medien schrieben darüber -
und der Gabelstaplerfahrer ward fortan nicht mehr bei der HDB gesehen.