Donnerstag, 27. Dezember 2012

Posts 2012


Hi friends,

für das anbrechende Jahr 2013 wünsche ich euch alles Gute, insbesondere Gesundheit und Zufriedenheit.
Nachfolgend die Liste der Themen welche mich im laufenden Jahr zu Posts angeregt haben.
Anklicken genügt.

Mit besten Grüssen
Euer Willy Marth, Blogger zu Karlsruhe



Sonntag, 9. Dezember 2012

Die lange (und teuere) Geschichte der Karlsruher Wiederaufarbeitungsanlage WAK

Vor rd. 50 Jahren, zu Anfang der sechziger Jahre, wurden in der Bundesrepublik Deutschland die ersten Atomreaktoren und Kernkraftwerke von den Reaktorbaufirmen AEG, Siemens und Interatom errichtet. Beispielhaft genannt seien Projekte wie das Versuchsatomkraftwerk Kahl VAK, der Mehrzweckforschungsreaktor MZFR und das Nuklearschiff Otto Hahn. Die Etablierung des Brennstoffkreislaufs hatte sich die chemische Industrie vorbehalten. Darin spielten zwei Firmen die bestimmende Rolle: die Farbwerke Hoechst und die Degussa. Die Verarbeitung des Urankonzentrats bis zum Brennelement lag in den Händen von Degussa, wofür sie am Stadtrand von Hanau umfangreiche Anlagen errichteten. Die Wiederaufarbeitung der bestrahlten Brennelemente dirigierten die Farbwerke Hoechst bei Frankfurt unter ihrem charismatischen Vorstandsvorsitzenden Professor Dr. Karl Winnacker.


Die Errichtung und der Betrieb der WAK

Kennzeichnend für den grossen Einfluss der Farbwerke Hoechst war das oftmals zu hörende Bonmot, nukleare Entscheidungen würden auf "Hoechster Ebene" getroffen. Dafür zuständig war das "Hoechster Dreieck", bestehend aus den Professoren Winnacker, Wengler und Küchler. Als es zur Festlegung des verfahrenstechnischen Konzepts für die Wiederaufarbeitung kam, favorisierten einige Chemiker im damaligen Kernforschungszentrum Karlsruhe die neuartigen Halogenid- bzw. pyrometallurgischen Methoden. Aber Winnacker und seinen Mannen war das zu riskant. Er drückte das wohlbekannte wässerige PUREX-Verfahren durch, welches bereits bei vergleichbaren Anlagen in den USA, England und Frankreich angewandt worden war. So wurde die WiederaufarbeitungsAnlage Karlsruhe - genannt WAK - insgeheim als "Winnackers Alte Klamotte" ironisiert, was diesen jedoch nicht anfocht.

Ohne weitere staatliche Einflussnahmen des noch jungen Bonner Atomministeriums liess Winnacker durch die Chemieverfahrensfirmen Leybold, Lurgi und Uhde einen ausschreibungsreifen Entwurf für die WAK erstellen, der im Sommer 1964 vorlag. Die Errichtungskosten, einschliesslich der Bauherrenleistungen, wurden zu 60 Millionen D-Mark abgeschätzt, für die Errichtungszeit veranschlagte man 4 Jahre. Nach einer Genehmigungsprozedur von 17 Monaten - was damals noch als exzessiv angesehen wurde - konnten die Bauarbeiten Anfang 1967 beginnen. Gut vier Jahre später, im August 1971, war die WAK fertiggestellt. Die avisierten Baukosten waren eingehalten worden.

Bei der Begleichung der Errichtungskosten zeigte sich Winnacker von seiner generösen Seite. Er überliess der Bundesregierung den Vortritt bei der Bezahlung der Rechnungen; von Hoechst kam kein Beitrag zur Kostendeckung. Darüberhinaus konnte die chemische Industrie sogar erreichen, dass die von ihr für den Betrieb gegründete Betreibergesellschaft GWK (zum allergrössten Teil) aus Staatsmitteln finanziert wurde. Das Bundesatomministerium bediente sich dabei der Trägergesellschaft GfK-Versuchsanlagen.

Die technische Kapazität der WAK entsprach 175 Kilogramm Uran pro Tag, wobei man mit 200 Betriebstagen pro Jahr rechnete. Bis zu ihrer endgültigen Abschaltung im Jahr 1990 wurden an der WAK 207 Tonnen Uranbrennstoff aufgearbeitet. Damit war der angepeilte Jahresdurchsatz von 35 Tonnen doch beträchtlich unterschritten, wenn man die 23 Betriebsjahre zugrunde legt. Zu einem gravierenden Störfall kam es Anfang der achziger Jahre, als die Auflöserkomponente undicht wurde und eine heftige Kontamination der Eingangszelle verursachte. Die WAK lag einige Jahre still, da ein Reserveauflöser nicht unmittelbar zur Verfügung stand. Bundeskanzler Helmut Schmidt war darüber sehr verärgert und konnte sich bei einem Besuch des Kernforschungszentrums nicht enthalten, diesen Mangel gegenüber der GWK-Leitung zu rügen. Der Störfall bei der WAK hatte den Gegnern der in der Planung befindlichen Grossanlage Wackersdorf viel publizistische Munition geliefert.

Das technische Konzept der WAK hatte leider eine folgenreiche Schwachstelle: es gab keine Anlage zur Verfestigung der hochradioaktiven, salpetersauren Abfalllösung. Zwar wurden einige Anläufe gemacht (Vera,Hova) den sogenannten HAWC (=High Active Waste Concentrate) in den soliden Zustand zu überführen, aber sie waren nicht erfolgreich. Schliesslich errichtete man neben dem Prozessgebäude die Lagereinrichtung LAVA. Sie bestand aus zwei Lagertanks zu je 63 Kubikmetern Fassungsvermögen; der eingepumpte HAWC musste darin permanent gekühlt werden. Im Zuge der gestiegenen Genehmigungsanforderungen kosteten diese Tanks satte 100 Millionen DM. Auch dafür bezahlte die Industrie keinen Pfennig.

In den folgenden Jahren fand bei der GWK ein Gesellschafterwechsel statt. Die Chemiefirmen zogen sich zurück und überliessen das Feld den grossen Energieversorgungsunternehmen, die sich unter der Bezeichnung DWK formierten. Die einst so mächtigen Farbwerke Hoechst (jahrelang die grösste Pharmafirma der Welt)  fanden ein schmähliches Ende. Um den Schikanen des hessischen Umweltministers Joschka Fischer zu entgehen, verbündeten sie sich mit der Strassburger Firma Aventis um bald darauf in dem französischen Chemiekonzern Sanofi aufzugehen. Der Name Hoechst ist seit den neunziger Jahren nur noch Geschichte.

Auch dem Wiederaufarbeitungskonzern DWK blieb der ganz grosse Durchbruch verwehrt. Als der VEBA-Chef Rudolf v. Bennigsen Foerder im Frühjahr 1989 das Grossprojekt Wackersdorf kippte, war auch das Ende für die kleine WAK gekommen. Nach der letzten Auflösungskampagne wurde am 18. Dezember 1990 der Betrieb eingestellt und der Rückbau der Anlage beschlossen.


Der Rückbau der WAK

Gleich zu Beginn des Jahres 1991 machte sich eine Expertenkommission daran, die voraussichtlichen Kosten des WAK-Rückbaus abzuschätzen. Sie kam auf die gigantische Geldsumme von 2.000 Millionen DM. In 10 bis 15 Jahren sollte der Abriss vollzogen sein. Die hohen Schätzkosten resultierten im wesentlichen aus drei Ursachen heraus: Die Komponenten und Bunker der WAK waren hochgradig mit plutoniumhaltigen Nukliden kontaminiert, die Verfestigung der Abfalllösung (im Volksmund "Atomsuppe" genannt) war extrem kostenaufwendig und die rd. 500 Beschäftigte der WAK-Betriebsgesellschaft - welche zukünftig für den Rückbau eingesetzt werden sollten - stellten eine beträchtliche Kostenposition dar.

Zur Finanzierung des Rückbaus verwies das Kernforschungszentrum (im Auftrag des Bonner bzw. Berliner Forschungsministeriums) auf die Industrie, weil sie der alleinige Nutzer der WAK war und damit grossen technologischen Know-how für sich und ihre Gesellschafter generieren konnte. Umgekehrt betrachtete die DWK die Finanzierung des Abrisses als alleinige Aufgabe des Eigentümers, also des Zentrums. Schliesslich einigte man sich darauf, die zwei Milliarden je hälftig zu stemmen. Der DWK gelang es allerdings im Rückbauvertrag eine Klausel unterzubringen, wonach ihre Milliarde eine absolute Obergrenze darstellt; etwa anfallende Mehrkosten verblieben damit beim Bund bzw. dem deutschen Steuerzahler. (Später erklärte sich die Industrie - nach heftigen Pressionen - bereit, bei der Entsorgung des radioaktiven Abfalls noch einen weiteren kleinen Obulus zu bezahlen).

Wer gehofft hatte, nach diesem Vertragsgeplänkel würde unverzüglich mit dem Abriss der Anlage begonnen werden, der hatte sich geirrt. Die Stuttgarter Genehmigungsbehörden verlangten zuerst die sogenannte "Deregulierung" der WAK. Hinter diesem Bürokratenwort verbirgt sich die Aufhebung aller vorausgehenden Regulierungen, also der überflüssig gewordenen Genehmigungen und Auflagen. Über, sage und schreibe, fünf Jahre hinweg wurden die 1.400 Auflagen und alle Betriebsgenehmigungen mit Nachträgen und Anordnungen peinlichst genau evaluiert und bewertet. Parallel dazu lief das Unternehmen "Gesamtdokumentation" der WAK nach aktuellen atomrechtlichen Vorgaben. Es dauerte bis zum Jahr 1996, als schliesslich mit dem eigentlichen Rückbau begonnen werden konnte.

Vordringlich war die Verfestigung der rd. 80 Kubikmeter plutoniumhaltigen Abfalllösung, welche in den LAVA-Tanks lagerten. Die sollte bei der belgischen Verglasungsanlage "Pamela" geschehen, wozu mehr als 25 Transporte in einem Spezialbehälter quer durch Deutschland notwendig gewesen wären. Vor dem Hintergrund der allseits heftigen Castortransporte war bald klar, dass dieser Entsorgungsweg nicht gangbar war. Man beschloss deshalb am Standort der WAK eine eigene Verglasungsanlage zu bauen, die VEK genannt wurde. Überraschenderweise legten sich zwei einflussreiche baden-württembergische Landesminister quer und verweigerten dafür die atomrechtliche Genehmigung. Der Wirtschaftsminister Spöri und der Umweltminister Schäfer (beide der SPD angehörend) wollten keine weitere nukleare Anlage im Ländle genehmigen. Nach einigen Jahren des Hickhacks löste sich die politische Situation dadurch, dass eine schwarz-gelbe Regierung ans Ruder kam, welche dem Vorhaben der heimischen Verglasung keine weiteren Steine mehr in den Weg legte. Im Jahr 2009 wurde die VEK fertiggestellt und bereits ein Jahr später war die berüchtigte Atomsuppe in 140 Glaskokillen umgewandelt, welche seitdem in 5 Spezialcastorbehälter in Lubmin (Mecklenburg-Vorpommern) lagern.

Zur Kategorie "besondere Vorkommnisse mit Folgen" gehört der sogenannte "Plutoniumdiebstahl" im Jahr 2001. Einem Arbeiter in der WAK war es gelungen, radioaktives Material, leicht kontaminiert mit Plutonium, vorbei an den Sicherheitsschleusen aus den Zellen heraus zu schmuggeln und nach Hause mitzunehmen. Er wurde gefasst und zu viereinhalb Jahren Gefängnis verurteilt. Der Richter am Karlsruher Landgericht hielt es für möglich, dass der Angeklagte damit seine ehemalige Lebensgefährtin vergiften wollte. Die Folgen dieses Vorfalls waren immens: die Sicherheitskontrollen und Zugangsbarrieren wurden per Auflage enorm verschärft, der Rückbau der WAK war de facto für einige Jahre unterbrochen.

Im Zuge der Fusion des Kernforschungszentrums mit der Universität Karlsruhe zum Karlsruher Institut für Technologie (KIT), kam es im Jahr 2006 auch zu einer Umorganisation des WAK-Projekts. Das ehemalige Kernforschungszentrum gab seine nuklearen Rückbauunternehmungen an die Energiewerke Nord (EWN) und die WAK GmbH ab, welche seitdem auch die Abfallkonditionierung und die Läger betreiben. Im Zuge einer Projektevaluierung konnte man in den Zeitungen lesen, dass die gesamten Schätzkosten für den Abriss der WAK nunmehr auf 2.500 Millionen Euro angestiegen waren. Als Endtermin für den Rückbau bis zur Grünen Wiese wurde das Jahr 2023 angegeben. Die wesentlichen Gewerke, welche noch zum Abriss anstehen, sind die (stark kontaminierte) Verglasungsanlage samt dem umgebenden Containment, die Bunker des Prozessgebäudes sowie eine Reihe von Infrastruktureinrichtungen.

Seit etwa einem Jahr ist bekannt, dass das derzeitige Zwischenlager nicht ausreicht, um die noch zu erwartenden Abfallstoffe aus der WAK aufzunehmen. Es ist deshalb der Bau eines weiteren nuklearen Zwischenlagers für schwach- und mittelradioaktive Materialien nötig - sofern man nicht den Rückbau der WAK auf unbegrenzte Zeit unterbrechen will und die Anlage (versiegelt) stehen lassen möchte. Der Bau eines solchen  Zwischenlagers ist nur nach den derzeitigen strengen atomrechtlichen Bestimmungen gestattet; immerhin bewegen sich rd. 4.000 Forscher des KIT in nächster Umgebung. Ab dem Jahr 2020 soll der Abtransport der Fässer zur Endlagerstätte Konrad in Niedersachsen erfolgen. Er wird etwa 40 Jahre in Anspruch nehmen.


In blanken Zahlen

Abschliessend sollen einige der oben genannten Zahlen nochmals wiederholt und ins Verhältnis gesetzt werden. Damit wird klar, dass es sich beim Rückbau der WAK um ein riesiges - und generationenübergreifendes - Projekt handelt, das in dieser Weise in der nichtnuklearen Technikwelt nicht vorkommt. Inwieweit zu den exzessiven Kosten und Terminverzögerungen auch suboptimale Projektführung oder überzogene Genehmigungsanforderungen beigetragen haben, kann von aussen kaum beurteilt werden.

Betrachten wir als erstes die Kosten. Die Errichtungskosten für die WAK betrugen 60 Millionen DM bzw. (nominell) 30 Millionen Euro. Die Rückbaukosten wurden vor einigen Jahren mit 2.500 Millionen Euro veranschlagt. Dass sie, vorallem wegen des neuen Zwischenlagers noch weiter ansteigen werden, ist fast sicher. Aber auch bei gegenwärtiger Kostenlage zeigt das Verhältnis beider Kostenwerte, dass die Abrisskosten der WAK um den Faktor 83 höher liegen als die Errichtungskosten.

Ähnlich ist die Situation bei den Terminen. Für die Errichtung benötigte man 4 Jahre, der Rückbau wird nach frühestens 32 Jahre (2023 - 1991 = 32) beendet sein. Der Abriss der Anlage erfordert also mindestens 8 mal mehr Zeit als sein Aufbau.

Sollte das WAK-Gelände, wie prognosziert, im Jahr 2023 in eine Grüne Wiese konvertiert sein, dann ist das Gesamtprojekt aber noch nicht beendet. Der radioaktive Abfall, welcher sich in den verschiedenen Zwischenlägern befindet, muss noch im niedersächsischen Endlager Konrad verstaut werden. Das kann frühestens ab 2020 beginnen und soll 40 Jahre, also bis zum Jahr 2060 dauern. Vor dem Hintergrund der Endlosdiskussionen um Gorleben und Asse II darf man aber an dem relativ optimistischen Termin für die Bereitstellung von Konrad durchaus zweifeln. Trotzdem: legen wir die derzeitigen offiziellen Projekttermine zugrunde, was bedeutet das für die 500-köpfige Rückbaumannschaft der WAK?

Es bedeutet folgendes: Kein Mitarbeiter und keine Mitarbeiterin in der gegenwärtigen Rückbaumannschaft wird das wirkliche Ende des Projekts WAK noch während der ca. 45-jährigen Berufszeit erleben.

Weder der Aufsichtsratsvorsitzende noch der jüngste Azubi!
























Sonntag, 2. Dezember 2012

Abitur für Cyber-Krieger

Im Nahen Osten sprechen wieder die Waffen. Die Israelis fühlen sich durch die (relativ kruden) Raketen der arabischen Nachbarn bedroht und lassen ihre Soldaten am Boden, in der Luft - und im "Cyber-Space" - dagegenhalten. Dabei ist der Cyber-Space jener virtuelle Raum, der durch die Vernetzung der Computer rund um die Erde entsteht. Im Zeitalter der Cybernetik finden Auseinandersetzungen auch im cybernetischen Raum - sprich Datenraum - statt. Auch die Strategen im Pentagon, in der NATO  (und in der Bundeswehr!) sehen das Internet als Medium an, für das sie ihre Viren, Trojaner und sonstige Schadprogramme entwickeln. Der Cyberkrieg hat bereits begonnen.


Die Schule der Hacker

Die Israelis machen kein Hehl daraus, das sie den Cyberraum für militärische Zwecke maximal nutzen wollen. In der Zeitung "Haaretz" wird ganz offen darüber berichtet, dass die militärische Führung "Cyber-Verteidiger" ausbildet und sie in die traditionellen Funkereinheiten integriert. Aber es scheint nicht leicht zu sein, dafür Experten zu finden. Die sogenannten "Nerds", die schon mit 12 Jahren fit im Programmieren sind und mit 17 bereits die Netztechnologien beherrschen, sind dünn gesät. Und nicht alle sind willens, sich in den Dienst der Armee zu stellen.

Mit Beginn des neuen Schuljahres bieten die Informationsexperten der israelischen Armee in sieben Gymnasien des Landes spezielle Cyber-Intensivkurse an. Beim Abitur kann eine eigene Prüfung im Fach "Cyber" abgelegt werden. Durch dieses "Abi für Hacker" versucht die Militärführung den einen oder anderen Computer-Freak die Militärlaufbahn als Cyber-Elitekampfsoldat schmackhaft zu machen. Daneben gibt es alljährliche Hackerwettbewerbe unter dem Titel "CodeGuru", bei denen Jugendliche ihre Kenntnisse in der Informationstechnik spielerische präsentieren können. Vor einigen Monaten ist es einem Cyber-Aktivisten gelungen, beim iranischen Staatsrundfunk eine Falschmeldung über den (angeblichen) Tod des Präsidenten Ahmadineschad bei einem Flugzeugabsturz einzuschleusen. Zwar erfolgte bald darauf ein offizielles iranisches Dementi, aber für eine kurzzeitige Verwirrung hat diese Meldung dennoch gesorgt.


Erfolge und Misserfolge durch Schadprogramme

Vieles in der Cyber-Kriegsführung vollzieht sich im Nebel der Geheimhaltung. Bekannt geworden sind sind jedoch die Auswirkungen der Spionagesoftwareprogramme "Stuxnet" und "Flame". Das Schadprogramm Stuxnet wurde schon im Jahr 2007 unter der Präsidentschaft von George W. Bush im Bundesstaat Iowa (unter Mitwirkung der Isrealis) entwickelt. Das Virus sollte die Uranzentrifugen den den iranischen Atomanlagen zerstören.

Die amerikanisch-isrealischen Computerexperten hatten eine Sicherheitslücke in der Steuerung dieser Zentrifugen ausgemacht. Sie konzipierten daraufhin die Angriffssoftware Stuxnet, welche sie (über das Internet) in die Steuereinheit des Maschinenleitstandes implantierten. Dadurch brachte sie es fertig, die Dieselgeneratoren über den zulässigen Umdrehungsgrenzwert hochzusteuern und die Zentrifugen durch die Fliehkräfte zur Explosion zu bringen. Als Folge wurden mehr als tausend Ultrazentrifugen - quasi fernbedient - zerstört, welche im Verdacht standen, Material für Atombomben zu produzieren.

Leider war dieser Erfolg mit einem Schönheitsfehler verkoppelt. Die Experten hatten nicht bedacht, dass es solche Industriesteuerungen in grosser Anzahl gab. Das Virus Stuxnet brach regelrecht aus und infizierte 70.000 dieser Steuerungen in aller Herren Länder - auch in den USA selbst. Der Schaden war riesig und das Programm war eine Zeitlang nicht mehr zu kontrollieren. Später entschlossen sich die Stuxnet-Entwickler ihre digitale Granate mit einem USB-Stick direkt auf die Rechner der Maschinenleitstände aufspielen zu lassen. Dafür musste allerdings ein lebender Spion in die iranischen Atomanlagen eingeschleust werden, was nicht trivial war.

Nach diesen eher durchwachsenen Erfahrungen mit Stuxnet entwickelten die Amerikaner das Spionageprogramm "Flame". Es liefert dem Angreifer sämtliche technische Details über das Zielsystem, worauf er mit hoher Präzision seine digitalen Angriffswaffen entwickeln kann. Statt unkontrollierter Ausbreitung sollen nur die ausgesuchten Industrieaggregate des Gegners manipuliert werden, also keinesfalls die eigenen oder die von befreundeten Staaten. "Kollateralschäden" zu verhindern, war das Entwicklungsziel. Das Flame-Virus wurde Ende Mai 2012 von den Iranern auf ihrem Ölterminal auf der Insel Khark entdeckt. Welche Schäden daraus erwachsen sind, ist nicht veröffentlicht.


Gefährdete Infrastrukturanlagen

Industrielle Infrastuktureinrichtungen, wie Wasserwerke oder Flugplätze, sind durch Cyber-Angriffe besonders gefährdet. In noch stärkerem Umfang gilt dies für Kernkraftwerke. Ein Virus, das die Notstromversorgung eines Atomkraftwerks lahm legt, könnte ähnliche Katastrophen wie in Fukushima heraufbeschwören. Eine Kernschmelze wäre nicht mehr auszuschliessen, wenn die Steuereinheiten der Dieselmotoren zerstört werden würden. Amerikanische Cyber-Taktiker sprechen in diesem Fall von einem "virusinduzierten Atomschlag". Das Pentagon arbeitet derzeit an einer Doktrin, nach der ein Cyber-Angriff auch mit konventionellen Waffen zurückgeschlagen werden darf. Der Sprecher des US-Verteidigungsministeriums drückte sich hierzu ganz pointiert aus:

"Wer die Stromnetze unseres Landes sabotiert,
muss mit Raketen im Schornstein rechnen."









Sonntag, 25. November 2012

A Star is born

Deutschlands Sportler haben bei der Sommerolympiade 2012 in London 19 Silbermedaillen gewonnen. Wenn mich jemand danach fragen würde, welche dieser Medaillen die wertvollste ist, dann wäre meine Antwort klar: es ist die Silbermedaille im Mehrkampf der Turner, welche Marcel Nguyen errungen hat.

Marcel wohnt seit 20 Jahren im bayerischen Unterhaching, sein Vater stammt aus Vietnam, wo der Name Nguyen etwa so verbreitet ist wie Müller, Meier, Schmidt in Deutschland. Nguyen wird wie "Nujen" ausgesprochen, man lässt also einfach das g weg. Der heute 24-jährige wurde schon als Vierjähriger an das Geräteturnen herangeführt. Im Schatten von Fabian Hambüchen und Philipp Boy arbeitete er sich Schritt für Schritt an diese grossen Vorbilder heran. Seit dem Abitur im Jahr 2007 trainiert er in Stuttgart bei dem ehemaligen russischen Weltklasseturner Walerie Belenki, der ihm dort die letzten Feinheiten der Turnkunst vermittelt.


Marcel Nguyen freut sich über seine Silbermedaile

Turnen: ein schwieriger Sport

Turnen ist vorallem deswegen ein schwieriger Sport, weil man gleich an sechs Geräten antreten muss, von denen jedes "sperrig" ist und die zudem untereinander total verschieden sind. Der klassische turnerische Wettkampf ist an folgenden Geräten zu absolvieren:  Boden - Seitpferd - Ringe - Sprung - Barren - Reck. Gefürchtet ist insbesondere das Seitpferd. Man kann sich an ihm zwar kaum verletzen, aber bei der geringsten Unachtsamkeit gerät man aus dem Schwung und macht dabei Fehler, die selbst jeder Laie auf den ersten Blick als solche erkennen kann. Ein anderes Problemgerät sind die Ringe, an denen ohne Bärenkräfte nichts geht. Die verschiedenen Hangwaagen, bezeichnenderweise "Christushang" genannt, sind dafür ein Beispiel. Viele schlanke und biegsame Bodenturner kommen mit den Ringen überhaupt nicht zurecht. Der Barren ist vorallem technisch sehr anspruchsvoll, während beim Sprung über einen Tisch Mut und Bewegungsgefühl gefordert ist. (Der Cottbuser Ronny Ziesmer fiel 2004 bei einem kombinierten Doppelsalto rückwärts/vorwärts unglücklich mit dem Kopf auf dem Boden auf und ist seitdem querschnittsgelähmt). Bleibt das Reck, welches als die "Königsdisziplin" gilt. Hier muss die Riesenwelle in verschiedenen Varianten geturnt werden; dazwischen erwartet man von den Besten noch die sogenannten Flugteile oberhalb der Reckstange. Zum Schluss ist ein Mehrfachsalto mit Mehrfach-Twist der angemessene Abgang, wobei man - ohne Wackler - zum sicheren Stand kommen sollte.

Logischerweise muss man für den olympischen Mehrkampf viel mehr trainieren als für ein einzelnes Gerät, wofür es auch Medaillen gibt, die aber in geringerem Ansehen stehen. Der Mehrkampf ist die Krone der turnerischen Disziplinen. In allen Geräten "top" zu sein, verlangt jahrelanges, ausdauerndes Üben.

Nguyen ist der bessere Hambüchen

Da nur zwei Turner je Nation am Mehrkampffinale der Londoner Olpmpiade teilnehmen durften, waren die beiden, bis dahin besten deutschen Turner - Fabian Hambüchen und Philipp Boy - naturgemäss gesetzt. Marcel Nguyen war nur als Drittstärkster eingeordnet. Aber es kam anders. Philipp Boy verletzte sich vor dem Wettkampf beim Einturnen in der Nebenhalle. An seinem Paradegerät, dem Reck, griff er bei einem hochriskanten Flugteil daneben und schlug hart auf dem Boden auf. Er konnte den Wettkampf nicht aufnehmen, sodass Marcel Nguyen in die deutsche Zweiermannschaft kam.

Der Wettkampf lief anfangs nicht gut für Marcel. Am Seitpferd verturnte er die Schere in den Handstand und patzte ausserdem beim Abgang. Damit lag er nach dem ersten Gerät auf dem letzten Platz im Feld der 24 Teilnehmer. Was danach kam war eine grandiose Aufholjagd. An den Ringen turnte er fehlerfrei, beim Sprung machte er nur einen winzigen Sidestep. Als er eine spektakuläre Übung am Reck sicher in den Stand gebracht hatte, wusste er: Das kann etwas werden, eine Medaille ist jetzt drin. Sein Paradegerät, den Barren, turnte er mit Mut und Schwung, sodass nur noch die Bodenübung anstand. Auch hier brachte er die verschiedenen Salti in den sicheren Stand, womit er sich vom 24. auf den 2. Platz vorgearbeitet hatte. Die Silbermedaille im olympischen Mehrkampf gehörte ihm.

Vergleichbares war in der Nachkriegsgeschichte noch keinem deutschen Turner gelungen. Die letzte Mehrkampfmedaille, allerdings in Gold, hatte Alfred Schwarzmann bei der Olympiade 1936 in Berlin gewonnen. Die Goldmedaille in London erhielt der Japaner Kohei Uchimura, der alle sechs Geräte fehlerfrei turnte.

Fabian Hambüchen, der mit grossen Erwartungen in den Wettkampf gegangen war, wurde bitter enttäuscht und war am Ende den Tränen nahe. Auch er hatte einen schweren Patzer am Seitpferd zu beklagen, dazu auch noch am Boden und am Reck, wo er immerhin einmal Weltmeister war. Zum Schluss reichte es bei ihm nur zu Platz 15.  Philipp Boy versuchte es nocheinmal im Mannschaftswettbewerb, aber auch dort griff er mehrfach daneben. Nach vier Jahren intensiven Trainings musste er aus London ohne eine einzige Medaille heimfahren. Noch heute leidet er unter Prellungen am ganzen Körper; die Stürze von seinem Lieblingsgerät, dem Reck, haben bei ihm ein Trauma hinterlassen. Mit 25 Jahren denkt er ernsthaft ans Aufhören und die Wiederaufnahme seiner Bankausbildung. Noch vor Weihnachten will er sich entscheiden.

Zur Benotung der Turnübungen

Die Benotung der turnerischen Übungen geschieht durch zwei Gruppen von Kampfrichtern. Die eine Gruppe wertet den Schwierigkeitsgrad der Übung, die andere ist für die Beurteilung der Ausführung, also die Haltung, zuständig. Der D-Wert (für "Difficulty") und der E-Wert (für "Execution") werden zusammengezählt und bilden den endgültigen Notenwert der vorgeführten Übung.

Die Übungsteile sind in Schwierigkeitsstufen eingeteilt. Am Boden bringt beispielsweise ein Hocksalto 0,1 Punkte, ein gestreckter Salto 0,2 und ein Doppelsalto rückwärts mit Dreifachschraube 0,6 Punkte. Von jeder Übung werden die 10 schwierigsten Übungsteile gewertet und aufaddiert. Des weiteren gibt es am Reck noch Bonifikationen, sofern zwei Höchstschwierigkeiten unmittelbar hintereinander geturnt werden. Der D-Wert ist theoretisch nach oben offen. In London brauchte man für den Olympiasieg im Gerätefinale einen D-Wert von rund 7 Punkten.




Nguyen bei der Hangwaage waagrecht


Hangwaage senkrecht (Blogger W.M. 1956)

Beim E-Wert für die Ausführung gehen die Kampfrichter von der "Traumnote" 10,0 aus. Hiervon werden für schlechte Haltung, technische Mängel, zu kurz gehaltene Kraftteile etc. 0,1 bis o,5 Punkte abgezogen. Stürze vom Gerät oder ein verpatzter Abgang werden sogar mit 1 Punkt Abzug bestraft. Taktisch handelt ein Turner also unklug, wenn er einen eben erst gelernten Übungsteil unsauber turnt. In der Praxis ist es besser, einen Übungsteil erst dann im Wettkampf zu zeigen, wenn man ihn auch voll beherrscht. Nehmen wir an, einem Turner werden wegen verschiedener Haltungsmängel 1,8 Punkte abgezogen, so kommt er auf einen E-Wert von 8,2. Zusammen mit dem D-Wert von 7 (siehe oben) ergibt das also eine Gesamtnote von 15,2 Punkten.

Verstanden?
Wenn nicht, dann trösten Sie sich mit dem alten Turnerspruch:
Wenn Turnen einfach wäre, dann hiesse es Fussball.

Sonntag, 18. November 2012

Dr. Helmut Schmieder †

Liebe Angehörige,
verehrte Trauergemeinde.

Helmut Schmieder gehörte zu unserem Freundeskreis auf der Insel Rott. Regelmässig konnte man ihn am Donnerstag mittag inmitten seiner Freunde dort antreffen. Er war einer der Mitbegründer dieses Kreises; er hielt ihn zusammen, mit der Kraft seiner Persönlichkeit.

In Rott werden seit jeher Dinge besprochen, die sich im 20 Kilometer entfernten Kernforschungszentrum ereignen. Als Ruheständler hat man den zeitlichen Abstand und die Gelassenheit um Vorfälle und Forschungsprogramme des FZK einzuordnen - sine ira et studio.

Bemerkenswert an Helmut war seine starke Bindung an das Institut für Heisse Chemie. Zu den Institutsleitern Baumgärtner, Ebert und Dinjus pflegte er vertrauensvolle Kontakte; für Franz Baumgärtner schien er das alter ego zu sein. Die Mitglieder und Kollegen des Instituts konnten sich in allen fachlichen, aber auch persönlichen, Fragen an Helmut wenden. Er war ihnen stets ein hilfsbereiter Kollege und Freund.
Dr. Helmut Schmieder (1935 - 2012)

Aus meiner Zeit als Projektleiter für den Schnellen Brüter weiss ich, dass Helmut technische und terminliche  Abmachungen punktgenau einhielt - auch wenn es ihm gelegentlich schwerfallen mochte. Wegen dieser Verlässlichkeit stand er auch bei Industriefirmen wie der DWK, der KEWA oder der Firma Alkem in Hanau, in grossem Ansehen. Bei internationalen Konferenzen konnte man beobachten, wie sich prominente Fachkollegen aus Russland, Japan und den USA um Helmut scharten, um seinen fachlichen Rat zu teilen.

Als Ruheständler auf der Insel Rott mussten wir miterleben, wie unsere jahrelangen Bemühungen um die von uns favorisierte Energietechnik durch politische Entscheidungen zunichte gemacht wurden. Helmut stemmte sich dagegen, unter anderem durch eine Vielzahl öffentlicher Vorträge, bei denen sein umfassendes Wissen auf dem Gebiet der Kernenergie zum Ausdruck kam.

Die allwöchentlichen Treffen auf Rott erlauben uns, bei entspannten Gesprächen zur Mittagsstunde, die vielfältigen Ereignisse im eigenen, abgelaufenen Berufsleben neu zu sortieren und einzuordnen. Bei mancher Wegmarke hatten wir die Möglichkeit so oder anders abzubiegen; aber viele Entscheidungen wurden uns von aussen, gewissermassen vom Schicksal, unabweisbar aufgeprägt. Helmut hat dies in seinem eigenen Fachgebiet - Stichwort Wiederaufarbeitung - zur Genüge erfahren müssen.


Letzter Gruss

Dann kam die Krankheit. Sie traf Helmut mit Wucht und hat ihn von Anbeginn sichtbar gehandicappt. Seinen geliebten Tennissport musste er von heute auf morgen aufgeben; schifahren, worin er ein Meister gewesen, war nicht mehr möglich. Bei unseren Besuchen in seiner Wohnung mussten wir mitansehen, wie sich sein körperlicher Zustand von mal zu mal verschlimmerte. Der Tod kam ihm schliesslich als Freund.

Wir werden die Erinnerung an Dich, lieber Helmut, in unserem Herzen bewahren.

(Willy Marth)

Sonntag, 11. November 2012

Was Gorleben mit Shakespeare gemeinsam hat

Die Endlagerung des hochradioaktiven Abfalls aus Kernbrennstoffen ist ein Problem, das gegenwärtig (wieder einmal) vom Bundesumweltminister Peter Altmaier und dem baden-württembergischen Ministerpräsidenten Winfried Kretschmann angegangen wird. Längst ist bekannt, dass dafür eigentlich nur die Salzlagerstätten in Niedersachsen, die Tonschichten in Baden-Württemberg und die Granitvorkommen in Bayern in Frage kommen. Stellen wir uns einen Augenblick lang vor, Politik und Wissenschaft hätten sich auf den Endlagerstandort Gorleben geeinigt - Analoges gilt für die beiden anderen Standorte - dann ist es intellektuell reizvoll sich zu überlegen, wie die Endlagerdiskussion in 500 Jahren, also im Jahr 2500 geführt werden würde - und ob es überhaupt noch eine gäbe.

Gorleben im Jahr 2500

Vor der Einlagerung in Gorleben müsste man die Entscheidung treffen, ob die Abfälle dauerhaft in tausend Meter Tiefe deponiert werden sollen, oder ob man sie gegebenefalls wieder vorzeitig zurückholen möchte. Die derzeitige Tendenz geht in Richtung "final storage", also auf Verzicht der Option Rückholung. Vor der Tiefenlagerung müssen die Kernbrennstoffe bzw. Brennelemente der stillgelegten Kernkraftwerke ca. 50 Jahre lang abklingen und abkühlen. Die Deponierung könnte also um das Jahr 2050 beginnen und wäre vermutlich zur Jahrhundertwende, um 2100, abgeschlossen.

Am Standort Gorleben wären dann an der Oberfläche nur noch die Infrastrukturanlagen sichtbar, wie Verpackungsmaschinen, Lagerhallen und natürlich der Förderturm für den vorherigen Schachtbetrieb. Es würde mich nicht wundern, wenn man dann im nächsten Jahrhundert, also zwischen 2100 und 2200 diese überflüssig gewordenen Betriebseinrichtungen abbauen würde, so wie das auch Ruhrgebiet mit den Schachtanlagen und Fördertürmen geschehen ist. Bald könnten über dem Salzdom also wieder die Schafe und Rinder weiden.

Doch wie steht es mit der Erinnerung der Menschen an das "Endlagerproblem Gorleben"? Da die Kerntechnik in Deutschland im Gefolge von Fukushima im Sommer 2011 aus politischen Gründen abgeschafft wurde, wird der Bestand an Fachleuten auf diesem Gebiet immer dünner werden. Zum Jahrhundertende 2100 hin werden wohl die allermeisten in Rente gegangen sein, bzw. nicht mehr leben. Sie hinterlassen sicherlich eine Menge an technischen Papieren, aber es ist fraglich, ob die Nachkommen etwas damit anfangen können.

In den nachfolgenden Jahrhunderten, spätestens aber bis zum Jahr 2500, werden alle Datenträger bis zur Unleserlichkeit zerstört sein. Die Papierunterlagen verrotten und werden durch die eigene Säure zerstört; die Magnetbänder und digitalen Datenträger werden noch früher unbrauchbar. Fachleute, welche zum Gebiet der Endlagerung Auskunft geben könnten, stehen - siehe oben - nicht mehr zur Verfügung. Die kollektive Erinnerung an den gefährlichen Abfall in der Tiefe wird mehr und mehr abnehmen, ein Risiko wird damit nicht mehr verbunden. Vielleicht werden in 500 Jahren feudale Villen dort gebaut, wo früher die Brennelemente oberirdisch gelagert wurden.

Stammt der Hamlet von Shakespeare?

Dass viel Wissen und viele Fakten in der relativ kurzen Zeit von 500 Jahren "verschütt" gehen können, beweist die anhaltende Diskussion um den grössten englischen Schriftsteller William Shakespeare. Er lebte von 1564 bis 1616 n. Chr. und ihm werden 36 Theaterstücke (14 Komödien, 12 Tragödien und 10 Historiendramen) zugeschrieben, die bis heute noch auf allen Bühnen der Welt gespielt werden. Darüberhinaus verfasste er einige hundert Sonette von allerhöchster literarischer Güte .



William Shakespeare

Trotzdem, immer wieder kommen Zweifel auf, ob dieser "Landlümmel aus dem Drecksnest Stratford-upon-Avon" (Kritiker Alfred Kerr) wirklich sowas allein gemacht haben kann. Vor einigen Jahren hat der deutsche Regisseur Roland Emmerich diese Zweifel zu einem Kinofilm mit dem Titel "Anonymus" verarbeitet, was die Shakespeare-Gemeinde in grosse Unruhe versetzte.

Emmerich fragt beispielsweise, wie es möglich ist, dass in den letzten 500 Jahren kein einziges Manuskript des Dichters gefunden wurde, ja nicht einmal ein einziger Brief, obwohl Shakespeare normalerweise eine Menge Korrespondenz hätte führen müssen. Oder: wie Shakespeare als Kind illiterater Eltern - und nicht der englischen Oberschicht angehörend - so viel über die Lebensweise der Adeligen, Könige und Königinnen bei Hofe wissen konnte. Oder: Woher er als blosser Grundschüler sein umfangreiches Wissen in Medizin, Astronomie, Musik und Rechtswissenschaft hatte. Oder: Warum Shakespeare sich als Endvierziger in seinen Geburtsort zurückzog und nie wieder geschrieben hat, nicht einmal ein kurzes Gedicht. Oder: Warum Shakespeare in seinem Testament kein einziges seiner Bücher erwähnte, dafür aber sein zweitbestes Bett.

Das sind Fragen über Fragen, die mehr als stutzig machen und die auch Emmerich in seinem Film nicht schlüssig beantworten konnte. Trotzdem schlägt er den 17. Grafen von Oxford als den eigentlichen Verfasser der dichterischen Werke vor.  Shakespeare war, nach seiner Meinung, nur der Ghostwriter bzw. der Namensgeber. Nun streiten sich unerbittlich zwei Lager: die Oxfordians auf der einen, die Stratfordians auf der anderen Seite. Erstere unterstützen die Thesen von Anonymus, während letztere Shakespeare aus Stratford verteidigen.

Bei aller Verschiedenheiten der Thematik gibt es zwischen Gorleben und Shakespeare gewisse Ähnlichkeiten. 500 Jahre sind eine lange Zeit, viel zu lange für die Mund-zu-Mund-Überlieferung. Wenn die Dokumente, aus welchen Gründen auch immer, verloren gehen, dann fehlt auch das Wissen über diese Zeit und ihre Menschen - und es fehlen die harten Beweise.

Wie kann man dann erwarten, dass menschliches Wissen über tausende oder gar hunderttausende von Jahren bewahrt werden kann - wie die Kombattanten in der Endlagerfrage dies zuweilen fordern oder gar behaupten?!

Donnerstag, 1. November 2012

Bei KIT knirscht es

Der 15. Juni 2012 bleibt allen Studenten und Mitarbeitern des Karlsruher Instituts für Technologie (KIT) in böser Erinnerung. An diesem Tag verlor das KIT beim bundesweiten Wettbewerb der Exzellenzinitiative seinen schönen Titel "Elite-Universität", worauf es bisher mit Recht sehr stolz war. Die Forschungsprogramme in der Nanotechnik und in der Informatik erschienen den Gutachtern zu leichtgewichtig und sie liessen das KIT durchfallen. Die Studentenvertreter sprachen vom "Todesstoss für das KIT" was wohl leicht übertrieben war; aber ein grosser Verlust an Image und Renommee ist mit diesem Abstieg in die niederen akademischen Ebenen sicherlich verbunden.


Grosse Finanzprobleme

Die "Iden des Juni", um eine altrömische Metapher leicht zu variieren, haben starke negative Auswirkungen auf die Finanzen des KIT, insbesondere im Bereich der früheren Universität. Ein prekäre Lage ist dort im wesentlichen aus drei Gründen entstanden: weil fest eingeplante Gelder aus der Exzellenzinitiative ausbleiben, weil wegen des Doppelabiturs G8/G9 ein Studentenberg an die Hochschule anrollt und weil das Land Baden-Württemberg als Hauptfinanzier des universitären Bereichs derzeit finanziell sehr klamm ist.

Durch die Niederlage im Exzellenz-Wettbewerb entgehen dem KIT, verteilt auf fünf Jahre, mindestens 60 bis 80 Millionen Euro. Der unmittelbare Schlag wird etwas gemildert durch eine Auslauffinanzierung, welche bis 2014 anhält. Das nun entstandene Geldproblem hat viel zu tun mit dem Schuldenberg des Landes Baden-Württemberg, welches seit Jahren bei allen Hochschulen die Finanzmittel eingefroren hat. Das Land gewährt (ausser beim durchfinanziertem Stellenpersonal)  dem KIT keinen Zuwachs bei den Finanzmitteln mehr - trotz steigender Kosten.

Der Finanzchef Ulrich Breuer hat dem KIT deshalb einen rigiden Sparplan verschrieben. Organisatorische Doppelstrukturen am Forschungszentrum und an der Uni sollen zusammengelegt werden. Dies betrifft u. a. die Einkäuferteams und die Alarmzentralen. Frei werdende Arbeitsplätze sollen nicht mehr, oder nur noch in Ausnahmefällen, wiederbesetzt werden. Die "personelle Verschlankung" soll in einem Personalzielplan festgelegt werden. Im Uni-Bereich wird die sog. Budgetierung eingeführt. Die Professoren müssen also in Zukunft ihre Aufwendungen für Rechner, Strom, Maschinen etc. besser im Blick behalten und aus dem eigenen Institutsbudget bezahlen. Auch das Grossinstitut für Nanotechnik wird sich auf Mittelkürzungen einzustellen haben, was nach der Fehlleistung beim Exzellenzwettbewerb durchaus verständlich ist.

Die Landesregierung sendet in letzter Zeit vermehrt Hilferufe an den Bund. Bildungsministerin Annette Schavan soll einen Beitrag leisten bei der Finanzierung der Landesuniversitäten. Aber dies ist seit der Föderalismusreform im Jahr 2006 geradezu ausgeschlossen. Ein dediziertes Kooperationsverbot in der Verfassung gestattet keine Co-Finanzierungen des Bundes. Möglicherweise wäre Berlin (nach einer entsprechenden Verfassungsänderung) bereit, einige Universitäten - wie das KIT - als Bundesuniversitäten unter ihre Obhut zu nehmen. Aber hier zögern die Länder noch. Sie möchten auch ihre Kindergärten und Gesamtschulen finanziert haben, wozu der Bund aber nicht bereit ist. So wird die Finanzmisere der Länder sicherlich noch bis nach der nächsten Bundestagswahl anhalten.


Arme Hiwi

Objektiv betrachtet, erscheint das KIT gar nicht so arm zu sein. Es verfügte im abgelaufenen Jahr 2011 über einen Jahresetat von knapp 800 Millionen Euro, etwa gleich verteilt auf die Bereiche Universität (397 Mio Euro) und Forschungszentrum (392). Darin sind die von aussen eingeworbenen Drittmittel eingerechnet, deren Gemeinkostensatz von 20 Prozent allerdings kaum kostendeckend ist.

Vor diesem Hintergrund ist es unverständlich, dass Hiwi, welche an der Universität jobben, monatelang kein Geld für ihre Arbeit bekommen, bzw. nur abschlagsweise. Über "griechische Verhältnisse" lästern die Studentenvertreter und die Lokalzeitung BNN fragt: "Geht dem KIT das Geld aus?" Nun, an der Liquidität soll es beim KIT nicht mangeln, vordergründig sollen es Probleme mit den neuen Computerprogrammen sein, welche den rund 1000 Studenten ihren Lohn vorenthalten. Und dieser ist bescheiden genug: 320 Euro verdient ein Bachelor-Student, wenn er 40 Stunden monatlich als Hilfswissenschaftler an der Uni werkelt. Da aber der Durchschnittsstudent nur 750 Euro im Monat zur Verfügung hat, ist der Hiwi-Verdienst  wiederum auch nicht marginal. Der Personalrat des KIT mutmasst, dass es zu wenige Sachbearbeiter gibt für die Bearbeitung der Hiwi-Verträge; offensichtlich ist die Verwaltung des KIT bereits jetzt zu "schlank". Die zuständige Vizepräsidentin Elke Luise Barnstedt rechnet mit einer Normalisierung der Auszahlungen erst zum Jahresende!

Dass beim KIT allenthalben gespart werden muss, merkt man auch bei den Veranstaltungen "Junge Talente". Die beliebten Treffen mit Vortrags- und Musikdarbietungen sind neuerdings kostenpflichtig und die Bretzeln samt Getränk zum Schluss sind auch gestrichen. Die Managerin, Frau Tatubaeva, wird sich künftig auf weniger Publikum einstellen müssen.


KIT als Dienstherr

Ab 1. Januar 2013 bricht bei KIT eine neue Ära an: das KIT wird Dienstherr und Arbeitgeber. Im sog. Zweiten KIT-Gesetz soll dies geregelt werden. Die wichtigste Konsequenz aus der Dienstherrenfähigkeit ist der damit einhergehende Wechsel vom Arbeitgeber Land zum Arbeitgeber KIT. Das Präsidium informiert alle Beschäftigte persönlich per Einschreiben. Gegen diese "Überleitung" können die Beschäftigten innerhalb von drei Monaten Einspruch einlegen; sie verbleiben dann im bisherigen Dienstverhältnis. Die richtige Entscheidung zu treffen ist nicht trivial, jedenfalls sah sich der Personalrat bei einer kürzlichen Versammlung nicht in der Lage Empfehlungen für die Beschäftigten des ehemaligen Forschungszentrums abzugeben.

In der Hauszeitschrift KIT-Dialog klingt Skepsis durch, wenn man  dort liest: "Die Beschlüsse zur Harmonisierung hinterlassen eher gemischte Gefühle. Als Vergütungsgrundlage für den Universitäts- und den Forschungsbereich soll nämlich nicht der - auch vom KIT-Präsidium favorisierte - bundesbezogene Tarifvertrag für den Öffentlichen Dienst (TVöD) gelten, sondern der weniger vorteilhafte länderbezogene TV-L. Begründet wird diese, wenn man so will, Anpassung nach unten, mit dem aktuell angespannten Budget des KIT - ein haushälterisch nachvollziehbares, für die Motivationslage eines KIT-Beschäftigten freilich ziemlich knöchernes Argument."

Mancher (jüngere) KIT-MItarbeiter macht sich so seine Gedanken darüber, was wohl bei einem "organisatorischen GAU" passieren würde, etwa wenn das KIT stark verkleinert oder gar bankrott gehen würde. Dazu hat das Wissenschaftsministerium des Landes (Zitat Barnstedt) folgendes mitgeteilt: "Es geht bei der Frage der Haftung nicht um Insolvenz, sondern, wenn überhaupt, um unvorhergesehene Probleme. Das Land wird das KIT im Falle grösserer Schwierigkeiten nicht alleine lassen. Das ergibt sich schon daraus, dass das künftige KIT ein Teil der sogenannten "mittelbaren Landesverwaltung" ist". -  Irgendwie pflaumenweich.

Aktive und emeritierte Professoren sowie Beamte werden ab dem 1. Januar 2013 zum Dienstherrn KIT übergehen. Bereits pensionierte Professoren und Beamte bleiben solche des Landes Baden-Württemberg. Mit dem Übergang zum KIT ist zum Teil ein Wechsel im Namenszusatz verbunden. Beamte heissen dann nicht mehr "Regierungsbeamte" sondern "Verwaltungsbeamte". Die Änderung ergibt sich daraus, weil diese Beamten nicht mehr der Landesregierung unmittelbar zugeordnet sind, sondern nur noch der sogenannten mittelbaren Landesverwaltung. - Beamte 2. Klasse?


Die organisatorische Struktur wird gesucht

Derzeit wird unter Hochdruck eine neue organisatorische Struktur für das KIT gesucht. Den Ministerien in Stuttgart und Berlin ist die bisherige Struktur einerseits zu komplex, andererseits zu wenig integriert. So gibt es Programme nur im Forschungszentrum, Fakultäten nur an der Universität. Der Austausch des wissenschaftlichen Know-how zwischen Nord und Süd  ist noch ungenügend. In die Lehre an der Uni sind die Nord-Wissenschaftler zu wenig integriert. Ein neues, überzeugendes Organigramm soll also her, u. zw. bis zur nächsten Aufsichtsratssitzung am 5. November 2012.

Damit beauftragt ist der Senat mit seinen 58 Mitgliedern. Er nennt sich gerne das "Parlament des KIT", hat aber den organisatorischen Schönheitsfehler, dass er vom Präsidium geleitet wird, also nicht eigenständig (wie der frühere wissenschaftliche Rat am Kernforschungszentrum) agieren kann. Immerhin hat er eine Reihe von Vorschlägen zur Neustrukturierung des KIT gemacht, von denen hier einige vorgestellt werden sollen. Der Entscheidungsprozess ist noch im Gange.

Die neue Struktur des KIT orientiert sich an der seit Jahrzehnten bewährten Matrixstruktur im Forschungszentrum. Es soll fünf bis sechs (senkrechte) Bereiche geben, die beim FZK den sog. Projekten entsprachen. In der Matrixdarstellung waagrecht dazu verlaufen die Forschungs- und Lehreinheiten. Jedem Institut ist ein Bereich zugeordnet. Heftig diskutiert wird, ob die Bereiche eher nach Disziplinen (wie Mathematik, Physik, Chemie...) oder nach Forschungsthemen (wie Energie, Klima, Mobilität...) benannt werden sollen. Die Bereiche werden geleitet von Chief Science Officers, abgekürzt CSO, entsprechend den früheren Projektleitern. In der Diskussion ist noch, ob die CSO gegenüber den Institutsleitern Vorgesetztenfunktion haben sollen. Für die Koordination der Lehre gibt es einen Chief Higher Education Officer (CHEO); kommissarisch ist, nach Hipplers Weggang, dafür der Maschinenbauprofessor Alexander Wanner benannt.

Die Fakultäten, welche sich bislang sowohl um die Lehre als auch um die Forschung kümmerten, sollen künftig ausschliesslich für die Lehre zuständig sein, allerdings unter neuer Namensbezeichnung. Statt Fakultäten soll es in Zukunft nur noch Fachbereiche geben. Aus dem Fakultätsrat wird der Fachbereichsrat und - aufgemerkt! - die traditionsumrankten Dekane sollen entfallen. Sie werden zukünftig zu Fachbereichssprechern. Klingt ein bisschen nach Kaufhaus und Supermarkt, weswegen über diesen Vorschlag auch noch heftig gestritten wird.

Angesichts der doppelten Abiturjahrgänge, welche jetzt auf das KIT zukommen, will man die Wissenschaftler von Campus Nord stärker in die Lehre einspannen. Gedacht ist vorallem an promovierte Gruppenleiter, die - nach externer Begutachtung -  als KIT Associate Fellows an die Lehre herangeführt werden sollen und beispielsweise bei Promotionsverfahren als Referenten mitwirken können.


Ein Brief an den Präsidenten

Vor einigen Wochen erreichte Professor Eberhard Umbach ein Brief, den der Präsident des KIT vermutlich nur mit spitzen Fingern angefasst hat. Der frühere Betriebsratsvorsitzende des Forschungszentrums monierte, dass der ehemalige Geschäftsführer des Kernforschungszentrums, Dr. Rudolf Greifeld, immer noch in der Liste der 182 Ehrensenatoren des KIT bzw. der früheren Universität geführt wird. Angeblich war Greifeld als SS-Kriegsverwaltungsrat während des 2. Weltkriegs auch Kommandant von Gross-Paris. Bei seinem Ausscheiden 1976 wurde er wegen seiner grossen Verdienste um den Aufbau des Forschungszentrum mit dem Bundesverdienstkreuz ausgezeichnet.

Inzwischen findet sich Greifelds Name nicht mehr in der KIT-Liste der Ehrensenatoren - sehr wohl aber noch in der entsprechenden Wikipedia-Liste.





 

 

















Sonntag, 28. Oktober 2012

Die vergeigte Energiewende

"Das war`s" soll die Bundeskanzlerin Angela Merkel am Montag, dem 14. März 2011, zu ihren Vertrauten bei der wöchentlichen Lagebesprechung in Berlin gesagt haben. Seit Freitag, dem 11. März ("three-eleven") waren im japanischen Fukushima spektakulär einige Atomkraftwerke "explodiert", wovon die Bilder über alle Fernsehkanäle gingen. Umgehend zog die Bundesregierung die eben beschlossene Laufzeitverlängerung für die 17 deutschen Kernkraftwerke (KKW) zurück. Stattdessen sollten 8 KKW sofort, die restlichen 9  stufenweise zwischen den Jahren 2015 und 2022 abgeschaltet werden.

Die mit kompetenten Technikern besetzte Reaktorsicherheitskommission (RSK) sah zwar keinen Grund für diese rigide Massnahme, aber eine flugs einberufene Ethikkommission, bestückt mit hohen Geistlichen, drängte auf die Ausserbetriebnahme dieser Kraftwerke - aus ethischen Gründen. Im Sommer 2011 votierten Bundestag und Bundesrat für die Vorschläge der Regierung. Ohne Absprache mit den europäischen Nachbarländern wurde die sog. "Energiewende" verkündet. Der elektrische Strom sollte vorzugsweise durch Sonne, Wind und Biogas erzeugt werden; über 80 Prozent der deutschen Bevölkerung stimmte laut Umfragen diesem Unterfangen zu. Nicht wenige wollten sogar alle deutsche Atomkraftwerke sofort stillegen.

Die Rechnung wird präsentiert

Nunmehr sind eineinhalb Jahre vergangen und von der früheren Hochstimmung ist wenig übrig geblieben. Allenthalben knirscht es bei der Umsetzung dieses Projekts, schon werden die "Schuldigen" gesucht und einer - der frühere Umweltminister Norbert Röttgen - wurde sogar bereits gefunden und in Unehren entlassen.

EEG-Umlage und Beiträge zur Stromrechnung

Heftig diskutiert wird in den Medien das starke Ansteigen der Strompreise. Dabei hatten die Öko-Experten eigentlich das Gegenteil vorausgesagt, denn "Wind und Sonne schreiben keine Rechnung". Deutschland hat mit 25,3 Cent pro Kilowattstunde die zweithöchsten Strompreise in Europa, unmittelbar hinter Dänemark (29,8). Dahinter liegen u.a. Italien (20,8 ct/kWh), Grossbritannien (15,8), Frankreich (14,2), Griechenland (12,4) und Bulgarien (8,7). Und da der Strom aus den Solardächern und Windmühlen subventioniert werden muss, entfällt auf jeden Haushalt eine Öko-Zulage gemäss dem Gesetz über Erneuerbare Energien (EEG).

Die Umlage zur Förderung von Ökostrom nach dem EEG steigt in diesem Jahr von 3,6 Cent auf 5,3 Cent je Kilowattstunde. Das sind satte 47 Prozent. Inclusive Mehrwertsteuer erhöht sich die Belastung der Stromkunden auf 6,3 Cent je kWh. Pro Haushalt werden dies ca. 60 bis 80 Euro sein.  Im kommenden Jahr wird der Ökostrom mit etwa 20 Milliarden subventioniert, was den Hartz-IV-Ausgaben für sechs Monate entspricht.

Etwa 700 Betriebe mit hohem Stromverbrauch sind von der Ökozulage aus genommen. Es handelt sich zumeist um Betriebe aus der Chemie, der Aluminiumherstellung und der Eisenhüttenbranche, die in starker Konkurrenz zu ausländischen Wettbewerbern stehen. (Die französischen Autofirmen Peugeot und Renault erhalten den Strom vom nationalen Erzeuger EdF beispielsweise für 1 bis 2 Cent pro Kilowattstunde!) Von den Grünen wird gern das Gerücht gestreut, dass diese Ausnahmeregelung die hohe Ökozulage bewirken würde. Das ist nachweisbar falsch. Selbst wenn man all diesen Betrieben den vollen Preis anrechnen würde, fiele die Ökozulage nur von 5,3 auf 4,3 pro kWh - also um 1 Cent.

Die unverstandene Grundlast

Die meisten Stromkunden hatten sich die Energiewende einfacher (und billiger) vorgestellt. Für sie war es der simple Austausch von Atomstrom gegen Sonnen- und Windstrom. Aber so einfach funktioniert dieser Systemwechsel nicht. Die Kernkraftwerke haben die Fähigkeit fast das ganze Jahr hindurch gleichmässig Strom zu liefern; die Solarmodule auf dem Dach aber benötigen dafür Sonnenschein; die Windräder drehen sich nur, wenn der Wind bläst. Im Schnitt produzieren die Sonnenkollektoren jährlich lediglich 800 Stunden Strom, die Windräder etwa 1.600 Stunden - aber das Jahr hat 8.760 Stunden! Für die stromlosen Zeiten muss also ein Gas- oder Kohlekraftwerk bereit stehen, um den benötigten Strom zu erzeugen. Diese Reservekraftwerke (auch Backup- bzw. Schattenkraftwerke genannt) werden entsprechend den Wind- und Sonnenverhältnissen in Betrieb genommen bzw. abgeschaltet. Dieser unregelmässige Betrieb verursacht hohe Kosten und beansprucht im starken Masse die Komponenten der Kraftwerke. (Vergleichbar mit einem Auto, bei dem ständig mit dem Gaspedal gespielt wird.)

Aber das ist noch nicht alles. Gemäss dem EEG muss der Sonnen- und Windstrom prioritär in das Stromnetz eingespeist werden. Die fossilen Kraftwerke sind also abzuschalten, wenn unerwarteterweise die Sonne scheint oder der Wind weht. Gelingt die Einspeisung des Ökostroms nicht, etwa weil das Netz überlastet würde, so sind die Windmühlen abzuschalten, wobei deren - fiktive - Stromerzeugung aber trotzdem den Kunden in Rechnung gestellt wird.

Die sog. Grundlast, welche ständig - Tag und Nacht - zur Verfügung stehen muss, macht etwa 50 Prozent des gesamten Stromaufkommens aus. Sie wurde bisher i. w.  von den konstant laufenden Kernkraftwerken mühelos (und sehr preiswert) bereitgestellt. Aus dem oben Gesagten wird deutlich, dass Wind und Sonne dies nicht leisten können, da sie in ihrem Stromangebot unvorhersehbar fluktuieren und prioritär eingespeist werden müssen. Zudem ist dieser Ökostrom wegen der  unbedingt notwendigen fossilen Backup-Kraftwerke sehr teuer.

Es ist Mode geworden, die grossen Energieversorger RWE, Eon, EnBW und Vattenfall in der Öffentlichkeit ständig zu kritisieren. Sie mögen in der Vergangenheit nicht alles richtig gemacht haben, aber sie haben das Stromnetz in Deutschland stabiler gehalten als alle Konkurrenten im Ausland. Die Energiewende wird nur gelingen, wenn man den Sachverstand dieser Firmen nutzt. Strom ist ein ganz besonderer Saft und, dass aus jeder der vielen hundert Millionen Steckdosen in Deutschland immer genügend Strom herauskommt, ist keineswegs trivial. Begriffe, wie Blindstrom, Cosinus phi, Netzstabilität etc. spielen dabei eine grosse Rolle, die allerdings dem Laien kaum erklärt werden können. Die Energiewende - richtiger sollte man von der "Stromwende" sprechen - ist eine hochkomplizierte Operation am Herzen der deutschen Volkswirtschaft.


Die fehlenden Stromnetze

Wegen der grosszügigen Subventionierung werden - unkoordiniert - viele Häuser und sogar ausgedehnte Wiesenflächen mit Solarmodulen belegt. Im windreichen Schleswig-Holstein und in Niedersachsen wurden ca. 20.000 Windräder unterschiedlicher Leistung aufgestellt. Darüberhinaus rammte man in Nord - und Ostsee hunderte von sog. offshore-Windgeneratoren in den Seeboden. Sie sollen nach nach den Vorstellungen des Umwelt- und Wirtschaftsministeriums dereinst ein Sechstel der in Deutschland benötigten Strommenge liefern.

Leider gibt es aber in diesen nördlichen Bereichen kaum Industriebetriebe, welche den erzeugten Strom abnehmen können. Im hochindustrialisierten Bayern und Baden-Württemberg kommt diese Windelektrizität aber nicht an, weil dorthin die Stromnetze nicht ausgebaut sind. Dies soll durch das Grossprojekt "Netzausbau" in Zukunft nachgeholt werden. Es sieht den Bau neuer Stromleitungen von Nord nach Süd vor. Dieses grösste  Infrastrukturprojekt seit der Wiedervereinigung wird mit 40 Milliarden Euro beziffert und soll in zehn Jahren abgeschlossen sein. Der Widerstand der betroffenen Grundstückseigentümer ist sicher.

So lange wollen die stromhungrigen Südländer jedoch nicht warten. Sie werden sich in Kürze unabhängig machen von den Stromlieferungen aus dem Norden. Dafür plant man in Bayern das landeseigene "Bayernwerk". Ähnliche Überlegungen gibt es in Baden-Württemberg. Es kann also sehr wohl die Situation eintreten, dass der Norden erzeugte Windstrom in zehn Jahren - wenn die Trassen stehen sollen - gar nicht mehr gebraucht wird, weil sich die Südländer inzwischen selbst versorgen. Die Ursache für dieses absehbare Fiasko liegt darin, dass es bis jetzt noch keinen gesamtdeutschen Energieplan gibt, sondern deren 16, nämlich für jedes Bundesland einen eigenen.

Die fehlenden Stromspeicher

In der neuen Konfiguration der verschiedenen Stromerzeuger sind die fehlenden Stromspeicher ein grosses Problem. Früher betrieben die Energieversorgungsunternehmen ihre Pumpspeicherkraftwerke mit billigem Nachtstrom; zur Mittagszeit liessen sie das Wasser ab und die Turbinen erzeugten Elektrizität, die teuer verkauft werden konnte. Dieses Geschäftsmodell funktioniert jetzt nicht mehr, insbesondere deswegen, weil die Sonnenkollektoren im Sommer tagsüber genügend Strom ins Netz speisen. Praktisch alle Pumpspeicherkraftwerke sind dadurch unrentabel geworden. Neue Speichersysteme, welche die volatile Sonnen- und Windenergie speichern könnten, sind jedoch nicht bekannt bzw. unwirtschaftlich.

Einen interessanten Versuch in dieser Richtung machte vor einigen Jahren das Forschungszentrum Jülich. Der Strom einer Solaranlage wurde durch Elektrolyse in Wasserstoffgas umgewandelt, das man in Druckflaschen zwischenspeicherte. In Brennstoffzellen der üblichen Bauart wurde daraus wieder Strom gemacht und ins Netz abgegeben. Der Wirkungsgrad für dieses System lag bei enttäuschenden 1 Prozent. Es macht also keinen Sinn, diesen Prozess im grossen Stil zu etablieren. Strom aus Fotozellen sollte man direkt ins Netz abgeben - sofern dieses nicht bereits überlastet ist.

Auch die Speicherung von Solar- und Windstrom in Lithium-Ionen-Akkus kann man vergessen. Um den zweitägigen Strombedarf auch nur einer Grosstadt wie München in einer solchen Batterie zu speichern, bräuchte man einen würfelförmigen Akku von 50 Metern Kantenlänge. Bei einem Bleisäure-Akku, wie er in Autos verwendet wird, würden der Würfel auf 100 Meter Kantenlänge anwachsen!


Fazit

Bei der Einführung der sog. Energiewende wurden eine Menge Fehler gemacht. Die wichtigsten und nachhaltigsten seien kurz rekapituliert.

1. Die Bundeskanzlerin Merkel hat wenige Tage nach den Ereignissen in Fukushima, in überhasteter Form und ohne Beratung, die weitreichende Entscheidung zum Atomausstieg praktisch allein getroffen. Richtiger wäre es gewesen, den im Herbst 2010 ausgearbeiteten Beschluss zur (geringfügigen) Laufzeitverlängerung beizubehalten, evtl. modifiziert durch die Abschaltung einiger älterer Kernkraftwerke mittlerer Leistung.

2. Die Förderung der Sonnenenergie ist aus dem Ruder gelaufen. Für mehr als 100 Milliarden wird - auf Kosten der Stromkunden -  eine Technologie subventioniert, die nur mit drei Prozent zum Stromaufkommen beiträgt. Diese hohe Förderung der Solartechnik hat ausländische (vorallem chinesische) Billigkonkurrenten nach Deutschland gelockt mit der Folge, dass praktisch alle heimischen Solarfirmen bankrott gegangen sind. Kürzlich hat sogar die Weltfirma Siemens beschlossen, aus der Solartechnik auszusteigen; die Firma Bosch steht möglicherweise kurz davor.

3. Im Norden Deutschlands wurden (onshore und offshore) eine Unzahl von Windräder aufgestellt, die keine Netzanbindung an die stromhungrigen Südländer Bayern und Baden-Württemberg besitzen. Gemäss dem Gesetz für Eneuerbare Energien müssen diese Windräder aber selbst bei Stillstand subventioniert werden.

4. Die Probleme des Netzausbaus für die Stromleitung von Nord nach Süd wurden drastisch unterschätzt. Es wird mindestens zehn Jahre dauern, bis die 4.000 Kilometer Trassen gelegt sind und es wird um die 40 Milliarden Euro kosten.

5. Völlig ungelöst ist das Problem zur Speicherung des fluktuierenden Wind- und Solarstroms. Es ist durchaus möglich, dass es dafür überhaupt keine Lösung gibt.

6. Die prioritäre Einspeisung von Wind- und Solarstroms erfordert eine Unzahl fossiler Reservekraftwerke. Wegen ihres unsteten Betriebs sind diese Kraftwerke teuer und tragen massgeblich zu den hohen Stromkosten für die Kunden bei.

7. Zur Winterzeit, insbesondere an kalten und windstillen Tagen und wenn der Himmel bedeckt ist, wird in Zukunft in Deutschland eine erhöhte Gefahr für Stromausfall bestehen. Das Risiko für Blackouts und Brownouts wird sich noch weiter steigern, wenn ab dem Jahr 2015 die grossen Kernkraftwerke abgeschaltet werden und ein drastischer Mangel an Grundlast aufkommen wird.

8. Selbst jetzt - eineinhalb Jahre nach dem Atomausstieg - gibt es noch keine nationale Strategie zur Beherrschung der damit verbundenen Probleme. Als Folge davon werden die Verantwortlichen in den Bundesländern nervös und jeder der 16 Ministerpräsidenten bastelt bereits an einem Energieplan für sein eigenes Land. Diese fehlende Gesamtkoordination wird den Strom zusätzlich teuerer machen und die Versorgungssicherheit gefährden.

9. Von klimagerechter Stromerzeugung ohne CO2 redet niemand mehr. Fossile Kraftwerke, auch auf Braunkohlenbasis, sind auch im rot-grünen Nordrhein-Westfalen wieder in - weil ohne sie die Stromwirtschaft zusammenbrechen würde.


Sonntag, 21. Oktober 2012

Tropenholz für Möbel? Warum nicht!

In den fünfziger und sechziger Jahren des vorigen Jahrhunderts war die Verwendung von Tropenholz zur Herstellung von Möbeln durchaus üblich. Teak, Palisander, Mahagoni und viele andere Holzarten schmückten die Wohnzimmer und die Terrassen. Die tropischen Hölzer zeichnen sich vor allem durch hohe Festigkeit und durch eine angenehme Maserung aus, weshalb man gerne von Edelholz spricht. Die Struktur der Tropenhölzer ist aufgrund des konstanteren Klimas in den Tropen gleichmässiger als die von Jahresringen geprägte Maserung der Hölzer aus den gemässigten Zonen.

Um 1970, mit dem Aufkommen des Umweltbewusstseins, kam die Verwendung von Tropenholz für Schreinerzwecke in Verruf. Umweltschutzorganisationen, wie Greenpeace oder Rettet den Regenwald wiesen auf die hohe Entwaldungsrate, vor allem in Indonesien, hin und forderten den vollständigen Verzicht auf Tropenholz. Das liess sich aber nicht so schnell bewerkstelligen. Auch im Zeitraum 2000 bis 2005 betrug der jährliche Nettoverlust an Wald in Indonesien nach Angaben der UN noch 1,8 Millionen Hektar, also mehr als 2 Millionen Fussballfelder! Trotzdem: studiert man die Reklamebroschüren der Möbelfirmen, so werden heute Wohnzimmer- und Terassenmöbel zumeist aus heimischer Eiche und Nussbaum hergestellt. Inbezug auf Festigkeit reichen sie an die Tropenhölzer heran, allerdings stören nicht selten die rustikale Maserung und die Astnüsse.


Tropenbäume aus den Untiefen

Inzwischen gibt es eine Methode Tropenholz waggonweise zu fällen, ohne dass man der Natur schadet und ohne, dass Umweltschutzorganisationen etwas dagegen haben. Unglaublich aber wahr: man holt die Tropenbäume aus der Tiefe von Seen.  Taucher fällen Wälder, die vor Jahrzehnten überflutet wurden. Allein beim Bau des Panama-Kanals verschwand Tropenholz für umgerechnet mehrere hundert Millionen Dollar in den Fluten des Gatunsees. Auf dreihundert Millionen Bäume weltweit schätzen Experten den versunkenen Vorrat in rund 45.000 künstlich geschaffenen Seen, Talsperren und Kanälen. Und die Ernte eilt nicht, denn unter Wasser überdauert Holz viele Generationen.

Doch die Bergung dieser versunkenen Bäume ist ein Knochenjob. Taucher schrauben Plastiktonnen an den Bäumen fest und füllen sie mit Pressluft. Danach kappen sie die Hölzer und der Auftrieb schwemmt die Stämme nach oben. Inzwischen gibt es schwimmende Sägebagger, die das Holz noch in 35 Metern Tiefe "ernten" können. Und bei Tiefen bis zu 300 Metern kommt ein ferngelenktes Säge-U-Boot zur Anwendung, das mit Unterwasserkameras und Sonargeräten ausgestattet ist. Der Steuermann an der Oberfläche setzt einen Roboter ein, der das Holz packt, einen Luftsack anschraubt und den Baum auf handliche Längen absägt. Bis zu hundert Stämme pro Tag schafft ein solches Spezialboot. Der Unterwasser-Kahlschlag rechnet sich, denn viel mehr als ein Harvester an Land kostet dieser Roboter auch nicht - und man spart sich das Aufforsten.

Das aus der Tiefe geholte Holz kann teuer verkauft werden. Es ist seit Jahrzehnten abgeschirmt von Hitze, Borkenkäfern und Pilzen. Durch das Liegen im Wasser haben sich alle Spannungen abgebaut, Gerbsäure und Harze sind ausgewaschen. Nach der Bergung lässt man die Bäume zwei Monate an der Luft trocknen, bis sie zersägt und zur Möbelherstellung verwendet werden. Diese Form der Abholzung wird bislang nicht kritisiert, denn für jeden Baum, der aus der Versenkung geholt wird, muss einer weniger an Land fallen. Kein Kohlendioxidspeicher verschwindet, kein Waldbewohner verliert seinen Lebensraum. Diese Ernte nützt sogar dem Klima, denn lägen die Holzstämme sehr lange im Seewasser, dann würden sie doch irgendwann verrotten.

Und das entstehende Methan wäre Gift für die Atmosphäre!

Sonntag, 14. Oktober 2012

Neue Formen der "Heimarbeit"

Oberflächlich betrachtet, werden unsere Wirtschaftsgüter immer komplexer, sodass sie für den Einzelnen kaum mehr durchschaubar sind. Ihre Herstellung geschieht über viele Unterlieferanten an allen Stellen der Erde, insbesondere in lohnniedrigen asiatischen Ländern. Seit einiger Zeit deutet sich in dieser Hinsicht jedoch eine Rückbewegung an: die Globalisierung der Produktfertigung weicht einer Regionalisierung und die Computerwelt wird "demokratischer". Die Stichworte für diese Entwicklung sind Open Source Software und 3D-Drucker. Sie sollen nachstehend kurz beschrieben werden.

Open Source Software

Open Source bzw. quelloffen nennt man eine Computer-Software, welche zwar unter einer Lizenz steht, deren Quelltext aber öffentlich zugänglich ist. Die Open-Source-Software (OSS) darf frei  kopiert, verändert und weiterverbreitet werden. Die erste OSS stellte die Browserfirma Netscape ins Netz, als sie gegen die Dominanz von Microsoft nicht mehr ankam. Daraus entwickelte sich später das Mozilla-Projekt. Auch das Betriebssystem Linux ist eine freie Software, an deren Vervollkommnung tausende von privaten Programmierer mitgeholfen haben. Zu nennen wäre noch Wikipedia, dem es gelungen ist, das Lexikon Brockhaus aus dem Markt zu schlagen. (Allerdings sollte man hier besser von Open Content sprechen.)
Logo der Open Source Initiative

Die Entwicklung und Verwendung von OSS wird sowohl von Firmen als auch von Privatpersonen betrieben. So werden die Entwicklungskosten geteilt und jeder kann von der Arbeit der anderen profitieren. Für eine Firma kann es finanziell lohnend sein , sich an einem Open-Source-Projekt zu beteiligen, anstatt eine Eigenentwicklung - etwa im indischen Bangalore - zu starten oder fertige Software einzukaufen. Ein Vorteil der OSS besteht auch darin, dass man nicht von einer bestimmten Herstellerfirma (wie Microsoft oder Google) abhängig ist. Will der Nutzer das Computerprogramm erweitern, oder gar einen Fehler beheben, so steht es ihm frei, diese Änderung vorzunehmen. Die Software darf von einer beliebigen Anzahl von Benutzern für einen beliebigen Zweck eingesetzt werden. Trotzdem ergeben sich bei der Verwendung sogenannter freier Software auch Risiken für Herstellerfirmen. Diese müssen für ihr Produkt, zum Beispiel ein Motorrad, natürlich weiterhin haften und gewährleisten, egal woher sie die (möglicherweise fehlerhafte) Software bezogen haben.



3D-Drucker

Auch Computer-Aided-Design (CAD)-Programme, welche vor einigen Jahren noch viel Geld kosteten, gibt es mittlerweile schon gratis im Internet. Darauf beruht die neuartige Herstellungstechnik des dreidimensionalen Druckens von Bauteilen. Man benötigt für einen Maschinenteil, nicht mehr wie früher, ein teures Arsenal an Bohr-, Fräs- und Schleifmaschinen, sondern nur noch einen 3D-Drucker etwa von der Grösse eines Kleiderschranks. In dessen Inneren schmilzt ein Laserstrahl das Metallpulver an zuvor genau festgelegten Stellen an. Schicht um Schicht entsteht die gewünschte dreidimensionale Struktur entsprechend dem eingegebenen Rechenprogramm. Dabei finden im Laserbereich physikalische und chemische Schmelz- und Härtungsprozesse statt, wobei zumeist Kunststoffe, Harze und Metalle in pulverförmiger Form zur Anwendung kommen.

Der Drucker fertigt - zu geringen Kosten - Einzelstücke, die sonst im Rahmen einer Massenfertigung nur unter riesigem Aufwand herstellbar wären. Die Anwendungsmöglichkeiten für die 3D-Drucktechnik sind nahezu unbegrenzt. Zahnärzte und Dentallabore müssen ihre Aufträge für Kronen und Brücken nicht mehr (aus Kostengründen) nach Polen oder gar nach China schicken, sondern können diese im lohnintensiven Deutschland praktisch über Nacht herstellen. Kein asiatischer Zahntechniker kann mit einer modernen Druckmaschine kostenmässig mehr mithalten.

Besonders interessiert an der 3D-Technik ist die Luftfahrtindustrie, zum Beispiel EADS-Airbus. Dort gibt es eine Vielzahl von Beschlägen, welche zwei Bauteile in einer Tragfläche zusammen halten. Bislang hat EADS diese Beschläge aus einem einzigen Block Titan gefräst, wobei 90 Prozent Verschnitt anfiel. Nun liess der Chefentwickler Claudio Dalle Donne solche Beschläge mit einem 3D-Drucker fertigen - bei Verschnitt null! Hinzu kommt, dass ein Beschlag aus herkömmlicher Fertigung massiv und symmetrisch ist, während er aus einem 3D-Drucker hohl und asymmetrisch herauskommt. Damit ist er genau so fest, aber viel leichter. Da in einem Flugzeug tausende an  Beschlägen stecken, kann die neue Technik das Gewicht eines Flugzeugs deutlich reduzieren und damit auch den Verbrauch an teuerem Kerosin.

Die Auswirkungen der 3D-Drucktechnik haben das Potential die Globalisierung zurück zu drängen. Viele Unternehmen haben bislang ihre Produktion ins Ausland verlagert. Diese Zulieferer verliessen sich wiederum auf weitere Zulieferer in anderen Ländern. Der Nachteil ist evident: reisst die Lieferkette auch nur an einer einzigen Stelle, dann kann vorübergehend die gesamte Produktion still stehen. Nach dem Erdbeben in Japan vergangenen Jahres musste der Autobauer General Motors eine ganze Fabrik in den USA schliessen, weil ein Bauteil eines japanischen Zulieferers fehlte: im Wert von gerade mal zwei Dollar! Bei Verfügbarkeit von 3D-Druckern wäre das nicht passiert. Es ist gut möglich, dass westliche Firmen in Zukunft ihre Lieferketten verkürzen werden und Zulieferer in der Nähe suchen. 3D-Drucker in Deutschland könnten ferne Giessereien in China ersetzen.

Die "Heimarbeit" ist wieder in!

Freitag, 5. Oktober 2012

Hippler poltert

Horst Hippler, seines Zeichens Professor für Physikalische Chemie, war noch nie ein Team-Player, stattdessen überraschte er seine Umgebung häufig mit spontanen Alleingängen. Das war auch so im August 2006, als er (noch als Rektor der TU Karlsruhe) den Geschäfsführer Popp vom Forschungszentrum FZK in Leopoldshafen an die Hand nahm und grosspurig verkündete: "Wir wollen heiraten". Von Stund an betrieb er die Fusion von TU und FZK zum "Karlsruher Institut für Technologie" (KIT), ohne sich gross um die Mitwirkung der Gremien in beiden Organisationen zu scheren. Der Ausgang der Geschichte ist bekannt: es dauerte drei quälende Jahre, bis das KIT statutengerecht gegründet war. Mit dem KIT-Coup gewann man zwar einmal im Exzellenzwettbewerb, allerdings verlor KIT den schönen Titel Elite-Universität schon wieder im Juni 2012. Die Wunden, welcher dieser unerwartete Verlust geschlagen hat, werden noch immer geleckt.

Eine knappe Wahl

Den Verlust des Elitestatus für KIT beklagte Hippler in mehreren Zeitungsinterviews als "völlig überraschend". Das wird in Karlsruhe inzwischen bezweifelt. Stattdessen hält sich standhaft das Gerücht, dass Hippler schon ein Vierteljahr vorher über die Abstufunf des KIT unterrichtet war. Zum "Beweis" wird immer wieder angeführt, dass sich Hippler sonst nicht schon im April 2012 um die Wahl zum Präsidenten der Hochschulrektorenkonferenz (HRK) bemüht hätte.


Professor Horst Hippler

Tatsächlich gewann Hippler die Wahl zum HRK-Präsidenten nur nach einer langen Wackelpartie. Er brauchte zwei Wahlgänge um sich durchzusetzen, wie aus HRK-Kreisen zu erfahren war. Am Ende bekam er 224 von 423 Stimmen, 212 waren für die Wahl zum Präsidenten nötig. Im ersten Wahlgang erhielt Hippler lediglich 188 Stimmen. Sein Gegenkandidat Lothar Zechlin, Rektor der Uni Duisburg Essen konnte sogar die Mehrheit der Rektoren auf seine Seite ziehen, da jedoch die Stimmen entsprechend der Studentenzahl der Hochschulen gewichtet sind, gab das Votum der grossen Unis den Ausschlag. Praktisch alle Fachhochschulen in der HRK-Mitgliederversammlung wollten Hipplers Wahl um jeden Preis verhindern, während die Präsidenten der studentenstarken Exzellenzuniversitäten "ihren Mann" nach vorne pushten. Hippler ist Nachfolger von Margret Wintermantel; seine Präsidentschaft begann am 1. Mai 2012 und wird bis zum 31. August 2015 dauern.

Kein Versöhner

Es dauerte nur wenige Wochen nach seiner Wahl, bis sich Hippler als neuer KRK-Präsident in den Medien zu Wort meldete. Er übte harsche Kritik an den Bologna-Reformen, wobei er die mangelnde Mobilität der Studenten beklagte und dass sie nicht zu "Persönlichkeiten" ausgebildet würden. Innerhalb der HRK sorgten diese Äusserungen für beträchtliche Unruhe; insbesondere die Fachhochschulen fühlten sich zu Unrecht an den Pranger gestellt. Ungerührt legte Hippler nach. Eine Hochschule muss mehr leisten als Ausbildung, nämlich Bildung. Das tut sie mit dem Bachelor nicht. Mit dieser Aussage provozierte er sogar die Bundesbildungsministerin Frau Annette Schavan. Sie konterte scharf und stellte damit Hipplers Autorität als HRK-Präsidenten infrage: Ich bin im übrigen nicht der Meinung, dass die Ansicht von Herrn Hippler die der Hochschulrektoren ist. Peng!

Tatsächlich gibt es Kritik an Hippler von vielen Seiten. Ein Grossteil der Fachhochschulen ist der Überzeugung die Bologna-Reformen in ihren Lehrplänen ganz gut umgesetzt zu haben. Nach zehn Jahren intensivsten Benühens jetzt wieder Grundsatzdebatten darüber zu führen, halten sie für inopportun. Aber auch nicht weinge Universitäten mucken gegen Hippler auf und werfen ihn Alleingänge vor. Der Präsident der Uni Giessen stellte ganz pointiert fest: Die HRK-Spitze kann ja ihre Position neu bestimmen, aber das müsste man vorher mal auf einer Mitgliederversammlung diskutieren. Die nächste Vollversammlung der HRK ist für November 2012 anberaumt; Hippler wird dabei der Wind ins Gesicht blasen. Hinter vorgehaltener Hand äussern sich bereits jetzt viele Hochschulchefs sehr negativ über ihren frischgewählten Präsidenten. Nicht wenige bereuen es schon. ihm überhaupt ihre Stimme gegeben zu haben. Der Bologna-Prozess, sagen sie, sei viel zu wichtig, um auf Kosten der Studienreform ein paar billige Aufmerksamkeitspunkte smmeln zu wollen.

In Karlsruhe, beim KIT, wundern sich die Mitarbeiter derweil über andere Dinge. Nachdem viel spekuliert wurde, wer die vom scheidenden Präsidenten Hippler entstandene Lücke schliessen würde, gab es vor wenigen Wochen einen Anschlag am Schwarzen Brett. Zur Überrsachung aller konnte man darauf lesen, dass der hinterlassene Professor Eberhard Umbach die Geschäfte des KIT allein weiterführen werde.

Da fragt sich doch mancher: gab es etwa gar keine Lücke?

Freitag, 28. September 2012

Wurde die Energiewende herbeigeschrieben?

Die sogenannte Energiewende ist jetzt etwa eineinhalb Jahre alt. Verkündet wurde sie - im Alleingang - von der Bundeskanzlerin Angela Merkel anfang April vergangenen Jahres, unmittelbar nach den Geschehnissen in Fukushima. Nachdem die technisch orientierte Reaktorsicherheitskommission an den deutschen Kernkraftwerken (nach nochmaliger intensiver Untersuchung) keine Gefährdungspunkte erkennen konnte, schlug sich eine rasch einberufene Ethikkommission, mit einer Reihe von Geistlichen, auf Merkels Seite. Im Sommer 2011 segneten Parlament und Bundesrat die Energiewende ab. Acht Kernkraftwerke wurden sofort abgeschaltet, die neun restlichen sollen zwischen 2015 und 2022 folgen.

Inzwischen sind zwei Mainzer Medienforscher, Hans Mathias Kepplinger und Richard Lemke, der damaligen Medienberichterstattung nachgegangen und haben hierüber eine Studie vorgelegt, die von der Stiftung Demoskopie Allensbach finanziert worden ist. Sie wurde den Presseagenturen im Sommer diesen Jahres vorgelegt, dort hat sie aber trotz ihrer Brisanz kein Echo gefunden. Lediglich die Tageszeitung "Die Welt" druckte einen kurzen Artikel darüber, auf den auch keine Resonanz folgte, wenn man von einem kurzen Leserbrief absieht. Die Informationen in diesen Blog sind der "Neue Zürcher Zeitung" (NZZ) entnommen, welche dieser Studie kürzlich einen Artikel gewidmet hat.


Vier Länder untersucht

Die genannten Wissenschaftler konzentrierten sich bei ihrer Studie auf die vier Länder Deutschland, Schweiz, Frankreich und Grossbritannien. In jedem dieser Länder analysierten sie im Gefolge des Störfalls in Fukushima die Fernsehnachrichten sowie die Printartikel in jeweils zwei grossen Tageszeitungen. In der Schweiz waren dies die NZZ und der "Tages-Anzeiger"; in Deutschland wählten sie die "Frankfurter Allgemeine Zeitung" und die "Süddeutsche Zeitung" aus. Grosse Unterschiede gab es bereits beim Umfang der Berichterstattung. Die untersuchten deutschen Medien brachten in den ersten vier Wochen nach dem Reaktorunfall 577 Beiträge über Fukushima, in der Schweiz waren es 521, während die Forscher in Frankreich nur 319 und in England sogar nur 271 zählten.

Besonders interessant sind die Differenzen bei der Bewertung des Störfalls. Die französischen und britischen Medien beschäftigten sich vorwiegend mit dem Reaktorgeschehen in Japan selbst. Demgegenüber nahmen die deutschen und schweizer Redaktionen den Unfall zum Anlass, um die Situation im eigenen Land zu beleuchten. In 90 Prozent der Artikel wurde der Ausstieg aus der Kernenergie oder zumindest ein Moratorium verlangt. Diese negativ besetzte Berichterstattung kann man nicht allein durch die Natur des Ereignisses erklären, denn die Kernkraftwerke aller vier Länder besitzen im wesentlichen den gleichen Sicherheitsstandard. Die Autoren der Studie vermuten stattdessen dahinter langfristig gewachsene negative Meinungen der deutschen und schweizer Journalisten zur Kernenergie. So seien die negativen Aussagen der Artikelschreiber in der Süddeutschen Zeitung zumeist auch von negativen Expertenmeinungen begleitet gewesen; beim französischen "Figaro" war es genau umgekehrt.


Erdbeben und Todesfälle

Auffallend war, insbesondere in den deutschen Medien, die ungenaue Zuordnung der Todesfälle zu den Ursachen. Bekanntlich sind dem Tsunami mehr als 30.000 Menschen zum Opfer gefallen. Bei den Reaktorunfällen hingegen sind es nur drei; die Strahlung könnte vermutlich weitere 100 bis 1000 Krebstote zu einer späteren Frist fordern. Im Zuge einer stark verzerrten Berichterstattung wurden diese Zahlen immer wieder durcheinander geworfen, sodass sich für den Laien kein klares Bild ergeben konnte. Auch die Rückkehr der Bewohner in die anfangs kontaminierten Gebiete wurde nur unzureichend dokumentiert.

Dass die Studie von Kepplinger und Lemke in den Medien nicht den gebührenden Widerhall gefunden hat, hat wohl auch damit zu tun, dass die Redaktionen zögern, Berichte aufzugreifen, wenn sie dabei auf die Erstpublikation eines Wettbewerbers verweisen müssten. Trotzalledem: die beiden Medienforscher haben überzeugend beleuchtet, wie eine politische Jahrhundertentscheidung zustande gekommen ist. In Deutschland und - abgeschwächt - in der Schweiz, hat die gleiche Ursache zum Ausstieg aus einer seit Jahren bewährten Technologie geführt; in Frankreich und England werden die Kernkraftwerke, wie vorher, weiterbetrieben.

Und alle entscheidungsbefugten Politiker in den vier Ländern berufen sich auf die Fakten.



Sonntag, 23. September 2012

Gas in Hülle und Fülle

Der Energiemarkt hat sich in den vergangenen vier Jahren total umgekrempelt. Als im Jahr 2008 die Ölpreise in die Höhe schossen, schien die Welt in einem Energiehunger zu versinken. Die Vorräte an Erdgas - so schätzten die Experten - würden in 30 bis 40 Jahren zu Ende gehen. Die USA sah sich auf ewige Zeiten als Energieimportland an. Inzwischen haben sich Angebot, Nachfrage und Preise der Ressource Gas auf dem Weltmarkt drastisch verändert: das Angebot ist deutlich gestiegen und die Preise beginnen zu fallen.


Die USA sind Selbstversorger

Die Ursache für das verbesserte Angebot an Gas in den Vereinigten Staaten ist die Förderung des Schiefergases, das allenthalben im Land gefunden wird. Es war bis vor wenigen Jahren noch unerreichbar, da es in tiefen Gesteinsschichten in nur verdünnter Form eingelagert ist. Durch die Entwicklung der "Fracking-Methode" hat sich dies grundlegend verändert. Tiefbohrungen und das Einpressen eines Gemisches aus Wasser, Sand und Chemikalien befreien dieses unkonventionelle Gas aus dem Gestein. Die Folge ist, dass die USA beim Erdgas inzwischen zum Selbstversorger auf dem Gasmarkt aufsteigen konnten, also nicht mehr auf Importe angewiesen sind. Es ist sogar wahrscheinlich, dass die Amerikaner demnächst Fracking-Gas exportieren werden. Das überschüssige Gas aus Saudi-Arabien und Afrika drängt jetzt bereits als Flüssiggas auf die Spotmärkte in Europa. Zuweilen kostet es dort nur noch die Hälfte des konkurrierenden russischen Gases aus Pipelines.

Die Unternehmensberater bei A. T. Kearney sagen in einer kürzlichen Studie einen Rückgang des Gaspreises um 60 Prozent für das Jahr 2015 voraus. Dann wird der Handelspreis auf dem Spotmarkt endgültig wichtiger sein, als der "Pipeline-Preis" der traditionellen Anbieter.

Limitierend für die Förderung des Schiefergases in den USA ist derzeit die Bereitstellung von Sand, genauer gesagt von "Fracksand". Dies ist jener Sand, welcher, wie oben beschrieben, in die Bohrlöcher gepresst wird. Die dafür benötigten Sandkörner sind runder als jene von den Sandstränden  und kommen vorallem aus dem Mittleren Westen der USA. Mit Lastwagen und Güterzügen werden sie zu den Gasfeldern transportiert. Die Nachfrage nach Fracksand ist seit dem Jahr 2009 um 300 Prozent gestiegen. Kein Wunder, dass die Lieferfirmen mit der Produktion kaum nachkommen.



Gazprom, ein schwächelnder Riese


Das verstärkte Angebot an Schiefergas (und Flüssiggas) hat den russischen Riesenkonzern Gazprom kalt erwischt. Man kann es am Börsenwert ablesen. Vor wenigen Jahren hatte diese Firma noch einen Wert von 300 Milliarden Dollar und war auf dem Weg, diesen auf eine Billion zu steigern. Inzwischen ist der Aktienwert auf 120 Milliarden Dollar abgesunken und die Internationale Energieagentur sagt sogar voraus, dass Gazprom seine Stellung als Marktführer im kommenden Jahrzehnt verlieren könnte.

Aber noch ist Gazprom ein veritabler Konzern. Im Vorjahr machte er satte 34 Milliarden Euro Gewinn, was Ministerpräsident Putin ermöglichte, damit grosse Teile seiner Staatsausgaben zu finanzieren. Ansonsten sponsern die Manager von Gazprom mit ihren Einnahmen bekannte westliche Fussballvereine wie FC Chelsea London, Schalke 04 - und Solarien für edle Rennpferde. Aber durch das auf den Markt drängende Frackinggas gerät die Firmenpolitik doch ins Schwanken. Bisher war es eiserne Strategie im Konzern, die gesamte Verwertungskette, vom Bohrloch bis zum Endverbraucher, zu kontrollieren. (Manche Ostländer sind bis zu 100 Prozent von Gazprom abhängig). Diese Monopolstellung wird in Zukunft nicht mehr zu halten sein.

Schon heute stemmen sich westeuropäische Gaseinkäufer gegen die Preispolitik des russischen Giganten. Das deutsche Energieversorgungsunternehmen Eon hat bereits kurzfristige Lieferverträge ausgehandelt und die Abkopplung der Gaspreise vom Ölpreis durchgesetzt. Damit einher gehen sehr viel niedrigere Tarife, welche hoffentlich von den deutschen Stadtwerken an ihre Privatkunden weiter gegeben werden. Auch die EU-Kommission in Brüssel attackiert Gasprom, indem sie kürzlich eine offizielle Untersuchung wegen "Missbrauchs der Marktmacht" eingeleitet hat. Das Ziel ist, dem russischen Konzern die Transportwege (Pipelines) zu entwinden, wie es bereits auf dem deutschen Strommarkt mit den nationalen Hochspannungsnetzen der EVU geschehen ist. Noch wehrt sich der Riese, aber er musste zwischen Januar und März  Preisnachlässe von 23 Prozent gegenüber dem Vorjahr zugestehen. Und das ist nur der Anfang.

Zur Kompensation will Gazprom verstärkt Gas nach Asien, insbesondere nach China und Südkorea liefern. Aber die Chinesen sind zähe Verhandler und bevorzugen bislang das Gas aus Turkmenistan, welches zudem um 40 Prozent billiger ist. Für die Zukunft liebäugelt die chinesische Führung mit der Ausbeutung ihrer eigenen Vorräte an Schiefergas. Nach geologischen Schätzungen gehören sie zu den grössten der Welt; sie sollen mächtiger sein als die in den USA!


Chancen für Deutschland

Das in der Zukunft zu erwartende höhere und billigere Angebot von Erdgas wird auch den Bau von Gaskraftwerken in Deutschland beflügeln. Viele Projekte sind in der Planung (auch in Karlsruhe), aber nur drei, eher kleinere, Gasblöcke sind derzeit wirklich in Bau. Dem stehen neun, deutlich umweltschädlichere Kohle- und Braunkohlekraftwerke gegenüber. Die Kosten für die Kohleverstromung liegen bei 50 Euro pro Megawattstunde, bei Gas schlagen sie noch mit 54 Euro zu Buche.

Das wird sich ändern, wenn die oben beschriebene Gasschwemme auch permanent in Mitteleuropa angekommen sein wird. Zur Zeit fehlt es bei Flüssiggas noch an geeigneten Häfen. In den USA ist der Bau von Exporthäfen für das verflüssigte Schiefergas bereits im Gange, in Katar sind die grossen Umschlaghäfen für die Tanker erst in der Planung. Mit niedrigeren Einstandspreisen für Erdgas werden die Gaskraftwerke rentabel werden und eine wichtige Position bei der sogenannten Energiewende einnehmen. Es ist zu vermuten, dass sie die Braunkohlekraftwerke in Nordrhein-Westfalen sukzessive aus den Markt drängen werden, insbesondere, wenn der Malus für die Verschmutzungsrechte, wie politisch gewollt, wieder ansteigen wird.