Nutzung meines Blogs

Wer nach Kommentaren zu meinen Artikeln sucht, wird nur spärlich fündig. Eine aktive Blogcommunity konnte ich noch nicht aktivieren. Da schaut man schon mal nach, wie viel überhaupt auf diesen Blog „geguckt“ wird.

 

Immerhin, an 27 Tagen gab es 2736 Besuche, die im Schnitt 41 Sekunden verweilten und 2,4 Seiten angeschaut haben. Das sind 100 Besuche pro Tag. Die Statistik der „Einstiegsseite“ zeigt, über welchen Inhalt der Besucher auf den Blog gekommen ist. Da habe ich zum selben Zeitraum folgendes Ergebnis.

 

 

 

 

 

 

 

 

 

Mein Ökothriller-Artikel hat 205 Einstiege und die Spitzer-Rezension hat 167 Einstiege. Auch die Hauptseite des Blogs (index.php) wird  häufig genutzt. Ich vermute, dass viele neue Nutzer durch eine Google-Anfrage auf den Blog kommen, und wenn man da einen griffigen und aktuellen Titel aufweist, dann erzielt der mehr Nachfrager.

Zu Jahresbeginn hatte ich meinen Blog zum ersten Mal analysiert, da waren es noch ca. 50 Besucher pro Tag. Es geht bislang aufwärts, mal sehen, wie es weiter geht.

 
Veröffentlicht unter Allgemein | Schreib einen Kommentar

Skyfall und die Cyberwelt

Nach dem James Bond sagt mein Freund zu mir, und jetzt schreibst Du in Deinem Blog darüber? Und ich denke, James Bond ist doch kein Thema für meinen Blog!

Aber eigentlich ist es doch gar nicht so abwegig, aus der Internetperspektive auf diesen Film zu blicken. Wie die lobenden Kritiker des Filmes erzählen, sollte mit den alten Klischees gebrochen werden, er mußte modern sein, und vielleicht politisch korrekter. Und so kann der Gegner schon länger nicht mehr die böse Sowjetunion sein, aber es sind auch keine al Quaida Extremisten, und auch keine bösen Finanzjongleure. Der Gegner ist unsichtbar, es dräut im Hintergrund der Cyberwar, und lange nicht wurden in James Bonds so viel Bildschirme bemüht, um das schlimme Wirken eines Schurken zu visualisieren. Und hier liegt genau die Herausforderung moderner Regisseure, wie flimmert man dem Zusacher vor, dass gerade Datenpakete über den Globus gejagt werden, um ihre eigenen Spuren zugleich zu verwischen? High Tech ist kein Tabubruch für James Bond, und keine Innovation dieses Filmes. Früher mussten aufwändig visualisiert die Codeworte zur Eliminierung anfliegender Atomraketen geknackt werden. Das waren dann meist schlaue Köfferchen (dicke Superlaptops) auf die neurvöse Nerds mit ihren Fingern herunter flitzenden Zahlenreihen zum Stoppen bringen wollten. Hier soll in einer herunter gekommenen pompösen Halle mit Ionischen Säulen ein drahddurchwirrtes Gestellarrangement, das mehr einem Erstlingswerks eines Frankfurter Städelschülers, als den Serverschränken von Amazon ähnelt, dafür herhalten, dass hier ganz viel Netzpower verschaltet ist, mit der sich in alle Netze gelangen läßt. Auf wenigen Tischen stehen laptopähnliche Computer, die ein bisschen an die PC-Ausstattung der Alienfilme erinnern. Das bleibt im Hintergrund, obwohl der Täter es ziemlich dick mit dem Cyberwar treibt, bekommt der Zuschauer hier nur eine ironische Schwulenszene ohne Internet vorgeführt. Am Höhepunkt der Gängsterhatz, wo der bereits Gefasste sich mittels Internetpower auf wundersame Weise selbst befreit, wird dann eine Bildschirmarena aufgefahren, die ein  klein bisschen Mondlanderomantik andeutet. Der Bond-Getreue, diesesmal ein Computernerd, trägt auch die obligate schwarze Hornbrille, und muss sich den Computerkünsten des Rivalen geschlagen geben. Wild tanzende und kreisende Grafiken oszillieren über die Bildschirme, die Enthüllung gelingt natürlich mit Bonds Hilfe, weil gegen Cyber der gesunde Menschenverstand im Film dann doch bitte die Oberhand behalten will. Aber, und das ist eine Machart des Films, es ist nicht alles von Erfolg gekrönt, der böse Hacker ist im System.

Man sollte von einem spannenden James Bond (und anderen Aktionfilmen) nicht verlangen, dass sie auch nur ansatzweise real sind. Gerade die Aktionszenen sind generell nicht realitätshaltig. Die Jamesbondspielzeuge, wie z.B. früher die Armbanduhr, mit einem kleinen eingebauten Schweißbrenner oder Laserstrahl, die Stahlröhren durchschneidet, will so nicht ernst genommen sein. Die vielen Handgranten und Explosionen, die Bond in diesem Film überlebt, degradieren diese furchtbaren Waffen zum Feuerwerksplunder – wer sich darüber aufregt, sollte nicht in diese Filme gehen. So will ich auch nicht direkt mosern, dass die Hackerei, die die Logik des Filmes braucht, absolut unrealistisch ist. Aber dennoch, bei den Schusswaffen wissen wir alle, sie sind tödlich. Und vom Western begonnen, sind sie im Film nur Choreografie der Spannung. Man will keine ernsthaften Toten, es wird geballert, dass es kracht, und das Gefühl entstehen kann, der Gute trifft besser.

Beim Cyberwarthriller wissen die meisten sehr wenig vom Hacken, von dessen Mechanismen, Zielen und Wirkungen. Die Muster der Filme produzieren dann die Bilder, die wir für den Cyberwar halten. Hier und eigentlich auch bei Matrix wird die Destopie entwickelt, dass der Gegner in den innersten Cirkel der Macht, in die Intimflanke seiner Sicherheitsabwehr eindringen kann. Und im Grunde sind wir dagegen schutzlos. Helfen tut nur, wenn man sich auf „untechnologisches“ Gebiet begibt. Da wo keine Netze sind, in der Einöde, wo auch keine modernen Feuerwaffen mehr sind, sondern alte Jagdgewehre, Dynamit und ein  Messer, nur dort ist der Zweikampf gewinnbar. D.h. die moderne Zutat des Filmes, die ihn auf die Höhe der Zeit heben will, fährt ihn am Ende in den Konservatismus des Mann gegen Mann, und hier in der aufgeklärteren Form auch der Frau gegen Mann zurück.

Damit nimmt der Regisseur leider der Entpersönlichung technologischer Kriegsführung die Spitze. In „Kill decision“ schreibt ein Autor, der mehr vom Internet versteht, wohin die Reise gehen könnte, wenn nicht mehr Menschen handeln, sondern in logischer Folge Computerprogramme die Entscheidungen übernehmen. Es ist auch nicht ein Programmierer, (wie hier bei James Bond), der das entscheidende Programm geschrieben hat, sondern es sind Stäbe von Programmierern, die eine Unzahl von Werkzeugen entwickeln, von denen niemand mehr den Überblick hat. Und zu dem ersten berühmten Cyberwarbeispiel, dem Virusprogramm Stuxnet, das sehr wahrscheinlich kriegerische Atomanlagen im Iran außer Gefecht setzte, sagen die Auguren, dass hier eine Armada von ganz „anloger“ Geheimdienstarbeit vorausgegangen ist, ohne die kein Programmierer der Welt auch nur einen Funken Chance gehabt hätte, in diese Systeme Störfunktionen hineinzutragen.

Aber wer Bondfilme mag, und einen unterhaltsamen Ballerabend sucht, sollte sich von diesen Beobachtungen nicht abschrecken lassen. Das Thema Internet ist nur ein ideologisches Grundrauschen der Handlungserklärung, das der Regisseur wohl sebst nicht besonders ernst nimmt.

 
Veröffentlicht unter Allgemein, Internet | Schreib einen Kommentar

Medien nachhaltig nutzen

Das Grimme-Institut hat in seiner Reihe „medienkompetenz NRW“ einen
schmalen Band „Medien nachhaltig nutzen. Beiträge zur Medienökologie und
Medienbildung“ von Lars Gräßer und Friedrich Hagedorn 2012
herausgegeben. Materialien zu diesem Thema sind rar, und in den Bildungseinrichtungen, die sich mit Umwelt- und Nachhaltigkeitsbildung befassen, gibt es kaum mediengestützte Bildungsangebote. Vereinzelt bietet man Umweltgeocaching an, und ganze wenige Plattformen versuchen eine Vernetzung der umweltbewegten Szene zu unterstützen. Die Beiträge sind in der Regel sehr kurz gehalten. Das erleichtert die Lesbarkeit, verhindert aber auch ein tieferes Eindringen. Man findet darin:

Einen Aufsatz zum ökologischen Fußabdruck der Neuen Medien (von
Siegfried Behrendt S.19-30). Darin werden beeindruckende Zahlen
zusammengestellt, welche Stromverbräuche unsere Netznutzung nach sich
ziehen, welche Ressourcenverbräuche unter welchen Bedingungen bei der Produktion der Medientechnik anfallen, aber es wird auch eine Abwägung versucht, wo digitale Techniken
Ressourcen ersparen. Ein Bilanz kann niemand vorlegen.

Ein spannendes Interview mit Sherry Turkle über ihr letztes kritisches
Buch zu den sozialen Netzen „Alone Together: Why we Expect More from
Technology und Less from Each Other“ (S.31-38). Es wird eindringlich deutlich,
welcher Terror bei intensiver Nutzung von Mail, SMS, Twitter und
Facebook, die alle in den meisten Mobilteilen verfügbar sind, auf den Alltag
ausgeübt werden kann. Auch in Deutschland in meinem eignen Bekanntenkreis ist
zunehmend zu beobachten, wie Freunde beim Essen oder beim gemeinsamen
Gespräch an ihren Smartphones handwerken, und sich aus der Diskussion
ausklinken. Wie man das abstellt, was die tieferen Gründe sind, weshalb
wir so auf diese Gadgets abfahren, ist vielleicht in Turkles  Buch nach
zu lesen.

Der Autor Christian Schicha resümiert sehr kompakt über Kommunikations-, Medien- und Sozialökologie (S.39-54). Es hat zu Beginn der technischen Medien eine verbreitete Debatte über die Signalarmut technischer Kommunikation gegenüber der „face-to-face Kommunikation“ gegeben. Das wird hier kurz referiert. Für sich genommen, ist diese Kritik richtig. Ein Problem besteht aber in der damaligen Unterstellung, man wolle mit der technischen Kommunikation die analoge, menschliche ersetzen. Die „Kommunikationsökologie“, die hier wesentlich mit Frau Mettler-von Meibom belegt wird, spricht entsprechend von „Wirklichkeitsverlust“, wobei der Begriff „Ökologie“ benutzt wird, weil anstelle der physischen Gefährdung der Lebensgrundlagen mit der Mediatisierung die sozial psychischen Grundlagen des Miteinander gefährdet seien. Ich finde, man sollte die Ökologie bei sich lassen, und mit generellen Zuschreibungen vorsichtig sein. Heute sehen wir rückblickend in den vielen neuen Nutzungen, denen sich die Medienanwender bedienen, dass das Abtriften in rein virtuelle Welten psychische Problemlagen beschreibt, wo Ursache und Wirkung schwer zu trennen ist, was aber nicht die Durchschnittsanwendung der Medien betrifft. Weder kam das papierlose Büro, noch gehen die Buchpublikationen zurück, noch wird weniger gereist. Die Neuen Medien stellen heute nicht mehr den befürchteten Wirklichkeitsersatz dar, sondern sie gehen als Aneignung zusätzlicher Kommunikationsformen in den Alltag ein. Das ist sicher nicht problemlos, denn die Zeit, die in die Mediennutzung fließt, muss irgendwo herkommen. Aber ob man dazu eine „Medienökologie“ braucht? An dem Alter der zitierten Belege sieht man, das diese Diskussion heute nicht fort geführt wurde. Dass wir einen „aktiven Medienkonsumenten“ brauchen, lässt sich auch ohne Medienökologie einsehen, und wurde bereits von Brecht ersehnt.

Sabria David beschreibt sehr schön den nachhaltigen Medienkonsumenten (S.55-64). So stellt Frau sich den nachhaltigen Nutzer vor. Etwas kühn ist der normative Duktus, d.h. können alle Nutzer wollen, was sie sollten? Die Rahmenbedingungen, nicht zuletzt auch die Struktur der öffentlich leicht zugänglichen Plattformen bringen Deformationen per se mit. Facebook will nicht den nachhaltigen Nutzer, und entsprechend ist seine Plattform strukturiert. Dagegen angehen kann eine medientechnisch gebildete Minderheit, für die Massen muss auch strukturell mehr eingefordert werden, und medientechnische Grundbildung ist ein weiterer Schlüssel, der mir da noch fehlt.

Das Interview mit Dirk von Gehlen, dem Chefredakteur des Onlinemagazins für Jugendliche der Süddeutschen hat sich mir nicht ganz erschlossen.

Mit reichlich Wortgeklingel lobt Joachim Borner das WEB 2.0 als Nachhaltigkeitskommunikationsort aus (S.71-84). Im Einstieg fordert der Autor eine Ästhetisierung der Nachhaltigkeit. Seinem Beispiel, dass die Klimadebatte erst mit dem ökonomischen Argument durch Nicolas Stern und Al Gore’s Klimafilm als Ästhetisierungsprodukte in der Mitte der Gesellschaft angekommen sei, vermag ich nicht zu folgen. In den USA, wo Gores Film am meisten gezeigt wurde, mag das bei einigen Leuten eine momentane Wirkung erzielt haben, die Gesellschaft ist weiterhin „Klima“ gespalten. Selbst Obama hat daran kaum etwas verändert. Nimmt man im Gegenzug die „Klimawende“ in Deutschland als Beispiel, dann vermag vielleicht die Katastrophe der Geburtshelfer ernsthaften Umdenkens sein? Was dann beim WEB2.0 die Ästhetisierung ist, wurde mir nicht deutlich. Die Aussagen dazu sind sehr kommunikationseuphorisch und werden mit Zitaten hochrangiger Denker belegt, deren Kompetenz nicht zu bezweifeln ist, die aber vom WEB2.0 in Deutschland wenig konkretes Wissen haben dürften (Habermas, Schulze). Die Metaphern „Aufschreibsystem (Kittler 1985) und die „Weise des Entbergens“ (Heidegger) machen sich gut, treffen aber weniger die beobachtbaren Kommunikationsformen im WEB2.0. Das schöne Wort vom „Social Media“ gibt de fakto weniger her, als gemeinhin unterstellt wird. Deutsche Blogs sind wesentlich Selbstdarstellungsräume, in denen Privates und seltener auch Politisches und Wissenschaftliches in die Welt gesetzt wird, worauf aber nur wenige antworten. Es wird vermutet, dass nur ca. 1% der Leseschar auch wirklich interaktiv wird, kommentiert, und im Ansatz so etwas wie kollektive Intelligenz entstehen lässt. Auf Facebook gibt es nicht mal eine echte Suchfunktion nach Begriffen zum Einklinken, geschweige denn Wissensdiskurse, deren Verfolgung und Weiterentwicklung zur zukunftsfähigen Entwicklung beitragen könnte. Der Kommentar des aktiven Durchschnittsnutzers besteht im „Daumen hoch“, also Stimmvieherziehung. Was an Medieninhalten (Fotos, Videos, Musik, Texte) auf Facebook hochgeladen wird, ist überwiegend bis ausschließlich privates Familien- und Freundesgut (Poesiealbumskommunikation), oder es gehört zur Konsum- und Unterhaltungsbranche. Schwarmintelligenz? – Fehlanzeige. Eine ganz nette Nische macht die Protestkultur aus. Zu allen möglichen schlimmen Dingen in der Welt gibt es Aufrufe, die verbreitet werden. Das Handeln besteht dann im Losschicken eines Empörungsformulars – ist das Partizipation?

Das gute Beispiel des Autors, Wikipedia, gab es schon bevor das Modewort von den Social Media die Runde machte. Auch gab es schon früher Foren zu Fachthemen, auf denen wirklich kollektive Intelligenz über Interaktion auf sozialer Basis unentgeltlich entwickelt wird. D.h. im Internet gab und gibt es vermehrt Werkzeuge, die kollaboratives Arbeiten ermöglichen, mit denen all das möglich ist, wovon ein nachhaltiger Netznutzer ins Schwärmen kommen kann, aber leider werden genau diese Tools sehr wenig genutzt und sind der Masse überhaupt nicht bekannt. Auf die Ästhetisierung, die aus dem Netz in der Praxis ein wirklich interaktives, gestaltgebendes Werkzeug massenhaft machen würde, warte ich noch.

Der letzte Fremdbeitrag von Bernd Flessner führt sehr informativ in die Medienwelt der Science Fiction Literatur ein (S.85-104). Es erstaunt hierbei, was auch im ausgehenden 19. Jahrhundert bereits alles an Utopien und Destopien erdacht wurde. Auffällig häufig sind dabei medientechnische und ökologische Visionen verwoben. Der Autor stellt fest, dass die jüngeren Science Fiction Romane bescheidener werden. Man wagt sich weniger an größere Zeiträume und radikalere Visionen. So spannend diese Literatursicht ausfällt, so wenig wird jedoch klar, was wir unter Nachhaltigkeitsaspekten damit anfangen können. Ob zukünftige Technik und Gesellschaft visionär als Bedrohung oder als Befreiung gezeichnet wird, hängt sicher nicht zuletzt von zeitgeistlichen Strömungen ab. Wir können unsere Zukunft nur aus den Anzeichen der Gegenwart zeichnen. Der Autor hätte vielleicht besser etwas weniger Beispiele auswählen sollen, und versuchen aufzuzeigen, welche jeweiligen gegenwärtigen Bedingungen die Romanciers veranlasst haben, ihre medienutopischen Zukünfte zu entwerfen.

Schlussendlich ziehen die Herausgeber ein Fazit (S.105-109). Sie illustrieren resümierend 7 sinnvolle Regeln:

1. Energie sparen, Ressourcen schonen

  1. Gesundheitsgefährdungen vermeiden
  2. Persönliche Beziehungen Wert schätzen
  3. Verantwortung übernehmen (auf) Qualität achten
  4. Sich einmischen und Medienkommunikation gestalten
  5. Mut zu Zukunftsvisionen
  6. Medien, Nachhaltigkeit und Medienkompetenz [fördern]

Die sind wohl wahr, und dass das Grimme Institut am Schluss an den Bildungsauftrag appelliert, ist zu erwarten.

 
Veröffentlicht unter BNE, Internet, Nachhaltigkeit | Ein Kommentar

Manfred Spitzer – der Sarrazin des Internet

Die Verrisse sind zahlreich geschrieben, aber Manfred Spitzers Buch „Digitale Demenz“ ist unbeschadet auf der Sachbuch-Bestseller Liste an 2. Stelle und hat sicher auch viele Sympatisanten im grünen Umfeld. Der kulturelle Übergang von einer früher analogen Gesellschaft, bei der Hänsel und Gretel sich noch auf dem Dorfplatz kennen lernten und Hand in Hand im Wald spazieren gegangen sind, zu einer Generation, die auf den Strassen keine Spielgelegenheit mehr findet, sondern ihre Events sehr technologiegetrieben arrangiert, fällt vielen  konservativen Bildungsbürgern schwer. Die Krokodilsträne über den Verlust der Mitte (Adorno) wird heute über die Zunahme internetbasierter Kommunikation in sozialen Netzwerken geheult. Und wenn dann einer kommt, und sagt, da sei sehr viel im Argen, hütet Euch davor, es macht Eure Kinder dumm, dann ist die Freude groß, es wird doch einmal gesagt werden dürfen!

Wie Spitzer es sagt, habe ich etwas nach gelesen, und bin da verwundert, wie hier ein Professor, der explizit die Wissenschaft anruft, mit merkwürdigen Attitüden  und sorry – auch mangelndem Sachverstand – zu Werke geht. Da ist einmal die pauschale Schelte gegen die Medienpädagogen. Wer sind diese böse Spezies, Kinderverderber?? Wenn man gegen Fachkollegen polemisiert, ist das völlig in Ordnung, aber gegen eine ganze Innung pauschal zu wettern? Was soll das?

Die Einführung heißt, „Macht Google uns dumm?“ Die simple Logik von Spitzers Argumentation besteht darin, dass er die Nutzungsform, einfach in Google etwas zu suchen, es heraus zu kopieren, und als Text zu gebrauchen, für verdummend hält. Eine andere Form der Googlenutzung wird ausgeblendet, es gibt sie nicht, oder Herr Spitzer ist ahnungslos? Spitzers Beispiel eines unreflektierten Abkupferns aus einer Suchmaschine des Internets, ist aus pädagogischer Sicht zu beklagen, aber hieraus abzuleiten, dass Google der Dummacher sei, ist schlicht irrig. Sein Beispiel belegt eine „dumme“ Nutzungsform des Internets, mehr nicht. Kritisches Recherchieren im Netz, was eine pädagogische Standardforderung an Lernede ist, bedeutet, dass der Suchende einige geistige Klimmzüge vollziehen muss. Wie formuliere ich meine Suchfrage? Wie entscheide ich bereits an der URL, ob die Quelle mir nützt, als seriös angesehen werden kann, etc. Wie entscheide ich dann beim ersten Hineinlesesen, ob das Niveau des Textes dem entspricht, was ich suche? Wie merke ich, dass das eine originale Reflexion, oder auch nur etwas Wiedergekautes ist? Und schließlich wenn ich es übernehme, zitiere ich oder entlehne ich nur die Argumentation? Etc. Wer so mit Google beim Recherchieren umgeht, wird seine Synapsen kräftig ins Schwingen bringen, d.h. er absolviert ein geistiges Training, fern ab jeglicher Verdummung. Im Abschnitt über Navigation, wird dem Leser eindringlich das gute Beispiel der Londoner Taxifahrer vorgeführt, die das Volumen ihres Hippocampus im Gehirn nachweislich ausweiten, wenn sie die vielen Strassen auswendig lernen (ohne Navi). Geschenkt, auch das kompetente Recherchieren ist Gehirnjogging, und mag vielleicht eine spannendere Vernetzung der Zellen ergeben, als wenn ich mir einen Stadtplan merke. Gerade weil ich viel Reflexionskraft aufbringen muss, um aus dem riesigen Datenangebot für mich Brauchbares zu holen, haben wir das Problem, dass Google den „Dummen“ nichts nutzt, und hier eine große Gefahr des „Digital Gap“ entsteht. D.h. für die Wissenden ist das Internet ein gewaltiges Werkzeug, und die Unwissenden werden weiter abgehängt. Diese Überlegungen gelten  keineswegs als Ausnahmenutzung für Wissenschaftler. Selbst wenn man „nur“ ein Hotel an seinem Reiseziel im Internet aussuchen möchte, ist derjenige, der mit Reflexion und guter Recherchekenntnis an diese Aufgabe geht, einem ahnungslosen Sucher weit überlegen, er wird ein Hotel finden, das preiswert und akzeptabel ist, aber das ist gar nicht so einfach. Wo, bitte macht hier Google dumm?

An einer Stelle beschwert sich Spitzer über Schüler, die ihm per Mail Fragen stellen. Er zitiert dann die Frage „Herr Spitzer, erklären Sie mir bitte, wie das Gehirn funktioniert“. Auch in diesem Beispiel ist es doch naheliegend festzustellen, dass der Schüler eine saublöde Frage gestellt hat. Einen hochrangigen Experten kann ich nicht bitten, er möge mir mal die Welt erklären. Was tut Spitzer? Er schimpft auf die Lehrer, die ihre Schüler zum Mailanfragen bei Experten zuraten, und fordert, dass die keine Experten fragen sollen, sondern sich erst einmal in Bücher vertiefen und einen Sachverhalt intensiv studieren sollen. Die Methode: der alte  Lernstil wird gepredigt (so als ob kein Lehrer mehr die Schüler zum Studium von Texten anregen würde) und Neue Medien werden gescholten. Warum sollen Schüler nicht auch mal eine Mail an einen Experten schreiben? Über den Tellerrand eines in die Jahre gekommenen Lehrbuchs zu schauen, ist doch eine gute Schüleraktion. Und klar, da muss  etwas mehr überlegt werden. Fragenstellen, das hatten wir oben bei Google, will gelernt sein. Wenn schon, sollte man die entsprechenden Lehrer nicht tadeln, dass sie zur Expertenfrage aufrufen, sondern dass sie dann auch die Kompetenz vermitteln müssen, welche Fragen sinnvollerweise an einen Experten gestellt werden können, damit sie eine Chance auf Antwort erhalten.

Im Navigationskapitel werden Gehirnfotos gezeigt, wei sie beim Training von Musizieren, oder bei Medizinstudenten, wenn sie die Knochen für die Prüfungen auswendiglernen müssen, anwachsen. Ja, Herr Spitzer, wir hören die Botschaft, das klassische Lernen ist prima, es wirkt gehirnerweiternd. Schade nur, dass keine Gehirn gezeigt wird, wo ein Computernerd im Vergeleich zu einem Computerlaien analysiert wird. Ich vermute mal, dass wir hier die selbe Wirkung sehen werden. Wo sich Kompetenzen und Fähigkeiten, die täglich trainiert werden, bündeln, wächst die Performanz. Es ist dann eben nicht der musische Teil der beim Nerd anwächst, aber Demenz? Nein, so einfach ist das mit dem Internet dann wohl doch nicht, Herr Spitzer.

 

 
Veröffentlicht unter Internet | 2 Kommentare

Verändertes Konsumverhalten der Generation Y?

The Cheapest Generation“ titeln die Autoren Thompson und Weissmann ihren Beitrag im ATLANTIC MAGAZINE, sept. 2012, der auf eine mögliche spannende Veränderung der Konsumgewohnheiten der amerikanischen Jugend (die Milleniums oder die Generation Y) hinweist. Während 1985 38% der Jugendlichen zwischen 21 und 34 Jahren neue Autos kauften, waren das 2010 nur noch 27%. Zwischen 1998 und 2008 fiel der Anteil derer, die einen Führerschein erwerben um 28%. Die Experten rätseln, ob das ein Nebeneffekt der Rezession ist, also nur ein verzögerter Kaufstau, oder ob das eine grundsätzliche Einstellungsverschiebung ist. Ähnliche Trends liegen im Hauskauf  und in der Verschuldung vor. Weil die Hälfte der Haushaltsausgaben in den USA (bislang) in Auto- und Hausanschaffung gehen, ist das ein Schlüsselbereich für die Ökonomie. Bisher wurde in den USA noch jede Krise mit einem Boom im Haus- und Autokaufen überwunden.

In diesem Kontext weisen die Autoren auf den vermehrten Austausch von Gütern und Dienstleistungen hin, was insbesondere mit der hohen Vernetzung über Smartphones sehr viel einfacher geworden ist. Zipcar, der Welt größter Car-Sharing Club wurde 2000 gegründet und hat heute 700.000 Mitglieder. Die „sharing-economie“ wächst beständig, denn auch Unternehmen gehen zusehends dazu über, höherwertige Anlagen gemeinsam zu betreiben. Der Tauschhandel (thredUP), der gebrauchte Kleidungsstücke vertreibt, oder Airbnb, ein Tauschmarkt für Übernachtungen und andere Güter, wären ebendfalls ohne Internet so nicht denkbar. D.h. die IT-Technologien sind Trägern neuer gemeinschaftlicher Dienstleistungsnutzungen.

Wenn die Jugendlichen Häuser oder Wohnungen erwerben, dann sind das niedrigpreisigere (gegenüber ihren Eltern), bevorzugt in kleinen Subzentren (Suburbs) wo die nötigen Alltagsprodukte zu Fuß oder per Rad erreichbar sind. Die Autoren behaupt auch, wo Verdichtungen vorliegen, entstehen Produktivitätszuwächse. Kleine Wohnungsausgaben bedeuten auch wieder einen Reduzierung der materiellen Güternachfrage.

Für die Automobilindustrie und den Haussektor mit meist gering qualifizierten Arbeitskräften sind das katostrophale Entwicklungen. Ein Jugendlicher gibt ca. 1000 $ pro Jahr für IT-Kosten aus. Was er beim Auto- und Hauskauf einspart, geht aber der Wirtschaft nicht verloren. Es findet eine Umschichtung zugunsten des Bildungssektors statt. Wenn hier die Ausgaben erhöht werden, wäre das langfristig für die USA von Vorteil sagen die Autoren.

Wenn diese Konsumveränderung und  die „sharing-economie“ mehr als eine Krisen-Delle wären (Arbeitslosigkeit, prekäre Beschäftigungsverhältnisse,..), dann läge in der Tat hier auch unter Nachhaltigkeitsaspekten eine sehr interessante Entwicklung vor, zu der ich im deutschen Raum noch keine Untersuchungen kenne.

Nachtrag: Doch es gibt eine:

Studie “Deutschland teilt!” bestätigt Trend des Teilens in Deutschland
Die neue Studie “Deutschland teilt!” zeigt: Eine Ökonomie des Teilens nimmt in Deutschland an Fahrt auf.  Auftraggeber der Studie war die Plattform Airbnb, die sich selbst als Vorreiter eines Konsumwandels bezeichnet: von Eigentum-Ökonomie zu einer Ökonomie des Teilens

 

 
Veröffentlicht unter Allgemein, Internet, Nachhaltigkeit | Schreib einen Kommentar

Nachhaltigkeit +20

Rio+20 gibt Anlass, die Begriffshülse „Nachhaltigkeit“ rückblickend zu würdigen.

Zur Definition

Das Konzept Nachhaltigkeit definiert Wikipedia mit Bezug auf die Enquetkommission „Globalisierung der Weltwirtschaft“ als: die Nutzung eines regenerierbaren Systems in einer Weise, dass dieses System in seinen wesentlichen Eigenschaften erhalten bleibt und sein Bestand auf natürliche Weise regeneriert werden kann. In dieser abstraktesten Definition ist jede Ausformulierung einer menschengerechten Zukunft eliminiert. Die primäre Quelle für das, worauf sich der Nachhaltigkeitsdiskurs heute bezieht, ist die World Comission on Environment and  Development, die 1987 den Begriff  Sustainable Development geprägt hat, zu dem in Rio 1992 auf der Erdgipfile die Agenda 21 verfasst wurde, und  der  mit folgender Formel rezipiert wird: Dauerhafte Entwicklung ist Entwicklung, die die Bedürfnisse der Gegenwart befriedigt, ohne zu riskieren, dass künftige Generationen ihre eigenen Bedürfnisse nicht befriedigen können. (Our common future, 1987). Diese gebräuchlichste Definition kommentiert Wolfgang Sachs (Nach uns die Zukunft, Frankfurt 2003, S.85) so: „maximiert wurde hier nicht die Eindeutigkeit, sondem die Zustimmungsfähigkeit. Wie für jeden anständigen Formelkompromiss ist das ist nicht wenig, denn die Definition wirkt wie ein Alleskleber, von dem kein Teil mehr loskommt, weder Freund noch Feind“.

Noch läuft es nicht richtig

Es ist klar, dass der Versuch der Nationen, über die zukünftige Entwicklung der „Menschheit“ zu reflektieren, Herausforderungen zu finden, und Visionen und Stratgien zu entwickeln, nur ein sich wandelnder Suchprozess sein kann. 1992 herrschte kurz nach dem Zusammenbruch der Sowjetunion mit Bush als USA-Präsident die Zeit des ungebrochenen Neoliberalismus. China war auf dem Weltparkett noch unbedeutend und nicht einmal in Rio dabei. Der Staat als Regulator war eine fremde Idee, weshalb in der Agenda die diversen Akteure neben dem Staat eine herausragende Rolle bekamen.  20 Jahre nach Rio hat durch das Freihandelsabkommen und durch die Liberalisierung der Finanzmärkte der Globalisierungsprozess die Welt verändert. Der Rionachfolgeprozess hat viele Konferenzen und mehr, meist weniger gelungene Resolutionen zum nachhaltigen Handeln produziert, aber wenn wir auf die beiden wichtigen Parameter: Soziale Entwicklung und Reduktion der Treibhausgase schauen, so haben sich diese weltweit in den 20 Jahren in einem Maße verschlechtert, dass „Rio+“ mehr als Rethorikveranstaltung, denn als politisches Handeln zu verstehen ist. Wie die neben stehende Tabelle zeigt, ging die Treibhausentwicklung von 1950-2010 ungebrochen weiter. Nach einem FAO-Bericht wird jährlich eine Waldfläche von der Größe der Schweiz gerodet. Die Kluft zwischen Arm und Reich hat sich in den vergangenen zwei Jahrzehnten sowohl innerhalb vieler Länder als auch zwischen den Ländern vergrößert. (Rio+20 Report)

Man darf deshalb fragen, lag bereits in Rio ein Fehler, dass die reale Entwicklung ganz anders verläuft, als ein Leitbild für nachhaltige Entwicklung erwarten würde, oder sind es die Rahmenbedingungen, die den Gang verändert haben?

Ohne Gerechtigkeit keine Ökologie?

Wolfgang Sachs (2004) weist darauf hin, dass Rio eigentlich kein Umweltgipfel, sondern ein Entwicklungsgipfel war. An vielen Stellen in der Agenda 21 finden sich Passagen, dass eigentlich das westliche Wachstumsmodell als Entwicklungsmotor in die damalige 3. Welt gepflanzt werden sollte. Und schon damals gab es weniger den „Nord-Süd-Konflikt“ als vielmehr einen Konflickt zwischen den globalen Eliten und konsumierenden Mittelschichten mit den Entrechteten und Armen in allen Ländern. Wenn in der Sustanability Definition nicht gesagt wird, welche Bedürfnisse von wem befriedigt werden sollen, ist der Weg offen, dass es die Bedürfnisse nach mehr Fernflügen, nach starken Autos, nach großem klimatisierten Wohnraum, nach Fleischkonsum, etc. der Mittelschichten sein werden, und nicht die Überlebensbedürfnisse der Milliarden Armen der Welt. Der über materielles Wachstum ausgeübte Druck auf die Ressourcen führt in den rohstoffexportierenden Ländern dazu, dass die indigene Bevölkerung aus ihren angestammten Lebensräumen verdrängt werden und zur Elendsurbanisierung und oder Proletarisierung gezwungen werden. Der Mangel an Demokratie und das Vorherrschen von Korruption wird durch den Rohstoffhunger befördert. Wolfgang Sachs argumentiert, wenn die Indigenen ein unangefochtenes Recht auf ihre Böden und ihre Wirtschaftsweise hätten, wären der Naturausplünderung Grenzen gesetzt. D.h. Gerechtigkeit und Demokratie seien Voraussetzungen für eine nachhaltige Umweltnutzung. Danach vertragen sich Gerechtigkeit und Wohlstandsmehrung nicht. Ob das ein zwingender Mechanismus ist, wage ich anzuzweifeln, es hat auch schon brasilianische Stämme gegeben, die munter am Waldverscherbeln teilnahmen, als sie das Recht dazu hatten. Man kann m.E. den indigenen Bevölkerungen nicht zumuten, auf Subsistenzniveau ihre Wälder und Böden zu schützen, während ihre Landsleute in den Metropolen in klimatisierten Räumen und Autos den materiellen Wohlstand genießen.

Ist Effizienz die Lösung?

Bereits in Rio 92 wurde auf Effizienz gesetzt, d.h. mit wirksameren Technologien kann der Umweltverbrauch erheblich reduziert werden. Ein moderner Motor stößt pro erzeugten PS heute erheblich weniger CO2 aus als vor 20 Jahren. Das ist die Effizienzsteigerung. Aber die Autors wurden schneller, schwerer, und es wurden sehr viel mehr, das nennt man den „Rebound-Effekt“, der die Effizienzsteigerung zunichte macht.

Der Glaube an eine technologische Lösung dominiert auch Ri0 12, dessen Kernanliegen die „Güne Ökonomie“ ist. Eine Wirtschaftsweise, die in großem Maße erneuerbare Energien fördert und nutzt, und damit vielleicht zu einer gewissen „Dekarbonisierung“ führt, wird immer noch in den „Rebound-Effekt laufen, wenn sie auf ständiges Wachstum und globalisierter Wohlstandmehrung setzt. Wie bei der Nachhaltigkeitsdefinition muss auch bei der Grünen Ökonomie präziser beschrieben werden, was das heißen soll, ob hier wirklich nur noch geschlossene Stoffkreisläufe unter Nutzung der Erneuerbaren vorliegen und wie in dieser Ökonomie die Gerechtigkeitsfrage gelöst wird, etc. Das ist natürlich nicht geleistet worden.

Internalisierung der Umweltkosten, die Marktwirtschaftslösung?

Grüne Ökonomen sagen, dass die „Ökodienstleistung“, d.h. z.B. die Fähigkeit der Luft, dreckige Gase weg zu blasen, von der Ökonomie unberücksichtigt bleibt, bzw. zum Nullpreis genommen wird. Jeder Restaurantbesitzer muss seine Müllentsorgung teuer bezahlen, aber die Ölindustrie, die Autofahrer, die Wohnungsheizer blasen ihre schädlichen Gase kostenfrei in die Luft. Das kann man über Auflagen ändern, so dass diese Entsorgungsdienstleistung auch auf den Preis eines Produktes kommt. Diese Internalisierung der Umweltkosten führt nach marktwirtschaftlicher Theorie dazu, dass wir versuchen, diese Kosten zu vermeiden, bzw. sie gering zu halten, und damit wirkt ein Entwicklungsdruck auf Technologien, die die Umweltbelastungen reduzieren. Methoden hierzu wurden schon in den 70er Jahren in den USA entwickelt. In Deutschland war es besonders Weizsäcker, der mit Einfluß auf die Grünen von den Preisen sprach, die die ökologische Wahrheit ausdrücken sollen. Leider haben diese Methoden auch Probleme. Diese den Schadenskosten entsprechenden Aufpreise bilden sich nicht über einen „realen“ Markt, sie müssen berechnet, politisch festgelegt, staatlich reguliert werden. Umweltschäden durch Luft- und Wasserverschmutzung sind schwer messen. Der Preis sollte aber den Schadenskosten entsprechen, damit nicht fehlgelenkt wird. Wenn die Preise verordnet werden  (wie z.B. bei den CO2-Zertifikaten), setzt Lobbyismus diese Festlegung unter Druck, dass im Zweifelsfall keine Steuerwirkung mehr entsteht. Weil über den Preis gearbeitet wird, kommt es leicht zu einer sozialen Schieflage. Eine Verdopplung des Benzinpreises stört den Porschefahrer wenig, aber er wäre für einkommenschwache Pendler, die ihren Arbeitsplatz nur mit dem PKW erreichen, eine extreme Belastung. Umgekehrt, wer öklogisch „richtig“ gehandelt hat, und z.B. seine Ersparnisse in die energetische Sanierung investiert hat. Der kann mit den für „normale“ Energiekosten eingespartem Geld neue Konsumprodukte erwerben, Fernflüge machen, etc.

Die Krux mit der Suffizienz

Die linksökologischen Kritiker an Nachhltigkeitsmogelpackungen, wie das Wuppertalinstitut, bestreiten nicht die Sinnhaftigkeit von Effizienzmaßnahmen und marktwirtschaftlichen Hebeln zur Ressourcenlenkung, aber dieses muß ergänzt werden durch eine Bremse in der materiellen Entwicklung. Mit ständigem Wachsum läßt sich auf einem endlichen Planeten auf Dauer nicht überleben ist ihr Credo. Man kann darauf verweisen, dass jahrtausendlang Arme und Reiche sich in etwa gleichbleibend reproduziert haben. Besser, schneller, weiter, höher, mehr, .. das sind keine Naturkonstanten sondern Erwatungen, die großzügig bemessen erst seit ca. 200 Jahren  eine Rolle spielen. Aber wer wollte, mit wessen Zustimmung ernsthaft das Rad zurückdrehen? So wenig wir hinter die Ergebnisse der Aufklärung zurück wollen, so wenig kann man wollen, dass eine Italienreise nur noch für Leute vom Format Dürers oder Goethes möglich ist. Es gibt schöne Beispiele für „weniger ist mehr“ aber weltweit betrachtet leidet die Mehrheit unter „zu wenig“ zum Überleben. Suffizienz oder eine „Ökonomie des Genug“ kann eigentlich erst aus der Perspektive des „Zuviel“ gesagt werden, und das ist weltweit eine Minderheitenperspektive. Während man die Effizienzsteigerung der Industrie nahelegen kann, trifft der Suffizienzhinweis auf die Konsumenten. Wer hört schon gerne: „kaufe weniger“, „fahre wenbiger Auto“, „fliege weniger“? Das Nischendasein für eine Suffizienzkultutr ist damit vorgezeichnet. (vgl. hierzu „Keine Nachhaltigkeit ohne Suffizienz„)

Nachhaltigkeit eine Panikmache?

Untergangsprognosen waren bislang immer unzutreffend. Eine Zukunftsvision kann nur von dem ausgehen, was aktuell gedacht und gewußt wird. Auch Ökokatastrophen, wie das Waldsterben, diverse Ölpests, der vergiftete Rhein, erwiesen sich im Nachhinein als weniger dramatisch. Dem Schwall an Bedrohungen steht immerhin entgegen, dass die Menschen noch nie so lange lebten, wie heute, wir haben weniger Kriegstote als früher, selbstbestimmen, und  frei entscheiden können mit wachsendem Prozentsatz immer mehr Menschen. Hat hier nur der erste heftige Clash zwischen kapitalistischer Entfaltung und Naturaneignung, dessen Wucht aktuell ist, unsere Zukunftssicht eingetrübt? Gibt es nicht unendlich viel Energie von der Sonne, und unbegrenzte Kreativität des menschlichen Forschungsgeistes, um eine Überlebensfähigkeit der Spezies Mensch auch unter weiteren Wachstumsbedingungen zu ermöglichen?

Wenn man an die wahnsinnige Geschwindigkeit des jüngsten wissenschaftlichen Fortschritts im IT-Brereich denkt, hat man Grund zum Technikoptimismus. Aber Technik ist kein Selbstläufer, sie unterliegt dem Primat der Wirtschaft. D.h. die tollste Erfindung bleibt in der Schublade, wenn sie sich nicht rechnet. Der Enbergiebedarf der Welt könnte heute schon carbonfrei durch erneuerbare Energie gedeckt werden, aber  die Reichen Länder wollen den Preis dafür nicht zahlen, und die Armen können ihn nicht zahlen. Also wird das billig vorhandene Zeugs auch verbrannt werden, falls nicht heftig gegen den freien Markt gesteuert wird. Wenn das Verbrennen passiert ist, gibt es kein Zurückholen mehr. Eine Erderwärmung um durchschnittlich 5 Grad Celsius in kurzer Zeit kennen wir nicht. Als über Hamburg eine Eisdecke von 200 Meter lag, war die Durchschnittstemperatur nur um 5 Grad kälter als heute. 5 Grad, das ist kein Pappenstiel! Der Glaube, dass dann die Reichen mit Technik überleben, und die Armen in den Küsten und Slums einfach absaufen werden, ist angesichts der wachsenden Vernetzung und Interdependenz der globalen Wirtschaft irrig.

Optimismus hin, Pessimismus her, es führt eigentlich kein Weg daran vorbei, mit dem Wissen der Zeit den kommenden Herausforderungen entgegen zu arbeiten. Die Effizienz ist schon im Vormarsch. Die Sonne anzuzapfen beginnt sich zu rechnen und ist technologisch längst in Angriff genommen. Mit der Suffizienz hapert es noch, aber auch das kann sich ändern, es wird bislang zu wenig daran gearbeitet. Bei allem, auch von mir angestimmten Gemosere über den Eigennutz der Nationen und die mageren Ergebnisse der internationalen Schutzkonferenzen, bleibt doch festzuhalten, dass es sie gibt, und dass Verständigungsprozesse laufen.  Wir haben keine einzelne Weltmacht mehr, die ihren Stempel aufdrückt, aus G8 ist bereits G20 geworden. Wenn es weiterhin oben klemmt, muss eben von unten der Druck erhöht werden. Effizienz, Suffizienz und ökologische Preise sind keine Wunderwaffen, aber Gestaltungsmittel, die immer wieder neu zu justieren sind. Es ist gut, dass in Rio 2012 der Grünen Ökonomie das Wort geredet wurde. Unsere Aufgabe besteht darin auch die grüne Kultur zu stärken. Vielleicht erzwingt die Eurokrise in den südlichen Ländern mit schrumpfenden BIP neue Lebensmodelle, die jenseits von Nischen aufzeigen, wie ein Leben mit geringerer materieller Individuialausstattung dennoch zu mehr Lebensqualität führen kann. Aus Not geborene Suffizienz? Mehr Verteilungsgerechtigkeit und kein Zusammenbruch der Sozialsysteme unter den Bedingungen einer Wirtschaftsschrumpfung?

 

 
Veröffentlicht unter Nachhaltigkeit | Ein Kommentar

Mit den Öl- (und Kohle)Konzernen in die Katastrophe?

Hartmut Graßl, ein Klima-Mahner der ersten Stunde hat 1991 auf den Toblacher Gesprächen zum Thema Energiewende einen Vortrag zur Klimaentwicklung gehalten, der mich damals sehr berührt hat. Die Botschaft lautete: Die überwältigende Mehrzahl der Klimaforschungscommunity ist sich darin einig, dass wir mit sehr hoher Wahrscheinlichkeit einer menschgemachten Klimakatastrophe entgegen gehen, wenn wir weiterhin ungebremst CO2 emittieren. Noch nie in der Geschichte hat eine Zunahme der Konzentration klimaschädlicher Gase in so kurzer Zeit stattgefunden, so dass ein Anpassungsprozess für Mensch und Tierwelt schwierig wird. Unwetterzustände werden massiv zunehmen, Temperaturanstiege mit Trockenheit werden das Landwirtschaften in großen Teilen der Erde extrem erschweren, der Wasserspiegel der Ozeane wird steigen. Diese Forschungsergebnisse sind heute zigfach bestätigt, auch wenn immer wieder mal im Spiegel oder in der Zeit ein Wissenschaftler auftaucht, dessen Arbeiten entweder direkt von der Ölindustrie gesponosrt sind, oder weil er sich einfach wichtig machen will, und versucht, von natürlichen Zyklen, von Gegenbewegungen, von Sonneneruptionen etc. zu sprechen, die das  Ganze als entweder ohnhin unveränderbar, oder eben als übertriebene Panikmache hinstellt.

Es liegen 20 Jahre Forschung zwischen diesen frühen Warnungen und heute. Es gibt global ca. 40  Klimagroßmodelle, die unabhängig voneinender zu ganz ähnlichen Ergebnissen kommen. Wenn der republikanische Präsidentschaftskandidat Mitt Romney im Wahlkampf 2012 verkündet, man müsse noch messen, es sei nichts bewiesen, dann ist das ein Desaster, wenn man bedenkt, dass die USA für 40% aller CO2-Emissionen verantwortlich sind. Fakt ist, wir wissen Bescheid, aber die politischen Beschlüsse, um die Emission von CO2 zu reduzieren, werden auf den Konferenzen seit Kyoto immer schlechter als besser, und der CO2-Ausstoß steigt weiter an, fern weg vom Reduktionsziel.

Die Krise des Finanzsystems und die Eurokrise stehen in unser aller Bewußtsein an erster Stelle, denn wenn der Euro den Bach runter geht, ist am nächsten Tag mein Ersparniskontostand dahin. Wenn es mit dem Klima den Bach runter geht, dann verläuft das zwar heute schon schneller, als die Experten es vermuten (z.B. Arktisschmelze), aber die volle Wucht  schlägt andernorts ein und trifft das klimatologisch relativ stabile und wirtschaftlich reiche Europa erst in Jahrzehnten.

Bei mir hat nun jüngst ein Artikel von Bill McKibben zum Global Warming Thema aus dem mobilen Rolling Stones Magazin eingeschlagen. Er diskutiert (als Neue Mathematik) drei Zahlen:

  • 2 Grad Celsius
  • 565 Gigatonnen
  • 2.795 Gigatonnen

2 Grad Celsius: Auf der Klimakonferenz 2009 in Kopenhagen beschloss die internationale Klimaschutzgemeinde, dass man 2 Grad zusätzliche durchschnittliche Erderwärmung als maximal hinehmbare Größe ansehen kann. Das war eine rein politisch austarierte Zahl, denn niemand weiss genau, was diese Erwärmung bedeuten wird. Es gibt keine ökologische Formel, die berechnen könnte, was ein „noch richtiges“ Temperaturniveau darstellt. Aus diesem Grunde ist es auch unsinnig, ein „ökologisches Primat“ in der Frage des sustainable development zu verlangen. Argumentationsreich legt McKibben in seinem Artikel dar, dass wir heute zusätzliche o,8 Grad Celsius Erwärmung haben, und dass die bereits gravierende Phänomene zeitigen, die eigentlich schon nicht mehr hinnehmbar seien. Die Wahrscheinlichkeit von Hurricans und Überflutungen hat zugenommen, Gletscher- und Eisschmelze in der Arkis ist extrem, Lange Dürreperiode mit riesigen Ernteausfällen nehmen zu, etc. In heutigem Licht muss man anzweifeln, dass die 2 Grad Celsius eine gute politische Option waren – und es gibt bislang noch keinen Konsens, sich auf Maßnahmen zu einigen, die die Einhaltung dieser Zahl entgegenkommen!

565 Gigatonnen: Die Wissenschaft hat berechnet, dass 565 mehr Gigatonnen CO2 in einem halben Jahrhundert von der Atmosphere gerade noch verkraftet werden kann, um mit der weiteren Erwärmung unter 2 Grad Celsius zu bleiben. Die Klimahauptkommission, das Intergovernmental Panel on Climate Change, hat in der letzten Dekade diese Zahlen immer wieder bestätigt, so dass man dem glauben kann. Die jüngsten Erhebungen des Panels zeigen, dass wir weltweit einen Anstieg von ca. 3% CO2-Emissionen jährlich haben. Danach sind bereits in 16 Jahren die 565 zusätzlichen Gigatonnen in der Luft! D.h. der aktuelle Trend ist viel zu hoch, und die Politik findet keine Verfahren, wie sie ihn stoppen soll.

2.795 Gigatonnen: Es gibt eine Carbon Trucker Initiative, die als Beratung für die Finanzindustrie über Risiken im Energiesektor fungiert und auch Expertiesen zum Öl- und Kohlevorkommen erstellt. Die Experten haben voriges Jahr die hebbaren Reserven zusammengerechnet, die die Öl- Gas- und Kohlekonzerne weltweit bereits in der Planung haben. Sie kommen dabei auf die Zahl von 2795 Gigatonnen CO2-Emissionsäquivalent. Diese Zahl ist sicher ungenau, und verändert sich auch in dem Masse, in dem der Druck auf neue Vorkommen zunimmt. Aber das Drama besteht darin, dass diese Zahl 5 mal größer ist, als was man eigentlich maximal emittieren wollte! Und da diese Menge einen Wert von ca. 27 Billionen $ hat, muss man  unterstellen, dass die auch umgesetzt wird. Anders gesagt, in dieser Branche, die natürlich auch Klimaexperten in ihren Gremien hat, wird bewußt kriminell und menschenverachtend investiert, um den Profit, der mit den vorhandenen Ressourcen erwirtschaftet werden kann, einzustreichen.

Was tun? McKibben sieht in Verhaltensänderung (man denke an Bildung für nachhaltige Entwicklung) keine Chancen. Wir alle profitieren vom billigen Ölpreis, lieben einen energieverzehrenden Lebensstil, und solange die anderen das tun, tut es auch der Einzelne. Auch von der Politik hält er nichts. Obama hat im Wahlkampf aggresiv auf das global warming hingewiesen, und in der Nacht des Wahlerfolges gesagt, seine Wahl würde den Moment markieren, wo der Anstieg der Ozeane gestoppt und der Planet geheilt werde. Durchgesetzt hat er gegen die Automobilindustrie, dass der Treibstoffverbrauch stetig gesenkt werden müsse. Als Kohlevorkommen in Wyoming erschlossen werden sollten (67,5 Gigatonnen CO2), hat Obamas Innenminister im März dieses Jahres gesagt: „You have my word that we will keep drilling everywhere we can… That’s a commitment that I make.“ Dieses widersprüchliche Handeln, Umwelktschutz predigen, und dann der Carbon-Industrie die Türen öffnen belegt er noch mit weiteren Beispielen.

Während bislang nur graduelle Maßnahmen gegen die Klimaerwärmung vorgenommen wurden, fehlt es an einer breiten Bewegung, die richtig Druck machen könnte, um ein zeitnahes massives Klimaschutzhandeln einzuleiten. Eine solche Bewegung brauchte ein Feindbild.  Der „Public Enemy Number One“ gegen das Überleben der planetarischen Zivilisation sei die Karbon-Industrie, deren Geschäftsagrundlage in der Zerstörung der Welt liege. Wenn allein Exxon seine derzeitigen Reserven verbrennt, nimmt es über 7% des verbleibenden „CO2-Raums“ (die 565 Gigatonnen). Gefolgt von BP, Gasprom, Chevron, ConocoPhillips und Shell (jeder zwischen 3 und 4 %). Die Milliardärsbrüder Koch, die ca. 50 Milliarden Dollar wesentlich an Öl- und Kohlekonzernanteilen besitzen, würden ihre Profite verlieren, wenn die Carbonnachfrage gesenkt würde. Folglich fördern sie massiv die „Klimaleugnungs“-Regierungen (Bush) und unterstützen z.Zt.  den Kandidaten Romney mit 200 Millionen $.

Umweltschützer haben wegen des gewaltigen Einflusses der Ölindustrie Angst, diese zum Feind auszuwählen. Man versuchte, die Konzerne zu überzeugen, den schädlichen Ölpfad zu verlassen, um mit den Erneuerbaren Profit zu machen. BP machte einen kurzzeitigen Versuch, sich ein neues Profil zu geben (Beyond Petrolium). Aber ihre Investitionen in alternative Energien blieben nur einen Bruchteil von dem, was in die Erforschung und Ausbeutung von Öl- und Kohlevorkommen fließt. Und die jüngeren BP-Manager bestehen darauf, dass BP zu seinem „Kerngeschäft“ zurückkommen solle. Die 5 größten Ölkonzerne haben seit der Jahrtausendwende ca 1 Billion $ Gewinn erzielt. Das sei einfach zu viel Geld, das mit Öl, Gas und Kohle gemacht werden kann, um auf andere Dinge umzuschwenken, sagt McKibben. Ein wesentlicher Grund für die hohen Profite besteht darin, dass alle Industriezweige für die Entsorgung ihrer Abfälle zahlen müssen, außer eben der Fossiltreibstoffindustrie, die ihre Schadstoffe (CO2) zum Nullpreis emittieren kann (Externalisierung von Kosten). Das sei ein historischer Unfall, meint McKibben, denn als dieses Gewerbe sich entwickelte, wußte niemand, das CO2 ein gefährliches Treibhausgas ist, und warum sollte man etwas bepreisen, das keine Probleme macht?

Anti-Karbonindustriekampagne. Sowie eine Emissionssteuer auf Öl, Gas und Kohle gelegt wird, steigen die Preise, und wenn der Anstieg die wirtschaftliche Schmerzgrenze erreicht, erhalten die Konsumenten ein starkes Signal, nach alternativen Energiequellen zu suchen, so dass deren Entwicklung vorangeht. Mit steigendem Ölpreis sinkt die Nachfrage, was zu einer Entwertung der vorhandenen Ölreserven führt. Um den Bürgern diese Steuer schmackhaft zu machen, soll das Steueraufkommen, nicht wie in Deutschland die Ökosteuer zur Förderung der Ernbeuerbaren verwendet werden, oder gar zum stopfen der Haushaltslöcher, sondern typisch amerikanisch, sollte per monatlichem Scheck das erzielte Aufkommen an die Bürger zurück überwiesen werden. Eine Bewegung, die sich für eine Emissionssteuer stark macht, wird mit starkem Widerstand rechnen müssen, aber angesichts der hohen Bedrohng, meint McKibben, könnte ein moralischer Druck in der Öffentlichkeit aufgebaut werden, der diese Forderungen durchsetzt. Als Beispiel führt er die Anti-Apartheit Kampagne in den 80ern gegen das Apartheit-Regime von Südafrika in den USA an, wo über öffentlichen Druck kampagnenartig nahezu alle größeren amerikanischen Firmen ihre Investitionen aus Südafrika abzogen, und so die rassistische Regierung zu Fall brachten. Die Steuer sollte in den USA beginnen mit der Hoffnung, dass das dann auch auf andere Staaten überschlägt.

McKibbens Darlegung der Katastrophengefahr durch die übermäßige Nutzung der Nichterneuerbaren ist sehr beeindruckend, aber seine Lösungsidee finde ich dann doch etwas weniger überzeugend. Die Methode der Internalisierung externer Kosten wurde von Umweltökonomen in den USA in den 70er Jahren entwickelt, da gibt es ein ganzes Bündel von Möglichkeiten, wie man den Verursacher an seinen externen Kosten beteiligen kann. Die Emmissionszertifikate in der EU sind z.B. ein Instrument, das in die selbe Richtung wirken soll, wie McRibben das wünscht, aber die Lobby der entsprechenden Industrien ist immer so starkt, die notwendige Preishöhe soweit herab zu drücken, dass eine Lenkungswirkung kaum noch erfolgt. Die sgn. „Ökosteuer“ in Deutschland wurde gerade für die stark energieverbrauchende Branche so mit Ausnahmeregelungen gemixt, dass dort eine Lenkunswirkung nicht erfolgte. Als die Partei der Grünen einmal leichtsinnigerweise wagte, einen Spritpreis von 5 DM pro Liter zu verfolgen (das wäre eine Emissionssteuer), haben sie danach drei Landtagswahlen verloren, bzw. Stimmenverluste eingefahren, ohne dass die Öllobby den CDU-Wahlkampf besonders gefördert hätte. Diese Erfahrungen weisen darauf hin, dass es vielleicht doch etwas zu einfach ist, die Ölindustrie zum „Enemy Number One“ zu erklären. Die Lobbyarbeit der „Karbonindustrie“ kann nur so wirkmächtig sein, wenn sie auch überzeugende Argumente hat. D.h. der Bürger macht die Lobby stark, wenn er nicht bereit ist, auf einen Teil seiner Auto- und Flugmobilität zu verzichten, und wenn er sofort in die Knie geht, wenn man mit hohen Strom- und Gaspreisen droht. Solange also in der Masse keine Bereitschaft besteht, einzusehen, dass echter Klimaschutz einen Preis hat, und richtig weh tun kann, wird es keine große Kampagne gegen die „Karbonindustrie“ geben.

Meine Hoffnung war bislang, dass die Ökonomie das Problem von selbst erledigt. D.h. die Förderkosten von Öl und Gas und die weltweit wachsende Nachfrage danach sollten bald den Preis so hoch treiben, dass die Erneuerbaren im Kontext ihrer Förderung und Entwicklung letztlich billiger sind, und sich dann durchsetzen, so dass wir vom Öl abkommen. Das ist mit der Kernenergie der Fall gewesen, sie ist ohne echte Zukuft, weil sie im Saldo teurer ist als Öl und Gas. Aber leider gibt es offenbar so viel Vorkommen in der Welt, und die Technologieen, sie preiswert zu heben, wachsen auch, so dass meine Hoffnung bislang nicht aufzugehen scheint. D.h. an dem zu viel Öl, das wir haben, könnten wir zugrunde gehen.

 
Veröffentlicht unter Nachhaltigkeit | Schreib einen Kommentar

We are anonymous – Geschichtchen über Geschichtchen

„We are Anonymous: Die Maske des Protests – Wer sind sie, was sie antreibt, was sie wollen“ von Ole Reißmann, Christian Stöcker, Konrad Lischka, Goldmann Verlag Februar 2012.

Ich habe dieses Taschenbuch als Kindle-Version erstanden, weil ich mich etwas intensiver über die Anonymous-Bewegung informieren wollte. Die Autoren zeichnen den historischen Werdegang nach und füttern dabei den Leser mit unzähligen Detailstorys, die die schlichte Botschaft umranken:
– Anonymous kennt keine Hierarchie, und wenn sich eine andeutet, gibts Krach
– Anonymous changiert zwischen Lulz (Spasskultur) und Freiheitskampf,
– Anonymous changiert zwischen Flops und Prahlhälsen und imponierenden strategischen Leistungen
– Anonymous hat Regeln, aber nicht die heren der alten Hacker, und es kann sie auch übertreten.

Bestimmte Hacks tauchen häufiger auf, die Zeitskala wird auch nicht immer eingehalten. Man hat am Schluß den Kopf voll von auf die Dauer langweilenden Storys, aber wo ist ein Stück Analye, wo sind mutige Bilder, die einem dieses Phänomen näher bringen könnten? Ich habe mir aus diesem Story-Wust auch einiges rausziehen können. Wer über Hackerinstrumente wenig weiß, hat hier nebenbei ein kleines Kompendium. Das Chaotische der Bewegung (Kultur) kommt gut heraus, und dass auch mit geringen Hackerkenntnissen verbunden mit dem Risiko, von den Ermittlern geschnappt zu werden, Einbrüche geleistet und Webseiten zum Einsturz gebracht werden könnten, war mir nicht so bewußt. Die Stationen Spaßguerilla am PC mit der Anarcho-Webseite 4chan.org/b/, die ersten großen Aktion gegen Scientology, der arabische Frühling, Australien, Sony, etc. etc. und schließlich occupy, also das wachsende Engagement, wo die Moral über Lulz triumphiert (Qinn Norton, wired), wird brav und eben sehr breit abgehandelt, aber es fehlen Erklärungsversuche, und ohne diese hätte es auch ein viel kürzerer Text  getan.

Z.B. wird über die Details gut sichtbar, dass 4chan.org/b/ eine (fast) unzensierte Webseite ist, deren Inhalte von weißen jungen Männern kommen, die mehrheitlich sexistische, rassistische und in Teilen wiederliche Mobbingaktionen zelebrieren, dann wieder ganz humorvoll sein können, und auch erschrecken, wenn sie zu weit gegangen sind. Schön, bzw. nicht schön. Wer radikale Freiheit wählt, hat das Dumme, das Böse gleich neben sich, und das Gute kann auch vorkommen – wie entwickelt es sich dann scheinbar? Woher kommt das Organisationsgespür dieser Kultur, wie mobilisieren sie Viele, wie entstehen Konsense? – Das wären für mich die spannenden Fragen, die man sich bei diesem Taschenbuch selbst beantworten muss.

Wer sich über die Entwicklung der Anonymous informieren will, kann besser den Wikipedia-Eintrag lesen, der einen guten Überblick gibt. Philosophischer mit dem Versuch einer kulturellen Einordnung sind Artikel von Quinn Norton in wired.

Fazit: Dieses Taschenbuch bringts nicht richtig.

 
Veröffentlicht unter Internet | Ein Kommentar

Ökothriller von T.C. Boyle

„WENN DAS SCHLACHTEN VORBEI IST“ heißt T.C. Boyles jüngstes Buch, original 2011 und  in Deutschland 2012 erschienen. Ich lese wenig Belletristik, aber geschenkt und noch dazu mit Ökothema habe ich mir diesen 461 Seiten starken Wälzer reingezogen. Der Autor lehrt creative writing in der California Universität Los Angeles und ist ein professioneller Erfolgsschriftsteller, der gehobene Literatur am Fließband produziert. Seine Sprache ist gesättigt mit guten Bildern, präzisen, prächtig erzählten Alltagsbeobachtungen und das Erzählstrickmuster besteht in Collagen, mit Schnitt und Gegenschnitt werden die Protagonisten porträtiert oder ein Zeitritt vorgeführt. Der Fortgang beginnt regelmäßig nicht damit, dass z.B. Alma (eine Protagonistin) gerade irgendwas tut, sondern dem Leser wird eine ganz neue Situation im Detail erzählt, und plötzlich finden wir Alma darin. Ebenso regelmäßig erfahren die Artikel einen Spannungsaufbau, dass man beim Lesen schon spürt, gleich passiert wieder etwas, ein Drohendes, dessen Ausgang der Leser wissen möchte, was ihn angespannt bei der Stange hält. Und dann passiert es, meist malerisch in ein Unwetter gekleidet kommt der Tod, werden Menschen aus ihrer Bahn geworfen. So Geschriebens muss ein Markterfolg werden.

Dieses professionelle creative writing, das hier der Autor produziert, hat Qualität, aber man durchschaut sein Muster, wie er seinen Text nach Regeln in den Laptop jagt, und die Schnitte mit copy und paste kunstvoll durcharrangiert. Das dabei auch noch ein Thema abgehandelt wird, ist fast schon nebensächlich.

Erzählt wird die Story eines für mich nicht ganz nachvollziehbaren Ökoquatsches. Alma mit Freund Tim leitet vom staatlich getragenen Nationalpark Programme zur Erhaltung ursprünglicher Artenreinheit eines insularen Ökosystems. D.h. die Insel Santa Cruz vor der Kalifornischen Küste ist ein Vogelparadies, das durch die eingewanderten Ratten und angesiedelten Schweine, die verwilderten, bedroht ist. Gegen die Ratten und gegen die Schweine werden aufwändige Programme installiert, um sie zugunstend der endemischen Population zu vernichten. Alma steht für Intellektualität, für rationale Wissenschaft, die Ökoingeneering treibt, und mit menschlichem Eingriff Natururstände wiederherstellen will. Ihr Gegenpart, Dave LaJooy ist ironischerweise ein Technikvertreter, der mit Heimelektronik gut Geld gemacht hat, und nach einem Erweckungserlebnis angesichts Darstellungen von Tierquälerei, bei denen KZ-Fantasieen entstehen, zu einem militanten Tier- bzw. Lebensschützer und Aussteiger wird. Er ist gleichzeitig Begründer einer Bürgerinitiative gegen Tiermord, die als Gegenspieler zu den Nationalparkprojekten fungiert. Almas Freund Tim gehört ebenfalls zur Ökopurismusfraktion. Als sie ein Kind von ihm erwartet, bricht er herzlos die Beziehung ab, weil in diese Ökoscheißwelt keine Kinder geboren werden dürfen. Bei Alma erfährt der Leser drei „Schwachpunkte“ im Roman, als sie einen erschossenen Keiler vor sich liegen sieht, der im besten Keileralter erlegt wurde, geht ein irritierendes Gefühl von der Großartigkeit dieses Tieres in ihr auf, was sie aber nicht von ihrer Einstellung abbringt. Dann wird ein ebenfalls artfremder Waschbär gefangen, dessen Herkunft Alma unklar ist. Als die Jäger ihn sofort erschießen wollen, weil er mit Sicherheit ein artfremder Räuber sein wird, wehrt sie sich dagegen. Und schließlich dass sie das Kind, das in ihr wächst, behalten will, obwohl sie abstrakt gegen Kinderkriegen war, ist das dritte Zeichen, der Öko(schein)rationalität eine emotionale Absage zu erteilen.
Der Kontrahent Dave wird von T.C. Boyle negativer gezeichnet. Er ist der emotional gesteuerte Wutbürger, der illegale Mittel einsetzt, was ihn in grenzwertige Situationen bringt, an denen er immer scheitert, die zweimal tödlich enden. Die Verbindung von Lust und Bösartigkeit mit einer Schiffsfahrt, die Urlaub sein sollte und gleichzeitig das Einschmuggeln von artfremden Tieren auf die Insel bewirken sollte, startet im starken Nebel und endet mit einer tödlichen Kollision mit einem Tanker. Als Symbol für die Nichtigkeit des Protestes, stehen Tanker und Boot in krassem Missverhältnis, dass niemand auf dem Tanker die Kollission überhaupt bemerkt. Damit endet der vorletzte Romanabschnitt.

Für mich ist das ein amerikanischer Roman, der die fundamentalistische Gesellschaft der religiösen Amis zur Folie hat. Militante Tierschützer, militante Abtreibungsgegener sind eigentlich nur Abkömmlinge des religios begründeten Fundamentalismus. Und fantischer Rationalismus, der Ingenieurglaube, Gesellschaft und Natur technisch steuern zu wollen, geht mehr in die puritanisch kalvinistische Richtung.

Ich kenne über meine Biografie sehr viele umweltengagierte Menschen, habe aber noch nie einen so bornierten Typus, wie den der Boyleschen Dartsellung erlebt. Ein großes Thema ist Renaturierung, da wird aber nicht krampfhaft ein irgend wie postulierter Vorzustand restrauriert, sondern es geht darum, Verbrachtes oder eben denaturiertes Gebiet als Grünzone zurück zu gewinnen. Das Gebot nachhaltiger Entwicklung heißt immer eine Abwägung gegenüber den verschiedenen Nutzungsansprüchen mit einer Überlegung langfristiger Sicherung zu verbinden. Das geschieht über politische Aushandlungsprozesse, bei denen leider das Primat der Ökonomie sich meist durchsetzt.

Der gestaltende Eingriff des Menschen in die Natur ist ein Grundzug, dem wir unsere Entwicklung verdanken. Auch wir haben große Gebiete, wo wir künstlich einen alten Zustand wenn schon nicht wiederherstellen, so doch aufrechterhalten. Die Alpen würden nach rein wirtschaftlichen Prozessen in großen Teilen schlicht verwalden und kämen zu ihrer Ursprungsform vor der menschlichen Besiedlung zurück. Das liegt daran, dass die heutige Alpenlandschaft eine Kulturlandschaft ist, die nur durch die jahrhunderte lange emsige Arbeit der Alpwirtschaft zu dieser Gestalt kam. Weil die Milch und Käsebetriebe der Alpen nicht konkurrenzfähig mit den viel besser rationalisierbaren Flachlandbetrieben sind, müßte die Landwirtschaft eigentlich dicht machen, und dann käme die Totalverwaldung. Dieser Prozess wird durch die hohe Subventionierung der alpinen Landwirtschaft verhindert. D.h. wir leisten uns diese Kulturlandschaft künstlich über die Subventionierung aus Steuermitteln. Das ist auch kein Historienpurismus, sondern ein kultureller Akt. Was die alpinen Touristen dort schätzen und schön finden, ist kulturelles Erbe, das wir pflegen.

T.C. Boyle sieht die Welt aus ideologischer Verkrampfung in die Katastrophe fahren. Ich meine, wir arbeiten eher daran, zu überleben. Und die Probleme liegen weniger in subjetiven Starrsinn und wissenschaftlichem Fanatismus, als in systemischen Kollateralschäden, die erkannt werden müssen, und gegen die stetig mit dem Ziel der Zukunftssicherung unter humanen Bedingungen Gegenarbeit geleistet wird.

 
Veröffentlicht unter Nachhaltigkeit | 3 Kommentare

Feedback zum Onlineseminar

Onlineseminare im sozialwissenschaftlichen Unibereich sind immer noch selten. Insofern ist ein Blick in die Praxis ganz lehrreich. Ich führe im Sommerstemester an der Universität Gießen am Fachbereich Sozial- und Kulturwissenschaften ein virtuelles Angebot mit zwei Präsenzen zum Thema Qualitätsentwicklung in der Weiterbildung durch. Das Seminar zählt methodisch zu den einfach materialbasierten Konzepten. D.h. zu Beginn der Woche gibt es einen oder zwei neue Texte auf der Lernplattform, die selbst erarbeitet werden müssen, und zu denen dann für das Wochenede eine Reflexionsaufgabe gestellt wird, die auf einen „Hausaufgabenordner“ auf der Plattform StudIP hochgeladen werden muss. Jeder Student erhält auf seine Arbeit (auch Gruppenarbeiten) ein kurzes schriftliches Feedback per Mail. In der zweiten Präsenz (letztes Drittel wurden die Teilnehmenden per Kartenabfrage nach positiven und negativen Erffahrungen gefragt. Hier das Ergebnis:

Inhaltlich wird moniert, dass die Aufgabenstellungen teilweise unklar sind. Die Aufgaben sind in der Tat offen formuliert, weil ich das selbständige Reflektieren durch zu enge Aufgabenstellungen nicht einengen wollte. Der Preis, manche Studierende überfordert das etwas, weil sie nicht genau wissen, was sie tun sollen.
Die Einschätzungskritik bezieht sich auf die vorgelegten Texte, da ist häufig ein Resümee enthalten, in dem der Autor eine eigene Bewertung abgibt.
Kommunikativ wird die fehlende Diskussion über die Texte dreimal genannt, und Onlinekontakte werden als schwierig erachtet (letzteres bezieht sich auf eine schlechte Internetverbindung im hessischen Hinterland). Es gab ein Forum zu den Sitzungen, das wurde halt kaum genutzt.

Hoher Arbeitsaufwand zweimal. Ja, Onlineseminare sind zeitintensiv.

Fünf Mal wird die freie Zeiteinteilung gelobt (obwohl die Studies meist erst am Samstag aktiv wurden, und die Aufgaben erst sonntags oder auch später hochgeladen haben).
Die regelmäßige Mitarbeit wird 3x gelobt. Das Seminar zwingt alle, jede Woche an jedem Thema aktiv zu sein. Das ist bei präsenten Seminaren meist nicht der Fall.
Die Verständlichkeit der Texte wurde gelobt. Ich habe mir Mühe gegeben, die zu finden. Ein Gefühl des „Vorankommens“ stellt sich ein, weil auf die Feedbacks reagiert werden kann, so dass sich Erfolge einstellen.

Also insgesamt scheinen die Studies diese Form doch ganz gut zu finden. Von einer Nichtakzeptanz der virtuellen Lehrform kann hier nicht geredet werden.

 

 
Veröffentlicht unter e-learning | Schreib einen Kommentar