Der Tod des Internet?

Als massiver TodInternetInternetnutzer frage ich mich, wie es mit dem NSA-Skandal durch die  Snowden-Enthüllungen des Jahres 2013 weiter gehen wird. Dazu brauche ich natürlich nur ins Netz oder in die Zeitung zu schauen. Fangen wir mit der FAZ vom 12.Jan.2014 an, da feuilletonisiert Sascha Lobo über die digitale Kränkung des Menschen. Er habe immer auch die Netzwerke gegen Kritiker hochgehalten, das Internet für einen Hort der Demokratieverbreitung angesehen – und nun kam der Spähskandal und der Kontrollwahn der Konzerne. Er muss einsehen, er war naiv, jetzt habe sich alles verändert. Wer als Experte für eine Sache einen großen Irrtum zur Sache einräumt, ist ehrenwert.

WIREDEr denkt das nicht allein, bei WIRED (Link des nebenstehenden Logos) wird weniger psychisch, dafür mehr sachlich auch über Naivität des Experten und von Balkanisierung des Internet (ein Spruch von Zuckerberg) gesprochen. Der WIRED-Autor Steven Levy rekapituliert die amerikanische Story, wie nach der Snowden-Enthüllung erst mal die großen Internetgiganten geleugnet haben, wie dann über Nachfragen aber doch zutage kam, dass sie alle ihre Datenströme der NSA übergeben, und das aufgrund der amerikanischen Gesetzgebung (FISA Amend­ments Act von 2008), wobei die Geheimdekrete ihnen sogar verbieten, darüber zu reden. WIRED geht es weniger um Moral und Kränkung, sondern um ökonomische Kollateralschäden einer wahnwitzigen Terrorbekämpfung, denn ein wesentliches Kapital, dass die Nutzer ihre Daten auf Amiserver schicken, besteht im Vertrauen. Und wenn dieses zerstört ist, ziehen die Firmen ihre preiswerte Datenlagerung in Clouds zurück. Die Kunden werden misstrauisch und verlassen vielleicht die amerikanisch betriebenen Plattformen. Und wenn sich gar durchsetzen würde, was in Brasilien, Malaysia, Frankreich und in der EU angedacht wird, das Internet zu nationalisieren („Splinternet“), dann wäre das der Tod des Internets, denn der aktuelle Gewinn liegt ja gerade darin global Zugang zu allen Daten zu haben. Wer dann in Brasilien im Hotel ins Netz geht, wird seine Mails aus Deutschland nicht mehr abrufen können. In Facebook gäbe es keine ausländischen Freunde mehr. Skypen über die Kontinente, nicht mehr drin! Von den Einschränkungen, die dann z.B. die deutsche extrem exportabhängige Investitionsgüterindustrie hätte, und den Einschränkungen im Finanztransfer ganz zu schweigen. Wegen der großen Vernetzungsabhängigkeit ist eigentlich ein „Tod des Internets“ überhaupt nicht vorstellbar (das sieht auch Lobo so). Die potentielle Schlagkraft des digitalen Spähens (falls sie denn überhaupt richtig besteht), ist relativ leicht zu brechen. Jeder Terrorist und anderer Großkrimineller wird künftig grundsätzlich das Handy und das Internet zu seinem Business vermeiden, und analoge Kommunikationstechniken aufbauen, die dann wieder nur mit ganz klassischer Geheimdienstarbeit aufzuspüren sind. Der NSA-Datenwahnsinn, der sicher nicht billig ist, könnte wegen Ineffektivität auch wieder beendet werden.

Dann bleibt allerdings immer noch die Industriespionage, die dann besonders ärgerlich wird, wenn der große Bruder über die besten Technologien verfügt, d.h. wenn die Amis ein Mehrfaches spionieren können als alle kleinen Brüderchenstaaten zusammen. Dass man seitens deutscher Wirtschaftsverbände nicht viel stärker gegen das Ausspähen durch die angelsächsischen Geheimdienste protestiert, ist wohl ein Zeichen von deren Naivität und Ahnungslosigkeit. Zukünftig wird man mehr Geld und Know-How in die Spionageabwehr der Industrie investieren müssen mit dem bitteren Gefühl, man schafft es doch nicht.

Welche Perspektive habe ich als einer, der von Internetöffentlichkeit lebt? Aus Facebook austreten, das Google-Konto löschen, Verschlüsselungstechniken anwenden und den Browser vor Ausspähung abschotten, ist so umständlich, wie mehrere Schlösser an der Haustüre anbringen. Die wollen immer zugedreht und wieder geöffnet werden, wenn ich mit der Außenwelt Kontakt aufnehme. Im Rückblick ist die Snowdenenthüllung so umwerfend nun auch wieder nicht. Bei Evgeny Morozov konnte man schon lange nachlesen, dass die Geheimdienste der Diktaturen die Netzwerkplattformen zur politischen Ausspähung nutzen, so dass ein Saldo zwischen Demokratisierungseffekt und Diktaturstärkung schwierig ist. Das Datamining der Konzerne ist so massiv, dass sich auch ohne NSA die Frage stellte, kann ich da noch mitmachen? Eine gewisse Beruhigung lag darin, dass nur Google weiß, was ich surfe, was ich im Netz kaufe, was ich recherchiere. Und nur Facebook weiß etwas genauer, in welchen Netzen ich mich bewege, wer Vertrauensperson ist, und nur mein Provider weiß, mit wem ich alles Mailkontakte habe. Diese kleine Illusion, dass ein Betreiber immer nur einen Teil von mir weiß, der nicht aus langt, meine volle Person zu umfassen, gilt nun auch nicht mehr. Die NSA hat, wenn sie will, „alles“.

Wohin geht das Internet also? Sterben wird es sicher nicht, und ob die Schnüffelei schlimmer ist, als die stetig wachsende Kapitalisierung und die Ausuferung in alle gesellschaftlichen Bereiche mag ich nur schwer abzuschätzen.

  • Die Inwertsetzung von Information wird heute noch wesentlich von der Werbeindustrie bzw. von den Mechanismen, diese zu befriedigen, bedient. Wie beim Privatfernsehen wird der Service, den wir nutzen über Werbung finanziert. Nehmen wir mal Wikipedia aus, dann liefert die Suche nach einem Begriff in aller Regel erst mal ein zu kaufendes Produkt, und sei es das Sachbuch zu dem Begriff. Der meist gesuchte Link,  wandert in der Priorität nach oben, ohne Bezug auf dessen Informationsqualität.
  • Der Suchende bekommt vom Anbieter einen persönlichen Algorithmus geschneidert, hinter dem zuallererst kommerzielle Interessen stehen, als zweites persönliche Bequemlichkeit (d.h. es wird nach dem gesucht, was wir früher schon suchten).
  • Darüber hinaus ist das Internet der ideale Ort des Outsourcing, d.h. der Nutzer muss alle Leistungen selber übernehmen, die früher beim Dienstleister lagen. Das Buchen von Reisen, das Geldüberweisen, die Eintragung beim Melderegister, die Bezahlung von Parkplaketten. Etc. Weil hier ständig Geldbeträge fließen, ruft das die Internetkriminellen auf den Plan. Nur mit großer Mühe hält man sich die pausenlosen Betrugsversuche vom Hals. Etc.
  • Das aufkeimende „Internet der Dinge“ wo Waren und Dienstleistungen unabhängig von persönlicher Kontrolle miteinander im wirtschaftlichen Interesse Dritter agieren, macht das Internet zum Mündigkeit raubenden Steuerungsraum.

Es wird kein zweiter Snowden kommen, der plötzlich entlarven könnte, was da passiert, denn es geht schleichend voran. Wenn die NSA in unsere Computer dringt, merken die meisten das nicht,  wenn aber Kriminelle eindringen, ist plötzlich das Konto geräubert, ungewollte Zahlungsverpflichtungen entstehen etc. Copyright Verletzungen und Angst der Bürger rufen die Politik auf den Plan, die wird mit Regulierung kontern, was das Netz weiter von dem entfernt, für das wir es heute noch halten.

Ich vermute, die Gefahren für das Internet als einem unbeschwerter Ort der Kommunikation und Wissensrecherche liegen weniger in der Bedrohung durch die Spähtechnologien der Geheimdienste als in diesem schleichenden Prozess der Kapitalisierung und Übergriffigkeit seiner Daten. Auch das wird sicher nicht zum Ende des Internet führen, es erschwert aber die produktive Nutzung des Systems und führt zu verstärktem digital Gap. Damit nicht nur den Privilegierten  die Wissensnutzung vorbehalten bleibt und die überwältigende Mehrheit zum Konsumentenvieh des Internetmarktes wird, muss noch viel gegen gesteuert werden, was trotz Snowden z.Zt. kaum sichtbar ist.

PS: Nachtrag vom 17.01.: In den Blogs geht die Post auf Lobos FAZ-Beitrag ab, meist wird negativ auf Lobo reagiert. Ganz differenziert mit optimistischem Beiklang ist z.B. Martin Lindner.

 
Veröffentlicht unter Allgemein, Internet | Schreib einen Kommentar

Sharing Economy ein Flop?

Neben den Lobpreisungen der Sharing Economy häufen sich, besonders in FAZ-Artikeln, Kritiken an diesem Deal. Das ist gut so, denn nichts ist törichter, als unreflektiert jedem neuen Trend zu folgen. Mit seiner Tirade gegen die Sharing Kultur in dem Beitrag „Der Terror des Teilens“ von Harald Staun in der FAZ vom 22.12.13 wird aber m.E. das Kind mit dem Bade ausgeschüttet. Die journalistische Methode, zu der leider auch der berühmte Internetkritiker Morozow etwas neigt, besteht darin, das meist noch unentwickelte Gedankengebäude der neuen Begriffswelt als Ideologie (bei Morozow: Wohlfühl-Welt“) zu brandmarken und Einzelbeispiele überhöht aus dem Kontext zu ziehen. Sharing Economy bedeute, so der Journalist, dass das Eigentum seinem Ende zuneige. In Zukunft wird alles zum Wohle der Umwelt geteilt. Und das Internet senke die Kosten dieser Transaktionen auf ein rentables Niveau. Carsharing wird so interpretiert, dass es rentabel würde, weil man sich nicht mit Tanken, Reparaturen und Versicherung nerven muss, man steigt irgendwo mit seinem Chip ein und verlässt es sorgenfrei, das sei doch nur eine Potenzierung des Mobilitätskonsum. Und bei Airbnb, der Wohnungsagentur, gibt es in New York schon Großverdiener, die sich weder um Hotelauflagen sorgen, noch Steuern zahlen wollen. Mitfahrdienste sind nur neue Einmann-Jobs, die gegen wehrlose Taxiunternehmen konkurrieren. Etc.

Etwas differenzierter beschreibt die FAZ-Redakteurin Melanie Mühl in „Geteiltes Glück als gutes Geschäft“ (22.10.13) genau die Fälle, wo Sharing Economie nichts anderes als ein neues Geschäftsmodell ist. Wann Amazon bei Airbnb finanziell einsteigt, muss man dazu auch kaum noch etwas sagen. Fazit: Wie steht es mit dem Teilen?

Schauen wir aufs Car Sharing, das ist nicht aus der Idee des sorgenfreien Auto-Hoppings entstanden. Das Auto von Otto Normalbesitzer steht über 90% parkend auf der Straße. Es hat bei der Produktion extrem viel Energie verbraucht. Wenn 10 Leute sagen, ich verzichte auf einen Autobesitz, und leihe mir in der Tauschbörse eins aus, wenn ich es brauche, dann sind 9 Autos weniger parkend auf der Straße, und das Leihauto wird intensiver genutzt. Der statistisch nachgewiesene Nebeneffekt, diese Autoleiher fahren nach dem Übergang ins Kooperationsmodell insgesamt weniger Auto als früher. Weil das so ist, darf man auch nicht einfach die großen Autovermieter mit dem Carsharing gleich setzen, denn die Vermieter sprechen vor allem die Zielgruppe an, die kein oder gerade kein Auto (im Urlaubsfall) besitzt, womit überhaupt nicht weniger Autos auf der Straße sind, sondern im Prinzip mehr. Diese wesentlichen Feinheiten sollte man bitte schön doch beachten, wenn man gegen Sharing pauschal wettert. Dass mit dem Leiheffizienzzuwachs durch das Internet die Carsharer zu Vielfahrern werden, scheint mir mehr der Fantasie von Herrn Staun zu entspringen, als real nachgewiesen. Selbst wenn dann gleichviel, wie mit Autobesitz gefahren würde, wären dadurch immer noch viele Ressourcen wegen des geringeren Autobestandes eingespart.

Und was ist so schlimm dabei, wenn über das Teilen der Markt nicht ausgehebelt ist? Sind alle Anhänger der Sharing Economy Kommunisten? In Frankfurt wird der Sperrmüll so entsorgt, dass man einen Abholtag beantragt, und am Abend zuvor seine nicht mehr gebrauchten Gegenstände auf den Bürgersteig stellt. Ganz ohne Internet fahren da am besagten Abend private Kleinlaster durch die Straßen, nicht um persönlich eine Zweitnutzung anzutreten, sondern das sind Händler, die dieses Dinge auf dem nächsten Trödelmarkt gegen Geld verhökern. D.h. fast immer wenn ich ein Gut freigebe, gibt es in unserer kapitalistischen Gesellschaft jemand der den Tauschwert entdeckt, und diesen zu Geld zu machen versucht. Mir gefällt diese Option, weil meine entsorgtes Gut jemandem zu einen Kleineinkommen hilft, und das Gut letztlich weiter verwendet wird. Was einen Neukauf erspart.

Wenn es denn wirklich einen Wertewandel zu weniger besitzen wollen gibt, dann ist das im Sinne einer nachhaltigeren Lebensweise zu begrüßen. Gegen den Raubbau an den Ressourcen, auf die auch kommenden Generationen gerne noch zugreifen wollen, hilft wesentlich, weniger konsumieren. Da sind wir noch lange nicht beim Kommunismus, wenn das Teilen von Gütern als eine Lösung betrachtet wird.

Fraglich ist aber leider, was die Motive für diesen Wandel sind. Wenn es nur Mangel an Kaufkraft ist (prekäre Arbeitsverhältnisse, Einkommensumverteilung, Krise, etc.), hat es gar nichts mit Ideologie zu tun. Und wenn die Autobegeisterung zurückgeht, weil die Straßen verstopft und gewünschte Plätze damit kaum zugänglich sind, und man dafür sein Geld lieber in Smartphones und Internetdienste steckt, dann ist das leider auch nicht besonders nachhaltig.

Ob da jeder Ansatz immer vernünftig ist, und dem nachhaltigen Ziele wirklich nutzt, muss gegebenenfalls geprüft werden. Wer eine Kaffeetasse gegen einen Korkenzieher auf einer Internetbörse tauscht, und dafür zwei Päckchen durch die Republik schickt, der hilft vielleicht dem Transportgewerbe aber gewiss nicht der Umwelt. Wenn das Auto, wie Untersuchungen belegen, bei Jugendlichen an Attraktivität einbüßt, dann ist zu prüfen, ob der Alternativkonsum, in den das nicht verwendete „Autogeld“  wandert, ressourcensparender und sozial verträglicher ist.

Immerhin – den Kritikern sei Dank, die Sharing-Kultur ist kein Blankocheck in eine Wohlfühl-Welt.

 
Veröffentlicht unter Allgemein, Nachhaltigkeit | Schreib einen Kommentar

Lehrfrust – oder normales Lernverhalten?

Meine letzte Rundum-Mail an meine Onlinestudierende:

Liebe Studierende,
nach der großartigen Beteiligung bei der Gruppenaufgabe 4 sind viele von Ihnen offensichtlich in die Ruhephase gegangen. Auch das Videofeedback dazu  haben sich bislang nur wenige angeschaut. Bei der letzten Aufgabe 5 vorige Woche gab es 7 eingereichte schriftliche Lösungen. Für mich ist das angenehm, ich brauchte dann nur 7 Feedbacks zu verfassen. Aber Sie hatten doch den schönen Vorsatz, auch ohne Aufgabenpflicht in dieser „selbstgesteuerten Übung“ am Ball zu bleiben. Ich ermuntere Sie, schauen Sie wenigstens mal die neue Aufgabe 6 für diese Woche an, es ist wirklich nur etwas, das man auch so machen sollte, wenn man einen Text liest. Ich erinnere Sie an unser Rechenspiel: mindestens 1 1/2 Stunden würde Ihnen die Präsenz kosten – und die sollten Sie unbedingt auch online investieren.

Das Resultat dieser papahaften Ermahnungsmail waren 8 eingereichte Aufgaben bei 27 Seminarteilnehmenden.
Hintergrund: Es geht um das Thema „Selbstgesteuertes Lernen“. Jede Woche gibt es dazu ein bis 3 kurze Texte, die gelesen werden sollen, und eine Reflexionsaufgabe (oder Gruppenaufgabe), die am Ende der Woche hochgeladen werden kann. Die letzte gestellte Aufgabe kann auch als Unterforderung interpretiert werden, es ging darum, die Aussagen eines Textes in einer Tabelle zu visualisieren, was für mich der Nachweis war, dass der Text gelesen wurde, und für die Studierenden eine Erinnerungsstütze an den Text sein sollte.
Rahmenbedingungen: Es ist ein Masterstudiengang, wobei für dieses Seminar nur 3 Creditpoints vergeben sind, was der Anforderung der Abgabe eines Seminarprotokolls entspricht. Formal ist es möglich, wenn es ein Präsenzseminar wäre, einmal zu erscheinen, und dazu ein Protokoll hinknäulen, und schon hat man ein weiteres Seminar „hinter sich gebracht“. Die Studentenschaft hat die Anwesensheitspflicht abgelehnt, was nach Entschulung klingt, ob das aber gut ist?
Ich könnte ja vermuten, dass die Studierenden hohen Arbeitsdruck wegen der übrigen Seminare, wo mehr verlangt wird, haben. Und dass sie deshalb nur die Texte lesen, ohne zu einer kleinen Ausarbeitung dazu zu kommen. Aber auch diese Vermutung ist falsch. An den Logfiles der Lernplattform (Big Brother is waching) kann ich sehen, wie viel Leute sich die Aufgabenstellung angeschaut, und wie viele die Aufgabentexte angeklickt, oder herunter geladen haben. Unb siehe da, die Aufgabenstellung haben sich nur 6 Leute angeschaut und 11 Leute haben die Texte dazu angeklickt. Das heißt, die große Mehrheit ignoriert das Angebot schlichtweg.

Nach meinen früheren Erfahrungen im Fachbereich Erziehungswissenschaften interpretiert eine Mehrheit das Studium als eine Scheinerwerbsveranstaltung, wo man versucht, mit geringem Einsatz möglichst viele Punkte zu sammeln. Auf die Einstiegsfrage, „warum kommen Sie in mein Seminar?“ wird mit gesenkten Blicken reagiert. Sie kommen, weil sie den Schein brauchen, aber ob Sie das Thema interessiert? Mal sehen!

Ich habe in einem anderen Onlineseminar (Bachelor-Studiengang), wo die Teilnahmepflichten gößer waren, zu jeder Wochenaufgabe ein persönliches Feeedback mit Verbesserungsvorschlägen geschrieben. Am Ende des Semesters sollten alle Einzelbeiträge mit Inhaltsverzeichnis und Literaturangaben zu einer Datei verarbeitet werden mit dem Hinweis, wer seine Note verbessern will, sollte die Texte entsprechend den Anmerkungen korrigieren. Damit leistet der Studierende seine Hausarbeit, und er hat zugleich auf seinem Rechner eine reflektierte Dokumentation des ganzen Seminars. Diese gewünschten Verbesserungen der eignen Texte haben nur ein Bruchteil (10-20%) ausgeführt, der große Rest hat einfach die unkorrigierten Beiträge zusammengestellt. Da frage ich mich natürlich als Lehrender, wozu gebe ich eigendlich die Feedbacks, wenn diese ignoriert werden? Viele Studierende beklagen sich zu recht, dass sie bei den meisten abgegebenen Arbeiten nur spät eine Note erhalten aber keine weiteren Rückmeldungen, aus denen sie etwas lernen könnten. Wenn ich nun die Feedbacks gebe, werden sie nur von wenigen geschätzt – das kann schon frusten, denn für 40 Arbeiten Feedbacks schreiben, kostet einen Teil des Wochenendes, den ich als Lehrbeauftragter überhaupt nicht vergütet bekomme.

Die Frage bleibt, ist das das „normale“ Lernverhalten der Studierenden? War das früher anders? Liegt es an den strukturell sehr schulisch gelegten Leitplanken der Studieningänge? Haben die Studies schon in der Schule das selbständige, mit Interesse ausgestattete Lernen verlernt? Habe ich die Aufgabenstellungen, die ausgewählten Texte pädagogisch unzureichend erstellt (langweiliger Lernraum animiert nicht zum Lernen)? Ist es die Massenuniversität, wo in vielen Elternhäusern meiner Studierenden keine Bücherschränke stehen, keine geistig interessanten Tischgespräche geführt werden?

Etc. Es ist sicher von allem etwas. Immerhin, der engagierte Teil der Studierenden kann selbständig arbeiten und bringt auch gute und kreative Ergebnisse zutage. In meinem Beitrag Erfahrungsbericht haben „die 20%“ spannende Kommentare geschrieben. Pauschale Studentenschelte ist unangebracht – aber die Aufgabe bleibt, Qualität an den Universitäten zu halten, wir brauchen keine paukende Lernmaschinen, wir brauchen mehr die selbstverantwortlich Lernenden, denn ohne Motivation am Stoff, ohne den Wunsch, sich mit Inhalten/Theorien auseinanderzusetzen, wird auch kein Engagement im Berufsleben entfaltet werden können. In den Fitnessstudios steht niemand am Rande und schaut einfach zu, und sagt, komm, mach mal für mich. Wer seinen Body trainieren will, geht selbst in die Bütt. Wenn in der Schule einer mehr tut, als der Lehrer verlangt, wird er als Streber beschimpft – ist es diese Altlast, die unsere Studierenden beim selbstgesteuerten Lernen ausbremst??

 
Veröffentlicht unter Allgemein, e-learning | Ein Kommentar

Ubuntu – weg von Microsoft!?

Es geht in diesen zwangsweise etwas technisch geratenen Beitrag um die Frage, wieweit wir durch unsere Konsumentscheidungen die Marktmacht Microsoft umgehen können.

Vorab eine kleine Betriebssystemlehre für die Nicht-digital-Geborenen:

Ein Betriebssystem (z.B. Windows von Microsoft, oder MAC-OS von Apple) ist eine Bündel von Programmen, die direkt mit der Hardware (der Prozessor, Speicher, Festplatten, etc.) kommunizieren, und dann eine Schnittstelle zu Anwenderprogrammen, wie z.B. Textverarbeitung, etc. herstellen. Gäbe es kein Betriebssystem, müsste ein Anwenderprogramm, wie z.B. eine Textverarbeitung, für jeden Rechner, der eine unterschiedliche Hardware hat, spezifisch programmiert werden. Aus genau diesem Grund und der Anforderung, dass mehrere Programme gleichzeitig auf einem Rechner laufen konnten, wurde in den USA 1969 von Bell Laboratories (später AT&T) zur Unterstützung der Softwareentwicklung das Mehrbenutzer-Betriebssystem Unix entwickelt. Jedes mal, wenn ein Programmierer ein nettes Programm für seinen Großrechner geschrieben hatte, konnte es der Kollege aus der Nachbaruni mit anderem Rechnersystem nicht ohne großes Umprogrammieren anwenden. So musste diese rechnerunabhängige Plattform UNIX entwickelt werden, auf der eindeutige Vorgaben für ein Anwenderprogramm definiert waren, so dass ein für Unix geschriebenes Programm auch auf anderen Rechnern mit Unix sofort lauffähig war. Die beiden meist verbreiteten Betriebssysteme für Smartphones und Tablet-Computer, Apple iOS und Android, basieren z.B. heute noch auf Unix.

Unix ist wesentlich kommerziell weiterentwickelt worden. Um ein Betriebssystem zu haben, das ohne Lizenzrechte frei verfügbar ist, wurde im Jahr 1991 von dem Finnen Linus Torvalds das Unix-ähnliche Betriebssystem Linux entwickelt. Unter den freien Entwicklern gab es irgendwann Namensstreit und Weiterentwicklungen, die unter dem Namen GNU/Linux formieren (GNU ist ein Akronym für G‘ not unix). Es ging darum, Systeme zu entwickeln, die völlig unabhängig von kommerzieller Software frei und demokratisch für alle verfügbar zu nutzen.

Dazu gehört Debian, das 1993 von Ian Murdock (in Konstanz geborener US-amerikanischer Informatiker) begründet und gemeinschaftlich als freies Betriebssystem entwickelte wurde, das auf den grundlegenden Systemwerkzeugen des GNU-Projektes sowie dem Linux-Kernel basiert.

Ubuntu-LogoEin Mitentwickler war Mark Richard Shuttleworth (1973 in Südafrika geboren) der sehr geschäftstüchtig internetaktiv war, und vor dem Platzen der dot.com Blase für 500 Millionen Dollar seine Firma verkaufte. Bekannt ist Shuttleworth als 2. Weltraumtourist, weshalb er den Spitznamen „Afronaut“ trägt. 2004 gründete er das Unternehmen Canonical Limited mit Sitz auf der Isle of Man, das die auf Debian basierende Linux-Distribution Ubuntu und weitere Projekte aus dem Open-Source-Bereich sponsort. Langfristig soll sich UBUNTU aus dem Support für das System selbst finanzieren. Der Namu „Ubuntu“ bedeutet auf Zulu „Menschlichkeit“ oder „Geneinsinn“. Die Standardfarbe des Schirms ist braun-orange und ein Systemklang ist eine Buschtrommel – also beabsichtigte afrikanische Elemente. Unter den Open Source Puristen ist UBUNTU kritisiert worden, weil es in der Version 12.10 eine interne Suchfunktion mit einer Verbindung zum Amazon-Shop enthält. Für diese Einbindung erhält Canonical Limitid Geld, das nach Aussagen Shuttleworths in die Weiterentwicklung gesteckt wird. (http://www.heise.de/open/meldung/Stallman-kritisiert-Ubuntu-fuer-Spyware-1764692.html)

Es gibt noch weitere Linux-Derivate (oder man sagt auch Linux-Distributionen, was auf Wikipedia nachlesbar ist).

Die Firma Microsoft hat unabhängig von der „Unix-Welt“ 1980 ein eigenes Betriebssystem MS-DOS entwickelt, das wegen technischer Probleme schließlich 1996 vom heute noch weiter entwickelten Betriebssystem Windows abgelöst wurde.

Wer McDonald nicht mag, der geht nicht mehr in diesen Laden. Wer den amerikanischen Global Player Microsoft nicht mag, schimpft auf ihn, und betreibt weiter seine Windows (Betriebssystem)-Kiste oder geht zu Apple, was nur einen ästhetischen Unterschied macht. Angesichts der gigantischen Übergriffigkeit des USA-Spitzelsystems NSA, der Ausbaldowerung unserer Internetdaten durch Google und Facebook ist eigentlich Handeln angesagt, aber das ist nicht so einfach ohne gewaltige Verluste an Informationszugang. Man kann dazu täglich in den Zeitungen lesen, und dabei auch ständig neuen Ungeheuerlichkeiten begegnen, darüber brauche ich nicht zu bloggen.

Mit der Informationsmacht müssen wir wohl leben

Das Dilemma, des „Es-gibt-kaum-ein-zurück“, wird dabei m.E. zu wenig angesprochen. Man schaue etwa auf Youtube (Google). Dieser Dienst ist heute so gigantisch reich an medialer Information, dass ich mir schwer vorstellen kann, dass jemals ein deutsches oder europäisches System diese Schätze vorhalten könnte. Hinter Youtube steht die Google-Maschinerie, das sind mehrere Milliarden Dollar Investitionen in Software und Speichersysteme. Die Suchalgorithmen, die in Sekundenbruchteilen aus unvorstellbaren Datenmengen eine Stecknadel finden, wollen entwickelt sein, und sind mit Lizenzrechten versehen. D.h. entweder Zahlen, oder technologisch gewaltig nachrüsten, beides ist sehr teuer. Wie und wer bezahlt so ein deutsches oder europäisches System, das eine annähernde Konkurrenz sein wollte? Soll jeder Suchklick 5 Cents kosten, damit das System finanzierbar ist? Wer will das? Steuererhöhung für das freie Informationsrecht in ganz Europa? Huch, wohl kaum. Dann kommt das Problem, ein guter Datendienst muss global sein, wir wollen und brauchen den Zugang zum globalen Wissen. Haben wir die Brutalität und Chuzbe amerikanischer Datensammler (z.B. Google kauft einfach grenzenlos Bildrechte aus allen Bibliotheken, etc.). Und wenn wir es probieren wollten, die Amis waren schon da und geben die Rechte nicht raus! Ein, würde ich sagen, von Grund auf hoffnungsloses Unterfangen, diesen Datengiganten mit voller Breitseite den Kampf anzusagen.

 Nur ein Beispiel: Ich gehe ins Wiesbadener Staatstheater zu einem Ballettabend, wo zwei für mich völlig exotische moderne Kompositionen als Musik unterlegt sind. Ich komme nach Hause, werfe den PC an, lade Youtube und tippe den Komponistennamen ein, und schon blättert mir die Vorschlagsliste genau das Stück vor, dass ich gesehen hatte, ich höre es mir an, schaue in Wikipedia und schon habe ich Biografie etc. Ohne diese Internet-Werkzeuge hätte ich Tage gebraucht, um etwas über den Autor zu erfahren, Wochen, um vielleicht eine CD geschickt zu bekommen. Und das nur als privates, kunstinteressiertes Informationsbedürfnis! Wie viel mehr bringt das Ganze für berufliche Recherchen, für wissenschaftliches Arbeiten, für journalistische Tätigkeiten, etc. Würden wir diese amerikanischen Datenbeschaffungssegnungen abschalten, das wäre wie in die Steinzeit gebombt. Dass diese Informationszugänge für uns kostenlos sind (sehen wir mal von den moderaten Internetgebühren ab), hat noch den unschätzbaren Charme, dass dieses Wissen nicht nur für Wohlhabende wohlfeil ist, sondern dass es jedermann, der nur selbst genug Wissen einbringt, haben kann. Eine gigantische Wissensbank ist niemals zum Nullpreis zu haben, die kostet sehr viel, und das wird z.Zt. mit dem Klau unserer Verbindungsprofile bezahlt. Würde die leider kaum noch existente Piratenpartei den Slogan ausgeben, Werbung weg, dafür ehrliche Gebühren, hätten sie sich sicher nur noch eine weitere Niederlage eingehandelt. Sieht da jemand eine Alternative? – Ich nicht.

 Muss es Microsoft (oder Apple) sein?

Bei der Wahl der Hardware und ihrer Software gibt es aber Alternativen, wo man das McDonald-Prinzip halbwegs verwirklichen kann. Als privatere Anwender muss man nicht die kommerziellen IT-Produkte aus den USA wählen. Es gibt in der Welt 1000de frei schaffende ethisch verankerte Programmierer, die freie, offen verkodete Software produzieren, die Alternativen zum Kommerz darstellen, die man durch eine freiwillige Bezahlspende unterstützen kann. Beim Kauf eines fertig installierten PCs oder Laptops klingelt in Redmont die Kasse, der 74 Milliarden starke Konzern erhält weiter Moos von uns. Begnügt man sich mit einem „Open-Source-System“ geht kein Geld zum Konzern, und vielleicht ist das auch sicherer, denn wahrscheinlich haben die Tüftler vom NSA auch bei Windows geheimgerichtlich Türen erzwungen, durch die sie munter in jeden Rechner dieses Systems eintreten können.

Man kann sich einen „nackten“ Rechner kaufen (ohne Betriebssystem), und sich aus dem Internet das Betriebssystem Ubuntu herunter laden, oder sich eine Diskette schicken lassen. Da beginnt allerdings in der Regel ein für einen Computerlaien schwieriger Weg. Zwar ist Ubuntu gemessen an früheren Linux-Distributionen bereits mit einer sehr komfortablen Oberfläche ausgestattet, und in der Theorie startet sich das System von einer Diskette oder einem USB-Stick automatisch auf den Rechner, und findet automatisch (fast) alle angeschlossenen Geräte mit dazugehörigen Treibern (Software, die die Gerätenutzung ermöglicht). Aber eben nur fast. Wenn bei Windows das Zusammenspiel von Gerät und System nicht klappt, hilft in der Regel der Blick zur Herstellerhomepage des Gerätes, da sucht man den entsprechenden Treiber, lädt den in sein Rechner, klickt ihn an, und ratter, ratter, ratter, Neustart – und schon geht das Ding. Nicht so in Ubuntu. Erstens haben die meisten Hersteller keine Lust, für Ubuntu Treiber breit zu stellen, weil Sie das zusätzlichen Beratungsservice kostet, der sich wegen der geringen Ubuntu-Nutzerzahlen nicht auszahlt. Und zweitens muss man, um einen externen Treiber zu installieren, mit Kommandosprache in die Eingeweide von Linux vordringen, was Spezialistenarbeit ist, und sich nicht eben mal ganz schnell anlesen lässt. Es gibt große Foren mit freundlichen, ehrenamtlichen Ratgebern, aber die sind fast immer von der Sorte Softwarespezialist, den ein Laie nur schwer versteht. Nicht zu McDonald gehen bedeutet hier, sich im Zweifelsfall auf einen mühseligen Kostgang gefasst zu machen, bevor man wieder ordentlich was zu Essen hat.

Ein Laie legt sich besser beim nächsten Rechnerkauf einen vorinstallierten fertigen Rechner/Laptop mit Ubuntu zu, da gibt es Anbieter im Internet. In einem solchen Fall sind alle gängigen Treiber bereits angepasst. Zum System gehört – im Unterschied zu Windows – bereits alles dazu, was ein Normalbürger braucht, es muss nichts zugekauft werden. Es ist in Ubuntu Textverarbeitung Tabellenkalkulation und Präsentation (Open Office) vorhanden, ebenso ein Mailprogramm (Thunderbird) und der Browser Mozilla. Die Kompatibilität zu Microsoft-Programmen ist leidlich, es hapert bei den neuesten Programmversionen und spezieller Anwendungen dabei. Wer ein Netzwerk zu hause hat, und gleichzeitig mit Smartphone, Tablet und auch noch einem Windows-PC kommunizieren will, hat kaum Probleme. Umdenken ist angesagt, wenn man speziellere Bedürfnisse hat, denn etliche bekannte für Windows geschriebene Programme gibt es nicht für Ubuntu, dafür muss man Ersatz suchen, der nicht immer so komfortabel ist. Ob man für die Vollversion Fotoshop 1300 € bezahlt oder das Programm Gimp für Linux legal kostenlos im Paket hat, das macht natürlich auch einen Qualitätsunterschied.

Lange Rede kurzer Sinn, wir müssen als Normalanwender nicht nur Amikost kaufen, es gibt Alternativen. Wer sich z.B. über seinen spielsüchtigen Sohn ärgert, der braucht ihm nur die Microsoftkiste weg zu nehmen, und einen Ubuntu-Rechner hinzustellen. Da steht die ganze Kommunikation und Internetwissenswelt noch offen, aber der Spielwelt sind enge Grenzen gesetzt, es fehlen die entsprechenden Treiber und Programme für Ubuntu.

Seit einer Woche schlage ich mich mit ziemlichem Stundenaufwand mit einer Ubuntu-Selbstinstallation herum. Es ist wie ein Berg ersteigen, nach und nach weitet sich schweißtreibend der Blick. Für meinen Scanner fehlt ein Treiber und leider ist es mir noch immer nicht gelungen, zwei Bildschirme anzusteuern, was eigentlich gehen sollte. Das kleine Gefühl, dem Giganten ein Krümel abgetrotzt zu haben, und wieder ein Windowsanwender weniger zu sein, ist mir Befriedigung genug. Und auch dieser Text ist auf Ubuntu-Basis entstanden und mit Open Office geschrieben.

 
Veröffentlicht unter Allgemein, Internet | 6 Kommentare

BNE in der virtuellen Akademie Nachhaltigkeit

Mit Hilfe der Deutschen Bundesstiftung Umwelt wurde von der Universität Lüneburg (2012) eine Virtuelle Akademie Nachhaltigkeit etabliert, auf der videobasierte Vorlesungen zu „Nachhaltigkeitsthemen“ angeboten werden, die man im Selbststudium belegen kann, und deren vergebene Creditpoints in Studium Generale anderer Universitäten anerkannt sind. Das ist eine überfällige gute (wissenschaftliche) Weiterbildungseinrichtung, die noch dazu z.Zt. unengeltlich absolviert werden kann, die Thematiken anbietet, die so an den meisten Universitäten gar nicht vorhanden sind. Da die Materialien der Akademie als Creative Commons (freie Lizenzen) angeboten sind, können sie auch gut in der Lehre bausteinweise Verwendung finden, ohne dass dabei das Copy Right verletzt wird.

Zu den Angeboten zählt auch die von Gerhard de Haan (Institut Futur, Freie Universität Berlin) entwickelte Vorlesungsreihe „Bildung für nachhaltige Entwicklung“. Seit den ersten Dokumenten zur BNE (Orientierungsrahmen BNE der BLK 1998 und  Programmbeschreibung BNE von de Haan/Harenberg aus dem Jahr 1999) gab es meines Wissens keine geschlossenen Gesamtbeschreibung mehr. Auch auf der Hompage zur Dekade findet man nur Rudimentäres zur BNE, und es existieren natürlich über die Jahre eine Fülle von Einzelbeiträgen zur BNE. So muss man dem wesentlichen Schöpfer und Vertreter der BNE Deutschlands dankbar sein, dass er sich die Zeit für eine so umfassende Darstellung (13 Vorlesungen) genommen hat, die man als Massstab für das nehmen kann, was die heutige Mainstream BNE in Deutschland darstellt. Das Format einer Videovorlesung (Vortragender plus ppt-Folie) ist konservativ aber effektiv und wird über ein  jeweils anschließendes Interview pro Vorlesung mit Dr. Marianne Dehne etwas aufgelockert.

Vieles hier Gesagte ist gut und richtig, aber – wie kann es anders sein – ein paar wesentliche Stolpersteine finde ich nach einer exemplarischen Teilsicht an diesem Konzept, die ich hier kurz aufweisen möchte.

1. Mangel der politischen Brisanz im Nachhaltigkeitskonzept

Es ist gut, dass hier de Haan auf die Wurzeln der BNE genauer eingeht. Die Gemengelage 3. und 1. Welt vor und z.Zt. des Brundtlandberichtes, wird angedeutet, aber m.E. nicht zuende gedacht. Die Länder (insbesondere die Eliten) der 3. Welt wollten Entwicklung, und die ökologisch angehauchten erste Welt Vertreter wollten „smal is butiful“ bzw. „limits to growth“. „Umweltschutz können sich die Reichen leisten“, war die berühmte Antwort Indira Gandhis auf der Stockholmkonferenz. D.h. die gefundene Formel „Sustainable Development(SD)“ stellt eine höchst fragile Leitplanke dar, die jeder nach Gusto verschieben konnte. Die 3. Welt wollte einen Entwicklungsgipfel in Rio und hat sich nur unter Murren auf einen Gipfel Entwicklung + Umwelt eingelassen. Was wir mit „Nachhaltigkeit“ anstreben, ist vom Ursprung her nicht etwas Sinnvolles, kein naheliegendes Entwicklungsziel, sondern es war schlicht eine Kompromißformel. Im Brundlandtbericht steht klar und deutlich SD ist ein politisches Konzept. Das war eine weitsichtige Feststellung, denn wie wir (vielleicht leider) bei allen Rio-Nachfolgekonferenzen, insbesondere den Klimakonferenzen, sehen müssen, wird der „richtige“ Pfad in die Zukunft unter den Beteiligten politisch und nicht ökologisch verhandelt. Erkenntnisse der Klimaforschung werden von den Politikern solange wahrgenommen, solange es ihnen förderlich ist, ansonsten werden sie bestritten oder einfach ignoriert. Die Vorlesung zu den Reflexionen zur starken und schwachen Nachhaltigkeit, die über die Frage der Substituierbarkeit von Naturkapital geführt werden, hätte sich de Haan schenken kölnnen. Das sind  nette intellektuelle Spielereien, die mit Rio nichts gemein haben. Starke Nachhaltigkeit setzt das Primat der Ökologie voraus, was in Rio nirgends postuliert wurde.

Die Ausgangslage des faulen Kompromisses SD wird von de Haan zu wenig gewürdigt. Sie spielt jedoch bei der Beurteilung der Bildungspostulate der Agenda 21 eine wesentliche Rolle. 1992 war die Blütezeit des Liberalismus. Die Zentralverwaltungsstaaten kommunistischen Prägung waren gerade zusammengekracht. Die freien marktwirtschaftlich organisierten Staaten triumphierten. In einer solchen Lage hatten staatliche Verordnungen z.B. zur CO2-Emissionsbeschränkung, zum Ressourcenschutz, zur Bekämpfung der Armut etc. keine Chancen. Anstatt staatlich gesetztes Benchmarking der sozialen und ökologischen Zumutungen global zu verhandeln, wurde die Bildung ins Feld geschickt. Das handelnde, aufgeklärte Individuum wird es mit seinen nachhaltigen Werteeinstellungen schon richten. Der Gedanke der lokalen Agenden war zumindest für demokratische entwickelte Gesellschaften ein liberales Kuckucksei. Neben die demokratisch legitimierten staalichen kommunalen Organe wurde eine demokratisch nicht legitimierte „private“ Agenda-Allianz mehr oder weniger dubioser Akteure gesetzt, die plötzlich an runden Tischen eigene Leitbilder über die Zukunft der Kommune entwickeln wollten. Das musste schief gehen, und hat auch nur da geringe Erfolge gezeigt, wo man rechtzeitig erkannte, die kommunalen Organe gebührend einzubinden.
Bildung wurde in Rio als Bewußtseinserweckungsmechanismus instrumentalisiert, und jeder, der sich mit Bildungssystemen auskennt, musste angesichts der Forderungen im Kapitel 36 den Kopf schütteln, weil es natürlich nicht gelingen würde, BNE in allen Bildungsbereichen zu integrieren.
Mein Credo: Eine Bildung, die übersieht (oder vertuscht) dass der Weg zu einer zukunftsfähigen Entwicklung immer auch ein Weg gegen anders geartete Interessen ist, also ein politisches Minenfeld mit Gewinnern und Verlierern, hat den Namen BNE nicht verdient. BNE ist kein neutraler Werkzeugkasten, mit dem sich nachhaltige Zukunft einfach basteln läßt. Bei aller Anbindung an natur-, wirtschafts- und sozialwissenschaftliche Erkenntnisse, ist BNE vor allem auch politische Bildung. Leider kommt das in der deutschen, wesentlich schulorientierten BNE sehr wenig zum Vorschein.

2. Überschätzung der Rolle der Bildung für den Bewußtseinswandel
Der O-Ton des Kapitel 36 der Agenda 21 bzgl. Bildung heißt: Bewußtseinsschaffung für eine nachhaltige Entwicklung. Ich hatte es immer für einen geschickten Schachzug de Haans bei der deutschen Ausprägung der BNE gehalten, dass er unter Umgehung der Riodiktion nicht die BNE als Nachhaltigkeitsgesinnungsinstrument sondern als ein Kompetenzerwerbsinstrument mit der Konstruktion der Gestaltungskompetenzen entwickelt hat. Mitte der 90er, als die Riodebatte mit der Studie „Zukunftsfähiges Deutschland“ anhob, war nämlich klar geworden, dass mit der normativen Zeigefinger-Umweltbildung, oder der Katastrophenbildung keine neuen Teilnehmer in die entsprechenden Angbebote zu holen waren. „Die Klimakatastrophe kommt, Du musst Dich ändern!“ – dieser Slogan hatte an Attraktivität schwer eingebüßt. Den konnte man nun nicht einfach ersetzen durch: „Werde nachhaltigkeitsbewusst, sonst gehts Deinen Enkeln schlecht und  die 3. Welt leidet!“ Der Kompetenzschlenker jenseits von Rio war auch eine richtige Konzession an moderne Bildungstheorien, die der Belehrungspädagogik Rioscher Prägung widersprachen. Nun aber, in den Videovorlesungen wird an mehreren Stellen der Bildung mehr handlungsorientierende Kraft zugeordnet, als mir statthaft scheint. Wenn auch de Haan nicht von Nachhaltigkeitserziehung spricht, so ist ihm aber doch die Bildung als Agens zum Handeln im Sinne einer zukunftsfähigen Gesellschft sehr wichtig.  Bildung als Voraussetzung für „richtiges“ Handeln und für die „richtigen“ Einstellungen (Mentalitätswandel) ist m.E. aber weder notwendig und schon gar nicht hinreichend. Die Deutschen haben um 2007 als die Ölpreise hoch und die ökonomische Lage gut war, eine hohe pro-Energiewende-Einstellung verzeichnet. Das Nachhaltigkeitswunder gelang, dass in einer wirtschaftlich hoch entwickelten Nation eine Abkehr von Atom und Karbonstoffen zugunsten der Erneuerbaren eingeleitet wurde. Heute, wo die Öl- und Kohlepreise tief, und die Konjunktur schlecht ist, erhält die Partei, die das wesentlich vorantrieb, eine Niederlage, und die Stimmen zur Energiewendebremse erstarken. Solche Bewußtseinskonjunkturen belegen ganz eindeutig, dass hier eine Vielzahl von Faktoren wirksam werden, wobei konkrete Bildungskonzepte eine ehr mariginale Rolle spielen dürften.  Dass es der Bildung bedarf, um den Herausforderungen kommender Gesellschaften gewachsen zu sein, ist ja ein Allgemeinplatz. Aber – und hier liegt auch ein großes Problem der allgemein gehaltenen (nicht domainspezifischen) Gestaltungskompetenzen – mit einer guten Bildung, mit selbstbewußten Individuen kann ich Gutes und Böses erreichen.

Screenshot aus der Vorlesungsreihe BNE de Haan

Screenshot aus der Vorlesungsreihe BNE de Haan

Jede Entwicklung, auch die der Ölmultis ist in die Zukunft gerichtet. Innovationen und Kreativität brauchen die Ressolurcenvernichter so wie deren Erhalter. Selbst neues Denken, sich auf das Fremde einstellen, brauchen die globalen Unternehmen, um erfolgreich am Markt zu bleiben. Leider gilt der Satz, dass eine innovative, kreative Bildung kein Alleinstellungsmerkmal derer mit guten Absichten ist. Welches Handeln ein BNE-zertifizierter Lerner einmal einschlägt, bestimmt nicht Gerhard de Haan, sondern der Lerner selbst in seinen Lebensumständen.
Mein Credo: Du kannst Leute nicht bekehren, aber Du kannst sie qualifizieren! Und darauf sollte BNE mehr Gewicht legen.

3. Die Rolle des Globalen Lernens im deutschen BNE-Konzept

Es gibt folgende „Mogelgrafik“ in de Haans Vorträgen:

Umwelt- und Entwicklunsbildung
Hier fehlt das wesentliche Glied Rio, bzw. das Kapitel 36 der Agenda 21, in dem postuliert wurde, dass die entwicklungsorientierte Bildung und die Umweltbildung zur BNE verschmelzen sollen. Die Grafik müßte korrekterweise so aussehen:

leicht veränderte Grafik in de Haans Videopräsentation

leicht veränderte Grafik in de Haans Videopräsentation

D.h. „Globales Lernen“ hat in Rio keinen Platz, dessen Ursprünge sollten zusammen mit der Umweltbildung im neuen BNE aufgehen.
Die Eine Welt-Gruppen, die die entwicklungsorientierte Bildung pflegten, hegten sehr früh Kritik an der BNE, dass sie unpolitisch und zu ökolastig sei. Ein Grund für diese unsinnige Spaltung in zwei Linien lag wohl darin, dass die „alte“ Umweltbildungsszene in die Fussstapfen der BNE trat (daher auch die Ökpolastigkeit), und die „alte“ Entwicklungsbildungsbewegung päppelt ihr Bildungskind, Globales Lernen“. Keiner wollte als Platzhirsch zurücktreten. Auch von mir in meiner Zeit als Vorsitzender der Kommission BNE in der DGFE unternommene Versuche, die beiden Lager zu vereinen, gelang nicht, und als dann 2007 das Entwicklungsministerium einen Orientierungsrahmen Globales Lernen herausgab, war die Trennung zementiert.
Mein Credo: Konkurrenz belebt zwar das Geschäft, und Vielfalt mag gut sein, aber Vielfalt verwirrt auch und schwächt, wenn es darum geht, Flagge zu zeigen und eine Sache nach vorne zu bringen.

4. BNE und Erwachsenenbildung

In der 11. Vorlesung geht de Haan auf den Stand in aussgewählten Bildungsbereichen ein. Hier legt er sehr ehrlich offen, dass die BNE in allen Bereichen weit weniger etabliert ist, als das wünschbar wäre. Es verwundert aber, dass hier nur die Primarstufe (wo bis vor kurzem ein von E.ON gesoponsertes sehr großes Fortbildungsprojekt für Kindergärtnerinnen  vorlag), wesentlich die Hochschule und etwas die berufliche Bildung und das informelle Lernen Erwähnung finden. Aus meiner Sicht stammt die Blütezeit der BNE aus den beiden BLK-Projekten „21“ und „Transfer 21“ von 1999 bis 2007, wo mit großem Einsatz wesentlich in den Schulen Material entwickelt und Projekte erprobt wurden. Dieser Schwerpunkt, dem nur noch die Dekade folgte, für die es aber kein Geld, und deshalb keine Entwicklungsförderung gab, hatte zur Folge, dass die heutige BNE wesentlich eine „Schul-BNE“ ist. Sie fügt sich voll in curriculare Kontexte, ein (grober) Inhalts-, ein Methoden-, und ein Kompetenzrahmen sind vorgegeben. Die Lernenden haben zu inhalieren, was die Planer vorgedacht haben. Das ist für Schulkontexte, wo man einen Bildungskanon verordnet, um dafür ein Zertifikat auszuwerfen, auch richtig, wenn da nicht der kleine Schönheitsfehler wäre, dass die BNE-Rechnung ohne die Kultusminister der Länder gemacht wurde, d.h. die zu erzielenden Gestaltungskompetenzen sind nicht unbedingt diejenigen der jeweilig geforderten Fachkompetenzen der  Länder. Da es nun auch einen Orientierungsrahmen für das Globale Lernen gibt, steht noch ein Kanditat vor den Ländertüren und bitte um Curriculareintritt.

In der Erwachsenenbildung herrscht salopp gesagt das Problem, dass wer kein Interesse an Nachhaltigkeitsfragen hat, der fragt auch keine BNE-Angebote nach. Wer aber ein nachhaltigkeitsrelevantes Problem in seinem Entscheidungsumfeld hat, und damit auch schon ein gewisses Bewußtsein mitbringt, der sucht in der Regel ein spezifisch für sein Bedarf zugeschnittenes Angebot. Während schulische Konzepte angebotsorientiert sind, verfährt die Erwachsenenbildung nachfrageorientiert. Das führt nach BNE-Diktion eher zu „unterkomplexen“ Angeboten, sie können rein technischer, wesentlich wirtschaftlicher oder anderer „einseitiger“ Natur sein. Diese Angebote, mit denen eine Nachhaltigkeitsfrage gelöst werden kann, genügen aber nicht den Kriterien, die für die BNE gelten, es fehlt u.U. die intergenerationelle Komponente, es wird keine Empathie für die Eine Welt erzeugt, es werdeen die sozialen Bedingungen gekappt, die hinter den behandelten Prozessen stehen, etc. Dieser absurde Umstand, dass ein Bildungsangebot hilft, ein nachhaltigkeitsrelevante Entscheidung zu stärken, aber selbst nicht als BNE eingestuft wird, kann ja wohl nicht gelten! D.h. für die nicht auf Zertifizierung zielende Weiterbildung oder auch für die ausserschulische Bildung, die nichtschulische Kontexte bedient, muss man sich bzgl. des BNE-Konzeptes etwas mehr einfallen lassen, das den curricularen Rahmen und die kanonisierten Gestaltungskompetenzen der „Schul-BNE“ hinter sich läßt. Zu diesen Fragen habe ich bei meiner stichprobenhaften Sicht der Vorlesungen nichts gefunden. Vielleicht habe ich da ja etwas übersehen.

5. BNE und Umweltbildung

Im Rückblick, was vor BNE war, zählt de Haan in der 6. Vorlesung (Historische Wurzeln) auf:
– Umwelterziehung
– Ökologisches Lernen
– Ökopädagogik
– Umweltbildung
D.h., hier wird Umweltbildung als eigenständige Kategorie genannt. Das entspricht m.E. nicht dem allgemeinen Verständnis. Umweltbildung steht für einen Begriffs-Kontainer, der all die Ansätze charakterisiert, die vor (und nach) Rio als Bildungsansätze Umweldfragen thematisiert haben. (vgl. z.B. Gerd Michelsen , Theoretische Diskussionsstränge der Umweltbildung, in: Beyersdorf/Michelsen (Hrsg.) Umweltbildung 1998). Im Interviewteil äußert sich de Haan auf die Frage, wie diese früheren Ansätze zueinander stehen, dass es sie noch gibt, dass aber eine Umweltbildung ohne Bezug auf Nachhaltigkeit heute undenkbar sei. Noch stärker ist die Verabschiedung der Umweltbildung bereits im Orientierungsrahmen zu lesen, wo die BNE als das Modernisierungskonzept der Umweltbildung angepriesen wird. Umweltbildung ist also altmodisch, oder hat keine Berechtigung. Dieses Verdikt ist besonders im Hinblick auf Erwachsenenbildung/Weiterbildung unangemessen. Auf dem Bildungsmarkt existiert eine relativ konstante Nachfrage nach Umweltbildung. Eltern wollen den Streichelzoo, Menschen interessieren sich für das Biotop nebenan, Jugendliche wollen Kröten das Leben retten, etc. Man kann diesen Umweltbildungsnachfragenden nicht sagen, sorry, Du fragst hier was Falsches nach, du musst Dich um Nachhaltigkeit kümmern. Es gibt nicht nur eine Umweltbildungsnachfrage, sie ist sogar erheblich größer als die nach BNE. Wer ernsthaft Umweltbildung verbieten würde, nimmt den meisten Umweltzentren die Existenzgrundlage.

Mein Credo: Dass Umweltbildung in Deutschland seit der BNE-Debatte zum Stiefkind geriet, der man sich mehr schämt, als sie offen zu betreiben, war eine Fehlentwicklung. Eine Bildung, die sich wesentlich auf ökologische Fragen konzentriert, und die Randdisziplinen, nur wenn es passt, und wenn es nachgefragt wird, mit integriert, ist existent, und sollte auch theoretische Unterstützung erfahren. Was ist falsch daran, dass Umweltbildung neben BNE angeboten wird mit fließenden Übergängen?

Insgesamt bleibt freilich festzuhalten, dass diese Vorlesungsreihe ein großartiges Angebot darstellt, sich intensiv mit dem BNE-Konzept zu befassen. Zu den begleitend angebotenen Selbststudienmaterialien und der didaktischen Durchführung des Studiengangs kann ich nichts sagen. Es wäre interessant, wenn sich dazu hier ein Kommentar einstellen würde.

 

 
Veröffentlicht unter BNE, Nachhaltigkeit | Ein Kommentar

Die erfasste Gesellschaft und NSA

Beim Überlegen, was ich aus meinem Bücherschrank aussortieren könnte, um Platz zu schaffen, ist mir das Kursbuch 66 aus dem Jahre 1981 in die Hände gefallen. Titel „Die erfaßte Gesellschaft“. Da wird mit einer Verve und auf hohem Niveau zu den Problemen der Verknüpfung unterschiedlicher Datenbanken diskutiert, obwohl damals technologisch und von der Menge her gesehen, die verfügbaren Daten ein Rinnsal gegenüber dem heutigen Strom darstellen. Aber vielleicht gerade weil es wenige Datenbanken waren, z.B. die Gesundheitsdaten im Betrieb mit den Leistungsdaten, oder den Wohndaten zu verknüpfen (Personalinformationssysteme), um dem Personalchef mehr Macht zu geben, war die Sache noch greifbarer, kritisierbarer. Mancher mag sich an das damals berühmete Beispiel erinnern, dass ein Betriebszweig geschlossen werden sollte, man aber Kündigungen vermeiden wollte. Da gab die Wohnortsstatistik her, dass viele Beschäftige aus dem Umland von einer Buslinie abhängig waren. Die wurde eingestellt.

Durchaus heute noch lesenswert, auch wenn 32 Jahre vergangen sind. Eine Kostprobe vom Oberterroristenbekämpfer und damaliger Präsident des Bundeskriminalamtes Horst Herold, der auch die „Rasterfahndung“ konzipiert hat:

Die moderne Informationstechnologie (lädt) geradezu ein, die örtlich und sachlich gezogenen Grenzen ihrer Anwendung aufzuheben, die Enge und Isoliertheit von Ressorts aufzulösen, innerstaatliche und nationale Grenzen zu überwinden und Wissen in immer Größer werdenden Speichern zu sammeln. Die Grenzenlosigkeit der Informationsverarbeitung würde es gestatten, das Individuum auf seinem ganzen Lebensweg zu begleiten, von ihm laufend Momentaufnahmen, Ganzbilder und Profile seiner Persönlichkeit zu liefern, es in allen Lebensbereichen, Lebensformen, Lebensäußerungen zu registrieren, zu beobachten und die so gewonnenen Daten ohne die Gnade des Vergessens ständig präsent zu haben.„*)

Heute nach 30 Jahren ist das keine Zukunftsvision mehr, sonder die „erfasste Gesellschaft“ ist NSA-Realität. Schlauer Kopf, alle Achtung!

(*)zitiert aus Kursbuch 66, S.27/28, Quelle: Horst Herold: Polizeiliche Datenverarbeitung und Menschenrechte, in: Recht und Politik, 1980, S.81)

 
Veröffentlicht unter Allgemein, Internet | Schreib einen Kommentar

Arbeitsfrei – durch Maschinenentwicklung?

Das jüngste Buch aus dem CCC-Kontext von Constanze Kurz und Frank Rieger lautet „Arbeitsfrei. Eine Entdeckungsreise zu den Maschinen die uns ersetzen„. Es gab lobende Besprechung in der FAZ vom Sonntag und in der taz. Gelobt wird auch in der Netzpolitik.

Ich bin mir in der Einschätzung etwas unsicher und sehe das Buch etwas kritischer.

Das Inhaltsverzeichnis:

InhaltVon der Seite 19 bis zur Seite 241 wird ein durchaus spannender Technologiereport der jüngsten Entwicklung gezeichnet. Technikuninteressierte Leser werden diesen Teil schwerlich durchhalten, Technikfans wissen vieles und werden vielleicht aber auch manches Unbekanntere entdecken Z.B. dass in den riesen Hightech Korn-Mühlen trotz tausendfachen Tonnendurchsatzes jedes einzelne Korn von hochauflösenden Kameras gesichtet, beurteilt, und im Schadensfalle selektiert werden kann, ist schon faszinierend. Weshalb deshalb gleich mehrere Seiten der Historie des Mutterkorns gewidmet werden müssen, bleibt ein Geheimnis des Lektors. Fast nebenbei taucht der Begriff „Industrie 4.0“ auf, der mit einem kleinen Absatz erklärt wird, da wäre mehr Diskussion angebracht gewesen.

Bei den Maschinenbeschreibungen in mittelständigen oder auch gößeren Unternehmen fällt auf, dass meist humane Chefs zugange sind, und dass die freigetzten Arbeiter irgendwie gut untergebracht wurden. Die Frage, weshalb überhaupt so ein ungeheurer Technologietrieb erfolgt, wird m.E. etwas sehr dem ingenieusen Geist der Entwickler überlassen, so dass Fragen, warum gerade dieses und etwas anderes vielleicht nicht entwickelt werden, zu kurz kommen. Die geäußerte These, dass ein Mindestlohn die Technologieentwicklung nur weitertreibe, kommt mir auch zu marktabstrakt vor. Die Mindestlöhne in Deutschland im Friseurhandwerk, im Putzgewerbe, in der Gastronomie, etc. beziehen sich z.Zt. wohl doch nicht auf automatisierungsbedrohe Arbeitplätze. Auch die mehr selbstverständlich unterstellte These, dass mit der Automatisierung die Freisetzung der Arbeit insgesamt erfolge, scheint mir fragwürdig. Der Bundesrepublik scheint z.Zt. die Arbeit nicht auszugehen, Facharbeitermangel en masse trotz ständiger Automatisierung. Hier müsste – was leider im Buch nicht geschieht – die Verknüpfung mit Wachsum und die  Wirkung der Verlagerung von technologiebedingten oder kulturell bedingten Arbeitsanforderungen diskutiert werden. Z.B. im Maschinenbau ist meines Wissens seit langem eine Verschiebung des Anteils von Maschinerie zur Steuer- und Bedienersoftware im Gange. D.h. immer weniger Menschen sieht man an der „Hardwarefertigung“, aber in anderen Gebäuden oder Branchen sitzen eben die Leute, die für Steuerungssoftware, Schulung, Marketing, Logistik, etc. zuständig sind – wer will da die Bilanzierung für die Zukunft prognostizieren? Bei VW mögen die Fertigungshallen ziemlich menschenleer werden, aber der Konzern hat dennoch eine riesige Zahl von Angestellten  miteingerechnet diejenigen aller Zulieferer und Outgesourcten.

Im Prolog, auf den letzten wenigen Seiten kommt dann die große linke Keule heraus. Eine etwas merkwürdige Kritik am Bildungssystem (pfui der Massenbildung, es lebe die Eliteförderung, und Ingenieure brauchen Sozialwissenschaften..). Es wird Umverteilung gefordert und beklagt, dass die Automatisierung mit immer höheren Anteilen in Maschinerie und Netzwerktechnik zur Kapitalkonzentration führe, dass diese Prozesse nicht dem Markt überlassen werden dürften, und dass wir doch jetzt, anstatt Technik zu verketzern, endlich die Chance hätten, einer arbeitsfreieren Gesellschft entgegenzugehen. Mag ja sein, schön wärs auch, aber zur profunden Diskussion langen die paar letzten Seiten nicht.

 
Veröffentlicht unter Internet | Schreib einen Kommentar

Gruppenarbeit im Netz

 Eine „echt“ kooperative Gruppenarbeit im Netz zu organisieren ist für Lehrende und Lernende keineswegs eine triviale Herausforderung. Im Folgenden ein paar Gedanken dazu.

Eine Gruppenarbeit im Netz vollzieht sich nach meinen Erfahrungen in der Regel so, dass sich die Lernenden „irgendwie“ absprechen (in einem präsenten Treffen oder in einem Chat), wie sie die Arbeit in der Gruppe verteilen. Dann erfolgt die Einzelanfertigung der Teilergebnisse, und am Schluss kopiert bestenfalls ein AG-Mitglied die Teile zusammen zu einem Dokument. In fast allen Lernbiografien werden Texte als individuelle Leistung erstellt, die nur in selteneren Fällen anderen zum Korrekturlesen vorgelegt werden. Bei einer „realen“ Gruppenarbeit wird die geistige Kooperation im mündlichen Diskutieren vollzogen, wobei idealerweise eine Person die wesentlichen Gedanken mitschreiben sollte, die dann zu einer Spiegelstrichliste als Vorlage zur Präsentation des Arbeitsgruppenergebnisses dient. D.h. auch in der realen Gruppenarbeit wird der Schreibakt meist von einem vollzogen.

 

Technologisch konnte man vor dem digitalen Zeitalter auch nur höchst umständlich zu mehreren einen gemeinsamen Text arbeiten. Wollte man mit einer Schreibmaschine oder mit einer Papiervorlage mit Schreibstift gemeinsam texten, dann müsste man den Platz wechseln, den Griffel übergeben, zu streichende Passagen bleiben als durchgestrichen im Textkonvolut, etc.

 

Mit der Digitalisierung der Texte entsteht die Möglichkeit, dass mehrere Personen mit ihren Tastaturen auf ihren Bildschirmen einen gemeinsamen Text bearbeiten können, wobei sie dabei weit entfernt und auch zu unterschiedlichen Zeiten tätig werden können.

 

Längst verbreitet hat sich das Verfahren der Annotationen, das heute jede Textverarbeitung anbietet. Das besagt, dass ein „Lektor“ sich einen bereits erstellten Text von jemanden anderen vornimmt, und seine Korrekturen und Anmerkungen so einfügen kann, dass der Autor, wenn er die bearbeitete Version erhält, selbst entscheiden kann, welche Verbesserungen er akzeptieren will, und welche Anmerkungen ihn zum Weiterdenken veranlassen. So können auch mehrere Lektoren einen Text bearbeiten, wobei die Software jeweils einem Lektor eine besondere Farbe zuweist, und die Kommentare personifiziert. So entsteht zumindest ein kollektiv bearbeiteter Text.

 

 

Man nehme z.B. das Kooperationstool Google Docs, lade dazu drei Leute ein, dann sitzen zu Beginn alle vier vor einem leeren Bildschirm, jeder kann was hineinschreiben, alle sehen das von allen Geschriebene. Dabei ergibt sich in der Regel nur eine chaotische mehrfarbige Wortansammlung. Wie produziert man „aus dem Nichts“ gemeinsamen einen sinnvollen Text?

Jeder gute Text hat absatzweise eine innere Logik nach der inhaltliche Aussagen im Sinne eines Gedankenaufbaus, bzw. einer Gedankenentfaltung aneinander gereiht werden. Einen zusammenhängenden Gedanken zu entfalten und zu einem ersten Ende zu bringen, ist wohl in der Regel Sache eines Autors. D.h. wenn keine extrem eingespielten Personen zusammenarbeiten, die sich die Gedanken gegenseitig ablesen können, wird der Normalfall auch im kollaborativen Texten darin bestehen, dass absatzweise je nur ein Autor zuständig ist. Die kleinsten Texteinheiten im Kollektivtext wären dann Einzelabsätze, die als eine mehr ausformulierte Brainstormsammlung entstehen könnten. Wird so vorgegangen, dann hat man im ersten Anlauf eine Reihe von Absätzen, die teilweise redundant sein können, und untereinander wohl auch keine Verbindungen und Sprünge aufweisen. Will man die Kreativität einer Gruppe nutzen, müsste man – wie beim Brainwriting – in einem zweiten Anlauf alle Beteiligten ermutigen, das Gelesene über Assoziationen weiterzuspinnen. Im dritten Anlauf müssten diese Absätze gemeinsam selektiv bewertet und geordnet werden. Dabei würde einiges als unpassend oder redundant vernichtet, und die Perlen unter den Absätzen wären ein Gerüst für die Endfertigung, bei der geglättet, übergeleitet und ergänzt werden müsste. Diese Prozedur ist arbeitsaufwändig, sie bedarf der Regeln und auch der „Metakommunikationswege“, weil ja auch eine Diskussion über die Teiltexte organisiert werden muss (bei Google Docs gibt es dazu einen neben her laufenden Chat und eine Kommentarfunktion).

 

 

Erheblich einfacher ist dann doch die eingangs beschriebene „Einzelarbeitsmethode“. D.h. über ein Brainstorming (z.B. in einem Chat, einem Forum, oder auch im Café, falls man nicht zu weit auseinander wohnt) wird man sich auf ein Grobstruktur des zu erstellenden Textes einigen, und arbeitsteilig festlegen, wer welchen Part im Alleingang (Rohfassung) bis wann erstellt. Diese Einzelteile werden zusammen gefügt, und dann sollte eben unbedingt eine Session mit einem Kooperationswerkzeug wie Google Docs oder Etherpad erfolgen, bei dem alle entweder zeitgleich, oder besser zeitversetzt die Einzelteile kommentieren, Verbesserungen vielleicht direkt anbringen, etc. Nur diese gemeinsame Überarbeitungsphase garantiert, dass hier wirklich kooperiert und nicht einfach nur summative Einzelarbeit geleistet wurde. Bei Lernprozessen erfolgt hierbei nicht nur eine Qualitätssteigerung des Textes, sondern es erfolgt auch eine größere fachliche Involviertheit in den Stoff für alle Beteiligten.

Als Werkzeuge eignen sich Etherpad oder Google Docs. Für den mobilen Einsatz (App)  gibt es neuerdings Quip (geistreiche Bemerkung). Das Königswerkzeug ist das Hangout aus Google+, mit dem man nicht nur einen Text gemeinsam bearbeiten und kommentieren kann, sondern auch per Video miteinander über den Text sprechen kann. Während die Mitgliedschaft in der Gruppe bei Etherpad und Google Docs per Link unangemeldet möglich ist, verlangt Google für die Teilnahme am Hangout die volle Mitgliedschaft.

 

 
Veröffentlicht unter e-learning, Internet | Schreib einen Kommentar

Wolf Singer, der Freiheitshäretiker ganz lieb

Singer1Die Talkshow zum Anfassen ist die Gersprächsrunde in der in Sachsenhausen gelegenen „Fabrik“, in der regelmäßig die vom Rundfunk bekannte Ruth Fühner  meist frankfurter Persönlichkeiten interviewt. Kein Geringerer als Wolf Singer, Neurophysiologenstar und noch dazu ein sehr guter Wissenschaftskommunikator stellte sich am Mittwoch, 2.10.13, zum Disput. Wir hörten viel Biografisches. 1943 geboren , was er zugleich in den Kontext des schrecklichsten Deutschen Jahres brachte. Evangelisch getauft, katholisch umgetauft, Messdiener auf dem Lande, und schließlich aus selbst gestellter Versuchsanordnung nach einem unchristlichen Erlebnis der Kirche abgewandt. Freude am Basteln, Transistorradio mit Kopfhörerempfang, usw. 2 Töchter, die von des Vaters Forschung eigentlich ferngehalten wurden, wobei die Tanja aber doch Hirnforscherin und die Nathalie Medienwissenschaftlerin wurde.

Als 68er in München kannte er Gudrun Enslin und einige andere Szene-Figuren persönlich, fand den Vietnamkrieg empörend, aber sah nicht so sehr das Nazideutschland, und war nirgends involviert. Die Gewaltattitüde der Linken war nicht sein Ding. Dass Gudrun Enslin , die er als unbescholtenes intelligentes Mädchen kannte, der Gewalt verfiel, hat er nie verstanden.

Eine Litfasäulenankündigung der Aida, Inszenierung Hans Neuenfels in Frankfurt, veranlasste die Singers, die überhaupt nicht in das häßliche Frankfurt (zur Zeit des U-Bahnbaus) wechseln wollten, die Oper zu besuchen. Das war ein so großartiges Erlebnis, dass sich Singer sagte, eine Stadt, die eine solche Oper hat, kann nicht schlecht sein – und nahm von seinen Absageintentionen Abstand – so haben wir ihn nun hier.

Singer bleibt in seiner Darstellung sympathisch  bescheiden, die biografischen Höhepunkte mit weltweiter Anerkennung und vielen Vorsitzen werden nicht weiter erwähnt. Ab der Halbzeit gehts kurz zur Sache. Was macht so ein Wissenschaftler eigentlich? Die bildgebenden Verfahren sind offensichtlich passee. Affen erhalten Gehirnimplantate an genau vorbestimmten Stellen (was nicht weh tun soll, weil das Gehirn schmerzunempfindlich ist), dann werden sie ein halbes Jahr lang für Computerspiele trainiert. Sie müssen leichte Aufgaben lösen, kombinieren, merken , etc. Das können sie nach entsprechendem Training recht gut. Sie lassen das mehrere Stunden mit sich ergehen, werden belohnend gefüttert, wenn sie gut waren, und der Computer speichert in dieser Zeit immense Datenmengen. Dann beginnt nackte Mathematik, statistische Prozeduren, Heuristiken, Algorithmen, wie immer man die Auswertungsprogramme an denen Informatiker und Mathematiker intensiv beteiligt sind, nennen mag. Gesucht werden Ähnlichkeiten in den Neuronendaten, die bestimmten „Denk“handlungen der Affen entsprechen, so dass eine Hypothese über Gehirnfunktionen gefunden oder wiederlegt werden kann.

Forschung beschreibt Singer als Kunst. Man hat einen Wissensstand über Studium, Lektüre und Fachkonfgerenzbesuchen, und erkennt dabei Lücken im Wissen. Und mit Kreativität wird nach möglichen Lösungen für diese Lücken hypothetisch gesucht, die dann experimentell spezifiziert, durchgeführt, und bestätigt werden sollten. Und meist bestätigen sich Hypothesen nicht. Forschung ist ein tiefer Frustrationsvorgang. Erhellend kann dann das Unerwartete sein, aber das tritt natürlich nicht ständig ein.

Die Sache mit der Freiheit – soweit ich das verstanden habe – klingt eigentlich banal. Alles, was wir denken und was unseren Handlungen vorausgeht, läuft zwischen den Synapsen unseres Gehirns ab. In der Verschaltung liegt der Schlüssel für alles Tun, es gibt keine Metaschwingung eines entäußerten Ichs, die auf die Synapsen einwirken könnte.  Als Beispiel nennt er einen Amerikaner, der sich an seiner minderjährigen Tochter vergangen hatte und in den  Knast kam. Da stellte sich heraus, dass er einen Tumor hatte, der auf die Region drückte, wo wir unseren Sozialisations- und Werteteil haben. Nach Entfernung des Tumors wurde er wohl entlassen und war mehrere Jahre straffrei. Dann wurde er rückfällig, und man stellte fest, dass auch der Tumor wieder da war. Die Krankheitsdiagniostik entlastete den Mann. Aber was ist mit den Gehirnen der anderen Vergewaltiger, wo wir nicht wissen, wo was worauf drückt? Singer sagt, wer etwas abartig böses tut, muss ein krankes Hirn haben. Einen freien bösen Willen erkennt er nicht an.

Ich kann da nur dagegenhalten, wenn die Kriminalitätsrate in Unterschichten höher ist, als in gebildeten Schichten, dann müssten die unteren Schichten mehr deformierte Gehirne haben! Ist das nicht klassischer Biologismus? Aber Zuhörerfragen wurden nicht gestellt.

Bescheiden geht Singer  mit dem Wissen über das Gehirn um. Man weiß sehr viel über motorische Funktionen, über das Auge, etc. aber man weiß nichts darüber, welcher Prozess hinter einem Denkakt oder auch nur hinter einem gesprochenen Wort steht. Durch Forschung wisse man heute, dass man weniger weiß, als man vor zwanzig Jahren dachte zu wissen. Die Metapher der komplexen Systeme, die nicht steuerbar, nicht prognostizierbar seien, sagt ihm am ehesten zu. Zu Merkels 50ten eingeladen, empfahl er der Politik, es der Evolution gleich zu tun, man verzichte auf das Wissen über Erklärungsansätze, und würfele einfach zwischen ihnen. Damit war die Evolution sehr erfolgreich. Das soll den anwesenden Politikern nicht gefallen haben.

Zur Religion befragt, sagte Singer, das sind die großen Kinderfragen, auf die wir keine Antworten haben. Wohin breitet sich das Weltall aus, was war vor dem Anfang? Diese Fragen legen es ihm nahe an etwas Übersinnliches zu glauben. Da gibt es etwas, von dem wir nichts wissen, aber das ist sicher nicht der Mann mit Bart, der für jeden von uns zuständig sein soll.

Zum Lernen kam noch eine irritierende Äußerung. Das Gehirn wachse nur bis ungefähr dem 25ten Lebensalter. Danach geht es mit den Synapsen nur noch bergab. Allerdings entscheide die Sozialisation, welche Synapsen zerstört, und welche bleiben – sprich, man muss nicht unbedingt altersverblöden, aber schlauer wird man nach Singer auch  nicht mehr.

Alles in Allem menschelte es. Der Tabus einstürzende Wissenschaftstitan war heuer  mehr der liebe Oldy mit eigentlich ganz sympathischen Ansichten.

 

 
Veröffentlicht unter Allgemein | 2 Kommentare

Das ReCode Projekt

Skype in DAM-Gallery

Skype in DAM-Gallery

In der DAM Galerie Frankfurt (Gutleutstrasse 17) gab es am 27.8.13 eine Skypepräsenz von Matthew Epler, dem Entwickler des recode project. Eingeladen hatten die NODE-Akteure des Node-Forum for Digital Arts. Matthew Epler, ein New Yorker Digital Arts Künstler hatte die Idee, eine Plattform zu erstellen, auf die er frühe digitale Plotter Drucke aus einer in den 70ern erschienen Zeitschrift für Computerkunst stellt, und die Community auffordert, diese Bilder zu „recoden“, d.h. sie sollen mit moderner Programmiersprache neu reproduziert werden, wobei der Erstellungscode open source ist, d.h. von jerdermann erworben und frei verändert werden kann. Epler zählt dafür drei Gründe auf:

  1. Die Pionierarbeiten der digitalen Kunst sollen neu zirkuliert werden.
  2. Es sollen Lernmöglichkeiten für gegenwärtige Praktiker und Lehrende generiert werden.
  3. Es soll eine aktive Community zum Austausch darüber entstehen.

Mit der eher pädagogischen Absicht, junge Künstler und Studierende zu bewegen, sich mit den „Klassikern“ der digitalen Kunst zu beschäftigen, hatte niemand Probleme. Aber was passiert, wenn man mit neuem Code ein Kunstwerk aus einer anderen Epoche technisch reproduziert, darüber wurde intensiv diskutiert. Der Galerist zitierte Briefe von damaligen Künstlern, die sich gegen jegliche Versuche verwahren,  diese Objekte der 70er Jahre einfach zu reproduzieren, und ihnen damit ihre Authentizität und ihre ganz andere zeitgenössische Legitimität zu rauben. Die Node-Leute gingen der Frage nach, wo liegen die Grenzen zwischen Endprodukt und technischer Generierung, d.h. ist der Code Teil der Kunst? Und wenn ja, ist das recodete Objekt ein Anderes gegenüber dem Original? Wie steht es mit dem Copyright im Kontext vo Open Source? Auf all diese Fragen gab es auch vom skypenden Epler keine eindeutigen Antworten.

Neben dem ReCode-Projekt von Matthew Epler gibt es auch die Plattform RHIZOME , die sich mit der Präsentation digitaler Kunst beschäftigt (Rhizome is dedicated to the creation, presentation, preservation, and critique of emerging artistic practices that engage technology). In der Processing-Szene (eine open source Programmiersprache mit Entwicklungsumgebung für elektronische Kunst) wird der Ansatz von Matthew Epler heftig diskutiert. In Wikipedia findet man noch keinen Eintrag zum ReCode-Projekt.

Es scheint der digitalen Kunst der respektable Markt und die Kunsthistoriker-Szene zu fehlen, die eine Entwicklungsgeschichte erzählen könnten. Insofern ist das ReCode Projekt eine guter Anlass die frühen digitalen Schöpfungen aus der Computeranfängerzeit entsprechend zu würdigen.

 

 

 
Veröffentlicht unter Allgemein, Internet | Schreib einen Kommentar