Twittern? Nein danke! ?

Kretschmann im taz-InterviewSo hätte ich vor kurzem auch noch argumentiert. Das Privatgezwitschere mag etwas für Teenies sein, oder quadratbelangloses Politsprech, das die PR-Agenturen der Politiker ausstoßen, um ihre Kandidaten in Szene zu setzen, aber eine Kommunikationsform für mich? Nein danke!

Keiner meiner über die Rentenmarke gesegelten Freunde und Bekannten twittert. Wir halten das für eine Jugendkultur, die wir kaum noch verstehen, die uns nichts bringt. So will ich hier überhaupt nicht den von mir geschätzten Kretschmann kritisieren oder gar belehren. Dass er nicht twittert, ist sein gutes Recht, er hat seine Klientel, er tut Gutes auch ohne twittern (Das Interview ist übrigens sehr lesenswert).

Aber Twittern kann  auch mehr sein als eine in den Raum gezwitscherte Befindlichkeitsäußerung. Im Intellektuellenkontext ist Twittern längst eine sehr effizienter Link-Verteilungs-/Informationsmechanismus, der nicht auf „Einschreibeverfahren“ beruht.

Beispiel 1: Ich schätze Evgeny Morozow, Gastdozent an der Standford University, herausragender Technik- und Internetkritiker in den USA. Wie kann ich verfolgen, was er neues publiziert, oder mehr noch, womit er sich gerade beschäftigt? Ich kann googeln, da kommen aber nur die Endprodukte von ihm. Ich kann auf seinen Blog gehen, und einen RSS-Feed einrichten, das ist schon ein mächtiges (leicht überschwemmendes Medium, wenn man das an mehreren Internetquellen macht) Werkzeug. Ich kann aber auch – und da habe ich ein leichtes Medium, das durch seine Kürze besticht, Follower von Morozow werden. Wenn ich dann in meine Twitterseite schaue, kommen die Tweets derer, denen ich folge. Ich überfliege die Kurzzeiler nach dem Namen Morozow, und der twittert nun nicht teeniehaft, dass er gerade ins Kino fährt, sondern der twittert in der Regel einen Link auf einen Aufsatz, den er gut findet, und so profitiere ich vom Recherchewissen eines Denkers, der in seinem Fach mir weit überlegen ist. So kann eine Gruppe befreundeter Interessierter, oder eine Gruppe von Hochschulstudenten untereinander Follower sein, und sie können sich sehr effizient wesentliche Informationen zuschieben, die in Ihrem Kontext spannend sind.

Beispiel 2: Der „Hashtag“, eine Zeichenkette mit vorgestelltem „#“ stellt beim Twittern als gekennzeichnetes Schlagwort eine Verbindung zu allen Tweets her, die diesen Hashtag in ihrem Tweet haben. Und es gibt Internetseiten, in denen jeder, auch nicht Twitterer, nach diesen „getagten“ Tweets suchen kann. Als ich meinen Beitrag zum Hackerspace Frankfurt verfasst habe, habe ich einen Tweet geschrieben, mit Hinweis, das es dazu einen neuen Blogbeitrag von mir gibt, und in diesen Tweet habe ich auch die Zeichenkette #hackffm untergebracht, was das Schlagwort (Tag) dieser Szene ist. Mit diesem Tag lesen dann meinen Tweet alle die, die nach dem Schlagwort hackffm suchen, d.h. meine Information kommt darüber direkt an die Zielgruppe, über die ich geschrieben hatte. Allerdings, und da sehe ich den „ethischen“ Vorteil, das geht nicht als Spam in deren Postfächer, sondern das erreicht potentiell nur die, die aktiv nach diesem Tag suchen. Ich bin erst ein paar Wochen dabei, es gibt sicher noch einiges Mehr, was man auch in der Bildung oder im Kontext von Tagungen, Ausstellungen, etc. mit Twittern  machen kann. Dass auch hierbei wieder massiv persönliche Daten abgegriffen werden, liegt auf der Hand. Postprivacy ist unvermeidlich. Du machst mit, oder Du schreibst auf einer Internetinsel, die niemand besucht!

Fazit: Herr Kretschmann muss das nicht mehr mitmachen. Aber Twittern ist durchaus mehr, als eine verballhornte Kurzfassung von Belanglosigkeiten.

 
Veröffentlicht unter Allgemein, Internet | Ein Kommentar

Hackerspace in Frankfurt

Wer im Buch über die Makers von Chris Anderson geschnuppert hat, und sich ein bisschen über die „Macher-Bewegung“ informiert, wie ich das im vorletzten Beitrag gemacht habe – und dann den Hackerspace der Großstadt Frankfurt (bzw. Rhein-Main-Raum) betritt, der kann schon das Gefühl bekommen, im falschen Film zu sein. Übertreiben die Macherberichte von der amerikanischen Westküste, oder sind wir hier jenseits des Ozeans hoffnungslos abgehängt?

Nachdenklich stimmt mich aber schon, dass wir hier in einer Metropole leben, die auf geballter Digitaltechnologie sitzt. Meines Wissens beherbergt Frankfurt das Zentrum der Internetverkabelung Deutschlands. In jeder Großbank sind millionenschwere Computeranlagen. Der Flughafen, oder selbst der Hauptbahnhof sind voll bepackt mit Steuerungselektronik, etc. etc. Und dennoch ist die Zahl der Leute, die fasziniert sind von dem Wunder computergesteuerter Schaltvorgänge und ihre Freizeit damit ausfüllen, über eigene Experimente mehr davon zu verstehen, um das große Universum im Kleinen zu spiegeln, winzig, winzig klein.

Logo des Hackerspace Frankfurt

Logo des Hackerspace Frankfurt

Der Frankfurter Hackerspace ist ein  Verein von in der Regel berufstätigen, technikbegeisteren (meist) Männern, die an der Peripherie der Stadt im Hinterhof im ersten Stock über steiler Wendeltreppe erreichbar ein Techniklabor von höchstens 25 Quadratmeter unterhalten. Die Vereinsmitglieder tragen die Miete aus ihren Beiträgen und etliches, was an Technik herumsteht (auch 3D-Drucker), haben Einzelne mitgebracht. Man ist offen für Neuzugänge, und was technisch herumsteht, kann sich sehen lassen. Wenn allerdings sechs Leute da sind und an ihren Projekten werkeln, wird es schon sehr eng im Technikraum. Ein Projekt ist z.B. ein mitgebrachter Laptop, der über die USB-Schnittstelle einen Mikroprozessor steuert, der wiederum einen Miniroboter dirigiert. Ein junger Japaner versucht ein drei-motoriges Fahrzeug zu entwickeln, das über einen drehbaren Lichtsensor selbständig Hindernisse erkennt und umfährt. Ein erfahrener, etwas älterer Techniker erteilt Ratschläge. Die Steuerungseinheit ist eine Arduino-Plattform, ein für Künstler und Bastler entwickelter Microcontroller, der per Softwaresteuerung analoge und digitale Ein- und Ausgänge ansteuern kann. Um dieses Teil herum existiert eine global vernetzte Community, die sich austauscht, Programmteile zur Verfügung stellt und immer neue Anwendungen produziert.

Der Bastler nebenan hat in Modellautos aus dem Modellbahnbereich im Maßstab 1:87 Getriebe, Motor, Led-Lichts und einen Empfänger eingebaut, was technisch eine extrem filigrane Herausforderung darstellt, in diese kleinen Teile einen funktionsfähigen Fernsteuerantrieb unterzubringen. Jetzt sucht er nach einer technischen Lösung für einen Rundenzähler, der jedes Auto getrennt erfassen kann, und dessen Runde im Parkur zählt. Das wird kollektiv diskutiert. Zwei Vorschläge schälen sich heraus, es über Barcodeleser oder über ein Programm, das mittels Webcam Farben identifizieren kann, zu probieren. Auch dieses Hobby hat in Deutschland eine Internetcommunity versammelt. Es seien bundesweit ca. 800 Leute, die sich mit Mikromodellbau und dessen Fernsteuerbarkeit auseinandersetzen. usw.

Der Frankfurter Hackerspace wird von einem Kern von ca. 20 Leuten stetig aufgesucht, die Zahl der Vereinsmitglieder dürfte  größer sein. Es gibt daneben nur noch eine Filiale des CCC  in Frankfurt. Zu wünschen wäre, dass sich Sponsoren finden, die im Sinne naturwissenschaftlicher Nachwuchsförderung diesem Verein weitere Tätigkeitsfelder ermöglichen. Schließlich befindet sich Steuerungselektronik nicht nur in Großanlagen. In jedem Haushalt wird die Heizung, der Kühlschrank, die Waschmaschine über Mikroprozessoren gesteuert, unser Leben ist ohne sie aufgeschmissen – aber sie zum Hobby zu machen, damit zu experimentieren, um zu verstehen, wie unsere Welt technisch gesteuert wird, das ist ganz offensichtlich für Normalsterbliche (noch?) kein Thema.

Was sind die Gründe? Kompetenzseitig betrachtet, ist dieses Hobby sehr anspruchsvoll. Man muss sich in die Programmierung etwas einfuchsen, und man braucht technisches Verständnis, handwerkliches Geschick, Beharrlichkeit – und viel Zeit, und auch Platz um das alles zu realisieren. Hat vielleicht der Konsumerismus die Denk- und Handlunssphäre der Menschen so verstümmelt, dass sie nur noch Konsumieren, aber nicht mehr produzieren wollen und können? Ich vermute mal, dass in Frankfurt mehrere 1000 gekaufte Fernsteuerautos von Kindern bis zu Erwachsenen kursieren. Die werden allenfalls repariert, wenn etwas zu Bruch geht, aber man baut sie nicht selber zusammen. In Mode sind gerade die Hubschrauber, auch die werden wohl in der Mehrzahl fertig gekauft. Wer zu Conrad, einem einschlägigen Anbieter geht, oder im Pearl-Internetkatalog stöbert, findet zu 98% Fertigprodukte, und nur noch einen Minibestand von z.B. elektronisch selbst zu lötenden Bausätzen.  Also können wir nur noch konsumieren? Nein, das stimmt so auch nicht. Das Kleingärtnerwesen, wo man selbst sein Gemüse produziert, boomt zwar nicht, ist aber aus dem Tief heraus (bezeichnender Weise wohl auch eine USA-Welle mit Begriffen wie urban gardening, oder guerilla gardening, etc.). Auch die Gesundheitsbewegung, das Joggen, Radfahren, Wandern sind Formen, wo man seine Gesundheit selbst produziert, und nicht über zu konsumierende Pillen aufrecht zu erhalten sucht. Warum es bei uns (noch nicht?) hipp ist, Steuerungstechnik zum Hobby zu haben, weiß ich letztlich nicht.

Jedenfalls die amerikanische Vision einer neuen Macherbewegung, die die gesamte Gesellschaft umkrempeln wird, ist hier am Main nur sehr schwer nachvollziehbar.

 

 

 
Veröffentlicht unter Allgemein, Internet | 13 Kommentare

Konnektivismus und Lernen

Im Zusammenhang mit dem neuesten Modekonstrukt MOOC (Massive Open Online Course) im e-Learning Markt wird die neue Lerntheorie Konnektivismus beschworen. Ihr Begründer ist George Siemens, der 2005 im International Journal of Intructional Technology & Distance Learning seine in der Szene Aufmerksamkeit erregende Arbeit „Connectivism: A Learning Theory for the Digital Age“ verfasste. Sein Argument: Die bekannten Lerntheorien Behaviorismus, Kognitivismus und Konstruktivismus haben angesichts des technologischen Wandels und angesichts des extremen Wissensverfalls, bzw. ständigen Wissenserneuerung ausgedient. Den Konstruktivismus hält er für brauchbar, so lange neues Wissen nur daherplätschert. Wenn es aber in einem Strom über uns hineinbricht, dann brauchen wir eine neue Theorie des Lernens.

Schon das leider häufig gebrauchte Argument mit der Halbwertszeit des Wissens ist brüchig. „Knowledge“ würde in 10 Jahren die Hälfte verlieren! Wenn das Lernen z.B. eines Programmierers darin bestünde, dass er zur Prüfung die Kommandos und Parameter von drei Programmiersprachen auswendig lernt, dann wäre sein Wissen nicht erst in 10 Jahren zur Hälfte geschrumpft, sondern er wäre von Anfang an untauglich für jegliche Betriebspraxis. Lernen heißt im Programmierfall, ein Verständnis von der Funktionsweise des Programmierens zu entwickeln, die Prinzipien und Strukturen von Programmiersprachen verstanden zu haben. Wenn das nach seinem Lernen der Fall ist, dann wird er mit entsprechender Praxis in 10 Jahren seine volle Programmierkompetenz entfaltet haben, völlig unabhängig davon, wie stark und schnell sich die Programmierumgebungen, in denen er sich bewegt, verändert haben. Das zu meistern – und da hat George Siemens eine treffende Sichtweise – geht heute natürlich nicht mehr damit, dass der Programmierer ein kleines Handbuch führt, in dem er Neuerungen festhält. Er muss sich in Netzwerken bewegen, wo Neuerungen diskutiert werden, er folgt dabei nicht nur einem Journal oder einem Lehrer, sondern an vielen Ecken wird global weiterentwickelt, es gibt Trends, die von Modeströmungen unterschieden werden müssen etc. Mit einer in der Ausbildungsphase erworbenen Kompetenz „am Ball“ zu bleiben, heißt an ihr zu arbeiten, neue Sichtweisen zu integrieren, und ständig für neue Werkzeuge und neues Material offen zu bleiben. Man könnte sagen, der Wissensarbeiter von heute macht ständiges Updating. Es können aber auch Umbrüche in seiner Berufsbiografie erfolgen. Vom Programmieren wechselt er in die Abteilung Marketing und muss nun Kunden akquirieren und Anwender von Software beraten. Seine Softwarekompetenzen sind dafür sehr nützlich, aber sie sind nicht hinreichend. Jetzt muss neu gelernt werden. Dieses neue Lernen hat nichts mit der Halbwertzeit des Wissensverfalls zu tun, sondern mit der hohen Dynamik in den Betrieben. Und seine „alten“ Netze bedienen dieses neue Feld nicht, und wenn er sich in Netze der Personalführung oder des Marketings begibt, versteht er erst einmal deren Code nicht. Lernen ist angesagt, sei es selbstgesteuert, sei es eine kollegiale Einführung, seien es Lehrgänge in welcher Form auch immer. Einen Lernvorgang, der zu einem neuen Kompetenzlevel, bzw. zu einer neuen Fähigkeitsdomaine führt, sollte man unterscheiden vom Gebrauch der „Wissens“-Werkzeuge in sozialen Netzen.

Wie wenig Siemens vom Lernen, und wie viel er vom Wissensorganisieren spricht, sieht man an seinen Prinzipien seines Konnektivismus:

  1. Lernen und Wissen beruhen auf der Vielfältigkeit von Meinungen.
  2. Lernen ist der Prozess des Verbindens von spezialisierten Knoten oder Informationsquellen.
  3. Lernen kann in nicht-menschlichen Apparaten stattfinden.
  4. Die Kapazität, mehr zu wissen ist wichtiger als das, was man bereits weiß.
  5. Das Erhalten und Pflegen von Verbindungen ist notwendig um kontinuierliches Lernen zu ermöglichen.
  6. Die Fähigkeit, Zusammenhänge zwischen Wissensfeldern, Ideen und Konzepten zu erkennen ist eine Grundkomepetenz (skill).
  7. Aktualität (genauer up-to-date Wissen) ist das Ziel eines jeden konnektivistischen Lernens.
  8. Entscheidungen zu treffen ist ein Lernprozess an sich. Die Auswahl, was zu lernen ist und die Bedeutung der aufgenommenen Information muss aus der Sicht einer sich ständig verändernden Realität gesehen werden. Während es heute eine richtige Antwort gibt, kann sich diese morgen aufgrund von Veränderungen im Informationsklima, welches die Entscheidung beeinflusst, als falsch herausstellen.
  • Nr 1 verstehe ich nicht so ganz. Wenn ich lerne, muss ich mir aus verschiedenen Meinungen ein Bild machen – trivial?
  • Nr. 2 bestreite ich, Informationsquellen verbinden ohne Sinn und Verstand, was soll das??
  • Nr. 3 bestreite ich ebenfalls vehement. Lernen kann nur im Kopf stattfinden, alles andere ist Zutragen von Inhalten. Ich lerne nicht im Klassenzimmer, nicht im Buch, nicht in einem Video, nicht in einem Tweet. Das sind Lernmittel, Lernumgebungen, die erst über meine Rezeptoren im Gehirn zu einem Lernprozess führen können.
  • Nr. 4 und 5 sind Wissensmanagementaussagen.
  • Nr. 6 ist der Schlüssel zu allem, ja ohne diese Grundkompetenz läuft gar nix. Und die wird durch Lernen erworben.
  • Nr. 7 ist Wissensmanagementaussage.
  • Nr. 8 scheint mir unpräzise formuliert zu sein. Eine Entscheidung kann ich nur fällen, wenn ich etwas weiß, d.h. wenn ein Lernprozess vorher stattgefunden hat (ansonsten muss ich würfeln). Aber, heute sind wir meist bei Entscheidungen, die wir aus unseren Vorwissen fällen, nicht ganz sicher, ob sie richtig sind, sie können sich morgen als falsch herausstellen.

2010 charakterisiert Siemens den Konnektivismus folgend:

  • Knowledge is distributed and networked.
  • Learning is the process of forming and pruning connections through social and technological networks

Auch hierzu würde ich sagen, erster Spiegelstrich ok, und beim zweiten kann man „Learning“ mit „Using a learning environment“ ersetzen. Aus meiner Sicht kann man Siemens gut folgen, wenn man bei Ihm nicht von einer Lerntheorie sondern von einer modernen Lernumgebungstheorie spricht.

Eine Umsetzung davon das hat er mit Stephen Downes gemacht, als sie das erste große Lernevent zum Thema „Connectivism and Connective Knowledge“ (CCK08) ausführten. Es wurde eine Lernumgebung geschaffen, die den Prinzipien des Konnektivismus gerecht werden sollte. Lern-Anlaufstellen waren: ein Kurswiki, eine Moodle-Plattform, wöchentliche Video-Zusammenfassungen, ein Kursblog, einen Twitter-Stream, Live-Sessions mit Referenten; aber vor allem einen täglichen Newsletter, der alle Beiträge mit dem Tag „CCK08“ im Netz einsammelte, zusammenfasste und in die Community zurückspielte. Genauso vielfältig aber waren die Beiträge der Teilnehmenden selbst: zum einen bildeten sie selbst Gruppen auf Google, Facebook und Second Life, um den Kurs oder einzelne Fragen zu vertiefen. (nach Jochen Robes in: Edith Blaschitz, Gerhard Brandhofer, Christian Nosko und Gerhard Schwed (Hrsg.): Zukunft des Lernens: Wie digitale Medien Schule, Aus- und Weiterbildung verändern. Hülsbusch: Glückstadt 2012, S. 219-244.)

Da insgesamt über 2000 Teilnehmer eingeschrieben waren, und das Angebot offen und kostenlos, hatte man es mit einem massive open online course (MOOC) zu tun.

Ich habe überhaupt keine Schwierigkeit, dieses Ereignis unter der Flagge Konstruktivismus segeln zu lassen. Es ging darum, eine für die Teilnehmenden attraktive Lernumgebung zu schaffen, in der sie selbstgesteuert sich ihre Inhalte, Methodiken, und Tools wählen, und sich in Untergruppen oder autonom an einem kollektiven Lernprozess  beteiligen konnten. Dass man miteinander, bzw. voneinander lernt, und dass man zu erstrebende Lernziele/Kompetenzlevel selbst bestimmt, gehört zu den Prinzipien im Konstruktivismus – wo ist das Problem für eine neue Lerntheorie?

Dass Lernmittel zur Lernsubstanz verklärt werden, äußert sich z.B. auch in der Modehülse vom „mobile learning“. Selbst ein Mönch im 13 Jahrhundert noch vor Gutenberg konnte ein (handgeschriebenes) Buch unter den Arm nehmen, sich vom Kloster einen Tagesmarsch entfernen, und unter einem Eichenbaum nachdenkend-reflexiv ein paar Seiten studieren, und dabei ein christliches Aha-Erlebnis haben. Durch mobiles Lernen wurde ihm plötzlich klar, wie das mit der Versuchung des Fleisches zu interpretieren ist. Wer heute mit seinem Smartphone in der S-Bahn einen spannenden Text durchgeht oder ein Video studiert, macht lerntheoretisch nichts anderes, als der Mönch 700 Jahre vorher. Seine Augen fliegen über Zeichen, die müssen im Gehirn dekodiert und mit Sinn versehen, und in einen neuen Sinnzusammenhang gebracht werden, wenn Lernen stattgefunden haben soll. Was, bitteschön, ist hier mobile learning??? Ganz außer Frage liegen Welten zwischen den handgeschriebenen ersten Büchern im frühen Mittelalter und dem digitalisierten Text, der von einer Plattform über Provider und Telefonnetze ins Smartphone wandert. Und auch der Umstand, dass der Smartphoneleser sofort an seine Lerngruppe twittern kann, dass es hier einen spannenden Text gibt, dass es also einen Knoten mit weiteren Verknüpfungen und neue „Wissens“konten geben kann, in denen Kommentare gespiegelt, etc. weiter reflektiert werden können, das ist revolutionär bzgl. der Wissensverbreitung, bzw. des Wissensmanagements, aber das Lernen hat sich dadurch mitnichten geändert.

 

 

 
Veröffentlicht unter e-learning, Internet | Schreib einen Kommentar

Makers Movement

Wer sich mit Neuerungen im Internet befasst, die in aller Regel aus den USA kommen, der wird unvermeidlich auf die Begriffe Maker, FabLabs, hackerspace stoßen. Das sind Anglizismen, die eine Ideologie des Bastelns beschreiben. Ich habe in den 50er Jahren bereits mit Leidenschaft gebastelt, ohne das Wort do it yourself, oder ganz stylig DIY zu kennen. Die erste Phase meines DIY bestand im Auseinandernehmen technischer Geräte, um sie dann mehr und weniger erfolgreich wieder zusammenzusetzen. Die zweite Phase war dann schon kreativer, Dinge selbst bauen, die es vorher nicht gegeben hat. Funktionstüchtige „Seifenkisten“, d.h. rollende, autoähnliche Wägen mit abenteuerlichen Brems- und Lenkvorrichtungen, aber auch abstrakte „Schaltbretter“, die nur den Zweck hatten, per Transformator niedrigvoltige Lampen und Klingeln mit Schaltern zu aktivieren, dass es wie ein Schaltzentrum aussah. Diodenempfänger, Röhrenverstärker und eine nie funktionierende Fernsteuerung waren die Exzellenzprodukte nach mehrjähriger Bastelerfahrung. Es gab keine mikrochips, kein Internet, kein facebook und keine „Bewegung“, und ich hatte in der damaligen DDR keine Fischerkästen oder Legotechnik. Letzteres schenkte ich viel später meinen Söhnen, wohl auch, um selbst das Basteln noch einmal aufnehmen zu können. Mein DIY war individuelle naturwissenschaftlich-technische Neugierde und Faszination, aber auch handwerkliche Grundbildung, die ich mein Leben lang gut einsetzen konnte.

Heute liegt es auf der Hand, dass Basteln nicht individuell und nicht analog bleibt. Man informiert sich über Netzwerke, es bilden sich Grüppchen, es wird hippig. Das rein Handwerkliche wird über „Interfaces“ ans Digitale gekoppelt, so dass z.B. die Weichen einer elektrischen Spielzeugeisenbahn schon lange nicht mehr per Kippschalter, sondern per Mikrochip mit Software gesteuert werden. Was zunächst im neuen Berufsbild Mechatroniker und in hoch spezialisierter Zusammenarbeit zwischen Hardware-Entwicklung und Computerprogrammierung seinen Ausdruck fand, und zum Inhalt der gesamten modernen Technologieentwicklung wurde, findet heute eine Nische in einer Bastlerbewegung, die – wie sollte es anders sein – ihre Wiege an der Westküste der USA hat. Die Makers stellen inzwischen eine Subkultur dar, die über die Grenzen der USA sich weltweit verbreitet. Es gibt zahlreiche „Maker Faires“, eine sogar in Kairo im Jahre 2011. Diese Messen werden in der Regel von großen Technologieunternehmen gesponsert, d.h. auch die Großen haben bereits ein Auge auf dieses Phänomen geworfen. Das Zentralorgan, das Make Magazin erinnert stark an das in Deutschland von 1953 bis 1991 erschienene „Hobby Magazin“, das  den Sprung in die sozialen Netzwerke nicht mehr packen konnte. Aber der naturwissenschaftlich pädagogische Impetus ist der Gleiche und es dient als Ideengeber und sozialen Markt für die Maker-Community.

The Economist schreibt, dass die Maker Bewegung eine Antwort auf die digitale Kultur sei. Möglich wird sie, weil es viele leicht zugängliche Komponenten gibt, mit denen die physikalische und die digitale Welt verwoben werden kann. Es wird unterstellt, dass Menschen, die den ganzen Tag nur Bits am Bildschirm bewegen, die reale Welt wiederentdecken, und Freude an der Entwicklung realer Objekte entwickeln. Es hat mit Hardware begonnen, auf die das Prinzip des „open source“ angewendet wurde, d.h. Konstruktionspläne wurde offen gestellt und zur Nachahmung und Modifikation empfohlen. Ein weiterer Impuls kommt von den online communities, die open source Programme entwickeln, die auch Nichtprogrammierern leichte Steuerungsfunktionen bestimmter Hardwareteile ermöglichen. Als dritte Triebfeder nennt The Economist die Bereitschaft des Teilens (sharing economie), dass Ideen, Software und Hardwareteile untereinander ausgetauscht und gemeinsam genutzt werden.

Die Kultmaschine der Makers ist der 3D-Drucker. 3 D steht für dreidimensional. Gedruckt wird über eine horizontal und vertikal bewegliche Platte mit einer Düse, die einen feinen Kunststofffilm aufträgt, so dass mit Layer über Layer ein dreidimensionales Gebilde geschichtet wird. Der Vorgang ist computergesteuert (wie bei einem „normalen“ Drucker) wobei die Steuerungssoftware in der DIY-Bewegung als Open Source zur Verfügung gestellt wird, so dass man auf einschlägigen WEB-Seiten sich die Software für Produkte jeglicher Art runterladen kann, und per Mouse-Klick die „Produktion“ beginnen kann. Den Drucker gibt’s auch bei Amazon zu 1.700 Euro. In der Diskussion war das Druckprogramm für einen Revolver, mit dem man sogar schießen kann, was die ethische Frage aufwarf, was darf alles open source sein? Eine Versprechung dieser Maschine besteht darin, dass Jeder seine eigenen Produkte nicht mehr im Laden kauft, sondern selber druckt, aber auch das start-up ist im Gespräch. Zwei Studenten haben eine Brillengestellfertigung mit ihrem Drucker kommerziell sehr erfolgreich in Szene gesetzt.

Spezielle Workshops, die sgn. „hackerspace“ werden organisiert, um den Ideenaustausch voranzutreiben und die Subkultur zu pflegen. Auch Frankfurt hat sein hackerspace. In diesen Kontext gehört  die „FabLab“, eine High-Tech-Werkstatt, in der ein 3D-Drucker, computergesteuerte Drehmaschinen, etc. zur Verfügung stehen, die öffentlich zugänglich und zur Förderung strukturschwacher Regionen gedacht sind, die sich teure Entwicklungslabors nicht leisten können. In diesen FabLabs können Einzelstücke gefertigt werden (Ersatzteile), die es nicht mehr gibt, oder die man als Prototypen zum ersten mal bereitstellen will. Auch die FabLabs sind eine Bewegung mit Satzung und weltweiter Verbreitung.

Einer der Chefideologen des Maker-Movements ist Chris Anderson, Herausgeber des Technologieorgans Wired. Sein Buch trägt den nicht unbescheidenen Titel: Makers: The New Industrial Revolution (2012) und wurde ein halbes Jahr später bereits ins Deutsche übersetzt. Die These lautet, es gäbe einen Megatrend zur Eigenproduktion mit neuem Konsum- und Produktionsverhalten, was die gesamten industriellen und gesellschaftlichen Strukturen verändern werde.

Man sollte vorsichtig sein, diese neuen Möglichkeiten zu belächeln. Denkt man an die irrwitzigen Fortschritte im IT-Bereich in den letzten Jahrzehnten, dann kann auch der 3D-Drucker in den nächsten Jahren heute für nicht möglich gehaltene Potentiale entfalten. Das ist eine Frage der Technik. Aber die Frage der ideologischen Hülle, wie sie Chris Anderson aufwirft, scheint mir äußerst bedenklich. Den Massenkonsum durch Persönlichkeitskonsum zu ersetzen, potenziert noch die Ressourcenfrage. Es ist leider so, dass eine Zeitung, die über eine Druckmaschine gejagt wird, in dieser Massenproduktion sehr viel weniger Ressourcen braucht, als wenn sich jeder seine Zeitung zuhause ausdruckt. Das nachhaltige Gebot der Stunde heißt nicht noch mehr (Persönliches) zu produzieren, sondern weniger zu verbrauchen. Hinzu kommt die neoliberale Lüge vom Einzelnen, der über alles bestimmen kann und dann alles selber zu seinem maximalen Vorteil erreicht. Die Verallgemeinerung und Stilisierung der Technologie-startups aus der Garage ist so irreal, wie der Tellerwäscher, der zum Millionär wird. Der normale Tellerwäscher bleibt Tellerwäscher, und die Maker in den Garagen werden mit fortschreitendem Technologiepotenial letztlich outgesourcte Entwicklungsbüros, die das Entwicklungsrisiko voll tragen, während Risikokapitalgeber das Geschäft machen. Es gab schon mal eine Maker-Bewegung, an die wohl  Anderson weniger dachte, das waren die Heimarbeiter. Wird es ihnen wirklich besser ergehen, wenn der Webstuhl computergesteuert ist und die Webmuster auf Tauschbörsen von creativen Nerds zum zum Nulltarif bereitgestellt werden? Wenn der 3D-Drucker kostenlos wäre, keine Energie und keine Ressourcen bräuchte, ja dann könnte er das Eigenheim, die Nahrung und die Kleidung drucken, dann hätten wir das Paradies. Wer heftige Knieprobleme hat, druckt sich seine Prothese selber aus, und lässt sich im nächsten medizinischen FabLab mit Open Source-Software das Ding einoperieren. Ein Psycho-App im iPhone wird ihm helfen, den seelischen Schock über den Verlust seines gesunden Knies zu überwinden. Schöne neue Welt, wer daran glaubt.

 

 
Veröffentlicht unter Allgemein, Internet, Nachhaltigkeit | Schreib einen Kommentar

NODE13 – Eindrücke

NodeparticipantsDer Frankfurter Kunstverein hat eine Woche (11.2-17.2) lang seine Räume einem Forum für digital Arts mit dem Thema „rules“ geöffnet. Es fanden 30 workshops statt, die wesentlich dem Erfahrungsaustausch einer inzwischen  globalen Gruppe junger Anwendungsprogrammierer der multipurpuse Software „vvvv“ diente. Ab 18 Uhr war die Öffentlichkeit eingeladen, sich die Ausstellung der digital Art Objekte, die meist mit vvvv generiert waren, anzuschauen. Obwohl in den Zeitungen freundlich berichtet worden war, und ein ansprechendes Programmheft verteit war, schien das Beiwort „digital“ und das massive Aufgebot laptopbestückter junger kunstoffener, meist männlicher Nerds die normalen Kunstvereinsbesucher abgeschreckt zu haben.

Ursprünglich ist vvvv von der Frankfurter Softwareschmiede Meso Digital Medi Systems Design zur interaktiven Steuerung von Licht, Musik, Grafiken, etc. entwickelt worden. Es ist eine datenstromorientierte Programmiersprache, d.h. in „Echtzeit“ gibt es Steuerungsimpulse über Bewegungssensoren oder Programmbefehele, diese werden dann verarbeitet um als Output wiederum Geräte zu steuern, Grafiken aufzurufen, Animationen zu bewerkstelligen, etc. Die offizielle Definition lautet: „vvvv ist ein Toolkit für die Echtzeit-Video-Synthese. Es ist entworfen, um das Handling von großen Medien-Umgebeungen mit physikalischen Schnittstellen, in Echtzeit animierte Grafiken, oder Audio und Video, die mit vielen Benutzern gleichzeitig interagierten können, zu erleichtern.“

Irgendwann wurde diese Software für Künstler und Privatanwender zur Open Source erklärt und ist inzwischen vielseitig von einer wachsenenden internationalen Community weiter entwickelt worden. So bot es sich an, dass man alle Anwender und Entwickler nach Frankfurt einlädt. Und was man damit im Creativbereich machen kann, ist beeindruckend. Im Ausstellungsprogramm wurden allerdings auch Arbeiten gezeigt, die nicht vvvv zur Grundlage hatten, hier ging es allgemein um Digital Art

Der international berühmte Novi_sad Grafik und (die extrem laute) Musik von Ryoichi Kurokawa haben mich mit der Videopräsentation „Sirens“ am stärksten beeindruckt. Mit der Ankündigung, es handele sich um eine Visualisierung und Vertonung diverser Börsencrashs konnte ich nichts anfangen. Aber die Gewalt der fließenden Bilder, das Herausschälen von Figürlichkeit aus abstrakten Linien, und insbesondere die Sequenz, wo zeitlupig Gesichter mit Oberkörper kontrastierend zerfließen, verformend, verschwindend und wieder entstehend erscheint wie ein Flimmern von deja vu, von Bildern der Moderne. Nur war es lang, wollte kaum aufhören. Am Schluß (oder war das ein anderer Beitrag?) verformen sich Landschaften wie unter tektonischen Plattenverschiebungen. Nach einer Minute ist das Zermalmen der Welt klar, aber muss es eine gefühlte viertel Stunde mit ohrenschmerzenden, den Boden vibrierenden Gedröhne sein?

Fast gefällig dagegen Geoffrey Lillemon er ist der geborene Selbstvermarkter, kesses rotes Halstuch, Auftragsarbeiten für Parfumkonzerne, Projekte mit Konzernen und freie Projekte, anders gesponsort, alles mit vvvv produziert. Er liebt reale Vorlagen in seinen Arbeiten, was bisweilen einen kitschig betörenden, schnellen Farbenzauber in musikalischer Bewegung erzeugt. Gekonnt sind Alltagsgegenstände virtuell verbraten.

FabricmachineIm Keller des Kunstvereins steht die Fabricmachine von Katrin Stumreich. Eine Soundmaschine, die über optische Sensoren die Faserstruktur in Ton umsetzt. Man kann die Sensoren verschieben, und so zu unterschiedlichen Gewebestreifen bewegen, was entsprechende Sounds produziert. Optisch sehr gelungen, aber die Soundproduktion fand ich dann doch etwas wenig variantenreich. Etwas für Leute, die den Detailreichtum sonorer Rythmen schätzen.

Julian Oliver als „critical Engeneer“ bekannt, war für mich die vielleicht spannenste Figur auf dem Forum, ist mit seinen Projekten am dichtesten an der gesellschaftlichen Bedeutung der uns umhüllenden digitalen Infrastrukturen. Spannende Vortrag nicht per Powerpoint runter genudelt [was hier sowieso niemand machte], sonder direkt aus seinem Notebook heraus einzelne Videos abgerufen, Afmerksamkeitssätze positioniert, etc. Eins seiner Projekte besteht darin, in Internetcafes über eine Steckdose einen kleinen Router zu mogeln, der ein offenes WLAN anbietet, in dem Seiten gefälscht werden. Er will damit zeigen, dass wir Systemen blind

vertrauen, die leicht manipulierbar sind. Seine These und Warnung, wir sehen bei all diesen Dingen nicht mehr was dahinter steckt, was damit passiert. Trivial, aber doch nicht trivial!.

Der Medienkünstler Kyle McDonald hielt den quirligsten Vortrag. Er twittert, blogt, und spielt auf der Medienklaviatur mit spielender Leichtigkeit. Mit einem Projekt hat er ein App in die Macs im New Yorker Applestore gemogelt, das beim Bedienen die Web-Cam auslöst und das Bild zu seinem Server schickt. Hunderte von Gesichtern, die in den Laptop glotzen, während Sie eine Mail schreiben oder einfach nur rumspielen. Wie sieht uns der Computer? Es stellt sich heraus, dass wir alle irgendwie gleich in die Kiste schaun, egal, was wir von uns geben. Die US-Polizei und Apple fanden das nicht so lustig. Soweit ich es verstanden habe, ist noch ein Verfahren gegen ihn anhängig.

Node-PodiumDas Freitagsabendpodium als gesellschaftspolitische Konklusion aller künstlerischen vvvv-Aktivitäten gedacht, war leider etwas unterbesucht. War die Uhrzeit zu spät oder sind die kunstbesessenen Nerds  doch nicht so sehr mit der Politik befasst?  Wie auch immer. Die Nichttransprenz der uns umgebenden Infrastruktur war das Thema; wie man den Regeln entweichen kann, wurde nicht so ganz deutlich. Empfohlen wurden Transparenz, Aufklärung, Projekte gegen die Vereinnahmungen, Open Source gegen Konzernbestimmungen. Jeder sollte den Code der Regeln verstehen können, das wurde dann aber doch abgelehnt.

Ausklingend gab es noch ein Live coding Performance von Alex McLean, dessen Vortrag LiveCoding„Changing the Rules While They Are Followed“ am Nachmittag mir sich nicht ganz erschloß. Begeisterter Programmierer, der dieses Fach selbst zur Kunst erklärt.
Seine Performance am Abend war auch ein Lehrgang in vvvv in seinem Programmiercode. Er saß im Publikum, Tablet auf dem Schoß, und tippte die vvvv– seine Komandosprache zur Soundgeneriererung ein, was alle an der Leinwand nachvollziehen konnten. Philosophisch war das interessnt, wenn man einem DJ zuschaut, wie er Samples mixt, sieht man nicht, welche Platten er drauf hat, und was er eigentlich macht. Aber Alex McLean konnte man genau zu sehen, weil seine Musik über den sichtbaren Textcode generiert wird. Es gab viel Beifall, aber ich fand die Musik zu technolastig, das ist vielleicht eine Generationenfrage. Ich vermute, vvvv seine Programmsprache hat da sicher viel mehr drauf.

DavidGannDen Abschluß machte David Gann mit seiner kreativen Performance „Leaving The Planet“. Bei dieser Applikation mixt der Künstler den Sound original mit einem Keyboard und weiteren Schaltern, wobei die Samples mit hinterlegten Videosequenzen, Bildern über vvvv gekoppelt sind. Schöne Bildsequenzen und interessante Soundkollagen waren zu sehen und hören. Der  Übergang von abstrakten Fließfiguren zu z.B. einer Ameisensequenz erfolgte per Filmschnitt, das war mir zu aprupt. Die ästhetische Qualität der Bilder war hoch, aber nicht durchgehend gleich. Hier (und auch bei McLean) hätte vielleicht eine kürzere, konzentriertere Performance mehr gebracht.
Es war schade, dass die beiden Künstler nicht eingeführt wurden. Der Ort hätte nicht das Museumscafe sein sollen, es fehlte eine große, zentral plazierte Leinwand die mehr Raum für eigene Meditationen läßt.

Insgesamt sehr spannend, die Ausstellung hätte mehr Resonanz verdient. Von den hier vortragenden und anwesenden jungen Künstlern werden wir sicher noch Einiges zu hören und sehen bekommen.

 

 
Veröffentlicht unter Allgemein, Internet | 5 Kommentare

Mein nachhaltiger PC?

Wer ein Auto kaufen will, wird mit Power, Design, Sicherheit und Innenausstattung beworben. Seit der Energiewende ist vermehrt im Kleingedruckten auch die CO2-Emission zu finden. Wer einen PC kauft,  kriegt die Kernanzahl und Gigaherz des Prozessors, die RAM-Stärke und das Festplattenvolumen zu hören. Ob die Kiste unter sozialverträglichen Bedingungen und umweltfreundlich konstruiert wurde, ob sie wenig Strom verbraucht, leicht upgradebar und gut recyclebar ist, interessiert keinen Schwanz. Der Männer Lieblinge stehen sich da in nichts nach. Allerdings gibt es die ganz großen Kisten mit fetten Grafikkarten, die allein 300 und mehr Watt verschlingen können nur bei den Spielefreaks zuhause, während im Mainstream erst die Notebookwelle und nun die Tabletwelle schwappt – natürlich in Kombination mit dem Smartphone. Das ist energetisch günstig, denn diese Gadgets verbrauchen sehr viel weniger Strom, aber sie sind weniger reparierbar und überhaupt nicht nachrüstbar, d.h. sie sind vielleicht doppelt so schnell Elektronikschrott wie die ehrwürdigen PCs.

Dennoch ist der PC nicht verschwunden, er steht millionenfach in Büros, und ich brauche ihn auch als professionelles Arbeitsgerät. Die Notebookentwicklung hat zu leistungsfähigen Prozessoren geführt, die (relativ) wenig Strom brauchen. Da gibt es inzwischen Stromspar-PCs, die 28 Watt im Leerlauf und 45 Watt unter Vollast schlucken. Die kann man  ergoogeln, aber im Angebot der großen Märkte findet man die nicht. Und ein Verkäufer bei Saturn dürfte im Zweifelsfall noch nie etwas davon gehört haben.

Ich habe zuhause noch eine klassische Kiste mit einem Netzteil von  500 Watt max, ich habe schon ein stromsparendes Motherboard und einen stromsparenden Prozessor, was dazumal den Preis um 200 € gegenüber einer vergleichbaren „Normalkiste“ erhöht hatte. Das ist ein Porsche, mit dem ich aber die meiste Zeit nur auf einer sehr befahrenen, schmalen Strasse fahre. D.h. mein Rechner läuft tags und bis spät abends fast ununterbrochen, weil ich sehr häufg daran etwas mache, und dann wieder mal unterbreche, aber was ich die meiste Zeit daran mache, das könnte ich mit einem Smart erledigen. Der Energiesparmodus des Rechners könnte den Verbrauch in den Leerzeiten dämpfen, aber der funktioniert nicht richtig (wenn er aus dem Schlaf erwacht, ist das Internet verschwunden, und stellt sich nur über Neustart wieder ein). Wenn schon nicht ganz nachhaltig (weniger davon und sozialverträglich), so wollte ich doch energieeffizienter werden.

Mein Plan: ich baue mir eine kleine Stromsparkiste, mit der ich meine vielen kleinen Alltagsroutinen, Mailen, Internetsurfen, Schreiben, Arbeiten korregieren,.. erledige, die läuft dann mit Sparmodus die meiste Zeit, und nur, wenn ein Videoschnitt, und Bildbearbeitung mit großen Dateien anfällt, kommt der Große ans Netz.

Eine schnelle Festplatte (SSD) hatte ich noch. Atomprozessoren sind sparsam und billig, also schaue ich da nach. „Das Intel® PC-Mainboard D2700MUD bildet ein Desktop-PC-System, das die unabhängige Doppelanzeige unterstützt“. Das klang sehr gut, ein Mini-Motherboard (Mini IXT-Format), das wegen seiner Leistung  sehr gelobt wurde, kostet ca. 64 € dazu ein Minigehäuse mit Netzteil 36 €, ein 4 MB Ramriegel 20 € alles im Internet bestellt, und dann kann es losgehen. Klar, diese Kampfpreise sind nur mit Drecksausbeutung in Cina möglich, würde das zu sozialverträglichen Bedingungen bei uns produziert, würde ein Faktor 5 kaum reichen. Also schon mal Nachhaltigkeit ade. Dann wollte ich nicht den großen Konzernen dienen, sondern habe Linux installiert (Ubuntu) ein Betriebssystem im Public Domain. Aber leider gabs da Probleme, die Installation brach auch nach mehreren Versuchen in 32 und 64 Bitvarianten regelmäßig am Ende ab. Im Internet finde ich dann den Hinweis, das die CPU meines Motherboardes nicht gerade Linux-geeignet sei – das hätte ich mal vorher lesen sollen. Ich bleibe legal,  und erstehe ein Windows 7, 64 Bit Betriebssystem zu 45 €. Die Installation klappt auf Anhieb, nur die Grafikeinstellung erweist sich als sehr mager, von wegen 2 Bildschirme anzusteuern, nur einen mit wenig Variation. Wieder hilft mir die Internetwissensbank auf die Sprünge, jetzt lese ich, dass Intel für die 64-Bitversion keinen Treiber entwickelt hat. Zu spät, 32 Bit oder XP wären besser gewesen! Viel Trial und noch mehr Error ist das Ergebnis meiner aus der Kindheit mitgenommenen Bastelleidenschaft. Für meine Zwecke reicht die Performance der Grafikkarte gerade noch. Der Mini braucht so ca. 20 Watt, mein unlängst erstandener Spar-Monitor kommt auch mit ca. 20 Watt davon. So vermute ich mal, dass ich bei konsequenter Nutzungsweise eine CO-2 Reduktion von 1/5 gegenüber meiner Altanlage erreiche. Was mich noch begeistert hatte, der Mini-PC wird mit 12 Volt gespeist (Notebooks meist mit 19). D.h. ich kann im Sommer, wo ein Solarpanel im Garten einen Akku lädt, den Kleinrechner mit dem Akku speisen, dann ist zumindest der Betriebsverbrauch CO2-neutral. Der ökologische Fußabdruck, der hinter all den Geräten steht, den schauen wir besser mal nicht so genau an.

 
Veröffentlicht unter Internet, Nachhaltigkeit | Schreib einen Kommentar

Zur Verflachung des Internet

Adorno hat einmal den konservativen Kulturkritikern „die Krokodilsträne über den Verlust der Mitte“ nachgesagt, das gilt heute für etliche moderne Autoren, die hinter den Verdiensten des Internet die Kulturvernichtung drohen sehen. Über Spitzers Bestseller, das Internet mache uns dumm, habe ich mich hier schon ausgelassen.  Über seine Quellen bin ich auf Nicholas Carr, The Shallows: What the Internet Is Doing to Our Brains, 2011, (Finalist for the Pulitzer Prize), gestoßen.

Carr appeliert an die Alltagserfahrungen der Leser und beschreibt sehr eindringlich, wie „uns“ das Internet den täglichen und intellektuellen Lebensstil zerstückelt. Das Netz ist der große Unterbrecher, der uns alles in Häppchen serviert, und die Lust bei uns steigert, sofort nach weiteren Häppchens über Hyperlinks zu rasen. Das Multitasking läßt die vorderen Hirnareale derart brausen, dass der Durchgang zu den tieferen Gehirnschichten, wo das Langzeitgedächtnis liegt, verstopft wird. Neben der Surfhektik piepst das Handy und meldet eine SMS, der E-Mail-Abruftakt wird (wissenschaftlich untersucht) von vielen noch gesteigert, in dem sie den Downdload button ständig bedienen. Und wenn eine Botschaft da ist (Twitter, Mail, SMS,..) wird gleich geantwortet, was das Surfen unterbricht, und wenn in Facebook nichts Neues von mir drin steht, fürchte ich im Freundeskreis den Verlust meiner Persönlichkeit. Im Internet wird nicht gelesen, nein dort findet „Power-Browsen“ statt, wir fliegen in 18 Sekunden über eine Seite, da bleibt nichts hängen.

Nach Gutenbergs Buchdruckerfindung entwickelte sich das „deep reading“, d.h. kontemplativ wurde sich in dicke Wälzer versenkt, Autor und Leser verschmolzen. Jetzt, wo im Netz das WEB entwickelt wurde, und sich über mobile Zugangsgeräte in alle Lebensphasen verbreitert, ist Schluss mit tiefer Reflexion, verflachtes Aneignen von Texthäppchen ist das moderne Lesen, und das Buch selbst wird in Form und Inhalt davon nicht unberührt bleiben (in Japan gibt es bereits den aus  Twitterfetzen erstellte Bestsellerroman).

Jeder kennt Jugendliche oder auch schon Ältere, die keine Bücher mehr lesen, unkonzentriert an vielen Dingen gleichzeitiog werkeln, und im sozialen Austausch sich ständig mit Smartphonebeschäftigung absentieren. Da liegt es doch nahe einen Sündenbock zu suchen, und der ist das Internet. Im Medium selbst liegt das Böse, es unterläuft uns unbewußt, und es mögen sich noch Einzelne dagegen wehren, es wird sich massenhaft bei weiterer Nutzung durchsetzen, so lautet die Botschaft. Carr und Spitzer sind keine Computerabstinenzler. Sie sehen die enormen Effizienzsteigerungen in der Datenbeschaffung, in der Kommunikation, etc. Sie bedienen sich selbst der gesamten IT-Maschinerie, aber sie wollen uns die Rückseite der vorne glänzenden Medallie vorhalten, die dunkel und zersetzend sei.

In dieser Denkschablone sind aus meiner Sicht mehrere Irrtümer enthalten.

1. An ganz wenigen Stellen bezieht der sonst literarisch-historisch interessant ausschweifende Autor die gesellschaftlichen Verhältnisse mit ein. Es ist wesentlich das Medium für die Phänomene verantwortlich. Dass ein Autor vielleicht deshalb schnell liest, weil aus Kostenersparnis und Lohndrückgründen eine Fallanalyse heute in einem Tag erfolgen muss, zu der der selbe Autor vor 10 Jahren noch eine Woche Zeit hatte, kommt Herrn Carr nicht in den Sinn. Dass der Griff zum iPhone, wenn es piepst, so schnell erfolgt, weil der Träger es sich beruflich nicht leisten kann, eigehende Nachrichten zu ignorieren, wäre auch mal ein Gedanke wert. Ein Medium, so mein Gegenargument, steht nie für sich allein, es ist in Kontexte gebettet, die seine Nutzung wesentlich mitbestimmen. Von diesen Kontexten erfahren wir nichts.

2. Nicht nur der gesellschaftliche Kontext wird weggeblendet, auch der je spezifische Anwendungskontext wird ausgebügelt. Viele Untersuchungen müssen herhalten um die Schadwirkungen „des“ Netzgebrauchs zu belegen. Eine Studie wird zitiert, bei der über eye-tracking Verfahren herauskommt, dass die Probanten im Schnitt 18 Sekunden auf einer Seite verweilen. Gefolgert wird, die Netzleser lesen eigentlich gar nichts! Bezeichnenderweise berichtet Carr nicht darüber, welchen Lese-/Rechercheauftrag die Probanden hatten. Wenn ich im Netz recherchiere, und eine geeignete Textquelle suche, dann langen mir auch 18 Sekunden um zu entscheiden, ob der Text für meine Zwecke etwas hergibt, oder nicht. Wenn ich einen Text gefunden habe, und ihn reflektierend lese, brauche ich schon mal 5 Minuten für eine Seite, und ob ich dort die Hyperlinks nutze, oder nicht, das gebietet mir nicht das Medium, sondern mein persönlicher Reflexionsgrad, und die Suchrichtung, die ich in der Quelle auswerte.

3. Carr hat keinen Begriff vom „Verstehen“ bzw. „Begreifen“. Er läßt sich lange und breit über das Lang- und Kurzzeitgedächztnis aus. John Sweller (Neurophysiologe) wird ausführlich zitiert, wonach der Vorgang der Gedächtnisbildung als hoch komplex dargestellt wird. Was wir dabei erfahren ist, dass es hier eine Menge neurnaler, biochemischer und elektrischer Prozesse gibt, und eine äußerst vague Vermutung, dass eine hohe Aktivität im Kurzzeitgedächtnisbereich, der für unmittelbares Schließen zuständig sein soll, den Transfer zum Langzeitgedächtnis behindern soll. Aus diesen hoch wissenschaftlichen Analysen folgert der Forscher Sweller auch nur die Erkennis, dass Zuviel nicht gut für die Singnalverarbeitung ist. Weiß Gott, eine aufregende Neuigkeit. Dieses Commonsenswissen ist für Carr der zentrale Gedanke seines Buches, denn daraus folgert er (und als Abschreiberling wohl auch der Herr Spitzer), dass das hektische Power-Browsen (zu dem wir verurteilt scheinen) unser Reflexionsniveau herabsetzt, es erfolgt die Verflachung=Shallow. Carr sollte wissen, dass das neuronale Geflackere, das die Disziplin meist über bildgebende Verfahren detailliert messen kann, noch lange nichts darüber aussagt, was im Gehirn wirklich passiert, wie wir denken, wie wir memorieren. Das sind heute noch totale Unbekannte, wer hier wirklich Licht hinein bringen könnte, erhielte sofort einen Nobelpreis. Die Schlüsse, die da als Verdummungsthese des Gehirns gezogen werden, halte ich für nicht nach vollziehbar. Der Autor hat eine Blindstelle, was das Verstehen anbelangt. Bevor ein Textschnipsel aus dem Internet auch nur die Chance des Momorierens (oder Nichtmemorienrens) hat, muss es vom Gehirn als ein „wertvoller“ Wissensbaustein akzeptiert werden. D.h. wenn kein „Anker“ da ist, wie die Konstruktivisten sagen, bleibt eine Textstelle tot. Erst wenn es gelungen ist, einen Textfetzen „sinnvoll“ mit etwas in Verbindung zu bringen, nachdem ich gesucht habe, wird aus einem toten Fakt ein Wissensbestandteil. Das ist der Grund, weshalb das Internet eben nicht eine riesige Wissensbibliothek ist, sondern es ist ein riesiger Faktenhaufen, mit dem Unwissende nichts anfangen können. Wenn Carr behauptet, nach einem Textfetzen würde man sofort den nächsten suchen, was zum „overload“ führe, kann ich das nicht nachvollziehen. Ich will doch als Rechercheergebnis keinen Faktenhaufen mit cut und paste in meiner Worddatei, sondern ich will eine zusammenhängende Geschichte, mit auf sich beziehnde Bausteine. Das erfordert beim Selektieren soviel Zeit wie nötig und keine Automatikhatz. Im 7. Kapitel mit Verweis auf Gary Small (Psychator)  behauptet Carr, im vorderen Hirn werden die Entscheidungen getroffen, und im Tiefhirn wird interpretiert (und wenn zu viel entschieden werden muss, behindere das das Interpretieren). Das halte ich für blanken Unsinn, denn ohne Interpretation der Fundquellen im Netz kann gar nicht entschieden werden. Aus meiner Sicht bewirkt häufige gezielte Recherche im Netz genau das Gegenteil der Autorenbehauptung, es verflacht nicht, sondern im Sinne des Gehirnjogging erhöht es die Denkpotenzen des Recherchierenden.

Das 8. Kapitel im Buch heißt „The Curch of Google“. Das macht natürlich neugierig. Aber auch hier sehe ich einen fatalen Irrtum, der Carr daran hindert, die eigentliche Gefahr dieser Suchalgorithmen richtig anzusprechen. Es wird eine Taylor-Google-Analogie bemüht. Taylor habe die Gesetze zur Effizienzsteigerung des Produktionsprozesses in der Industrialisierung entwickelt, und Google habe die Effizienzsteigerung zum Suchen im Netz entwickelt. Es soll gar nicht geschmälert werden, welche Informatikleistung dahinter steht, Suchalgorithmen und Indexsysteme zu entwickeln, die es ermöglichen, aus gigantischen Datenmengen in Millisekundenbruchteilen gesuchte Informationen zu finden. Carr deutet an, dass in den Suchalgorithmen Filter sind, die dem Suchenden schnell bringen, was er sucht, aber die dahinter stehende Problematik, auf die berühmte „Filterbubble“ wird nicht eingegangen.  Wohl weiß er, dass hinter jeder Suchroutine ein Algorithmus stekt, der eine Programmierersicht lenkt, aber die Chance mit Eli Pariser die Kulturkritik anzustimmen, nach der uns Google und Co in eine beschränktere Zukunft führen, in der wir nur das finden, was wir vorher schon gesucht haben, verpasst er.

Die Geschichte vom studentischen Angebot zum größten Weltkonzern wird gut beschrieben, wie Google Geld macht, und wie Google versucht, die Buchwelt zu digitalisieren, erfahren wir detailliert. Wieder ist die gesellschaftlich-kulturelle Gefahr nur angedeutet, dass hier ein Konzern die Rechte über alle Bücher und Bilder hätte, während die individuell-intellektuelle Gefahr des gehrinlosen Googelns und die Zerstückelung der digitalisierten Bücher in Textfetzen groß heraufbeschworen wird.

Mit der Kritik will ich keinen Totalverriss des Buches erzielen. Es finden sich recht genaue Beobachtungen als betroffener Zeitgenosse der Veränderungen, die wir alle erfahren. Es sind lehrreiche Abschnitte über die Entstehung der Schrift bis zur Pleite gegangenen Guttenbergschen Manufaktur geschrieben. Von Sokrates bis McLuhan hören wir Gescheites. Noch sind wir im Prozess, ein Abschluss ist kaum in Sicht. Um so schwieriger ist es, Abstand zu bewahren. Da kann ein Carr schon mal seine Finger in Wunden stecken, an denen bereits geleckt wird. Hätte er weniger auf die „Neuros“ gesetzt, wäre mir das Buch bekömmlicher gewesen.

Gar keine Frage, das Netz bewirkt riesige Veränderungen, und man kann auch nicht sagen, nur der Kontext entscheidet, was mit einem Medium passiert. High-Speed Gesellschaft, Globalisierung, brutaler Druck auf 15% Rendite als Normerwartung der Geldmagnaten, extreme Ungleichheiten, ständiges Mehr, ständige Prozessbeschleunigung, etc. Das geht Hand in Hand mit einem High-Speed Netz mit mobiler Dauerereichbarkeit. Ohne schnelles Geld keine schnellen Rechner, und ohne schnelle Rechner kein schnelles Geld.

Die kontemplative Mitte des Adornozitates ist weg, nachdem Eisenbahnen und dann Autobahnen die idyllischen Landschaften durchpflügen schneiden nun Datenbahnen durch die letzten Rückzugszonen. Das ruft nach Gestaltung, nach verträglichen Rahmenbedingungen, da ist politisches Engagement angesagt, um eine für alle erträgliche und dauerhafte Lebenswelt zu erringen. Mediale Verteufelung ist wenig hilfreich im Ringen um eine lebenswerte Zukunft.

 
Veröffentlicht unter Allgemein, Internet | Schreib einen Kommentar

Post Privacy in der Schirn

Die Schirn, Kunsthalle Frankfurt, zeigt bis zum 3. Februar die Ausstellung „PRIVAT. Das Ende der Intimität“. Man kann bei der Schirn selbst recherchieren. Oder die ganz lesenswerte Besprechung von Melanie Mühl nachschlagen.

Wand-Text in der SchirnEingangs sind ganz gute Kurzinformationen zu post privacy an der Wand. Z.B. mit dem Titel „Peinlichkeit“ vgl. nebenstehende Tafel.

Wer häufiger auf Facebook zugange ist, fühlt sich weniger irritiert (als die faz-Journalistin), die Menge an intim Trivialem ist das tägliche ästhetische Brot dieses Netzwerkes. Nur wegen der öffentlich posierten amerikanisch puristischen Sittenstrenge  fehlen in Facebook nackte Brüste und Pornoverdächtigkeiten, die sich hier in der Schirn vielleicht etwas untypisch austummeln, denn das Intime ist ja nicht nur der Sex, es ist auch die umstrickte Klorolle oder das rosa Kuscheltier.

Der Porno im Netz ist mit einem Monumentalwerk sehr schön ad absurdum geführt geradezu tausendfach wird auf kleinen Quadraten auf Video-Kurz-Schnipseln gevögelt.

Schlechte Bildqualität und Auralosigkeit bestimmen die meisten Bilder. Aber da sie hier in groß abgelichtet werden, und der Museumsort ihnen besondere Bedeutung einimpft, ist es etwas mehr als das deja vue. Aber was es mehr ist, wurde mir nicht ganz klar. Man muss es eigentlich nicht sehen.

Hängengeblieben sind bei mir zwei Installationen. War es Nan Goldin, ich weiß es nicht, es ist ein Film, bei dem die Filmemacherin vier Paare natürlich wesentlich im Bett „begleitet“. Als Zuschauer sieht man da weiter, wo andere Filme aufhören, ohne dass  Porografie produziert wird. Gute Emotionen und leicht verschwommene Bewegungen, letztlich ist da doch noch etwas Privatheit bewahrt durch die nicht sexsistische Sichtweise. Aber ich frage mich, auch wenn hier authentisch erzählt wird, will ich das sehen? Ich will ja auch nicht sehen, wie jemand in der Nase bohrt.  Immerhin, sehr grenzgängerisch.

Weiter sind die Bilder von Evan Baden ganz beeindruckend, weil sie nicht das Facebookbild zeigen, sondern den Moment, in dem sie entstehen.

Warum unbedingt Ai Weiwei und dazu noch so massiv dabei sein muss? Nebenstehender Text steht als Info an der Wand.

Weil er mal in einem Interview über die Genese seines Blogs geschrieben hat? Wenn sich jemand wie Ai Weiwei auf einem Blog äußert, dann wird keine Privatheit nach außen gekehrt, sondern dann nutzt eine überaus öffentliche Person das Medium Internet zur Selbstdarstellung. Im Falle Chinas, wo dem Künstler die Selbstdarstellung ständig zensiert wird, mag das etwas anders sein (vgl. den Blogtext) aber in den Kontext vom „Ende der Intimität“ gehört das m.E. nicht. Die Deplaziertheit fällt auch über die Qualität seiner Fotos auf. In den zahlreichen Ausstellungskästen an der Wand hat ein Profi mit teuren Objektiven gearbeitet.

Dennoch, schaut Euch diese Ausstellung an, es ist der Versuch, wie Kunst auf Post Privacy reagieren kann.

 
Veröffentlicht unter Allgemein, Internet | Schreib einen Kommentar

Doha vom Lesesessel aus betrachtet

Im Blätterwald steht der Klimabaum weiter hinten, aber noch herausragend mit seinen hängenden Ästen und starkem Blattverfall deutlich zu erkennen. Die Klimapolitik erfährt kritische Berichterstattung.  Nichts Neues von USA und China, die 3. Welt tariert und buhlt um Gelder, Europa selbst gespalten (die bösen Polen), das Musterland Deutschland ebenfalls gespalten (die liberalen Kacker glauben an den Energiepreisen ein rettendes Wahlkampfthema gefunden zu haben) – kann da eine weitere Konferenz sinnvoll sein? Hinterher weiss man das immer besser, zumal auf der dürftigen Datenlage für Otto Normalverbraucher aber wohl auch für die Experten.

Zum Klimakonferenzsystem: Angesichts der Sachlage, dass nach heutigen Hypothesen relativ wenige Länder massive Schäden haben werden, relative viele Länder mit den in absehbarer Zeit zu erwartenden Schäden relativ gut klar kommen werden, ist es überhaupt nicht selbstverständlich, dass sich die Weltgemeinschaft an einen Tisch setzt, um über Strategien zur Schadensbegrenzung, die allen Beteiligten erst einmal Kosten aufbürden werden, nachzudenken. Die politische Zustimmung des Wählervolkes für Solidarmaßnahmen, die anderen Ländern primär und dem eigenen Land nur indirekt Nutzen bringen, ist gering, wie das Beispiel Griechenland-EU zeigt. Zyniker halten gerne Menschenrechtskonferenzen, Weltfrauenkonferenzen, ja die ganze UN für kostspielige Schwatzbuden, die außer Konferenztourismus nichts bringen. Wer so denkt, sollte mal eine Alternative nennen. Einfach laufen lassen? Sich im Konfliktfall gleich die Köpfe einschlagen? Entsolidarisierung schlägt spätestens dann zurück, wenn man selbst Hilfe braucht. Nein, es ist gut so, dass Kommissionen und zuständige Politiker nach Doha reisen, und dort das große Palaver anstimmen, wie man zu minimalen Konsensen kommen kann. Der hoch gehängte Anlass einer Weltkonferenz ist Garant, dass das Thema in den Nationen in die Zeitungen kommt, die existierenden Analysen werden von Multiplikatoren gelesen, das Handlungsfeld ist als Ernsthaftes auf der Agenda, und die NGOs und Pro-Klimaschutzlobbys erfahren eine Stärkung. Dass die Ergebnisse nicht so aussehen, wie Klimaschützer das gerne hätten, liegt in der Natur der Sache. Es gibt zu viele unterschiedliche Interessen und zu unterschiedliche Ausgangslagen in den Ländern, so dass eine auch nur viele befriedigende Lösung unmöglich ist. Die einzige akzeptierte Formel ist wohl die: „Lasst uns drüber reden, überlasst uns freiwilliges Handeln, und entschieden wird erst morgen, da wollen wir noch abwarten“. Damit ist das „Vertrags-Ergebnis“ von Doha grob charakterisiert. Die taz vom 10.12.12 betitelt das so: „Klimarettung kommt, aber später“ (hier werden die Ergebnisse kurz vorgestellt). Am 6. Dezemeber schreibt die FR noch „Klimagipfel droht zu scheitern„. Besser argumentiert die Zeit am 8.12. „Klimagipfel hofft auf den letzten Kraftakt„. Am selben Tag sagt die Süddeutsche: „Doha steuert auf Minimalkonsens zu„(hier werden noch am präzisesten die Vertragsprobleme beschrieben). Der nun doch erreichte Minimalkonsens war nur noch über einen eindeutigen Verfahrensfehler machbar (taz), der Verhandlungsführer hat im Plenum seinen Hammer genommen,  und den Beschluß konstatiert, obwohl die russische Delegation nicht zugestimmt hatte, und es eine Einstimmigkeitspflicht gibt.

Wie ist die Lage?

Weltweiter CO2-Ausstoß bis 2010
Mehr Statistiken finden Sie bei Statistabr
Diese Tabelle zeigt, es geht munter aufwärts mit den Emissionen – gab es 1997 ein Kyoto-Abkommen?

Diese jüngste Klimaschutz-Analyse von Germanwatch zeigt, wo wir mit unseren Emissionen gegenüber China und USA liegen. Die ersten beiden Spalten geben den Germanwacht-Klimaschutzindex wieder, der aus den Parametern Emissionsniveau, Entwicklung der Emissionen, Erneuerbare Energien, Effizieinz und Klimapolitik berechnet wird. Man sieht, dass außer der USA und China alle Industrienationen einen verschlechterten Index haben, d.h. der Klimaschutz stagniert nicht nur, er verschlechtert sich.

 

Deutschland liegt 2012 an 8. Stelle. Germanwach hat in Doha seinen jüngsten Klimaschutzindex vorgestellt. Die Pressemitteilung: „Hohe Emissionen – Geringe Ambitionen„.

Wie gehts weiter?

Es wird allgemein angenommen, dass das Klimaschutzziel, die Erderwärmung auf 2 Grad Cesius zusätzlich zu begrenzen, nicht mehr erreicht werden wird. Der Hauptverbündete in einer Strategie für mehr Klimaschutz ist ein steigender Preis für die allmählich ausgehenden fossilen Energieträger. Aber leider ist dieser Sachverhalt sehr schwierig zu bestimmen. Der Oil-Peak (der Zeitpunkt bei dem die größte Förderung erreicht, und weitere Vorkommen abnehmen) ist mehrfach angesagt und wieder verschoben worden, weil die Unbekannte die schwer hebbaren Ölschiefer und tiefen Gasvorkommen sind. In den USA herrscht z.Zt. Ölboom, weil neue Technologien (Fracking) entwickelt sind, um die dort massiv vorhandene Ölschiefer und Gasvorkommen zu fördern. Allerdings streiten die Experten über den Erfolg. Es werden bis zum Jahre 2020 Prognosen vorgelegt, die zwischen 70 und 190 $ pro Barral schwanken (vgl. Amerika taumelt in den Ölboom). Geht der Preis bald richtig hoch, dann wird wieder mehr für die Erneuerbaren getan, bleibt er tief, sieht es mit der Energiewende in Deutschland, und mit Impulsen in den Schwellenländern, umzusteigen, schlecht aus.

Zu den Kontroversen: Der Autor und Umweltjurnalist beim Guardien George Monbiot schreibt „Es befindet sich genügend Öl unter der Erdoberfläche, um uns alle zu frittieren, und es gibt kein Mittel, um Regierungen und Industrie davon abzuhalten, es dort rauszuholen„. Die Peak-Oil.com Ausgabe hält dagegen, dass es nicht auf die Vorkommen ankomme, sondern auf die Förderraten. Und weil jede Bohrstelle innerhalb weniger Jahre nur noch ein 10tel sprudeln läßt, kann eine hohe Fördermenge nur durch ständig neue Bohrlöcher aufrecht erhalten werden, was beim Fracking ein sehr aufwändiger Prozess ist, der nur über steigende Preise gehalten werden kann. Was soll man als Laie dazu sagen?

Der Ölpreis ist kein Marktpreis, an ihm wird politisch gedreht. Wenn dieser Preis im Weltmarkt steigt, wird es im Land die weniger Begüterten besonders hart treffen. Das sind in den meisten Staaten die breiten Wählerschichten. Welcher Politiker wird sich erlauben können, diesen Anstieg hinzunehmen, damit die Erneuerbaren konkurrenzfähig werden? Es werden Steuern gestrichen und subventioniert, damit die Droge Öl bezahlbar bleibt – aus mit der Steuerungswirkung! Das ist kurzfristig rational, und langfristig müssen andere die Rechnungen begleichen.

Eine Chance besteht in dem Zwang der großen Ölkonzerne, ihre Ölreserven als hoch auszuweisen. Die stehen nämlich in den Bilanzen, und wenn sie gestrichen werden müßten (weil nicht förderbar), hätte das einen Kurssturz auf den Aktienmärkten zur Folge. Es gibt also eine Tendenz, die Ölreserven höher anzugeben als sie sind. Wir könnten also dem Oilpeak sehr viel näher sein, als aus öffentlichen Quellen angenommen, dann käme die Knappheit über Nacht, wenn die Blase geplatzt ist. Das wäre ökonomisch sicher nicht gut, aber eine Chance für die Reduktion der CO2-Emissionen.

Eine weitere, unschöne Chance besteht darin, dass die Schwellenländer den großen Spruung nach vorne nicht schaffen (siehe Indien z.Zt.), die EU nicht so richtig hochkommt, die USA von ihrer Schuldenlast und Ungleichverteilung erdrückt werden, so dass eine längere Schrumpfung des Weltmarktes die CO2-Emissionen massiv reduzieren könnte. Dann bliebe das Klima berechenbar, dafür die globalen Sozialverhältnisse nicht mehr.

Fazit: Ich weiß es nicht, wie es weiter geht.

 

 

 
Veröffentlicht unter Allgemein, Nachhaltigkeit | Schreib einen Kommentar

Schirrmachers Attacke gegen die Versprechungen des Internet

Im Kontext des jüngsten Zeitungssterbens holt Frank Schirrmacher zum Schlag gegen die Versprechungen des Internet aus. Ich bin mir nicht sicher, ob ich alles verstanden habe, weil er mehrere Linien ausfährt, die m. E. nicht alle wieder zusammengeführt werden, so dass ich frage, was war denn nun die Botschaft?

Eine Linie ist die Demontage der Vorstellung des Netzes als Gesellschaft verändernes Social Media, als hoch interaktiver Raum. Die große Vision, nachder jeder Autor, Verleger und Fernsehtstation in einem sein könne, ist so nicht erfüllt. Je näher die auf dem Markt verfügbaren Technologien dieser potentiellen Vision kommen, desto mehr entlarvt sich die faktische Nichhaltbarkeit. Es ist nichts anderes als „Silicon Valleys größter Werbecoup der Weltgeschichte“. Der geläuterte Neoliberalist Schirrmacher macht im Internet den freien Markt dafür verantwortlich, dass die großen Kommunikationsräume nur von ganz wenigen Informationskonzernen beherrscht werden, die die Inhalte zensieren, und das Kommunikationsverhalten auf Daumen hoch Button reduziert haben („Partizipation beschränkt sich auf Belohnungssysteme“). Jeder Informationsimpuls wird über Algorithmen von den Großen in Geld umgemünzt, während anders Kommunizieren in Nischen stattfindet. Und die wenigen Beispiele, wie Flattr, crowd funding, oder Werbevermarktung auf Blogs funktionieren in Ausnahmefällen, sie können aber kein Gegengewicht in der Internetökonomie herstellen. Das ist die zweite Linie im Text, die „Ökonomie des Geistes“.

„Die Tatsache, wie wenig gesehen wird, dass die Evolution der neuen Kommunikationstechnologien ihre eigenen emanzipatorischen Ideen praktisch unterläuft, ist das eigentlich Befremdliche der gegenwärtigen Debatte.“ Dem ist sicher zuzustimmen, auch die Beispiele der Hypes, die durchs Internetdorf gejagt wurden und werden, sich aber nicht einlösen lassen. Es war keine facebook Revolution, die den arabischen Frühling auslöste, und das Geraune um 3-D-Printer, die jedes Heim zum Supermarkt werden lassen, ist blanker Unsinn, bzw. ungebremster Technologieeuphemismus. Kevin Kelly mit seiner Informationsökonomie, der „Heilige des Silicon Vally“ wird als „Wiederkehr des Neoliberalismus in Gestalt von Techno-Utopie“ gezeichnet. So weit so gut – aber was ist die Alternative? Die Verlage sollen nicht auf das Internet starren, wie viele Kritiker jetzt vorwerfen, da gibt es für den Journalismus nichts revolutionäres (außer Selbstausbeutung und gar keine Bezahlung) zu holen. Diese Modelle funktionieren alle nicht, trotzdem brauchen wir guten Journalismus! Ja, und woher soll der kommen, Herr Schirrmacher, habe ich da etwas übersehen?

Jenseits der großen Versprechungen von social media bewegt sich wohl doch etwas. Lesegewohnheiten ändern sich, Netznutzungen gibt es zuhauf. Journalismus und Zeitschriften sind ohne Internet schlechterdings zukünftig schwer vorstellbar. Also sollte es doch noch Modelle geben, jenseits der Hypes, die qualitativen Journalismus im veränderten Gewandt möglich machen.

 
Veröffentlicht unter Internet | Ein Kommentar