Ex_Machina, Kino und KI

Ein Film zur Künstlichen Intelligenz (KI) und noch dazu ein sehr gelungener, ist immer eine reizvolle Studie für einen Computerfreak. „Ex_Machina“ ist das Regiedebüt des Drehbuchautors Alex Garland, der kammerspielartig die Frage nach der künstlichen Intelligenz ohne Weltuntergangsgedröhne, Ballerei und Straßenverfolgungsrennen einfach mit Dialogen durch und über den berühmten Turing Tests erzählt. Zur Inszenierung kann man die meist lobenden Kritiken nachlesen. Der Plot ist einfach: Der Erfinder Nathan, Besitzer des größten Suchmaschinenkonzerns „Bluebook“ lädt seinen begabtesten, als brav und ohne Freundin lebenden Programmierer Caleb in seine Forschungsfestung ein, damit dieser einen Turing-Test mit der Computerfrau Ava durchführt, um herauszufinden, ob diese wirklich eine menschengleiche Intelligenz besitzt. Ich habe im Abspann keinen Hinweis zu einem wissenschaftlichen Berater gefunden, und vermute auch, dass Garland (im Unterschied zu Kubrick anlässlich seines Science Fiction Films „2001: Odyseee..“) keine eigenen tieferen Recherchen zur KI-Forschung angestellt hat. Insofern spiegeln die kleinen Details im Plot die aktuellen Zukunftsbilder, die sich informierte, kreative Leute heute von zukünftigen technischen Entwicklungen machen. Ein Science Fiction entsteht in der Regel dadurch, dass man die aktuellsten technologischen Neuerungen noch etwas weiter nach vorne denkt, was häufig nur zu sehr mageren Visionen führt.
Die Plotfiguren sind aktuell hoch vertraut, Bluebook steht für Google und Datamining, der Protagonist ist ein liebenswerter Computernerd und Ava ist eine sehr sexy Superfrau, die aus einem beliebigen Modejournal entsprungen sein könnte. Allerdings ist der Erfinder Nathan nicht ein grauhaarig, weise blickender Alter, sondern exzentrisch, etwas sehr körperbetont, dass man ihm seine gigantische Forschungskapazität eigentlich nicht ansieht. Und der Programmierer Caleb ist gar nicht nerdisch verklemmt, sondern in der Lage, sehr lebensnahe, intelligente und einfühlsame Fragen an seine Computerdame zu stellen, um sich, was zu erwarten war, in sie zu verlieben. Auch der Turing-Test erfährt eine Variation (die im Film auch kommentiert wird). Das zu befragende Etwas, das man als Computer oder als Mensch zu identifizieren hätte, wird hier sofort als Computerwesen offenbart. Man sieht der Computerfrau an Hüfte und Beinen deutlich an, dass sie eine Maschine ist. Damit, dass es sich hier offensichtlich um eine computergesteuerte Maschine handelt, ist der Test aber nicht zu ende. Caleb soll herausfinden, ob dieses Computerwesen denkt und empfindet wie ein Mensch – oder eben, ob diese Eigenschaften bloß vorprogrammiert simuliert werden.
Die Handlung soll hier nicht weiter dekliniert werden. Interessant ist, dass wir heute, wo es scheinbar selbstverständlich scheint, dass Computer alles „wissen“, die Menschlichkeitsfrage nicht in der Wissensakkumulation, sondern in der Gefühlsebene suchen. Als Marvin Minsky 1956 den Begriff „artificial intelligence“ kreierte, war es noch wichtig, mit dem Computer die Wissenskraft des Gehirns überbieten zu wollen. Je mehr man lernte, was der Begriff Intelligenz eigentlich umfasst, wie er zu messen sei, desto mehr kam auch der Körper und sensitive Erfahrung von Welt für die Kognition ins Spiel. Die kognitive Psychologie nahm sich der Intelligenzfrage an. Die KI-Forscher glaubten zu Beginn noch, die Hirnfunktionen über programmierbare Regeln abbilden zu können. In Analogie zur Gehirnstruktur wurde die Metapher neuronaler Netze systembildend. Mit Neuroinformatik werden mathematische Modelle künstlicher neuronaler Netze konstruiert, die ähnlich operieren, wie einfache biologische neuronale Netze. In der Mustererkennung und auf anderen Gebieten gibt es durchaus erfolgreiche Anwendungen, aber im Bereich der künstlichen Intelligenz sind die Wissenschaftler mit derart regelbasierten programmierten Strukturen bislang nicht gut vorangekommen. Viel erfolgreiche in Sachen Prognose menschlichen Verhaltens oder z.B. im Bereich der Sprachbildung und Übersetzung war in den letzten Jahrzehnten die geballte Stochastik, bzw. das Durchsuchen riesiger Datenmengen nach Ähnlichkeiten (aktuelles Neudeutsch: Bigdata). Wenn Google heute einen Text übersetzt, dann geschieht das nicht nach syntaktischen und semantischen Regeln, sondern es werden aus Datenbeständen bestehende Übersetzungen durchforstet und nach Sätzen gesucht, die der zu übersetzenden Vorlage entsprechen, das wird noch mit heuristischen Regeln abgeglichen, und dann kommt die Übersetzung heraus, hinter der keinerlei Sprach- und Sinnverständnis steht, die aber heute schon halbwegs funktioniert, und zukünftig wohl noch besser werden wird. Die moderne Form der KI besteht gewissermaßen darin, mit Null-Intelligenz ein Produkt zu erzeugen, das eigentlich nur von einem intelligenten Wesen erzeugt werden kann.
Uns wird in den Filmdialogen erklärt, dass Ave mit Mikromimik die Gefühle von Caleb erkennt. Zu jedem Gefühlsausdruck gibt es je nach Kulturkreis eine bestimmte Gesichtsmimik. Die Gefühlswelten und die zugehörigen Gesichtsausdrücke sind natürlich so vielfältig, dass ein regelbasiertes System der Gesichtsmimik nur sehr beschränkt prognosetauglich ist. In Bluebooks wird aber hierzu Bigdata angewendet, so dass aus Millionen Videoaufzeichnungen mit Sprachspeicherung wie beim Übersetzungsmechanismus aus einem Ähnlichkeitsabgleich auf den Gefühlsausdruck geschlossen werden kann. Hier wird dem Zuschauer angedeutet, das Ava Gefühle erkennen kann, ohne zu wissen, was ein Gefühl ist. Mit der Wahl des Suchmaschinenmoguls als Entwickler der KI-Frau greift der Drehbuchautor auf den aktuellen Wissensstand zurück , dass mit Bigdata die größten Erfolge zu erzielen sind.
Auch die Rechnerarchitektur unterscheidet sich erheblich. Weil zu Kubricks Zeit (1968) noch der Großcomputer dominierte, verstaut er das Computergehirn Hal in eine große Schrankwand im Raumschiff. Mit den extremen Miniaturisierungsfortschritten in der Chiptechnik darf das Gehirn von Ava schon in eine wabernde Biochiphülle schlüpfen, die der menschlichen Gehirnmasse nahe kommt. Das ist heute auch noch lange nicht realistisch, aber zeitgeistlich denkbarer als zu Kubricks Zeiten.
Wo der Film m.E. eine Drehbuschschwäche aufweist, ist die Behandlung des künstlichen Körpers. Einerseits spielt der Film mit dem Paradigma, dass Intelligenz und Körper eine Einheit bilden (was populär damit gestaltet wird, dass die Computerfrau vögeln kann), aber die Frage, wie ist ein künstlicher Körper beschaffen, der diese Einheit leisten kann, spielt im Plot keine bzw. nur eine sehr untergeordnete Rolle. Wir erfahren, dass beim „upgraden“ einer Computerfrauversion wesentlich Software ausgetauscht wird, der Körper aber wiederverwendet wird, weil der so kostbar ist. Dass Nathan nicht nur ein begnadetes Softwaregenie ist, sondern auch noch die Fähigkeit hat, in einem 20 mal 20 Meter Labor einen hoch komplexen Kunstkörper allein zu basteln, scheint mir auch als kühne Vision etwas platt. Der Film sollte ein Kammerspiel sein, da hätten weitere Personen wohl den Rahmen gesprengt, aber die fehlen mir dann doch – schade.
Während der im Vorjahr erschienene Science Fiction Film Interstellar seinen Plot mit einer nicht unumstrittenen Theorie des Wurmlochs relativ theorienah unterfüttert, ist offensichtlich die Affinität von Ex_Machina zur KI weniger strikt, so dass die filmische Darstellung über denkbare Sachzwänge gesetzt wird. Das tut dem Film gut, und dem sinnieren über heutige Auffassungen von KI keinen Abbruch.

Veröffentlicht unter Allgemein, Internet, Medien | Hinterlasse einen Kommentar

Wem gehört die Zukunft?

Vor fast einem Jahr erhielt Jaron Lanier den Friedenspreis des Deutschen Buchhandels für sein Buch: Wem gehört die Zukunft? Lanier gehört zu den Internetpionieren. Er ist 1960 in New York geboren, hat beim Atari mit gewerkelt, kennt viele Größen des Silkon Vallys oder der Thinktanks vom MIT persönlich, galt mit seinen Dreadlocks als Popstar der Internetgemeinde, nun ist er ihr Dissident. Ich hatte voriges Jahr seine Preis-Rede in der Paulskirche nachgelesen, die mir schon sehr blumig-schwammig vorkam, und war gespannt auf sein Buch, durch das ich mich seit Wochen mühsam quäle. Es wimmelt von eigenen Begriffsschöpfungen, die mehr verstellen, als sie erhellen, es werden wichtige Hypothesen geäußert, für die aber außer einem amerikanischen Buchzitat keine Beweise angeführt werden. Es wimmelt von Passagen, die ich schlicht nicht verstehe, weil sie mehr Nebelkerzen als logische Deduktionen ausbreiten – warum hat dieses Buch den Friedenspreis bekommen? Was sagt eigentlich die Kritik dazu, frage ich mich, als ich etwa die Hälfte der Seitenzahl erklommen habe.
Der von den Kritikern wiedergegebene Plot macht die Verleihung verständlich. Lanier habe das Bild vom Netz als große Demokratiemaschine entlarvt. In Zeiten von NSA und Snowden war eine Abrechnung mit den Datenkraken Google und Facebook überfällig. Lanier entwirft eine Dystopie, nach der die Macht hat, wer über die schnellsten Rechennetze („Sirenenserver“) verfügt und die ganze kapitalistische Entwicklung stehe im Bann der Algorithmenbeherrscher, die mit Big Data eine gigantische Arbeitsvernichtungsmaschine in Gang setzen, welche den Mittelstand liquidiere.
(vgl: David Hugendick Zeit, Gerrit Bartels Tagesspiegel, Andrian Kreye Süddeutsche)

Seine Beispiele sind beeindruckend, aber auch ungenau. Er verweist auf den Kodakkonzern, der z.Zt. der analogen Fotografie über 140000 Mitarbeiter beschäftigte und ca. 28 Milliarden Dollar wert war, während die von Facebook für eine Milliarde gekaufte Fotoplattform Instagram gerade mal aus 13 Mitarbeitern bestand. Der Vergleich spiegelt schön den Wahnsinn der Internetfirmenwerte, aber er ist schief, weil Kodak nicht an BIG Data gescheitert ist, sondern noch ganz klassisch von vielen anderen Anbietern in der innovativen Produktentwicklung und Nutzung überflügelt worden war.
Eindringlich legt Janier bei dem amerikanischen Supermarktriesen Walmart dar, dass dieser wohl als erster mit Nutzung der Großcomputer Kunden- und Lieferantenanalyse betrieb, und mit diesem Informationsvorteil gegenüber den noch analog arbeitenden anderen Märkten erhebliche Konkurrenzvorteile absahnte. D.h., hast Du die größeren Rechner, geht Dein Marktgegner gnadenlos unter. Die selbe Argumentation wird gegen den Börsen-Hochfrequenzhandel angeführt, je mehr Power, du hast, desto mehr Marktmacht, die sich auf immer weniger Leute verteile, ist dir gegeben. Das klingt wie ein Technologiemechanismus. Von agierenden Menschen mit Strategien, von politischen Strukturen, von Lobbyismus, etc. wird gar nicht mehr gesprochen. Aber so automatisch läuft es wohl dann selbst nach Lanier doch nicht. In einem späteren Kapitel wird über den Allmachtswahn der Internetgurus gespottet, und der „Nachweis“ geführt, dass die „Sirenenserver“ keine echten Prognosen leisten können, weil die erhobenen Daten interpretiert werden müssen, was Irrtümern Tor und Tür öffnet. Es gibt auch einen wirtschaftstheoretischen Abschnitt, in dem Lanier wohl darlegen will, dass in einem Markt (bei ihm „Internetökonomie“) mit vielen Anbietern nur Suboptima möglich seien, währen bei einem Monopolisten der Markt langfristig zusammenbrechen muss. Die literarischen Bilder hierzu sind Bergsteiger auf einer gewölbten Fläche mit mehreren Gipfeln, die in Vielfalt innovative Wege fänden, während sie als Schar hinter einem Anführer das weniger können (Lob des Liberalismus). Der Internetmonopolist ist der die gesamte Umwelt aufsaugende Sirenenserver, der an seiner Abwärme kollabiere, wenn diese zur Umwelt gehöre.
Lanier hat (das sagt er sogar freimütig in einer Fußnote) einmal einen Kommentar zu Marx im Radio gehört, er wird sicher bei Wikipedia Rousseau nachgeschlagen haben, und er hat wohl mal ein Kompendium zur Makroökonomie überflogen. Mit diesem Alltagswissen ausgestattet, schäumt er Theoriegebäude auf, schwadroniert über den Marxismus und andere Geistesströmungen, um zu belegen, was er intuitiv an Veränderungen in unserer Gesellschaft spürt. Mich nervt das bei der Lektüre gewaltig. Um z.B. zu erfahren, dass die marktwirtschaftlichen Theorieansätze und die Praxis des Wirtschaftsgeschehens weit auseinanderklaffen, muss ich mich nicht über 20 blumige Seiten bei Lanier quälen, das sagt einem unverblümt jeder Wirtschaftsprofessor zu Beginn seiner Vorlesung.
Wichtige Thesen, wie beispielsweise die Frage, ob mit der Durchdringung des Internets insgesamt Arbeitsplätze entfallen, werden von ihm behauptet, aber leider an keiner Stelle bewiesen, oder auch nur ansatzweise empirisch zu belegen versucht. Die Frage der Roboterisierung, bzw. Durchdringung der früher analogen Technologien mit mehr und mehr computergesteuerten Elementen sollte man nicht ohne weiteres mit Big Data verknüpfen, d.h. mit der massiven Auswertung großer Datenmengen. Das sind zwei Prozesse, die für eine Analyse der Gesamtentwicklung differenziert betrachtet werden sollten. Deutschland ist z.B. stark gegenüber früheren Jahren „roboterisiert“ und uns gehen z.Zt. die Arbeitskräfte aus, wo sind die Freisetzungen, wo ist die reduzierte Mittelschicht? Lanier wird sagen, das kommt noch – vielleicht, vielleicht aber auch nicht!
Am Beispiel der japanischen Pflegeroboter stellt Lanier eine These zur Arbeitsmarktdifferenzierung vor. In etwa 10 Jahren werden die z.Zt. in Japan entwickelten Pflegeroboter für die zunehmende Schar an Senioren Marktreife haben, dann wird seines Erachtens der Pflegeprozess in den Pflegeheimen so organisiert, dass die Roboter die Grundlast fahren und nur noch wenige, schlecht bezahlte Pflegearbeit für das übrig bleibt, was die Roboter nicht leisten können (die Dequalifizierungsthese). Ökonomisch klafft nach Lanier in allen entwickelten Industrieländern die Schere zwischen wenigen, die enorm viel Vermögen haben, und vielen, die wenig Vermögen haben zunehmend auseinander. Aber auch das behauptet er einfach, ohne es belegen zu können. Ich weiß nur, dass es auch Studien gibt, die das nicht belegen.
Schon im Grundtenor (der Stimulus für die Preisverleihung), dass die Sirenenserver Sicherheiten vorgaukeln würden, die es nicht gäbe, dass der Glaube, alles kostenlos im Netz haben zu können naiv sei, etc. wird von Lanier meines Erachtens zu viel polarisiert. Dass Segnungen des Netzes mit ganz erheblichen Kollateralschäden verbunden sind, muss uns nicht ein Internettechnologe erzählen, das wissen wir schon längst. Ich nutze z.B. Facebook, und unter der überschaubaren Zahl meiner „Freunde“ ist niemand, der nicht wüsste, dass Facebook uns ausnimmt und ständig am Randes des Datenschutzes schrammt. Die Problematik des Hochfrequenzhandels ist kaum einem Leser von Tageszeitungen verborgen geblieben, und die Mechanismen, wie Amazon und Google ihre Marktmacht ausweiten, sind zwar den allermeisten unklar, aber dass das eine Bedrohung darstellt, darüber zweifelt kaum jemand. Auch die jüngste Weltfinanzkrise, die wir hatten, ist nicht durch Big Data ausgelöst worden, sondern hier haben Menschen versagt, die die Stellschrauben für Kreditnahme zum Häuserbau zu stark lockerten, und die Finanzpapiere schnürten, die die Risikoverteilung ins Unverantwortliche steigerten. Und weltweit haben Finanzhasardeurte aus Dummheit oder Gewinnsucht das ganze Spiel multipliziert. Jedem einzelnen Täter langte dazu ein lahmer Laptop, mit einem ganz gewöhnlichen Netz als Transfermedium, also ein Minisirenchen.
Die Frage, welchen Stellenwert Big Data in der Gesamtentwicklung überhaupt hat, ist heute nur sehr schwer einzuschätzen, und wird von Lanier nur höchst unpräzise angepeilt. Mit seinem technologischen Bild vom Sirenenserver lenkt er von den Tätern und von gesellschaftlichen Prozessen nur ab. Globalisierung, wie sie heute von global Playern praktiziert wird, ist zwar ohne ein globales Internet gar nicht machbar, aber der weitere Ausbau des Netzes, das weitere Anwachsen von Datenströmen ist nicht die Ursache, sondern die Folge der sozial-ökonomischen Prozesse. Was die nächste schlimme Krise weltweit auslösen könnte, oder was die Lebensbedingungen derer, die heute ständig unter Krieg und Ausplünderung leiden, wirklich verändern könnte, das wird sehr wahrscheinlich eben nicht allein von BIG-Data und Sirenenservern abhängen. Die Faktoren, die unsere Zukunft beeinflussen, scheinen mir weit über den doch etwas zu technologischen Tunnelblick Laniers hinaus zu gehen. Soweit seine Systemanalyse.
Sein Lösungsvorschlag wird in den einleitenden Abschnitten schon mehrfach angedeutet. Im Buch ist es mehr das letzte Drittel, das ich nicht mehr zu lesen beabsichtige. Genial einfach verlangt Lanier schon im Anfangstext, dass wenn die Sirenenserver von uns Daten klauben, dann ist das ja eine Rohstoff für ihren Profit, also sollten sie für die Entnahme dieses Rohstoffes uns entgelten. D.h. wenn ich nach einer Fahrradhose googele, und Googel sich meine IP notiert, sie verknüpft, und mich als Zielperson an die Werbeabteilung der Fahrradbekleidungsindustrie zu 10 Cent verhökert, dann soll mir Google gefälligst für diesen Klick einen Teil des Erlöses zurück überweisen. Wer den ganzen Tag herumgoogelt, hat abends vielleicht 100 Euro Tantiemen ergoogelt, bei der googelnden Mittelschicht kommen dadurch große Geldbeträge an, und Googel ist zukünftig nicht mehr ganz so reich ….
Wer die zweite Buchhälfte liest, wird dazu sicher Genaueres erfahren, aber aus den Buchkritiken Anderer entnehme ich mehrheitlich, dass diese Fiktion, dass Googel zu seiner eigenen Sozialisierung bereit sei, doch wohl eine recht realitätsferne Annahme sei. Immerhin, das muss zur Ehrenrettung des Autors gesagt sein, er offenbart sich nicht als ein Internethäretiker, sondern will Optimismus verbreiten, dass wir es noch in der Hand haben, das Netz zu einer humaneren Entwicklung zu verändern.

Meine bescheidene Meinung zum Internet besteht darin, dass wir mit der Computerisierung und dem Netz ein neues, großartiges Werkzeug haben, das ähnlich wie das Aufkommen der Maschinen (Mechanisierung) nicht „neutral“ ist, es verändert unser Leben, es strukturiert neu. Aber wie diese Veränderung läuft, das ist nicht ein digitaler Determinismus, da gibt es keinen an sich „guten“ oder „bösen“ Pfad, das ist mehr eine evolutionäre Entwicklung, die Veränderungen schafft, die immer wieder neue Herausforderungen betreffen, die gemeistert werden. Auch Big Data ist eine Entwicklung an deren Beginn wir erst stehen. Nach Lanier ist Big Data so gefährlich, weil man sehr viel Kapital braucht, um darüber zu verfügen. Das ist richtig und bedarf entsprechender Regularien. Aber vielleicht gibt es in 20 Jahren nach einer technologischen Chiprevolution ein Speicher an meinem Handgelenk, der es mit einer modernen Serverfarm aufnehmen kann – dann wird das Problem anders aussehen, und wir werden sicher neue Probleme haben.

Veröffentlicht unter Allgemein, Internet | Hinterlasse einen Kommentar

Node 15: Eingehüllt in Code, die Zukunft des geprägten Körpers

Als Node-Fan habe ich mich am Crowdfunding zur Ermöglichung der Tagung „Wrapped in Code the Future of the Informed Body“ (27.4.-3.5.2015) beteiligt und bin allein gestern, am Maivorabend großartig „belohnt“ worden.
In diesem Jahr ist der Mousonturm mit Naxoshalle Gastgeber, was für die sehr sehenswerte begleitende Ausstellung viel Raum schafft, aber nicht ganz die gemütlich vertraute Atmosphäre des Frankfurter Kunstvereins birgt, in der bislang das Node Forum tagte. Alle Objekte thematisieren das Spannungsfeld zwischen Körper, Informationstechnologie und künstlerischer Ausdrucksform. Die Rückkopplung über Sensoren, die die Körperbewegung erfassen und entsprechend programmierte Reaktionen provozieren, ergeben eine „Mitmachausstellung“. Was hier als visionäre kreativ-technische Spielerei daherkommt, ist z.B. mit der apple watch in der Realität schon angekommen, und in seinen gesellschaftlichen Auswirkungen noch kaum verstanden. Inwieweit das Forum diesem Durchgriff der Konzerne auf unseren body gerecht wird, kann ich nicht beurteilen, aus den Objekten erschließt sich das nicht unmittelbar.
Betritt man den Mousonturm, so „flattert“ in der Eingangshalle ein riesiger virtueller Vorhang, der über Sensoren durch die Vorbeigehenden bewegt wird. Auch wer aufmerksam zur Treppe hochgeht, bemerkt, dass er mit seinen Schritten einen aufsteigenden bzw. absteigenden Sound produziert. Am Mittwoch Abend gab es ein „Body-Konzert“, bei dem in einem schwarzen Raum zwei Personen mit bloßem Oberkörper angespannt gebückt am Boden hockten, und bei geringen Körperdehnungen über köpergurtmontierte und andere Sensoren an der Decke rhythmische, am Herzschlag orientierte Geräusche produzierten, die visuell in Form oszillografischer Kurven rundum an die Wände projiziert wurden. Eindrucksvoll, aber schleierhaft, weil der Zusammenhang zwischen Körperbewegung und produziertem Sound nur rudimentär nachvollziehbar waren. Wir haben in kleiner Runde lange über diese Performance diskutiert und dabei sehr Unterschiedliches wahrgenommen. Für mich waren die angespannten Körper (Mann und Frau) wie in einem Korsett gefesselt, die wie im Endspiel von Beckett nur noch geringen Bewegungsraum hatten, der einen Rest von kaum gelingender Kommunikation ermöglichte. Der ganze Tag war dem Thema „Choreographic Coding“ gewidmet (da habe ich nicht teilgenommen).
WorkshopRepetBeatsAm Donnerstag tagsüber Symposium, wo es um Dystopie und Utopie der Thematik ging, da war ich leider nicht anwesend. Abends der letzte Workshop zu „Repetetive Beats, Repetitive Conditionals & the Future of Dance and Music Making“ war sehr spannend. Es präsentierten sich drei unterschiedliche Zugänge:
Sam Aaron. A Communicative Programmer, Forscher und Entwickler in der Newcastle University (England). Er war beim Raspberry Pi Team der Cambridge University beteiligt, wo der Raspberry-Pi als einfacher Computer für Lehrzwecke an Schulen und Universitäten entwickelt wurde, der inzwischen wie der pädagogische Mikroprozessor Arduino Kultstatus im Netz hat. Dort hat er die freie (kostenlose) „Sonic PI“ Anwendung für den Raspberry entwickelt, mit dem Schüler Synthesizer-Musik produzieren können, was normalerweise nur mit teurer professioneller Software und teuren Computern möglich ist. Aaron will auch dem nicht Softwarekundigen über „leicht“ handhabbare open source Tools den Zugang hier zur Musikschaffung ermöglichen. Ihn interessieren pädagogische Fragen, wie kann ich Komplexität reduzieren, wie kann ich den Code nutzen, Kreativität in Bildungsarrangements erwecken. Auch im Node 13 gab es bereits die Live Coding Performance von Alex McLean, der mit professioneller Software und PC das selbe Konzept verfolgte.
Gregor Schwellenbach, Musiker, unterscheidet sich schon im Vortragsstil. Während Aaron furios seine Impressionen auf der Computeroberfläche (ohne Powerpoint) über den Beamer abzieht, sitzt Schwellenbach auf der Couch und hält Papiernoten hoch und erzählt, und geht zum Klavier, um einige Noten zu klimpern, und führt über Knopfdruck Computersound vor. Schwellenbach hört die Technorhythmen an, wie sie aus der Console kommen, und sucht interessante Ton-Schnipsel, die er dann in Notation bringt, und auf klassischen Musikinstrumenten wiedergibt. Er geht gewissermassen rückwärts von der vercodeten Musik zurück zur Notenschrift und zum klassischen Arrangement, wobei er allerdings nur den „Untergrund“ notiert, und beim Klavierspiel Improvisationen zuläßt. Er schien begeistert, von dem, was sich in der Computermusik zu entdecken gibt, um es in klassisches Repertoir zurück zu führen. In Frankfurt gab es vor zwei Jahren ein open Air Konzert von „Brandt Brauer Frick“, die ebenfalls versuchen, sehr reizvoll den Technosound in konzertante Musik mit klassischen Instrumenten umzusetzen.
Robert Henke. Professor für Sounddesign an der Universität der Künste Berlin kontrastierte redegewandt besonders Aarons Ansatz. Henke hat noch die Großcomputer erlebt und scheint etwas traumatisiert zu sein, von dem Verwaltungs- und Detailkenntnisaufwand, den die Universalmaschine Computer als Desktop oder Laptop dem Anwender abfordert. Wenn er Musik programmieren will, dann will er nicht durch Mails und Internetgeklicke abgelenkt werden. Er prognostiziert dem klassischen PC den Tod und glaubt, die Zukunft besteht in lauter kleinen Einzelgeräten, die domainspezifisch einen Fokus ausfüllen, so dass man sich mit Booten, Programm wählen, anklicken, etc. nicht mehr befassen braucht. Es arbeitet zwar in diesen Geräten ein Mikroprozessor, aber der ist nicht mehr sichtbar, er muss nicht mehr explizit ins Laufen gebracht werden. In dieser Konsequenz verabscheut er den Code und liebt mehr den Fingerwisch (Smartphone) oder die analogen Drehknöpfe am Synthesizer. Aus dem Publikum kam der Einwand, ob es nicht gefährlich sei, nur mit Blackboxen zu arbeiten? Das schmetterte er ab mit dem Hinweis, dass man im High-Tech-Bereich immer an eine Blackbox gerät, ab der der eigene Durchblick zu ende sei. Ich mag dem Professor in diesem Punkt auch nicht folgen. Wer ein Smartphone-Foto macht, das automatisch in die Clowd gebeamt wird, wo es den Datenfressern zum Fraß vorliegt, ist entmündigt. Da ist es doch besser, man lernt, wie man das eigene Foto auf einem Pfad auf der eigenen Festplatte speichert. Diese Computerverwaltung macht mich zum Hausherren meiner Aktivitäten, und das möchte ich mir nicht nehmen lassen. Diskutiert wurde in diesem Kontext über den Fluch und Segen von Beschränkungen. Ein geschlossenes System hat im Gegensatz zur Universalmaschine PC mehr Beschränkungen. Hier waren sich Aaron und Henke einig, auch der Raspberry hat wegen seines schwachen Prozessors und dem beschränkten Speicher nur begrenzte Mögflichkeiten, die einen Reiz darstellen, viel herauszuholen.
Die Frage, wie Code und Musik und body zusammenhängen, war im moderierten Gespräch angestimmt, aber ich habe das wahrscheinlich mangels Englischkenntnisse nicht richtig verstanden, eine Antwort fehlt mir da noch.
Eine Antwort gab das furiose Livespektakel des anschließenden Konzertes, das aus von Aaron mit dem Raspberry Pi gekodetem Sound und der Klavierbegleitung von Schwellenbach bestand. Die Bühne war mit zwei riesigen Leinwänden, einem Rednerpult und einem Flügel bestückt, der Saal war von Stühlen befreit. Am Rednerpult werkelte Aaron auf der Tastatur mit dem Raspberry Pi. Man konnte den in Realtime verfassten Code auf der linken Leinwand sehen, und hörte dazu den mächtigen, beatigen Technosound aus den Verstärkern. Nach einer sich in der Sound-Komplexität steigernden Soloperformance von Aaron kam Schwellenbach dazu, er wünschte einen kurzen knackigen Beat als Hintergrund und schlug dazu seine Riffs in die Tasten. Allmählich codete Aaron komplexere Sounds dazu und es entstand hörbar ein Duett zwischen beiden. Jeder Body im Publikum spürte die Beats und kleinen Variationen über die Grundmuster und wippte entsprechend der eigenen Musikalität im Takt, der für zwei Stunden später angesagte Tanz in den Mai war damit eingeleitet. In der Klavierperformance war deutlich zu erkennen, dass Schwellenbach keine Jazzimprovisationen spielte, sondern eng an den Beatriffs des Raspberry Soundtracks blieb, vertonter Techno gewissermaßen.
Der – sagen wir ruhig – primitive Computer-Beat des Techno wird durch den lebendigen Klaviersound durchaus bereichert, ich konnte das als sehr groovig eine ganze Weile gut hören, bis mir doch die Monotonie zu langweilig/nervig einging. Ich bin kein Technofan, und sehe in dieser Musikform mehr das Opium für die hart arbeitenden Juppies, die sich nächtens mit Alkohol und Speed-Stoffen in einer Traumwelt wegtanzen, um montags wieder brav auf der Matte zu stehen. Könnte man mit dem Sonic Pi Code nicht auch „andere“ Musik machen, die die Kontraste und Widersprüche, differenziertere Klangwelten zum Muster haben und nicht nur bum, bum bum als Grundgerüst? Das junge Publikum war jedenfalls sehr zufrieden, tanzte und jubelte.

Node15-Fazit: Spannende Ausstellung, viele Anregungen, ein Muss für nerdige Kunstfreunde.

Veröffentlicht unter Internet | Hinterlasse einen Kommentar

Kingsman gegen Ökomonsterman

Kingwenn ein kulturangehauchter Oldy popcornumringt sich unter jugendliches Publikum mischt, um einen Blockbuster zu schauen, kann das natürlich nicht ganz gut gehen. 20:10 Einlass. Ich bin etwas verspätet ca. 20:20 drin, die Werbung schrillt noch schnellschnittig über die Leinwand, darunter andere Blockbuster, ca. 20:35 folgen die Trailer der kommenden Filme, wobei sich Trailer wiederholen, die schon im Werbeblock gezeigt wurden. Was da abläuft ist ein unsägliches Dolby Surround Gedröhne mit finster blickenden Machos, die entweder gerade gefoltert werden, durch Fensterscheiben fliegen, an Hubschraubern hängen, aus Autos ballern. Waffen, Waffen, einige martialische, gutfigürlich, gutbebuste, sexy Frauenkörper dazwischen, Waffen oder Peitsche oder Bikini tragend. Die Filmwelt, die einem hier eingehämmert wird, strotzt voll Gewalt- und Mordeinstellungen in düsteren Braun-Schwarztönen angereichert mit synthetisch aufgeblasenem Sound. Der Film läuft die zweite Woche, die Reihen sind noch halb gefüllt und die vielen Lacher und sogar Szenenapplaus zeigen, dass der Film ankommt. Ich bin im falschen Kino – oder ist das Kino richtig, und ich nicht mehr zeitgemäß gepolt? Ich weiß, dass die Rechnung Gewalt im Medium gleich Gewalt auch im realen Leben nicht so einfach aufgeht. Untersuchungen dazu sind zwiespältig. Aber dass das Kino als Ort des Nichtalltages, der Traumwelt und Entspannung, so gewaltaufgeladen ist, berührt mich so unmittelbar doch unangenehm. Vor 30 Jahren gab es die Schnulzenpackung mit Adligen-Gesülz, Lederhose und Alpenbäurin – war das besser??
Weshalb schreibe ich über diesen Film Kingsman – The secret service? Die Macher bedienen sich tagespolitischer Themen. Was als Killerkommödie daherkommt braucht einen Stoff, braucht den Bösen und die Guten, und der Böse ist hier ein Internetmogul im Stile Zuckerbergs, der um den Klimawandel aufzuhalten, die Dezimierung der Weltbevölkerung im Plan hat, was über eine Chipkarte, die den kostenlosen Zugang zum Internet ermöglicht, arrangiert werden soll. Weltretter sind die Kingsman, eine Art Super-Secret-Service, der als James Bond Persiflage seine Leute als snobistische Gentelmen mit den üblichen Waffenspielzeugen stylisch gedresst ausstaffiert. Neben dem antiquierten Messer, das aus der Schuhsole springt und hochgiftig ist, gibt es auch Nanotechnologie, mit der ein Gift im Körper des Opfers ferngezündet werden kann.
Als Genreliebhaber von Actionkino, und dies noch als Komödie verpackt, wird man wohl auf den Plot wenig Rücksicht nehmen, schließlich haben auch gute Opern bescheuerte Libretti, warum soll das hier anders sein? Die marktnahen professionellen Kritiken loben diesen Film aufgrund seiner technischen Stärken. Die dramaturgische Verzahnung der Prüfungs- und Ausbildungsequenzen für einen würdigen Nachfolger eines in Aufklärungsaktion ermordeten Kingsman mit der Entwicklung der Weltverschwörungsaktionen wird gelobt. Die Kirchentotschlagsequenz, bei der der Böse die Wirkungsweise seiner Chipkarten testet, wird wegen ihrer grandiosen Dynamik der Verfilmung des gegenseitigen Umbringens mit sämtlichen Kirchenutensilien gelobt, die zahlreichen filmischen und literarischen Zitate werden hervorgehoben und der stetige Spannungsbogen, der nur am Schluss etwas nachlasse, erhält Pluspunkte. Ja, ich habe mich auch nicht gelangweilt, war auch in den Bann der Aktionen gezogen, nur teilweise getrübt, wenn mir der Gag zu dämlich erschien und irritiert über die grandiosen politischen Inkorrektheiten, die ganz nebenbei den Stoff durchziehen.
Es mag sein, dass das Ausschwitzgedenkjahr sensibel macht, aber wenn ich staatlich verordneten Massenmord mit pittoresk, Lacher provozierenden Prügelszenen in Großstädten und an Stränden der Welt abgefilmt sehe, finde ich, dass hier die Komödie geschmacklos und opferverhönend angesichts der realen Mörderei in der ganzen Welt wird. (Im Plot wird unterstellt, dass die verschenkten Chipkarten mit aktivierbarerer Frequenz das Gehirn bestrahlen, und dort einen ungebremsten Agressionstrieb entfalten, bei dem die Menschen gegeseitig übereiander herfallen)
Die Metaphern von der Klimabedrohung und dem irrwitzigen Lösungsweg der Bevölkerungsdezimierung, auch die an Circle erinnernde Metapher des guten Netzbetreibers, der es den Leuten mit der kostenlosen Chipkarte nur angenehm macht, und dann verbirgt sich das Schlimme dahinter, sind gut gewählt, gar nicht blöde, aber der Film macht daraus bloße Unterhaltung, die das Nachdenken darüber abschaltet. Auch die Frauenrollen sind in den Nebensträngen idiotisch dämlich. Da turnt zwar eine sexy Sufragette mit den Stahlstelzen des gescheiterten australischen Laufidols an ihren hübschen Beinen wild kämpfend an der Seite des Bösen. Eine keifende weibliche Mordmaschine, wie wir sie von Bond- und anderen Filmen zuhauf kennen. Aber jeglicher Plotlogik entbehrend ist ausgerechnet die weibliche Kandidatin unter dem Kingsmannachwuchs schwächelnd beim Fallschirmabsprung und ängstelnd beim Raumflug, wo sie den ermutigenden Zuspruch des Mannes bedarf. Eine norwegische Prinzessin wird als Opfer des bösen Weltverbsseres zunächst noch standhafter und tapferer als der diplomatische männliche Counterpart gezeigt, aber am Schluss, wo die Autoren zur Bondparodie ein hübsches blondes Fickfrauchen für den Helden brauchen, nehmen sie ausgerechnet die Prinzessin, die sich mit dem Satz entblöden muss, „wenn Du die Welt rettest, dann darfst Du mich von hinten ..“. Die männlichen Lacher im Publikum sind garantiert. Neben diesen Entgleisungen hat der Film Spießbürgermoral. Er will zeigen, dass die Guten gut prügeln können, dazu müssen im Plot böse Buben erfunden werden, die man auch verprügeln darf. Das ist einerseits die Feindesgang im Jugendmilieu des Protagonisten, der die Welt retten wird, und das sind Widerlinge, die mit seiner Mutter befreundet sind. Den Schurken eins ballethaft über die zu Rübe geben, spricht auch meine Instinkte an, aber will ich das? Ganz nebenbei ist unser Protagonist ein Tier- und Kinderfreund, kommt aus einfachen Verhältnissen, was auch eine emotionale Gutbindung garantiert. All diese Muster mögen Standards in Blockbustern sein, aber wie nach einer fetten Sahnetorte, lag mir diese Kost danach doch etwas schwer im Magen.

Veröffentlicht unter Allgemein, Medien | Hinterlasse einen Kommentar

Raif Badawi Solidarität

Solidarität mit Raif Badawi

 

„Je suis Charlie“ hatte ich sehr aktut in der unmittelbaren emotionalen Aufladung gegen den Terrorakt in Paris hier kommentierend gepostet. Das ist eine Methapher für Meinungsfreiheit, auch wenn sie sehr kühn ist, denn ich bin sicherlich nicht Charlie.  In Paris war nicht nur die Meinungsfreiheit angegriffen, es war auch ein gezielter rassistischer Schlag gegen die Menschen im jüdischen Supermarkt. Dass hier eine Supersolidaritätswelle wenn auch nur für einen Tag ausgelöst wurde, fand ich großartig. Als Blogger möchte ich hier noch einmal explizit Solidarität und Protest gegen Meinungsunterdrückung bekunden. Ich bin nicht der Blogger Raif Badawi, ich lebe in einem Land, wo man ungefährdet bloggen kann, aber ich hoffe sehr, dass die weltumspannende Empörung gegen die Scheichs (und die anderen Übeltäter) Früchte trägt.

Das Gemtzel gegen Andersdenkende geht weiter, aber man kann nicht ständig Solidaritätsbekundungen absondern. Je-Suis-Charlie verschliss sehr schnell. Wie viele deutsche Dumpfbacken hinter den rassistischen Pegidanführern herlaufen, zeigt nur, welche Lücken eine Solidarität mit Minderheiten und Unterdrückten hat. 2014 wurden weltweit sechsundsechzig Journalisten ermordert, hunderachtundsiebzig wurden verhaftet. Der Blogger Raif Badawi, der in Saudi Arabien auf seiner Internetseite Liberal Saudi Network die Religionspolizei kritisiert hatte, gehört zu den Verhafteten und bestialisch Verurteilten. Der Vorwurf „Beleidigung des Islam“ reicht aus, um 1000 öffentlich verabreichte Stockschläge und zehn Jahre Haft zu erhalten. Die ersten 50 Stockschläge waren so brutal, dass die nächsten vom Gefängnisarzt aus Gesundheitsgründen ausgesetzt wurden. In Saudi Arabien regiert das Mittelalter, unmenschlichste Folter ist Teil der dortigen Scharia. Kopfabschlagen ist Usus, d.h. in Nichts stehen diese barbarischen Scheichs dem IS nach – und sie sind unsere Verbündeten! Mutti Merkel und Cameron marschieren in Paris gegen den Terror, aber sie schweigen gegen den saudischen Terror. Protestiert wird aus der zweiten Linie, Steinmeier nennt in der BAMS die Strafe für Raif Badawi grausam, falsch, ungerecht. Die EU protestiert – und der saudische Botschafter in Berlin stellt die Aussetzung der Prügelstrafe in Aussicht (noch unbestätigt). Protest hat dann doch Erfolg! Die Öllieferungen und die Rüstungsgüter, die dorthin exportiert werden, lassen unsere Moral zu leicht verstummen. Raif Badawi wäre schon zum dritten mal halb tot geprügelt, wenn seine Frau nicht in Kanda wohnen würde und von dort aus öffentlichwirksam Proteste angefahren hätte, die das System zur Zurückhaltung zwingen. Wehe dem kritischen saudischen Bürger, der im Westen unbekannt ist.

Veröffentlicht unter Allgemein, Internet, Medien | Hinterlasse einen Kommentar

Terrorakt gegen Demokratie und Freiheit

Symbolbild als Solidarität zu der Satirezeitschrift Charlie Hebro

Ich bin zwar nur ein kleiner Blogger, aber auch ein Minizeichen ist ein Beitrag. Es geht nicht nur um Pressefreiheit, mit Maschinenpistolen das eingebildete Wort eines Gottes durchsetzen zu wollen, „geht gar nicht“. Alle aufgeklärten Menschen rund um den Globus, inklusive Muslime, respektieren die Gesetze, die legitime Regierungen verfasst haben. Wenn sich in Deutschland, Frankreich, oder einem anderen Land jemand beleidigt fühlt, gibt es den Weg zum Anwalt, aber nicht den Weg zur Kalaschnikow! Und seit der Aufklärung – und das ist ein ganz wesentlicher Wert – akzeptieren wir auch nicht, dass jemand sich zum Anwalt Allahs, Jesus, oder sonstwelcher Gottheit macht, und in deren Namen um sich ballert. Wenn Allah in Eurem Glauben der Größte ist, dann wird der seine Angelegenheiten selber lösen. Wer sich da eigenmächtig einmischt, ist das nicht ein Gotteslästerer?

Fundamentalisten, die tausend Jahre alte gedruckte Erzählungen wörtlich nehmen, auf moderne Errungenschaften schimpfen, sich aber des modernen Internets und moderner Tötungswaffen bedienen, sind machtbesessene Macker, die ihre Follower instrumentalisieren. Es sind demokratiefeindliche Theokraten, die eine Welt der  Unterdrückung und Bevormundung gegen freiheitliche Meinungsäußerung wollen. Die gilt es mit Worten politisch zu bekämpfen. Das ist mein Anliegen in Trauer um die tapferen Mitstreiter des Satiremagazins Charlie Hebdo.

Veröffentlicht unter Allgemein, Medien | 2 Kommentare

E-Learning Erfolgsbericht

Erfahrungsberichte sind pädagogische Fälle, die Einsicht in die aktuelle Praxis vermitteln, Problemstände aufzeigen können, in aller Regel aber nicht verallgemeinerbar sind. Genau vor einem Jahr habe ich zum selben Seminar, das ich dieses Jahr wieder durchführe, auf diesem Blog einen Bericht mit dem Titel Lehrfrust verfasst. Mit leicht kulturpessimistischem Einschlag leistete ich Studentenschelte nach dem Motto, die meisten machen nur ein Scheinerwerbsstudium und sind an den Inhalten nicht interessiert.

Jetzt muss ich zurückrudern. In diesem Wintersemester läuft das gleiche Onlineseminar doch recht zufriedenstellend. Das Phänomen, dass mit unterschiedlicher Zusammensetzung und nur leicht veränderten Methoden sehr unterschiedliche Resultate herauskommen können, ist ja nicht neu. Zum Setting:

Es handelt sich um einen Baustein im Masterfach Erwachsenenbildung/Weiterbildung (2 Wochenstunden) mit dem Titel „Formen und Bewertungsverfahren selbstgesteuerten Lernens“. Man kann 2 Creditpoints erwerben, was im Präsenzfall aktive Anwesenheit und Verfassen eines Sitzungsprotokolles erfordert. Das Onlineseminar ist in 9 Themenblöcke gegliedert. Zu jedem Block wird Material vorgegeben und eine Reflexionsaufgabe dazu formuliert, die in Einzel- oder Gruppenarbeit erstellt und am Blockende (ein- oder zweiwöchentlich) auf die Lernplattform (Moodle) geladen werden muss. Sehr zeitnah erfolgt vom Seminarleiter ein kurzes inhaltliches Feedback auf jeden Beitrag, und zu jedem Block wird ein Video (ca. 3-5 min) verfasst, das den Studierenden eine summarische Rückmeldung über Erfolge und Defizite und wichtige Merkmale des Inhaltsfeldes aufzeigt. Um einen Schein, bzw. 2 CPs zu erwerben, müssen 6 akzeptable Beiträge verfasst worden sein.

Da die online Studierenden nicht in eine Seminarsitzung gehen müssen, haben Sie schon einmal 2 Stunden eingespart, addiert man dazu etwas Vorbereitungszeit, so ist meine Anforderung nicht höher als im Präsenzfall. Die verlangten Aufgaben sind so geplant, dass sie (minimal) in 3 Stunden erledigt sein können. Die schriftlichen Anfertigungen haben zum Ziel, dass ein Nachweis der Lektüre und des Verständnisses des beigefügten Lehrmaterials erbracht werden soll. Das haben die Studentinnen (es sind alles Frauen) zu Beginn akzeptiert, so dass das Anforderungsniveau von Anfang an klar war (diesbezüglich hatte ich im vorigen Jahr einen Fehler gemacht).

Zu meinem Erstaunen klappt in diesem Semester das Zeitmanagement der Studierenden hervorragend. Etliche liefern bereits zwei Tage nach dem Erscheinen der Aufgabenstellung ihre Lösung. Das erleichtert meine Rückmeldungen, ich kann sukzessive zurückmelden, und muss nicht am Wochenende alle Arbeiten im Block durchgehen. Die schriftliche, individuelle Rückmeldung zu jedem hoch geladenen Beitrag ist wohl ein wesentliches Element der Akzeptanz des Seminars. Die Studierenden fühlen sich ernst genommen und genießen den persönlichen Betreuungsbezug. Meine Hinweise werden auch angenommen, z.B. habe ich zu Beginn angemahnt, dass wir wissenschaftliches Schreiben üben wollen, dass zitiert und eine Literaturliste angefügt werden soll, was inzwischen mehrheitlich der Fall ist. Die Qualität der Beiträge ist bei einigen exzellent, bei den meisten gut.

Das Seminar hat 29 Teilnehmende und pro  Inhalts-Block werden ca. 20 Arbeiten (bei Einzelarbeit) abgeliefert. Bei Gruppenarbeit ist die Zahl der Beteiligten höher, da gibt es wohl etwas das Trittbrettfahrersystem. Ich bin mit der Mitarbeit und den abgelieferten Leistungen, die auf eine erfolgreiche Lektüre der beigestellten wissenschaftlichen Texte schließen lassen, sehr zufrieden, und habe damit überhaupt nichts an der Studierdisziplin auszusetzen – im Gegenteil: intelligente, fleißige, hoch disziplinierte Frauen sind da am Werke.

 

Veröffentlicht unter e-learning | 2 Kommentare

Das Verschwinden des Souveräns?

Im Absolutismus war der König der Souverän, das bedeutet wörtlich, derjenige, der über alles befindet. Damit hatte er auch den Zugang zur Information, um zu wissen, worüber er zu befinden hat. In der Republik wurde diese Vormacht abgeschafft, das Volk wurde zum Souverän erklärt. Bildung, Zugang zum Wissen wurde entprivilegiert bis hin zur Volksbildung, bzw. den heutigen modernen Bildungssystemen mit Schulpflicht. „Die Entscheidung geht vom Volk aus“.

Als Metapher für den gebildeten Durchschnittsbürger, der zur Entscheidervorhut gehört, wurde häufig der „Zeitleser“ gesehen. Wenn ein Journalist über einen komplexen, schwierigen Sachverhalt schreibt, soll er sich im Verständnisgrad seiner Schreibe an der Zielgruppe „Zeitleser“ orientieren. Nie hat auch der „Zeitleser“ alles verstanden, worum es im Staatswesen und der Zivilgesellschaft gerade ging, aber er war immerhin „gut informiert“. Als deutscher Kulturbürger musste er den Faust kennen, aber naturwissenschaftliches Mangelwissen gehörte dazu. Generationen von Intellektuellen waren „schlecht in Mathe in der Schule“, was kein Makel war. Tendenzmeinungen, bzw. Positionsmeinungen im gesellschaftlichen Umfeld lieferten Zeitungen und Organisationszugehörigkeiten. Ein FAZ-Leser war liberalkonservativ, ein Rundschauleser sozialdemokratisch und ein Gewerkschaftler einfach links ausgerichtet.

Diese heile Welt der Gesinnungssicherheiten ist längst zerbröselt. Was rechts, links, oder grün bedeutet, ist absolut schillernd und unbestimmt. Die Zeitschriften positionieren Pro- und Contra-Seiten, oder verurteilen im politischen Teil die Geldpolitik der EZB als geldmarktzerstörend, und öffnen im Feuilleton einer Autorin mit staatlicher Regulierungsvorliebe die Spalten. Mag sein, dass einige Leser das gar nicht mitbekommen, aber sicher sind etliche Leser irritiert bei der Suche nach einer verlässlichen politisch-sozial-kulturellen Marschroute. Andere (die meisten Jugendlichen) lesen Zeitungen überhaupt nicht mehr, sie informieren sich in Talkshows, Werbesendungen, sozialen Netzen und anderen Internetauftritten. Hat sich da etwas verändert? Oder haben wir Gleiches auf veränderter Stufenleiter?

An drei Phänomenen lässt sich exemplarisch zeigen, wie das Verstehen gesellschaftlicher Veränderungsprozesse in der Tendenz immer schwieriger erscheint.

1. Digitale Revolution

Der Übergang von analogen Maschinen und Prozessen zu digitalen ist ein Abstraktionssprung, der mit dem Verlust der unmittelbaren Veranschaulichung verbunden ist. Wie ein analoges Uhrwerk mit Zahnkränzen, Feder und Unruhe funktioniert, das ist aus der Erfahrungswelt noch gut vorstellbar. Nahezu jeder Mann konnte in den Nachkriegsjahrzehnten das Prinzip eines Verbrennungsmotors erklären, und im Zweifelsfall substantielle Reparaturen an seinem Auto durchführen. Wie eine quarzgesteuerte Uhr tickt, ist da schon etwas anderes. Wie ein I-Phone funktioniert, wie ein damit geschossenes Foto in die Clowd wandert, und plötzlich auf dem Tablet erscheint, weiß auch der „Zeitleser“ heute schon lange nicht mehr.

2. Globalisierung

Am deutlichsten bei der Finanzkrise, aber auch sichtbar bei Fragen zum IS oder zur Ukraine, wird erfahren, dass die Bestimmungen zur Beschreibung dieser Phänomene weit über gutes Kulturwissen hinausgehen. Auch in den 80er Jahren des vorigen Jahrhunderts gab es schon Global Players, aber die massive Verdichtung der Interdependenzen (möglich geworden durch digitale globale Netze) hat ein Niveau erreicht, das von Einzelnen kaum noch überschaubar ist. Man kann Al Jazeera vom Sofa aus zuschauen, und glauben, man hätte Erste-Hand-Information aus dem vorderen Orient, wenn da nicht die Geldgeber des Senders, Ideologien bei den Journalisten und Gewinnerzielung als Turbulenz in der Redlichkeit der Botschaften mitgedacht werden müssten. Unsere Meinungen sind mehr als früher Reflexe auf Medienmeinungen, weil der Entscheidungshorizont ferner, unanaschaulicher geworden ist. Der „Zeitleser“ springt auf Katastrophenmeldungen an, reagiert auf emotional gefärbte Bilder (Flüchtlingselend, geköpfte Geiseln), und ist zunehmend verwirrt über die Widersprüchlichkeit ehemals verlässlicher Verlautbarungen. Die Zeitung als sicherer Trendberichter hat ausgedient, Expertenstimmen sind meist schwer einzuschätzen, und kommen zu widersprüchlichen Urteilen.

3. Algorithmen

Jeder kennt den Begriff, aber wer weiß, wie ein Algorithmus funktioniert? Wer weiß, was z.B. Google damit macht? Der Zusammenhang von Daten war früher säuberlich getrennt in abhängige und unabhängige Variablen. Als Algorithmus diente ein knappes Set von Gleichungen, die mit Werten gefüttert zu einem nachvollziehbarem Rechenergebnis führten. Da hatte auch der „Zeitleser“ seine Schwierigkeiten mit, aber da vollzog sich etwas auf gesichertem Grund. Eine Korrelation, eine Regressions- oder eine Faktoranalyse waren vertraute Analyseinstrumente, die auf Wikipedia nachschlagbar sind. Ein moderner Algorithmus kann eine Ansammlung von hunderten von „Gleichungen“(Operationsregeln) sein, die mit Millionen Daten millionenfach durchgenudelt werden, bis eine Struktur sichtbar zu sein scheint, von der auch die Algorithmenanwender nicht genau wissen, was das eigentlich ist, aber es könnte hilfreich bei einer Zusammenhangserklärung sein. Die Optimierungs- oder Strukturfindungsverfahren von heute sind im Detail nicht mehr verstehbar, es sind Blackboxes.

Die auf Algorithmen basierenden neuen Geschäftsmodelle, z.B. über Datenanalyse Werbung an ausgefilterte Zielgruppen zu verkaufen, sind extrem intransparent. Ob der Kunde oder der Beworbene einen Schaden davon trägt, wer will das entscheiden, wenn man nicht weiß, was da im Detail alles passiert? Wer dirigiert Werbung in unsere Surfvorgänge, wie wird unsere Internetrecherche durch Kontextualisierung verändert? Mit welchen Daten gelingt es der Polizei Kaliforniens und auch bald bei uns, Verbrechensprognose zu erstellen? Wer weiß, dass in einer großen Drogeriekette die Nachfrage und das Auftreten von Warteschlangen vor der Kasse mit Algorithmen simuliert werden, die ein Abfallprodukt der High-Tech-Forschung des CERN sind? So, wie heute die ständig ausweitenden digitalen Komponenten im Auto vom „normalen“ Fahrer weder verstanden noch repariert werden können, so verstehen wir selbst die Abläufe, die hinter dem Ladentisch unseres Supermarktes fungieren, nicht mehr.

Fazit dieses gedanklichen Kurzausfluges: Entwickelt sich der Volkssouverän zum Unsouverän? Blicken wir immer weniger durch, so dass wir unfähig werden, an relevanten Zukunftsentscheidungen teil zu haben?

Was tun? Diesen Prozessen kann man nicht Halt gebieten, und frühere Zustände zurück sehnen. Die Gesellschaft muss Mechanismen entwickeln, mit der zunehmenden Komplexität umzugehen.

  • Mehr Bildung, um besser zu verstehen, ist eine Richtung, die bereits – wenn auch viel zu wenig – eingeschlagen ist. Die Masse der Bürger ist allein mit Verweis auf die verdoppelte Quote der Abiturienten im Vergleich zu den Nachkriegsjahrzehnten heute besser gebildet. Mehr Bildung brauchen wir nicht nur, um im Wettbewerb Innovationen hervorbringen zu können, sondern wir brauchen sie auch, um unsere Zeit zu verstehen!
  • Besser Informieren ist die zweite Richtung. Die Informationsaufbereitung über Medien unterliegt einem Transformationsprozess, dessen Richtung gegen die alte Zeitung läuft, aber was dafür kommt, scheint noch unklar. Über Informationsmangel kann man sich kaum beklagen, der Kundige findet zu allem mehr Information, als er verarbeiten kann. Deshalb scheint mir ein Ersatz für die alte Zeitungsredaktion, wo eine Gruppe sehr gut Informierter Werturteile fällte, was relevant ist, und was nicht, dringend geboten. Es ist wohl leider so, dass das kein einfaches Onlineabbild sein kann, denn von der „einfachen/mehrheitsabgestimmten“ Botschaft werden wir uns verabschieden müssen. Szenarien, und Klassifikationen von Sichtweisen werden gebraucht. Hinter einer Kurzinformation brauchen wir einen Link zu einer Hintergrunderklärung und einen weiteren zur Kontextvertiefung. Und wie das zu finanzieren ist, steht noch einmal auf einem anderen Blatt. Journalisten müssen ihren Allwissenheitsduktus einstampfen und stärker als früher auf die Referenzen verweisen, woher sie ihre Daten bezogen haben.
  • Der Bürger als Botschaftsempfänger braucht mehr Medienkompetenz als früher. Er muss die digitalen Dateninstrumente bedienen können, und braucht an erster Stelle die Kompetenz zum kritischen Sichten. Hinter jeder Botschaft steht ein Sender mit Interpretationsabsicht. Auch mehr Metakompetenz, die Komplexitätsreduktion selbst einschätzen zu können, wird gebraucht. Ich muss z.B. nicht die Derivatenprodukte des Finanzmarktes kennen, um einzusehen, dass mehr Bankenkontrolle wichtig ist (auch wenn zu viel schädlich sein kann!). Man muss aufgeben, über alles mitreden zu wollen. Das Delegationsprinzip von Liquid Democracy, nach dem ich einer Person, die auf einem Gebiet gut durchblickt, vertraue, und sie zu meinem Sprachrohr werden lasse, kann das Überinformationsproblem auch entschärfen.
  • usw.
Veröffentlicht unter Allgemein, Internet, Medien | Hinterlasse einen Kommentar

Industrie 4.0 – Worthülse, Vision, Euphemismus?

In Wissenschaftssendungen, Feuilletons und Wirtschaftsteilen tauchen die Begriffe „Industrie 4.0“ oder „Internet der Dinge“ zunehmend auf. Das klingt geheimnisvoll und zunächst einmal unverständlich. Der Begriff Industrie 4.0 ist wohl als Propagandaslogan der Merkelregierung zur Rationaliserungsförderung der Industrie auf der Herbstmesse 2011 in Hannover kreiert worden. Die 4 deutet auf die Anzahl stattgefundener industrieller Revolutionen, wobei die 1 für die Mechanisierungsphase, die 2 für den Eintritt der Massenfertigung, die 3 für die digitale Revolution stehen. Nach der Erfindung des Mikrochips und all seiner Anwendungen soll es noch einmal einen revolutionären Schub gegeben haben (oder geben) für den die 4 steht, wobei 4.0 unschwer mit dem Internet zu assoziieren ist.
Letztlich geht es um weiteren Rationalisierungsdruck, der auch auf dem ökonomischen Musterknaben Deutschland im globalen Maßstab weiter lastet. Und Rationalisierung wird nicht zu Unrecht mit Arbeitsplatzverlust und Arbeitsintensifikation assoziiert, da klingt eine „Industrie 4.0“ dann doch etwas unverfänglicher. Folgerichtig betont Franz Fehrenbach (Vorsitzender des Aufsichtsrats der Robert Bosch GmbH) im Interview in der FAZ vom 15.12.13 zum „Internet der Dinge“, dass die Industrie nicht weiß, ob die Menschen im „Internet der Dinge“ einen Nutzen sehen werden, oder ob in der Wahrnehmung die Risiken mehr überwiegen. Deshalb müsse rechtzeitig für Akzeptanz gesorgt werden.

Der Lenkungskreis der „Plattform Industrie 4.0“ definiert den Begriff wie folgt:
Der Begriff Industrie 4.0 steht für die vierte industrielle Revolution, einer neuen Stufe der Organisation und Steuerung der gesamten Wertschöpfungskette über den Lebenszyklus von Produkten. Dieser Zyklus orientiert sich an den zunehmend individualisierten Kundenwünschen und erstreckt sich von der Idee, dem Auftrag über die Entwicklung und Fertigung, die Auslieferung eines Produkts an den Endkunden bis hin zum Recycling, einschließlich der damit verbundenen Dienstleistungen.
Basis ist die Verfügbarkeit aller relevanten Informationen in Echtzeit durch Vernetzung aller an der Wertschöpfung beteiligten Instanzen sowie die Fähigkeit aus den Daten den zu jedem Zeitpunkt optimalen Wertschöpfungsfluss abzuleiten. Durch die Verbindung von Menschen, Objekten und Systemen entstehen dynamische, echtzeitoptimierte und selbst organisierende, unternehmensübergreifende Wertschöpfungsnetzwerke, die sich nach unterschiedlichen Kriterien wie bspw. Kosten, Verfügbarkeit und Ressourcenverbrauch optimieren lassen.

Diese offizielle Definition stellt die individualisierten Kundenwünsche als Orientierung in den Vordergrund, was man den Autoren schwerlich abnehmen kann, es ist selbstverständlich der Wunsch, über mögliche weitere Rationalisierungen Kosten zu senken, um im Konkurrenzkampf vorne zu bleiben. Wenn schon die 3 für die digitale Revolution steht, dann wirkt die 4 doch etwas aufgesetzt. Was soll die „neue Stufe“ sein? Was mit 4.0 beschworen wird, ist eigentlich die bloße Fortentwicklung der Steuerungskompetenz der Mikrochips und der Ausweitung der Logistik über die Internetdatenströme.Aufgeblasene Worthülsen finden sich unter „I 4.0“. Was ist z.B. eine „digitalisierte Wertschöpfungskette“? Das kann eigentlich nur bedeuten, dass alle Produkte einer Firma mit einer Kennung versehen sind, die in einem Softwaresystem mindestens nach Ist und Soll und weiteren Kennungen abgeglichen werden können. Ich bin kein Industrieexperte, aber ich kann mir schwerlich vorstellen, dass z.B. in den BMW-Werken noch jemand mit einem Papierformular im Lager herum läuft und Schrauben zählt. Seit dem Aufkommen von Rechnersystemen in Betrieben gibt es eine stetige Tendenz, die Warenstromerfassung papierlos, also „digital“ abzuwickeln. Wo ist die neue Stufe?

Im Online-Unternehmermagazin wird am 23.11.14 verkündet, dass deutsche Unternehmen pro Jahr 40 Milliarden Euro pro Jahr in Industrie 4.0 investieren. Diese Summe ist deshalb so hoch, weil ganz normale Güter, wie z.B. Antiblockierbremsanlagen als „digitale Produkte“ gezählt werden (in selben Beitrag). Wenn man ein E-book als digitalisiertes Buch zählt, kann jeder zustimmen, aber ein Bremsanlage, die eine elektronische Steuereinheit als Antiblockiersystem integriert hat, als „digitales Produkt“ zu bezeichnen, ist reine Worthülsentümelei. Auch ein Pkw, der voll gerammelt ist mit Zusatzmotoren, Kabelsträngen, Sensoren an jedem beweglichen Teil und mehreren Mikroprozessoren, ist kein digitales Produkt, sondern eine idiotische Ingenieurfehlleistung, die über eine Tonne Material benötigt, um ein Männchen von 80 Kilo von A nach B zu bewegen. Wenn dieser PKW einen ernsthaften Defekt hat, und zufällig in der Nähe nur Werkstätten anderer Firmen sind, werden sich die spezialisierten Monteure ratlos über die Motorhaube beugen und nicht helfen können, denn es bedarf dazu ein diagnoseeigenes Wartungssystem. Auch als Oldtimer hat dieser PKW keine Zukunft mehr, denn die upgedateten Wartungsanlagen werden seine Elektronik nach zwei Jahrzehnten nicht mehr verstehen. Eine lineare oder gar exponentiell unbegrenzte Steigerung der „Sensorisierung“ (was letztlich hinter dem Wort Digitalisierung steht) ist schwerlich vorstellbar. Nie gingen Trends beliebig weiter, immer erfolgte ein Strukturbruch, bzw. ein Systemwandel, der dem Explodieren eine Grenze setzte.
Es gibt viele denkbare Querschläger, die einer Vision einer ausufernden Industrie 4.0-Entwicklung in die Quere kommen können:

  • Sozial gesehen gilt immer noch der simple Einwand, wer soll den produzierten Krempel zahlungsfähig konsumieren, wenn auf der Produktionsseite kaum noch Arbeitseinkommen entsteht?
  • Automatisierte Produktionsstraßen mit automatisierter Logistik und „digitalisierten“ Verkaufssystem funktionieren ökonomisch nur mit dem Gesetz der großen Zahl, d.h. ohne riesigen, auf Weltmarkt konzipierten Durchsatz ist so etwas nicht finanzierbar. Was aber, wenn politisch die Lust am Weltmarkt, aus welchem Grunde auch immer einbricht?
  • Was ist, wenn eine auf Nachhaltigkeit orientierte Gesellschaft mehr Ressourcenschutz, mehr Sozialschutz, mehr Regionalität, mehr Reparierbarkeit wünscht?
  • etc.

In den kommenden Jahren werden immer mehr Geräte und Systeme so ausgestattet sein, dass sie automatisch Daten über das Internet versenden und empfangen können“ schreibt BOSCH auf seiner Seite zum Internet der Dinge. In dieser Aussage sollte man das Adjektiv „automatisch“ sehr infrage stellen. Plaudern da die Dinge nach Gutdünken miteinander?

Das viel gebrauchte Modell des selbst einkaufenden Kühlschranks, der seine Fehlbestände automatisch nach ordert, habe ich immer als das blödsinnigste Beispiel der 4.0-Apologeten empfunden. In einer sozialistischen Planungsdiktatur wäre das denkbar, aber im Kapitalismus wird ein Einkaufschef für die einzukaufenden Vor- und Zwischenprodukte immer ein Auge auf den Markt haben müssen. Bei einer Bestellung müssen Preis und Leistung stimmen, das überlässt man den Algorithmen? Wer das glaubt, überschätzt die Potenz von Algorithmen oder unterschätzt die Wirksamkeit der Märkte.

Bleiben wir beim privaten Kühlschrank. Der ist nicht einfach ein Zwischenlager für den Nahrungsnachschub einer Familie (so denkt vielleicht ein sozial unfähiger Ingenieur), sondern ein individuell bestückter Puffer des kulturellen Einkaufs- und Verbrauchsverhaltens. Ein mündiger Konsument entdeckt auf vielerlei Wegen etwas Ess- und Trinkbares. Er/sie entscheiden sich spontan, das entweder am gleichen Tag zu verzehren, oder es potentiell später zu nutzen, und dazu braucht es einen Aufbewahrungsort. Die Impulse für Füllen und Entleeren sind halbwegs selbst bestimmte Kulturakte, die mit Konvention, Spaß oder auch Stress besetzte sein können, aber keine logistischen Lagerhaltungsprobleme.

Wenn in 4.0 die „Dinge miteinander kommunizieren“ gibt es ein Transparenz-, bzw. ein Datengeheimnisproblem. Nehmen wir einmal an, 10 Firmen bestellen bei einem Zulieferer. Wenn die „digitalisierte“ Warenkommunikation klappen soll, müssen die Produktionsautomaten des Zulieferers tief in die Dynamik der Nachfrage der 10 Abnehmerfirmen blicken können, um eventuellen Nachfrageschüben gewachsen zu sein. Das kann nur funktionieren, wenn der Zulieferer sehr viel Datenwissen über die Interna seiner Kunden hat. Wo bleibt da (ganz ohne NSA) das Betriebsgeheimnis?

Optimierende Algorithmen laufen aus dem Ruder, wenn alle die gleichen nutzen, wie die Finanztransaktionssysteme gezeigt haben. Unterstellen wir einmal, die Sparbrötchenfamilien haben alle den gleichen „Kühlschrank-Algorithmus“, der am Markt die billigsten Anbieter pro gewünschtem Produkt aussucht und ordert. Das hätte zur Folge, dass das billigste Angebot der Region sofort alle Kaufbestellungen anziehen würde. Die Anbieterfilialen kommen dann in die Situation, dass ihre Billigstangebote sofort eine stoßhafte Nachfrage erfahren, alle anderen Produkte kaum noch gehen, weil die bei einer anderen Filiale als Lockvogel angepriesen sind. Für den Ersatz des Ganges zum Einkaufsladen um die Ecke wird dann im Endeffekt so viel technologischer (Erfassungssysteme) und ökonomischer Aufwand (Vertriebssysteme) geschaltet, dass die Gesamtbilanz schwerlich zum Nutzen des Verbrauchers ausfällt. Der Warenbezug verteuert sich letztlich unter Beachtung aller Komponenten, der lokale Händler geht Pleite, und der Stadtteil des Verbrauchers ist wieder um eine Infrastruktur ärmer geworden – schöne neue 4.0-Welt!

So weit wird es aber gar nicht kommen, denn ich halte Vieles der I 4.0-Visionen für informatische Schwärmerei, die an den sozialen, kulturellen und ökonomischen Grundfragen vorbei geht. Dass dennoch in den Industrie internen Abläufen noch eine Menge Rationalisierungspotential vorhanden ist, und dass das sowohl die unqualifizierten, wie die qualifizierten Arbeitsplätze bedroht, und zu weiteren Verwerfungen zukünftiger Berufsbilder führen wird, steht außer Zweifel.

Veröffentlicht unter Allgemein, Internet, Nachhaltigkeit | Hinterlasse einen Kommentar

Selfie – Versuch einer Ehrenrettung

„Stoppt den Selfie-Wahn“  schreibt Axel Vornbäumen am 6.11.14 im Spiegel und polemiseiert damit vor allem gegen die Politiker, die zur Steigerung ihres Popularitätsgrades gerne das Selfie nutzen. „Seht her, ich bins“ lautet der gehlatvollere Artikel der FAZ  von Hans-Heinrich Pardey vom 25.6.14. Hier wird mehr beschrieben als bewertet. Z.B. der Oxford Dictionary hat den Begriff 2013 zum Wort des Jahres gekürt. Smartphons und Kameras folgen dem Selfie-Trend, indem die Auflösung der Frontkamera erhöht wurde, schwenkbare Displays und WLAN in die preiswerteren Kameras integriert wurden, damit diese Bildchen sofort ins Netz transportiert werden können.
Wikipedia definiert „ein Selfie ist eine Art Selbstporträt, oft auf Armeslänge aus der eigenen Hand aufgenommen. Selfies sind oft in sozialen Netzwerken wie Facebook, Snapchat oder Instagram zu finden und bilden eine oder mehrere Personen (Gruppenselfies) ab.“ Die Seite geht historisch auf die ersten Selbstprortraits zurück, und kommt dann im 2. Kapitel auf Soziologie und Gesellschaft, wo vor allem die Problematik der ungefilterten Verschickung in die Netze betont wird, der Genderaspekt (Vermarktung des Frauenkörpers) und schließlich Pornografie zitiert wird, weil die Menge der geposteten nackten Selbstdarstellungen zumindest ein exibitionistisches Massenverhalten signalisiere. (Stand 7.11.2014)
In vielen Gesprächen mit Freunden und in etlichen Feuilletonartikeln wird beim Stichwort Selfie sogleich „Selfiemanie“ assoziiert, meist wird Kulturkritisches, Dümmliches oder krankhaft Narzistisches damit impliziert. Selfietypen sind die Anderen, von denen man sich bewußt abgrenzt.

Ich liebe es aber selber, meinen langen Arm auszustrecken, und mich z.B. auf einer Pause meiner Radtouren in solcher Pose aufzunehmen, dass ich mit dem Kopfe noch drauf bin, drapiert entweder von meinen geliebten Kaffee-Kuchen, oder meinem Rad, oder einer markanten Fluß- oder Landschaftsstelle. Dieses Zeugnis, des Ich-bin-hier und trinke gerade Kaffee, oder genieße gerade eine Landschaftsentdeckung, geht nicht in die Netze. Noch nie habe ich ein Selfie von mir auf Facebook gestellt, ich schicke es dem engeren Familienkreis, meist nur einer Person. Ist das Narzissmus? Teile ich selbstverliebt meinen Ort mit, um ungesagt mitzuteilen, dass ich mit meinen 72 noch locker am Nachmittag 30 Kilometer weg und wieder zurück flitzen kann? Ein Angeberfoto, schaut her, wer ich bin? Oder will ich mitteilen, schaut, wie schön es hier ist, und es wäre noch schöner, wenn Du (der Adressat) auch hier wärest? Oder bin ich schreibfaul und komprimiere auf einem Foto, was in vier Sätze gepackt werden müßte?
Was auch immer, nach der Kommunikationstheorie eines Watzlawicks sende ich mit dem Selfie einen Inhalt und zugleich eine Botschaft, mit der ich dem Empfänger etwas mitteilen möchte. Der Beziehungsaspekt (die Botschaft des Bildes) kann Narzissmus sein, muss aber nicht. Dies sei schon mal gegen die simplen Narzissmuskritiker gesagt.

Und überhaupt sehe ich im Selfie eine innovative Nutzung vorhandener Technologie. Ein Selbstportrait in der Zeit vor der Fotografie konnte nur von einem Maler gehaltvoll produziert werden. Aber selbst noch zur Zeit des analogen Fotoapparates, war ein Selbstportrait, das man selber ausführen wollte, ein sehr diffiziler Akt. Man musste die Kamera auf einem Stativ befestigen, im Sucher den Ausschnitt bestimmen (wobei man sich selber nicht sah), Blende, Zeit und Fokus einstellen, den Selbstauslöser aktivieren, und sich schnell im gewünschten Bildausschnitt positionieren. Mit den digitalen Kameras, die automatisch fokussieren und belichten, konnte man den Apparat im Arm so halten, dass das Objektiv auf einen blickt, und beim Auslösen hoffen, dass der Bildausschnitt dem entsprach, was man sich vorgestellt hatte. Das war der eigentliche Vorgänger des „Selfies“. Mit der Frontkamera im Smartphone, oder dem schwenkbaren Display auf der Kamera war es zum ersten mal möglich, dass der sich selbst abbildende Fotograf auch unmittelbar sehen konnte, was er fotografieren wollte. Die Technologie hat damit ein Fenster für eine neue Gestaltungsmöglichkeit eröffnet, sich selbst im Bereich einer Armlänge bewusst in Szene zu setzen, um somit Inhalt und Botschaft bestimmen zu können. Dass den Leuten das massenhaft Spass macht, und ein solcher Schnappschuss nicht automatisch zum Kunstwerk gerät, kann man dem Selfie nicht vorwerfen, das gilt für jeden digitalen Schnappschuss.

Allerdings bleibt noch die Frage, warum eine neue technologischen Möglichkeit so intensiv benutzt wird? Da muss es noch einen Reiz geben. Ein „Nicht-Selfie“ ist ein Bild, bei dem ein nicht sichtbarerer Betrachter eine ästhetisch, formal aufbereitete Botschaft vermittelt. Das Bild erzählt uns eine Geschichte aus dem realen Blickwinkel des Beobachters. Beim Selfie beobachtet der Beobachtende sich selbst. Sein Blickwinkel ist über eine Apparatur vermittelt. In der analogen Zeit war das das Spiegelbild. Die Welt wird als Spiegelung erfaßt, bei der der Beobachter sich selbst beobachtet. Nicht nur die Welt sehen wollen, sondern sich selbst in der Welt sehen können, macht den Reiz des Selfies aus. Wenn man so will, ist das eine weitere Steigerung der Individualisierung der Gesellschaft. Das Individuum läßt sich nicht mehr nur einfach ablichten, es will sich selbst in Szene setzen.

Veröffentlicht unter Allgemein, Medien | 2 Kommentare