post privacy – Generationenfrage?

Im 6. Kapitel, Post Privacy Taktiken, versucht Heller mit Beispielen der sexuellen Revolution zu zeigen, dass die Devise, „Du bist nicht der Einzige“ ein befreiendes Element hat. Das coming out für Schwule sei zwar in manchen Umständen nicht ungefährlich, aber es erhöht das Selbstbewußtsein, sichert die Rechte der Minderheit, etc. In diesen Ausführungen versucht uns der Autor schmackhaft zu machen, dass die Entprivatisierung positive Potentiale hat, und dass die so „offene“ Gesellschaft letzlich ein Gebot zu mehr gegenseitiger Toleranz enthalte. Der Verweis auf die diversen coming outs scheint mir etwas gemogelt. Wenn sich ein Schwuler geoutet hat, oder eine „Mein Bauch gehört mir“-Demo erfolgte, dann geschah das erfolgreich nur im Kontext einer politischen Bewegung. Durch ein konzertiertes Auftreten der Minderheit wurde erreicht, dass ein Merkmal aus der privaten Feuchtzone ins Öffentliche gezogen wurde. Das war im Effekt keine Demontage von Privatheit, sondern nur ihre Korrektur in Richtung einer aufgeklärteren gesellschaftlichen Kultur.

Wir erleben diesen Prozess der Veränderungen dessen, wo die Grenzziehung zwischen Privatem und Öffentlichem sich verschiebt, in säkularisierten, westlichen (vielleicht auch östlichen?) Gesellschaften. Die Ursachen dafür liegen aber sicher nicht darin begründet, dass uns die Allgorithmen ohnehin entblößen würden. Ich sehe das eher als ein Vermarktungsphänomen in der Konsumgesellschaft an. Man muss sein „Profil“ zu Markte tragen, um Käufer zu finden, um sich als Selbst besser positionieren zu können, etc. Jede Ware schreit mit Werbung, damit sie gekauft werde, und die Subjekte nähern sich dem Warencharakter an, in dem sie sich ebenfalls schreierisch entäußern, um bemerkt zu werden.

Das Verhältnis, wie man zu diesem Prozess steht, ist sicher auch eine Generationenfrage. Die Alten wollen da viel weniger mitmachen als junge Menschen. Wenn ich in meiner Altersriege über post privacy rede, geht Entsetzen um. Wie kann man das Private ablegen, das ist doch Schutz vor Draußen, Kreativitätshort, Selbstbestimmung, etc. Vielleicht wird unterschiedlich bewertet, weil die Alten heute unter dem Jugendlichkeitsdruck  mehr zu verbergen haben. Sie verstecken ihr wahres Aussehen hinter Schönheitsoperationen, sie wollen nicht, dass man ihr Einkommen sieht (was offensichtlich nur die Schweden nicht stört, worauf Heller hinweist), und den Körper bedecken sie mehr, weil der nicht mehr jugendlich ist. Wie auch immer, dem unbekümmerten Twittern, dem privaten fotounterlegten Nachrichtenstrom in Netzwerken wird mit Unverständnis begegnet. Ich bin da (allerdings ohne Schönheitsoperation) wohl auch ein typischer Vertreter dieser Richtung. Mich intressieren die Privatspären meiner Arbeitskollegen, meiner Bekannten, meiner Studierenden ziemlich wenig. So ist mir schon peinlich, dass ich mir kaum die Namen der Kinder meiner Freunde merken kann. Auf einem Worksohp hatte ich mich sehr angeregt mit einer Referentin unterhalten. Promoviert, im Entwicklungsbereich global tätig, gut aussehend, und wir kamen nebenbei auf Facebook zu sprechen. Ja, da sei sie auch drin, und ich war damals frisch drin, und schon tauschten wir unsere User-IDs. Zuhause stelle ich dann zwei Tage später fest, dass sie eine sehr aktive Userin ist, die fast täglich mindestens einmal posted, wo sie sich gerade befindet, und was sie gerade tolles (und nicht tolles) macht. Wie kann man so einen Schrottel posten, und gleichzeitig so intelligent sein? Ja, da hatte Heino ein Problem.

Ich habe das dadurch gelöst, dass ich von unerwünschten frührenen Newsstreamings gelernt hatte, dass es einen „hide“ Button gibt, mit dem sich diese privaten Ergüsse stoppen lassen. Da war ich wieder bei der post privacy Theorie, man will nicht das Senden unterdrücken, man braucht Filterkompetenz, um sich in der Bubble oder außerhalb ihr wohlig einrichten zu können.

 
Veröffentlicht unter Internet | Schreib einen Kommentar

post privacy – entfesselte Daten?

Nun habe ich die deutsche Post-privacy Fibel ganz gelesen. Alles um das Umfeld (die Spackeria) ist im Blog von Stefan Münz informativ beschrieben.  Plakativ verkürzt geht es darum: Privatspäre ist nicht mehr, ist auch nicht mehr zu halten, und anstelle von vergeblichen Datenschutzbemühungen sollten wir lieber die Transparenz hochleben lassen, das führt die Gesellschaft zu neuen, nicht privaten Ufern.

Die gut geschriebene Fibel präsentiert sich in 7 Kapiteln: 1. Das Ender der Privatspäre, 2. Eine kleine Geschichte des Privaten, 3. Die Entfesselung der Daten, 5. Informationsmacht, 6. Post-privacy Taktiken, 7. Abwägungen.

In meinem letzten Block zur Nacktheit im Netz habe ich die Wirksamkeit der Daten als Indikatoren für Persönlichkeit, für Privatsphäre etwas infrage gestellt. Auch Algorithmen brauchen Theorien und Regeln nach denen sie die Daten-Wühlarbeit und Korrelationen vollziehen. Nackt ist zunächt einmal das Datum. Ein Buchkauf, ein Aufenthaltsort, eine Suchanfrage – das sind Daten, die erst durch kategoriale Zuordnung zu Informationen werden. Bei diesen Zuordnungen können gravierende Fehler unterlaufen, besonders wenn sie automatisch erfolgen müssen. Und der Glaube, dass die Menge von Daten die Fehlerhaftigkeit wett mache, ist mathematisch nicht haltbar. Es gibt kein Gesetz das sagen würde, immer mehr Daten machen eine Sache genauer, sie können im worst case das Rauschen erhöhen, so dass sich nichts Signifikantes mehr herausfiltern läßt. Z.B., wer die FR abboniert hat, ist bereits mit diesem einzigen Indikator mit ziemlicher Sicherheit dem linksliberalen Spektrum zuzuordnen. Wer ein „linkes“ Buch kauft (da muss vorher jemand diese Zuordnung getroffen haben), wer auf einer „linken“ Demo per Bilderkennung gesichtet wurde, wer in Google nach linken Autoren, oder gesellschaftskritischen Begriffen recherchiert, der könnte auch links sein, aber jedes Datum (der Buchkauf, der Demoanlass, die Recherche) ist selbst aussagelos und wird zum Indikator erst, wenn a) die entsprechende „linke“ Zuordnung geleistet wurde, und b) wenn aus dem Akt auf die Neigung des Akteurs geschlossen werden kann (Z.B. ein „Rechter“ kann seinem „linken“ Arbeitskollegen über Amazon ein Buch kaufen). Bei Riesenmenegen können diese Zuordnungen nicht von einem Facebookteam geleistet werden. Die Zuordnungen müssen wieder „automatisch“ durch Programmierung über Ähnlichkeitscluster und Korrelationen in den Datenmengen hergestellt werden. Das Datum  „Buchkauf“ wird nicht semantisch erkannt, sondern es ist nur als Cluster identifizierbar, dass durch Auftrittshäufigkeiten in Verbindung mit anderen Häufigkeiten als Merkmal destillierbar ist. Das muss alles sehr aufwändig von Programmierern konstruiert werden, die keineswegs theorielos auf Patternsuche mit ihren Programmen gehen. Was die Algorithmen sehr warscheinlioch schon ganz gut können, und was durchaus mit noch mehr Entäußerungsmöglichkeiten an Differenziertheit zunehmen kann ist, dass sie uns in Merkmalsklassen werfen. Es ist also nicht ein Persönlichkeitsprofil, was mir in der Filter Bubble gespiegelt wird, oder was an Marketingexperten verkauft wird, es ist ein Milieuprofil bzw. ein Clusterprofil, in das ich falle. X Leute fallen in das gleiche Profil – und da wäre meine Gegenthese zu post privacy, diese X Leute sind jeweis sehr unterschiedliche Persönlichkeiten mit ganz unterschiedlichen Privatwelten. Meine Privatspähe ist mitnichten verloren.

Schaun wir bei Eli Pariser nach, auf den sich die Spackeria mit ihrer Kündigung der Privatsphäre wesentlich bezieht, dann hat er sehr eindringlich mit seiner filter bubble beschrieben, wie die Algorithmen bei Google und Facebook das Userverhalten analysieren und bei der Suchanfrage oder beim Newsstream steuernd (manipulierend) Ähnlichkeitsdaten des eigenen früheren Userverhaltens einspielen. Nicht mehr der Zeitungslektor selektiert den Newsstrom für den Leser, sondern ein Algorithmus steuert den Strom, der sich nur aus der eigenen Seifenblase speist – und der User bemerkt das selbst kaum (Kontrollverlust). Das klingt nach großer Macht der Algorithmen. Gesellschaftlich läßt sich befürchten, dass das Bestehende, das Konservative Bestätigung findet, während Neues, Kritisches unterbunden wird – oh, böses Facebook!

Ich halte dagegen, die können gar nicht anders. Es war immer schon, und ist auch mit den modernsten Algorithmen gut möglich, die Verganenheit zu extrapolieren, und diese in die Zukunft zu projezieren. „Wie Du früher gesucht hast, wirst Du auch zukünftig suchen!“ Das ist das billige Rezept. Wer bei Amazon erst drei Bücher gekauft hat, wird mit einer ziemlich dümmlichen Prognose beworben, wer schon Jahre dabei ist, erhält da schon Treffsicheres. Aber die kleinste Systemänderung, eine neue Freundin, die neue Interessen einbringt, ein neuer Job der Umlernen erfordert, wird nicht prognostiziert, die Krake ist „zu blöd“ dazu, denn da verlasse ich mein Ähnlichkeitscluster, für das der Filter berechnet war. Parisers Vision, wir bräuchten Algorithmen, die uns innovativ werden lassen, die uns Dinge zuspielen, die uns auf neue Wege führen können, halte ich für sehr kühn. Die Suchmaschinenkonkurrenz zwingt Google, die Suchalgorithmen so effizient zu gestalten, dass ein Suchender hier schneller findet, was er sucht, als bei der Konkurrenz. Dieser Druck, schnell zum gewünschten Ergebnis zu kommen, ist in die Algorithmen einprogrammiert. Ein Soziologe (bzw. dessen Cluster) der in Google nach einem Begriff sucht, erhält „vorne“ nicht alles alpabetisch oder häufigkeitsmäßig angeordnet, sondern zunächst die soziologisch konnotierten Bedeutungen (das funktioniert wieder über Ähnlichkeiten). Es wird also versucht, möglichst zielgenau und schnell das Gewünschte Suchergebnis zu finden.  Würden jetzt Zufallsalgorithmen ein paar Querschläger einbauen, damit der Suchende auch mal auf Unerwartetes stößt, würde das die durchschnittliche Effizienz senken, ein Nachteil gegenüber der Konkurrenz. Würde gar in pädagogisch demokratischer Absicht, bei konsumeristisch konnotierten Clustern immer wieder mal politisch Korrektes erscheinen, würden die User das schnell merken, und sich bei Google beschweren – also ziemlich schwierig, einen Algorithmus zu bauen, der aus der Filter Bubble Falle heraushilft.

Zur Klärung: Es gibt zwei Arten von Datenzugriffen in die Privatspäre. Die altbekannte, und lange bekämpfte besteht in dem Zusammenlegen von Datenbanken, die ein gemeinsames Merkmal verbindet. Wer z.B. einen Personalbeurteilungsdatensatz, mit einem Gesundheitsdatensatz verbindet, wobei sich in beiden Sätze eine identische Identifikationsnummer der Personen befindet, kann mit ganz wenigen Datenbankabfragen sehr präzise herausfinden, was mit einer Person XY der Fall ist. Ich vermute, die Rasterfandung war noch vom ersten Typ der Datenauswertung. Gegen diesen Typus kann man auch in DEmokratien politisch-gesetzlich vorgehen. In der neueren Algorithmendebatte hat man weder die Kennung der Person noch die eindeutige Bedeutung der Daten. Mit dem klassischen Suchbefehl einer Datenbank läßt sich da nichts mehr machen. Und mit einem Zugriffsverbot wohl auch nicht. Da kommen die verschiedensten mathematischen Prozeduren zum Zuge, die aus Datenmengen Ähnlichkeiten, bzw. Gemeinsamkeitscluster, destillieren können. Wir sprechen hier über diesen neueren Typus, der Algorithmen erfordert.

Mein Fazit, ja die Daten sind entfesselt. Aber was da entfesselt wird, das sind die Kleider, die die Leute machen, die Datenkrake sammelt diese Stoffetzen, und kriegt daraus mühsam wieder Kleider zusammen, aber ob das die usprünglichen Kleider waren, und ob damit die Leute getroffen wurden, die sich diese Kleider zulegten?

Wir sollten viellcht zukünftig weniger Angst vor der Entprivatisierung durch Datenentfesselung haben, als davor, dass diese Datenalchemie unprofessionelle Anwendungen provoziert. Milieuzuordnungen sind Vorurteilskisten, die im Einzelfall ziemlich daneben liegen können. Jemand, der in der Kiste der „Montagskranken“ zu finden ist, kann in anderen Arbeitskontexten ein sehr produktives, wertbringendes Individuum eines Unternehmens werden – und umgekehrt.

 
Veröffentlicht unter Internet | Schreib einen Kommentar

Zum Hype um learning 2.0

Wer an Universitäten, Weiterbildungseinrichtungen, betrieblichen Fortbildungszentren nach e-learning sucht, findet eine hohe Verbreitung von e-administration (oder e-support), d.h. die meisten Bildungsangebote ausserhalb der Schule sind auf entsprechenden Plattformen der Anbieter registriert, die Lernenden finden dort ihre Studientexte, per Mail oder auch per Plattform werden Aufgaben bereitgestellt. Der Unterricht und die Prüfungen dagegen sind in aller Regel „präsent“. D.h. das ganze Drumherum wird heute über das Netz administriert, aber die eigentliche Lehre fiundet in den „realen“ Lernräumen statt. An einigen Unis wird als e-Schmankerl die aufgezeichnete Vorlesung als Video zum download bereitgestellt. Das ist praktisch, wenn Hörsäle überfüllt, oder die Lerner abwesend sind. Diese Lernformen sind im Prinzip noch ganz traditionell, während Angebote, die den Namen e-learning verdienen, wo z.B. über die Inhalte im Netz diskutiert wird, die große Ausnahme sind. Niemand läßt sich da gerne in die Karten gucken. Nach meinem Überblick an deutschen Universitäten dürfte ein „echtes“ e-Learning bei maximal 2-3 Prozent aller Lehrangebote liegen. Was durchaus bedeuten kann, dass in wenigen Fachbereichen (bei wenigen Professoren) auch mal eine hohe e-Learningdichte auftreten kann. Fazit, das anno dazumal hochgelobte e-learning als moderne Lehrform, die alles alte ablösen wird, gibt es faktisch kaum.

Wer im Internet nach e-learning recherchiert, wird schnell erfahren, dass e-learning im klassischen Sinne tot sei, das nun aber das ganz neue, alles revolutionierende Lernen mit social media, Lernen 2.0, oder Microlearning, oder m(mobile)-Learning und wie die Worthülsen alle noch heißen mögen, angesagt ist. Die lautesten Verkünder von Lernen 2.0 kommen aus dem e-teaching business, d.h. das sind die selben Leute, die vor 5-10 Jahren noch vom Lernen auf Internetplattformen geschwärmt haben, und diese als die größte pädagogische Errrungenschaft feierten. Die Begriffe tauchten zuerst bei den anglo-amerikanischen e-learning Bloggern auf, die meist entsprechende Lehraufträge haben, und zugleich mit der Fortbildung, Coaching und anderem in Industrieunternehmen verbandelt sind. Ein ganz wesentlicher Schub für diese „neuen“ Lernformen kommt sehr wahrscheinlich aus dem anders gearteten amerikanischen Bildungssystem. Training on the job zur Kurzqualifikation auf einem hoch mobilen Arbeitsmarkt ist hier wesentlich gefordert. Und weil der Kostendruck hoch ist, können die Angestellten keine Lehrgänge in der Arbeitszeit wahrnehmen, also sucht man das Lernen aus zu gliedern. Die Verantwortlichkeit liegt beim Angestellten, und damit das überhaupt geht, kriegt er Learn-Nuggets. Und nicht die Firma soll sich um die (teure) Pflege einer Lernplattform kümmern, wir haben ja facebook, auf dem die Angestellten sowieso zuhause sind, also können sie auch darauf lernen. Dieser bildungsökonomische Hintergrund läßt sich lerntheoretisch schön kaschieren, denn seit Ende des letzten Jahrhunderts wird mit dem in der Pädagogik hoch favoriosierten Konstruktivismus das selbstgesteuerte Lernen als effektivste Lernform gepriesen. Danach soll der Lerner selbst entscheiden, was er wann, wo, mit welchen Methoden lernen will. Genau das ermöglicht das Lernen mit social media!

Wie alles IT-Inspirierte meist nicht bei uns entwickelt wird, sondern von den Staaten über den Ozean zu uns schwabbt, wurde auch der Learning 2.0-Optimismus ins Deutsche übersetzt, ohne dass der bildungsökonomische Hintergrund mitbedacht wurde. Die deutschen Jungs aus dem e-teaching Geschäft haben nur magere Aufträge bei den Unternehmen, weil die bislang mit den Konzept keine guten Erfahrungen gemacht haben, da braucht man eine neue Sau, die durchs Dorf getrieben werden kann, das ist Lernen 2.0! Das sieht dann so aus:

Das Muster läßt sich immer wieder finden: klassisches E-Learning ist out, jetzt kommt das Lernen 2.0!

An den Unis gibt es einige Versuche, Lernformen des web 2.0 in die Lehre zu integrieren, aber vom großen Durchmarsch kann gar keine Rede sein, und Untersuchungen über das Lernverhalten der Teilnehmer solcher Angebote sind sehr rar.

Ich denke, die web 2.0 – Optimisten sollten die Kirche im Dorf lassen. Wenn man nicht absoluter Anhänger der post-rivacy Bewegung ist, dann macht es durchaus Sinn, dass Lernen in einem geschützten Raum stattfindet, dass, wie im klassischen e-Learning der Fall, eine Lernplattform der Ort ist, wo die organisatorischen Fäden zusammenlaufen, wo benotungsrelevante Diskurse in der geschlossenen Lerngemeinde unter Begleitung des Dozenten geführt werden. Wo und mit welchem Tool dann die Lernenden z.B. ihre Gruppen- oder Projektarbeit organisieren, das kann neuerdings auf dem (social) Medium stattfinden, das den Lernenden vertraut ist, das muss selbstverständlich nicht die primäre Lernplattform sein. Und ob die auf facebook organisierte Lerngruppe auch den Dozenten als Berater in ihre Gruppe lassen will, das ist ohnehin die große Frage. Das Private (soweit es das eben doch noch gibt) in der Freundesgruppe bei Google+ oder StudVZ, etc. geht den Dozenten nichts an. Auch wenn man dann extra Circles nur für das Lernen gründet, kommt doch der Zugriff über Freundeskreise schnell zustande, und plötzlich sieht ein Prof ein Partyfoto aus einer Zeit, wo sein Student sich krank gemeldet hatte. Oder er sieh Postings, in denen über die Qualität seiner Lehrveranstaltung gelästert wird. Der „Sozialbetrieb“ der Lernenden und der Lehrbetrieb der Lehrenden sollte letztlich doch besser in getrennten Häusern stattfinden. Wo aber WEB 2.0 mit Sicherheit einen großen Einfluss aufs E-Learning hat, ist die Verbreitung von Netzkultur, von Netzkommunikation und von Netzkompetenz. Das Manko bisherigen E-Learnings liegt nämlich nicht in der „klassischen“ Plattformangebotsstruktur, sondern es ist dem Mangel an Lernerfahrung im Netz geschuldet. Fragen der Zeitorganisation, des Umgangs mit Tools, der Sicherheit, welche Kommunikationssprache im jeweiligen Kontext zu wählen ist, der Selbststeuerung des Lernprozesses, der Umgang mit den Lernmaterialien, etc. das sind die Schwachstellen des E-Learnings. Oder anders gesagt, „präsentes Lernen“ haben alle seit ihrer Kindergartenzeit erfahren, sie kennen die Kontexte, die Riten, die Arbeitstechniken. E-Learning ist heute für Viele eine ganz neue Lernerfahrung, mit einer erheblich anderen Lernkultur. Und daran sind die bisherigen E-Angebote häufig gescheitert. Das verändert sich nun mit dem WEB 2.0, und wie dies akzeptiert wurde, gewaltig. D.h. eine E-Learningkultur kann heute erst auf größere Netzkompetenz gründen, das wird die E-Angebote in den nächsten Jahren gut wachsen lassen, und das WEB 2.0 wird  mit neuen Formen selbstgesteuerten Lernens um das lehrorientierte E-Lehren herum sich produktiv auswirken.

 
Veröffentlicht unter e-learning | Schreib einen Kommentar

post privacy – nackt im Netz?

Die Datenschutzdebatte ist in Aufruhr. Als Oldy stehe ich emotional noch auf der Seite der Datenschützer und falle unter das von der Piratin Julia Schramm geprägte Verdikt „Datenschutz ist Eighties“. Brav habe ich  die „Datenfresser“ (CCC-Autoren) gelesen und danach meinen Austritt aus Facebook inszeniert. Aber man will ja dazulernen, so lud ich mir das erste deutsche Buch zur post privacy Bewegung auf meinen Kindel (natürlich gegen Cash, hier hört die Öffentlichkeit auch bei diesem Buch auf). Der Autor Christian Heller träumt darin (Post-Privacy Prima leben ohne Privatspäre) von einer besseren Welt: „Wenn alle nackt sind, interessiert sich niemand mehr für die Nacktheit des anderen.“ (taz)

Bei Philipp Albers wird die junge Auseinandersetzung um Datenschutz und post-privacy ganz gut beschrieben, und das Buch wird referiert. Seine Kritik ist unschwer als linke einzuordnen. Er wirft Heller gesellschaftliche Naivität vor, der die Ungleichverteilung der Macht zwischen den Internetbetreiberkonzernen und dem einzelnen Anwender unterschätze, doch er findet es gut, dass die Datenschutzdebatte aufgemischt wird.

Dem kann ich gut folgen und habe bereits nach der Lektüre des ersten Drittels zwei „eigene“ Kritikpunkte. Heller sagt einführend, das Private sei längst aufgehoben, und selbst wenn Leute, wie z.B. Homosexuelle, direkte Daten zu ihrer Neigung bewußt nicht ins Netz stellen, nutze ihnen das gar nichts, weil die berühmten, ominösen Algorithmen aus dem Kontext heraus die persönliche Neigung treffsicher erschließen würden. Auch benutzt er Begriffe, wie „intelligentes Internet“, bzw. „intelligente Maschinen“ in seiner Darstellung. Ich habe mich lange mit Computersimulationen und auch mit Fragen der künstlichen Intelligenz beschäftigt und habe dabei immer wieder erfahren, dass den Möglichkeiten mathematische Strukturen zu nutzen, um soziale oder individuelle Verhaltensweisen voraus zu berechnen, enge Grenzen gesetzt sind. Da hilft auch keine Rechen- und Datenpower, die in der Tat in jüngster Vergangenheit gigantisch gestiegen ist. Das Problem ist ganz schlicht, der Algorithmus hat nur die Daten aus der Vergangenheit, mit denen Verhalten für die Zukunft projiziert werden muss. Das funktioniert, wenn alle Parameter konstant bleiben. Komplexe Sozialsystem aber auch Individuen sind aller Erfahrung nach instabil, sie verändern sich längerfristig in nicht vorhersagbarer weise. Je inhomogener ein System ist, desto stärker sind unerwartete Parameteränderungen.

Z.B.  früher, als die Wähler noch stark in Blöcken gedacht haben, waren Wahlprognosen relativ gut. Beim jüngsten Beispiel, der Wahlkampf in den USA, steigen die Kandidaten auf und ab, und die Prognostiker staunen nur, wie wenig sie voraussagen können. Weiterhin liegt die Stärke von Algorithmen, sofern sie überhaupt vorhanden ist, in der Statistik. D.h. z.B. wieviel Leute im nächsten Jahr einen Merzedes S-Klasse, und wieviel einen VW-Passat in Deutschland kaufen werden, mag noch halbwegs vorhersagbar sein. Aber welches Auto Herr Meier sich zulegen wird, also eine Prognose auf jedes einzelne Individuum zu stellen, ist von einem ganz anderen Kaliber. Im übrigen würde die Automobilindustrie dem Herrn Heller mehrere Millionen bezahlen, wenn er ihnen den Algorithums auf den Tisch legen würde der sichere Verkaufsprognosen erstellen kann.

Als nächstes habe ich ein ungutes Gefühl mit der Begrifflichkeit der Privatheit in dem Buch. Den historischen Betrachtungen und der Feststellung, dass Privatheit gesellschaftlich kulturell verschiedene Phasen durchgemacht hat, und sicher auch heute einer Veränderung unterliegt, kann ich gut folgen. Aber die Daten und Sprüche, die heute von den Netzbegeisterten auf die diversen Plattformen gehoben werden, sind das wirklich Entäußerungen des Privaten? Auf der Fotostrecke von Meiers mögen innige Familienfotos mit lachenden Gesichtern, Kitschposen von Urlaubsreisen, etc.  ausgestellt sein. Aber der Herr Meier kann privat ein ekelhafter frauenunterdrückender Tyrann sein, d.h., was wirklich zuhause abgeht, stellt er nicht ins Netz. Ist es nicht doch so, dass wir ins Netz bringen, von dem wir meinen, das andere meinen, das könnte unser Privatleben sein? Die Millionen Seiten der Girlies reproduzieren mit ihrem Twittern und dem Layout ihrer Sozialen Seiten aktuell jeweils den Mainstream der Jugendkultur (Kleidung, Musik, Lebensstil). Sie präsentieren sich so, wie sie meinen, dass sie damit am besten ankommen. Was geht in ihrem Innnern vor? Was steht hinter diesen Fassaden? Ich würde mal sagen, wir wissen das nicht. Und die Behauptung, dass die schlauen Algorithmen das wüssten, ist blanker Technikeuphemismus. Die Algorithmen haben als Daten nur den Mist, den Millionen Massenmenschen in die Netzschale werfen, wie sollen sie daraus schlaue Schlüsse ziehen?

Google weiß, welche Anfragen ich stelle, Amazon und andere Internetshops wissen, was ich so kaufe, meine Mails werden analysiert etc. Das ist schon erschreckend, wieviel Daten von mir in Profile einwandern und auf Knopfdruck abrufbar sind, wenn man Zugang zu entsprechender Auswertungssoftware hat. Aber diese Daten müssen interpretiert werden, um von ihnen auf meine Privatheit zu schließen. Wenn ein intelligenter Mensch diese von Maschinen erhobenen Daten auswertet, und nehmen wir an er hat einen gute Menschenkenntnis, dann wird er als Gutachter optimaler weise ein Bild von mir zeichnen, von dem ich  sagen könnte, gut gemacht, da erkenne ich mich wieder, der ist ziemlich weit in meine Privatheit eingedrungen. Der Gutachter kann interpretieren, weil er über sein Wissen als Mensch zu den beobachteten Daten eigene Erfahrungswerte einbringt, die relativ zielsichere Schlüsse erlauben. Der Algorithmus muss in den Daten Muster suchen, er muss sich auf Typähnlichkeiten festlegen, so dass im Ergebnis eine schablonierte Kunstfigur ermittelt wird. Das Programm wird Indikatoren ausspucken, die den Typus kennzeichnen, der mit mir gleiche Konsum-, Lese- und Unterhaltungsverhalten aufweist. Ist damit meine Privatheit aufgedeckt?

Sagen wir mal so, bei den Holländern gibt es den Brauch, keine Fenstervorhänge zu haben, jeder, der vorbeispaziert, sieht, die Möbel, die da stehen, die Kleider, die zuhause getragen werden, vielleicht das Fernsehprogramm das abends läuft, etc. d.h. der Lebensstil, der durch Konsumgeschmack und Ausrüstungsfülle ausgezeichnet wird, kann öffentlich eingesehen werden. Auf einem deutschen Dorf sind bei den Einfamilienhäusern die Vorhänge doppelt zugezogen. Das spießige Interieur kann man sich denken, man sieht es aber nicht. Frage: Haben die Deutschen deshalb mehr Privatheit als die Holländer? Auf jeden Fall manifestieren sich zwei Kulturen im Umgang mit dem Wohnungsfenster.

Das was ganz viele Menschen heute tun (und Heller weist darauf hin, Millionen können sich nicht irren) – sich der Netze zu bedienen, kann nicht als krankhaften Exibitionismus abgetan werden.  Es gibt offensichtlich einen riesigen Bedarf bzw. ein Gefühl für eine win-Situation für diese Zurschaustellung, ohne den die Nutzung der sozialen Medien nicht zu erklären ist. Man und Frau lassen sich weit ins Wohnzimmer schauen, das ist ein Wandel von Privatspäre. Aber es gibt ja noch die Räume, die man nicht von außen einsehen kann. Vorm Schlafzimmer bleibt auch in Holland der Vorhang versperrt.  Privates existiert noch.

 
Veröffentlicht unter Internet | Schreib einen Kommentar

Solidarität mit dem Kampf gegen US-Internetzensurgesetze

Heute am 18.01.2012 schalte ich mal den Hintergrund auf Schwarz, um mich mit den Aktionen zu solidarisieren, die es heute gegen die geplanten Internetgesetze der  USA Sopa und Pipa (vgl. KhanAcademy) gibt.

Siehe:
http://www.spiegel.de/netzwelt/web/0,1518,809499,00.html

Upgrade:

Man kann sagen, was bringts, wenn wikipedia einen Tag lang seine Seite schwarz macht? Die Interessen der Film- und Medienbranche bestehen weiter, Urheberrechtsverletzungen technisch unterbinden zu wollen (wie z..B. in der taz vom 19.1.12). Natürlich hat es auch einen Nulleffekt, wenn Heinos Netzblog einen schwarzen Hintergrund geschaltet hat. Ich denke, diese gebündelten Aktionen haben sehr wohl Aufmerksamkeit erzeugt. Wenn die deutsche Blogszene da nicht mit gespielt hätte, wäre die Berichterstattung darüber nicht in die deutsche Tagesschau gekommen. Damit wird nichts verhindert, aber eine Diskussion um die freien Rechte im Internet bleibt am Köcheln, und sie ist sicher nicht einfach, wenn man z.B. an mögliche Kollateralschäden bei der Bekämpfung von Kinderpornografie im Internet denkt. Mir fehlt die Expertise, um über die beiden geplanten Gesetze im Detail  diskutieren zu können, aber die wohl angedachte Mithaftung von Informationsbereitstellern im Falle eines „illegalen“ Links betrifft einen auch als kleiner Blogger.

Beispiel: um mich der riesigen Spammenge zu erwehren, die täglich auf meine Kommentarfelder prasselt, nutze ich inzwischen das einzig wirksame Anti-Spamprogramm Aksimet. Aksimet ist eine amerikanische Firma, die natürlich jeden Kommentar, der kommt, abgreifen muss, um zu prüfen, ob die IP des Senders in seiner Spamdatei ist. Wenn ja, wird er als Spam indiziert. Jede IP, die bei mir anfragt, muss bei dieser Prozedur von der Firma gelesen und gespeichert werden, was nach deutschem Datenrecht nur mit Einwilligung des Besitzers der IP legal ist. D.h. rechtmäßig müsste ich in meinem Kommentarfenster noch einen Bestätigungslink anbringen, dass der Kommentierende sich einverstanden erklärt, dass seine IP kurzfristig gespeichert wird.  Ich frage Euch, wer hat dann noch Lust einen Kommentar abzugeben? Also verzichte ich auf dieses Kästchen, und öffne damit meine Tür irgendeinem gewissenlosen Kanzeleibetrieb, der sein Geld durch Abmahnungen von kleinen Internetbetreibern verdient. Das Beispiel ist ganz typisch für die schwierige Rechtssituation in offenen Netzen. Ich finde es gut, dass nicht jeder meine IP einsammelt, wenn ich irgendwo surfe und lese, dass dies per Gesetz verboten wird. Aber im Kontext meines freien Kommunikationsangebotes ist diese Bestimmung kontraproduktiv. (Wenn es allerdings die übrigens zu 99% aus den USA (angelsächsischer Bereich)  stammenden Spams nicht gäbe, bräuchte ich Aksimet nicht).

 
Veröffentlicht unter Internet | Schreib einen Kommentar

Kreide und Schwamm waren gestern (?)

 

 

 

 

Im zitierte Onlineartikel und stärker noch in der erweiterten Printfassung in der taz vom 16.1.12 ergießt sich Christian Füller in pädagogischer Technikeuphorie. Ja, es gibt die wenigen Schulen und Lehrer, die mit ihrem Avantgardegerät in die Schlagzeilen kommen. Und den Schülern mag das gefallen, und die Ergebnisse dieser Einzelfälle mögen ganz ordentlich sein (dass die Tablets in die Schulen fluten, ist allerdings ein Euphemismus). Das sollte aber nicht den Blick dafür vernebeln, dass es auch einige medial  „konventionelle“ Lehrende gibt, die ebenfalls ihre Schüler begeistern, und die Klasse zu ebenso guten Leistungen führen. Vom Medium allein gehen keine Wunder aus.

Wenn man über die Rolle der Lernmedien reflektiert, dann sollte eigentlich das Prinzip gelten, erst kommt die pädagogische Aufgabe, und dann überlegt man sich ein Lehr-/Lernkonzept und dazu gehört schließlich die Frage, mit welcher medialen Unterstützung diese Aufgabe am besten einzulösen ist. Die um Absatz bemühte IT-Branche verkehrt seit Jahren dieses here Prinzip. Sie präsentiert Hardware, die häufig für ganz andere Zielbereiche konzipiert war, und geht damit auf Bildungsmessen hausieren (weil sie Absatzfelder sucht). Schnell entsteht dann der Eindruck, hier haben wir die modernen Medien, und dort sind die dummen Lehrer, die damit nicht umgehen können.

Der PC z.B. war eine Universalmaschine, deren Umgang erst erlernt werden musste, und die erhebliche Kompetenzen abverlangt, methodischer und technischer Art, bevor damit ein „guter“ Unterricht gemacht werden kann. Das Tablet wurde von Steve Jobs nicht für Schulen konzipiert, es sollte ein Kult- und Spassgerät werden, mit dem der Nutzer in den Applemarkt gezogen wird. Hunderte Millionen Nutzer kaufen mit einem kleinen Appsklick eine Anwandung oder ein Musikstück für wenig Geld, was in der Masse aber gewaltigen Umsatz bringt. Das Tablet ist genial, es hat einen Sog zum rumgucken im Internet. Schüler, die im Prinzip erst mal wenig Bock auf Schule haben, wenn die so ein Gerät vor die Nase bekommen, sollte ihnen niemand verdenken, dass sie in sozialen Netzen spazieren gehen, kultigen Konsumgegenständen nachschauen, trendige Fangemeinschaften aufsuchen, etc. Die arme Deutschlehrerin, die sich engagiert darum bemüht, etwas Zeitgenössisches aus der klassichen Literatur zu destillieren, wird 2/3 ihrer Energie aufwenden müssen, den Ablenkungsgehalt dieses Fungerätes bei ihren Schülerinnen einzudämmen. Und indem sie das tut, wird der Unterricht mit dem Tablet überhaupt nicht mehr spannend, der Reiz ist fort.

Bei einem e-Reader sieht die Sache schon anders aus. Er ist nichts anderes, als die elektronische Form eines Buches mit der Möglichkeit, Annotationen in die Wolke zu schicken, so dass eine Kommunikation über die persönlichen Anmerkungen in Schriftform möglich ist. Wer liest, wird von der Maschine nicht abgelenkt. Man müßte mal eine Ökobilanz aufmachen, ob ein e-Reader über alle  Schuljahre weniger klimaschädlich ist, als der Durchsatz vieler Lehrbücher in den Schuljahren. Und ich bin mir ziemlich sicher, dass der e-Reader bei den Kids nicht sonderlich gut ankommt, denn man kann mit ihm nicht spielen.

Beim Whiteboard sollte man sich auch fragen, ob der technische und energetische Aufwand dem geringen pädagogischen Mehrwert entspricht. Dass das Geschriebene gleich irgendwo steht, muss kein Vorteil sein, ich habe viel gelernt, als ich meine Vorlesungsmitschriften zuhause noch einmal selbt reformulieren mußte, oder dass ich mir zu Schulzeiten ein Heft anlegte, in das ich das Gehörte und Diskutierte noch einmal eingetragen habe. Dieses Gerät scheint mir im Businessbereich sinnvoll zu sein, hier muss man imponieren, man will Informieren, über ein Produkt oder über Prozesse. Da soll nicht gelernt werden, sondern Anweisungen sollen schnell mit an den Arbeitsplatz genommen werden können.

Es gibt kein „digitales Lernen“. Gelernt wird immer noch durch soziales Handeln, diskutieren, Aneignungen,  Veränderungen, die im Kopf statt finden. Und das Internet ist kein Lehrer, sondern nur ein Abstellraum für Content. Die Erschließung des Kontents muss vom Lerner aus erfolgen. Und der moderne Lehrer als Lernberater steht optimalerweise physisch neben dem Lernenden und suboptimaler weise fungiert er aus der Ferne über Mails oder soziale Netze in Kommentarform.

 
Veröffentlicht unter Allgemein, e-learning, Internet | 2 Kommentare

Blogsphere unterbelichtet

Learning by doing – ist meine Devise.  Was macht einen Blogger aus? Was gibt es an (deutscher) Literatur dazu? Kaum was.  Also schaue ich mich mal selber um. Auf Anhieb finde ich 5 deutsche Blogverzeichnisse, d.h. Seiten, die tausende von Blogs nach Kategorien auflisten. Vorbildlich wird auf blogoscoop Statistiuk geführt und hier sind die ersten 5 meistgelesenen Blogs:

In diesem Blog geht es um technische Hilfestellung, ein C’t auf Blogebene.

 

Ideal für Konsumenten von „ich bin doch nicht blöd“.

Hier wird die BILD-Zeitung gegen den Strich gelesen, und auf Fehler hingewiesen.

 

Sartire Zeitschrift, hier wird Politik schön verballhornt, sehr fleißig von einem Autor.

 

Regenbogenpresseblog für Dummies

 

 

 

Dieses Ranking ist sicher nicht repräsentativ, weil das Blogverzeichnis nur einen Teil der deutschen Blogs erfasst, aber immerhin spiegelt es wohl Nutzerdominanzen. Stichwort Internet rangiert auch in anderen Statistiken hoch, deshalb belegt das den ersten Platz. Das Internet als große Kaufhilfe per e-bay, amazon, etc. ist auch bekannt, deshalb der 2. Rang fürs Schnäppchenblättchen. Über den 3. Rang, die Bild-Kritik habe ich mich gefreut, es gibt doch viele Leute, die sich für die Bild-Lügen interessieren. Und auch der Postillion zeigt den an Politik interessierten Nutzer, der Unterhaltung dabei sucht. Dass die Fangemeinden des Showbusiness im Internet stark vertreten sind, ist unvermeidbar, die Girlies schaffen es auf Platz 5.

Zur thematischen Verteilung gibt eine Statistik aus dem Blogverzeichnis Bloggerei (vom9.1.2012) Auskunft. Am meisten tauchen dort die Internetblogs auf, die nahezu rangleich mit den Privateblogs sind, gefolgt von den Computerblogs, Freizeit, Wirtschaft, Reisen, Hobbys ..

In einer Studie von 2008 kommen die Autoren bettina berendt / martin schlegel / robert koch in:
„Die deutschsprachige Blogosphäre: Reifegrad, Politisierung, Themen und Bezug zu Nachrichtenmedien“ zu dem nüchternen Fazit: „Die Ergebnisse lassen darauf schließen, dass populäre deutschsprachige Blogs derzeit (noch) v.a. von Freizeit und
semiprofessionellen Bloggern mit relativ wenig Interesse an Politik und Medienanalyse betrieben werden, im Gegensatz zu den politisierten und oft von professionellen Bloggern gestalteten populären us-amerikanischen Blogs.“ Das gilt wahrscheinlich heute noch. Im vorigen Jahr hat die FAZ eine Kontroverse über politischen Möglichkeiten der social media der amerikanischen Blogger Evgeny Morozov und Clay Shirky in ihren Spalten abgedruckt. Unsere Bloggsphere setzt keine öffentlichen Themen, sondern verarbeitet sie.

Der in den USA bekannte Blogger Jeremiah Owyang berichtet berteits vom Niedergang der Tech-Blogspehre: End of an Era: The Golden Age of Tech Blogging is Over seine Thesen:
Trend 1: Corporate acquisitions stymie innovation
Trend 2: Tech blogs are experiencing major talent turnover
Trend 3: The audience needs have changed, they want: faster, smaller, and social
Trend 4: As space matures, business models solidify (erstarren)–giving room for new disruptor.
Diese Punkte treffen mit Ausnahme des 3. sicher weniger auf Deutschland zu. Vielleicht geht es ja bei uns noch aufwärts. Wenn man die Kommentare zu diesem Beitrag von Owyang liest, dann kann man angesichts der Menge und der Qualität nur neidisch auf das USA-blogging werden.

Das Charakteristische des Bloggens als soziales Medium ist mir bislang nicht klar – dazu wären Kommentare erwünscht, und weitere Überlegungen und Erfahrungen werden bestimmt folgen.

 

 
Veröffentlicht unter Allgemein, Internet | Ein Kommentar

Anonymus – Robin Hoods im Netz?

Auf  Internetplattformen sammeln sich Communities, und wer dort was hinterlässt, kann das unter seinem Namen tun, mit eigenem Bild oder mit Avatar, er kann es unter seinem Nicknamen tun, oder er kann, wenn die Plattform es zuläßt, überhaupt keine Signatur hinterlassen. Die Softwareentwickler haben dafür den Index „Anonymous“ gesetzt. Oft werden aus Schüchternheit unter der Maske Anonymität Beiträge gepostet, oder weil der Autor bewußt nicht erkannt werden will, was aber auch als Tarnung für bösartige Beiträge nutzbar ist. D.h. die Gemeinde der Anonymen ist allgemein ein schillerndes Häufchen. Seit einiger Zeit versteht sich aber eine Art Protestbewegung als Anonyme, die etwas Robin Hood like sich als Aufklärer, Enthüller gegenüber Wahrheits- und Freiheitsunterdrückung verstehen (vgl. Wikipedia). Das Symbol der Anonymen ist die Maske aus dem Film „V wie Vendetta“ (2006), in dem der Antiheld V eine böse Diktatur, die besonders die Medien und Pressefreiheit unterdrückt bekämpft.

Auf vielen Plattformen diskutieren „Anonyme“ z.B. http://www.whyweprotest.net/. Auch wenn hier im Forum alle schöne Nicknamen und wilde Avatars haben, wird doch betont, dass da nichts Illegales läuft. Die öffentlichen Anonymous-Plattformen sind eine Cyberprotestbewegung mit unterschiedlichen Themen. Damit die Themenvielfalt nicht zu groß (wir sind gegen alles) wird, weist man in der Netikette darauf hin, nicht neue Threads anzulegen.

Hier ein Beispielvideo, dass sich gegen die Internetzensur in den USA richtet, das auch als typische Anonymousaktion angesehen werden kann.

Man kann davon ausgehen, dass die jeweiligen Aktionen, die unter dem Namen Anonymous ausgeführt werden, von unterschiedlichen Gruppen sind, und dass es keine Struktur/Hierarchie oder Führung in dieser Bewegung gibt. Jüngste Aktion (Weihnachten 2011) war eine Hackerattacke gegen die Sicherheitsberatungsfirma Stratfor in den USA, die das Pentagon, Geheimdienste und die Rüstungsindustrie als Kunden hat. Ganz nebenbei wurden die Daten von Checkkarten entwendet und damit größere Überweisungen an Wohltätigkeitsorganisationen überwiesen.

Wie stellt man sich zu diesen Netzpiraten? Als die RAF ihren Irrwitz in Deutschland trieb, gab es einige „klammheimliche“ Sympatisanten, die bei späterem Nachdenken ins Zweifeln kamen. Nun bringt Anonymous keine Leute um, sondern hackt eben ein bisschen in fremden Rechnern von ungeliebten Organisationen, demonstriert schick vermummt, und verfolgt in Vielem kritische Ziele, die man als kritisches Subjekt voll teilen kann. Auch Bürgerinitiativen wie z.B. gegen die Castortransporte schlingern mit ihren kreativen Aktionen am Rande der Legalität. Brave Proteste werden von den Medien ignoriert, man muss schon irgendwo Dampf ablassen.

Jüngerer Dampf wurde z.B. durch die Veröffentlichung gehackter Daten von Neoaziorganisationen in Deutschland produziert. Unter nazi-leaks.net kann man Privatadressen und Namen öffentlich einsehen, von Kunden oder Mitglieder rechtsorientierter Einrichtungen. Die ganz feine Art, wie man da mit persönlichen Daten umgeht, ist das nicht, egal, was die entsprechenden Personen denken und was nicht.

 

Früher war vielleicht ein Hacker ein liebenswerter Nerd, der seinen ganzen IT-Ehrgeiz darin schulte, Sicherheitslücken in Hochsicherheitstrackten zu entdecken, dort einzudringen, um dann zu sagen, „I was here“. Heute, wie man hört, ist die Entdeckung von Sicherheitslücken viel Geld wert und es gibt weltweit operierende mafiöse Clans, die mit der Hackerei richtig Kohle machen. Vielleicht ist eine Anonymousaktion ein „Greenwashing“ von kriminellen Insidern, die etwas Gewissensentlastung brauchen? Mir ist jedenfalls bei den Anonymen nicht ganz wohl zumute. Eine soziale Opposition, die kein Gesicht hat, kann eigentlich keinen Rückhalt haben – oder? Kommentare erwünscht.

 
Veröffentlicht unter Internet | 10 Kommentare

Die Krux mit den Datenspuren

Die wesentliche aktuelle Internetkritik hängt damit zusammen, dass immer mehr Aktivitäten bei einem immer höheren Vernetzungsgrad im Internet möglich sind, und dass bei jeder Aktivität sowohl die Einzelaktion als auch die Verknüpfung mit der Umgebung auf Datenbanken festgehalten werden kann. Lieschen Müller kauft bei Amazon, googelt nach Diversem, zeigt bei facebook ihren 200 Freunden Urlaubs-, Familien- und Berufsfotos. Sie bucht Ihre Reisen bei Opodo, woanders bucht sie Musicals und in google-Mail hat sie Kalender, Kontakte und viele Adressen. Wenn Lieschen in einem Callcenter, das vielleicht in Indien liegt sich nach einem neuen Provider für ihr Handy erkundigt, gibt der gut deutsch sprechende Inder ihren Namen in seine spezielle Firmensoftware ein, und schon hat er ein Profil von Lieschen, ob sie kreditwürdig ist, welche Vorlieben sie hat, wo sie sich vermehrt aufhält, etc. Lieschen merkt davon nicht, und wundert sich nur, wie passgenau ihr ein Angebot unterbreitet wird. Algorithmen machen es möglich, aus riesigen Datenmengen Cluster zu formen und Zuordnungen zu berechnen.

Das ist nicht Utopia, sondern heutige Realität. Die ungeklärte Frage ist nur, wie dramatisch ist das, und wie stark verändert so etwas den Kit der Gesellschaft?

Das Internet ist öffentlicher Raum, und ein Charakteristikum von Öffentlichkeit ist, dass sie öffentlich ist! Z.B. war das soziale Zusammensein in der Provinz immer etwas, das von vielen Augen bewacht wurde. Fast noch heute flanieren auf italienischen Plazzas die Jugendlichen. Man sieht, wie wer gekleidet ist, wer mit wem zusammen ist, wo eingekauft wird, man weiß sogar die Schulnoten, man kennt die illegalen Romanzen der Dorfgalane, etc. Der Provinztyp ist quasi eine nackte Person, die nichts tun kann, ohne observiert und kommentiert zu werden. Dennoch gibt es einen großen Unterschied zum Internet. In der Provinzöffentlichkeit wissen etliche etwas mehr als andere, aber im Prinzip wissen alle alles. Im Internet wissen ganz wenige „alles“ und alle wissen eigentlich nichts.

Der sozialen Überwachung zu entgehen war auch ein Antrieb in die großen Städte zu wechseln, wo all diese Kontrolle in der Anonymität der Masse verschwand. Aber gesichtslos ist der Großstädter auch nicht. Hier glaubt der Einzelne selbst zu bestimmen, welche Signale er in die Öffentlichkeit abgibt. Wer Fahrrad fährt, wer joggt, wer mit großem Hut flaniert, wer aus einem hoch poliertem SUV steigt – sie alle tragen ein Stück ihres Profils nach außen. Genauer betrachtet, ist das, was die Einzelnen preisgeben, aber auch nicht ganz unter ihrer Kontrolle. Der Stadtkämmerer, der beim Aldi gesehen wird, mag diese Entäußerung weniger. Eine Hausadresse, die das soziale Umfeld belegt, kann nicht verborgen bleiben, etc.

Aus modernem, individualistisch geprägten Denken wünschen wir also durchaus privat geschützte Räume, in die weder der Staat, noch der Arbeitgeber noch die Nachbarn hineinschauen können. Die Großstadt als adäquater Raum moderner (westlicher) Gesellschaften scheint den Vorzug zu haben, dass jeder (in Grenzen) sich soweit veröffentlichen kann, wie er will, und nicht wie ihm die übrige Öffentlichkeit vorschreibt. Diese Kontrolle, meinen Öffentlichkeitsraum selbst zu bestimmen, habe ich im Internet nicht mehr.

Facebook-Lieschen glaubt, selbst zu bestimmen, was sie von sich preis gibt, aber die eingangs gezeichneten Mechanismen des allgegenwärtigen Datensaugens und der Algorithmierung aller Datenpartikel lassen diesen Glauben zur Illusion werden.

Fazit, wie man es auch wendet, der öffentliche Internetraum hat in unserer Erfahrung keine Parallele, so dass wir nur zwei Szenarien zur Entscheidung haben:

a) Wir könnten versuchen, diesen Raum wieder abzuschaffen (oder als Einzelner, sich ihm verweigern) und

b) Wir können das Internet akzeptieren und lernen, wie wir uns relativ unbeschadet darin bewegen können.

Ich unterstelle mal mit meinen beschränkten intellektuellen Möglichkeiten, dass a) nicht realistisch ist, und b) scheint mir eigentlich lösbar und wünschbar.

Das Dilemma von Facebook (als Prototyp für den Internetraum) besteht darin, dass, was den Individuen gut tut, zugleich höchst wertvoll für den Verwertungsprozess ist. Das Gebaren der Einzelnen, wird zur gut verkäuflichen Ware für den Bereitsteller des Showrooms. Das ist der Preis dafür, eine offene Kommunikation zu haben. Neben den vielen bekannten Vorteilen für den ständigen Zugriff auf verstreute Information ist die niedrigschwellige Kommunikation im Netz ein großes Potential für die Aufnahme von Neuem. Der viel geschmähte „Freund“ in facebook ist potentiell die gesellschaftlich legitimierte Öffnung gegenüber dem Fremden. Nun darf jemand in unsere Tür treten, den wir nicht kennen, und wir können empfänglich sein, für das, was er mitbringt. Und wenn er oder sie „nichts“ bringt, dann stört das kaum, und wenn es stört, schlägt man die Tür wieder zu. So offen kann eigentlich nur virtuelles soziales Handeln sein, im realen Fall wäre das zu gefährlich, zu aufwändig.

Gäbe es in meinem Internetraum nichts zu sehen, nichts zu erfahren, kämen keine Fremden herein. D.h. Dieses Prinzip für Neues offen zu sein, funktioniert nur mit einem gewissen öffentlichen Exhibitionismus. D.h. Zur Schaustellung und neues Kennenlernen bedingen sich. Gebe ich mehr von mir preis, kann die Krake mehr Daten sammeln. D.h. Neues kennenlernen und verwertbare Daten preisgeben, bedingen sich ebenfalls.

Wer im Netz kommuniziert, trägt einen Datenwert, das bringt ihn in die Rolle eines VIPs, den die Paparazzi verfolgen. Und wie unsere Politiker und Stars gelernt haben, sich glänzend in der Öffentlichkeit zu präsentieren, obwohl ihre Daten unerbittlich gesammelt, gebündelt und aufbereitet werden, so muss jeder Internetuser wissen, wie er sich zu seinem Nutzen präsentiert.

Sofern man nicht in einer Diktatur lebt, läuft der Großteil der Datenalgorithmierung darauf hinaus, mich zu einem gefügigeren Konsumenten zu machen. Dagegen hilft kritische Distanz gegen alles, was mir automatisch vom Netz her empfohlen wird. Selbst bei der Googlesuche, muss ich unterstellen, dass der erste Treffer ein Reinleger ist, den soll ich ziehen, aber nein, Googlekrake, den ziehe ich nun gerade nicht! U.s.w.

Wenn bislang nur über die Kommunikationspotentiale und -Gefahren diskutiert wurde, darf nicht übersehen werden, dass ein weiteres Problem im Medium steckt, das der Parallele des realen öffentlichen Raumes nur bedingt entspricht. Ein öffentlicher realer Raum, in dem nicht gerade Nazihorden und andere Kriminelle Areale verunsichern bzw. besetzt halten, gibt es so etwas wie einen gleichen Zutritt. Jeder kann zu jeder Stelle des Raumes gelangen. Gut, wer mehr Geld hat, kann sich in größeren Räumen bequemer bewegen. Im Internet ist nicht das Geld die Barriere (das könnte allerdings noch kommen, wenn die meisten Dienste Geld verlangen), sondern der Verstand. Wissen aus dem Netz zu ziehen, den Konsumverlockungen Eigenes gegenüber zu stellen, setzt Wissen voraus. Diejenigen, die durch Bildungsmangel sich im Netz nicht bewegen können, sind abgehängt. Die Netzklassengesellschaft zerteilt die User in tumbe Konsumenten der Angebote und in produktive Nutzer der Räume. Gegen dieses Phänomen hilft nur Bildung. Je wichtiger das Netz gesamtgesellschaftlich wird, desto schädlicher wirkt es auf die unqualifizierten Bildungsrandständigen.

 
Veröffentlicht unter Internet | Schreib einen Kommentar

The Evolution of God

Im Netz bin ich über das Buch „The Evolution of God“ von Robert Wright gestolpert. Religion als Opium fürs Volk find ich einleuchtend. Der Autor berichtet nun etwas differenzierter  darüber.  Wright gehört zu den Optimisten. Seine These ist, dass die Erzählungen aller Religionen sich ähneln und gesellschaftlichen Kit darstellen. Historisch und aktuell zu findende Intoleranzen zwischen Religionen sind nur das Ergebnis äußerer Machtstrukturen, d.h. je nach Lage, wird Religion eingespannt. In der Bibel und im Koran sind beiderlei Zitate zu finden: killt die Andersgläubigen oder lebt in Frieden mit ihnen. Andere „reinere“ Atheisten, wie z.B. Richard Dawkin in „The God delusion“ sind bzgl. des clash of civilisation extremer, sie unterstellen den Religionen den imanenten Hang zur Vertilgung der Andersgläubigen, zu Brutalität, Verdummung und Machterhalt.

„The Evolution of God“ von Wright hat leider 540 Seiten und gibt es nicht auf Deutsch. Hier ist ein informatives Interview mit dem Autor geführt:

A conversation with author Robert Wright

with Robert Wright
in Books
on Wednesday, August 19, 2009 * * * * *

An examination of religion with Robert Wright, author of „The Evolution of God“
 
Veröffentlicht unter Allgemein | Schreib einen Kommentar