Planet Spackeria

October 11, 2014

ctrl+verlust

Release!

Wir sind draußen!

flattr this!

September 29, 2014

ctrl+verlust

Die Struktur des Kontrollverlusts

Das Neue Spiel - BuchcoverEs ist soweit. Am 11. Oktober 2014 wird mein Buch “Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust” erscheinen. Ich hatte hier auf dem Blog noch während der Crowdfundingkampagne die damals geplante Inhaltsangabe gepostet. Schon wenige Wochen später habe ich sie allerdings bereits gekürzt. Das war aber nicht die letzte Änderung. Im Grunde hat sich die Struktur ab da noch zwei bis drei mal geändert. So ist das nun mal, wenn man unerfahren und blauäugig wie ich in den Schreibprozess geht. Hey, es ist mein erstes Buch!

Nun, da das Buch ja im Druck ist, halte ich es für einigermaßen sicher genug, eine aktuelle Version der Inhaltsangabe vorzustellen. Im Grunde musste ich inhaltlich recht wenig Abstriche machen. Alles, was ich sagen wollte, ist drin. Manches vielleicht etwas kürzer als geplant, manches als Unterpunkt von Hauptkapiteln etc. Aber im Großen und Ganzen ist alles wesentliche zum Thema gesagt und die Inhalte aus den vorherigen Inhaltsverzeichnissen finden sich beinahe alle im Buch wieder.

Und wisst ihr was: ich mag die Struktur, wie sie jetzt ist. Sie ist sehr viel klarer und auf den Punkt als geplant und vor allem als ich mir das damals habe vorstellen können.

Geblieben ist die Zweiteilung: Der erste Teil ist eine umfassende Theorie des Kontrollverlusts seiner Ursachen und seiner Wirkung auf die Gesellschaft. Von den technischen Grundlagen, über medientheoretischen Überlegungen, bis hin zu ökonomischen Effekten ist darin alles abgehandelt. Der erste Teil erklärt, was die letzten Jahre passiert ist, wo wir uns befinden und warum wir uns dort befinden. Der Leitfaden ist dabei immer der Kontrollverlust, bzw. seine drei Treiber, die sich als rote Fäden durch alle Kapitel ziehen. Die Kapitel bauen stark aufeinander auf und verknüpfen gleichzeitig sehr unterschiedliche Thematiken miteinander. Das ist anspruchsvoll, aber ich habe mir sehr viel Mühe gegeben, alles so einsteigerfreundlich und niedrigschwellig wie möglich zu schreiben.

Der zweite Teil sind dann ausschließlich die Regeln des neuen Spiels. 10 Stück sind es geworden. Aber anders als die 10 Thesen vor einem Jahr versuchen die Regeln konkrete Wirkmechanismen zu reflektieren. Genauer: die Wirkmechanismen, die sich durch die Digitalisierung geändert haben und wegen denen wir von einem Neuen Spiel sprechen können. Entlang dieser Regeln versuche ich immer ein paar Strategien abzuleiten, die im Neuen Spiel hilfreich sein könnten, bzw. darauf hinzuweisen, welche Strategien aus dem alten Spiel immer schlechter funktionieren. Die zehn Regeln erklären sich (hoffentlich) erschöpfend aus dem ersten Teil, weswegen ich hier weniger erklärend, sondern eher manifestartig schreibe.

Das Buch schafft es, die vielen verstreuten Überlegungen zum Kontrollverlust, die sich in den vier Jahren dieses Blogs ansammelten in einen (für mich) konsistenten Bogen zu spannen und darüber hinaus einige weiterführende Überlegungen anzuknüpfen. Völlig unabhängig davon, wie kommerziell oder publizistisch “erfolgreich” es schließlich sein wird: das ist alles, was ich wollte. Und ich bin sehr glücklich darüber, dass es gelungen ist.

Vorwort 7
Zur Entstehung des Buchs 11

Teil I: Der Kontrollverlust

Kapitel 1 | Die drei Treiber des Kontrollverlusts 15
Kapitel 2 | Das Ende der Ordnung 39
Kapitel 3 | Die Krise der Institutionen 71
Kapitel 4 | Aufstieg der Plattformen 99
Kapitel 5 | Infrastruktur und Kontrolle 127
Kapitel 6 | Plattform vs. Staat 139

Teil II: 10 Regeln für das Neue Spiel

Das Neue Spiel hat begonnen 153
0 – Es gilt das Neue 157
1 – Du kannst das Spiel nicht gegen den Kontrollverlust spielen 162
2 – Die Überwachung ist Teil des Spiels 167
3 – Wissen ist, die richtige Frage zu stellen 179
4 – Organisation und Streit für alle! 187
5 – Du bist die Freiheit des Anderen 198
6 – Macht hat, wer die Plattform kontrolliert 204
7 – Staaten sind Teil des Problems, nicht der Lösung 213
8 – Datenkontrolle schafft Herrschaft 221
9 – Der Endgegner sind wir selbst 231

Literaturverzeichnis 241
Stichwortregister 247
Dank 253

In diesem Sinne:

Kontrollverlust-is-coming-Kopie

flattr this!

March 27, 2014

Spackeria

Fototagging ist Datenkontrolle

Nach Google+ und Facebook kann man nun auch bei Twitter Personen auf Fotos taggen – also an den Tweet dranhängen, welche @twitterer auf dem Bild zu sehen sind.

Im Gegensatz zu G+ und Facebook kann man aber nicht direkt klicken welches Gesicht zu welchem Mensch gehört. Und natürlich kann man auch die Person Gumbo Fröhn taggen, obwohl da eigentlich Limbo Uffnick zu sehen ist, denn im Grunde ist die Funktion nur eine neue Art, jemanden zu mentionen.

Es findet nämlich keine Gesichtserkennung statt und so spart das eigentlich nur Zeichen, weil man die Abgebildeten nicht mehr separat erwähnen muss – die Tags gehen nicht mehr von den 140 Zeichen ab. Eigentlich muss Twitter nur aufpassen, dass es dabei Blocklisten usw. berücksichtigt, damit man nicht über eine Hintertür belästigt wird.

Ich finde sowas ja toll. Wenn man mich auf Fotos taggen kann und – wichtig! – ich darüber informiert werde, dann weiß ich, wo Bilder mit mir in der Öffentlichkeit rumschwirren. Ich kann mich dann drüber freuen. Oder, wenn jemand damit Mist baut, habe ich dadurch die Möglichkeit, den Rechtsstaat draufzuwerfen.

Das man mich auf Fotos in sozialen Netzwerken taggen und markieren kann gibt mir also ein Stück Kontrolle über meine Daten zurück. Das ist doch super. Noch superer wäre aber, wenn die Anbieter eine solche Funktion automatisieren und mich per Gesichtserkennung über die Veröffentlichung von Bildern mit mir drauf informieren müssten.

Ich hätte gern einen wöchentlichen Digest von G+, Facebook, Twitter und Co. mit “Es wurde hier, dort und da ein Bild veröffentlicht, auf dem vermutlich Du zu sehen bist. Bitte klicke hier, um das Bild zu sehen. Du möchtest auf dem Bild nicht veröffentlicht sein? Bitte klick hier, um das Bild zu melden und Dein Gesicht zu verpixeln”. Naja, oder so in der Art.

Wenn es diese Technik der Gesichtserkennung nun mal gibt müssen wir irgendwie lernen, damit umzugehen und dann wäre es doch besser, mir Möglichkeiten zu geben, dem vermeintlichen Kontrollverlust gegenzusteuern und meine informationelle Selbstbestimmung tatsächlich wahrnehmen zu können.


February 03, 2014

the gay bar

“The cyborg society in the #postprivacy era” Hangout

Yesterday I was invited by the German Cyborgs e.V.i.Gr. society to their weekly hangout session to talk about postprivacy. There is a recording of the discussion on Youtube:

Excuse my lack of shaving and the multitute of ways I butchered the English language.

flattr this!

January 23, 2014

ctrl+verlust

Das neue Spiel – Nach dem Kontrollverlust

Seit einem Monat betreibe ich nun das Crowdfundingprojekt zu dem Buch, das ich zu schreiben vorhabe: »Das neue Spiel – nach dem Kontrollverlust«. Es ist jetzt schon das vierterfolgreichste Crowdfunding-Buchprojekt in deutscher Sprache. Und das, obwohl noch gar nicht so klar ist, was genau der Inhalt des Buches sein wird. Das möchte ich nun ändern und hier offenlegen, was ich vor habe. (Ich habe tatsächlich bis jetzt gebraucht das im Detail auszuarbeiten, deswegen kommt das so spät.)
banner_kleiner

Hier zunächst die vorläufige Gliederung*:

Einleitung
Teil I. Kontrollverlust

Die drei Treiber des Kontrollverlusts

  • - Was ist der Kontrollverlust?
  • - Es gibt kein analoges Leben im Digitalen
  • - Streisand und ihre Schwestern
  • - Die Krankenakte des Tutenchammun

Das Ende der Ordnung

  • - Aufstieg und Fall des Archivs
  • - Die 3 Grundgesetze des Digitalen
  • - Queryology

Nach der Privatheit

  • - Was ist Post-Privacy?
  • - Diagnose, Utopie, Lebensstil
  • - Informationhiding als Mikropolitik

Die Krise der Institutionen

  • - Die Kontrollrevolution
  • - Das Partizipations-Transparent-Dilemma
  • - Weltkontrollverlust

Aufstieg und Funktion der Plattformen

  • - Vom Netz zu Google vs. Facebook
  • - Eigentum, Sex, Cloud
  • - Die Ökonomie und Ökologie der Plattform
  • - Regulierung und Schließung

Eine Utopie in Trümmern

  • - Hoffnung auf Holzwegen
  • - »Ich hab doch nichts zu verbergen«
  • - Game Over

Teil II. Das Neue Spiel

Neues Spiel, neues Glück

  • - Hashtagrevolution
  • - Die digitale Aufklärung
  • - Neues Spiel, neue Trolle

Umkehrung der Öffentlichkeit

  • - Distributed Reality
  • - Das radikale Recht des Anderen
  • - Filtersouveränität

Überwachung und Privatsphäre

  • - Überwachung und Post-Privacy
  • - Der Kampf gegen die Strafregime
  • - Die Antiquiertheit der Disziplinarregime

Plattformneutralität

  • - Politik in Zeiten des Kontrollverlusts
  • - Dezentrale Social Networks
  • - Das politische Denken der Plattformneutralität

10 Regeln im neuen Spiel

  • - 1. Man kann das Spiel nicht gegen den Kontrollverlust spielen.
  • - 2. Macht hat, wer die Plattform kontrolliert
  • - 3. Wissen ist, die richtige Frage zu stellen.
  • - …

Was tun als …?

  • - Politik?
  • - Staat?
  • - Gesundheitssystem
  • - Wirtschaft?
  • - politischer Aktivist?
  • - Privatmensch?

Nach dem Kontrollverlust

  • - Geht der Kontrollverlust vorbei?
  • - Digitaler Feudalismus
  • - Ein Tag im Jahr 2025
  • - Gesellschaftliche Singularität

Editional

* * * * * * * * * *

Das Buch gliedert sich als in zwei Hauptteile: Im Ersten geht es darum, den Kontrollverlust und was er mit der Welt macht, zu verstehen. Im zweiten Teil soll es darum gehen, aus diesem Wissen Regeln abzuleiten – das neue Spiel zu verstehen – um es zu spielen.

Teil I

Wir gehen sofort in medias res. In »Die drei Treiber des Kontrollverlusts« wird der Kontrollverlust anhand von Beispielen seiner Wirkung analysiert. Die drei Treiber: 1. die Verdatung der Welt, 2. die Beschleunigung der Datenströme und 3. die steigende Aussagekraft der Daten durch unvorhergesehne Verknüpfungen werden anhand von Beispielen wie dem Aufstieg und Fall von Wikileaks, den Programmen der NSA-Spionage, sowie anhand von Einzelbeispielen deutlich gemacht.
(Siehe dazu meinen SPEX-Artikel und Kontrollverlust)

Noch ist der Kontrollverlust eine These. In »Das Ende der Ordnung« wird daraus eine Theorie. Es wird die Entwicklung der Medientechnologie nachgezeichnet und gezeigt, wie seit Erfindung des Computers nicht mehr die Wirkung der Aufzeichnungsgeräte gesellschaftlich bestimmend ist, sondern wie sich mit dem Aufstieg der Query – der Abfragesysteme, wie moderne Datenbanken bishin zu Big Data – das Medienverhältnis auf dem Kopf stellt. Statt wie bisher die Ordnung des Wissens zu generieren und zu reproduzieren, kann die Query aus vergleichsweise unstrukturiertem Wissen in Echtzeit Ordnungen erschaffen. Ordnung ist somit nichts Statisches mehr, sondern geschieht im Augenblick der Abfrage.
(Siehe David Weinberger: das Ende der Schublade, Queryology)

Eine sehr offensichtliche Folge des Kontrollverlusts ist das Ende der Privatsphäre. Es gibt verschiedene Konzeptionen von Privatsphäre. Die meisten sind – spätestens seit Snowden – kaputt. In »Nach der Privatheit« fasse ich den aktuellen Diskurs zusammen, aber unterteile die Betrachtung in »Post-Privacy als Diagnose«, »als Utopie« und »als tatsächlichen Lebensstil«. Hier interessieren wir uns zunächst für Diagnose. Ich werde die Geschichte der Privatsphäre kurz anreißen und ihre Funktion in der bisherigen Gesellschaft darzustellen versuchen. Meine These: Die derzeitige Disruption der Privatsphäre wird nur deswegen hingenommen, weil auch ihre gesellschaftliche Funktion weitgehend obsolet geworden ist. Das gilt aber nicht für alle Aspekte des Privaten: ich zeige auf, wo und wie Privatsphäre weiterlebt, sogar hier und da zu einem herrschaftsstützenden Problem wird.
(Siehe auch David Brin: Transparent Society, Christian Heller: Prima leben ohne Privatsphäre und Post-Privacy)

Auf einer höheren Ebene wirkt der Kontrollverlust als eine »Krise der Institutionen«. Statt eingeschalteter Mittelsmänner/Stationen, ermöglicht es die Query Leute, Medien und Interessen direkt miteinander zu verschalten. Durch die daraus sich ergebende zusätzliche gesellschaftliche Komplexität geraten Ordnungsprinzipien, formale Prozesse und damit auch Macht unter Druck und werden unterlaufen, sogar bekämpft. Das hat durchaus prositive, aber auch viele negative Folgen, vor allem aber zwingt es die Gesellschaft dazu, neue Kontrollmechnismen auszuprägen.
(Siehe Dirk Baecker: Die nächste Gesellschaft, Beniger: The Control Revolution und auch Weltkontrollverlust)

Eines der wichtigsten Ergebnisse der gerade stattfindenden »Control Revolution« (Beniger) ist meines Erachtens der Aufstieg der Plattformen. Plattformen schaffen es – auf transnationaler und vergleichsweise informeller Ebene – zunehmend die Infrastruktur bereitzustellen, auf der Gesellschaft stattfindet. In »Aufstieg der Plattformen« zeige ich, wie die gesunkenen Transaktionskosten für Kommunikation dazu führen, dass sich zentrale Anbieter zur Vernetzung durchsetzen und sogar so wichtige Institutionen wie das Eigentum nach und nach überformen. Alles wird zur Plattform und Plattformen werden zum zentralen Kontrollparadigma der nächsten Gesellschaft. Plattformen gehorchen aber auch eignen ökonomischen Dynamiken, die es zu verstehen gilt und neue Gefahren gebären. Vor allem profitiert der Zentralismus ausgerechnet von den gesellschaftlichen Kontrollbedürfnissen gegenüber Informationen, das gilt sowohl für Urheberrechte, als auch für den Datenschutz.
(Siehe mein Vortrag auf der Openmind 13- aber auch die Vorträge zum Ende des Eigentums)

In »Eine Utopie in Trümmern« analysiere ich die bisherigen Heils- und Untergangsversprechen über das Netz und deren Status-Quo nach Snowden. Die Enttäuschung hat meiner Ansicht nach eine zentrale Ursache: die Erwartungshaltungen gegenüber den neuen Technologien beschränkten sich wie üblich darauf, zu glauben, dass durch das Neue das Bestehende verbessert würde: So wie die Musikindustrie sich über die CD freute, freuten sich die Demokratiefreunde über die Vernetzungsleistung der Internets. Alle samt mussten aber feststellen, dass das Neue nicht kam, um zu verbessern, sondern alles grundlegend zu verändern. Es kann dabei durchaus sein, dass alles erstmal schlechter wird, wenn das Alte seine Macht verliert und verzweifelt verteidigt und es für das Neue noch keine Strukturen und Verarbeitungsroutinen gibt. Solange sich die Gesellschaft also nicht auf das neue Spiel eingestellt hat. Genau da stehen wir.
(Am ehesten scheint die Richtung bei der Antwort auf Sascha Lobo durch.)

Teil II

Im Kapitel »Neues Spiel, neues Glück« breche ich mit der negativen Stimmung vom Ende des letzten Kapitels. Ich zeige, wie all die besprochenen Effekte des Kontrollverlusts auch Schönheit, Emanzipation, Wissen, Solidarität, Freiheit und Problembewusstsein geschaffen haben. Wie sie neue Wege ermöglichen, gesellschaftliche Fragestellungen neu zu beantworten. Wie insbesondere im politischen Prozess bereits grundlegende Fortschritte gemacht wurden und welche Potentiale da noch bereitliegen. Ich bringe einige der Beispiele, die zeigen, wie mithilfe des Netzes – und des in ihm enthaltenen Kontrollverlusts – politischer Aktivismus aufblühte und emanzipative Anstöße gelangen.
Ich möchte aber auch zeigen, wie aus dieser erhöhten politischen Komplexität auch neue Problemfelder entstehen. Trolle, Maskulinisten und Nazis nutzen ebenfalls das Netz als Strukturverstärker und machen das Leben vieler zur Hölle. Gleichzeitig differenzieren sich auch politisch, emanzipative Positionen so weit aus, dass sie sich immer weiter segmentieren. Mit anderen Worten: die Komplexität steigt erheblich.
(Siehe meinen Vortrag auf der SigInt 13: Why We Fight (Each Other))

In »Umkehrung der Öffentlichkeit« zeige ich, wie die Ursache des Problems gestiegener Komplexität gleichzeitig deren Lösung ist. Im Zeitalter immer billiger werdender Speicher und immer mächtiger werdender Querys verändert sich unser Verhältnis und unser Anspruch an Öffentlichkeit. Eli Parisers Problematisierung der »Filterbubble« ist nichts anderes als die Beschreibung einer gesellschaftlich notwendigen Ausdifferenzierung mithilfe von technischen Mitteln. Wir können nicht mehr das ganze Bild im Blick haben, wir können nicht mehr jedem Diskurs folgen und jedem da draußen zur Antwort bereitstehen. Und wir müssen es auch nicht mehr. Mithilfe der Query wird Öffentlichkeit individualisiert. Das ist gut und notwendig um die gestiegenen Komplexität zu bewältigen, bereitet aber durchaus neue Probleme. Ich leite dennoch daraus ein unbedingtes Recht auf Filtersouveränität ab, das vor allem eine radikale Forerung an Informationsfreiheit beim Bereitsteller von Informationen vorsieht.
(siehe auch: Eli Pariser: Filterbubble und meine Ideen zur Filtersouveränität)

In »Überwachung und Privatsphäre« widme ich mich einer überkommenen Erzählung, nämlich, dass Überwachung und Privatsphäre miteinander verschränkte Antagonisten seien. Dem ist nicht so: Weder schafft es die Privatsphäre adäquat vor Überwachung zu schützen, noch zielt Überwachung nur auf die Privatsphäre ab. Der Kampf gegen Überwachung ist wichtig, darf sich aber nicht auf den untauglichen Versuch beschränken, die Privatsphäre wieder herstellen zu wollen. Überwachung muss dort angegriffen werden, wo ihre Auswirkungen die Menschen tatsächlich beschränken – im Privaten wie im Öffentlichen: beim Disziplinarregime. Am Ende ordne ich den Kampf gegen Überwachung ein, in den Kampf gegen überkommene Kontrollstrukturen des alten Spiels: die Disziplinargesellschaft geht dem Ende zu, Überwachung wie wir sie kennen, ist ein Auslaufmodell. (Achtung: das heißt nicht, dass sie verschwinden wird, sondern nur, dass sie eine immer unwichtigere Rolle im Machtgefüge spielen wird.)
(Siehe zum Beispiel Post-Privacy und Anti-Überwachung)

Im ersten Teil habe ich Plattformen als den Mittelpunkt der neuen Kontrollregime beschrieben. Auch sie müssen eingehegt werden durch politische Prozesse. Im Kapitel »Plattformneutralität« sollen Wege aufgezeigt werden, wie das gehen kann. Im ersten Schritt geht es um eine Ausweitung des Konzeptes der Netzneutralität auf die Plattformen. Das Ziel müssen meiner Meinung nach dezentralere, unkontrollierbarere Strukturen sein, die diskriminierungsfreien Zugang und Kommunikation für alle bedeuten. Dazu will ich ein paar konkrete Vorschläge machen. Im zweiten Schritt soll es darum gehen, Plattformneutralität als politisches Konzept auch in anderen gesellschaftlichen Bereichen tragfähig zu machen. Insbesondere im Kampf gegen die Disziplinarregime, ist Plattformneutralität ein gutes Tool, um die Abhängigkeiten der Leute gegenüber Mächten aller Art zu verringern und so auch Überwachung zu bekämpfen.
(Siehe auch Plattformneutralität)

Das Neue Spiel ist in seinen Grundzügen nun genug skizziert, um daraus konkrete Regeln ableiten zu können. In »10 Regeln im neuen Spiel« schreibe ich also die grundlegendsten Regeln auf. Drei habe ich ja bereits in meinem Video genannt: 1. Man kann das Spiel nicht gegen den Kontrollverlust spielen. 2. Macht hat, wer die Plattform kontrolliert. 3. Wissen ist, die richtige Frage zu stellen. Weitere werden lauten: Informationskontrolle stärkt Zentralisierung, etc.
(Eine frühe Version findet sich bei den 10 Thesen zum neuen Spiel)

Ich möchte die Leute aber nicht nur mit abstrakten Spielregeln zurücklassen, sondern auch konkrete Ratschläge geben. Das tue ich in »Was tun als …?«. Dort übersetze ich die Regeln des neuen Spiels für verschiedene gesellschaftliche Bereiche, von der Wirtschaft, über den Aktivismus bis zum privaten Individuum. Ich erkläre, warum wir mithilfe der schwindenden Macht des Staates noch umbedingt grundlegende Richtungsänderungen einleiten müssen. Z.B. brauchen wir ein diskrimisuerungsfreies Gesundheitssystem, vollkommen trnasprarente politische Prozesse, ein grundlegendes Umdenken in Einreise und Zuwanderungspolitik, ein internationales Abrüstungsabkommen für Geheimdiente, etc. Auf aktivistischer Seite brauchen wir den Datascientist-Hacker, einen informierten Pragmatismus beim Einsatz von Social Media und Datentechnologie, und realistische Zielsetzungen. Das Individuum sollte sein Leben auf relative Autonomie zu ihn kontrollierenden Mächten auslegen, hat dazu aber auch neue Möglichkeiten. Die Gesellschaft sollte die Chance nutzen, dass diskriminierende Strukturen gegenüber den Bedürfnissen von Minderprivilegierten im neuen Spiel sichtbarer werden und sie aktiv bekämpfen.

In »Nach dem Kontrollverlust« gebe ich einen Ausblick auf die Gesellschaft der Zukunft. Eine Gesellschaft, die keine falschen Erwartungen mehr an die Kontrollmechanismen in der Gesellschaft stellt, sondern das neue Spiel spielt. Ich kann aber nicht sagen, dass es ein optimistischer Ausblick wird. Ich versuche, die neuen Chancen genau so wie die neuen Risiken zu adressieren. Zunächst, so befürchte ich, arbeiten wir uns durch eine Phase des digitalen Feudalismus. Noch sind die Plattformbetreiber die Großgrundbesitzer und wir ihre Kommunikationsleibeigenen. Ich glaube aber, dass die Entwicklung dort nicht stehen bleiben wird und wir im Jahr 2025 bereits eine ganz andere Welt bewohnen, die ich beschreiben will. Ich versuche mich da an einer Art Science-Fiction. Zum Schluss gebe ich einen Ausblick auf das, was ich mal »Gesellschaftliche Singularität« genannt habe. Das ist der Zustand, wenn die Gesellschaft auch auf individueller Ebene funktioniert, ohne, dass wir noch verstehen könnten, wie; wir aber dennoch genug Vertrauen in diese Prozesse haben, uns in sie fallen zu lassen.

* Natürlich kann sich da noch viel ändern, aber im groben sind das die geplanten Kapitel.

flattr this!

November 28, 2013

ctrl+verlust

Aktuelle Probleme der Plattform- UND Netzneutralität

Der Begriff “Plattformneutralität” ist nicht neu und wurde auch nicht von mir erfunden. Es ist ursprünglich ein technischer Begriff, der besagt, dass zum Beispiel eine bestimmte Software oder ein Medienformat sowohl auf dem einen, als auch auf dem anderen Betriebssystem funktionieren. Dieses “Multihoming” wie man das auch nennt, ist mit der politischen Idee der Plattformneutralität, wie ich sie schließlich formuliert habe, durchaus konform, weshalb ich diese Referenz bewusst in Kauf genommen habe. Meine Idee von Plattformneutralität ist quasi eine politische Weiterfassung des Begriffs.

Der aktuelle Koalitionsvertrag bezieht sich auf Seite 134 eindeutig auf den politischen Plattformneutralitätsbegriff, weswegen ich die darin vorgeschlagenen Regelungen nicht unkommentiert lassen kann. Hier die betreffende Stelle:

Die Koalition will faire Wettbewerbschancen für alle Medienanbieter. Deshalb wollen wir die wirtschaftlichen Rahmenbedingungen privatwirtschaftlicher Medienproduktion stärken. Sie setzt sich für das Prinzip der Plattformneutralität ein, d. h. bei Distributionsplattformen für Rundfunk und Telemedien insbesondere bei marktbeherrschenden Plattformbetreibern sind eine diskriminierungsfreie Informati- onsübermittlung und der neutrale Zugang zu Inhalten sicherzustellen. Private und öffentlich-rechtliche audiovisuelle Medienangebote und journalistisch-redaktionelle Inhalte, die einen Beitrag im Sinne des Public Value leisten, sollen einen diskriminierungsfreien Zugang zu Distributionswegen und eine herausgehobene Auffindbarkeit erhalten.

Marcel Weiss sieht darin den Versuch der Presseverlagslobby bei Google und Facebook etc. bessere Platzierungen in Suchergebnissen und mehr Sichtbarkeit im Nachrichtenstrom zu erzwingen. Ich finde, das gibt der Text so nicht her. Die Plattformneutralität wird hier mit den Worten “diskriminierungsfreie Informationsübermittlung und der neutrale Zugang zu Inhalten” durchaus in dem Sinne gebraucht, wie es gedacht war. Das einzige, was den gegenteiligen Eindruck erwecken kann, ist die “herausgehobene Auffindbarkeit“, die die journalistischen Inhalte erhalten sollen, was der kurz vorher genannten Diskriminierungsfreiheit allerdings diametral widerspricht. Die Formulierung kann im Zweifel für solche Zwecke missbraucht werden, aber der Text bezieht sich doch überwiegend auf die Diskriminierungsfreiheit als Prinzip, weswegen ich das erstmal als Unsauberkeit abtue.

Ich glaube nämlich, dass es um etwas anderes geht: Die Plattformneutralität soll als eine Art Addon des Leistungsschutzrechts implementiert werden, welches diesem erst Wirkung verleiht.

Was bisher geschah: Das Leistungsschutzrecht für Presseverleger ist da und es nützt den Verlagen bislang herzlich wenig. Google hat getan, was aus ihrer Sicht das einzig sinnvolle ist: sie haben alle Verlagsangebote aus dem Index geworfen und sie danach freiwillig wieder in-opten lassen. Was bei den Nutzern und ihrem Datenschutz funktioniert, funktioniert auch bei Presseverlagen und ihrem Leistungsschutzrecht. So weit, so ärgerlich für die Verlage.

Mit einer gesetzlichen Regelung zur Plattformneutralität – das heißt, der Sicherung eines “diskriminierungsfreien Zugang zu Distributionswegen” bei “marktbeherrschenden Plattformbetreibern” wäre das Spiel ein anderes. Der Gesetzgeber würde Google dazu zwingen, alle Presseerzeugnisse zu listen, egal ob diese Google dafür eine Rechnung schicken oder nicht. Ein solches Gesetz könnte Google und andere Plattformbetreiber dazu zwingen, kostenpflichtige Verträge mit den Verlagen einzugehen. Also genau das, was Döpfner und Keese sich immer erhofft hatten.

Jetzt habe ich ein Problem. Ich würde gerne behaupten, dass die große Koalition die Plattformneutralität nicht verstanden hat oder sinnentstellt implementieren will. Dann könnte ich hier den Beleidigten spielen und sagen, dass die alle zu doof sind für das Konzept. Aber das stimmt nicht. Wenn man von der Formulierung der “herausgehobenen Auffindbarkeit” mal absieht, klingt der Entwurf durchaus konform mit meiner Definition, die ich gerade erst in einem detaillierten Vortrag (Video, ziemlich weit am Ende) hergeleitet und ausgearbeitet habe:

1. Eine Plattform ist eine gesellschaftlich relevante, konsistente Infrastruktur, anhand derer kommunikative Handlungen vollzogen werden und sich Strukturbildungen vollziehen. *
            * (Strukturbildungen meint hier die Verstetigungen von sozialen, kulturellen, wirtschaftlichen, medialen oder technologischen Emergenzphänomen, die auf Grundlage der Plattform entstehen.)

2. Neutral ist eine Plattform, wenn sie es bewerkstelligt, alle zu einer gegebenen Zeit möglichen kommunikativen Handlungen zuzulassen und gleichartige kommunikative Handlungen gleich zu behandeln. **
             ** (Gleicher Art sind kommunikative Handlungen, wenn sie für den/die Endanwender*in den selben Zweck erfüllen.)

Im vorliegenden Entwurf geht es um die kommunikativen Handlungen der Presseverlage und die sind untereinander – gemessen an dem Nutzen des Endnutzers (und nur das zählt!) – tatsächlich gleich. In meiner Definition muss es egal sein, ob Sueddeutsche, Welt, taz oder dieses Blog: alle sollen diskriminierungsfrei bei Google und Facebook vorkommen und nach den selben Algorithmen gewichtet werden, denn sie alle dienen dem selben Zweck: der Nachrichtenversorgung/Unterhaltung/Bildung, etc.

Die Forderung aus dem Koalitionsvertrag kann man mit recht als “plattformneutral” bezeichnen. Und dennoch ist sie falsch. Das Problem ist nämlich, dass die Unwucht bereits im Leistungsschutzrecht liegt und mit der Plattformneutralität besiegelt werden soll. Das Presse-Leistungsschutzrecht ist ungerecht und alles andere als eine plattformneutrale Einrichtung. Unter normalen Marktverhältnissen aber ist diese Ungerechtigkeit egal, wie wir gesehen haben, weil Google seine Vertragsfreiheit dazu nutzt, einfach keine kostenpflichtigen Deals einzugehen, die Verlage aber von Googles Traffic abhängig sind. Mit einer gesetzlichen Plattformneutralität aber kann man das ungerechte Leistungsschutzrecht erst richtig durchsetzen, denn es gäbe (nach meiner Definition) kein Argument für Google, einzelne Medien zu diskriminieren. Ob sie wollen oder nicht: sie müssten die Deals mit den Verlagen eingehen, egal zu welchem Preis.

Abstrakt formuliert liegt das Problem hier: Dadurch, dass die Plattformneutralität strikt immer nur auf der ihr eigenen Ebene wirkt – hier: die Ebene der Distribution zum Endnutzer – ist sie unfähig Unwuchten, die sich aus anderen Ebenen ergeben – hier: Zahlungsforderungen beim Informationsproduzenten, legitimiert durch das Leistungsschutzrecht – auszugleichen, sondern setzt sie blind durch.

Nun würde ich mir durchaus den Schuh anziehen, diese strukturelle Schwäche und dieses Szenario nicht gesehen zu haben. Aber ich bin nicht allein. Ich habe das Konzept ja von der Netzneutralität geklaut, weswegen es durchaus sinnvoll ist, probehalber einen ähnlich gelagerten Fall zu eruieren:

Stellen wir uns vor, wir hätten gesetzlich geregelte Netzneutralität (Und alle so Yeah!) Alle Daten müssen von den ISPs neutral (im oben geschilderten Sinne) zu den Endkunden distribuiert werden. Nun kommt Google auf die Idee, dass seine Dienste und Daten ja wohl um einiges besser sind, als die der meisten anderen Anbieter und will nun Geld von den Carriern und Providern dafür verlangen.

Ich jedenfalls kenne keine Regelungen, die ihnen das verbieten würden. In der gegenwärtigen Situation allerdings würden die Provider Google den Vogel zeigen und es wahrscheinlich auf einen Machtkampf ankommen lassen. Mit einer gesetzlich verpflichtenden Netzneutralität hätten sie keine Chance sich zu wehren. Sie müssten Google die Daten zu jedem Preis abkaufen.

Liege ich damit richtig, oder habe ich was übersehen? Hat im Zuge der Netzneutralitätsdiskussion eigentlich schon mal jemand ein solches Szenario bedacht?

Ich bin etwas ratlos an dieser Stelle. Well trolled, kann ich da nur der großen Koalition und der Verlegerlobby zurufen. Dann müssen wir wohl noch mal ran, an das Reißbrett und zwar bei beidem: Netz- und Plattformneutralität.

flattr this!

November 26, 2013

the gay bar

Freiheit der pawlowschen Hündchen

Kai Biermann von ZeitOnline fragte vor einigen Tagen, warum “wir” uns überwachen lassen:

Er bekam viele Antworten, unter anderem auch

In der Debatte um Überwachung und Datenschutz findet sich dieses Mem immer wieder, beispielsweise in diesem Interview der Frankfurter Rundschau mit Juli Zeh, in dem es um Verhaltensänderungen durch Überwachung beim Menschen geht:

Selbst ein Hund, der beobachtet wird, holt sich nicht die Wurst vom Tisch, sondern erst ist in dem Moment, wo man ihn nicht anschaut.

Sicherlich lag es Frau Zeh fern, Menschen in ihrem Verhalten mit Hunden gleichzusetzen, umso ungünstiger ist jedoch ihr Beispiel gewählt. Juli Zeh und der oben genannte Tweet sind allerdings nur zwei kleine Beispiele für eine generelle Tendenz, das Verhalten von Menschen insbesondere im Internet und dort insbesondere bei der Nutzung von sozialen Medien, mit äußerst simplen Modellen zu beschreiben.

Was blutet bei solchen behavioristischen Betrachtungen für ein Menschenbild durch?

 

Der Mensch wird als Reflexagent betrachtet, der schlicht auf äußere Reize reagiert und trainiert wird. Als “Klickvieh”, dass eh jeden Knopf drückt, den man ihm vorlegt. Als unreflektierte Automaten ohne Agency, ohne eigene Handlungsmaximen und Ziele.

Diese Art der Kritik an menschlichem Handeln innerhalb sozialer Netze findet sich besonders gerne bei Vertretenden des Bildungsbürgertums: Entrüstet und bedauernd wird über das dumme Volk gesprochen, welches ja auch gar nicht weiß, was es tut. Wenn sie doch alle nur so gebildet wären wie wir(tm).

Vergessen wird an dieser Stelle gerne, dass die gesellschaftliche Situtation von Menschen, die eben nicht dem gut vernetzten Bildungsbürgertum mit allen seinen Wegen, die eigenen Positionen in die öffentliche Debatte einzubringen, angehören, ignoriert bzw. abwertet: Der Rückzug auf die Privatheits-/Informationskontroll-/Rückzugsmeme hat vor allem dann einen Mehrwert, wenn die Umsetzung der eigenen Ziele, die Organisation der eigenen Peer Group schon auf anderem Wege entsteht: Bei Vernisagen und Gesprächsabenden bei den Rotariern/Lions/$elitenclub zum Beispiel. Als schlecht vernetzter, beruflich nicht im Kontakt zu einflussreichen Menschen stehender Mensch ist ein aktives, offenes Nutzen sozialer Netzwerke bei allen Bedenken bzgl. Datenschutz und Kontrollverlust vielleicht trotzdem potentiell gewinnbringender für den eigenen Einfluss als die Isolation.

Das muss nicht in jedem Fall so sein und das Potential von Organisation und Einfluss entfaltet sich bei weitem nicht für alle, wahrscheinlich sogar nur eine Minderheit. Trotzdem ist die behavioristische Abwertung des Verhaltens vor allem Ausdruck der Distinktionsbestrebungen einer gebildeten, gut vernetzten Elite, die das Verhalten der “Unterschicht” (und dass es um diese Sichtweise geht sieht man nur zu oft, wenn die Vertreter dieser Denkrichtung, von Don Alphonso bis zu Fefe, ins polemisieren geraten und über “prekäre Berliner Lebensrealitäten witzeln).

“Die Würde des Menschen ist unantastbar” sagt das Grundgesetz. Die behavioristische Abwertung anderer ist davon offensichtlich nicht mehr abgedeckt. Vielleicht schaffen wir es ja auch, Kritik an Überwachung oder Datenverarbeitung zu machen, ohne Menschen dabei abzuwerten?

P.S. zum Thema “Wer überwacht wird, ändert sein Verhalten” habe ich vor einigen Monaten eine Frage gestellt, auf deren Antwort ich noch harre.

flattr this!

November 05, 2013

the gay bar

Dichte in der Datenselbstwolke

Vor einigen Tagen schrieb ich über den Begriff der Datenselbstwolke. Kurz zusammengefasst: Die Datenselbstwolke ist ein Konzept, um unsere Repräsentation in der digitalen Sphäre zu beschreiben. Statt eines trennscharfen Körpers sind wir eine nach außen weniger dicht werdende Wolke aus Daten, die sich, je weniger dicht sie ist, immer mehr mit anderen Wolken überlappt. Solche Überlappungen sind Relationen zwischen Personen wie z.B. A und B sind befreundet und gehören offensichtlich nicht zu nur einer Person.

Wie ist die Dichte einer solchen Wolke definiert? Gliedern wir die Dichte in diskrete Schritte auf, die von “am dichtesten” bis hin zu “am wenigsten dicht” reichen. Alle Datenklassen, die ich hier beschreibe, gehören “irgendwie zu mir”, aber sie sind zunehmend “fremder” bzw. immer weniger “exklusiv”.

Die erste Ebene ist die der persönlichen Geheimnisse. Geheimnisse sind Informationen und Daten, die ich nicht mit anderen teile. Meine Passwörter, meine verschlüsselten Dateien mit TANs oder PINs oder geheimen Gedanken.

Die zweite Ebene ist die des geteilten persönlichen Geheimnisses. Vielleicht habe ich einem Freund Zugriff auf eigentlich geheime Daten gegeben oder Zugangscodes bei einem Anwalt hinterlegt. Das charakteristische Merkmal ist an dieser Stelle, dass Daten mit einem sehr eingeschränkten Kreis aus Menschen, denen der Geheimnisträger sehr stark vertraut, geteilt wurden unter der Prämisse, dass diese Daten nur in ganz bestimmten Fällen verwendet oder weitergegeben werden dürfen (Tod usw.).

Die dritte Ebene ist die der geteilten persönlichen Lebensrealität (der persönlichen Quasi-Öffentlichkeit). Hierbei geht es um Dinge des eigenen Lebens, die man mit einer recht großen Gruppe teilt, bei der man nicht mehr allen Mitgliedern absolut trauen kann. Ein großer Teil des typischen Datenstroms innerhalb von sozialen Netzwerken fällt in diese Kategorie. Die geteilten Daten betreffen nur das ursprünglich teilende Individuum, eine ernstzunehmende Kontrolle der Daten ist aber nicht mehr möglich: Genug Menschen haben Zugriff auf sie, können sie kopieren, screenshotten und weiterleiten.

Die vierte Ebende ist die der gemeinsamen Geheimnisse. Hier geht es um Informationen, die mehr als eine Person betreffen, die allerdings nicht per se in die Öffentlichkeit verbreitet werden. 3 Kids die nachts durch die Stadt ziehen und Häuser verschönern teilen solche Geheimnisse. Sie sind nicht auf eine Person reduzierbar sondern nur im Kontext aller denkbar.

Die fünfte Ebene ist die der geteilten Gruppenaktivitäten. An dieser Stelle betrachten wir die quasi-öffentlichen Handlungen von scharf oder auch lose abgegrenzten sozialen Systemen: Ein Verein, dessen Aktivitäten sichtbar sind usw.

Entlang dieser Skala lassen sich unterschiedliche Daten, zu denen eine Person assoziiert ist, bezüglich ihrer Exklusivität einordnen. Je weniger exklusiv, desto überlappender und desto weniger Anspruch auf eine Art von Kontrolle steht dem durchaus mitbetroffenen Individuum zu (ausgenommen natürlich Einzelfälle wie beispielsweise die Dokumentation von Gewalt oder Mobbing gegen eine Person, bei denen dem Opferschutz Priorität eingeräumt werden muss). So ergibt sich bei der Visualisierung eines komplexeren sozialen Systems nicht ein Netz sondern eher ein bunter Fleckenteppich von sich überlappenden Farbwolken, in deren Zentrum der vor allem Geheimnisgeprägte Nukleus der Einzelpersonen zu finden ist.

Wie wir nun mit den Daten der unterschiedlichen Daten umgehen wollen, ist die nächste Frage. So würde die erste Ebene beispielsweise gar nicht von Datenschutzgesetzen betroffen sein, alle anderen zu mindest partiell schon. Dabei wäre sicherlich auch spannend, wie groß der jeweilige Anteil der Datenklassen an der Datenselbstwolke des Individuums besitzt (meine These ist, dass die inneren Ringe eher klein sind).

Aber das sind Fragen für einen anderen Blogpost.

flattr this!

October 16, 2013

ctrl+verlust

zkmb.de: Kontrollverlust und Kunst – Ein Werksbericht

/******
Im Laufe der Jahre, in der die Thesen zum Kontrollverlust die Runde machten, erreichten sie immer mal wieder auch die Kunst. Kunst – sofern sie es als ihre Aufgabe sieht, aktuelle gesellschaftliche Entwicklungen zu reflektieren – arbeitet sich auch gerne an aktuellen Theorien ab. Und so wurde ich hier und da angesprochen, um mitzudenken, mitzuschreiben und mitzuarbeiten. Hier eine Art Werksbericht über diese Berührungspunkte:
******/

Herr KEINER leidet am KEINERSyndrom. Eines der vielen Symptome dieser Krankheit ist, dass Herr KEINER nicht mehr selbstständig entscheiden kann, was privat und was öffentlich ist. Seine Daten breiten sich unkontrolliert aus und haben das Haus befallen. Ich weiß, sie wollen sich das jetzt anschauen aber das ist nicht ganz ungefährlich. Das KEINERSyndrom ist hoch ansteckend! Zu ihrem Schutz und dem von Herrn KEINERs Privatsphäre wurde staatlicherseits ein Datenschützer – also ich – bereitgestellt. Ich darf Sie also darum bitten, meinen Anweisungen folge zu leisten, vor allem im Interesse von Herrn KEINER aber auch im Interesse der öffentlichen Ordnung.“

Abb. 2: Foto: Ingolf Keiner

[Weiterlesen >>>]

 

flattr this!

October 14, 2013

the gay bar

Gefangene des Privacy-Narrativs

Vor einigen Tagen schrieb mspro (unter dem Decknamen Michael Seemann) für Zeitonline einen wirklich sehr lesenswerten Text: Unter dem Titel “Die Privatsphären-Falle” kommentierte er sehr pointiert, weshalb das “Privatsphäre als Wert an sich”, das zentrale Narrativ des Datenschutzes und seiner Vertretenden, nicht mehr verfängt. Anstatt jetzt einzelne Zitate aus dem Text zu pulen, bitte einfach den Text bei der Zeit Online lesen. Wir warten hier so lange…

… So. Ich stimme mspro völlig zu, was nur wenige in diesem Falle überraschen wird, mir geht seine Analyse allerdings nicht weit genug. Denn unser Problem ist weit größer als nur ein nicht mehr tragfähiges Narrativ gegen die Überwachung durch die Geheimdienste unterschiedlicher Staaten.

Wir sehen das an den typischen Reaktionen auf Texte wie den von mspro. Die Analyse als solche wird gar nicht angegriffen, sondern ein neuer Vorwurf konstruiert: Es würden ja auch keine Lösungen angeboten, für das Problem, dass plötzlich ein Wert wie Privatsphäre immer weiter geschleift wird.

Wo mspro von “Privatsphäre als Wert an sich” spricht, verkennt er die tieferliegende Problematik: Wir haben uns und unsere gesellschaftlichen Visionen völlig an diesen Wert gekettet.

Denn was passiert, wenn Privatsphäre ausgehöhlt wird? Fragen wir die Bürgerrechtsorganisationen, sind ohne Privatsphäre keine Freiheit denkbar, keine Würde, keine Mündigkeit. Machtverhältnisse sind nicht ausgleichbar und insgesamt sind wir alle royally fucked.

Wir haben uns einen theoretischen Single Point of Failure konstuiert, auf dem wir unsere Gesellschaftsentwürfe abzustützen versuchen. Und wo diese Basis nun ins Rutschen kommt, bricht Panik aus.

Leitmedium fasste das vor einigen Tagen schön zusammen

Doch die Skandalisierung einer jeden Handlung von Staat, von Google, von Facebook ist ja nicht aus Bosheit oder Manipulationswunsch entstanden: Den Bürgerrechtsorganisationen und -vertrenden gehts wirklich ans Eingemachte. Wenn Privatsphäre fällt, steht der Kaiser ohne Kleider, bzw. die Szene ohne Fundament da.

So erklärt sich auch der offensichtliche Disconnect der Bürgerrechtsorganisationen von den Bürgern und ihrem Verhalten. Wie mspro unter dem Stichwort “Privacy-Paradox” zusammenfasst:

Das Privacy-Paradox beschreibt die Beobachtung, dass in allen Umfragen und persönlichen Gesprächen der Schutz der Privatsphäre als extrem wichtig angegeben wird. Gleichzeitig aber führt das nur in seltensten Fällen dazu, dass Menschen auch nur das Geringste dafür tun.

Privatsphäre ist ein gelerntes Mem, etwas von dem alle “wissen”, dass es “wichtig” ist, genauso wie sie “wissen”, dass 753 Rom entstanden ist1 . Aber “wissen” ist nicht leben, “wissen” ist eben nur abstrakt im Kopf und hat nicht immer Bezug zu dem, was Menschen tun, wie sie handeln.

Dabei ist es ja nicht so, dass das Narrativ von der essentiellen Privatsphäre grundlegend falsch oder dumm ist. Die Überhöhung, die diese Idee insbesondere auch in der jungen Bundesrepublik hatte, ist Verständlich und unter dem Eindruck der Nazis und ihrer Aktivitäten auch nur konsequent: Der Staat ist Unterdrücker, Feind, Mörder und die Bürger müssen sich so weit zurückziehen, wie es irgend möglich ist. Datenverarbeitung ist irgendwie auch immer böse, denn die einzigen, die es tun sind entweder der Staat oder riesen Konzerne (deren Ziele auch nicht kongruent mit denen der Bürger sind).

Und hätte sich nichts verändert, so wäre das Narrativ “Privacy über alles” sicherlich weiterhin haltbar. Und dann kam das Internet.

Nicht so sehr als Technologie oder Gadget sondern als mächtiger Katalysator menschlicher Interaktion. In einer Welt, in der wir alle direkte Nutznießer breiter Datenverarbeitung sind, in der wir diese aktiv wollen um findbar, anknüpfbar zu werden, um unsere Wirkmacht zu vergrößern, uns organisieren zu können, ist die Idee sich in seine private Stube zurückzuziehen absurd.

Privatsphäre, Rückzug, Isolation und dann? Das Heilsversprechen des Privatsphärennarrativs hat sich unter den Eindrücken der kommunikativen Möglichkeiten eines anderen Lebensstils als eine schön verpackte Kiste ohne Inhalt herausgestellt.

Und an diesem Punkt entfaltet sich die destruktive Kraft des versagenden Narrativs: Plötzlich wissen viele nicht mehr, wohin. Denn die Behauptung, dass Menschen, die Privatsphäre nicht mehr als zentral sehen, auch keinen Wert auf Freiheit, Würde oder Mündigkeit legen, ist offentlichlich grober Unfug. Doch wie soll es denn weitergehen?

Und genau hier haben viele einflußreiche Gruppen seit Jahren die Arbeit ignoriert. Ökonomisch gesprochen haben sie sich ewig auf die theoretische “Cash Cow” Privacy verlassen und wo diese jetzt zusammenbricht fällt auf, dass es keinen Ersatz gibt. Privacy ist für die Bürgerrechtsbewegung, was Windows für die Firma Microsoft ist: Etwas mit dem man über Jahre hinweg den (Meinungs-)markt dominieren konnte, das aber von der Welt einfach überholt und abgehängt wurde.((Wie mspro auf Twitter korrekt anmerkte ist eigentlich Office die MS Cash Cow))

Die notwendige Neuausrichtung der Denkweise muss nicht nur in der Debatte um Geheimdienstaktivitäten stattfinden, sondern generell angegangen werden. Denn das alte Narrativ verfängt nicht mehr außerhalb eines theoretischen Elfenbeinturms.

Das breite Kontinuum von Positionen zwischen vollständiger Privacy und hundertprozentiger Offenheit muss neu ausgeleuchtet, neu erkundet werden. Und genau das ist, wofür der Begriff “Postprivacy” (für mich) steht: Die Aufgabe eines schlicht auf Privacy aufsetzenden Narrativs und die Neuausrichtung der Debatte. Für eine vernetzte Welt in der viele Werte neu definiert und gewichtet werden. Für eine Welt, in der Menschen vermehrt wieder politischen Einfluss nehmen wollen und sollen, in der “Staat” nicht der einzudämmende Feind2 sondern ein von uns allen gemeinschaftlich geformtes “Wir” ist.

Aber man kann natürlich auch einfach weiterhin hoffen, dass die Ansätze, die 1950 gut und richtig waren auch heute noch gut und richtig sind. Klingt nur nicht nach einem klugen Ansatz.

Ceterum censeo: Geheimdienste esse delendam.

  1. peinlicher Fehler meinerseits: Hier stand erst die Schlacht bei issos, die aber natürlich 333 war, danke an Silke
  2. eine unheilige intellektuelle Allianz der Bürgerrechtsbewegung und der libertär-konservativen Kräfte

flattr this!

ctrl+verlust

Zeit.de – Die Privatsphärenfalle

/*******
Manchmal kommen die Erkenntnisse in der falschen Reihenfolge. In der SPEX hatte ich vor ein paar Wochen den alternativen Weg beim Kampf gegen Überwachung in der Post-Snowdenzeit aufgezeigt: Das neue Spiel. Aber erst jetzt – nach der Bundestagswahl – wird endgültig klar, warum der bisherige Diskurs über Überwachung in eine Sackgasse geführt hat. Darüber habe ich auf Zeit Online geschrieben.
*******/

Es muss als historischer Zufall gewertet werden, dass die diesjährige Bundestagswahl mitten in den größten Datenschutz-Skandal der Weltgeschichte fiel. Potenziell alle Internetdaten werden in Echtzeit gescannt, gespeichert und ausgewertet. Daten aus Social Networks werden in Massen weitergegeben, verschlüsselte Verbindungen werden geknackt oder umgangen. 2013 wird als das Jahr der Datenschmelze in die Geschichte eingehen.

Zur gleichen Zeit läuft die bundesrepublikanische Presselandschaft zur Höchstleistung auf. Sie setzt den Überwachungsskandal immer wieder ganz oben auf die Tagesordnung, berichtet scharf und detailliert, monatelang, in ungeahnter Qualität und kritischer Haltung.

Während all dem tut die Bundesregierung: nichts. Es gibt ein paar Appelle, ein Besuch des Innenministers in Amerika, ansonsten Rechtfertigungen, peinliche Ausrutscher, Beschwichtigungen und Lügen. Selbst Angela Merkel, sonst die ruhige Managerin im Hintergrund, kommt zum ersten Mal ins Schleudern. Und das mitten im Wahlkampf.

Das Ergebnis: Die Union erringt einen historischen Sieg. Alle Oppositionsparteien sind geschwächt, die FDP ist draußen, die Piraten, die als einzige den Überwachungsskandal in den Wahlkampfmittelpunkt stellen, erleben ein Desaster. Ein weiterer Wahlverlierer: die Netzszene und ihr Kampf gegen die Überwachung. Ihre Themen wurden über Nacht für politisch irrelevant erklärt.

[Weiterlesen >>>]
 

flattr this!

September 19, 2013

ctrl+verlust

SPEX: Das neue Spiel: Prism vs. Kontrollverlust

/**************
Der lange Artikel für die SPEX, in dem ich einerseits versuche die Snowdenenthüllungen im Kontext des Kontrollverlusts zu lesen und andererseits nach Wegen aus diesem Dilemma suche, ist nun erschienen.
***************/

Eigentlich sind die Enthüllungen von Edward Snowden alles andere als überraschend. Bei Anne Will sagte der Politikberater Andrew B. Denison es ganz unverblümt: Geheimdienste seien dafür da, die Gesetze anderer Staaten zu übertreten. Er hat damit nicht unrecht, so zynisch diese Einsicht auch klingen mag. Wir wussten immer, dass Geheimdienste Regierungen, Terroristen, Militärs bespitzeln, und wir machten uns keine Illusion darüber, ob sie sich dabei an die hiesigen Gesetze halten würden. Für diese Erkenntnis reicht auch rudimentäres James-Bond-Wissen. Was also ist das revolutionär Neue an den Snowden-Enthüllungen?

Es sind die Dimension der Überwachung und ihre Grenzenlosigkeit. Die NSA hört in Zusammenarbeit mit dem britischen Geheimdienst GCHQ nicht mehr nur terroristische, militärische oder gar politische Ziele ab, sondern uns alle, die Zivilgesellschaft. 500 Millionen Mal im Monat, alleine in Deutschland. Das ist nicht vergleichbar mit einer gezielten Abhöraktion, wie wir sie kennen. Dies betrifft alles und jeden und zwar nicht »aus Versehen«. Alles, was wir tun und sagen, wird beobachtet.

Und doch sind es nicht die Geheimdienste, die sich verändert haben. Es ist die Technologie. Geheimdienste sollen Informationen beschaffen. Das taten sie zu allen Zeiten, und schon immer tun sie es mit den Mitteln, die ihnen zur Verfügung stehen. Diese Mittel waren vor 30 Jahren angezapfte Telefonleitungen und Tonbandgeräte. Heute sind es eben gesplicete Glasfaserkabel und Rechenzentren. Die Reichweite der Geheimdienste wuchs mit ihren Möglichkeiten. Die Echtzeitüberwachung eines Großteils der Weltbevölkerung ist zur überbordenden Realität geworden. Weil es geht.

[Weiterlesen auf SPEX.de >>>]

flattr this!

September 02, 2013

ctrl+verlust

Weltkontrollverlust Visualisierung

Unter dem Label “Weltkontrollverlust” versuche ich die makrosoziologischen Effekte des Kontrollverlustes auf die Welt zu beschreiben. Aber alle Worte, die ich bislang fand, schaffen den Punkt nicht so gut herüber zu bringen, wie diese Infografik.

Gezeigt werden die letzten 250 Millionen weltweiten Proteste seit 1979. Die Punkte geben den Ort des Protestes an, deren Ausdehnung ihre Größe.

via

flattr this!

August 15, 2013

the gay bar

Death of the Super Hero

…Privacy-Man and Crypto-Girl are not wearing pants

The last weeks have been hard for the Internet. Not the network on a technical level but for the people it consists of, the so-called Layer 8, basically: Us.

When the news about the actual dimensions of the activities of different government agencies in the Internet hit us, many of us were left in a state of shock and awe, a state of pure and utter disbelief: The NSA (and it’s cousins from other countries) did all those things we never thought possible. The dystopia had become reality.

We know now that the NSA records basically everything, even – no, especially –  the pieces of data they cannot decrypt yet. “Yet” being the most relevant term here. Cryptography as we use it today is always a bet on the opponent not having huge amounts of processing power to solve difficult mathematical problems. But given what we know about how bad a lot of encryption is implemented and the amounts of resources and people government agencies can throw at the problem, many encryption algorithms and commonly used key sizes will soon be no more effective than some kids using secret ink to write their little notes to each other.

But the cries of the netizens were mostly left unheard or at least unacknowledged: The mainstream media reported it and basically moved on and when asking the people on the street, most don’t really care too much, either because they have more urgent matters to focus on (such as how to make rent while still being able to buy food for their kids and themselves) or because they just don’t believe that the activities of the NSA and similar agencies harm them. The majority of people are no terrorists and the promise of safety and security (as empty as it may actually be) carries a lot more value to them and their life than abstract concepts like surveillance.

In one aspect the mainstream and some Internet activists are in line though: Both always knew that the intelligence apparatus could listen in. Emails have always been more postcards than actual letters with envelopes and the so-called metadata1 would still stay visible even if the email itself was encrypted.

We have always known that it sounded wrong that – while every DRM-type encryption on movies, video games or music was broken in days if not hours – the data we put out there could easily be defended through certain simple to use crypto tools. But we always had a fallback that made it all OK, we had our super heroes.

Super Heroes are not a new thing, they predate movies and comic books and all those things we might nowadays associate with them: Hercules? Super Hero. Siegfried of Xanten? Super Hero. Joan of Arc? Super Hero. Our ancient (and less ancient) myths are full of those larger than life characters that could tilt the earth just enough to make things OK again (though admittedly many of them had their fair share of tragedy and defeat as well).

In the Internet narrative, the role of the Super Hero was filled by hackers. Hercules, Siegfried and Joan were now called Mitnick, Applebaum or Assange but they filled the same role: To make things OK again. In a digital world full of problems that changed our perception of privacy, secrecy and transparency we rested the responsibility to push back against the “evil” on their shoulders. A responsibility many hackers just too gladly took.

In the hacker narrative, the governments and companies were mostly movie plot villians: Often slightly clueless, twisting their moustaches while explaining their evil schemes to the protagonist who then pulled out his or her secret weapon from his or her tool belt and defeated the enemy. The end.

Our media mirrored that narrative closely: Movies like The Matrix and many others have pictured the hacker as the high priest of the digital age, the battle mage making the impossible possible with a few keystrokes and sometimes a little soldering. Amongst the most successful TV shows these days are a big number of CSI like shows that recreate basically the same mythos of the wizard with a keyboard who can zoom into any grainy picture 10 times to uncover the truth and who traces IP packets all over the planet from a fancy looking graphical tool.

And whenever the weight of the world, the truth of our digital communication and possibilities of the intelligence apparatus came up, we turned to the hackers and we begged: “Save us!” And they answered.

We got Tor, we got more encryption algorithms and tools than we could count. Harddisk encryption reached mainstream audience, OTR was built into many Instant messenger clients and worked transparently and mostly simple to use. The hacker’s magic bag of tricks seemed to be able to create tricks, hacks, workarounds and security layers faster than any company or government could churn out threats.2

And that is why this scandal has hit us, the Layer 8, the people who actually live on the Internet and not just see it as a glorified teleshopping channel, so hard: We lost our super heroes. We looked and realized that Privacy-Man and Crypto-Girl are not wearing pants, that their tool belts seem to be empty.

We see CryptoParties popping up all over the place in a last ditch effort to save the old narrative, believing that we can get the Genie back into the bottle by explaining how people can pull themselves, their opinions and goals out of the spotlight. By creating a new age of secrecy and disconnectedness that would keep the intelligence out of our lives.3

But only communicating in the dark, hiding one’s opinions and connections will not help our democracies. Because a strong democracy is based on communication on networking, on the constant exchange and discussion of controversial ideas. What is often called “digital self-defense” will in the long run not save democracy but just help a different system of oppression to take its place – it is in fact just running away from the problem.

What can we do?

Get over our self-constructed myth of Super Heroes and back to work. I do agree with Jeff Jarvis in arguing that companies should do more to fight for their users. it is in their interest because in the end the scandal falls down on their feet: Google, Facebook and all those companies might just be following the laws when they give the NSA and other agencies access to their user’s data but still get all the flak for it happening. But more importantly, we need to start changing our perception on intelligence agencies and our laws.

Intelligence agencies spying on other countries and their citizens can, in this digital world, only be compared to using weapons to attack the other country. Our globalized world gets smaller every day with people’s social connections increasingly neglecting to care about national borders. We can no longer accept to have publicly funded agencies playing the secret aggressor against the world.

We need global treaties on intelligence disarmament, we need to change our local laws to no longer accept spying on people by a government agency just cause those people have the wrong passport. The equation is simple: If your agency spies on my and mine spies on you and they collaborate, they spy on everyone. If we don’t want that to happen (and I refuse to believe that we do) we need to get rid of the old school cold war type intelligence agencies that are build on a foundation of xenophobia and hate. We are better than that.

The old narrative of Super Heroes protecting us against evil have always kept “the evil alive”, have stopped us from dismantling it. We didn’t care to get rid of our intelligence agencies because we didn’t need to care about them. They were stupid and we had hackers and their tools. From that perspective maybe this collapse of our narrative is a good thing, helps us to shift our focus from implementing tools helping a small elite to circumvent certain threats to starting a political campaign to fix the actual issues. I hope we will.

Ceterum Censeo intelligence apparatus esse delendam. 

  1. that means the data describing certain properties of the actual data such as for example the target email address in an email message or the date it was sent at
  2. and the government and companies were kind of stupid anyways, right?
  3.  CryptoParties do obviously have their place and helping more people understand how to encrypt their laptops and how to choose better passwords is a great project that I fully support

flattr this!

August 14, 2013

ctrl+verlust

10 Thesen zum Neuen Spiel

SPEX_No347_Cover_Umschlagbogen_v02.inddIch habe einen langen, sehr langen Text für die SPEX geschrieben (Ab S. 116), über die Abhöraffaire und wie sie mit den Entwicklungen, die ich vor einigen Jahren unter dem Label Kontrollverlust zusammengefasst habe, zusammenhängt. Denn im Grunde ist ja nichts passiert. Geheimdienste machen das, was sie immer gemacht haben, sie besorgen Informationen. Nur sind das, was früher Telefonkabel und Tonbandgerät waren eben heute Glasfaser und Rechenzentrum. Die Macht der NSA beruht darauf, dass sie auf genau jenen Kräften surft, die ich als die Treiber des Kontrollverlustes ausgemacht habe.

Zum Ende einer langen, düsteren Analyse komme ich dazu, Lehren aus dem NSA-Fall zu destillieren. Ich weiß, das alles ist noch nicht verarbeitet und ich haue voll rein in die allgemeine Prism-Depression. Vielleicht sollte ich an dieser Stelle eine Triggerwarnung aussprechen? Jedenfalls habe ich jetzt, mit etwas Abstand, meine Überlegungen dazu wie es jetzt weitergeht noch mal erweitert und will sie hier als 10 Thesen zur Diskussion stellen.

1. Man kann das Spiel nicht gegen den Kontrollverlust spielen.

Game Over. In allen Vektoren des Kontrollverlusts: Die Allgegenwart der Sensoren, die steigende Volatilität der Daten und die nicht einzugrenzende Aussagefähigkeit vorhandener Datenberge durch neue Analysemethoden wirkt Moores Law unerbittlich. Die Geheimdienste werden weiterhin auf dieser Welle surfen. Und nicht nur die amerikanischen. Auch die russischen, chinesischen und alle anderen, die es sich leisten können.

Wer sich dem Kontrollverlust in den Weg stellt, wird zwangsläufig überrollt. Das Spiel um die Kontrolle der Datenströme ist verloren. Das haben nur noch immer nicht alle eingesehen. Wir haben den Krieg verloren, das Spiel ist aus. Lasst uns ein neues Spiel spielen.

2. Datenschutz ist bankrott

Privatsphäre ist tot, die NSA hat lediglich ihren Stempel darunter gesetzt. Je schneller wir das begreifen, desto schneller werden wir wieder handlungsfähig. Alle politischen, technischen und juristischen Rahmen der “Informationellen Selbstbestimmung” sind nicht mehr vertrauenswürdig und es steht lediglich die Frage im Raum, ob sie seit jeher nur ein vom Staat verabreichtes “Opium fürs Volk” war, während er jederzeit bereit war, ihre Verletzung von der “richtigen Seite” hinzunehmen. Datenschutz war immer eine gewährte Privatsphäre.

Datenschutz ist bankrott. Es macht keinen Sinn mehr, Leute davon abhalten zu wollen, Daten zu sammeln und/oder auszuwerten. Wer mit genug Macht ausgestattet ist, wird sich über Regelungen hinwegsetzen, nur die Zivilgesellschaft wird in ihren Möglichkeiten beschnitten. Im Neuen Spiel ist Datenschutz das Monopolrecht auf Datenauswertung für diejenigen, die sich eh nicht an Gesetze halten.

3. Der Kampf gegen Überwachung muss weiter gehen.

Ziel der Überwachung ist Kontrolle. Der erste FBI-Chef J. Edgar Hoover führte seinerzeit Akten über jeden wichtigen Politiker, jeden mächtigen Wirtschaftsboss und alle möglichen Journalisten in den USA. Überträgt man Hoovers Ruchlosigkeit auf die Möglichkeiten der heutigen NSA, ist ähnliches in globalem Maßstab vorstellbar. Eine solche Machtakkumulation droht nicht nur die amerikanische Demokratie auszuhebeln, sondern bedroht auch die Integrität der Politik auf der ganzen Welt. Auch im Neuen Spiel kämpfen wir gegen Überwachung. Aber mit anderen Mitteln und anderen Zielen.

Totale Kontrolle kann nur entstehen, wenn es ein Ungleichgewicht der Information gibt. Das heißt, 1. dass die Dienste mehr über mich wissen, als ich über sie – das macht sie unangreifbar. Und außerdem heißt es, dass die Dienste mehr über mich wissen, als alle anderen über mich wissen können – dadurch werde ich erpressbar. Die Macht der Dienste basiert auf diesen Asymmetrien. Sie sind mir einen Schritt voraus, sie können die Deutungshoheit beanspruchen, sie können mich im Zweifel erpressen oder haben gleich die Beweise für die Anklage zur Hand, während ich ihrem Informationsvorsprung hilflos ausgeliefert bin. Im Neuen Spiel gilt es, diese Asymmetrien anzugreifen.

4. Das Neue Spiel heißt Transparenz und Vernetzung.

»Snowden besitzt genügend Informationen, um der US-Regierung innerhalb einer Minute mehr Schaden zuzufügen, als es jede andere Person in der Geschichte der USA jemals getan hat«, ließ der Guardian-Journalist Glenn Greenwald, mit dem Snowden in engem Kontakt steht, in einem Interview durchblicken. Bradley Manning, Julian Assange und Edward Snowden spielen das Neue Spiel. Es heißt Transparenz und Vernetzung. Noch nie in der Geschichte der Menschheit konnten einzelne Menschen Staaten auf so grundsätzliche Weise herausfordern. Noch nie konnten sich Menschen so aktuell und umfassend informieren. Noch nie konnten sie sich so schnell und effektiv organisieren, zu Protesten, Petitionen oder gar Ausschreitungen. Die Zivilgesellschaft hat keinen Grund, sich machtlos zu fühlen. Im Gegenteil. Von Tahrir bis Taksim beginnen die Menschen die neuen Möglichkeiten gerade erst zu erahnen.

Und diese neuen Möglichkeiten liegen in der Transparenz. In Deutschland haben #Aufschrei, das Refugeecamp, Guttenplag und viele andere Projekte gezeigt, wie man mit Daten (ihrer Erzeugung, Vernetzung und Auswertung) Aktivismus betreiben kann. Einige spielen bereits erfolgreich das Neue Spiel, aber all das ist erst der Anfang. Open Data, Open Source, Open Everything sind die emanzipativen Forderungen der Zukunft, die es erlauben werden, die Mächtigen besser zu kontrollieren, sie effektiver in die Schranken zu weisen oder gar auszutauschen.

5. Privacyeinstellungen sind böse.

Auf Facebook gibt es keine Privatsphäre. Privacyeinstellungen, der bequeme Weg der Privatsphäre, den Facebook und co. anbieten, ist wie der Datenschutz eine gewährte Privatspäre. Wenn wir sie annehmen, geben wir demjenigen, der sie uns gewährt, Macht. Wir wissen aber heute, dass die NSA mitchattet, wenn wir mit Freunden chatten. Wenn wir Bilder nur für Freunde teilen, teilen wir sie mit Freunden und der NSA. Wenn wir Dinge unter einer gewährten Privatsphäre teilen, teilen wir sie mit der NSA. Und jedes Bit, auf das die NSA Zugriff hat, der Rest der Welt aber nicht, mehrt ihre Macht.

Traut nicht dem Versprechen der Privatsphäreeinstellung. Seid öffentlich, traut euch, angreifbar zu sein. Wenn ihr es für die Öffentlichkeit seid, dann seid ihr es nicht mehr für die Geheimdienste. Im Neuen Spiel hat man die Wahl zwischen Öffentlichkeit oder der Komplizenschaft mit den Diensten.

6. Es gibt keine Privatsphäre mehr, nur noch Verschlüsselung.

Und das ist nicht das selbe. Verschlüsselung schafft im besten Fall Residuen der Vertraulichkeit, temporär, angreifbar, unabgeschlossen. Sie sind aus unterschiedlichsten Gründen keine Antwort auf die Dienste, aber wenn man privat kommunizieren will, ohne auch noch den Diensten zusätzliche Macht zuzuspielen, kann Verschlüsselung nützlich sein. Im Neuen Spiel ist es ein Gebot der Gastfreundschaft, verschlüsselte Kommunikation anzubieten.

7. Der Cypherpunk ist tot, der Hacker nackt.

Die Idee und der Pathos des Cypherpunk sind verflogen. Seine Waffen sind stumpf gegen die NSA, die Legende ist auserzählt. Der Data Scientist hat den Hacker nackig gemacht. Die Dienste können nicht in die verschlüsselten E-Mails gucken? Macht ja nichts. Es reicht ihnen zu wissen, in welcher Netztopographischen Nachbarschaft der Hacker kommuniziert. Mit wem ist er wie eng befreundet, welchen Tagesrhytmus pflegt er, welche Gespräche drehen sich um Arbeit, welche um Freizeit, wie häufig hat er Kontakt zur verdächtigen Person X, wer ist sein Weisungsbefugter, wer beeinflusst ihn und wo hält er sich auf?

Die Hacker, die versuchen, sich dagegen zu schützen, werden Handlungsunfähig. Sie verzichten auf mobile Kommunikation, öffentliche Auftritte und auf die Mobilisierungs- und Organisationsmöglichkeiten der Social Networks. Surfen tun sie nur noch sehr langsam über Tor und einloggen dürfen sie sich fast nirgends, was ihnen viele Informations- und Vernetzungsquellen versperrt. Nichts könnte heute eine soziale Bewegung effektiver lähmen, als eine solche Selbstbeschneidung. Im Neuen Spiel heißt es: Verstecken oder politisch handlungsfähig bleiben.

8. Die Grenzen der Überwachung verlaufen nicht zwischen den Staaten, sondern zwischen oben und unten.

Amerika ist nicht der Feind, Schland.Net ist nicht die Antwort. Wir haben es mit einer internationalen Verschwörung der Regierungen gegen ihre Bevölkerungen zu tun. Man spioniert sich gegenseitig aus und tauscht anschließend die Ergebnisse. So langsam wird uns bewusst, dass ein freies Internet mit dem Kontrollanspruch des Staates langfristig nicht zu vereinbaren sind. In dieser systemischen Inkompatibilität tun sich die Fronten des Neuen Spiels auf. Es ist der Nationalstaat selbst, der sich in Komplizenschaft mit seinen Leidgenossen gegen seine erodierende Macht zur Wehr setzt. Er darf nicht gewinnen.

Es ist deswegen Quatsch eine deutsche Öffentlichkeit gegen den amerikanischen Staat ausspielen zu wollen. Vielmehr schaffen die Snowdenleaks durch das Internet eine zivile Weltöffentlichkeit. Sie war laut Snowden der Adressat seiner Enthüllungen und als solche sollten wir auf die Enthüllungen auch reagieren. Das Neue Spiel heißt “Vernetzte Weltöffentlichkeit vs. Staaten”. Dazwischen stehen die Unternehmen, gespalten zwischen ihrer Verantwortung gegenüber ihren Kunden und den Gesetzen ihres Landes. Im Neuen Spiel wird es auch darum gehen, sie auf unsere Seite zu ziehen.

9. Wir brauchen aktivistisches Big Data.

Das kann alles nur der Anfang sein. Wir müssen aufrüsten. Wir brauchen mehr Wistleblower, mehr Kampagnen, mehr Daten, mehr Vernetzung und vor allem brauchen wir mehr und bessere Datenauswertung. In Deutschland zeigt OpenDataCity wie man bereits mit intelligentem Datenjournalismus politisch agieren kann. In Italien haben die Behörden gezeigt, wie man mit etwas Datenauswertung sogar die CIA ärgern kann. Wir brauchen mehr davon in den Händen der Zivilgesellschaft. Wir brauchen aktivistisches Big Data.

Big Data hilft bereits auf vielen Ebenen die Gesellschaft zu verbessern. Wir brauchen aber auch Big Data, um der Zivilgesellschaft die neuen Möglichkeiten in die Hand zu geben, über die die Dienste längst verfügen. Die Software ist zum großen Teil Open Source. Doch das Know How und die Daten sind knapp. Wo bleiben die Big-Data-Hacker des CCC? Wenn noch viele Daten geleakt werden, wird es Leute brauchen, die fähig sind, sie auszuwerten. Wir brauchen Big Data, um die Regierung zu beobachten, wir brauchen Big Data alleine schon, um die Ergebnisse anderer Institutionen überprüfen zu können. Im Neuen Spiel müssen wir die Berührungsängste mit der Daten-Technologie überwinden, wie der CCC es in 80ern mit dem Computer vorgemacht hat.

10. Das Neue Spiel wird besser.

Das alte Spiel ist verloren, aber wir spielen jetzt ein besseres. Klar, auch hier haben die Mächtigen derzeit die Nase vorn. Aber bereits Snowden hat die NSA nachhaltig gelähmt und wir haben unsere Möglichkeiten nicht mal annähernd ausgereizt. Die NSA hat jährlich ca. 10 Milliarden Dollar Budget zur Verfügung, um uns zu überwachen. Doch wir, die Restweltgesellschaft, geben allein dieses Jahr 3,7 Billionen Euro für Informationstechnologie aus. Im neuen Spiel haben wir mehr Köpfe, mehr Prozessorkerne und sogar mehr Daten zur Verfügung, als die NSA je haben könnte, und mit dem Internet haben wir ein Instrument, all diese Kräfte zu organisieren. Es wird Zeit für eine neues ziviles Selbstbewusstsein.

Das Neue Spiel wird anspruchsvoller als das alte. Vor allem müssen wir uns erst selbst in die neue Rolle einfinden. Wir müssen Gewissheiten aufgeben, Sicherheiten abhaken, in vielen Dingen umdenken. Aber das Neue Spiel ist keinesfalls aussichtsloser als das Alte. Im Gegenteil. Alles auf Anfang.

flattr this!

August 09, 2013

the gay bar

Datenschutz in Zeiten von Prism

Michael Seeman schrieb heute:

Und, wie vorherzusehen war, gab es instantan die üblichen Antworten im Stile von “Selber doof”.

Doch – egal wie man zur Idee der Post-Privacy steht – bleibt eine Sache nicht von der Hand zu weisen: Datenschutz hat seine Grundlage verloren.

Privatsphäre soll in Deutschland durch Datenschutz sichergestellt werden. Dabei gibt es bei Privatsphäre vor allem zwei Komponenten:

  1. Das Recht in Ruhe gelassen zu werden
  2. Das Recht zu kontrollieren, was wer mit “meinen” Daten tut, Nutzung einzuschränken und zu untersagen.

Die “Ideologie Datenschutz” behauptete, dass sie einen wirksame Schutzwall für genau diese zwei Persönlichkeitsrechte darstellte. Doch die Überwachungsskandale haben diese Behauptung ins lächerliche gezogen.

Das Recht in Ruhe gelassen zu werden, sich zurückziehen zu dürfen, unbeobachtet zu sein, mag ja noch in irgendwelchen Gesetzen stehen, wird aber von den Geheimdiensten ignoriert.

Kontrolle über die Verwendung der Daten, die ich in die Öffentlichkeit stelle, habe ich ebenfalls nicht: Ich kann nicht unter meine Mail schreiben, dass Geheimdienste diese nicht verwenden dürfen.

Datenschutz war immer ein Zugeständnis des Staates an seine Bürger, ein Versprechen, dass er den Menschen Kontrolle und Rückzugsraum zugesteht und nicht eindringt. Wie Michael Seemann gestern in einem Gespräch sagte

Die NSA hat unter die Aussage “Privatsphäre ist tot” Stempel und Unterschrift gesetzt.

Datenschutz war immer eine Zusage der Obrigkeit und offensichtlich wurde dieser Deal einseitig vollständig gekündigt:

3p4nf0 300x205 Datenschutz in Zeiten von Prism

 

Ob wir ein Konzept wie Privatsphäre anders schützen können, ob die Cypherpunks recht haben und ein Rückzug in geheime Kryptozirkel ein Weg dazu ist, ob Privatsphäre tot ist, all das sind andere (wenngleich sehr spannende) Fragen. Aber die Idee Datenschutz als juristisches Konstrukt ist bis auf weiteres erledigt, nicht weil die Gesetze sich geändert haben sondern das Vertrauen in die “Vertragspartner” zerstört ist.

Datenschutz war immer schon eine Idee, die sich auf ein gewisses Vertrauen dem Staat gegenüber stützte. Das Fundament ist zerbröckelt.

flattr this!

July 25, 2013

ctrl+verlust

23andme: Wie ich für todkrank erklärt wurde und mich wieder gesund debuggte

/*****************
In den Feuilletons dieses Landes wird ja immer gerne über “die Algorithmen” geschimpft, die unser Leben bestimmen und furchtbar böse sind. All diese Artikel zeichnen sich durch eine bodenlose Unkenntnis der Materie aus, die sich in der Undifferenziertheit ihrer Analysen niederschlägt. Das ist schade, denn nichts bräuchte es dringender als kompetente und entschiedene Algorithmenkritik. Heute habe ich die Ehre, meinen ersten Gastautor begrüßen zu dürfen. Lukas F. Hartmann (@mntnm) ist Programmierer, Startupgründer und wie ich 23andme-Kunde, nur schon ein paar Jahre länger. Er hat eine spannende Geschichte zu erzählen, die wirklich zu denken geben sollte.

Update 25.07.13: Dank konstruktiver technischer Kritik von @moeffju haben wir den Absatz 2 etwas überarbeitet. Dort ist jetzt nicht mehr von einer “Genpool-Norm” die Rede, sondern vom Referenzgenom.
*****************/

Seit November 2010 bin ich Mitglied bei 23andme. Ich sandte ihnen meinen Speichel und bekam dafür einen Online-Zugang zu meinem Genom. Das dachte ich jedenfalls damals. Heute habe ich mich etwas genauer informiert und weiß nun, dass 23andme eine Art Gensuppe aus dem Speichel extrahiert und diese auf einen sogenannten DNA-Microarray-Chip der Firma Illumina kippt. Diese Chips sind mit abertausenden Testfeldern bestückt. Ein Testfeld besteht aus einem kleinen Molekül-Strang, an den sich wiederum genau passende Schnipsel aus meiner DNA andocken. Die Moleküle auf dem Chip sind so designt, dass sie auf das erfolgreiche Andocken mit dem Ausstrahlen von fluoreszentem Licht reagieren. Auf dem gesamten Chip passieren hunderttausende einzelne Tests parallel. Daraus ergibt sich ein Bild, das gescannt und mit einer Datenbank sogenannter SNPs — sprich: Snips — abgeglichen wird.

Laut Wikipedia stellen diese SNPs, “Single Nucleotide Polymorphisms”, “ca. 90% aller genetischen Varianten im menschlichen Genom dar“. Wird bei mir eine SNP-Variation  festgestellt, bedeutet das, dass es in einem Basenpaar meiner DNA eine Abweichung vom sogenannten “Reference Genome” gibt. Wir erinnern uns: die Nukleinbasen Adenin (A), Guanin (G), Cytosin (C) und Thymin (T) sind die Grundbausteine des DNA-Codes. Hätte ich also ein A>C-SNP, würde das bedeuten, dass bei mir z.B. auf dem jeweiligen Nukleotid statt einem A ein C herumliegt. Diese Abweichung muss nicht automatisch gut oder schlecht sein. Das wird erst dadurch bewertet, indem man statistisch abgleicht, ob z.B. alle Mitglieder einer Patientengruppe mit dieser Mutation eine bestimmte Krankheit entwickeln.

23andme gleicht also hunderttausende gescannte SNPs aus meinem Genom mit ihrer Datenbank ab, die sie ständig auf Basis wissenschaftlicher Quellen und Studien aktualisieren. Ihre Website zeigt dann hübsch aufbereitete, allgemeinverständliche Interpretationen etwaiger genetischer Abweichungen, durch die sich Krankheitsrisiken ergeben an, aber unterrichtet auch von unterhaltsamen Dingen wie der genetischen Herkunft (99% Europäer, 3% Neanderthaler, 0.5% Skandinavier).

Jedes mal, wenn es neue Erkenntisse zu “Health Risks” oder “Inherited Conditions” gibt, bekommt man eine Email. Lange Zeit ging alles gut, es gab keine besonderen Überraschungen, davon abgesehen, dass ich wahrscheinlich an Herzinfarkt mit einer Dosis Prostatakrebs sterben werde. Aber so ungewöhnlich ist das ja nun auch wieder nicht.

Vor wenigen Wochen gab es jedoch plötzlich ein Update in einem Erbkrankheiten-Report. Ich klickte auf den Link und ein Hinweis poppte auf. Bei brisanten Befunden wird man aufgefordert zu bestätigen, ob man das wirklich wissen will. Ich klickte auf OK und wurde weitergeleitet. Dort stand: “Has two mutations linked to limb-girdle muscular dystrophy (dt: Gliedergürteldystrophie, eine Art lähmendem Muskelschwund). A person with two of these mutations typically has limb-girdle muscular dystrophy.” Ich ließ das kurz auf mich wirken. Ich hatte noch nie von dieser Krankheit gehört. “Some people with limb-girdle muscular dystrophy lose the ability to walk and suffer from serious disability“, stand dort neben einem Bild eines lächelnden Physiotherapeuten, der eine ebenso lächelnde Patientin stretcht. Was sie nicht verrieten, Wikipedia jedoch schon, war, dass diese Krankheit auch häufig tödlich endet. Je mehr ich über LGMD nachlas, desto schlechter wurde meine Laune. Ich drückte an meinen Schultern und Oberschenkeln herum und bemerkte nichts besonderes. Ich dachte, wollte: “Das kann nicht sein. Es muss ein Fehler sein.

Mir wurde klar, dass ich keine Ahnung hatte, was die “technischen” Angaben, die mir hinter einem kleingedruckten Link bei 23andme angezeigt wurden, überhaupt bedeuteten:

Wenn ein Mensch in eine lebensbedrohliche Situation gerät, können ihm ungeahnte Kräfte erwachsen. Wenn ein Nerd in eine lebensbedrohliche Situation gerät, liest er erstmal das Internet leer, bis er die Situation restlos verstanden hat. Ich lud zunächst meine 23andme-Rohdaten herunter und prökelte mit dem Texteditor darin herum. Ich las bis in die frühen Morgenstunden kryptische Gentechnik-Artikel und setzte die seltsame Genanalyse-Software “ Promethease” ein, die unter anderem die 23andme-Daten versteht, aber einem nichts aus diplomatischen Gründen vorenthält. Ich fuchste mich in Genetik ein, um meinen Quellcode zu verstehen. Jemand hatte bei mir einen Bug gefunden und ich wollte ihn reproduzieren, koste es was es wolle.

Detektiert hat 23andme bei mir zwei SNPs, die sie intern als rs28933693 und rs28937900 bezeichnen. Ich versuchte, genaueres zu diesen Mutationen herauszufinden. Zum Eintrag “rs28933693″ findet man in der sogenannten SNPedia – eine Art Wikpedia für SNPs – einen Link zu einem Eintrag in der OMIM (Online Mendelian Inheritance in Man). Im betreffenden Eintrag dort findet man Auszüge aus Studien, bei denen bei LGMD-Patienten eine sogenannte homozygote Mutation in einem Gen identifiziert wurde.

EXKURS: Um das zu erklären, muss man verstehen, dass Menschen zwei Kopien jedes Chromosoms, eins von der Mutter, eins vom Vater, haben. Eine heterozygote Mutation betrifft nur eine der beiden Chromosomkopien, bei einer homozygoten Mutation ist die selbe Stelle in beiden Kopien des Chromosoms auf die selbe Art und Weise verändert.

Das praktische an der Chromosomkopie ist, dass ich sozusagen ein Backup für die betroffene Funktion habe. Wenn also eine Stelle meiner DNA z.B. ein wichtiges Enzym kodiert, und diese auf einem Chromosom “kaputt” ist, habe ich dieselbe mit etwas Glück nochmal auf dem anderen Chromosom. Wenn man Pech hat und zwei Eltern, die beide “Carrier” (Träger) derselben Mutation sind und die beiden defekten Hälften unglücklich im Kind kombiniert werden, manifestiert sich die Erbkrankheit. Bei den untersuchten LGMD-Patienten ist genau das der Fall, bei ihnen sind beide Kopien auf die selbe Art (homozygot) verändert und dadurch defekt – was schrecklich selten passiert, aber es passiert.

Und ich soll nun einer dieser Wenigen sein? Nachdem ich mir all dieses Wissen nach vielen Stunden bangen Recherchierens angeeignet hatte, schaute ich genauer hin – und zwar in die Rohdaten. Ja, ich hatte tatsächlich zwei Mutationen. Aber nicht im selben Gen, sondern in zwei unterschiedlichen. Seltener Weise aber in zweien, die beide statistisch mit LGMD verknüpft sind. Meine Mutation war also gar nicht homozygot, sondern heterozygot – ich hatte sie nur in einem Chromosom und die andere betraf ein völlig anderes Gen! Der/die verantwortliche Web-ProgrammiererIn bei 23andme hat aber in der Vorlage für LGMD die beiden eigentlich unabhängigen Mutationen zu einer einzigen homozygoten zusammengezählt, und Zack – der Algorithmus schlug Alarm.

Ich schrieb eine Supportanfrage mit meinen Recherchen und Schlussfolgerungen. In der Sofwareentwicklung nennen wir das “Bugreport”. Nach ein paar Tagen Wartezeit wurden mir der Bug inklusive Entschuldigung von 23andme bestätigt. Der Fehlerhafte Code war also gar nicht in mir, sondern im Algorithmus. Im Gegensatz zu meinem genetischen Code kann ein Algorithmus aber leicht gefixed werden. Auf meiner Ergebnisseite steht nun:

“Has multiple mutations linked to limb-girdle muscle dystrophy, but they are in different genes. A person with such mutations typically does not have the condition, but can pass the mutations to offspring. May have other mutations linked to limb-girdle muscular dystrophy (not reported here).”

Damit kann ich leben. Ziemlich lange sogar.

/*****************
Unter der Kategorie Algorithmenkritik möchte ich von nun an konkrete Kritiken und spannende Geschichten sammeln, die über das feuilletonistische Geschwafel von “den Algorithmen” hinausgehen. Wer sich auskennt und zu berichten hat, dass ein bestimmter Algorithmus tatsächlich unser Leben und vielleicht die ganze Gesellschaft negativ beeinflusst, fehlerhaft oder unethisch ist, und/oder wie es besser ginge, kann sich gerne bei CTRL-Verlust als GastautorIn bewerben.
*****************/

flattr this!

July 22, 2013

ctrl+verlust

Prism und eine düstere Post-Privacy-Prognose

Ich habe für ZEIT Online einmal aufgeschrieben, was Prism aus Sicht der Post-Privacy-Lebensführung bedeutet. Darin erkläre ich auch, dass es ein historisches Mißverständnis ist, in Daten nur immer das Belastende zu sehen:

Wir haben Daten lange Zeit für böse gehalten, denn anhand von Daten können wir in Verdacht geraten. Daten können uns belasten, uns sogar ins Gefängnis bringen. Das stimmt auch, aber es ist nur die eine Seite der Medaille. Dass wir diese einseitige Sicht auf Daten haben, liegt an der historischen Besonderheit, dass Datenverarbeitung lange Zeit nur und ausschließlich von großen Institutionen wie Staat und großen Unternehmen betrieben wurde. Das hat sich nun geändert, seit einigen Jahren sammeln, tauschen und verarbeiten wir alle Daten jeden Tag – und jeden Tag ein bisschen mehr.

LESEN >>>

Man kann diese Frage noch weiter zuspitzen, wie Sascha Lobo mit Bezug auf Patrick Breitenbach es getan hat. Unter dem Titel: “Wer lesen kann, kann auch schreiben” wird ein Szenario beschrieben, das noch schlimmer wäre also bloße Überwachung: Was wäre, wenn sich die Dienste dazu entschlössen, statt die Daten nur zu sammeln, sie zu auch manipulieren. Wer in der Lage ist, das zu tun, hat die Macht der allgemeinen Realitätskonstruktion und der absoluten Manipulation.

In der Tat ist dies eines der schlimmsten vorstellbaren Szenarien eines Totalitären Staates und es ist auf keinen Fall ausgeschlossen, dass es soweit kommt. Ein machthungriger Dienst wird diese Option in jedem Fall erwägen.

Aber stimmt das so pauschal: “wer lesen kann, kann auch schreiben”? Spielen wir diese Möglichkeit doch einmal im Detail durch:

Der Geheimdienst könnte mir Daten unterschieben oder meine Daten manipulieren, auf die nur ich Zugriff habe. Man könnte z.B. Kinderpornografische Bilder auf meine Festplatte schmuggeln, die dann “entdeckt” werden. Ich käme in Erklärungsnot, könnte aber diese Möglichkeit der Manipulation vorbringen. Leider würde ich dann vermutlich als Verschwörungstheoretiker belächelt.

Der Geheimdienst könnte auch die Daten manipulieren, die ich mit anderen ausgetauscht habe. Er könnte beispielsweise eine E-Mail fingieren, in der ich einen Terroranschlag plane. Hier wird es kniffeliger für den Geheimdienst. Denn mein Gegenüber hat vermutlich eine Kopie meiner Mail auf seinem Rechner, und/oder in seinem Webmail-Postfach. Zudem gibt es für die Mail – für ihr Auftauchen und ihren Inhalt – einen Zeugen. Das alles ist lange nicht manipulationssicher, aber der Geheimdienst hat eine ganze Menge mehr Arbeit, mir etwas unterzuschieben.

Noch viel schwieriger ist es, wenn der Dienst etwas manipulieren will, was in aller Öffentlichkeit gesagt wurde. Mein Facebookstatus, einen Tweet, einen Blogpost. Zunächst müsste der Geheimdienst Schreibzugriff auf die jeweiligen Server und Datenbanken haben. Dass diese ihm gewährt werden, z.B. von Google, Facebook und Twitter ist zwar unwahrscheinlich, aber auf keinen Fall ausgeschlossen. Noch einfacher ist es, bei selbstgehosteten Blogs wie WordPress, denn die lassen sich alle mit einem Schraubenzieher und ein bisschen Spucke hacken.

Aber was ist mit den hunderten, ja tausenden Zeugen, die das Original schon gelesen haben. Was ist mit all den automatischen, halbautomatischen und bewussten Kopien, die bei Google, archive.org, hunderten Browsercaches und Poxies lagern? Wer hätte auf all diese Quellen Schreibzugriff, wer ist glaubwürdiger als hunderte von Zeugen? Egal, wie man glaubt, dass sich Geheimdienste entwickeln werden, eine solche Manipulationsleistung wird man ihnen auch in Zukunft nicht zutrauen.

Wir halten fest: “Wer lesen kann, kann auch schreiben” gilt umso weniger, je öffentlicher eine Information geteilt wird. Je öffentlicher eine Information, desto schwieriger bis unmöglich wird es, sie hinterher zu manipulieren.

Und so ist es auch nicht verwunderlich, dass Autos in Russland zu einem großen Teil mit Videoregistratoren ausgestattet sind. Das sind kleine Kameras, die fest an der Windschutzscheibe kleben und dort alles aufzeichnen, was sich während der Fahrt ereignet.

Das System ist deswegen so populär in Russland, weil dort eine korrupte Willkürherrschaft der Polizei den Rechtstaat ausgehöhlt hat. Wer Recht bekommen will, kann sich nicht auf den Staat verlassen. Mit den Videoregistratoren steht man im Erstfall nicht alleine da. Man hat Beweise, die nur schwer entkräftbar sind. Man hat Deutungshoheit. Die guten Modelle streamen die Videodaten direkt auf einen Server, so dass die Polizei diese Deutungshoheit auch nicht wieder kaputt machen kann, indem sie die Dinger konfisziert.

Die Chance der offenen Daten sich horizontal zu vernetzen, so geht eine gängige These zur Post-Privacy, werde sich so nützlich und politisch mächtig erweisen, dass die Leute sich auf Dauer entscheiden, öffentlich zu leben.

Diese optimistische, beinahe utopische Prognose wurde von Datenschützern immer gerne als naiv und weltfremd verworfen. Das ginge nur, solange man nicht einer Macht ausgeliefert sei.

Jetzt kann man dem Argument eine pessimistische, aber nur auf den ersten Blick zynische These hinzusetzen: Post-Privacy wird sich auch deswegen durchsetzen, weil die Leute es nicht so schlimm finden, bei etwas erwischt zu werden, als unschuldig angeklagt zu werden. Und das Argument gilt um so stärker, je mehr man sich einer mächtigen Willkür ausgesetzt sieht.

flattr this!

June 13, 2013

the gay bar

To be forgotten

or “trying to facilitate perfection”

Every social concept has its memes, the phrases, images or ideas that always tend to come up sooner or later when discussing the concept. When talking about privacy at some point the “right to be forgotten” will pop up.

This idea is within the top 5 talking points of the current global privacy discussion that the Internet has reignited. Even the European Union is currently trying to put it into law under the cheers of privacy and civil rights activists.

Being “forgotten” seems to be the silver bullet to all the privacy issues we are having as a global society: You accidentally uploaded an unflattering photo? Have it removed forever. You wrote something stupid? Away it goes. You are scared that Facebook, Google or whoever the boogeyman currently is knows too much about you? Get removed from their servers, completely.

Now the proponents of this idea have a really mighty argument at their disposal that tends to resonate well with the crowd due to its apparentness: Human beings forget, so why shouldn’t databases?

Most people have no eidetic memory so they have a hard time recollecting how things really were even after short amounts of time. For example: What’s the subtitle of this article? You read it a few seconds ago. But most of you probably didn’t remember it (Kudos to those that did!). Our society relies heavy on this “feature”: We can rely on that our mishaps and mistakes (if not too grave) will soon be forgotten, gone like so many memories before. Why not build our technology to emulate this behavior?

Because when celebrating our own forgetfulness we are cheating ourselves. While everybody would probably be glad to have his or her missteps erased from history we do everything we can to not have that happen. In school we teach kids how to focus, how to commit things to your mind. We admire people with eidetic memories or people with big memories. Especially in societies that value education the trope of the wise elderly professor knowing everything is still seen as something great and having someone like that in your life or past is considered great luck.

We don’t want to forget, forgetting is a bug. Well to be precise, unintentional forgetting is a bug – many would probably sell a kidney to be able to just erase the traumata of their present or past.

In 2007 Terry Pratchett the famous author announced that he had Alzheimers disease, a condition that at some point will start deleting his memories (amongst other things). And many of us were horrified, losing our memories is one of the worst things most of us can imagine. All those images in our heads that we cherish, the feeling we had when graduating, the first time you made your partner laugh, the warmth of your first kiss…

We don’t want to forget. So claiming it to be a great feature we should implement in our technology is just us bullshitting ourselves.

Look how successful historical documentaries are. When the Paris1914 Project released color pictures from the Paris of 1914 how many people browsed that page, shared it? How often have you heard the piece of advice that you shouldn’t buy gadgets and trinkets but spend your money experiencing things (and generating memories along the way)?

We don’t want to forget. But we ask for it because of our manic attachment to perfection (which I actually wrote a longer article about a few weeks ago).

We don’t want to forget, we just want others to forget our imperfections. And that is a whole different ballgame. Suddenly it becomes less about us and how good it is for us to forget the bad things in our live, it becomes about us trying to control the world and all the people in it.

Like a child we want to be god, want to decide what the different dolls we play and entities we interact with are supposed to know and what they must forget. It’s not something we want as a pact amongst equals – it’s something we want to hide behind.

The electronic databases all over the Internet belong to different companies and entities and it’s very easy to point at them as being the enemy, the monster with beady eyes tracking and saving our every move. What that perspective ignores is that we have made those databases part of us, part of our digital exoskeleton. Our social connections on the net, the archives of our ideas and comments and pictures and likes that our friends attached to it are a part of us. And them. It’s something we share. And that makes it something we really have no right to destroy unilaterally.

The right to be forgotten is a seemingly simple and effective solution for a real problem. But it also creates new problems: People could remove their part of a debate leaving other people hanging when trying to understand what was talked about. We are effectively putting a “best before” date on our history: Learn what you can from recent events while you still can.

In the end it boils down to us taking a bad habit from the world we know, a habit that causes stress, pressure and the constant feeling of being insufficient, and trying to implement all the necessary steps to make the new digital world obey the same rules.

And that is really just sad.

(This post originally appeared on Medium)

flattr this!

May 29, 2013

Spackeria

Datenvisualisierung vs. Vorratsdatenspeicherung

Ich habe die re:log Visualisierung von re:publica Bewegungsdaten vor einigen Tagen hier im Blog sehr positiv besprochen: Aus der Bewegung der Menschenströme lassen sich viele spannende Erkenntnisse ableiten, zum Beispiel über die Qualität von Vorträgen.

Nun wurde die Visualisierung nicht überall so positiv aufgenommen: In vielen Kommentaren werden Parallelen zur “Vorratsdatenspeicherung” gezogen, andere beklagen den Mangel an einer transparenten Kommunikation mit den re:publica Besuchern, die von der Datenspeicherung nichts wussten. (Die Kommentierenden im Blog der Konferenzausrichtenden sind insgesamt eher wenig begeistert.)

Betrachten wir zuerst den einfacheren Fall, die Nicht-Informierung der Teilnehmenden. Losgelöst davon, dass die Daten, die hier anonymisiert zur Visualisierung genutzt wurden, in jedem WLAN abgegriffen werden können, ist das Vorgehen, sowas ohne das Wissen der Teilnehmenden zu machen, keineswegs wünschenswert. Insbesondere wegen der Ausrichtenden waren die Teilnehmenden wahrscheinlich nicht davon ausgegangen, dass eine solche Datenerhebung stattfinden würde. Im Sinne eines fairen Umgangs miteinander wäre hier eine klare Kommunikationsstrategie, die deutlich macht, welche Daten ausgewertet werden, wünschenswert: Die Visualisierung ist spannend und wegen der Anonymisierung (die wie fast jede andere Anonymisierung nicht 100%ig funktioniert) wie ich finde auch keineswegs zu invasiv, trotzdem bekommt sie durch die Intransparenz einen faden Beigeschmack. Kritik in dieser Richtung halte ich also für durchaus angebracht, insbesondere an Netzpolitik.org als Bürgerrechtsaktivisten werden hier einfach höhere Anforderungen gestellt als an irgendwelche anderen Ausrichter.

Kommen wir nun zum spannenderen Teil: Dem Vergleich zur Vorratsdatenspeicherung. Unter Vorratsdatenspeicherung verstehen wir in diesem Kontext insbesondere die anlasslose Speicherung von Verbindungsdaten von Menschen. Die Exekutive will diese Verbindungslisten haben, um im Falle von Verbrechen u.ä., die Verbindungen einer Person oder die Person, die zu einer Verbindung gehört, abfragen zu können. Egal wie man zur Vorratsdatenspeicherung steht, es wird hier sehr schnell klar, dass der Vergleich der re:log Visualisierung oder der genutzen Daten inhaltlich kompletter Unfug ist.

Die re:log Daten sind nicht personenbezogen, aus dem Datensatz selbst gehen keinerlei Personenzuordnungen hervor. Das hat einerseits natürlich mit der Anonymisierung zu tun, die alle Datenpunkte auf reine Zahlen herunterbricht. Andererseits kommt hinzu, dass die zur Identifikation verwendeten MAC Adressen, per Definition Geräteadressen sind: Wenn man z.B. wie ich seinen Laptop anderen Menschen zur Verfügung stellt, dann würden die Bewegungsprofile von zwei Menschen an einer Stelle zusammengeführt. Hier fehlt also schonmal ein ganz signifikanter Bezug zu dem, was die Vorratsdatenspeicherung ausmacht: Der Personenbezug.

Doch auch den anderen signifikanten Aspekt der Vorratsdatenspeicherung kann der re:log Datensatz nicht erfüllen: Die Sammlung von Verbindungsdaten. Natürlich wird hier irgendwie gemessen, welche Geräte mit dem Netzwerk “verbunden” waren, doch das ist ja nicht, was wir unter Verbindungsdaten verstehen. Eine Verbindung im Sinne der Vorratsdatenspeicherung ist eine 1:n Verbindung, die über das Netzwerk hergestellt wird. In diesem Falle hätten die Netzwerkbetreiber an dieser Stelle buchführen müssen, welche Webseiten welche Nutzenden angesurft haben oder zu welchen Servern sie andere Verbindungen aufgenommen haben. Diese Daten sind aber nicht ansatzweise im re:log Datensatz vorhanden.

Wir können also zusammenfassen: Das re:log Projekt bzw. die Datensammlung hätte im Vorfeld kommuniziert werden sollen, die Verbindung zur Vorratsdatenspeicherung und die damit einhergehende Empörungswelle hingegen ist Humbug.

Die Reaktionen auf dieses Experiment hingegen werfen einige neue Fragen auf.

Beschweren sich die Kommentatoren auf über das kostenlose WLAN Netz in den Starbucks Filialen, welches von der BT Group (British Telecom) betrieben wird? Wie ist das mit dem WLAN auf der CeBIT, welches T-Systems bereitstellt? Fragt dort irgendjemand nach, welche “Abfalldaten” dort erhoben und wie sie verwendet werden?

Wie ist das eigentlich mit Freifunk? Erheben dort einzelne (oder mehrere Knoten) solche Daten? Kann das ausgeschlossen werden? Was ist mit all den Event-WLANs?

Das OpenDataCity Team hat für ihr re:log Projekt einen recht konservativen Kompromiss zwischen einer spannenden Datennutzung und der Anonymisierung von Menschen gewählt. Die ihnen teilweise entgegenschlagende Kritikwelle deutet auf ein grundsätzliches Unverständnis der Struktur der Realität hin: Egal ob wir uns in der physischen Welt oder der digitalen Bewegen, wir hinterlassen Spuren. Wir reagieren zu recht ungehalten darauf, wenn uns jemand verfolgt und beschattet, doch was OpenDataCity hier gemacht hat, ist eher vergleichbar damit, in einer Bar aufzustehen und sich umzusehen – ein Verhalten, welches in der physischen Welt niemand kritisieren würde.