Datenkrake Google (7/7): Privatsphärenschutz in der Datenwolke

[InhaltTeil 1 Teil 2 – Teil 3 – Teil 4 – Teil 5 – Teil 6 (+Nachtrag) – Teil 7]

Wir haben uns in den Artikeln dieser Serie ein Modell gebildet, was Google mit Daten macht, welche Prinzipien dahinter stecken und wie daraus optimierte und partiell personalisierte Funktionen werden. Wir haben gesehen, dass naive Vorstellungen von Nutzerprofilen wahrscheinlich falsch sind. In Wirklichkeit betreibt Google automatisierte Verhaltensforschung im Industriemaßstab, bezogen auf spezifische Funktionen wie Eingabekorrektur, Übersetzung oder Werbeoptimierung. Als Ergebnis gewinnt Google populationsstatistische Aussagen, die individuell beziehungsweise nach impliziter Gruppenzugehörigkeit modifiziert werden können; eine klare Grenze zwischen diesen Aggregationsgraden gibt es nicht. Erfasst und gespeichert sind Googles Erkenntnisse in den Konfigurationen aufgabenspezifischer Klassifikatoren, die laufend dem globalen Verhalten der Nutzerpopulation angepasst werden. Die naiven Modelle aus Folge 2 passen nicht so recht dazu, auch wenn Google selbst manchmal anderes suggeriert:

Wer ein Google+-Profil hat und mit Google nach seinem eigenen Namen sucht, bekommt vielleicht diese Aufforderung zu sehen. Gemeint sind die expliziten und freiwilligen Angaben im Profil, nicht der Durchleuchtungsgrad der Person.

Damit es keine Missverständnisse gibt: Google besteht nicht nur aus lernenden Maschinen, viele Funktionen und Dienste nutzen auch herkömmliche Verfahren. Welche Termine in meinem Google-Kalender stehen, wen ich in Google+ in welchen Circles habe und welche Nachrichten in meinem GMail-Account liegen, speichert und verarbeitet Google (auch) ganz normal im Klartext, wie es jeder SaaS-Anbieter in der Cloud tun würde. Darauf mag man alle etablierten Begriffe und Modelle des Datenschutzes anwenden, wenngleich sie sich vielleicht aus anderen Gründen als unpassend erweisen. Ich behandle hier die Angstfunktion Daten sammeln und auswerten. Daten einfach zu sammeln lohnt sich im Google-Maßstab nicht, weil man mit einer Datenhalde wenig anfangen kann. Nach meinem Modell nutzt Google umfangreiche Daten, um damit einen Satz an Betriebsparametern fortlaufend zu optimieren und dem Lauf der Welt anzupassen. Die Optimierung und Anpassung erfolgt interaktiv, Google lernt von seinen Nutzern, was richtig und was falsch ist, was ähnlich und was verschieden. Das ist etwas anderes als das elektronische Profil, das Thilo Weichert sich vorstellt und es hat Folgen, die er sich nicht vorstellt.

Was ist anders?

Ein Klassifikator häuft nicht einfach Daten an. Er besitzt eine Konfiguration und zwei Grundfunktionen, Lernen und Klassifizieren. In der Funktion Klassifizieren erhält er einen Datensatz als Eingabe und gibt eine Entscheidung oder Entscheidungsempfehlung aus. In der Funktion Lernen passt er seine Konfiguration an, um die Rate der Fehlentscheidungen zu reduzieren. Die Konfiguration des Klassifikators gibt nicht die einzelnen Eingabedaten wieder, sondern ein davon abgeleitetes Modell. Darin unterscheidet sich dieser Ansatz von der Karteikarten-IT herkömmlicher Datenbanken, die alle Eingaben wörtlich abspeichern und als Ausgabefunktion im wesentlichen das Herausfiltern der jeweils gesuchten Daten anbieten. Welche Daten ein Klassifikator nutzt und was er über uns weiß, sind zwei Paar Schuhe. Wir können einen Klassifikator nicht danach befragen, welche Eingabedaten er zu einer Person erhalten hat.

Das führt zu interessanten Folgerungen für den Privatsphärenschutz:

  1. Verhaltensbeobachtung und -auswertung bedeutet nicht zwingend eine Verletzung der Privatsphäre. Beispiele dafür sind die Korrekturfunktionen in der Google-Suche und in Google Translate, die aus dem Benutzerverhalten lernen. Google beobachtet bestimmte Aspekte des Nutzerverhaltens über eine Folge von Vorgängen hinweg, interessiert sich am Ende aber vor allem für statistische Aussagen.
  2. Ein Kontinuum an Personenbezug. Ein Klassifikator kann personenbezogene Entscheidungen treffen, er muss es aber nicht. Er wird Entscheidungen nach den Kriterien treffen, die in der Vergangenheit erfolgreich waren. Da die Konfiguration des Klassifikators variabel ist, kann sich der personenbezogene Entscheidungsanteil laufend ändern. Nützlich ist ein Klassifikator vor allem dort, wo es verallgemeinerbare Zusammenhänge in den Daten gibt – Verallgemeinerung ist das Gegenteil von persönlichen Profilen. Die vielen Einzeldaten braucht man , weil man die Verallgemeinerungsregeln vorher nicht kennt.
  3. Einzelne Merkmale – IP-Adresse, Cookies, Geburtsdatum und so weiter – sind wenig relevant. Klassifikatoren arbeiten in vieldimensionalen Merkmalsräumen und bei guter Konstruktion tragen alle Dimensionen zur Klassifikationsleistung bei. Lässt man eine Merkmalsdimension weg, bleiben (n-1) übrig, für ein ziemlich großes n. Die Klassifikationsleistung verringert sich dadurch nur wenig, zumal in den verwendeten Daten Korrelationen zwischen mehreren Dimensionen auftreten können. Das heißt auch: ein Klassifikator kann relativ robust gegen gelöschte Cookies sein.
  4. Der Grad der Personalisierung hängt auch vom Nutzerfeedback ab. Wie stark die Entscheidungen eines Klassifikators personalisiert sind, hängt davon ab, welches Feedback der Nutzer zu diesen Entscheidungen gibt. Wer viel Werbung anklickt, personalisiert seine Werbeeinblendungen damit, falls dieses Feedback mit Personen- oder Pseudonymbezug zum Lernen verwendet wird.
  5. Klassifikator-Modelle sind inhärent zweckgebunden. Ein Klassifikator wird für eine bestimmte Aufgabe entworfen und trainiert. Zwar kann man die dabei entstehende Konfiguration als Modell der Problemlösung untersuchen und dabei Interessantes herausfinden. Jedoch lässt sich ein Klassifikator nicht einfach für etwas anderes verwenden. Einen universellen Klassifikator, der »alles« kann, gibt es nicht; jedes Optimierungsverfahren benötigt Annahmen über das Problem. Man kann freilich einen Klassifikator mit Personen als Ausgabeklassen bauen, wenn man Feedback über die Richtigkeit der Zuordnung bekommt.
  6. Löschen geht nicht – aber Personenbezüge können verblassen. Sind Daten über einen Nutzer in die Konfiguration eines Klassifikators eingeflossen und dort mit anderen Daten verschmolzen, lässt sich dieser Vorgang nicht sinnvoll rückgängig machen. Liefert ein Nutzer keine neuen Daten nach, werden seine Einflüsse jedoch nach und nach von anderen überlagert. Ein fortwährend trainierter Klassifikator in einer veränderlichenUmgebung verliert im Laufe der Zeit seine Fähigkeit, auf diesen Nutzer personalisierte Entscheidungen zu treffen – er vergisst, ohne auf den Innenminister und dessen Ideenwettbewerb zu warten.

Solche Phänomene sind in unseren überlieferten Datenschutz-Konzepten nicht vorgesehen. Wir können auf verschiedene Arten damit umgehen. Wir können auf die Einhaltung formaler Vorschriften aus einer anderen Zeit pochen und Bürokratie als Selbstzweck vollziehen. Dann ist Google verboten, bis jeder Nutzer eine Generalvollmacht erteilt hat und ab und zu gibt es einen Shitstorm. Oder wir erinnern uns daran, dass Datenschutz als Mittel zum Zweck unserer Selbstbestimmung über unsere Privatsphäre dienen soll. Dann müssen wir bei diesem Ziel ansetzen und uns neu überlegen, wie die Technik es bedroht und wie vielleicht auch nicht.

Datenschutzreformen

Juristen diskutieren seit geraumer Zeit über Datenschutzreformen. Thomas Stadler berichtete zum Beispiel in seinem Blog über ein Thesenpapier zur Datenschutzreform (hier gibt’s einen Aufsatz dazu). In der Rechtsanwendung gibt es noch einmal ganz eigene Probleme. Aus Amerikanisch-Kanadischer Sicht beschäftigt sich Tara Whalen mit der Frage, wie man den Personenbezug sinnvoll definieren sollte und fasst im Artikel This Time, It’s Personal. Recent Discussions on Concepts of Personal Information (paywalled) den Stand der Debatte zusammen.

Als Informatiker kann ich dort nicht qualifiziert mitreden. Mir stellen sich andere, aber verwandte Fragen: Wie sieht wirksamer Privatsphärenschutz in heutigen und künftigen soziotechnischen Systemen aus? Von welchen Bedrohungsmodellen muss er ausgehen und wie kann er die Evolution der Technik zulassen und begleiten?

Cookies, IP-Adressen und die Datenübermittlung in andere Länder nützen uns als Diskussionsrahmen wenig. Die Radikallösung, Teile des Netzes ungenutzt zu lassen, ist wegen seines großen Nutzens keine realistische Option. Interessanter ist, wer uns anhand welcher Daten wehtun kann, wie wahrscheinlich das ist, und welche wirksamen Maßnahmen es dagegen gibt.

Die Abstraktion des personenbezogenen Datums und der Entscheidung des Betroffenen, wer dieses Datum haben darf, stammt aus einer anderen Ära der Informationstechnik. Unabhängig davon, in welchem Maße Techniken wie die von Google eingesetzten unsere Privatsphäre bedrohen oder nicht, können wir mit der Freigabe einzelner Datensätze und Datenfelder keinen sinnvollen Einfluss auf eventuelle Risiken nehmen. Vielleicht müssen wir uns gänzlich von der Idee lösen, dass es auf Daten ankäme, und uns damit beschäftigen, was daraus gemacht wird.

Die individuellen und gesellschaftlichen Privatsphären-Interessen müssen wir außerdem abwägen gegen das berechtigte Interesse einer Firma wie Google, technische Details für sich zu behalten. Bessere Klassifikatoren zu bauen als der Rest der Welt gehört zu Googles Kerngeschäft. Andererseits sollte die Technik so transparent sein, dass sie informierte Entscheidungen unterstützt, wobei es auf die Entscheidungen ank0mmt und nicht auf deren formalisierte Niederlegung im Vertragsstil. Mit diesem Spannungsfeld sowie mit realistischen Bedrohungsmodellen muss sich der organisierte Datenschutz beschäftigen, wenn er in Zukunft relevant bleiben möchte. Laut über Daten-Schmu zu schimpfen und dann weiter alte Modelle auf neue Technik anzuwenden, bringt uns keinen Schritt weiter.

Schlusswort

Google ist im wahrsten Sinn des Wortes ein Elektronengehirn, wie es die Science Fiction einst beschrieb. Wer um jeden Preis Angst haben möchte, stellt sich unter Google am besten so etwas wie HAL 9000 vor, hochskaliert auf einen Planeten anstelle eines Raumschiffs. Google verhielte sich ähnlich, zöge man ihm nach und nach die Speichermodule raus – Google würde nach und nach verblöden.

The famous red eye of HAL 9000 by Cryteria, CC-BY 3.0 unported

Unter dieser Prämisse lautet die Grundsatzfrage: Welche Denkverbote müssen wir so einem Computer auferlegen und welche nicht? Wie formulieren wir solche Denkverbote, wenn wir den größtmöglichen Nutzen behalten wollen? Oder brauchen wir in Wirklichkeit gar keine Denkverbote für Elektronengehirne, sondern angemessene Denkweisen und Begriffe für uns selbst als Individuen und als Gesellschaft? Fürs erste tut es auch eine kleinere Frage: Wie machen wir eine Datenverarbeitung transparent für Nutzer, die komplizierter ist als die gute alte Datenbank? Ein Stück Verständnis hat Google mit seiner aufgeräumten Datenschutzerklärung schon mal effektiv vermittelt, nämlich dass seine einzelnen Dienste nur Sichten auf ein System  sind. Das haben jetzt alle verstanden.

30 Kommentare zu „Datenkrake Google (7/7): Privatsphärenschutz in der Datenwolke

  1. Geil.
    So aufbereitet würde auch meine Mutter verstehen, dass das gesellschaftlich diskutierte Problem nicht mit „googles Verstoß gegen deutsche Datenschutzbestimmungen“ betitelt werden kann und zumindest erahnen, wo eigentlich gearbeitet werden müsste.

    Sie würde vielleicht sogar den Spakeria-Ansatz verstehen können.

    Aigner und die restliche Politikmischpoke ist deutlich jünger als meine Mutter, aber anscheinend sind die nicht mehr in der Lage, von einmal mühsam gelernten Begriffen runterzukommen, bzw. Weiterentwicklungen VOR einen wie auch immer gearteten Gau/Amoklauf/Grossdatenunfall/Staatsbankrott zu antizipieren.
    Die sind einfach immer weit hinterher.

    Kannst Du das mal der Zeit oder der FAZ als Artikel vorlegen?
    Aleks

    1. Danke. Schaun wir mal, wo das hinkocht.

      Eine gewisse Dämpfung im politischen System halte ich übrigens für ein Feature und nicht für einen Bug, auch wenn die Langsamkeit manchmal nervt. Eigentlich ist eine Menge in Ordnung, wenn die Politik der Gesellschaft hinterherläuft und nicht umgekehrt, aber das ist ein eigenes Thema.

  2. Eine exzellente Artikel-Serie, die man jedem Internet-Nutzer nur ans Herz legen kann. Ich glaube auch ein Nichttechniker (der ich nicht bin) hat gute Chancen hier einiges zumindest im Ansatz zu verstehen und es wird ein schöner Überblick gegeben.
    Was hier noch nicht zur Sprache kommt ist, wie die Optimierung der Inhalte den Nutzer in persönliche inhaltliche Blasen packt, weil er durch die Optimierungsalgorithmen nur noch zu sehen bekommt, was ihn bisher interessiert hat und in der Folge keine neuen Dinge findet.

    Eine interessante Fortsetzung wäre eine (vergleichende) Betrachtung von Facebook, denn du schreibst in Teil 4, dass Facebook mutmaßlich einem anderen Zweck dient.

    1. Die inhaltlichen Blasen kann man ja zumindest leicht umgehen, indem man andere Suchmaschinen nutzt. Da würde schon eine gewisse Aufklärung helfen.

    2. Bei Facebook muss ich passen, damit habe ich mich nie näher beschäftigt. Eigentlich geht es mir auch weniger um die einzelnen Dienste als darum, was Cloud Computing bedeutet, wenn wir etwas weiter denken als nur bis zu virtuellen Maschinen und Datenbanken, die irgendwo im Netz statt auf eigenen Servern laufen. Grundsätzlich kann Facebook dieselben Techniken einsetzen wie Google, vielleicht weniger umfassend, weil Google vielfältigere Dienste anbietet.

  3. Die Serie fand ich außerordentlich hilfreich. Bisher hatte ich doch eher immer ein schlechtes Gewissen, Gmail zu nutzen, obwohl doch alle sagen, das Google böse ist (und mir niemand schlüssig erklären konnte, wie es mir konkret schaden könnte).
    Gut, die letztendliche Antwort auf diese Frage konnte diese Artikelserie auch nicht geben, aber immerhin kann man jetzt mal von etwas fundierteren Annahmen ausgehen, „als Google sammelt meine Daten und macht damit irgendwas schlimmes“.

    Was natürlich jenseits aller Panikmache trotzdem ein Problem ist, ist die fortschreitende Monopolisierung des Internets. Ganz unkritisch sollte man Google, Amazon und co dann doch nicht sehen. Vermutlich werden wir uns aber wohl auf Dauer damit abfinden müssen, dass das Internet immer weniger frei und offen wird.

    1. Gegen Kritik habe ich nichts, mir ist sie nur fundiert lieber. Deswegen ist diese Serie vor allem als Einladung zum Selbst- und Weiterdenken gedacht.

  4. So wird u.A. verständlich, das Google sich nicht für den „Menschen“ interessiert, wenn sie deren EMAIL auswerten..

    Ich sehe aber zwei Problemstellen.
    a) hat Google eben nicht den Zugriff auf die zentralen Stellen des Internet.. Man kann sich Google entziehen. Staaten könnten das theoretisch viel besser – ohne dass sich dagegen viel tun ließe.

    b) Jemand der Böse ist, der könnte einem Klassifikator beliebige Fragen stellen. Genauer: er könnte ihn darauf trainieren. Ein umfangreiches Datennetz ist trotz Anonymisierung in der Lage Eigenschaften von Personen und Personen wiederzuerkennen. Insbesondere dann, wenn der Klassifikator später mit weiteren Daten gefüttert wird (Datenzusammenführung).

    a+b ergibt ein Szenario, das Orwell alt aussehen läßt. Die Gefahr, dass Staaten von Google lernen und „Dissidenten“ erkennen, noch bevor der das selbst weiß, die ist massiv. Der Klassifikator leidet an sozialer Inkompetenz – genau wie man das von einer AI erwartet.

    Dummerweise steuern wir genau auf eine solche staatliche AI massiv zu. Die Frage ist nicht, ob eine AI diese Fähigkeit haben darf. Die Frage ist, ob ein Mensch oder gar eine Gruppe diese technischen Mittel haben darf. Die Technik freilich, die kann niemand zurück drehen und kaum verhindern. Folglich müssen *wir* die soziale Kompetenz beisteuern. Danke für diesen Beitrag dazu.

    1. Für (b) bräuchte man allerdings an irgendeiner Stelle Feedback darüber, ob die Erkennung richtig oder falsch ist, und das immer wieder, wenn sich die statistischen Merkmale zum Beispiel von Dissidenten im Laufe der Zeit ändern.

      1. Zunächst mal danke für den Artikel. Wenn auch spekulativ bietet er eine gute Grundlage für kontroverse Diskussionen. Ich gehöre eher zu jenen welchen das Potential von Google und Co. in seiner gesellschaftlichen und politischen Dimension ungeheuerlich erscheint. In Deiner Antwort auf Joachims Bedenken sagst Du „Für (b) bräuchte man allerdings an irgendeiner Stelle Feedback darüber, ob die Erkennung richtig oder falsch ist.“ Naja, vielleicht braucht das ein System, das automatisiert fahndet. Aber ist es nicht schon schlimm genug, dass ermittelnde Stellen über das Wissen verfügen, welche Merkmale/Merkmalkombinationen unliebsame Gefährten aufweisen und damit die Filter von Google/Facebook bedienen um die Daten durch ein effizientes zunehmend feinmaschigeres Raster zu sieben?

        Meine „Ängste“ gegen Google speißen sich nicht daraus, dass diese heute schon in der Lage sind, mit diesen Daten „böses“ anzustellen, sondern dass sie auf einer gigantischen Datenhalde sitzen die sie zu allem befähigt.

        Die Daten bergen das Potential, nicht der aktuelle Stand der Technik! Die wird sich weiterentwickeln und damit steigt der Wert der gesammelten Daten noch weiter.

        Bedenklich: Die Datenhalde ruht in einem Land, welches sich seit 9/11 zunehmend radikalisiert („Zum Schutz der nationalen Sicherheit“), einem Land, dass sich per Gesetz Zugriff auf alle im Land verfügbaren Daten gestattet (Patriot Act), einem Land, welches nach Gutdüncken Mundtod machen darf (National Security Letter), einem Land dessen Geheimdienst(e) zusammen mit neokapitalistischen Hedgefondmilliardären am Steuer eines anderen großen Rattenfängers unserer Zeit sitzt (Facebook ist für mich Google in blau „mit persönlicher Note“; Quelle: Link am Ende).
        Wenn man sich nur auf die Technik stützt, um die Gefahr von Google zu analysieren, ist das meiner Ansicht nach gerade so als wolle man die Unbedenklichkeit eines Panzers verifizieren, indem man die chemische Zusammensetzung der verwendeten Materialien untersucht.

        Das Potential von Google u. Co. ist viel komplexer als es hier gezeichnet wird und ergibt sich aus der Summe von deren Aktivitäten und Zielen und dem politischen und gesellschaftlichen Milieu indem sie agieren. Die aktuelle Technologie ist vergleichsweise harmlos.

        Nachtrag zu oben:
        http://www.guardian.co.uk/technology/2008/jan/14/facebook

      2. Kleine Korrektur: ich sprach von a+b. Ich setze voraus, dass der Staat Googles Methoden selbst anwendet. Feedback bekommt der in der Bundescloud, Services für den E-Pass, vielleicht durch Gehemdienste, Medien, Statistik. Die Technik geht weiter.

        Ich will noch einmal betonen: Weder Google noch Staaten geht es um die konkreten Personen. Die sind beliebig austauschbar. Es geht nur um definierte Interessen, hier Geld oder das Wissen der Menschheit, da Sicherheit oder gar um Erfolg von Polizei oder Ministerien. Man kann ihnen nicht einmal unterstellen, sie seien „böse“ – das Gegenteil ist der Fall.

        Es geht mir einzig darum zu inter/extrapolieren, zu verstehen, was wir da gerade versuchen. Warum? Damit wir noch die Kurve kriegen – und zwar ohne Schaden für Demokratie und Gesellschaft.

  5. Hallo Sven, ich bin selbst in der IT tätig aber sicherlich nicht so tief wie du im context. Deinen Artikel habe ich auf golem.de gelesen und fand ihn klasse. Ich muss gestehen, dass ich mir auch nie wirklich vorstellen konnte was google da eigentlich betreibt und vorallem war ich auch der Meinung, dass personifizierte Datenhaltung, in Datenbanken… , das Hauptgeschäft sei. Danke für diesen sehr sehr guten Artikel und vorallem die Erläuterung zu Klassifikatoren – sehr interessant!

  6. „… Informatikerbauchgefühl … was Google (mutmaßlich) mit unseren Daten macht … Meine Betrachtungen sind zum Teil spekulativ, … kann mich in meinen Schlussfolgerungen irren.“

    Schöner, langer Artikel. Solange jedoch viel Spekulation dabei ist, bleibe ich bei meinem Bauchgefühl; nämlich dass Firmen Profit erwirtschaften wollen – Sinn und Zweck aller Firmen – und sich notfalls nicht um Datenschutz scheren.

    1. Dass Firmen eigene Interessen haben, bestreite ich gar nicht, das halte ich für selbstverständlich und für legitim. Solange sich eine Firma auf einem funktionierenden Markt bewähren muss, hat sie jedoch einen Anreiz zu rationalem Verhalten. Wer zu gierig ist und keine Grenzen kennt, verdient auf lange Sicht weniger, weil er irgendwann seine Kunden vergrault.

      Wir können Datenschutzgesetze auch als Marktregulierung betrachten: wer Dienste gegen Daten anbietet, soll so viel Transparenz herstellen, dass seine Kunden das Geschäft richtig einschätzen und eine informierte Entscheidung treffen können.

  7. „Wer zu gierig ist und keine Grenzen kennt, verdient auf lange Sicht weniger, weil er irgendwann seine Kunden vergrault.“

    Richtig, wenn 1.) die Firmen merken, dass sie am Kunden vorbeiagieren und 2.), wenn Kunden wissen, was die Firmen so treiben. Der erste Punkt regelt sich langfristig selbst. Den zweiten bezweifle ich, denn die wenigsten Kunden können „das Geschäft richtig einschätzen und eine informierte Entscheidung treffen“.

    Statt Datenschutzgesetze zu schaffen, die in den Markt eingreifen, könnte man auch aufklären; ähnlich den Warnhinweisen auf Zigarettenschachteln. Und genau wie Raucher das nicht stört, werden Hans und Franz auch weiterhin Google & Co. sorglos nutzen.

    1. Und was ist, wenn Hans und Franz recht haben und ihnen nichts Schlimmes passiert? Neutral formuliert stehen wir vor der Frage, welche konkreten Risiken a) die Technik und b) die darauf gestützten Geschäftsmodelle mit sich bringen. Wie sich der Einzelne dann entscheidet, ist seine Sache. Wir müssen nicht alle vor allen Bedrohungen bewahren und die Bewertung von Risiken hängt auch von persönlichen Prioritäten ab.

      1. „Und was ist, wenn Hans und Franz recht haben und ihnen nichts Schlimmes passiert?“

        Tja, wenn … Wenn nicht, muss ja auch nichts Schlimmes passieren. Dennoch besteht bei fast allen Menschen ein Bedürfnis nach Privatsphäre. Bei den „Ich-hab-nichts-zu-verbergen“-Sprücheklopfern scheinbar nicht. Mögliicherweise ist deren Leben so langweilig, dass es nichts zu verbergen gibt.

        „Neutral formuliert stehen wir vor der Frage, welche konkreten Risiken a) die Technik und b) die darauf gestützten Geschäftsmodelle mit sich bringen.“

        Konkret kann man das erst beantworten, wenn Technik und Geschäftsmodell bekannt sind. In dem Artikel wird nur spekuliert, mit der Tendenz, dass schon nichts passieren wird. Das baut weder Misstrauen ab noch dient der Artikel dazu, Risiken abzuwägen. Viel Text, Fazit: Schulterzucken.

  8. Der Artikel ist sprachlich gelungen und er ist interessant, weil er ein brisantes Thema aufgreift. Aber die eigentliche Problematik spart er aus und sagt das sogar: Wir wissen nicht, was Google mit unseren Daten macht. Geliefert wird nur: Die müssen das wohl geheimhalten wg. Konkurrenz. Das ist ist schwach. Schwach – angesichts der Tatsache, dass Datenschutz dem Schutz der Menschenwürde und Entfaltungsfreiheit dient. Dem Schutz dieser Grundrechte. Orwell hat das verstanden. Schon 1948. Hitler auch. Im Grunde hat der Verfasser das auch verstanden, aber er sucht eine Möglichkeit in einer heilen Welt zu leben. Einer Welt, in der Google nicht böse ist. In der alles wieder gut ist … no evil.

    1. Ich unterscheide zwischen dem Datenschutz als Umsetzung und den dahinter stehenden Zielen. Der Datenschutz in seiner heutigen Ausprägung redet systematisch an der Realität vorbei, weil er Begriffe auf der IT-Steinzeit auf die Cloud von heute anwendet. Damit wird er zu einem leeren Ritual und kann seinen Zielen – unserer Selbstbestimmung über unsere Privatsphären und über unsere Geschäfte – nicht dienen, selbst wenn er es versucht. Scheingefechte über Facebook-Buttons und formale Datennutzungserklärungen bringen uns keinen Schritt weiter.

      Ich unterscheide außerdem zwischen Datenschutz gegenüber dem Staat und Datenschutz in der Privatwirtschaft. Im Staat bin ich praktisch Zwangsmitglied, da brauche ich Rechte. Diese Rechte sind immer nur gesellschaftliche Vereinbarungen, die sich auch ändern können und in machen Situationen sogar ändern müssen. In der Privatwirtschaft bin ich Marktteilnehmer, dort brauchen wir nur so viel Regulierung, dass der Markt funktioniert.

      Orwell hat vor allem autoritäre und totalitäte Gesellschaftsmodelle verstanden. Die verhindern wir nicht mit Gesetzen in unserem Gesellschaftsmodell. Vom Nutzen des Netzes für den Weltfrieden ga rnicht zu reden …

      1. Ich will auf ihre drei Ansätze auch in drei Ansätzen eingehen. Ihre beiden Unterscheidungen sind vom Gesetz seit langem nachvollzogen.

        1.
        Der Datenschutz verhindert seit Langem effektiv illegale Datensammlungen, mit Geldbußen und Geldstrafen.
        Eine lockere Lektüre der anklickbaren Jahresberichte der Landesdatenschutzaufsichtsbehörden belegt, was ich sage.
        Ihre Behauptung dies sei ineffezient oder „veraltet“ oder es seien „Steinzeit“-Methoden steht völlig leer im Raum. Sie belegen sie nicht.

        Sie folgen eigentlich dem millionenschweren Marketing der Datenkraken: Datenschutz gefällt nicht.

        Da Sie Orwell offenbar gelesen haben, wissen Sie zugleich darum, was die Folge von mangelndem Datenschutz sein kann. Das Bundesverfassungsgericht sagt das mit den Worten, dass man eine Atmosphäre des „Beobachtetseins“ verhindern müsse, die die unbefangene Ausübung von Rechten beeinträchtigen könne. Und das deshalb mein PC samt aller Daten ebenso mir gehören muss, wie mein Schrank, Stuhl, Bett und Haus. Entkleide man den Bürger dieser Rechte, nehme man ihm Würde, Freiheit und mache ihm Sorgen, die ihn „ängstlich“ machen. Die Demokratie benötige aber mutige Bürger, geradezu streitlustige, kämpferische Naturen.
        Richtig, finde ich. Und sehe alltäglich: Jede Diktatur schafft als erstes den Datenschutz ab.
        Muss wohl ‚was dran sein … ?

        2.
        Das BDSG unterscheidet seit Jahrzehnten zwischen der Datenverarbeitung durch Private und der durch den Staat.
        Insoweit ist der gesetzliche Datenschutz also ebenfalls ganz Ihrer Meinung. Schon lang vor Ihrer Geburt?

        3. Orwell

        Meinen Sie wirklich Orwell hätte nur das verstanden? Meinen Sie wirklich, wenn ein Multimillionendollarkonzern in industriellem Maße höchstprivate Daten sammelt, dann hätte der weiter ruhig geschlafen?
        Ich meine die „message“ geht locker über das, was Orwell direkt sehen und beschreiben konnte (damals war private Datenmassenverarbeitung ja noch nicht „in“, wenn auch bereits möglich) hinaus: Orwell zeigt nämlich, ganz unabhängig vom Datenerheber, welche Wirkung es auf die Psyche/Würde des Menschen hat, wenn er sich seiner Daten massenhaft begeben hat oder begeben musste. Er ist entleert, er hat sich begeben. Er ist öffentlich. Er ist verfügbar. Er zeigt viel von dem allen, was er eigentlich nur wenigen zeigen sollte. Die Gefahren für die Würde sind tatsächlich nicht sofort spür- und erkennbar. Das ist eher wie Radioaktivität: Man schmeckt es nicht, man riecht es nicht …. man kann es nicht spüren. Und es, der Krebs, bricht zwar regelmäßig aus, aber nur statistisch … es ist also ziemlich abstrakt.
        Diese Gefahr überfordert viele intellektuell.
        Deshalb lautet meine Prognose: Die ganzen Werbeinvestitionen verpuffen weitgehend, weil die Bevölkerungsteile, die Geld haben, regelmäßig auch die besser gebildeten sind.

        1. Der Datenschutz verhindert seit Langem effektiv illegale Datensammlungen, mit Geldbußen und Geldstrafen.

          Das bestreite ich nicht. Datensammlungen sind die Steinzeit-IT, für die unser Datenschutz entworfen wurde; dass er dort funktioniert, ist nicht verwunderlich. Ich bestreite etwas anderes, nämlich dass das Sammeln von Daten im Internet-Maßstab noch einen Nutzen hätte. Man kann mit gesammelten Daten von zurzeit zwei Milliarden Internet-Nutzern wenig anfangen. Hingegen kann man mit verarbeiteten und in Modelle umgesetzten Daten eine Menge anfangen – unter anderem deshalb, weil Verhaltensstatistiken über Gruppen von Menschen für viele Anwendungen nützlicher sind als eine detaillierte Durchleuchtung des Individuums.

          Sie folgen eigentlich dem millionenschweren Marketing der Datenkraken: Datenschutz gefällt nicht.

          Das macht meine Aussagen nicht falsch. In erster Linie aber funktionieren überlieferte Datenschutzparadigmen nicht mehr: nach einer streng orthodoxen Auslegung wäre das ganze Internet erst einmal verboten. Mit diesem Ansatz kommen wir in der Realität von heute nicht weiter.

          Da Sie Orwell offenbar gelesen haben, wissen Sie zugleich darum, was die Folge von mangelndem Datenschutz sein kann.

          Orwell hat die Folgen mangelnden Datenschutzes in einer Bürgerrechte und Freiheiten schätzenden Gesellschaft überhaupt nicht behandelt. Orwell hat auch nicht den Datenschutz im Verhältnis zwischen Unternehmen und Internet-Nutzern behandelt.

          Das Bundesverfassungsgericht sagt das mit den Worten, dass man eine Atmosphäre des “Beobachtetseins” verhindern müsse, die die unbefangene Ausübung von Rechten beeinträchtigen könne.

          Und ich sage, dass man sich anschauen muss, wo und unter welchen Umständen die behauptete Wirkung tatsächlich eintritt. Ich sage außerdem, dass soziale Kontrolle ein wichtiger gesellschaftlicher Mechanismus ist. Ich finde es nämlich ganz angenehm, dass niemand am hellichten Tag auf den Marktplatz kackt und dass nur einige Außenseiter zu minder sozialen Verhaltensweisen neigen. Zwischen Kontrolle (und ggf. auch Repression) einerseits und Freiheit andererseits eine gute Balance zu finden, ist eine große Herausforderung; die jeweils akzeptablen Kompromisse unterliegen der gesellschaftlichen Evolution.

          Entkleide man den Bürger dieser Rechte, nehme man ihm Würde, Freiheit und mache ihm Sorgen, die ihn “ängstlich” machen.

          Ich bin der Ansicht, dass wir an diesem Ende ansetzen müssen und nicht bei Vermutungen darüber, was alles zu Ängsten führen könnte. Im Moment sieht es danach aus, als hätte das Netz keine Angst, sondern neue politische Bewegungen und neue Möglichkeiten zur Partizipation hervorgebracht.

          Die Demokratie benötige aber mutige Bürger, geradezu streitlustige, kämpferische Naturen.

          Solche wie mich, die den staatlichen Datenschutz-Institutionen einfach mal die Meinung geigen? 😉 Im Ernst, Menschen sind verschieden und nicht jeder fühlt sich wohl damit, im Licht der Öffentlichkeit seine Ansichten zu vertreten. Daran kann kein Datenschutz der Welt etwas ändern.

          Jede Diktatur schafft als erstes den Datenschutz ab.

          Jede Diktatur verkehrt zuerst das Verhältnis zwischen Bürger und Staat ins Gegenteil, der Bürger wird zum Mündel. Alles andere ist nur eine Folge davon.

          Das BDSG unterscheidet seit Jahrzehnten zwischen der Datenverarbeitung durch Private und der durch den Staat.

          In Diskussionen wird aber gerne beides vermischt — und andererseits ignoriert, dass eine Datenhaltung im Ausland auch Vorteile haben kann, wenn der eigene Staat Interesse an den Daten zeigt.

          Er ist entleert, er hat sich begeben. Er ist öffentlich. Er ist verfügbar.

          Nun denn, verfüge er/sie über mich!

          Diese Gefahr überfordert viele intellektuell.

          Oder sie ist irreal und eingebildet. Anhand welcher Kriterien könnten wir das unterscheiden?

  9. @Manuel:

    Ich gehöre eher zu jenen welchen das Potential von Google und Co. in seiner gesellschaftlichen und politischen Dimension ungeheuerlich erscheint.

    Das ist eine eigene Frage. Solange wir über Datenschutzformalitäten streiten oder uns in vagen Ängsten ohne Realitätsbezug suhlen, werden wir nicht dazu kommen, uns mit solchen Fragen zu beschäftigen. Die Frage nach dem Potenzial einer globalen Maschine wie Google ist berechtigt, im Guten wie im Bösen. Wir diskutieren zurzeit aber lieber über Artefakte, die sich aus der Anwendung alter Modelle auf neue Dinge ergeben.

    Die Daten bergen das Potential, nicht der aktuelle Stand der Technik! Die wird sich weiterentwickeln und damit steigt der Wert der gesammelten Daten noch weiter.

    Ähm, eigentlich habe ich versucht zu erklären, dass es auf das Sammeln nicht ankommt, sondern dass Google so etwas wie Modelle einzelner Verhaltensaspekte von Menschengruppen baut, und dass die Gruppengröße darin variiert. Außerdem habe ich versucht zu erklären, dass gesammelte Daten von gut 2 Milliarden Internet-Nutzern nicht besonders nützlich sind, und dass eine Firma wie Google deshalb lieber auf einem Ereignisstrom arbeitet und damit Modelle optimiert.

    Die Datenhalde ruht in einem Land, welches sich seit 9/11 zunehmend radikalisiert (…)

    Das ist Bullshit. Schon mal versucht, libertäre Ideen in Europa zu vertreten? Dort geht das.

  10. @Luddy:

    Konkret kann man das erst beantworten, wenn Technik und Geschäftsmodell bekannt sind.

    Beides ist in den Grundzügen bekannt. Das Geschäftsmodell zwangsweise, weil Google als Firma an Märkten teilnimmt, so dass sich das Geschäft von außen beobachten lässt. Die Technik dadurch, dass Google eine Menge über sich verrät und auch am wissenschaftlichen Diskurs teilnimmt.

    Als spekulativ habe meine Erklärungen vor allem deshalb gekennzeichnet, weil ich mich auf solche Informationen gestützt und keine eigenen Experimente ausgeführt habe. Auch das ist jedoch möglich, Du kannst einen Browser nehmen und zum Beispiel mit AdSense spielen. Das reicht erfahrungsgemäßt für ein halbwegs verlässliches Bild. Ich habe jahrelang Black- und Greybox-Tests an komplizierten Systemen ausgeführt, auf diese Weise kann man die Funktionsweise eines Systems schon verstehen.

  11. Sven Türpe:
    (…)
    >Ich bestreite etwas anderes, nämlich dass das Sammeln von >Daten im Internet-Maßstab noch einen Nutzen hätte. Man kann >mit gesammelten Daten von zurzeit zwei Milliarden
    >Internetnutzern wenig anfangen.

    Das ist eben, was ich meine, wenn ich Ihnen ein extremes Harmoniebedürfnis mit den Datenkraken unterstelle: Sie wissen wie ich, dass die Sammeln.
    Nun sagen Sie: Die können damit aber gar nichts anfangen. Sagen Sie im Ernst, ich, Sven Türpe, weiß das besser: „Die sammeln ohne jeden Nutzen für sich – vergeblich!

    Sven Türpe:
    (…)
    >Das macht meine Aussagen nicht falsch. In erster Linie aber >funktionieren überlieferte Datenschutzparadigmen nicht mehr: >nach einer streng orthodoxen Auslegung wäre das ganze >Internet erst einmal verboten. Mit diesem Ansatz kommen wir in >der Realität von heute nicht weiter.

    Diese „streng orthodoxe Auslegung“ existiert nicht. Sie wird zumindest von niemandem vertreten. Sie malen ein Schreckgespenst an die Wand.
    Entsprechend könnte ich formulieren: Eine streng orthodoxe Sven-Türpe-Ideologie meint, nur der total veröffentlichte Mensch verdiene es, Mensch genannt zu werden. Eine solch Zuspitzung dient dazu den Meinungsgegner lächerlich zu machen.

    Sven Türpe:
    (…)
    >Ich sage außerdem, dass soziale Kontrolle ein wichtiger >gesellschaftlicher Mechanismus ist. Ich finde es nämlich ganz >angenehm, dass niemand am hellichten Tag auf den Marktplatz >kackt und dass nur einige Außenseiter zu minder sozialen >Verhaltensweisen neigen. Zwischen Kontrolle (und ggf. auch >Repression) einerseits und Freiheit andererseits eine gute >Balance zu finden, ist eine große Herausforderung; die jeweils >akzeptablen Kompromisse unterliegen der gesellschaftlichen >Evolution.

    Selbstverständlich. Und wir haben ja eine Menge Mechanismen, wie soziale Kontrolle ausgeübt wird. Beispielsweise auch durch das Parlament, den Gesetzgeber.
    Die Frage ist ja, warum Sie die vom gesetzlichen Datenschutz derzeit gefundene Balance der Interessen von Datenverwendern und betroffenen Bürgern nicht akzetabel finden.

    Sven Türpe:
    (…)
    >Im Moment sieht es danach aus, als hätte das Netz keine Angst, sondern neue politische Bewegungen und neue Möglichkeiten zur Partizipation hervorgebracht.

    Ich glaube, Sie stimmen mir zu, wenn wir sagen: Sowohl als auch.

    Sven Türpe:
    (…)
    >Solche wie mich, die den staatlichen Datenschutz-Institutionen einfach mal die Meinung geigen? 😉 Im Ernst, Menschen sind verschieden und nicht jeder fühlt sich wohl damit, im Licht der Öffentlichkeit seine Ansichten zu vertreten. Daran kann kein Datenschutz der Welt etwas ändern.

    Heutzutage gehört mehr Mut dazu, gegen den Marketing-Strom zu schwimmen. Die Datenschutzbehörden haben keinerlei Machtmittel, keine millionenschwere Marketingabteilung, kein Marketing-Know-How (eher im Gegenteil = Juristen) und sind personell angesichts der neuen Entwicklungen völlig überfordert und unterfinanziert.

    Sven Türpe:
    (…)
    >In Diskussionen wird aber gerne beides vermischt — und >andererseits ignoriert, dass eine Datenhaltung im Ausland auch >Vorteile haben kann, wenn der eigene Staat Interesse an den >Daten zeigt.

    Das mag sein. Es kommt auch darauf an, wie offen man den Argumenten gegenüber ist und wieviel Wissen man über den status quo hat. Fest steht, dass der EU-Datenschutz seit langem klar unterscheidet zwischen Datenverarbeitung durch Unternehmen und solcher durch den Staat.
    Und dass mit § 3a BDSG sogar extrem zukunftsweisende, geradezu visionär anmutende Normen erstmalig in einem Gesetz enthalten sind. Richtig ist, dass das BDSG schwer lesbar ist und die AGB zum Datenschutz einiger Unternehmen noch schwerer. Das liegt aber in der Natur der Sache: Der Regelungsgegenstand ist extrem abstrakt. Es gibt nur überhaupt eine abstraktere Materie als Daten. Das sind Strukturen. Und ein Gesetz muss bereits per se abstrakt sein. Wenn es dann noch einen abstrakten Regelungsgegenstand hat („Daten“), wird es schwierig zu lesen. Die Datenschutz-AGB der Unternehmen sind aus einem weiteren Grund schwer lesbar und umfangreich: Man bricht in industriellem Maßstab in einen Bereich ein, der bislang als Tabu-Bereich galt, als Intimbereich. Grundrechtlich geschützt.

    Erikas Mustermann schrieb:
    Er ist entleert, er hat sich begeben. Er ist öffentlich. Er ist verfügbar.

    Sven Türpe:
    (…)
    >Nun denn, verfüge er/sie über mich!

    Warten Sie einfach ab. Einer Ihrer zukünftigen Arbeitgeber hat sich bereits darüber mokiert gezeigt, dass Sie oben das Worten „kacken“ verwendet haben.

    Erikas Mustermann:
    Diese Gefahr überfordert viele intellektuell.

    Sven Türpe:
    (…)
    >Oder sie ist irreal und eingebildet. Anhand welcher Kriterien könnten wir das unterscheiden?

    Eine Gefahr ist per definitionem etwas abstraktes.
    Sie kann bzw. muss sich realisieren, sagt man.
    Der gläserne Bürger bietet eine hervorragende Angriffsfläche für allerlei. Da sind der Fantasie von Aggressoren eigentlich keine Grenzen gesetzt. In der DDR nannte man eine Methode beispielsweise Zersetzung (->wikipedia), heute könnte man cybermobbying ergänzen – in allen seinen bunten Farben.
    Aber da haben Sie als Internet-Sicherheitsspezialist letztlich sogar die „besseren“ Fantasien ?

  12. Zitat: „Wir haben gesehen, dass naive Vorstellungen von Nutzerprofilen wahrscheinlich falsch sind.“

    Wo haben wir das gesehen? Ich finde den Text ja interessant und Google wird die beschriebenen verfahren sicherlich einsetzen. Aber wieso sollte Google nicht _zusätzlich_ weitere Verfahren einsetzen und auch richtige Nutzerprofile im herkömmlichen Sinn anlegen, dauerhaft speichern und auswerten?

Die Kommentarfunktion ist geschlossen.