
Was weiß Google schon? Das ist die Frage, um die sich vieles dreht. Es ist keine akute Tagesaktualität, sondern die ‚prognostizierende Historisierung‘ die immer mal wieder aufflammt. Hier zum Beispiel. Diese Diskussion ist beinah nur gut zu finden. Sie war internetuntypisch diszipliniert, als hätten sich alle Beteiligten im Kolloquium getroffen. Jeder hatte die Textgrundlage gelesen, gute Argumente konnten zünden und selbst Michael Seemann ist durch einen durchdachten & pointierten Beitrag aufgefallen (gilt nicht für den, den er danach verlinkte.) Und, und das ist besonders hervorzuheben, es wurde über Problemstellungen diskutiert.
Für mich (als Zaungast) hat sich eine Frage als die tragende herausgestellt: Was weiß Google schon? Und bislang bleibe ich bei meiner Antwort, die in der Frage schon drin steckt, wenn man sie nicht als „Was weiß Google schon jetzt?“ liest, sondern als „Was weiß schon Google?“. Ich sympathisiere mit einer der berühmtesten Antworten der Soziologiegeschichte: Nichts.
Es so zu sehen ist natürlich falsch, aber um das aufzuklären und trotzdem bei der Antwort zu bleiben, muss man sich etwas von Google selbst lösen und hinterfragen, wie Google und andere überhaupt in der Lage sein sollen, etwas (und was eigentlich?) zu erfahren. Wir wissen zwar nicht, wie Google operiert, aber wir wissen, wie die Algorithmenmaschinerie betankt wird. Und es gibt erkenntnistheoretische Grundlagen, die hier nicht falsch sind, auch wenn immer unterstellt wird, die „Hypermoderne“ sei kaum theoriefähig.
An der oben verlinkten Diskussion hätte ich, aus der Bielefelder Perspektive, nur einen Kritikpunkt, der jedoch fundamental ausfällt: Mit Akteurszentrierung und Handlungstheorien ist in Sachen Google & Gesellschaft kaum etwas zu gewinnen. Man müsste der handlungstheoretischen Versuchung nicht nur widerstehen, sondern ihr regelrecht Widerstand leisten, weil sie sich immer wieder hartnäckig aufdrängt. Schließlich sind wir ja die User-Akteure und stehen maschinenvermittelt in einem zirkulären Bedingungsverhältnis mit den Google-Akteuren.
Wer programmiert eigentlich wen? Folgen wir Google, weil sie den Alternativenkorridor für folgende Handlungen vorgeben oder folgt Google uns, um sich noch besser anzupassen? Lassen wir uns das bieten? Ist die Google-Maschine sensibel genug? Solche Fragen kann man nur schwer diskutieren, wenn man sie nicht vorher entzerrt. Die akteurszentrierte Diskussion um den freien Willen, um Googles Einfluss auf unser Handlungsvermögen oder die Idee, es gäbe ein objektives Subjekt, dass eine eindeutige Grenze zwischen sich und dem Rest zieht und die Google-Maschine „dem Rest“ zuordnet und dann Einflussnahme auf eigene Intentionen verspürt, betrifft Fragen, die fürs Erste beiseite geräumt werden müssen, um die gesellschaftlichen Fragen zu stellen.
Dies gelingt auf die Schnelle: Individuelle Freiheit ist ein Konzept, das überhaupt nur zu fassen ist, wenn man es nicht nur begrifflich von irgendetwas (Einschränkung irgendeiner Art) unterscheidet. Erst die Einschränkung differenziert Möglichkeiten und führt so zu Aktualität, die sich von ihren Möglichkeiten (für den Einzelnen (Selbst-)Beobachter) sinnstiftend unterscheidet. Ein freier Wille, der keine Widerstände zu überwinden hat und ungerichtet bleiben darf, wäre gar kein Wille. Was sollte er wollen? Woran sollte er sich orientieren? Und woher wüsste man, dass man das Richtige will? Wille ist sozusagen eine konzeptionelle Antwort auf das Erleben, dass nicht alles aber vieles möglich und nur weniges notwendig ist.
Man könnte etwas salopp sagen, die Psychologen kümmern sich um das Notwendige, die Soziologen um das Mögliche. So hätte es jedenfalls hier ausreichenden Sinn. Und an dieser Stelle muss entschieden werden, wo das Google-Problem angesetzt wird. Entweder setzt es am, mit Intentionen bestückten Subjekt an, und fragt, was mit ihm passiert, wenn es zum Lotsen durch die Stadt / das Warenangebot Google befragt. Oder es setzt an der Gesellschaft an und fragt, was passiert, wenn überall jede Information verfügbar ist und trotzdem Alternativen eingeschränkt und Entscheidungen getroffen werden müssen.
Beide Fragenkomplexe haben ihre Berechtigung, man kann sie aber nicht gleichzeitig oder überhaupt im gleichen Modus stellen. Es sind Fragen für, sofern man sie der Wissenschaft übergibt, mindestens zwei verschiedene Disziplinen: Die eine kümmert sich um Kognition, die andere um Kommunikation. Und hier soll es erstmal nur mit der zweiten Variante weitergehen.
Wenn es um die Gesellschaft geht und die Kommunikation als elementares Problem behandelt wird, spielen individuelle Intentionen, Handlungsvermögen, psychische Merkmale wie Intelligenz und persönliche Erfahrung keine Rolle. Und trotzdem geht es um die Frage, wie einiges faktisch ist, obwohl so vieles möglich ist. Wieso gelingt Kommunikation, obwohl sie immer mit der Welt beschäftigt ist und trotzdem stets nur eine Leitunterscheidung akzeptieren kann? Sie benötigt Hilfe und diese Hilfestellungen sind in der Kommunikation selbst eingebaut.
Der Dreiklang Interaktion, Organisation und Gesellschaft gibt die Kategorien dieser Hilfen vor. In Interaktionen sind es Person, Thema, Interaktionsgeschichte (…); in Organisationen Mitglieder, Hierarchien und Programme und in der Gesellschaft die sgKommunikationsmedien (Geld, politische Amtsmacht, wissenschaftliche Reputation (…)) die Alternativen einschränken. Naturwissenschaftliche Technologien spielen auf dieser Ebene eigentlich kaum eine Rolle, sie kommen als Bedingungen der Kommunikation vor, vererben sich aber nicht qualitativ. Und die Frage ist, ob das beim Google-Thema „Algorithmen“ anders ist.
Man könnte (weiterhin theorieorthodox, inhaltliche Gegenargumente sind berechtigt, müssten aber doppelt geprüft werden) vielleicht Folgendes sagen: Die Google-Maschine ist eine Reaktion auf eine Problemstellung, die die Gesellschaft (Kommunikation) selbst erzeugte, als sie Massenspeicher & digitale Breitbandkabel und Funktechnologie hervorgebracht hat und die auch die Kommunikation selber löst, wenn auch unbestimmt bleibt, wie dies geschieht. Wenn alles speicherbar ist und ständig kommuniziert werden kann, benötigt es einige Komplexität reduzierende Mechanismen, die eben genau diese Problemstellungen (Massenspeicher und Breitbandkabel) behandeln: Daten katalogisieren und hierarchisieren & Kommunikationswege diskriminieren. Die Gruppe um Google, Facebook und Apple macht genau das: Internethinhalte ranken, „Social Graph“s digital nachzeichnen, nutzerfreundliche Hardware herstellen. Wichtig ist jedoch: Die Probleme, die Google & Co lösen, was unser modernes Leben so leicht macht, haben Google & Co nicht selbst erfunden. Sie versuchen zwar, uns ihre Probleme aufzuerlegen, doch das gelingt ihnen nicht.
Meine These zu dieser Beobachtung wäre wohl wie folgt: Diese Firmen generieren nicht, sie regulieren. Sie haben es im hohen Maße mit externen Problemen zu tun. Wenn man sich Google ansieht, erkennt man, dass sie andauernd versuchen, sich das Internet zu verinnerlichen – um besser darüber disponieren zu können, was sie als Lösung anbieten. Das funktioniert auch ziemlich weitreichend, aber wie man an dem Gigantensterben der letzten Jahre gut sehen kann, wirklich gelingen tat es bisher nie. Immer wenn sich große Firmen aus der Resonanz mit ihrer Umwelt verabschieden und selbst generative Mechanismen ausbilden, ist das der Anfang von ihrem Ende. AOL hat es mit den Inhalten erfahren, Facebook erfährt es grad mit den User-Gängelungen. Google zeichnet sich durch seine hohe Sensibilität aus – man achtet auf die creepy-line, lässt die eigenen Mitarbeiter experimentieren, hört auf die Wissenschaft. (Man hat wenig Einblick ins organisationale Google-Geschehen, aber eine Hierarchie-Diktatur herrscht dort in den entscheidenden Regionen sicherlich nicht.)
Google ist ein besonderer Akteur, bleibt aber der „unfassbaren Komplexität“ der Gesellschaft beinah genauso blind ausgeliefert, wie jede Start-up-Garagenfirma auch. Googles wichtigster Auftrag ist, täglich neu zu lernen und ihre wichtigste Aufgabe ist, sich möglichst herauszuhalten und den User nicht zu überfordern.
Diese ganz Argumentation ist bis hierher sehr kritikanfällig. Sie führt aber nun zu der Frage von oben: Was weiß Google eigentlich? Und was will Google wissen? Man kann zumindest sagen, dass Google eine unglaubliche (aber fassbare) Menge an Daten vorliegen hat. Mausbewegungen, individualisierter Webtraffic, Inhalte & Verknüpfungen, freiwillige Profildaten, Verbindungsdaten, Bewegungsdaten usw. Aber was kann man mit solch einem Datenschatz tun? Wie generiert man daraus konstruktives, nutzbares Wissen?
Eine der wichtigsten Lehren in meinem Studium war folgende: Qualitative Studien sind wichtig, quantitative Studien sind was für politische Zuarbeiten oder BWL-Übungen – man kann mit ihnen fast nichts gewinnen außer Antworten auf einfache Fragen. Und Datenmenge, Datenumfang und Datenqualität ändert daran kaum etwas. Für Fragen, wie ich sie an eine nächste Gesellschaft hätte, würde ich nur selten daran denken bei Google anzufragen, ob ich mal in ihren Datenschatz schauen darf.
Solche Datenbanken sind nur für diejenigen interessant, die konkrete Anliegen haben. Die Politik will wissen, was zu entscheiden ist; Verkäufer wollen wissen, welche Verkaufsstrategie sich als erfolgreichste herausgestellt hat. Doch die gesellschaftswissenschaftlich interessante Herangehensweise ist ja genau umgekehrt: das absichtlich autistische Herantreten an ein soziales Phänomen, das hinter keinem konkreten Anliegen, keiner konkreten Fragestellung verborgen wird. Und das – ganz wichtig – unmittelbar beobachtet werden kann. „Wie ist diese soziale Ordnung möglich?“ Und: „Welche Probleme werden hier gelöst?“ Ein fragmentiertes Datenmaterial, wie es Google vorliegt, hilft da kaum weiter. Der gesamte Google+ Datenschatz ist weniger wert als eine multimedial-umfängliche Konservierung von ein paar Nutzungsbeobachtungen. Google registriert nur, was passiert, wenn etwas passiert – und das ist viel zu wenig, geradezu wertlos.
Es würde mich nicht wundern, wenn Google sein Google+ hauptsächlich in qualitativen Studien getestet hat. iPhones, Online Social Networks, Suchergebnislisten – um das zu verstehen, schaut man sich am besten die Nutzer in ihrer Situation an und konturiert das im Nachhinein mit angefallenen elektronischen Nutzungsartefakten. (So wie man auch Interviews nur nach einer Beobachtung führt um Unklarheiten zu beseitigen, die durch die Beobachtung und nicht durch die Fragestellung aufkamen.) Die öffentlichen Betaphasen, die die Onlineprojekte mittlerweile alle durchlaufen, zielen nicht auf Kreation ab, sondern auf Nachregulierung.
Naja, ich kürze das an der Stelle ab. Verhaltensartefakte helfen nicht viel. Und, das wird das letzte Argument, das eigene Reden über Verhalten ist als Datum völlig unbrauchbar. Wer wissen will, was Google weiß, sollte nicht den Erzählungen der Chefetage selbst folgen. Eric Schmidt übertreibt, wenn er aus Bewegungsdatenkalkulation, die ihm Verkehrsstaus vorhersagen und aus Schreibgeschwindigkeitsanalysen, die Textrelevanz unterstellen, darauf schließt, er könne auch das Weltchaos selbst beherrschen, Börsenkurse prognostizieren und Revolutionen kontrollieren. Es gibt für derartiges Gerede Erklärungen, die zu denen gehören, die darlegen, warum beinah jedes öffentliche Gerede, überall in der Gesellschaft, am ehesten mit Autosuggestion zu tun hat.
Ich behaupte, sich auf den Wissensstand (nicht den Datenstand) von Google zu bringen ist recht einfach. Man muss sich einmal methodisch kontrolliert das Verhalten der Internetbenutzer ansehen und dann theoretisch abgesichert darüber diskutieren. Man müsste genau das Gegenteil von dem tun, was Google tut und wofür es berühmt ist; nämlich nicht Sammeln und Aggregieren, sondern den Einzelfall verstehen und generalisieren. Und wenn Googler bei solch einer Forschung durch Teilnahmebereitschaft helfen würde, könnte auch Google noch einiges lernen.
(Bild: Thomas Leuthard)
Schreibe einen Kommentar