Was weiß Google schon? Das ist die Frage, um die sich vieles dreht. Es ist keine akute Tagesaktualität, sondern die ‚prognostizierende Historisierung‘ die immer mal wieder aufflammt. Hier zum Beispiel. Diese Diskussion ist beinah nur gut zu finden. Sie war internetuntypisch diszipliniert, als hätten sich alle Beteiligten im Kolloquium getroffen. Jeder hatte die Textgrundlage gelesen, gute Argumente konnten zünden und selbst Michael Seemann ist durch einen durchdachten & pointierten Beitrag aufgefallen (gilt nicht für den, den er danach verlinkte.) Und, und das ist besonders hervorzuheben, es wurde über Problemstellungen diskutiert.
Für mich (als Zaungast) hat sich eine Frage als die tragende herausgestellt: Was weiß Google schon? Und bislang bleibe ich bei meiner Antwort, die in der Frage schon drin steckt, wenn man sie nicht als „Was weiß Google schon jetzt?“ liest, sondern als „Was weiß schon Google?“. Ich sympathisiere mit einer der berühmtesten Antworten der Soziologiegeschichte: Nichts.
Es so zu sehen ist natürlich falsch, aber um das aufzuklären und trotzdem bei der Antwort zu bleiben, muss man sich etwas von Google selbst lösen und hinterfragen, wie Google und andere überhaupt in der Lage sein sollen, etwas (und was eigentlich?) zu erfahren. Wir wissen zwar nicht, wie Google operiert, aber wir wissen, wie die Algorithmenmaschinerie betankt wird. Und es gibt erkenntnistheoretische Grundlagen, die hier nicht falsch sind, auch wenn immer unterstellt wird, die „Hypermoderne“ sei kaum theoriefähig.
An der oben verlinkten Diskussion hätte ich, aus der Bielefelder Perspektive, nur einen Kritikpunkt, der jedoch fundamental ausfällt: Mit Akteurszentrierung und Handlungstheorien ist in Sachen Google & Gesellschaft kaum etwas zu gewinnen. Man müsste der handlungstheoretischen Versuchung nicht nur widerstehen, sondern ihr regelrecht Widerstand leisten, weil sie sich immer wieder hartnäckig aufdrängt. Schließlich sind wir ja die User-Akteure und stehen maschinenvermittelt in einem zirkulären Bedingungsverhältnis mit den Google-Akteuren.
Wer programmiert eigentlich wen? Folgen wir Google, weil sie den Alternativenkorridor für folgende Handlungen vorgeben oder folgt Google uns, um sich noch besser anzupassen? Lassen wir uns das bieten? Ist die Google-Maschine sensibel genug? Solche Fragen kann man nur schwer diskutieren, wenn man sie nicht vorher entzerrt. Die akteurszentrierte Diskussion um den freien Willen, um Googles Einfluss auf unser Handlungsvermögen oder die Idee, es gäbe ein objektives Subjekt, dass eine eindeutige Grenze zwischen sich und dem Rest zieht und die Google-Maschine „dem Rest“ zuordnet und dann Einflussnahme auf eigene Intentionen verspürt, betrifft Fragen, die fürs Erste beiseite geräumt werden müssen, um die gesellschaftlichen Fragen zu stellen.
Dies gelingt auf die Schnelle: Individuelle Freiheit ist ein Konzept, das überhaupt nur zu fassen ist, wenn man es nicht nur begrifflich von irgendetwas (Einschränkung irgendeiner Art) unterscheidet. Erst die Einschränkung differenziert Möglichkeiten und führt so zu Aktualität, die sich von ihren Möglichkeiten (für den Einzelnen (Selbst-)Beobachter) sinnstiftend unterscheidet. Ein freier Wille, der keine Widerstände zu überwinden hat und ungerichtet bleiben darf, wäre gar kein Wille. Was sollte er wollen? Woran sollte er sich orientieren? Und woher wüsste man, dass man das Richtige will? Wille ist sozusagen eine konzeptionelle Antwort auf das Erleben, dass nicht alles aber vieles möglich und nur weniges notwendig ist.
Man könnte etwas salopp sagen, die Psychologen kümmern sich um das Notwendige, die Soziologen um das Mögliche. So hätte es jedenfalls hier ausreichenden Sinn. Und an dieser Stelle muss entschieden werden, wo das Google-Problem angesetzt wird. Entweder setzt es am, mit Intentionen bestückten Subjekt an, und fragt, was mit ihm passiert, wenn es zum Lotsen durch die Stadt / das Warenangebot Google befragt. Oder es setzt an der Gesellschaft an und fragt, was passiert, wenn überall jede Information verfügbar ist und trotzdem Alternativen eingeschränkt und Entscheidungen getroffen werden müssen.
Beide Fragenkomplexe haben ihre Berechtigung, man kann sie aber nicht gleichzeitig oder überhaupt im gleichen Modus stellen. Es sind Fragen für, sofern man sie der Wissenschaft übergibt, mindestens zwei verschiedene Disziplinen: Die eine kümmert sich um Kognition, die andere um Kommunikation. Und hier soll es erstmal nur mit der zweiten Variante weitergehen.
Wenn es um die Gesellschaft geht und die Kommunikation als elementares Problem behandelt wird, spielen individuelle Intentionen, Handlungsvermögen, psychische Merkmale wie Intelligenz und persönliche Erfahrung keine Rolle. Und trotzdem geht es um die Frage, wie einiges faktisch ist, obwohl so vieles möglich ist. Wieso gelingt Kommunikation, obwohl sie immer mit der Welt beschäftigt ist und trotzdem stets nur eine Leitunterscheidung akzeptieren kann? Sie benötigt Hilfe und diese Hilfestellungen sind in der Kommunikation selbst eingebaut.
Der Dreiklang Interaktion, Organisation und Gesellschaft gibt die Kategorien dieser Hilfen vor. In Interaktionen sind es Person, Thema, Interaktionsgeschichte (…); in Organisationen Mitglieder, Hierarchien und Programme und in der Gesellschaft die sgKommunikationsmedien (Geld, politische Amtsmacht, wissenschaftliche Reputation (…)) die Alternativen einschränken. Naturwissenschaftliche Technologien spielen auf dieser Ebene eigentlich kaum eine Rolle, sie kommen als Bedingungen der Kommunikation vor, vererben sich aber nicht qualitativ. Und die Frage ist, ob das beim Google-Thema „Algorithmen“ anders ist.
Man könnte (weiterhin theorieorthodox, inhaltliche Gegenargumente sind berechtigt, müssten aber doppelt geprüft werden) vielleicht Folgendes sagen: Die Google-Maschine ist eine Reaktion auf eine Problemstellung, die die Gesellschaft (Kommunikation) selbst erzeugte, als sie Massenspeicher & digitale Breitbandkabel und Funktechnologie hervorgebracht hat und die auch die Kommunikation selber löst, wenn auch unbestimmt bleibt, wie dies geschieht. Wenn alles speicherbar ist und ständig kommuniziert werden kann, benötigt es einige Komplexität reduzierende Mechanismen, die eben genau diese Problemstellungen (Massenspeicher und Breitbandkabel) behandeln: Daten katalogisieren und hierarchisieren & Kommunikationswege diskriminieren. Die Gruppe um Google, Facebook und Apple macht genau das: Internethinhalte ranken, „Social Graph“s digital nachzeichnen, nutzerfreundliche Hardware herstellen. Wichtig ist jedoch: Die Probleme, die Google & Co lösen, was unser modernes Leben so leicht macht, haben Google & Co nicht selbst erfunden. Sie versuchen zwar, uns ihre Probleme aufzuerlegen, doch das gelingt ihnen nicht.
Meine These zu dieser Beobachtung wäre wohl wie folgt: Diese Firmen generieren nicht, sie regulieren. Sie haben es im hohen Maße mit externen Problemen zu tun. Wenn man sich Google ansieht, erkennt man, dass sie andauernd versuchen, sich das Internet zu verinnerlichen – um besser darüber disponieren zu können, was sie als Lösung anbieten. Das funktioniert auch ziemlich weitreichend, aber wie man an dem Gigantensterben der letzten Jahre gut sehen kann, wirklich gelingen tat es bisher nie. Immer wenn sich große Firmen aus der Resonanz mit ihrer Umwelt verabschieden und selbst generative Mechanismen ausbilden, ist das der Anfang von ihrem Ende. AOL hat es mit den Inhalten erfahren, Facebook erfährt es grad mit den User-Gängelungen. Google zeichnet sich durch seine hohe Sensibilität aus – man achtet auf die creepy-line, lässt die eigenen Mitarbeiter experimentieren, hört auf die Wissenschaft. (Man hat wenig Einblick ins organisationale Google-Geschehen, aber eine Hierarchie-Diktatur herrscht dort in den entscheidenden Regionen sicherlich nicht.)
Google ist ein besonderer Akteur, bleibt aber der „unfassbaren Komplexität“ der Gesellschaft beinah genauso blind ausgeliefert, wie jede Start-up-Garagenfirma auch. Googles wichtigster Auftrag ist, täglich neu zu lernen und ihre wichtigste Aufgabe ist, sich möglichst herauszuhalten und den User nicht zu überfordern.
Diese ganz Argumentation ist bis hierher sehr kritikanfällig. Sie führt aber nun zu der Frage von oben: Was weiß Google eigentlich? Und was will Google wissen? Man kann zumindest sagen, dass Google eine unglaubliche (aber fassbare) Menge an Daten vorliegen hat. Mausbewegungen, individualisierter Webtraffic, Inhalte & Verknüpfungen, freiwillige Profildaten, Verbindungsdaten, Bewegungsdaten usw. Aber was kann man mit solch einem Datenschatz tun? Wie generiert man daraus konstruktives, nutzbares Wissen?
Eine der wichtigsten Lehren in meinem Studium war folgende: Qualitative Studien sind wichtig, quantitative Studien sind was für politische Zuarbeiten oder BWL-Übungen – man kann mit ihnen fast nichts gewinnen außer Antworten auf einfache Fragen. Und Datenmenge, Datenumfang und Datenqualität ändert daran kaum etwas. Für Fragen, wie ich sie an eine nächste Gesellschaft hätte, würde ich nur selten daran denken bei Google anzufragen, ob ich mal in ihren Datenschatz schauen darf.
Solche Datenbanken sind nur für diejenigen interessant, die konkrete Anliegen haben. Die Politik will wissen, was zu entscheiden ist; Verkäufer wollen wissen, welche Verkaufsstrategie sich als erfolgreichste herausgestellt hat. Doch die gesellschaftswissenschaftlich interessante Herangehensweise ist ja genau umgekehrt: das absichtlich autistische Herantreten an ein soziales Phänomen, das hinter keinem konkreten Anliegen, keiner konkreten Fragestellung verborgen wird. Und das – ganz wichtig – unmittelbar beobachtet werden kann. „Wie ist diese soziale Ordnung möglich?“ Und: „Welche Probleme werden hier gelöst?“ Ein fragmentiertes Datenmaterial, wie es Google vorliegt, hilft da kaum weiter. Der gesamte Google+ Datenschatz ist weniger wert als eine multimedial-umfängliche Konservierung von ein paar Nutzungsbeobachtungen. Google registriert nur, was passiert, wenn etwas passiert – und das ist viel zu wenig, geradezu wertlos.
Es würde mich nicht wundern, wenn Google sein Google+ hauptsächlich in qualitativen Studien getestet hat. iPhones, Online Social Networks, Suchergebnislisten – um das zu verstehen, schaut man sich am besten die Nutzer in ihrer Situation an und konturiert das im Nachhinein mit angefallenen elektronischen Nutzungsartefakten. (So wie man auch Interviews nur nach einer Beobachtung führt um Unklarheiten zu beseitigen, die durch die Beobachtung und nicht durch die Fragestellung aufkamen.) Die öffentlichen Betaphasen, die die Onlineprojekte mittlerweile alle durchlaufen, zielen nicht auf Kreation ab, sondern auf Nachregulierung.
Naja, ich kürze das an der Stelle ab. Verhaltensartefakte helfen nicht viel. Und, das wird das letzte Argument, das eigene Reden über Verhalten ist als Datum völlig unbrauchbar. Wer wissen will, was Google weiß, sollte nicht den Erzählungen der Chefetage selbst folgen. Eric Schmidt übertreibt, wenn er aus Bewegungsdatenkalkulation, die ihm Verkehrsstaus vorhersagen und aus Schreibgeschwindigkeitsanalysen, die Textrelevanz unterstellen, darauf schließt, er könne auch das Weltchaos selbst beherrschen, Börsenkurse prognostizieren und Revolutionen kontrollieren. Es gibt für derartiges Gerede Erklärungen, die zu denen gehören, die darlegen, warum beinah jedes öffentliche Gerede, überall in der Gesellschaft, am ehesten mit Autosuggestion zu tun hat.
Ich behaupte, sich auf den Wissensstand (nicht den Datenstand) von Google zu bringen ist recht einfach. Man muss sich einmal methodisch kontrolliert das Verhalten der Internetbenutzer ansehen und dann theoretisch abgesichert darüber diskutieren. Man müsste genau das Gegenteil von dem tun, was Google tut und wofür es berühmt ist; nämlich nicht Sammeln und Aggregieren, sondern den Einzelfall verstehen und generalisieren. Und wenn Googler bei solch einer Forschung durch Teilnahmebereitschaft helfen würde, könnte auch Google noch einiges lernen.
(Bild: Thomas Leuthard)
„Die Google-Maschine ist eine Reaktion auf eine Problemstellung, die die Gesellschaft (Kommunikation) selbst erzeugte, als sie Massenspeicher & digitale Breitbandkabel und Funktechnologie hervorgebracht hat und die auch die Kommunikation selber löst, wenn auch unbestimmt bleibt, wie dies geschieht.“
Ich habe immer wieder den Eindruck, dass Soziologen Komplexitat und Quantität eineins denken. Eine enormen Menge an Daten hat keinen kausalen Zusammenhang mit dem neuzeitlichen Synonym namens Komplexität, formerly known as Zufall, wissenschaftstheoretisch auch bekannt als das Keine-Ahnung-Syndrom. Jedes Sinnesdatum besteht maximal aus einer Vielzahl an Diskriminationen, die außerdem im Gehirn autobigrahisch und kulturell in Gestalt gebracht werden. Daten in Computern sind jedoch immer in regelbasierte Ordnungen des großen Prokrustes namens Code verkrüppelte Entitäten.
Der Grund, warum Google anders ist, liegt in den Mitarbeiter, die im Normalfall extrem eigenartige Persönlichkeiten sind und innerhalb der Firma in dieser Hinsicht keinerlei sozialem Druck unterliegen. Das Prinzip von ROWE simuliert besser als jede andere Organisationsform von Mitarbeitern ein hohe Maß interner Kritik. Und wie Kollege Gurdjeff schon vor 100 Jahren erkannte, sind es immer die Läuse im Pelz, die eine Gruppe stabilisieren.
Die vermeintliche Regulation die von Google ausgeht ist daher eher ein erkenntnistheoretisches Experiment: Was passiert, wenn ich meinen Mitarbeiter soviel Freiheit gebe, dass sie weder die Grundidee der Firmengründer stören noch diese die Grundantriebskräfte der Mitarbeiter korrumpieren.
Google sucht gar nicht das Wissen von uns. Das ist das besondere Problem vieler deutschsprechender Experten, die Google Betrachten. Uns ist qua Sprache nicht klar, dass der Prozess des Wissens etwas völlig anderes ist als das Ergebniss des Wissens, das wir immer hübsch in Bücher schreiben und dann Wissen nennen. Google will mit uns als Neuron im Netz denken. Google das Internet mit uns allen verbinden, um das Internet als einen Supercomputer aufzubauen. Die einzelnen Daten sind dabei nur Schmuck am Nachthemd. Es geht um das, was neuerdings auch statt des Gottesbegriffs eingesetzt wird. Emergenz. Etwas, das sich entbirgt, etwas, das vorher nicht da war und nur durch die Technologie hervorgebracht wird.
Das ist auch der Grund, warum Google, die relative Freiheit, die es gegenüber seinen Mitarbeiter praktiziert auch im Netz braucht. Wer sich mit Entropie beschäftigt, der weiss, dass ein hohes Maß an Ordnung wie an Unordnung den Tod bedeuten.
Vielleicht hilft es dem einen oder anderen Mitleser zu wissen, dass Google selbst viel in Richtung Turbulenz und Chaos forscht.
Wer Google verstehen will, der muss versuchen nachzuempfinden, wie der aktuelle Stand der Bewusstseins- und Erkenntnisforschung ist, denn Google baut am größten Gehirn der Welt und das tun sie in direkter Analogie zu unseren Vorstellungen wie Wissen entsteht. Die benutzten Daten sind aus Sicht von Google so wichtig wie die Fotos der Neuroforscher, die sie Menschen in MRT-Röhren präsentieren. Google hat ein funktionales Bild eines Gehirns im Kopf und überprüft das an uns.
Danke für den Text, finde ihn sehr anregend, weil die gesellschaftliche Sicht die Diskussion gut von der „Ich gegen Google“-„Google gegen-mich“-Debatte“ abrückt. Denn Informationsverarbeitung hat ja tatsächlich einen Zweck und ist zunächst mal – wenn man das wohlwollend betrachtet – nicht einfach nur eine weitere Gelddruckmaschine, sondern ein Ansatz zur Lösung eines anderen Problems.
Im letzten Drittel schreibst Du allerdings über „Verhaltensartefakte“ und „Nutzungsbeobachtungn“ – wie ordnest Du denn soziale Beziehungen ein, die ja auch abgebildet werden, und zwar sowohl explizit („Followen“ etc.) als auch implizit (Wer kommuniziert mit wem wann wie worüber)? Und wie die Inhalte selbst, über die kommuniziert wird?
Ist das aus Deiner soziologischen (?) Perspektive enthalten oder etwas drittes/viertes? Oder ist zB Schrift das Artefakt und somit das, was danach durch Maschinen erfolgt, noch lange keine „Sinn-Verarbeitung“?
(Meiner Meinung nach sind es ja die Beziehungen und die Inhalte, welche möglicherweise zu einer Reihe von Problemen führen, die ich hier gar nicht wieder diskutieren möchte.)
(Sorry für meine möglichweise sinnentstellenden Transformationen in meine Begriffswelt, bin aber kein Soziologe)
@CK Ich würde meine Antwort auf Deine Frage auf die einfache Unterscheidung von Syntax und Semantik zurückziehen. Die Komplexität der Kommunikation ruht auf Semantik – also auf Unterscheidungen, die immer wieder neu (durch verstehende Rückmeldung, wie indirekt auch immer geäußert) abgeglichen werden müssen. Man beginnt ein Gespräch zum Thema Haus, und meint seines im Gegensatz zu dem des Nachbarn, man bleibt beim Thema Haus, lässt die Möglichen Unterscheidungen aber rotieren. Mal gehts um Architektur, dann um Historie, dann um Baukultur, dann um Nutzen und später vielleicht noch um Dämmung.
Solche eine Kommunikation kann man qualitativ auswerten, ohne zuviel Sinn zu verlieren (bzw. unrekonstruierbar zu vernachlässigen). Google löst aber, so die Unterstellung, viele Probleme mit Algorithmen – die eben auf Syntax basieren, also auf eindeutigen Unterscheidungen. Sie speichern immer nur das, was sie sehen (die Aktualität) die Manigfaltigkeit der Möglichkeiten geht ihnen dabei verloren. Eine Frage wäre, ob sie das Rekonstruiert bekommen.
Solange sie klare Fragen haben, ist das alles nur ein kleines Problem. Denn dann wissen sie, wovon sie die Daten die sie haben unterscheiden müssen, um für sich Sinn zu konstruieren. (Sie beobachten beispielsweise Klicks und unterscheiden sie von ausgebliebenen Klicks, sie Werten Nutzungslaufzeiten gegeneinander aus, sie beobachten, wie oft ein Video gespielt wird im Verhältnis zu, wie oft es abgebrochen wird.)
Die interessanten Fragen sind aber die, die die Komplexität (Variationsspielräume) dessen, was beobachtet wird nicht vollständig ignorieren und durch eigene Unterscheidungen überlagern. Und da ist meine Studienerfahrung: Wer sich einem Einzelfall nähert so dicht er kann, und diesen dann generalisiert, lernt mehr als jemand, der umfänglich auszählt und dann mit Mathemagie hantiert.
„Man müsste genau das Gegenteil von dem tun, was Google tut und wofür es berühmt ist; nämlich nicht Sammeln und Aggregieren, sondern den Einzelfall verstehen und generalisieren.“
Google sammelt ja nicht mit demselben Motiv wie der Briefmarkensammler. Auch aggregiert Google auch nicht, um die Daten zu normalisieren wie es Sozialwissenschaftler tun würden, bevor sie die Analyse beginnen. Es geht in diesem Fall nicht mehr um das alte Modell Induktion vs. Deduktion. Google verfolgt mit Brins und Pages Vorhaben, mit dem Netz zu denken paralogische Prozesse mit einer Intention zu verbinden. Gerade Soziologen müssten die Abduktion kennen, moderner heißt das dann Schluss auf die beste Erklärung. Der wichtigste Punkt ist der Anfang, also das Erfassen der Phänomene, die Du als Einzelfall beschreibst. Das Generalisieren jedoch ist auf dieser Stufe eine unzulässige Ordnungsinstanz, da noch nicht klar ist, welche Phänomene kategorielle Sprünge verursachen – das was Systemtheoretiker Emergenz nennen. Deswegen beobachtet Google uns solange, bis sie Phänomene identifizieren können, die diese Sprünge auslösen. Dann erst passen sie ihre Algorithmen an. Dabei wir jedoch aufgrund der enorm vernetzten Datenlage ex post immer betrachtet, welche Startbedingungen und Auswirkungen Phänomene bewirken und auslösen. Denn Sie haben die timeline auf ihrer Seite und eben natural language processing, also Computerlinguistik. Sozialwissenschaftler und Neuroforscher sind ja noch recht blind auch dem Auge Phänomen in der Zeit. Sie haben Heidegger eben noch immer nicht verstanden. Aber das kommt langsam…
Herr Wittkewitz, ich verstehe in ihren Kommentaren folgendes: Google versucht ein soziales Gehirn zu bauen, wir als Nutzer sind die Schaltstellen. Dieses Anliegen geht auf Entscheidungen in der Chefetage zurück. Wir Soziologen verstehen nicht, dass Google die Kategorien seines Datenkatalogs sensibel lässt (Abduktion), weil wir Heidegger immer noch nicht verstanden haben. Das sollten wir aber nachholen, damit wir endlich nicht mehr blind gegenüpber den Phänomenen der Zeit sind. (Habe ich was substanzielles vergessen?)
Richtig erfrischend dieser Perspektivwechsel incl. der expliziten und impliziten Schlüsse. Die kommunikationswissenschaftliche Perspektive von Wille und Vorstellung verdeutlicht einige Verhaltensmuster von Akteuren und auch von Firmen.
An einem Satz habe ich mich allerdings doch etwas schwer getan:
„Diese Firmen generieren nicht, sie regulieren.“ Daß sie nicht generieren war für mich klar. Aber ob sie mit ihren Reaktionen auf gesellschaftliche Vorgänge schon regulieren, möchte ich bezweifeln. Sie wollen mit ihren Aktionen steuern, aber auch in dieser Beziehung (siehe FB) scheitern sie zum großen Teil. Das Wort regulieren ist bei mir noch stärker belegt. Aber vielleicht ist dies nur ein sprachliches Mißverständnis.
Jetzt fehlen eigentlich nur noch die Kognitionswissenschaftler, die zwar diese Debatte verfolgt haben(zumindest zwei), denen es aber wie Herrn Schmidt geht: Sie müssen ihre Projekte verkaufen. Und hier gibt es oft eine Diskrepanz zwischen Schein und Wirklichkeit.
Zur Werthaltigkeit der Daten: Ich hatte es in einem Blog auch noch einmal auseinandergenommen. Sie haben es besser formuliert: „Solche Datenbanken sind nur für diejenigen interessant, die konkrete Anliegen haben…“
In diesem Zusammenhang fällt mir nur noch die Festnahme einiger RAF-Leute ein, die am Kiosk 5 Zeitungen gekauft hatten. Man nannte das Rasterfahndung, die allerdings über die weiteren Zusammenhänge auch keine Erkenntnisse generieren konnte.
@Hajo Dezelski zur ersteren: ganz klares begriffliches Missverständnis. Regulieren meint (hier) einen zarten Eingriff in die Alternativen, die uns eine präferieren lässt. (Wir nehmen bspw. lieber Google+ als Facebook. ;-) Steuern meint dagegen (hier) eine beinah zwangsweise Verordnung von Verhalten. In dem von mir oben gewählten Theorierahmen gibt es daher noch „Steuerungsoptimismus“ als Begriff, der aber die Realität durch eine Utopie (die in vielen Köpfen vorherrscht) konturiert.
Nein. Das von Google geplante Denken beruht eben nicht auf Gegenseitigkeit (sozial). Brin und Page haben öffentlich verkündet, dass das Gehirn zukünftig direkt mit dem Web zu verbinden sein und dann Denken u.a. googlen heissen wird. Der Rest steht ja oben. Kurz gesagt: Das Datenmaterial von Google ist das Gegenteil von wertlos. Es ist der Anfang einer Kultur aus der Retorte. Da diese Kultur NICHT in der Gesellschaft geschieht sondern von ihr abstrahiert wird nach abduktiv erstellten Regeln in der Zeit, ist uns keine externe Position möglich. Im Gegensatz zu McLuhans Satz ist nicht mehr der Zuschauer der Inhalt sondern sein Kondensat. Der Kondensationsvorgang ist geheim, provisorisch und dient einer Modellbildung, die keinem akademischen Ethos untersteht.
@Wittkewitz: Dem würde ich mit einem einfachen, wenn auch subjektivem Argument widersprechen: Zehnmal pro Tag bin ich überrascht davon, wie dumm Google ist. (Und diese zehn Male sage ich Google eigentlich sehr klar, was ich von ihm will.) Nun können sie sagen, Google wird besser – aber dann müssten sie einen graduellen Qualitätunterschied unterstellen. Was sie konsequenterweise tun müssten, um ihr Argument, dass Google das alles jetzt schon kann, was sie beschreiben, zu unterstützen.
Welche meiner Aussage widerspricht Deine Erfahrung? Wo habe ich geschrieben, das Google jetzt schon alles kann?
„Google will mit uns als Neuron im Netz denken. Google das Internet mit uns allen verbinden, um das Internet als einen Supercomputer aufzubauen. Die einzelnen Daten sind dabei nur Schmuck am Nachthemd. Es geht um das, was neuerdings auch statt des Gottesbegriffs eingesetzt wird. Emergenz. Etwas, das sich entbirgt, etwas, das vorher nicht da war und nur durch die Technologie hervorgebracht wird.“
Bis jetzt scheint das noch Wunsch und (humanes) Denken zu sein. Kommt aber darauf an, was sie mit Emergenz genau meinen.
Ich glaube, ich verstehe die Verwirrung, die in 5. zum Ausdruck kommt. Es ist schwer, Erfahrungen in Dialogen gegen sachliche Aussagen zu setzen (da Kategorienfehler drohen) und dementsprechend sicher unmöglich, meine Sätze in den oberen Beiträgen „rückzuübersetzen“ in lebensweltliche Kontexte.
zu 11.
Ah ok. Das Wesen der modernen Technologie ist laut Heidegger, dass sie etwas entberge, daß sich nicht selbst hervorbringen kann, was ja Emergenz behauptet. Eben dass etwas spontan aus sich selbst entsteht, im Gegensatz zu den Gnostikern und Religiösen, die da einen Schöpfergott sehen. Die Frage ist daher, ob es tatsächlich aus sich selbst entsteht oder aus etwas anderem. Ich glaube – und denke, dass mich das mit Schirrmacher eint – dass das Neue aus den Daten entsteht. Nicht die Suchergebnisse, die Du siehst sind Google wichtig, sondern Deine Interaktion mit der Maschine. Dabei sind die Daten nur ein Mittel, aber Deine Reaktionen auf die Daten sind das Wertvolle. Unter Technik versteht Heidegger das Hervorbringen von Nichtanwesendem ins Anwesende. Das Besondere an dieser Sicht auf Technik ist dabei bei Google, dass Heidegger auch das rein Gegenwärtige in den Blick nimmt. Immer wenn ich mich auf eine Abstraktionsebene begebe, wie eben den Tagebucheintrag“ Schreibe gerade in mein Tagebuch“, bin ich ja schon zeitlich später und leider auch in einer Metaebene. Google aber ist immer Gegenwärtig, weil es IMMER alle Interaktionen in Bezug zu allem anderen setzen kann, was es gerade im Rest der Welt analysiert. Dadurch entsteht eine Pflege von Daten über unser Verhalten, die ich als neue Kultur bezeichen oder eben Parallelwelt. Und die ist für uns genauso unzugänglich wie die Welt Gottes.
@Wittkewitz, wenn sie im letzten Satz zwischen „uns“ und „genauso“ auch noch „und Google“ geschrieben hätten, wäre ich voll bei Ihnen.
Da sie die Welt selbst schaffen, herrschen sie dort über alles. Sie verkaufen Brosamen aus diesen Yottabyte an Daten und erlösen damit Milliarden. Es ist also davon auszugehen, dass sie Zugang zu ihrem gigantischen Homunkulus haben.
„Da sie die Welt selbst schaffen, herrschen sie dort über alles.“ Sehe ich (fast) genau andersherum. Sowohl was den Aspekt des Erschaffens angeht, als auch den des Herrschens. (Und meine Begründung ginge in Richtung System/Umwelt-Unterscheidung und Emergenz.)
„Bis jetzt scheint das noch Wunsch und (humanes) Denken zu sein. Kommt aber darauf an, was sie mit Emergenz genau meinen.“ Lieber Stefan Schulz, mit Verlaub – wie kommen Sie darauf? Denn davon hängen alle Ihre Schlussfolgerungen ab. Nur weil Google auf der Ebene des Konsums, der Werbung begonnen hat, heisst das noch lange nicht, das es sich mit dieser Art der „Willenserforschung“ begnügt. Nur weil sie es nicht „merken“, ist es nichtsdestoweniger doch vorhanden. Google ist hier natürlich auch nur pars pro toto. Ich glaube wir werden künftig auch Alltagswissen um seinen nachrichtendienstlichen semantischen Bruder erweitern müssen und das ist alles andere als eine Verschwörungstheorie. Google ist eine Zentrale Intelligenz Agentur, not evil, aber sie ist es. Sie fotografiert unsere Häuser und Wohnungen, merkt sich genau was wir n i c h t wissen, während es uns mit Wissen versorgt, analysiert die Heuristiken, denen wir folgen usw.usw. Das Argument, das sie dagegen aufwenden lautet: kann nicht funktionieren. Es ist aber, wie ich gerade Ihnen nicht erklären mussen, eine sich selbst ernährende Funktionslogik.
Vielleicht ist die das klassische Wissen über Stefan Schulz wirklich begrenzt in Palo Alto (weniger allerdings, wenn Sie in die USA einreisen, wo dann das Wissen einzig und allein predictive genutzt wird). Vielleicht ist die Debatte etwas asymetrisch geworden, weil ja offenbar automatisch jeder mit Google die weisse, reine Website verbindet – eigentlich der genialste Schachzug überhaupt. Entscheidend ist, das bereits jetzt das assoziative Erinnern und selbst das spontane Erinnern als ein vorausberechnetes Produkt vertrieben wird. Es geht nur um die Frage, w a n n der „digitale Spiegel“ das gespiegelte Subjekt ersetzt – und wer das Spiegelbild ist und wer der Gespiegelte. Schauen Sie sich mal „Recorded Future“ an, die nicht zufällig massiv von Google Ventures u n d dem CIA finanziert werden.
„The firm in question, Recorded Future, produces software that parses tens of thousands of blogs, web pages and Twitter accounts to establish the links and relationships between people, organizations and events current and future.
Mir ist schon klar, dass das
One of the firm’s aims seems to be to create real-time dossiers on particular individuals that will establish who is involved, with what, and how events might unfold. This will be based on the publicly available information available on all of us as we use the web to manage our social, political and business interests. “
oder:
Predictably, being faced with hard, empirical data about your social world — particularly if it contradicts what a user believes, or wants to believe — can be difficult.
„If you’re seeing a shrink, you might want to sit down and talk through the results,“ jokes Charnock. „People’s first reaction when they see the results is often that it can’t be true, I would never do that. Well you know what: you did.“
Quelle:http://edition.cnn.com/2010/TECH/web/08/25/digital.reflection/#fbid=g_HeIfZuAfy&wom=false
Ich glaube auch nicht, dass das SF ist. Siehe:
http://www.nytimes.com/2011/03/05/science/05legal.html?_r=2&pagewanted=1&ref=science
Mir ist schon klar, dass das alles auch Selbstmarketing ist, auch Angebereien, Übertreibungen. Es sind im Augenblick auch noch unverbundene Technologien. But just wait and see.
@Frank Schirrmacher zu Ihrem ersten Punkt. Ich denke, der NYT-Link veranschaulicht gut, was Sie stets sagen, wenn Sie von der „Industrialisierung des Denkens“ sprechen. Ich würde das auch historisch mit einer Industrialisierung der körperlichen Arbeit in Beziehung setzen, die länger zurückliegt und somit schon aufzeigt, welche neuen Potenziale sich durch derartige Externalisierungen/Arbeitsteilungen erschließen lassen. Meine Schlußfolgerungen hängen aber noch etwas mit dem Emergenzphänomen zusammen. Eine Steigerung von Potenzialen bedeutet nicht gleichzeitig ein Auftreten emergenter Phänomene.
Was ich mitbekomme, und ich habe auch im NYT-Artikel keinen offensichtlichen gegenteiligen Fall gefunden, läuft darauf hinaus, dass bislang die Maschinen noch tun, was ihnen befohlen wird: Bekannte Muster suchen, Abweichungen isolieren, Stichworte und (und das ist vielleicht ein Punkt gegen mein Argument) Konzepte in Texten suchen. Von Emergenz würde ich aber erst sprechen, wenn die Maschinen selbstständig Textbeiträge verfassen, die kommunikativ anschlussfähig sind. Ich habe vor einiger Zeit gelesen, dass es erste Software gibt, die statistische Daten eines Sportereignisses in journalistischen Text umsetzt. Ok. Aber es werden sicherlich (noch) keine Anwälte entlassen, die sich auf die Herstellung von Plädoyers und Dossiers spezialisiert haben.
Dem „just wait and see“ Argument kann ich so natürlich nicht widersprechen. Und das hätte ja auch wenig Sinn.
Zum zweiten Punkt, dem digitalen Spiegelbild. Das ist mir alles auch sehr rätselhaft. Meine Hypothese wäre, dass Google u.a. die Gesellschaft tatsächlich ändern, vielleicht fundamental, aber nicht in dem Maße intendiert, wie unterstellt werden könnte, wenn man den Wandel beobachtet. Ich teile die Ansicht, dass Google u.a. in vielen Bereichen mehr über uns wissen, als uns bewusst ist und als wir über uns selbst erzählen könnten. Und ich teile auch die Ansicht, dass das digitale Spiegelbild das ist, an das aus vielen Gründen viel eher angeschlossen wird, als an den „eigentlichen“ Menschen.
Mit digitalen Spiegelbildern kann man jedoch nicht kommunizieren, man kann sie höchstens konsultieren und der Bereich konstruktiver Antworten ist gering. Ich weiß, genau dem würden Sie widersprechen. Und ich würde dem wiederum nicht widersprechen – doch eine Frage bleibt heute noch unbeantwortet: Können Maschinen auf Syntaxbasis mehr als selegieren? Es wird stets die Verknüpfung von Daten betont. Doch wie sieht es mit Auflösung und Rekombination von Datensätzen aus? Können Maschinen, wie kompliziert auch immer, variieren im Sinne menschlicher Intelligenz? Ich stimme mit Herrn Wittkewitz überein, das Problem liegt in dem Verhältnis (nicht in der Vermengung) von Gesellschaft und Maschine. Und noch treffen sich an diesem Schnittpunkt Syntax und Semantik. Und auch da hat Herr Wittkewitz recht, Komplexität ist nicht Quantität und Google beeindruckt mich bislang vorrangig mit Quantität. (Ab hier würde ich auf meinen ursprünglichen Text verweisen: Google reguliert, ohne das wir erkenne wie. Und es gilt die soziologische Anmerkung: Das Funktionieren der Gesellschaft ist darauf angewiesen, dass wir nicht verstehen, wie sie tatsächlich funktioniert. Und das gilt auch für die Maschinenbetreiber. Sie müssen nicht verstehen, wie ihre Maschine funktioniert um von ihr zu profitieren.)
„“Können Maschinen, wie kompliziert auch immer, variieren im Sinne menschlicher Intelligenz?“ Ich empfehle in diesem Zusammenhang sich mit den zum Teil apokryphen Schriften zur Arbeitsoptimierung Ende des 19.Jahrhunderts zu befassen. Natürlich kann man den Einfluss der Maschinen auf körperliche Arbeit nicht mit den geistigen Maschinenparks heute vergleichen. Damals war das Problem der „fatique“ zu lösen, der Nichtangepasstheit des Körpers an die Maschinen. Nicht zufällig, entstand damals der Sportunterricht, der Begriff der Kalorie etc., in Wahrheit alles Kompensationstechniken. Mein Plädoyer zielt ist ja in Wahrheit gar nicht pessimistisch, weil ich von der Unhintergehbarkeit der digitalen Welt ausgehe. Ich will immer auf diese Kompensationstechniken hinaus, die sogar institutionell verankert werden müssen (siehe Investmentbanker), die sich jetzt aber im Geistigen abspielen. Das haben ja auch viele schon gemerkt, wenn sie von einer Reformation des Unterrichts etc. reden.
Ist aber viel zu wenig. Wahrscheinlich sind kompensotarische Denkoperationen nötig, es reicht glaube ich nicht zu sagen, Menschen denken anders als Maschinen. Im Augenblick ist die „Kompensationstechnik“ die „Debatte“, also gutes altes 19.Jahrhundert. Auch das wird nicht reichen, in einer Zeit in der schon alle Print Redakteure in Deutschland Teaser für die Google-Roboter und nicht mehr für Menschen formulieren.
Wenn Sie es nicht kennen, lesen Sie unbedingt Dysons „Darwin im Reich der Maschinen“. Ich fand es atemberaubend und zwar vor allem p.258 ff:
http://books.google.de/books?id=LCpdVdSFvtQC&pg=PR3&dq=dyson+darwin+maschinen&hl=de&ei=MAUqTuWYNc7csga4-8mMDA&sa=X&oi=book_result&ct=result&resnum=1&ved=0CDcQ6AEwAA#v=onepage&q=musik&f=false
Ah, ja das ist natürlich eine interessante Fragestellung. Gerade, weil sich die „geistigen Maschinenparks“ hinter ihrer Angepasstheit (und den unsichtbaren WLan-Strahlen) verstecken und die Funktionen und Folgen, die sie in der Gesellschaft entfalten, so noch vielfach verborgen bleiben. (Zumindest hält sich die phänotypische Seite des sozialen (und kognitiven, aber das ist eine andere Wissenschaft) Wandels noch zurück.)
Der Vergleich mit der Industrialisierung der körperlichen Arbeit ist aber trotzdem lehrreich. Es geht ja nicht um einen Wesensvergleich, sondern um eine problematisierende Konturierung, die gerade durch ihre Widersprüche erkenntnisfördernd ist. Dazu müsste ich aber auch mehr lesen. Vielen Dank für die Literaturempfehlung.
Natürlich denken Menschen anders als Maschinen. Aber
1. Sieht man das nicht, das was der Computer tut und das, was der Mesnch tut, wenn er denkt, findet ja hinter einer undurchdringlichen Wand aus Knochen oder Stahl statt und selbst wenn wir reinschauen sehen wir nur graue Substanz oder Schaltkreise und selbst wenn wir messen messen wir sogar das Gleiche, nämlich elektrische Felder. Und die Überzeugung, dass diese felder ja nicht „das Denken“ sind, schwindet mehr und mehr durch die sich ausweitende Herrschaft naturalistischer Erkenntnistheorien.
2. Dadurch, dass wir Rationalität zunehmend auf Faktenanalyse und wissenschaftlich-logisches Schlussfolgern reduzieren wächst die Überzeugung, dass das richtige, das angemessene Denken eben das ist was Computer – der Möglichkeit nach – viel besser können als wir Menschen. Menschen denken anders als Computer aber vielleicht sollten wir so deneken wie sie und wenn wir da begrenzt sind, sollten wir das Denken und das Finden von Handlungsentscheidungen vielleicht den Computern überlassen?
Ich persönlich plädiere für eine Besinnung auf einen erweiterten Rationalitätsbegriff, der Vertrauen und Erfahrung mit einschließt. Kein Computer hat je selbst eine Partei gewählt und ist von den Politikern enttäuscht worden, deshalb wird ein Wahlomat, so viele Fakten er auch berücksichtigt und so gute sozio-ökonomische Modelle er auch verwendet, mir meine Wahlentscheidung nicht abnehmen können.
Darf ich – als nur bedingt sozialtheoretisch informierter Mensch – nachfragen, um mir begreiflich zu machen, was genau hier eigentlich verhandelt wird? Nämlich so: Könnte man das so zuspitzen, dass sich hier zwei verschiedene Zukunftsvisionen gegenüberstehen oder jedenfalls gegenüberstellen lassen?
Die eine, die davon ausgeht, dass die Gesellschaft dank allgegenwärtig werdender Algorithmusmaschinen neue Komplexitäten aufbaut; es ergäben die neuen Gedächtnis-Externalisierungspotenziale dann erst einmal ein weiteres Speichermedium; Prognosen werden verlässlicher; es wird weniger in verstaubten Archiven vergessen; in neuen sozialen Medien werden Rollen flexibler handhabbar und spontanere Kommunikation unter einander bekannten bis fremden Abwesenden wird wahrscheinlicher. Das kann man dann à la Peter Glaser oder mspro utopisch beliebig an je verschiedenen Aspekten in Unsterblichkeitsvisionen und anderes steigern. Und als Skeptiker wird man fragen können, ob gewisse humane Heuristiken (des Bewertens, Unterscheidens, Beobachtens, sogar ästhetischen Urteilens, Vertrauen, Erfahrung) allzu stark überlagert werden durch die Scheinpräzision von algorithmischen Modellen, Beschreibungen, Prognosen. Von der „Unhintergehbarkeit des Digitalen“ wäre dabei dann so sehr wie von der Unhintergehbarkeit der Industrialisierung in der Industriegesellschaft auszugehen.
Frank Schirrmacher vertritt da aber eine andere, deutlich düsterer daherkommende Vision, die mir aber so recht noch immer nicht klar ist – und ich meine das interessiert und kein bisschen polemisch. Ist die Befürchtung die, dass die Gesellschaft als ganze sich mit ihrem algorithmisch errechneten Spiegelbild sozusagen verwechselt? Dass es also zu Komplexitätsverlusten kommt, weil Bewertungen (z.B. von Eignung bei der Mitarbeiterrekrutierung; oder bei Kreditfinanzierung) ganz den Algorithmen überlassen werden, die mit immer zugänglicher werdenden Daten gefüttert werden? Dass also auf diese Weise erstellte Prognosen nicht mehr nachbewertet, sondern für bare Münze genommen werden? Dass also, wie heute beim Börsenhandel schon zu großen Teilen, einfach nur noch Algorithmen mit Algorithmen „kommunizieren“? (Rückgebrochen von der gesellschaftlichen Perspektive auf die des Subjekts wäre das dann vielleicht wirklich in letzter Instanz als Verlust des „freien Willens“ zu beschreiben?)
Eine kritische Frageperspektive, die für beide Seiten relevant ist, wäre sicher die nach den Protagonisten der Digitalisierung und Algorithmisierung. Wie problematisch ist es, dass private Firmen das leisten, die keine Einblicke in ihre Algorithmen erlauben? Wie kann man kritische und öffentliche Instanzen und Institutionen etablieren und neue – „kompensatorische“, aber das ist ein schon einseitiger Begriff – Techniken des Lernens, Erinnerns, Meta-Bewertens entwickeln, die lehren, gesellschaftlich mit den neuen algorithmischen Potenzialen umzugehen?
Falls ich da im Versuch, die Debatte mit meinem Laienverstand nachzuzeichnen, irgendetwas komplett falsch verstehe, freue ich mich über Aufklärung und Erhellung.
Heute morgen am Frühstückstisch, Tochter (6) zu Sohn (9): „Du weißt nichts über mich!“, „Doch, wie Du heißt.“
Auf Google übertragen: Es weiß nur, was andere uns zuschreiben (bspw. den Namen, den Eltern geben), oder was wir offenbaren. Das sind sicher viele Daten. Aber wie relevant sind sie bzw. was macht sie relevant? Jedenfalls nicht der Computer.
Was mich weiterhin wundert: Um darüber zu urteilen, was die Soziologen nicht verstanden haben, müsste man es selbst verstanden und auf sich selbst angewendet haben. Seltsam, dass dieser Brillianz bislang die akademische Anerkennung versagt geblieben ist, und auch Google sich noch nicht dieser versichert hat. (Natürlich ist auch die selbstgewählte splendid isolation eine Option).
Nun ja, es gibt ja einige verkannte Genies. Gut also, dass Google deren Werke speichert und späteren Generationen zur Verfügung stellt, die sie entsprechend lobpreisen können.
Zurück zu dem, was Google weiß und was nicht. Google weiß nie, was ich frage, weshalb es a) häufig nicht erfüllt und b) keine europäische Suchmaschine nötig ist, so lange wir uns unsere Sprachen erhalten. Google weiß auch nicht, und hier kommen wir sowohl zur relationalen Soziologie als auch zur Aussage meiner Tochter, aus welchen Rollen und in welchen – rollenspezifischen – Netzwerken (White) sich meine/ihre Identität konstituiert. Google erfasst den Mainstream, bildet ihn ab, dynamisiert ihn, erreicht aber nie die requisite variety, alle Systemzustände abzubilden, schon gar nicht die des Individuums. Dass wir es dennoch überhöhen, ist m.E. das religiöse daran. Dass wir das beobachten können, also es auf es selbst anwenden können, verweist darauf, dass wir selbst verantwortlich sein können. Schön.
Google, Du weißt nichts über mich.
zu 23.
Lies einfach mal etwas über die postmoderne Rehabilitation der Historischen Soziologen als Komplementärzweig zur systemtheoretisch inspirierten Soziologie. Ich betrachte alle Wissenschaften aus der Perspektive der Wissenschaftstheorie, insofern wird es sicher nichts von mir aus der Innenperspektive des Widerstreits der beiden Zweige im Netz geben. Die Systemtheorie hat für mich seit v. Bertalanffy enorme methodische Schwächen, die vor allem in der aktuellen Debatte virulent werden. Radikaler historischer Blick kann an dieser Stelle heilend helfen. Es bleibt der Hinweis vom sicher an vielen Stellen bezweifelbaren Denker Heidegger auf die Überlieferung und deren Auswirkung auf das Wie unserer jeweils gegenwärtigen Selbstbestimmung.
… schreibt der renommierteste Wissemschaftstheoretiker seit Popper.
Oh, das erste argumentum ad hominem in dieser Debatte. An dieser Stelle hatte ich das nicht erwartet. Ich unterstelle mal Hanlon’s Razor.
Die neue Form von Verstümmelung à la McLuhan wäre dann das hier:
http://consumerist.com/2011/07/google-deletes-last-7-years-of-users-digital-life-shrugs.html
[…] selbst). Den anderen Pol bilden die Sozialwissenschafler im Blog Sozialtheoristen, die Schirrmacher wie folgt kommentierten: Man kann zumindest sagen, dass Google eine unglaubliche (aber fassbare) Menge an Daten vorliegen […]
Nein, nicht ad hominem sondern an der hier selbst definierten Rolle orientiert, die den Soziologen unterstellt, Heidegger nicht zu verstehen und sich damit selbst überhöht. Aber jeder zieht sich den Schuh an, der ihm passt.
„Und auch da hat Herr Wittkewitz recht, Komplexität ist nicht Quantität und Google beeindruckt mich bislang vorrangig mit Quantität.“
Nach meiner Beobachtung läßt sich die ganze Diskussion doch herunterbrechen auf die simple Streitfrage, ob sich jene qualitative Dimension, die Stefan Schulz in den googleschen Algorithmen nicht erkennen kann, im menschlichen Erkenntnis- und Imaginationsvermögen aber schon, überhaupt anders verstehen läßt als ein sich aus quantitativer Dynamik ergebender Umschlag. Die alte These hegelscher Dialektik: Quantität schlägt in Qualität um. Qualität enstünde gleichsam eruptiv, sobald die „unglaubliche (aber fassbare) Menge an Daten“ ein bestimmtes Maß überschritte und eine Varietät vorliegt, die in sich selbst stets aufs neue unendliche Möglichkeiten der Selektivität freisetzt entfesselt.
Die von Stefan angedeutete kategoriale Opposition von maschineller bloßer Selektivität und menschlicher Variationsfähigkeit bricht in sich zusamen, sobald Variation als gewissermassen enthemmte Selektivität verstanden werden muß, die zwar auf der quantitativen Dimension aufsetzt, aber nicht von außen hinzukommt sondern aus gesteigerter Quantifizierung hervorgeht.
Schön, dass die Debatte hier auf so anregende Weise weitergeht. Mir stellen sich beim Nachlesen mehrere Fragen:
Die erste ist durchaus boshaft gemeint: Was kommt nach Google? Wie sähe der kreative Zerstörer aus, der Google alt aussehen lässt? Googles Hybris besteht darin, diese Frage partout selbst beantworten zu wollen.
Tatsächlich bewegt sich das Modell auf einer Ebene des symbolischen Tauschs und in einer Logik der Pfadabhängigkeit, die Stefan Schulz präzise beschrieben hat: „Die Google-Maschine ist eine Reaktion auf eine Problemstellung, die die Gesellschaft (Kommunikation) selbst erzeugte, als sie Massenspeicher & digitale Breitbandkabel und Funktechnologie hervorgebracht hat und die auch die Kommunikation selber löst, wenn auch unbestimmt bleibt, wie dies geschieht.“
Wir marschieren den Pfad der Massenspeicher weiter im Vertrauen darauf, diese Speicher für den jeweils nächsten Schritt der Wissenserzeugung oder Rekombination kritischer Daten nutzen zu können. Metaphorisch gewendet: Google ist der Wissensbergbau des 21. Jahrhunderts.
Hier komme ich zu meiner zweiten Frage: Während die Rohstoff-Miner der alten Schule in bisher nicht erreichte physische Tiefen vorstoßen, bewegt sich Google mit seinen Operationen bisher auf der Oberfläche des Wissens. Wie würden die deutschen Emigranten der New School in New York oder Herbert Marcuse in Berkeley oder Adorno und Horkheimer in dieser Debatte argumentieren? Der Google-Debatte fehlt eine zureichende psychoanalytisch weitergedachte Idee des Unbewussten. Die Coder könnten synästhetisch – auf die richtige Liege gebracht – davon erzählen. Pynchon, Gibson et alii auch.
Frank Schirrmachers Hinweis auf recorded future ist Wasser auf meiner Mühle. Ich empfehle – ausdrücklich aus anekdotischem Grund – Elfi Mikeschs Film Macumba. Bei Christoph Kappes´ Debatte bin ich darauf schon eingegangen. Hier nur eine Ergänzung: In der Schleife der aufgezeichneten Zukunft fehlt die Idee des Unbewussten unserer Gegenwart. Sollte darin die Idee einer Prävention treibende Kraft sein, ich nutze einen metaphorischen Umweg, dann ist die Schleuse zu naiv unidirektional gedacht. Zukunft ist keine Einbahnstraße in die Zukunft.
Damit komme ich zu meiner dritten Frage, sie führt zurück zur ersten: Kann es sein, dass das Nach-Google-Zeitalter eine gewisse Ähnlichkeit mit der Marschen Utopie hat (Jagen, Fischen, Sammeln undsoweiter)? Die Digitalisierung der Daten folgt der Pfadlogik des Tausches.
Am Ende des potlatchs, der die Googleoperationen voranztreibt, stehen wir mit leeren Händen da.
Um die Frage zu beantworten, was nach Google kommt, hielte ich es auch für interessant, zu fragen, was vor Google war? Da war u.a. Yahoo, die Googles-Technik nutzten, und vor allem war/ist da eine hierarchisch geordnete Welt.
Wieder meine Tochter: „Was ist Dein Lieblingstier? – Und Dein 2. liebstes?“ Was also ist mein n-liebstes Tier, und was bedeutet es?
Google ist nicht nur Archiv, es ist auch archaisch, denn es ordnet die Welt hierarchisch bzw. nach Marktlogik (Tausch – Links). Wenn das der Pfad ist, kommt nach Google etwas, was „besser“ hierarchisiert, marktgängiger ist. Und wenn Google diese Logik für den Mainstream bedient – was es tut -, wird Post-Google noch mainstreamiger, oder? Metaphorisch: Eisenerz-, Kohle-, Gold-, Diamantenbergbau.
Ein zweiter – heterachischer? – Pfad könnte der semantische sein (Wolfram Alpha?), die „Suchmaschine“ nicht nur für den Longtail, sondern für meinen Stamm. Metaphorisch: Nein, nicht die seltenen Erden, die sind auch schon Mainstream, eher cradle-to-cradle im noch Unbewußten graben, aber auch mit dem Ziel, das Gefundene in den Hauptstrom einzuführen.
Und nein, am Ende stehen wir nicht mit leeren Händen da, wenn wir selbst es sind, die sagen, die Hände sind leer. Der Sinn kommt nicht zu uns, sondern von uns.
@Hans Hütt, Ihre „boshafte“ Frage hatte ich in einem vorhergehenden Artikel einmal behandelt (der Link verweist auf den entsprechenden Absatz: http://sozialtheoristen.de/2011/07/14/nach-was-sucht-google-eigentlich/#p14) Google hat nicht nur einen technischen Vorsprung, sondern auch einen organisatorischen. Der letztere wird in der „Garagenfirmaidee“ häufig übersehen, ich halte ihn für den wichtigeren Aspekt.
@Frank Schirrmacher, ich habe kurz in das Dyson-Buch reingesehen. Mir scheint, der Abschnitt in dem die Transformation von Songs zu Musik dargestellt wird, ist eine recht nahe Erklärung dessen, was Luhmann meint, wenn er sagt es kommuniziere nicht der Mensch, sondern „nur die Kommunikation kann kommunizieren“. Sprache (Songs) kondensiert und konfirmiert zu Semantik (Musik), die sich über ihre Kommunikationsgeschichte etabliert und für Wiederholungen zur Verfügung steht. Die psychischen Systeme sind als Bedingung an diesem Prozess beteiligt. Sie sind eine Umwelt der Kommunikationssysteme, die Google & Co Maschinen sind eine andere Umwelt (und die biologischen Systeme wären eine dritte). Diese Systeme stünden sich, in dieser Lesart, als Bedingung – als nur irritier- und nicht steuerbar – gegenüber.
@all An dieser Stelle (bzw. eigentlich an anderer) müsste, so meine Zusammenfassung der obigen Diskussion, viel stärker über die je eigene Heuristik gesprochen werden als über das Thema selbst. Ich erkenne zumindest weitgehende thematische Einigung.
[…] hat und die auch die Kommunikation selber löst, wenn auch unbestimmt bleibt, wie dies geschieht.» Was weiß Google schon? Linux Linux 3.0 ist fertig.Xen erhält die Unterstützung für Blockgeräte und ist jetzt […]
[…] In einem kurzen Beitrag auf Google+ reflektierte der Internetintellektuelle Christoph Kappes einen „FAZ“-Artikel von Frank Schirrmacher über das digitale Gedächtnis und die Notwendigkeit einer europäischen Suchmaschine. Es ergab sich ein fruchtbarer Diskurs, der schließlich in einen Blog-Beitrag des Bielefelder Soziologen Stefan Schulz samt Kommentaren auf dem schmerzhaft luzide geführten Blog sozialtheoristen.de mündete. […]
[…] Kappes und die Sozialtheoristen haben Schirrmacher gelesen, daraus wurde eine hervorragende Diskussion. [..] “und selbst […]
[…] Kappes und die Sozialtheoristen haben Schirrmacher gelesen, daraus wurde eine hervorragende Diskussion. [..] „und selbst […]
[…] ein bisschen wie mit den Datenbergen die Google und Facebook heute produzieren. Sie sind da, aber wer weiß schon, was man durch sie nun […]
[…] verwiesen. Dieser Hinweis kommt somit hier schon zum zweiten Mal. das erste Mal war hier: “Was weiß Google schon?“. Und die Antwort von Leo Laporte, zu eben dieser Frage, finde ich einfach zu gut. Besonders, […]
Aber keiner von euch merkt dass eure Texte ebenfalls auf google sind…..
[…] Bielefelder Soziologen Stefan Schulz samt Kommentaren auf dem schmerzhaft luzide geführten Blog sozialtheoristen.de […]