Wie vergleicht man Informationsungleichheiten, wenn man sie nicht vollständig begrenzen kann?

Schnittstelle

In der Praxis nicht ganz einfach: Aber wer den computergestützten Einsatz von Algorithmen eingrenzen will, sollte zuerst seine organisatorischen Grenzstellen kennen

In ihrem Artikel „Risiken des Hochfrequenzhandels (HFT) – Das systemische Risiko der Dummheit“ beschreibt Yvonne Hofstetter, Geschäftsführerin der Teramark Technologies GmbH, den Einsatz von Handelsalgorithmen an computerbasierten Finanzbörsen. Frau Hofstetter ist eine ausgewiesene Kennerin im Einsatz von „intelligenten Datenauswertungssystemen für kommerzielle Unternehmen sowie für die Rüstungsindustrie“. Das kritische Einbringen ihrer Expertise in die öffentliche Diskussion verdient Beachtung, denn viele ihrer KollegInnen aus den digitalen Branchen hüllen sich im Schweigen. In ihrem neuesten Artikel in der F.A.Z. vom 15. Oktober 2013 plädiert sie beispielsweise für einen differenzierteren Blick auf die Möglichkeiten zur „Kontrolle“ von Algorithmen an elektronischen Finanzbörsen.

Anstelle eines vorschnellen Urteils diskutiert sie überzeugend zwei Alternativen zur Regulierung, einmal die staatliche Regulierung durch Gesetze und zweitens die Technik selbst. „Die Lösung heißt deshalb nicht: Weniger Technologie durch Verbote!, sondern: Mehr Technologie zur Regelung und Steuerung – mehr, bessere und intelligentere Technologie. Denn während die Finanzindustrie wie mit Tunnelblick nur auf noch höhere Geschwindigkeit ihrer schnellen, aber wenig intelligenten Handelsalgorithmen setzt, entgeht ihr offenbar, dass intelligente Handelsstrategien auf Geschwindigkeit gar nicht angewiesen sind. […] – nicht zur Steigerung des Profits, sondern um idealisierte Risikoannahmen in Algorithmen endlich durch realistische, auf Fakten beruhende Abschätzungen zu ersetzen und Handelsalgorithmen risikogerecht zu steuern.“

Diese Schlussfolgerung ist richtig, ihr gehen im Text jedoch einige dazu widersprüchliche Annahmen voraus. Wenn Frau Hofstetter schreibt, „Der Hochfrequenzhandel ist so etwas wie ein legaler Insiderhandel, der die Informationsgleichheit aller Marktteilnehmer abgeschafft hat“ und dieser Handel „in der Parellelwelt elektronischer Börsen“ sei „nicht von Menschen, sondern Maschinen gesteuert“, so sind dies – zumindest theoretisch – recht problematische Aussagen, denn:

a) Über die Form, Funktion und Folgen von Algorithmen wird von Menschen entschieden (nicht allein von Maschinen). Hofstetters Vorschlag, dass nur der Einsatz von Technologie wiederum Technologie steuern kann, ist nicht zuletzt angesichts der zeitlichen Inkompatibilität zwischen Börsen, Finanzorganisationen und staatlichen Regulierungsbehörden folgerichtig. Aber der Einsatz von algorithmisch erstellten und verarbeiteten Datenmengen ist wiederum nicht allein von Maschinen gemacht, sondern beruht auf der Entscheidungsautonomie von Organisationsmitgliedern, die eben über ihren Einsatz entscheiden und entschieden haben. Frau Hofstetter nimmt dies scheinbar nur für die Formulierung der „regulierenden Spielregeln“ an? Sie schreibt zumindest: „Dabei handelt es sich um Regeln im Spiel der Maschinen, an die sich alle zu halten haben und deren Nichtbeachtung zu einem wirtschaftlichen Nachteil für diejenige Maschine führt, die die Konvention verletzt.“ In einer Negativ-Analyse müsste man dann ebenso fragen, welche Verletzung welcher Interaktionsregeln zwischen Marktteilnehmern auf dem alten Parkett zum formalen oder informalen Marktausschluss führt. Welche finanzielle und welcher kommunikative Schaden wäre größer? Inwiefern wäre dieser Unterschied dann relevant?

b) Und weil über den Einsatz von Algorithmen an elektronischen Finanzbörsen zuallerst in Organisation bzw. als Organisationsmitglieder entschieden wird, haben wir es mit mehr InformationsUNgleichheiten als nur zwischen den kognitiven Grenzen zweier MarktteilnehmerInnen zu tun. Selbst zwischen zwei psychischen Systemen kann keine „Informationsgleichheit“ herrschen. Der Motivverdacht, der andere könnte etwas anderes denken – geschweige denn in der nächsten Millisekunde äußern – als er gerade als Kaufentscheidung mitteilt, kann auch zwischen Menschen weder zeitlich, örtlich oder sachlich aufgelöst werden. Die Praxis der „colocation“ kennt auch beim Menschen seine physikalischen und zudem kulturellen Grenzen. Nicht alles, was ein Marktteilnehmer denkt, wird Teil seiner Zahlungskommunikation. Die Gedanken bleiben frei. Denn solange ein Käufer seinen Orderwunsch nicht anschlussfähig kommuniziert, kann ihn keiner erraten. Und solange die Maschine die algorithmisch erstellten Daten nicht weiterleitet, kann auch keine andere Maschine diese verarbeiten. Wie die „Pricing Engines“ an mitgliederbeschränkten Börsen stellen auch tausende Internetseiten mehr oder weniger schnelle Aktualisierungen bereit. Ob beide Maschinen auf dieselben Daten oder Algorithmen zurückgreifen, bleibt trotz aller vermeintlicheren Transparenz auch im allzugänglichen Internet im Dunkeln. Der Preis selbst – ob elektronisch bereitgestellt oder auf geduldigem Papier – bleibt dabei immer ein jeweils anderes „social thing„.

c) Drittens beschränkt sich die Nutzung von ultraschneller Informationstechnologie nicht auf elektronische Finanzbörsen (wie wir nicht zuletzt seit den jüngsten ultraschnellen Abhörskandalen von Internet- und Mobiltelefonie recht langsam erfahren und erahnen mussten). Dass ein Forscherteam 18.000 so genannte „ultraschnelle Ereignisse“ für die letzten 7 Jahre identifiziert, würde ganz banal gesprochen erstmal bedeuten, dass durchschnittlich mehrmals täglich solche „Events“ stattfinden. Dann stellt sich die Frage, wie „abnormal“ sind ultraschnelle, plötzliche und unsichtbare Ereignisse dann noch, und ist dies wirklich nur eine Besonderheit von Verkaufs- und Verkaufsordnern oder auch anderer sozialer Praktiken in anderen hochtechnologisierten Kontexten? Es wäre interessant zu erfahren, wie schnell bzw. oft die „Abhör-Order“ durch die „high frequency cable“ der NSA oder von Google fließen? Und welche „Fehler“ dabei passieren? Bislang scheint es, dass diese Fehler gerade die politisch kurzzeitig aufschimmernden Ereignisse sind, die an der medialen Oberfläsche kondensieren. Wie würden wir noch von den unsichtbaren Technologien erfahren, wenn wir erst ihre „Ausfälle“ und ihre „crashs“, ihre unintendierten Folgen beseitigten, bevor wir ihre Schnittstellen identifizieren können?

Bevor also die stets berechtigte Frage nach den Alternativen zur Regulierung genauer beantwortet werden kann, gilt es vorerst systematischer zu unterscheiden, was die Spezifika des Einsatzes sind – also nicht allein auf Seiten der finanzbehördlichen Regulierungstechnologien, sondern ebenso auf Seiten der Börsenanbieter, Banken, Finanz- und HFT-Dienstleister. Mit anderen Worten: Welche Plattformstrukturen, Algorithmenmodelle und Schnittstellen werden wie eingesetzt, und jeweils mit welcher Technologie erstellt, dokumentiert, weitergeleitet und weiterverarbeitet, in welchen Organisationen, und unter welchen rechtlichen Rahmenbedingungen?

Es ist richtig, Finanzorganisationen werden ihr Datenkapital – ihre Algorithmen – so schnell nicht preisgeben, denn darauf beruht ein Teil des Geschäftsmodells. Aber zumindest auf analytischer Ebene gilt: Schnelligkeit und Unsichtbarkeit, Plötzlichkeit und Häufigkeit, sind dies wirklich ausreichend spezifizierte Merkmale für das Entscheidungsverhalten an elektronischen Finanzbörsen? Und ist Häufigkeit oder Unsichtbarkeit dann wirklich noch ein Kriterium, mit dem sich Entscheidungen unterscheiden lassen? Oder sind das eher Spezifika für den Einsatz von Technologie ganz allgemein! Diese Fragen müssen erlaubt sein, denn sie zwingen uns dazu genauer hinzuschauen, was eigentlich das Besondere bei der elektronischen Verarbeitung von Daten ist. Es ist schwer vorstellbar, wie man plausibilisieren könnte, dass die Eintrittsentscheidung in den Zug zum nächsten Kundentermin oder der Klick auf den Kauf-Button auf Amazon „plötzlicher“ erfolgte als die Eintrittsentscheidung in die Organisation selbst. Entscheidungen werden immer auch vorbereitet und so fallen eben auch die Orderentscheidungen nicht plötzlich vom „Algorithmen-Himmel“, sondern über sie wurde im Vorfeld genauestens entschieden. Mit anderen Worten: Bei aller unsichtbaren Entscheidungsautomation besteht zugleich auch eine bestimmte Entscheidungsautonomie über den Einsatz, die Ausgestaltung und die Ausführung von Handelsalgorithmen (Schwarting 2014).

Eine Gemeinsamkeit lässt sich aus theoretischer Sicht vorwegnehemen: Solange es System-Umwelt-Grenzen gibt, sei es zwischen Menschen oder Mensch-Maschinen oder Maschinen, haben wir es stets mit unsicheren Informationsasymmetrien zu tun. Die offene Frage ist, wie mit ihnen umgegangen wird und wie die verschiedenen organisatorischen Kontexte empirisch und theoretisch unterschieden werden können: Was das Spezifische an einer bestimmten Technologie oder einer bestimmten Handelspraxis im Vergleich zu anderen Logiken? Auch wenn die Forschung bislang keinen Zugriff auf Börsen- und Handelsdaten gefunden hat, so kann sie dennoch versuchen, die spezifischen qualitativen(!) Unterschiede und Funktionsbedingungen für den Einsatz von HFT genauer zu untersuchen, statt nur auf die quantitativen Häufigkeiten, Schnelligkeiten und Unsichtbarkeiten zu schauen.

Wer den computergestützten Einsatz von Algorithmen – zu welchem Zweck, in welcher Form und mit welchen Folgen auch immer – begrenzen will, sollte zuallerst seine organisatorischen „Grenzstellen“ (Luhmann 1964; Tacke 1997) kennen. Zwar kann die Profitlogik der Wirtschaft oder der Organisationen der Finanzindustrie damit nicht „ausgehebelt“ werden, aber es ist ein Versuch zu zeigen, dass nicht nur PhysikerInnen, sondern auch SozialwissenschaftlerInnen „Big Data“ produzieren und analysieren können – wenn auch weniger durch mathematische oder moralische Modelle als beispielsweise durch teilnehmende Beobachtungen oder halbstrukturierte Interviews.

(Bild: foto G.HAAS)

Zum Weiterlesen

Luhmann, Niklas 1964: Funktionen und Folgen formaler Organisation. Berlin: Duncker & Humblot.

Schwarting, Rena 2014: High Frequency Trading aus organisationssoziologischer Perspektive. Eine Grenzstellen-Verortung von Zahlungsentscheidungen an elektronischen Handelsplattformen. In: Working Paper Reihe “Organisationssoziologische Analysen” (2014/12). Arbeitsbereich III “Organisationen” (ed.). Fakultät für Soziologie, Universität Bielefeld. Link.

Schwarting, Rena 2015: Hochfrequenzhandel zwischen Entscheidungsautomation und Entscheidungsautonomie. In: Apelt, Maja & Senge, Konstanze (eds.). Organisation und Unsicherheit. Springer Fachmedien, 159-174. Link.

Tacke, Veronika 1997: Systemrationalisierung an ihren Grenzen. Organisationsgrenzen und Funktionen von Grenzstellen in Wirtschaftsorganisationen. In: Schreyögg, Georg & Sydow, Jörg (eds.): Managementforschung 7. Berlin: Gruyter, 1-44.

Wissenschaftliche Mitarbeiterin am Arbeitsbereich "Organisationen" an der Fakultät für Soziologie der Universität Bielefeld und Doktorandin an der Bielefeld Graduate School in History and Sociology (BGHS). Forschungsschwerpunkte sind Organisationen in Geschichte und Gegenwart sowie insbesondere ihr Verhältnis zu Recht, Politik, Medien und Wirtschaft www.renaschwarting.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.