Wie geht man mit Informationsungleichheiten zwischen Mensch und Maschine um?

Schnittstelle

In der Praxis nicht ganz einfach: Aber wer den Einsatz von Algorithmen eingrenzen will, sollte zuerst seine organisatorischen Grenzstellen kennen

In ihrem Artikel „Risiken des Hochfrequenzhandels (HFT) – Das systemische Risiko der Dummheit“ beschreibt Yvonne Hofstetter, Geschäftsführerin der Teramark Technologies GmbH, den Einsatz von Handelsalgorithmen an computerbasierten Finanzbörsen. Frau Hofstetter ist eine ausgewiesene Kennerin im Einsatz von „intelligenten Datenauswertungssystemen für kommerzielle Unternehmen sowie für die Rüstungsindustrie“. Das kritische Einbringen ihrer Expertise in die öffentliche Diskussion verdient Beachtung, denn viele ihrer KollegInnen aus den digitalen Branchen hüllen sich im Schweigen. In ihrem neuesten Artikel in der F.A.Z. vom 15. Oktober 2013 plädiert sie beispielsweise für einen differenzierteren Blick auf die Möglichkeiten zur „Kontrolle“ von Algorithmen an elektronischen Finanzbörsen.

Anstelle eines vorschnellen Urteils diskutiert sie überzeugend zwei Alternativen zur Regulierung, einmal die staatliche Regulierung durch Gesetze und zweitens die Technik selbst. „Die Lösung heißt deshalb nicht: Weniger Technologie durch Verbote!, sondern: Mehr Technologie zur Regelung und Steuerung – mehr, bessere und intelligentere Technologie. Denn während die Finanzindustrie wie mit Tunnelblick nur auf noch höhere Geschwindigkeit ihrer schnellen, aber wenig intelligenten Handelsalgorithmen setzt, entgeht ihr offenbar, dass intelligente Handelsstrategien auf Geschwindigkeit gar nicht angewiesen sind. […] – nicht zur Steigerung des Profits, sondern um idealisierte Risikoannahmen in Algorithmen endlich durch realistische, auf Fakten beruhende Abschätzungen zu ersetzen und Handelsalgorithmen risikogerecht zu steuern.“

Diese Schlussfolgerung ist richtig, ihr gehen im Text jedoch einige dazu widersprüchliche Annahmen voraus. Wenn Frau Hofstetter schreibt, „Der Hochfrequenzhandel ist so etwas wie ein legaler Insiderhandel, der die Informationsgleichheit aller Marktteilnehmer abgeschafft hat“ und dieser Handel „in der Parellelwelt elektronischer Börsen“ sei „nicht von Menschen, sondern Maschinen gesteuert“, so sind dies – zumindest theoretisch und empirisch – ergänzungsbedürftige Aussagen, denn:

a) Über die Form, Funktion und Folgen des Einsatzes von Algorithmen wird von Menschen entschieden (nicht allein von Maschinen). Hofstetters Vorschlag, dass der Einsatz von Technologie wiederum Technologie steuern kann, ist nicht zuletzt angesichts der zeitlichen Inkompatibilität zwischen Börsen, Finanzorganisationen und staatlichen Regulierungsbehörden folgerichtig. Der Einsatz von algorithmisch erstellten und verarbeiteten Datenmengen ist gleichwohl nicht allein von Maschinen gemacht, sondern ist durch eine – je nach formalen und informalen Regeln bedingte – Entscheidungsautonomie von Organisationsmitgliedern geprägt, die über ihren Einsatz entscheiden und entschieden haben. Frau Hofstetter nimmt dies scheinbar nur für die Formulierung der „regulierenden Spielregeln“ unter den Maschinen an? Sie schreibt zumindest: „Dabei handelt es sich um Regeln im Spiel der Maschinen, an die sich alle zu halten haben und deren Nichtbeachtung zu einem wirtschaftlichen Nachteil für diejenige Maschine führt, die die Konvention verletzt.“ Einerseits müsste eingereichnet werden, dass die Anwendung und Aktivierung technischer Spielregeln heute vorwiegend durch und in Organisationen mitreguliert wird. Anderseits könnte man ergänzen, dass die Verletzung von Interaktionsregeln zwischen Marktteilnehmern auf dem alten Parkett in ähnlicher Weise formale oder informale Sanktionen zum Markt- und/oder Organisationsausschluss mitführen. Interessant wäre in diesem Zusammenhang ein Vergleich zwischen der „alten Parkettlogik“ und der „neuen Algorithmenlogik“. Beide Logiken waren bzw. sind heute zumindest hochgradig in (inter-)organisatorische Kontexte eingebettet.

b) Und weil über den Einsatz von Algorithmen an elektronischen Finanzbörsen zuallerst in Organisation bzw. als Organisationsmitglieder entschieden wird, haben wir es mit mehr InformationsUNgleichheiten als allein zwischen den Maschinen und den kognitiven Grenzen zweier MarktteilnehmerInnen zu tun. Selbst zwischen zwei psychischen Systemen kann keine „Informationsgleichheit“ herrschen. Der Motivverdacht, der andere könnte etwas Anderes denken – geschweige denn in der nächsten Millisekunde äußern – als er gerade als Kaufentscheidung mitteilt, kann auch zwischen Menschen weder zeitlich, örtlich oder sachlich aufgelöst werden. Die Praxis der „colocation“, also die Unterbringung und Netzanbindung eines Kundenservers im Rechenzentrum des jeweiligen Dienstleisters, kennt auch beim Menschen physikalische Grenzen. Nicht alles, was ein Marktteilnehmer denkt, wird Teil seiner Zahlungskommunikation. Die Gedanken bleiben frei. Denn solange ein Käufer seinen Orderwunsch nicht anschlussfähig kommuniziert, kann ihn keiner erraten. Und solange die Maschine die algorithmisch erstellten Daten nicht verarbeitet, kann auch keine andere Maschine diese nutzen. Wie die „Pricing Engines“ an mitgliederbeschränkten Börsen stellen auch tausende Internetseiten mehr oder weniger schnelle Aktualisierungen bereit. Ob beide Maschinen auf dieselben Daten oder Algorithmen zurückgreifen, bleibt trotz aller vermeintlichen Transparenzsuggestionen auch im Internet im Dunkeln. Der Preis selbst – ob elektronisch bereitgestellt oder auf geduldigem Papier – stellt dabei immer ein jeweils anderes „social thing“ dar.

c) Drittens beschränkt sich die Nutzung von ultraschneller Informationstechnologie nicht auf elektronische Finanzbörsen (wie wir nicht zuletzt seit den jüngsten ultraschnellen Abhörskandalen von Internet- und Mobiltelefonie recht langsam erfahren und erahnen mussten). Dass ein Forscherteam 18.000 so genannte „ultraschnelle Ereignisse“ für die letzten 7 Jahre identifiziert, bedeutet zunächst einmal, dass durchschnittlich mehrmals täglich solche „Events“ stattfinden. Dabei stellt sich die Frage, wie „abnormal“ sind ultraschnelle, plötzliche und unsichtbare Ereignisse dann noch, und ist dies wirklich nur eine Besonderheit von Verkaufs- und Verkaufsordnern oder auch anderer sozialer Praktiken in anderen hochtechnologisierten Kontexten? Es wäre interessant zu erfahren, wie schnell bzw. oft die „Abhör-Order“ durch die „high frequency cable“ der NSA oder von Google fließen? Und welche „Fehler“ dabei passieren? Typischerweise scheint es, dass die Politik weitgehend den Fehlern der „unsichtbaren Technologie-Hände“ regulatorische Beachtung schenkt, denen eine massenmedial wirksame Berichterstattung vorausging und die damit von den Algorithmen einsetzenden Organisationen nicht länger gegenüber Dritten „geschützt“ bzw. „verheimlicht“ werden konnten. Eine grundlegendere – nicht nur auf „Gefahrenabwehr“, sondern auf „Risikovorsorge“ (Japp 2003) zielende Regulierung des Einsatzes von Algorithmen bedarf der Klärung, in welchen organisatorischen Kontexten und Schnittstellen, d.h. unter welchen Bedingungen, diese eingesetzt werden (dürfen). Bevor also die berechtigte Frage nach Regulierung oder ihren Alternativen genauer beantwortet werden kann, gilt es systematischer zu unterscheiden, was die Spezifika des Einsatzes sind – also auf Seiten der finanzbehördlichen Regulierungstechnologien wie auf Seiten der Börsenanbieter, Banken, Finanz- und HFT-Dienstleister. Mit anderen Worten: Welche Plattformstrukturen, Algorithmenmodelle und Schnittstellen werden eingesetzt, welche Prämissen werden ihrer Erstellung und ihres Einsatzes zugrunde gelegt, und nach welchen Bedingungen werden die dabei genutzten und gewonnenen Daten gespeichert, weitergeleitet und weiterverarbeitet?

Es ist richtig, Finanzorganisationen werden ihr Datenkapital – ihre Algorithmen – so schnell nicht preisgeben, denn darauf beruht ein großer Teil ihres Geschäftsmodells. Aber zumindest auf analytischer Ebene gilt: Schnelligkeit und Unsichtbarkeit, Plötzlichkeit und Häufigkeit, sind dies wirklich ausreichend spezifizierte Merkmale für das Entscheidungsverhalten an elektronischen Finanzbörsen? Und ist Häufigkeit oder Unsichtbarkeit dann wirklich noch ein Kriterium, mit dem sich Entscheidungen unterscheiden lassen? Oder sind das eher Spezifika für den Einsatz von Technologie ganz allgemein! Diese Fragen müssen erlaubt sein, denn sie zwingen uns dazu genauer hinzuschauen, was eigentlich das Besondere bei der elektronischen Verarbeitung von Daten ist. Es ist schwer vorstellbar, wie man plausibilisieren könnte, dass die Eintrittsentscheidung in den Zug zum nächsten Kundentermin oder der Klick auf den Kauf-Button auf Amazon „plötzlicher“ erfolgte als die Eintrittsentscheidung in die Organisation selbst. Entscheidungen werden immer auch vorbereitet und so fallen eben auch die Order-Entscheidungen nicht plötzlich vom „Algorithmen-Himmel“, sondern über sie wurde im Vorfeld genauestens – insbesondere unter Abwägung der politisch-rechtlichen Regulierungsmöglichkeiten – entschieden. Mit anderen Worten: Bei aller unsichtbaren Entscheidungsautomation besteht zugleich auch eine bestimmte Entscheidungsautonomie über den Einsatz, die Ausgestaltung und die Ausführung von Handelsalgorithmen (Schwarting 2014) als auch Regulierungsalgorithmen.

Eine Gemeinsamkeit lässt sich aus theoretischer Sicht vorwegnehmen: Solange es System-Umwelt-Grenzen zwischen Menschen, Mensch-Maschinen oder Maschinen gibt, haben wir es stets mit unsicheren Informationsasymmetrien zu tun. Die offene Frage ist, wie mit ihnen umgegangen wird, und wie die verschiedenen organisatorischen Kontexte empirisch und theoretisch unterschieden werden können: Was ist das Spezifische an einer bestimmten Technologie oder einer bestimmten Handelspraxis im Vergleich zu einer anderen? Auch wenn die Forschung bislang keinen Zugriff auf Börsen- und Handelsdaten gefunden hat, so kann sie dennoch versuchen, die spezifischen qualitativen(!) Unterschiede und Funktionsbedingungen für den Einsatz von Algorithmen genauer zu untersuchen, statt nur auf die quantitativen Häufigkeiten, Schnelligkeiten und Unsichtbarkeiten zu schauen.

Wer also den computergestützten Einsatz von Algorithmen – zu welchem Zweck, in welcher Form und mit welchen Folgen auch immer – begrenzen will, sollte zuerst seine organisatorischen „Grenzstellen“ (Luhmann 1964; Tacke 1997) kennen. Zwar kann die Profitlogik der Wirtschaft oder der Organisationen der Finanzindustrie damit nicht „ausgehebelt“ werden, aber es ist ein Versuch zu zeigen, dass nicht nur PhysikerInnen, sondern auch SozialwissenschaftlerInnen „Big Data“ analysieren können – wenn auch weniger durch mathematische oder moralische Modelle als beispielsweise durch teilnehmende Beobachtungen oder halbstrukturierte Interviews, und dann vielleicht auch auf der Erkenntnis-Seite im Ausgleich zur Einsatz-Seite „Big Data“ produzieren.

(Bild: foto G.HAAS)

Zum Weiterlesen

Luhmann, Niklas 1964: Funktionen und Folgen formaler Organisation. Berlin: Duncker & Humblot.

Japp, Klaus P. 1997: Die Beobachtung von Nichtwissen; in: Soziale Systeme (3), 289-314.

Japp, Klaus P. 2003: Zur Selbstkonstruktion transnationaler Regime: Der Fall BSE. In: Bonacker, Thorsten (Hrsg.): Die Ironie der Politik: über die Konstruktion politischer Wirklichkeiten. Frankfurt am Main: Campus, S. 233-249.

Schwarting, Rena (2014): High Frequency Trading aus organisationssoziologischer Perspektive. Eine Grenzstellen-Verortung von Zahlungsentscheidungen an elektronischen Handelsplattformen. In: Working Paper Reihe „Organisationssoziologische Analysen“ (2014/12). Arbeitsbereich „Organisationen“ (ed.). Fakultät für Soziologie, Universität Bielefeld. Link.

Schwarting, Rena 2015: Hochfrequenzhandel zwischen Entscheidungsautomation und Entscheidungsautonomie. In: Apelt, Maja & Senge, Konstanze (eds.). Organisation und Unsicherheit. Springer Fachmedien, 159-174. Link.

Tacke, Veronika 1997: Systemrationalisierung an ihren Grenzen. Organisationsgrenzen und Funktionen von Grenzstellen in Wirtschaftsorganisationen. In: Schreyögg, Georg & Sydow, Jörg (eds.): Managementforschung 7. Berlin: Gruyter, 1-44.

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.