Ich muss gestehen, je mehr Michael Seemann ins Internet schreibt umso mehr bewundere ich ihn für sein Engagement und seine Hartnäckigkeit. Ersteres ist seine Mühe, sein Denken stets schriftlich mitzuprotokollieren, in vielen und langen Texten. Letzteres zeigt sich im bemerkenswerten Umstand, dass seine Texte stets auf dasselbe Plädoyer hinauslaufen unabhängig aller Quellen, die er zitiert; unabhängig aller Phänomene, die er beobachtet.
Ich lese seine Texte gerne, teile seine Schlussfolgerungen, die ihm stets am wichtigsten sind, jedoch nie. Oft juckt es mich in den Fingern, seine Texte zu kritisieren. Doch ich habe dann doch wieder zu selten Lust auf inhaltlicher Ebene gegenzuargumentieren. Zu selten verlässt er die Ebene der Prosa, um seine Prämissen zu offenbaren und sich substanzieller Kritik aussetzbar zu machen.
Doch das ist aktuell einmal anders. In seinem gestrigen Text über die „Antiquiertheit des „Humanismus““ taucht zwischen seinen Handlungsempfehlungen, Schlussfolgerungen und selektiven Empiriebeobachtungen kurz Paradigmatisches auf. In drei Sätzen legt er seine Prämissen dar und es reicht, den Widerspruch an dieser knappen Textstelle anzusetzen, um damit den Rest des Textes und beinah alle anderen Texte von ihm zu kritisieren.
„Was wir immer gerne ausblenden, ist die Tatsache, dass der Algorithmus alles andere als fehlerfrei arbeiten muss, um besser zu sein, als ein Mensch. Wir Menschen machen dauernd Fehler. Wenn ein Algorithmus nur halb so viele Fehler macht wie der Mensch, ist er bereits eine Verbesserung des Zustandes.“
Hier stecken mehrere Prämissen drin. Interessieren soll nur eine: Technische Maschinen machen Fehler. Die Fragen sind, ob das stimmt und wie es so beobachtet werden kann.
Um „Fehler“ zu machen, müssten mithilfe von Algorithmen operierende Maschinen, die Seemann in seinem Text reihenweise nennt, Komplexität aufweisen. Das tun sie jedoch nicht. Die oben gemeinten Maschinen, alle die Seemann in seinem Text nennt, sind nicht komplex, sondern allenfalls kompliziert. Seemann hat recht, sie sind teilweise so kompliziert, dass sie in Echtzeit nicht beobachtet werden können oder dass sie teilweise auch mit größten Mühen nur von ihren Entwicklern in ihrem Operieren nachvollziehbar sind. Die Frage, ob eine Maschine (schon) komplex oder (noch) kompliziert ist, entscheidet sich jedoch nicht daran, wie sie von Menschen beobachtet wird, sondern welches prinzipielle Potenzial in ihr steckt.
Nicht komplexe Maschinen, wie kompliziert sie auch seien, zeigen ein zentrales, wenn auch facettenreiches, Merkmal: Sie kennen keine dritten Werte, sie schließen Zufall aus, sie können nicht beobachten, sondern nur – im Rahmen ihrer vorangehenden, stets konditionalen Programmierung – operieren. Diese Maschinen sind blind gegenüber sich selbst und ihren Zielen und definiert begrenzt in ihren Mittel. Kurz: Es sind Trivialmaschinen. Alle naturwissenschaftlich-technischen Entwicklungen, die die Menschen bis heute geschaffen und in für sie nützliche Maschinenform gegossen haben, sind derartige Trivialmaschinen.
Die zentrale Bedeutung dieser Feststellung: Diese Maschinen lernen nicht. Sie verändern durch ihre Transformation einer Eingabe in eine Ausgabe nur ihre Umwelt aber nicht sich selbst. Sie können allenfalls kaputtgehen, also ihr Funktionieren einstellen, sie können aber nicht fehlerhaft funktionieren. Wenn sie funktionieren, operieren sie perfekt.
Wo kommt es aber zur Beobachtung von Fehlern? Fehler, wie sie Seemann in seinem Text verwendet, sind Erwartungsenttäuschungen. Ein per Google-Maschine gesteuertes Auto überfährt einen Menschen, High-Frequency-Trading-Maschinen verursachen Verluste. Das ist alles „nicht gut“, doch diese Konsequenzen ist nur eine Beobachtung des Menschen. Die Maschine hat unser Ziel, unsere Erwartung verfehlt. Doch wenn man in die Maschine hineinsieht, erkennt man, dass sie in jeder einzelnen Operation exakt das gemacht hat, was sie machen sollte: ihre Syntax abarbeiten.
Fehler entstehen, weil Menschen nach ihrer Kreation und Inbetriebnahme der Maschinen durch Beobachtung der Maschine lernen. Sie lernen, in dem sie mithilfe von Gedächtnis Erwartungen extrapolieren und sie lernen, in dem sie mithilfe von Beobachtung den Abstand zwischen Extrapolation und Realität erkennen. Sie lernen erst durch den Betrieb einer Maschine ihr Potenzial kennen und sie lernen, dass sie dieses Potenzial intentional ausbeuten können. Doch jeder Manipulationsversuch, der auf Lerneffekt zurückgeht, steht vor denselben Problemen: Erwartungsbildung bleibt Erwartungsbildung und Realitätserleben bleibt Realitätserleben. Oder: Jedes Steuern ist Nachsteuern. Man lernt nur aus Erfahrung!
Das Problem, dass Seemann beschreibt, ist also nicht da zu verorten, wo er es versucht zu beobachten: in der fehlbaren Maschine. Es liegt im Schnittpunkt von Trivialmaschine und komplexer Maschine: Im Schnittpunkt von Maschine und Mensch.
Das Problem des von ihm beobachteten Maschinenfehlers ist, dass Maschinen untrennbar mit Menschen zu tun haben, die sie – aus Gründen – bauen. Desto höher die menschlichen Ansprüche sind, desto komplizierter müssen Maschinen werden, desto mehr müssen sie im Trial & Error Modus, Schritt für Schritt, entwickelt werden, weil Planung und Simulation ebenso komplizierter werden und man sich entscheiden muss, ob man seine Ressourcen in einen tollen Simulator der Maschine oder doch lieber in die Maschine selbst investiert.
Wenn Seemann fordert, „Kant paraphrasierend“ es sollte eine „neue Aufklärung“ geben, die den „Ausgang des Menschen aus seiner selbst auferlegten biologischen Ungenügendheit“ begleitet, die sich vom, von ihm beobachteten, „irrationalen Maschinen-Rassismus“ emanzipiert, die den notwendigen Kontrollverlust individuell akzeptabel macht, indem sie darüber aufklärt, „dass ein Auto, das statistisch nur die Hälfte der Unfälle verursacht, wie ein Mensch, bereits eine Verbesserung ist“ – kann man daraus nur eines lernen: Seemann hat nichts gelernt. Er hat Kant nicht verstanden, er hat nicht verstanden, warum Kant (nur noch) zu den Klassikern zählt und er hat die Bücher aus denen er zitiert nicht verstanden. Denn all dass, was ich hier argumentiere, steht da bereits drin.
Zum Ende habe ich aber auch noch ein inhaltliches Argument, eine Schlussfolgerung, eine empirische Beobachtung: Der Fehler ist nur da zu suchen, wo er möglich ist: beim Menschen. Und diese Fehler sind nicht zu vermeiden, vor allem nicht durch Fehlervermeidungsstrategien. Das Experiment, das das zeigt, ist ganz einfach: Lassen wir die Schreibmaschinen mal einen Tag lang Maschinen sein, ohne sie mit unseren Erwartungen zu belästigen. Was passiert? Keine Fehler. Aber auch sonst nichts.
Wollte man wirklich Kluges schreiben, sollte man von Menschen und Maschinen absehen, Fehler die Probleme der Praktiker sein lassen und einmal ausführlich darüber nachdenken, wie sich in einer simplen Schreibmaschine Syntax und Semantik begegnen und was das eigentlich bedeutet. Dann käme man auch nicht mehr auf die Idee, Mensch und Technologie einander gegenüber zustellen, um die Maschine zu beschreiben.
(Bild: etharooni)
Nachtrag: die bereits jetzt (13:08) vorhandenen Kommentare unterstützen das Verstehen sehr und sind einen weiteren Klick wert.
Schreibe einen Kommentar