Michael Seemann Schreibmaschine

Ich muss gestehen, je mehr Michael Seemann ins Internet schreibt umso mehr bewundere ich ihn für sein Engagement und seine Hartnäckigkeit. Ersteres ist seine Mühe, sein Denken stets schriftlich mitzuprotokollieren, in vielen und langen Texten. Letzteres zeigt sich im bemerkenswerten Umstand, dass seine Texte stets auf dasselbe Plädoyer hinauslaufen unabhängig aller Quellen, die er zitiert; unabhängig aller Phänomene, die er beobachtet.

Ich lese seine Texte gerne, teile seine Schlussfolgerungen, die ihm stets am wichtigsten sind, jedoch nie. Oft juckt es mich in den Fingern, seine Texte zu kritisieren. Doch ich habe dann doch wieder zu selten Lust auf inhaltlicher Ebene gegenzuargumentieren. Zu selten verlässt er die Ebene der Prosa, um seine Prämissen zu offenbaren und sich substanzieller Kritik aussetzbar zu machen.

Doch das ist aktuell einmal anders. In seinem gestrigen Text über die „Antiquiertheit des „Humanismus““ taucht zwischen seinen Handlungsempfehlungen, Schlussfolgerungen und selektiven Empiriebeobachtungen kurz Paradigmatisches auf. In drei Sätzen legt er seine Prämissen dar und es reicht, den Widerspruch an dieser knappen Textstelle anzusetzen, um damit den Rest des Textes und beinah alle anderen Texte von ihm zu kritisieren.

„Was wir immer gerne ausblenden, ist die Tatsache, dass der Algorithmus alles andere als fehlerfrei arbeiten muss, um besser zu sein, als ein Mensch. Wir Menschen machen dauernd Fehler. Wenn ein Algorithmus nur halb so viele Fehler macht wie der Mensch, ist er bereits eine Verbesserung des Zustandes.“

Hier stecken mehrere Prämissen drin. Interessieren soll nur eine: Technische Maschinen machen Fehler. Die Fragen sind, ob das stimmt und wie es so beobachtet werden kann.

Um „Fehler“ zu machen, müssten mithilfe von Algorithmen operierende Maschinen, die Seemann in seinem Text reihenweise nennt, Komplexität aufweisen. Das tun sie jedoch nicht. Die oben gemeinten Maschinen, alle die Seemann in seinem Text nennt, sind nicht komplex, sondern allenfalls kompliziert. Seemann hat recht, sie sind teilweise so kompliziert, dass sie in Echtzeit nicht beobachtet werden können oder dass sie teilweise auch mit größten Mühen nur von ihren Entwicklern in ihrem Operieren nachvollziehbar sind. Die Frage, ob eine Maschine (schon) komplex oder (noch) kompliziert ist, entscheidet sich jedoch nicht daran, wie sie von Menschen beobachtet wird, sondern welches prinzipielle Potenzial in ihr steckt.

Nicht komplexe Maschinen, wie kompliziert sie auch seien, zeigen ein zentrales, wenn auch facettenreiches, Merkmal: Sie kennen keine dritten Werte, sie schließen Zufall aus, sie können nicht beobachten, sondern nur – im Rahmen ihrer vorangehenden, stets konditionalen Programmierung – operieren. Diese Maschinen sind blind gegenüber sich selbst und ihren Zielen und definiert begrenzt in ihren Mittel. Kurz: Es sind Trivialmaschinen. Alle naturwissenschaftlich-technischen Entwicklungen, die die Menschen bis heute geschaffen und in für sie nützliche Maschinenform gegossen haben, sind derartige Trivialmaschinen.

Die zentrale Bedeutung dieser Feststellung: Diese Maschinen lernen nicht. Sie verändern durch ihre Transformation einer Eingabe in eine Ausgabe nur ihre Umwelt aber nicht sich selbst. Sie können allenfalls kaputtgehen, also ihr Funktionieren einstellen, sie können aber nicht fehlerhaft funktionieren. Wenn sie funktionieren, operieren sie perfekt.

Wo kommt es aber zur Beobachtung von Fehlern? Fehler, wie sie Seemann in seinem Text verwendet, sind Erwartungsenttäuschungen. Ein per Google-Maschine gesteuertes Auto überfährt einen Menschen, High-Frequency-Trading-Maschinen verursachen Verluste. Das ist alles „nicht gut“, doch diese Konsequenzen ist nur eine Beobachtung des Menschen. Die Maschine hat unser Ziel, unsere Erwartung verfehlt. Doch wenn man in die Maschine hineinsieht, erkennt man, dass sie in jeder einzelnen Operation exakt das gemacht hat, was sie machen sollte: ihre Syntax abarbeiten.

Fehler entstehen, weil Menschen nach ihrer Kreation und Inbetriebnahme der Maschinen durch Beobachtung der Maschine lernen. Sie lernen, in dem sie mithilfe von Gedächtnis Erwartungen extrapolieren und sie lernen, in dem sie mithilfe von Beobachtung den Abstand zwischen Extrapolation und Realität erkennen. Sie lernen erst durch den Betrieb einer Maschine ihr Potenzial kennen und sie lernen, dass sie dieses Potenzial intentional ausbeuten können. Doch jeder Manipulationsversuch, der auf Lerneffekt zurückgeht, steht vor denselben Problemen: Erwartungsbildung bleibt Erwartungsbildung und Realitätserleben bleibt Realitätserleben. Oder: Jedes Steuern ist Nachsteuern. Man lernt nur aus Erfahrung!

Das Problem, dass Seemann beschreibt, ist also nicht da zu verorten, wo er es versucht zu beobachten: in der fehlbaren Maschine. Es liegt im Schnittpunkt von Trivialmaschine und komplexer Maschine: Im Schnittpunkt von Maschine und Mensch.

Das Problem des von ihm beobachteten Maschinenfehlers ist, dass Maschinen untrennbar mit Menschen zu tun haben, die sie – aus Gründen – bauen. Desto höher die menschlichen Ansprüche sind, desto komplizierter müssen Maschinen werden, desto mehr müssen sie im Trial & Error Modus, Schritt für Schritt, entwickelt werden, weil Planung und Simulation ebenso komplizierter werden und man sich entscheiden muss, ob man seine Ressourcen in einen tollen Simulator der Maschine oder doch lieber in die Maschine selbst investiert.

Wenn Seemann fordert, „Kant paraphrasierend“ es sollte eine „neue Aufklärung“ geben, die den „Ausgang des Menschen aus seiner selbst auferlegten biologischen Ungenügendheit“ begleitet, die sich vom, von ihm beobachteten, „irrationalen Maschinen-Rassismus“ emanzipiert, die den notwendigen Kontrollverlust individuell akzeptabel macht, indem sie darüber aufklärt, „dass ein Auto, das statistisch nur die Hälfte der Unfälle verursacht, wie ein Mensch, bereits eine Verbesserung ist“ – kann man daraus nur eines lernen: Seemann hat nichts gelernt. Er hat Kant nicht verstanden, er hat nicht verstanden, warum Kant (nur noch) zu den Klassikern zählt und er hat die Bücher aus denen er zitiert nicht verstanden. Denn all dass, was ich hier argumentiere, steht da bereits drin.

Zum Ende habe ich aber auch noch ein inhaltliches Argument, eine Schlussfolgerung, eine empirische Beobachtung: Der Fehler ist nur da zu suchen, wo er möglich ist: beim Menschen. Und diese Fehler sind nicht zu vermeiden, vor allem nicht durch Fehlervermeidungsstrategien. Das Experiment, das das zeigt, ist ganz einfach: Lassen wir die Schreibmaschinen mal einen Tag lang Maschinen sein, ohne sie mit unseren Erwartungen zu belästigen. Was passiert? Keine Fehler. Aber auch sonst nichts.

Wollte man wirklich Kluges schreiben, sollte man von Menschen und Maschinen absehen, Fehler die Probleme der Praktiker sein lassen und einmal ausführlich darüber nachdenken, wie sich in einer simplen Schreibmaschine Syntax und Semantik begegnen und was das eigentlich bedeutet. Dann käme man auch nicht mehr auf die Idee, Mensch und Technologie einander gegenüber zustellen, um die Maschine zu beschreiben.

(Bild: etharooni)

Nachtrag: die bereits jetzt (13:08) vorhandenen Kommentare unterstützen das Verstehen sehr und sind einen weiteren Klick wert.

Diplom-Soziologe aus Jena via Bielefeld in Frankfurt am Main. Kümmert sich promovierend um die Bauernfamilien des 12. Jahrhunderts mit ihrem Problem der erstmaligen "Kommunikation unter Unbekannten" und ist heute Journalist. stefanschulz.com

19 Gedanken zu “Michael Seemann Schreibmaschine

  1. Wirklich ausgesprochen guter Artikel.

    Manchmal erschreckt es mich schon, dass Dinge wie der „Fehler“, von denen ich immer ausgehe, dass sie völlig evident sind, wie sie paradigmatisch aufgebaut sind oder worin sie bestehen, so dermaßen falsch abgebildet oder falsch verwendet werden.
    Jedes Kind kann sich folgendes denken: Eine Maschine macht keine Fehler. Punkt. Jeder einzelne kleine Fehler, den eine Maschine macht, wurde zuvor von einem Menschen gemacht oder vorgegeben oder durch eine Umweltbeeinflussung hervorgerufen. Eine Maschine ist sich deshalb nichts, und am allerwenigsten des Fehlers, bewusst. Eine Maschine würde also sagen: It’s always a feature. Denn in wessen Beurteilung liegt es denn überhaupt, dass der Befund eines Fehlers vorliegt? Maschinen machen also keine Fehler, es sind immer Ergebnisse bzw. Ziele. Maschinen (oder besser Algorithmen) kommen immer an ihr Ziel.
    Und genau deshalb ist es Stumpfsinn, überhaupt über den Fehler zu diskutieren als Abwägungsmenge zwischen zweier sogenannter Evolutionen. Vielmehr muss begriffen werden: Ja, der Fehler ist in Wirklichkeit tatsächlich eine Fähigkeit, die uns von Maschinen nicht nur klar unterscheidet, nein, auch überlegen macht. Und zwar – soweit es in die Zukunft zu blicken Sinn macht – für immer. Das machen stümperhafte Vergleiche zwischen der biologischen Evolution des Menschen und der Entwicklung des Computers nicht besser.

  2. Kurz dachte ich: juhuu! Endlich mal eine Kritik auf sachlicher Ebene aus dieser Ecke hier. Die Freude war kurz.

    Mir wird nicht ganz klar, wo genau du meine Aussagen angreifst. Zwar kann man über die Terminologie „Fehler“ innerhalb informationstechnischer Maschinen über die du dich hier so abarbeitest gerne Streiten, aber selbst wenn du recht hast, wie genau greift das jetzt meine Aussagen an?

    Egal, ob wir jetzt von „Fehlern“, „Bugs“ oder „unvorhergesehenen Zuständen“ reden, das Problem bleibt schließlich das selbe: „Sollen wir bestimmte Entscheidungen und Aufgaben an Algorithmen überantworten und was sind die Kriterien dieser Entscheidung?“ Wo beziehst du dazu Stellung?

    Also. Hast du da noch einen Hinweis, wo du mir inhaltlich widersprichst oder bleibt es bei deiner „sachlichen“ fundamentalkritik „Seemann hat das alles nicht verstanden.“?

  3. Thomas Maier – ja, ist recht. Reden wir anstatt von Fehlern, von „erwünschten“ und „unerwünschten Ergebnissen“. Und nun? Wie genau bringt uns das jetzt weiter?

  4. @mspro Ich kritisiere nicht deine Aussagen, sondern deine Prämissen. Auf inhaltlicher Ebene sind wir uns einig. Ich steige in ein Flugzeug und übergebe mein Schicksal in die Hand des Piloten und seine Fähigkeiten, dieses Flugzeug zu steuern. Das ist so seit 50 Jahren. Und ja, auch ich fände es gut, wenn zukünftig die LKW auf der Autobahn selbstständig und technologiegesteuert fahren, damit die wenige Straßenfläche optimaler genutzt wird. Soll ich jetzt, wie du, ewig weitere Beispiele aufzählen und jedes Mal erneut darauf zeigen, wie jetzt in diesem Einzelfall, Kontrollasymmetrien verschoben werden?

    Nein. Weil dieses Explizieren subjektiver Befindlichkeit (Kontrolle abgeben, Kontrolle gewinnen) absolut nicht das Problem ist, dass uns (die Gesellschaft, die leidet ohne zu Wissen woran) derzeit beschäftigt.

    Daher nehme ich mir das Recht, dir deine Prämissen auszutauschen und einmal aufzuzeigen, wie dein Problembewusstsein gelagert ist und um zweitens ein anderes, adäquateres Problembewusstsein vorzuschlagen.

    Und mein Vorschlag ist wie folgt: Wir sollten uns nicht weiter darüber wundern, dass Menschen Technologie benutzen, sondern wir sollten lernen zu sehen, wie paradox die Einheit der Differenz von Mensch und Technologie ist. Weil diese Differenz überhaupt erst das Problem verursacht, dass uns im anschliessenden Lösungsversuch deutlich wird.

    Du doktorierst am Lösungsversuch, und mein Vorschlag ist, einmal davon abzusehen und einen Blick auf das davor liegende, erst durch den Lösungsversuch hervorgerufene, Problem zu werfen.

  5. @Thomas Maier vielen Dank für ihren Kommentar. Ich schätze diese Art der rekapitulierenden Rückmeldung sehr. Sie ist für mich sehr lehrreich.

  6. Vielleicht könnte man, um auf die Eskalation einer erwartbaren Störkommunikation rechtzeitig zu reagieren, mal etwas anderes versuchen. Jeder, der sich an der Diskussion beteiligen will, liefert zunächst eigene Beiträge an, um durch Sammlung die Assoziationen einzuschränken und durch Abgleich eventuelle Unterschiede festzustellen. Denn dieses „Pro und Contra“ führt immer wieder ins Nirgendwo, weil niemand das zu diskutierende Thema eindeutig benennen und dafür sorgen kann, dass alle, die etwas mitzuteilen haben, nur dazu und zu nichts anderem etwas mitteilen.
    Ich würde daher diesen Beitrag liefern und wäre gespannt, wer ebenfalls einen Link schicken will; es muss ja nicht notwendig von einem selbst geschrieben sein.

    http://differentia.wordpress.com/2011/04/25/menschliches-versagen-2/

  7. kusanowsky – da ist ein bisschen was dran. Aber ich gebe mich schon damit zufrieden, wenn die kleinen Rückmeldungen hier als ausformulierte Kommentare ankommen und die, ausführlich kritisierten, Tweets unterbleiben. ;-)

  8. – mspro: Es geht nicht um Begriffsfasching, sondern darum, worüber es denn Sinn macht, zu diskutieren. Und wenn du von „Fehlern“ die „Maschinen machen“, redest, muss ich sagen: Das ist Bullshit. Wenn ein computergesteuerter LKW eine Person tot fährt, dann ist das kein Fehler. Zumindest nicht aus der „Sicht“ des Computers. Es ist der Fehler eines Menschen. Evolution basiert gar auf dem Konzept Fehler. Denn wäre es unter Urbakterien/Urzellen nie zu dem „Fehler“ gekommen, dass sich zwei nicht vollständig teilten, dann hätte das mehrzellige Leben nie einen Anfang genommen.

    Man hat manchmal das Gefühl, mit einem Techno-Darwinisten zu sprechen. Berechtigt?

    Um das mal abzulösen: Wir müssen über parallele Entwicklungen sprechen, nicht sich in die Quere kommende. Aus meiner Sicht hat dies alles nämlich nichts, gar nichts, mit Humanismus zu tun. Mspro UND Humanismus klingt ein bisschen wie Demokratie UND Sozialismus. Aber wieso sollte sich das ausschließen?

  9. Ich finde Kusanowskys Zivilisierungsversuch (#6) klasse, habe nur leider keinen passenden Text zur Hand. Möglicherweise am ehesten diesen, aber doch nur unter Vorbehalt. Außerdem erwarte ich nicht, dass sich jemand ernsthaftes Interesse an idealtypischen Diskursbedingungen hat (Habermas vielleicht). Möglicherweise wäre es das Sinnvollste (und wenn ich Stefan recht verstehe, will er genau darauf hinaus) zunächst die zugrunde liegende Unterscheidung von Mensch und Maschine als solche zurückzuweisen (bzw. sie in ihrer wechselseitigen Koproduktion offenlegen. Bei anderen problematischen Unterscheidungen à la Natur/Kultur, Realität/Virtualität oder Subjekt/Objekt hat sich eine solche Herangehensweise jedenfalls als gewinnbringend herausgestellt).

    Andererseits birgt diese Vorgehensweise den großen Vorteil, dass man nicht mehr unsägliche ’60er-Technokratie-Diskussionen (ja: 1760er!) führen muss, sondern alternativ mal schauen könnte, was durch Treffen dieser Unterscheidung invisibilisiert wird und dass die Form ohne die jeweils andere Seite zerfällt. Statt für oder wider Komplexität und Kontingenz zu sprechen, könnte es anfangs helfen, mit ihr zu arbeiten – jenseits von Problem/Lösungs-Schemata (die ja immer mehr über den Beobachter sagen, als über das Problem).

  10. Hiya,

    ein klasse Beitrag, den ich mit Amüsement gelesen habe, auf dem Punkt, Chapeau!

    Allerdings muss ich eine Kleinigkeit anmerken. Nach heutigem Maschinenverständnis gibt es sehr wohl nicht-triviale Maschinen, der Computer ist eine davon. Für diese Klasse der Automaten – die Kategorisierungen verdanken wir dem Kanadier Arthur Gill (Introduction to the Theory of Finite-State Machines, N.Y. 1962) und ihre Popularität den wiederholten Zitationen Heinz von Foersters – gilt, dass sie synthetisch – also über die Konstruktion – determiniert sind, jedoch analytisch unbestimmbar, vergangenheitsabhängig und nicht voraussagbar. Letzteres folgt aus der analytischen Unbestimmbarkeit. Für die genannten trivialen Maschinen gilt im Gegesatz dazu die analytische Bestimmbarkeit und die Vergangenheitsunabhängigkeit. Gleichwohl sind beide, die triviale Maschine und die nicht-triviale lediglich kompliziert und nicht komplex.
    Eine genauere und verständliche Ausführung findet sich hier: http://www.vordenker.de/autonomie/autonomie.pdf
    Formale Diskriminanten zwischen Kompliziertheit und Komplexität gibt uns W. Ross Ashby in „Introduction to Cybernetics“ (Chapman & Hall, 1956), als ebook online: http://pespmc1.vub.ac.be/ASHBBOOK.html

    Am 30.05.2011 fand an der Universität Dortmund im Rahmen der “Interdisziplinäre Veranstaltungsreihe – Biologie und Gesellschaft” ein Vortrag statt über das Thema “Macht die Natur Fehler?“.
    Eberhard von Goldammer geht in seinem Blogbeitrag auf die Fragestellung ein und setzt sie in Beziehung zu Alan Turing’s Statement aus dem Jahr 1947:
    “… if a machine is expected to be infallible, it cannot also be intelligent.”
    Einen Hinweis darauf und einen Link http://www.vordenker.de/blog/?p=270 kann ich mir ebenfalls nicht verkneifen, da der Beitrag – ebenso wie der hier Präsentierte – einen Genuss darstellt für Leute, die lesen können.

    LG, Nick H.

  11. @Sebastian 1760, sehr richtig. ;-)

    @Nick Haflinger vielen Dank für die Links. Die Auseinandersetzung mit den Biologen ist tatsächlich ein hier gut passendes Parallelschauspiel. Das Problembewusstsein im PDF gefällt mir sehr. Sowohl der Reduktionismusvorwurf, als auch die Diskussion der Unterscheidung offener und geschlossener Systeme treffen auf interessante Weise den Punkt.

    Danke auch für das Aufgreifen und Problematisieren der Unschärfe zw. komplizierten/komplexen und nicht-trivialen/trivialen Maschinen.

  12. Das ist interessant. Wenn mit Bewusstsein reflexives Ausbeuten eines eigenen Gedächtnisses gemeint ist, wären die Bedingungen für eigene Komplexität gegeben.

    Ob ihm das gelingt, muss man dann sehen.

    Eines wird ihm jedoch nicht gelingen: die Simulation eines Gehirns. Denn gegen Simulationen sind komplexe Maschinen definitionsgemäß immun…

  13. Pingback: Linkschau, die Elfte. | Die datenschutzkritische Spackeria

  14. Pingback: Einhundert “Piraten zweiter Klasse”* | Sozialtheoristen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *