Algorithmen als autonome Akteure?

Im letzten Blog habe ich den ‚verdünnten’ Handlungsbegriff in einige Bereichen der qualitativen Sozialforschung kritisiert. Besonders deutlich zeigen sich die Folgen eines solchen Handlungsbegriffs in der neueren sozialwissenschaftlichen Diskussion über die Dynamik des Finanzmarktes.

Dort ist nämlich ein neuer Kandidat für die Akteursrolle aufgetaucht, dem oft eine entscheidende Rolle bei der Gestaltung der Gesellschaft der Gegenwart zugeschrieben wird: der Algorithmus. Wurde noch vor einigen Jahrzehnten die Maschine als wichtiger Kandidat für die Position des eigenständigen Akteurs gehandelt, so sind es heute nicht mehr die Maschinen selbst, sondern die ihnen innewohnenden elektronisch codierten und materiell eingeschriebenen Steuerungseinheiten, die Algorithmen, die selbst wieder Kalkülen aufruhen. Selbst Wissenschaftler/innen, die ansonsten vorsichtig sind, Objekten eine Agency zuzuschreiben, knicken beim Algorithmus ein und räumen ihm nicht nur Handlungsvermögen und Handlungsmacht, sondern auch Entscheidungsfähigkeit ein (so auch Karin Knorr-Cetina).

Die Frage lautet: Entscheiden Algorithmen wirklich oder was tun sie oder: Was lässt man sie tun? Entscheidend für die Beantwortung der Fragen ist allerdings die Vorstellung von Agency. Liegt dann eine Agency, also eine Handlungsmacht, vor, wenn etwas in den Lauf der Welt so eingreifen kann, dass es einen Unterschied macht oder ist nur dann sinnvoll, von Agency zu sprechen, wenn ein Akteur sinnhaft so in die Welt eingreift, dass ein Unterschied entsteht, also wenn ein Akteur auch versucht, sinnhaft die Welt in irgendeiner Weise zu lenken.

Nun sind Algorithmen, auf mathematischen Kalkülen aufruhend, erst einmal nur mathematische Repräsentationen von Sachverhalten und Verfahrensvorschriften. Sie haben die Form: Wenn X der Fall ist, dann soll Y folgen. Algorithmen bestehen aus einer endlichen Folge von eindeutig definierten und vorgegebenen Handlungsschritten und Verfahrensvorschriften, welche genau definierte Probleme oder genau definierte Typen von Problemen ‚lösen’ sollen. Insofern werden Algorithmen als standardisierte Problemlöser für standardisierte Probleme von Menschen eingesetzt. Menschen geben ihren Maschinen mittels Algorithmen Aufträge – nämlich den Auftrag, in einer bestimmten Situation X, die Handlung Y zu vollziehen. Insofern sind Algorithmen immer Imperative – Imperative, die sich an Menschen oder an Technik richten, oder aber auch an andere Algorithmen. Und da diese Imperative auch Maschinen beigegeben werden können, die in der Lage sind, in Bruchteilen von Sekunden die Situation zu erfassen und zu bewerten, verbessern die Menschen, die sie nutzen, mit diesen Maschinen ihre Fähigkeit, auf Situationen bedacht, also überlegt zu reagieren, enorm.

Das gilt natürlich auch und vor allem für das algorithmic trading (auch flash-trading oder e-trading), das auf einer quantifizierten Kalkulation und auf induktiv ermittelten Vorhersagen beruht. Der Trading-Algorithmus ist so konstruiert und gebaut, dass er auf der Basis von Wahrscheinlichkeitsberechnungen selbst minimale Veränderungen des Marktes ‚erkennen’ und dann ‚automatisch’ Kaufentscheidungen tätigen kann. Entscheidend ist, dass der Computer automatisch und ungeheuer schnell, aber nicht unabhängig vom menschlichen Trader, entscheidet, wie dies oft behauptet wird (z.B. Kissell & Malamut). Dieses schnelle und automatische Entscheiden auf dem Aktienmarkt mag zwar für viele Trader (und Beobachter) eine ‚revolution of trading’ sein, aber es ist definitiv kein Aufstand der Dinge gegen den Menschen. Computer sind nur sehr viel schneller als Menschen, ersetzen sie jedoch nicht.

Trading-Algorithmen führen auch kein eigenes Leben – auch wenn es manchen so erscheint. Selbst dann, wenn sie unerwartete Entscheidungen treffen, wenn sie scheinbar allein mit anderen Algorithmen ‚interagieren’ (also wenn scheinbar nur noch die Maschinen aufeinander reagieren) und wenn sie Folgen produzieren, die niemand wollte und voraussehen konnte (was schon mehrfach geschehen sein soll, z.B. der Black Monday am 19.10 1987), selbst dann bewegen sie sich in der Sinnhaftigkeit der Erzeuger der Algorithmen.

Der Algorithmus ist also eine spezifische Form, mit der Menschen Maschinen bestimmte Befehle geben. Wenn also Menschen sich entscheiden, bestimmten Algorithmen die Lösung von bestimmten Aufgaben zu überlassen, dann handeln die Algorithmen nicht selbstständig, sondern sie sind lediglich der erweiterte und ausgelagerte ‚Arm’ des Menschen oder die mathematisch codierte und niedergelegte Entscheidung, in einem bestimmten Fall sehr schnell etwas Bestimmtes zu tun. Algorithmen sind also in keiner Weise eigenständig (nur automatisch) und wenn Algorithmen ‚entscheiden’, tun sie das nur so und nur auf diese Weise, die ihnen ihr menschlicher Programmierer mit und eingeschrieben hat.

Aus dieser Sicht sind nicht die Algorithmen Akteure, sondern die Menschen, die zum einen die Algorithmen schreiben und zum zweiten die Menschen, die den Algorithmen in bestimmten, fest definierten Situationen bestimmte Aufgaben zur Erledigung anvertrauen. Wenn man in der Soziologie jedoch die Algorithmen als eigenständige Akteure in den Blick nimmt, übersieht man gerade das Soziale in den Algorithmen, übersieht, dass hinter den Algorithmen Menschen mit Interessen stehen, die das Wirken der Algorithmen verständlich machen. Mit Hilfe der Algorithmen handeln Menschen in bestimmten Situationen in spezifischer Weise auf einem globalen, hart umkämpften Markt. Die, welche diese Mittel einsetzen, tun dies, weil sie sich Vorteile davon erhoffen. Und die, welche nicht die finanziellen Mittel haben, mit Algorithmen zu arbeiten, erzielen auf dem Markt weniger Gewinne. Wer die Algorithmen zu Akteuren erklärt, verdunkelt somit die soziale Dynamik oder genauer gesagt die massiven gesellschaftlichen Auseinandersetzungen hinter dem Einsatz der Algorithmen.

Nebenbei betreibt man mit solchen verdunkelnden Formulierungen die Affirmation des Bestehenden: Soziale Vorgänge, die durchaus interessengeleitet sind, werden als quasi natürliche, nicht-menschliche Vorgänge objektiviert, ausgelagert und damit überhöht.

Diese Sprechweise von den Algorithmen als Akteure ist nicht nur unangemessen, sondern sie verdeckt und verbirgt zugleich: Sie kann nicht verstehen und erklären, was der Fall ist, was sich gerade ereignet und gibt damit das Ziel der Soziologie und der Sozialforschung preis. Eine solche Forschung leistet gerade nicht das, was Soziologie verlangt, nämlich die Aufklärung von sozialem Geschehen mit dem Ziel, Entwicklungen in der Gesellschaft und Zusammenhänge zu verstehen und zu erklären, auf dass auch eine gesellschaftliche Entscheidung darüber möglich wird, ob man den Entwicklungen ihren Lauf lässt oder ob man sie einhegt oder ihnen eine andere Richtung gibt.

 

20 Gedanken zu „Algorithmen als autonome Akteure?“

  1. Sehr geehrter Herr Reichertz,

    bei der ersten Durchsicht kann ich den Ausführungen ohne Frage zustimmen, und aus meiner spezielleren Sicht lese ich die Kritik an der Beschreibung von Algorithmen als Akteuren als Kritik einer bestimmten Metaphorisierung, und zwar der Personifikation als oft rhetorisch-abichtsvoller Sprechweise, noch häufiger als nicht-intendierter metaphorischer Mechanismus alltäglichen Denkens zu finden (Lakoff, Johnson, Leben in Metaphern, Kap. 7, 1980, S. 44f.)

    Der folgenden Beschreibung stimme ich jedoch nicht zu:
    „Der Algorithmus ist also eine spezifische Form, mit der Menschen Maschinen bestimmte Befehle geben. Wenn also Menschen sich entscheiden, bestimmten Algorithmen die Lösung von bestimmten Aufgaben zu überlassen, dann handeln die Algorithmen nicht selbstständig, sondern sie sind lediglich der erweiterte und ausgelagerte ‚Arm’ des Menschen oder die mathematisch codierte und niedergelegte Entscheidung, in einem bestimmten Fall sehr schnell etwas Bestimmtes zu tun. Algorithmen sind also in keiner Weise eigenständig (nur automatisch) und wenn Algorithmen ‚entscheiden’, tun sie das nur so und nur auf diese Weise, die ihnen ihr menschlicher Programmierer mit und eingeschrieben hat.“

    Jeder Programmierer wird dem widersprechen – weil Algorithmen in aller Regel erst einmal nicht tun, was sie tun sollen (ich bleibe bei der oben kritisierten Personifikation), sondern etwas anderes, wenn sie nicht gar dazu führen, dass der ganze Computer abstürzt (das ist eine andere Metapher). Die Debatten der Öffentlichkeit beziehen sich ja vor allem auf Implikationen der Kalküle, die nicht intendiert waren, und die als „Programmierfehler“, „Nebenfolge“ und „Seiteneffekt“ nur verharmlosend beschrieben werden. Vor allem die Redeweise vom „Programmierfehler“ impliziert, dass er auch zu beseitigen ist. Kein größeres Programm ist jedoch fehlerfrei, und wenn ich die Debatten der Informatik aus der Ferne richtig mitbekommen habe, zielen heutige Theorien des Programmierens nicht auf Fehlerfreiheit, sondern Fehlerminimierung – abgesehen von der empirischen Evidenz der Fehlerhaftigkeit real existierender Software in Form monatlicher Betriebssystem-Updates. (http://de.wikipedia.org/wiki/Programmfehler; zur Erheiterung: http://de.wikipedia.org/wiki/Liste_von_Programmfehlerbeispielen).

    Die Personifikation solcher Eigendynamiken komplexer Software-Architekturen zu eigenständig handelnden Akteuren bleibt dennoch eine unangemessene Metaphorisierung, aber wie jede Metapher macht sie auf eine Fehlstelle aufmerksam, die begrifflich – zumindest in der Nicht-informatik-Welt – bisher nicht adäquat gefasst sind.

    Besten Gruß:
    rudolf schmitt

    1. Sehr geehrter Herr Schmitt,
      Sie haben Recht damit, dass ich mich auf ‚funktionierende‘ Algorithmen bezogen habe. In der Tat funktionieren sie (anfangs) oft nicht so wie sie funktionieren sollen – aber dieses jeder Technik inhärente Problem meinte ich nicht – auch nicht das Problem mit den unbeabsichtigten Nebenfolgen.
      In den Blick nehmen wollte ich die Debatte um den Latourschen Akteursbegriff, nicht die um die Unberechenbarkeit von Technik. Da stimme ich Ihnen sofort zu.
      In der aktuellen Debatte darüber, was Latour eigentlich sagen wollte, wird oft die Position vertreten, dass auch (die funktionierenden) Algorithmen eigenständige Akteure sind. Gegen diese These richtete sich mein Blogbeitrag.

  2. HFT ist das beste Beispiel dafür, dass die Algorithmen für und im Namen von Personen handeln. Die Strategien wie „Quote Stuffing,“ „Spoofing“ oder wie sie alle heißen mögen, werden mit Bleistift und Papier theoretisch ausgedacht und dann lediglich elektronisch umgesetzt. Der Eindruck eines vermeintlichen Eigenlebens der Automatismen entsteht dabei dadurch, dass keine Kontrolle mehr in Echtzeit möglich zu sein scheint, sondern die Kontrolle nur im Vorhinein (Regulierung) oder im Nachhinein (Wiedergutmachung, Strafen) ansetzen kann.
    In Unternehmen vereinfachen Algorithmen auch nur das, was Manager immer schon getan haben – nämlich das Umsetzen von Vorgaben. Wenn z.B. ein Vorstand früher beschlossen hat, „wir machen keine Vorfinanzierungsgeschäfte mehr mit Kunden, die Merkmale X, Y und Z haben“, so wird das jetzt eben systemseitig vorgegeben – endlich ist der Vorstand sicher, dass passiert, was passieren soll. Algos sind insofern die perfekten Befehlempfänger, bevor sie selbst ihr diktatorisches Gesicht zeigen. Es sind Management-Tools (oft heißen die Business-IT-Anwendungen dann immer irgendetwas mit -Management) und gehören in die Soziologie des Managers. Was mit dem in den letzten 20 Jahren geschehen ist, hat viel mit der Entwicklung der „Business-Intelligence“-Systeme und Excel-Tabellen zu tun. Er wird zumal in anonymen Kapitalgesellschaften immer mehr zum „Zahlenverantwortlichen“. Der in letzter Zeit besonders verhasste Bankmanager ist in dieser Hinsicht übrigens keinen Strich böser oder gieriger veranlagt als die Manager in anderen Industrien und Branchen. Bevor die Algorithmen in die Firmen einzogen, waren sie schon in der Betriebswirtschaftslehre entwickelt worden und per McKinsey popularisiert worden. Überall wird um die 4 Stelle hinterm Komma gefeilscht, um so das Letzte an Umsatz und Ertrag herauszuquetschen. Neu ist vielleicht, dass keine Replik möglich ist. Der Algo als Stellvertreter des Managers redet mit niemandem.

  3. Auch wenn ich gerne eine starken Begriff des_r Akteurs_in behalten würde, stellt sich mir bei Ihren Beiträgen dennoch die Frage, was denn nun genau die Besonderheit eines_r Akteur_in.
    Komplexität wäre etwa im ersten Moment nur ein gradueller Unterschied, Sie scheinen mir hingegen auf einen qualitativen hinaus zu wollen.

    Der freie Wille bietet sich geradezu an, wenn ich jedoch etwa an gängige philosophische Fassungen des Kompatibilismus denke, so scheint den freinen Willen nicht viel von einem Algorithmus zu trennen.

    Damit scheint mir der aussichtsreichste Kandidat um einen Unterschied zu verteidigen das Bewusstsein zu sein.
    Doch hier betreten wir noch unsichereres Terrain, handelte es sich bei Bewusstsein um ein Epiphänomen so wäre es etwa für Erklärungen von Kausalketten nur indirekt relevant und damit zu schwach für einen so starken Unterschied.

    Worauf ich hinaus will ist Folgendes:
    Um einen solchen starken Begriff des_r Akteurin beibehalten zu können, muss dieser stärker an eine tragbare philosophy of mind zurückgebunden werden. Dies fehlt mir bisher in Ihren Beiträgen, der grobe Hinweis auf einen sozialen Sinn scheint mir ungenügend.

    p.S.: Mit HFT ist vermutlich High Frequency Trading gemeint.

    1. Ohne Zweifel gibt es die Diskussion schon lange. Aber vor allem im Umkreis von Rammert und Schulz-Schaeffer spricht man von Sozio-Technischen Konstellationen. In der aktuellen Diskussion um die Latourinterpretation wird dagegen sehr gerne der Algorithmus als Akteur ins Spiel gebracht. Diese These ist keineswegs alt oder abgelegt. Im Jahr 2012 habe ich sie von Knorr-Cetina in Bremen gehört und von Strübing in Mainz.

  4. „Entscheidend für die Beantwortung der Fragen ist allerdings die Vorstellung von Agency. Liegt dann eine Agency, also eine Handlungsmacht, vor, wenn etwas in den Lauf der Welt so eingreifen kann, dass es einen Unterschied macht oder ist nur dann sinnvoll, von Agency zu sprechen, wenn ein Akteur sinnhaft so in die Welt eingreift, dass ein Unterschied entsteht, also wenn ein Akteur auch versucht, sinnhaft die Welt in irgendeiner Weise zu lenken.“

    Besonders der letzte Teil scheint doch hier spannend (und irgendwie auch interessanter als die Frage, wie alt die Frage eigentlich ist…):
    „wenn ein Akteur sinnhaft so in die Welt eingreift, dass ein Unterschied entsteht“ könnte man voll zustimmen, der Nachsatz: „also wenn ein Akteur auch versucht, sinnhaft die Welt in irgendeiner Weise zu lenken“ ist aber problematisch. Hier stellen Sie klar, wenn ich Sie recht verstanden habe, dass in Ihrer Perspektive, um von einem Akteur sprechen zu können, subjektiv gemeinter, also bewusst intendierter (oder?) Sinn notwendig ist – dies folgt aber nicht zwingend aus dem ersten Teil des Satzes, oder?
    In anderen Worten: Algorithmen machen – ob so vom Programmierer intendiert oder nicht ist dabei belanglos – einen Unterschied (Bateson), und zwar sinnhaft (Luhmann)… Die für andere dadurch geformte Welt ist eine andere, andere ‚Akteure‘ können sich dann nur wieder anders darauf beziehen, was wiederum Computer und Algorithmen (in Netzwerken – auch das darf man m.E. nicht außer Acht lassen), beobachten (!), usf.
    Dieses Zusammenspiel ist doch zu komplex, als dass es sich durchschauen lässt und komplexer als Ihr Argument es impliziert.
    Man könnte an dieser Stelle vielleicht auf Heinz von Foerster „Wie rekursiv ist Kommunikation“ verweisen und zahlreiche Überlegungen im Anschluss zu Computern als nicht-triviale Maschinen und ihre Bedeutung für Gesellschaft mitdenken (z.B. Baeckers „Studien zur nächsten Gesellschaft“). Ob der Akteursbegriff dabei eine besonderen Stärken entfalten kann, ist eine andere Frage (aber eine, die dann auch für ‚etablierte‘ Akteure wie Menschen gilt und nicht nur für die ‚Außenseiter‘ Algorithmen).
    Die schon von Luhmann (und nicht nur/erst von ihm) geäußerte Hypothese, dass Computer eine eigene Undurchschaubarkeit bieten, die für Kommunikation (und Handlung) ähnlich bedeutsam sein könnte wie Bewusstseine (vgl. Luhmann „Die Gesellschaft der Gesellschaft“ S. 303f.) kann heute weniger außer acht gelassen werden denn je und berührt die Frage nach der „Handlungsmacht“ zentral. Zugegeben, auch hier sind wieder andere Begriffe ins Spiel gebracht, als die von Ihnen adressierte Theorie (Latour) selbst gebraucht. Für die allgemeine Frage nach dem Handeln der Algorithmen müsste und wird das aber weiter gedacht werden müssen als bis zu Latour. Zu sagen: ein Algorithmus führt kein eigenes Leben (was immer Leben hier bedeutet) macht es sich, denke ich, zu einfach.

    1. „Hier stellen Sie klar, wenn ich Sie recht verstanden habe, dass in Ihrer Perspektive, um von einem Akteur sprechen zu können, subjektiv gemeinter, also bewusst intendierter (oder?) Sinn notwendig ist – dies folgt aber nicht zwingend aus dem ersten Teil des Satzes, oder?“

      Nein, subjektiv gemeinter Sinn soll gerade nicht gemeint sein. Handeln ist auch dann sinnhaft, wenn es einen sozialen Sinn besitzt, der nicht dem Subjekt verfügbar ist. Alles Handeln, und das grenzt es vom Verhalten ab, ist sozial geformt und entsprechend semiotisiert.

      1. Vielen Dank für diese Erläuterung – sie blieb mir leider unverständlich. An welche Tradition schließen Sie denn dann an, wenn nicht an Weber oder Schütz/Luckmann, und gemeinsam mit Knoblauch?
        Ich entnahm Ihren vorherigen Posts, dass für qualitative Sozialforschung gilt: „ihr Gegenstand ist immer die leiblich-geistige Einheit, die sinnhaft handelt, also aufgrund des sozialen Sinns, den die Welt und die anderen für diese Einheit hat.“ Das sind doch (auch) Subjekte, oder was sonst?
        Ich hatte hier die Tradition gelesen, die Sinn sozial konstituiert (konstruiert) sieht und im Dreieck von Externalisierung, Objektivierung und Internalisierung denkt. Aber doch mit handelnden Subjekten. Sonst verstehe ich auch nicht, wenn Sie schreiben „oder ist [es] nur dann sinnvoll, von Agency zu sprechen, wenn ein Akteur sinnhaft so in die Welt eingreift, dass ein Unterschied entsteht, also wenn ein Akteur auch versucht, sinnhaft die Welt in irgendeiner Weise zu lenken“ – Man könnte noch immer Handeln als reine Fremdzuschreibung definieren, aber wie passt das denn zu Ihren Beiträgen zur qualitativen Sozialforschung? Hier beziehen Sie sich doch explizit auf die wissenssoziologische Tradition. Und im post weiter unten, der Kritik an einem Akteursverständnis von Algorithmen folgend, betonen Sie die Wichtigkeit, den Menschen und damit (!) das Soziale hinter den Algorithmen zu sehen. Also was nun: Subjekte oder Kommunikation oder Beides? (und wenn ich hier Subjekte schreibe, denke ich selbstverständlich im wissenssoziologischen Sinne mit, dass dieses Verständnis davon ausgeht, dass von Subjekten nur im Zusammenhang mit Sozialisierung gesprochen werden kann, vor allem aber: dass Sinn immer sozial konstruiert ist, warum sich diese Richtung auch sozialer Konstruktivismus – oder eben stärker auf Kommunikation fokussierend: kommunikativer Konstruktivismus – nennt.
        Für die Frage nach dem Akteurscharakter wäre eine Klärung hier wichtig: wenn man Subjekte mit Bewusstsein voraussetzt, damit Soziales entsteht (und umgekehrt), dann steht und fällt die Frage nach dem Akteursstatus von Algorithmen (oder viel besser: von Computern – Algorithmen sind eben nur eine Vereinfachung der Darstellung, sozusagen der Versuch die operative Einheit von diesen metallenen/kunstoff Kästen zu finden) ob man hier von Bewusstsein oder eben Bewusstseinsäquivalentem, oder noch allgemeiner: Subjekten sprechen kann. Ganz ähnlich eigentlich zu Fragestellungen der systemtheoretischen Perspektive, die eben auch Bewusstsein an eine theorieentscheidende Stelle setzt (nämlich als einzig relevante Umwelt sozialer Systeme) und dann bei der Frage der Bewusstseinsäquivalenz von Computern an problematische Grenzen gebracht und zum Weiterdenken gezwungen wird… Oder was habe ich falsch verstanden?
        Auch auf meine Einwände haben Sie bislang keine Antwort gegeben. Ich frage mich, ob man vielleicht vermuten kann, dass die Frage nach dem Handeln (und damit dem im vergesellschafteten Kontext stehenden Subjekt) als definitorisches Moment des Akteurscharakters von Algorithmen (respektive Computern) nicht selbst als „verdunkelnden Formulierungen die Affirmation des Bestehenden“ – nämlich des Anspruches von subjektivistischen Theorien darstellt. Aber vielleicht trifft diese ketzerische Bemerkung den Falschen oder gar: ins Leere…
        Bemüht um ein echtes Verstehen, @obsrvng_obsrvrs

        1. Danke für das Beharren auf einer Klärung. Sie sehen das völlig richtig, dass ich im Rahmen eines Sozialkonstruktivismus bzw. eines Kommunikativen Konstruktivismus argumentiere. Allerdings wird auch dort, wenn es um ‚Kommunikation’ geht, vor allem ein Begriffspaar gehandelt. Gemeint ist hier ‚Handeln und Verhalten’: Oft heißt es dann (in Auseinandersetzung mit Paul Watzlawicks Axiom, dass man nicht nicht kommunizieren könne): bewusstes, intentionales Handeln sei Kommunikation und bewusstloses Verhalten dagegen nicht. Aber so lange man ‚Verhalten’ auf der einen und ‚Handeln’ auf der anderen Seite hat, bleibt oft nur die falsche Wahl. Stattdessen scheint es aus meiner Sicht sinnvoll, wenn man einen dritten Handlungstyp einführt: das kommunikative Tun Ausführlich dazu: mein Buch Kommunikationsmacht). Gekennzeichnet ist dieses kommunikative Tun dadurch, dass es zwar in der Situation nicht bewusst gesetzt wurde (wie z.B. das Tragen eines Schals), aber dennoch sinnhaft ist und auch immer in einer kommunikativen Situation als sinnhaft gedeutet wird – auch weil es auf eine frühere Handlung verweist (wie z.B. auf das Anlegen eines Schals).

          Es gibt nämlich nicht nur sinnloses Verhalten, bedeutungslose Körperbewegung, Rauschen und Ticks auf der einen, der Verhaltensseite, und Versprechen, Drohungen und bewusst geplante, auf personale Entscheidungen zurückgehende Strategien auf der anderen, der Handlungsseite. Das Problem mit diesen beiden Begriffen ist, dass sie stets nur die aktuelle Kommunikationssituation im Blick haben und zur Kommunikation nur das zählen, was die Akteure zum Zwecke der Verständigung (bewusst, also intentional) tun. Wenn Kommunikation aber immer nur in Situationen vorkommt, dann hat Kommunikation ein Vorher und ein Nachher. Das Vorher reicht stets in die aktuelle Kommunikation hinein – und natürlich hat es immer auch für das Nachher Folgen. Deshalb beinhaltet Kommunikation immer mehr als nur bewusstes und geplantes kommunikatives Handeln.

  5. Im Rahmen der Systemtheorie stellt sich die Frage nach der Handlungsmacht von Algorithmen als Frage, ob Algorithmen selbstreferentiell – also autonom – operieren und somit in der Lage sind an Kommunikation teil zunehmen. Das wiederum heißt zu fragen, ob Algorithmen in der Lage sind zwischen Mitteilung und Information zu unterscheiden um wahlweise an der Mitteilung oder der Information anschließen zu können. Unter diesem Aspekt tendiere ich zum Standpunkt von Jo Reichertz und betrachte Algorithmen zunächst unter dem Aspekt der Technisierung. Technisierung bedeutet Trivialisierung – im Sinne Heinz von Foersters‘ trivialer Maschine. Die Algorithmen sind – so komplex die Kalküle auch im Einzelnen sein mögen – von Menschen programmiert und damit vorhersagbar. Somit würden Algorithmen nicht selbstreferentiell operieren. Das würde sich allerdings ändern, sobald man Algorithmen so programmiert, dass sie lernfähig werden und anfangen sich selbst zu modifizieren um ihr Verhältnis an die Umwelt anzupassen. Aber auch dann müsste man prüfen, ob sie in der Lage sind zwischen Mitteilung und Information zu unterscheiden, was in der Konsequenz bedeuten würde zu prüfen ob Algorithmen in der Lage sind über Kommunikation zu Kommunizieren – also ob sie nicht nur an Informationen sondern auch an den Mitteilungsaspekt eines Kommunikationsangebots anzuschließen können. Leider kenne ich diesbezüglich nicht den Stand der Forschung und Entwicklung um beurteilen zu können, ob Algorithmen dazu schon in der Lage sind. Aus meiner Sicht, wäre dies aber die entscheidende Frage, um beurteilen zu können um Algorithmen Akteure mit autonomer Handlungsfähigkeit sind.

    Hinsichtlich Latour muss man einfach feststellen, dass sich solche Fragen im Rahmen seiner Theorieanlage gar nicht stellen lassen, da sowohl Menschen als auch Dingen diese autonome Handlungsfähigkeit zugestanden wird.

    1. Latour ist (glaube ich) vorsichtiger. Er würde den Dingen keine Autonomie zusprechen. Auch wenn der Latoursche Dingbegriff und auch deren Fähigkeit, ‚Agency’ zu sein, in den Schriften von Latour changiert, ist für Latour „jedes Ding, das eine gegebene Situation verändert, indem es einen Unterschied macht, ein Akteur, oder, wenn es noch keine Figuration hat, ein Aktant“ (Latour 2010: 123). Ein Hammer, ein Wasserkessel, ein Korb, Kleider, Fernbedienungen, aber auch Autos, Bremsen und auch Autoreifen sind in diesem Verständnis Objekte, die „entsprechend unserer Definition Akteure oder genauer Beteiligte am Handlungsverlauf“ (Latour 2010: 123f.) sind.

      Das scheint eindeutig zu sein, aber der Teufel liegt im Detail: Denn was bedeutet die Formulierung, „dass jedes Ding, das eine Situation verändert, ein Akteur ist“? Ohne Zweifel würde ein geplatzter Autoreifen die Ereignisse in der Welt verändern: Das Auto wäre zerbeult, die Insassen verletzt oder gar tot. Ohne Zweifel würde das einen Unterschied machen, der einen Unterschied macht. Ist also der Reifen der Akteur und sein Platzen sein Tun oder Handeln? Ist, um die Sache noch weiter zuzuspitzen, der Reifen geplatzt oder ist die Luft im Reifen explodiert oder hat ein spitzer Stein auf der Straße den Reifen zerstört? All das wären bei dieser Sicht der Dinge Kandidaten für den Akteurstatus – natürlich sind sie keine human beings, sondern non-humans, die am Handeln beteiligt sind, und die man (in diesem Verständnis) bei einer Wissenschaft des Sozialen notwendigerweise berücksichtigen muss.

  6. Ich beziehe mich auf „Wir sind nie modern gewesen“. Entscheidend scheint mir in dieser Schrift die Fußnote auf Seite 115, wo der Aktanten-Begriff als Ersatz für den Personenbegriff eingeführt wird und dann auch auf Tiere, Objekte oder Konzepte bezogen wird. Ich würde den Personen-Begriff lieber auf Menschen begrenzen. Damit ist dann auch die Unterstellung oder Erwartung autonomer Handlungsfähigkeit im Sinne einer selbstrefentiellen Operationsweise von psychischen Systemen verbunden. Allerdings ist dieses Buch auch schon über 20 Jahre alt. Hier hat Latour und andere die ANT möglicherweise selbst schon weiterentwickelt. Das kann ich im Moment noch nicht beurteilen.

    Hinsichtlich der Formulierung „einen Unterschied macht“ scheint auch mir G. Bateson mit durchzuklingen. Ich würde allerdings fragen, für welchen Beobachter der geplatzte Reifen einen Unterschied macht bzw. wer die Veränderung beobachtet? Zunächst macht der geplatzte Reifen für den Autobesitzer einen Unterschied, der ihn den Pannendienst rufen lässt. Für den Pannendienst macht der geplatzte Reifen also auch einen Unterschied. Aber für den Pannendienst wird der geplatzte Reifen schon aus einer anderen Perspektive handlungsrelevant als für den Autobesitzer. Und möglicherweise macht der geplatzte Reifen auch für die Autofahrer einen Unterschied, die durch das liegen gebliebene Fahrzeug in der Weiterfahrt behindert werden. Somit wird der Unterschied für diese Autofahrer aus einer anderen Perspektive handlungsrelevant als für den Autobesitzer und den Pannendienst. Und für die Autofahrer, die nicht behindert werden, macht der geplatzte Reifen keinen Unterschied, weil er nichts verändert und nicht handlungsrelevant wird. Zweifellos verändert der geplatzte Reifen Welten – wohl gemerkt im Plural. Die Frage ist aber, will man Ursachenforschung betreiben, warum der Reifen geplatzt ist oder will man untersuchen welche sozialen Irritationen dieses Ereignis für die betroffenen Menschen hat und in welcher Weise sie ihre Situationsdefinition ändern um sich den neuen Umständen anzupassen. Die Ursachenforschung fällt meiner Meinung nach nicht in den Zuständigkeitsbereich der Soziologie. Welche soziologische Relevanz hat die Information auf welche Weise der Reifen geplatzt ist?

    Hilfreich finde ich in diesem Zusammenhang auch Luhmanns Integrationsbegriff im Sinne wechselseitiger Einschränkung von Handlungsmöglichkeiten. Der geplatzte Reifen als Ereignis verschließt zwar die Möglichkeit einfach weiter zu fahren und zwingt dadurch zur Modifikation der Situationsdefinition mit daran anschließendem Abwägen von neuen Handlungsmöglichkeiten – z. B. selbst reparieren oder den Pannendienst rufen. Trotzdem bleibt der geplatzte Reifen ein einmaliges Ereignis und kann nicht mit der Interaktion zwischen zwei Menschen verglichen werden, eben weil der geplatzte Reifen nicht aktiv handelt sondern wenn, dann nur passiv die weiteren Handlungsmöglichkeiten einschränkt (z. B. unerwartete Schwierigkeiten bei der Reparatur). Oder anders ausgedrückt, der Reifen ist kein Beobachter, der Erwartungen hat und aufgrund bestimmter Situationsdefinitionen selektiv handelt. Entscheidend sind die Kriterien Wechselseitigkeit und Selektivität. Das ist beim Platzen des Reifens einfach nicht der Fall. Insofern würde ich bei einem geplatzten Reifen nicht von einem Akteur oder einer Agency sprechen.

    Wenn man nicht auf Wechselseitigkeit und Selektivität der Ereignisse achtet sondern nur auf das Moment der Situationsveränderung, weitet sich der Handlungsbegriff auch auf Dinge aus und man muss letztlich allem Handlungsfähigkeit zugestehen. Das finde ich genau wie Sie äußerst problematisch.

  7. Die Bemerkungen zur Systemtheorie finde ich spannend, allerdings blieben für mich ein paar Fragen offen:
    1) ist Handlung nicht systemtheoretisch vor allem eine Zuschreibungsleistung eines Beobachters, welcher nicht zwangsläufig das System, das beobachtet wird sein muss? So können Algorithmen (und vieles mehr: z.B. Heilige Bäume) (in diesem Sinne auch soziologisch gewinnbringend) als ‚Akteure‘ oder eben Systeme beobachtet werden. Das heißt aber noch nicht, dass das Beobachtete sich über Handlungen reproduzieren muss.
    2) lernfähige Algorithmen – gerade im Hinblick auf trader – gibt es doch bereits, allerdings nicht wie oben beschrieben als selbstreferentielle, soziale (!) Systeme… denn
    3) ist doch die Unterscheidung von Information und Mitteilung im Verstehen, also im Anschluss einer weiteren Unterscheidung von Information und Mitteilung nicht die Definition von Selbstreferentialität per se, sondern von Kommunikation als Operationstypus von sozialen Systemen. Die Frage nach der Handlungsmacht meint aber doch nicht, ob Algorithmen soziale Systeme sind, sondern ob sie ‚Handeln‘, wie Bewusstseine (und von Herrn Reichertz vermutlich nicht systemtheoretisch gedachten Sinne).

    Ob Algorithmen als ‚Akteure‘ verstanden werden können oder nicht, zielt daher, zumindest in meiner Lesart, auf die Frage, ob Gesellschaft sich nicht nur mit Menschen (als relevanter Umwelt), sondern jetzt auch in struktureller Kopplung zu ‚Algorithmen‘ reproduzieren kann.

    Schließlich ist ‚Algorithmus‘ vielleicht hier insofern problematisch, als dass er eine unzulässige Reduktion darstellt: alleine und nur als Algorithmus kann ein solcher ja gar nichts (und das Technisierungsargument springt voll an). Voraussetzung ist zumindest die Vernetzung von Computern, die bei dieser Debatte immer implizit mitgeführt wurde, aber nie ausgesprochen. Und dann erst wird es komplex anstatt nur kompliziert. Aber da steckt doch des Pudels Kern: sind vernetzte Computer mit allen Algorithmen sinnhaft unterscheidende Umwelt von Kommunikation, vergleichbar (nicht gleich) mit Bewusstseinen? So lässt sich dann vielleicht auch differenzieren zwischen Dingen, denen die sinnhaftige Handlungsfähigkeit hinbeobachtet wird (ähnlich den besagten hl. Bäumen, oder den geplatzten Autoreifen…) und einem eher engeren „Akteursbegriff“ (auch wenn ich nach wie vor Zweifel habe, ob der Akteur hier viel bringt. Man könnte vermuten, dass der Begriff schon in der Theorieanlage verdunkelt was ihm an sinn-stiftender Funktion zugedacht wird, nämlich die Selbstreproduktion von Gesellschaft…), wie ich Sie bei Herrn Reichertz gelesen habe („wenn ein Akteur sinnhaft so in die Welt eingreift, dass ein Unterschied entsteht“). Mit dem Verweis darauf, dass ein Algorithmus (an sich) noch nicht selbstreferentiell ist, ist dann noch gar nicht viel mehr gewonnen. Diese Fragen scheinen mir offen, lassen sich aber – wie oben bemerkt – mit Latours Theorierahmen so gar nicht stellen.

  8. @obsrvng_obsrvrs
    Vorweg, das Kunststück besteht hier ein Stück weit darin zwischen handlungstheoretischen und systemtheoretischen Perspektiven zu vermitteln. Die soziologische Systemtheorie kommt ohne einen Akteursbegriff aus, andere Theorien aber nicht. Als gemeinsame Basis für eine Diskussion, finde ich den Handlungsbegriff immer noch ganz praktisch.

    Ja, der Handlungsbegriff ist eine Zuschreibungsleistung. Ich verstehe Luhmann aber nicht so, dass es verboten wäre nicht auch selbst Handlungen bestimmten Personen zuzuschreiben, denn Handlungen werden erst durch ihren Bezug auf eine vorangegangene Handlung zu Kommunikation. Wichtig – auch im Zusammenhang mit Algorithmen – scheint mir zu sein, dass Luhmann Handlungen mit Kontingenz in Verbindung bringt. Handlungen einer Person können so, aber auch anders ausfallen und sind damit „aktualisierte Kontingenz“ (vgl. SoSy, S. 160). Auf den Kommunikationsbegriff bezogen, bedeutet das zu fragen ob an die Information (sachlich) oder an die Mitteilung (sozial) angeschlossen wird. Damit war nicht gemeint, dass Algorithmen soziale Systeme sind, sondern genauso wie Menschen zur Umwelt sozialer Systeme gehören. Nichts desto trotz müssten Algorithmen genauso wie Menschen die Informationen ihrer Umwelt in einen Kontext setzen um sie interpretieren zu können. Erst dann ist es ihnen möglich einen sinnvollen Beitrag zur Kommunikation zu liefern. An Kommunikation teilnehmen bedeutet dann nicht einfach auf einen externen Stimulus mit erwartbarem Ergebnis zu reagieren (die Trivialmaschine) sondern, dass anhand des systeminternen Eigenzustands die Informationen verarbeitet werden mit teilweise überraschendem Ergebnis (die nicht-triviale Maschine). Überraschend würde ich zum Beispiel finden, wenn sich der Algorithmus plötzlich über die Art der Mitteilung beschweren würde – also dass er höflich um seinen Output gebeten werden möchte. Spätestens an dem Punkt merkt man, dass Algorithmen wahrscheinlich nicht an Kommunikation teilnehmen können und sondern dass es sich bloß um Technik handelt. Lernfähigkeit allein reicht meiner Meinung nach noch nicht aus damit Algorithmen mit Menschen um Kommunikationsteilnahme konkurrieren können. Hinsichtlich der Reproduktion von Gesellschaft wäre dann eher die Frage, welche Kommunikationsvorgänge sollte man technisieren und in die Umwelt auslagern und welche nicht. Denn gleichwohl können die auf diese Weise produzierten Informationen wieder eine soziale Relevanz bekommen mit ggfs. fatalen Folgen.

    1. @BeobachterDerModerne et @ al.
      Gerade hier finde ich den Handlungsbegriff eher problematisch; die in der Diskussion auftretenden Schwierigkeiten zeigen ja sehr gut, zu welchen Schwierigkeiten es kommen kann. Hilfreicher ist m.E. eher, sich anzuschauen, warum und wozu Menschen, Akteure, Systeme, Beobachter, Agents oder was immer in der jeweiligen Theorie gebraucht werden, also mehr auf das Theoriestück zu blicken und dafür Entsprechungen oder Reformulierungen in der eigenen Theorie zu finden. Einen Begriff gleich zu halten bei der Vielzahl der Verweisungen stiftet doch oft mehr Verwirrung.

      Zum eigentlichen Problem: präzise das ist der Punkt! Die überraschenden Antworten! Ich denke man müsste hier – mit Elena Esposito in “Soziales Vergessen” Kapitel V – zwei Aspekte näher beleuchten:
      Für den Ausnahmefall, dass ein ‘Mensch’ (hier dann nur Programmierer oder als Beobachter vielleicht noch: Soziologen) es mit einem Algorithmus zu tun bekommt, ist die Formulierung von Algorithmen als ‘Akteure’ schwierig. Wie schon geschrieben, tut ein Algorithmus als solcher gar nichts (wenn überhaupt dann Technisieren / Trivialisieren). Allerdings ist es auch nicht der Algorithmus, um den es geht, wenn man davon spricht, das Algorithmen handeln! Ich verstehe auch nicht, dass diese Komplexitätsreduktion hier nicht expliziter durchschaut wurde. Der Mensch in Mensch-Maschine(?)-Interaktion hat es ja im Falle von Computern immer mit Bildschirmen zu tun. In diesem Sinne greifen auch Algorithmen ein: sie manipulieren Zeichen auf Bildschirmen; sie manipulieren “Zeichen […], ohne auf die Unterscheidung von Zeichen und Bezeichnetem oder von Selbstreferenz und Fremdreferenz zurückzugreifen” (Esposito, S. 295) Esposito formuliert weiter: “Es macht nur dann Sinn, von der Intelligenz von Maschinen zu sprechen, wenn die Intelligenz auf das Medium und nicht auf den einzelnen Rechner bezogen wird. […] In Wirklichkeit geht es also immer um Kommunikation und nicht vorwiegend um Bewusstsein.” (298) Die Frage ist nicht, ob Computer mit Algorithmen ‘Bewusstsein’ erzeugen können. Es ist vielmehr entscheidend, dass Computer (und sozusagen ‘in’ ihnen Algorithmen) “unsichtbare Maschinen” sind. Es ist somit die Unterscheidung zwischen beobachtbarer ‘Oberfläche’ (Bildschirm) und unverständlicher ‘Tiefe’ auch wenn solche räumlichen Metaphern immer etwas hinken…

      Zum anderen, wieder mit Esposito und von Foerster (vgl. Soziales Vergessen, S. 294f), sind Computer eben genau das: NICHT-triviale Maschinen! Computer sollen ‘Überraschungen’ schaffen, weil wozu sonst würde ich sie brauchen? Daher ist ‘Rechner’ auch ein ein wenig problematischer Begriff, da er Trivialität ähnlich eines Taschenrechners impliziert. Für Computer gilt Trivialität als Merkmal des Funktionierens eben nicht. Wenn ein Auto schneller wird, wenn man auf die Bremse drückt, denkt man sich nicht: “Oh das ist aber interessant, was mag das wohl bedeuten? Spannende neue Ergebnisse, die mir das Auto hier ausgibt…” sondern vermutlich eher: “Verdammt, schon wieder kaputt!” oder drastischer… Bei einem Computer ist das eben anders – völlig unabhänigig, von oder gar aufgrund der Trivialität der ‘in’ ihm arbeitenden Algorithmen: wenn man einem Computer einen Input gibt, möchte man einen zu einem gewissen Grad unerwarteten Output, der dann als (des) Rechner(s)Leistung bezeichnet werden kann. Die Mensch-Computer-Interaktion ist genau in diesem Sinne keine Mensch-triviale-Maschine-Interaktion und genau darauf kommt es hier an. Die These nun lautet: Computer sind weder (triviale) Maschinen noch Bewusstseine (AI oder ähnliches), sondern etwas Neues; nichts desto trotz kann man vermuten, dass Kommunikation entsteht, wenn Menschen und Computer interagieren. Und genau in diesem Sinne können bzw. müssen wir dann ‘Handlungsmacht’ denken.

      Schließlich zur Simplifizierung des Sinngeschehens durch die Zuschreibung auf Algorithmen: Diese Reduktion erinnert mich ein wenig an die nicht aussterben wollende Idee, man denke mit dem Kopf oder meinetwegen spezifischer: mit dem Gehirn. Aber mit den Worten von Peter Fuchs: das Gehirn ist genauso doof wie die Milz. Und so auch Algorithmen. Oder anders: ein Algorithmus macht noch keinen Computer. Dies bedeutet nun aber nicht, dass die Bezeichnung von Algorithmen als Akteure mehr verdunkelt, als es zeigt, wie Jo Reichertz in seinem Blogpost vermutet, sondern vielmehr ist dies Ausdruck der Sichtbarmachung der Unsichtbarkeit der Maschine: wir wissen, dass in Computern Algorithmen ‘arbeiten’ und irgendwie zaubert das Zeichen auf Bildschirme. Wie genau ist uns (meist) schleierhaft, aber die Vermutung ist berechtigt: das alles ist mehr als die Trivialität von Maschinen. Daher: ‘Handlungsmacht’. Die Verwendung der Begriffe wie Akteur, Handlung, Macht, Sinn, Algorithmen, usw. in diesem Zusammenhang sind dabei doch mehr tastende Versuche sich diesen ‘neuen’ Herausforderungen sozialer Realität soziologisch theoretisch zu nähern. Die Trivialität von Computern zu behaupten und damit diesen Versuchen einen Riegel vorzuschieben halte ich aber für problematisch.

      1. @obsrvng_obsrvrs

        1.) Welche Schwierigkeiten? Ich fand es sehr spannend zu sehen, dass man trotz unterschiedlicher theoretischer Perspektiven zu ähnlichen Beobachtungen kommen kann und kann mich bei Jo Reichertz nur für die anregenden Beiträge und Kommentare bedanken.

        2.) Den dargestellten Strang der systemtheoretischen Diskussion über Computer habe ich nie verstanden. Da wird immer was Neues herbeigeredet ohne genauer benennen zu können worin dieses Neue eigentlich besteht. Das wird auch in der Darstellung deutlich, da sie nicht über die Vermutung eines irgendwie Neuen hinausgeht. Die Frage ist doch aber, was ist dieses „Irgendwie“? Da kann man sich nicht nur auf die Undurchsichtigkeit oder Intransparenz der Maschinen zurückziehen.

        Es wird auch deutlich, warum das nicht gelingt. Das Problem ist nicht die Situation Mensch sitzt vor Computer und interagiert irgendwie mit dem. Das Problem ist, dass Menschen vor Bildschirmen sitzen und via Computer und Internet mit Menschen an anderen Orten, die ebenfalls vor Bildschirmen sitzen, versuchen ihr Handeln aufeinander abzustimmen. Oder anders ausgedrückt, wie ist Kommunikation unter Abwesenden möglich? Welche Schwierigkeiten dabei auftreten können, habe ich in mehreren Beiträgen auf meinem Blog versucht darzustellen. Dabei nehme ich eine interaktionstheoretische Perspektive ein. Gerade wenn man Kommunikation unter Abwesenden via Internet mit Kommunikation unter Anwesenden vergleicht, sieht man, dass sich alte Probleme der (auch politischen) Öffentlich unter den veränderten technischen Rahmenbedingungen (Internet) neu Stellen. Wobei das Neue nur ihn den veränderten technischen Problemstellungen besteht, nicht aber in den Kommunikationsproblemen. Die sind doch seit der Zeitung, Kino und Fernsehen dieselben geblieben. Dann kommen auch die Fragen, nach den neuen Gefahren der technischen Manipulierbarkeit von Kommunikationsprozessen und der Rolle von Algorithmen in den Blick.

        Den Blick auf die Beziehung Mensch-Computer zu beschränken, hieße die soziologische Problemstellung zu verkennen. Computer schließen, so komplex und manipulierbar die Programmierung auch sein möge, immer nur in der Sachdimension – also die Informationen – an und niemals in der Sozialdimension – also die Mitteilung. Anders ausgedrückt, solange sich Computer nicht darüber beschweren, wie sie behandelt werden, findet keine Kommunikation zwischen Menschen und Computern statt. Dazu müssten Computer erst mal Gefühle entwickeln. Davon ist der aktuelle Stand der technischen Entwicklung noch weit entfernt.

  9. Was würde Al Chwarizmi, der Namensgeber der Algorithmen, zur Substantivierung seines Namens sagen? Al Chwarizmi ist eine durchaus agierende Person, die etymologische Derivation „Algorithmus“ dennoch nach Latour kein autonom agierender Akteur?
    Lateinisch agere bedeutet handeln. Dasselbe agere findet sich in der Mensch-Maschine-Interaktion, in der Agency, bei den software agents, bevor wir das ad acta legen.

    Ich bedanke mich bei Ihnen, dass sie die Aufmerksamkeit zurück auf die Algorithmen-Entwickler lenken, indem sie die Personifikation von Maschinen als Verschleierungsversuch der Aufklärung von sozialem Geschehen entlarven.

    Also sprechen wir über den Koch(Programmierer) anstatt über das Kochrezept(Algorithmus), während Miriam Meckel in ihrem Buch „Next“ einen Algorithmus zum Icherzähler macht.

    Widmen wir uns den Programmierern der jeweiligen Algorithmen: Algorithmic trading programmers, Facebook Feed Team, Google-Pagerank-Entwickler, ….

    Der Algorithmus, wo ich mitmuss, bestimmt meine tägliche Realitätswahrnehmung. Ein Algorithmus ist sowohl in der Lage, einen durch ein Labyrinth zu navigieren, als auch, dieses zu erzeugen.

    Die Algorithmen mögen, während sie von Programmierern betreut werden, nicht die Akteure sein. In der Zeit, wo sie vollautomatisiert laufen, sind sie es manchmal unheimlicherweise dennoch.

    Wurde der Facebook Edgerank Algorithmus vom Feed Team permanent in Echtzeit weiterentwickelt und betreut? Sitzen bei jeder Facebook-Session Entwickler da, um in Echtzeit zu steuern, welcher User von welchem Freund/Seite was auf der Startpage oder in dem rechts durchrollenden Feedticker zu sehen bekommt und was weniger? Sitzen die Google-Entwickler 365/24/7 fulltime da, um live zu steuern, welche der 20 Millionen für bestimmte Suchbegriffe gefundenen Ergebnisse auf der ersten Seite mit den 10 ersten SERPs erscheint und somit für wert befunden wird, als erste wahrgenommen zu werden? Nö, das machen Algorithmen. Und ebenselbige könnten sogar per ebenfalls vollautomatischem Information Retrieval ein Quäntchen
    Aufmerksamkeit mehr auf mein Geschreibsel lenken, sollte dieser Kommentar veröffentlicht werden. Oder diesen nach bestimmten Heuristiken und Qualitätskriterien herausfiltern und abwerten.

    Ein Exkurs in mmi (Mensch-Maschine-Interaktion) , KI (künstliche intelligenz) und UX (userexperience) scheint unumgänglich. Ich finde es toll, in die Informatik linguistisch und soziologisch einzusteigen. Software Agents, autonomous agents, useragents handeln wie ferngesteuerte Marionetten und ohne sie würden grosse Teile der im Netz stattfindenden Kommunikation nicht stattfinden können.

    Automatische Blogartikel verfassende und Spamkommentar-generierende Skripten, Webcrawler, Spider und Bots wuseln für viele unsichtbar scharenweise, derer sehr viele bei den grossen Datenmengen unabdingbar, durch die Netze, die journalistischen Algorithmen des Roboterjournalismus könnten in einigen Jahren den Pulitzerpreis gewinnen.

    Gut, zu differenzieren, und das scheinbare Leben des mechanischen Sklavenzoos als Illusion ohne Stoffwechsel, Zellatmung und Zellteilung preiszugeben, die winzige Flugdrohne von der Stechmücke zu unterscheiden, auch wenn es so lebendig wirkt wie der Film „Robots“. Wir müssen verhindern, dass sich eine Objektifikation von Lebewesen in der Geschichte wiederholen kann. Leider macht der Speziesismus Tag für Tag Millionen nichtmenschliche Tiere zu Sachen und dieselbe Grundhaltung ermöglicht die derzeitige Versklavung von 30 Millionen Menschen im human trafficking.

    Einige Gespräche mit Chatbots waren für mich weitaus spannender als etliche Dialoge mit Menschen und Enzenbergers Einladung zu einem Poesieautomaten ist nach wie vor eine Herausforderung für die moderne Lyrik. Luhmanns Zettelkasten gibt es mittlerweile als Software und
    Poetron’s Gedichte sind wunderbar gut.

    Nicht zu vergessen: in der derzeit mit 20 von 50000 Neuerscheinungen arg unpopulären ScienceFiction-Literatur, die mangels Ausleihe leider in zunehmendem Masse vollautomatisch per Algorithmus, der besagt: 2 Jahre nicht ausgeliehen=raus damit :-( , aus den städtischen Bibliotheken schwindet, sind mit dem Deus ex Machina (bis die Maschine den Geist aufgibt) beseelte Maschinen, künstliche Intelligenzen, hochentwickelte deutlich handelnde Akteure aus der Welt der Robotik gang und gäbe.

    Ohne Prothesentechnik und lebensverlängernde Medizintechnik wären viele von uns gar nicht da. Die Cyborgidee ist eine Philosophie, die es ermöglicht, Rollen- und Machtverhältnisse zu transzendieren, wohlgemerkt! Der Technikanteil ist in vielen Menschen ziemlich hoch. „techne“ und „mechane“ bedeuten nicht nur die schöpferische „Kunst“ des mechanischen Theaters, des automatons. Es fällt vielleicht leichter, einem Cyborg Handlungsfähigkeit zuzusprechen, als der Attrappe einer per Spracherkennung gesteuerten Telefonhotline, automatischen Stationsansage oder einem Algorithmus. So wurde die Seite der amerikanischen Gesellschaft für Roboterrechte wohl auch mit dem gewissen Augenzwinkern verfasst.

    Inwiefern besagt der Ausdruck „Animation des Toten“ dass es Unsinn ist,
    Maschinen zu personifizieren?
    Es fängt im Sprachgebrauch an: Mit verdinglichenden und mechanistischen Redewendungen wie „eine Schraube locker haben“ „Hirn einschalten“ „nicht mehr alle Tassen im Schrank haben“ „unterbelichtet sein“ „aus dem Rahmen fallen“ „tote Links“ „tote Webseite“ sollten wir bewusst umgehen. Es fängt schon damit an, dass an das Mainboard angeschlossenen GERÄTE als „Master“ und „Slave“ gebridget sind und dass der Server mit seinen services (von lat.servare) ein Beschützer ist….. „Servus“ sagen viele Bayern.

Kommentare sind geschlossen.