PHYSO_011 »Fusilli«
Prof. Georg TrogemannEinige Gedanken zu Christian Doellers
CYTTER.datalab
»Wie sehen Maschinen die Welt? In seinem künstlerischen Forschungsprojekt CYTTER beschäftigt sich Christian Doeller mit der Frage, wie Sensoren, Datenfilter und digitale Produktionsverfahren den Blick auf uns und unsere Umwelt verändern.«
(Aus der Einladungskarte zum Projekt)
Ende Februar 2021 bekomme ich eine Einladungsmail zur Teilnahme am Projekt und gehe auf die Webseite. Man kann sich registrieren und anschließend einen Gegenstand per Post ans Datenlabor schicken. Dieser Gegenstand durchläuft dann im Labor eine Reihe von Übersetzungsschritten mit unterschiedlichen digitalen und analogen Zwischenresultaten. Den Kern des Datenlabors bildet ein Netzwerk von Maschinen (Scanner, Fräsen, Zeichenmaschinen, Programme und auch manuelle Reproduktionsverfahren), durch das ein Gegenstand beliebig lange kursieren und immer wieder neue digitale und analoge Realisierungen erhalten kann. Tatsächlich wird der Übersetzungsprozess nach einer Reihe von Schritten abgebrochen und der eingesandte Gegenstand erhält eine neue analoge Gestalt, die wieder per Post an die Teilnehmer zurückgeschickt wird. Heute, am 1. April 2021, habe ich meine transformierte Version erhalten.
Übersetzung
Die folgenden Gedanken sind keine Besprechung oder gar kritische Würdigung des Projektes von Christian Doeller, vielmehr eine weitere Übersetzung. Zum Wesen der Digitalisierung gehört, dass sie nicht den Regeln des zu Digitalisierenden folgt, sondern ihren eigenen. Kein Digitalisie-rungsprozess kann alle Eigenschaften eines Objektes erfassen, er lässt sich gewissermaßen gar nicht auf seine Objekte ein, kann es aus Prinzip nicht. Es spielt deshalb keine Rolle, welchen Gegenstand wir digitalisieren, das Surrogat, das wir erzeugen, legt vor allem die Struktur des Digitalen offen, nicht die der analogen Objektwelt. Das wurde mir klar, als ich darüber nachdachte, welchen Gegenstand ich an Doellers Datenlabor schicken sollte. Schon die Vorgaben für den Gegenstand (1 St., max. 30 cm × 30 cm × 30 cm, max. 5 kg) sind dem Digitalisierungsprozess und den zugehörigen Maschinen geschuldet, vielleicht noch den Beförderungsbedingungen der Post, aber sicher nicht unserem Gegenstandsuniversum. Die Maschinen und die in sie eingeschriebenen Regeln und Prozesse erzeugen automatisiert digitale Existenzen des Objektes. Thematisiert wird hier der Prozess der Objektivierung selbst, weniger das konkrete Objekt. Der konkrete Gegenstand ist zwar Anlass und Ursache für die Ingangsetzung des Prozesses, der Prozess selbst fragt aber nicht, ob er dem Gegenstand gerecht wird. Genauso wenig frage ich, ob ich dem Projekt von Christian Doeller mit meinem Text gerecht werde. Sein Projekt ist der Auslöser für mein Denken, ich folge aber meinen eigenen Interessen und spüre nicht den Intentionen seines künstlerischen Forschungsprojektes nach. Ich übersetze sein Projekt quasi in meinen eigenen Denkraum. So, wie das transformierte Objekt, das ich heute zurückbekommen habe, eine Übersetzung ist, die keine augenscheinliche Ähnlichkeit mehr hat mit der Nudel, die ich vor Wochen auf den Weg geschickt habe, genauso wenig versucht mein Text, oberflächliche Entsprechungen zum Projekt von Christian Doeller herzustellen. Er ist eine Übersetzung, keine Spiegelung, präzise Beschreibung oder mathematische Abbildung. Zwischen unseren beiden Tauschgegenständen – der Nudel und dem Stück Linoleumboden – gibt es verborgene, aber eindeutige, rekonstruierbare Beziehungen, die Übersetzung von Christian Doellers Projekt in meinen Text ist weniger stringent, insofern nicht-digital. Aber zweifellos gibt es Verbindungen.
Gegenstände
Im landläufigen Sinn ist »Gegenstand« eine Bezeichnung für alles, was dem Subjekt (dem erkennenden Ich) in der Außenwelt entgegensteht. Es geht also um Dinge in unserer Umgebung, die wir wahrnehmen können, die Sinnesreize auslösen, die wir anschauen, betasten, beschnuppern und als Einheit identifizieren können. Wir wollen also gedachte Gegenstände, die wir uns nur vorstellen, zunächst außer Acht lassen. Spätestens, wenn es um Digitalisierung geht, werden wir merken, dass es mit den Gegenständen so einfach nicht funktioniert. Die Gegenstände, die wir heute industriell herstellen oder wissenschaftlich in Laboren vermessen und produzieren, müssen anders definiert werden. Neben die konkreten Eigenschaften treten eine Reihe abstrakter, die vor allem im Netzwerk der Maschinen implementiert sind. Bei handwerklich gefertigten Gegenständen konnte der Herstellungsprozess noch als ein Zusammenspiel von Werkzeugen und Materialien mit dem Wissen und Können des Handwerkers beschrieben werden. Handwerkliche Fertigkeiten haben sich langsam herausgebildet und wurden oft über lange Zeiträume nur graduell verändert. Je weiter die Automatisierung voranschreitet, desto stärker treten nun Zeichenprozesse und Algorithmen in den Vordergrund. Der Mensch tritt in gleichem Maße zurück. Gegenstände der digitalen Welt sind vor allem ein Geflecht von Beziehungen, das zwischen Zeichensystemen in Computern besteht. Das geht so weit, dass beispielsweise Algorithmen auf Mikrochips die nächste Generation von Mikrochips entwickeln, ohne dass Ingenieure die einzelnen Entscheidungen im Detail noch nachvollziehen können.
Auch wenn sie maschinell gefertigt wurde, ist unsere Ausgangsnudel zunächst noch ein realer Gegenstand, den wir problemlos in unserer Umgebung identifizieren und wahrnehmen können. Ein Gegenstand, der sogar klein genug ist, dass wir ihn in einen Briefumschlag stecken und mit der Post verschicken können. Auf der Webseite sehe ich andere Gegenstände, die ans Labor geschickt wurden. Bis dato sind es 26, die in insgesamt 182 Schritten übersetzt wurden. Ich sehe dort vor allem Gegenstände des Alltags, einen Stift, einen Fahrradhelm, einen Stifthalter, ein Geldstück, das Blatt einer Zimmerpflanze, einen Tischspiegel in Plastikfolie, Spielzeug, einen Fahrradschlauch u. a. m. Alles Dinge, mit denen wir uns eben umgeben, die direkt greifbar sind, schon in Reichweite unserer Hände, wenn wir aufgefordert werden, »einen Gegenstand« an ein Labor zu schicken. Keine alltägliche Aufforderung! Zu manchen der Objekte, die ans Labor gingen, gibt es eine Geschichte. Aus den kurzen Beschreibungen auf dem Registrierungsformular ist zu erkennen, dass sie für ihren Besitzer mit etwas verbunden sind, also persönliche Bedeutungsträger. Ob diese Geschichte einen Einfluss auf den Laborprozess hatte, dem sie unterzogen wurden, wissen wir nicht. Ich vermute, nein. Mit der Ankunft im Labor verlieren die Gegenstände ihren bisherigen Kontext und treten in einen neuen ein. Sie verlieren ihre Herkunft und Bedeutung für ihre ehemaligen Besitzer, werden zu wissenschaftlichen Objekten, bei denen nur noch die physikalisch messbare Manifestation zählt.
Ich frage mich also, was geschieht mit meiner Nudel, wenn sie nicht im Magen, sondern im Labor landet? Normalerweise essen wir Nudeln. Durch das vorhergehende Kochen nimmt die Nudel Flüssigkeit auf, wird größer und weich. Wir zerkauen sie und im Magen wird sie in für den Körper verwertbare Bestandteile aufgelöst, der Rest wird ausgeschieden. Durch den Verdauungsprozess verschwindet die Nudel. Nicht ihre physischen Bestandteile verschwinden, die Atome und Moleküle werden Teil anderer Prozesse, aber die Nudel als Wahrnehmungseinheit verschwindet. Unsere Labor-Nudel wird nun aber nicht gekocht und gegessen, sondern digitalisiert. Digitalisieren ist also etwas anderes als Verdauen. Die Nudel wird nicht aufgelöst in ihre Bestandteile, sondern sie dient dazu, etwas Zweites herzustellen. Nach der Digitalisierung haben wir nicht nur unsere ursprüngliche Nudel, sondern zusätzlich ein digitales Abbild. Damit stellt sich ein Problem: In welchem Verhältnis steht das digitale Abbild zur ursprünglichen Nudel? Was passiert in diesem Prozess der Digitalisierung eigentlich? Dass etwas passiert, zeigt sich schon in den Tauschobjekten. Ich schicke ein Lebensmittel weg und bekomme ein mit der Fräse bearbeitetes Stück Linoleumboden zurück. Wie sind diese beiden Objekte verbunden?
Objektivierung
Gegenstände sind Einheiten der materiellen Welt. Also Dinge im Außen, auf die sich unsere Wahrnehmung, unser Erkennen und auch unser Handeln richten kann, von denen wir aber annehmen, dass sie unabhängig von unseren Bewusstseinsinhalten existieren. Sobald wir beginnen, einen Gegenstand nicht nur wahrzunehmen oder Handlungen an ihm vorzunehmen, sondern über ihn zu schreiben, kommt bereits eine seltsame Doppelung ins Spiel. Es gibt den Gegenstand und gleichzeitig einen Text, also Zeichen, die nicht Teil des Gegenstandes sind, aber trotzdem mit ihm verbunden. Die Semiotik beschäftigt sich mit der Struktur solcher Verbindungen, mit den Relationen von Zeichen und deren Bedeutungen. Wobei Zeichen selbst keine Gegenstände sind, sondern Handlungsschemata, insbesondere digitale Zeichen! Das , das Beiblatt zum Gegenstand, das auszufüllen und zusammen mit dem Gegenstand an das CYTTER.datalab zu senden war, bringt ebenfalls eine Doppelung ins Spiel, es fordert eine Beschreibung, um die Gegenstände näher zu bestimmen. Mit solchen Beschreibungen beginnt die Ablösung vom Gegenstand und seine Doppelung. Ein weiterer Schritt, um Gegenstände auf Zeichenbasis näher zu bestimmen, ist, ihnen quantitative und qualitative Eigenschaften zu- oder abzusprechen. Die Gegenstände werden auf einer Skala von 1 bis 10 eingeordnet, an deren Enden jeweils zwei entgegengesetzte Begriffe stehen. Ist der Gegenstand eher flach oder plastisch, eher hart oder weich, eher reduziert oder komplex usw., Eigenschaften also, die wir, wenn auch nur subjektiv, so doch halbwegs vergleichbar, durch visuelle oder haptische Inspektion des Gegenstandes feststellen können. Quantifizierungen sind der wesentliche Mechanismus zur Digitalisierung. Auch das Beiblatt selbst wird digitalisiert und erhält damit eine Doppelexistenz. Wie der Inhalt des PHYSIOLARs, also die durch den Teilnehmer erstellten Beschreibungen und quantitativen Merkmale in den weiteren Digitalisierungsprozess eingehen, bleibt verborgen. Wie das meiste, das eine Laborschwelle überschreitet. Viele Eigenschaften, die wir im Laborbetrieb messen, sind der unmittelbaren Wahrnehmung ohnehin nicht mehr zugänglich, es sind Größen, die nur mit Hilfe von technischen Geräten und komplexen Maschinen feststellbar und mit Fachbegriffen diskutierbar sind. Auf einer mir gerade ausgehändigten Laboranalyse meines Blutes lese ich, dass die Thrombozyten im gesunden menschlichen Blut zwischen 140 – 160 pro nl liegen sollen, das Hämoglobin zwischen 13,7 – 17,5 g/dl und die Leukozyten in einem Bereich von 4,20 – 10,10 pro nl. Ich sehe, dass sich meine Werte im gewünschten Bereich bewegen, doch was bedeuten diese Werte? Wie ist diese Unterteilung in normal und anormal entstanden und wie können solche Werte ermittelt werden? Diese für die menschliche Wahrnehmung nicht direkt zugänglichen Qualitäten des Blutes verweisen darauf, dass sich empirisches Wissen heute vor allem in der Auseinandersetzung mit den Gegenständen in komplexen technischen Environments entwickelt.
Nach Hans-Jörg Rheinberger bilden sich die »epistemischen Dinge« der Wissenschaft in komplexen Versuchsanordnungen im Labor erst heraus. Dieser Prozess ist weder zwangsläufig noch abschließbar. Nicht nur Planung und Kontrolle bestimmen deshalb den Labor- und Forschungsalltag, sondern genauso Improvisation und Zufall. Das im Labor Erkannte kann in einem zweiten Schritt dann selbst zu einem technischen Objekt werden, mit dem weitere epistemische Dinge untersucht werden können. Labore sind deshalb immer Orte der Objektivierung, d. h. sie erzeugen die Gegenstände erst, von denen sie vorgeben, sie nur zu messen. Die kulturelle Bedeutung des Wortes Blut ist deshalb eine vollkommen andere als die, die ihm der moderne Mediziner beimisst. In den meisten Kulturen ist Blut ein Symbol des Lebens und des Opfers, in der modernen Medizin dagegen ein komplexes System zur Identifikation von Krankheiten und der Planung medizinischer Maßnahmen. Die Bestimmung des Blutbildes ist heute ein Standardprozess in medizinischen Laboren. Die einzelnen Blutwerte, einst als epistemische Dinge selbst Ergebnis von Forschungsprozessen, sind in medizinischem Vokabular verdichtet und nun in technischen Ausstattungen realisiert. Die Blutwerte sind untrennbar verbunden mit der Laborausrüstung, die sie messen. Empirische Erkenntnisse gerinnen zu Methoden und Praktiken, die durch neue Begriffe zusammengehalten und in technischen Geräten implementiert werden. Mit diesen technischen Settings können dann weiterführende Forschungsfragen untersucht werden, ein Prozess, der kein Ende kennt.
Das Computerlabor
Bis in die 1980er Jahre glichen die Orte des Rechnens, die Rechenzentren, schon äußerlich medizinischen, chemischen oder biologischen Laboren. An der Universität Erlangen-Nürnberg, wo ich als Studienanfänger am Institut für mathematische Maschinen und Datenverarbeitung meine ersten kleinen Programme für Rechenmaschinen geschrieben habe, saßen die Rechenzentrumsmitarbeiter hinter Glas, in klimatisierten Räumen, von den Nutzern abgeschirmt. Nur die Operateure, ein damals sehr qualifizierter Beruf, hatten direkten Zugang zu den Maschinen. Die Benutzerprogramme auf Lochkarten wurden in maschinengerechte Kästen gepackt und durch Schlitze in den Maschinenraum geschoben. Ab dann waren sie in die Laborprozesse eingereiht und der Kontrolle des Nutzers entzogen. Man wusste nie, wann der Operateur den Kasten aus dem Schlitz nehmen, den Inhalt dem Lochkartenleser zuführen und den Prozess in Gang setzen würde. Die auf Endlospapier ausgedruckten Ergebnisse wurden anschließend durch andere Schlitze in den Vorraum zurückgeschoben. Bei meinen ersten Versuchen erhielt ich nur Fehlerlisten zurück, die meist länger waren, als die Programme selbst. Diese Rechenzentren sind mit der Ausbreitung der PCs verschwunden. Heute ist es vor allem Cloud-Computing, das noch in klimatisierten Rechenzentren stattfindet. Wir bekommen diese Orte nur auf Fotos zu sehen und wissen meist nicht einmal, wo sie sich befinden. Die Kommunikation mit ihnen läuft vollständig über Netzwerke. Wenn wir heute von Computerlaboren sprechen, meinen wir in der Regel etwas anderes als diese Hochleistungsrechenzentren. Nämlich Räume mit einer überschaubaren Zahl von vernetzen Computern. Daneben gibt es meist eine Reihe weiterer Maschinen, die als Schnittstellen zwischen der digitalen und der analogen Welt dienen. Oder wir sehen Apparaturen, in denen Prozesse ablaufen, die durch die Computer gesteuert werden. Während die Rechentechnik mit den Jahren immer kleiner wurde, bleiben Schnittstellenprozesse im Analogen verhaftet. Das Digitale ist reine Struktur und damit nicht an ein bestimmtes Material oder eine bestimmte physische Realisierung gebunden, dagegen lassen sich analoge Materialprozesse nicht beliebig verkleinern. Die Größe und Struktur der Schnittstellen-Technologien, die Sensoren und Aktoren, also die Geräte, die den wechselseitigen Übergang zwischen analoger und digitaler Welt realisieren, sind zur Hälfte in der analogen Welt verhaftet, zur anderen in der digitalen.
Was Labore aber ausmacht, ist nicht das Augenscheinliche, ihre Ausstattung und Architektur, sondern das, was in ihnen stattfindet. Was stattfindet, erklärt sich aber nicht von selbst, es kann auch nicht durch bloße Beobachtung decodiert und verstanden werden. Labore sind schon von Natur aus Black Boxes. Zum Wesen der Black Box gehört, dass sie nicht anhand ihres Ein-/Ausgabeverhaltens entschlüsselt werden kann. Ich schicke eine Nudel ein und bekomme eine Kunststoffgravur zurück. Dieser Vorgang lässt nicht schon von sich aus Rückschlüsse auf die innere Struktur des Labors zu. Ich könnte versuchen zu testen, ob es sich um eine triviale Black Box handelt. In diesem Fall müsste jedes Mal, wenn ich eine Fusilli-Nudel ans Labor schicke, das gleiche Objekt zurückkommen. Doch solange ich kein Verständnis der Laborprozesse habe, kann ich nie sicher sein, dass ich nicht beim (x + 1)-ten Mal plötzlich doch etwas ganz anderes zurückerhalte, obwohl ich x-mal das Gleiche bekommen habe. Dieser Unzugänglichkeit der Laborprozesse versucht Christian Doeller in seinen CYTTER-Installationen durch »OpenLab-Events« zu begegnen. Hier können Besucher die Installation betreten (in Zeiten von Corona per Livestream), um alles genau anzusehen und Fragen zu stellen. Laborassistenten stehen bereit, um Fragen zum CYTTER-System zu beantworten. Wie wird entschieden, welchen Weg ein Gegenstand durch das Labor nimmt? Wann ist er »fertig übersetzt«? Welchen Einfluss haben die Angaben im PHYSOLAR? Aufgrund welcher Parameter arbeiten die Maschinen an den Übersetzungen? Gibt es ein »Zurück«? Wie funktionieren die beteiligten Algorithmen? Welche Rolle spielen Menschen im Datenlabor? Damit wird der Versuch unternommen, die Distanz zwischen Besuchern/Teilnehmern und dem Labor aufzulösen, sie in die Welt des Labors mitzunehmen und ihnen die als undurchschaubar wahrgenommenen Prozesse etwas näherzubringen. Doch auch das hat seine Grenzen. Obwohl im CYTTER.datalab einzelne Prozesse versinnbildlicht, zeitlich verlangsamt und räumlich neu skaliert werden (beispielsweise: das CYTTER.datalab als begehbares Circuit Board), um so das Verstehen der Prozesse zu erleichtern, bleiben doch immer Residuen, die Doeller »unsichtbare Aspekte des Sichtbaren« nennt. Warum lassen sich diese für die Übersetzungsprozesse wichtigen blinden Flecken durch Erklärung und Begehung nicht beseitigen? Worauf stützt sich eigentlich die Überzeugung des Laborassistenten, dass er mehr weiß als der Besucher? Und wo endet dieser Vorsprung und beginnen seine eigene Unkenntnis und seine eigenen blinden Flecken? Diese Fragen haben nicht zuletzt mit der Natur menschlichen Verstehens zu tun. Zu dieser Natur gehört der blinde Fleck, eine zentrale Figur der Kybernetik zweiter Ordnung, die unser grundsätzliches Unvermögen zeigt, vollständiges Wissen zu erlangen.
Was wir Verständnis nennen, ist immer ein Gemenge aus in der Außenwelt Sichtbarem, Messbarem, Greifbarem einerseits und unseren abstrakten Konzepten, Ideen und Begriffen, die nur in unserem Denken existieren, andererseits. Lücken in unseren Erklärungsmodellen – den Theorien – haben ihre Wurzeln in der Differenz zwischen Machen und Verstehen. Dinge, die wir machen können, müssen wir noch lange nicht verstanden haben. Ein Urmensch konnte durch Abschauen sehr schnell die Handgriffe lernen, die nötig sind, um Feuer zu machen. Dennoch gab es kein tieferes Verständnis von Verbrennungsprozessen, er hatte keine Theorie des Feuers. Genauso könnte man einem digitalen Laien eine Reihe von Handlungen im Computerlabor beibringen, mit denen er beispielsweise Objekte transformieren kann. Jeder, der die Handlungen hinreichend genau und in der richtigen Reihenfolge ausführt, wird zum gleichen Ergebnis kommen, unabhängig davon, ob er versteht, was er tut, oder nicht. Hier finden wir auch den Ursprung von Algorithmen und Automatisierung, in der unreflektierten Wiederholung einmal verstandener und funktionalisierter Abläufe. Der Programmierer versucht, einen Vorgang so weit zu durchdringen, dass er ihn auf ein Handlungsschema reduzieren kann. Das Handlungsschema, sprich der Algorithmus, weiß selbst nichts von seinem Tun und hat auch kein Verständnis für den Kontext seiner Handlungen. Solche Handlungsschemata sind in Laboren typischerweise über Technik und Mensch verteilt, Teile sind in Technik implementiert, andere werden von Menschen ausgeführt. Sinn erhalten diese ineinandergreifenden Abläufe erst, wenn wir Erklärungsmodelle vom Gesamtsystem und seinem Kontext aufbauen und nicht nur Handlungen aneinanderreihen. Theorien müssen nicht nur die wahrnehmbaren und messbaren Phänomene im Labor erklären können, sie spannen auch zusammen mit dem praktischen Wissen und den Erfahrungen den Möglichkeitsraum für das Handeln im Labor auf. Wesentliche Elemente unserer Theorien sind abstrakte Begriffe, quantitative Größen und fiktive Vorstellungsbilder, die es uns erlauben, unsere Handlungen zu planen und Ergebnisse vorherzusehen. Dabei ist nicht entscheidend, ob die zum Einsatz kommenden Vorstellungen »richtig« in einem absoluten Sinn sind. Letzte Sicherheit ist hier ohnehin nicht erreichbar, was gelingt, sind immer nur Verbesserungen. Bisherige Vorstellungen werden abgelöst durch neue, die Phänomene besser erklären und mit denen wir in der Folge neue Handlungsräume erschließen können. Wir wissen beispielsweise, dass die Bilder, die wir uns von Atomen und Molekülstrukturen machen, Hilfskonstruktionen sind. Trotzdem konnten wir auf Basis dieser defekten Vorstellungen eine Vielzahl neuer Technologien und medizinischer Therapien entwickeln, die in der Praxis gut funktionieren. Unsere Erklärungsprinzipien haben zwangsläufig Lücken und wir erfinden Kausalketten, Begriffe und Bilder, Heinz von Förster würde sagen »Teilchen«, um diese Lücken zu überspringen. Für ihn sind »Teilchen« immer Lösungen von Problemen, die wir anderweitig nicht lösen können, also Erfindungen, um gewisse Probleme überhaupt erklären zu können. Diese nicht verstandenen und nicht weiter hinterfragten Elemente unserer Theorien und Erklärungssysteme lassen sich nicht beseitigen, nur verschieben. Unsere vielen verschiedenen Erklärungssysteme sind keine Gebäude auf ewigen Fundamenten, sondern vielmehr schwimmende Plattformen, die sich selbst tragen müssen. Auch das Verständnis des Laborspezialisten ist ein Gewebe, das unverstandene Elemente enthält. Zwar hat er bessere Erklärungsmodelle als der unkundige Besucher und kann deshalb auch mehr machen, sein Handlungsraum erweitert sich auf Grundlage seiner Erklärungsmodelle. Um das gleiche Verständnis von den Abläufen zu haben wie der Laborspezialist, müsste der Laborbesucher das Wissen des Laborassistenten erwerben, also dessen Vorstellungsmodell in seinen eigenen Kopf implementieren. Es ist klar, dass dies ein meist langer Lernprozess ist, der sich nicht beliebig abkürzen lässt. Schon hinter jedem Fachbegriff verbergen sich Abstraktionen, komplexe Bezüge und Erfahrungen, die oft in langjähriger Praxis eingeschliffen wurden.
Praxislabore, in denen bewährte Verfahren am Fließband angewandt werden, sind zu unterscheiden von Forschungslaboren, die offene Fragestellungen untersuchen. Forschungslabore folgen dem weiter oben beschriebenen Prinzip der Objektivierung. Epistemische Dinge, also Erklärungsmodelle, Theorien und Wissen, das erst im Werden begriffen ist, gibt es dabei nicht nur in den Naturwissenschaften, sondern auch in der Technik und den Künsten. Die Technik, die nicht auf Erkenntnis aus ist, sondern auf Poiesis, also auf das Machen und Herstellen von Neuem, ringt ebenso wie die Wissenschaft um Begriffe, die nach und nach geschärft und schließlich zum Standardvokabular der nächsten Generation von Ingenieuren werden. Am Beginn stehen oft unpräzise Fragestellungen in einem noch offenen Raum von Handlungsmöglichkeiten. Zeichen (Formalismen, Begriffe, Methoden, Algorithmen) werden in diesem Zusammenhang immer verwendet, um wiederholbare Handlungen zu erfassen und umgekehrt auch zu ermöglichen. Vage Vorstellungen und fragile Prozesse müssen im Labor zunächst stabilisiert werden. Erst so bilden sich langsam Best Practices heraus, d. h. das gesamte Netzwerk aus Begriffen, Methoden, Vorgängen, Geräten, Theorien und Beschreibungen festigt sich.
Epistemische Dinge gibt es aber genauso in der Kunst. Auch das Atelier des Künstlers war in diesem Sinne schon immer ein Labor. Wobei sich ästhetische Phänomene auch ohne exaktes wissenschaftliches Kausalwissen stabilisieren lassen. Auch wenn die künstlerischen Werkzeuge und Apparaturen nicht notwendigerweise darauf ausgelegt sind, präzise Messwerte zu liefern oder der Herstellung naturwissenschaftlichen Wissens zu dienen, sondern der Herstellung ästhetischer Artefakte, geht es ebenfalls darum, noch unpräzise Vorstellungen, Ahnungen und labile Prozesse zu stabilisieren und herauszuarbeiten. Ein eigener künstlerischer Stil, der sich mitunter bildet, ist immer das Ergebnis einer intensiven Auseinandersetzung mit dem künstlerischen Material. Wobei sich momentan unter dem Begriff der künstlerischen Forschung Methoden und Zielsetzungen bestimmter künstlerischer Praxen in Richtung der Wissenschaft öffnen. Technik und Wissenschaft bilden traditionell ein überaus erfolgreiches Gespann. Technische Entwicklung ist angewiesen auf wissenschaftliche Erkenntnisse, umgekehrt ist naturwissenschaftliche Forschung ohne Technik heute nicht mehr vorstellbar. Während der Austausch zwischen naturwissenschaftlicher Forschung und den Technikwissenschaften – also zwischen Erkennen und Machen – fest etabliert ist und sie sich gegenseitig fördern wie fordern, ist die künstlerische Forschung davon noch weitgehend ausgeschlossen. In Wissenschaft und Technik wird künstlerische Forschung oft noch skeptisch gesehen, obwohl Kunst und Technik über die Poiesis eine mindestens genauso starke Verbindung haben, wie Wissenschaft und Technik durch das Erkenntnisziel. So ist künstlerische Forschung momentan vor allem ein offenes Experimentierfeld, das getragen wird von Enthusiasmus und der Überzeugung der Akteure, dass die Einlassungen auf die Prozesse der Forschung sich ästhetisch, also vor allem für die Kunst, auszahlen.
Digitalisierung
Digitale Daten und Algorithmen greifen nicht nur grundlegend in die sozialen Praktiken der Technowissenschaft ein, sondern prägen mittlerweile das gesellschaftliche Handeln als Ganzes. Nicht zuletzt dadurch werden ihre Methoden und Kontexte auch für die Kunst interessant. Computer sind zuallererst semiotische Maschinen, also Technik, um Informationen zu verarbeiten, die ihrerseits in Zeichen codiert sind. Diese Zeichen dienen vor allem dazu, Wiederholungen von Handlungen zu ermöglichen. Dass sich Ereignisse überhaupt wiederholen lassen, ist nicht nur die Voraussetzung für Wissenschaft, sondern auch für jede Form von Vorhersage und Planung. Ohne Wiederholung sind Orientierung und zielgerichtetes menschliches Handeln nicht möglich. Jede Methode, wie auch jeder Algorithmus, versucht die Essenz eines sich wiederholenden Vorgangs zu erfassen, ohne dass dieser jedes Mal exakt gleich ablaufen müsste. Was sich wiederholt, kann in sehr abstrakten Begriffen gefasst sein und muss sich nicht schon an der Oberfläche der Prozesse zeigen. Zu den ersten Techniken des Menschen gehörte beispielsweise das Feuermachen. Durch lange Perioden der Erprobung, des wiederholten Scheiterns und Gelingens, haben sich erfolgreiche Methoden ausgebildet, die es jedem, der die Abfolge und Ausführung der Handlungsschritte kennt und sie anwendet, erlaubt, Feuer zu machen. Der gesamte Kontext, etwa Ort, Anlass, Ausführender, selbst Brennmaterial, Anzünder etc. können mit Einschränkungen jedes Mal anders sein, am Ende brennt dennoch ein Feuer. Unsere Vorstellungen davon, was Feuer ist, haben sich dabei im Laufe der Zeit grundlegend gewandelt und wurden immer abstrakter. Ein ehemals geheimnisvoller Vorgang von mystischer Kraft wird heute als chemische Oxidationsreaktion erklärt, bei der abstrakt definierte Begriffe wie Sauerstoff, Brennmaterial und Wärme ins richtige Verhältnis gebracht werden müssen. Die Vielzahl von Möglichkeiten, ein Feuer zu machen, wird zusammengehalten durch eine einheitliche Theorie, die das Verständnis abstrakter Begriffe voraussetzt und die erklären kann, warum und unter welchen Bedingungen die unterschiedlichen Methoden funktionieren.
Hier finden wir also das Wesen des Digitalen, in den nackten Gerippen von Methoden und Theorien. Algorithmen sind Zeichenfolgen, und sie realisieren auch nichts weiter als reine Zeichenmanipulationen. Es sind maximal abstrahierte Formen lebensweltlicher Prozesse, die erst durch ihren Kontext, d. h. ihre Einbettung in eine reale Umwelt, einen Sinn erhalten. Daraus leitet sich unmittelbar eine zentrale Frage ab, nämlich, wie inhaltsleere Zeichenprozesse überhaupt eine Verbindung zur Welt halten können? Auf vielfältige Weise, lautet die erste unbefriedigende Antwort. Der Prozess beginnt mit der so genannten Digitalisierung, d. h. der Übertragung von Ausschnitten der Realität in die Welt der Zeichen. Digitale Daten sind immer dekontextualisierte und reduzierte Abbilder von realen Verhältnissen. Sofern das zu Digitalisierende nicht schon selbst ein Zeichen ist (eine Zahl, ein Buchstabe, Wort etc.), findet dabei zwangsweise eine Reduktion statt. Eine nicht-reduktive Digitalisierung müsste alle Informationen enthalten, die nötig sind, um eine exakte Kopie der Nudel auf atomarer Ebene herzustellen. Da dies nur in der Science-Fiction gelingt, sind die gängigen Verfahren der Digitalisierung immer Reduktionen. Beispielsweise wird eine Nudel, die Farbe, Form, Geschmack, Inhaltsstoffe etc. hat, auf ihre äußere Form reduziert. Und selbst diese kann nur lückenhaft abgetastet werden, wodurch Unterschiede zum Original und Artefakte ins Spiel kommen. Dekontextualisiert sind Daten immer deshalb, weil Zeichen zwar für etwas in der Außenwelt stehen können, sie aber ihren Kontext nicht mitcodieren. Den digitalen Daten ist nicht abzulesen, wer die Nudel hergestellt hat, wer sie eingeschickt hat, ob sie eine Bedeutung für mich hatte usw. Zwar können Kontextinformationen in weiteren Zeichenfolgen mitcodiert werden, diese können aber weder vollständig sein, noch ihrerseits Auskunft über ihren eigenen Entstehungskontext geben. Wollte man die Kontextinformation mitcodieren, schriebe sich das Problem auf der nächsten Ebene fort, in einem nicht abschließbaren Prozess von Zeichengenerationen. Am anderen Ende von digitalen Prozessen werden Daten verwendet, um analoge Objekte herzustellen oder Prozesse in der Außenwelt zu steuern. Hier findet der umgekehrte Prozess statt, eine Rekontextualisierung. Die nackten Daten, das digitale Surrogat von Gegenständen oder Prozessen werden wieder phänomenologisch aufgeladen und in einen realweltlichen Kontext eingebettet. Das Objekt wird wieder sichtbar, tastbar, riechbar etc. und geht nun erneut Beziehungen zu anderen Objekten ein. Nicht nur ein neues Objekt entsteht, sondern auch ein vollkommen neuer Kontext. Die Fusilli-Nudel hatte ich aus einer Packung entnommen, deren restliche Nudeln inzwischen im Kochtopf gelandet sind. Das Tauschobjekt, das außer der im Labor zugewiesenen Identifikationsnummer PHYSO_011 keinen Eigennamen besitzt, steht dagegen im Regal und bemüht sich dort um eine Beziehung zu den Büchern. Gestern wurde es spontan als Untersetzer für die Teekanne verwendet, die Nudel hätte dafür kaum getaugt. Zwischen der Digitalisierung am Eingang und der Konkretisierung am Ausgang können digitale Daten beliebige Bearbeitungen, also weitere Zeichenmanipulationen, erfahren. Diese Bearbeitungen folgen den Gesetzen der Algorithmik, deren Sinn kann aber nur von außen gesetzt werden. Und natürlich können Eingang und Ausgang kurzgeschlossen werden, so dass ein Objekt und dessen digitale Repräsentation alternierend eine Reihe hintereinandergeschalteter Transformationen durchlaufen. Bei rein digitalen Transformationen spricht man von einer digitalen Kette. So können Daten zunächst die Bauzeichnung eines Hauses repräsentieren, daraus lassen sich in einem zweiten Schritt mehr oder minder automatisch, also in einem weiteren Zeichenprozess, Daten über statische Anforderungen berechnen, diese wiederum können Grundlage detaillierter Material- und Konstruktionspläne sein, aus denen sich dann wiederum automatisiert Steuerdaten für die Produktionsmaschinen berechnen lassen. Am Anfang steht eine Idee, am Ende stehen die Einzelteile für das fertige Haus, dazwischen liegt eine Abfolge symbolgesteuerter Transformationen.
Kommen wir zurück zur weiter oben gestellten Frage, wie die digitalen Zeichen in der Maschine die Verbindung zur Welt halten. Klar dürfte inzwischen geworden sein, dass digitale Daten und Algorithmen immer in einem Netzwerk von Beziehungen stehen, durch das sie ihre Bedeutung erst erhalten. Die gleiche Zahl kann einen Kontostand, eine Distanz, eine Temperatur, eine Zeitangabe u. v. m. sein. Und selbst wenn dies festgelegt ist, also die Zahl beispielsweise für einen Geldbetrag steht, auch dann erhält sie erst durch ihre weitere Verwendung Sinn und kann kontextabhängig vollkommen unterschiedlich beurteilt werden. Das Beziehungsnetzwerk, das die Bedeutung der Zeichen generiert, ist allgemein gesprochen über Menschen, digitale Maschinen und Umgebungen, in die die jeweiligen Abläufe eingebettet sind, verteilt. Solche Bedeutungsnetzwerke lassen sich auf ganz unterschiedliche Weisen realisieren. Derzeit ist zu beobachten, dass immer größere Bereiche der Bedeutungsgenerierung an die Algorithmen delegiert und damit dem Menschen entzogen werden. Es macht aber einen Unterschied, ob der Kontostand eines Kunden, der einen Kreditantrag stellt, von einem Bankmitarbeiter beurteilt wird oder von einem Algorithmus. Genauso macht es einen Unterschied, ob die Entscheidung über die Rückfallwahrscheinlichkeit eines Straftäters von Algorithmen auf Basis statischer Auswertungen von tausenden von Akten oder von einem Richter aufgrund der Aktenlage gepaart mit Menschenkenntnis und Erfahrung getroffen wird.
Perspektiven und Nebenwirkungen
Wir Menschen können Situationen und Geschehnisse offensichtlich nur aus bestimmten Perspektiven wahrnehmen und beurteilen. Ist die Perspektive gewählt, ergeben sich daraus zwangsweise Schlüsse, die für die gewählte Perspektive folgerichtig, d. h. rational begründbar und für konkrete Situationen zielführend sind. Die Wahl einer Perspektive zieht zwangsweise nach sich, dass alle Aspekte, die sich aus der gewählten Perspektive nicht zeigen, vernachlässigt werden. Andere Perspektiven führen deshalb zu anderen Ergebnissen. Wir können verschiedene Perspektiven nacheinander einnehmen und diese in einem weiteren Schritt auch miteinander verbinden, aber eine Perspektive einzunehmen, heißt immer reduzieren, abstrahieren und dekontextualisieren. Als Nebenwirkungen bezeichnen wir das, was nicht Teil einer Betrachtungsperspektive ist. Das, was sich ungewollt zeigt und das schöne Modell oder die makellose Weltsicht stört. Digitale Prozesse sind maschinelle Verkörperungen dieses Prinzips. Algorithmische Prozesse, die in einen bestimmten Kontext eingebettet ausgeführt werden, realisieren immer eine bestimmte Perspektive. Ändert sich der Kontext oder treten Situationen ein, die bei der Entwicklung nicht vorgesehen waren, zeigen sich Nebenwirkungen. Die gesamte Geschichte der Technik ließe sich auch als Geschichte der Nebenwirkungen erzählen, als Geschichte von Folgen, die ihre Entwickler nicht auf dem Plan hatten. Algorithmen kümmern sich zwangsweise nur um winzige Ausschnitte der Welt. Für sie existiert nur, wofür Daten aus der Umwelt oder dem Netz zur Verfügung gestellt werden und / oder was in den Routinen der Software implizit realisiert ist. Auch Labore implementieren Perspektiven. Das Netzwerk aus Apparaturen, Abläufen, dem Wissen der Mitarbeiter, den Aufträgen der Kunden usw. in einem medizinischen Labor realisiert ein eigenes Bedeutungsgeflecht, das dem außenstehenden Laien geheimnisvoll vorkommen muss. Und auch die komplexen Vorhersagemodelle für die Entwicklung von Corona-Infektionen, die uns derzeit täglich begleiten, sind Analysen aus bestimmten Blickwinkeln. Betrachtungen des Corona-Geschehens aus anderen Perspektiven führen zu anderen Bewertungen. Deshalb sehen wir derzeit für die gleiche Ausgangssituation vollkommen unterschiedliche Handlungsvorschläge, je nachdem, ob sie von Virologen, Wirtschaftsexperten, Pädagogen oder Soziologen stammen. Perspektiven manifestieren sich, so gesehen, immer auch in Berufen.
Was kann das für den »Nicht-Beruf« des Künstlers und die künstlerische Forschung bedeuten? Künstlerische Forschung, wie die Kunst generell, ist nicht einer Perspektive verpflichtet, sie kann das Spiel der Perspektiven und den Umgang mit Wissen und deren Entstehungsprozesse offenhalten und mit ihren Mitteln thematisieren und in Frage stellen. Zweifellos wird das andere Ergebnisse zeitigen, als sie Wissenschaft und Technik vorlegen. Beispielsweise können Artefakte, Störungen und Nebenwirkungen, also das, was Ingenieur und Wissenschaftler als unerwünscht betrachten und zu verhindern suchen, in einem künstlerischen Prozess zum leitenden Prinzip erhoben werden. Alle menschlichen Praxen und alle Bereiche des gesellschaftlichen Handelns, damit auch Technik und Wissenschaft, enthalten offene, noch ungenutzte Handlungsmöglichkeiten und damit ästhetisches Potential. Das Potential dieser Leerstellen lässt sich durch Hinterfragung, Dekonstruktion und Erweiterung etablierter Herangehensweisen offenlegen.