Martina Hammel, Birgit Heinz-Fischer: Gen-, Reproduktions- und Informationstechnologie: Verknüpfung von Herrschaftstechnologien (1989)

Gen- und Reproduktionstechnologien dienen der Nach-, Um- oder Neukonstruktion von “Natur”.

Informationstechnologie versucht, “Intelligenz”, bzw. das, was gesellschaftlich und kulturell als intelligent definiert wird, von der Emotionalität und dem “Ballast des Menschen” zu befreien, um so eine reine, beherrschbare Intelligenz in Form von Maschinen zu konstruieren oder mindestens, mit Hilfe von Maschinen, zu simulieren.

Die Grundlagen für Technologien liefert die “wertfreie” Wissenschaft, die in ihren Forschungsansätzen, den Methoden und der Forschungsorganisation die bestehenden Herrschaftsverhältnisse widerspiegelt. Kontrolle und Berechenbarkeit sind sowohl Faktoren der Herrschaftssicherung in dieser Gesellschaft als auch Kennzeichen des wissenschaftlichen Umgangs mit “Natur”.

“Teile …”

Eine wichtige wissenschaftliche Methode ist das Zerlegen von Problemen, um sie dadurch besser unter Kontrolle zu bringen. Einzelne Faktoren werden zu einem neuen, vereinfachten “Ganzen” zusammengesetzt: dem Modell. Durch die subjektive Auswahl der Faktoren wird in das entworfene Modell der persönliche Erfahrungs- und Wissenshorizont mitsamt der gesellschaftlichen Sichtweisen übernommen (vgl. Jansen; vgl. Fox Keller). Die so ermittelten Modelle werden mit “objektiver Wahrheit” oder “Wissen” gleichgesetzt.

Der Schleier von Objektivität, der auch die wissenschaftlichen Ergebnisse umhüllt, wird durch verschiedene Mittel, v.a. Statistik und Rechner (Computer) gewebt. Bevorzugt werden nun in der Biologie Forschungsansätze entwickelt, die ohne Computer überhaupt nicht durchführbar wären. Für Fortgeschrittene der Computertechnologie werden aber auch die so gewonnenen Ergebnisse der Biologie interessant.

Ein Beispiel für einen biologischen Ansatz, der die Informatik als Hilfswissenschaft braucht, ist das Vorhaben, die menschliche Erbinformation (Genom) vollständig zu entschlüsseln. Das menschliche Genom besteht aus etwa 3 Milliarden Basenpaaren, darin sollen etwa 50.000 bis 100.000 Gene enthalten sein. Bei dem v. a. in den USA betriebenen “Human Genome”-Projekt geht es v. a. darum, die Aufeinanderfolge (Sequenz) der Basen zu bestimmen, also eine endlose Aneinanderreihung der vier Einzelbausteine (CGATTGTACCG…). Das europäische Projekt “Prädiktive Medizin” soll sich mehr auf die Lagebeschreibung von Genen konzentrieren.

Für diese Vorhaben werden zunächst Methoden benötigt, diese endlosen Aufeinanderfolgen zu bestimmen. Während es 1970 noch ein Jahr dauerte, bis eine Person etwa 100 Basenpaare entschlüsselt hatte, bewältigen Sequenzierautomaten inzwischen bis zu 10.000 Basenpaare/Tag. Auf der Jagd nach dem Geschäft mit den schnellsten Sequenzierautomaten spielen hauptsächlich die USA und Japan eine Rolle; drei Geräte sind in den USA kommerziell erhältlich (vgl. Bio/Technology, S. 1095). In der BRD wird am Europäischen Molekularbiologischen Laboratorium (EMBL) in Heidelberg an der Entwicklung eines Laser-Systems zum Ablesen der DNA-Sequenzen gearbeitet.

Durch diese Automaten werden immer größere Datenmengen erzeugt und aufgetürmt, deren effektive Verwaltung und Auswertung jetzt schon der Sammelgeschwindigkeit hinterherhinkt (vgl. DeLisi). Die Sequenzen werden in Datenbanken gespeichert, in denen Ergebnisse verschiedener Labore gesammelt und koordiniert werden: GenBank am Los Alamos National Laboratory, eine am EMBL und die japanische DNA-Datenbank.

Der Vergleich und die Interpretation derartiger Daten, die aus nur vier verschiedenen Basen bestehen, ist “von Hand” nicht durchführbar. Allein die einfache Aufgabe, eine bestimmte 100 Basen lange Sequenz auf einem 50seitigen Computerausdruck von Basenfrequenzen wiederzufinden, dürfte für einen Nervenzusammenbruch reichen.

Aber auch heute existierende Datenbanktechniken und die Speicherkapazität und Geschwindigkeit selbst von Crazy-Supercomputern werden bald den anfallenden Datenmengen nicht mehr genügen. In Los Alamos wird an geeigneten neuen Datenbanktechniken gearbeitet, während am Argonne National Laboratory (Illinois) die Eignung von Parallelrechnern für das Genomprojekt geprüft wird.

An diesen Vorhaben zeigt sich die Verbindung von Methoden, Ergebnissen und Herrschaftsstrukturen besonders deutlich. Die Bedeutung der als “heiliger Gral der Biologie” gepriesenen Genomentschlüsselung wird u. a. darin gesehen, daß sie “Zugang zu der eigentlichen Basis des Homo sapiens verspricht” (Science, S. 602).

Menschen und natürlich auch alle anderen Lebewesen wären demnach in Aufbau und Eigenschaften genetisch festgelegt, im Kern also duch eine Abfolge von Basen als “genetischer Code”, als internes Programm bestimmt. Dieses Modell des “programmgesteuerten Ablaufs” von Leben entspricht auffällig dem der Maschine (dem programmgesteuerten Computer), die diese Daten erzeugt und verarbeitet.

Aus der Vielzahl der Wahrnehmungsmöglichkeiten von “Leben” wurden solche Aspekte ausgesucht und weitererforscht, die sich für elektronische Datenverarbeitung eignen. Anonyme Datensammlungen können durch ihre “Objektivität” und emotionale Distanz zu lebenden Individuen hervorragend als bürokratisches Selektions- und Herrschaftsinstrument verwendet werden. So wird in das Modell des Menschen als Gen-Maschine immer mehr hineingepackt. Es gibt den festen Glauben, daß letztlich irgendwann für alles – Sozialverhalten, Alkoholismus, Anfälligkeiten, Begabungen – Gene bzw. genetische Dispositionen gefunden werden.

Die Kenntnis dieser “Programme” ist nur im Zusammenhang mit eugenischen Wertungen von Interesse. Bei Menschen wird z.B. beim ArbeiterInnenscreening, der vorgeburtlichen Diagnostik und künftig bei der Prä-Implantations-Diagnostik nach erwünschten/verwertbaren und unerwünschten Eigenschaften/Genen (aus-)sortiert.

Neu-Konstruktion

Von der Verbindung mit der Informatik erhoffen sich die Gen-Ingenieure die Möglichkeit, nach der Reduktion von Leben auf Gen-Maschinen dies nachzubauen. Expertensysteme, d.h. Computerprogramme, die die Arbeit eines Experten simulieren sollen, und Simulationsprogramme sollen von der Syntheseplanung im Labor bis zum “computergestützten Molekülentwurf” Forschungs- und Entwicklungsarbeit beschleunigen. Wenn Veränderungen in Molekülen und ihre Auswirkungen auf räumlichen Aufbau und Funktion im Rechner (“in video”) simuliert werden, kann das Austesten der Eigenschaften neuer Substanzen, ein im Labor zeitaufwendiges Versuch-und-Irrtum-Verfahren, effektiviert werden.

Auf diese Art werden auch Eiweißstoffe “maßgeschneidert” (Protein Design), z.B. neue Insuline durch die dänische Firma Novo. Solche “natürlich” nicht vorkommenden “Kunst”-Stoffe können dann über die Herstellung der entsprechenden künstlichen Gene und ihre Einschleusung in geeignete Organismen produziert werden.

Bei den bisherigen gentechnischen Methoden wurde vorhandenes “Gen-Material” neu kombiniert, während jetzt die Neu-Konstruktion angestrebt wird. Somit wird dieses auf “Gen-Material” reduzierte “Leben” nicht mal mehr als “Informationsträger” gebraucht.

Der uralte patriarchale (Alp-)Traum vom Leben-Schaffen, der sich sonst am klarsten in der Reproduktionstechnologie ausdrückt, rückt näher. Und während die Biologie Leben immer mehr als biologischen Computer betrachtet, arbeitet die Informatik am Leben-Schaffen durch Gehirn-Nachbau. Denn: “Was wir an geistigen Funktionen beobachten, ist Aufnahme, Verarbeitung und Abgabe von Informationen. Auf keinen Fall scheint es erwiesen oder auch nur wahrscheinlich zu sein, daß zur Erklärung geistiger Funktionen Voraussetzungen gemacht werden müssen, die über die Physik hinausgehen.” (Steinbuch, S. 2)

Vom Hirn …

Selbst wenn schon lange, noch vor Entstehung des Begriffs Informatik, die philosophischen Überlegungen zur Nachbildung von sog. Intelligenz breiten Raum eingenommen haben, schien die Verwirklichung nie so nah wie heute. Thesen wie die o.g. sind Grundlagen für die immer weiter verbreitete Auffassung, “geistige Funktionen” seien rein physikalische oder chemische Vorgänge. Dabei hat sich v. a. die “Künstliche Intelligenz” (KI), eine der Forschungsrichtungen der Informatik, die “Erschaffung” maschineller Intelligenz ausdrücklich zum Ziel gesetzt. Einige ihrer Arbeitsgebiete sind “Lernfähige Systeme”, “Verstehen der natürlichen Sprache” und Bild(wieder)erkennung.

Bei diesen Zielen wurden mit den bisherigen Methoden nicht die erwünschten Erfolge erreicht. In letzter Zeit begeistert der modellhafte Nachbau des Gehirns viele WissenschaftlerInnen.

Für die Fundamente dieses “neuen Wissensgebietes” werden Anleihen aus den Bereichen Biologie, Medizin, Psychologie, Informatik und Kybernetik gemacht. Von entscheidendem Einfluß ist wohl die Kybernetik, die in den 50er / 60er Jahren entwickelt wurde. Die Kybernetik suchte (und erfand) allgemeine Prinzipien der Informationsverarbeitung in natürlichen und künstlichen Systemen, z.B. die funktionale Beschreibung des Gehirns.

… zum Computer

Seit einiger Zeit sind die Fachzeitschriften wieder voll von “Neuronalen Netzen”, “Neuroinformatik” und “Konnektionismus” (Verknüpfung von Zellen), die alle in Richtung Nachahmung durch Nachbau des Gehirns weisen. Die Begriffe meinen letztlich dasselbe; weil sich verschiedene Forschungsgebiete mit dem Thema beschäftigen und der Boom erst kürzlich wieder eingesetzt hat, gibt es noch keine Einigung auf einen Begriff.

Der “Konnektionismus” ist also ein neuer Forschungsschwerpunkt, an dem InformatikerInnen, MathematikerInnen, PsychologInnen und NeurophysiologInnen beteiligt sind. Seine allgemeine Zielsetzung wird mit “Modellierung von Lernprozessen”, grob gesagt “eine lernende Maschine bauen”, beschrieben. Für die Informatik sind die Ergebnisse dieser Forschungseinrichtung – zugleich Technik und Methode – eine neue Chance, um die beschriebenen “Probleme” der “Künstlichen Intelligenz” doch bewältigen zu können. Aus Forscherfeder ist zu lesen, daß die Lösbarkeit der KI-Probleme durch die Existenz des Gehirns bewiesen sei.

Hier arbeitet die Neurobiologie der Informatik zu. Sie erforscht die Arbeitsweise des Gehirns. Als “Arbeitseinheit” des Gehirns werden die Nervenzelle, das Neuron, und ihre Verknüpfungen untersucht. Informationsverarbeitung im Nervensystem wird durch Rausschneiden von Gehirnteilen bei Katzen untersucht, um beispielsweise den dadurch veränderten Orientierungssinn zu betrachten. Ein Modell des visuellen Cortex (im Gehirn für den Orientierungssinn zuständig) wird erstellt, mit Computern simuliert, und fortan werden weniger Katzen verbraucht. Welch Fortschritt!

Ohne die Zerstückelung von Gehirnen wären die Annahmen zu einem mathematischen Modell nicht möglich gewesen. Von der Nachbildung auf Maschinen versprechen sich die meisten NeurophysiologInnen schneller neue “Erkenntnisse” über die Arbeitsweise und den Aufbau des Gehirns. Akrobatisch an diesem Ansatz ist, daß von der “Fälschung” (dem Nachbau) auf das “Original” geschlossen wird, obwohl, nach eigenen Äußerungen, nicht einmal die Arbeitsweise des Modells begriffen wurde (begreifen heißt hier lediglich, einen wissenschaftlichen Erklärungsansatz liefern zu können). Gleichzeitig wird in der Informatik darauf gehofft, die Ergebnisse für den Aufbau eines neuartigen Computers verwenden zu können. Das BMFT fördert derzeit ein Verbundprojekt für einen Zeitraum von zunächst drei Jahren mit 15 Millionen DM. Die Zielsetzung wird beschrieben mit “neue Erkenntnisse und Modellvorstellungen der theoretischen Neurobiologie über die prinzipielle Arbeitsweise von Gehirnen in Verfahren der Informationsweiterverarbeitung umzusetzen” (KI, S. 50).

… und herrsche

Heute ist es technisch nicht machbar, den Verknüpfungsgrad oder die Schnelligkeit der Nervenzellen nachzuahmen, also das Gehirn als Ganzes. Die Verwertungswünsche zielen mehr darauf, sich Wissen über den Aufbau und die Struktur zu beschaffen und sich “Teilfunktionen” dienstbar zu machen, wie z.B. Orientierungssinn, Bild(wieder)erkennung oder Spracherkennung.

Wie bei der Mehrzahl der Ergebnisse, die die Informatik hervorgebracht hat, stehen Rationalisierungs-, Sicherheits- und Militärinteressen im Vordergrund. Somit als gewinnträchtiges Forschungsgebiet erkannt, werden die Millionen auch die nächsten Jahre fließen, selbst wenn hochfliegende Erfolge erst mal ausbleiben.

Die wesentlichen Fortschritte werden in den Bereichen “Lernfähige Systeme”, Bild(wieder)erkennung, Spracherkennung, Robotik und schnelle, ausfallsichere Speicher erwartet. Bild(wieder)erkennung soll u.a. eine digitale Bildauswertung von Freilandszenen (Feld, Wald, Straßen) zur Erkennung von Objekten (Fahrzeuge, Personen, Tiere, Gebäude) ermöglichen (vgl. Winkler, S. 225). Diese Anwendungen sind sowohl für Rüstung (z.B. Zielerkennung bei automat. gesteuerten Spengköpfen) als auch für Objektschutz im Bereich Innere Sicherheit von großer Tragweite. Ein Beispiel für die Möglichkeiten der Bild(wieder)erkennung: Aus einem kleinen oder unscharfen Teil eines digital gespeicherten Gesichts wird das Gesamtbild verhältnismäßig gut rekonstruiert (vgl. Kemke). Es gehört nicht viel Phantasie dazu, sich zu überlegen, was das bei der heutigen Dichte von Videoüberwachungsanlagen und dem filmischen Eifer bedeutet.

Erkennen der sogenannten natürlichen Sprache wird in ihren vielfältigen Anwendungsgebieten der Bild(wieder)erkennung um nichts nachstehen. Wenn es möglich wird, gesprochene Sprache – nach der Erfassung durch den Computer – inhaltlich auszuwerten, können ab/mitgehörte Gespräche künftig sozusagen “abgetippt” und dadurch grundlegender analysiert werden. Solche Kontrollmethoden, die durch den Hirn-Nachbau näherrücken, sind genausowenig der “plötzliche Sündenfall” der Informatik, wie die Gentechnik der der Biologie. Durch die Reduktion von Menschen auf Informationsträger (Gencode) und Informationsverarbeiter (Input/Output) soll bedrohlich lebendiges noch beherrschbarer werden. In den wissenschaftlichen Methoden drücken sich patriarchale Denk- und Machtstrukturen aus, diese wiederum fordern die Ergebnisse, die sie stützen und verfestigen.

Literatur

Bio/Technology 6/1988.

De Lisi, C. “Computers in Molecular Biology: Current Applications and Emerging Trends”, in: Science 240 (1988), S. 47 – 52.

Fox Keller, E., Liebe, Macht und Erkenntnis, Carl Hanser Verlag, 1986.

Jansen, S., “Magie und Technik”, in: Beiträge zur feministischen Theorie und Praxis 12, 1984, Verlagsbetrieb d. Vereins Sozialwissenschaftliche Forschung und Praxis für Frauen, Köln.

Kemke, C., “Der neuere Konnektionismus. Ein Überblick”, in: Informatik Spektrum KI-Zeitschrift Künstliche Intelligenz 4/1988.

Science 240 (1988).

Steinbuch, K. Automat und Mensch. Auf dem Weg zu einer kybernetischen Anthropologie, Springer, 1971.

Winkler, G., “Industrielle Anwendung der digitalen Bildanalyse”, in: Informatik Spektrum 8/1985.