Erschienen in Ausgabe: No 65 (7/2011) | Letzte Änderung: 14.02.13 |
von Walther Ch. Zimmerli
Der Felsen, an den unser Denken geschmiedet ist
Wenn es um das Verhältnis von Kolonialisierung und
Aufklärung geht, gibt im 20. Jahrhundert der bekannte Eröffnungssatz der Dialektik
der Aufklärung den Ton an: „Seit je hat Aufklärung im umfassendsten Sinn fortschreitenden
Denkens das Ziel verfolgt, von den Menschen die Furcht zu nehmen und sie als
Herren einzusetzen, aber die vollends aufgeklärte Erde strahlt im Zeichen triumphalen
Unheils.“ Hier geht es von allem Aufklärungsanfang an um Kolonialisierung, und
zwar gleichsam um eine gut gemeinte Kolonialisierung. Wir haben nämlich vergessen,
dass der Begriff „Kolonialisierung“ in seinem ursprünglichen Kontext eine ausgesprochen
positive Konnotation hatte, und zwar, bis die unbeabsichtigten unerwünschten
Nebenfolgen der Kolonialisierung bemerkt wurden.
Dieser ursprünglich positiv gemeinte Kolonialisierungsbegriff
verkehrt sich nun aber durch seinen Erfolg ins Gegenteil. Das ist die Struktur,
die insbesondere die Dekonstruktivisten in Bezug auf die wissenschaftlich oder „logozentrisch“
(Derrida) verstandene Aufklärung analysieren, und diesen Befund gilt es weiter
zu differenzieren. Wir erleben, so behaupte ich, heute insofern eine zweite Dialektik
der Aufklärung, als wir bemerken, dass alle Versuche, die erste Dialektik ihrerseits
zu überwinden, das höchst interessante Charakteristikum der Unhintergehbarkeit
aufweisen, das man als „transzendental“ bezeichnen kann. Selbst der vehemente
Protest von Derrida gegen logozentrische Rekonstruktionen wird seinerseits
logozentrisch. Man kann immer wieder beobachten, dass noch der entschiedenste
Versuch, konstruktivistisch oder kulturalistisch eine vor- oder außersprachliche
Kommunikation zu identifizieren, selber nur sprachlich kommunizierbar ist und
sich deswegen der Fesseln oder der Grenzen der sprachlichen Kommunizierbarkeit
nicht entschlagen kann. Rationalität - so will ich knapp und thesenhaft
formulieren - bleibt der Felsen, an den unser Denken prometheisch geschmiedet
bleibt, selbst wenn wir dieser Bindung zu entrinnen versuchen. Gewiss, man kann
immer den Ausweg in die Irrationalität wählen; das aber wäre keine Lösung, und
vor allen Dingen keine philosophische! Stattdessen gilt es, den erhobenen
Befund zunächst einmal genauer zu differenzieren. Was meinen wir denn eigentlich,
wenn wir von dieser Figur einer zweiten Selbstreflexion der ihrerseits selbst dialektisch
reflektierten Aufklärung sprechen? Wir meinen damit, dass die Prinzipien der Moderne
dadurch, dass sie kritisiert werden, nicht schwächer, sondern umgekehrt gerade
stärker werden. Die Kritik des Logozentrismus bewirkt nicht eine Abschwächung
des Logozentrismus, sondern umgekehrt dessen Intensivierung. Je massiver die
Kritik ist, der er unterzogen wird, desto heller lodert er auf. Ob es sich
dabei um ein Strohfeuer oder um eine nachhaltige Renaissance der Vernunft
handelt, sei allerdings vorläufig dahingestellt.
Jedenfalls gilt fraglos: Wir sind weit davon entfernt, die
Moderne ad acta gelegt zu haben, und das Aufklärungskonzept hat durch die mit der
reflexiven Wendung einhergehenden Globalisierung de facto sogar eine Ausweitung
erfahren. Das gilt auch auf dem Hintergrund einer stärker fundamentalistisch
gefärbten, sich säkular oder missionarisch gerierenden Religionslandschaft.
Selbst hier zeigt sich, dass die Globalisierung technologisch greift. Kurz und
paradox: Es gäbe keine AL Kaida, wenn es kein Internet gäbe, jedenfalls keine
erfolgreiche AL Kaida. Noch der Versuch, der Moderne zu entrinnen, funktioniert
nur auf der Grundlage der technologischen Erfolge der westlichen Modernisierung.
Noch die Suche nach einer Loslösung von der wissenschaftlichen Rationalität der
Moderne ist selbst wissenschaftlich.
Die virtualisierte
Technologie und die Kreativität des Denkens
Wo finden, so kann man fragen, denn eigentlich die
bahnbrechenden Entwicklungen in den Wissenschaften, etwa in der Molekularbiologie,
heute statt? Wo geschieht die Sequenzierung und Dekodierung der Genome von
Lebewesen? Rein lebensweltlich und ohne Kenntnis des Wissenschaftssystems
würden wir vermuten, dass das in Reagenzglas und Petrischale, jedenfalls aber
in irgendeinem Kontext, der etwas mit Chemie oder Biowissenschaften zu tun hat,
geschieht. Die Antwort ist aber: Nein, all das ereignet sich zum überwiegenden
Teil auf dem Rechner, und das ginge auch aufgrund der erforderlichen Datenmenge
und Kombinatorik gar nicht anders. Das heißt, die Weltrevolution der
Molekularbiologie, die mit der Identifikation der Doppelhelixstruktur der DNA
durch Watson und Crick begann, ist unterdessen längst eine nach Standardverfahren
der Informationstechnologie millionenfach reproduzierte Weitrevolution.
Mit anderen Worten: Hier wird das Experiment und die damit
zusammenhängende Idee einer empirischen Bewährung wissenschaftlicher Hypothesen
z. T. virtualisiert und durch Produkte der virtualisierenden Technologie selbst
übernommen, die auf diese Weise ihrerseits selbst als Beweise gelten. Kurz und
pointiert formuliert: Die Lauffähigkeit eines Computerprogramms gilt gleichsam
als der Beweis, den wir suchen, wenn wir nach empirischen Beweisen fragen. Man
kann auch anders formulieren: Der Logozentrismus hat sich hinter dem Rücken der
handelnden Akteure aufgrund der durch ihn entwickelten Modellierungs- und
Simulationstechnologien als siegreich erwiesen. Das aber ist die Ablösung des
platonischen Modells, das wir bis dahin von den Wissenschaften hatten und dem
zufolge Theorien gleichermaßen als Kopfgeburten modelliert werden, die dann
irgendwo in der Welt der Phänomene ihre lebensweltlich umsetzbare praktikable
Bestätigung oder ihre Widerlegung finden.
Informationstechnologie als Fähigkeit des Umgangs mit
Computern hat heute den Status einer Kulturtechnik erreicht. Alphabetisierung
heißt aber nicht nur Computerfähigkeit, sondern Fähigkeit des Umgangs mit dem
Netz, weswegen heute auch zu Recht von „Net Literacy“ die Rede ist. Neben der
mündlichen Kommunikation und dem Rechnen sowie der verschriftlichten Form von
Kommunikation und Rechnen als den Kulturtechniken, die unsere kulturelle
Dynamik im engeren Sinne in Gang gesetzt haben, sind wir unterdessen in den
Zustand der Entwicklung einer vierten Kulturtechnik eingetreten, die ebenso wie
die Schrift und die mündliche Kommunikation auch das Rechnen überformt und in
eine neue Leistungsdimension katapultiert hat bei Lichte besehen haben wir mit
der Kulturtechnik der „Net Literacy“ etwas Fantastisches geschaffen, nämlich
die Möglichkeit, die Routinen unserer Denkprozesse von Maschinen abarbeiten zu
lassen, wodurch dann im Mensch-Maschine-Tandem eigentlich ein gewaltiges
Kreativitätspotential freigesetzt werden müsste. Denn wir Menschen haben in
dieser Kombination ja nun Zeit, da wir nicht mehr wie früher in 7 Durchschlägen
radieren und dauernd in Bibliotheken auf die Fernleihen warten müssen, weil wir
eben buchstäblich nun „the knowledge of the world at our fingertips“ haben. Das
würde uns Menschen eigentlich ungemein viel Zeit geben, das zu tun, was wir
besser können als Maschinen, nämlich eben gerade nicht die fehlerfreie
Abarbeitung von Programmen, sondern die Entwicklung kreativer Ideen. Fakt ist
allerdings, dass es sich nicht so verhält. Die Summe der menschlichen Kreativität
scheint irgendwie konstant zu bleiben, gleichgültig, wie viel man sich bei
seiner Arbeit von Maschinen abnehmen lässt - das allerdings ist keine empirisch
gestützte These, sondern eine intuitive Behauptung.
Was aber ist es, was die Kreativität des menschlichen
Denkens ausmacht? Es ist das, was ich gerne das „ungenaue Denken“ nenne. Wir
haben uns ja in der Philosophie angewöhnt, Argumente im akademischen Diskurs
nicht so sehr daraufhin zu gewichten und zu prüfen, ob sie plausibel oder wirkungsvoll
oder gar erfolgreich sind, sondern danach, ob sie den Regeln einer aus vielen
tausend Jahren Argumentationspraxis erst abstrahierten formalen Logik, also der
analytischen Transformierbarkeit, entsprechen. Das allerdings hat zur Folge,
dass wir, sobald wir diese Argumente außerhalb des philosophischen Seminars,
also lebensweltlich, verwenden, immer wieder hören: Das mag ja sein; aber es
ist völlig uninteressant, ob es logisch konsistent ist oder nicht. Was sollte
eigentlich lebensweltlich problematisch an logischer Inkonsistenz sein?
Logische Konsistenz ist - und das ist ein Gedanke der von Friedrich Nietzsche
und dem Pragmatismus stark gemacht worden ist - eine eher moralische Forderung
der Zuverlässigkeit, und diese hat der Kolonialisierung durch logische Quertechnologie
gleichsam den Weg gebahnt: Alles, was logisch konsistent sein muss, können wir
über unsere Rechnerprogramme prüfen lassen, dazu bedarf es eigentlich nicht der
menschlichen Intelligenz. Was hingegen interessant ist, sind die zündenden
Ideen, die innovativ sind, weil sie nicht der Aufarbeitung logischer
Folgungsmengen entspringen.
Hierhin gehört zum Beispiel die ungeheure Bedeutsamkeit von
Metaphern. Auch hier wiederum muss allerdings eingewandt werden, dass wir den
Gebrauch von Metaphern und damit die Schulung von Metaphernfähigkeit eher
verteufeln als befördern. Damit minimieren wir aber systematisch die Chance,
den semantischen Reichtum unserer Zeichensysteme auszuschöpfen. Neben Metaphern
sind es Analogieschlüsse, die durch unsere formale Logik eher unterdrückt als
gefördert werden; das Mittelalter wusste es besser und hat die Analogien, nicht
zuletzt auch aus theologischen Motiven, systematisch untersucht.
Kurz: Wir hätten eigentlich die Chance, all dieses kreative
Potential weiter zu entwickeln, aber wir tun es nicht, oder jedenfalls nicht in
dem Maße, in dem wir es tun könnten. Dabei sollten wir es schon aus einfachen
informationstheoretischen Gründen stärker versuchen. Denn: „Net Literacy“ heißt
eben auch zu verstehen, dass weder Computer noch Netze allein Informationen
prozessieren, sie prozessieren nur Daten, und diese werden, wie der Name schon
sagt („Datum“ = Gegebenes) gegeben; Informationen entstehen dagegen erst bei
dem, dem gegeben wird oder der gibt, also bei der Input- oder Outputoberfläche.
Damit es in einem Rechner überhaupt zu Informationen kommt, muss dasselbe
gegeben sein wie zwischen einem Buch und einem Leser oder zwischen einem
Sprecher und einem Hörer. Von Lichtenberg stammt bekanntlich die schöne Formulierung,
dass, wenn ein Buch und ein Kopf zusammenstoßen und es hohl klingt, es nicht
unbedingt am Buch zu liegen braucht. Dasselbe gilt - mutatis mutandis - für
Nutzer und Rechner oder für Nutzer und Netz. Die Vorstellung, dass die
Technologie irgendwo in der Welt sozusagen nutzerunabhängig automatisierte
Information generieren und überbringen könnte, ist falsch, und die Fehlerhaftigkeit
dieser Annahme eröffnet eine Chance, nämlich diejenige, die Fähigkeit unseres
plastischen Denkens, das nicht auf die formalen Transformationen analytischer
Art reduziert ist, ins Spiel zu bringen. Das ist die Moral von der Geschichte
der Kolonialisierung der Wissenschaft durch die Net Literacy-Quertechnologie.
Die Kolonialisierung der Lebensweit
Mit dem Gedanken, dass wir mit der Lebenswelt eine
sozusagen systemunabhängige Größe vor uns hätten, liegen wir insofern zugleich
richtig und falsch, als er zwar zutrifft, aber sich historisch in jeder
Situation neu formieren muss. Auch die dem Gedankengang zu Grunde liegende
Diagnose von Jürgen Habermas, „die Lebenswelt“ sei durch „das System“ kolonialisiert
worden, erweist sich, so betrachtet, als zugleich zutreffend und irreführend.
Im Grundsatz trifft zu, dass System und Lebenswelt in Konkurrenz zueinander
stehen, aber wenn wir heute fragen, wie denn die derzeitige Lebenswelt
systemisch überformt ist, dann kommen wir nicht umhin, den Aspekt, den ich
gerade angesprochen habe, näher anzuschauen: dass und wie sich nämlich die
heutige Lebenswelt, die sich nicht transzendieren lässt, selber schon
gleichsam imprägniert erweist durch das, was man in einer analytischen Vorstufe
„System“ nennen könnte.
Seit zwei Jahrzehnten lässt sich so etwas wie eine
Hochkonjunktur des Denkens nicht mehr in Informations-, sondern in Netzwerkbegriffen
konstatieren. Gewiss, das scheint zunächst einmal nur Rhetorik zu sein, aber
diese Rhetorik hat einen interessanten Hintergrund, den man theoriehistorisch
aufrollen kann. Wenn man sich fragt, wie denn diese Netzwerkmodellierung in
unser lebensweltliches Weltverständnis kommt, sieht man folgendes: Im
10-Jahres-Abstand lassen sich neue Eroberungsfelder der Netzwerkmetapher in
Bezug auf wissenschaftliche Disziplinen beobachten. In den 60er Jahren kommt
der Begriff des semantischen Netzwerks als Rekonstruktion von
Erinnerungsleistungen über Netzwerkmodellierungen auf. In den 70er Jahren wird
das auf soziale Kontexte übertragen: Netzwerke sind Träger derjenigen
kommunikativen Strukturen, die sich vorher schwer identifizieren ließen und die
nun „soziale“ und „ökonomische Netzwerke“ heißen. In den 80er Jahren zieht die
Metapher in die Debatte um die Künstliche Intelligenz ein: An die Stelle der
klassischen „starken“ KI-These der symbolischen Repräsentation treten nun
plastische Modelle der neuronalen Netze; ich brauche nicht daran zu erinnern,
dass dazu auch neurobiologische und neurophysiologische Inputs erforderlich
waren. In den 90er Jahren schließlich finden wir die Übertragung der
Netzwerkmetapher im Zusammenhang der Globalisierung auf ganze Gesellschaften.
Aber erst seit den 90er Jahren hat diese in der
wissenschaftlichen Diskussion zu konstatierende Konjunktur der
Netzwerkmetapher ihren faktischen Siegszug in der Lebenswelt begonnen, und die
Begründung dafür ist die technologische Realität des World Wide Webs (WWW):
Erst durch die Existenz eines weltweit realen und in der geschilderten Bedeutung
der Quertechnologie sich überall durchsetzenden Netzes kann die Netzwerkmetapher
ihre lebensweltliche Plausibilität gewinnen. Natürlich beginnt das - „polemos
pater panton“, wie Heraklit sagt - im militärischen Sektor: das ARPANET ist
das erste, gleichsam geheime Internet, bei dem die Großrechner von
Universitäten in den USA miteinander verknüpft wurden. Dabei handelte es sich
um ein Experiment des Pentagon, das dazu dienen sollte, das US-amerikanische
militärische Informationsübertragungsnetz durch Dezentralisierung der Gefahr
einer Ausschaltung durch einen atomaren Erstschlag der Sowjets zu entziehen.
Dies ist sozusagen die geheime Form des real existierenden Netzes;
lebensweltlich bedeutsam aber wird dieses erst seit den 90er Jahren. Die
Virtualisierung unserer Welt als Lebenswelt beruht in der Tat auf einer ganz
gewaltigen, einer revolutionären Durchsetzung der Informationstechnologie als
Quertechnologie. Schon Karl Marx hat im berühmten Kapitel 16 des ersten Bandes
des Kapitals festgehalten, dass es die Technik selbst ist, die revolutionär
wirkt. Das lässt sich auch an der Virtualisierung unserer Welt zeigen. Und
erneut eröffnet sich hier eine andere Möglichkeit: Wenn, was ja unterdessen
faktisch bereits der Fall ist, das World Wide Web noch intensiver mit
individuellen Informations- und Kommunikationstechniken, etwa den Handys,
gekoppelt wird, zeigt sich, dass hier noch einmal ein gewaltiger Schub wartet,
weil die einzige Technologie, die sich lebensweltlich noch schneller als die
Vernetzung von Rechnern durchgesetzt hat, die Verwendung von Handys ist.
Fraglos wird sich hier eine weitere Bewährung des Moore'schen
Verdopplungsgesetzes finden, die unsere Lebenswelt von den Füßen auf den Kopf
stellen wird, um ein Marxsches Diktum zu variieren.
Natur als Kulturprodukt
Dadurch ist ein weiterer Bereich der Kolonialisierung
erreicht. Dass die Technologie die Wissenschaft kolonialisiert hat, ist im
Zusammenhang mit der Natur besonders deutlich im Bereich der Molekularbiologie
und Gentechnologie zu sehen. Hier wird deutlich, dass die Natur Kulturprodukt
wird. Unabhängig davon war Natur allerdings immer schon - und das wird
gegenwärtig immer deutlicher - selbst Kulturprodukt. Das lässt sich durch
empirische, erfahrungsgesättigte Befunde phänomenologisch unterlegen. Es lässt
sich zeigen, dass (und warum) jeder Versuch von Menschen, unberührte Natur zu
finden, - eine Absicht, die die Menschen in einer technologischen Zivilisation
umtreibt - misslingen muss. Gesetzt den Fall, man hätte irgendeine Art von
Naturreservat identifiziert, in dem einige Ureinwohner noch zivilisationsunberührt
leben, müsste man trotzdem desillusioniert sagen, dass man es technologieunabhängig
weder identifizieren noch erreichen könnte. Das lässt sich an einem anderen
Beispiel klar machen: Man möge nur an die ungeheuren Schwierigkeiten denken,
die Kamerateams haben, technologiefreie Situationen zu filmen, wenn man
vortechnologische Zivilisation darstellen will, und es gibt kaum eine
Möglichkeit, dies anachronismusfrei zu realisieren. Kurz: Es gibt keine Natur.
Wer das bezweifelt, soll nur einmal versuchen, alle domestizierten Nutztiere
freizulassen, um festzustellen, was passiert, wenn diese gezüchtete Form der
Natur in der Natur überleben müsste. Sie würden alle in Kürze tot sein, weil
sie für dieses Leben in einer nicht technologisch überformten Natur untauglich
sind.
Natur ist eben ein Kulturprodukt, das wissen wir längst, und
die Frage ist nicht, wie wir die Natur retten können, sondern wie wir die
natürliche Umwelt so konstruieren können, dass sie dabei nicht völlig zerstört
wird. Das ist der Ansatzpunkt für einen nachhaltigen Umgang mit Natur. Es gibt
niemanden, der freiwillig zugeben würde, dass er nicht für ökologische, für
nachhaltige Formen des Umgangs mit Natur einträte, aber die Wenigsten
überlegen sich dabei, was das eigentlich bedeutet Denn es bedeutet eben nicht
Rettung oder auch nur Wiederherstellung, sondern Herstellung von Natur. Wie
bauen wir eine nachhaltige Natur? muss die Frage lauten und nicht: Wie kommen
wir zurück zur Natur? Es gilt hier sozusagen ein Unum- kehrbarkeitsprinzip der
zivilisatorischen Thermodynamik: Eine Umkehr der technologischen Entwicklung
ist unmöglich. Das zeigt ein einfaches Gedankenexperiment: Jeder Versuch, die technologische
Zivilisation in Richtung auf einen wie auch immer gearteten Naturzustand zu
verlassen, macht seinerseits mehr Technologie erforderlich. Allen Propheten
asketischer Moral zum Trotz gibt es keine Möglichkeit, das durch Entsagung zu
bewerkstelligen.
Dazu kommt ein weiterer Punkt, der mit einer Hybridisierung
der Kolonialisierungs- bereiche zusammenhängt: Das, was wir heute konstruktiv
als Natur verstehen, ist nicht nur im Sinne der Technik der Veränderung von
Organismen, sondern auch im Sinne der Technik des Informationstransports technologisch
gekoppelt In dem Maße, in dem man bemerkt, dass Lebensprozesse Informationsübertragungsprozesse
sind, geschieht nämlich plötzlich eine Art inverser Domestizierung oder
besser: Kolonialisierung der wissenschaftlich strukturierten Natur durch Hermeneutik.
Hans-Georg Gadamer hatte in seiner Rezeption der Thesen von Thomas S. Kuhn
darauf bereits hingewiesen: Wir reden wie selbstverständlich - und meinen es
nicht nur metaphorisch - vom „Buch der Natur“. Heute allerdings sind wir etwas
bescheidener geworden, wir reden von Textstücken oder noch genauen von
Buchstaben der Natur. Aus vier Buchstaben können wir das Alphabet der Natur
zusammensetzen, und der Kontext, in dem dies alles erst Bedeutung annimmt,
ist die Ebene der Expression von Genen, also die Ebene der Phänomene der lebensweltlich
sichtbaren Effekte. Wenn wir etwa an die Debatte um gentechnisch veränderte
Nutzpflanzen denken, stellen wir fest, dass das atomistische
Informationsübertragungsmodell scheitert Es verhält sich eben nicht so, dass
die Informationen kontextfrei übertragen würden, sondern auch die gentechnische Veränderung von Organismen ergibt erst im Kontext ihren Sinn.
Außerdem überleben diese Veränderungen in der Regel nicht mehr ab drei oder
vier Generationen. Mit anderen Worten: Der Kontext des Gesamtsystems muss
berücksichtigt werden. Man kann sich vorstellen, dass sich das so ähnlich
verhält wie beim Lesen eines Buches. Auch hier ergibt das einzelne Element
erst Sinn im Kontext des Ganzen, der seinerseits sich erst aus dem Sinn des
Einzelnen erschließt. Und dieser „hermeneutische Zirkel“ erstreckt sich
wiederum weiter auf den Kontext der geistesgeschichtlichen und realgeschichtlichen Entstehung sowie der Rezeptionsgeschichte.
Hier öffnet sich das riesige „Buch der Natur“, das nach
dem Muster der Informationstheorie und Informationstechnologie verstanden
wird: das „Buch der Natur“ lesen wir auf dem Rechner, und auf dem Rechner wird
die Bedeutung des einzelnen Elements in seinen Kontext gerückt. Wir sprechen
deswegen zu Recht auch heute, ähnlich wie in der Chemie, von einer „synthetischen
Biologie“, also von der Herstellung von Organismen und der Herstellung von
Naturprodukten und damit von einer Einlösung des Vico- Axioms. Nach Vico kann
man nur das, was man selber gemacht hat, richtig verstehen, nur das ist
eigentlich richtige Wissenschaft. Damit hatte er sich gegen die gesamte epistemologische Tradition gestellt und wurde so zum Ahnvater der Selbstlegitimation
der modernen Geisteswissenschaften. Aber dieses Vico-Axiom erhält wenn man es
gleichsam selbstreferenziell in dem hier entwickelten Kontext liest, eine
ganz andere Bedeutung, nämlich: Die Herstellbarkeit von etwas ist das
Wahrheitskriterium der Theorie über etwas. In Bezug auf die Technik wussten wir
allerdings bereits, dass „verum ipsum factum“ zuweilen historisch gesehen auch
in der umgekehrten Reihenfolge auftaucht: Die Technikgeschichte ist eine
Erfolgsgeschichte von gelingendem instrumentellem Handeln, das erst
nachträglich wissenschaftlich erklärt werden kann; im 19. Jahrhundert mit der
dann einsetzenden Tendenz, Wissenschaft, wie es im Sozialismus hieß, als „Produktivkraft“
einzusetzen, fängt es an, sich zu wenden. Erst von da an entsteht
wissenschaftlich geleitete Technik.
Das Resultat ist, wie bereits angedeutet, synthetische
Biologie, und diese fällt interessanterweise nicht schon als solche der
Technologie- und Kolonialisierungskritik zum Opfer. Gentechnisch veränderte
Organismen etwa, so stark sie im Prinzip auch in der Kritik stehen, werden in
dem Moment anders gewertet, in dem sie zur Unterstützung von Gesundheit und
Bekämpfung von Krankheit verwendet werden. Bürgerbewegungsartige Proteste gegen
gentechnisch veränderte Organismen zur Insulinproduktion etwa sind völlig
undenkbar, es gibt gar keine Debatte darüber. Das zeigt, dass die
Kolonialisierung der Lebenswelt an dieser Stelle deutliche lebensweltliche
Argumentationsdifferenzen aufweist: Wenn es darum gehen soll, Hybriden
herzustellen, sieht die Diskussion anders aus, als wenn es darum geht, Insulin
zu produzieren, dessen Nützlichkeit für die Menschen außer Frage steht. Dann
verschwindet auch der Widerstand. Das erinnert in der Rückschau an den Verlust
der Popularität der Argumente Joseph Weizenbaums. Weizenbaum hat eine, wenn
auch nicht weltweit, so doch zumindest in Deutschland sehr wirkungsvolle
Kampagne gegen die flächendeckende Einführung von Computern lanciert und dabei
verschiedene, zum Teil interessante Argumente ins Spiel gebracht. Aber diese
ganze Debatte ist heute nur noch von historischem Interesse; ihre
lebensweltliche Bedeutung ist wie ein letzter Spuk verschwunden. Das heißt,
die Kolonialisierung der Lebenswelt durch die Informationstechnologie hat
dafür gesorgt, dass kritische Stimmen wie die von Weizenbaum zwar nicht
argumentativ widerlegt, aber einfach verstummt sind. Darin lässt sich ein
weiteres Indiz für das Zutreffen der These der sich durch Kolonialisierung
selbst verkehrenden zweiten Dialektik der Aufklärung sehen.
Die Kolonialisierung des Transzendentalen
Die Metapher, von der wir bei der Kolonialisierung des
Transzendentalen auszugehen haben, ist die vom „Schöpfer Mensch“. Dabei geht
es um die Selbstschöpfung des Menschen durch die Schöpfung der Welt. Auch
hieran lässt sich wiederum die kreative Bedeutung von Metaphern erkennen.
Gewiss, die Selbstschöpfung des Menschen ist eine übertriebene Metapher,
trotzdem ist sie aber so ganz abwegig nicht. Die Frage ist nämlich die, ob wir
hinter unsere eigenen rationalen Argumentationsmuster zurückgehen können.
Anders und in der Sprache der Evolutionstheorie formuliert: ob das
Individualapriori ein Gattungsaposteriori ist.
Zwar ist die Frage in dieser Weise falsch gestellt, weil es
selbstverständlich sein kann, dass etwas in einer Beschreibungsebene oder in
einem Beschreibungssprachstil als unhinterfragbare transzendentale
Voraussetzung verstanden werden muss, in einer anderen Beschreibungsebene und
in einem anderen Sprachstil sich aber durchaus als evolutionär oder
evolutionsbiologisch überlebenstauglich erweisen kann. Aber damit ist die
eigentlich bewegende Frage noch nicht angesprochen, nämlich die Frage, ob wir
mit den Argumenten, die uns etwa die Evolutionsbiologie freizügig liefert,
irgendetwas Hilfreiches für die Unterstützung unserer transzendentalen Argumentationsstruktur
finden können. Machen wir uns nichts vor: Die Transzendentalphilosophie, so
groß und so prägend ihre Geschichte für uns zumindest in unserem Teil der Welt
gewesen sein mag, beruht auf einer ganz einfachen logischen Figur, nämlich auf
derjenigen der notwendigen Bedingungen oder der schwachen Kausalität. Es wird
in der transzendentalen Frage nicht nach der Bedingung der Wirklichkeit oder
nach den Ursachen, sondern nach der Bedingung der Möglichkeit gefragt. Das
heißt: Ist etwas widerspruchsfrei denkbar oder nicht? Und schon die
Widerspruchsfreiheit ist in Klammem zu setzen, weil sie allein als Ausschlusskriterium
offenbar nicht ausreicht. Es geht also um die Frage: Wer sind wir eigentlich
in der 1. Person-Perspektive angesichts der in der 3. Person-Perspektive gerade
angesprochenen Befunde der Kolonialisierung der Lebenswelt durch Technologie,
die auch eine Kolonialisierung der Wissenschaft durch Technologie ist?
Die Antwort lässt sich überall finden; sie ist nicht nur
naturalistisch, sie ist sogar technologisch oder technologistisch. Wenn wir
uns ansehen, wie die Neurobiologen unsere Natur verstehen, so stellen wir
fest, dass sie erstaunlicherweise nicht nur jeweils immer den aktuellen Stand
der Wissenschaft als dasjenige, worauf die Evolution hinauslaufen muss,
ausweisen, sondern noch schlimmer: den jeweils aktuellen Stand der Technik. Bis
etwa in die 70er und 80er Jahre werden Gehirne in der Neurologie, aber dann
auch in der Neurobiologie wie selbstverständlich nach dem Vorbild von Computern
modelliert. Und seit dem Siegeszug der Netzwerkmetapher werden sie wie
selbstverständlich nach dem Modell von Netzen modelliert. Die
Aktivierungspotentiale, die auf Netzen laufen, werden wie Knoten modelliert,
und die Synapsenfunktionen werden mit denjenigen der Knoten in unserer
Kommunikations- und Informationstechnologie identifiziert. Mit anderen Worten:
Es sieht so aus, als ob dieses Apriori der Modellierung bei der Wissenschaft
seinerseits ein technologisches Aposteriori ist, so dass jeweils immer die
letzte Form der Entwicklung der technologischen Mode sich in den Modellierungen
von Natur findet Und da drängt sich natürlich die Frage auf, die zunächst noch
durchaus kontrafaktisch erscheint, aber vielleicht gar nicht mehr so lange
kontrafaktisch sein muss, es sei denn, man tue etwas dagegen, nämlich die
Frage: Wie versteht sich der Mensch als Homo sapiens, wenn er zugleich als Homo
sapiens auch ein Homo faber ist der den Homo sapiens selbst verändert? Und
damit meine ich nicht marginal, sondern essentiell verändert, das heißt durch
genetische Modifizierung als genetisches Doping. Die Frage ist: Was spricht
eigentlich dagegen außer elementaren moralischen Intuitionen?
Als der südafrikanische Chirurg Christiaan Barnard die erste
Herztransplantation vornahm, wurden analoge Argumente laut die sagten, hier
werde das Zentrum des Menschseins tangiert. Kulturhistorisch lässt sich leicht
aufklären, warum man so argumentiert hat und warum das biologischer Unfug
war, aber trotzdem war es eine sozusagen transzendentale Abwehrreaktion, die
auf natürlichen moralischen Intuitionen beruhte. Was sollte uns nun daran
hindern, eine genetische Veränderung, eine Veränderung sozusagen der inneren
natürlichen Programmierung wenn nicht unserer, so doch der nächsten
Generation vorzunehmen?
Die Antwort darauf ist relativ einfach: Daran hindert uns
nichts, außer dass wir merken, dass wir hinter uns als Subjekt auch dadurch
nicht zurückgehen können. Gewiss, wir könnten uns als Knoten im Netz
modellieren, wir könnten auch im Reagenzglas oder im Rechner uns selber
modellieren, und es gibt dazu faszinierende Texte, die allerdings mehr Fiction
als Science sind - es sei etwa auf Ga- louyes „Welt am Draht“ verwiesen, eine
wunderbare Science-Fiction-Modellierung, bei der die Menschen nichts anderes
als Teile eines großen Gesamtprogramms sind, und zwar inklusive der Meinungen
und Ansichten über ihre eigene Körperlichkeit Das alles lässt sich
kontrafaktisch modellieren, aber die Frage ist, ob dadurch das cartesianische
Modell, dieses, als was ich dabei immer in der 1. Person auftauche,
hintergehbar wird? Und die Antwort auf die erste Frage: Was können wir
eigentlich dagegen einwenden, dass wir die Menschen, dass wir uns selbst
genetisch verändern?, lautet: Wir können nur versuchen, dagegen zu sein, es
gibt aber keine Argumente; wohl gibt es plausible Warnungen wie etwa das „Wehret
den Anfängen!“ als „slippery-slope-Argument“ oder den Hinweis auf historische
Parallelen in einer etwas simpleren sozial-darwinistischen Denkweise. Aber
letztlich gibt es nur das Nein dagegen, und insofern steht am Schluss unserer
Überlegungen doch wieder, dass das Ich unhintergehbar bleibt Aber wenn wir verhindern
wollen, dass wir mit diesem Ich Dinge anstellen, die den Menschen, also die 3.
Person-Perspektive verändern, dann müssen wir ohne weitere Argumente dagegen
sein. Unhintergehbar in der Argumentation bleibt das Ich aber allemal.
>> Kommentar zu diesem Artikel schreiben. <<
Um diesen Artikel zu kommentieren, melden Sie sich bitte hier an.
Rothe 11.07.2012 20:57
"...ob wir mit den Argumenten, die uns etwa die Evolutionsbiologie freizügig liefert, irgendetwas Hilfreiches für die Unterstützung unserer transzendentalen Argumentationsstruktur finden können", würde ich mit aller gebotenen Vorsicht so beantworten: Es lassen sich bestimmte methodologische Analogien zwischen unserer genetischen Individualität und unserer persönlichen Individualität zeigen - wie unsere Handlungen zu unseren Werten verhält sich dabei unser Phänotyp zum Genotyp. Der in der Genetik gebräuchliche Begriff der "Penetranz" steht für den Sachverhalt, dass der Genotyp sich nie 1:1 im Phänotyp niederschlägt, Gene haben unterschiedliche Penetranz wie auch unsere Werte nie 1:1 in unseren Handlungen erscheinen. Die Werte spiegeln die Auseinandersetzung vieler früherer Generationen mit ihrer damaligen Umwelt wider, wie der Genotyp vom Leben aller früheren Generationen beeinflusst ist. Um Kausalverhältnisse im Verhalten grosser Gruppen handelnder Personen zu interpretieren, hat die Soziologie die Mehrebenenanalyse entwickelt (Stichwort methodologischer Individualismus), analog wurde in der genetischen Epidemiologie mit der Mendelian randomization eine Mehrebenenanalyse entwickelt.