Lukas Doil: Zukunftspolitik im Technozän. Der Technikfolgendiskurs in den 1970er Jahren
Abstract: At the end of the post-war economic boom in the late 1960s, a new paradigm of futures studies emerged in “western” nations and institutions. Following an era which saw a broad, albeit ambivalent, influx of cybernetic planning discourses and a euphoria for growth and science, undesired and unplanned consequences of scientific and economic expansion were now chiefly problematized. This article traces the discourse of Technology Assessment (TA), a political and scientific process in development to “foresee” harmful effects on environments, societies, and economies. It soon proved to be a field of action for both politicians who valued it as a means of technology control, and for experts of futurology to reappraise their methods under new auspices. TA and its scientific and insti-tutional legacy in the present relate to the ongoing debate about the Anthropocene. While TA is in its essence oriented towards a progressive and positivistic outlook on the future and knowledge thereof, the Anthropocene discourse has similar origins in futures semantics found in the 1970s. Both concepts should be historicized in regard to their scientific and political contexts.
Keywords: Technology Assessment, Zukunftsforschung, Anthropozän, Wissens- und Zukunftspolitik, Expertenkultur
1 Einleitung
Andrew Yang, einer von rund 20 Demokratischen Vorwahlkandidaten zur US-Wahl 2020, wird der Nachwelt vor allem dadurch in Erinnerung bleiben, dass er eine Art bedingungsloses Grundeinkommen für alle amerikanischen Bürger*innen versprach. Viel eher paradigmatisch für sein „post-ideologisches“ und technokratisches Politikmodell war aber eine fast randständige, von den Medien kaum beachtete Forderung, eine alte Forschungseinrichtung am Kongress wiedereinzuführen.1 Das Office of Technology Assessment hatte seit 1973 den Kongress beraten und dafür Technikfolgenstudien durchgeführt, die die zu erwartenden Auswirkungen bestimmter Technologien abschätzen sollten.2 Mitte der 1990er Jahre im Zuge der Entstaatlichungspolitik der republikanischen Mehrheit aufgelöst, müsse das Büro im Zeitalter von „automation“ und „cybersecurity“ wieder Expertise liefern, so Yang, um nicht nur den technischen Fortschritt, sondern auch die übergreifende Exekutive zu überwachen. Diese Forderung nimmt nicht nur konkret Bezug auf eine bestimmte Wissenskultur und Politikpraxis, die in der Zeit der Strukturbrüche der 1970er Jahre reüssiert hat, sondern steht auch ganz im Zeichen einer Hintergrundideologie, die im Kontext der Anthropozändebatte zwar an Plausibilität verloren, aber in gewisser Weise auch an Dringlichkeit gewonnen hat. Es geht um die Kontrolle und Steuerung der technologischen Welt und der durch sie hervorgebrachten Zukünfte.
Diesen Diskurs der Technikkontrolle und seine Brüche als Hintergrundideologie der „Zweiten Moderne“ (Ulrich Beck) im Spiegel des Anthropozäns zu betrachten, ist hilfreich, um die Kontexte zu historisieren, in denen sich wirkmächtige Institutionen der Wissens- und Zukunftspolitik sowie eine wissenschaftliche Kultur etabliert haben, die Zukunftsdiskurse bis heute informieren.3 Technikfolgen gehörten neben anderen „Reizthemen“ wie Umwelt oder Wachstumsgrenzen zu einem Diskursfeld der 1960er und 1970er Jahre, in dem sich neue Formen des Zukunftsbezugs etabliert haben, die man auch als Vorgeschichte des Anthropozändiskurses lesen kann.4 Zuletzt sind Wortneuschöpfungen wie „technosphere“ (v.a. Peter K. Haff) und „technocene“ (Alf Hornborg) in diese Debatte eingebracht worden, die – mit unterschiedlichen Stoßrichtungen – das Verhältnis von Technologie und Anthropozän problematisieren. Während Haff die Technosphäre als eine materielle Schicht der Erde auffasst, die eigenen Zwecken folgt, sich zunehmend jeder Steuerbarkeit entzieht und den Menschen ihrer Eigenlogik unterordnet, ist das Technozän für Hornborg vielmehr eine Zeitschicht in Konkurrenz zum Anthropozän, die die zentrale soziale Funktion des Technologischen (in einer breiten, aber materiellen Begriffsreichweite) im Ausgang des Holozäns unterstreicht.5 Der Technozänbegriff verweist darüber hinaus stärker auf die geschichtlichen Kontexte der Industrialisierung im 19. Jahrhundert und der „Great Acceleration“ ab den 1950er Jahren und ihre Leitsemantiken des Fortschritts, des Wachstums und der Planung und ist in diesem Sinne als historische Folie interessant.6 Die 1960er und 1970er Jahre können hierin als Transformations- und Verdichtungsphase betrachtet werden. Nicht nur lassen sich Brüche und Umordnungen dieser Semantiken beobachten, auch neue politische Projekte wurden diskutiert und institutionalisiert, die eine zukunfts- und wissenspolitische Reflexivität vorwegnahmen, die John Dryzek und Jonathan Pickering als zentrale Handlungsmaxime der „Politik des Anthropozäns“ betrachten.7 Dazu gehören dezidiert zukunftspolitische Vorhaben wie die Technikfolgenabschätzung. Im Fokus des Beitrages stehen der wissenschaftliche Diskurs und die Versuche einer politischen Institutionalisierung der frühen Technikfolgenabschätzung (Technology Assessment, TA) in den USA, der OECD und der Bundesrepublik Deutschland in den 1970er Jahren. Dabei handelt es sich um ein bisher kaum geschichtlich untersuchtes, hybrides Wissens- und Politikfeld, das als Prisma diese längere Transformationsgeschichte von Wissen, Zeitlichkeit und Politik sichtbar macht.8 Technology Assessment steht damit exemplarisch für eine bestimmte Kultur der Wissens- und Zukunftspolitik, die seit den 1970er Jahren an Bedeutung gewonnen hat.9 Es stehen weniger konkrete Technikfolgenstudien zur Disposition als eine Art Denkstil und sein historischer Ort sowie dessen wissenschaftliche und politische Etablierung, Begründungen und Tradierungen. „Wissen“ und „Zeit“ werden dabei nicht als statisch oder vor-sozial vorausgesetzt, sondern als Produkte diskursiver Praktiken untersucht.10 Wie wurden Zeitkonstruktionen in diesen Debatten eingesetzt und wie wurde die Zukunft als Objekt von Wissenschaft und Politik dabei umrissen? Der Beitrag fragt also nach der Konstruktion von vergangenen Zukünften, womit der Blick auf das „wie“ – neben dem „was“ – der Zukunft gerichtet wird. Zur Analyse werden im Anschluss an Rüdiger Graf und Benjamin Herzog vier Typen der Zukunftsgenerierung unterschieden, die als „Erhaltungszukunft“, „Erwartungszukunft“, „Gestaltungszukunft“ und „Risikozukunft“ in verschiedenen historischen Kontexten ihre Wirkungen entfaltet haben.11 Unmittelbarer Kontext sind Gesellschafts- und Zukunftsdebatten „westlicher“ Industriegesellschaften am Ende der 1960er Jahre und die Neuformierung der Zukunftsforschung angesichts politischer, wissenschaftlicher und semantischer Brüche.12 Im ersten Abschnitt wird das Projekt der Folgenabschätzung in diese Geschichte der Zukunftsdiskurse der Boom-Ära und deren Transformationen eingeordnet. Im zweiten Teil werden mit Blick auf drei Diskursorte an den Grenzen von Politik und Wissenschaft – den US-Kongress, die OECD und den Deutschen Bundestag – die Entstehung und der Transfer von Technikfolgenabschätzung als Politik- und Expertenmodell untersucht. Zeitlichkeit und Wissen stehen dabei als Objekte und Legitimationsressourcen des Politischen im Blickfeld.
2 Von der Zukunftsplanung zur Folgenabschätzung
Wachstum und technischer Fortschritt galten (und gelten) vor allem für die Zeit zwischen 1950 und 1970 als Grundüberzeugungen westlicher Gesellschaften, die in öffentlichen Debatten, in politischen Projekten oder als lebensweltliche Erfahrungen ihre Wirkung entfaltet haben. Das Narrativ der Entwicklung zu stetigem Wachstum und technischem Fortschritt war etwa in der Systemkonkurrenz des Kalten Krieges durch seine integrative Funktion hochgradig gesellschaftsstabilisierend.13 Beide Vorstellungen bezogen ihre Anziehungskraft aus einer hochmodernen Vorstellung der Erwartungszukunft, die zunehmend den Modus des Gestaltens in sich aufnahm.14 Zukunft zu gestalten, hieß ab Ende der 1950er Jahre zunehmend, Gesellschaft zu planen. Planung folgte dabei institutionellen Logiken und war – trotz zeitgenössischer Beteuerungen, man verwalte bloß rationale Sachzwecke – letztlich konfliktgeladen und dezisionistisch.15 Aufbauend auf Erfahrungen der Zwischenkriegszeit und des Weltkrieges verdichteten sich Vorstellungen der Zukunftsgestaltung nicht nur in spätkolonialen, infrastrukturellen und wohlfahrstaatlichen Entwicklungsplanungen, sondern auch in neuen Wissenschaftssprachen und -disziplinen wie der Kybernetik.16 Planung avancierte dabei nicht nur zu einer Sozialtechnik, der die Fähigkeit zur Steuerung komplexer, arbeitsteiliger Ökonomien und Gesellschaften zugeschrieben wurde, sondern damit einhergehend auch zu einer Projektionsfläche für utopische, modern-ambivalente Ordnungsvorstellungen.17 Grundiert wurden diese Visionen, neuen Praktiken und politischen Projekte durch die Entstehung informationstheoretischer Wissenschaften. Norbert Wiener, der Begründer der Kybernetik, und andere Systemtheoretiker und Organisationswissenschaftler wie Olaf Helmer oder Stafford Beer brachten hierzu Begriffe und Konzepte ein, die als Modeworte fortan Debatten mit dem Odium hochmoderner Wissenschaftlichkeit umgaben. Begriffe wie Information, Kommunikation, Selbststeuerung, System oder Regelkreis machten in der Folge eine beachtenswerte Karriere in den Wissenschaften und der Öffentlichkeit.18 Die ersten Computer, deren (noch überschaubare) Rechenleistungen zum technischen Medium des Steuerungsdenkens wurden, verliehen dem Steuerungsgedanken ihre eigene, auch durch die Technikfaszination begleitete Evidenz. Durch Rückkopplung, Informationsaustausch und Vernetzungen schienen nun selbst komplexe soziale Phänomene rational steuerbar und, was nun immer wichtiger wurde, vorhersagbar.
Die Erfahrungen und Euphorie der Gesellschaftsgestaltung machten, so Jenny Andersson, daher zunehmend die Zukunft zur „sphere of intervention“.19 Die von den USA ausgehende Zukunftsplanung war angetrieben und eingebettet in den Systemkonflikt des Kalten Krieges und dessen institutionelle und wissenschaftliche Räume. Für die finanzielle und organisatorische Expansion der „forecasting industry“ und deren Integration in die wohlfahrtsstaatliche Verwaltung und Planungseinrichtungen der Nachkriegszeit waren Institutionen der Modernisierungstheorie und „large multinational Cold War corporations“ verantwortlich.20 Teils aus diesen Infrastrukturen der Großforschung heraus, teils in schroffer Ablehnung dieser entstand ab Ende der 1950er Jahre das Feld der Zukunftsforschung.21 Die mediale Berichterstattung trug in den 1960er Jahren entschieden zur Popularisierung der Zukunftsforschung bei, beschränkte sich aber oft auf deren Fortschrittsoptimismus und unerhörte Prognosen.22 Die zumindest bei den kritischen Vertreter*innen wichtigen wachstums- und auch technikkritischen Komponenten spielten selten eine Rolle, bis sich die mediale Stimmung im Nachgang der Ölpreiskrise 1973/74 gegen die Zukunftsforschung wandte.23
Die zeitgenössische Krisenwahrnehmung im Nachgang des „Ölpreisschocks“ im Herbst 1973 wird oft als Wegscheide angeführt, die längerfristige Strukturbrüche ins Bewusstsein der Zeitgenossen rückte.24 Zudem schienen die 1972 veröffentlichen Ergebnisse des „Grenzen des Wachstums“-Berichts, der selbst ein Produkt prognostischer Weltmodelle war, mit der beginnenden Energiekrise eindeutig an Evidenz zu gewinnen. Mit der Veröffentlichung des Berichts des Club of Rome distanzierten sich viele Kommentator*innen von der Zukunftsforschung. Diese galt nun entweder in Gestalt der Vertreter*innen pessimistischer Weltmodelle als Disziplin des Katastrophismus oder umgekehrt als nun nicht mehr zeitgemäß, weil einem naiven Fortschrittsoptimismus verpflichtet. Auch diese Wahrnehmung war nicht gänzlich neu. Die Wucht der „Grenzen des Wachstums“ und der folgenden Ölkrise war durch eine nicht zu unterschätzende Zahl an pessimistischen, aber zukunftsaffinen Veröffentlichungen wie zur „Bevölkerungsexplosion“, dem „future shock“, Umweltzerstörungen oder den planetaren Grenzen vorbereitet worden. Die Krise der Zukunft hatte weder nur die „Ölkrise“ zur Ursache noch teilten breite Schichten und politische Gruppen daraus folgende Überlegungen.25 Kritische Vertreter um Robert Jungk und Ossip Flechtheim riefen etwa eine „zweite Phase“ der Futurologie aus, um „globale existenzielle Bedrohungen abzuwenden“.26 Was sich hier veränderte, war der Modus des Zukunftsbezugs und zwar vom Modus des Gestaltens der Zukunft zur Thematisierung von Risiken.27 Zu der bereits zu Beginn der 1970er Jahre kaum zu überblickenden Literatur zur Planungsthematik gesellte sich nun – neben der ohnehin vorhanden Kritik von links und rechts – eine wachsende Zahl an Veröffentlichungen, die meist unter dem Topos der „Ernüchterung“ das Scheitern großer Planungsprojekte und das Ausmaß falscher Prognosen vermaßen.28 Ältere Debatten über die Belastbarkeit politischer und wirtschaftlicher Prognosen spitzten sich in der Bundesrepublik nach 1973 deutlich zu, angetrieben von kritischen Medienberichten. Elke Seefried weist darauf hin, dass zeitgenössische Krisennarrative hierbei semantische Übergänge zu neuen Konzepten wie „Vorsorge“ verbergen. Planung verschwand zwar weitestgehend aus der politischen Sprache der Exekutive, blieb aber, in zeitlicher und sozialer Reichweite verkleinert und methodisch reflektierter, präsent.29 Die „Planungs- und Prognoseeuphorie“, so Lucian Hölscher, sei nach 1970 „etwa in der Technikfolgenabschätzung, der Katastrophenvorsorge und Präventionsforschung einer skeptischen, ja oft geradezu defensiven Bewahrungsphilosophie gewichen.“30 Im folgenden Abschnitt wird diese These in zwei Richtungen konkretisiert. Nicht nur war Technikfolgenabschätzung ein konkretes Produkt der „Planungs- und Prognoseeuphorie“, ihre Genese verlief parallel zu den Höhenpunkten dieser Euphorie und trug zu ihrer Ambivalenz bei. Auf einer Achse zwischen Zukunftsbewahrung, Zukunftsgestaltung und Risikozukunft entstanden neue Wissens- und Politikfelder. Die in der Forschung unterstrichene Bruchlinie um 1973 war, so zeigt Jenny Andersson stattdessen, daher vielmehr eine Wegmarke im take-off: Der Handlungsmodus der futurologischen Expertenberatung nahm trotz Fehlprognosen nicht ab, sondern verfestigte sich in Marktanalysen, Entwicklungsszenarien und Erwartungsmanagement, nicht zuletzt, weil mit nun diskutierten Vorstellungen von Interdependenz und Risiko neue Dringlichkeiten konstruiert wurden.31
Zukunftsforschung konnte unter neuen Vorzeichen als Folgenabschätzung fortgeführt werden.
3 „Technology Assessment“ als Zukunftspolitik in den USA, der OECD und der Bundesrepublik
Die Geschichte von Technology Assessment – zumindest die des Begriffes – beginnt in den Vereinigten Staaten der 1960er Jahre. Nicht in den Forschungseinrichtungen der Ivy League oder den Planungsbehörden der Cold War Science, sondern, und das bestimmte die Verlaufskurve dieses Konzeptes enorm, im Parlament. Der US-Kongress der 1960er Jahre war in einem Maße mit technologischen Fragen beschäftigt, das bis dahin beispiellos war. 1972 hatte sich der Etat für Wissenschaft, Forschung und Entwicklung im Vergleich zu 1952 – drei Jahre vor dem „Sputnikschock“ – auf 18 Milliarden US-Dollar versechsfacht, während im Kongress selbst kaum Wissenschaftler*innen tätig waren.32 Debatten in den 1960ern über Aufrüstungspläne oder den ständig medial präsenten Überschallflug (SST) markierten die technikpolitische Inexpertise des Parlaments als auch eine gewisse Form der politischen Hybris, als sich herausstellte, dass milliardenschwere, avisierte Projekte unrealisierbar waren, aber der Kongress bereits große Summen bereitgestellt hatte.33
In den Augen Harvey Brooks, der als eigentlicher Autor des späteren Technology Assessment Act gilt, fehlte es an einem staatlichen Mechanismus, der die negativen Folgen der technischen Entwicklung für Gesellschaft und Umwelt kontrollieren könne. Dieses „Vakuum“ werde nur teilweise durch zivilgesellschaftliche Aktivisten wie „Ralph Nader and Rachel Carson as well as by conservation organizations“ besetzt, verdiene aber höchste wissenschaftliche und politische Aufmerksamkeit.34 Zu Beginn der 1960er Jahre hatte der Harvard-Dekan Brooks zu den führenden Wissenschaftsberatern in Washington gehört. Gemeinsam mit anderen Koryphäen der Ivy-League-Universitäten und großen Forschungsinstituten war er Teil des President‘s Science Advisory Committee, das unter Eisenhower und vor allem Kennedy einen enormen Einfluss auf die US-Sicherheitspolitik ausübte.35 Die Idee, den Kongress mit einem „Frühwarnsystem“ – eine für die frühe Geschichte der Technikfolgenforschung geradezu paradigmatische Vorstellung – auszustatten, lancierte offenbar MIT-Dekan Jerome Wiesner beim ambitionierten Vorsitzenden des Subcommittees on Science, Research and Development, Emilio Daddario.36 Die erste veröffentlichte Begriffsbenutzung lässt sich jedenfalls in einem Bericht des Daddario-Komitees von 1966 nachweisen.37 Ein halbes Jahr später, im März 1967, stellte das Subcommittee einen tentativen Gesetzesantrag zur Einrichtung eines „Technology Assessment Boards“, der nicht als ausgereifter Gesetzesvorschlag, sondern vielmehr als Anregung zur Diskussion eingebracht wurde.38 Das TA Board sollte mit ausgewiesenen Wissenschaftler*innen bestückt werden, die hierfür aus Universitäten abberufen werden sollten. Ziel müsse es sein, „undesirable byproducts of such research and technology, in advance“ zu identifizieren, um deren Wirkung zu minimieren oder auszuschalten.39 Im Juli desselben Jahres konkretisierte Daddario sein Vorhaben in einem Statement für das Komitee für Wissenschaft und Astronautik. Bei der Arbeit des Subcommittee sei der „impact of science and technology on modern societies“ zunehmend in den Mittelpunkt des Interesses gerückt. Diese Diagnose ordnete Daddario geschickt in eine Modernisierungserzählung der Vereinigten Staaten ein. Nicht die Furcht vor Risiken, sondern der „Mut“, Risiken einzugehen, um die „fruits of science“ zu ernten, sei die Grundlage des Aufstieges der USA zu materiellem Reichtum und ihrer hegemonialen Stellung. Die fortschreitende Technisierung der Gesellschaft sei heute weder zu leugnen noch zu bekämpfen, wenn ökonomisches Wachstum weiterhin ein nationales Ziel bleiben solle. Vielmehr gelte es, „a redefinition of progress“ anzugehen, um den technischen Fortschritt mit der wachsenden Weltbevölkerung und der „balance of the natural world“ zu harmonisieren. Die Immensität der Folgen und die „irreversible nature of many technological changes“ mache es unumgänglich, dass die Tendenz zum Eingehen von Risiken an eine tiefere Abschätzung ihrer Folgen gekoppelt werden müsse.40 Gebraucht sei eine institutionelle Erneuerung, um die Politik mit Instrumenten auszustatten, um eine „ever more complex future“ zu bewältigen.41
Damit machte sich Daddario an eine grundsätzliche Definition seines Vorhabens, das dem Kongress technologiepolitische Expertise bereitstellen könne, ohne „radikalen Wandel“ zu veranlassen:
I take this view because, simply stated, Technology Assessment is a form of policy research which provides a balanced appraisal to the policymaker. Ideally it is a system to ask the right questions and obtain correct and timely answers. It identifies policy issues, assesses the impact of alternative courses of action and presents findings. […] Technology Assessment is designed to uncover three types of consequences – desirable, undesirable and uncertain.42
Das neue Amt wurde als ein Instrument einer den Repräsentanten bekannten Praxis gerahmt: als policy research. Als „scope“ solcher Technology Assessments sah Daddario in räumlicher Reichweite primär die USA, obwohl, wie er zu bedenken gab, „the entire world, and even outer space“ von den Folgen moderner Technologie betroffen seien. Nukleare Explosionen, das Klima und die Ozeane, Hungersnöte und selbst Epidemien beträfen schließlich mehr als nur die Vereinigten Staaten. Diese Fragen spielten sich nicht zuletzt im Gegensatz der „rich nations“ der „Western world“ zu den „emerging countries“ – also im Zeichen einer beginnenden Globalisierung – ab. In zeitlichem Hinblick grenzte Daddario die Vorausschau weniger ein, war sich aber sicher, dass die Suche nach indirekten Konsequenzen weite Zeitverläufe umfassen müsse, schließlich seien beispielsweise die Folgen von Verhütungsmitteln wie etwa „changes in sexual behaviour, morals, and perhaps even religious beliefs“ erst in Jahrzehnten wirklich nachweisbar. Daddarios Subcommittee hatte offenkundig Zukunfts-, Umwelt- und Technikdiskurse der 1960er Jahre rezipiert. Trotz dieser Ausrichtung auf den „long term“ sei TA aber kein „technological forecasting or program planning“, sondern – so unterstrich Daddario – Politikberatung.43
Ähnlich argumentierten Brooks und Wiesner in Kongressanhörungen. Wirtschaftswachstum und technischer Fortschritt seien sakrosankt, produzierten aber eine Vielzahl unerwünschter Nebeneffekte, die die Stabilität des sozialen und politischen Systems gefährdeten. Diese könnten öffentliche Gegenwehr gegen den technischen Fortschritt und eine Krise heraufbeschwören, „which will make the environmental crisis look tame in comparison“. Technology Assessment sei deshalb „essential to the continued progress which in turn I regard as essential to the survival of human civilization.“44 Nicht nur seien durch Technikfolgen die Bedingungen des „Lebens auf dem Planeten“ in Frage gestellt, auch die Lebensqualität werde zerstört, was zur Dehumanisierung der Gesellschaft führe.45 Futurologen, die auch als Berater des Subcommittees auftraten, trugen das Konzept noch Ende der 1960er Jahre in die disziplinäre Öffentlichkeit der US-Zukunftsforschung. Der Blick staatlicher Planer habe sich bisher auf ökonomische und zuletzt ökologische Folgen verengt, ohne dass nicht-intendierte, indirekte oder verspätete Folgen fokussiert worden wären. Hier bestehe also Handlungsbedarf für Zukunftsforscher, schließlich seien „in the long run“ die indirekten Folgen bedeutsamer, aber durch „proper planning“ in Form diverser kybernetischer Methodenbausteine kontrollierbar.46
Nach mehreren Vorstudien und Anhörungen stellte Emilio Daddario im Juli 1970 den finalen Gesetzesantrag. Der „Technology Assessment Act of 1970“ avisierte die Gründung eines „Office of Technology Assessment“, das von einem Direktor geleitet, aus Wissenschaftler*innen zusammengesetzt und von einem aus Kongressabgeordneten und „especially qualified members of the general public“ bestehenden TA Board beauftragt und kontrolliert werden sollte, was später zugunsten einer reinen Kontrolle durch das Parlament abgeändert wurde.47 Erst am 13.10.1972 wurde der Technology Assessment Act in beiden Kammern des Kongresses angenommen.48 Bis ins folgende Jahr versuchten einzelne Republikaner noch, die Mittelzuweisung des Büros im dafür zuständigen Komitee zu verhindern. Im Zentrum des Konflikts stand die Patronage durch Ted Kennedy, der verdächtigt wurde, das OTA als technokratisches „shadow government“ – so das Wall Street Journal – für eine künftige Präsidentschaftskandidatur aufzubauen.49 Das OTA geriet damit früh unter Druck, worauf Daddario, der inzwischen die Direktorenstelle des Büros angetreten hatte, mit einer Neutralitätsstrategie antwortete. Die damit einhergehende Besetzung vieler Posten mit „congressional staff“ und der Ausschluss sensibler Themen, wie etwa Rüstungsprojekte und Energiesicherheit, führte vor allem in der sich längst formierten akademischen TA-Community zu Kritik und Enttäuschung. In der Praxis wurde der selbstformulierte Anspruch, als Frühwarnsystem zu fungieren, zugunsten klassischer policy research aufgegeben, die die jeweiligen Auftraggeber im Kongress strategisch einzusetzen wussten. Die radikale futurologische Rhetorik wurde ebenso wie die Flexibilität und Selbstmobilisierung der Expert*innen in den folgenden Jahren kaltgestellt, nicht zuletzt deshalb aber etablierte sich das Büro nach einer Krise Ende der 1970er Jahre unter dem neuen Direktor John Gibbons, als das OTA nachwies, dass sich die umfangreichen Studien des Hauses auch von einem republikanischen Kongress nutzen lassen konnten.50
Während in den Vereinigten Staaten Machbarkeitsstudien angefertigt und parlamentarische Anhörungen abgehalten wurden, zog das ambitionierte Konzept die Aufmerksamkeit transatlantischer Expertenkreise auf sich. Hierin zeigt sich deutlich die transnationale Dimension des Konzeptes, das aus den speziellen Verhältnissen der amerikanischen Wissenspolitik und Großforschung entstanden war, danach aber eine beachtliche Karriere in den europäischen OECD-Staaten hinlegte. Dabei spielten nicht nur die Transfers von Wissen und die Verflechtungen der Expert*innen eine Rolle, sondern zunehmend auch die Einbettung des TA-Diskurses in Zukunftsvorstellungen des „Westens“.51 Das Science Departement der OECD konnte auf eine längere Beschäftigung mit diesen Themen zurückblicken, die unter Alexander Kings Vorsitz als Director-General for Scientific Affairs einen zentralen Platz im Kosmos der OECD einnahm. Im Zentrum dieser Wachstums- und Modernisierungsdiskurse stand die Frage, wie die OECD-Staaten auch in Zukunft ökonomisch und politisch stabil bleiben konnten. Dabei brachen sich ausgerechnet in dieser Agentur des westlichen „Wachstumsparadigmas“ (Matthias Schmelzer) wachstums- und modernisierungskritische Debatten Bahn.
Wie durch Studien der letzten Jahre bekannt ist, ging die Gründung des Club of Rome direkt auf die Netzwerke der OECD-Wissenschaftsabteilung zurück.52 Zum Gründungsdokument und mission statement des Clubs wurde das Manifest „The Predicament of Mankind“, das eine interdependente Krise diagnostizierte und dem „extraordinary technological capital“ und den „all-pervasive analytic and positivistic methodologies“ gleichzeitig eine Mitschuld an der Lage als auch eine Verantwortung zur Gestaltung einer Welt im Gleichgewicht zuwies.53 Überbevölkerung, Ressourcenausbeutung, Umwelt- und Technikfolgen wurden dabei nicht als Mangel an Wachstum, sondern als dessen negative Folgen („diseases of prosperity“) und als Probleme moderner Gesellschaften zusammengeführt. Nicht nur diese systemische Verkettung bezog sich massiv auf kybernetische Diskurse, sondern auch das erklärte Ziel, ein „Weltmodell“ zu entwickeln, dass diese Symptome abbilden und beschreiben könne.54 Weniger bekannt ist der Zusammenhang dieser Netzwerke mit dem Technikfolgendiskurs. King ließ 1969 eine Kommission unter Harvey Brooks einsetzen, die dem Ministerrat der OECD Vorschläge zu einer neuen Wissenschaftspolitik vorlegen sollte, die den Problemen moderner Gesellschaften gerecht werden könne. Der im März 1971 schließlich vorgelegte Brooks-Report hatte – so Harvey Brooks an den Generalsekretär – „gegenwärtige Tendenzen extrapoliert“ und dabei den Schwerpunkt von Verteidigung und Wirtschaftswachstum hin zu einem „more rational management of both growth and new technologies in the interest of newly perceived social needs“ verschoben.55 Wissenschaft und Technik produzierten nämlich neben immensen Vorteilen auch immer deutlicher negative Folgen und „byproducts of growth“.56 Die Politik des „laissezinnover“ der letzten Dekade zähle ebenso wie die Forschungsplanung von oben zu den vielen „illusions and overstatements“ der Forschungspolitik. Stattdessen sei ein Kontrollmechanismus einzurichten, „to forecast the range of possible effects of technology on society and the natural environment, so as to illuminate society’s choices before options are foreclosed by default.“57 Prognosen möglicher Folgen sollten also Zukünfte für Entscheidungen in der Gegenwart offenhalten, bevor diese Zukünfte quasi technikdeterministisch geschlossen würden. Solch ein „systemic forecasting“ könne das jüngst in den USA besprochene Technology Assessment liefern. Nach einem Rückblick auf die SST- und Umweltdebatten kam der Report zu dem Schluss, dass es für TA bereits administrative Vorläufer gebe, schließlich seien „some forms of technology assessment“ bereits bei Arznei- und Lebensmitteln die Norm. Denke man das Prinzip der Folgenabschätzung „beyond technology“ weiter, stellten sich „some very fundamental questions“ über das politische und industrielle System. Der Bericht machte damit kurz vor einer systematischen Kapitalismuskritik Halt, stellte aber unumwunden fest, dass ökonomisches Wachstum nicht mehr per se ein hinreichendes Ziel der „entwickelten“ Länder sein könne. Rhetorisch offen blieb die Frage, ob die marktwirtschaftliche Ordnung und der globale Kapitalismus zum rationalen Einsatz von Wissen und Technik beitrugen oder vielmehr ungewollte Nebeneffekte begünstigten.58 In jedem Fall sah die Kommission dringenden Bedarf für TA und die Vertiefung dieser „scholarship […] in its infancy“. Der OECD wurde empfohlen, Verantwortung zu übernehmen und weitere Forschungen in diesem Feld zu fördern.59
Der Selbstverpflichtung, bei der Weiterentwicklung dieses emerging field beizutragen, kam das Wissenschaftsdirektorat der OECD bereits Anfang 1972 nach. Im Hauptquartier in Paris veranstaltete die Abteilung um King vom 26. bis 28. Januar die erste internationale Tagung zu Technology Assessment, an der rund 30 Zukunftsforscher*innen und Technologieexpert*innen der OECD-Mitgliedsstaaten teilnahmen. Die Moderation des Seminars übernahm Emilio Daddario. Aus der Bundesrepublik waren Vertreter der System- und Umweltforschung zugegen.60 Alexander King hielt einen Einführungsvortrag, aus dem wohl das Vorwort zum ersten OECD-Report zu TA im folgenden Jahr hervorging:
The last few decades have seen a tremendous expansion in research and development activity in all industrialised countries […] and the expansion period has been one of somewhat unquestioning euphoria for science. This has now come to an end […]. We [OECD] recognised that it was a major task for science policy to assess both the beneficial and adverse consequences of technological development and to foresee scientific and technological trends. Technology assessment is thus conceived as a tool of technology management, as a necessary link between research and development and the need of society.61
Deutlich wird hier nicht nur die spezifisch temporale Sprache, mit der nicht nur eine Brucherfahrung in der Gegenwart diagnostiziert, sondern ein konsequenter Zukunftsbezug artikuliert wurde. Zudem fallen Semantiken der Entwicklung und Weltordnung und Kontrolle ins Auge. Technology Assessment wurde so sprachlich in die Sphären temporalen Ordnungsdenkens – paradigmatisch durch den Club of Rome repräsentiert – eingeordnet. Bis Mitte der 1980er Jahre gab die OECD sechs, teils voluminöse Publikationen zu Technology Assessment heraus.62 Einflussreich für die weitere Konzeptentwicklung war vor allem der im Nachgang der ersten OECD-Tagung angefertigte Einführungsband in das Thema. Auf knapp 420 Seiten besprach François Hetman, selbst Futurologe und Mitarbeiter des Wissenschaftsdirektorats, die Debatten am US-Kongress, exemplarische Studien, Berichte und analytische Methoden. Diskutiert wurden temporale und politische Probleme der Folgenabschätzung. Etwa müsse man zukünftige Problemlagen vor dem Hintergrund moralischer „future values“ bewerten, die aber wesentlich schwerer zu prognostizieren seien. Hinzu kämen die Zeitkosten des Wissenserwerbs über Technikfolgen und die eigenen Zeitverläufe der Studien, bis man feststellen könne, ob eingeschlagene Wege zum Ziel führten. Wie ließen sich solche Entscheidungen demokratisch legitimieren, zumal die „political decision“ als finale Entscheidungssituation ohnehin eigenen Sachlogiken folge?63 Hinzu komme das Verhältnis von Expert*innen und Entscheidenden: Wie autonom können Auftragsforschende wirklich sein und wie bedingt die politische und ökonomische Abhängigkeit die „intellectual independence and objectivity of the analyst“? Ein solches Verhältnis müsse daher möglichst reziprok als ständige Kommunikation zwischen politischen und wissenschaftlichen Akteur*innen organisiert werden.64
Während dieser Arbeiten zu TA in der OECD hatte sich herauskristallisiert, dass eine Art Grundsatzprogramm fehlte, das sowohl in der OECD als auch innerhalb der Mitgliedsstaaten für die Etablierung einer Technikfolgenpolitik und die Durchführung von Studien dienen könnte. Zu diesem Zweck wurde beim OECD-Sekretariat eine „Advisory Group on Control and Management of Technology“ eingesetzt, die im September 1973 ein Expertengremium einberief und eine Empfehlung ausarbeitete.65 Ende 1974 erbat das Sekretariat die Bereitstellung von Technologiestudien von den Mitgliedsstaaten, um eine Vergleichsstudie von bisherigen TA-ähnlichen Studien in verschiedenen Bereichen wie „communications and computer technologies“, „transportation“, „energy“ oder „urban development“ durchzuführen.66 Zur Evaluation dieser Forschungen legten die Mitarbeiter*innen der OECD auf Grundlage der zuvor erarbeiteten Empfehlungen für Technology Assessments ein Leitbild aus 36 Arbeitsschritten vor, das die Verwaltung und Anbindung der Forschungsarbeit, die untersuchte Technologie, die dafür angewandte Methodik und die Ergebnisse und Einsätze aufschlüsselte.67 Die 1978 veröffentlichten Ergebnisse der vergleichenden Analyse gaben allerdings Grund zur Sorge: Nur sehr wenige Studien hatten überhaupt systematisch mögliche Auswirkungen identifiziert und diese evaluiert, noch weniger hatten alternative Handlungsoptionen oder Technologien und betroffene Gruppen untersucht.68 Dies habe vor allem mit methodischen Schwächen zu tun, da viele Instrumente lediglich aus anderen Disziplinen, vorzugsweise den Wirtschaftswissenschaften und der Systemanalyse, entliehen worden seien, ohne dass es zu methodologischen Innovationen gekommen sei. Auch hatte die positivistische Methodik der Zukunftsforschung im Verlauf des Jahrzehnts an Überzeugungskraft eingebüßt. „Uncertainty“ nahm nun eine wesentlich zentralere Rolle in den Reflexionen über Zukunftserschließung ein. Statt großer Prognosen und langfristiger Zeitverläufe ohne Rückbindungen an die Gegenwart, könne die Disziplin sich nur noch auf bedingte Möglichkeiten und Wahrscheinlichkeiten im Konjunktiv stützen, nicht mehr auf die vermeintliche Konstruktion von „Gewissheit“ und belastbarem Wissen. Zur neuen Modemethode stiegen damit die konditionalen Zukunftsszenarien auf, die mit der Überlegung operierten, dass möglicherweise eintreffende Verläufe bestimmte Szenarien produzierten.69 Implikationen für zukunftspolitische Ansprüche zog der Soziologe David Collingridge ein Jahr später. In der politischen Realität müsse man aufgrund des Scheiterns und der Unsicherheit politikberatender Prognosen eigentlich von „choices under ignorance“ ausgehen.70 Zudem bestehe ein spezifisches „dilemma of control“: Um viele negative Auswirkungen zu kennen, müsse man in der Regel eine Technologie erst einführen und anwenden. Im Stadium vor der Einführung sei die Möglichkeit zu Kontrolle hoch, das Wissen über Folgen aber niedrig. Wenn die Technikfolgen aber bereits eingetreten und erforschbar seien, werde die Kontrolle komplizierter und teurer.71
Schon ab 1975 hatte der Ministerrat der OECD damit begonnen, die Thesen des Club of Rome zurückzuweisen und das Wachstumsparadigma, das seit der Gründung die politische DNA der Organisation definiert hatte, wieder zu stabilisieren. Die Phase wachstumskritischer Diskurse innerhalb der OECD endete mit Alexander Kings Amtsende 1974 und der Einsetzung einer neuen futurologischen Kommission. „Interfutures“ sollte die globale Interdependenz mit Szenarien des „strategic management“ verbinden. Dieses Zukunftsmanagement globaler Märkte kam nun dezidiert ohne das Postulat planetarer Wachstumsgrenzen aus und war vielmehr der Beginn des „official endorsement“ (Matthias Schmelzer) von neoliberalen Wirtschaftsgrundsätzen in der OECD.72 Dennoch blieb TA auf der Agenda der Organisation, nicht zuletzt, weil mehrere Mitgliedsstaaten (darunter Deutschland und Frankreich) die Einführung eigener Programme diskutierten.73 Dies ging einher mit einer deutlichen Neuorientierung des TA-Konzeptes. Das Forschungsfeld habe noch immer nicht nachgewiesen, effektiv in den Politikprozess eingebunden worden zu sein. Problematisch seien vor allem uneingelöste Ansprüche, die sich aus der Idee der „Prävention“ negativer Folgen durch ein Frühwarnsystem gespeist hätten. Ohnehin ruhe die Zukunftsforschung auf dem wackeligen Fundament von „fragmentary evidence, scarce data, and many judgmental elements“. Ziel könne und müsse es also sein, mögliche Zukünfte zu erkunden und als „usable information“ der Politik verfügbar zu machen, statt die Zukunft zu prognostizieren.74
Auch im Deutschen Bundestag hatte sich die Debatte über Technikfolgenpolitik verfangen. Am 16.04.1973 stellte die Unionsfraktion aus der Opposition einen Antrag zur Einrichtung eines „Amtes zur Bewertung technologischer Entwicklungen beim Deutschen Bundestag“, um die „voraussichtlichen Folgen der naturwissenschaftlichen und technischen Entwicklungen“ als auch die „Exekutive im Bereich der Forschungs- und Technologiepolitik“ zu kontrollieren. Analog zu den Legitimationsnarrativen in der OTA-Debatte – das natürlich ebenfalls in dem Antrag erwähnt wurde – umriss die Fraktion unter der Federführung des technologiepolitischen Sprechers Christian Lenzer die „weltweite Diskussion um den Begriff der Qualität des Lebens, Wirtschaftswachstum und Energieprobleme“, die die Untersuchung von „Auswirkungen technologischer Projekte“ unter den Auspizien „systemanalytischer Methoden“ notwendig mache.75 In einer Plenumsdebatte am 18.05.1973 präzisierte Lenzer den Antrag seiner Fraktion:
Was bedeutet der Begriff der Bewertung technologischer Entwicklungen oder, wie der amerikanische Fachausdruck lautet, technology assessment? […] Neben den traditionellen Risiken innerhalb der Grenzen der Beeinflußbarkeit und Prognose des Forschungs- und Entwicklungsprozesses treten immer mehr Risiken auf, die sich aus den Veränderungen der sozialen, der ökologischen und politischen Umwelt ergeben. […] Man könnte diesen Begriff definieren als den integrierten und systematischen Prozeß der Abschätzung und Voraussage sämtlicher positiver, negativer, direkter oder indirekter Auswirkungen einer neuen Technologie auf alle Bereiche der Gesellschaft.76
Das amerikanische Vorbild im Blick, diagnostizierten Lenzer und seine Fraktion dem Parlament einen Mangel an Spezialwissen, das zur Kontrolle der immer wichtiger werdenden Technologiepolitik fehle: „Der Deutsche Bundestag steht also der Exekutive mit ihrem gewaltigen Apparat und ihren zahlreichen Beratungsgremien relativ machtlos gegenüber.“77 Zudem habe Ende 1972 die Studie „Science, Growth and Society“ – der Brooks-Report – im Ausschuss für Forschung und Technologie für Aufsehen gesorgt. Er und seine Fraktion teilten zwar nicht jede Schlussfolgerung, dennoch solle die Bundesrepublik die Entwicklungen in den USA und die Empfehlungen von Expertenkommissionen genau verfolgen.78
Ein Sprecher der SPD wandte ein, das Modell des OTA sei aus den besonderen „amerikanischen Verhältnissen im Parlamentsbereich“ entstanden, in hohem Maße technokratisch und nicht einfach in die parlamentarische Demokratie der Bundesrepublik übertragbar.79 Forschungsminister Ehmke gab zu Protokoll, dass das Forschungs- und Technologieministerium bereits damit beschäftigt sei, die „voraussichtlichen Folgen der naturwissenschaftlichen und technischen Entwicklung […] abzuschätzen“. Er unterstütze zwar die Bestrebungen des Parlaments nach eigener Expertise, in dem Themenfeld der Technikfolgen gebe es aber keinen Bedarf nach einer gesonderten Einrichtung. Die Frage nach dem „wohin“ des technischen und sozialen Wandels sei ein „Gesamtkomplex“ und nicht nur auf technologische Fragen zu verengen. Welchen Einfluss hätten beispielsweise die „Grenzen des Wachstums“ in dieser Frage? Im Übrigen gebe es im Bereich der „technischen Prognose“ eine „ganze Reihe ungelöster methodischer und theoretischer Fragen“, die sein Ministerium auch bereits in Forschungsberichten ausgebreitet habe.80
Am Zentrum Berlin für Zukunftsforschung um Robert Jungk und Rolf Kreibich, in Wissenschaftsgesellschaften, Zukunftswerkstätten und in Printmedien wurden Technikfolgen währenddessen eingehend besprochen.81 Federführend blieben aber deutsche Großforschungseinrichtungen, die mit Blick auf die USA eine politische Debatte in der Bundesrepublik antizipiert und bereits wissenschaftliche Expertise über Technology Assessment aufgebaut hatten.82 Auch hatte der Forschungsausschuss ein Gutachten zur Thematik bei der Studiengruppe für Systemforschung in Auftrag gegeben und Experten zu einer Anhörung geladen.83 In seiner Stellungnahme kontrastierte Meinolf Dierkes vom Battelle-Institut Frankfurt die bisherige Politik, mit einer „gesamtgesellschaftlichen Betrachtung“, die sich auf den Standpunkt stelle, dass nicht jede Innovation „per se einen Fortschritt für die Gesellschaft darstelle.“ Die „gesellschaftlichen Kosten“ einer ungesteuerten Technisierung werden „durch Reduzierung der Lebensqualität einzelner Gruppen bezahlt.“84 Nach einer Abwägung verschiedener Organisationsformen argumentierte Dierkes für ein unabhängiges, öffentlich getragenes Institut, das nach politischer Anfrage Aufträge an „bestehende Kapazitäten in Universitäten und Forschungsinstitutionen“ vergeben solle. Die Ausschussmitglieder der Parteien stimmten in weiten Teilen darin überein, dass dem Bundestag Expertenwissen fehle und dass zur Bewältigung des wissenschaftlich-technischen Wandels prognostisches Wissen von Vorteil sein würde. Karl-Hans Kern von der SPD resümierte, man müsse „ein Frühwarnsystem schaffen, das uns rechtzeitig vor den negativen Auswirkungen unserer Erfindungen und ihrer Anwendung schützt.“ Dies sei aber „in erster Linie Aufgabe der Bundesregierung“.85 Das vom Ausschuss in Auftrag gegebene Gutachten der Studiengruppe für Systemforschung lag bereits 1974 vor und wurde 1977 überabreitet veröffentlicht. Die drei Hauptautoren, Herbert Paschen, Klaus Gresser (Prognos AG) und Felix Conrad (Kernforschungszentrum Karlsruhe) gaben sich Mühe, eine kritische Einschätzung der bisherigen Debatte zu liefern. Im Zentrum standen konzeptionelle Fragen, wie etwa, an welche Forschungsfelder es anzuschließen gelte – die Autoren argumentierten für enge Bezüge zum „technological forecasting“, zu der Systemanalyse und der Innovationsforschung –, ob solche Zukunftsstudien „reaktiv“ oder „projektiv“ sein sollten und ob man Ansprüche von „Neutralität und Objektivität“ vertreten könne.86 Obwohl das Gutachten empfahl, eine wissenschaftliche Einrichtung, die sich mit Technikfolgen auseinandersetzen und die Politik beraten sollte, weiter zu diskutieren und zu planen, blieben die Regierungsparteien bei der Ablehnung, sodass der Antrag schließlich Ende 1975 im Plenum scheiterte.87
Die Debatte hatte im Bundestag bis 1975 zumindest einen Minimalkonsens über die Zeitdiagnose von pervasiven Technikfolgen hergestellt und Expert*innen und deren einschlägiges Wissen eingebunden. Dass sich auch hier wissens- und zukunftspolitische Ansprüche in hohem Maße mit einer parteipolitischen Dynamik verbanden, zeigten die folgenden Legislaturperioden. Die CDU/CSU brachte schon 1977 einen überarbeiteten Antrag ein, in dem nur noch von „Prognose- und Bewertungskapazitäten“ beim Bundestag die Rede war.88 Wie Heinz Riesenhuber in der dazugehörigen Aussprache feststellte, seien „alle Fraktionen und die Bundesregierung […] sich darüber einig, daß die entscheidende Frage der kommenden Jahrzehnte sein wird, ob wir imstande sind, aus politischem Willen die Entwicklung der Technologie zu beherrschen und damit die Zukunft zu gestalten oder ob wir vor angeblich unvermeidlichen Eigengesetzlichkeiten der Technik kapitulieren.“89 Offenhaltung und Gestaltung der Zukunft durch Intervention in der Gegenwart und Risiken als Handlungsmotivation standen hier als Topoi wieder neben der Kritik an dem „Herrschaftswissen der Exekutive“. Die wenigen Referenten und Mitarbeiter in den Ausschüssen und im Wissenschaftlichen Dienst könne man, so Riesenhuber, an einer Hand abzählen, während ihnen „das Bundesministerium für Forschung und Technologie, […] der umfassende Sachverstand der Großforschungszentren, der Forschungseinrichtungen an den Universitäten, der Max-Planck-Institute und anderer“ gegenüberstehe. Der „Streit um die Grenzen des Wachstums“ werde derzeit überall geführt – „nur nicht im Parlament.“90 Tatsächlich legte der Ausschuss für Forschung und Technologie im Juni 1978 nach weiteren Beratungen einen von allen Fraktionen getragenen Grundsatzbeschluss zur Einsetzung einer „Arbeitsgruppe Technologiefolgenabschätzung“ vor. Die am Präsidium anzusiedelnde Einrichtung solle „Trends der technischen Entwicklung beobachten“, TA-Studien in Auftrag geben und begleiten und deren Ergebnisse in Form „wissenschaftlichen Materials“ für den Bundestag aufarbeiten.91 Die Regierungsfraktionen im Haushaltsausschuss verhinderten eine weitere Beratung. Auch ein weiterer Antrag scheiterte. Die Situation änderte sich erst mit dem Bruch der sozialliberalen Koalition im September 1982. Noch im Oktober stellte die nun in der Opposition befindliche SPD-Fraktion – natürlich auch polittaktisch motiviert – den Antrag, die letzte Ausarbeitung der Union für eine Technikfolgen-Arbeitsgruppe, die die SPD hatte scheitern lassen, nun unverändert anzunehmen, wozu die neue Regierungskoalition nicht mehr bereit war.92 Dass die Einsetzung eines neuen Expertengremiums beim Bundestag danach wieder auf die Agenda rückte, hing auch mit der zunehmenden Konjunktur der Risikoforschung zusammen, in der „Risikopolitik“ zu einem neuen Schlagwort avancierte. Heinz Riesenhuber lies 1983 zudem ein „Referat für Systemanalyse und Technikfolgenabschätzung“ in seinem Ministerium einrichten und die Regierung Kohl nahm die Förderung von Technikfolgenabschätzung in ihre Version der „Sicherheitspolitik“ auf, die als „Korrektiv“ der zu schützenden unternehmerischen und wissenschaftlichen Freiheit ins Auge genommen wurde.93 In diesem Sinne ließ sich Technology Assessment als ein politischer Teil der Risikosemantik einordnen, die in den Medien intensiv besprochen, staatlich gefördert und von Proponenten als weniger prognostisch denn streng probabilistisch und naturwissenschaftlich aufgefasst wurde. In einer vom Bundesumweltamt initiierten internationalen Fachtagung im Oktober 1982, die wieder einmal die „Rolle der Technologiefolgenabschätzung im Entscheidungsprozeß“ diskutieren sollte, plädierte Meinolf Dierkes, mittlerweile Präsident des Wissenschaftszentrum Berlin für Sozialforschung, dafür, TA im Sinne der OECD-Berichte zu Beginn der 1980er Jahre von futurologischen Erblasten zu befreien, um den Weg zum politischen Einsatz freizumachen: „Das Schlagwort heißt hier: vom Impact Assessment zur Policy-Analysis.“94 Ab Ende 1983 nahm der Ausschuss für Forschung und Technologie erneut Gespräche über die Einrichtung einer parlamentarischen Form der Technikfolgenabschätzung auf. Die schließlich im März 1985 ohne großen Widerspruch beschlossene Enquete-Kommission sollte „Auswirkungen des technisch-wissenschaftlichen Fortschritts anhand von Einzeltechnologien untersuchen“ und daraus Vorschläge ableiten, wie eine dauerhafte Institution am Bundestag zu etablieren sei.95 Ende 1989 entschlossen sich die Fraktionen nach positiver Begutachtung der Enquete-Kommission zur Gründung eines Bundestagsbüros für Technikfolgenabschätzung.
4 Fazit
Obwohl sich vor allem in Europa bis heute beständige Infrastrukturen der Technikfolgenabschätzung etabliert haben, ist aus Technology Assessment keine Metawissenschaft mit dem Anspruch geworden, die Nebenfolgen von Wissenschaft und Technik erfolgreich abzuschätzen. Im Verlauf der 1970er Jahre stellten sich bereits Zweifel ein, ob die Erwartungen an eine solche Technikfolgenabschätzung, die von Zukunftsforschern und Systemanalytikern genährt worden waren, vom wissenschaftlichen Standpunkt aus gerechtfertigt und politisch oder wirtschaftlich einlösbar waren. Das hing nicht nur mit politischen Konfliktlagen, sondern auch mit der zunehmenden Thematisierung von Unsicherheiten in ihren verschiedenen Dimensionen als epistemischer Herausforderung der Zukunftserschließung zusammen. Die gegenwärtige Technikfolgenforschung hat sich erfolgreich dieser futurologischen Erbschaften entledigt und sich deutlicher der politikberatenden, techniksoziologischen Risikoforschung zugewandt.96
Diese Episoden der Debatte um Technikfolgen und der politischen Institutionalisierung von Abschätzungsregimen in den 1970er Jahren machen aber verschiedene Grundlinien sichtbar, die auch im Lichte der Anthropozändebatte von Bedeutung bleiben werden.
1. Der gesellschaftliche Diskurs über die „Zukunft“ ist selbst historisch. Die Diskurse der Technikfolgenabschätzung befinden sich, so könnte man schlussfolgern, an den Grenzen und Übergängen von Fortschritts- und Erhaltungs-, Gestaltungs- und Risikozukünften. Von einer generellen Zurückweisung des Fortschrittsnarrativs kann aber keine Rede sein, vielmehr steht auch die wissenschaftliche Kontrolle und Verhinderung von unerwünschten Folgen unter dem Einfluss einer tendenziell progressiven Zukunftsvorstellung. Die Konzeption einer Art „Korrektiv“ wurde von den meisten Akteur*innen auch nicht als Gegenentwurf zur Fortschritts- oder Modernisierungserzählung, sondern als Versuch der Absicherung und Stabilisierung positiver Zukünfte verstanden. Die Thematisierung von Risiken nahm hierbei eine Scharnierfunktion ein und zwar in der Art, als dass dadurch mit Verweis auf Unsicherheiten präventives Zukunftshandeln eingefordert werden konnte.
2. Die Debatten werfen auch ein Schlaglicht auf das sich in der zweiten Hälfte des 20. Jahrhunderts verändernde Verhältnis von Politik und Wissenschaft. Wie auch die Zukunftsforschung der 1950er und 1960er Jahre – und die zeitgenössische Wissenschaftskultur im weiteren Sinne –, hat auch die Technikfolgenabschätzung ihre Wurzeln in der Großforschung nach dem Zweiten Weltkrieg. Politikberatung durch autorisierte (meist männliche) Expert*innen hatte sich schon lange vor 1970 etabliert, wodurch Politik und Wissenschaft wechselseitig ökonomische, soziale und symbolische Ressourcen füreinander generieren konnten. In beiden parlamentarischen Debatten wurde deutlich, dass Zugang zu wissenschaftlichem Expertenwissen als Bedingung erfolgreicher Durchsetzung von Herrschaftsansprüchen in zunehmend „komplexen“ sozialen Verhältnissen verstanden und begründet wurde. Entscheidend waren in beiden Fällen aber auch politische Eigenlogiken, die den Ausbau eigener Wissensinfrastrukturen gegenüber der Opposition oder anderen politischen Teilsystemen nahelegten. Interessant ist auch das Verhältnis von (Zukunfts-)Wissen und politischer „Entscheidung“, das man sicher mit Blick auf die Verwendung solchen Expertenwissens weiter untersuchen müsste.
3. Konflikte um die „Zukunft“, sind immer auch Konflikte um Macht. Ob Gestaltungs- oder Risikozukunft, Zukunftsgenerierungen sollen immer Legitimität für Handeln in der Gegenwart erzeugen. Im Anschluss an die Forschungen der Security Studies der letzten Jahre wäre beispielsweise genauer zu fragen, welche Sicherheitsvisionen und normativen Verbindlichkeitsstrukturen in den Bedrohungskommunikationen der Technikfolgen angelegt sind.97 Der politische Diskurs über Technikfolgen war darüber hinaus selbst eingebunden in politische und trans- und nationalstaatliche Ordnungen sowie deren institutionelle Eigenlogiken. Das damit einhergegangene Konzept einer (meist parlamentarisch angesiedelten) politikberatenden Behörde für Zukunftsfragen ist nur eine von vielen möglichen Bewältigungsstrategien, die demokratisch-repräsentativen Gesellschaften offenstehen. Jenny Andersson und Matthias Schmelzer haben in ihren Studien zur Zukunftsforschung und der OECD zunehmend neoliberale Konzeptionen der Rücknahme von Planung und Steuerung im Namen einer uneinholbaren „Komplexität“ und „Interdependenz“ beobachtet. In welchem Verhältnis die Zukünfte riskanter Technologien und die krisenhaften Lebensgrundlagen der Menschheit im Anthropozän zu diesem Ordnungsmodell stehen, wäre zu hinterfragen.
Das Narrativ des Anthropozän macht deutlich, wie wichtig temporale – ob erd- oder menschheitsgeschichtliche – Ordnungen in den Selbstbeschreibungen moderner Gesellschaften geworden sind. Exemplarisch mit der Debatte um Technikfolgenabschätzung steht auch eine andere, gleichweg fast parallele Traditionslinie solcher Zeitentwürfe im Raum, die deutlicher dem hochmodernen Fortschrittsparadigma sowie politischem und wissenschaftlichem Gestaltungsdenken verpflichtet ist. Damit wird die Frage verbunden bleiben, ob und wie sich Zukünfte – seien es „Technikfolgen“ oder die planetaren Konsequenzen des Anthropozän – erforschen und gestalten lassen.
Literaturverzeichnis
Quellen
Forschungsliteratur
Fußnoten
1 Chan 2019. 2 Bimber 1996; Gibbons/Gwin 1986. 3 Zur „Zweiten Moderne“: Beck 1996b; Beck 1996a; vgl. zur „Hintergrundideologie“: van Laak 2012. 4 Haumann 2019; Horn/Bergthaller 2019; Chakrabarty 2018. 5 Haff 2014; Hornborg 2015; Zur Debatte und Kritik dieser Konzepte: Trischler/Will 2017. 6 Vgl. McNeill 2016. 7 Dryzek/Pickering 2019, 36; ähnlich Ulrich Beck Mitte der 1990er Jahre: Beck 1996c. 8 Lutz Raphael und Anselm Doering-Manteuffel heben etwa die „bisweilen in chiliastische Dimensionen vorstoßende Diskussion über Technikfolgen und Umweltbelastung“ als Signatur der Ära „nach dem Boom“ hervor, ohne dass zu Letzterem seither eine historiografische Studie entstanden ist: Doering-Manteuffel/Raphael 2010, 85; Technikfolgen als Analysegegenstand spielen eine (untergeordnete) Rolle in: Uekötter 2003; Hünemörder 2004; Brinckmann 2006; Schmidt-Gernig 2002. 9 Vgl. Stehr 2003; Kaiser 2013. 10 Vgl. Lässig 2016; Landwehr 2019; Landwehr 2014; Geppert/Kössler 2015; Esposito 2017. 11 Graf/Herzog 2016, S. 504–513. 12 Grundlegend zur Zukunftsforschung und darüber hinaus: Seefried 2015; Andersson 2018. 13 Dazu für das Beispiel Bundesrepublik: Herbert 2017, S. 619–635, S. 806. 14 Zur Erwartungszukunft siehe: Graf/Herzog 2016, S. 504–508; zur „Hochmoderne“ siehe: Herbert 2007. 15 Vgl. zur Gestaltungszukunft: Graf/Herzog 2016, S. 508–510. 16 Vgl. van Laak 2008, S. 308–319. 17 Vgl. Seefried/Hoffmann 2018, S. 9. 18 Vgl. Aumann 2009. 19 Vgl. Andersson 2012, S. 1414f. 20 Ebd., 1416f; Andersson 2019, S. 129. Darunter fallen die Ford Foundation, der Congress for Cultural Freedom und etwa IBM, Bell oder Siemens mit ihren angeschlossenen Forschungseinrichtungen, aber auch militärisch-industrielle think tanks wie die RAND Corporation. 21 Zu den Vertreter*innen des Feldes siehe: Seefried 2015, S. 96ff.; Schmidt-Gernig 2004, S. 159f.; Krauch/Coenen/Simon 2011. 22 Zur medialen Konstruktion der Zukunftsforschung siehe: Eberspächer 2014, S. 165ff.; Seefried 2015, S. 159ff. 23 Vgl. Eberspächer 2014, S. 297–299, S. 344. 24 Doering-Manteuffel 2007, S. 565; vgl. Kupper 2003. 25 Vgl. Graf 2014, S. 379–301; Graf 2008, S. 209. 26 Vgl. Pforte/Schwencke 1973; Jungk 1973; Flechtheim 1974. 27 Vgl. zur Risikozukunft Graf/Herzog 2016, S. 510–512; vgl. zu dieser Verlaufskurve in kulturwissenschaftlicher Perspektive: Horn 2014. 28 Vgl. Brinckmann 2006, S.158f.; Schanetzky 2007. 29 Vgl. Seefried/Hoffmann 2018, S. 14f. 30 Vgl. Hölscher 2016a, S. 88. 31 Vgl. Andersson 2018, S. 220f. 32 Gibbons/Gwin 1986, S. 239ff; vgl. Casper 1981, S. 33 Vgl. Bimber 1996, S. 40–43. 34 Brooks/Bowers 1977 [1972], S. 233. 35 Wang 2008, S. 174. 36 Vgl. Chedd 1973, S. 490; Geschka 1975, S. 19. 37 US House of Representatives 1966. 38 US House of Representatives 1967a, S. 3; US House of Representatives 1967b. 39 Daddario 1970, S. 8f. 40 US House of Representatives 1967a, S. 1–4. 41 ebd., S.5f. 42 ebd., S.12f. 43 US House of Representatives 1967a, S.12f., zu technological forecasting siehe Seefried 2015, S. 238f. 44 Vgl. ebd. S. 78f. 45 Vgl. ebd., S. 215f. 46 Vgl. Coates 1971, S. 225. 47 US House of Representatives 1970. 48 Zu den Konflikten um das Gesetz Berg 1975, S. 24, S. 32; US Congress 1972. 49 Vgl. Bimber 1996, S. 9; Wannisky 1973. 50 Vgl. Bimber 1996, S. 50–55, S. 57f; Casper 1978, S. 28ff.; Coates 1999, S. 54. 51 Zum globalen Selbstverständnis der Zukunftsforschung siehe: Schmidt-Gernig 2002, S. 414–416; Seefried 2015, S. 492, 495. 52 Vgl. Schmelzer 2012, S. 1004f; Schmelzer 2016, S. 245–250; Schmelzer 2017. 53 Vgl. Club of Rome 1970, S. 5. 54 Vgl. Schmelzer 2012, S. 1007. 55 Vgl. OECD 1971, S. 7. 56 Vgl. ebd., S. 15, S. 29f. 57 Vgl. ebd., S. 77f. 58 Vgl. ebd., S. 83f. 59 Vgl. ebd., S. 98. 60 Siehe Annex „Seminar on Technology Assessment“, in: Hetman 1973, S. 415–420. 61 Vgl. King 1973, S. 5. 62 Hetman 1973; OECD 1975; OECD 1978; OECD 1981; OECD 1983. 63 Vgl. Hetman 1973, S. 334f. 64 Vgl. Hetman 1973, S. 355–358. 65 OECD 1975, S. 7. 66 OECD 1978, S. 5. 67 Ebd., S. 6–37. 68 Ebd., S. 37f. 69 Vgl. Ayres 1979, VI, S. 351ff. 70 Vgl. Collingridge 1980. 71 Vgl. ebd., S. 13–22; siehe dazu auch Horn 2011. 72 Vgl. Andersson 2019, S. 126–128, S. 136; Schmelzer 2012, S. 1011; vgl. dazu den Bericht OECD 1979. 73 Vgl. Baron 1995, S. 21; Seefried 2017, S. 53. 74 OECD 1983, S. 20f, S. 23. 75 Deutscher Bundestag 1973b. 76 Deutscher Bundestag 1973a, 1879B-C. 77 Ebd., 1879D; vgl. auch: Lenzer 1975. 78 Vgl. Lenzer 1975, S. 12–13. 79 Vgl. Deutscher Bundestag 1973a, 1880B–1881C. 80 Vgl. ebd., 1883B–1884C. 81 Jungk 1973, S. 323–327; Urst 1973; Verein Deutscher Ingenieure 1971; Haas 1974, S. 72. 82 Dies galt besonders für das Battelle-Institut Frankfurt und die Heidelberger Studiengruppe für Systemforschung und deren Nachfolge am Kernforschungszentrum Karlsruhe. Vgl. Brinckmann 2006, S. 151, 153, 164f.; Grossner 1974; Dierkes/Staehle 1973. 83 Deutscher Bundestag 1975b, S. 2. 84 Vgl. Dierkes 1974, S. 23–26. 85 Kern 1973, S. 7. 86 Vgl. Paschen/Gresser/Conrad 1978. 87 Vgl. Deutscher Bundestag 1975a, 13598Bff. 88 Deutscher Bundestag 1977b. 89 Deutscher Bundestag 1977a, 4881D–4883D. 90 Deutscher Bundestag 1977a, 4881D–4883D. 91 Siehe die Dokumentation in: Deutscher Bundestag 1979; vgl. Lenzer 1982, S. 158f. 92 Vgl. Thienen 1986, S. 305. 93 Vgl. Seefried 2018, S. 62. 94 Vgl. Dierkes 1983, S. 16f. 95 Deutscher Bundestag 1985, S. 3.; vgl. Thienen 1986, S. 335f. 96 Vgl. Grunwald 2010. 97 Vgl. Bröckling 2016.