Jürgen Grahl

Die Dogmen der Ökonomie und die Realität

Es ist kaum zu übersehen, dass die heute tonangebenden politischen Kräfte nur unzureichende Antworten auf die großen ökonomischen, sozialen und ökologischen Herausforderungen unserer Zeit zu geben vermögen. Eine wesentliche Ursache hierfür dürfte darin liegen, dass sie sich an ökonomischen Dogmen und Paradigmen orientieren, die in teils eklatanter Weise der Realität oder naturwissenschaftlichen Grundgesetzmäßigkeiten zuwiderlaufen. Wir wollen im Folgenden zehn dieser Dogmen kritisch diskutieren.

Dieser Aufsatz im PDF-Format

Es sei darauf hingewiesen, dass es selbstverständlich nicht "die" Ökonomie gibt und dass keineswegs alle dieser Ansichten von allen ökonomischen Richtungen vertreten werden. Die Häufung an prominenten Namen (darunter etlichen Trägern des sogenannten Nobelpreises für Wirtschaftswissenschaften [Fußnote]Genauer handelt es sich dabei um den "Preis für Wirtschaftswissenschaften der schwedischen Reichsbank in Gedenken an Alfred Nobel"; er wurde nicht von Alfred Nobel selbst gestiftet.), die im Folgenden auftauchen, zeigt jedoch, dass es sich dabei keineswegs um unbedeutende Einzelmeinungen handelt, sondern um Mainstream-Positionen.

1. Zehn fragwürdige Dogmen und Paradigmen der Ökonomie

1.1 Das Dogma der unbeschränkten Substituierbarkeit

Ökonomen gehen in der Regel davon aus, dass Wirtschaftsgüter und Produktionsfaktoren (wie Arbeit, Kapital und Energie) prinzipiell beliebig untereinander substituierbar seien, so dass es letztlich nichts Unersetzliches gebe. Dies führt teilweise zu absurden Konsequenzen. So schreiben Paul Samuelson, einer der bedeutendsten Ökonomen des 20. Jahrhunderts (Nobelpreis 1970) und William Nordhaus (Yale, Wirtschaftsberater von US-Präsident Carter) in ihrer berühmten "Volkswirtschaftslehre", bis heute eines der meistgelesenen Ökonomie-Lehrbücher:

"Ökologen argumentieren immer wieder, dass Energie und andere natürliche Ressourcen wie unberührte Natur oder Urwälder ganz besondere Formen von Kapital sind, die unbedingt bewahrt werden müssen, um ein nachhaltiges Wirtschaftswachstum zu gewährleisten. Dieser Ansicht können sich Ökonomen nicht anschließen, denn sie betrachten die natürlichen Ressourcen einfach nur als eine weitere Kapitalform, die die Gesellschaft ebenso wie schnelle Computer, Humankapital in Form gut ausgebildeter Arbeitskräfte oder technologisches Know-How in ihren Wissenschaftlern und Technikern besitzt." [Quelle] (S.407)

Und Robert M. Solow, der Begründer der neoklassischen Wachstumstheorie (Nobelpreis 1987) schrieb im Jahr 1974:

"Falls sich natürliche Ressourcen sehr leicht durch andere Faktoren substituieren lassen, dann gibt es im Prinzip kein Problem. Die Welt kann letzten Endes auch ohne natürliche Ressourcen zurecht kommen."

Freilich räumt er auch ein:

"Sollte allerdings die reale Wertschöpfung pro Ressourceneinheit begrenzt sein [...], dann ist die Katastrophe unvermeidlich." [Quelle]

1.2 Gegenwartspräferenz und Zukunftsdiskontierung

Viele ökonomische Modelle bewerten heute verursachte, aber erst in der Zukunft auftretende Schäden nach dem "Esau-Prinzip" [Fußnote]nach der biblischen Geschichte von Esau, der seinem Bruder Jakob sein Erstgeburtsrecht für ein Linsengericht verkaufte, so dass Jakob statt Esau zum Stammvater Israels wurde; dadurch wird gegenwärtiger Nutzen höher eingeschätzt als zukünftiger Nutzen oder auch Schaden. Quantitativ äußert sich diese Gegenwartspräferenz darin, dass zukünftige Schäden abdiskontiert werden. Träten z.B. in 150 Jahren infolge des anthropogenen Treibhauseffekts globale Schäden in Höhe von 10.000 Mrd. Dollar auf (dem Vierfachen der gesamten derzeitigen deutschen Wirtschaftsleistung) und diskontierte man diese Schäden mit einem Diskontsatz von 4% auf die Gegenwart ab, so ergäben sie lediglich einen Barwert von 28 Mrd. Dollar. Mehr zur Kompensation oder Abwendung dieser Zukunftsschäden heute zu investieren, wäre nach dieser Sichtweise ökonomisch nicht rational. Selbst wenn man künftige Schäden "nur" mit einer (auf den ersten Blick moderat erscheinenden) Zeitpräferenzrate von 1% pro Jahr abdiskontiert, führt dies dazu, dass in 50 Jahren auftretende Schäden nur noch mit 61%, in 400 Jahren auftretende Schäden gar nur noch mit 0,7% ihrer Kosten gewichtet werden.

Es liegt auf der Hand, dass künftige Schäden hierdurch in grotesker Weise bagatellisiert werden. Die Philosophie von Spinoza über Kant und Schopenhauer bis zu Rawls lehnt eine solche Diskontierung der Zukunft einhellig ab; der Ökonom Roy Harrod bezeichnet sie als "eine höfliche Umschreibung für Raffgier und die Herrschaft der Leidenschaften über die Vernunft" (zitiert nach [Quelle] (S. 104)).

Ein erschreckendes Beispiel für diese Bagatellisierung schildert Olav Hohmeyer:

"Ein besonderes "Erlebnis" für den Verfasser dieses Gutachtens war in diesem Zusammenhang die Forderung einer Regierungsdelegation bei den Verhandlungen [...] der IPCC in Accra im März 2001, alle Klimakosten mit einer Diskontrate von 20% real auf Barwerte umzurechnen. Eine solche Vorgehensweise führt dazu, dass es für heutige Entscheidungen über Treibhausgasemissionen egal ist, ob der Golfstrom in einigen hundert Jahren aufgrund unserer heutigen Emissionen abreisst und Nord- und Mitteleuropa unbewohnbar werden, da jeder Schaden, der einige Jahrzehnte in der Zukunft liegt, praktisch auf Null abdiskontiert werden müsste." [Quelle] (S. 31)

1.3 Die Gleichsetzung von Preis und Wert

Ein einseitig ökonomistisches Denken tendiert dazu, den Wert einer Sache mit ihrem Preis zu verwechseln. Das kann zu beinahe skurril anmutenden Fehleinschätzungen verleiten. So haben in den 1990er Jahren drei renommierte Ökonomen, Thomas C. Schelling (Harvard, Nobelpreis 2005), Wilfred Beckerman (Oxford) und der bereits erwähnte William Nordhaus unabhängig voneinander die Risiken des anthropogenen Treibhauseffekts bewertet. Dabei nahmen sie an, dass die Landwirtschaft praktisch als einziger Wirtschaftszweig von den Folgen der Klimaveränderung betroffen sei [Fußnote]Schon diese Annahme ist natürlich stark vereinfachend und erscheint spätestens nach den durch den Hurrikan Katrina verursachten Verwüstungen in New Orleans als völlig unrealistisch. Aber darum soll es hier nicht gehen.. Nun trägt die Landwirtschaft aber nur etwa 3% zum Bruttoinlandsprodukt der USA bei. Daher kamen Nordhaus, Beckerman und Schelling zu dem Schluss, dass selbst bei einem drastischen Einbruch der Landwirtschaft nur unbedeutende Wohlstandsverluste zu erwarten seien; denn selbst wenn die Agrarproduktion um 50% zurückginge, sänke das Bruttoinlandsprodukt ja nur um 1,5%; würde die landwirtschaftliche Produktion durch den Klimawandel drastisch reduziert, so stiegen nach Schelling die Lebenshaltungskosten nur um 1 bis 2%, und das zu einer Zeit, wenn sich das Pro-Kopf-Einkommen wahrscheinlich verdoppelt haben würde (zitiert nach Herman Daly [Quelle]). Die von solchen Studien ausgehende Botschaft an die Politik liegt auf der Hand: Energische Maßnahmen gegen die Klimaveränderung seien unnötig und schädlich.

Einer solchen Risikoeinschätzung entgeht natürlich, dass bei drastischer Verknappung von Nahrungsmitteln deren Preise explodieren - und damit auch den heute eher marginalen Beitrag der Landwirtschaft zum Bruttoinlandsprodukt in die Höhe treiben würden. Vergessen scheint, dass schon immer schwere Wirtschaftskrisen mit Hungersnöten einhergingen. Wir haben hier ein eindrucksvolles Beispiel dafür, wie sehr Preis und Wert eines Gutes auseinanderklaffen können: Dass die Getreidepreise heute so niedrig sind, ist dadurch bedingt, dass - jedenfalls in den Industrieländern - nur eine geringe Knappheit an Getreide herrscht, und lässt keine Rückschlüsse auf dessen "tatsächlichen" Wert zu (allenfalls auf dessen mangelnde Wertschätzung). Preise sind eben in erster Linie Knappheitsindikatoren und nicht Wertmaßstäbe - ein Umstand, der als sog. Wasser-Diamanten-Paradoxon [Fußnote]das Paradoxon, dass Wasser einen wesentlich niedrigeren Preis hat als ein Diamant, obwohl es so viel nützlicher ist natürlich auch den drei Top-Ökonomen eigentlich vertraut ist. Zudem offenbart sich in deren Aussagen erneut der oben angesprochene beinahe naive Glaube an die unbegrenzte Substituierbarkeit der verschiedenen Güter untereinander.

Einen ähnlichen Fehlschluss begeht die Ökonomie bei der Einschätzung der Bedeutung der Energie als Produktionsfaktor. Dieser wird evident bei der Analyse der Ölkrisen der 1970er Jahre.

1.4 Die Ökonomie und die Ölkrisen

Während der ersten Ölkrise zwischen 1973 und 1975 ging infolge der Drosselung der Erdölfördermengen durch die OPEC der Energieeinsatz in den USA und Westeuropa um bis zu 7% zurück. Dies löste konjunkturelle Einbrüche in der Größenordnung von typischerweise 5% aus: Der Rückgang des Energieeinsatzes hat sich also fast im vollem Umfang auf die Wertschöpfung übertragen. Aus Sicht der neoklassischen Wachstumstheorie ist diese Parallelität eigentlich nicht zu verstehen: Ihr zufolge müsste nämlich das Gewicht, mit dem (prozentuale) Variationen im Einsatz eines Produktionsfaktors auf die Wertschöpfung durchschlagen, die sog. Produktionselastizität [Fußnote]Das Konzept der Produktionselastizitäten stellt einen Versuch dar, den Beitrag an der Gesamtwertschöpfung zu quantifizieren, der den einzelnen Produktionsfaktoren zugeschrieben werden kann: Um wieviel nimmt die Produktion zu, wenn der Energieeinsatz beispielsweise um ein Prozent ausgeweitet wird, der Einsatz von Kapital und Arbeit jedoch unverändert bleibt? Je höher diese Produktionszunahme ist, je empfindlicher die Volkswirtschaft also auf kleine Variationen in der Faktoreinsatzmenge reagiert, als desto bedeutsamer wird man den jeweiligen Produktionsfaktor ansehen dürfen. Aus dem Verhältnis von (relativer) Produktionszunahme und (relativer) Veränderung der Faktoreinsatzmenge erhält man einen quantitativen Maßstab für die Leistungsfähigkeit des betreffenden Faktors: seine Produktionselastizität. Diese stellt eine dimensionslose Größe zwischen 0 und 100% dar. Wenn - um ein fiktives Beispiel zu geben - ein Produktionsfaktor die Produktionselastizität 27% hat, so bedeutet dies, dass ein Mehr- bzw. Mindereinsatz dieses Faktors von 1% die Wertschöpfung (bei konstantem Einsatz der übrigen Faktoren) um 0,27% wachsen bzw. schrumpfen lässt. (anschaulich: Produktionsmächtigkeit), dem Kostenanteil dieses Faktors entsprechen. Nun liegt der Anteil der Energie an den gesamten Produktionskosten in den westlichen Industrienationen aber lediglich bei ca. 5%, so dass nach neoklassischer Sicht auch ihre Produktionselastizität nur 5% betragen dürfte. Dies würde aber bedeuten, dass ein Rückgang des Energieeinsatzes um 7% die Wertschöpfung nur um 0,05 mal 7%, also um etwa 0,35% hätte zurückgehen lassen dürfen [Fußnote]Berücksichtigt man noch die Veränderungen im Arbeits- und im Kapitaleinsatz, so wird die Diskrepanz zwischen ökonomischer Theorie und Realität teilweise noch eklatanter: Im US-amerikanischen Industriesektor etwa stieg der Kapitaleinsatz zwischen 1973 und 1975 inflationsbereinigt um 6,9%, der Einsatz an menschlicher Arbeit sank um 0,8% und der Energieeinsatz sank um 7,3%. Bei einer Gewichtung dieser Werte gemä"s den jeweiligen Faktorkostenanteilen ergibt sich daraus ein zu erwartender Anstieg der Wertschöpfung um inflationsbereinigt 1,1%. Tatsächlich ist die Wertschöpfung im betreffenden Zeitraum jedoch um 5,3% gesunken.. Die tatsächlich beobachteten konjunkturellen Einbrüche waren also um eine Größenordnung höher als die von der Theorie vorhergesagten.

Die durch den Ölpreisschock ausgelösten Wirtschaftskrisen sind mit der neoklassischen Theorie somit nicht angemessen zu erklären. Manche Ökonomen (so etwa E. Denison [Quelle]) zogen daraus den fragwürdigen Schluss, der Konjunktureinbruch während der Ölkrise könne nichts mit dem Rückgang des Energieeinsatzes zu tun gehabt haben. Hier scheint die Einstellung vorzuherrschen: Wenn die ökonomische Theorie nicht zur Realität passt – um so schlimmer für die Realität.

1.5 Das Wachstumsdogma

Auch fast 40 Jahre nach dem Club-of-Rome-Bericht "Die Grenzen des Wachstums" wird permanentes Wirtschaftswachstum von den allermeisten Ökonomen und den von ihnen beratenen Entscheidungsträgern in Politik und Gesellschaft noch immer als Garant, ja beinahe als Synonym für mehr Wohlstand und Beschäftigung angesehen. Die Wirtschaft soll dauerhaft auf einem möglichst gleichmäßigen "Wachstumspfad" gehalten werden, bei dem die Wirtschaftsleistung Jahr für Jahr um real (inflationsbereinigt) ca. zwei bis drei Prozent, also exponentiell zunimmt. Dabei wird ignoriert, dass exponentielles Wachstum in einem beschränkten System auf Dauer nicht durchzuhalten ist, weil es früher oder später alle Begrenzungen sprengt - ob früher oder später, hängt im Wesentlichen von der Wachstumsrate ab. Ein kleines Gedankenexperiment soll die (von Nichtmathematikern leider oft völlig unterschätzte) Dynamik und Dramatik des exponentiellen Wachstums illustrieren: Nehmen wir an, eine Volkswirtschaft wird zur Zeit von Christi Geburt gegründet, bestehend zunächst nur aus wenigen Personen, und die anfängliche Wirtschaftsleistung möge (umgerechnet) kärgliche 1000 Euro pro Jahr betragen. Nun wächst diese Wirtschaftsleistung Jahr für Jahr um 3%. Welches Niveau ist im Jahre 2011 erreicht? In meinen Vorträgen erhalte ich auf diese Frage meist "einige Milliarden" oder "einige Billionen Euro" zur Antwort. Die richtige Antwort liegt weit, weit jenseits dieser Schätzungen: Die Wirtschaftsleistung unserer fiktiven Volkswirtschaft entspräche dem Wert einer Goldkugel vom Gewicht der Erde! Es liegt auf der Hand, dass solch rasantes Wachstum nicht erst nach 2000 Jahren, sondern weit vorher zum Erliegen kommen muss.

Bei aller Wachstumskritik muss man freilich auch einräumen, dass unser Wirtschaftssystem unter den jetzigen Rahmenbedingungen tatsächlich auf permanentes Wachstum angewiesen ist: Ohne Wachstum steigen die Arbeitslosenzahlen, die Staatsverschuldung wächst dramatisch weiter, und die Finanzierungskrise der Sozialsysteme spitzt sich zu. Auf die Frage nach den Ursachen dieser Wachstumsabhängigkeit und nach einer Möglichkeit, sie zu überwinden, kommen wir im Folgenden noch zurück.

1.6 Das Dogma von der "unsichtbaren Hand" des Marktes

Eines der beherrschenden Dogmen der Ökonomie ist der schier unerschütterliche Glaube, dass das freie Spiel der Marktkräfte zu einem volkswirtschaftlichen Optimum führe, dass sich das egoistische Handeln der vielen Einzelnen vermittels des Wirkens der "unsichtbaren Hand" des Marktes als dem Gemeinwohl dienlich erweise. Er entsteht u.a. aus der geradezu grotesken überhöhung und Verabsolutierung eines von recht speziellen und idealisierenden Annahmen ausgehenden Marktmodells. Dieses wird in seiner einfachsten Form (bei der der Markt für eine einzelne Ware betrachtet wird) durch das in Abb. 1 dargestellte sog. Marshall-Kreuz symbolisiert: In diesem Menge-Preis-Diagramm sind sowohl die Nachfrage- als auch die Angebotskurve für ein einzelnes Gut eingezeichnet, die sich in einem Punkt, dem Marktgleichgewicht, schneiden. Durch das Spiel der Marktkräfte stellt sich der Marktpreis stets automatisch so ein, dass er dem Gleichgewichtspreis entspricht. Bei diesem Preis werden Angebot und Nachfrage gerade zur Deckung gebracht; in diesem Sinne führt die "unsichtbare Hand" des Marktes auf beinahe magische Weise eine Optimallösung herbei.

Abb. 1: Das Marshall-Kreuz (nach C.-P. Ortlieb)

Dieses einfache Modell wird nun auf praktisch alle ökonomischen Lebenslagen übertragen, egal wie komplex sie auch sein mögen. Damit wird dann von Marktradikalen begründet, dass der Markt stets die Dinge zum Besten regele und der Staat sich daher möglichst aller reglementierender Eingriffe enthalten solle. Mathematisch unterfüttert wird dies mit der sog. allgemeinen Gleichgewichtstheorie und insbesondere mit den (mit dem Nobelpreis ausgezeichneten) Arbeiten von K. Arrow und G. Debreu über die Existenz des sog. allgemeinen Marktgleichgewichts. Dieses Vorgehen ist gleich in mehrfacher Hinsicht fragwürdig:

(1) Was mit dem "Nutzen" eigentlich gemeint ist, der da vom freien Markt angeblich maximiert wird, wird (zwangsläufig) stets anhand von monetären, nicht etwa von übergeordneten gesellschaftlichen oder ethischen Maßstäben quantifiziert. Wenn einige Superreiche ein paar ihrer Millionen für Schönheitsoperationen auszugeben bereit sind, während in manchen afrikanischen Ländern das Geld für Medikamente gegen dort grassierende Infektionskrankheiten fehlt, so wird die "unsichtbare Hand" des Marktes selbstverständlich zu dem Schluss kommen, dass die wirtschaftlichen Ressourcen besser in gefragte Schönheitsoperationen als in die Entwicklung und Produktion von Medikamenten fließen sollten, nach denen gar keine kaufkräftige Nachfrage besteht und die deshalb nach der Marktlogik keinen hohen Stellenwert haben können.

(2) Bereits das einfache Marktmodell geht von Annahmen aus, die mehr oder minder idealisierend sind:

Ein methodisch korrektes Vorgehen müsste bei jeder Anwendung des Marktmodells auf konkrete Situationen jeweils überprüfen, inwieweit die Modellannahmen überhaupt erfüllt sind. Tatsächlich findet diese überprüfung aber selbst in einführenden Lehrbüchern der Volkswirtschaftslehre in aller Regel kaum statt. C.-P. Ortlieb stellt hierzu fest:

"Im Lehrbuch von Mankiw (2001) findet sich [...] auf 850 Seiten das Diagramm aus Abb. 1 insgesamt 91 mal, je nach Anwendungsbereich nur verschieden beschriftet, ohne dass der Autor sich die Mühe macht, die Modellannahmen für die jeweils betrachtete Situation erneut zu überprüfen oder zu begründen." [Quelle]

Auch den Resultaten von Arrow und Debreu über die Existenz des allgemeinen Gleichgewichts liegen relativ spezielle Annahmen zugrunde, die man hinsichtlich ihres Wirklichkeitsbezugs kritisch hinterfragen kann; da uns dies zu tief in mathematische Details verstricken würde, wollen wir hierauf nicht näher eingehen und verweisen für nähere Ausführungen auf [Quelle].

(3) Das einfache Marktmodell ist ein statisches Modell, das – wie bereits erwähnt – keine zeitliche Dimension kennt. Daher kann auch die Frage nicht geklärt werden, inwiefern es sich bei dem Marktgleichgewicht überhaupt um ein stabiles Gleichgewicht handelt. C.-P. Ortlieb bemerkt hierzu:

"Der aus den Naturwissenschaften bekannte Begriff des Gleichgewichts wird hier systematisch überstrapaziert, indem er einfach mit einem stabilen Gleichgewicht identifiziert wird, ohne dass der Stabilitätsnachweis jemals geliefert würde, der im Rahmen der üblicherweise betrachteten statischen Modelle auch gar nicht möglich wäre. Zu zeigen bleibt dann nur noch die Existenz des Gleichgewichts, was in der Regel dadurch passiert, dass irgendwelche irrealen Sonderfälle als allgemein gültig deklariert werden, wobei dann die in verschiedenen Kapiteln desselben Buches dem jeweiligen Zweck entsprechend gewählten Spezialfälle oft auch noch zueinander in Widerspruch stehen." [Quelle]

Folgerichtig muss dann erst recht auch die Frage offenbleiben, wie lange es dauert, bis sich das Marktgleichgewicht einstellt. Die Neoklassik entzieht sich dieser Problematik, indem sie diese Fragen einfach ausblendet und davon ausgeht, dass Anpassungsprozesse, die zum Gleichgewicht hinführen, stets instantan, ohne zeitliche Verzögerung erfolgen. Zu welch gravierenden Fehlschlüssen diese Annahme verleiten kann, darauf kommen wir am Ende von Abschnitt 3 noch zu sprechen.

(4) Schließlich stellt sich die Frage, inwiefern und in welchem Sinne das Marktgleichgewicht überhaupt optimal ist. Debreu zeigte 1976 [Quelle], dass das allgemeine Gleichgewicht pareto-optimal bezüglich der Konsumenten ist. Nun ist Pareto-Optimalität freilich ein sehr schwaches Optimalitätskonzept und darf nicht mit einem lokalen oder gar globalen Maximum verwechselt werden: Dass eine Situation pareto-optimal ist, bedeutet lediglich, dass es nicht möglich ist, einen Marktteilnehmer besser zu stellen, ohne dass dabei zugleich ein anderer schlechter gestellt wird. In diesem Konzept werden also nur einzelne Partikularinteressen berücksichtigt, ohne den Versuch, diese in irgendeiner Weise auszugleichen; insbesondere spielen Verteilungsgesichtspunkte keine Rolle. Es liegt auf der Hand, dass im Allgemeinen nicht nur eine, sondern sehr viele Situationen pareto-optimal sind: Sobald z.B. eine bestimmte Situation für einen einzigen Marktteilnehmer optimal ist, ist sie offensichtlich bereits pareto-optimal für das gesamte System – unabhängig davon, wie es den übrigen Akteuren dabei ergeht! Dass das allgemeine Marktgleichgewicht pareto-optimal ist, ist also eine Aussage von eher beschränktem Wert; keinesfalls darf man schließen, dass dieses Gleichgewicht die aus Sicht des Gemeinwohls bestmögliche (!) Konstellation darstellt. [Fußnote]überspitzt könnte man sagen, dass die Fixierung auf Pareto-Optimalität der Grund ist, weshalb es in unserem politisch-gesellschaftlichen System so schwer geworden ist, wirkliche Veränderungen durchzusetzen: Es gibt praktisch immer irgendwelche – meist einflussreiche – Partikularinteressen, für die der Status Quo optimal ist, so dass er gleichzeitig pareto-optimal für das System ist. Macht man Pareto-Optimalität zum Maßstab des Handelns, dann kann man also praktisch immer gegen Veränderungen argumentieren.

Um eine solche "bestmögliche" Konstellation zu identifizieren, müsste man erst einmal eine Bewertung einführen, hinsichtlich derer man verschiedene Situationen vergleichen könnte. Man müsste also z.B. die vielen individuellen Nutzenfunktionen zu einer einzigen gesamtwirtschaftlichen Nutzenfunktion zusammenzufassen, und müsste hierbei divergierende Partikularinteressen gegeneinander abwägen. Es liegt auf der Hand, dass dies nicht objektiv möglich ist [Fußnote]Dass sich das Konzept der Pareto-Optimalität durchgesetzt hat, resultierte gerade aus der Ablehnung des utilitaristischen Konzepts von der Summe der individuellen Nutzen, da diese nicht objektiv zu quantifizieren sind., sondern letztlich normativer, d.h. politisch-gesellschaftlicher Entscheidungen bedarf. Damit ist dies eine Aufgabe, die den Zuständigkeitsbereich der Ökonomie schlichtweg übersteigt.

1.7 Die neoklassische Erklärung der Arbeitslosigkeit

Eine der Situationen, in denen das einfache Marktmodell von neoklassischen Ökonomen unkritisch herangezogen wird, ohne seine Anwendbarkeit zu überprüfen, stellt der Arbeitsmarkt dar (vgl. Abb. 2). Die in den Industrienationen seit Jahrzehnten anhaltende Arbeitslosigkeit wird damit erklärt, dass durch marktfremde Einflüsse (Tarifverträge, Mindestlöhne, Kündigungsschutz) der Arbeitsmarkt daran gehindert werde, zum Gleichgewicht (auf dem Lohnniveau WG) zu finden, in dem Arbeitsangebot und Nachfrage übereinstimmen, es also keine Arbeitslosigkeit gibt; stattdessen werde das Lohnniveau "künstlich" auf einem Niveau WM oberhalb des Gleichgewichtslohns gehalten, bei dem angebotene (LS) und nachgefragte (LD) Arbeitsmenge auseinanderklaffen. Daraus erklärt sich das neoliberale Dogma, die Arbeitslosigkeit könne am wirkungsvollsten durch die Deregulierung des Arbeitsmarktes beseitigt werden, dadurch also, dass die Lohnfindung komplett dem freien Markt überlassen wird.

Abb. 2: Die neoklassische Erklärung der Arbeitslosigkeit (nach C.-P. Ortlieb)

Diese Argumentation ist aus zwei Gründen untragbar:

(1) Zum einen trifft sie keinerlei Aussage darüber, auf welchem Niveau sich der vom freien Markt festgelegte "Gleichgewichtslohn" einpendeln würde, ob er evtl. auf einem Niveau knapp über oder gar unter – vielleicht weit unter? – dem Existenzminimum liegen würde.

(2) Zum anderen wird – wieder einmal – nicht überprüft, ob die oben aufgeführten Modellannahmen des einfachen Marktmodells für den Arbeitsmarkt überhaupt zutreffen. Insbesondere liegt diesem ja die Annahme zugrunde, dass das Angebot (hier: das Angebot an Arbeitskraft [Fußnote]nicht zu verwechseln mit dem Angebot an Arbeitsplätzen! mit dem Preis (hier: dem Arbeitslohn) monoton steigt; das würde konkret bedeuten, dass sich bei sinkenden Löhnen immer mehr Arbeitskräfte vom Arbeitsmarkt zurückziehen, weil es für sie unattraktiv wird, überhaupt eine Arbeit aufzunehmen. Diese Annahme erscheint wenig realistisch, wenn man bedenkt, dass die Mehrzahl der Menschen auf Erwerbsarbeit zur Existenzsicherung angewiesen und insofern nicht wirklich frei ist, je nach Lohnhöhe zu entscheiden, ob sie ihre Arbeitskraft überhaupt anbieten wollen [Fußnote]Sicherlich wird es immer auch Menschen geben, die es bei sinkenden Löhnen vorziehen, sich in der sprichwörtlichen "sozialen Hängematte" auszuruhen, so dass die Annahme eines mit sinkenden Löhnen sinkenden Arbeitskräfteangebots durchaus einen wahren Kern enthält. Es ist aber sehr zu bezweifeln, dass dies der dominierende Effekt ist. Davon abgesehen sei die Frage erlaubt, ob es wirklich so verwerflich ist, eine Arbeit abzulehnen, für die lediglich menschenunwürdige Löhne geboten werden. – eher im Gegenteil: "Wer 40 Stunden in der Woche für einen Stundenlohn von 8 Euro arbeitet und den wöchentlichen Lohn von 320 Euro zum (über-)Leben dringend braucht, der wird bei einer Absenkung des Stundenlohns auf 6 Euro den Wunsch haben, mehr zu arbeiten, damit das nötige Geld zusammen kommt. Insbesondere in Billiglohnsektoren oder -ländern ist deshalb vielfach die Tendenz zu beobachten, einen Zweitjob auszuüben, ggf. auch in Schwarzarbeit." [Quelle] (S. 20)

Insofern ist es gut vorstellbar, dass die Kurve des Angebots an Arbeitskraft nicht einfach monoton mit dem Preis steigt, sondern z.B. den in Abb. 3 skizzierten Verlauf hat. Hier nimmt im oberen Lohnsegment das Angebot an Arbeitskraft bei steigenden Löhnen zu, im unteren Lohnsegment ist es jedoch gerade umgekehrt. In diesem Fall ist es vorstellbar, dass sich Angebots- und Nachfragekurve überhaupt nicht schneiden, so dass es gar keinen Gleichgewichtslohn gibt.

Abb. 3: Ein alternativer Verlauf der Arbeitsangebotskurve (nach C.-P. Ortlieb)

Welche Situation tatsächlich vorliegt, ob das Arbeitskraftangebot mit dem Lohn monoton steigt oder fällt oder irgendeinen anderen Verlauf nimmt, z.B. den in Abb. 3, darüber lässt sich trefflich streiten: "Mankiw [...] etwa stellt [...] fest, dass je nach der Art der Präferenzen die Arbeitsangebotskurve einen steigenden oder fallenden Verlauf aufweisen kann. Das hindert ihn aber nicht daran, achtzig Seiten vorher die uneingeschränkte Anwendbarkeit des Angebot-Nachfrage-Modells auf den Arbeitsmarkt zu konstatieren und hundertzwanzig Seiten später die Absenkung der angeblich zu hohen Mindest- und Tariflöhne als Rezept gegen die dauerhafte Arbeitslosigkeit aus eben diesem Modell abzuleiten. Es ist schon erstaunlich, welche Ungereimtheiten zwischen zwei Buchdeckel passen." [Quelle] (S. 20)

1.8 Das Dogma vom Freihandel

Eine der Entwicklungen, die die Welt in den letzten Jahrzehnten am meisten geprägt haben, ist die sogenannte "Globalisierung". Eine ihrer Voraussetzungen und zugleich eines ihrer Hauptmerkmale ist die internationale Handelsliberalisierung, die auf dem Dogma beruht, dass Freihandel stets dem allgemeinen Wohlstand diene und protektionistische Maßnahmen daher grundsätzlich abzulehnen seien. Die populärste Begründung hierfür stellt Ricardos Theorie des komparativen Vorteils dar, derzufolge sich Außenhandel stets für beide Seiten lohnt, selbst dann, wenn ein Land gegenüber einem anderen bei allen Gütern (absolute) Kostenvorteile habe: Beide Länder könnten dann nämlich davon profitieren, dass sie sich auf die Produktion derjenigen Güter spezialisieren, bei denen sie relative (komparative) Kostenvorteile haben.

Gegen diese Theorie ist zunächst wenig einzuwenden. Sie geht allerdings von einer Voraussetzung aus, die zwar Anfang des 19. Jahrhunderts, als Ricardo seine Außenhandelstheorie aufstellte, erfüllt war, heute jedoch längst überholt ist, der Voraussetzung nämlich, dass Kapital nicht international mobil ist. Im Zeitalter der Globalisierung verliert das Argument des komparativen Vorteils seine Anwendbarkeit; stattdessen werden die Kapitalströme hin zu den (zu bloßen "Standorten" degradierten) Ländern fließen, die absolute Kostenvorteile aufweisen.

Ferner berücksichtigt die Theorie des komparativen Vorteils nicht, dass im Laufe der Zeit die Nachfrage nach bestimmten Gütern zurückgehen kann. Das auf die Produktion dieses Gutes spezialisierte Land muss daraufhin seine Preise entsprechend senken, wodurch sich seine Gewinnspanne reduziert, im ungünstigen Fall so stark, dass die Handelsbilanz defizitär wird und nicht mehr genügend Kapital vorhanden ist, um aus der nunmehr unvorteilhaft gewordenen Spezialisierung aus- und in die Produktion anderer Güter umzusteigen. Diesem Mechanismus unterliegen heute viele auf Agrarexporte spezialisierte Entwicklungsländer: Ein erheblicher Preisverfall hat hier oft dazu geführt, dass die Exporteinnahmen deutlich unter den Ausgaben für den Import von weiterverarbeiteten technischen Gütern liegen; andererseits sind diese Länder zur Bedienung der mittlerweile angehäuften Auslandsschulden auf weitere Exporterlöse angewiesen - und damit in einer Armutsfalle gefangen.

1.9 Die Überhöhung von Effizienz und Produktivitätssteigerung

Eine der zentralen Fragestellungen in der Ökonomie ist die nach der Effizienz wirtschaftlichen Handelns. Im Zuge der zunehmenden Ökonomisierung des gesamten politisch-gesellschaftlichen Diskurses ist daher der Effizienzmaßstab immer mehr zur Richtschnur für politische Entscheidungen geworden.

Nun wird sicherlich kaum jemand den Sinn eines effizienten Umgangs mit knappen Gütern anzweifeln (oder sich gar die berüchtigte Ineffizienz des "real existierenden Sozialismus" zurückwünschen). Effizienz wird jedoch offensichtlich um so bedeutungsloser, je weniger knapp das betreffende Gut ist. Beispielsweise ist der Faktor Arbeit heute nicht mehr wirklich knapp, angesichts von Massenarbeitslosigkeit in den Industrienationen und Überbevölkerung in den Entwicklungsländern, denen es für ein Entkommen aus der Armutsfalle viel eher an der Verfügbarkeit von Energie und Technologie denn an menschlicher Arbeitskraft fehlt. Gerade beim Umgang mit menschlicher Arbeitskraft, die nicht nur Produktionsfaktor ist, sondern auch jenseits ihres Beitrags zur Erwirtschaftung des BIP eine wichtige sinnstiftende Funktion hat, erscheint es deplaciert, allein den Maßstab der Effizienz anzulegen. Die Kehrseiten eines allzu "effizienten" Einsatzes menschlicher Arbeitskraft sind nur zu gut bekannt: zunehmender Leistungs- und Zeitdruck, sinkende Freude an der Arbeit, Entmenschlichung des Arbeitslebens. Es ist zu bezweifeln, dass sie durch noch so große Zuwächse an materiellem Wohlstand aufgewogen werden können.

Dies führt uns dazu, die Aussagekraft eines weiteren Begriffs zu hinterfragen, der in der öffentlichen Diskussion eine große Rolle spielt: des Begriffs der Arbeitsproduktivität (siehe hierzu ausführlich Arbeitsproduktivität -- ein missverstandener Begriff). Definitionsgemäß ist Arbeitsproduktivität nichts anderes als das Verhältnis von erzielter Wertschöpfung zu hierfür eingesetzter (menschlicher) Arbeit. Interpretiert wird der Begriff hingegen oft in einer mit unbewussten Konnotationen aufgeladenen Weise, die durch seine Definition nicht gedeckt ist: Dass die Arbeitsproduktivität in den Industrienationen seit Jahrzehnten kontinuierlich wächst, gilt als Indiz dafür, dass der einzelne Arbeitnehmer immer mehr erwirtschaftet (womit dann die Forderung nach Lohnerhöhungen begründet wird, da die höhere Leistung ja auch eine entsprechend bessere Bezahlung rechtfertige). Folglich wird steigende Arbeitsproduktivität meist selbstverständlich als (wünschenswerter) Fortschritt angesehen, wie es ja bereits die Formulierung vom "Produktivitätsfortschritt" suggeriert.

Nun hat die Steigerung der Arbeitsproduktivität in den vergangenen Jahrzehnten in der Tat eine bis dahin ungekannte Zunahme des allgemeinen Wohlstands bei gleichzeitiger erheblicher Verbesserung der Arbeitsbedingungen durch Arbeitszeitverkürzung und Entlastung des Menschen von schwerer, gefährlicher und monotoner Arbeit ermöglicht. Dies gilt insbesondere für den industriellen Sektor, aber auch für viele Routinetätigkeiten (vor allem bürokratische Aufgaben) im Dienstleistungsbereich, die in den letzten 20 Jahren zunehmend von Computern übernommen worden sind. Hier ist es sicherlich legitim, in der gestiegenen Arbeitsproduktivität gesellschaftlichen Fortschritt zu sehen. Ganz anders sieht es jedoch beispielsweise in den Bereichen Bildung, Medizin oder Soziales aus: Steigende Arbeitsproduktivität in Krankenhäusern oder Schulen bedeutet ja, dass ein Arzt immer mehr Patienten versorgen, ein Lehrer vor immer größeren Klassen unterrichten muss usw. In diesen und anderen Zukunftsbereichen wäre eher eine "sinkende Arbeitsproduktivität" (im Sinne einer besseren personellen Ausstattung) wünschenswert.

Zudem kann man von einer hohen Arbeitsproduktivität keineswegs auf eine hohe ökonomische Bedeutung des Faktors Arbeit schließen. Ebenso voreilig ist es, den in der Vergangenheit zu beobachtenden Anstieg der Arbeitsproduktivität der gestiegenen Tüchtigkeit oder Qualifikation der Arbeiter zuzuschreiben; er könnte vielmehr sogar durch eine abnehmende Bedeutung des Faktors Arbeit für die Wertschöpfung bedingt sein. Dies wird deutlich, wenn man an folgendes (zugegebenermaßen provokatives) Extrem-Beispiel denkt: In dem Maße, in dem das Pferd im 19. und frühen 20. Jahrhundert als Transportmittel und damit als Produktionsfaktor durch Autos und Eisenbahnen verdrängt worden ist, ist seine Produktivität (nämlich das Verhältnis von Wertschöpfung zu eingesetzter Zahl an Pferden) gewachsen; dennoch würde niemand daraus den Schluss ziehen, die Pferde seien seinerzeit immer leistungsfähiger geworden, oder davon sprechen, ein Pferd habe eine immer höhere Wertschöpfung erwirtschaften können. Auf Indizien, die tatsächlich auf eine eher schwache ökonomische Rolle des Faktors Arbeit hindeuten, kommen wir noch zu sprechen.

1.10 Die Vollbeschäftigungsannahme

Gerade die Diskussion über die demographische Entwicklung wird leider zumeist unter einer realitätsfernen Annahme geführt (die freilich selten explizit benannt wird), der Annahme nämlich, dass Vollbeschäftigung herrsche. Unter dieser Prämisse erscheint es dann in der Tat als hochproblematisch, wenn jeder Arbeitnehmer immer mehr Rentner miternähren muss; der wachsende Rentneranteil erscheint zunehmend als "Last", die man vor allem durch eine Verlängerung der Lebensarbeitszeit verringern will.

Zu einer ganz anderen Analyse kommt man hingegen, wenn man bedenkt, dass unsere Wirtschaft seit Jahrzehnten weit von der Vollbeschäftigung entfernt ist. Eine Veränderung der Alterspyramide ist dann näherungsweise ein Nullsummenspiel für die Sozialkassen (wenn man davon ausgeht, dass ein Rentner und ein Arbeitsloser ungefähr die gleichen Kosten verursachen); die derzeitige demographische Entwicklung belastet zwar die Rentenkassen, entlastet aber andererseits im gleichen Maße den Arbeitsmarkt und damit die Arbeitslosenversicherung [Fußnote]Insofern ist zu erwarten, dass eine Verlängerung (aber auch eine Verkürzung) der Lebensarbeitszeit letztlich ohne große Auswirkungen bleibt: Es kommt dadurch lediglich zu einer Lastenverschiebung von der Renten- zur Arbeitslosenversicherung (oder umgekehrt), nicht aber zu einer Verringerung der Gesamt"last". Tatsächlich hat die Erhöhung des Renteneintrittsalters vermutlich auch einen anderen Hintergrund: Es erwartet wohl niemand, dass genügend Arbeitsplätze für die erhöhte Zahl an Arbeitsuchenden zur Verfügung stehen. Vielmehr handelt es sich um eine verkappte Rentenkürzung: Die Menschen werden nicht anders als heute vorzeitig in Ruhestand geschickt - aber mit höheren Rentenabschlägen.. Es gibt sicherlich vielerlei Gründe, die überalterung unserer Gesellschaft für besorgniserregend zu halten – für die Finanzierungskrise unserer Sozialsysteme kann man sie nur bedingt in Haftung nehmen; diese hat tieferliegende Ursachen, auf die wir ebenfalls weiter unten eingehen werden.

Auch manche der heute in allen möglichen Zusammenhängen vorgebrachten Kostenargumente sind mit Vorsicht zu genießen, da sie auf einer (impliziten und teilweise vielleicht sogar unbewussten) Vollbeschäftigungsannahme beruhen und die ungenutzt brachliegenden volkswirtschaftlichen Ressourcen in Form von Millionen von Arbeitslosen außer Acht lassen. Ein typisches Beispiel dafür ist, wie die fantastischen Möglichkeiten der modernen Medizin vorwiegend als "Kostenexplosion" im Gesundheitswesen wahrgenommen werden: Dabei wird weder der kaum zu überschätzende Beitrag zum Gemeinwohl bedacht, den das Gesundheitswesen leistet, noch die mit diesen "Kosten" finanzierten Arbeitsplätze.

Die Diskussion um den Ausbau der Photovoltaik in Deutschland war in den letzten Jahren ebenfalls von einem ängstlichen Schielen auf die angeblich durch die Solarstrom-Vergütungen verursachten "Lasten" geprägt. Eine volkswirtschaftliche Belastung (im Sinne von Opportunitätskosten [Fußnote]Opportunitätskosten sind letztlich fiktive Kosten, die anderweitig entgangenen Nutzen widerspiegeln. Sie sind mit praktisch jeder wirtschaftlichen Entscheidung verbunden: Wer z.B. 8 Euro für einen Kinobesuch ausgibt, muss als Opportunitätskosten den entgangenen Nutzen gegenrechnen, den er gehabt hätte, wenn er sich für diese 8 Euro stattdessen eine Musik-CD gekauft hätte.) stellen diese Vergütungen freilich nur dann dar, wenn sie anderweitige Konsummöglichkeiten einschränken. Das ist aber nicht zwangsläufig der Fall: Angesichts der heutigen Unterauslastung des Faktors Arbeit sowie des Überangebots an anlagesuchendem Kapital muss der Ausbau der Photovoltaik keinesfalls zum Abzug volkswirtschaftlicher Ressourcen aus der Herstellung anderer Güter führen; vielmehr ermöglichen die EEG-Vergütungen eine teilweise Mobilisierung des heute ungenutzt brachliegenden Arbeitskräfte-Potentials, gerade in strukturschwachen Regionen. Hierdurch werden Einkommen bei den neu eingestellten Beschäftigten generiert, und es können die Beiträge zur Arbeitslosenversicherung gesenkt werden (siehe hierzu ausführlich Die 300-Milliarden-Euro-Chance).

2. Methodische Fehler der Ökonomie

Unsere bisherigen Betrachtungen haben eine besorgniserregende Realitätsferne wesentlicher ökonomischer Modelle (die überwiegend der tonangebenden neoklassischen Schule zuzurechnen sind) aufgezeigt. Diese wird gut kaschiert durch die Benutzung einer für den Laien beinahe unzugänglichen Sprache, die zudem ihre ehrfurchtseinflößende Wirkung nur selten verfehlt: der Sprache der Mathematik. Auch die unsinnigsten Folgerungen werden dadurch von vornherein weitgehend gegen jede Kritik abgeschottet, schlichtweg deshalb, weil nur sehr wenige Menschen es sich zutrauen, ihre Stimme gegen Aussagen zu erheben, die vermeintlich mit der Präzision und Unwiderleglichkeit der Mathematik gepanzert sind.

Dieses Verschanzen hinter der Mathematik erinnert daran, wie Leonhard Euler, der wohl bedeutendste Mathematiker des 18. Jahrhunderts, während seines Aufenthalts am Hofe Katharinas der Großen einen Disput mit dem französischen Enzyklopädisten Denis Diderot für sich entschied. S. Singh schildert diese Anekdote wie folgt: "Diderot war überzeugter Atheist und verbrachte seine Zeit damit, die Russen zum Atheismus zu bekehren. Katharina war darüber erzürnt und bat Euler, dem Treiben des gottlosen Franzosen Einhalt zu gebieten. Euler dachte ein wenig über die Sache nach und verkündete dann, er besitze einen algebraischen Beweis für die Existenz Gottes. Katharina bat Euler und Diderot zu sich in den Palast, um im Kreise ihrer Höflinge dem theologischen Disput zu lauschen. Euler trat vor das Publikum und verkündete: "Mein Herr, (a + b^n) / n = x, also existiert Gott; antworten Sie!" Diderot, der wenig von Algebra verstand, konnte gegen den größten Mathematiker Europas kein Argument ins Feld führen und blieb stumm. Gedemütigt verließ er Sankt Petersburg und kehrte nach Paris zurück." [Quelle] (S.102)

aufklappen >

Dabei sind keine mathematischen Spezialkenntnisse erforderlich, um gegen realitätsferne Dogmen der Ökonomie zu argumentieren. Denn der Kardinalfehler der ökonomischen Modelle liegt in aller Regel bereits in ihren realitätsfernen Modellannahmen. Die Prognosen eines mathematischen Modells können aber selbstverständlich nur so realitätsnah sein wie die zugrundeliegenden Modellannahmen. Diese kritisch zu hinterfragen, dazu bedarf es lediglich des gesunden Menschenverstandes – sowie des von Immanuel Kant geforderten Mutes, sich seiner ohne Leitung eines anderen zu bedienen. Dann kommt man vielleicht zu einer ähnlichen Schlussfolgerung wie der bereits mehrfach zitierte Claus-Peter Ortlieb, der über die Qualität der ökonomischen Modellbildung folgendes vernichtende Urteil fällt:

"Zusammenfassend ist festzustellen, dass die Volkswirtschaftslehre bzw. deren dominierende Schule mathematische Modelle zwar extensiv einsetzt, von einer methodisch sauberen mathematischen Modellbildung aber nicht die Rede sein kann. Der Hauptfehler besteht in dem Vorgehen, die mit jeder Modellierung notwendig verbundenen Modellannahmen entweder nicht auszuweisen oder sie nach beiläufiger Erwähnung gleich wieder unter den Teppich zu kehren, wenn sie bestimmte Argumentationen stören. [...] Der Eindruck drängt sich auf, dass ein solches Vorgehen nicht einfach fehlerhaft ist, sondern absichtsvoll: Es geht weniger darum, Erkenntnisse zu gewinnen, als vielmehr bestimmte vorgefasste Sichtweisen zu vermitteln, nämlich die einer Harmonielehre des Marktes, der "Gleichgewichtsidee". [...] Mathematische Modelle können in keinem Fall mehr liefern als logische und mathematische Schlussfolgerungen aus den Annahmen, die in sie hineingesteckt wurden. Es wäre deshalb schon viel gewonnen [...], würde man jedem Modell einen "Beipackzettel" anheften, auf dem festgehalten ist, auf welchen Annahmen es beruht und unter welchen Bedingungen es anwendbar ist, also z.B. Unter Bedingungen industrieller Massenproduktion nicht geeignet. Da dann allerdings die Mehrzahl der einführenden Lehrbücher vom Markt genommen werden müsste, ist dieser Vorschlag nicht besonders realistisch." [Quelle]

Es ist nicht sonderlich überraschend, dass solches methodisch fragwürdiges Vorgehen zu Konflikten mit der Realität führen muss. Bemerkenswert ist allerdings, wie diese Konflikte "gelöst" werden:

"Gegen empirische Falsifikation ist solcherlei "Methodik" durch den zweiten Teil des neoklassischen Gleichgewichtsdogmas immunisiert: Wann immer die Wirklichkeit zur reinen Lehre in Widerspruch gerät, liege das eben daran, dass dem freien Spiel der Marktkräfte nicht genügend Raum gegeben wurde. Die angeblich "ideologiefreie Methodik" erweist sich so als das direkte Gegenteil: Eine Harmonielehre des Marktes wird gegen alle Krisenerscheinungen der kapitalistischen Produktions- und Wirtschaftsweise zum Dogma erhoben und anschließend in mathematische Form gegossen, wobei die Mathematik aber nicht - wie in den Naturwissenschaften - als Erkenntnisinstrument, sondern als eine Art Trickspiegel dient, um dem geneigten Publikum vorzugaukeln, hier würde Wissenschaft betrieben." [Quelle]

Dass die oben angesprochenen (und manche weiteren) Dogmen der Ökonomie nur eher selten auf Widerspruch stoßen und bisher überwiegend doch auf fruchtbaren Boden gefallen sind, lässt sich aber nicht allein damit erklären, dass sie sich geschickt hinter der Mathematik verschanzen und sich damit den Anschein der Objektivität und Ideologiefreiheit geben. Wie jede Ideologie konnten sie nur deshalb so erfolgreich sein, weil sie in gewisser Weise den Nerv ihrer Zeit treffen bzw. getroffen haben. Insofern kann man sich fragen, inwiefern jene Dogmen lediglich ein Spiegelbild einer kollektiven Sinnkrise sind – einer Sinnkrise, die vielleicht gerade darin besteht, dass wir Mittel (wie Geld, Leistung, Erfolg, Effizienz) und (Lebens-)Zweck verwechseln [Fußnote]Man fühlt sich an das Wort von Oskar Lafontaine über die Sekundärtugenden erinnert, mit denen man auch ein KZ betreiben könne. – und die wir zugleich durch diese Verwechslung zu verdrängen suchen, die sich also letztlich aus sich selbst speist. Charles Handy hat den Zusammenhang zwischen Sinnkrise und fragwürdigen Dogmen und Ideologien sehr treffend und nachdenklich beschrieben:

"Ich bin überzeugt, dass viele von uns die abendländische Welt, die wir uns erschaffen haben, verwirrend finden. Die Folgen des Kapitalismus, dessen Beitrag zu unserem Wohlergehen außer Frage steht, der jedoch Reich von Arm trennt und immense Energie von allen fordert, machen uns ratlos. Ganz offensichtlich verhilft er nicht immer und überall zu mehr Zufriedenheit. Ich kenne zwar kein besseres Wirtschaftssystem, aber auch der neueste Trend, aus allem ein Geschäft zu machen, sogar aus unserem eigenen Leben, kann nicht die Antwort sein. Ein Krankenhaus – und mein Leben - ist mehr als ein Geschäft.

Welchen Sinn kann es haben, Reichtümer anzuhäufen, die man unmöglich ausgeben kann, und welchen Zweck haben all die Leistungen, die nötig sind, um diese Reichtümer zu schaffen, wenn nach Berechnungen der Genfer Internationalen Arbeitsorganisation inzwischen ein Drittel aller Arbeitnehmer in der Welt arbeitslos oder unterbeschäftigt ist? Wo wird es enden, dieses heftige Verlangen nach Wachstum? Wenn wir die derzeitige Wachstumsrate beibehalten, werden wir in 100 Jahren 16mal mehr derselben Produkte kaufen wie heute. Selbst wenn die Umwelt diese Last noch tragen könnte - was werden wir mit all diesem Zeug anfangen? [...]

Dass sich die Mächtigen über diese Probleme ganz offensichtlich keine Sorgen machen, zeugt von außerordentlicher Selbstgefälligkeit. Ich bin enttäuscht von dem Postulat, dass diese besorgniserregenden Tatsachen unvermeidliche Begleiterscheinungen des Wandels seien und es nur genügend Zeit, Technologie und Wirtschaftswachstum brauche, um ihrer Herr zu werden. Ich bin verärgert über das vergeudete Leben so vieler Menschen, die inmitten der Reichen von Armut zugrunde gerichtet werden. Ich bin besorgt über das Fehlen einer transzendenteren Einstellung zum Leben und zu seinem Sinn, aber auch über die Vorherrschaft jenes Wirtschaftsmythos, der in all unser Handeln einfließt. Geld ist ein lebensnotwendiges Mittel, aber nicht Lebenszweck. Es muss etwas geben, das wir tun können, um das Gleichgewicht wiederherzustellen.

Schuld an allem sind wir zweifellos selbst. Wir haben uns von den falschen Versprechungen der konkurrierenden Traditionen von Wissenschaft, Ökonomie und Religion in Sicherheit wiegen lassen. Die Wissenschaft will uns nahelegen, dass wir einzig von unseren Genen bestimmt werden, von Kräften also, die jenseits unserer Kontrolle liegen. Folglich könnten wir uns ebensogut einfach zurücklehnen und das Beste hoffen. Die Ökonomie offeriert materiellen Wohlstand als einziges universelles Ziel und behauptet, dass wir dieser Prämisse nur zu folgen bräuchten, damit sich nach den Gesetzen des Marktes und des Leistungsdiktats alles andere wie von selbst ergebe. Und die Religionen machen ihre eigenen falschen Heilsversprechen, indem sie die Idee propagieren, dass man sich nur an ihre Regeln halten oder in eine höhere Macht vertrauen müsse, und schon werde alles gut - wenn nicht in dieser, dann in einer anderen, imaginierten Welt. Die Vernunft sagt uns, dass jede dieser Traditionen recht haben könnte, aber unsere Herzen rebellieren gegen den Gedanken, dass unser Daseinszweck auf die eine oder andere Weise bereits derart festgelegt sein sollte. [...]

Kein Wunder, dass wir verwirrt sind und nach etwas anderem hungern. Ich vermute, und darauf baue ich all meine Hoffnungen, dass viele Menschen diese Zweifel und Ängste teilen, weil sie spüren, dass das Leben nicht einfach nur auf ein Geschäft reduziert werden kann. Wahrscheinlich fühlen auch sie, dass es der Liebe und Freundschaft bedarf, der Verantwortung für andere oder des Glaubens an irgendeine Sache, nicht Geld, um das Leben lebenswert zu machen, und dass es am Ende doch wichtig ist, an einen Sinn unseres Lebens zu glauben, selbst wenn es schwierig ist, ihn zu entdecken. Die meisten von uns haben letztlich ziemlich bescheidene Ambitionen. Wir wollen ein anständiges Leben in einer anständigen Gesellschaft führen, und wenn die Chancen einigermaßen gut stehen, könnte uns das auch gelingen, denn wir haben nicht nur schlechte, sondern auch gute Impulse, und in unseren Körpern wohnt nicht nur ein Hirn, sondern auch ein Herz. Wenn wir uns und unseren Herzen nur ein wenig mehr und den diversen Dogmen dafür weniger vertrauten, könnten wir die Kontrolle über die wirklich wichtigen Dinge im Leben zurückgewinnen." [Quelle] (S. 12-14)

Eine ähnliche Analyse der psychologischen Hintergründe einer anderen Ideologie, nämlich der Ideologie der nuklearen Abschreckung, hat Erich Fromm in [Quelle] vorgelegt. Er setzt sich darin mit den Planspielen Herman Kahns auseinander, unter welchen Umständen es sinnvoll sei, einen Nuklearkrieg zu führen und wie man ihn gewinnen und seine Schrecken in einem "erträglichen" Rahmen halten könne, Planspiele, die unter "pessimistischen" Annahmen die Auslöschung aller 53 Großstadtgebiete der USA und den Tod von zwei Dritteln der US-Bevölkerung einkalkulieren. (Kahn stand angeblich Pate für die Figur des Dr. Seltsam in Stanley Kubricks Film "Dr. Seltsam oder wie ich lernte, die Bombe zu lieben".) Fromm schließt seine Analyse mit einigen überlegungen dazu, was derart verstörende Thesen über ihren Verfasser und seine Lebenseinstellung aussagen: "Die einzige Frage, die er stellt, lautet, wie viele von uns umkommen werden; das moralische Problem, Millionen unserer Mitmenschen - Männer, Frauen und Kinder - zu töten, erwähnt er kaum. Nach dem Massenmord werden die überlebenden seiner Ansicht nach ein glückliches Leben führen. Man fragt sich, aus welcher moralischen oder psychologischen Einstellung heraus derartige Vermutungen angestellt werden. Es kommt einem ein erschreckender Verdacht, wenn man folgende Feststellung liest, bei der es sich um ein Zitat aus einer früheren Erklärung Kahns handelt, die dieser vor dem Unterausschuss des "Joint Committee on Atomic Energy" am 26. Juni 1959 abgab: "Mit anderen Worten, Krieg ist etwas Gräßliches. Das steht nicht in Frage. Aber das ist auch der Friede. Es ist angebracht, anhand von Berechnungen, wie wir sie heute durchführen, die Schrecken des Krieges mit den Schrecken des Friedens zu vergleichen und zu sehen, wieviel schlimmer jener ist." (Hervorhebung E.F.) Ich sagte, eine derartige Erklärung sei deshalb ein unvermuteteter Schock, weil man nicht um den Gedanken herumkommt, dass sie jenseits des gesunden Erlebens liegt. Jemand, der eine solche Behauptung aufstellt (oder ihr zustimmt), muss - vorausgesetzt, er meint, was er sagt - unter schweren Depressionen leiden und lebensmüde sein. Wie könnte er sonst versuchen, die Schrecken eines Atomkrieges (mit, sagen wir, 60 Millionen amerikanischen und 60 Millionen russischen Todesopfern) mit den "Schrecken des Friedens" zu vergleichen? Ich glaube, die Art, wie Kahn argumentiert und wie viele andere seine Argumente akzeptieren, lässt sich nur mit persönlicher Verzweiflung erklären. Menschen, für die das Leben keinen Sinn mehr hat, haben keinerlei Bedenken, Bilanzen der Zerstörung aufzustellen, in denen sie berechnen, wie viele Todesopfer - zwischen 60 und 160 Millionen - noch "akzeptabel" sind. Akzeptabel für wen? Dass diese Art des Denkens so populär geworden ist, ist ein ernstes Symptom der Verzweiflung und Entfremdung. Es ist eine Haltung, bei der es keine moralischen Probleme mehr gibt, bei der Leben und Tod in ein Bilanzproblem verwandelt werden und bei der die Schrecken des Krieges bagatellisiert werden, weil der Friede - und der ist das Leben - nur wenig schrecklicher empfunden wird als der Tod. Wir haben es hier mit einem der entscheidensten Probleme unserer Zeit zu tun - der Verwandlung der Menschen in Zahlen auf einem Bilanzblatt; man hält es für eine "vernünftige Kalkulation", wenn man den Tod von einem Drittel oder zwei Dritteln der Nation erwägt, sofern sich nur die Wirtschaft recht bald wieder erholt." [Quelle] (S. 162f.)

aufklappen >

In wesentlich knapperer, aber um so beklemmenderer Form hat Herbert Grönemeyer die angesprochene Sinnkrise bereits 1988 in seinem Lied "Keine Heimat" (aus dem Album "Ö") skizziert: "Banker schichten schweißgebadet Geld. Freiheit, die nichts mehr zählt. Dem falschen Traum vertraut. [...] Die Seele verhökert, alles sinnentleert, keine innere Heimat, keine Heimat mehr." Es ist hohe Zeit, dieser Heimatlosigkeit und Verlorenheit neue Perspektiven und neue Hoffnung entgegenzusetzen. Dazu bedarf es zum einen einer optimistischen Grundhaltung, die die Probleme als Herausforderung und nicht die Herausforderungen als Probleme betrachtet, die in der Krise eine Chance sieht, so wie eigentlich jede Krise vor allem als Weckruf verstanden werden sollte, bisher ungenutzte oder verkümmerte Potentiale der (persönlichen oder gesellschaftlichen) Weiterentwicklung neu zu entdecken und zu erschließen. Zum anderen bedarf es neuer ökonomischer Ansätze, welche die dogmatische Erstarrung der herrschenden Volkswirtschaftslehre zu überwinden und Realität und Theorie wieder in Einklang zu bringen vermögen. Auf einen solchen Ansatz wollen wir im Folgenden näher eingehen. Er ist hervorgegangen aus der Auseinandersetzung mit einem weiteren schwerwiegenden Irrtum der neoklassischen Mainstream-Ökonomie, der oben im Zusammenhang mit den Ölkrisen bereits angeklungen ist: der Vernachlässigung der Energie als Produktionsfaktor. Dessen Analyse wird auch die Realitätsferne von einigen der oben diskutierten Dogmen in noch klarerem Licht erscheinen lassen.

3. Die Vernachlässigung der Energie als Produktionsfaktor

Wie wir oben gesehen haben, lassen sich die konjunkturellen Einbrüche während der Ölkrisen der 1970er Jahre mit der neoklassischen Wachstumstheorie nicht angemessen verstehen. Diese setzt die (a priori unbekannten und nur schwer zugänglichen) Produktionselastizitäten mit den (mehr oder minder wohlbekannten) Faktorkostenanteilen gleich. Wenn diese Annahme zuträfe, müssten die Produktionselastizitäten in den Volkswirtschaften der Industrienationen ungefähr folgende Werte haben: Arbeit 65 Prozent, Kapital 30 Prozent, Energie 5 Prozent.

Auch das längerfristige reale Wirtschaftswachstum der Industrieländer ist damit nicht einmal annähernd quantitativ erklärbar. Es bleibt ein großer unverstandener Rest (das sogenannte Solow-Residuum), der dem nicht näher erklärten "technischen Fortschritt" zugeschrieben wird, welcher "praktisch wie Manna vom Himmel" [Quelle] (S.113) falle. Für die Wirtschaftsentwicklung der USA von 1909 bis 1949 beispielsweise liegt der Beitrag des Solow-Residuums bei 87,5% [Quelle]; der unerklärte "Rest"beitrag ist also wichtiger als die erklärenden Faktoren (siehe Abb. 4). In dieser Wachstumstheorie bleibt somit, wie Solow später selbst eingeräumt hat [Quelle], der Hauptfaktor des Wirtschaftswachstums unerklärt [Fußnote]In den letzten 25 Jahren gab es zwar im Rahmen der von Romer, Lucas und Rebelo begründeten sogenannten "neuen" oder "endogenen" Wachstumstheorie einige Ansätze zur näheren Spezifizierung und "Endogenisierung" des externen technischen Fortschritts, welche vor allem die Rolle von quantitativ schwer fassbaren Konzepten wie Innovationen und "Humankapital" stark in den Vordergrund gerückt haben [Quelle][Quelle]. Doch dass man dadurch das beobachtete Wirtschaftswachstum besser als im neoklassischen Modell erklären könne, wird auch von Ökonomen wie Howard Pack bezweifelt [Quelle].].

Abb. 4: Wirtschaftsentwicklung in den USA im 20. Jahrhundert und Solow-Residuum

Aus Sicht des Naturwissenschaftlers und Ingenieurs ist es evident, dass der sich hinter dem Solow-Residuum verbergende technische Fortschritt keinesfalls "wie Manna vom Himmel" fällt, sondern seit jeher von einer Ausweitung des Energieeinsatzes getragen wurde: zur Verrichtung mechanischer Arbeit in Maschinen und Robotern, zur Informationsverarbeitung in Computern und in Form von Prozesswärme zur Herstellung von Grundstoffen und Halbzeugen in der chemischen Industrie, den Aluminiumschmelzen, Zementfabriken etc. Es erscheint daher überfällig, die Energie als eigenständigen Produktionsfaktor in wachstumstheoretische Analysen einzubeziehen und dessen ökonomische Leistungsfähigkeit, d.h. Produktionselastizität eingehender zu studieren statt sie kurzerhand mit ihrem Kostenanteil gleichzusetzen. Die in der Standard-Ökonomie übliche Konzentration auf Kapital, Arbeit und Boden als Produktionsfaktoren bedeutet letztlich ein Verharren in den Begrifflichkeiten der präindustriellen Zeit, in der es noch keinen Energiebegriff gab - dieser wurde erst Anfang des 19. Jahrhunderts von Thomas Young geprägt - und die wirtschaftliche Bedeutung der Energie bei weitem von ihrer heutigen entfernt war. %Somit wird die Standard-Ökonomie der überragenden Bedeutung der Energie für industrielle Volkswirtschaften gleich in zweifacher Hinsicht nicht gerecht: Sie berücksichtigt die Energie nicht als eigenen Produktionsfaktor in ihren Modellierungen, und sie erkennt aufgrund der Gleichsetzung von Produktionselastizitäten und Kostenanteilen nicht, dass Energienutzung eine wesentliche Triebkraft des "technischen Fortschritts" ist.

In ökonometrischen Untersuchungen von Naturwissenschaftlern und Ökonomen der Universitäten Karlsruhe, Köln und Würzburg [Quelle] [Quelle] [Quelle] [Quelle] wurde auf die problematische neoklassische Gleichsetzung von Faktorkostenanteilen und Produktionselastizitäten verzichtet. Stattdessen wurden die Produktionselastizitäten von Arbeit, Energie und Kapital aus den Zeitreihen der Wertschöpfung und der Faktorinputs verschiedener Industrieländer empirisch bestimmt. (Detailliert ist dies in [Quelle], Produktionsfaktor Energie - Der stille Riese, und The Second Law of Economics - Energy, Entropy, and the Origins of Wealth erläutert.) Die Ergebnisse dieser Untersuchungen zeigt die folgende Tabelle.

Produktionsmächtigkeiten
Land, Wirtschaftssektor Zeitraum Kapital Arbeit Energie Kreativität
USA, Industrie [Quelle] 1960-1993 36% 7% 51% 6%
Japan, Industrie [Quelle] 1965-1992 17% 9% 65% 9%
Bundesrepublik Deutschland, Warenproduzierendes Gewerbe [Quelle] 1960-1999 42% 14% 59% -14%
Bundesrepublik Deutschland, Marktbestimmte Dienstleistungen [Quelle] 1960-1989 54% 29% 17%
USA, Gesamtwirtschaft [Quelle] 1960-1996 47% 14% 31% 8%
Bundesrepublik Deutschland, Gesamtwirtschaft [Quelle] 1960-2000 33% 12% 41% 14%

Demzufolge liegt in den industriellen Sektoren die Produktionselastizität der Energie im zeitlichen Mittel der letzten Jahrzehnte in der Größenordnung von 50%, also etwa um den Faktor 10 über dem Kostenanteil der Energie an den Gesamtkosten. Umgekehrt liegt die Produktionselastizität der menschlichen Arbeit stets weit unter ihrem Kostenanteil von 65 bis 70%. Lediglich für den Faktor Kapital sind Produktionselastizitäten und Kostenanteile ungefähr im Gleichgewicht.

In diesem Modell wurde auch der menschlichen Kreativität eine Produktionselastizität (im weiteren Sinne) zugeordnet; diese misst in einem gewissen Sinne den Anstieg von Kapital- und Energieeffizienz und lässt sich als der Beitrag eines faktorungebundenen, d.h. durch die Veränderung des Faktoreinsatzes allein nicht fassbaren technischen Fortschritts interpretieren. Es zeigt sich, dass dieser Wert meist unter 10% liegt, weit unter dem Solow-Residuum der Neoklassik, so dass sich die reale Wirtschaftsentwicklung recht genau allein durch die quantitativen Veränderungen der drei messbaren Produktionsfaktoren Kapital, Arbeit und Energie fassen lässt. Menschliche Ideen, Erfindungen und Wertentscheidungen tragen also zum Wirtschaftswachstum kurz- und mittelfristig deutlich weniger bei als die Energiedienstleistungen. (Langfristig können sie natürlich entscheidende Weichenstellungen vollziehen.) Der aus dem Rahmen fallende negative Wert (-14%) für den Beitrag der Kreativität im industriellen Sektor der Bundesrepublik erklärt sich durch die Integration des DDR-Kapitalstocks mit seiner wesentlich niedrigeren Energieeffizienz in den gesamtdeutschen Kapitalstock im Zuge der Wiedervereinigung 1990.

Bestätigt wurden die dargestellten Resultate durch Analysen von R. Ayres und B. Warr [Quelle], die mit diesem Modell die Wirtschaftsentwicklung der USA im gesamten 20. Jahrhundert durch das Zusammenspiel von Kapital, Arbeit und Energie bis auf geringe Abweichungen von maximal 12% erklären konnten. Für den Faktor Energie ergibt sich hiernach für den größten Teil des 20. Jahrhunderts eine Produktionselastizität von 60 bis 70% - Werte also, die noch über die oben genannten hinausgehen.

Diese Ergebnisse deuten darauf hin, dass die Ökonomien der Industrienationen weit von einem Gleichgewicht im neoklassischen Sinne entfernt sind. Dies wirft die Frage auf, wo der Irrtum der neoklassischen Wachstumstheorie liegt (siehe hierzu ausführlich [Quelle] [Quelle] [Quelle]). Vereinfacht argumentiert die Neoklassik wie folgt: Würden Faktorkostenanteile und Produktionselastizitäten voneinander abweichen, so wäre die gegebene Faktorkombination nicht optimal, und es würden Substitutionsprozesse ausgelöst, die zu einer Nivellierung des Ungleichgewichts führen würden. Diese Argumentation geht implizit von zwei Grundannahmen aus, nämlich dass erstens die zur Einstellung des Gleichgewichts notwendigen Ausgleichsprozesse quasi instantan, in vernachlässigbar kurzen Zeiträumen ablaufen, und dass zweitens die Produktionsfaktoren untereinander ohne Einschränkungen substituiert werden können. Beide Annahmen sind in einer sich dynamisch entwickelnden Wirtschaft wenig realistisch.

Tatsächlich laufen die Ausgleichsprozesse natürlich keinesfalls instantan ab, sondern benötigen mitunter lange Zeiträume: Zum einen erweitern sich die Möglichkeiten, Arbeit durch Energie zu substituieren, erst Schritt für Schritt im Zuge neuer technischer Entwicklungen. (So war es vor 30 Jahren technisch noch nicht möglich, die Kreditabteilung einer Bank durch einige von wenigen Angestellten bediente Computer mit passender Software zu ersetzen!) Zum zweiten ist es denkbar, dass die mit Rationalisierungsmaßnahmen verbundenen Kosten höher sind als die dadurch erzielte Gewinnsteigerung, so dass sie bis zu ohnehin fälligen Modernisierungen des Kapitalstocks hinausgezögert werden. Und schließlich "behindern" gesetzliche und tarifvertragliche Regelungen wie etwa der Kündigungsschutz (noch) die Substitution teurer Arbeit durch billigere Energiesklaven. Dies alles führt dazu, dass sich die Substitutionsprozesse, die das Ungleichgewicht nivellieren, über Jahrzehnte hinziehen können. Letztlich befinden wir uns seit Beginn der industriellen Revolution mitten in einem solchen Substitutionsprozess, in dem Arbeit laufend durch Energie ersetzt wird. Häufig geschieht dies indirekt, indem z.B. Instandsetzungsabteilungen geschlossen und an anderer Stelle automatisierte, materialintensive Betriebe der Konsumgüterproduktion eröffnet werden. Die verhängnisvolle Voraussetzung dafür sind billige Grundstoffe, die ihrerseits auf der Verfügbarkeit billiger Energie basieren.

Auf die Fragwürdigkeit der zweiten neoklassischen Grundannahme, der Prämisse von der unbeschränkten Substituierbarkeit, waren wir bereits oben (in Abschnitt 1.1) eingegangen. Im jetzigen Kontext bedeutet dies konkret: Die Möglichkeiten zur Substitution sind durch die Restriktionen des jeweils technisch Machbaren beschränkt, so dass ein Ungleichgewicht zwischen Produktionselastizitäten und Faktorkostenanteilen durchaus für längere Zeit Bestand haben kann - weil die Anpassungsprozesse, die eigentlich zu seiner Beseitigung führen müssten, aufgrund technischer Unmöglichkeit (vorerst!) unterbleiben bzw. nur allmählich ablaufen.

Die neoklassische Gleichsetzung von Faktorkostenanteilen und Produktionselastizitäten wäre somit zwar korrekt für eine Wirtschaft, die sich bereits in einem langfristigen Gleichgewichtszustand eingependelt hat, also für eine statische Wirtschaft ohne technischen Fortschritt. Auf dynamische Ökonomien hingegen ist sie nicht anwendbar. Wir haben hier ein sehr konkretes Beispiel dafür, wie absurd die in Abschnitt 1.6 diskutierte neoklassische Annahme ist, dass die Wirtschaft sich stets im Gleichgewicht befindet.

Abb. 5: Die Schieflage zwischen Arbeit und Energie. Die verwendeten Zahlen stellen einen Mittelwert dar, bezogen auf die Gesamtwirtschaft der letzten Jahrzehnte in den großen Industrienationen.

Abb. 6: Die Verschärfung der Schieflage zwischen den Faktoren Arbeit und Energie durch unser Steuer- und Abgabensystem

Zwischen den Produktionsfaktoren Arbeit und Energie scheint also eine erhebliche Schieflage zu bestehen, wie sie die Karikatur in Abb. 5 illustriert: Der Faktor Energie ist (im Sinne des Konzepts der Produktionselastizitäten) etwa drei- bis viermal leistungsfähiger als menschliche Arbeit, verursacht aber nicht einmal ein Zehntel der Kosten. Einen nicht unwesentlichen Anteil an dieser Schieflage hat unser Steuer- und Abgabensystem, das dem Faktor Arbeit etwa die zehnfache Last aufbürdet wie dem Faktor Energie.

4. Die Implikationen der Schieflage zwischen Arbeit und Energie

Die Konsequenzen dieser Schieflage sind in früheren Beiträgen (Die ökologische Steuerreform: Arbeit und Wohlstand für alle!, Reformieren statt Deformieren, Vom Elend der konventionellen Wirtschaftstheorien, Umsteuern durch Energiesteuern) ausführlich diskutiert worden; daher mögen hier einige Andeutungen genügen: Sie führt zunächst im Zuge von Rationalisierung und Automatisierung zur permanenten Ersetzung von teurer - zudem hoch besteuerter - und relativ ineffektiver menschlicher Arbeitskraft durch billige und effektive "Energiesklaven" [Fußnote]Präziser, aber weniger prägnant müsste man stets davon sprechen, dass Arbeit-Kapital-Kombinationen durch Energie-Kapital-Kombinationen ersetzt werden.. Hierbei werden fortlaufend Arbeitskräfte "freigesetzt", die nur dann an anderer Stelle unterkommen können, wenn die Volkswirtschaft insgesamt schnell genug expandiert, wenn also an anderer Stelle neue Betriebe entstehen. Erfahrungsgemäß ist dies erst ab der "Beschäftigungsschwelle" von 2% bis 3% Wachstum der Fall [Fußnote]Diese Beschäftigungsschwelle entspricht dem durchschnittlichen jährlichen Anstieg der Arbeitsproduktivität, also dem durchschnittlichen Tempo der Ersetzung von Arbeit durch Energie und Kapital.: So viel Wachstum wird Jahr für Jahr benötigt, nur um die Arbeitslosigkeit wenigstens konstant zu halten - und noch mehr, um sie allmählich abzubauen. Dies ist der tiefere Hintergrund des von den Ökonomen geforderten "Wachstumspfads". Und da der Faktor Arbeit (über Löhne und Gehälter wie auch über die daran gekoppelten Steuern und Abgaben) den zentralen "Transmissionsriemen" für die Verteilung des Erwirtschafteten und die Finanzierung der Gemeinschaftsaufgaben darstellt, führen niedrigere Wachstumsraten zu einer unablässigen Zuspitzung der Krise der Sozialversicherungen und der Staatsfinanzen, also dazu, dass immer weniger Geld für Bildung und Forschung, Gesundheit, Renten, Umweltschutz und andere Gemeinschaftsaufgaben zur Verfügung steht.

Insofern hat die Schieflage zwischen Arbeit und Energie uns in eine Wachstumsabhängigkeit gebracht, welche uns zunehmend der gesellschaftlichen Entscheidungsfreiheit beraubt und uns mannigfachen Sachzwängen unterwirft, die von dem Bemühen diktiert werden, um beinahe jeden Preis Arbeit zu schaffen oder zu erhalten: Mit dem Arbeitsplatzargument werden Rüstungsexporte genauso gerechtfertigt wie unter ökologischen Gesichtspunkten fragwürdige Infrastrukturprojekte oder das übereilte Durchpeitschen neuer, in ihren Auswirkungen unübersehbarer Technologien [Fußnote]Andererseits werden die erheblichen Arbeitsplatzpotentiale der erneuerbaren Energien bis heute von vielen Parteien nicht angemessen erkannt, wie u.a. die derzeitige Strangulationspolitik der schwarz-gelben Bundesregierung gegenüber der Photovoltaik beweist.. Das verzweifelte Hoffen auf den dringend benötigten "Innovationsschub" nimmt uns die Freiheit, in Ruhe erst einmal die Chancen und Risiken abzuwägen und die ethischen Probleme eingehend zu diskutieren. Stattdessen müssen wir dem "Fortschritt" hinterherhecheln, um nur ja nicht den Anschluss zu verpassen.

Die Schieflage zwischen Arbeit und Energie manifestiert sich zudem in einer strukturellen Schwäche des Faktors Arbeit, die die gleichermaßen wichtigen Ziele "Schaffung von Arbeitsplätzen" einerseits und "Finanzierung der Gemeinschaftsaufgaben" andererseits in einen vermeintlich unauflösbaren Grundkonflikt gebracht hat: Um die Schaffung neuer Arbeitsplätze zu erleichtern, müsste Arbeit "attraktiver", sprich billiger werden, was den Abwurf des "sozialen Ballastes" gebieten würde, also die Preisgabe des zweiten Ziels! Ein erheblicher Teil der politischen Richtungsdebatten in den letzten Jahren ist durch diesen Grundkonflikt geprägt.

Es liegt auf der Hand, wie diese Schieflage mit all ihren besorgniserregenden Konsequenzen beseitigt werden kann: durch eine schrittweise Umschichtung eines erheblichen Teils der Steuer- und Abgabenlast von der Arbeit zur Energie. Dies entspricht dem Prinzip der Besteuerung nach Leistungsfähigkeit, das nun allerdings von den Individuen auf die Produktionsfaktoren übertragen werden muss. Selbstredend ist eine solch fundamentale Umstellung nicht über Nacht zu bewerkstelligen, sondern muss schrittweise über einen längeren Zeitraum in der Größenordnung von 15 bis 20 Jahren geschehen, damit sich die Wirtschaft auf die Veränderungen einstellen kann. Einen konkreten Vorschlag, wie der erste große Schritt einer solchen Reform aussehen könnte, stellt z.B. das Energiesteuer-Energiegeld-Modell des SFV dar (Reformmodell; [Quelle]). Es sieht vor, die Arbeitgeberbeiträge zur Sozialversicherung sukzessive durch Energiesteuern zu ersetzen und pro Kopf der Bevölkerung ein Energiegeld auszuzahlen, das die durchschnittlichen Mehrkosten der privaten Haushalte kompensiert, die sich aus der Anhebung der Energiesteuer ergeben. Beim derzeitigen Niveau des Energieverbrauchs wäre für eine vollständige Ablösung der Arbeitgeberbeiträge eine Energiesteuer von ca. 12 Cent pro Kilowattstunde Endenergie erforderlich; das Energiegeld würde dann ca. 100 Euro pro Person und Monat betragen.

Auf diese Weise kann die Finanzierung der Gemeinschaftsaufgaben wieder auf ein solides, langfristig tragfähiges Fundament gestellt und die Wachstumsabhängigkeit unserer Wirtschaft weitgehend überwunden werden. Die Gesellschaft gewinnt die Freiheit zurück, erst einmal für sich selbst zu definieren, was sie als Fortschritt erachtet und umsetzen will und was nicht, und sodann einen entsprechenden Entwicklungspfad anstelle des monotonen und phantasielosen "Wachstumspfades" einzuschlagen; oder ist das wirklich noch Fortschritt, der uns zu seinem Gefangenen macht, wenn wir ihm nicht schnell genug folgen auf dem Weg "aufwärts"?

Wir wollen nun zum Abschluss noch einmal auf vier der in Abschnitt 1 diskutierten Fragwürdigkeiten der neoklassischen Ökonomie zurückkommen; unsere Überlegungen zur Schieflage zwischen Arbeit und Energie ermöglichen es jetzt nämlich, die oben vorgebrachte Kritik an diesen Dogmen zu präzisieren.

(1) Zur neoklassischen Erklärung der Arbeitslosigkeit:

Wir hatten bereits in Abschnitt 1.7 auf die Möglichkeit hingewiesen, dass der vom freien Markt festgelegte "Gleichgewichtslohn" (so es einen solchen denn überhaupt gibt) auf einem inakzeptabel niedrigem Niveau liegen könnte. Diese Befürchtung erscheint angesichts des Ungleichgewichts zwischen Arbeit und Energie und der niedrigen Produktionselastizität der Arbeit nun durchaus berechtigt: Ein Gleichgewichtslohn wäre ja erst dann erreicht, wenn der Lohn so weit abgesunken ist, dass die Kostenanteile von Arbeit und Energie mit ihren Produktionselastizitäten übereinstimmen. Wo dieser Punkt liegt, lässt sich angesichts der Nichtlinearitäten und Komplexitäten des Wirtschaftssystems nur schwer genau beziffern [Fußnote]Falls sich die Produktionselastizitäten gegenüber dem Status Quo nicht ändern würden, müsste dazu der Kostenanteil der Arbeit von derzeit ca. 65% auf eine Größenordnung von 10 bis 15% absinken - was natürlich nicht einmal ansatzweise möglich ist, ohne den sozialen Frieden massiv zu gefährden. Diese Rechnung ist allerdings insofern stark vereinfachend und realitätsfern, als sich bei einem starken Absinken der Löhne die gesamte Struktur des Produktionsapparates erheblich verändern würde, so dass auch die Produktionselastizitäten starken Verschiebungen unterworfen wären., klar sollte aber sein, dass er weit unterhalb des heutigen Lohnniveaus angesiedelt wäre, auf einem Niveau, das man unter Verteilungsaspekten schwerlich als gesellschaftlich wünschenswert oder gar die allgemeine Wohlfahrt optimierend wird bezeichnen können.

Die Konsequenz daraus liegt auf der Hand: Die Lohnfestsetzung darf nicht dem freiem Markt überlassen werden. Andererseits greift die Einführung gesetzlicher Mindestlöhne, wie sie in den letzten Jahren von Seiten der Gewerkschaften und einiger Parteien so vehement propagiert wurde, in der Regel zu kurz (auch wenn sie in einigen Branchen im Einzelfall durchaus angezeigt sein mag). Ihre beschränkte Wirksamkeit wird deutlich, wenn man sich vergegenwärtigt, dass der Staat zwar zu niedrige, menschenunwürdige Löhne verbieten kann - nicht aber die zunehmende Ersetzung von Arbeit durch Energie im Zuge von Rationalisierung und Automatisierung. Eine wirksamere Lösung besteht darin, menschliche Arbeit durch die oben skizzierte Verlagerung der Steuerlast von der Arbeit zur Energie wieder attraktiver zu machen.

(2) Zur Arbeitsproduktivität:

In Abschnitt 1.9 hatten wir davor gewarnt, in einer hohen oder noch steigenden Arbeitsproduktivität ein Indiz für die zentrale Bedeutung des Faktors Arbeit zu sehen, und dies am Beispiel des "Produktionsfaktors Pferd" illustriert, dessen Produktivität im Zuge seines kompletten Bedeutungsverlustes immer weiter gewachsen ist. Angesichts der Schieflage zwischen Arbeit und Energie stellt sich die Frage, ob sich in der wachsenden Arbeitsproduktivität nicht ebenfalls in erster Linie die zunehmende Ersetzung der Arbeit durch den Einsatz von Energie und Kapital widerspiegelt (auch wenn hier anders als bei den Pferden mit keiner kompletten Verdrängung zu rechnen ist). Für die gestiegene Arbeitsproduktivität gibt es also zwei Interpretationen, die zwar mathematisch äquivalent sind, aber doch unterschiedliche Beiklänge haben: Zum einen kann man - wie es allgemein üblich ist - davon sprechen, mit demselben Einsatz an Arbeit könne immer mehr produziert werden. Ebenso könnte man aber auch sagen, dass für die Produktion der gleichen Gütermenge immer weniger menschliche Arbeit benötigt wird - und es stellt sich die Frage, ob diese zweite Formulierung nicht die heutige Realität treffender beschreibt. Für letztere Interpretation spricht auch, dass seit Längerem die Umverteilung der "Produktivitätszuwächse" zugunsten des Faktors Arbeit immer weniger durchsetzbar ist, wie sich an der Stagnation der (realen) Lohneinkünfte in den letzten knapp 20 Jahren bei gleichzeitig explodierenden Gewinneinkünften zeigt. Hier wird die oben erwähnte strukturelle Schwäche des Faktors Arbeit offenbar.

(3) Zum Dogma vom Freihandel:

Die heute weitverbreitete Skepsis gegenüber Liberalisierung und Freihandelszonen speist sich vor allem aus der Sorge, dass damit inländische Arbeitskräfte (und die von ihnen im Laufe vieler Jahrzehnte zäh errungenen Sozialstandards ebenso wie ökologische Standards) einer Konkurrenz durch Billigarbeitskräfte aus dem Ausland ausgesetzt werden, der sie möglicherweise nicht gewachsen sind [Fußnote]Eines der bekanntesten Anschauungsbeispiele hierfür liefert die Auseinandersetzung um die North American Free Trade Area (NAFTA) Anfang der 1990er Jahre, in der sich der frühere Präsidentschaftskandidat Ross Perot als Hauptexponent der Skeptiker profilierte, bis die Debatte u.a. durch das überzeugende Auftreten des damaligen Vizepräsidenten Al Gore in einem Fernsehduell mit Perot zugunsten der NAFTA entschieden wurde.. Samuelson und Nordhaus versuchen in ihrem bereits erwähnten Standardlehrbuch, diese Sorge wie folgt zu entkräften:

"Eine Extremform dieser Ansicht ist die Befürchtung, dass unter Freihandelsbedingungen die US-Löhne auf das viel niedrigere ausländische Niveau absinken könnten. Oberflächlich besehen erscheint uns dieses Argument durchaus stichhaltig, aber es hat einen großen Fehler: Hier wird das Grundprinzip des komparativen Vorteils ignoriert. Der Grund, warum US-Amerikaner im Schnitt höhere Löhne erhalten, liegt darin, dass sie im Durchschnitt produktiver sind. Wenn unser Gleichgewichtslohn dreimal so hoch ist wie jener in Mexiko, so deshalb, weil wir in der Herstellung der marktgängigen Güter durchschnittlich dreimal so produktiv sind." [Quelle] (S. 795)

Diese Argumentation enthält zwei Gedankenfehler:

1. Sie geht ganz entscheidend von einer Wirtschaft im Gleichgewicht aus, bei der die einzelnen Produktionsfaktoren gemäß ihren Grenzproduktivitäten entlohnt werden. Folgt man den oben zitierten Untersuchungen zur Schieflage zwischen Arbeit und Energie, so sind die gezahlten Löhne aber gerade keine Gleichgewichtslöhne. Der hierdurch bedingte Kostendruck auf die menschliche Arbeit steigt nun aber durch die zusätzliche Konkurrenz ausländischer Billiglöhne weiter an (wie sich u.a. daran zeigt, dass die Drohung mit Produktionsverlagerungen ins Ausland sich in den Tarifverhandlungen als probates Disziplinierungsinstrument gegenüber den Gewerkschaften eignet). Durch diese doppelte Konkurrenz, die der Arbeit von zwei Seiten erwächst, wird die Bewegung hin zum Gleichgewichtszustand beschleunigt – zu einem Gleichgewicht, von dem – wie wir gesehen haben – zu befürchten ist, dass es erst bei inakzeptabel niedrigem Lohnniveau erreicht wäre.

2. Der zweite Gedankenfehler besteht darin, die hohe Arbeitsproduktivität in den USA zumindest unbewusst als Eigenschaft der amerikanischen Arbeiter, als Ausweis ihrer hohen Leistungsfähigkeit und Qualifikation anzusehen, nicht als Eigenschaft des Kapitalstocks bzw. der ihn aktivierenden "Energiesklaven". Tatsächlich können jedoch auch mexikanische Arbeiter im Wesentlichen das amerikanische Produktivitätsniveau erreichen, sofern man sie nur entsprechend mit Kapital und Energie ausstattet. Zwar spielen auch Qualifikation und Wissen – wie von der endogenen Wachstumstheorie betont – zweifellos eine gewisse Rolle, die heute aber eher überschätzt wird; tatsächlich ist es in modernen Produktionsprozessen oft nur eine relativ geringe (und daher notfalls vorübergehend aus dem Ausland einfliegbare) Anzahl von Spezialisten, bei denen eine hohe Qualifikation wirklich entscheidend und unverzichtbar ist, während die menschliche Routinearbeit zunehmend austauschbar (und sowohl durch niedrig qualifizierte ausländische Arbeitskräfte als auch im Zuge der Automation durch billige "Energiesklaven" ersetzbar) geworden ist.

(4) Zur Vollbeschäftigungsannahme und zur demographischen Entwicklung:

Wir hatten in Abschnitt 1.10 darauf hingewiesen, dass ein wachsender Rentneranteil aus ökonomischer Sicht nur dann eine "Last" darstellt, wenn die Wirtschaft das Potential an Arbeitskräften voll ausschöpft, nicht jedoch unter den heutigen Bedingungen der Massenarbeitslosigkeit. Dies mag die Frage aufgeworfen haben, was denn an der gängigen Argumentation falsch sei, wonach es auf Dauer nicht gutgehen könne, wenn immer weniger Erwerbstätige immer mehr Rentner miternähren müssen. Den Gedankenfehler hierbei machen die obigen Erkenntnisse zur Rolle der Energie im Produktionsprozess offensichtlich: Tatsächlich sind es nämlich nicht mehr so sehr die menschlichen Arbeiter, sondern vor allem die "Energiesklaven", welche den Wohlstand erwirtschaften, der auch die Rentner miternährt. Eine Verschlechterung der Relation zwischen Erwerbstätigen und Rentnern muss daher nicht per se problematisch sein, solange in entsprechend größerem Umfang Energie und Kapital zum Einsatz kommen. Hochproblematisch ist es allerdings, wenn die Finanzierung der Renten so eng wie heute an Abgaben auf menschliche Arbeit gekoppelt ist. Die oben geforderte Umschichtung der Steuer- und Abgabenlast hin zum Faktor Energie wird dieses Problem entschärfen: Es werden dann primär die Energiesklaven sein, die die Renten bezahlen.

5. Fazit

Die Realitätsferne und Realitätsverleugnung bedeutender Richtungen der Ökonomie haben inzwischen eine aus wissenschaftlicher wie aus gesellschaftlicher Sicht besorgniserregende Dimension erreicht. Die Entwicklung und Verbreitung einer post-autistischen Ökonomie ist daher überfällig. Besondere Bedeutung kommt dabei der Berücksichtigung der Energie als Produktionsfaktor und der Anerkennung einer eklatanten Schieflage zwischen den Faktoren Arbeit und Energie mit ihren zahlreichen Implikationen zu.

Es ist hohe Zeit, dass endlich auch die Ökonomen die Mahnung beherzigen, mit der der große Physiker Richard Feynman sein Minderheitenvotum zum Abschlussbericht der Untersuchungskommission zur Challenger-Katastrophe von 1986 [Fußnote]Bei dieser bis dahin größten Katastrophe der US-Raumfahrt hatte durch die außergewöhnlich niedrigen Temperaturen beim Start ein Dichtungsring in einer der beiden Feststoffraketen seine Elastizität eingebüßt und war undicht geworden; durch das so entstandene Leck war ein Teil des Abgasstrahls der Feststoffrakete seitlich ausgetreten und hatte den angrenzenden, mit flüssigem Wasser- und Sauerstoff gefüllten externen Tank zur Explosion gebracht. Sieben Astronauten verloren dabei ihr Leben. Diese Probleme mit den Dichtungsringen waren seit Längerem bekannt gewesen; Ingenieure der Herstellerfirma Morton Thiokol um Roger Boisjoly hatten eindringlich vor dem Start bei solch niedrigen Temperaturen gewarnt. Das Management der Firma hatte sich jedoch über alle Bedenken hinweggesetzt und der NASA den Start empfohlen – aus Angst, künftige Aufträge zu verlieren, falls man Sicherheitsprobleme zugebe. Es ist kaum zu begreifen, wie wenig Gedanken hier offenbar auf die Frage verschwendet worden sind, was aus diesen Aufträgen im Fall der von Boisjoly prophezeiten Katastrophe werden würde. – Bezeichnenderweise hatte Boisjoly nach seiner Aussage vor der Untersuchungskommission mit Anfeindungen seiner Kollegen und Vorgesetzten zu leben und verließ schließlich Morton Thiokol. geschlossen hat:

"Reality must take precedence over public relations, for nature cannot be fooled." [Fußnote]Übersetzung: Die Wirklichkeit muss Vorrang haben gegenüber PR-Erwägungen, denn die Natur lässt sich nicht überlisten.












weitere Social Networks >

Impressum