Jürgen Grahl und Reiner Kümmel

Produktionsfaktor Energie - Der stille Riese

Ökonometrische Untersuchungen zu Produktion und Wirtschaftswachstum in Deutschland, Japan und den USA zeigen ein fundamentales Ungleichgewicht zwischen den Produktionsfaktoren Arbeit und Energie und legen den Schluss nahe, dass die neoklassische Wachstumstheorie die Bedeutung der Energie als Produktionsfaktor dramatisch unterschätzt hat. Diese Untersuchungen und die ihnen zugrundeliegenden Konzepte wie das der Produktionselastizität werden im folgenden Artikel ausführlich erläutert. Ein Indiz für die Richtigkeit dieses Modells liefert z.B. die erste Ölkrise: Sie lässt sich mit dem neuen Modell wesentlich besser verstehen als mit konventionellen Modellen, welche den damaligen Einbruch der Wirtschaftsleistung nicht angemessen erklären können.

Die konventionelle Wirtschaftstheorie beschreibt nur unzureichend die physische Sphäre der Produktion: Dies ist die Botschaft einer wachsenden Zahl von Abhandlungen in der wissenschaftlichen Fachliteratur. Nicht wenige davon betreffen die Rolle der Energie als eigenständiger Produktionsfaktor neben Kapital und Arbeit. In früheren Artikeln war davon des öfteren schon die Rede. Der nachfolgende Aufsatz soll das darin Gesagte noch einmal allgemeinverständlich zusammenfassen und somit einer breiteren Öffentlichkeit zugänglich machen. Einige tiefer gehende Erläuterungen, die teilweise nur mit einem gewissen mathematischen Hintergrundwissen verständlich sind, finden sich in den grünen Kästen. Sie sind zum Verständnis des Haupttextes nicht erforderlich und können übersprungen werden.

Dieser Aufsatz ist hier auch im PDF-Format verfügbar. Dort finden sich im Anhang einige zusätzliche Erläuterungen zum mathematischen Hintergrund der darin vorgestellten Studien, die in der nachstehenden HTML-Version fehlen.

Ein fundamentales Ungleichgewicht zwischen den Produktionsfaktoren Arbeit und Energie war in einer Reihe vorangegangener Aufsätze (vgl. u.a. [5], [7], [8], [9], [14]) als tiefere Ursache der heutigen Krisenerscheinungen (Arbeitslosigkeit, Krise der Sozialsysteme, Staatsverschuldung etc.) diskutiert worden. Doch fehlt derzeit fast jedes öffentliche Bewusstsein für diese Problematik und vor allem für ihr Ausmaß. Allenfalls ist gelegentlich (und nur eher vage) davon die Rede, dass Arbeit „zu teuer“ und Energie „zu billig“ sei; dies wird jedoch in aller Regel nicht näher quantifiziert. Im Folgenden soll deshalb noch etwas ausführlicher als bisher versucht werden, die quantitative Bestimmung dieses Ungleichgewichts verständlich zu machen und seine Entstehung aus der technischen Struktur des Produktionsapparats und den derzeit herrschenden ökonomischen Rahmenbedingungen darzustellen.

Am naheliegendsten erscheint es zunächst, die Kosten des Faktors Arbeit und die des Faktors Energie miteinander zu vergleichen. Diese Werte sind wohlbekannt: Der Anteil der Arbeitskosten an den gesamten Faktorkosten liegt in den Volkswirtschaften der westlichen Industrienationen im Mittel bei etwa 65%, der der Energiekosten bei etwa 5%. Die übrigen ca. 30% entfallen auf den Faktor Kapital. (In den einzelnen Branchen differieren die Verhältnisse natürlich: So liegt im Dienstleistungssektor der Energiekostenanteil niedriger, in energieintensiven Branchen wie etwa der eisenschaffenden Industrie oder dem Bergbau höher - dort beträgt er 12 bis 13% des Bruttoproduktionswerts (vgl. [12], S. 108).) Auf den ersten Blick zeigt sich ein deutlicher Unterschied: 65% Arbeitskosten gegenüber knapp 5% Energiekosten. Daraus schon abzuleiten, dass Energie zu billig, Arbeit zu teuer ist, wäre freilich voreilig; schließlich wäre es denkbar, dass die wirtschaftliche Bedeutung bzw. Leistungsfähigkeit der Energie weit hinter der der menschlichen Arbeit zurückhinkt, so dass die niedrigeren Kosten gerade angemessen wären. Um zu entscheiden, ob und in welchem Ausmaß überhaupt eine Schieflage zwischen Arbeit und Energie besteht, müssen wir also neben den jeweiligen Faktorkostenanteilen auch die „Leistungsfähigkeiten“, die „Erträge“ der Faktoren Arbeit und Energie kennen; nur wenn letztere von den jeweiligen Faktorkostenanteilen merklich abweichen, kann von einer Schieflage, einem Ungleichgewicht die Rede sein; einer bloßen Kontrastierung der Kostenanteile könnte hingegen durchaus zu Recht vorgeworfen werden, Äpfel mit Birnen zu vergleichen. Die Frage der „Leistungsfähigkeit“ eines Produktionsfaktors wird allerdings in der öffentlichen Diskussion um Energiesteuern bis heute kaum thematisiert, was für manche Argumentationsnöte ihrer Befürworter verantwortlich sein dürfte.

Der Begriff der Produktionsmächtigkeit

Es geht also darum, abzuschätzen, welcher Beitrag an der Gesamtwertschöpfung den einzelnen Produktionsfaktoren (Kapital, Arbeit, Energie) zugeschrieben werden kann. Aber wie soll man diese Beiträge messen, da doch alle drei Faktoren offensichtlich unverzichtbar sind, nicht voneinander isoliert betrachtet werden können? Selbstredend kann es nicht darum gehen, wieviel man etwa mit dem Faktor Energie alleine, ohne Kapital und Arbeit produzieren kann; dieser Beitrag würde (fast) bei Null liegen, da ja in der Tat Produktion ohne Kapital und Arbeit weitgehend unmöglich ist. Sehr wohl kann man aber danach fragen, wie sehr sich - ausgehend von einem bestimmten Ist-Zustand - die Wertschöpfung verändert, wenn der Einsatz eines einzelnen Produktionsfaktors ein wenig variiert, der der übrigen Faktoren jedoch konstant gehalten wird. Um wieviel also nimmt beispielsweise die Produktion zu, wenn der Energieeinsatz um ein Prozent ausgeweitet wird, der Einsatz von Kapital und Arbeit jedoch unverändert bleibt? Je höher diese Produktionszunahme ist, je empfindlicher die Volkswirtschaft also auf kleine Variationen in der Faktoreinsatzmenge reagiert, als desto bedeutsamer, desto wichtiger wird man den jeweiligen Produktionsfaktor ansehen dürfen. Und mehr noch: Indem man die solchermaßen induzierte (relative) Veränderung der Produktion ins Verhältnis setzt zur zugrundeliegenden (relativen) Veränderung der Faktoreinsatzmenge, erhält man einen quantitativen Maßstab für die Leistungsfähigkeit des betreffenden Faktors. Dieses Verhältnis bezeichnet man als Produktionselastizität oder auch als Produktionsmächtigkeit [Fußnote]Während die Ökonometrie den Begriff Produktionselastizität verwendet, werden wir aus Gründen der Anschaulichkeit im Folgenden zumeist von Produktionsmächtigkeit sprechen des jeweiligen Faktors.

Die Produktionsmächtigkeiten geben also die Gewichte an, mit denen (prozentuale) Veränderungen im Einsatz der einzelnen Faktoren auf die gesamte Wertschöpfung durchschlagen; sie sind dimensionslose Größen (d.h. reine Zahlenwerte) zwischen Null und Eins bzw. zwischen 0% und 100%.

Die Betrachtung zweier Extremfälle mag dies verdeutlichen: Ein Produktionsfaktor, dessen Mehr- oder Mindereinsatz die Wertschöpfung überhaupt nicht beeinflusst, hätte die Produktionsmächtigkeit Null; er wäre offenbar irrelevant für den Produktionsprozess (und würde insofern wohl kaum als Produktionsfaktor angesehen werden). Der andere - gleichfalls eher hypothetische - Extremfall: Eine Produktionsmächtigkeit von 100% würde bedeuten, dass sich die Wertschöpfung völlig im Gleichschritt mit dem betreffenden Faktor entwickelt (und dieser insofern der allein bestimmende wäre); in diesem Fall würde eine beispielsweise 5%ige Erhöhung des Faktoreinsatzes die Wertschöpfung ebenfalls um volle 5% anwachsen lassen.

Die in der Realität zu beobachtenden Produktionsmächtigkeiten liegen irgendwo zwischen beiden Extremen, zwischen 0 und 100%: Da niemals ein Faktor allein die Wertschöpfung determiniert, wird die Variation eines einzelnen Faktors um beispielsweise 5% sich nicht in vollem Umfang in der Veränderung der Wertschöpfung niederschlagen, sondern diese nur um vielleicht 2% oder 4% beeinflussen. (So kann man etwa mit 5% mehr Energie bei gleichem Einsatz von Arbeitskräften und Hochöfen höchstens 5% mehr Eisenerz schmelzen - und dies auch nur, falls die Arbeitskräfte und Hochöfen vorher, bei dem geringeren Energieeinsatz, nicht voll ausgelastet waren.) Um ein Zahlenbeispiel zu geben: Hat der Produktionsfaktor X eine Produktionsmächtigkeit von 31%, so bedeutet dies, dass eine Steigerung des Einsatzes von X um 10% (bei konstantem Einsatz der übrigen Faktoren) die Wertschöpfung um 31% von 10%, also um 3,1% wachsen lässt, während eine Verminderung des Einsatzes von X um 10% zu einem Rückgang der Wertschöpfung um 3,1% führen würde. (Nicht zulässig ist es, hieraus den Schluss zu ziehen, eine Verminderung von X um volle 100%, d.h. auf Null, würde die Wertschöpfung nur um 31% vermindern; vielmehr ist zu erwarten, dass bei völligem Verzicht auf einen Produktionsfaktor die Produktion weitestgehend zusammenbricht. Aus den Produktionsmächtigkeiten lassen sich also lediglich Rückschlüsse über die Auswirkungen „kleiner“ Veränderungen der jeweiligen Faktorinputs gegenüber dem jeweiligen Status Quo ziehen.)

Addiert man die Produktionsmächtigkeiten aller im betreffenden Modell berücksichtigten Produktionsfaktoren, so erhält man 100%. Darin spiegelt sich die Annahme konstanter Skalenerträge wider, wonach sich bei einer Verdoppelung des Einsatzes aller Faktoren (ohne technologischen Wandel) die Wertschöpfung ebenfalls verdoppeln sollte: Stellt man neben eine existierende Fabrik eine völlig identische Fabrik (mit den gleichen Maschinen, der gleichen Zahl an Beschäftigten, dem gleichem Energieeinsatz etc.), so werden beide Fabriken doppelt so viel produzieren wie eine Fabrik allein. (Diese Annahme ist natürlich nur so lange gültig, wie man natürliche Wachstumsgrenzen vernachlässigen kann.)

Die mathematische Konsequenz hieraus ist, dass die Produktionsfunktion linear-homogen ist.

Produktionsmächtigkeiten und Faktorkostenanteile

Es stellt sich nun die Frage, wie hoch die tatsächlichen Produktionsmächtigkeiten von Kapital, Arbeit und Energie sind. Der neoklassischen Wachstumstheorie zufolge stimmen Produktionsmächtigkeiten und Faktorkostenanteile überein, was sich unter geeigneten Voraussetzungen auch mathematisch „beweisen“ lässt. (Auf die Fragwürdigkeit der zugrundeliegenden Modellannahmen werden wir weiter unten zu sprechen kommen.) Gemäß den obigen Daten über die Faktorkostenanteile müssten also die Produktionsmächtigkeiten in den Volkswirtschaften der Industrienationen ungefähr folgende Werte annehmen: Arbeit 65%, Kapital 30%, Energie 5%. Wäre dies richtig, so gäbe es keine Schieflage zwischen Energie und Arbeit: Dass menschliche Arbeit so viel teurer als Energie ist, wäre gerade dadurch gerechtfertigt, dass sie auch um den gleichen Faktor „leistungsfähiger“ ist; der Wert der Energie würde also exakt mit ihrem Preis übereinstimmen, d.h. er wäre recht gering. In letzter Konsequenz würde es also keinen systematischen Rationalisierungsdruck auf die Arbeit, keinen Anreiz für die Ersetzung von Arbeit durch Energie (genauer: Energiedienstleistungen) geben.

Jedoch ist die Gleichsetzung von Produktionsmächtigkeiten und Faktorkostenanteilen empirisch höchst fragwürdig. Die folgenden Betrachtungen mögen dies etwas verdeutlichen:

1.

Zunächst ein Beispiel aus einem etwas anderen, wenn auch verwandten Bereich, das vor einer allzu kritiklosen Gleichsetzung von Preis und Wert eines ökonomischen Gutes warnen soll: In den 1990er Jahren haben drei renommierte Ökonomen, William Nordhaus (Yale), Koautor eines der meistgelesenen Lehrbücher der Volkswirtschaftslehre, Wilfred Beckerman (Oxford) und Thomas C. Schelling (Harvard, Nobelpreis für Ökonomie 2005) unabhängig voneinander die Risiken des anthropogenen Treibhauseffekts bewertet. Dabei nahmen sie an, dass die Landwirtschaft praktisch als einziger Wirtschaftszweig von den Folgen der Klimaveränderung betroffen sei - eine zwar stark vereinfachende Annahme, deren Berechtigung hier jedoch nicht weiter hinterfragt werden soll. Nun trägt die Landwirtschaft aber nur etwa 3% zum Bruttoinlandsprodukt der USA bei. Daher kamen Nordhaus, Beckerman und Schelling zu dem Schluss, dass selbst bei einem drastischen Einbruch der Landwirtschaft nur unbedeutende Wohlstandsverluste zu erwarten seien; denn selbst wenn die Agrarproduktion um 50% zurückginge, sänke das Bruttoinlandsprodukt ja nur um 1,5%; würde die landwirtschaftliche Produktion durch den Klimawandel drastisch reduziert, so stiegen nach Schelling die Lebenshaltungskosten nur um 1 bis 2%, und das zu einer Zeit, wenn sich das Pro-Kopf-Einkommen wahrscheinlich verdoppelt haben würde (zitiert nach [2]). Dieser Risikoeinschätzung entgeht natürlich, dass bei drastischer Verknappung von Nahrungsmitteln deren Preise explodieren - und damit auch den heute eher marginalen Beitrag der Landwirtschaft zum Bruttoinlandsprodukt in die Höhe treiben würden. Wir haben hier ein eindrucksvolles Beispiel dafür, wie sehr Preis und Wert eines Gutes auseinanderklaffen können: Dass die Getreidepreise heute so niedrig sind, ist dadurch bedingt, dass - jedenfalls in den Industrieländern - nur eine geringe Knappheit an Getreide herrscht, und lässt keine Rückschlüsse auf dessen „tatsächlichen“ Wert zu (allenfalls auf dessen mangelnde Wertschätzung). Preise sind eben in erster Linie Knappheitsindikatoren und nicht Wertmaßstäbe. Zudem offenbart sich in den Aussagen der drei Top-Ökonomen ein beinahe naiver Glaube an die unbegrenzte Substituierbarkeit der verschiedenen Güter untereinander. (Überspitzt ausgedrückt: Statt Kartoffel-Chips essen wir Computer-Chips.) Ein ähnlicher Fehlschluss, nämlich die Annahme praktisch unbeschränkter Substituierbarkeit zwischen den Produktionsfaktoren, wird bei der Diskussion der „wahren“ Bedeutung des Faktors Energie weiter unten ebenfalls eine Rolle spielen.

2.

Ein erstes Indiz dafür, dass die Gleichsetzung von Produktionsmächtigkeit und Faktorkostenanteilen der ökonomischen Bedeutung der Energie nicht gerecht wird, liefert die erste Ölkrise zwischen 1973 und 1975: Damals kam es aufgrund der Drosselung der Erdölfördermengen durch die OPEC zu dem ersten Ölpreisschock und einem Rückgang des Energieeinsatzes von bis zu 7%. Hätte Energie tatsächlich nur eine ihrem Faktorkostenanteil entsprechende Produktionsmächtigkeit von 5%, so hätte dies lediglich einen Rückgang der Wertschöpfung um 0,05 mal 7%, also um 0,35% zur Folge haben dürfen. Die tatsächlich beobachteten konjunkturellen Einbrüche waren jedoch fast zehnmal höher; in den USA und Westeuropa verliefen der Rückgang von Energieeinsatz und Industrieproduktion fast parallel. Die durch den Ölpreisschock ausgelösten Wirtschaftskrisen sind mit der neoklassischen Theorie also nicht angemessen zu verstehen.

Im US-amerikanischen Industriesektor etwa stieg der Kapitaleinsatz zwischen 1973 und 1975 inflationsbereinigt um 6,9%, der Einsatz an menschlicher Arbeit sank um 0,8% und der Energieeinsatz sank um 7,3%. Bei einer Gewichtung dieser Werte gemäß den jeweiligen Faktorkostenanteilen ergibt sich daraus ein zu erwartender Anstieg der Wertschöpfung um inflationsbereinigt 1,1%. Tatsächlich ist die Wertschöpfung im betreffenden Zeitraum jedoch um 5,3% gesunken.

aufklappen >

3.

Auch das längerfristige reale Wirtschaftswachstum in den Industrieländern ist nicht einmal annähernd durch die Entwicklung der Faktorinputs von Kapital und Arbeit erklärbar, sofern diese gemäß ihren Kostenanteilen gewichtet werden. Es bleibt stets ein großer, unverstandener Rest, der einem nicht näher erklärten „technischen Fortschritt“ zugeschrieben wird, welcher „praktisch wie Manna vom Himmel“ falle ([4], S. 113). Dieser Restterm wird nach dem Nobelpreisträger Robert M. Solow, dem Begründer der neoklassischen Wachstumstheorie, auch als Solow-Residuum bezeichnet. Für die Wirtschaftsentwicklung der USA im Zeitraum von 1909 bis 1949 beispielsweise liegt der Beitrag des Solow-Residuums bei 87,5% [23]: Gerade einmal 12,5% des in diesem Zeitraum beobachteten Wirtschaftswachstums lassen sich also quantitativ mithilfe der Veränderung der Faktorinputs fassen; der unerklärte „Rest“beitrag ist wichtiger als die erklärenden Faktoren, was nach Auffassung Gahlens [6] die neoklassische Wachstumstheorie tautologisch macht: Ein Unverstandenes wird durch ein anderes Unverstandenes „erklärt“. (Ein solches Vorgehen entzieht sich natürlich der empirischen Falsifikation.) Solow räumte später übrigens selbst ein, dass in dieser Wachstumstheorie der Hauptfaktor des Wirtschaftswachstums unerklärt bleibt [24]. Weiter unten werden wir sehen, dass sich bei einer anderen Gewichtung der Faktorinputs unter Einbeziehung der Energie als Produktionsfaktor die reale Wirtschaftsentwicklung sehr wohl und auch über längere Zeiträume hinweg in guter Näherung aus der Veränderung der Faktorinputs erklären lässt, und dass dabei der Energie die überragende Rolle zufällt.

Abb. 1 zeigt die reale Wirtschaftsentwicklung der USA im 20. Jahrhundert, verglichen mit der Entwicklung, die zu erwarten gewesen wäre, wenn die Produktionsmächtigkeiten mit den durchschnittlichen Faktorkostenanteilen in den USA von 68% (Arbeit), 28% (Kapital) und 4% (Energie) übereinstimmen würden. Die Diskrepanz zwischen realer und prognostizierter Entwicklung ist hierbei deutlich größer als die prognostizierte Wertschöpfung selbst. Die Wirtschaft ist also weitaus schneller gewachsen, als es zu erwarten gewesen wäre, wenn die Entwicklung gemäß der neoklassischen Wachstumstheorie in erster Linie (zu 68%) vom Einsatz menschlicher Arbeit, zu 28% vom Kapital- und nur zu 4% vom Energieeinsatz getrieben worden wäre.

In den letzten zwanzig Jahren gab es zwar im Rahmen der von Romer (1986), Lucas (1988) und Rebelo (1991) begründeten sog. „neuen“ oder „endogenen“ Wachstumstheorie einige Ansätze zur näheren Spezifizierung und „Endogenisierung“ des externen technischen Fortschritts, welche vor allem die Rolle von quantitativ schwer fassbaren Konzepten wie Innovationen und „Humankapital“ stark in den Vordergrund gerückt haben [17, 19, 20]. Doch dass man dadurch das beobachtete Wirtschaftswachstum besser als im neoklassischen Modell erklären könne, wird auch von Ökonomen wie Howard Pack (1994) bezweifelt [18].

Abb. 1: Wirtschaftsentwicklung in den USA im 20. Jahrhundert und Solow-Residuum

Die Rolle der Energie

Diese Unzulänglichkeiten der bisherigen Wachstumstheorien legen den Versuch nahe, durch Betrachtung der ökonomischen Entwicklung und der technischen Struktur des industriellen Produktionsapparats alle Quellen zu identifizieren, aus denen die wirtschaftlichen Werte geschöpft werden. Für die ökonomische Theorie war dies Problem bisher eher nebensächlich gegenüber der Frage nach der Verteilung des Erwirtschafteten und der Frage der Effizienz von Märkten - unzweifelhaft wichtige Fragen aus der sozialwissenschaftlichen Sphäre, über denen jedoch die Grundlagen der Güterproduktion in der „harten“ Sphäre der materiellen Welt mitunter zu kurz gekommen sind.

Tatsächlich ist zu beobachten, dass der technische Fortschritt keinesfalls „wie Manna vom Himmel“ fällt, sondern seit jeher mit einer von der menschlichen Kreativität vorangetriebenen Ausweitung des Energieeinsatzes einhergegangen ist und davon getragen wurde. Der mittlere Energiebedarf pro Kopf und Tag stieg von 2 kWh vor einer Million Jahren beim Sammler ohne Feuerbeherrschung auf 14 kWh bei einfachen Ackerbauern vor 7000 Jahren. Keramikbrennen, Metallverarbeitung, Haus- und Schiffbau steigerten den Energiebedarf weiter, auf etwa 30 kWh pro Kopf und Tag im Mitteleuropa des 14. Jahrhunderts. Im 18. und 19. Jahrhundert erschlossen dann die Wärmekraftmaschinen die gewaltigen Kohlevorkommen Westeuropas, entfachten die industrielle Revolution und stellen heute jedem Einwohner der industrialisierten Länder Energiedienstleistungen zur Verfügung, die rein rechnerisch der körperlichen Schwerarbeit von 10 bis 30 Menschen („Energiesklaven“) entsprechen. Bei Miteinbeziehung der Energie zur Raum- und Prozesswärmeerzeugung würden sich diese Zahlen mehr als verdreifachen. Insgesamt lag 1995 der deutsche Primärenergieverbrauch bei 133 kWh pro Kopf und Tag, was 44 Energiesklaven entspräche. (Die USA kamen mit 270 kWh gar auf rund 90 Energiesklaven.) Der technische Fortschritt wird also offenbar getragen von der Entwicklung immer neuerer Maschinen und Geräte, die Arbeit leisten, Prozesswärme bereitstellen und Information verarbeiten. Sie erzeugen völlig neue Produkte und geben dem Energieeinsatz immer weiteren Raum. Es erscheint daher angemessen, ja überfällig, die Energie als eigenständigen Produktionsfaktor anzuerkennen und dessen ökonomische Leistungsfähigkeit, d.h. Produktionsmächtigkeit, genauer zu studieren. Die Ökonomie lässt jedoch bis heute in der Tradition von Adam Smith meist nur Kapital, Arbeit und Boden als Produktionsfaktoren gelten und operiert insofern noch immer mit den Vorstellungen der prä-industriellen Zeit, in der es noch keinen Energiebegriff gab - dieser wurde erst Anfang des 19. Jahrhunderts von Thomas Young geprägt. Während des Agrarzeitalters verbarg sich die ökonomische Bedeutung der Energie hinter der des Bodens, der mittels der Photosynthese als Solarenergiesammler wirkte, im Agrarsektor auch heute noch so wirkt und in Zukunft als Standort für Anlagen zur Gewinnung solarer Energie auf neue Weise wieder in seine alte Bedeutung hineinwachsen kann. Somit wird die konventionelle Wirtschaftstheorie der überragenden Bedeutung der Energie für industrielle Volkswirtschaften gleich in zweifacher Hinsicht nicht gerecht: Sie erkennt die Energie nicht als eigenen Produktionsfaktor an, und insoweit sie es doch tut, erkennt sie aufgrund der Gleichsetzung von Produktionsmächtigkeiten und Kostenanteilen nicht, dass Energienutzung eine wesentliche Triebkraft des „technischen Fortschritts“ ist.

Die technologisch-empirische Ermittlung der Produktionsmächtigkeiten

In [10], [11], [12], [13], [15], [16] und [22] wurde das sog. KLEC-(Capital-Labor-Energy-Creativity)-Modell aufgestellt und angewendet. Es beschreibt die Entwicklung der volkswirtschaftlichen Wertschöpfung in Abhängigkeit von den eingesetzten Produktionsfaktoren Kapital, Arbeit, Energie und dem Wirken der unter dem Begriff „Kreativität“ zusammengefassten menschlichen Ideen, Erfindungen und Wertentscheidungen. Dabei wird auf die - wie erläutert problematische - neoklassische Gleichsetzung von Faktorkostenanteilen und Produktionsmächtigkeiten verzichtet. Vielmehr werden letztere aus mathematischen und technisch-ökonomischen Überlegungen unter Einbeziehung der empirischen Wirtschaftsentwicklung bestimmt. Vereinfacht ausgedrückt geht es dabei darum, aus den real beobachteten Zeitreihen der Wertschöpfung verschiedener Industrieländer die unterschiedlichen Einflüsse herauszudestillieren, die die Veränderungen im Einsatz der einzelnen Faktoren - Kapital, Arbeit und Energie - auf die Wertschöpfung hatten.

Unter „Kapital“ ist hierbei der Kapitalstock des betrachteten Wirtschaftssystems zu verstehen, der aus allen Energieumwandlungsanlagen und Informationsprozessoren samt den zu ihrem Betrieb und Schutz benötigten Installationen besteht. Als seine Schlüsselelemente können

1. Wärmekraftmaschinen zur Verrichtung mechanischer Arbeit und zur Elektrizitätserzeugung,

2. Öfen zur Bereitstellung von Prozesswärme (etwa zur Erzeugung von Grundstoffen wie Stahl oder Aluminium) und

3. Computer (bzw. deren Grundbausteine, die Mikroprozessoren) zur Informationsverarbeitung

angesehen werden. Kapitalstock und Wertschöpfung werden in inflationsbereinigten monetären Einheiten gemessen, wie sie von den volkswirtschaftlichen Gesamtrechnungen ausgewiesen werden. Arbeit und Energie werden in Arbeitsstunden bzw. Kilowattstunden pro Jahr gemessen; diese Größen können den jährlichen Arbeitsmarktstatistiken und Energiebilanzen entnommen werden.

Die quantitative Analyse bezieht Produktionsfaktoren und Wertschöpfung auf ihre Werte in einem Basisjahr. Sie arbeitet also mit dimensionslosen Variablen, für die die Maßeinheiten ohne Belang sind. Dabei wird zunächst eine Produktionsfunktion aufgestellt. Sie hängt von den Einsatzmengen der Faktoren Kapital, Arbeit und Energie als Eingangsvariablen ab und liefert für (im Rahmen des technisch Möglichen) beliebige Kombinationen dieser drei Faktoren als Ausgangsgröße die Wertschöpfung, die bei diesen jeweiligen Faktorinputs zu erwarten ist. Die Produktionsfunktion enthält noch mehrere, zunächst unbekannte (Technologie-)Parameter, in denen sich in einem gewissen Sinne Kapitaleffizienz und Energieeffizienz widerspiegeln, die sich in Zeiten von (kreativitätsbedingtem) Strukturwandel ändern können. Diese Parameter werden mit Hilfe mathematischer Optimierungsverfahren so bestimmt, dass die mit der Produktionsfunktion und den empirisch gegebenen Produktionsfaktoren berechnete Wertschöpfung von der im Beobachtungszeitraum gemessenen Wertschöpfung möglichst wenig abweicht.

Dabei handelt es sich um nichtlineare Optimierung unter technisch-ökonomischen Nebenbedingungen - nämlich den Bedingungen, dass die Produktionsmächtigkeiten nicht negativ werden dürfen.

Aus dieser Produktionsfunktion kann man dann die Produktionsmächtigkeiten der einzelnen Faktoren für die einzelnen Jahre errechnen.

Die Parameter in der Produktionsfunktion wurden zunächst als zeitunabhängig angenommen. Dies ist so lange zulässig, wie der Einfluss menschlicher Kreativität klein ist, typischerweise für Zeiträume von etwas mehr als einer Dekade. Bei längerfristigen Betrachtungen hingegen lassen sich die Innovationen und Strukturveränderungen nicht mehr vernachlässigen. In [13] wurde daher das in [10] und [11] entwickelte Modell dahingehend erweitert, dass eine explizite Zeitabhängigkeit der Technologieparameter eingeführt wurde, um den Einfluss der Kreativität zu simulieren (welcher u.a. Effizienzveränderungen bewirkt).

Dabei genügen die Technologieparameter einer sog. logistischen Differentialgleichung, die sich zur Beschreibung von Wachstumsprozessen in realen, komplexen Systemen (und insbesondere zur Modellierung von Wachstumsgrenzen) gut bewährt hat.

In diesem KLEC-Modell wird neben den Faktoren Kapital, Arbeit und Energie auch der Kreativität eine Produktionsmächtigkeit (im weiteren Sinne) zugeordnet. Letztere lässt sich interpretieren als der Beitrag eines faktorungebundenen, d.h. durch die Veränderung des Faktoreinsatzes allein nicht fassbaren technischen Fortschritts.

Mathematisch ergibt sich die Produktionsmächtigkeit der Kreativität im Wesentlichen als partielle Ableitung der Produktionsfunktion nach der Zeit. Ihr Betrag ist um so höher, je ausgeprägter die zeitlichen Veränderungen der Technologieparameter sind.

Damit reduziert die Produktionsmächtigkeit der Kreativität das oben erwähnte Solow-Residuum auf seinen im Menschen liegenden Kern. Je kleiner ihr Wert ist, desto genauer lässt sich die reale Wirtschaftsentwicklung allein durch die quantitativen Veränderungen der drei physisch messbaren Produktionsfaktoren fassen. Der wesentliche Unterschied zwischen Kreativität und neoklassischem ``technischen Fortschritt'' ist quantitativer Art: Vernachlässigt man in dem KLEC-Modell den Kreativitätsterm, so verliert man teilweise die Möglichkeit, relativ kleine konjunkturelle Schwankungen zu reproduzieren; die langfristige Entwicklung lässt sich hingegen auch ohne den Kreativitätsterm ohne zu große Residuen nachbilden.

In früheren Untersuchungen, in denen das Wirken des Kreativitätsterms nicht oder nur punktweise berücksichtigt worden war, erhielt man noch Autokorrelationen. Mit verbesserter Modellierung der Zeitabhängigkeit der Technologieparameter wurden diese sehr klein [13, 22].

Sieht man hingegen in der neoklassischen Theorie vom „technischen Fortschritt“ ab, so hat man das Solow-Residuum, d.h. die große Diskrepanz zwischen Theorie und Empirie.

Es zeigt sich, dass sich mit diesem Modell die reale Wirtschaftsentwicklung in Deutschland, Japan und den USA gut reproduzieren lässt: Die von der (LINEX-)Produktionsfunktion vorhergesagten theoretischen Wachstumskurven stimmen mit den empirisch beobachteten gut überein (vgl. Abbildungen 2 bis 5). Insbesondere werden auch die Konjunktureinbrüche und anschließenden Aufschwünge im Zusammenhang mit den beiden Ölpreisexplosionen 1973-75 und 1979-1981 getreulich wiedergegeben.

Abb. 2: Empirisch beobachtetes (Kästchen) und theoretisch, mit der LINEX-Produktionsfunktion berechnetes Wachstum (Kreise) der normierten Wertschöpfung q = Q/Q1960 der Gesamtwirtschaft der Bundesrepublik Deutschland zwischen 1960 und 2000.

Abb. 3: Empirische Zeitreihen der normierten Faktoreinsatzmengen von Kapital k = K/K1960, Arbeit l = L/L1960 und Energie e = E/E1960 in der Bundesrepublik Deutschland

Abb. 4: Empirisch beobachtetes (Kästchen) und theoretisch, mit der LINEX-Produktionsfunktion berechnetes Wachstum (Kreise) der normierten Wertschöpfung q = Q/Q1960 des deutschen industriellen Sektors „Warenproduzierendes Gewerbe“ zwischen 1960 und 1999.

Abb. 5: Empirische Zeitreihen der normierten Faktoreinsatzmengen von Kapital k = K/K1960, Arbeit l = L/L1960 und Energie e = E/E1960 im Sektor „Warenproduzierendes Gewerbe“

Abb. 6: Empirisch beobachtetes (Kästchen) und theoretisch, mit der LINEX-Produktionsfunktion berechnetes Wachstum (Kreise) der normierten Wertschöpfung q = Q/Q1965 des japanischen Industrie-Sektors zwischen 1965 und 1992.

Abb. 7: Empirische Zeitreihen der normierten Faktoreinsatzmengen von Kapital k = K/K1965, Arbeit l = L/L1965 und Energie e = E/E1965 im japanischen Industrie-Sektor.

Abb. 8: Empirisch beobachtetes (Kästchen) und theoretisch, mit der LINEX-Produktionsfunktion berechnetes Wachstum (Kreise) der normierten Wertschöpfung q = Q/Q1960 der US-Gesamtwirtschaft zwischen 1960 und 1996

Abb. 9: Empirische Zeitreihen der normierten Faktoreinsatzmengen von Kapital k = K/K1960, Arbeit l = L/L1960 und Energie e = E/E1960 in der US-Wirtschaft.

Einen zusätzlichen Test für die Tauglichkeit des Modells stellt die Zusammenführung der west- und ostdeutschen Volkswirtschaft, die sich über 40 Jahre divergent entwickelt hatten, nach der deutschen Wiedervereinigung dar. Auch diese plötzliche und drastische Veränderung, die sich in den Zeitreihen der ökonomischen Daten als Sprung äußert, lässt sich mit Hilfe des vorgestellten Modells praktisch Residuen-frei (und mit guten statistischen Gütemaßen [13, 22]) reproduzieren.

Man könnte einwenden, dies sei nicht besonders überraschend, da die Parameter in der Produktionsfunktion ja gerade so gewählt worden seien, dass die Abweichung zwischen Empirie und Theorie minimiert werde; überhaupt könne man durch entsprechende Anpassung genügend vieler freier Parameter praktisch beliebige Zeitreihen reproduzieren. Hierauf ist zu erwidern, dass die verwendeten Produktionsfunktionen mit einer recht kleinen Zahl an Anpassungsparametern auskommen: Zur Reproduzierung des Wachstums in Deutschland, Japan und den USA über Zeiträume von rund 15 Jahren, die die Energiekrisen der 1970er Jahre enthalten, genügen drei Anpassparameter [10, 11, 16]. Erst wenn man die Analyse auf Zeiträume ausdehnt, in denen deutliche Effizienzänderungen des Kapitalstocks stattfanden, sei es als Antwort auf die Ölpreisexplosionen, sei es als Folge des Strukturwandels hin zu mehr Informationstechnologie, oder sei es als Folge der deutschen Wiedervereinigung mit ihrer Integration des weniger effizienten Kapitalstocks der ehemaligen DDR in den Kapitalstock der erweiterten Bundesrepublik, benötigt man zur Modellierung der Zeitabhängigkeit der Technologieparameter a und c zusätzliche freie Konstanten, die durch die Anpassung bestimmt werden. Aber auch im Falle der Gesamtwirtschaft der Bundesrepublik 1960 - 2000 gelingt das Nachvollziehen der wirtschaftlichen Entwicklung (einschließlich des durch die Wiedervereinigung bedingten Sprungs) mit fünf Anpassparametern (vgl. [22]). Ist man nicht auf Primärenergiedaten angewiesen, sondern besitzt man, wie Ayres und Warr [1], Energiedaten, in die die Wirkungsgradverbesserungen der Produktionsanlagen schon hineingerechnet wurden, so kann man mit der LINEX-Produktionsfunktion das Wirtschaftswachstum der USA zwischen 1900 und 2000 sogar mit nur zwei Anpassparametern reproduzieren, siehe Abb. 6.

aufklappen >

Für die Produktionsmächtigkeiten, also die wirtschaftlichen Gewichte der einzelnen Faktoren, ergibt sich folgendes Bild: In den industriellen Wirtschaftssektoren liegt die Produktionsmächtigkeit der Energie im zeitlichen Mittel in der Größenordnung von 50%. Sie ist damit etwa so groß wie die Produktionsmächtigkeiten von Kapital und Arbeit zusammen und liegt um eine Größenordnung über dem Kostenanteil der Energie an den Gesamtkosten. Umgekehrt liegt die Produktionsmächtigkeit der menschlichen Arbeit stets weit unter ihrem Kostenanteil von 65 bis 70%. (Im - nur für die Bundesrepublik Deutschland analysierten - Dienstleistungssektor stellen sich die Verhältnisse ein wenig ausgewogener dar; die Energie kommt hier nur auf eine Produktionsmächtigkeit von 17%, die Arbeit immerhin auf 29%. An der deutlichen Diskrepanz zu den jeweiligen Faktorkostenanteilen ändert dies jedoch nichts.) Lediglich für den Faktor Kapital sind Produktionsmächtigkeiten und Kostenanteile ungefähr im Gleichgewicht. Die Produktionsmächtigkeit der Kreativität liegt meist unter 10%. Die nur phänomenologisch und ex post fassbaren, menschlichen Ideen, Erfindungen und Wertentscheidungen tragen also zum Wirtschaftswachstum kurz- und mittelfristig deutlich weniger bei als die Energiedienstleistungen. Langfristig jedoch können sie entscheidende Weichenstellungen vollziehen – z.B. hin zu den Technologien der rationellen Energieverwendung und der Nutzung der nicht-fossilen Energieträger.

Die folgende Tabelle zeigt die (renormierten) zeitlichen Mittelwerte der LINEX-Produktionsmächtigkeiten für die einzelnen untersuchten Länder und Wirtschaftssektoren.

Produktionsmächtigkeiten
Land, Wirtschaftssektor Zeitraum Kapital Arbeit Energie Kreativität
USA, Industrie [13] 1960-1993 36% 7% 51% 6%
Japan, Industrie [18] 1965-1992 17% 9% 65% 9%
Bundesrepublik Deutschland, Warenproduzierendes Gewerbe [18] 1960-1999 42% 14% 59% -14%
Bundesrepublik Deutschland, Marktbestimmte Dienstleistungen [16] 1960-1989 54% 29% 17%
USA, Gesamtwirtschaft [18] 1960-1996 47% 14% 31% 8%
Bundesrepublik Deutschland, Gesamtwirtschaft [18] 1960-2000 33% 12% 41% 14%

Der aus dem Rahmen fallende negative Wert (-14%) für den Beitrag der Kreativität im industriellen Sektor der Bundesrepublik Deutschland erklärt sich durch die bei der Wiedervereinigung 1990 vollzogene Integration des DDR-Kapitalstocks mit seiner wesentlich niedrigeren (Energie)-Effizienz in den gesamtdeutschen Kapitalstock.

Bestätigt wurden die dargestellten Resultate durch Analysen von R. Ayres und B. Warr [1], die mit der LINEX-Produktionsfunktion mit lediglich zwei Anpassungsparametern die Wirtschaftsentwicklung der USA im gesamten 20. Jahrhundert allein durch das Zusammenspiel von Kapital, Arbeit und Energie bis auf geringe Abweichungen von maximal 12% erklären konnten (vgl. Abb. 6). Auf eine explizite Zeitabhängigkeit der Technologieparameter konnte dabei verzichtet werden; stattdessen wurde das Wirken der Kreativität dadurch berücksichtigt, dass die Wirkungsgradsteigerungen der Energieumwandlungsanlagen bereits in die Daten für den Energieinput hineingerechnet wurden. Abb. 7 zeigt die zeitliche Entwicklung der Produktionsmächtigkeiten gemäß den Analysen von Ayres und Warr; für den Faktor Energie ergibt sich hiernach für den größten Teil des 20. Jahrhunderts eine Produktionsmächtigkeit von 60 bis 70% - Werte also, die noch über die oben genannten hinausgehen.

Auch eine vom Konzept der Produktionsfunktion unabhängige Methode, die Kointegrationsanalyse, bestätigt die Größenordnung der Produktionselastizitäten [25]

Abb. 10: Reproduktion der Entwicklung des Bruttoinlandsprodukts (BIP) in den USA im 20. Jahrhundert durch Ayres und Warr aus dem Zusammenspiel von Kapital, Arbeit, Energie mithilfe einer LINEX-Produktionsfunktion mit lediglich zwei Anpassungsparametern.

Abb. 11: Zeitliche Entwicklung der Produktionsmächtigkeiten von Kapital. Arbeit, Energie in den USA im 20. Jh. gemäß den Analysen von Ayres / Warr

Die hohe Produktionsmächtigkeit der Energie deutet sich in den Abbildungen 2 bis 5 bereits darin an, dass die Kurven für die Entwicklung der Wirtschaftsleistung der betrachteten Länder im kurzfristigen konjunkturellen Auf und Ab den Kurven des Energieeinsatzes ähneln. (Hingegen wird die langfristige Entwicklung der Wertschöpfung auch ganz wesentlich vom Wachstum des Kapitalstocks bestimmt.) Die Produktionsmächtigkeit eines Faktors ist in gewissem Sinne also ein Maß dafür, wie sehr die Entwicklung des betreffenden Faktoreinsatzes im Gleichschritt mit der Wirtschaftsentwicklung verläuft: Je höher die Produktionsmächtigkeit des betreffenden Faktors, desto enger die Korrelation zwischen der Kurve des Faktoreinsatzes und der Kurve der Wertschöpfung.

Aus physikalischer Sicht ist die überragende ökonomische Bedeutung der Energie ohnehin klar - auch ohne mathematische Analysen. Denn gemäß der ersten beiden Hauptsätze der Thermodynamik, die zu den mächtigsten Gesetzen der Naturwissenschaft zählen, geschieht nichts auf der Welt ohne Energieumwandlung und Entropieproduktion. Darum bewegt Energieumwandlung die Welt - auch die der Wirtschaft. (Entropieproduktion hingegen ist mit Energieentwertung und Umweltbelastungen verbunden. Doch davon soll hier nicht weiter die Rede sein.)

Das derzeit bestehende fundamentale Ungleichgewicht zwischen Produktionsmächtigkeiten und Kostenanteilen von Energie und Arbeit liefert die produktionstheoretische Deutung der in den meisten Industrieländern seit längerem beobachteten Entkopplung von Wirtschaftswachstum und Beschäftigung: Unter dem Druck der Kostenminimierung ist der langfristige Entwicklungspfad unserer Wirtschaft maßgeblich durch die Ersetzung teurer und relativ produktionsschwacher menschlicher (Routine-)Arbeit durch produktionsmächtige Kombinationen von billiger Energie und (zunehmend informationsverarbeitendem) Kapital bestimmt. Das Abrutschen in das Kostenminimum geringsten Arbeits- und höchsten Energieeinsatzes wird zwar durch noch existierende, aber sich verschiebende technische Beschränkungen beim Automationsfortschritt, die Nachfrage nach (noch) nicht vollautomatisch herstellbaren Produkten und durch (noch vorhandene und respektierte) Gesetze und Verträge gebremst, aber die Richtung ist eindeutig vorgegeben. Die Fahrt ist nicht aufzuhalten - es sei denn, man verändert die Preisrelationen zwischen Arbeit und Energie durch eine grundlegende Verlagerung der Steuerlast von der Arbeit auf die Energie. Dies würde dem allgemein anerkannten Prinzip der Besteuerung gemäß wirtschaftlicher Leistungsfähigkeit entsprechen, welches nunmehr von den Individuen auf die Produktionsfaktoren zu übertragen wäre.

Die niedrigen Werte von ca. 10 bis 15% für die Produktionsmächtigkeit der menschlichen Arbeit rufen oftmals ein erhebliches Unbehagen hervor, welches psychologisch auch durchaus verständlich ist angesichts der hohen sinn- und identitätsstiftenden Funktion der Arbeit in unserer Gesellschaft. Hierbei ist jedoch zweierlei zu bedenken: Zum einen bedeutet „Arbeit“ im obigen Sinne nur die (in geleisteten Arbeitsstunden messbare) menschliche Routinearbeit - der spezifische Beitrag menschlicher Erfindungsgabe und Wertsetzungen, wie ihn keine Maschine zu übernehmen vermag, wird, wie oben ausgeführt, eigens durch den die Zeitabhängigkeit der Technologieparameter bedingenden Faktor „Kreativität“ berücksichtigt. Vor allem aber kann aus den niedrigen Produktionsmächtigkeiten in keiner Weise ein abschätziges gesellschaftliches Werturteil über die menschliche Arbeit (oder gar ein Plädoyer für niedrigere Löhne) abgeleitet werden. Sie stellen lediglich eine Beschreibung der derzeitigen ökonomischen Verhältnisse dar und liefern die Erklärung für die global und innergesellschaftlich wachsenden Einkommensunterschiede: Da Energie und Kapital längst zu den eigentlichen Triebfedern der Wirtschaft avanciert sind, orientiert sich die Verteilung des Erwirtschafteten immer stärker an der Verfügungsmacht über die Energiesklaven, die bei Managern, Kapital- und Energiequellen-Besitzern liegt. Hingegen erfolgt die Finanzierung der Gemeinschaftsaufgaben des Staates und der sozialen Sicherungssysteme immer noch weitgehend durch Steuern und Abgaben auf den Faktor Arbeit, der angesichts zunehmender Schwächung der Gewerkschaften durch die fortschreitende Automation nicht mehr wie früher einen Gutteil des von den Energiesklaven Erwirtschafteten als „Produktivitätsfortschritt“ für sich reklamieren kann. Die offensichtliche Schwierigkeit, den marktfundamentalistisch von „Reaganomics“ und Thatcherismus begründeten Rückfall in längst überwunden geglaubte Frühformen des Kapitalismus aufzuhalten und den Kapitalismus zu „zivilisieren“, wie von Marion Gräfin Dönhoff gefordert [3], findet insofern ihre tiefere Ursache auch in der Schwäche menschlicher Arbeit gegenüber den Dienstleistungen der „Energiesklaven“.

Der Irrtum der neoklassischen Wirtschaftstheorie

Die eklatante Diskrepanz zwischen Produktionsmächtigkeiten und Faktorkostenanteilen wirft die Frage auf, wo der Irrtum der neoklassischen Wachstumstheorie liegt, derzufolge ja beide Größen übereinstimmen müssten. Vereinfacht kann man das neoklassische Argument wie folgt formulieren: Würden Faktorkostenanteile und Produktionsmächtigkeiten voneinander abweichen, so wäre die gegebene Faktorkombination nicht optimal; es könnte durch Substitution eines Produktionsfaktors, bei dem der Faktorkostenanteil über seiner Produktionsmächtigkeit liegt, durch einen anderen, dessen Faktorkostenanteil unter seiner Produktionsmächtigkeit liegt, der Gewinn gesteigert werden. Dabei würde aber die Nachfrage nach dem ersten (unattraktiven) Faktor sinken, die nach dem zweiten, attraktiveren steigen, womit sich auch deren Preise entsprechend verschieben würden - und damit auch ihre Faktorkostenanteile: Der erste Faktor würde billiger, der zweite teurer, und dies so lange, bis Produktionsmächtigkeit und Faktorkostenanteile wieder übereinstimmen würden.

Diese Argumentation geht implizit von zwei Grundannahmen aus:

1. Die beschriebenen Substitutionsprozesse laufen „schnell“, in vernachlässigbar kurzen Zeiträumen ab.

2. Die Produktionsfaktoren können ohne Einschränkungen untereinander substituiert werden.

Beide Annahmen sind in einer sich dynamisch entwickelnden Wirtschaft zumindest fragwürdig: So ist es denkbar, dass die Kosten, die mit den beschriebenen Substitutionsprozessen verbunden sind, höher sind als die dadurch erzielte Gewinnsteigerung, so dass sie zumindest teilweise bis zu ohnehin notwendigen Modernisierungen des Kapitalstocks hinausgezögert werden. Weiter benötigen Verlagerungen zwischen den Faktoren ihre Zeit. Erst im Verlauf der Zeit vergrößern sich Substitutionsmöglichkeiten im Zuge neuer technischer Entwicklungen: Beispielsweise war es vor 30 Jahren im Gegensatz zu heute schlichtweg technisch noch nicht möglich, die Kreditabteilung einer Bank durch einige elektrizitätsgetriebene Computer mit passender Software zu ersetzen. Und schließlich behindern gesetzliche und tarifvertragliche Regelungen wie etwa der Kündigungsschutz (noch) die Substitution teurer Arbeit-/Kapital-Kombinationen durch billigere Energie-/Kapital-Kombinationen. Dies alles führt dazu, dass sich die Substitutionsprozesse, die das Ungleichgewicht zwischen Produktionsmächtigkeiten und Faktorkostenanteilen nivellieren, über lange Zeiträume, über Jahre bis Jahrzehnte hinziehen können. Zugleich zeigen diese Betrachtungen auch die Fragwürdigkeit der zweiten Grundannahme, der Prämisse von der unbeschränkten Substituierbarkeit der Faktoren: Die Möglichkeiten zur Substitution sind durch die Restriktionen des jeweils technisch Machbaren beschränkt, so dass ein Ungleichgewicht zwischen Produktionsmächtigkeiten und Faktorkostenanteilen durchaus für längere Zeit Bestand haben kann - weil die Anpassungsprozesse, die eigentlich zu seiner Beseitigung führen müssten, aufgrund technischer Unmöglichkeit (vorerst!) unterbleiben bzw. nur allmählich ablaufen.

Die neoklassische Gleichsetzung von Faktorkostenanteilen und Produktionsmächtigkeiten ist somit zwar korrekt für eine Wirtschaft, die sich bereits in einem langfristigen Gleichgewichtszustand eingependelt hat, also für eine statische Wirtschaft ohne technischen Fortschritt. Auf dynamische Ökonomien hingegen ist sie nicht ohne weiteres anwendbar, da nichts darüber ausgesagt wird, wie lange die beschriebenen Substitutions- und Anpassungsprozesse dauern. Es bestätigt sich hier einmal mehr exakt jener Einwand, den Keynes gegen den neoklassischen Glauben an die Selbstregulierung freier Märkte erhoben hat: Zwar mag sich auf lange Sicht ein nutzenoptimierendes Gleichgewicht einstellen, das ist aber kein Trost und erst recht keine Rechtfertigung für staatliches Laissez Faire, denn „auf lange Sicht sind wir alle tot“.

Tatsächlich deutet die starke Diskrepanz zwischen (technologisch-empirisch bestimmten) Produktionsmächtigkeiten und Faktorkostenanteilen darauf hin, dass sich die Wirtschaft mitnichten in einem Gleichgewichtszustand im neoklassischen Sinne befindet, sich vielmehr entlang der sich ständig verschiebenden Grenze des technisch jeweils Möglichen entwickelt, so dass die jeweils vorhandene Kombination der Produktionsfaktoren nur insofern optimal ist, als andere, noch günstigere Faktorkombinationen zum jeweiligen Zeitpunkt noch außerhalb der Reichweite des technisch Möglichen liegen - was sich einige Jahre später aber geändert haben kann.

Mathematisch gesprochen geht die Neoklassik davon aus, dass das wirtschaftliche Optimum im Inneren des technisch zulässigen Faktor-Raumes liegt, während es sich tatsächlich um ein Rand-Optimum handelt. Genauer gesagt besteht der Fehler der neoklassischen Wachstumstheorie darin, die optimale (z. B. gewinnmaximierende) Kombination der Produktionsfaktoren dadurch zu ermitteln, dass geeignete Ableitungen Null gesetzt werden; hieraus lässt sich dann auf die Gleichheit von Faktorkostenanteilen und Produktionselastizitäten schließen. Durch Nullsetzen der Ableitung können allerdings nur Extrema im Innern des Definitionsbereichs bestimmt werden, nicht Extrema an dessen Rändern. Ein einfaches Beispiel mag dies illustrieren: Man betrachte die quadratische Funktion f(x)=–x^2 (deren Graph eine nach unten geöffnete Parabel mit Scheitel im Nullpunkt ist). Nun sei aber, aus welchen Gründen auch immer, nur der Parabelbereich x> 5 zugänglich. Dann liegt das Maximum des zugänglichen Parabelabschnitts im Randpunkt x=5, während man beim Ignorieren der Zugänglichkeitsbeschränkung durch Nullsetzen der Parabelableitung das absolute Maximum, mit waagrechter Tangente an die Kurve, in x=0, also außerhalb des Zulässigkeitsbereichs erhält. Ähnlich verhält es sich mit den aus Wertschöpfung (gemäß Produktionsfunktion) und Faktorkosten gebildeten Gewinnen (auch wenn hier statt einer Variablen mehrere vorkommen): Die empirischen Befunde deuten darauf hin, dass das derzeit erreichbare Gewinnmaximum auf dem Rand des technologisch zugänglichen Bereichs im k,l,e-Raum liegt, während das absolute Gewinnmaximum, der Zustand mit praktisch verschwindendem Arbeitseinsatz, (noch) außerhalb dieses Bereichs angesiedelt ist. Es kann daher für das derzeitige Optimum nicht gefolgert werden, dass die Ableitungen der Gewinnfunktion nach den Produktionsfaktoren verschwinden - und somit auch nicht die Gleichheit von Faktorkostenanteilen und Produktionsmächtigkeiten.

aufklappen >

Diese Betrachtungen lassen übrigens auch erwarten, dass Versuche, den Faktor Arbeit durch Aufweichung des Kündigungsschutzes attraktiver zu machen, sich bei unveränderten Rahmenbedingungen als auf lange Sicht wenig hilfreich erweisen werden. Auch wenn sie vielleicht im Augenblick die Hemmschwelle gegenüber Neueinstellungen absenken, dürften sie angesichts der bestehenden Schieflage zwischen Faktorkosten und Produktionsmächtigkeiten den Trend zu wachsender Automation und dem damit verbundenen Abbau von Arbeitsplätzen nicht brechen.

Die Rolle der „Information“ in der Produktion

Bisweilen wird in Diskussionen die Frage nach der Rolle der „Information“ in der Produktion gestellt. Um darauf zu antworten, muss man begrifflich präzisieren. Es geht um Informationsverarbeitung, -übertragung, -speicherung und -entstehung.

Informationsverarbeitungsanlagen („Computer“) sind Teil des Kapitalstocks. Informationsübertragung erfolgt immer durch Energieströme, so dass jede Informationsverarbeitung mit Energieeinsatz einhergeht – übrigens in einem Ausmaß, das nur wenig bekannt ist: So wurde für 2002 der Anteil des Stromverbrauchs durch die gesamte Telekommunikations-Infrastruktur und durch Büro- und Informationsgeräte auf ca. 3 Prozent des gesamten US-amerikanischen Stromverbrauchs geschätzt [21]; noch bedeutsamer als der bei der Informationsverarbeitung auftretende Energiedurchsatz selbst ist die enorme Energie- und Ressourcenintensität der Computerproduktion, die u.a. auf die extremen Reinheitserfordernisse bei der Wafer-Verarbeitung und die aufwändige Gewinnung der benötigten hochreinen Metalle zurückzuführen ist. Informationsspeicherung kann neben der traditionellen Schriftform auch digital durch Energieflüsse oder Magnetisierung erfolgen - auch sie ist also an Kapital und Energie gebunden. Informationsentstehung, d.h. der schöpferische Prozess und die Diffusion seiner Ergebnisse in die Wirtschaft, findet primär im neuronalen Apparat des Menschen statt. Ihre Auswirkungen auf die Produktion durch wachsende Effizienz und Komplexität des Kapitalstocks, oft begleitet von höherer Qualifikation der Beschäftigten, sowie Struktur- und Wertewandel, also alle Effekte, die kurz unter dem Begriff der „Kreativität“ zusammengefasst werden, finden ihren Niederschlag in den zeitlichen Änderungen der Technologieparameter. In diesem Sinne scheint das KLEC-Modell alle relevanten Produktionsfaktoren zu erfassen, so dass es in der beschriebenen Weise das Wirtschaftswachstum reproduzieren kann.

Literatur

[1] Ayres, Robert; Warr, Benjamin: Accounting for growth: the role of physical work, in: Advances in Energy Studies - Reconsidering the Importance of Energy (S. Ulgiati et al. eds.), SGE, Padova 2003, S. 15-33

[2] Daly, Herman: When smart people make dumb mistakes, Ecological Economics 34 (2000), S. 1-3

[3] Dönhoff, Marion Gräfin: Zivilisiert den Kapitalismus - Grenzen der Freiheit, Droemer-Knaur, München 1999

[4] Frenkel, Michael; Hemmert, Rimbert: Grundlagen der Wachstumstheorie, Vahlen, München 1999

[5] Fabeck, Wolf von; Grahl, Jürgen: Die ökologische Steuerreform: Arbeit und Wohlstand für alle, Solarbrief 3/02, S. 95-101

[6] Gahlen, Bernhard: Der Informationsgehalt der neoklassischen Wachstumstheorie für die Wirtschaftspolitik, Mohr, Tübingen 1972

[7] Grahl, Jürgen: Vom Elend der konventionellen Wirtschaftstheorien Oder Die Vernachlässigung des Produktionsfaktors Energie, Solarbrief 4/03, S. 22-30

[8] Grahl, Jürgen: Reformieren statt Deformieren - Die Zukunft der sozialen Sicherungssysteme, Solarbrief 2/03, S. 7-16

[9] Grahl, Jürgen: Umsteuern durch Energiesteuern - Eine Alternative zu Neoliberalismus und Neokeynesianismus, Solarbrief 1/04, S. 24-31

[10] Kümmel, Reiner: The impact of energy on industrial growth, Energy - The International Journal 7 (1982), S. 189-203

[11] Kümmel, Reiner; Strassl, Wolfgang; Gossner, Alfred; Eichhorn, Wolfgang: Technical progress and energy dependent production functions, Zeitschrift für Nationalökonomie - Journal of Economics 45 (1985), S. 285-311

[12] Kümmel, Reiner: Energie und Kreativität, Teubner, Leipzig 1998

[13] Kümmel, Reiner; Henn, Julian; Lindenberger, Dietmar: Capital, labor, energy and creativity: modeling innovation diffusion, Structural Change and Economic Dynamics 13 (4) 2002, S. 415-433

[14] Kümmel, Reiner: Energie, Wirtschaftswachstum und Beschäftigung - Umsteuern durch Energiesteuern, Solarbrief 1/04, S. 13-23

[15] Lindenberger, Dietmar: Wachstumsdynamik industrieller Volkswirtschaften - Energieabhängige Produktionsfunktionen und ein faktorpreisgesteuertes Optimierungsmodell, Metropolis-Verlag, Marburg 2000

[16] Lindenberger, Dietmar; Eichhorn, Wolfgang; Kümmel, Reiner: Energie, Innovation und Wirtschaftswachstum, Zeitschrift für Energiewirtschaft 25 (2001), S. 273-282

[17] Lucas, Robert E.: On the Mechanics of Economic Development, Journal of Monetary Economics 22 (1988), S. 3-42

[18] Pack, Howard: Endogeneous Growth Theory: Intellectual Appeal and Empirical Shortcomings, Journal of Economic Perspectives 8 (1994), S. 55-72.

[19] Rebelo, Sergio: Long-run Policy Analysis and Long Run Growth, Journal of Political Economy 99 (1991), S. 500-521

[20] Romer, Paul M.: Increasing Returns and Long Run Growth, Journal of Political Economy 94 (1986), S. 1002-1037

[21] Roth, Kurt W.; Goldstein, Fred; Kleinman, Jonathan: Energy Consumption by Office and Telecommunication Equipment in Commercial Buildings, Cambridge (MA), Arthur D. Little Inc. 2002.

[22] Schmid, Jörg; Lindenberger, Dietmar; Kümmel, Reiner: Energy, Economic Growth and German Reunification, in: Advances in Energy Studies - Reconsidering the Importance of Energy (S. Ulgiati et al. eds.), SGE, Padova 2003, S. 119-124

[23] Solow, Robert M.: Technical change and the aggregate production function, The Review of Economics and Statistics 39, (1957) S. 312-320

[24] Solow, Robert M.: Perspectives on Growth Theory, Journal of Economic Perspectives 8 (1994) S. 45-54

[25] Stresing, Robert: Energie und Wirtschaftswachstum: Produktionsfunktionen und Kointegrationsanalysen für Deutschland, Japan und die USA, Diplomarbeit, Unversität Würzburg, 2005


weitere Social Networks >

Impressum | 
per E-Mail empfehlen >
 | Kommentar schreiben >