Wirtschaft

Volkswirtschaftslehre | Wirtschaftliche Entwicklung | Internationale Handelspolitik

Aus: fachbuchjournal Ausgabe 3/2017

Spätestens seit der Finanzkrise gibt es eine vernehmlicher werdende Kritik an den Forschungs- und Lehrinhalten der derzeitigen Volkswirtschaftslehre. In zweien der im Folgenden besprochenen Bücher wird diese Kritik aufgenommen. Die Autoren konstatieren übereinstimmend eine inhaltliche und methodische Engführung des Faches. Philip Plickert plädiert in journalistischer, gut lesbarer Weise für eine zukünftig stärkere Berücksichtigung wirtschaftsgeschichtlicher Erfahrungen, Erkenntnisübernahmen verwandter geisteswissenschaftlicher Fächer und ordnungspolitischen Denkens. Frank Beckenbach, Maria Daskalakis und David Hofmann stellen in einer stärker auf wissenschaftlichen Erkenntnisgewinn abstellenden Form darauf ab, die Engführung empirisch zu dokumentieren und in den Überzeugungen der Fachvertreter und den Lehrinhalten sichtbar zu machen.

Im völligen Gegensatz zu diesen beiden, den Zustand der Volkswirtschaftslehre kritisch beleuchtenden Arbeiten, steht das Buch von Angus Deaton. Hier zeigt ein Könner dieses Faches, wie mittels volkswirtschaftlicher Betrachtungen, eingebettet in ihren sozialen Zusammenhang, ein faszinierendes Bild der wirtschaftlichen Entwicklung gezeichnet werden kann.

Marc Bungenberg und Christoph Herrmann versammeln als Herausgeber Autoren, die einen juristischen Blick auf die spezifischen Probleme werfen, die sich aus der zunehmenden Übertragung außenhandelspolitischer Kompetenzen vom Nationalstaat auf die Europäische Union ergeben.

Philip Plickert: Die VWL auf Sinnsuche. Ein Buch für zweifelnde Studenten und kritische Professoren. Frankfurt: Frankfurter Allgemeine Buch 2016, 264 Seiten, Hardcover, ISBN 978-3-95601-172-6. € 19,90

Insgesamt plädiert Plickert für eine größere Bereitschaft, vom Mainstream abweichende unorthodoxe Theorie zu akzeptieren, sich den geisteswissenschaftlichen Wurzeln des Faches wieder stärker zu öffnen und entlang dieser Kriterien eine stärkere Differenzierung von Studiengängen und Hochschulen in der volkswirtschaftlichen Ausbildung zuzulassen.

 

Philip Plickert hat in München und London Volkswirtschaftslehre und Wirtschaftsgeschichte studiert, in Tübingen über die Mont Pèlerin-Gesellschaft und den Neoliberalismus promoviert und ist seit 2008 in der Wirtschaftsredaktion der FAZ tätig, wo er unter anderem die Seite „Der Volkswirt“ betreut. Der Untertitel nennt die Adressatenkreise des Buches: Studenten der VWL und ihre Professoren. Dies scheint mir eine unnötige Engfassung der Zielgruppe zu sein. An wirtschaftlichen Fragen interessierte Nichtfachleute wie auch ein geeignetes Studienfach suchende Schüler dürften das Buch ebenfalls mit Gewinn lesen.

Spätestens mit der Finanzkrise hat sich ein schon seit längerer Zeit vorhandenes, bisher latent gebliebenes Unbehagen an Stand und Entwicklung der Volkswirtschaftslehre manifestiert. Zu Beginn seines Buches zitiert Plickert eine prominente Stimme, die diesem Unbehagen Ausdruck verleiht. Als Königin Elisabeth II. 2009 die London School of Economics besuchte, versuchte ihr die versammelte Professorenschar zu erklären, wie es zu der Finanzkrise gekommen sei. Am Ende der Ausführungen stellte sie – stellvertretend für viele Bürger – die entwaffnend einfache Frage: „Why did nobody see it come?“.

Mit der Suche nach Antworten auf diese Frage sowie auf Fragen der inhaltlichen und methodischen Orientierung des Faches beschäftigt sich der Autor im vorliegenden Buch. Plickert bringt gute Voraussetzungen mit, zu diesen Fragen etwas Belangvolles sagen zu können. Er verfügt über einen ordnungspolitischen Kompass und seine Kritik hat Substanz. Der journalistische Schreibstil macht zudem die Lektüre ausgesprochen unterhaltsam. Bei aller Kritik am Fach bleibt die Begeisterung für die Volkswirtschaftslehre immer spürbar und mündet in bedenkenswerte Anregungen zu punktuellen Schwerpunktverschiebungen in Forschung und Lehre. In vier Bereichen sieht Plickert wichtigen Reformbedarf in der volkswirtschaftlichen Ausbildung: (1) Eine stärkere Berücksichtigung historischer Erfahrungen. Sie bewahrt zum einen davor, wissenschaftlichen Modeerscheinungen zu folgen, und bringt zum anderen eine längerfristige, nachhaltigere Perspektive in das Fach. (2) Eine stärkere Vermittlung von Institutionenkenntnissen. Die heute nahezu ausschließliche Konzentration auf Methodenkompetenzen, insbesondere statistisch-mathematischer Natur, entfernt das Fach von seinen gesellschaftlichen Wurzeln und verschiebt es in naturwissenschaftliche Richtung, wo es nicht hin gehört. (3) Die Rückbesinnung auf ordnungspolitische Grundsätze. Das Scheitern sozialistischer Wirtschaftsordnungen wie auch die Globalisierung haben dem Entstehen einer Form von Marktwirtschaft Vorschub geleistet, in der dem rechtlichen Rahmen dieser Ordnung nur noch wenig Interesse entgegen gebracht wird. So wurde in der Finanzkrise und wird in der Eurokrise gegen den Eucken’schen Grundsatz „Wer den Nutzen hat, muss auch den Schaden tragen“ in eklatanter Weise verstoßen. (4) Das Menschenbild des Homo Oeconomicus. Dieses ökonomischen Analysen oft zugrunde liegenden Bildes vollständig rationaler, nutzen- und gewinnmaximierender Agenten bedarf realistischerer Verhaltensannahmen, die beschränkter Rationalität, Gewohnheiten und Fairnessüberlegungen Raum geben.

Plickert benennt nicht nur diese Defizite, sondern ist offen genug, die Anstrengungen einzelner Ökonomen, diese Defizite zu überwinden, zu würdigen. So verweist er auf jüngere Ökonomen, die gewappnet mit modernen ökonometrischen Methoden, der Wirtschaftsgeschichte wieder zu größerem Interesse verhelfen. Ihnen hat die Nobelpreisverleihung an den Wirtschaftshistoriker Robert Fogel, Chicago, 1993, Auftrieb verliehen. Ferner betont er, dass die Ökonomen das Marktverhalten der Menschen schon lange nicht mehr durch den Homo Oeconomicus alleine, sondern durch eine breite Palette von Verhaltensannahmen beschreiben. Eine ganze, sich auf psychologische Erkenntnisse stützende Forschungsrichtung, „Behavioural Economics“, folgt diesem Ansatz, zu dem insbesondere Daniel Kahnemann bedeutende Beiträge geleistet, und die er in seinem Bestseller „Schnelles Denken – Langsames Denken“ popularisiert hat. In diesem Zusammenhang würdigt Plickert auch die experimentelle Ökonomik, mit deren Hilfe tatsächliches Verhalten unter Laborbedingungen beobachtet werden kann und um deren Etablierung in Deutschland sich der 1994 mit dem Nobelpreis geehrte und 2016 verstorbene Reinhard Selten große Verdienste erworben hat. In einer Reihe von Interviews mit kompetenten Gesprächspartnern lässt Plickert Innen- und Außenansichten zum Thema zu Wort kommen. In einem der Gespräche weist etwa Monika Schnitzer, die derzeitige Vorsitzende des Vereins für Socialpolitik, die monierte unzureichende wirtschaftshistorische Ausbildung der Ökonomen vehement zurück. Sie meint, dass man zum Verständnis der Finanzkrise nicht Marx gelesen haben muss, sondern besser etwas von „Moral Hazard“ und Bankenregulierung gehört haben sollte. Es würden ja auch den Studenten der Medizin nicht mehr die Therapien des vorletzten Jahrhunderts, wie etwa der Aderlass, beigebracht sondern die heute gängigen Heilmethoden.

In einem anderen Gespräch zitiert Daniel Fetchenhauer, Soziologe an der Universität Köln, eine eigene empirische Untersuchung, in der die Befragten in einem Reputationsvergleich den Ökonomen nur wenig Ansehen und Nützlichkeit attestierten. Fetchenhauer führt dies darauf zurück, dass sich Ökonomen vorwiegend mit Allokations- und Effizienzfragen beschäftigen, die Mehrheit der Befragten aber Verteilungsund Gerechtigkeitsfragen für wesentlich wichtiger halten. In der Tat liegen die methodischen Stärken des Faches eher im Umgang mit Knappheit und der Schaffung von Wohlstand als im Umgang mit Ungleichheit und der Verteilung dieses Wohlstands. Da es zudem kaum noch Lehrveranstaltungen und Lehrbücher zur Ungleichheit gibt, brauchen sich die Ökonomen nicht über derartige Wahrnehmungen zu wundern.

Insgesamt plädiert Plickert für eine größere Bereitschaft, vom Mainstream abweichende unorthodoxe Theorie zu akzeptieren, sich den geisteswissenschaftlichen Wurzeln des Faches wieder stärker zu öffnen und entlang dieser Kriterien eine stärkere Differenzierung von Studiengängen und Hochschulen in der volkswirtschaftlichen Ausbildung zuzulassen. Das Buch enthält ein längeres, das Anliegen des Autors rechtfertigendes Vorwort, zwei Kapitel zur Sinnsuche mit den Überschriften „Die Ökonomen in der Krise und im Wandel“ und „Vom Wert der Vergangenheit“, fünf weitere Kapitel, darunter „Die Finanzkrise – Doping mit billigem Geld“ und „Die Eurokrise und kein Ende“ sowie ein Nachwort „Bedrohte Meinungsfreiheit“. Der Titel des Buches ist also insoweit irreführend, als sich nur knapp die Hälfte der Ausführungen auf das eigentliche Thema bezieht. Die in den einzelnen Kapiteln abgehandelten Themen basieren, worauf Plickert auch hinweist, weitgehend auf früheren Beiträgen des Autors in der FAZ. Sie sind jedoch, von wenigen Ausnahmen abgesehen, nach wie vor aktuell und auch dann, wenn sie die Thematik des Buches nur streifen, immer lehrreich. Der interessierte Leser vermisst jedoch sowohl ein alphabetisch geordnetes Literaturverzeichnis als auch ein Stichwortverzeichnis.

 

Frank Beckenbach, Maria Daskalakis, David Hofmann: Zur Pluralität der volkswirtschaftlichen Lehre in Deutschland. Eine empirische Untersuchung des Lehrangebots in den Grundlagenfächern und der Einstellung der Lehrenden. Marburg: Metropolis Verlag 2016, 322 Seiten, ISBN 978-3-7316-1250-6. € 12,80

Die Autoren gehen von der weit verbreiteten und seit der Finanzkrise verstärkt geäußerten Klage aus, die aktuelle Volkswirtschaftslehre sei in ihren Inhalten und Methoden zu eng. Sie halte zu wenig Kontakt zu Nachbardisziplinen und orientiere sich zu eng am neoklassischen Denken. Wiewohl sie mit der Klage sympathisieren, geben sie sich mit ihr nicht zufrieden, sondern setzen sich zum Ziel, die These vom Mangel an Pluralität empirisch zu überprüfen.

Ebenfalls mit dem Zustand der Volkswirtschaftslehre beschäftigt sich die vorliegende Schrift. Während Plickert eine mangelnde Pluralität von Inhalten und Methoden in der Volkswirtschaftslehre konstatiert und auf Abhilfe sinnt, bieten Beckenbach und Koautoren eine empirische Überprüfung dieser These mittels einer Bestandsaufnahme der volkswirtschaftlichen Lehrinhalte an deutschen Universitäten. Eine solche Erhebung hat es bisher nicht gegeben, sodass die Arbeit eine Forschungslücke schließen hilft. Beide Arbeiten ergänzen sich insoweit sehr gut.

Beckenbach, 66, ist Professor für Volkswirtschaftslehre an der Universität Kassel, Daskalakis und Hofmann sind promovierte Mitarbeiter ebenda.

Die Autoren gehen von der weit verbreiteten und seit der Finanzkrise verstärkt geäußerten Klage aus, die aktuelle Volkswirtschaftslehre sei in ihren Inhalten und Methoden zu eng. Sie halte zu wenig Kontakt zu Nachbardisziplinen und orientiere sich zu eng am neoklassischen Denken. Wiewohl sie mit der Klage sympathisieren, geben sie sich mit ihr nicht zufrieden, sondern setzen sich zum Ziel, die These vom Mangel an Pluralität empirisch zu überprüfen. Dazu gehen sie in drei Schritten vor.

Im ersten Schritt entwickeln sie zwei Kriterien zur Feststellung von Pluralität. Nach dem Häufigkeitskriterium werden „Mainstream-“ und „Sidestream-“Lehrinhalte, nach dem Paradigmakriterium „orthdoxe“ und „heterodoxe“ Lehrinhalte unterschieden. Der Anteil an „Sidestream-“ und „heterodoxen“ Lehrinhalten an der Gesamtmenge der Lehrinhalte bestimmt dann den Pluralitätsgrad des Faches. Als Elemente von Pluralismus sehen sie die historische Reflexion im Fach, die Interdisziplinarität, sowie die Vielfalt von Methoden und Konzepten, als Elemente des Mainstreams die Allokation knapper Ressourcen, der methodische Individualismus, Rationalität und Gleichgewichtsbetrachtungen.

Im zweiten Schritt befragen sie die Ökonomen von 54 deutschen Universitäten über ihre Einstellungen zur Pluralität sowie die verfügbaren Gestaltungsspielräume zur Realisierung einer pluralen Lehre. 2.743 Ökonomen werden erfasst, also ca. 50 pro Fakultät. 2.196 davon werden per Internetrecherche als „Lehrende“ erfasst. Von diesen gab es einen Rücklauf von 487, darunter 27 % Professoren, 29 % promovierte Mitarbeiter, 39 % nicht promovierte Mitarbeiter und 5 % Sonstige. Die Ergebnisse müssen daher vor dem Hintergrund eines vergleichsweise geringen Gewichts der Professoren in der Befragung gesehen werden.

Im dritten Schritt werden als weitere Datenquelle zur Pluralität die Modulhandbücher sowie die Lehrmaterialien der Dozenten zu den drei zentralen Lehrveranstaltungen des volkswirtschaftlichen Grundstudiums „Einführung in die VWL“, „Mikroökonomik“ und „Makroökonomik“ ausgewertet. In einem vierten Schritt wird zusätzlich erhoben, in welchem Umfang fachliche Breite anzeigende Fächer wie Wirtschaftsgeschichte, volkswirtschaftliche Ideengeschichte, Wirtschaftsethik und Wissenschaftstheorie Modulbestandteile sind und was die verwendeten Lehrbücher an Pluralität erkennen lassen.

Auf dieser Grundlage kann dann, so die Autoren, (a) Pluralität konzeptionell und empirisch dargestellt werden, (b) überlegt werden, wie Pluralität gefördert werden kann, und (c) den Studenten eine Hilfestellung für die Wahl ihres Studienfaches und ihres Studienortes gegeben werden. Welche Ergebnisse liefert die Studie?

Die Befragung der Lehrenden lieferte u.a. folgende interessante Hinweise: (Die Zahlen in Klammern geben an, wieviel Prozent der Lehrenden dem jeweiligen Ziel das Prädikat „sehr stark“ auf einer sechsstufigen, von „gar nicht“ bis „sehr stark“ reichenden Skala gaben.)

(1) Ausbildungsziele: Für die sechs im Fragebogen vorgegebenen, zu vermittelnden Ziele gaben die Lehrenden folgende Reihung: „Verständnis volkswirtschaftlicher Zusammenhänge“ (78 %) „Methodische Instrumente“ (56 %), „Wissen zur Lösung gesellschaftlicher Probleme (19 %), „Für die Berufsausübung relevantes Wissen (7 %), und schließlich „Schlüsselqualifikationen“ (6 %). Demnach sollte die Universität, jedenfalls nach dem Selbstverständnis der dort Lehrenden, einstweilen noch etwas anderes als eine Berufsschule sein.

(2) Methoden: Bei der Frage, welche Methoden primär vermittelt werden sollten, gewann die Ökonometrie die größte Zustimmung (49 %). Es folgten die Mathematik (34 %), Experimentelle Verfahren (15 %), Computersimulationen (10 %) und, abgeschlagen, verschiedene Formen der Sozialforschung. Man erkennt die Dominanz mathematischer und quantitativer Verfahren gegenüber geisteswissenschaftlichen Forschungsmethoden.

(3) Fächer: Höchst sinnvolle Ergänzungen der ökonomischen Ausbildung sehen die Lehrenden in den Fächern Mathematik (36 %), Geschichte (13 %), Psychologie (13 %), Politologie (10 %), Soziologie (7 %) und Rechtswissenschaft (5 %). Zumindest den Rechts- und Wirtschaftswissenschaftlichen Fakultäten in Deutschland sollten diese Zahlen zu denken geben. Der Forderung nach mehr Ideengeschichte und mehr Problemanalysen konkreter Volkswirtschaften stimmen 19 % der Dozenten sehr stark, 70 % der Dozenten einfach zu.

(4) Zum Mainstream/Sidestream: Die Frage, ob es einen Mainstream in der VWL gebe, bejahten 77 % der Dozenten. Die Frage, ob es ökonomische Konzepte und Theorien gebe, die vom Mainstream nicht abgedeckt, aber für die Ökonomik von Bedeutung seien, bejahten 62 %. Der These, es sei wichtig, dass die Studenten mit einer Vielfalt von Konzepten und Theorien der VWL und mit für die VWL relevanten Kenntnissen aus anderen Disziplinen vertraut gemacht werden, stimmt die Mehrheit der Dozenten zu. Allerdings sollte dies zeitlich gestaffelt geschehen. Im Grundstudium sollte nach Meinung von 57 % der Dozenten nur der Mainstream vermittelt werden.

Im dritten Schritt untersuchen die Autoren die Modulhandbücher (MHB) und die Lehrmaterialien (LM) der Dozenten. Hier geht es nicht mehr um die Einschätzung von Lehrinhalten sondern um die Lehrinhalte selbst. Die Autoren ordnen die in diesen Unterlagen vorkommenden Begriffe den vorab definierten Begriffsapparaten des Mainstreams oder des Sidestreams, sowie der Orthodoxie oder der Heterodoxie zu. Sie stützen sich auf die Textmining-Methode, die auf einer automatisierten Häufigkeitszählung der relevanten Begriffe beruht.

In den MHB für die drei Lehrveranstaltungen liegt der Anteil der Sidestream-Begriffe bei ca. 20 %, der Anteil der Heterodoxie-Begriffe bei ca. 13 %. In den sehr viel ausführlicheren LM gibt es ca. 40-mal so viele Begriffe, aber die Struktur ist ähnlich wie bei den MHB. Allerdings waren für die Einführung in die VWL nur von neun Universitäten LM zur Verfügung gestellt worden. Auch ist die Zuordnung von Begriffen zu den Konzepten gelegentlich nur schwer nachvollziehbar. Dass bspw. „Arbeitsteilung“ und „Adam Smith“ zum Sidestream gehören sollen, erschließt sich nicht jedem Volkswirt. Des Weiteren wirft die Zuordnung der Begriffe „Angebot“, „Nachfrage“, „Gleichgewicht“, „Rationalität“ ausschließlich zum Mainstream die Frage auf, ob Sidestream-Konzepte und -Theorien, die ohne diese Begriffe auskommen, nicht zu Recht Sidestream sind und bleiben sollten.

Neben den über alle Universitäten hin aggregierten Daten, legen die Autoren auch standortspezifische Daten für die drei Lehrveranstaltungen vor. Nur Mainstream-Lehre gibt es an 34 Standorten, nur Sidestream-Lehre an keinem Standort. Eine Universität hat zwei, acht Universitäten haben eine Sidestream-Veranstaltung. Man sieht auch hier die starke Dominanz des Mainstreams in der Lehre, wiewohl mit erkennbaren örtlichen Unterschieden.

Resümierend halten die Autoren fest, dass es die behauptete thematische, konzeptionelle und methodische Engführung der heutigen volkswirtschaftlichen Ausbildung gibt. Dazu beigetragen haben nach ihrer Ansicht enge Curricula, der von der Bologna-Reform ausgelöste Zeit- und Konformitätsdruck, sowie die Dominanz von Forschungs- gegenüber Lehrinteressen. Das mag so sein. Aber ist es nicht auch denkbar, dass bestimmte konkurrierende Konzepte und Methoden und Interdisziplinaritäten im Laufe der Zeit an Bedeutung verloren haben und deshalb zu Recht heute als Sidestream-Phänomene ein Schattendasein fristen? Statt einer allgemeinen Revitalisierung des Sidestreams das Wort zu reden, sollte man eher genau hinsehen, was da im Einzelnen zur Revitalisierung angeboten und – umgekehrt – zur Streichung empfohlen wird. Alles in allem haben die Autoren einen sehr informativen und höchst nützlichen Beitrag zur volkswirtschaftlichen Lehre in Deutschland vorgelegt.

Allerdings erschwert das Fehlen eines Stichwortverzeichnisses dem Leser das Auffinden von Begriffen und Personen. Ferner mögen die das Buch bevölkernden „ÖkonomInnen“, Lehrenden und Studierenden politisch korrekt sein. Dem rezensierenden Leser waren sie jedoch ein Graus. Die das Buch Kaufenden und Lesenden mögen das freilich anders sehen.

 

Angus Deaton: Der Große Ausbruch. Von Armut und Wohlstand der Nationen. Klett-Cotta, Stuttgart 2017. Aus dem Englischen von Thorsten Schmidt und Stephan Gebauer. 460 Seiten, geb. m. SU, ISBN 978-3-60894911-7. € 26,00 Originalausgabe: The Great Escape. Health, Wealth and the Origins of Inequality, Princeton University Press, Princeton NJ 2015

Der Autor erzählt die Geschichte des ökonomischen und gesundheitlichen Wohlbefindens der Menschen in den letzten 250 Jahren. Er tut dies in groben, Konturen verleihenden und Führung gebenden Strichen. Der Schreibstil ist nicht akademisch trocken, sondern unterhaltsam und lebhaft. Seine langjährige eigene Forschungstätigkeit auf dem behandelten Gebiet gibt dem Autor Autorität. Am bemerkenswertesten sind vielleicht die Abgewogenheit seines Urteils über die Ungleichheit und die Dezidiertheit seiner Beurteilung der Entwicklungshilfe. Rundum ein höchstem Maße empfehlenswertes Buch.

Es gibt zahlreiche Bücher über Wohlstand, über Gesundheit, über Ungleichheit, wie auch über den Zusammenhang zwischen diesen sozialen Phänomenen. Es gibt aber kein Buch wie dieses, in dem die Verflechtungen zwischen Wohlstand, Gesundheit und Ungleichheit mit vergleichbarem Weitblick und derart informativ und lebendig erklärt werden. Sein Autor ist Angus Deaton, 71, Brite, Nobelpreisträger 2015, Professor für Wirtschaftswissenschaften an der Princeton University. Der Titel des Buches spielt an auf einen Film, der den Ausbruch einer Gruppe britischer Soldaten aus einem deutschen Kriegsgefangenlager während des 2. Weltkrieges schildert. Vom physischen Ausbruch aus dem Lager leitet Deaton über zum sozialen Ausbruch seines Vaters aus den ärmlichen Verhältnissen seiner Vorfahren und ihrer Umgebung. Dies führt ihn schließlich zum Thema des Buches, dem Ausbruch aus wirtschaftlicher Not, Krankheit und geringer Lebenserwartung.

Der englische Untertitel trifft den Inhalt des Buches weitaus besser als der deutsche, der sprachlich ungelenk ist und dessen Bezugnahme auf Adam Smiths „Wohlstand der Nationen“ eher verlegerisch motiviert sein dürfte als einem Anliegen des Autors zu entsprechen. Der Autor führt mit markanten Sätzen in sein Werk ein: „Das menschliche Leben ist heute besser als zu jedem früheren Zeitpunkt der Menschheitsgeschichte. Mehr Menschen denn je sind wohlhabend und weniger Menschen als je zuvor leben in bitterer Armut. Die Lebenserwartung ist gestiegen, und Eltern müssen nicht mehr hilflos mitansehen, dass im Schnitt ein Viertel ihrer Kinder stirbt. Trotzdem erleben noch immer Millionen den Schrecken bitterer Not und vorzeitigen Todes. Die Ungleichheit in der Welt ist enorm.“

Aus diesem Zitat folgend beschreibt er sein Anliegen: „Dieses Buch erzählt Geschichten darüber, wie der Wohlstand langsam zunahm, wie und warum es zu Fortschritten kam und wie sich im Anschluss daran das Wechselspiel zwischen Fortschritt und Ungleichheit gestaltete … In diesem Buch geht es vor allem und zwei Themen: materielle Lebensstandards und Gesundheit.“

Das Buch besteht aus vier Teilen: Teil I führt in die Thematik ein. Die im Buch verwendeten Schlüsselbegriffe wie materieller Wohlstand, Einkommen, Gesundheit, Lebenserwartung, Fortschritt und Ungleichheit werden erläutert. Eine globale Bestandsaufnahme des empirischen Wissens über diese Hauptindikatoren des Wohlbefindens gibt dem Leser eine erste strukturierte Vorstellung von den maßgeblichen Fakten. Teil II befasst sich mit Leben, Tod und Gesundheit von der Frühzeit bis heute. Deaton beschreibt wie der von zunehmender Nahrungsmittelknappheit erzwungene Übergang von der Jäger- und Sammlerwirtschaft zur Landwirtschaft vor etwa 10.000 Jahren, die Neolithische Revolution, die Gesellschaft veränderte: Die frühere Gesellschaft war infolge fehlender Möglichkeiten zur Vorratshaltung egalitär und Deaton sieht in dieser Menschheitserfahrung den Hauptgrund für unser tief verwurzeltes Gerechtigkeits- und Gleichheitsempfinden. Die Sesshaftigkeit der jüngeren Gesellschaft bot die Möglichkeit der Vorratsbildung, die zusammen mit dem landwirtschaftlichen Grundbesitz erstmals große gesellschaftliche Ungleichheit entstehen ließ.

Gesellschaftliche Kasten entwickelten sich und gewannen Macht. Die Ernährungsgewohnheiten änderten sich. In den größer werdenden Ansiedlungen entstanden sanitäre Probleme und wuchsen sich oft genug zu Seuchen aus. Der stete Wechsel von Bevölkerungszunahme, Nahrungsmittelknappheit, Bevölkerungsabnahme, Besserung der Ernährungslage, neues Bevölkerungswachstum usw., die Malthusianische Falle also, wurde zum Kennzeichen der langen, weitgehend stationären wirtschaftlichen und gesundheitlichen Entwicklung bis hin ins 18. Jahrhundert. Um die Mitte des 18. Jahrhundert beginnt und mit dem 19.Jahrhundert beschleunigt sich dann eine beispiellose Erhöhung der Lebenserwartung. Im Laufe von nur anderthalb Jahrhunderten verdoppelt sich in England die Lebenserwartung von 40 auf 80 Jahre. Ähnliches gilt auch für die anderen Industrieländer. Deaton macht die Produktivitätsfortschritte in der Landwirtschaft, die eine dauerhafte Verbesserung der Ernährung mit sich brachte, das Entstehen eines öffentlichen Gesundheitswesens, sowie bahnbrechende medizinische Fortschritte für die der steigenden Lebenserwartung zugrunde liegende Abnahme der Kindersterblichkeit verantwortlich. Markt, Staat und Wissenschaft bewirkten den Ausbruch, gemeinsam, nicht ein Bereich alleine.

Zeitlich verzögert, insbesondere ab 1950, folgt die Mehrzahl der Entwicklungsländer diesem Muster. Die im 19. Jahrhundert entstandenen Ungleichheiten in der Lebenserwartung beginnen sich wieder zu schließen. Das in den Industrieländern generierte medizinische Wissen steht den Entwicklungsländern kostenlos zur Verfügung und verkürzt den Aufholprozess enorm. Gleichwohl bleibt im Jahr 2010 Südostasien noch 15 Jahre, Südamerika noch 10 Jahre hinter der Lebenserwartung der Nordeuropäer zurück. Subsahara-Afrika war immer schon das Schlusslicht in der Lebenserwartung und ist durch die HIV-Epidemie noch weiter zurückgeworfen worden. China ist ein Beispiel für politisch herbeigeführte Verzögerungen des Ausbruchs: Ende der 50er Jahre führte Maos Zwangskollektivierung der Landwirtschaft zu einer Hungersnot mit mehr als 40 Mio. Toten, ab den 80er Jahren bleibt die Reduktion der Säuglingssterblichkeit Chinas hinter der Indiens zurück, obgleich das Wirtschaftswachstum in China deutlich höher liegt, ein Hinweis darauf, dass es nicht notwendig wirtschaftliche Faktoren sind, die die Lebenserwartung determinieren. Diesen Sachverhalt belegt auch eine eindrucksvolle Graphik, die zeigt, dass es von 1950 bis 2010 keinen Zusammenhang zwischen dem Wirtschaftswachstum und der Säuglingssterblichkeit gibt. Also liegt die nach wie vor hohe Sterblichkeit in zahlreichen Entwicklungsländern nicht an ihrem niedrigen Volkseinkommen. Woran sonst? Deaton legt dar, dass ein Mangel an politischer Verantwortung, Staatsversagen also, die Hauptursache dieses Skandals ist.

In der modernen Welt hält die Verlängerung der Lebenserwartung an, aber sie verlangsamt sich. Nachdem die Kindersterblichkeit, zumindest in den Industrieländern, bereits sehr niedrig ist, wird der medizinische Fortschritt wie auch das individuelle Verhalten in Richtung auf eine Verringerung der Alterssterblichkeit gerichtet. Statt den Infektionskrankheiten gilt den chronischen Erkrankungen, insbesondere Herzerkrankungen, Schlaganfall und Krebs das medizinische Interesse. Nicht minder wichtig für das Wohlbefinden als die die Lebenserwartung verlängernden sind die die Lebensqualität steigernden medizinischen Innovationen wie etwa Hüftgelenkserneuerungen.

Die Globalisierung verknüpft die Gesundheit in den Ländern des Nordens mit denen des Südens. Pest und Cholera sind über den Handel nach Europa gekommen und moderne Krankheitserreger überwinden die Grenzen über den Tourismus. Umgekehrt stehen Impfstoffe, Medikamente und Erkenntnisse über Ursachen und Bekämpfungsmöglichkeiten von Krankheiten weltweit zur Verfügung. Ein sehr illustratives Diagramm zeigt, wie die globale Streuung der Lebenserwartung zwischen 1950 und 2000 deutlich zurückgegangen ist. Der Anstieg der internationalen Ungleichheit in der Gesundheit, der vor 250 Jahren begann, beginnt sich langsam zurückzubilden.

Teil III wendet sich dem materiellen Wohlstand zu. Auch hier beginnt der Autor mit dem Studium eines Hocheinkommenslandes, hier den USA. Es eignet sich hervorragend zum Beleg der These, dass der Wohlstand wächst, aber nicht alle davon profitieren. Zudem ist hier die Datenbasis breit und verlässlich.

Anschließend widmet er sein Interesse den internationalen Vergleichen und der Globalisierung.

Das reale Bruttoinlandsprodukt, der breiteste Indikator des wirtschaftlichen Wohlstands, hat sich in den USA in den letzten 80 Jahren verfünffacht. Das entspricht einer jährlichen Wachstumsrate von 2 %.

Der Anteil der Armen, gemessen an der staatlichen Armutsquote, liegt seit 40 Jahren, kaum verändert, bei ca. 13 %. Also haben die Armen, ca. 45 Millionen Amerikaner, von der Zunahme des Pro-Kopf-Einkommens um 60 % in dieser Zeit nichts abbekommen. Deaton evaluiert sorgfältig die vorgebrachten Gründe gegen den verwendeten Armutsmaßstab und kommt zu dem Ergebnis, dass bei einem korrekteren Maßstab die Armutsquote eher höher als niedriger läge. Die Einkommensverteilungsmaße bestätigen dieses Bild. Der Gini-Koeffizient ist seit den 70er Jahren deutlich angestiegen. Das reale Familien-Durchschnittseinkommen des untersten Quintils lag 2010 7 %, das des obersten Quintils 87 % höher als 1965. Dabei verdeckt der geringe Anstieg im untersten Quintil, dass die Reallöhne sogar gesunken sind und nur durch die zunehmende Erwerbstätigkeit der Frauen das hier betrachtete Familieneinkommen steigt, weil jetzt mehr als ein Erwerbseinkommen in das Familieneinkommen einfließt. Als eine der Ursachen für die Öffnung der Lohnschere nennt Deaton den technischen Fortschritt, der die Nachfrage nach qualifizierten Arbeitskräften steigen, die nach gering qualifizierten Arbeitskräften sinken lässt. Der Fortschritt begünstigt viele aber eben nicht alle. Die Öffnung der Schere bei den Familieneinkommen resultiert auch daraus, dass mit der wachsenden Berufstätigkeit der Frauen und dem schichtenspezifischen Heiratsverhalten nunmehr oft zwei Spitzenverdiener zum Familieneinkommen beitragen.

Zusätzlich zu den genannten Quintilszahlen, die aus Haushaltsbefragungen gewonnen wurden, präsentiert Deaton auch Daten aus der Steuerstatistik, die insbesondere im obersten Segment der Einkommensverteilung verlässlicher sind als die Befragungszahlen.

Wie bei Piketty (vgl. die Besprechung von „Das Kapital im 21. Jahrhundert, fbj 2015, Heft 1 Seite 6-8) zeigt sich auch hier der u-förmige Verlauf des Einkommensanteils der obersten 1 %, und 0,1 % von 1913 bis 2010 mit den Peaks 1929 und 2008 und dem Tief 1980. Demgegenüber ist der Anteil der unteren 90 % faktisch konstant geblieben. Der exorbitante Anstieg der Ungleichheit 1980–2010 zeigt sich in diesem Vergleich besonders deutlich. Deaton liefert auch den bemerkenswerten Hinweis, dass die Struktur der Spitzeneinkommen sich in den betrachteten 90 Jahren gewandelt hat: Der Anteil der Zinseinkommen ist gesunken, der Anteil der Erwerbseinkommen gestiegen und der Anteil der Einkommen aus Unternehmertätigkeit etwa konstant geblieben: InternetInnovatoren wie Bill Gates und Steve Jobs, Sportler, Künstler, Spitzenmanager, Investmentbanker und Hedgefondsmanager haben die „Couponschneider“ abgelöst. Die Dominanz der englischen Sprache auf den globalisierten Märkten hat wohl ebenfalls zu der Explosion der US-amerikanischen Managergehälter beigetragen.

Ist das alles relevant? Warum sollte man, wenn Chancengleichheit besteht, Ergebnisungleichheit monieren? Das ist eine berechtigte Frage. Aber: Besteht denn Chancengleichheit? Deaton überprüft diese Frage anhand einer Korrelation zwischen den Einkommen von Vätern und Söhnen. In einer Chancengleichheits-Gesellschaft sollte der Korrelationskoeffizient bei 0, in einer Kasten-Gesellschaft bei 1 liegen. In den USA liegt er bei 0,5. Das ist der höchste Wert unter allen OECD-Ländern.

Und selbst wenn Chancengleichheit bestünde: Wenn Bankmanagern oder Hedgefondsmanagern Spitzengehälter gezahlt werden, weil im Verlustfall dem Steuerzahler das Verlustrisiko aufbürdet wird, liegt nicht Marktwirtschaft vor, sondern staatliches Regulierungsversagen.

In technischem Fortschritt, Wachstum und temporärer Ungleichheit als Stimulus und daran sich anschließenden Aufholprozessen sieht Deaton die Sonnenseite der wirtschaftlichen Entwicklung, im Verhindern, Abwürgen und der Zunichtemachung der Aufholprozesse deren Schattenseite. Die Verantwortung für die Schattenseite sieht er bei korrupten Regimes, politischen, religiösen, ethnischen Unterdrückern, dem Fehlen demokratischer Verhältnisse, und einer Politik hoher Militärlasten und niedriger Bildung.

Die Zeit seit dem Zweiten Weltkrieg ist nach Deaton die Zeit des größten Ausbruchs überhaupt. Dank des Wirtschaftswachstums sind hunderte Millionen Menschen der Armut entronnen. Dank der gesunkenen Kindersterblichkeit ist die Bevölkerung in dieser Zeit von 2,5 auf 7,5 Milliarden Menschen gestiegen. Trotz dieses enormen Bevölkerungswachstums und globaler Ressourcenknappheit ist es, vor allem durch die Globalisierung, gelungen, das globale Pro-KopfEinkommen zu erhöhen. Dabei gab es, wie immer, Länder, die aufgestiegen und solche, die zurückgefallen sind. Im Hinblick auf die Ungleichheit zeigt Deaton, dass sie im mittleren Bereich der Verteilung, der 50 % der Länder umfasst, annähernd konstant geblieben ist, sich am Rand der Verteilung, also im Vergleich der höchsten und niedrigsten Einkommen die Schere geöffnet hat. Zwischen den Industrieländern, also einer Gruppe mit hohen Einkommen, ist die Ungleichheit kleiner geworden, hier hat eine Konvergenz der PKE stattgefunden. Von besonderer Bedeutung für die globale Wohlstandsentwicklung war, dass zu den Ländern, die aufgestiegen sind, die beiden bevölkerungsreichsten Länder der Welt, China und Indien gehörten. Durch ihr exzeptionelles Wachstum, exportgetrieben in China, globalisierungsgestützt in Indien, konnte die individuelle globale Ungleichheit und Armut dramatisch verringert werden. Bei der Frage, warum die ärmsten Länder, anders als alle anderen, nicht von der Globalisierung profitiert haben kommt er, bei aller Unterschiedlichkeit der Länder, wieder auf den Mangel an funktionsfähigen Institutionen, den Mangel an Bildung und die Willkür politischer Machtausübung zurück.

Die beeindruckende Verringerung der Armut in der Nachkriegszeit wirft die Frage auf, wie Armut denn gemessen wird. Die für internationale Vergleiche typischerweise herangezogene Zahl ist eine von der Weltbank ermittelte durchschnittliche Armutsgrenze für einige der ärmsten Länder der Welt. Von einem Einkommen, das bei dieser Grenze liegt, soll sich eine Familie ernähren können. Der derzeitige Wert liegt bei 1,25 $ pro Person und Tag und konstanter, paritätstheoretisch ermittelter Kaufkraft, also 1460 $ für eine 4-köpfige Familie pro Jahr. Nach diesem Maßstab sank die Zahl der Armen in der Welt von 1981–2008 um 700 Millionen, obwohl die Bevölkerung um fast 2 Milliarden stieg. Der Anteil der Armen an der Weltbevölkerung verringerte sich so von 42 % auf 14 %. Von den 700 Millionen entfielen 630 Millionen auf China. Die Kehrseite der Medaille liefert Subsahara-Afrika, wo die Zahl der Armen um 130 Millionen anstieg. Außerhalb Chinas und Subsahara-Afrikas nahm folglich die Zahl der Armen um 200 Millionen ab, darunter um 50 Millionen in Indien. Als ausgewiesener Statistiker verweist Deaton tiefgründig auf die Unzulänglichkeiten der Datengewinnung. So wird eine zufällig ausgewählte Stichprobe von Haushalten über ihre Einkommen und Ausgaben befragt. Nach Hochrechnung über alle Haushalte hin müssten die aufaddierten Zahlen mit dem Volkseinkommen und den gesamtwirtschaftlichen Konsumausgaben – zumindest annähernd – übereinstimmen. Dies ist jedoch nicht der Fall. Die erhobenen Haushaltsdaten liegen weit unter den gesamtwirtschaftlichen Daten und die Lücke schließt sich nicht, sondern öffnet sich immer weiter. Ferner liegt in vielen Ländern die Masse der Einkommen und Ausgaben nur wenig über der Armutsgrenze, sodass schon leichte Verschiebungen der Armutsgrenze sehr großen Einfluss auf die gemessene Armut haben. Und schließlich: Wenn die Armutsgrenze von 1,25 $ nach Kaufkraftparitäten berechnet ist: Wieso kann man dann von diesem Betrag in Indien leben, in den USA nicht.

Diese Hinweise belegen fundiert die Skepsis eines Wissenschaftlers gegenüber dem von ihm selbst verwendeten Datenmaterial. Umso überzeugender fällt daher das Gesamtbild aus, das er in so kräftigen Konturen zeichnet.

Im Hinblick auf die Ungleichheit äußert sich Deaton wie folgt: Die Ungleichheit innerhalb der Länder (Ungleichheit I) ist gestiegen, die Ungleichheit zwischen den Ländern (Ungleichheit II), gemessen an ihrem Durchschnittseinkommen, ist je nach Maßstab konstant geblieben oder leicht gestiegen, die Ungleichheit zwischen Haushalten weltweit (Ungleichheit III), kosmopolitische Ungleichheit wie Deaton sie nennt, ist dank China und Indien gesunken. Sollte uns all das kümmern?

Bzgl. der Ungleichheit I meint Deaton: ja. Denn in der Demokratie ist ein Mindestmaß an sozialer Kohäsion erforderlich.

Die Regierung verteilt durch ihre Steuer- und Ausgabenpolitik Einkommen um. Deshalb sind Verteilungsfragen Gegenstand der politischen Auseinandersetzung. Diese Auseinandersetzung bedarf der Faktenkenntnis.

In der Ungleichheit II sieht er kein sinnvolles Maß. Länder mit einer Bevölkerung von 1 Million und 1 Milliarde anhand ihres PKE zu vergleichen und in eine bevölkerungsunabhängige Rangskala zu bringen, bringt nur wenige Erkenntnisse. Ein Studium der Ungleichheit III hält er für interessant, aber wegen des Fehlens einer Weltregierung oder einer globalen, zur Umverteilung demokratisch legitimierten Institution für wenig zielführend.

Teil IV handelt vom Helfen. Fast eine Milliarde Menschen haben am „Großen Ausbruch“ nicht teilgehabt. Während der Rest der Welt von den Segnungen der technischen, wissenschaftlichen und medizinischen Neuerungen profitierte, lebt sie nach wie vor in Elend.

Kann man dagegen etwas tun und wenn ja, was? Deaton sagt ja zu dieser Frage, geht aber mit dem, was konkret dagegen getan wird, kritisch ins Gericht. Die seit dem Zweiten Weltkrieg von den reichen Ländern praktizierte „Entwicklungshilfe“ hält er für verfehlt und plädiert für ihre Einstellung. Seine Begründungen sind bedenkenswert.

Am Geld scheitert Entwicklungshilfe nicht: Den 800 Millionen Menschen, die derzeit unter der Armutsgrenze liegen, fehlen 0,28 $ pro Tag, um die Armutsgrenze zu erreichen. Das sind 220 Millionen $ pro Tag oder 80 Mrd. $ p.a. Das BIP der USA betrug 2015 18.000 Mrd. $. Würden die USA ihre Entwicklungshilfe um 0,45 % erhöhen, wäre der Betrag aufgebracht und die Armut rechnerisch beseitigt. Würde die EU sich beteiligen, würde sich der Betrag halbieren und der Prozentsatz läge immer noch unter den 0,7 %, zu denen sich die Industrieländer vor vielen Jahren verpflichtet hatten. Gleichwohl: Niemand glaubt, dass die Armut dann verschwunden wäre. Aber würde es wenigstens die Lage der Armen verbessern? Deaton sagt: Nein, im Gegenteil. Er verweist auf das Argument von Lord Bauer aus den 70er Jahren: Wenn mit Ausnahme von Kapitalverfügbarkeit alle anderen Bedingungen für eine positive wirtschaftliche Entwicklung gegeben sind, wird das Kapital in eigenem Interesse kommen und finanzielle Hilfe wird nicht benötigt. Wenn die Bedingungen nicht gegeben sind, wird kommendes Kapital unproduktiv bleiben und nicht nur nichts nutzen, sondern durch die Perpetuierung der wachstumsfeindlichen Bedingungen sogar schaden. Das ist das Dilemma der Entwicklungspolitik.

Ein weiteres Problem ist, dass sich die Hilfe mehr an den innen-, außen- und wirtschaftspolitischen Interessen der Geberländer orientiert als an den Armen in den Nehmerländern.

Falls die Mittel tatsächlich den Armen im Empfängerland zugeführt werden, wird u.U. der dafür eigentlich vorgesehene Betrag im Staatshaushalt für sinnlose Prestigeprojekte ausgegeben, sodass tatsächlich diese mit dem Auslandsgeld finanziert werden. Die Geldgeber unterstützen lieber Staaten als Individuen und geben damit die zielgerichtete Verwendung der Gelder aus der Hand. Da sie lieber viele Staaten unterstützen als wenige, geben sie den Kleinen relativ mehr, obwohl die Masse der Armen in den großen Ländern lebt. Das hat zur Folge, dass die Hälfte der Armen nur ein Vierzigstel der gesamten öffentlichen Entwicklungshilfe erhält. Ferner: Ein großer Teil der Hilfe fließt nicht in die einkommensschwachen sondern in die – außenpolitisch wichtigen – einkommensstarken Länder. Schließlich haben auch die vielen in der Entwicklungspolitik tätigen nationalen und internationalen Organisationen ein Eigeninteresse an Fortdauer und Wachstum der Entwicklungshilfe.

Deaton macht auch auf einen wichtigen politischen Nachteil der Entwicklungshilfe aufmerksam: Eine Regierung hat die Aufgabe, die öffentlichen Güter wie Landesverteidigung, innere Sicherheit, Justizwesen und Bildungseinrichtungen bereit zu stellen. Zu deren Finanzierung muss sie Steuern erheben. In der Demokratie bewerten die Bürger die mit ihrem Steueraufkommen finanzierten öffentlichen Leistungen und zwingen so die Regierung, ihren Bedürfnissen Rechnung zu tragen. Diese Bindung der Regierung an die Interessen der eigenen Bevölkerung wird durch die Entwicklungshilfe aufgelöst. Die Regierungspolitik verselbständigt sich, die demokratische Fundierung geht verloren und die wirtschaftliche Entwicklung geht an den Interessen der Bevölkerung vorbei. Stark steigende Rohstoffpreise sind ein ähnlicher Entkopplungsmechanismus von Staatsausgaben und Besteuerungsdruck und haben in den oft von Rohstoffexporten abhängigen armen Ländern ähnlich negative Konsequenzen gezeigt wie die Entwicklungshilfe.

Was schlägt Deaton vor? Er sagt: „Wir müssen es zulassen, dass die armen Länder sich selbst helfen. Wir müssen aufhören, Dinge zu tun, die sie behindern“ (S. 396). Viele Länder haben in den letzten 60 Jahren gezeigt, dass man aus der Armut ausbrechen kann. Sie sollen als Vorbild für die noch armen Länder dienen. Hilfe von außen hilft nicht viel. „Egal wie viel man ausgibt, man kann andere Länder nicht von außen mit einer Einkaufsliste für den nächstgelegenen Baumarkt entwickeln“ (S. 399).

Hilfreich wäre es jedoch, wenn Finanzhilfen an Pharmaunternehmen diesen den Anreiz gäben, Medikamente auch für Arme in Ländern mit niedrigen Einkommen zu entwickeln und bereit zu stellen. Hilfreich wäre auch, wenn Weltbank und Entwicklungsorganisationen beraten würden statt Kredite zu vergeben. Das in ihnen vorhandene Know-how ist ein knappes Gut. Das Öffnen von Märkten für Produkte der armen Länder, insbesondere im Agrarbereich wäre wichtig. Ebenso, wenn nicht noch mehr, die Bereitschaft der Industrieländer mehr Immigranten aus armen Ländern zuzulassen, deren Heimatüberweisungen direkt bei den armen Familien ankommen und Not lindern können. Zeitlich begrenzte studentische Immigration zum Zwecke von Studium und beruflichem Qualifikationserwerb wären ebenfalls hilfreich. Bei all diesen Hilfen fließt kein Geld, sodass die damit verbundenen Probleme vermieden werden können.

Mit einem Epilog schließt das Buch ab. Der Autor nennt einige Gefahren, die der Menschheit drohen wie der Klimawandel, Kriege, fundamentalistische Bedrohungen, neue Infektionskrankheiten, Antibiotikaresistenzen, wachsende Ungleichheiten und die damit einhergehenden Demokratiegefährdungen sowie die nachlassende Dynamik der Rent-Seeking Societies. Gleichwohl bleibt er optimistisch. Das Streben nach Wohlstandssteigerung hält an, insbesondere in den Gesellschaften mit Nachholbedarf. Sie können auf den Erfahrungen derer, die Ausbruch geschafft haben, aufbauen. Der technische und der medizinische Fortschritt werden anhalten. Der Bildungsgrad der Bevölkerungen ist so hoch wie noch nie und für die gesellschaftlichen und politischen Partizipationsmöglichkeiten gilt das gleiche.

Es ist dies ein beeindruckendes Buch. Der Autor erzählt die Geschichte des ökonomischen und gesundheitlichen Wohlbefindens der Menschen in den letzten 250 Jahren. Er tut dies in groben, Konturen verleihenden und Führung gebenden Strichen. Der Schreibstil ist nicht akademisch trocken, sondern unterhaltsam und lebhaft. Seine langjährige eigene Forschungstätigkeit auf dem behandelten Gebiet gibt dem Autor Autorität.

Am bemerkenswertesten sind vielleicht die Abgewogenheit seines Urteils über die Ungleichheit und die Dezidiertheit seiner Beurteilung der Entwicklungshilfe. Rundum ein höchstem Maße empfehlenswertes Buch.

 

Marc Bungenberg/Christoph Herrmann (Hrsg.): Die gemeinsame Handelspolitik der Europäischen Union. Fünf Jahre nach Lissabon – Quo Vadis? Schriftenreihe des Arbeitskreises Europäische Integration e.V., Bd.193. Nomos-Verlag 2016, 253 Seiten, Broschiert, ISBN 978-3-8487-3210-4. € 49,00

Die aktuellen Herausforderungen treffen die EU zu einem Zeitpunkt, in dem die weitreichenden Veränderungen, die der Lissabon-Vertrag 2009 für die Handelspolitik der Mitgliedstaaten der EU gebracht hat, in Wissenschaft und Politik noch gar nicht hinreichend ausgelotet sind.

Die Gemeinsame Handelspolitik (GHP) der Europäischen Union (EU) ist im letzten Jahr mit den hitzigen Debatten um die Transatlantic Trade and Investment Partnership (TTIP) und das Comprehensive Economic and Trade Agreement Trade (CETA) ins Blickfeld der Öffentlichkeit geraten. Zudem steht mit dem Amtsantritt des neuen US-Präsidenten die Handelspolitik der USA im Allgemeinen und gegenüber der EU im Besonderen möglicherweise vor einer Zeitenwende. Und schließlich wirft der Brexit die Frage auf, welche Handelspolitik die EU zukünftig gegenüber einem früheren Mitgliedsland betreiben soll. Diese aktuellen Herausforderungen treffen die EU zu einem Zeitpunkt, in dem die weitreichenden Veränderungen, die der LissabonVertrag 2009 für die Handelspolitik der Mitgliedstaaten der EU gebracht hat, in Wissenschaft und Politik noch gar nicht hinreichend ausgelotet sind. Der Vertrag überträgt in erheblichem Umfang bisher nationalstaatliche Kompetenzen der Handelspolitik auf die Gemeinschaft und stärkt so in einer Zeit verbreiteter EU-Institutionen-Skepsis den Einfluss der EU-Kommission beträchtlich.

Gründe genug also, sich mit dem Thema GHP der EU zu beschäftigen.

Die Herausgeber der anzuzeigenden Schrift, Prof. Dr. Bungenberg (Saarbrücken) und Prof. Dr. Herrmann (Passau), sind Europarechtler. Sie versammeln im vorliegenden Band die acht Referate einer 2015 abgehaltenen wissenschaftlichen Tagung zum Stand der Entwicklung der GHP fünf Jahre nach Lissabon. Die Themen umfassen schwergewichtig die Probleme der Gemischten Abkommen, der demokratischen Kontrolle, der Investorenschutzregeln.

Cottier (Bern) diskutiert die Gemischten Abkommen. Diese Abkommen sind Folge der Tatsache, dass nur ein Teil ihrer Regelungsbereiche in die Kompetenz der EU, der andere Teil in die Kompetenz der Mitgliedstaaten (MS) fällt. Folglich müssen neben dem Europäischen Parlament (EP) auch die nationalen Parlamente, in Deutschland Bundestag und Bundesrat, den Vertrag ratifizieren. Dies birgt erhebliche Risiken sowohl für die Kommission, die die Verhandlungen für die EU führt, als auch für die Handelspartner. Dies hat man zuletzt beim CETAAbkommen gesehen, als die belgische Region Wallonien das Abkommen erst nach erheblichen Zugeständnissen an die Region zu ratifizieren bereit war. Die Kommission neigt daher dazu, ausschließlich eigene Kompetenz für Handelsabkommen zu reklamieren. Dies bringt sie allerdings in Konflikt mit der Akzeptanz dieser Abkommen in den MS. Die Gemischten Abkommen sind im Grunde ein Fremdkörper der EU-Handelspolitik. Diese war von Anfang an als eine Gemeinsame Handelspolitik konzipiert. Sie beschränkte sich allerdings mit Gründung der EWG 1957 auf den Regulierungsbereich des Allgemeinen Zoll- und Handelsabkommens (GATT) 1948, nämlich den Warenhandel. Mit der Gründung der Welthandelsorganisation (WTO) 1995 traten zu den Waren die Dienstleistungen sowie die Geistigen Eigentumsrechte als handelspolitische Gegenstände hinzu. Dafür hatte die EU aber noch kein handelspolitisches Mandat, obgleich ihre eigene Fortentwicklung von einer Zollunion zu einem Gemeinsamen Markt für Waren, Dienstleistungen, Arbeit und Kapital dies nahegelegt hätte. Und so entstand die Notwendigkeit, zumindest vorübergehend, Gemischte Abkommen zu schließen.

In dieser Situation brachte der Vertrag von Lissabon 2009 eine Revitalisierung der Idee einer GHP. Er sieht in Art. 207 des Vertrages über die Arbeitsweise der Europäischen Union (AEUV) vor, dass die Zuständigkeit für Handelsabkommen grundsätzlich bei den Organen der EU liegt. Der Rat entscheidet über die Abkommen, im Allgemeinen mit qualifizierter Mehrheit. Im Bereich der Dienstleistungen, des Geistigen Eigentums sowie der ausländischen Direktinvestitionen (ADI) ist allerdings Einstimmigkeit der Ratsentscheidungen gefordert, insbesondere in sensiblen Bereichen des Handels mit kulturellen und audiovisuellen Dienstleistungen sowie des Handels mit Dienstleistungen des Sozial-, Bildungsund Gesundheitssektors. Das Einstimmigkeitserfordernis der Ratsentscheidungen ersetzt insoweit die frühere Mitentscheidungskompetenz der nationalen Parlamente. Das BVerfG hat dahingehende Verfassungsbeschwerden in einem Grundsatzurteil 2009 zurückgewiesen.

Die Diskussion um TTIP und CETA hat exemplarisch gezeigt, dass die mit der Übertragung von Kompetenzen auf EU-Institutionen verbundene Entmachtung der nationalen Parlamente auf Widerstand stößt. Umweltaktivisten, Anhänger kleinteiliger Landwirtschaft, Globalisierungsgegner und Europakritiker haben so viel gesellschaftliche Ablehnung der Abkommen mobilisiert, dass selbst der Kommissionspräsident, abweichend von Art 207 AEUV, nachträglich eine Behandlung von CETA als Gemischtes Abkommen empfohlen hat. Cottier resümiert in seinem Beitrag: „Inwieweit dies aus politischen, und inwieweit aus rechtlichen Gründen erfolgt, ist nicht leicht zu bestimmen.“

Cottier gibt auch zu bedenken, dass die den Gemischten Abkommen innewohnende enge Option der MS, am Ende langjähriger Verhandlungen Dritter zu dem vorgelegten Vertrag nur noch ja oder nein sagen zu können, offenbar für eine gesellschaftliche Akzeptanz solcher Abkommen nicht ausreicht. Er plädiert daher zu Recht für Verfahren, die eine frühere Teilhabe an den Beratungen vorsehen und schlussfolgert: „Soweit die MS, ihre Parlamente und die Zivilgesellschaft ihre Interessen in diesem Rahmen wahrnehmen können, werden sie auf die an sich obsolete Figur der Gemischten Verfahren verzichten können.“

Mit den Investorenschutzregeln befassen sich die Beiträge von Ohler (Jena) und Müller-Ibold (Brüssel). Die ADI sind neben den Dienstleistungen und den Geistigen Eigentumsrechten der dritte Bereich, für den der Lissabon-Vertrag die handelspolitischen Kompetenzen der MS zentralisiert und sie den EU-Organen zuweist. Sowohl die Aufnahme der im WTOAbkommen von 1995 noch außer Acht gebliebenen ADI in die Gegenstände der Handelspolitik als auch die Kompetenzzuweisung an die EU-Organe machen Sinn: Kein Bereich der internationalen ökonomischen Transaktionen ist in den letzten 30 Jahren so stark gewachsen wie ADI. Interessanterweise sind primär die Industrieländer sowohl die Herkunfts- als auch die Bestimmungsländer dieser Standortverlagerungen, sodass sie folgerichtig auch in CETA und TTIP eine wichtige Rolle spielen. Die ADI verschaffen Zugang zum EU-Binnenmarkt und obliegen insoweit zu Recht den Binnenmarktregulierung der Kommission.

Ohler thematisiert die in diesem Zusammenhang besonders unter Beschuss geratenen „Investor-Staat-Streitschlichtungsverfahren“ (ISDS). Moniert werde, dass (a) die Schlichter ausländische Investoren begünstigten, (b) den Verfahren die demokratische Legitimation fehle, (c) es den Verfahren an Transparenz ermangele. Ohler weist diese Thesen mit guten Argumenten zurück: Die empirische Evidenz lasse keine Bevorzugung erkennen, die demokratische Legitimation werde durch das multilaterale Streitschlichtungs-Abkommen von 1967 gewährleistet, das Transparenzgebot stoße beim legitimen Schutz von Geschäftsgeheimnissen an seine Grenzen. Im Übrigen dienten diese Abkommen dem Schutz privater Investoren in Ländern mit politisch abhängiger Justiz, deren Bewohner ohne diese Abkommen auf Zufluss ausländischen Kapitals nicht hoffen könnten.

Müller-Ibold überprüft im Detail die im CETA-Abkommen getroffenen Regelungen für die Streitschlichtung. Er zeigt, dass das Abkommen eine „unmittelbare Wirksamkeit“ für Privatpersonen ausschließt. Damit könnte ein privater Investor Schutz vor Rechtsverletzungen aus dem Vertrag nur indirekt und unzureichend über eine „Government-to-Government“ Streitschlichtung erhalten. Aus diesem Grund ist das im Vertrag vorgesehene ISDS-Verfahren nötig.

Müller-Ibold teilt mit der EU-Kommission die Auffassung, dass in CETA ein guter Interessenausgleich zwischen staatlichen Regulierungswünschen einerseits und privatem Investorenschutz einerseits gefunden wurde.

Prof. Dr. Karlhans Sauernheimer (khs) wirkte von 1994 bis zu seiner Emeritierung im März 2010 als Professor für VWL an der Johannes Gutenberg-Universität Mainz. Er publiziert schwerpunktmäßig zu Themen des internationalen Handels, der Währungs- und Wechselkurstheorie sowie der Europäischen Integration. Er ist Koautor eines Standardlehrbuchs zur Theorie der Außenwirtschaft und war lange Jahre geschäftsführender Herausgeber des Jahrbuchs für Wirtschaftswissenschaften.

karlhans.sauernheimer@uni-mainz.de

Diese Seite benutzt Cookies, um die Nutzerfreundlichkeit zu verbessern. Mit der weiteren Verwendung stimmen Sie dem zu.

Datenschutzerklärung