Das neue Buch von Daron Acemoglu und Simon Johnson, Power and Progress, reiht sich ein in eine Anzahl weiterer Gesamtdarstellungen, die sich einer zentralen Frage der heutigen Weltwirtschaft widmen: Wie sind die USA – und mit gewissen Parallelen Großbritannien – in ihren gegenwärtigen Schlamassel geraten? Andere lesenswerte Beiträge sind u. a. Jonathan Ira Levys Ages of American Capitalism, J. Bradford DeLongs Slouching Towards Utopia, Gary Gerstles The Rise and Fall of the Neoliberal Order, Helen Thompsons Disorder: Hard Times in the 21st Century und Martin Wolfs The Crisis of Democratic Capitalism.
All diese Arbeiten sprechen eine grundlegende Spannung zwischen den beiden Systemen der industrialisierten westlichen Welt zur Verteilung und Ausübung von Macht an: der politischen Demokratie und der Marktwirtschaft. Jede dokumentiert auf eigene Weise, wie die Dynamiken des Kapitalismus zu einer Konzentration wirtschaftlicher und finanzieller Macht geführt haben, die anschließend genutzt wird, um den politischen Prozess zu beeinflussen und sogar zu dominieren.
Was Power and Progress charakterisiert ist das professionelle Habitat der Verfasser selbst. Beide sind MIT-Ökonomen – Acemoglu am Fachbereich Volkswirtschaft und Johnson an der Sloan School of Management. Acemoglu ist einer der führenden Ökonomen seiner Generation. Die schiere Bandbreite, Vielseitigkeit und Qualität seiner Beiträge zur Wirtschaftstheorie und zur empirischen Analyse sind außergewöhnlich, und er ist der Verfasser wichtiger Arbeiten zu den unterschiedlichen Auswirkungen der Technologie bei der Vernichtung bestehender und der Schaffung neuer Arbeitsplätze. Johnson ist ehemaliger Chefökonom des Internationalen Währungsfonds und bekannt für seine Analyse der Weise, in der die Finanzialisierung der US-Wirtschaft die Bühne für die globale Finanzkrise von 2008 bereitete.
Beide zeichnen sich zudem durch ihre offenkundige Bereitschaft aus, Bücher für ein nichtakademisches Publikum zu verfassen. Ihre früheren Arbeiten zur politischen Ökonomie der Entwicklung (Acemoglu) bzw. zur politischen Ökonomie der Fiskalpolitik und zur Staatsverschuldung (Johnson) waren Schritte auf dem Weg hin zu Power and Progress und sind repräsentative Beispiele für die Entwicklung der Wirtschaftswissenschaft seit 2008.
Jetzt haben sie sich von der Warte der neoklassischen Volkswirtschaft aus der Aufgabe angenommen, zu zeigen, dass die wirtschaftlichen Ergebnisse, die wir erleben, nie allein daraus herrühren, dass die Märkte Ressourcen auf effiziente Weise ihrer optimalen Verwendung zuführen. Sie argumentieren im Gegenteil, dass die Weise, in der Kosten und Nutzen des technologischen Fortschritts aufgeteilt werden, eine Frage gesellschaftlicher Entscheidungen ist – auch wenn das nicht immer so scheint. Der Titel ihres Buches hat daher noch eine zweite Bedeutung: Die Fähigkeit, dieses Thema anzusprechen, ist ein ermutigender Maßstab für die Fortschritte, die die Wirtschaftswissenschaft inzwischen gemacht hat.
Nicht neutral
Das „erste Technologiegesetz“ des verstorbenen Historikers Melvin Kranzberg besagt: „Technologie ist weder gut noch schlecht, noch ist sie neutral“. Dies könnte durchaus das Epigraph für Power and Progress sein. Es lässt sich sauber aus dem Fokus der Verfasser auf „die Balance zwischen Automationstechnologien und der Schaffung neuer Aufgaben einerseits und den institutionellen Grundlagen der Verteilung ökonomischer Renten andererseits“ abstrahieren. Es ist dieser Rahmen, der Acemoglus und Johnsons Betrachtung der wirtschaftlichen und politischen Geschichte vom Mittelalter bis zur Gegenwart ihre Struktur verleiht.
Folge der sukzessiven Technologien, die das Wirtschaftswachstum angetrieben haben, sind sowohl die Freisetzung von Arbeitskraft von bestehenden Aufgaben als auch ihre Nutzbarmachung für neue Aufgaben. An dieser Stelle bauen die Verfasser auf einer Vielzahl von Fachaufsätzen auf (an denen Acemoglu in vielen Fällen mitgewirkt hat), die diesen Prozess sowohl theoretisch fassen als auch die Theorie empirisch bestätigen. In dem Umfang, in dem neue Technologien die Produktivität steigern, erhöhen sie den zur Vereinnahmung verfügbaren Überschuss. Doch wird die Verteilung dieses Überschusses durch die Machtbalance in den Märkten und im politischen Prozess bestimmt, die immer das Potenzial hat, Marktentwicklungen abzumildern oder gar umzukehren.
Für Beispiele durch innovative Technologien (Wind- und Wassermühlen) bedingter Produktivitätszuwächse, die komplett von weltlichen und geistlichen Eliten vereinnahmt wurden, gehen Acemoglu und Johnson zurück ins 13. Jahrhundert. Die Mittel, die in den Bau von Europas Kathedralen flossen, wurden direkt den Kleinbauern abgenommen. Einen falschen Zungenschlag bringen die Verfasser herein, wenn sie äußern, die „bäurische Bevölkerung wurde überredet, dies zu dulden“ (meine Hervorhebung). Doch sie korrigieren diesen Eindruck rasch, indem sie die Rolle des Zwangs betonen. Die Anführer des englischen Bauernaufstands von 1381 wurden schließlich standrechtlich hingerichtet.
Acemoglu und Johnson gehen dann zur Industriellen Revolution über. Dabei konzentrieren sie sich auf deren Verteilungskonsequenzen, um die Nichtneutralität der Technologie zu verdeutlichen. Sie zeigen, dass die unmittelbare Folge der Industriellen Revolution für gut eine Generation die Verelendung der englischen Arbeiterklasse war. Vom Gesichtspunkt des Handwebers aus betrachtet war die Technologie der Textilmühle etwas uneingeschränkt Schlechtes. Die Verfasser hätten an dieser Stelle allerdings noch darauf hinweisen können, dass sich die Ausbeutung der Arbeiter auf einen „Blutkodex“ stützte, der die Zerstörung von Maschinen und mehr als hundert andere Handlungen zu Verbrechen erklärte, die mit dem Tod oder der Deportation nach Australien bestraft wurden.
Das zweite Viertel des 19. Jahrhunderts brachte dann in Großbritannien profunde Verschiebungen des politischen Machtgleichgewichts hervor, die sich zunächst im Reform Act von 1832 und 14 Jahre später in der Aufhebung der „Corn Laws“ widerspiegelten, die Getreideimporte zum Schutze der Rentenerträge der Landbesitzer mit Zöllen belegt hatten. Doch war die progressive Reform kein Geschenk der Reichen an die Mittelschicht oder gar die Armen; sie war das Ergebnis aggressiven öffentlichen Drucks, der sich sowohl in friedlichen Demonstrationen und Petitionen als auch in gewaltsamen Ausschreitungen äußerte. Und mit der politischen Reform ging eine erheblich breitere Verteilung der Erträge aus den Produktivitätszuwächsen einher.
Belege für das sich angesichts der Entwicklung und Einführung neuer Technologien zur Massenproduktion und zur Elektrifizierung entwickelnde Zusammenspiel zwischen dem Kräftegleichgewicht innerhalb des Arbeitsmarktes und in der Politik legen die Verfasser im Rahmen der Ausweitung ihrer Untersuchung auf die erste Hälfte des 20. Jahrhunderts vor. Im Laufe zweier Weltkriege und der Großen Depression entwickelte sich eine „Gegenmacht“ (so die Bezeichnung des Ökonomen John Kenneth Galbraith) in Gestalt der Gewerkschaften und der Sozialgesetzgebung, die dem Kapital Zügel anlegte und die Arbeitnehmer stärkte. Das Ergebnis war eine radikale, wenn auch nur vorübergehende Verringerung der Ungleichheit in der gesamten entwickelten Welt.
Wir sollten an dieser Stelle innehalten, um uns bewusst zu machen, wie weit sich Acemoglu und Johnson damit von einem zentralen Theorem der neoklassischen Wirtschaftslehre entfernt haben. Die neoklassische Produktionsfunktion besagt, dass unter Wettbewerbsbedingungen die von den Produktionsfaktoren Arbeit und Kapital erzielten Erträge durch deren jeweilige Deckungsbeiträge zur Produktionsleistung bestimmt werden. Der Lohn eines Arbeitnehmers wird also durch den inkrementellen Beitrag der Arbeit zur Produktion bestimmt, und ähnlich ist es mit der Kapitalrendite. Was, so fragt man womöglich, könnte fairer sein?
In Wahrheit schließt die neoklassische Produktionsfunktion durch die beiläufige Formulierung „unter Wettbewerbsbedingungen“ die Rolle der Macht bei der Festlegung der Einkommensverteilung ausdrücklich aus. Wie Acemoglu und Johnson in erschöpfendem Detail zeigen, war die Verteilung der Erträge in realweltlichen Märkten noch nie ausschließliches Ergebnis der technischen Produktionsbedingungen. Zentral ist die Fähigkeit, Gegenmacht zu projizieren, um die Macht auszugleichen, die das Kapitaleigentum dem Management verleiht. Dies ist der „umkämpfte Pfad“, entlang dessen sich die moderne politische Ökonomie entwickelt hat.
Visionen, die motivieren und in die Falle locken
Eine besondere gestaltende Rolle schreibt Power and Progress der „Vision“ der Unternehmer zu, die sukzessive Wellen technologischer Innovationen angeführt haben und eine „Visionsoligarchie“ bilden. Die heutige „Visionsoligarchie“ sei
„… eine Koterie technologischer Vorreiter mit ähnlichem Hintergrund, ähnlichen Ansichten von der Welt, ähnlichen Leidenschaften und unglücklicherweise ähnlichen blinden Flecken. … Der Einfluss der Gruppe gründet nicht auf Panzern und Raketen, sondern auf ihrem Zugang zu den Fluren der Macht und ihrer Fähigkeit zur Beeinflussung der öffentlichen Meinung. … Die Visionsoligarchie ist so überzeugend, weil sie brillante wirtschaftliche Erfolge vorzuweisen hat.“
Diese in profunder Weise relevante Sorge erklärt einen Exkurs innerhalb des Buches, der ansonsten wenig relevant erscheinen könnte. Die Verfasser verweisen auf das „warnende Beispiel“ des französischen Unternehmers Ferdinand de Lesseps, der den Bau des Suezkanals vorantrieb, aber dann in katastrophaler Weise bei seinem Versuch zum Bau eines Kanals in Panama scheiterte. De Lesseps’ Erfolg in Suez hatte ihn auf einen Plan festgelegt, der für die völlig anderen geografischen, geologischen und Umweltbedingungen in Panama absolut ungeeignet war. Letztlich geriet de Lesseps in die Falle seiner eigenen Vision, und sein Panamakanal wurde nie fertiggestellt.
Womöglich hätten Acemoglu und Johnson ihre Darstellung der Torheit de Lesseps’ noch bereichern können, indem sie sie ausdrücklicher an andere derartige Beispiele nachfolgender technologischer Epochen geknüpft hätten. Ein augenfälliges Beispiel ist Henry Ford, der heroische Pionier der Massenproduktion. Ford wird in dem Buch im Wesentlichen als Unternehmer dargestellt, der gezwungen ist, die Situation seiner Arbeiter zu verbessern, um sie zu halten. Aufgrund der inhumanen Unerbittlichkeit des Fließbandes erreichte die Mitarbeiterfluktuation in Fords Fabrik Highland Park 1913 380 %. Das Unternehmen reagierte mit enormen Lohnsteigerungen, die das damals beispiellose Niveau von fünf Dollar pro Tag erreichten.
Unerwähnt lassen die Verfasser, dass die Ford-Arbeiter als Voraussetzung für den Erhalt des Spitzenlohns einer umfassenden, rigorosen Beaufsichtigung durch die soziologische Abteilung des Unternehmens unterworfen wurden, die von ihrem persönlichen Verhalten bis hin zu ihrem Familienleben alles nachverfolgte. Generationen vor der digitalen Ära gab es in Detroit bereits den „Überwachungskapitalismus“.
Unmittelbar relevanter in Bezug auf das Scheitern de Lesseps’ war die Weise, wie Fords Vision ihn und sein Unternehmen zuerst voranbrachte und dann ausbremste. David Hounshell hat dies in seinem maßgeblichen Buch From the American System to Mass Production, 1800-1932 aus dem Jahr 1985 erschöpfend beschrieben. Ford konzentrierte sich monomanisch darauf, Autos möglichst billig zu produzieren, und für die Hälfte einer Generation dominierte sein Model T. Doch wurde diese Erschwinglichkeit durch einen gleichermaßen extremen Fokus auf die Standardisierung – nach dem Motto: „Jeder Kunde kann ein Auto in jeder gewünschten Farbe bekommen, solange es schwarz ist.“ – und Spezialisierung des Fertigungsprozesses erreicht. Die Werkzeugmaschinen, die in der Ford-Produktionslinie zum Einsatz kamen, waren für die Produktion des Model T maßgeschneidert und für nichts anderes.
Als Alfred P. Sloan mit General Motors auf dem inzwischen enorm gewachsenen Automarkt den Wettbewerbserfolg der Produktdifferenzierung demonstrierte, war Ford gezwungen, seine Vision aufzugeben. GMs Chevrolet verkaufte sich 1926 in den USA besser als das Model T; die Beherrschung des Marketings hatte sich gegenüber der Beherrschung der Produktionstechnologie durchgesetzt. Als Ford nachzog und wie GM unterschiedliche Modelle für unterschiedliche wirtschaftliche und soziale Schichten einführte, musste er zur Umstellung auf die Produktion des Model A seine Fabriken für ein halbes Jahr schließen.
Einen aktuelleren Beleg dafür, wie eine erfolgreiche technische Vision einen Marktführer ausbremsen kann, bot im letzten Jahrzehnt des 20. Jahrhunderts IBM. IBM verdankte seine Dominanz in der globalen Computerbranche der Entwicklung und Einführung der zentralisierten Datenverarbeitung: Großrechnern, die mit den Nutzern über „dumme“ Endgeräte interagierten. Mit zunehmender Ausgereiftheit der Großrechner boten diese all die Eigenschaften – Zuverlässigkeit, Skalierbarkeit und Sicherheit –, die IBMs Kunden in Wirtschaft und Behörden wollten.
IBM hatte mit der Entwicklung des System/360 eine heroische Unternehmenstransformation vollzogen. Es war eine technische Leistung vergleichbar mit der von de Lesseps in Suez. Acemoglu und Johnson verweisen auf die nonkonformistischen Technologen, die IBMs Vision in Frage stellten und auf ein alternatives Modell dezentraler Datenverarbeitung drängten (das mit dem PC erstmals verwirklicht wurde); sie übersehen jedoch die tiefgreifendere Story von IBMs späterem Niedergang, der einen kurzfristigen taktischen Schritt und einen längerfristigen strategischen Fehler widerspiegelte.
Nachdem Apple und andere die Attraktivität preiswerter Geräte für Einzelnutzer unter Beweis gestellt hatten, gab IBM seine hergebrachte, eng integrierte unternehmenseigene Technologie auf. Es gründete in Boca Raton (Florida) – mehr als 1900 km von seiner Unternehmenszentrale in Armonk (New York) entfernt – eine eigenständige PC-Fertigung und ermächtigte diese, die Produktion zweier entscheidender Komponenten extern zu vergeben: die des Prozessors an Intel und die des Betriebssystems an Microsoft. Dies führte zum Aufstieg des „Wintel“-Duopols, das später IBMs Dominanz auf dem inzwischen enorm gewachsenen Datenverarbeitungsmarkt untergraben sollte.
Allerdings hatte IBM schon vor dem Aufkommen des PCs eine strategische Entscheidung getroffen, die sich als noch fataler erweisen sollte und de Lesseps’ Scheitern unmittelbarer widerspiegelte. In dem Versuch, den Triumph des System/360 zu wiederholen, hatte IBM 1971 sein Projekt „Future System“ gestartet, das alle bestehenden Datenverarbeitungssysteme einschließlich seines eigenen obsolet machen sollte. Ein zentraler Grundsatz war dabei die größtmögliche Integration von Hardware und Software, um von sinkenden Hardware-Kosten zu profitieren und die Kundenanwendungen fest an die einzige Hardware zu binden, die diese unterstützen konnte.
Das Projekt wurde nur vier Jahre später eingestellt. Gründe dafür waren erbitterte interne Streitigkeiten und Rivalitäten sowie die fortschreitende Weiterentwicklung der Datenverarbeitungstechnologie. Doch die Vision lebte fort und erreichte Ende der 1980er Jahre in Gestalt des AS/400 den Markt. Kurzzeitig war das Produkt enorm erfolgreich; es generierte rund 14 Milliarden Dollar Jahresumsatz und zehn Milliarden Dollar an freiem Cashflow. Entscheidend jedoch war, dass seine komplett geschlossene Architektur IBM im direkten Gegensatz zum taktischen Erfolg des IBM-PCs von einer Entwicklung ausschloss, die die übrige Branche revolutionierte: der Umstellung von einer vertikal integrierten Hardware auf eine horizontale, dezentrale, vernetzte Datenverarbeitung, bei der die Wertschöpfung von der Hardware auf die Software überging, während Erstere zum 08/15-Produkt wurde. Im Jahr 2000 war IBM, was seinen Beitrag zur fortlaufenden Entwicklung der Datenverarbeitung anging, im Wesentlichen irrelevant geworden.
Acemoglu und Johnson befürchten, dass die Vision der heutigen Big-Tech-Unternehmer bestimmen wird, wie die neuen Technologien von heute eingesetzt werden. Sie fürchten aus gutem Grund, dass der Einsatz des maschinellen Lernens durch Big Tech zur Schaffung eines auf hochindividualisierter Werbung beruhenden Geschäftsmodells zu gesellschaftlich sogar noch zerstörerischen Anwendungen der aufkommenden generativen KI führen wird. Sie betonen zudem das Potenzial der Automation zur Vernichtung von Aufgaben und Arbeitsplätzen, was das Machtgleichgewicht noch stärker von den Arbeitnehmern weg verlagern und die Einkommens- und Vermögensungleichheit verschärfen würde. Dies beschwört drohend die lange, schmerzhafte Geschichte der ersten 50 Jahre der Industriellen Revolution herauf. Doch lassen es die Verfasser damit nicht bewenden.
Technologische Neuausrichtung in der Vergangenheit
In ihrer Diskussion der Folgen für die britischen Arbeitnehmer während der ersten Industriellen Revolution fassen Acemoglu und Johnson die positive Botschaft ihres Buches zusammen: „Die arbeitnehmerfeindliche Ausrichtung der Technologie ist immer eine Entscheidung und keine unvermeidliche Nebenwirkung des ‚Fortschritts‘. Um diese Ausrichtung umzukehren, müssen andere Entscheidungen getroffen werden.“
In ihrer Beschreibung der Zeit inklusiven Wohlstands nach dem Zweiten Weltkrieg verweisen sie zu Recht auf die konstruktive Rolle der Gewerkschaften, die in den USA durch den National Labor Relations Act („Wagner Act“) von 1935 des New Deal gestärkt worden waren. Sowohl die United Auto Workers in Detroit als auch die International Longshore and Warehouse Union an der Westküste beeinflussten die Weise, wie die Automation eingesetzt wurde und wie die Gewinne daraus geteilt wurden. Die durch die Große Depression bedingte Verschiebung des politischen Machtgleichgewichts brachte insofern eine Machtverschiebung auch auf dem Arbeitsmarkt hervor.
Als ein neuerlich von den Republikanern kontrollierter Kongress versuchte, den New Deal rückgängig zu machen, war einer seiner wenigen klaren Erfolge der Labor Management Relations Act von 1947 („Taft-Hartley Act“). Er umfasste zwei Bestimmungen, um die wirtschaftliche Macht der Gewerkschaften zu beschneiden. Die erste ermächtigte die Einzelstaaten, sogenannte „Right-to-Work-Gesetze“ zu verabschieden. Dies schaffte das System ab, das nach einem Mehrheitsvotum für die Gewerkschaft allen Arbeitnehmern die Pflicht zur Zahlung von Gewerkschaftsbeiträgen auferlegt hatte. Es dauerte den größten Teil einer Generation, bis derartige Gesetze im Süden der USA großflächig verabschiedet waren. Als das jedoch geschehen war, siedelte die US-Industrie – einschließlich der Automobilfabriken – zunehmend aus dem gewerkschaftlich organisierten, industrialisierten Mittleren Westen in den Süden um.
Die zweite Bestimmung war subtiler, aber Acemoglu und Johnson betrachten sie als besonders lehrreich. In Deutschland und Skandinavien finden Kollektivverhandlungen auf Branchenebene statt, und ein Tarifvertrag hat also keine direkten Auswirkungen auf den Wettbewerb zwischen Branchenunternehmen. Der Taft-Hartley Act jedoch legte fest, dass alle Tarifverträge auf Ebene der Geschäftseinheit abzuschließen sind. Dadurch wirken sich Tarifverhandlungen stets auf den Wettbewerb zwischen Unternehmen um Marktanteile aus. Gewerkschaftsfeindliches Verhalten entwickelte sich daher zu einem Instrument zur Steigerung der Wettbewerbsfähigkeit, wenn nicht gar der Überlebensfähigkeit, der Unternehmen.
Die gesamtwirtschaftliche Bedeutung dieser Politik zeigt sich in der inversen Korrelation zwischen „Gewerkschaftsdichte“ – dem Prozentsatz der Haushalte mit mindestens einem Gewerkschaftsmitglied – und Einkommensungleichheit. Acemoglu und Johnson sind sich dieses historischen Musters klar bewusst, und sie identifizieren die weiträumige Entwicklung von „Arbeitnehmerorganisationen“ als notwendigen ersten Schritt zur Wiederherstellung einer Gegenmacht und zur technologischen Neuausrichtung.
Bevor sie zu ihren Handlungsempfehlungen kommen, analysieren die Verfasser auf sachkundige und nuancierte Weise, wie die Technologie des maschinellen Lernens und großer Sprachmodelle (generative KI) die Arbeitswelt umgestalten könnte. Sie beschreiben detailliert die Methoden, Anwendungen und Grenzen der KI und insbesondere die Gefahr der „Überanpassung“ der statistischen Modelle, die aus den enormen Mengen an Trainingsdaten erstellt werden. Sie betonen die Art und Weise, in der sich diese Gefahr besonders beim Einsatz der KI in sozialen Situationen artikuliert, in denen menschliche Reaktionen auf die KI-Ergebnisse zur Anpassung der Ausgangsdaten führen, anhand derer die KI trainiert wurde.
In ihrer Kritik der digitalen Steuerung von Arbeitnehmern und Aufgaben bauen Acemoglu und Johnson auf einem beträchtlichen und rasch wachsenden Literaturbestand auf. Sie leisten zudem einen kreativen Beitrag, indem sie die Arbeiten dreier technologischer Pioniere wieder aufgreifen: Norbert Wiener, J.C.R. Licklider und Douglas Engelbart.
Wiener, der den Begriff „Kybernetik“ prägte, um die Interaktion zwischen Mensch und Maschine zu beschreiben, konzentrierte sich auf die produktive Zusammenarbeit mit Computern. Licklider spielte in den frühen 1960er Jahren eine Führungsrolle in der amerikanischen Defense Advanced Research Projects Agency (DARPA), die die Bühne für den interaktiven PC und das Internet selbst bereitete. Und Engelbart, der sich von Lickliders Vision inspirieren ließ, ist für seine Präsentation der „Mutter aller Demos“ im Jahr 1968 bekannt, in der er die Entwicklung der Datenverarbeitung für die nächsten 50 Jahre skizzierte.
Unter der Rubrik der „maschinellen Nützlichkeit“ berufen sich die Verfasser auf diese drei Visionäre, um einen nicht verfolgten Alternativweg aufzuzeigen, bei dem die Spitzenpriorität darin besteht, Möglichkeiten zu entwickeln, wie Computer den Menschen unterstützen können statt ihn zu ersetzen. Die erste und unmittelbarste Chance hierzu besteht in der Ausweitung der langen Reihe erfolgreicher Datenverarbeitungsanwendungen zur Steigerung der Produktivität der Arbeitnehmer bei der Bearbeitung bestehender Aufgaben. Zweitens haben digitale Technologien im Rahmen der Automatisierung alter Aufgaben bereits eine Vielzahl neuer Aufgaben hervorgebracht (auf gesamtwirtschaftlicher Ebene zeigt sich dies insbesondere in der großmaßstäblichen Umstellung von der industriellen Fertigung auf Dienstleistungen aller Art). Drittens kann die KI, wenn sie ordnungsgemäß mittels kuratierter Daten trainiert wird, menschlichen Entscheidern auf deutlich effizientere Weise sachbezogene Informationen liefern als die typische Google-Suche (insbesondere da deren Suchergebnisse zunehmend durch Werbung verzerrt werden).
Zu guter Letzt bringen die neuen digitalen Werkzeuge neue Plattformen und Märkte hervor. Am auffälligsten ist dies in den Entwicklungsländern, wo die Innovation nicht durch althergebrachte Institutionen blockiert wird. Die Verfasser führen hierfür aus der wachsenden Zahl der Beispiele zwei an: die auf Mobiltelefone gestützte Entwicklung eines gemeinsamen Fischmarktes im südindischen Bundesstaat Kerala und Kenias enorm erfolgreiches mobiles Zahlungs- und Überweisungssystem M-Pesa.
Doch wie Acemoglu und Johnson selbst zugeben, sind diese Erfolge marginal im Vergleich zu den enormen Investitionen an Geld und Hirnschmalz, die darauf zielen, per KI „Human Parity“ (qualitative Gleichwertigkeit) zu erreichen. Statt die Arbeitnehmer zu unterstützen, droht die KI zur „Mutter aller unangemessenen Technologien“ zu werden, weil sich die Unternehmen überwiegend auf Automation statt auf die Unterstützung der Arbeitnehmer konzentrieren. Die Frage ist also, was sich diesbezüglich tun lässt.
Technologische Neuausrichtung heute
Acemoglu und Johnson schlagen eine Reihe unterschiedlicher, einander ergänzender Wege vor, um die Auswirkungen der neuen Technologien zu begrenzen und zu gestalten. Sie beginnen mit der Notwendigkeit, dass sich Arbeitnehmerorganisationen dem heutigen Arbeitsmarkt anpassen, der deutlich stärker dezentralisiert ist als der, in dem die Industriegewerkschaften der Mitte des vergangenen Jahrhunderts florierten.
Eine Hoffnung besteht darin, dass dieselben Technologien, die die algorithmengestützte Steuerung der Arbeit bei Walmart ermöglichen, von den Arbeitnehmern genutzt werden können, um eine neue Art von Solidarität hervorzubringen. Acemoglu und Johnson verweisen auf erfolgreiche, wenn auch begrenzte Bemühungen zum gewerkschaftlichen Organisieren an einigen Amazon- und Starbucks-Standorten. Und während ihr Buch geschrieben wurde, bevor die Teamster-Gewerkschaft einen neuen Vertrag mit UPS aushandelte, der deutliche Folgen auch für nicht gewerkschaftlich organisierte FedEx-Fahrer haben könnte, bietet es reichlich Belege für die häufig systemische Bedeutung scheinbar isolierter Ereignisse.
Acemoglu und Johnson erkennen an, dass die Ermittlung der tatsächlichen Verteilungseffekte des Einsatzes einer Technologie extrem schwierig und die Formulierung von Maßnahmen, um sie verstärkt für maschinell nützliche Anwendungen einzusetzen, noch schwieriger ist. Schließlich lassen sich die unbeabsichtigten Folgen von Eingriffen in diesem Bereich kaum vorhersagen. Jedoch weisen sie darauf hin, dass beobachtbare Verschiebungen beim Wertschöpfungsanteil der Arbeit sich auf Unternehmens-, Branchen- und Landesebene zuverlässig messen lassen, was ein Barometer für die Auswirkungen der Technologie bietet.
Sie empfehlen diesbezüglich eine „Pluralität“ von Experimenten zur Technologienutzung, wobei die vielversprechendsten Anwendungen belohnt werden sollten. Doch lehnen sie angesichts des Klimas der Unsicherheit, in dem politische Entscheidungen getroffen werden müssen, vorbeugende Steuern auf bestimmte Einsatzmöglichkeiten ab. Ihr Ansatz steht daher im Einklang mit der Strategie der Biden-Regierung zur Umstellung der US-Wirtschaft auf umweltfreundliche Technologien; diese basiert fast komplett auf Zuckerbrot statt auf der Peitsche.
Ein Bereich, in dem Acemoglus und Johnsons Vorschläge besonders klarsichtig und scharfsinnig sind, ist die Wettbewerbsregulierung. Sie empfehlen, die Durchsetzung des Kartellrechts durch eine Reihe unterschiedlicher zusätzlicher Maßnahmen zu ergänzen, darunter die Rücknahme von Section 230 – dem berüchtigten Gesetz, das Big-Tech-Unternehmen von jeder Haftung für das entbindet, was Nutzer auf ihren Plattformen posten – sowie neue Steuern auf digitale Werbung.
In ähnlich progressivem Sinne sprechen sie sich für Reformen zur Neugewichtung der Bundessteuern aus, die Kapitalerträge bisher sehr deutlich gegenüber Erwerbseinkünften begünstigen. Sie verweisen darauf, dass nach Berücksichtigung der Sozialabgaben auf 100.000 Dollar, die ein Unternehmen zusätzlich für Neueinstellungen ausgibt, für Arbeitgeber und Arbeitnehmer gemeinsam 25 % an Steuern anfallen, während sich die Steuern auf neue Maschinen und Geräte für dieselben Aufgaben auf nicht einmal 5 % belaufen.
Zur Ausbalancierung von Arbeitsmarkteingriffen propagieren sie Subventionen für die unternehmensinterne und -externe Weiterbildung von Arbeitnehmern. Appelle für ein universelles Grundeinkommen lehnen sie jedoch entschieden ab; sie betrachten dieses als ein zutiefst fehlgeleitetes Zugeständnis an den Traum einiger Technovisionäre von der Abschaffung menschlicher Arbeit durch Automation. Sie hätten noch hinzufügen können, dass ein universelles Grundeinkommen die Menschen nicht nur des Gefühls eines verdienten Lohns beraubt, sondern zudem die Mittel für die Bereitstellung von öffentlichen Gütern wie Straßen und Bibliotheken schmälert. Tatsächlich ist es ein weiterer Ausdruck jenes „methodologischen Individualismus“, der die britische Premierministerin Margaret Thatcher zu der berühmten Aussage verleitete, dass es so etwas wie „die Gesellschaft“ nicht gäbe.
Die Notwendigkeit eines neuen Denkens
Zwei weitere separate Vorschläge schließlich lassen sich auf produktive Weise verbinden. Erstens sprechen sich Acemoglu und Johnson für eine aktive Rolle des Staates bei der Förderung innovativer Technologien aus. Dabei meinen sie nicht, dass der Staat „die Gewinner auswählen“ sollte. Ihnen schwebt vielmehr die Rolle vor, die das US-Militär als erster, mitwirkender Kunde wissenschaftlicher Neuerungen vom Penicillin bis hin zur Mikroelektronik spielte. Und getrennt davon verweisen sie in Anerkennung der „zentralen Rolle [der Wissenschaft] bei der Kultivierung und Ausübung von … sozialer Macht“ auf jene Art von Finanzierung durch die Wirtschaft, die wissenschaftliche Anreize zu verzerren droht.
Zwei jüngste positive Signale deuten darauf hin, dass die Argumente der Verfasser gut aufgenommen werden dürften. Erstens zeigen wichtige von der Biden-Regierung in den letzten zwei Jahren verabschiedete Gesetze – das mit Unterstützung beider Parteien verabschiedete Infrastrukturgesetz, der CHIPS and Science Act und der Inflation Reduction Act (IRA) –, dass die USA bereits dabei sind, eine aktivere Rolle des Staates bei der Entwicklung und beim Einsatz neuer Technologien zu verfolgen.
Zweitens gingen mit der innovativen Gesetzgebung intellektuelle Innovationen einher. Die wirtschaftswissenschaftliche Erneuerung trägt dazu bei, die Handlungsspielräume für die praktische Politik neu zu definieren und auszuweiten. Ein Beispiel hierfür ist die Gründung eines Development Innovation Lab mit „Market Shaping Accelerator“ durch den Wirtschaftsnobelpreisträger Michael Kremer ausgerechnet am Becker Friedman Institute der University of Chicago, der einstigen Mutterkirche des Marktfundamentalismus. Und diese Initiative baut auf Kremers Erfolgen bei der Konzipierung von Abnahmegarantien für Impfstoffe auf, um nicht zuletzt während der COVID-19-Pandemie weltweit Ressourcen in die Impfstoffentwicklung und -verteilung zu lenken.
Alle am Anfang dieses Essays erwähnten Bücher stellen in detaillierter Form die Versäumnisse der neoliberalen Ordnung und ihren folglichen Niedergang dar. Doch fragen sich ihre Leser nach der Lektüre, was als Nächstes kommen wird. In Power and Progress nehmen Acemoglu und Johnson die Aufgabe in Angriff, einen neuen Rahmen für die Schaffung einer stärker inklusiven Zukunft zu entwerfen. Zu diesem Zweck identifizieren sie „drei Gleise“ effektiven Handelns: die Änderung des Narrativs und, damit einhergehend, von kulturellen Normen, den Aufbau von Gegenmacht und die Entwicklung relevanter politischer Lösungen.
Wie die Verfasser deutlich machen, haben wir dies bereits früher getan. Von Großbritanniens Transformation Mitte des 19. Jahrhunderts bis hin zur progressiven Bewegung im frühen 20. Jahrhundert und Franklin Roosevelts anschließendem New Deal wurden durch Mobilisierung der Öffentlichkeit Machtstrukturen und Inhalte der Politik umgestaltet. Die heutige Herausforderung erscheint furchteinflößend angesichts des Grades parteipolitischer Polarisierung und der direkten Angriffe auf demokratische Institutionen von rechts. Doch echte Fortschritte sind erkennbar; wir müssen nur hinsehen.
Auf die wichtigen von der Biden-Regierung verabschiedeten Gesetzeswerke – den CHIPS and Science Act und den IRA – gehen Acemoglu und Johnson nicht ein. Beide Gesetze wurden dafür kritisiert, dass sie ihre primären Zwecke – die Wiederbelebung der US-Halbleiterbranche und die Anreizsetzung für Investitionen in umweltfreundliche Technologien – durch eine Vielzahl von Anforderungen wie Gewerkschaftsbeteiligung, existenzsichernde Löhne, Einrichtungen zur Kinderbetreuung und Ähnliches verkompliziert hätten. Doch sind diese „Everything-Bagel-Bestimmungen“ (so die Bezeichnung von Kritikern) genau der Weg, wie die Politik das zentrale Argument dieses herausragenden Buches umsetzen kann: indem sie die Verteilungswirkung der Technologie zur gesellschaftlichen Entscheidung macht.
Aus dem Englischen von Jan Doolan
Daron Acemoglu und Simon Johnson, Power and Progress, PublicAffairs, New York; Basic Books, London, 2023
Copyright: Project Syndicate, 2023.
www.project-syndicate.org