Wer entscheidet, ob KI uns stärkt oder ersetzt?

Es gibt eine Szene, die sich in diesen Monaten immer wieder wiederholt. Ein CEO eines der größten KI-Unternehmen der Welt sitzt in einem gut ausgeleuchteten Studio, spricht ruhig und besonnen, gibt sich nachdenklich und menschlich zugewandt. Und dann sagt er, dass er sich Sorgen macht. Dass mehr als die Hälfte aller qualifizierten Bürojobs in Gefahr sein könnten. Dass die Disruption diesmal schneller kommt als alle bisherigen. Dass die normalen Anpassungsmechanismen der Gesellschaft möglicherweise überfordert sein werden. Er klingt wie ein Arzt, der eine schwere Diagnose überbringt: sachlich, mitfühlend, ehrlich besorgt. Was er nicht sagt: Er ist nicht der Arzt. Er ist derjenige, der die Krankheit baut.

Dario Amodei von Anthropic, Mustafa Suleyman von Microsoft, Sam Altman von OpenAI. Sie alle haben in den letzten Monaten öffentlich über die Risiken gesprochen, die ihre eigenen Produkte für den Arbeitsmarkt darstellen. Suleyman erklärte, dass die meisten qualifizierten Büroarbeiten innerhalb der nächsten zwölf bis achtzehn Monate vollständig automatisiert sein könnten. Altman sprach davon, dass ganze Berufsklassen einfach verschwinden werden. Vollständig. Dauerhaft. Was an diesen Aussagen auffällt, ist nicht ihr Inhalt. Es ist ihre grammatikalische Form. Jobs werden automatisiert. Rollen werden wegfallen. Die Disruption wird kommen. Das Passiv arbeitet hart in diesen Formulierungen. Es erzeugt den Eindruck von Naturgewalt, von Unvermeidlichkeit, von etwas, das einfach geschieht. Als würde KI wie Regen fallen und wir alle nur schauen könnten, ob wir einen Schirm dabei haben.

Aber das ist falsch. Fundamental falsch.

Eine Krise, die gebaut wird

Die Jobkrise, von der die großen KI-Unternehmen sprechen, ist keine Naturgewalt. Sie ist das Ergebnis von Entscheidungen. Konkreter Entscheidungen. Entscheidungen, die in konkreten Unternehmen von konkreten Menschen auf der Basis konkreter finanzieller Anreize getroffen werden. Der Oxforder Politikphilosoph G.A. Cohen hat vor Jahrzehnten ein Muster beschrieben, das hier präzise zutrifft. Ein Argument verändert seinen Charakter vollständig, wenn die Person, die es vorträgt, dieselbe Person ist, deren Entscheidungen die Prämissen des Arguments erst wahr machen. Cohens Analogie war drastisch: ein Entführer, der argumentiert, Kinder gehörten zu ihren Eltern und deshalb solle das Lösegeld gezahlt werden. Das Argument ist logisch gültig. Die Prämissen sind wahr. Aber es ist diskreditiert durch die Tatsache, dass derjenige, der es vorträgt, die Krise selbst geschaffen hat.

Amodei, Suleyman und Altman sitzen uns gegenüber und äußern ernsthafte Bedenken über eine Zukunft massiver Jobverluste. Aber die Jobverluste, die sie beschreiben, passieren nicht einfach. Sie werden gebaut. Von ihren Unternehmen. Mit ihren Produkten. Auf der Basis ihrer Architekturentscheidungen. Das ist keine Anklage. Es ist eine Klarstellung. Und sie ist wichtig, weil sie die eigentliche Frage sichtbar macht: Wenn diese Entwicklung das Ergebnis von Entscheidungen ist, dann kann sie auch durch andere Entscheidungen beeinflusst werden. Das Narrativ der Unvermeidlichkeit ist nicht nur faktisch falsch. Es ist gefährlich, weil es Handlungsmöglichkeiten unsichtbar macht, die tatsächlich vorhanden sind.

Automatisierung und Augmentierung: eine Entscheidung, keine Naturkonstante

Im Kern der gesamten Debatte steht ein Unterschied, der in der öffentlichen Diskussion erschreckend selten explizit gemacht wird: der Unterschied zwischen Automatisierung und Augmentierung. Automatisierung bedeutet: Ein KI-System übernimmt eine Aufgabe, die bisher ein Mensch erledigte. Der Mensch wird ersetzt. Die Arbeit bleibt, der Mensch geht.

Augmentierung bedeutet: Ein KI-System erweitert, was ein Mensch leisten kann. Der Mensch bleibt. Seine Fähigkeiten wachsen. Seine Produktivität steigt. Sein Wert erhöht sich. Beide Pfade sind technisch möglich. Beide werden heute in Unternehmen beschritten. Und die Entscheidung, welchen Pfad eine Organisation geht, ist keine technische Entscheidung. Sie ist eine strategische, ethische und letztlich menschliche Entscheidung. Aber sie wird zu selten bewusst getroffen. Viel häufiger passiert sie. Ein KI-System wird eingeführt, weil es eine Aufgabe schneller erledigt. Ob dabei ein Mensch gestärkt oder ersetzt wird, ist oft eine Nebenfrage, wenn sie überhaupt gestellt wird. Und genau hier liegt das eigentliche Problem: nicht in bösem Willen, sondern in der Abwesenheit bewusster Führung.

Es wäre naiv zu leugnen, dass es eine ökonomische Schwerkraft gibt, die in Richtung Automatisierung zieht. Ein System, das einen Mitarbeiter ersetzt, liefert schnellere und direkter messbare Einsparungen als eines, das denselben Mitarbeiter produktiver macht. Unternehmen sind verpflichtet, im Interesse ihrer Eigentümer zu handeln. Wenn Automatisierung den klarsten Weg zu höheren Gewinnen bietet, werden sie ihn beschreiten. Dazu kommt der Wettbewerbsdruck. Wenn ein Unternehmen auf Automatisierung verzichtet, während Konkurrenten sie einsetzen, riskiert es Marktanteile. Das ist keine abstrakte Theorie. Es ist die gelebte Realität in Industrien, die gerade transformiert werden. Und international verschärft sich diese Logik. Wenn ein Land bei der Automatisierung zurückhaltender agiert, während andere aggressiver vorgehen, entsteht ein strategisches Ungleichgewicht, das reale Konsequenzen hat.

Diese Drücke sind real. Wer sie wegdiskutiert, wird nicht ernst genommen. Aber sie sind keine Naturgesetze. Sie sind das Ergebnis von Anreizstrukturen, die Menschen gesetzt haben und die Menschen verändern können. Der MIT-Ökonom Daron Acemoglu und sein Team haben nachgewiesen, dass das amerikanische Steuersystem Automatisierung strukturell begünstigt, indem es Arbeit deutlich höher besteuert als den Kapitalaufwand für Roboterisierung. Eine Rebalancierung dieser Steuerstruktur könnte die menschliche Beschäftigung um bis zu vier Prozent steigern. Das ist kein radikaler Eingriff. Es ist eine Korrektur einer verzerrten Ausgangslage.

Warum Vollautomatisierung sich selbst zerstört

Das überzeugendste Argument gegen eine Strategie der maximalen Automatisierung kommt nicht aus der Ethik. Es kommt aus der Ökonomie. Henry Ford hat es vor einem Jahrhundert formuliert, und es gilt heute mehr denn je: Die Eigentümer, die Mitarbeiter und die Käufer sind dieselben Menschen. Jede Industrie, die die Kaufkraft ihrer eigenen Belegschaft zerstört, zerstört langfristig sich selbst. Sie begrenzt die Zahl ihrer eigenen Kunden. Eine Wirtschaft ist kein Schachspiel, in dem es nur darauf ankommt, den optimalen Output zu erzeugen. Eine Wirtschaft braucht Konsumenten. Konsumenten brauchen Einkommen. Einkommen entstehen durch Arbeit oder durch staatliche Transfers. Wer auf maximale Automatisierung setzt, bekommt im besten Fall das Zweite. Und das bedeutet: massive staatliche Umverteilung, Abhängigkeit von staatlichen Transfers für breite Bevölkerungsschichten, und eine Form von erzwungenem Kollektivismus, die mit den wirtschaftspolitischen Überzeugungen derjenigen, die Vollautomatisierung vorantreiben, schwer zu vereinbaren ist.

Sam Altman selbst hat einen "American Equity Fund" vorgeschlagen: Unternehmen und Grundeigentümer sollen jährlich 2,5 Prozent ihres Wertes abgeben, um jedem erwachsenen Bürger direkte Zahlungen zu ermöglichen. Das ist ein bedingungsloses Grundeinkommen durch die Hintertür. Und es zeigt: Wer heute auf maximale Automatisierung setzt, akzeptiert morgen den umfassendsten Sozialstaat, den die westliche Welt je gesehen hat. Die eigentlich marktwirtschaftliche Position ist deshalb nicht maximale Automatisierung. Sie ist die Sicherstellung, dass KI sich so entwickelt, dass Menschen wirtschaftlich produktiv bleiben. Augmentierung ist nicht antikapitalistisch. Sie ist die Voraussetzung dafür, dass Kapitalismus überhaupt funktioniert.

Wo die Entscheidung wirklich fällt

Die gesellschaftspolitische Debatte über Steuern, Regulierung und staatliche Anreizstrukturen ist wichtig. Aber sie ist nicht der einzige Ort, an dem diese Entscheidung fällt. Sie fällt jeden Tag in Unternehmen. In Strategiemeetings. In Architekturentscheidungen für neue KI-Systeme. In der Frage, ob ein neues Tool eingeführt wird, um einen Menschen zu ersetzen oder um ihn zu befähigen. In der Frage, ob bei der Einführung neuer Technologien auch die Entwicklung menschlicher Kompetenzen mitgedacht wird oder ob sie als Restgröße behandelt wird.

Führungskräfte, die diese Entscheidung nicht bewusst treffen, treffen sie trotzdem. Durch Unterlassen. Durch das Folgen der ökonomischen Schwerkraft. Durch das stille Akzeptieren von Systemen, die auf Ersatz ausgelegt sind, weil niemand explizit auf Stärkung bestand. Das ist das eigentliche Führungsproblem unserer Zeit im Umgang mit KI. Nicht mangelndes technologisches Verständnis. Nicht fehlende Strategie. Sondern die Abwesenheit einer bewussten, expliziten Haltung zu der einen Frage, die alles andere entscheidet: Wofür setzen wir KI ein? Zum Ersatz menschlicher Kompetenz? Oder zu ihrer Entfaltung?

Was bewusste Führung in dieser Frage bedeutet. Unvermeidlichkeit ist keine Antwort

Führungskräfte, die diese Entscheidung bewusst treffen, handeln anders. Sie beginnen nicht mit der Frage, welche Aufgaben KI übernehmen kann. Sie beginnen mit der Frage, welche menschlichen Fähigkeiten sie stärken wollen und wie KI dabei helfen kann. Sie verstehen, dass Kreativität, Urteilsvermögen, Empathie, kontextuelles Verstehen und die Fähigkeit zur intuitiven Einschätzung komplexer Situationen nicht Relikte einer vordigitalen Arbeitswelt sind. Sie sind die Fähigkeiten, die in einer KI-gestützten Welt am wertvollsten werden, weil sie das leisten, was kein Algorithmus leisten kann: Entscheidungen treffen, wo Daten schweigen. Vertrauen aufbauen, wo Transparenz allein nicht reicht. Sinn stiften, wo Effizienz keine Antwort gibt.

Sie verstehen außerdem, dass diese Fähigkeiten entwickelt werden müssen. Sie entstehen nicht automatisch, weil ein KI-Tool eingeführt wird. Sie entstehen durch bewusste Investition in Menschen. Durch Führungskulturen, die Tiefe zulassen. Durch Lernumgebungen, die nicht nur Kompetenz im Umgang mit Technologie aufbauen, sondern die genuin menschlichen Stärken schärfen, die Technologie nicht ersetzen kann. Und sie übernehmen Verantwortung für die Konsequenzen ihrer Entscheidungen. Sie verstecken sich nicht hinter dem Passiv. Sie sagen nicht: Jobs werden wegfallen. Sie fragen: Welche Entscheidungen treffen wir, und welche Konsequenzen haben sie für die Menschen in unserer Organisation und in unserer Gesellschaft?

Die Botschaft der großen KI-CEOs lautet im Kern: Das alles ist unvermeidlich. Wir können es nicht aufhalten. Wir können uns nur vorbereiten. Diese Botschaft ist bequem. Sie enthebt von Verantwortung. Sie macht aus Entscheidungen Naturgewalten und aus Architekten Beobachter. Aber sie ist falsch. Und sie ist gefährlich.

Die Frage, ob KI Menschen stärkt oder ersetzt, ist offen. Sie wird entschieden. Gerade jetzt. In Tausenden von Unternehmen, von Tausenden von Führungskräften, durch Tausende von scheinbar kleinen Entscheidungen, die zusammen die Richtung einer ganzen Epoche bestimmen. Wer Verantwortung für diese Entscheidung übernimmt, leistet mehr als gutes Management. Er oder sie gestaltet, ob die mächtigste Technologie unserer Zeit ein Werkzeug menschlicher Entfaltung wird oder ein Mechanismus menschlicher Verdrängung. Das ist keine technische Frage. Es ist eine Frage der Haltung. Und Haltung ist immer eine Entscheidung.