Wie Mensch und KI sich ergänzen

In der digitalisierten Arbeitswelt sind wir bereits in eine neue Stufe eingetreten – ohne dass die ersten Stufen der KI-Evolution schon bei uns allen merkbar angekommen wären. Generative KI – also Künstliche Intelligenz, die etwas scheinbar aus sich selbst heraus hervorbringen kann wie beispielsweise ChatGPT – führt uns vor Augen, dass viele unserer Tätigkeiten von KI übernommen werden könnten. Eine Studie der University of Pennsylvania untersuchte kürzlich, auf welche Jobs sich generative KI am stärksten auswirkt. Danach gehören Buchhalter zu den Berufsgruppen, die am stärksten betroffen sind. Auch Mathematiker, Programmierer, Dolmetscher, Schriftsteller und Journalisten müssten damit rechnen, dass KI zumindest einen Teil ihrer bisherigen Aufgaben übernehmen kann. Rund 80 Prozent der Arbeitnehmer in den USA seien in Berufen tätig, in denen mindestens eine Aufgabe durch generative KI schneller erledigt werden könne. Eine Studie der Investmentbank Goldman Sachs geht zudem davon aus, dass etwa zwei Drittel der derzeitigen Arbeitsplätze KI-Automatisierung ausgesetzt sind. Rechnet man diese Schätzungen auf die ganze Welt hoch, so könnte generative KI rund 300 Millionen Vollzeitarbeitsplätze ersetzen.

Es zeigt sich, dass vor allem verwalterische Tätigkeiten und zusammenfassende Tätigkeiten, die weitgehend aus Routinen bestehen und festen Regeln und Abläufen folgen, von der Automatisierung mittels KI betroffen sein werden, die sogenannten White-Collar-Jobs. Es trifft damit den Mittelbau in Unternehmen und in der Gesellschaft. Schauen wir auf die gängigen Tätigkeiten in der Wissensarbeit, dann besteht dort ein Großteil der Arbeit darin, Zusammenfassungen zu schreiben, Wissen zu sammeln und zu verdichten. Künstliche Intelligenz ist besonders gut darin, etwas zu erkennen, zuzuordnen, zu vergleichen, zu optimieren und zu prognostizieren. Besonders die ersten drei Tätigkeiten sind Teil vieler verwalterischer Prozesse oder dessen, was wir als „Management“ beschreiben. Unternehmen sollten sich also fragen: Wie könnte eine Arbeitsteilung zwischen KI-Systemen und Menschen aussehen, die den jeweiligen Kompetenzen gerecht wird und robuste und nachhaltige Entscheidungen befördert?

Vernetztes Denken und Kontextverständnis

Künstliche Intelligenz ist spezialisiert auf das selbstständige Lernen und Erkennen von Mustern und Korrelationen in großen Datenmengen. Sie kann insbesondere beim sogenannten Un- überwachten Lernen sehr gut Strukturen in Daten selbstständig erkennen und dabei Erkenntnisse fördern, die Menschen so nicht oder nur mit sehr hohem Aufwand hätten erreichen können. KI ist immer dann besonders gut, wenn es klar definierte Fragen und Anwendungsfälle gibt und diese in stabilen Umfeldern angesiedelt sind. KI-Systeme neigen aber auch zu Überoptimierungen und Overfitting. Das bedeutet, dass ihre Ergebnisse und Empfehlungen zwar rechnerisch und statistisch absolut richtig sind – doch leider im gegebenen Kontext keinen Sinn ergeben beziehungsweise keine Lösung für ein Problem zu geben vermögen. Spätestens hier kommt es dann auf das Vernetzte Denken und das Kontextverständnis von Menschen an. Je nach Art einer Aufgabe oder Herausforderung werden unterschiedliche Intelligenzen benötigt. Mechanische, analytische, intuitive und empathische Intelligenz sind die vier gängigen Kategorien hierfür. Für die ersten beiden Kategorien sind KI-Systeme prinzipiell gut geeignet und performant. Für die letzteren beiden nicht oder nur bedingt.

In Umgebungen mit einem hohen Grad an Komplexität ist KI und im Besonderen Maschinelles Lernen am nützlichsten im Einsatz zur Auswertung von großen Datenmengen. Jedoch muss stets Folgendes berücksichtigt werden: Je komplexer ein Modell ist, desto geringer sind die Interpretierbarkeit eingesetzter Verfahren sowie das Verständnis darüber. Deswegen sollten wir gerade in komplexen Fragen und komplexen Umgebungen die Ergebnisse von KI-Systemen stets als Hinweise und Orientierung zur kritischen Überprüfung durch menschliche Ratio und Intuition verstehen und keinesfalls als eindeutige und klare Erkenntnisse oder Handlungsempfehlungen.

Neuronale Netze und Machine Learning basieren auf dem Versuch, das menschliche Gehirn in seiner Funktionsweise nachzubilden. Das gelingt in vielen Bereichen auch gut, in manchen sogar besser, als beim natürlichen Original. Immer dort, wo neuronale Netze auf eine bestimmte Optimierungsaufgabe mit großen Datenmen- gen trainiert worden sind. KI kann besonders gut Muster und Korrelationen erkennen. Genau so funktioniert im Prinzip auch die menschliche Intuition. Erlebnisse, Situationen und Zustände werden mit angelegten Mustern verglichen und zugeordnet. Aus diesen Zuordnungen resultieren Voraussagen, was am besten getan oder wie sich verhalten werden sollte. Ebenso machen KI-Systeme Voraussagen basierend auf erkannten Mustern. Bei KI-Systemen orientieren sich diese Voraussagen stets an rechnerischen Optimalzuständen, die erreicht werden sollen. Bei den Voraussagen der menschlichen Intuition stehen jedoch nicht rechnerische Optimalzustände im Vordergrund, sondern eine einfache und resiliente Lösung für das aktuelle Problem, basierend auf den individuellen Erfahrungen der Person. Intuitive Lösungen sind nicht statistisch und mathematisch optimal oder vollkommen, sie sind einfach, robust und resilient – und damit nachhaltig. Diese entscheidenden Fertigkeiten und Fähigkeiten fehlen also KI-Systemen. Darum müssen solche Aufgaben und Entscheidungen vom Menschen selbst geleistet werden. Dafür muss der Mensch diese Fertigkeiten und Kompetenzen aber bewusst einsetzen und trainieren. Hier gibt es wiederum eine prinzipielle Gemeinsamkeit mit Künstlicher Intelligenz. Denn ein neuronales Netz beispielsweise muss auch trainiert werden. Und es gibt hier gleichzeitig einen Unterschied: Ein KI-Modell wie beispielsweise mit einem neuronalen Netz ist auf eine Aufgabe ausgelegt und wird mit der Menge der Informationen immer besser. Menschen dagegen sind mit einer zunehmenden Informationsflut überfordert. Gleichzeitig ist unsere Erkenntnisleistung aber nicht auf eine Aufgabe beschränkt; wir lernen flexibel und agil. Unser Gehirn verändert sich mit dem, was wir denken und dem, was wir erleben; ein neuronales Netz kann sich nicht strukturell anpassen und sich verändern, indem es beispielsweise aus sich selbst heraus seine Strukturen verändern würde. KI hat keine Plastizität wie das menschliche Gehirn.

Rationalität versus Intuition

Weitere Unterschiede gibt es hier im Zusammenhang mit Kreativität. Künstliche Intelligenz funktioniert nach der Theorie der Rationalität: Abwägen von Alternativen, Wahrscheinlichkeiten und Nutzen. Menschen entscheiden unter Unsicherheit weitgehend anders als Künstliche Intelligenz. Wir entscheiden selektiv und wir entscheiden intuitiv. Doch im Grunde nutzen wir auch hier dasselbe Prinzip. Nur nicht durch numerische Berechnung, sondern durch gesammelte Erfahrung auf Basis von Emotionen. Kreativität und Innovation gehen deshalb nur über Intuition. Der größte Teil der menschlichen Intelligenz ist unbewusst und nicht in Sprache gefasst – also „archaisch“. Kreative Ideen entstehen, wenn wir nicht bewusst darüber nachdenken. Kreativität und innovatives Verstehen entsteht durch andere Perspektiven und ungewohnte Umfelder. Das kann KI nicht leisten. Denn ein KI-Modell kann nicht unterschiedliche Perspektiven zu einer Sache oder Situation einnehmen, schon gar nicht aus eigenem Antrieb oder gar eigenem „Willen“. Weil Künstliche Intelligenz keinen Willen hat. Und Künstliche Intelligenz kann sich auch nicht durch unterschiedliche Umfelder und ungewohnte Umfelder beeinflussen oder inspirieren lassen. Denn dafür fehlt KI-Systemen die menschliche oder biologische Körperlichkeit und damit die viel- schichtige Wahrnehmung der Umwelt, die Menschen bewusst und zum allergrößten Teil unbewusst wahrnehmen und verarbeiten und sich dadurch inspirieren lassen können.

Ein Gegensatz zwischen Ratio und Intuition existiert also nicht. Das eigentliche Problem ist der Zwang zur Rechtfertigung und Begründung in Organisationen und der Gesellschaft, wo mehr oder weniger nur rational begründbare Entscheidungen akzeptiert werden. Dieser Zwang zur Rechtfertigung und rationalen Begründung führt zu defensiven Entscheidungen. Intuitionen werden dann absichtlich ignoriert. Dass diese absichtliche Ignoranz existiert, hängt mit Risikoaversion von Menschen zusammen und kann als Vermeidung von vorweggenommenem Bedauern erklärt werden. Dadurch werden oft falsche und kurzfristig scheinbar optimale Entscheidungen getroffen, die mittel- und langfristig aber weder robust, noch resilient und auch nicht nachhaltig sind. KI-Anwendungen befördern diese Tendenz zur absichtlichen Ignoranz und zu defensiven Entscheidungen. Denn Ergebnisse und Empfehlungen der KI sind immer datenbasiert, statistisch abgesichert und logisch begründbar. Doch: Robuste, resiliente und nachhaltige Entscheidungen können nur mit, niemals gegen die menschliche Intuition getroffen werden.

Bei Entscheidungen geht es meist um Regressionen und Vorhersagen. Diese sind, wie beschrieben, die Leistungsfelder von Künstlicher Intelligenz. KI ist genau dort gut und schnell und effektiv, wo das menschliche langsame Denken schnell überfordert ist. Deswegen wird Verantwortung und Begründung gerne an KI-Systeme delegiert. Das hat zwei „Vorteile“: 1. Maschinen haben im Zwei- fel keine Handlungsblockaden, wie wir (verwirrten) Menschen. Sie exekutieren einfach, sobald die statistische Belastbarkeit der Daten einen kritischen Schwellenwert übersteigt. 2. Menschen müssen keine Verantwortung mehr für schwer oder letztlich nicht objektiv begründbare Entscheidungen übernehmen. Gerade in komplexen Situationen, wenn es um die Einordnung einer Analyse- und Optimierungsaufgabe in einen Kontext geht und wenn es darauf ankommt, in Kreisläufen und Zyklen zu denken und zu entscheiden, können wir uns aber eben nicht auf KI-Systeme allein verlassen und die Verantwortung scheinbar dorthin wegdelegieren. Hier müssen Menschen die persönliche Robustheit aufbringen, zu ihren intuitiven Kompetenzen zu stehen.

Wo menschliche Intuition punktet

Deswegen vertrete ich die These, dass Intuition als Kompetenz ein notwendiger Beitrag für Nachhaltigkeit in Entscheidungen und Strategien ist. Die Kriterien sind dabei folgende:

  • Langfristigkeit: Menschliche Intuition ist besonders gut, wenn es darum geht, langfristige Entscheidungen zu treffen und langfristige Folgen abzuschätzen.
  • Komplexität: Fragen und Herausforderungen der Nachhaltigkeit sind immer komplex. Und gerade die menschliche Intuition ist sehr gut geeignet, komplexe Szenarien zu erfassen, einzuordnen und so weit zu verstehen, dass Entscheidungen möglich sind, ohne überfordert zu werden und zudem auch in angemessener Zeit zu entscheiden.
  • Zusammenhänge: Es gibt nicht selten Zusammenhänge, die in mathematischen Modellen oder KI-Modellen gar nicht abgebildet werden können oder die in der Analyse gar nicht erkannt werden, weil es keine mathematischen und statistischen Korrelationen oder Muster signifikanten Ausmaßes gibt.
  • Kreisläufe: Ein Wesenselement der Nachhaltigkeit ist der Kreislauf von Dingen. Dieses natürliche Prinzip begegnet uns auf den kleinsten Ebenen des Lebens bis hin zum Universum selbst. Ohne ein Verständnis von und ein Gefühl für Kreisläufe, kann keine Nachhaltigkeit verstanden und beurteilt werden. Intuition ist selbst ein Prozess-Kreislauf im menschlichen Lernen und im unbewussten Denken.
  • Körperliche Wahrnehmung: Die Körperlichkeit und alle damit verbundenen Wahrnehmungen und Verknüpfungen unterscheiden den Menschen als Informationen verarbeitendes biologisches System von Maschinen und KI-Modellen. Somit kann bei Menschen ein umfassendes und vielschichtiges Verständnis von Nachhaltigkeit entstehen, das für Maschinen und Modelle nicht erreichbar oder nachbildbar ist.
  • Empathie und Verständnis: Sehr Ähnliches gilt auch für das Verständnis und die nonverbale und unbewusste Kommunikation zwischen Menschen und zwischen Menschen und anderen Lebewesen. Empathie ist eine Fähigkeit, die ebenfalls den Menschen von Maschinen und KI-Systemen unterscheidet. Diese Technologien können sich nicht in andere Lebewesen hineinversetzen und deren Sichtweisen und Einstellungen zumindest grundsätzlich nachempfinden.
  • Flexibilität und Veränderlichkeit: Das Denken von Menschen, die Ansichten und Überzeugungen, selbst die Beschaffenheit und die Strukturen des menschlichen Gehirns sind flexibel und veränderlich. Diese Charakteristika lassen sich für Maschinen und Systeme in dem Maße nicht bestätigen. Wenn es um Nachhaltigkeit geht, so sind Flexibilität und Veränderbarkeit ebenfalls typisch und wesensinhärent. Nur Systeme, die sich anpassen und grundsätzlich flexibel sind, sind auch robust, resilient und nachhaltig.
  • Innovativ und kreativ: Nachhaltigkeit bedeutet nicht die unbedingte Bewahrung des Status Quo. Vielmehr geht es darum, sich veränderten Umständen anzupassen und Herausforderungen verschiedenster Art besser zu meistern als bisher. Kreativität ist hierfür eine unabdingbare Kompetenz. Beides – Innovativität und Kreativität – sind menschliche Domänen, die zum größten Teil nicht dem rationalen und in Sprache gefassten Denken entspringen, sondern die sich auf intuitives Wissen und intuitives Erkennen stützen.

Bei all den beschriebenen Gemeinsamkeiten und Unterschieden von KI und Intuition im Management, wird eine Erkenntnis deutlich: Mensch und Maschine sollten in ihren ganz eigenen „Domänen“ trainieren. Künstliche Intelligenz in der Domäne „Optimierung und Automatisierung“. Menschen in der Domäne „Flexibilität und ganzheitliches Denken“. Bei welchen Entscheidungen sollten wir auf Künstliche Intelligenz vertrauen und wann auf menschliche Intuition?