Direkt zum Inhalt wechseln

Künstliche Intelligenz (KI) entscheidet nicht, aber sie bestimmt immer häufiger, welche Optionen uns zur Auswahl stehen. Unternehmen – und gerade Führungspersonen – stehen vor der Herausforderung, maschinell vorbereitete Entscheidungen zu prüfen, zu verstehen und letztlich zu verantworten. Das erfordert einen fundamentalen Wandel in Führungsstruktur, Governance und Organisationskultur. Ohne strukturelle interne Reformen und eine kritische Reflexion der Rolle von KI in Entscheidungsprozessen drohen nicht nur Fehlentscheidungen, sondern auch neue Haftungsrisiken.

KI als neue Realitätsinstanz in Entscheidungsprozessen

Künstliche Intelligenz verändert die Art, wie Entscheidungen in Unternehmen vorbereitet und getroffen werden. Während KI früher als reines Tool zur Datenverarbeitung galt, ist sie heute integraler Bestandteil von Prozessen der Analyse, Prognose, Priorisierung und Empfehlung. Die klassische Entscheidungslogik – Analyse, Bewertung, Entscheidung – wird dabei aufgebrochen. KI analysiert und bewertet; der Mensch bleibt formal Entscheidungsinstanz, hat aber die Inhalte nicht mehr selbst erzeugt. Diese Rollenverschiebung bringt weitreichende Folgen für Verantwortung, Haftung und Struktur mit sich.

 

Diese Entwicklung ist nicht rein technologischer Natur. Vielmehr zwingt sie Organisationen dazu, ihre Entscheidungs- und Führungsmechanismen zu überdenken. Die Herausforderung liegt nicht nur in der Integration neuer Tools, sondern vor allem im Aufbau einer neuen Kultur der Verantwortung: Entscheidungen müssen nachvollziehbar, begründet und überprüfbar bleiben – auch dann, wenn sie auf maschinellen Vorlagen beruhen.

 

Die neue Verantwortung: Zwischen Kontrolle und Entlastung

Die Effizienzgewinne durch KI sind unbestritten. Systeme sind in der Lage, riesige Datenmengen in Sekunden zu verarbeiten und auf dieser Basis Handlungsempfehlungen abzuleiten. Doch was passiert, wenn diese Vorschläge ungeprüft übernommen werden, jedoch fehlerhaft oder ungenügend sind? Die Verantwortung für die Entscheidung bleibt beim Menschen – insbesondere bei den Führungskräften, die ihren Mitarbeitenden den Einsatz von KI erlauben oder empfehlen.

Diese neue Verantwortung ist nicht nur komplexer, sie ist diffuser, risikobehafteter und rechtlich anspruchsvoller: Führungspersonen müssen nicht nur Ergebnisse prüfen, sondern die Entstehung der Entscheidungsgrundlagen verstehen. Welche Daten wurden verwendet? Welche Annahmen liegen dem Modell zugrunde? Wo liegen dessen Grenzen? Diese Fragen sind entscheidend – nicht zuletzt auch in haftungsrechtlicher Hinsicht. Denn auch wenn der Einsatz von KI betriebsintern freigegeben oder systemisch eingebunden ist, kann eine Führungskraft im Fall fehlerhafter Entscheidungen persönlich zur Verantwortung gezogen werden, sei es im Rahmen der aktienrechtlichen Sorgfaltspflicht (z.B. Art. 717 OR) oder im Zusammenhang mit aufsichtsrechtlichen Pflichten. Denn formell korrekte Entscheidungen können inhaltlich fehlerhaft sein, wenn sie auf falschen oder nicht überprüften Modellannahmen beruhen. Dabei wiegt es besonders schwer, wenn ein Unternehmen keine hinreichenden Prüf- und Kontrollmechanismen implementiert hat, um KI-generierte Ergebnisse zu hinterfragen. In der Praxis kann dies nicht nur zu Haftungsfragen gegenüber der eigenen Organisation führen, sondern auch gegenüber Dritten, etwa bei diskriminierenden oder irreführenden Resultaten in KI-gestützten Personal-, Kredit- oder Marketingentscheidungen.

Zudem müssen Organisationen der Versuchung widerstehen, Verantwortung implizit an die Technik zu delegieren. Auch wenn die Entscheidungsvorbereitung automatisiert ist, bleibt der Mensch haftbar. Mit zunehmender Komplexität der Systeme wächst die Gefahr, dass Führungskräfte die vorgeschlagenen Entscheidungsoptionen nicht mehr eigenständig bewerten können – ein Zustand, der im Haftungsfall nicht als Entschuldigung, sondern als Organisationsverschulden gewertet werden kann. Hier besteht ein akutes Risiko: Je komplexer und leistungsfähiger die Systeme, desto schwieriger wird es für die Entscheidungsträger, die Grundlagen der vorgeschlagenen Optionen zu durchdringen.

 

Die neue Geschwindigkeit: Wenn KI schneller ist als die Organisation

KI-Systeme liefern Ergebnisse in Echtzeit, Unternehmen hingegen operieren in Entscheidungszyklen, die durch rechtliche Prüfungen, interne Rückkopplungen und Kontrollmechanismen geprägt sind: KI denkt in Sekunden, Organisationen in Wochen. Diese zeitliche Asynchronität bringt Entscheidungsprozesse ins Stocken. Während die Technik rasch eine Entscheidungsgrundlage liefert, braucht es Zeit, um diese kritisch zu hinterfragen, zu kontextualisieren und organisatorisch abzustimmen.

Diese Diskrepanz führt in der Praxis häufig zu Spannungen: Auf der einen Seite steht die Erwartung an schnelle, datengetriebene Prozesse, auf der anderen Seite klassische Entscheidungswege, die auf Konsens, Kontrolle und Hierarchie setzen. Die Folge sind ineffiziente Umsetzungen, stockende Prozesse oder ein blindes Vertrauen in die Technik – beides ist gefährlich.

 

Die neue Struktur: Entstehung einer Zwischenebene der «Zone der Verantwortung»

Zwischen der KI-generierten Vorentscheidung und der menschlichen Entscheidung entsteht ein neuer Zwischenraum: eine neue Zwischenebene zwischen Analyse und Entscheidung – die sogenannte „Zone der Verantwortung“. In ihr müssen Ergebnisse geprüft, eingeordnet und ggf. angepasst werden. Diese Zone ist bislang in nicht sehr vielen Unternehmen organisatorisch verankert. Es fehlen klare Zuständigkeiten, Entscheidungslogiken und verbindliche Prozesse.

Führung im KI-Zeitalter bedeutet, diese Zone aktiv zu gestalten – durch definierte Rollen, strukturierte Governance-Prozesse und eine neue Fehlerkultur, die menschliches Nachdenken nicht durch technisches Vertrauen ersetzt, sondern ergänzt.

Diese neue Zone stellt nicht nur einen organisationalen, sondern auch einen kulturellen Paradigmenwechsel dar. Sie verlangt von Führungskräften eine verstärkte Reflexionsbereitschaft, von Mitarbeitenden eine höhere Eigenverantwortung und von der Organisation eine neue Agilität in Entscheidungsprozessen.

 

Die Illusion der Objektivität: Warum KI nicht neutral ist

Ein häufiges Missverständnis ist die Annahme, KI sei neutral, objektiv oder gar unfehlbar. Tatsächlich sind KI-Modelle probabilistische Systeme, die auf Trainingsdaten und menschlich gesetzten Parametern beruhen. Sie können nicht erklären, warum sie zu einem bestimmten Ergebnis kommen, sie berechnen lediglich Wahrscheinlichkeiten. Wer diese Resultate ungeprüft übernimmt, begeht einen fundamentalen Kategorienfehler.

Zudem besteht die Gefahr, dass durch diese vermeintliche Objektivität eine neue Intransparenz entsteht: Entscheidungen, die auf KI beruhen, wirken faktisch alternativlos – sie sind datenbasiert, scheinbar logisch und effizient. Doch gerade hier ist kritisches Denken gefragt: Welche Datenbasis liegt vor? Welche Verzerrungen sind möglich? Welche Werte werden durch das Modell implizit priorisiert?

 

Warum KI-Projekte oftmals scheitern: Die organisatorische Kluft

Die Praxis zeigt: KI-Projekte scheitern selten an der Technik. Vielmehr liegt das Problem in der Kluft zwischen technologischer Möglichkeit und organisationaler Realität, nämlich:

  • unklare Verantwortlichkeiten
  • starre Hierarchien
  • Silo-Denken
  • langsame Entscheidungswege
  • mangelnde Awareness

Diese Faktoren führen dazu, dass KI-Empfehlungen nicht effektiv genutzt oder gar vollständig ignoriert werden. In vielen Fällen führt das sogar zu einem Rückschritt – etwa, wenn Mitarbeitende sich durch die Technologie entmündigt fühlen und sich aus der Verantwortung zurückziehen.

Hier sind insbesondere Governance-Strukturen gefragt, die Geschwindigkeit mit Verantwortung verbinden: Klare Eskalationsmechanismen, definierte Zuständigkeiten, transparente Entscheidungsprotokolle und ein Verständnis für die Grenzen der Technologie sind unerlässlich, um KI sinnvoll in Unternehmensstrukturen zu integrieren.

 

Was Führung jetzt braucht

Um Organisationen KI-fähig zu machen, braucht es einen Paradigmenwechsel:

Für Führungskräfte bedeutet dies:

  • Übernahme der Gesamtverantwortung für den Entscheidungsweg
  • Verständnis für die Grenzen der Modelle
  • Fähigkeit, auch gegen KI-Empfehlungen zu entscheiden
  • Aufbau transparenter Governance- und Prüfmechanismen
  • Schulung im Bereich KI-Ethik und Risikomanagement

Für Mitarbeitende bedeutet dies:

  • Schulung in Bezug auf KI-Kompetenz und Datenverantwortung
  • Mut, Empfehlungen zu hinterfragen
  • Klare Regeln im Umgang mit KI-Systemen (Data Governance, Einsatzgrenzen)
  • Förderung einer Fehler- und Verantwortungskultur

Für Organisationen:

  • Definition von Zuständigkeiten für KI-basierte Entscheidungen
  • Schaffung von Eskalations- und Prüfstrukturen
  • Integration der „Zone der Verantwortung“ in die Aufbau- und Ablauforganisation
  • Förderung einer aktiven, kritischen Entscheidungskultur
  • Entwicklung interdisziplinärer Teams mit juristischer, technischer und ethischer Expertise

 

Fazit: Die Zukunft gehört der reflektierten Verantwortung

Künstliche Intelligenz bietet enorme Chancen – vorausgesetzt, sie wird nicht als Ersatz, sondern als Erweiterung menschlicher Entscheidungsfähigkeit verstanden. Der entscheidende Erfolgsfaktor ist nicht die Leistungsfähigkeit der Technologie, sondern die Fähigkeit von Organisationen, Verantwortung für maschinell vorbereitete Entscheidungen zu übernehmen.

Wer seine Führungsstruktur, Governance-Prozesse und Organisationskultur entsprechend anpasst, wird nicht nur schneller, sondern auch verantwortungsbewusster und resilienter entscheiden – ein zentraler Wettbewerbsvorteil im digitalen Zeitalter.

Oder wie es treffend heisst: Die Frage ist nicht, was KI kann. Sondern: Wer die Verantwortung für eine unternehmens- und interessengerechte Nutzung übernimmt.

 

Das Team von HÄRTING Rechtsanwälte unterstützt Sie gerne bei der rechtssicheren Einführung und Überprüfung von KI-Anwendungen sowie bei der Ausgestaltung klarer Verantwortlichkeitsstrukturen. Kontaktieren Sie uns gerne, wenn Sie dazu Fragen haben.