Das jüngste Urteil des Bundesgerichts über digital manipulierte Inhalte zeigt: Künstliche Intelligenz ist keine rechtliche Blackbox – Fehler können erhebliche rechtliche Konsequenzen haben. Für diejenigen, die KI strategisch einsetzen, bedeutet das nicht nur, Chancen dieser neuen Technologie zu nutzen, sondern aktiv Risiken zu steuern und Verantwortlichkeiten klar zu verankern. Wir zeigen in diesem Beitrag auf, wo die rechtlichen Grenzen liegen, welche Fehler vermieden werden müssen und wie verantwortungsvolle KI‑Governance in der Praxis gelingt.
Ein realistischer Blick auf KI‑Risiken: Wenn aus Innovation ein Haftungsfall wird
Künstliche Intelligenz (KI) ist längst im Alltag von uns allen angekommen. In Unternehmen wird sie genutzt, um Inhalte zu erstellen, Prozesse zu automatisieren, Kundeninteraktionen zu personalisieren oder strategische Entscheidungen zu unterstützen. Privatpersonen nutzen sie ebenso vermehrt, um Content zu produzieren. Doch gerade generative KI‑Modelle, die Texte, Bilder oder Videos produzieren, bergen über ihre Innovationskraft hinaus auch rechtliche Risiken und Verantwortlichkeitsfragen, die weit über technische Fehlfunktionen hinausgehen. Das wird in zugespitzter Form an einem aktuellen Entscheid des Schweizer Bundesgerichts vom November 2025 deutlich: In diesem Fall wurden real erzeugte Inhalte mittels eines KI‑Tools so manipuliert, dass eine volljährige Porno-Darstellerin wie eine Minderjährige erschien. Das Video wurde erzeugt, um es in den sozialen Medien zu veröffentlichen und durch die Manipulation eine offensichtlich weitere Reichweite zu erzielen. Diese Manipulation war nach Ansicht des Gerichts nicht nur ethisch problematisch, sondern auch strafbar. Der Beschuldigte wurde in der Folge wegen sog. harter Pornografie (Kinderpornografie) verurteilt (vgl. Urteil 6B_122/2024).
Im Zentrum des zitierten Urteils steht der Begriff der ‚nicht tatsächlichen sexuellen Handlung mit Minderjährigen‘ im Sinne von Art. 197 Abs. 4 des Schweizerischen Strafgesetzbuches (StGB). Darunter versteht das Gesetz Darstellungen, in denen Minderjährige nicht real an sexuellen Handlungen beteiligt sind, sondern diese Handlungen mittels gestalterischer oder elektronischer Mittel künstlich erzeugt wurden. Dazu zählen insbesondere Zeichnungen, Animationen, Comics, Cartoons oder computergenerierte Bilder. Solche Inhalte gelten als ‚virtueller Kindsmissbrauch‘ und werden ausdrücklich von der Variante mit real beteiligten Minderjährigen abgegrenzt – mit entsprechenden deutlichen Unterschieden beim Strafrahmen.
Durch den Einsatz von KI-Technologie wird diese Kategorie nun nach dem Urteil des Gerichts auch für real erzeugte, jedoch mittels KI manipulierte Inhalte, erweitert: Auch Inhalte, bei denen reale Darsteller:innen durch digitale Verjüngung wie Minderjährige erscheinen, fallen nach Auffassung des Bundesgerichts neu unter die Strafnorm. Die technische Verfremdung ändert nichts an der Wirkung der Darstellung, da für Aussenstehende nicht erkennbar ist, ob es sich um reale oder künstlich erzeugte Minderjährige handelt. Entscheidend ist der Eindruck, den das Ergebnis vermittelt – und nicht, ob die Darstellung auf realen Personen basiert.
Damit macht das Bundesgericht klar: KI-generierte oder KI-manipulierte Inhalte können strafrechtlich genauso relevant sein wie vollständig computergenerierte Darstellungen, insbesondere dann, wenn sie die Schutzgüter der Strafnorm umgehen oder verschleiern könnten. Die rechtliche Bewertung von KI‑Outputs ist unabdingbar, und die Verantwortung dafür liegt nicht bei der Technologie, sondern bei den Menschen und Organisationen, die sie nutzen oder verbreiten.
Warum dieses Urteil zum Umdenken zwingen sollte
Das Bundesgerichtsurteil ist kein Einzelfall im juristischen Diskurs über KI‑Technologien. Es verdeutlicht, dass KI‑Inhalte nicht automatisch harmlos sind oder als solche angesehen werden können, nur weil sie computererzeugt sind. Im Gegenteil: KI‑Outputs können rechtlich relevant werden, etwa wenn sie Persönlichkeitsrechte verletzen, diskriminierende Aussagen generieren, Urheberrechte tangieren oder in diesem Fall sexuelle Darstellungen in problematischer Weise manipulieren. Für Nutzer von KI bedeutet dies, dass die Verantwortung nicht mehr allein beim Anbieter der Technologie liegt, sondern jeder, der KI‑Systeme einsetzt, Inhalte freigibt oder verbreitet, sich mit den rechtlichen Konsequenzen auseinandersetzen muss.
Dabei geht es nicht nur um Strafbarkeit einzelner Inhalte, sondern um eine grundlegende Verschiebung der Verantwortungsstruktur im Gesamtkontext: Nutzer können sich nicht darauf berufen, dass KI‑Systeme automatisch rechtlich „saubere“ (oder im besten Fall harmlose) Ergebnisse liefern, oder die Ergebnisse, da sie künstlich erzeugt wurden, keine Realitätsrelevanz haben. Vielmehr gilt es – auch und gerade in Unternehmen – intern Regeln zu schaffen, Kontrollen einzuführen und rechtliche Prüfungen vor und nach dem Einsatz zu implementieren.
Rechtlicher Rahmen: Was Unternehmen beachten müssen
Auch wenn die Schweiz derzeit keine eigenständige KI‑Gesetzgebung hat, ist der rechtliche Rahmen nicht „leer“. Schweizer Unternehmen unterliegen weiterhin einer Vielzahl von bestehenden rechtlichen Verpflichtungen, die im Zusammenhang mit KI relevant werden können – etwa im Datenschutz, im Persönlichkeits‑ und Wettbewerbsrecht, aber auch im Haftungs‑ und Vertragsrecht. Aus haftungsrechtlicher Sicht wird zunehmend zwischen Fachleuten argumentiert, dass Unternehmen für vorhersehbare Fehlleistungen ihrer eingesetzten KI-Systeme einstehen müssen – analog zur Produkthaftung oder mangelhaften automatisierten Dienstleistungen.
Gleichzeitig beeinflussen internationale Regelungen wie der EU Artificial Intelligence Act (AI Act) zunehmend die Praxis, weil sie für Unternehmen gelten können, die in der EU tätig sind oder Inhalte in den EU‑Markt bringen. Der AI Act verfolgt einen risikobasierten Ansatz, bei dem je nach Anwendung Risikoanalysen, Transparenzanforderungen und Nachweise über Sicherheits‑ und Governance‑Prozesse erforderlich sind – und zwar bereits bevor KI‑Systeme produktiv genutzt werden. Unternehmen, die KI einsetzen – sogenannte „Deployers“ im Sinne des AI Act – unterliegen Pflichten zur Risikoeinschätzung, Dokumentation und menschlicher Überwachung von KI-Entscheidungen. Sie müssen klassifizieren, ob ihre KI‑Anwendung als „niedriges“, „begrenztes“ oder „hohes Risiko“ einzustufen ist, und entsprechende Compliance‑Prozesse etablieren. Diese Vorgaben gelten nicht nur für Anbieter von KI‑Software, sondern auch für Organisationen, die generative oder assistive KI einsetzen, weil sie Inhalte erzeugen oder Entscheidungen unterstützen.
Darüber hinaus rücken auch Datenschutz‑ und Persönlichkeitsrechte in den Mittelpunkt, wenn KI personenbezogene Daten verarbeitet oder Ergebnisse erzeugt, die Rückschlüsse auf natürliche Personen zulassen. Datenherkunft, Zweckbindung, Minimierung und Transparenz sind hierbei zentrale Prinzipien.
Die neue Realität: Verantwortung beginnt vor dem Klick
Für Unternehmen bedeutet die rechtliche Bewertung von KI‑Outputs mehr als technisches Monitoring. Es bedeutet:
- Verantwortungszuschreibung: Festlegung, wer im Unternehmen für die Auswahl, den Einsatz und die Freigabe von KI‑Systemen verantwortlich ist.
- Qualifikation und Schulung: Mitarbeitende müssen verstehen, wo rechtliche Risiken liegen, wie KI‑Services arbeiten und welche Inhalte heikel sind.
- Interne Prüfprozesse: Bevor Ergebnisse aus KI‑Tools veröffentlicht, automatisiert versendet oder extern genutzt werden, müssen sie rechtlich geprüft und freigegeben
- Dokumentation: Compliance‑ und Audit‑Nachweise über Entscheidungsprozesse, Risikoeinschätzungen und Validierungen sollten systematisch erfasst werden.
- Einsatzgrenzen definieren: Nicht jede KI‑Anwendung ist für alle Unternehmensbereiche geeignet; insbesondere bei sensiblen Inhalten sollte KI nur unter strikter Kontrolle eingesetzt werden.
Dies bedeutet in der Praxis, dass Unternehmen KI nicht wie ein „Software‑Tool ohne Risiko“ behandeln dürfen, sondern als ein strategisches System, dessen Outputs rechtliche Konsequenzen haben können – vergleichbar mit Werbung, Markenkommunikation oder juristischen Dokumenten, die ebenfalls geprüft und freigegeben werden müssen.
Konkrete Risiken und Haftungsfallen
Die Palette der Risiken bei KI‑Nutzung ist breit: Neben straf‑ oder zivilrechtlich relevanten Inhalten können auch Datenschutzverletzungen, Urheberrechtsverletzungen, Diskriminierung durch algorithmische Voreingenommenheit (Bias), fehlerhafte Entscheidungsvorlagen oder unklare Verantwortlichkeiten entstehen. So zeigen Beispiele aus anderen Rechtsordnungen, dass KI‑Unternehmen wegen mangelnder Datensicherung oder fehlender Altersverifizierung hohe Bussgelder zahlen mussten, wenn persönliche Daten betroffen waren oder Minderjährige ungeschützt Inhalte nutzen konnten.
Ein weiterer zentraler Bereich ist das Urheber‑ und Eigentumsrecht: Generative KI‑Modelle basieren auf Trainingsdaten, die aus urheberrechtlich geschützten Werken stammen können, und die rechtliche Einordnung der Outputs ist komplex und in vielen Rechtsordnungen noch nicht abschliessend geklärt.
Praxisorientierte Empfehlungen für Unternehmen
- KI‑Governance einführen: Eine klare KI‑Governance sollte Rollen, Verantwortlichkeiten und Entscheidungsprozesse innerhalb des Unternehmens festlegen.
- Risikobasierte KI‑Policy entwickeln: Abhängig vom Einsatzgebiet sollten Unternehmen definieren, welche Anwendungen zulässig sind, und welche zusätzliche Prüfprozesse erfordern.
- Transparenz und Dokumentation: KI‑Outputs sollten gekennzeichnet werden, und alle rechtlichen Prüfungen müssen dokumentiert werden, um Nachvollziehbarkeit und Haftungsnachweise zu sichern.
- Rechtliche Begleitung: Gerade bei sensiblen Inhalten oder externen Veröffentlichungen sollte eine rechtliche Risikoprüfung durch Experten erfolgen – idealerweise bevor die KI eingesetzt wird.
- Schulungen und Awareness: Mitarbeitende auf allen Ebenen müssen die Risiken und Grenzen von KI‑Tools kennen und verstehen, dass die Verantwortung nicht auf die Technologie abgewälzt werden kann.
Fazit: Verantwortung ist kein „Add‑on“, sondern Kernaufgabe
Die zunehmend breite Nutzung von KI im Unternehmensalltag ist nicht bloss ein technologischer Trend, sondern ein strategischer und rechtlicher Imperativ. Der Blick auf das aktuelles Bundesgerichtsurteil macht deutlich: KI‑Fehler sind keine abstrakten Risiken mehr, sondern echte Haftungs‑ und Compliance‑Fälle. KI-Governance ist keine Aufgabe allein der IT, sie gehört in die Verantwortung der Geschäftsleitung, der Rechtsabteilung und der Fachabteilungen, die KI aktiv nutzen oder beauftragen.
Unternehmen müssen daher KI‑Governance ernst nehmen, Verantwortlichkeiten klar zuweisen und Prozesse schaffen, die sicherstellen, dass KI‑Outputs nicht nur technisch korrekt, sondern auch rechtlich zulässig sind. Nur so wird Innovation nicht zum Haftungsrisiko, sondern zur nachhaltigen Chance im digitalen Wettbewerb.
Haben Sie Fragen zur Einführung eines neuen KI-Tools oder möchten Sie ein KI-Assessment durchführen lassen? Unsere Experten helfen Ihnen gerne dabei und stellen so sicher, dass KI ihr Potenzial entfalten kann – ohne rechtliche Risiken.