Was bislang an aufwendige Studien und Jahre (wenn nicht sogar Jahrzehnte) lange Forschungsarbeit geknüpft war, ist nun innert sehr kurzer Zeit Realität geworden: Eine Künstliche Intelligenz (KI) hat eigenständig ein neues Antibiotikum gegen multiresistente Keime entwickelt, ganz ohne menschliche Hilfe und lange klinische Studien. Das mediale Echo in der medizinischen Forschung war entsprechend gross. Kommt nun der Wendepunkt in der Forschung?
Medizinischer Durchbruch mit juristischem Nachholbedarf
Das Massachusetts Institute of Technology (MIT) berichtete in seinem News-Blog vom 14. August 2025 über einen medizinischen Durchbruch, der weltweit für Aufsehen sorgte: Forschende haben mithilfe generativer KI neue Wirkstoffe gegen antibiotikaresistente Erreger wie MRSA (multi-drug-resistant Staphylococcus aureus) oder Gonorrhoe identifiziert. Erste Tests an Mausmodellen zeigen eine bemerkenswerte Wirksamkeit – ein Hoffnungsschimmer in einem Forschungsfeld, das in den letzten Jahrzehnten nur schleppende Fortschritte verzeichnete und immer wieder herbe Rückschläge hinnehmen musste.
So erfreulich dieser technologische Durchbruch ist, wirft er zugleich grundlegende rechtliche Fragen auf. Was bedeutet das für die Arzneimittelzulassung, den Patentschutz, den Datenschutz und die Bioethik? Dieser Beitrag beleuchtet diese Fragestellungen näher.
Zulassung neuer Arzneimittel – KI als „Black Box“ im regulatorischen Verfahren?
Die Geschwindigkeit, mit der neue Technologien in die Praxis gelangen, steht im – teils krassen – Kontrast zur Trägheit bestehender Verfahren und rechtlicher Strukturen. Sowohl das europäische (EU-Verordnung 536/2014) als auch das schweizerische Arzneimittelrecht (insbesondere das Bundesgesetz über Arzneimittel und Medizinprodukte (Heilmittelgesetz, HMG, SR 812.21, sowie die dazugehörigen Verordnungen, insbesondere die Verordnung des Schweizerischen Heilmittelinstituts über die vereinfachte Zulassung von Arzneimitteln und die Zulassung von Arzneimitteln im Meldeverfahren (VAZV, SR 812.212.23)) sehen ein mehrstufiges Zulassungsverfahren vor. Neuartige Wirkstoffe müssen umfangreiche präklinische und klinische Studien durchlaufen, die eine abschliessende Bewertung durch die zuständigen Behörden wie die Europäische Arzneimittelagentur (EMA) oder die Schweizerische Zulassungs- und Kontrollbehörde für Arzneimittel und Medizinprodukte (Swissmedic) zulassen, bevor eine Marktzulassung erfolgt.
Wenn neue Wirkstoffe nicht durch klassische Laborforschung, sondern durch KI-Systeme wie Deep-Learning-Algorithmen oder generative Modelle entwickelt werden, wirft das eine Reihe von Fragen auf, denn viele dieser Systeme operieren als sogenannte „Black Boxes“:
- Validierung von KI-Modellen: Wie wird die Nachvollziehbarkeit der Ergebnisse sichergestellt?
Die KI-Systeme liefern Ergebnisse, ohne dass sich der Weg dorthin im Detail nachvollziehen lässt. Für Behörden bedeutet das eine erhebliche Herausforderung, denn Transparenz, Reproduzierbarkeit und Nachvollziehbarkeit sind zentrale Kriterien in einem Zulassungsverfahren. Doch genau diese Eigenschaften sind bei vielen KI-Systemen nicht gewährleistet.
- Verantwortlichkeit: Wer haftet für fehlerhafte Ergebnisse der KI? Entwickler, Betreiber oder Nutzer?
Bei der Entwicklung eines so wichtigen Medikaments wie Antibiotika muss die Verantwortlichkeitsfrage klar feststehen. Doch derzeit fehlen diesbezüglich Regelungen.
- Regulatorische Lücken: Die EMA und Swissmedic haben bisher keine spezifischen Vorgaben für KI-generierte Moleküle formuliert.
Ohne erklärbare KI (sog. „explainable AI“) droht eine regulatorische Sackgasse: Fehlende Entscheidungsgrundlagen könnten dazu führen, dass Zulassungsverfahren verzögert, ausgesetzt oder rechtlich angefochten werden. Um dies zu verhindern, müssen regulatorische Leitlinien angepasst und technische Mindeststandards für erklärbare KI-Modelle eingeführt werden. Das Verständnis der Funktionsweise einer KI ist dafür unabdingbare Voraussetzung.
Patentrechtliche Fragestellungen – Wer ist der Erfinder?
Ein weiteres zentrales Spannungsfeld ergibt sich im Patentrecht. Gemäss dem Europäischen Patentübereinkommen (EPC) und dem Bundesgesetz über die Erfindungspatente (Patentgesetz, PatG, SR 232.14) kann nur eine natürliche Person als Erfinder gelten. Diese Position wurde vom Europäischen Patentamt in der Entscheidung J 8/20 ausdrücklich bestätigt. Das bestätigt, dass eine KI kein Erfinder sein kann, selbst wenn sie den schöpferischen Prozess eigenständig durchläuft. Die Erfindereigenschaft wäre notwendigerweise auf denjenigen beschränkt, der die KI einsetzt.
Doch diese Haltung wirft Fragen auf. Was geschieht, wenn der kreative Beitrag eines Menschen auf die blosse Bedienung der KI beschränkt ist, während die eigentliche schöpferische Leistung – etwa die Neukombination molekularer Strukturen – durch die Maschine erfolgt? Ist in solchen Fällen der Nutzer der KI tatsächlich der rechtmässige Erfinder? Und genügt das Ergebnis maschineller Kombination überhaupt den Anforderungen an einen „erfinderischen Schritt“ im Sinne der Patentfähigkeit? Nach der bisherigen Rechtslage dürfte dies zu verneinen sein.
Besonders brisant wird diese Frage zudem, wenn KI-Modelle auf umfangreichen Datenbanken trainiert werden, die urheberrechtlich geschützte wissenschaftliche Studien oder proprietäre chemische Daten enthalten. Hier kann es zu Kollisionen zwischen Patentrecht und Urheberrecht kommen: Ist ein auf solchen Daten basierender Wirkstoff überhaupt patentfähig, wenn die zugrunde liegenden Informationen nicht frei verfügbar waren? Unternehmen müssen damit rechnen, dass Dritte ihre (rechtlich geschützten) Schutzrechte geltend machen, wenn KI-generierte Ergebnisse auf deren proprietären Datensätzen beruhen.
All diese Unklarheiten machen deutlich: Unternehmen, die mit KI-generierten Wirkstoffen arbeiten, sollten frühzeitig klare Zuständigkeiten festlegen und ihre Patentstrategien anpassen. Dazu gehört auch die genaue Dokumentation der Rollen aller Beteiligten im Innovationsprozess. Denn wer als Erfinder gilt, hat nicht nur Rechte, sondern auch Pflichten und Haftungsrisiken.
Datenschutzrechtliche Herausforderungen – Wenn Daten der Treibstoff der KI sind
KI-gestützte Forschung lebt von riesigen Datenmengen. Im medizinischen Kontext handelt es sich dabei regelmässig um besonders schützenswerte Personendaten gemäss Art. 5 lit. c des Bundesgesetzes über den Datenschutz (Datenschutzgesetz, DSG, SR 235.1). Ihre Verarbeitung ist nur unter strengen Voraussetzungen erlaubt und stellt forschende Unternehmen wie Aufsichtsbehörden vor erhebliche Herausforderungen. Zulässig ist eine solche Datenverarbeitung in der Regel nur, wenn eine ausdrückliche Einwilligung der betroffenen Personen vorliegt, wenn ein überwiegendes privates oder öffentliches Interesse vorliegt oder die Datenverarbeitung durch Gesetz geregelt ist. Zwar sieht Art. 31 Abs. 2 lit. e DSG vor, dass ein überwiegendes Interesse insbesondere in Fällen in Betracht kommt für Forschung, Planung oder Statistik. Das Gesetz normiert aber auch hier konkrete Schutzvorgaben, wie die Datenverarbeitung umgesetzt werden muss (Anonymisierung der Personendaten, Nichtbestimmbarkeit der betroffenen Personen, keine Bearbeitung zu personenbezogenen Zwecken und Sicherstellung, dass die Nichtbestimmbarkeit auch bei der Veröffentlichung eingehalten wird). Es ist fraglich, ob angesichts der Masse an benötigten Daten die vorgenannten Grundsätze stets eingehalten werden – auch wenn das Gesetz diese verlangt. Besondere Aufmerksamkeit gilt dabei den in der Forschung oftmals gemeinsam genutzten cloud-basierten Datenpools, die für eine Reihe von klinischen Forschungsreihen genutzt werden, sowohl technische Risiken als auch Fragen der Zuständigkeit und Haftung aufwerfen.
Zudem verpflichtet das Datenschutzrecht zur Transparenz: Betroffene müssen klar und verständlich darüber informiert werden, wer welche Daten verarbeitet werden, zu welchem Zweck und mit welchen Mitteln: eine Anforderung, die im Zusammenhang mit komplexen KI-Systemen kaum trivial ist. Denn auch hier gilt der Grundsatz: Wenn Daten einmal in einem KI-System eingespeist wurden, sind sie aus diesem nur sehr schwer, wenn nicht gar nie mehr zu löschen.
Datenqualität – nicht immer sind Trainingsdaten korrekt
Ein weiteres Problem ergibt sich aus der Qualität der Trainingsdaten. Um wirksame neue Antibiotika zu identifizieren, benötigen KI-Modelle riesige Mengen hochqualitativer chemischer, biologischer und klinischer Daten. Sind die Datensätze jedoch unvollständig, veraltet oder unausgewogen, besteht die Gefahr, dass die Modelle fehlerhafte oder diskriminierende Ergebnisse liefern. Dies kann nicht nur die Wirksamkeit der entdeckten oder zu entwickelnden Wirkstoffe beeinträchtigen, sondern auch zu erheblichen Haftungsrisiken führen. Daraus stellt sich die Frage, ob Unternehmen haftbar gemacht werden können, wenn falsche oder unvollständige Trainingsdaten zu gefährlichen medizinischen Fehleinschätzungen führen, wenn KI diese Daten verwertet hat. Nach der derzeitigen Rechtslage muss eine Haftung des Anwenders, also des Unternehmens oder des Nutzers, der KI einsetzt, wohl klar bejaht werden.
Nicht zuletzt besteht auch die Gefahr von Bias: Wenn die Trainingsdaten verzerrt sind, kann dies zu diskriminierenden Ergebnissen führen, mit potenziell gravierenden medizinischen und ethischen Folgen.
Dual-Use-Problematik – Zwischen Medikament und Biowaffe
Ein bislang wenig beachteter, aber hochsensibler Aspekt ist die sogenannte Dual-Use-Problematik. Technologien, die ursprünglich für medizinische Zwecke entwickelt wurden, können unter bestimmten Umständen auch für unethische oder kriminelle Zwecke missbraucht werden. Gerade KI-Systeme könnten dazu genutzt werden, nicht nur heilende, sondern auch schädliche Wirkstoffe zu identifizieren, etwa als potenzielle Biowaffen (Dual-Use). Bei Dual-Use-Güter handelt es sich um Waren, Technologien und Software mit doppeltem Verwendungszweck: zivil und militärisch. Die Exportkontrolle dieser Güter erfolgt, um zu verhindern, dass sie für militärische Zwecke oder zur Herstellung von Massenvernichtungswaffen missbraucht werden.
Rechtlich ist dieses Thema unter anderem durch die EU-Verordnung 2021/821 über die Kontrolle von Dual-Use-Gütern geregelt. In der Schweiz regelt das Bundesgesetz über die Kontrolle zivil und militärisch verwendbarer Güter, besonderer militärischer Güter sowie strategischer Güter (Güterkontrollgesetz, GKG, SR 946.202) und die dazugehörige Verordnung über die Kontrolle zivil und militärisch verwendbarer Güter, besonderer militärischer Güter sowie strategischer Güter (Güterkontrollverordnung, GKV, SR 946.202.1) die weiteren Einzelheiten. Unternehmen, die in grenzüberschreitende Forschungskooperationen eingebunden sind oder KI-Systeme zur Molekülentwicklung einsetzen, sind gut beraten, ihre Projekte frühzeitig auf potenzielle Exportbeschränkungen und Kontrollpflichten zu überprüfen.
Darüber hinaus können auch die KI-Modelle selbst, insbesondere wenn sie potenziell gefährliche Moleküle generieren können, als Dual-Use-Güter gelten und unterliegen damit strengen Exportkontrollen. Internationale Vorgaben wie der AI Act (KI-Verordnung der EU (Verordnung (EU) 2024/1689)), aber auch Vereinbarungen wie die Biowaffenkonvention (BWC) und die Richtlinien der Australia Group spielen dabei eine zunehmend wichtige Rolle. Das betrifft nicht nur Hersteller, sondern auch Hochschulen, Forschungsinstitute und Softwareanbieter. Eine enge Zusammenarbeit mit Behörden, interne Kontrollsysteme und eine sorgfältige Risikoanalyse sind unerlässlich, um Verstösse gegen Exportkontrollrecht oder internationale Verpflichtungen zu vermeiden.
Handlungsempfehlungen für die Praxis
Die Schweiz als attraktiver Standort von zahlreichen renommierten Pharma- und Forschungsunternehmen ist hier bei besonders betroffen: Unternehmen, die im Bereich der Forschung tätig sind und dabei auch KI einsetzen, sollten frühzeitig den Aufbau eines umfassenden KI-Compliance-Frameworks ausarbeiten, das nicht nur die Zulassung und den Datenschutz, sondern auch ethische Aspekte und Sicherheitsrisiken integriert. Patentspezialisten sollten bereits in der Entwicklungsphase eingebunden werden, um die Schutzfähigkeit neuer Wirkstoffe zu prüfen und Eigentumsrechte strategisch zu sichern. Entwicklungsteams sind zudem für regulatorische Anforderungen zu sensibilisieren, insbesondere im Hinblick auf die Dual-Use-Problematik, die bislang häufig unterschätzt wird.
Auch Behörden stehen vor neuen Aufgaben: Sie sollten spezifische Leitlinien für den Einsatz von KI in der Arzneimittelentwicklung erarbeiten, interdisziplinäre Gremien zur Bewertung neuer Technologien etablieren und den internationalen Austausch zur Harmonisierung von Standards und Exportkontrollvorgaben aktiv fördern.
Der Gesetzgeber wird dies zudem bei der sektoriellen Anpassung von bestehenden Gesetzen zur Regelung von KI berücksichtigen müssen. Ein zu zaghaftes Vorgehen ist hier nicht angebracht.
Fazit und Ausblick
Die KI-basierte Antibiotikaforschung zeigt einmal mehr, dass es einen Paradigmenwechsel gibt, sowohl aus medizinischer als auch aus rechtlicher Sicht. Während die Technologie das Potenzial hat, globale Gesundheitsprobleme nachhaltig anzugehen, steht die Rechtsordnung vor der Herausforderung, adäquate Rahmenbedingungen zu schaffen. Notwendig ist eine vorausschauende, technologieneutrale Regulierung, die Innovation nicht ausbremst, aber zugleich grundlegende ethische, datenschutzrechtliche und sicherheitsrelevante Standards wahrt. Nur wenn Recht, Technik und Ethik gemeinsam gedacht werden, lässt sich verhindern, dass die Hoffnung auf Heilung und medizinische Innovation zum juristischen Risiko oder gar zur gesellschaftlichen Bedrohung wird.