KI & LLM SICHERHEIT

KI & LLM-Sicherheit für
regulierte Medizinprodukte

Probabilistische KI trifft auf deterministische Regulierung. Wir verfolgen die sich entwickelnden Leitlinien von OWASP und SAIF zur KI-Sicherheit, um die präzise technische Evidenz zu liefern, die für IEC 81001-5-1 und ISO 14971 Zertifizierung erforderlich ist.

Vertraut von MedTech-Innovatoren
dermanostic GmbH logo
Elona Health GmbH logo
Noah Labs GmbH logo
relios.vision GmbH logo

Der zentrale Konflikt: Probabilistische KI vs. deterministische Regulierungen

Die Integration von generativer KI in ein Medizinprodukt führt zu nicht-deterministischen Angriffsflächen, die Standard-Cybersicherheit nicht erfasst. Ein generischer Penetrationstest erkennt keine subtilen Prompt-Injektionen, die zu klinischen Fehldiagnosen führen, noch befriedigt er eine Benannte Stelle, die fragt, wie Sie probabilistische Ausgaben unter IEC 81001-5-1 verifizieren.

Unser Ansatz:

Wir validieren die Verteidigungsmaßnahmen Ihrer KI gegen Prompt-Injection-Angriffe und Exploits zur Inferenzzeit, um sicherzustellen, dass Ihre Innovation das behördliche Audit übersteht.

Ein neues regulatorisches Feld

Es gibt noch keinen einzigen harmonisierten Standard für medizinische KI-Sicherheit. Wir synthetisieren Leitlinien vom neuesten Stand, um tragfähige, vertretbare Compliance-Strategien aufzubauen.

OWASP LLM Top 10

Definitive Liste kritischer GenAI-Schwachstellen.

Google SAIF

Secure AI Framework für konzeptionelle Verteidigung.

OWASP AI Exchange

Aufstrebender technischer Test-Leitfaden und Taxonomie.

EU AI Act & MDCG

Regulatorische Leitlinien für hochriskante medizinische KI.

Unsere Methodik für medizinische KI-Sicherheit

Adversarische Tests treffen auf regulatorische Governance.

LLM Red Teaming & Stress Testing

Wir nutzen adversarische Denkweisen, um die Ausrichtung und Sicherheitsbarrieren Ihres Modells zu brechen. Wir testen nicht nur auf technische Fehler, sondern auf gefährliche Verhaltensweisen in klinischem Kontext.

  • Prompt Injection & Jailbreaking: Robustheitstests gegen adversarische Eingaben (OWASP LLM01)
  • Data Leakage Probing: Versuche, Trainingsdaten oder PII durch Inferenz-Angriffe zu extrahieren
  • Safety Guardrail Evasion: Umgehung von Inhaltsfiltern, um schädliche oder unautorisierte medizinische Ratschläge auszulösen

KI-Anwendungssicherheit (SAIF-konform)

Ein KI-Modell ist nur so sicher wie die Anwendung, die es umhüllt. Wir bewerten die gesamte Infrastruktur um Ihr Modell herum und richten uns nach Googles Secure AI Framework (SAIF)-Prinzipien.

  • Unsichere Ausgabeverarbeitung: Sicherstellen, dass LLM-Ausgaben bereinigt werden, bevor sie nachgelagerte medizinische Systeme beeinflussen (OWASP LLM02)
  • Supply Chain & Model Theft: Absicherung von Gewichten, Embeddings und Abhängigkeiten von Drittanbietern
  • Inference-Time Monitoring: Bewertung von Mechanismen zur Echtzeit-Erkennung adversarischer Nutzung

MDR & EU AI Act Alignment

Wir übersetzen technische KI-Risiken in die Sprache der Auditoren. Wir helfen, probabilistische Erkenntnisse auf deterministische Risikomanagement-Anforderungen abzubilden.

  • EU AI Act Readiness: Sicherheitsvalidierung für hochriskante KI-Medizinsysteme
  • ISO 14971 Integration: Sicherheitsnachweise für KI-spezifische Bedrohungen
  • IEC 81001-5-1 Evidenz: Sicherheitstestnachweise für sicheres Lifecycle-Management von KI-Komponenten

Ihr Audit wird von Senior-Experten geleitet

Keine Junioren. Keine Generalisten. Spezialisten für Medizinproduktesicherheit.

Dr. Simon Weber Profile

Dr. rer. nat. Simon Weber

Senior Pentester & MedSec-Forscher

Ich evaluiere Ihr SaMD mit derselben branchenprägenden Sicherheitsexpertise, die ich dem BAK MV für die Überarbeitung des B3S-Standards beigetragen habe.

  • Promotion über Krankenhaus-Cybersicherheit
  • Kritische Schwachstellen in Krankenhaussystemen gefunden
  • Alumni der THB MedSec-Forschungsgruppe
Volker Schönefeld Profile

Dipl.-Inf. Volker Schönefeld

Senior Application Security Expert

Als ehemaliger CTO und Entwickler, der zum Pentester wurde, arbeite ich mit Ihrem Team zusammen, um Schwachstellen aufzudecken und Lösungen zu finden, die zu Ihrer Architektur passen.

  • 20+ Jahre als CTO, 50+ Mio. App-Downloads
  • Architektur und Absicherung großer IoT-Flotten
  • Certified Web Exploitation Specialist

Checkliste für medizinische KI/LLM-Sicherheitsbereitschaft

Wichtige Validierungsanforderungen für die Integration probabilistischer Modelle in regulierte Medizinprodukte (MDR Klasse I, IIa & IIb, EU AI Act).

Governance & Risiko (ISO 14971)

  • KI-Fehlermodi (Halluzinationen, Bias) in Risikomanagement-Akte abgebildet.
  • Definierter klinischer Workflow für Human-in-the-Loop-Überwachung.
  • Daten-Governance-Richtlinie für Herkunft, Einwilligung und Bias-Minimierung.
  • Strikte Modellversionskontrolle, die Revalidierungsprotokolle auslöst.
Our Focus

Technische Verteidigung (OWASP/SAIF)

  • Eingabevalidierungsschichten zur Erkennung von Prompt-Injection-Angriffen (OWASP LLM01).
  • Strikte Bereinigung der LLM-Ausgabe vor Weitergabe an klinische Systeme.
  • Maßnahmen zur Verhinderung von Data Poisoning während Training/Fine-Tuning (SAIF).
  • Supply-Chain-Prüfung für Drittanbieter-Modelle und -Bibliotheken.

Regulatorische Ausrichtung

  • Sicherheitsnachweise abgebildet auf MDR Anhang I (GSPR) Anforderungen.
  • Einhaltung des IEC 81001-5-1 sicheren Entwicklungslebenszyklus.
  • Proaktive Marktüberwachung (PMS) für Model Drift.
  • Auditsichere Testergebnisse für EU AI Act "High-Risk" Systeme.

Ressourcen für den Aufbau sicherer medizinischer KI

Praktische Leitfäden für Entwicklungsteams, die unter neuen regulatorischen Anforderungen arbeiten.

OWASP Top 10 für LLM-Anwendungen (2025)

Der definitive Standard zur Identifizierung kritischer Schwachstellen in Generative AI-Anwendungen. Wir testen direkt gegen diese aktualisierte Liste.

Standard lesen

Googles Secure AI Framework (SAIF)

Ein konzeptionelles Framework zur Absicherung von KI-Systemen. Wir nutzen SAIF-Prinzipien, um sicherzustellen, dass Ihre Abwehrmaßnahmen skalieren und sich an neue Bedrohungen anpassen.

SAIF erkunden

Vom Pentest zur MDR-Zertifizierung

dermanostic GmbH logo
Wir arbeiten seit mehreren Jahren mit Machine Spirits zusammen und schätzen ihre technische Expertise und unkomplizierte Zusammenarbeit. Ihre praxisnahen Empfehlungen haben maßgeblich dazu beigetragen, den Schutz der uns anvertrauten Patientendaten nachhaltig zu stärken.
Lucas Habrich
CTO, dermanostic GmbH

Ist Ihre medizinische KI bereit für die Benannte Stelle?

Lassen Sie KI-Sicherheitsrisiken nicht Ihre MDR- oder AI Act-Zertifizierung gefährden. Erhalten Sie die technische Evidenz, die Sie benötigen, um zu beweisen, dass Ihr System secure by design ist.

Antwortzeit

Wir antworten in der Regel innerhalb von 24 Stunden an Werktagen auf alle Anfragen.

Durchschnittliche Antwortzeit: 6-12 Stunden

Nachricht senden