Strafverteidigung Dornbach - Fachanwältin für alle Bereiche des Strafrechts

Künstliche Intelligenz (KI) und Strafrecht: Wer haftet, wenn Algorithmen Straftaten ermöglichen?

Fachbeitrag im Strafrecht

Künstliche Intelligenz (KI) im Strafrecht: Wer trägt die Haftung, wenn Algorithmen Straftaten ermöglichen?

Künstliche Intelligenz (KI) prägt unseren Alltag zunehmend – von automatisierten Entscheidungssystemen über Chatbots bis zu autonomen Fahrzeugen.

Doch welche Folgen hat es, wenn eine KI „falsch handelt“?

Wer trägt die Verantwortung, wenn durch ein technisches System ein Schaden entsteht oder gar eine Straftat begangen wird?

In diesem Beitrag erklären wir, wie das Strafrecht aktuell mit Vorfällen rund um KI umgeht, wer für fehlerhafte oder gefährliche Algorithmen zur Rechenschaft gezogen werden kann und weshalb die Haftung weiterhin beim Menschen verbleibt.

Warum KI (bislang) nicht als Straftäterin gelten kann

Nach der aktuellen Rechtslage kann eine künstliche Intelligenz nicht als Täterin im strafrechtlichen Sinne angesehen werden.

Das Strafgesetzbuch verlangt Schuldfähigkeit, Einsicht und Willensbildung – Eigenschaften, die Maschinen nicht besitzen.

Strafrechtlich zur Verantwortung gezogen werden daher lediglich natürliche oder juristische Personen, zum Beispiel:

  • Programmierer oder Entwickler, wenn sie fehlerhafte oder manipulative Software erstellen,
  • Betreiber oder Anwender, die den Algorithmus einsetzen,
  • Unternehmensverantwortliche, die Kontrollpflichten vernachlässigen,
  • Endnutzer, wenn sie KI bewusst für rechtswidrige Zwecke verwenden.

KI gilt demnach als ein vom Menschen eingesetztes Werkzeug – nicht als eigenständiger Handlungsträger.

Haftung: Unter welchen Voraussetzungen trifft den Menschen die Verantwortung für Handlungen einer KI?

Ob eine Person strafrechtlich für Handlungen einer KI haftet, ist stets eine Frage des Einzelfalls.

Maßgeblich ist, ob der Mensch das System gezielt zur Begehung einer Tat eingesetzt, Pflichten verletzt oder Risiken fahrlässig ignoriert hat.

Beispiele aus der Praxis:

  • Deepfakes und Fake-News-Bots: Werden durch KI ehrverletzende Inhalte verbreitet, haftet in der Regel der Betreiber oder der Auftraggeber.
  • Autonome Fahrzeuge: Kommt es zu einem Unfall, wird geprüft, ob technische Überwachungspflichten verletzt wurden oder ob Risiken vorhersehbar waren.
  • Algorithmischer Handel: Verstößt eine KI gegen Marktregeln, kann der verantwortliche Finanzdienstleister oder der Entwickler belangt werden.

Wichtige Straftatbestände im Kontext von KI

Verschiedene Bestimmungen des Strafgesetzbuchs können bei KI-bedingten Vorfällen relevant sein, zum Beispiel:

  • § 263 StGB – Betrug (etwa bei automatisierten Täuschungssystemen),
  • § 303a StGB – Datenveränderung,
  • § 202a StGB – Ausspähen von Daten,
  • §§ 186, 187 StGB – Üble Nachrede oder Verleumdung durch KI-generierte Inhalte,
  • § 13 StGB – Verantwortlichkeit durch Unterlassen,
  • § 130 OWiG – Aufsichtspflichtverletzung in Unternehmen.

Strafrechtliche Verantwortung bemisst sich demnach stets danach, wer hinter der KI steht und welche Handlungen ihm zugerechnet werden können.

KI als Instrument – nicht als Täter

Aus strafrechtlicher Sicht gilt KI als Werkzeug, vergleichbar mit einem Computer oder einem Fahrzeug. Wird sie fehlerhaft eingesetzt, dient sie als Mittel zur Tatbegehung.

Besonders problematisch sind selbstlernende Systeme (Machine Learning), die eigenständig Entscheidungen treffen. Juristen erörtern, ob unvorhersehbare Fehlentscheidungen dem Verantwortlichen als Fahrlässigkeit oder als bedingter Vorsatz anzulasten sind.

Ermittlungsprobleme sowie technische Herausforderungen

Die Aufklärung von Straftaten mit KI ist für Ermittlungsbehörden Neuland; Polizei und Justiz sehen sich mit vielschichtigen Fragestellungen konfrontiert:

  • Wer hat die Programmierung oder die Entscheidungsfindung beeinflusst?
  • Lässt sich der technische Ablauf vollständig nachvollziehen?
  • Bis zu welchem Grad besteht tatsächlich menschliche Kontrolle?
  • Sind digitale Beweismittel wie Protokolle oder Trainingsdaten vor Gericht verwertbar?

Zur Aufklärung solcher Fälle werden zunehmend technisch versierte Sachverständige sowie eine interdisziplinäre Zusammenarbeit von Juristen, Informatikern und forensischen Expertinnen und Experten benötigt.

Verantwortung von Unternehmen und strafrechtliche Prävention

Unternehmen, die KI einsetzen oder entwickeln, müssen besonders auf robuste Compliance-Strukturen achten.
Fehlende Kontrollen oder unklare Zuständigkeiten können schnell als Aufsichtspflichtverletzung nach § 130 OWiG gewertet werden.

Empfohlen werden daher:

  • eindeutige Verantwortlichkeiten für Entwicklung und Einsatz,
  • regelmäßige technische Überprüfungen (Audits),
  • sowie rechtskonforme Dokumentationen zu Funktionsweisen und Entscheidungsprozessen der KI.
  • Nur so lässt sich verhindern, dass Strafverfolgungsbehörden später mangelnde Überwachung oder organisatorisches Versagen vorwerfen.

Fazit: Die Verantwortung liegt (vorerst) weiterhin beim Menschen

Künstliche Intelligenz wächst in ihrer Leistungsfähigkeit – rechtlich bleibt sie jedoch ein Instrument des Menschen.

Ob Entwickler, Betreiber oder Anwender: Wer KI einsetzt, trägt die Verantwortung für deren Folgen. Im Strafrecht sind insbesondere Vorsatz, Fahrlässigkeit sowie die Beachtung von Sorgfaltspflichten maßgeblich.

Die rechtlichen Risiken rund um KI werden künftig weiter steigen. Ob wegen Fahrlässigkeitsvorwürfen, unterlassener Aufsicht oder unzulässiger Nutzung – eine sachkundige Verteidigung ist unerlässlich. Kontaktieren Sie unsere Strafrechtskanzlei, wenn Sie Unterstützung bei Fällen mit künstlicher Intelligenz benötigen.

Jetzt Anfrage stellen
Wir beraten Sie gerne umfassend und persönlich bei Ihrem Anliegen.

Rechtsgebiet

Strafrecht-Mobile

Gerne für Sie erreichbar

Kontakt

Ihre Kanzlei Strafverteidigung Dornbach.

Adresse

Königsbrücker Straße 59
01099 Dresden

Öffnungszeiten

08:00 – 20:00
Termine nach Vereinbarung

Kontakt

Sie müssen den Inhalt von reCAPTCHA laden, um das Formular abzuschicken. Bitte beachten Sie, dass dabei Daten mit Drittanbietern ausgetauscht werden.

Mehr Informationen