Lioravexent
L176 5-4, 06317 Seegebiet Mansfelder Land
Lioravexent Logo
Maschinelles Lernen in der Sicherheitslandschaft

Maschinelles Lernen in der Sicherheit verstehen

Sicherheitssysteme entwickeln sich schneller als je zuvor. Algorithmen erkennen Muster in Millisekunden, die Menschen Stunden kosten würden. Dieser Kurs zeigt Ihnen, wie maschinelles Lernen konkrete Sicherheitsprobleme löst – ohne theoretische Ablenkungen, sondern mit echten Techniken und praktischen Beispielen.

  • Sie lernen, wie Anomalie-Erkennungssysteme funktionieren und wo sie versagen können
  • Sie verstehen, warum Feature-Engineering über Erfolg oder Fehlalarme entscheidet
  • Sie arbeiten mit echten Datensätzen aus Netzwerkverkehr und Bedrohungsprotokollen
  • Sie bauen Modelle, die tatsächlich in Produktionsumgebungen funktionieren könnten
  • Sie erkennen, wann maschinelles Lernen die falsche Lösung für ein Sicherheitsproblem ist

Was Sie tatsächlich lernen werden

Vier Module, die Ihnen zeigen, wie Sie ML-Techniken auf reale Sicherheitsszenarien anwenden. Jedes Modul kombiniert Theorie mit praktischen Übungen an echten oder realistischen Datensätzen.

Modul 1

Grundlagen und Datenvorbereitung

Bevor Sie Modelle bauen können, müssen Sie verstehen, womit Sie arbeiten. Dieses Modul behandelt Log-Analyse, Feature-Extraktion und die Bereinigung von verrauschten Sicherheitsdaten. Sie sehen, wie echte Sicherheitsdatensätze aussehen – mit all ihren Inkonsistenzen und Lücken.

  • Struktur von Netzwerk-Logs und SIEM-Daten
  • Feature-Selektion für Anomalie-Erkennung
  • Umgang mit unbalancierten Datensätzen
  • Zeitreihen-Eigenschaften in Sicherheitsdaten
3 Wochen · 6 praktische Übungen
Modul 2

Überwachte Methoden für Bedrohungserkennung

Random Forests, Gradient Boosting, neuronale Netze – aber welches Modell passt zu welchem Problem? Sie trainieren Klassifikatoren für Malware-Erkennung, Phishing-Detektion und Intrusion Detection. Dabei lernen Sie, warum Genauigkeit allein nicht ausreicht.

  • Klassifikationsmodelle für bekannte Bedrohungen
  • Precision-Recall-Trade-offs in der Praxis
  • Cross-Validation bei zeitabhängigen Daten
  • Ensemble-Methoden zur Fehlerreduktion
4 Wochen · 8 praktische Übungen
Modul 3

Unüberwachte Anomalie-Erkennung

Hier wird es interessant. Sie bauen Systeme, die Abweichungen erkennen, ohne vorher trainiert worden zu sein. Clustering-Algorithmen, Autoencoders und Isolation Forests – Techniken, die Zero-Day-Bedrohungen aufspüren können, wenn sie richtig eingesetzt werden.

  • K-Means und DBSCAN für Verhaltensprofile
  • Autoencoders zur Rekonstruktionsfehler-Analyse
  • Isolation Forests für Ausreißer-Detektion
  • Schwellenwert-Bestimmung ohne gelabelte Daten
4 Wochen · 7 praktische Übungen
Modul 4

Deployment und Adversarial Resilience

Ein Modell zu bauen ist eine Sache – es in Produktion zu bringen eine andere. Sie lernen, wie Sie Modelle gegen Adversarial Attacks härten, Performance-Metriken überwachen und wann Sie Modelle neu trainieren müssen. Außerdem: Was passiert, wenn Angreifer Ihre ML-Systeme kennen?

  • Model Drift und kontinuierliches Monitoring
  • Adversarial Examples und Robustheit-Tests
  • A/B-Testing für Sicherheitsmodelle
  • Erklärbarkeit und Debugging in Produktion
3 Wochen · 5 praktische Übungen