arrow_back Lehrveranstaltungen
calendar_month Sommersemester

Maschinelle Wahrnehmung & Tracking

Sensorik, Detektion, Kalibrierung, Kalman-Filter und Multi-Objekt-Tracking.

SensorikDetektionKalibrierungKalman-FilterTracking
Maschinelle Wahrnehmung & Tracking

Kursübersicht

flag Lernziele

  • check_circle Sensorsysteme (Kamera, LiDAR, Radar) für Fahrzeugwahrnehmung modellieren und kalibrieren
  • check_circle Klassische und Deep-Learning-basierte Objektdetektionsverfahren anwenden
  • check_circle Stochastische Filter (Kalman, Partikel) von Grund auf implementieren
  • check_circle Vollständige Multi-Objekt-Tracking-Systeme konzipieren und im Projekt demonstrieren

calendar_month Organisatorisches

Zeit

Mo 09:15 – 12:30

Raum

11.3.002

Semester

Sommersemester

Prüfungsleistung

Projektarbeit

Wochenplan

Woche 1

Einführung: Maschinelle Wahrnehmung

Überblick über Wahrnehmungssysteme, ADAS-Anwendungsfelder, Systemarchitekturen.

Woche 2

Sensorsysteme

Kamera-, LiDAR- und Radar-Modelle, Eigenschaften, Stärken und Einschränkungen.

Woche 3

Klassische Objektdetektion

Viola-Jones-Detektor, HOG+SVM, Sliding-Window-Ansätze.

Woche 4

Deep-Learning-Detektion

YOLO End-to-End-Detektion, PointNet für 3D-Punktwolken.

Woche 5

Koordinatensysteme & Kalibrierung

Lochkamera-Modell, Kamera-Kalibrierung nach Zhang, Sensor-Fusion-Geometrie.

Woche 6

Stochastische Grundlagen

Bayes-Inferenz, Markov-Ketten, Hidden-Markov-Modelle, Minimalvarianz-Schätzung.

Woche 7

Kalman-Filter

Prädiktion-Korrektur-Zyklus, Minimalvarianz-Schätzung, lineare Systeme.

Woche 8

Erweiterter & Unscented Kalman Filter

EKF-Linearisierung, UKF-Sigma-Punkt-Transformation, nichtlineare Systeme.

Woche 9

Partikelfilter

Sequentielle Monte-Carlo-Methode, Resampling-Strategien, nichtparametrische Schätzung.

Woche 10

IMM & Manöver-Erkennung

Interacting Multiple Models, Modell-Switching, Manöver-Erkennung.

Woche 11

Datenassoziation

Nächste-Nachbar-Methode, PDA, JPDA, Ungarische Methode.

Woche 12

Multi-Objekt-Tracking & Projektvorstellung

Track-Verwaltung, Systemintegration, Abschlussprojekt-Präsentationen.

Vorlesungsinhalte

1. Überblick

Die Vorlesung führt in die vollständige Wahrnehmungs- und Tracking-Pipeline für technische Systeme ein und verbindet klassische Computer Vision, Sensorik, probabilistische Modellierung, Kalman-Filter und Multi-Target-Tracking. Typische Anwendungsdomänen umfassen autonomes Fahren, Luftraumüberwachung, Robotik, Videoanalyse und medizinische Technik.

Die Vorlesung ist in drei Phasen gegliedert: Wahrnehmung, Probabilistik und Tracking.


2. Prüfungsformat und Semesterstruktur

Die Veranstaltung nutzt ein Portfolio-Assessment mit einem semesterlangen Teamprojekt (DFB-Videoanalyse) sowie drei Moodle-Quizzes:

  • Wahrnehmungs-Quiz,
  • Wahrscheinlichkeits-/Stochastik-Quiz,
  • Tracking-Quiz.

3. Einführung: Maschinelle Wahrnehmung

Maschinelle Wahrnehmung bezeichnet den Prozess, durch den Maschinen ihre Umgebung erfassen und mögliche Aktionen ableiten. Historische Entwicklung von früher Bildverarbeitung zu modernem Deep Learning, Multi-Object-Tracking, CNNs, GANs und Transformern.


4. Sensortechnologien

4.1 Kamerasensoren

Kameras als passive optische Sensoren. CCD- und CMOS-Sensoren, Farbfilterarrays (RGGB-Bayer-Muster), Aberrationen und Linsenverzerrung.

Bildverarbeitungsoperationen:

  • Kantendetektion: Sobel-Gradienten, Morphologie, Hysterese-Schwellenwert,
  • Eckendetektion: Moravec-Detektor, Harris-Detektor, Nicht-Maximum-Unterdrückung,
  • Optischer Fluss: Lucas-Kanade-Methode für pixelweise Bewegungsschätzung.

4.2 LiDAR

Aktiver Sensor mit Laser-Laufzeitmessungen (ToF). Rotierende Spiegel für weites Sichtfeld. Typische Wellenlängen 900 nm und 1550 nm.

Verarbeitungsstufen der Punktwolke: Filterung, Extraktion von Interesse-Punkten, Segmentierung, Klassifikation, Posenschätzung.

4.3 Radar

Aktiver elektromagnetischer Sensor. Impulsradar und Dauerwellenradar. Doppler-Frequenz und Radialgeschwindigkeit. FMCW-Radar für gleichzeitige Entfernungs- und Geschwindigkeitsmessung. Vergleich von LiDAR und Radar nach Wellenlänge, Auflösung und Wetterfestigkeit.


5. Objektdetektion

5.1 Metriken für Objektdetektoren

Konfusionsmatrix, Präzision, Recall, Intersection over Union (IoU), Precision-Recall-Kurven, Average Precision (AP), mean Average Precision (mAP).

5.2 Viola-Jones-Gesichtsdetektion

Haar-Wavelet-Merkmale, Integralbilder zur effizienten Merkmalsauswertung, AdaBoost zur Merkmalsauswahl, Kaskaden-Klassifikatoren und Bildpyramiden für Skalierungsinvarianz.

5.3 Dalal-Triggs HOG + SVM

Fußgängerdetektion durch: Kontrastkorrektur, Gradientenberechnung, Histogramme of Oriented Gradients (HOG), Blocknormalisierung und lineare SVM-Klassifikation.

5.4 YOLO – You Only Look Once

CNN-basierter Objektdetektor mit Gitterstruktur. Jede Zelle sagt Bounding-Box-Offsets, Objektkonfidenz und Klassenwahrscheinlichkeiten voraus. Trainiert mit Verlust über Koordinaten, Konfidenz und Klassen.

5.5 PointNet für LiDAR-Punktwolken

Deep Learning auf ungeordneten Punktmengen. PointNet verarbeitet direkt 3D-Koordinaten und lernt lokale und globale Merkmale ohne Voxelisierung.


6. Koordinatensysteme, Kalibrierung und Projektion

6.1 Homogene Koordinaten

Homogene Darstellung in 2D und 3D: Punkte, Geraden, Ebenen. Punkte im Unendlichen mit w = 0. Affine Transformationen als Matrixmultiplikationen in homogenen Koordinaten.

6.2 Transformationen

Translationen, Rotationen und konkatenierte Transformationen. Rotationsmatrizen um x-, y-, z-Achsen. Reihenfolge der Matrizenmultiplikation ist entscheidend. Roll, Pitch, Yaw — Konventionen aus Luftfahrt und Automobilindustrie.

6.3 Kamerakalibrierung und Projektion

Modellierung der Kamera als System zur Abbildung von 3D-Weltkoordinaten auf 2D-Sensorkoordinaten.

  • Extrinsische Parameter: Position und Rotation der Kamera in der Welt,
  • Intrinsische Parameter: Abbildung von Bild- auf Sensor-/Pixelkoordinaten.

Themen: Perspektivprojektion, Brennweite, Kalibrierungsmatrix, Direct Linear Transformation (DLT), Pixelseitenverhältnis, Hauptpunkt, nichtlineare Linsenverzerrung mit radialen Verzerrungsparametern.


7. Stochastische Prozesse und Hidden Markov Models

Stochastische Prozesse als Folgen von Zufallsvariablen. Markov-Eigenschaft: der nächste Zustand hängt nur vom aktuellen Zustand ab.

Themen:

  • Markov-Prozesse,
  • Random Walk und Brownsche Bewegung,
  • Beispiele für Markov-Verletzungen und State-Design zur Wiederherstellung der Markov-Eigenschaft,
  • Hidden Markov Models (HMMs): echter Zustand ist nicht direkt beobachtbar,
  • Beobachtungsvariablen abhänging nur vom aktuellen verborgenen Zustand,
  • Vorwärtsalgorithmus für rekursive Zustandsinferenz aus Beobachtungen.

8. Minimale-Varianz-Fusion

Grundlage des Kalman-Filters: Fusion mehrerer Messungen mit minimaler Ergebnisvarianz.

  • Zwei Gauß’sche Messungen werden so kombiniert, dass der Schätzwert unverzerrt und varianzminimal ist,
  • Zuverlässigere Sensoren werden stärker gewichtet,
  • Erweiterung auf mehrere unkorrelierte Messungen,
  • Sonderfall: wiederholte Messungen gleicher Varianz ergeben das arithmetische Mittel.

9. Kalman-Filter

9.1 Linearer Kalman-Filter

Zustandsraumodell mit Transitionsmatrix, Beobachtungsmatrix und Rauschmodellen. Zwei Phasen:

  1. Prädiktionsschritt: Zustand und Kovarianz aus dem Systemmodell voraussagen,
  2. Aktualisierungsschritt: Kalman-Gain berechnen, Innovation einfügen, Kovarianz aktualisieren.

Der Kalman-Gain ist die optimale Gewichtung zwischen Systemprädition und Messung.

9.2 Erweiterter Kalman-Filter (EKF)

Linearisierung nichtlinearer Systemfunktionen über Jacobi-Matrizen. Anwendbar für kurvenlineare Bewegungsmodelle und nichtlineare Sensoren.

9.3 Unscented Kalman-Filter (UKF)

Sigma-Punkt-Methode für bessere Approximation nichtlinearer Transformationen ohne Jacobi-Ableitung.

9.4 Partikel-Filter

Monte-Carlo-basierter Filter für allgemeine nichtlineare Zustandsraummodelle. Gewichtete Partikel repräsentieren die Zustandsverteilung. Resampling zur Vermeidung von Partikeldegeneration. Genauer als Kalman-Filter für stark nichtlineare Probleme.

9.5 Interacting Multiple Models (IMM)

Kombination mehrerer Bewegungsmodelle in parallelen Filtern mit Modellwahrscheinlichkeiten für adaptive Modellauswahl.


10. Datenassoziation

Zuordnung von Messungen zu bekannten Tracks (Spuren). Behandelte Methoden:

  • Nearest-Neighbor (NN): einfachste Methode — jeder Messung wird der nächste Track zugeordnet,
  • Probabilistische Datenzuordnung (PDA): mehrere Messhypothesen werden gewichtet kombiniert,
  • Joint PDA (JPDA): berücksichtigt alle Messung-Track-Kombinationen gleichzeitig,
  • Hungarian Algorithm / Optimal Assignment: optimale globale Zuordnung über Kostenfunktionen,
  • Gating: Ablehnung unplausibler Messungen über Mahalanobis-Distanz vor der Zuordnung.

11. Track-Management und Multi-Target-Tracking

Track-Lebenszyklus: Initialisierung neuer Tracks (tentativ), Bestätigung durch Akkumulation von Evidenz, Löschung bei fehlendem Nachweis.

Tracking-by-Detection-Paradigma: Detektor liefert Messungen pro Frame, Tracker verwaltet Zustand und Identität über Zeit.

Themen:

  • Multiple Hypothesis Tracking (MHT) für robuste Zuordnung bei Okklusionen,
  • Spurwechsel, Okklusionen, Spurinitialisierung und -beendigung,
  • Bewertungsmetriken für Multi-Target-Tracking (CLEAR MOT: MOTA, MOTP, ID Switches).

12. Themenübersicht

BlockHauptthemen
SensorenKamera (CCD/CMOS), LiDAR, Radar, FMCW
BildverarbeitungSobel, Morphologie, Harris-Ecken, optischer Fluss
ObjektdetektionViola-Jones, HOG+SVM, YOLO, PointNet
GeometrieHomogene Koordinaten, Rotation/Translation, Kamerakalibrierung, Projektion
StochastikMarkov-Prozesse, HMMs, Vorwärtsalgorithmus
SensorfusionMinimale-Varianz-Fusion
FilterungKalman-Filter, EKF, UKF, IMM, Partikelfilter
TrackingDatenassoziation, Hungarian Method, PDA/JPDA, Track-Management