2006-07-20T14:32:23

Seminar: Visuelle Überwachung

Inhalt

  1. Aktuelles
  2. Allgemeine Informationen
  3. Background
  4. Themen
  5. Termine

Aktuelles

  1. Seminar beendet! (vom 20. Juli)

    Das Seminar ist beendet, die letzten Vorträge und Reviews sind verlinkt. Vielen Dank an alle Teilnehmer für die rege Beteiligung und wir hoffen, Sie haben viel mitgenommen!

    Die Aktualisierung dieser Seite wird damit beendet. Das Seminar ist für eine Prüfung im Bereich Computer Vision und verwandter Gebiete geeignet, Fragen dazu gerne per E-Mail an die Veranstalter.

  2. Reviews und Talks online (vom 9. Mai)
    Die bisherigen Talks und Reviews sind online.
  3. Aufgabe 2 -- "Kamera-Slalom" (vom 3. Mai)
    Als zweite kleine Aufgabe gilt es einen Weg zu finden es einem System, das Personen über mehrere Kamerabilder hinweg verfolgt, möglichst geschickt auszuweichen. Die Entwickler des I-see Manhattan Project haben dazu ein System entwickelt, dass es einem ermöglichen soll, unbeobachtet durch New York zu gehen. Testet mal die Web-Anwendung und ermittelt von wievielen Kameras man auf dem Weg von der NY Stock Exchange zum Empire State Building mindestens beobachtet wird!
  4. Aufgabe 1 -- Fragen an Surveillance Systeme (vom 19. April)
    Eine geordnete Zusammenstellung der Fragen aus der 1. Aufgabe ist online verfügbar.
  5. Präsentation Seminararbeit (vom 5. April)
    Die Tipps zur Seminararbeit aus der ersten Sitzung sind jetzt online.
  6. Themenvorschläge aktualisiert (vom 4. April)
    Literatur zu Interpretation und Bewertung ist jetzt verfügbar, zu Tracking und Identifikation haben wir einige neue Themenvorschläge hinzugefügt. Außerdem sind für Identifikation und Interpretation zwei Übersichtsseiten im Web verlinkt.
  7. Vorschläge zu Detektion und Identifikation (vom 13. Februar)
    In der Themenliste gibt es jetzt Literatur zu den Bereichen Detektion und Identifikation.
  8. Erste Themen (vom 13. Februar)
    Vortragende und Themen für die ersten drei Veranstaltungstermine sind gesetzt.
  9. Vorbesprechung (vom 8. Februar)
    Eine Vorbesprechung zur Veranstaltung findet am 09. Februar 2006 um 15 Uhr in M5-114 statt.

Allgemeine Informationen

Wichtige Daten

Beleg-Nr.392147
Beginn06. April 2006
TerminMittwochs, 16-18 Uhr
RaumS2-147
eKVVInfoseite, Forum

Scheinkriterien

Hinweis: Unser Ziel ist, mit eurer Hilfe, ein aktives, diskussionsorientiertes Seminar zu veranstalten! Um dies zu erreichen, ist die kontinuierliche Beschäftigung aller Teilnehmer mit den jeweils behandelten Themen notwendig. Dazu wird es zur Vorbereitung regelmäßig kleine theoretische und praktische Aufgaben geben. Zur Nachbereitung geben wir einen Reader heraus, zu dem alle Teilnehmer beitragen. Er soll kurz die wichtigsten Punkte der bearbeiteten Paper zusammenfassen und das Thema in den Kontext des Seminars einordnen. Eine Lesehilfe, wenn man so will.

Bei Bearbeitung der Aufgaben kann für Bachelorstudenten ein benoteter Leistungsnachweis ausgestellt werden.

Verantwortliche Personen

Background

Die Präsenz von Kameras im öffentlichen Raum hat in den letzten Jahren erheblich zugenommen. Als Ziel wird meist die Überwachung (zur Erhöhung der Sicherheit) angeführt. Inzwischen ist CCTV (closed circuit television) in vielen Großstädten (z.B. New York, London, Amsterdam) und in öffentlichen Gebäuden allgegenwärtig. Daneben bietet auch die Verkehrsüberwachung und -regelung vielerlei Einsatzgebiete für visuelle Überwachung. Für den Forschungsbereich der "Computer Vision" hat dies zu einem Boom von Methoden wie "Bewegungsanalyse", "visuelles Tracking", "Trajektorien-Klassifikation", "Personen-Identifikation" und "Szenenanalyse und -interpretation" geführt.

In diesem Seminar sollen verschiedene aktuelle Techniken und Systeme aus den genannten Bereichen vorgestellt und in Hinblick auf ihre Fähigkeiten und Einschränkungen diskutiert werden, um auch Fragen "Funktioniert es auch außerhalb des Labors?" zu beantworten.

Außerdem wollen wir uns auch mit den Folgen der zunehmenden Überwachung kritisch auseinandersetzen und die Sensibilität für die Wirkungen des technisch Machbaren fördern. Das Seminar bietet somit auch explizit die Möglichkeit einen Schein in "Informatik & Gesellschaft" zu erhalten. Im Seminar werden auch themenbezogene praktische Übungsaufgaben angeboten, die von den Teilnehmern zu bearbeiten sind.

Themen

  1. Einführung und Systeme

    Die Einführung macht eine kurze Bestandsaufnahme visueller Überwachungssysteme:

    • Was erhoffen sich die Protagonisten?
    • Was leisten aktuelle Systeme im Forschungsbereich?
    • Wie sind die Systeme aufgebaut?
    Neben Vorträgen zu Forschungssystemen (siehe Literatur) diskutieren wir hier auch Versprechungen kommerzieller Systeme auf Basis von Recherchen der Teilnehmer.

    Ziel dieses Abschnitts ist, sowohl Ziele und Funktion als auch die Komponenten von Überwachungssystemen kennenzulernen. Die einzelnen Komponenten werden dann im weiteren Verlauf des Seminars vertiefend besprochen. Dabei geht es neben dem Verständnis des Verfahrens an sich auch darum, ob die Erwartungen erfüllt werden.

    Literatur

  2. Bewegungsverfolgung

    Unter "Tracking" versteht man die kontinuierliche Verfolgung der Position von Objekten (z.B. Autos oder Menschen) in einer Folge von Videobildern. Für viele Überwachungsanwendungen ist das Tracking der erste Schritt, alle weiteren bauen dessen Ergebnissen auf.

    In diesem Abschnitt betrachten wir die einfachste und robusteste Klasse von Trackern, sog. "Blob"-(Regionen)-Tracker. Diese suchen in einer Videosequenz für jedes Bild erneut die am besten passende Region von Pixeln im Bild, z.B. anhand der (hoffentlich charakteristischen) Farbverteilung oder anderer, meistens einfacher, Features. Interessante Probleme für diesen Fall sind:

    • Wie geht man damit um, wenn sich das Aussehen über die Zeit ändert? (z.B. durch Drehungen oder Verformungen)
    • Wie lassen sich mehrere ähnliche Objekte auseinanderhalten? (insbesondere bei temporärer gegenseitiger Verdeckung)
    • Wie genau sind die Tracking-Verfahren?
    • Wie lässt sich diese Aufgabe effizient lösen?

    Ziel ist es, ein Verständnis für das prinzipielle Problem der visuellen Mehrdeutigkeit zu entwickeln und probabilistische Methoden kennenzulernen, mit denen es gehandhabt werden kann. Weiterhin werden wir einige grundlegende Bild-Features kennenlernen.

    Literatur

  3. Detektion

    Um in einem Bild interessante Objekte -- zwischen all den uninteressanten Bildpartien -- herauszupicken, werden Detektionsverfahren verwendet, die auf bestimmte Objektarten trainiert wurden. Dies können zum einen relative große Regionen sein, ähnlich wie beim Tracking der Personen, zum anderen aber auch kleinen Objekte wie z.B. Gesichter.

    Schwierig sind dabei Bildstellen die den interessanten Objekten ähneln, aber etwas anderes abbilden, und zu den sog. Falsch Positiven führen. Ein Lernverfahren das sich als besonders geeignet erwiesen hat, mit diesem (und vielen anderen) Problem in effizienter und effektiver Art und Weise umzugehen ist das sog. "Boosting", das wir daher hier auch explizit vorstellen wollen, um dann einige praxisrelevante Teilaspekte zu betrachten. Als Themen schlagen wir vor:

    Ziel ist hier, das Problem der Detektion zu beleuchten. Es ist immer wieder schwierig, zwischen Detektionsgüte und Trainingsaufwand abzuwägen. Ebenfalls wird uns beschäftigen, wie man den Nachteil des Boostings (hoher Trainingsaufwand) durch Kombination mit anderen Lernverfahren ausgleichen kann. Last, but not least, ist die Betrachtung zeitlicher Features gerade für Überwachungsszenarien von großem Interesse.

    Literatur

  4. Identifikation

    Die Identifikation dient dazu, das gefundene Objekt mit einer speziellen Instanz in Zusammenhang zu bringen, z.B. ein Gesicht mit einem Namen zu verbinden oder ein Nummernschild zu lesen. Diese Aufgabe ist wegen der großen Varianz schwierig, z.B. ändern sich Gesichter stark über Zeit und bei verschiedenen Ausdrücke und Nummernschilder sind oft aus ungünstigen Winkeln aufgenommen, verdreckt, o.ä. Eine, keinerlei Anspruch auf Vollständigkeit erhebende, Auswahl an Themen:

    Ziel dieses Abschnitts ist, einen Eindruck von den Möglichkeiten und Einschränkungen von Objektidentifikation bei hoher Varianz zu vermitteln. Einerseits ist eindrucksvoll, welche Unterschiede rein ansichtsbasiert zu ermitteln sind, andererseits gibt die hohe Fehlerrate Anlaß an automatischen Systemen zu zweifeln.

    Literatur

  5. Interpretation

    Unter Interpretation versteht man Ermittlung von Ergebnissen im Sinne des Gesamtsystems, bei einem Überwachungssystem also die Erkennung der beobachteten Aktivitäten.

    Literatur

  6. Bewertung

    Bei der Bewertung wollen wir sowohl die Zielerreichung als auch die soziale Akzeptanz betrachten, d.h.

    1. Können die Systeme die selbstgesteckten Ziele erreichen?
    2. Sind die Systeme gesellschaftlich sinnvoll und akzeptabel?

    Für die erste Frage wollen wir sowohl Evaluationsergebnisse diskutieren als auch das Auge für (absichtsvolle) Lücken in wissenschaftlichen Veröffentlichungen schärfen. Letztere sind oft typisch und können auf nicht direkt erwähnte Einschränkungen der vorgestellten Techniken hinweisen.

    Die zweite Frage ist schwer eindeutig zu beantworten, da sich sowohl Gesellschaft als auch Technik im Fluss befinden. Wir werden uns ihr aber über Essays der einschlägigen Bürgerrechtsorganisationen und TA-Büros nähern.

    Literatur

Termine

DatumPerson(en)ThemaTalk
6. AprilMarc Hanheide, Ingo LütkebohleSeminareinführung
13. AprilNathalie BiboÜberwachungssysteme auf Flughäfen: AvitrackVortrag
13. AprilMatthias RolfPersonenverfolgungssysteme (Review)Vortrag
19. AprilMatthias HillebrandVergleich von Tracking-Verfahren (Review)Vortrag
19. AprilMarc HanheideDemonstration von Tracking-Verfahren mit iceWing (Review)Vortrag
25. AprilMareike LissekTracken von Menschen mit "Pfinder" (Review)Vortrag
25. AprilMarc Hanheide, Ingo LütkebohleDiskussion von Ansätzen zu: 1) aktuelle Tracking-Features, 2) Disambiguierung mehrerer Personen
3. MaiJohann EngelbrechtCounting People from Multiple Cameras (Review)Vortrag
10. MaiMarc Hanheide, Ingo LütkebohleMaschinelles Lernen für die automatisierte Interpretation von Videosequenzen
10. MaiNiklas BeuterRapid Object Detection using a Boosted Cascade of Simple FeaturesVortrag
17. MaiIoannis MoutogiorgosDetecting Pedestrians Using Patterns of Motion and AppearanceVortrag
17. MaiMarco KortkampEigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection (Review)Vortrag
24. MaiMarc Hanheide, Ingo LütkebohleA Unified Learning Framework for Real-Time Face Detection & Categorization
24. MaiMarc KammerAutomatic License Plate Recognition (Review)
7. JuniMarc HanheideFace Recognition using Active Appearance Models
7. JuniAndré JustusRecognizing Cars (Review)Vortrag
14. JuniMarc Hanheide, Ingo LütkebohleWrap-Up "Identifikation"
21. JuniAndre LemmeDetecting Abnormal Gait (Review)Vortrag
21. JuniSebastian KonietznyHuman Activitiy Recognition From Video: modeling, feature selection and classification
28. JuniSascha FreyAssessing the impact of CCTV (Review)Vortrag
12. JuliMartin HönerVideoüberwachung in Bielefeld (Review)Vortrag
12. JuliMarc Hanheide, Ingo LütkebohleAbschlussdiskussion