CITEC Central Lab Facilities
CITEC
British Flag   German Flag

Themen

Unter den folgenden Themenbereichen biete ich Lehrveranstaltungen an: Frühere Veranstaltungen

Lehrangebot

Das jeweils aktuelle Lehrangebot und vergangene Veranstaltungen werden hier kurz beschrieben:

Auswahl des Semesters


2017 - Wintersemester

2016 - Sommersemester

2016 - Wintersemester

2016 - Sommersemester

2015 - Wintersemester

2015 - Sommersemester

2014 - Wintersemester

2014 - Sommersemester

2013 - Wintersemester

2013 - Sommersemester

  • Virtuelle Realität (Projekt)

    Termin: Mi. 16 - 18
    Start: 10. April 2013
    Eintrag im eKVV: http://ekvv.uni-bielefeld.de/kvv_publ/publ/vd?id=36970834

    Im Projekt Virtuelle Realität werden die Inhalte aus der Vorlesung Virtuelle Realität durch praktische Übungen vertieft.

    Das Vorgehen im Projekt orientiert sich am Prozess der wissenschaftlichen Forschung. Zu Beginn werden mit allen Teilnehmern aktuelle Forschungsthemen und Fragestellungen diskutiert. Je nach Anzahl der Teilnehmer werden dann Interessengruppen gebildet, die sich intensiv mit einem der Themen auseinandersetzen, einen eigenen Ansatz entwickeln und diesen in einer immersiven VR-Installation umsetzen. Eine kleine angeleitete Evaluation schließt den methodischen Teil ab.

    Im Rahmen des Projektes können sich eventuell Gruppen aus den verschiedenen Vorlesungen ergänzen. Während Teilnehmer der Vorlesung Virtuelle Realität sich um die technische Umsetzung kümmern und die gemeinsam entwickelten Ideen in der CAVE umsetzen, entwickeln die Teilnehmer aus der Vorlesung Mensch-Maschine Interaktion das Interaktionskonzept und führen eine iterative Evaluation durch.

    Im Anschluss an die praktischen Arbeiten wird ein Abschlussbericht erstellt. Dieser ist in Form einer Einreichung beim deutschen Workshop für Virtuelle und Erweiterte Realität der Gesellschaft für Informatik geplant. Die Teilnehmer lernen dabei etwas über die Strukturierung und Formulierung wissenschaftlicher Arbeiten und haben die Chance, bei einer Annahme in der Gruppe zusammen zum Workshop zu fahren (Tagungsbeitrag in der Regel frei, Unterkunft und Fahrt müssen selbst finanziert werden) und den Beitrag zu präsentieren.

    Im Anschluss an das Projekt ergeben sich in der Regel einige Vertiefungsmöglichkeiten, die als Themen zum direkten Anschluss einer Bachelor- oder Masterarbeit genutzt werden können.

  • ISY-Master Projekt "Audible-Eyed"

    • Belegnummer: wird am Ende des Semesters vergeben
  • Mobile Blickbasierte Interaktion (Projekt)

    Termin: nach Vereinbarung
    Start: 10. April 2013
    Eintrag im eKVV: http://ekvv.uni-bielefeld.de/kvv_publ/publ/vd?id=39496894

    Die mobile blickbasierte Interaktion möchte einen Traum erfüllen: endlich soll der Computer befähigt werden, dem Nutzer die Wünsche von den Augen abzulesen.

    Um solch eine Vision Realität werden zu lassen, muss das System jedoch wesentliche Herausforderungen meistern:

    1. Erkennung der Augenbewegungen
    2. Erfassung und Repräsentation der Interaktionsumgebung
    3. Interpretation der Augenbewegungen in Bezug auf die Interaktionsumgebung
    4. Interaktion mit dem Nutzer

    Im Rahmen des Projektes wollen wir solche blickbasierten Interaktionen realisieren. Dabei gibt es verschiedene Schwerpunkt-Alternativen, die von unterschiedlichen Teams bearbeitet werden können:

    • A. Verwendung eines mobilen Eyetrackers (gegeben) und Fokussierung auf 2+3: Erfassung und Repräsentation der Interaktionsumgebung, sowie Interpretation der Augenbewegungen. Das kann z.B. zur Analyse von Nutzerstudien im Supermarkt oder in der Roboterinteraktion verwendet werden.
    • B. Verwendung eines mobilen Eyetrackers (gegeben) und Erarbeitung der Punkte 2-4, d.h. Analyse der Umgebung mit CV-Verfahren, Interpretation der Augenbewegungen, Interaktion mit dem Nutzer Beispiel: blickbasierte Lesehilfe oder Übersetzunghilfe: Das System detektiert, wenn der Nutzer auf Teste schaut und kann diese dann entweder vorlesen oder übersetzen
    • C. Schwerpunkt auf der Entwicklung von Eyetracking-Verfahren für Android-Geräte (1-3), wobei 2-3 bei der Interaktion mit GUI-Anwendungen einfach gehalten werden kann. So könnte man z.B. das für das Samsung Galaxy S4 versprochene blickbasierte Scrollen realisieren.

    Weitere Infos zu A/B: Im Bereich der Erweiterten Realität/Augmented Reality wird schon heute auf Methoden der Bildverarbeitung zurückgegriffen, um in Echtzeit eine Lokalisierung der Person und eine exakte Verortung im 3D-Raum zu ermöglichen. Nur so können dann 3D Modelle der Realität überlagert und einfache Interaktionen realisiert werden. Die Erfassung muss dabei derzeit noch ungerichtet auf dem gesamten Szenenbild geschehen, welches durch eine kleine kopfgetragene Kamera erfasst wird.

    Technische Fortschritte der mobilen Blickbewegungserfassung schaffen ganz neue Möglichkeiten für die mobile Interaktion und die Analyse von natürlichem Verhalten im Alltag außerhalb der Labore. Zum einen liefern die Systeme die genauen Punkte im Szenenbild, die vom Nutzer angeschaut wurden. Mit diesem Wissen könnte die Objektverfolgung auf den aktuellen Fokus des Nutzers konzentriert und damit performanter durchgeführt werden. Zum anderen besteht das Potential, die Blickinformationen auch zur Interaktion zu nutzen. So könnte die aktuelle Aktion des Nutzers (Orientieren, Lesen, Suchen) erkannt und für die Interaktion verfügbar gemacht werden. Darüber hinaus kann durch die Verknüpfung mit der Objektverfolgung ein direkter Bezug zum aktuellen Kontext der kognitiven Verarbeitung des Nutzers hergestellt werden.

    Ziel dieses Projektes ist es, Verfahren der Objektverfolgung und Lokalisation für die Anwendung im Bereich der mobilen Blickbewegungsmessung zu kombinieren und weiter zu entwickeln. In Variante A liegt der Fokus auf der genauen Lokalisation und Verfolgung von generischen Objekten. Dabei kann auf bereits aufgezeichnete Videos und Blickbewegungsdaten in der Entwicklungsphase zurückgegriffen werden. In Variante B liegt der Fokus auf der echtzeitfähigen Interaktion, d.h. Lokalisation und Verfolgung müssen schnell ablaufen und daher wird gegebenenfalls auf spezielle Marker oder eine kleine Auswahl an Objekten, die leichter zu detektieren sind, zurückgegriffen. Ein nahtloser Übergang von Variante A in Variante B ist je nach Fortschritt möglich.

    Allgemein: Im ersten Teil des Projektes werden wir in Seminarform die folgenden Themen näher betrachten:

    • Einführung in die Blickbewegungsmessung (Eyetracking)
    • Vorstellung der Eyetracking Systeme und der vorhandenen Experimental- und Analysesoftware
    • Verfahren für Objektverfolgung und Lokalisation
    • Ansätze zur automatischen Annotation im Eyetracking Bereich
    • Beispiele für blickbasierte Interaktionen

    Das restliche Semester ist für eigenständige Arbeit vorgesehen. Großer Wert wird dabei auf Projektmanagement und Dokumentation gelegt.

    Es ist geplant, mit Veranstaltungen und Abschlussarbeiten an das Projekt anzudocken. Eine besondere Motivation dazu könnte der SAGA-Wettbewerb sein, der im April ausgeschrieben wird. Im Rahmen dieses Wettbewerbs werden den Teilnehmern Daten (Videos+Blickbewegungsdaten) zur Verfügung gestellt. Die Teilnehmer können dann Beiträge in Form von Software-Lösungen zur automatischen oder teilautomatischen Objektverfolgung und Auswertung der Blickbewegungen einreichen. Abgabe der Beiträge wird im September/Oktober 2013 und die Präsentation dann im Oktober 2013 sein. Es wird angestrebt, dass wir aus dem Projekt heraus wenigstens eine Einreichung bei diesem Wettbewerb versuchen. Die Einreichung (Paper + Software) stellt dann gleichzeitig die unbenotete Leistung des Projektes dar.

2012 - Wintersemester

2012 - Sommersemester

  • Virtuelle Realität (Projekt)

    Termin: Mi. 16 - 18
    Start: 2. April 2012
    Eintrag im eKVV: http://ekvv.uni-bielefeld.de/kvv_publ/publ/vd?id=29422651

    Im Projekt Virtuelle Realität werden die Inhalte aus der Vorlesung durch praktische Übungen vertieft.

    Das Vorgehen im Projekt orientiert sich am Prozess der wissenschaftlichen Forschung. Zu Beginn werden mit allen Teilnehmern aktuelle Forschungsthemen und Fragestellungen diskutiert. Je nach Anzahl der Teilnehmer werden dann Interessengruppen gebildet, die sich intensiv mit einem der Themen auseinandersetzen, einen eigenen Ansatz entwickeln und diesen in einer immersiven VR-Installation umsetzen. Eine kleine angeleitete Evaluation schließt den methodischen Teil ab.

    Im Rahmen des Projektes können sich eventuell Gruppen aus den verschiedenen Vorlesungen ergänzen. Während Teilnehmer der Vorlesung Virtuelle Realität sich um die technische Umsetzung kümmern und die gemeinsam entwickelten Ideen in der CAVE umsetzen, entwickeln die Teilnehmer aus der Vorlesung Mensch-Maschine Interaktion das Interaktionskonzept und führen eine iterative Evaluation durch.

    Im Anschluss an die praktischen Arbeiten wird ein Abschlussbericht erstellt. Dieser ist in Form einer Einreichung beim deutschen Workshop für Virtuelle und Erweiterte Realität der Gesellschaft für Informatik geplant. Die Teilnehmer lernen dabei etwas über die Strukturierung und Formulierung wissenschaftlicher Arbeiten und haben die Chance, bei einer Annahme in der Gruppe zusammen zum Workshop zu fahren (Tagungsbeitrag in der Regel frei, Unterkunft und Fahrt müssen selbst finanziert werden) und den Beitrag zu präsentieren.

    Im Anschluss an das Projekt ergeben sich in der Regel einige Vertiefungsmöglichkeiten, die als Themen zum direkten Anschluss einer Bachelor- oder Masterarbeit genutzt werden können.

  • ISY-Master Projekt "Mobile Sprachdienste"

2011 - Wintersemester

2011 - Sommersemester

  • Virtuelle Realität (Seminar)

    Inhalt

    Beim Seminar "Virtuelle Realität" handelt es sich um ein Literatur-Seminar. Anfangs werden Themen an die Teilnehmer vergeben. Diese bereiten dann jeweils einen Vortrag von ca. 45 Minuten vor, den sie nach vorheriger Absprache mit dem Seminarleiter (3-4 Tage vorher) halten und das Thema anschaulich den Kommilitonen präsentieren.

    Das Seminar beschäftigt sich zum einen mit den Zielen und Visionen, die wir mit Virtueller Realität verbinden. Dabei geht es insbesondere auch um das persönliche Erleben und die Frage nach Immersion und Präsenz in Virtuellen Realitäten oder Virtuellen Welten.

    Zum anderen stehen aber insbesondere auch die Technologien und die Softwaremethodik im Vordergrund. Dabei werden wir verschiedene visuelle Projektionstechnologien vorstellen und diskutieren, sowie Techniken, die andere Modalitäten bedienen (Olfaktorische, Haptische, etc). Im Bereich der Softwaremethodik werden verschiedene Programmiermodelle für die Entwicklung interaktiver Anwendungen in Virtueller Realität, insbesondere solcher mit 3D Grafik, vorgestellt.

    Abschließen möchten wir die Vortragsreihe mit der Präsentation verschiedener Anwendungsfelder von Techniken der Virtuellen Realität aus den Bereichen Spiele, Scientific Visualization und Industrie / Virtual Prototyping.

    Die Veranstaltung findet Mittwochs von 16:00 Uhr (s.t.) bis 17:30 Uhr statt. Treffpunkt ist der Raum M3-115.

    Kompetenzen

    Im theoretischen Teil des Seminars stellen Studierende in Vorträgen einzelne Themenbereiche vor, die sie sich auf der Basis vorgegebener Literatur und eigener Recherchen erarbeitet haben.

  • Spezielle Themen der Künstlichen Intelligenz (Übungen)

    Die Übung begleitet die Vorlesung Spezielle Themen der KI. An Hand von praktischen Beispielen werden ausgewählte Themen aus der Vorlesung vertieft.

  • ISY-Master Projekt: Recipes - intelligent and integrated (Projekt)

    Im Rahmen dieses Projektes wurde eine Beschreibungssprache für Kochrezepte entwickelt, ein Editor für diese Sprache entwickelt und eine Software zur Unterstützung des Kochprozesses realisiert.

2010 - Wintersemester

  • Interaktive Teledienste: Von der Telefonnavigation zum videobasierten Auskunftsdienst (Seminar)

    Inhalt

    Interaktive Teledienste sind uns aus dem Alltag bekannt. Viele Hotlines setzen auf Sprachmenüs, die eine Vorselektion und Weiterleitung des Anrufers erlauben. Dies geschieht oft durch einfache Interaktion mittels Telefontastatur (DMF-Verfahren). Komplexere Teledienste erlauben eine komplette Geschäftsabwicklung, wie z.B. die Bestellung eines Tickets, mit einfachen natürlichsprachlichen Instruktionen. Fortgeschrittene Technologien, zu denen auch der in der AG WBS entwickelte verkörperte Kommunikationsagent Max gehört, erlauben neben der rein sprachlich-auditiven auch eine gestisch-visuelle Interaktion. Die nächste Generation der Teledienste könnte entsprechend multimodal interagieren und einige Vorteile gegenüber den reinen technischen Sprachdiensten bieten.

    Kompetenzen

    Im theoretischen Teil des Seminars stellen Studierende in Vorträgen einzelne Themenbereiche vor, die sie sich auf der Basis vorgegebener Literatur und eigener Recherchen erarbeitet haben:

    • Teledienste

      • Überblick: Einsatzgebiete, Anforderungen, Risiken
      • Evaluation
    • Sprachliche Teledienste

      • Architekturen
      • Design-Techniken von Sprachsystemen
      • Überblick über Standards und Technologien (VoiceXML, SALT, H323, SIP, Skype)
    • Multimodale Teledienste

      • Diskussion über Einsatzgebiete und Anforderungen
      • Architekturen
      • Embodied Conversational Agents
      • Technologien für Sprach/Videodienste
    Im Rahmen des Seminars werden auch praktische Übungen zu einzelnen Themen gemacht, um konkrete Technologien in der Praxis kennen zu lernen. Unter anderem wird ein einfacher Dienst in VoiceXML implementiert.

    Teilnahmevoraussetzungen, notwendige Vorkenntnisse

    Dieses Seminar vermittelt die folgenden Kompetenzen:

    • Basiskenntnisse im Bereich interaktiver Teledienste
    • Methoden für das Design und die Evaluation von Telediensten
    • Praxis im Umgang mit VoiceXML

    Bei ausreichend großem Interesse ist angedacht, im Anschluss an das Seminar ein Projekt anzubieten, bei dem die erlangten Kompetenzen in der Praxis angewendet werden können. Dies könnte beispielsweise ein Auskunftsdienst für die Bielefelder Mensa, ein Wetterdienst oder etwa ein einfacher Sekretär (z.B. zur Terminkoordination) sein.

  •  Blickbasierte Benutzerschnittstellen am Desktop und in der Virtuellen Realität (Projekt)

    Inhalt

    Neben Sprache und Handgestik leisten die Augen des Menschen einen wesentlichen Beitrag zur Kommunikation zwischen Menschen. Tatsächlich sind die Augen sogar noch schneller als es Sprache und Gestik sein können. Während der Mensch in der Wahrnehmung und Bewertung von Augenbewegungen trainiert ist, stellt der Einsatz von Blicken in der Mensch-Maschine-Interaktion die Technik immer noch vor Herausforderungen.

    Dabei gibt es viele Einsatzszenarien, die einen Einbezug des Blickverhaltens des Menschen in die Interaktion lohnenswert machen. Typische Szenarien sind: Information Visualization, Interaktionen mit Virtuellen Agenten oder Benutzerschnittstellen für Menschen, die ihre Arme oder Sprache nur eingeschränkt verwenden können, sei es aus technischen Gründen, weil etwa die Arme in einer Aufgabe eingebunden sind, oder aus körperlichen Gründen.

    Im Rahmen des Projektes werden die Grundlagen für die Analyse von Blickbewegungen vermittelt und der aktuelle Stand der Technik vorgestellt. Weiterhin werden die Grundlagen für die Programmierung interaktiver Anwendungen in der Virtuellen Realität erarbeitet. Im praktischen Teil wird gemeinsam mit den Studierenden eine blickbasierte Benutzerschnittstelle entworfen, die im Anschluss implementiert und in einer kleinen Benutzerstudie evaluiert wird.

    Kompetenzen

    • Kenntnisse über das visuelle System des Menschen
    • Entwurf und Implementierung blickbasierter Benutzerschnittstellen
    • Entwicklung interaktiver Anwendungen im Bereich Virtuelle Realität

    Teilnahmevoraussetzungen, notwendige Vorkenntnisse

    • Java und/oder JavaScript

    Anforderungen an die Vergabe von Leistungspunkten

    Diese Veranstaltung kann als Modulbereich "Interaktive Systeme" im Rahmen des Moduls Mensch-Maschine-Interaktion als 4 LP Veranstaltung belegt werden. Auf Anfrage ist auch die Abnahme als 5 LP Veranstaltung im Bereich individuelle Ergänzung möglich, z.B. durch die Übernahme eines Vortrags im Rahmen des Projektes.

    Materialien

    Folien zu einzelnen Vorträgen

  • Projekt Intelligenter Raum: Teledienste für einen Intelligenten Raum (Projekt)

    Inhalt

    Im Rahmen des Intelligente-Systeme Master Studium wurde das Projekt "Teledienste für einen Intelligenten Raum" von vier Studierenden durchgeführt. Dabei wurden aktuelle Technologien aus dem Bereich der natürlichen Sprachschnittstellen (VoiceXML, Spracherkenner) eingesetzt, um eine Sprachsteuerung für den Intelligenten Raum zu realisieren.

2010 - Sommersemester

  • Spezielle Themen der Künstlichen Intelligenz (Übungen)

    Die Übung begleitet die Vorlesung Spezielle Themen der KI. An Hand von praktischen Beispielen werden ausgewählte Themen aus der Vorlesung vertieft.

2009 - Wintersemester

  • Die Technik hinter Max (Seminar)

    Der virtuelle Agent Max wurde vor 10 Jahren in der AG Wissensbasierte Systeme von Studierenden unter der Leitung von Dr. Stefan Kopp und Prof. Dr. Ipke Wachsmuth entwickelt. Seit dieser Zeit hat Max einiges dazu gelernt. Max vereint dabei eine Vielzahl von spannenden Verfahren der künstlichen Intelligenz, der Sprachverarbeitung, der Computer- Grafik, der Animation und vor allem der Mensch-Maschine-Interaktion.

    Im Rahmen des Seminars sollen die verschiedenen Systeme und Kompetenzen, die im Zusammenspiel den Agenten Max ausmachen, vorgestellt werden. Dabei wird der Stand der Technik stets in Bezug gesetzt zum Stand der Forschung und zu anderen existierenden Systemen. Während des Semesters werden verschiedene Artikel und Paper diskutiert und jeweils von einem einzelnen Studierenden vorgestellt, sowie eine Ausarbeitung angefertigt. Dabei soll insbesondere das wissenschaftliche Präsentieren und Schreiben eingeübt werden, z.B. in Vorbereitung für die Master-Arbeit.

    Am Ende der Veranstaltungen werden Themen für mögliche Masterarbeiten präsentiert.

    Voraussetzungen

    • Vorlesung Künstliche Intelligenz
  • Interaktion in der Virtuellen Realität (Projekt)

    In diesem Projekt wurden verschiedene Verfahren zur Interaktion in der Virtuellen Realität vorgestellt. Die Studierenden sollten dann aus den folgenden Bereichen Verfahren auswählen und implementieren:

    • Navigation
    • Selektion
    • Texteingabe
    • Manipulation

    Im ersten Teil der Veranstaltung wurde dazu die Programmierung mit X3D und dem VR Toolkit InstantReality vermittelt. Darauf aufbauend wurden dann in den Gruppen zum Einstieg verschiedene Verfahren zur Navigation erarbeitet, implementiert und verglichen.

    Im zweiten Teil der Veranstaltung wurden komplexere Verfahren zur Navigation und Selektion erarbeitet und von den Gruppen implementiert.

    Im dritten Teil der Veranstaltung wurden die implementierten Verfahren im Rahmen einer Benutzerstudie evaluiert.

    Die Ergebnisse der Studierenden wurden in Form eines Videos aufbereitet und auf der 3D User Interfaces 2010 Konferenz in der Video Submission zum Wettbewerb eingereicht.