Offene Bachelor-, Master- und Diplomarbeitsthemen

Liebe Studenten,
hier finden Sie Vorschläge für Bachelor-, Master- und Diplomarbeitsprojekte. Natürlich können Themenvorschläge in Absprache angepasst werden und auch eigene Vorschläge sind willkommen! Bei Interesse wenden Sie sich einfach an die angegebenen Mitarbeiter oder an Stefan Kopp.

Klassifikator für verbale Feedbacksignale wie „mhm“, „okay, …“

Worum geht's? Um die Verständigung im Dialog zu sichern, geben sich Gesprächspartner Hinweise in Form von verbal-vokalen Feedbacksignalen (‘mhm’, ‘aha’, ‘hm’, ‘okay’, …). Diese erlauben es einem Adressaten den Sprecher zum Beispiel darüber zu informieren, ob und wie gut eine Äußerung verstanden wurde und ob der Äußerung zugestimmt wird oder nicht. Das richtige Erkennen derartiger Signale könnte auch für die Mensch-Maschine Interaktion im Bereich Sprachdialogsysteme oder virtuelle Agenten nützliche sein.

Aufgabe: Im Rahmen dieser Arbeit soll ein Klassifikator entwickelt werden, der ein verbal-vokales Feedbacksignal als Eingabe erhält und die intendierte Feedbackfunktion (Verständnis, nicht-Verständnis, Zustimmung, Ablehnung, etc.) zurück liefert. Ausgewertet werden sollen dazu (1) die von einem Spracherkenner erkannte lexikalische Form und (2) die von dem Signalverarbeitungssoftware openSMILE gelieferten prosodischen Features.

Kontakt: Hendrik Buschmeier; Geeignet für Studienprojekte, Bachelor- und Masterarbeiten

Finden und Erkennen von linguistischen Feedbacksignalen in Audiostreams

Worum geht's? Um die Verständigung im Dialog zu sichern, geben sich Gesprächspartner Hinweise in Form von verbal-vokalen Feedbacksignalen (‘mhm’, ‘aha’, ‘hm’, ‘okay’, …). Diese erlauben es einem Adressaten den Sprecher zum Beispiel darüber zu informieren, ob und wie gut eine Äußerung verstanden wurde und ob der Äußerung zugestimmt wird oder nicht. Das richtige Erkennen derartiger Signale könnte auch für die Mensch-Maschine Interaktion im Bereich Sprachdialogsysteme oder virtuelle Agenten nützliche sein.

Aufgabe Um linguistische Feedbacksignale in der Mensch-Agenten Kommunikation genauer hinsichtlich ihrer paraverbalen Eigenschaften analysieren zu können, müssen sie im Audio-Eingabestrom überhaupt erst einmal lokalisiert werden. Die Aufgabe in dieser Bachelorarbeit ist es also, einen ‘Feedbackspotter’ zu implementieren, der linguistische Feedbacksignale in Echtzeit aus einem kontinuierlichen Audiosignal herausfiltern und zur weiteren Verarbeitung zur Verfügung stellen kann. Hierzu könnten bspw. heuristische Verfahren oder Verfahren des maschinellen Lernens angewandt werden.

Kontakt: Hendrik Buschmeier; Geeignet für Studienprojekte, Bachelorarbeiten

Korpusstudie: Anpassungen im Dialog

Worum geht's? Dass sich Gesprächspartner im Dialog aneinander anpassen, ist ein bekanntes Phänomen. Oftmals werden in der Forschungsliteratur allerdings nur Anpassungen beschrieben, die zu einem „Alignment“ der Oberflächenform der Äußerungen führen. Es ist aber davon auszugehen, dass Gesprächspartner sich auch mit anderen Mitteln auf einander einstellen, insbesondere in Situationen, in denen Adressaten mittels kommunikativem Feedback spezielle Wünsche oder Bedürfnisse äußern.

Fragestellung Im Rahmen dieser Arbeit soll ein existierender Korpus von Sprachdialogdaten auf Anpassungsmechanismen hin untersucht werden. Hierzu ist es zum einen notwendig eine geeignete Methodik zu entwickeln, die es erlaubt potentielle Anpassungen systematische zu identifizieren, zum anderen sollen die aufzufindenden Anpassungsmechanismen in ihrem Kontext beschrieben und hinsichtlich ihrer kommunikativen Funktion analysisert werden.

Zusätzliche Informationen: Das Thema dieser Arbeit richtet sich in erster Linie an Studierende der Linguistik und der interdisziplinären Medienwissenschaft und sollte durch eine geeignete Person aus der Fakultät für Linguistik und Literaturwissenschaft mitbetreut werden. Programmierkenntnisse sind nicht erforderlich.

Kontakt: Hendrik Buschmeier; Geeignet für Masterarbeiten

Intelligente Schnittstellen für Menschen mit geistiger Behinderung

Worum geht's? In Zusammenarbeit mit dem Projekt "Personenzentrierte Interaktion und Kommunikation für mehr Selbstbestimmung im Leben (PIKSL)" der In der Gemeinde Leben gGmbH (IGL) arbeiten wir daran, Menschen mit geistiger Behinderung zu unterstützen, ein selbstbestimmtes Leben zu führen. Dabei geht es konkret um die zielgruppen-orientierte Entwicklung intelligenter Schnittstellen und den Abbau von Barrieren bei der Nutzung neuer Medien und Kommunikationsformen.

Aufgabe/Fragestellung: Mögliche Themen in Zusammenarbeit mit dem PIKSL Kommunikationslabor in Düsseldorf wären zum Beispiel:

Kontakt: Kirsten Bergmann; Geeignet für Studienprojekte, Bachelor- und Masterarbeiten

Künstliche Spielpartner für die Kind-Agenten-Interaktion

Worum geht's? Es soll ein System entwickelt werden, mit dem ein Kind mit einem virtuellen "kindgerechten" Agenten interagieren (z.B. spielen) kann. Dazu sind Technologien der AG SoA zu verwenden, zu integrieren und auf die Bedürfnisse und Anforderungen eines Kindes anzupassen. Beispielsweise muss kindhaftes Bewegungsverhalten mit dem Agenten simuliert werden, eine Spracherkennung gesucht werden, die Kindersprache verstehen kann, und ein Dialogmanager definiert werden, der eine spielerische Interaktion oder einen Dialog (z.B. wie ELIZA für Kinder) steuern kann. Diese Arbeit wird kooperativ mit der AG Emergentist Semantics am CITEC durchgeführt. Das Ziel ist ein System, mit dem neuartige Studien zu kindlicher Entwicklung durchgeführt werden können.

Aufgabe/Fragestellung: Diese Masterarbeit umfasst die Einarbeitung in die technische Umgebung der AG sowie eine Aufarbeitung der relevanten Literatur (insb. zur Kindesentwicklung). Ein Ansatz ist zu entwickeln, der von einem Zielprofil (Alter, Fähigkeiten des Kindes, gewünschte Interaktion/Spiel, etc.) zu einer anwendbaren Plattform führt. Ggf. können erste Erprobungsstudien mit realen Kindern durchgeführt werden.

Kontakt: Stefan Kopp; Geeignet für Master- oder Diplomarbeiten

Bin ich gemeint? Detektion von Interaktionssignalen

Worum geht's? Technische Systeme, die Menschen in einer natürilchen Umgebung unterstützen sollen, müssen eine zentrale Fähigkeit besitzen: Sie müssen Bewegungen in ihrer Umwelt wahrnehmen und entscheiden können, ob es sich um ein an sie gerichtetes Signal (z.B. eine Zeigegeste) und irgendeine andere Bewegung handelt (z.B. Herunterfallen einer Tasse, am Kopf kratzen oder einen Knopf drücken des Menschen). In dieser Arbeit sollen die Grundlagen einer solchen Eigenschaft für einen Agenten implementiert werden.

Aufgabe/Fragestellung: Ein Agent soll implementiert werden, der in einer Wohnzimmer-Umgebung "lebt" und diese beobachtet. Er soll mittels Kinect-Sensor (Bewegungsverfolgung) und Web-Cam (Personenverfolgung) ausgerüstet werden und erkennen, wann eine Bewegung (1.) an ihn gerichtet ist und (2.) saliente Merkmale aufweist, die auf ein Interaktionssignal hindeuten. Dies kann auch multimodal unterstützt werden (Verrechnung mit Blick, Sprache, Köroerhaltung).

Kontakt: Stefan Kopp; Geeignet für Master- oder Diplomarbeiten

Generierung von sprachbegleitenden Rhythmusgesten (Beats)

Worum geht's? Sprach-begleitende Gestik zeichnet sich dadurch aus, dass die Bewegungen der Hände auf den Sprachrhythmus abgestimmt sind. Besonders deutlich wird dies bei sogenannten Beat-Gesten (z.B. bei politischen Reden). Auch ikonische Gesten und Zeigegesten werden oft durch Beats überlagert. Anhand einer phonetischen Datenannotation sollen multimodale rhytmische Muster extrahiert werden aus denen sich dann automatisch entsprechende sprach-gestische Ensembles generieren lassen.

Aufgabe/Fragestellung: Eine Master- bzw. Diplomarbeit umfasst die Analyse eines Datenkorpus auf sprachlicher (phonetischer) Ebene, sowie die Auswertung gestischer Bewegungsmuster (z.B. Beschleunigung, Richtungsumkehr). Die Ergebnisse sollen in einem Framework zur Generierung multimodaler Äußerungen eingesetzt und implementiert werden und für eine verbesserte Synchronität zwischen den Modalitäten sorgen.

Kontakt: Kirsten Bergmann; Geeignet für Master- oder Diplomarbeiten

Auswirkungen linguistischen Feedbacks im Mensch-Agenten-Dialog

Worum geht's? Linguistische Feedbacksignale (wie z.B. Ja, Mhm, Aha, …), Mimik und Kopfgesten sind essentielle Bestandteile der menschlichen sprachlichen Kommunikation und dienen den Gesprächspartnern als Koordinationsmechanismus. Des Weiteren gibt es bereits empirische Hinweise, dass Feedbacksignale von künstlichen konversationalen Agenten (Virtuelle Agenten, Dialogsysteme) einen Einfluss auf die Mensch-Agent Kommunikation haben.

Aufgabe/Fragestellung: In dieser Arbeit soll empirisch untersucht werden, wie Menschen mit virtuellen Agenten umgehen die Feedback verstehen und Feedback geben können. Mögliche Fragestellungen wären z.B.:

Kontakt: Hendrik Buschmeier; Geeignet für Bachelor, Master- oder Diplomarbeiten

Ausbau der IPAACA-Middleware

Worum geht's? Eine Interaktion mit Dialogsystemen und Virtuellen Agenten wird von Benutzern besser bewertet, wenn das System mit geringer Latenz und inkrementell auf Benutzeräußerungen und -aktionen reagiert. Um dies zu ermöglichen, wird eine Kommunikationsmiddleware benötigt die ebenfalls den Prinzipien der inkrementellen Verarbeitung genüge tut. Die von uns entwickelte Architektur IPAACA (Incremental Processing Architecture for Artificial Conversational Agents) wurde entsprechend dieser Philosophie gestaltet.

Aufgabe/Fragestellung: In dieser Bachelorarbeit, soll IPAACA weiter ausgebaut werden, z.B.:

Kontakt: Hendrik Buschmeier und Ramin Yaghoubzadeh; Geeignet als Bachelorarbeit

Probabilistische multimodale Einschätzung der Nutzer-Zufriedenheit

Worum geht's? Maschinen im "Face-to-face"-Dialog sollten den aktuellen Grad der Aufmerksamkeit und der Zufriedenheit des menschlichen Nutzers einschätzen können, um daraus Anhaltspunkte für den weiteren Fortgang der Unterhaltung zu gewinnen. Sowohl die Emotionserkennung in gesprochener Sprache (EmoVoice, OpenEAR) als auch in Kamerabildern der Gesichter des Gesprächspartners sind Fokus aktueller Forschung. Deren Ergebnisse sind mit Unsicherheiten behaftet. Eine Integration der einzelnen Modalitäten kann diese Unsicherheit reduzieren. In einen gemeinsamen "Emotions-" oder "Zufriedenheits-Raum" transformiert, und unter Berücksichtigung der vorherigen Zeitschritte, können zu einem Zeitpunkt verschieden starke Hypothesen über mehrere Zustände bestehen.

Aufgabe/Fragestellung:

Kontakt: Ramin Yaghoubzadeh; Geeignet für Bachelorarbeiten

Computergestützte Interaktionsexperimente

Worum geht's? Virtuelle Agenten bieten eine hervorragende Möglichkeit zu untersuchen, wie kommunikatives Verhalten auf Menschen wirkt. Modalitäten wie Sprache, Gestik, Blick, Mimik etc. lassen sich beliebig kombinieren und variieren. So kann man sehr gezielt einzelne Parameter verändern, wie z.B.

Aufgabe/Fragestellung: Eine BA/MA-Arbeit umfasst die Aufarbeitung der Literatur zu einer spezifischen Fragestellung, Vorbereitung und Durchführung eines eigenen Experiments sowie die statistische Auswertung und Interpretation der Ergebnisse.

Kontakt: Kirsten Bergmann; Geeignet für Bachelor- und Masterarbeiten

Empirische Korpusanalyse

Worum geht's? Ein Ziel unserer Arbeit ist es, Modelle von kognitiven Leistungen in der Kommunikation zu finden, die menschliche Fähigkeiten erklären und maschinelle Fähigkeiten vergrößern. Dazu dient die natürliche Kommunikation zwischen Menschen stets als Vorbild. In einem bereits bestehenden umfangreichen Korpus natürlicher Interaktionen (mit Sprache und Gestik im Dialog) sollen dazu konkrete Fragestellungen untersucht werden, z.B.:

Aufgabe/Fragestellung: Eine BA-Arbeit umfasst die Einarbeitung in die Literatur zu einer spezifischen Fragestellung, ggf. Annotation geeigneter Information in unserem Datenkorpus sowie die statistische Auswertung der Daten. Im Rahmen einer MA sollten die Ergebnisse darüber hinaus in einem Modell für unsere virtuellen Agenten implementiert werden.

Kontakt: Kirsten Bergmann; Geeignet für Bachelor- und Masterarbeiten