AG Wissensbasierte Systeme, Technische Fakultät
British Flag   German Flag

Themen

Unter den folgenden Themenbereichen biete ich Lehrveranstaltungen an: Frühere Veranstaltungen

Lehrangebot

Das jeweils aktuelle Lehrangebot und vergangene Veranstaltungen werden hier kurz beschrieben:

Auswahl des Semesters


2013 - Sommersemester

  • Virtuelle Realität (Projekt)

    Termin: Mi. 16 - 18
    Start: 10. April 2013
    Eintrag im eKVV: http://ekvv.uni-bielefeld.de/kvv_publ/publ/vd?id=36970834

    Im Projekt Virtuelle Realität werden die Inhalte aus der Vorlesung Virtuelle Realität durch praktische Übungen vertieft.

    Das Vorgehen im Projekt orientiert sich am Prozess der wissenschaftlichen Forschung. Zu Beginn werden mit allen Teilnehmern aktuelle Forschungsthemen und Fragestellungen diskutiert. Je nach Anzahl der Teilnehmer werden dann Interessengruppen gebildet, die sich intensiv mit einem der Themen auseinandersetzen, einen eigenen Ansatz entwickeln und diesen in einer immersiven VR-Installation umsetzen. Eine kleine angeleitete Evaluation schließt den methodischen Teil ab.

    Im Rahmen des Projektes können sich eventuell Gruppen aus den verschiedenen Vorlesungen ergänzen. Während Teilnehmer der Vorlesung Virtuelle Realität sich um die technische Umsetzung kümmern und die gemeinsam entwickelten Ideen in der CAVE umsetzen, entwickeln die Teilnehmer aus der Vorlesung Mensch-Maschine Interaktion das Interaktionskonzept und führen eine iterative Evaluation durch.

    Im Anschluss an die praktischen Arbeiten wird ein Abschlussbericht erstellt. Dieser ist in Form einer Einreichung beim deutschen Workshop für Virtuelle und Erweiterte Realität der Gesellschaft für Informatik geplant. Die Teilnehmer lernen dabei etwas über die Strukturierung und Formulierung wissenschaftlicher Arbeiten und haben die Chance, bei einer Annahme in der Gruppe zusammen zum Workshop zu fahren (Tagungsbeitrag in der Regel frei, Unterkunft und Fahrt müssen selbst finanziert werden) und den Beitrag zu präsentieren.

    Im Anschluss an das Projekt ergeben sich in der Regel einige Vertiefungsmöglichkeiten, die als Themen zum direkten Anschluss einer Bachelor- oder Masterarbeit genutzt werden können.

  • ISY-Master Projekt "Audible-Eyed"

    • Belegnummer: wird am Ende des Semesters vergeben
  • Mobile Blickbasierte Interaktion (Projekt)

    Termin: nach Vereinbarung
    Start: 10. April 2013
    Eintrag im eKVV: http://ekvv.uni-bielefeld.de/kvv_publ/publ/vd?id=39496894

    Die mobile blickbasierte Interaktion möchte einen Traum erfüllen: endlich soll der Computer befähigt werden, dem Nutzer die Wünsche von den Augen abzulesen.

    Um solch eine Vision Realität werden zu lassen, muss das System jedoch wesentliche Herausforderungen meistern:

    1. Erkennung der Augenbewegungen
    2. Erfassung und Repräsentation der Interaktionsumgebung
    3. Interpretation der Augenbewegungen in Bezug auf die Interaktionsumgebung
    4. Interaktion mit dem Nutzer

    Im Rahmen des Projektes wollen wir solche blickbasierten Interaktionen realisieren. Dabei gibt es verschiedene Schwerpunkt-Alternativen, die von unterschiedlichen Teams bearbeitet werden können:

    • A. Verwendung eines mobilen Eyetrackers (gegeben) und Fokussierung auf 2+3: Erfassung und Repräsentation der Interaktionsumgebung, sowie Interpretation der Augenbewegungen. Das kann z.B. zur Analyse von Nutzerstudien im Supermarkt oder in der Roboterinteraktion verwendet werden.
    • B. Verwendung eines mobilen Eyetrackers (gegeben) und Erarbeitung der Punkte 2-4, d.h. Analyse der Umgebung mit CV-Verfahren, Interpretation der Augenbewegungen, Interaktion mit dem Nutzer Beispiel: blickbasierte Lesehilfe oder Übersetzunghilfe: Das System detektiert, wenn der Nutzer auf Teste schaut und kann diese dann entweder vorlesen oder übersetzen
    • C. Schwerpunkt auf der Entwicklung von Eyetracking-Verfahren für Android-Geräte (1-3), wobei 2-3 bei der Interaktion mit GUI-Anwendungen einfach gehalten werden kann. So könnte man z.B. das für das Samsung Galaxy S4 versprochene blickbasierte Scrollen realisieren.

    Weitere Infos zu A/B: Im Bereich der Erweiterten Realität/Augmented Reality wird schon heute auf Methoden der Bildverarbeitung zurückgegriffen, um in Echtzeit eine Lokalisierung der Person und eine exakte Verortung im 3D-Raum zu ermöglichen. Nur so können dann 3D Modelle der Realität überlagert und einfache Interaktionen realisiert werden. Die Erfassung muss dabei derzeit noch ungerichtet auf dem gesamten Szenenbild geschehen, welches durch eine kleine kopfgetragene Kamera erfasst wird.

    Technische Fortschritte der mobilen Blickbewegungserfassung schaffen ganz neue Möglichkeiten für die mobile Interaktion und die Analyse von natürlichem Verhalten im Alltag außerhalb der Labore. Zum einen liefern die Systeme die genauen Punkte im Szenenbild, die vom Nutzer angeschaut wurden. Mit diesem Wissen könnte die Objektverfolgung auf den aktuellen Fokus des Nutzers konzentriert und damit performanter durchgeführt werden. Zum anderen besteht das Potential, die Blickinformationen auch zur Interaktion zu nutzen. So könnte die aktuelle Aktion des Nutzers (Orientieren, Lesen, Suchen) erkannt und für die Interaktion verfügbar gemacht werden. Darüber hinaus kann durch die Verknüpfung mit der Objektverfolgung ein direkter Bezug zum aktuellen Kontext der kognitiven Verarbeitung des Nutzers hergestellt werden.

    Ziel dieses Projektes ist es, Verfahren der Objektverfolgung und Lokalisation für die Anwendung im Bereich der mobilen Blickbewegungsmessung zu kombinieren und weiter zu entwickeln. In Variante A liegt der Fokus auf der genauen Lokalisation und Verfolgung von generischen Objekten. Dabei kann auf bereits aufgezeichnete Videos und Blickbewegungsdaten in der Entwicklungsphase zurückgegriffen werden. In Variante B liegt der Fokus auf der echtzeitfähigen Interaktion, d.h. Lokalisation und Verfolgung müssen schnell ablaufen und daher wird gegebenenfalls auf spezielle Marker oder eine kleine Auswahl an Objekten, die leichter zu detektieren sind, zurückgegriffen. Ein nahtloser Übergang von Variante A in Variante B ist je nach Fortschritt möglich.

    Allgemein: Im ersten Teil des Projektes werden wir in Seminarform die folgenden Themen näher betrachten:

    • Einführung in die Blickbewegungsmessung (Eyetracking)
    • Vorstellung der Eyetracking Systeme und der vorhandenen Experimental- und Analysesoftware
    • Verfahren für Objektverfolgung und Lokalisation
    • Ansätze zur automatischen Annotation im Eyetracking Bereich
    • Beispiele für blickbasierte Interaktionen

    Das restliche Semester ist für eigenständige Arbeit vorgesehen. Großer Wert wird dabei auf Projektmanagement und Dokumentation gelegt.

    Es ist geplant, mit Veranstaltungen und Abschlussarbeiten an das Projekt anzudocken. Eine besondere Motivation dazu könnte der SAGA-Wettbewerb sein, der im April ausgeschrieben wird. Im Rahmen dieses Wettbewerbs werden den Teilnehmern Daten (Videos+Blickbewegungsdaten) zur Verfügung gestellt. Die Teilnehmer können dann Beiträge in Form von Software-Lösungen zur automatischen oder teilautomatischen Objektverfolgung und Auswertung der Blickbewegungen einreichen. Abgabe der Beiträge wird im September/Oktober 2013 und die Präsentation dann im Oktober 2013 sein. Es wird angestrebt, dass wir aus dem Projekt heraus wenigstens eine Einreichung bei diesem Wettbewerb versuchen. Die Einreichung (Paper + Software) stellt dann gleichzeitig die unbenotete Leistung des Projektes dar.

2012 - Wintersemester

2012 - Sommersemester

  • Virtuelle Realität (Projekt)

    Termin: Mi. 16 - 18
    Start: 2. April 2012
    Eintrag im eKVV: http://ekvv.uni-bielefeld.de/kvv_publ/publ/vd?id=29422651

    Im Projekt Virtuelle Realität werden die Inhalte aus der Vorlesung durch praktische Übungen vertieft.

    Das Vorgehen im Projekt orientiert sich am Prozess der wissenschaftlichen Forschung. Zu Beginn werden mit allen Teilnehmern aktuelle Forschungsthemen und Fragestellungen diskutiert. Je nach Anzahl der Teilnehmer werden dann Interessengruppen gebildet, die sich intensiv mit einem der Themen auseinandersetzen, einen eigenen Ansatz entwickeln und diesen in einer immersiven VR-Installation umsetzen. Eine kleine angeleitete Evaluation schließt den methodischen Teil ab.

    Im Rahmen des Projektes können sich eventuell Gruppen aus den verschiedenen Vorlesungen ergänzen. Während Teilnehmer der Vorlesung Virtuelle Realität sich um die technische Umsetzung kümmern und die gemeinsam entwickelten Ideen in der CAVE umsetzen, entwickeln die Teilnehmer aus der Vorlesung Mensch-Maschine Interaktion das Interaktionskonzept und führen eine iterative Evaluation durch.

    Im Anschluss an die praktischen Arbeiten wird ein Abschlussbericht erstellt. Dieser ist in Form einer Einreichung beim deutschen Workshop für Virtuelle und Erweiterte Realität der Gesellschaft für Informatik geplant. Die Teilnehmer lernen dabei etwas über die Strukturierung und Formulierung wissenschaftlicher Arbeiten und haben die Chance, bei einer Annahme in der Gruppe zusammen zum Workshop zu fahren (Tagungsbeitrag in der Regel frei, Unterkunft und Fahrt müssen selbst finanziert werden) und den Beitrag zu präsentieren.

    Im Anschluss an das Projekt ergeben sich in der Regel einige Vertiefungsmöglichkeiten, die als Themen zum direkten Anschluss einer Bachelor- oder Masterarbeit genutzt werden können.

  • ISY-Master Projekt "Mobile Sprachdienste"

2011 - Wintersemester

2011 - Sommersemester

  • Virtuelle Realität (Seminar)

    Inhalt

    Beim Seminar "Virtuelle Realität" handelt es sich um ein Literatur-Seminar. Anfangs werden Themen an die Teilnehmer vergeben. Diese bereiten dann jeweils einen Vortrag von ca. 45 Minuten vor, den sie nach vorheriger Absprache mit dem Seminarleiter (3-4 Tage vorher) halten und das Thema anschaulich den Kommilitonen präsentieren.

    Das Seminar beschäftigt sich zum einen mit den Zielen und Visionen, die wir mit Virtueller Realität verbinden. Dabei geht es insbesondere auch um das persönliche Erleben und die Frage nach Immersion und Präsenz in Virtuellen Realitäten oder Virtuellen Welten.

    Zum anderen stehen aber insbesondere auch die Technologien und die Softwaremethodik im Vordergrund. Dabei werden wir verschiedene visuelle Projektionstechnologien vorstellen und diskutieren, sowie Techniken, die andere Modalitäten bedienen (Olfaktorische, Haptische, etc). Im Bereich der Softwaremethodik werden verschiedene Programmiermodelle für die Entwicklung interaktiver Anwendungen in Virtueller Realität, insbesondere solcher mit 3D Grafik, vorgestellt.

    Abschließen möchten wir die Vortragsreihe mit der Präsentation verschiedener Anwendungsfelder von Techniken der Virtuellen Realität aus den Bereichen Spiele, Scientific Visualization und Industrie / Virtual Prototyping.

    Die Veranstaltung findet Mittwochs von 16:00 Uhr (s.t.) bis 17:30 Uhr statt. Treffpunkt ist der Raum M3-115.

    Kompetenzen

    Im theoretischen Teil des Seminars stellen Studierende in Vorträgen einzelne Themenbereiche vor, die sie sich auf der Basis vorgegebener Literatur und eigener Recherchen erarbeitet haben.

  • Spezielle Themen der Künstlichen Intelligenz (Übungen)

    Die Übung begleitet die Vorlesung Spezielle Themen der KI. An Hand von praktischen Beispielen werden ausgewählte Themen aus der Vorlesung vertieft.

  • ISY-Master Projekt: Recipes - intelligent and integrated (Projekt)

    Im Rahmen dieses Projektes wurde eine Beschreibungssprache für Kochrezepte entwickelt, ein Editor für diese Sprache entwickelt und eine Software zur Unterstützung des Kochprozesses realisiert.

2010 - Wintersemester

  • Interaktive Teledienste: Von der Telefonnavigation zum videobasierten Auskunftsdienst (Seminar)

    Inhalt

    Interaktive Teledienste sind uns aus dem Alltag bekannt. Viele Hotlines setzen auf Sprachmenüs, die eine Vorselektion und Weiterleitung des Anrufers erlauben. Dies geschieht oft durch einfache Interaktion mittels Telefontastatur (DMF-Verfahren). Komplexere Teledienste erlauben eine komplette Geschäftsabwicklung, wie z.B. die Bestellung eines Tickets, mit einfachen natürlichsprachlichen Instruktionen. Fortgeschrittene Technologien, zu denen auch der in der AG WBS entwickelte verkörperte Kommunikationsagent Max gehört, erlauben neben der rein sprachlich-auditiven auch eine gestisch-visuelle Interaktion. Die nächste Generation der Teledienste könnte entsprechend multimodal interagieren und einige Vorteile gegenüber den reinen technischen Sprachdiensten bieten.

    Kompetenzen

    Im theoretischen Teil des Seminars stellen Studierende in Vorträgen einzelne Themenbereiche vor, die sie sich auf der Basis vorgegebener Literatur und eigener Recherchen erarbeitet haben:

    • Teledienste

      • Überblick: Einsatzgebiete, Anforderungen, Risiken
      • Evaluation
    • Sprachliche Teledienste

      • Architekturen
      • Design-Techniken von Sprachsystemen
      • Überblick über Standards und Technologien (VoiceXML, SALT, H323, SIP, Skype)
    • Multimodale Teledienste

      • Diskussion über Einsatzgebiete und Anforderungen
      • Architekturen
      • Embodied Conversational Agents
      • Technologien für Sprach/Videodienste
    Im Rahmen des Seminars werden auch praktische Übungen zu einzelnen Themen gemacht, um konkrete Technologien in der Praxis kennen zu lernen. Unter anderem wird ein einfacher Dienst in VoiceXML implementiert.

    Teilnahmevoraussetzungen, notwendige Vorkenntnisse

    Dieses Seminar vermittelt die folgenden Kompetenzen:

    • Basiskenntnisse im Bereich interaktiver Teledienste
    • Methoden für das Design und die Evaluation von Telediensten
    • Praxis im Umgang mit VoiceXML

    Bei ausreichend großem Interesse ist angedacht, im Anschluss an das Seminar ein Projekt anzubieten, bei dem die erlangten Kompetenzen in der Praxis angewendet werden können. Dies könnte beispielsweise ein Auskunftsdienst für die Bielefelder Mensa, ein Wetterdienst oder etwa ein einfacher Sekretär (z.B. zur Terminkoordination) sein.

  •  Blickbasierte Benutzerschnittstellen am Desktop und in der Virtuellen Realität (Projekt)

    Inhalt

    Neben Sprache und Handgestik leisten die Augen des Menschen einen wesentlichen Beitrag zur Kommunikation zwischen Menschen. Tatsächlich sind die Augen sogar noch schneller als es Sprache und Gestik sein können. Während der Mensch in der Wahrnehmung und Bewertung von Augenbewegungen trainiert ist, stellt der Einsatz von Blicken in der Mensch-Maschine-Interaktion die Technik immer noch vor Herausforderungen.

    Dabei gibt es viele Einsatzszenarien, die einen Einbezug des Blickverhaltens des Menschen in die Interaktion lohnenswert machen. Typische Szenarien sind: Information Visualization, Interaktionen mit Virtuellen Agenten oder Benutzerschnittstellen für Menschen, die ihre Arme oder Sprache nur eingeschränkt verwenden können, sei es aus technischen Gründen, weil etwa die Arme in einer Aufgabe eingebunden sind, oder aus körperlichen Gründen.

    Im Rahmen des Projektes werden die Grundlagen für die Analyse von Blickbewegungen vermittelt und der aktuelle Stand der Technik vorgestellt. Weiterhin werden die Grundlagen für die Programmierung interaktiver Anwendungen in der Virtuellen Realität erarbeitet. Im praktischen Teil wird gemeinsam mit den Studierenden eine blickbasierte Benutzerschnittstelle entworfen, die im Anschluss implementiert und in einer kleinen Benutzerstudie evaluiert wird.

    Kompetenzen

    • Kenntnisse über das visuelle System des Menschen
    • Entwurf und Implementierung blickbasierter Benutzerschnittstellen
    • Entwicklung interaktiver Anwendungen im Bereich Virtuelle Realität

    Teilnahmevoraussetzungen, notwendige Vorkenntnisse

    • Java und/oder JavaScript

    Anforderungen an die Vergabe von Leistungspunkten

    Diese Veranstaltung kann als Modulbereich "Interaktive Systeme" im Rahmen des Moduls Mensch-Maschine-Interaktion als 4 LP Veranstaltung belegt werden. Auf Anfrage ist auch die Abnahme als 5 LP Veranstaltung im Bereich individuelle Ergänzung möglich, z.B. durch die Übernahme eines Vortrags im Rahmen des Projektes.

    Materialien

    Folien zu einzelnen Vorträgen

  • Projekt Intelligenter Raum: Teledienste für einen Intelligenten Raum (Projekt)

    Inhalt

    Im Rahmen des Intelligente-Systeme Master Studium wurde das Projekt "Teledienste für einen Intelligenten Raum" von vier Studierenden durchgeführt. Dabei wurden aktuelle Technologien aus dem Bereich der natürlichen Sprachschnittstellen (VoiceXML, Spracherkenner) eingesetzt, um eine Sprachsteuerung für den Intelligenten Raum zu realisieren.

2010 - Sommersemester

  • Spezielle Themen der Künstlichen Intelligenz (Übungen)

    Die Übung begleitet die Vorlesung Spezielle Themen der KI. An Hand von praktischen Beispielen werden ausgewählte Themen aus der Vorlesung vertieft.

2009 - Wintersemester

  • Die Technik hinter Max (Seminar)

    Der virtuelle Agent Max wurde vor 10 Jahren in der AG Wissensbasierte Systeme von Studierenden unter der Leitung von Dr. Stefan Kopp und Prof. Dr. Ipke Wachsmuth entwickelt. Seit dieser Zeit hat Max einiges dazu gelernt. Max vereint dabei eine Vielzahl von spannenden Verfahren der künstlichen Intelligenz, der Sprachverarbeitung, der Computer- Grafik, der Animation und vor allem der Mensch-Maschine-Interaktion.

    Im Rahmen des Seminars sollen die verschiedenen Systeme und Kompetenzen, die im Zusammenspiel den Agenten Max ausmachen, vorgestellt werden. Dabei wird der Stand der Technik stets in Bezug gesetzt zum Stand der Forschung und zu anderen existierenden Systemen. Während des Semesters werden verschiedene Artikel und Paper diskutiert und jeweils von einem einzelnen Studierenden vorgestellt, sowie eine Ausarbeitung angefertigt. Dabei soll insbesondere das wissenschaftliche Präsentieren und Schreiben eingeübt werden, z.B. in Vorbereitung für die Master-Arbeit.

    Am Ende der Veranstaltungen werden Themen für mögliche Masterarbeiten präsentiert.

    Voraussetzungen

    • Vorlesung Künstliche Intelligenz
  • Interaktion in der Virtuellen Realität (Projekt)

    In diesem Projekt wurden verschiedene Verfahren zur Interaktion in der Virtuellen Realität vorgestellt. Die Studierenden sollten dann aus den folgenden Bereichen Verfahren auswählen und implementieren:

    • Navigation
    • Selektion
    • Texteingabe
    • Manipulation

    Im ersten Teil der Veranstaltung wurde dazu die Programmierung mit X3D und dem VR Toolkit InstantReality vermittelt. Darauf aufbauend wurden dann in den Gruppen zum Einstieg verschiedene Verfahren zur Navigation erarbeitet, implementiert und verglichen.

    Im zweiten Teil der Veranstaltung wurden komplexere Verfahren zur Navigation und Selektion erarbeitet und von den Gruppen implementiert.

    Im dritten Teil der Veranstaltung wurden die implementierten Verfahren im Rahmen einer Benutzerstudie evaluiert.

    Die Ergebnisse der Studierenden wurden in Form eines Videos aufbereitet und auf der 3D User Interfaces 2010 Konferenz in der Video Submission zum Wettbewerb eingereicht.

2009 - Sommersemester

  • Interaktive Visualisierung Sozialer Netzwerke (Projekt)

    Ziel des Projektes ist es, für Soziale Netzwerke eine intelligente interaktive Visualisierung in einer immersiven 3D Virtual Reality Einrichtung (CAVE) zu realisieren. Dazu werden im Seminarteil Methoden und Techniken für die 3D Programmierung, für die Modellierung Sozialer Netzwerke und die Interaktionsverarbeitung erarbeitet. Im Projektteil soll dann eine entsprechende Anwendung entwickelt werden. Dabei kann auf bereits existierende Arbeiten vom Vorjahr aufgebaut werden. Teilaspekte können jeweils in Kleingruppen realisiert werden.

    Ablauf

    • Seminar-Teil
      • VR-Programmierung mit X3D / OpenSG
      • Formale Grundlagen der Modellierung Sozialer Netzwerke
      • Literatur zur Interaktion mit Graphen
    • Projekt-Teil
      • Teamarbeit
      • Weiterentwicklung eines Systems zur interaktiven Visualisierung Sozialer Netzwerke

    Voraussetzungen

    • Programmiererfahrungen in Java/C++
    • Mathematische Grundkenntnisse der Linearen Algebra und Analysis (Basiswissen)
  • Virtual Jamming - Musizieren in der Virtuellen Realität (Projekt)

    In den Wohnzimmern haben einfache Simulationen von Musikinstrumenten in den letzten Jahren verstärkt Einzug gehalten. Insbesondere wurde dies durch spezielle Eingabegeräte, wie z.B. drucksensitiver Bodenmatten oder der WiiMote, begünstigt. In den meisten Fällen konzentriert sich die Interaktion dabei auf die Einhaltung eines bestimmten Rhythmus.

    In diesem Projekt sollen verschiedene weiterführende Ideen entwickelt und exploriert werden. In der immersiven Virtuellen Realität, vermittelt durch die CAVE, können komplexere Instrumente visualisiert werden. Die umfangreiche Tracking-Ausstattung erlaubt dabei den Einbezug von Körperbewegungen für die Interaktion. Mit speziellen Handschuhen können selbst die Bewegungen einzelner Finger erfasst werden. Besonders interessant ist dabei die Möglichkeit, ein Feedback auf einzelne Finger zu geben und damit auch den Tastsinn mit einzubeziehen. Neben der Simulation von Instrumenten (visuell und auditiv) ist daher in der immersiven Installation ein besonderer Schwerpunkt in der zeitlichen und räumlichen Erfassung von Interaktionen.

    Neben der CAVE gibt es auch die Möglichkeit, mehrere Personen vor großen Bildschirmen miteinander interagieren zu lassen, die in den Laboren in Bielefeld verteilt sind. Hier stehen einfache, robuste Interaktionsformen im Vordergrund. Die Herausforderung in diesem Szenario besteht insbesondere in der Koordination der verteilten Interaktion und der damit technisch bedingten Verzögerung.

    Ablauf

    • Seminar-Teil
      • VR-Programmierung mit X3D / OpenSG
      • Erzeugung von Audio mit Schwerpunkt auf Software Bibliotheken für 3D Sound und virtuelle Instrumente/Synthesizer
      • Mensch-Maschine Interaktion über den Körper
      • Ausgewählte Literatur speziell zum Anwendungsgebiet
    • Projekt-Teil
      • Teamarbeit
      • Entwicklung einer VR Installation zum gemeinsamen Musizieren

    Voraussetzungen

    • Programmiererfahrungen in Java/C++
    • Mathematische Grundkenntnisse der Linearen Algebra und Analysis (Basiswissen)
  • "Intelligenter Raum" III: Eine agentenbasierte Architektur für den intelligenten Raum (Projekt)

2008

  • Interaktive Visualisierung Sozialer Netzwerke (Projekt)

    In diesem Projekt werden Methoden und Techniken für die Visualisierung von Netzwerkstrukturen erarbeitet. Ziel des Projektes ist es, eine intelligente interaktive Visualisierung für Netzstrukturen zu entwickeln, die auch in einer immersiven 3D Virtual Reality Einrichtung (CAVE) funktionieren soll. Hier sollen im Vorfeld zunächst verschiedene Möglichkeiten der Umsetzung evaluiert werden. Die einzelnen Teilaspekte der Visualisierung sollen dann in Kleingruppen umgesetzt werden. Der theoretische Hintergrund ist an ein Projekt der AG-WBS angelehnt. In diesem Projekt geht es um die echtzeitfähige Analyse sozialer Netzwerke. Innerhalb des Projektseminares wird es um die Explorierung verschiedener Techniken zur Netzwerkrepräsentationen und um verschiedene Möglichkeiten der Visualisierung von und Interaktion mit Graphen gehen. Empfohlen sind Vorkenntnisse in C++ und/oder Java, sowie XML.

  • Remote Invitee (Projekt)

    Ziel des Projektes war es, externen Besuchern die Möglichkeit zu Eröffnen, an Aktivitäten im Intelligenten Raum teilzuhaben.

    Als Lösungsvorschlag wurde eine 1:n Videokonferenzlösung entwickelt, die es dem Besucher erlaubt, sich im Raum umzusehen und mit einzelnen Personen Kontakt aufzunehmen. Dazu wurde eine aktive Kamera an die Videokonferenzlösung angebunden, die serverseitig über eine Bildanalyse gesteuert werden kann. Dem Besucher ist es damit möglich, durch einfache Kopfbewegungen die Blickrichtung der Kamera zu steuern (pan/tilt/zoom). Den Anwesenden im Raum ist es umgekehrt möglich, über die Ausrichtung der Kamera zu erfahren, welche Bereiche bzw. Personen der Besucher gerade anschaut.

    Andere Projekte im Rahmen des ISy-Praktikums waren TIREX und Living Room.

  • Remote Invitee Goes Geniale 2008 (Projekt)

    In diesem Projekt wurde der im Rahmen des ISY-Master Praktikums entwickelte Prototyp eines videobasierten Präsenzsystems für Telekonferenzen erweitert und messetauglich gemacht. Neben der fachlichen Leistung, die in der Neuentwicklung von technischen Komponenten und der Integration existierender Komponenten bestand, lag ein Schwerpunkt auch auf der Organisation und Präsentation des Messeauftritts auf der Geniale. Für die Messe konnte eine stabil laufende interaktive Installation erreicht werden, die eine Verbindung zwischen dem Universitätsstand auf dem Jahnplatz und dem Labor für Künstliche Intelligenz und Virtuelle Realiät ermöglichte. Eine ausführlichere Beschreibung des Projektes findet sich hier:
    RemoteInvitee

2005

  • Multi-Agentensysteme - Eine Einführung (Seminar)

    Blockseminar - Uni Bielefeld - SS2005 - Belegnummer 392013
    Veranstalter: Dipl. Inform. Christian Becker und Dipl. Inform. Thies Pfeiffer
    Dieses Block Seminar fand vom 25.-29. Juli an der Universität Bielefeld statt. Mehr Informationen zu diesem Seminar finden sich auf der offiziellen Webseite.

  • Kompetenzen für das Arbeiten in Gruppen im Sport (Workshop)

    Seminar - Uni Bielefeld - WS2005/2006 - Belegnummer 610116
    Veranstalter: Dr. Eva Reichmann, Simone Kühn und Dipl. Inform. Thies Pfeiffer

  • Präsentieren und Visualisieren für Sportwissenschaftler (Workshop)

    Seminar - Uni Bielefeld - WS2005/2006 - Belegnummer 610117 Veranstalter: Dr. Eva Reichmann, Simone Kühn und Dipl. Inform. Thies Pfeiffer
    Dieses Seminar möchte Sportwissenschaftler in die Praxis des Präsentierens einführen. Das Seminar hat Workshop-Charakter, d.h. die Studierenden sind über Übungen aktiv in die Gestaltung des Seminars eingebunden. Dabei werden die folgenden Themen behandelt:

    • Gehirn und Lernen: Auf welche Grundvoraussetzungen des Publikums muß ich mich einstellen?
    • Stukturierung von Präsentationen
    • Präsentationsmedien und -methoden im richtigen Einsatz
      (Tafel, Pinwand, Flipchart, Laptop/Beamer, Overhead-Projektor)
    • Visualisierungsmöglichkeiten und Foliengestaltung
    • Rhetorik
    • Körpersprache und Mimik
    • Umgang mit Lampenfieber
    • Feedback Geben und Empfangen

    Abschließend wird den Teilnehmenden die Möglichkeit eines Videofeedbacks über einen eigenen Vortrag (10min) gegeben.

2004 - Wintersemester

  • Peanuts Workshop

    Nach dem Erfolg meines ersten Peanuts Workshops habe ich ihn 2004 mit einem etwas überarbeiteten Programm wiederholt. Die Unterlagen zu diesem Workshop stehen auf dieser Webseite zum Download zur Verfügung.

2002 - Wintersemester

  • Peanuts Workshop

    In meinem ersten Workshop im Rahmen der Peanuts Herbstschule für junge Mädchen habe ich den Teilnehmerinnen die Simulation von Multi-Agentensystemen mit dem Tool StarLogo vermittelt.