Universität Bielefeld Universität Bielefeld - Technische Fakultät - AG Wissensbasierte Systeme

Jahresübersicht 2000

Veröffentlichungen des Jahres 2000 inklusive aller verfügbaren Abstracts

B. Jung, S. Kopp, M. Latoschik, T. Sowa & I. Wachsmuth:
Virtuelles Konstruieren mit Gestik und Sprache.

In KI 2000/2, 5-11.

Abstract:
Im Bielefelder Labor für Künstliche Intelligenz und Virtuelle Realität liegt der Forschungsschwerpunkt auf der Integration von gestischer und sprachlicher Kommunikation in einem Szenario des Virtuellen Konstruierens. Dabei werden hochaufgelöste räumliche Visualisierungen CAD-basierter Bauteilmodelle in realistischer Größe auf einer Großbildleinwand präsentiert und über Eingabe- geräte der Virtuellen Realität (Datenhandschuhe, Positionssensoren, Sprach- erkennungssystem) zu komplexen Aggregaten zusammengebaut. Wissensbasierte Techniken kommen dabei einerseits bei der Montagesimulation mit den computer- graphischen Bauteilmodellen und andererseits bei der Auswertung der sprachlich-gestischen Eingaben zum Einsatz.

B. Jung, M. Hoffhenke, B. Lenzmann & I. Wachsmuth:
Interaktive Montagesimulation in virtuellen Umgebungen.

In H. Szczerbicka und T. Uthmann (Hrsg.): Modellierung, Simulation und Künstliche Intelligenz,
Delft: SCS European Publishing House, 2000, 193-210.

B. Jung & M. Nousch:
Design and Configuration of Furniture Using Internet-Based Virtual Reality Techniques.

In: 14th Workshop "New Results in Planning, Scheduling and Design" (Puk-2000), ECAI 2000, 68-73.

B. Jung & J.-T. Milde (Hrsg.):
Themenheft "Intelligente Virtuelle Umgebungen"

Künstliche Intelligenz 2000/2.

S. Kopp & B. Jung:
An Anthropomorphic Assistant for Virtual Assembly: Max.

In: Working Notes Workshop "Communicative Agents in Intelligent Virtual Environments",
Autonomous Agents 2000.

S. Kopp, I. Wachsmuth:
A Knowledge-based Approach for Lifelike Gesture Animation

In W. Horn (ed.): ECAI 2000 - Proceedings of the 14th European Conference on Artificial Intelligence
(pp. 663-667). Amsterdam: IOS Press, 2000.

Abstract:
Abstract. The inclusion of additional modalities into the communicative behavior of virtual agents besides speech has moved into focus of human-computer interface researchers, as humans are more likely to consider computer-generated figures lifelike when appropriate nonverbal behaviors are displayed in addition to speech. In this paper, we propose a knowledge-based approach for the automatic generation of gesture animations for an articulated figure. It combines a formalism for the representation of spatiotemporal gesture features, methods for planning individual gestural animations w.r.t. to form and timing, and formation of arm trajectories. Finally, enhanced methods for rendering animations from motor programs are incorporated in the execution of planned gestures. The approach is targetted to achieve a great variety of gestures as well as a higher degree of lifelikeness in synthetic agents.

S. Kopp, I. Wachsmuth:
Planning and Motion Control in Lifelike Gesture: A Refined Approach

Post-proceedings of Computer Animation 2000 (pp. 92-97). IEEE Computer Society Press, 2000.

Abstract:
In this paper an operational model for the automatic generation of lifelike gestures of an anthropomorphic virtual agent is described. The biologically motivated approach to controlling the movements of a highly articulated figure provides a transformation of spatiotemporal gesture specifications into an analog representation of the movement from which the animations are directly rendered. To this end, knowledge-based computer animation techniques are combined with appropriate methods for trajectory formation and articulated figure animation.

J.-T. Milde & B. Jung:
Educational Use of VRML and JAVA in Agent-based AI and Computer Graphics.

In: Future Generation Computer Systems 17(1), Elsevier, 2000, 79-87.

M. Oesker, H. Hecht & B. Jung:
Psychological Evidence for Unconscious Processing of Detail in Real-time Animation of Multiple Characters.

Visualization and Computer Animation 11(2), Wiley, 2000, 105-112.

T. Sowa & I. Wachsmuth:
Coverbal Iconic Gestures for Object Descriptions in Virtual Environments.

In K. Holmqvist et al. (eds.): Integrating Information from Different Channels in Multi-Media Contexts,
Workshop Notes, ESSLLI 2000.

I. Wachsmuth:
Kommunikative Rhythmen in Gestik und Sprache

In: Kognitionswissenschaft 8(4), Jan. 2000, 151-159.

Abstract:
Als Eckpfeiler der natürlichen Verständigung zwischen Menschen sind Gestik und Sprache in der Mensch-Maschine-Kommunikation von großem Interesse. Jedoch gibt es bislang kaum Lösungsvorschläge dafür, wie die multimodalen Äußerungen eines Systemnutzers ­ als zeitlich gestreute Perzepte auf getrennten Kanälen registriert ­ in ihrem zeitlichen Zusammenhang zu rekonstruieren sind. In diesem Beitrag wird anhand der Beobachtung, daß menschliches Kommunikationsverhalten von signifikant rhythmischer Natur ist, eine neuartige Methode zur Konzeption eines multimodalen Eingabesystems entworfen. Es basiert auf einem zeitgetakteten Multiagentensystem, mit dem eine präsemantische Integration der Sensordaten von Sprach- und Gesteneingaben in einer multimodalen Eingabedatenstruktur vorgenommen wird. Hiermit werden erste technische Arbeiten beschrieben, die rhythmische Muster für biologisch und kognitiv motivierte Mittlersysteme zwischen Mensch und Maschine ausnutzen.

I. Wachsmuth:
The Concept of Intelligence in AI.

In H. Cruse, J. Dean & H. Ritter (Eds.):
Prerational Intelligence - Adaptive Behavior and Intelligent Systems without Symbols and Logic,
Vol. 1 (pp. 43-55), Dordrecht, The Netherlands: Kluwer Academic Publishers, 2000.

I. Wachsmuth:
Rhythmus in der Mensch-Maschine-Kommunikation.

In H. Bayen & J. Perl (Hrsg.): Sport und Informatik VII, (pp. 67-72).
Köln: Sport und Buch Strauss, 2000.

A. Kranstedt, 28.07.2003