|
Bielefeld University Faculty of Linguistics and Literature Faculty of Technology |
Abstract
Bei der natürlichen Mensch-Roboter-Interaktion kommt der Lokalisation eines Sprechers eine wichtige Rolle zu, da vor allem bei mobilen Robotern die Position eines Kommunikationspartners variabel ist. Befinden sich mehrere Personen im Sichtbereich des mobilen Roboters, muss zusätzlich entschieden werden, welche dieser Personen der aktuelle Kommunikationspartner ist und damit die Aufmerksamkeit des mobilen Roboters erhalten sollte. Auch hier kann die akustische Lokalisation als sehr wichtige Informationsquelle dienen. Aus den genannten Gründen wurde unser Gesamtsystem zur Personendetektion und -verfolgung, bei dem bisher nur eine Gesichtserkennung (videobasiert) und eine Beinerkennung (basierend auf Laserdaten) zum Einsatz kam, mit einem Verfahren zur akustische Sprecherlokalisation (Cross-Powerspectrum Phase-Analysis) erweitert. Die Signalaufnahme erfolgt dabei durch zwei auf unserem mobilen Roboter montierte Mikrofone. Eine Evaluation der akustischen Lokalisation im 2D-Fall (Sprecher und Mikrofone auf gleicher Höhe) hat gezeigt, dass dieses Verfahren eine sehr genaue und vor allem robuste Schätzung der Sprecherposition liefert. Im 3D-Fall ist eine eindeutige akustische Lokalisation mit nur zwei Mikrofonen jedoch nicht möglich. Allerdings kann durch die Integration in das Gesamtsystem die Sprecherposition unter Verwendung der Informationen aus den anderen Modalitäten eindeutig und robust bestimmt werden, wie eine Evaluation des erweiterten Gesamtsystems gezeigt hat. Außerdem ist es mit Hilfe der akustischen Lokalisation nun auch möglich, die Aufmerksamkeit des mobilen Roboters dynamisch auf den aktuellen Sprecher zu lenken, selbst wenn mehrere Person vor dem Roboter detektiert werden.
|
Last Change: 2003-12-12 gk256www@techfak.uni-bielefeld.de |