Im Rahmen der Entwicklung neuer intuitiver Techniken für die Schnittstelle zwischen Mensch und Maschine besteht der Ansatz, mit Hilfe von Zeigegestiken in einem Aktionsraum mit dem Rechner zu kommunizieren. Wenn zur Positionsbestimmung auf die Verwendung von Sensoren verzichtet werden soll, kann das Erkennen von Gestiken und Körperhaltung eines Users durch die Analyse der Videodaten eines Stereokamerasystems realisiert werden. Aus den Kamerabildern werden markante Teile des Körpers wie die beiden Hände extrahiert. Daraus berechnen sich die dreidimensionalen Positionen, aus deren Verhältnis untereinander wiederum die Zeigegestiken ermittelt werden können. <p> Existierende Systeme, die dem obigen Ansatz folgen, sind extrem fehleranfällig. Die aus dem Videobild zu extrahierenden Körperteile werden irrtümlich mit einem anderen Objekt identifiziert, falsch mit dem zweiten Videobild kombiniert oder sogar überhaupt nicht lokalisiert. Um solche Fehler zu vermeiden, wird hier der Ansatz verfolgt, dem System ein Modell eines Menschen hinzuzufügen. Das Modell wird mit den Daten aus der Videoanalyse gesteuert. Mit Hilfe des Modellzustands sowie zusätzlichem Wissen über Möglichkeiten und Vorlieben des Users wird dann wiederum die Videoanalyse überwacht. Zusätzlich kann das Modell in eine virtuelle Szene integriert werden, um so ein unmittelbares Feed-back zu ermöglichen. <p> Die zentralen Bestandteile des Modells sind: <br> · eine anpassungsfähige Wissensbasis zur Beschreibung von Abhängigkeiten <br> · ein Modell des menschlichen Skeletts <br> · eine dreistufige Hierarchie zur Ermittlung der Bewegung <br> · Funktionen zur zuverlässigeren und schnelleren Analyse der Videobilder <br> Das System ist echtzeitfähig auf Hardware aus dem Consumer-Bereich. |