EasyCOHMO: Visuelles Assistenzsystem für die kontaktlose Mensch-Maschine-Kommunikation


Ziel des vorliegenden Teilvorhabens ist die Entwicklung und Erforschung von Methoden zur Objekt- und Raum-stabilen Augmentierung des Navigationsfeldes eines Nutzers mit zusätzlichen unterstützenden Daten und Informationen. Da das Navigationsfeld und die zu visualisierenden Daten je nach Anwendungsszenario sehr unterschiedlich sein können, sollen möglichst generische Ansätze sowohl zur 3D-Analyse des Umfeldes als auch der Darstellung und Aufarbeitung der darzustellenden Daten selbst entwickelt werden, die modular an jeweilige Anwendungen und Begebenheiten angepasst werden können. Dies wird in den unterschiedlichen Anwendungsszenarien des Verbundprojekts gezeigt. Ziel ist es, den Nutzer in seinem robotergesteuerten oder robotergestützten Arbeitsablauf durch geeignete Visualisierung und Einblendung zusätzlicher Daten in die Umgebung möglichst zu unterstützen. Bei der Entwicklung ist dabei besonders in den Analysekomponenten der Echtzeitanspruch des Vorhabens zu beachten.


Sprecher/in
Eisert, Peter Prof. Dr.-Ing. (von 01/2017 bis 03/2020) (Details) (Visual Computing (S))

Mittelgeber
BMBF

Laufzeit
Projektstart: 01/2017
Projektende: 03/2020

Forschungsbereiche
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing

Forschungsfelder
Deep Learning, Human-Computer Interaction (HCI), Informatik

Zuletzt aktualisiert 2022-08-09 um 21:06