ASTROMOBILE

Assistive SmarT RObotic platform for indoor environments: MOBILity and intEraction

Projektende: März 2012

Kurzbeschreibung

Das Strategieprogramm zur Roboterforschung (“Robotic Visions to 2020 and beyond”, EUROP-CARE 07/2009) sagt vorraus, dass Roboter in der Zukunft den Menschen unterstützen und mit ihm unter vielen unterschiedlichen Umständen zusammenarbeiten werden. Als Folge und Notwendigkeit sollten zukünftige Technologien der Verbesserung der Mensch-Roboter-Interaktion Rechnung tragen, unabhängig vom Ort (Arbeit, Öffentlichkeit, zu Hause, auf Reisen). Die Zukunftsvision von Roboter-Arbeitern beinhaltet Roboterunterstützung in der industriellen Umgebung, in der Sicherheit, für körperlich eingeschränkte Personen, Rehabilitationsroboter, persönliche Roboter, usw.

ASTROMOBILE drehte sich um all diese Themen und setzte den Fokus auf die Entwicklung und den Einsatz einer intelligenten Roboterplattform mit besonderem Augenmerk auf das Problem der Navigation und Interaktion. Besonders das Ziel des Antrags war es zu zeigen, dass eine intelligente mobile Roboterplattform, mit eingebautem bidirektionalem Interface mit der Umwelt und dem Benutzer, konzipiert werden kann um nützliche Dienste zu verbessern.

Die Hauptfunktionalitäten des entwickelten Systems sind die Kommunikation, Erinnerungsfunktionen, Überwachung und Sicherheit.

Als Grundlage des Projektes wurde die mobile Plattform SCITOS G5 von Metralab ausgewählt. Die Roboterplattform verbindet technologische Theorien und Kompetenzen aus den Bereichen der Robotik, Information- und Kommunikationstechnologien (ICT) und Ambient Assisted Living (AAL).

Zwei Richtungen der Forschung wurden mit diesem Projekt eingeschlagen: eine bezog sich auf die Navigation in unstrukturierter Umgebung mittels Sensoren am Roboter und einem intelligenten, um sich greifenden Sensorennetzwerk in der Umgebung und die andere bezog sich auf die Interaktion mit dem Benutzer via multimodalen Interfaces.

Im ersten Forschungszweig wurde es dem Roboter ermöglicht sich autonom in seiner Arbeitsumgebung zu bewegen. Dazu nutzte er Sensoren zur Lokalisierung (Wegmesser, Trägheitsmesser, Laser-, Infrarot- und Ultraschallmesser). Er greift ebenso auf ein überall vorhandenes Sensorennetzwerk (RSSI Signal eines ZigBee Sensorennetzwerks) zurück um die Lokalisierungmöglichkeiten (Indoor GPS) zu verbessern. Weiters führt die Interaktion des Roboters mit einem Sensornetzwerk dazu, dass er genau weiß wo sich die Person oder das Objekt, welches er erreichen soll, befindet.

Der zweite Forschungszweig war die Konzeption und das Design der Roboter-Benutzer-Interaktion. Deshalb wurde der Roboter vom Endbenutzer mittels multimodalem Interface, welches Audio, Video und Berührung verbindet, gesteuert. Das Interface basierte besonders auf Bild- und Spracherkennung. Der Roboter ist aktuell dazu in der Lage sein, Tastinformationen des Touchscreens, welches sich am Roboter befindet, zu nutzen, sondern auch die Sprache des Benutzers zu verstehen um ihnen zugeordnete Kommandos auszuführen. Am Ende des Projektes wurde die Systembeurteilung auch mit Endbenutzern in realen Szenarien durchgeführt um die Usability und die Akzeptanz des vorgeschlagenen Systems zu testen.


Siehe Projektergebnisse anhand des Projektvideos