Robotergestützte Kooperation für räumlich getrennte Personen

Die Zusammenarbeit von Menschen ist aus unserer modernen Welt nicht mehr wegzudenken. Besonders oft werden dabei gemeinsame physische Objekte verwendet, beispielsweise um die Funktionsweise des Objektes zu verstehen, bei der Reparatur des Objektes zu unterstützen oder auch um das Design eines Objektes zu diskutieren. Dies ist schon herausfordernd genug, wenn sich die kooperierenden Menschen am selben Ort befinden – im Kontext räumlich getrennter Personen entstehen jedoch noch zusätzliche Herausforderungen.

Mit gängigen Technologien und Werkzeugen wird heutzutage versucht, dieses Problem zu adressieren. Hauptsächlich wird dabei eine Video-Übertragung von einem Standort zum anderen verwendet, z. B. mit Skype, FaceTime oder Hangouts. Auf dieser Basis arbeiten die beteiligten Personen dann mit Bild und Ton trotz der räumlichen Distanz zusammen.

Der Nachteil hierbei ist aber, dass bei einem Video nur eine einfache 2D-Sicht auf die entfernten Objekte möglich ist. Dadurch kommt es zu unfreiwilligen Bewegungen, indem man z. B. versucht „um die Ecke zu schauen“, obwohl das Video-Bild selbstverständlich gleich bleibt (wie man es vom Fernsehen und Computerspielen her kennt). Die räumliche Komponente im übertragenden Videobild fehlt und somit ist es schwierig, Abstände und 3D-Strukturen zu erkennen und präzise zu bestimmen. Zudem besteht eine starke Abhängigkeit davon, was der entfernte Partner aktuell im Video zeigt – es kann somit beispielsweise der Blickwinkel nicht selbst angepasst werden. Daher ist ein nicht zu unterschätzender Aufwand an Metakommunikation nötig, um der entfernten Person mitzuteilen, wie und in welcher Orientierung das Objekt zur Kamera gehalten werden soll. Jedoch kommt es auch hier oftmals zu Verständnisproblemen. Größtenteils liegt dies an der Tatsache, wie aktuelle Videosysteme konstruiert sind – sprich, welche Perspektive dargestellt wird. Generell stellen Video-Chat-Systeme eine „Gesicht-zu-Gesicht“-Perspektive zur Verfügung. Schwierig hierbei ist jedoch, dass beide Personen unterschiedliche Perspektiven auf Objekte haben und somit ein mentales Modell konstruieren müssen, um Instruktionen vom Partner zu verstehen und diese schlussendlich für sich selbst umsetzen zu können.



Abbildung: Darstellung der Orientierung eines Objektes über einen Roboter und
ein sog. „Proxy-Objekt“ (links). Das ursprüngliche Objekt wird über ein OptiTrack-
System nachverfolgt (rechts). (Abb. von Martin Feick)

Ein alltägliches Szenario könnte so aussehen, dass zwei Personen an unterschiedlichen, räumlich getrennten Standorten das Design eines neuen Produktes diskutieren wollen. Ein konkretes Beispiel ist das Design von Handprothesen für Kinder. Hier gibt es eine weltweite Community, welche sich damit beschäftigt, kostenlose Prothesen für Kinder zu designen, die einfach mit einem 3D-Drucker ausgedruckt werden können. Über die letzten Jahre haben sich das Design und die Funktionalität durch den internationalen Austausch stetig verbessert. Jedoch hat frühere Forschung gezeigt, dass die Mitglieder dieser Community ebenfalls mit den oben aufgeführten Problemen konfrontiert sind.

Lesen Sie den vollständigen Artikel weiter