Human-Computer Interaction

Der virtuelle Arbeitsplatz


This project is already completed.

Zusammenfassung

Büroarbeit findet heute fast ausschließlich vor dem Computerbildschirm statt. Derartige Arbeitsplätze lassen sich leider nicht immer ergonomisch korrekt einrichten und sind häufig mit langen Anfahrtswegen für die Mitarbeiter verbunden. Aufbauend auf den Erkenntnissen von Joseph LaViola Jr. et al.(2017) soll mit dem Projekt virtueller Arbeitsplatz eine Simulation erstellt werden, in der Benutzer Fensteranwendungen innerhalb der virtuellen Realität nutzen und sich ihren persönlichen, virtuellen Arbeitsplatz schaffen können. In einer Vorstudie sollen anschließend die Nutzerzufriedenheit und die kognitive Arbeitsbelastung erfasst und verglichen werden um festzustellen, welche Eingabemöglichkeiten sich hierzu am Besten eignen.

Motivation

Büroarbeit findet heute fast ausschließlich vor dem Computerbildschirm statt. Dies verlangt vom Benutzer das stundenlange Verharren vor dem Bildschirm, oft mit standardisierter Einrichtung, die sich nur unzureichend an die individuellen Bedürfnisse anpassen lässt oder mit höheren Anschaffungskosten für Arbeitsmaterial verbunden sind (Fischer, D., 1997). Durch den Einsatz des virtuellen Arbeitsplatzes können die Fenster auf der idealen Arbeitshöhe platziert und so rotiert werden, dass sie aus dem optmimalen Blickwinkel betrachtet werden können. Eine weitere Belastung stellen die oftmals langen Anfahrtswege zum Arbeitsplatz dar: In der Firma Kritzelkratz 3000 beispielsweise wohnen fünf von sechs Angestellten außerhalb der Stadt in der ihr Arbeitsplatz liegt und benötigen daher täglich zwischen 20 Minuten und 3 Stunden zur Arbeit. Dieser Arbeitsweg verursacht jedem Mitarbeiter Kosten zwischen 80 Euro und 300 Euro im Monat.

Zielsetzung

Im Gegensatz zu realen Arbeitsmaterialien können virtuelle Ein- und Ausgabemedien, wie Bildschirm und Tastatur, frei im Raum platziert werden und über ein Head Mounted Display (HMD) von jedem Rechner aus genutzt werden, unabhängig von dessen Standort. Durch die praktisch unbegrenzte Größe des virtuellen Raums in dem sich alle Mitarbeiter gleichzeitig aufhalten können, steht hiermit eine deutlich größere Arbeits- fläche zur Verfügung als bei Benutzung einer Remote-Desktopverbindung. Darüberhinaus können wichtige Bereiche hier direkt markiert und angesprochen werden, so dass erkennbar ist, welcher bereich gerade im Fokus steht. Auf diese Art können Arbeitskollegen zusammen am gleichen Projekt arbeiten, unabhängig davon wo sie sich in der Realität befinden. Diese Arbeit hat daher die Einrichtung einer Simulation zum Ziel in der Fensteranwendungen im dreidimensionalen Raum genutzt werden können. Unterscheiden wird hier zwischen einer Interaktion mit dem Fenster selbst und mit dessen Inhalten. Der Benutzer muss in der Lage sein, dass Fenster selbst zu de-/selektieren und im Raum zu bewegen. Um den Fensterinhalt bedienen zu können muss das Fenster in der Lage sein, die Basis-Mausfunktionen “Linksklick”, “Rechtsklick” und “Scrollen” zu erkennen und diese korrekt auf seinen Inhalt anzuwenden.

Anwendungsfälle

Fenster Selektieren

Das Fenster erhält den Fokus der Anwendung und reagiert entsprechend auf weitere Eingaben. Die Selektion ist durch eine farbige Umrandung hervorgehoben und eindeutig zu erkennen.

Fenster Bewegen

Die Position des Fensters im Raum wird durch die Eingaben des Benutzers geändert. Nach Abschluss des Vorgangs bleibt das Fenster an der neuen Position.

Fenster Skalieren

Die Größe des Fensters wird durch den Benutzer geändert. Der dargestellte Inhalt passt sich der neuen Fenstergröße an und ist nach wie vor deutlich erkennbar.

Fenster weitergeben

Der Benutzer bewegt das Fenster in Reichweite eines zweiten Benutzers. Dieser nimmt das Fenster auf und kann dieses nun genauso bedienen wie sein Vorgänger.

Elemente innerhalb des Fensters anklicken

Der Benutzer selektiert ein Element, das innerhalb des Fensters dargestellt wird. Dieses reagiert entsprechend dem Kontext der ausgeführten Anwendung.

Verwandte Arbeiten

Joseph LaViola Jr. et al. beschreiben die Nutzung von 2D Menüs im dreidimensionalen Raum (s. 387), und deren Darstellung als Teil der 3D Umgebung (s. 441). Hierbei wird eine zweidimensionale Benutzeroberfläche auf der Oberfläche eines dreidimensionalen Objekts innerhalb der virtuellen Realität dargestellt. Diese kann dann mittels Pointer oder Berührung bedient werden. La Viola Jr. et al. raten hierbei dazu, Pointer zur Selektion und Greiftechniken zur Manipulation von Objekten zu verwenden (s. 310).

Methodik

Im Anschluss an eine Literaturrecherche (Arbeitspaket: Recherche) wird die virtuelle Umgebung mit Hilfe der Entwicklungsumgebung Unity erstellt. Hierbei sollen basierend auf den Erkentnissen von La Viola Jr. et al. zwei unterschiedliche Eingabemethoden implementiert werden (Arbeitspaket: Entwicklung): Handgeführte Controller und die Erkennung von Handposition und Gesten. Anschließend sollen in einer Vorstudie die Zufridenheit der Nutzer beim Benutzen der Anwendung so wie die kognitive Arbeitsbelastung erfasst (Arbeitspaket: Vorstudie) und ausgewertet (Arbeitspaket: Auswertung) werden, um anschließend eine passende Kombination aus Eingabemethoden zu implementieren. Abschließend werden die Ergebnisse der Arbeit in einer Dokumentation festgehalten (Arbeitspaket: Dokumentation).

Konzept

Controllersteuerung

Ein handelsüblicher VR-Controller (HTC-VIVE oder Oculus Rift) fungiert als dreidimensionale Maus. Durch Tastendruck kann ein Laserpointer zum Zielen eingeblendet, und die gleichartigen Klicks der Maus ausgeführt werden. über das integrierte Tochpad, bzw. den Analogstick, können kontextsensitive Operationen wie Bewegen, Skalieren und Scrollen ausgeführt werden. Die Eingabe wird durch das frei erhältliche Unity-Plugin VRTK realisiert.

Handerkennung

Mittels der Handerkennungs Hardware der Firma LeapMotion und des zugehörigen SDK können die Position und Ausrichtung der Benutzerhände, so wie einfache Gesten erkannt werden. Durch Implementierung einer Kollisionserkennung ist es so möglich, Fenster durch Berührung zu selektieren und zu bedienen.

Vorstudie

In der Vorstudie soll festgestellt werden, welche Eingabemethoden intuitiver sind und sich effektiver benutzen lassen. Es nehmen an der Vorstudie insgesamt 6 Mitarbeiter der Firma Kritzelkratz3000 Teil. Die Teilnehmer sollen die oben beschriebenen Anwendungsfälle aus verschiedenen Entfernungen durchlaufen. In der Kategorie Nah befinden sich die Fenster nicht weiter als eine Armeslänge vom Benutzer entfernt, so dass sie ohne sich vom Platz zu bewegen berührt werden können. Fenster in der Kategorie Entfernt können physikalisch nur erreicht werden, wenn der Benutzer seine Position verlässt und sich ihnen nähert.

Zur Erfassung der Ergebnisse werden folgende Fragestellungen verwendet:

QUESI

Erfasst die Vorkenntnisse der Nutzer, so wie deren allgemeine Zufriedenheit mit der virtuellen Arbeitsumgebung.

NASA TLX

Dieser, von der NASA entwickelte, Fragebogen dient der Erfassung der kognitiven Arbeitsbelastung beim Arbeiten mit der Simulation.

Freitextfragen

Mittels konkreter Fragestellungen sollen die Gedanken der Nutzer zu spezifischen Situationen und Problemen erfasst werden.

Danksagungen

Der Autor dankt besonders den Kollegen der Firma Kritzelkratz 3000 die ermöglicht haben, das Projekt in ihrer Firma durchzuführen und auch an der Vorstudie teilgenommen haben. Ebenfalls Dr. Martin Fischbach von der JMU-Würzburg, der das Projekt als Tutor betreut.

Referenzen

LaViola Jr., J., Kruijff, E., McMahan, R.P., Bowman, D.A., & Poupyrev, I. (2017). 3D User Interfaces Theory and Practice, 2nd edition

Fischer, D. (1997). Ein kostengünstiger und ergonomische Bildschirmarbeitsplatz … ein Widerspruch?, Die BG, S.518-527

https://unity3d.com/de

https://assetstore.unity.com/packages/tools/vrtk-virtual-reality-toolkit-vr-toolkit-64131

https://developer.leapmotion.com/get-started/

Hurtienne, J., Naumann, A. (2010). QUESI—A questionnaire for measuring the subjective consequences of intuitive use. Interdisciplinary College, 536.

Hart, Sandra G. (2006). NASA-task load index (NASA-TLX); 20 years later. Proceedings of the human factors and ergonomics society annual meeting. Vol. 50. No. 9. Sage CA: Los Angeles, CA: Sage Publications


Contact Persons at the University Würzburg

Dr. Martin Fischbach
Mensch-Computer-Interaktion, Universität Würzburg
martin.fischbach@uni-wuerzburg.de

Legal Information