<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta>
      <journal-title-group>
        <journal-title>Chemnitz, Germany, September</journal-title>
      </journal-title-group>
    </journal-meta>
    <article-meta>
      <title-group>
        <article-title>Conception of a System for Network-Based Training Using Mixed Reality Technologies</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Alexander Ripkens</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Thomas Alexander</string-name>
        </contrib>
      </contrib-group>
      <pub-date>
        <year>2017</year>
      </pub-date>
      <volume>5</volume>
      <issue>2017</issue>
      <abstract>
        <p>Due to increasing complexity, work on technical systems requires more and more in-depth knowledge from technical personnel. As a result, it is necessary to train and further specialize technical personnel more frequently. Based on previous work, an existing system for telecooperation is to be expanded to suit independent and cooperative learning so that the costs of training can be reduced. This applies to both single- and multiuser interactions, which can be implemented both synchronously and asynchronously. This paper presents the necessary steps and examines the suitability of various methods established in other fields of research.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>Carsten Ullrich, Martin Wessner (Eds.): Proceedings of DeLFI and GMWWorkshops 2017
Chemnitz, Germany, September 5, 2017</p>
    </sec>
    <sec id="sec-2">
      <title>Konzeption eines Systems zur netzwerkgestützten</title>
    </sec>
    <sec id="sec-3">
      <title>Ausbildung mit Mixed Reality Technologien</title>
      <p>Alexander Ripkens,1 Thomas Alexander2
Reality
1</p>
      <sec id="sec-3-1">
        <title>Moderne Ausbildungsmedien</title>
        <p>Die kompetenzorientierte Vermittlung von Wissen durch multimediale und telemediale
Umgebungen hat in den letzten Jahren viele verschiedene Formen angenommen. Sowohl
in der Fertigung, in der Instandsetzung, als auch in der Medizin können durch immer
fortschrittlichere und immersivere Technologien Anweisungen und Lerninhalte
detailund realitätsgetreuer vermittelt werden. Dieser Weg ging vom Lehrbuch über verzweigte
Webseiten bis hin zur Implementierung mit multimodalen Technologien. Durch eine
Kombination von Serious Gaming und Mixed Reality (MR) Technologien ist es mittlerweile
möglich, virtuelle realistisch erscheinende Umgebungen nahezu so wahrzunehmen wie
die reale Welt. Dadurch wird die Abstraktion möglichst gering gehalten. Dies erlaubt
es Lehrendem und Lernendem eindeutiger miteinander zu kommunizieren, als es mit
vorangegangenen Medien möglich war. Um dies zu erreichen, setzen wir auf ein bereits
implementiertes und in verschiedenen Studien untersuchtes Konzept zur Ferninstandsetzung.
Dieses System planen wir um für E-Learning sinnvolle Funktionen zu erweitern.
Die Basis bildet das von [Kl13] erstellte System zur Ferninstandsetzung. Es erlaubt zwei
Nutzern über eine Netzwerkverbindung miteinander zu interagieren. Aufgeteilt in die
Rollen unterstützende und unterstützte Person wird die Kommunikation durch auditive
und visuelle Übertragungen gewährleistet. Den Nutzern stehen unter anderem Sprach- und
Text-Chat, sowie grafische Markierungen und Animationen zur Verfügung. Während sich
die unterstützte Person bei einem realen Arbeitsgegenstand befindet, wird dieser virtuell für
die unterstützende Person dargestellt. Virtuelle Informationen werden von den Benutzern
erstellt, bearbeitet oder gelöscht und zwischen den Systemen synchronisiert.
2016 wurde das System mit aktuellen Technologien neu erstellt. In Kapitel 2 werden
Designentscheidungen und Architektur beschrieben. Durch die Verwendung von modernen
Mixed Reality (MR) Technologien erweitern wir das neu entwickelte System, damit es
sich auch für weitere Formen der Telekooperation eignet, u.a. für den hier vorgestellten
Ansatz des E-Learnings. Ziel hierbei ist ein Experimentalsysem, das die im Versuchsfeld
der Telemaintenance etablierten und bereits untersuchten Techniken aufgreift und sie
gegebenenfalls um weitere didaktische Techniken erweitert.
2</p>
      </sec>
      <sec id="sec-3-2">
        <title>Konzept des Basissystems</title>
        <p>Beim technischen Design haben wir im Voraus folgende Voraussetzungen festgelegt:
Die Erstellung des Basissystems sollte moderne Technologien nutzen, möglichst einfach
erweiterbar sein und eine etablierte und erprobte Umgebung für die Entwicklung bieten.
Das Design sollte an die ursprüngliche Version von [Kl13] angelehnt sein aber auf
modernen Plattformen laufen und deren Performance ausnutzen um eine genauere und
visuell verbesserte Erfahrung zu bieten.</p>
        <p>Das System wurde konzipiert um zwischen zwei Parteien Informationen zu vermitteln. In
der bisherigen Ausführung sollte eine unterstützende Person einer unterstützten Person
bei einer zu lösenden Aufgabe anleitend behilflich sein. Mehrere Szenarien wurden
hierfür entworfen. Zum einen kann es sich um eine Lehrer-/Schüler-Interkation handeln,
wobei der Lehrer dem Schüler explizite Anweisungen gibt, indem er an einem virtuellen
Arbeitsgegenstand Veränderungen vornimmt, die der Schüler anschließend an einem
echten Gegenstand nachexerziert. In der ursprünglichen Anwendung von [Kl13] wurde
das System für die Kommunikation zwischen Technikern und Experten genutzt. Der
Experte leitet den Techniker schrittweise zur Problemlösung an. Dafür sind verschiedene
Kommunikationswege vorgesehen. Das zugrundeliegende Experimentalsystem wurde zuvor
von [Al17] beschrieben.</p>
        <p>Die Entscheidungen zu den verwendeten Kommunikationswegen des Systems beruhte auf
Untersuchungen von [Kl12], die nachgewiesen haben, dass sich durch die Verwendung
von Augmented Reality (AR) und Virtual Reality (VR) im Gegensatz zu einer reinen
Video-Übertragung signifikante Verbesserungen einstellten. Dies führte dazu, dass 14 von
18 Versuchsteilnehmern in der gegebenen Zeit unter Verwendung des Experimentalsystems
mehr Arbeitsschritte ausführten.
2.1</p>
        <sec id="sec-3-2-1">
          <title>Designgrundlagen</title>
          <p>Bezüglich des Grades der technologischen Unterstützung gibt es verschiedene
Umsetzungsmöglichkeiten. [HVB17] nutzen in Ihrem Ansatz die MR zur automatisierten Ausbildung.
Der Lehrer wird hier durch die Maschine ersetzt. In unserem Ansatz dient die MR zur
Unterstützung der klassischen Ausbildung zwischen Lehrer und Schüler. Unser Ansatz setzt
auf eine manuelle, aber flexible Methode, in der die lernende Person von einer lehrenden
Person unterstützt wird. Diese Flexibilität erlaubt es, das System mit geringerem Aufwand
für unterschiedliche Einsatzzwecke zu konfigurieren. Unser System ist somit mehr ein
didaktisches Werkzeug zur Unterstützung beim kompetenzorientierten Lernen, als ein vom
Lerninhalt abhängiges System. Es deckt ein weiteres Spektrum an Lerninhalten ab, bedeutet
so weniger Aufwand in der Entwicklung und kann für verschiedene Spezialisierungen
genutzt werden.</p>
          <p>Zur Steigerung der didaktischen Efektivität wurden Designpatterns aus dem Bereich des
Multimedia-Lernens mit einbezogen. Da das System stark an Gaming Systeme angelehnt
ist, ist es sinnvoll, sowohl den Bereich E-Learning und Gamification, als auch Serious
Games in Betracht zu ziehen. Die wissenschaftlichen Erkenntnisse, die diesen Technologien
folgten sind, soweit sinnvoll, beim Design mit einzubeziehen. [KdW04, S.2] beschreiben
E-Learning folgendermaßen: „Mit dem Begrif E-Learning sind alle Varianten von
Lehrund Lernaktivitäten gemeint, die das Internet für Information oder Kommunikation nutzen.“
. Nach dieser Definition wäre das gegenwärtige Experimentalsystem durchaus als
ELearning Applikation einzuordnen. Allerdings ist dabei zu beachten, dass beim Design der
Schwerpunkt auf die technische Gestaltung des Systems gelegt wurde.</p>
          <p>Das System macht sich Technologien zunutze, die bei der Entwicklung von
Unterhaltungssoftware, insbesondere der Spieleentwicklung, genutzt werden. Deswegen lag es nah, zu
untersuchen, ob auch die Nutzung von Spieleelementen, wie beispielsweise Gamification,
einen Mehrwert liefert. Nach [De11] bezieht sich Gamification auf die Nutzung von
Designelementen und Charakteristiken in nichtspielerischen Zusammenhängen. Dabei soll die
Benutzung keine Erweiterung von Spielen sein. Das Design soll nicht auf der Technologie
von Spielen basieren oder auf anderen spielverwandten Praktiken. Anstelle vollwertiger
Spiele sollen lediglich Elemente von Spielen, unabhängig der geplanten Nutzung,
Zusammenhänge oder dem eingesetzten Medium, verwendet werden. In unserem System setzen
wir Mittel wie Gamification nicht ein, da die Applikation ursprünglich auf Telemaintenance
ausgelegt war und Gamification in diesem Aspekt weniger Sinn ergibt. Das generische
Vorgehen beim Lernen wird bei unserer Applikation vom Lehrenden vorgegeben. Vom System
vorgegebene Gamification-Ansätze halten wir deswegen nicht für sinnvoll. In Zukunft wäre
eventuell zu prüfen ob ein adaptives System zur Einbettung von Gamification-Ansätzen
implementiert werden soll. Weitere Untersuchungen sind hierzu notwendig. Momentan ist
es jedoch Aufgabe des Nutzers, der die Unterstützende Rolle in der Applikation einnimmt,
das Vorgehen beim Lernen zu steuern.</p>
          <p>Serious Games sind im Gegensatz zu Gamification nicht genau definiert und es herrschen
einige Unklarheiten wie [BB10] schreiben. Es gelten per Definition auch Spiele als
Serious Games, die eigentlich keinen ernsthaften Zweck verfolgen, aber durch eine ernste
Verwendung zu Serious Games werden. Beispielsweise könnte dies ein normaler
EgoShooter sein, der im Rahmen militärischer Übung genutzt wird. [SJB07, S.1] beschreiben
Serious Games als „(digital) games used for purposes other than mere entertainment “,
sagen aber auch aus, dass es sehr viele unterschiedliche Interpretationen von Serious Games
gibt.</p>
          <p>Die Fachliteratur nennt noch weitere, Gamification und den Serious Games ähnliche
Formen, wie edutainment und (digital) game-based learning. Die Abgrenzung ist in den
meisten Fällen nicht einfach, da viele Umsetzungen von Lernsystemen auf mehr als eine
dieser Definitionen passen. Alle haben das gemeinsame Ziel, durch den Einsatz neuer
Kommunikationswege und Medien didaktische Methoden sinnvoll zu erweitern.
2.2</p>
        </sec>
        <sec id="sec-3-2-2">
          <title>Funktionen des Systems</title>
          <p>Beim Design wurde das benutzerzentrierte Design des Vorgängersystems übernommen
und angepasst. Die Anwendung wurde mit modernen Entwicklungsmethoden umgesetzt
und komplett neu erstellt. Im Zentrum des Designs steht das gemeinsame 3D-Modell des
Arbeitsgegenstands, zu sehen in Abb. 1 für die VR-Seite. Dies gilt auch für die AR-Seite,
wo das Modell zwar vorhanden ist, aber nicht die gesamte Zeit über angezeigt wird. Die
Applikation erkennt den Arbeitsgegenstand eigenständig auf der AR-Seite und erkennt
die Position des Nutzers anhand dessen Kameraposition. Diese Informationen werden
anschließend über das Netzwerk an die VR-Seite gesendet, die dann das entsprechende
virtuelle Modell darstellt. Eine Voraussetzung der Anwendung ist, dass die Datenübertragung
auch bei langsamen Verbindungen gut funktionieren soll. Um dies zu gewährleisten werden
nur die notwendigen Daten übertragen. Das 3D-Objekt befindet sich beim Start schon in der
Applikation und wird von ihr lediglich erkannt. Die Software überträgt dann kodiert nur
noch welches 3D-Modell erkannt wurde, sodass der Empfänger dieses aus seinem eigenen
Speicher laden kann und die verfügbare Bandbreite nur minimal belastet wird.
Den Benutzern stehen auf beiden Seiten verschiedene Funktionen zur Verfügung. Abb. 2
zeigt die zum gegenwärtigen Zeitpunkt verfügbaren Funktionen des Experimentalsystems.
Über das Netzwerk können sowohl Chat-Nachrichten als auch Annotationen versendet
werden. Die Annotationen teilen sich wiederum in Text und grafische Annotationen auf. So kann
ein Bereich des Arbeitsgegenstandes ausgewählt werden. Dieser wird vom System grafisch
markiert. Es ist dem Benutzer möglich über ein frei im Raum schwebendes Text-Label kurze
Arbeitsanweisungen hinzuzufügen, sie zu bearbeiten oder die Annotation wieder komplett
zu entfernen. Diese Änderungen werden anschließend über das Netzwerk synchronisiert.
Abb. 1: Unterstützung mit Arbeitsanweisung im Chat und als Annotation am CPU Kühler
und virtueller Position der unterstützten Person
Die Übermittlung des Wissens anhand von Annotationen unterscheidet sich vom
ursprünglichen System. Hier wurden stattdessen Animationen eingeblendet. Diese brachten starke
Bewegungen in das Bild und man musste bis zum Abspielen der Animation warten um den
ursprünglichen Zustand zu sehen. Deswegen haben wir uns in der gegenwärtigen
Implementierung für die vorgestellte Funktionsweise entschieden. Darüber hinaus hat die unterstützte
Person weitere Möglichkeiten die AR-Sicht anzupassen. Über die Funktion Pause kann der
Benutzer die AR-Sicht einfrieren und ist nicht mehr darauf angewiesen, die Kamera in der
richtigen Position zu halten um alle Arbeitsanweisungen zu sehen. Eine weitere Funktion ist
das Ein- und Ausblenden von Teilen des Arbeitsgegenstandes. So kann das Bild durch den
virtuellen Arbeitsgegenstand oder durch Teile des Arbeitsgegenstands überdeckt werden.
Alternativ kann der virtuelle Arbeitsgegenstand in der AR-Sicht unsichtbar sein. Somit ist
es möglich einzelne virtuelle Elemente des Arbeitsgegenstandes einzublenden und somit
eine Art virtuellen Röntgenblick durch den realen Arbeitsgegenstand zu erlauben.
2.3</p>
        </sec>
        <sec id="sec-3-2-3">
          <title>Entwicklungsumgebung und Tracking-Framework</title>
          <p>Das zu erstellende Experimentalsystem sollte die reale Welt hauptsächlich um 3D-Objekte
erweitern oder sie virtuell repräsentieren. Für die Umsetzung haben wir deswegen folgende
Anforderungen an die Entwicklungsumgebung gestellt: Der Entwicklungsaufwand sollte
möglichst gering sein und die Software trotzdem auf verschiedenen Endgeräten laufähig
sein, oder auf diese mit geringem Aufwand portierbar sein. Der Einsatz von modernen</p>
          <p>Abb. 2: Design der geteilten und nicht geteilten Funktionen zwischen unterstützender</p>
          <p>Person (links) und unterstützter Person (rechts) nach [Al17]
Technologien wie auf Head-Mounted-Displays (HMDs) zur Ausgabe basierender AR und VR,
sollte möglich sein, um den Nutzen für spezielle Anwendungsszenarien untersuchen und mit
anderen Ein- und Ausgabe-Geräten vergleichen zu können. Änderungen und Erweiterungen
sollen mit möglichst geringem Aufwand nicht nur in Bezug auf die Endgeräte, sondern
auch weitere Anwendungsgebiete ausgedehnt werden können. Eine große
EntwicklerCommunity ist außerdem für schnelle Problemlösungen wünschenswert. Basierend auf einer
Untersuchung zur Verwendung von Game Engines [WA15] entschieden wir uns deswegen
für die Unity Game Engine [Un17a], die diese Anforderungen erfüllt. Ein weiterer wichtiger
Teil der Software ist die AR-Tracking-Technologie. Diese soll möglichst genau und fehlerfrei
arbeiten. Wir entschieden uns für das Framework Vuforia [Vu17], da dieses in internen Tests
die beste Trackingqualität lieferte und durch die Integration in Unity intuitiv einzubinden
und einzusetzen ist.
2.4</p>
        </sec>
        <sec id="sec-3-2-4">
          <title>Erweiterbarkeit des Systems</title>
          <p>Die Nutzung der Unity Game Engine vereinfacht durch ihre Struktur die Entwicklung einer
generisch nutzbaren Applikation und ermöglicht dadurch den Austausch einzelner Elemente.
Dies liegt am modularen Entwicklungskonzept der Game Engines im Allgemeinen und der
Verwendung von GameObjects bei Unity im Speziellen. [Un17b] beschreibt GameObjects
als "Base class for all entities in Unity scenes". Der Grundgedanke der Erweiterbarkeit des
Systems sollte vorwiegend dem Austausch des Arbeitsgegenstands, sowie der zur Ein- und
Ausgabe verwendeten Peripherie dienen.</p>
          <p>Der Applikation können weitere Arbeitsgegenstände hinzugefügt werden. Die Erweiterung
ifndet immer auf ähnlichem Weg statt: Ein Austausch des 3D-Objektes, das Hinzufügen
eines Markers für das Tracking und anschließend eine Verknüpfung der Elemente für die
Annotationen über verschiedene Skripte. Der Arbeitsgegenstand muss in digitaler Form
vorliegen. Er muss hierfür mit Hilfe von 3D-Modellierungstools, beispielsweise mit Blender
[Bl17], manuell nachmodelliert werden.
3</p>
        </sec>
      </sec>
      <sec id="sec-3-3">
        <title>Erweiterung des Systems durch MR</title>
        <p>Die Nutzung des Systems für weitere Wege der Telekooperation, wie in diesem Fall für das
E-Learning, macht verschiedene Anpassungen sinnvoll. Eine mögliche Veränderung des
Experimentalsystems ist der Verzicht auf die Kombination von AR und VR. Es wäre damit
möglich ausschließlich VR für Lernzwecke zu verwenden. Wird die virtuelle Seite sowohl
von der unterstützenden Person als auch von der unterstützten Person genutzt, so ist es
möglich das System auch ohne realen Arbeitsgegenstand zu nutzen. Mit zwei VR-Seiten wird
das System so zu einem Lern-/Schulungssystem. Beide Teilnehmer benötigen dann nur noch
die VR-Hardware und können auf das Training am realen Objekt verzichten, was sowohl
die Kosten für die Beschafung spart, als auch das Risiko reduziert den Arbeitsgegenstand
während des Trainings zu beschädigen.</p>
        <p>Die bisherigen AR- und VR-Arbeitsplätze sind mit bildschirmbasierten Geräten wie
Smartphones oder stationären PCs realisiert. Dies liegt unter anderem darin begründet,
dass HMD-basierte MR noch vor wenigen Jahren sehr groß und sehr schwer war. Auch
reichten qualitative Anforderungen an Auflösung, Latenz und Tracking nicht für eine
zufriedenstellende Umsetzung. Die momentane Entwicklung, insbesondere durch das
Erscheinen von VR-Systemen im Konsumentenmarkt, lässt einen starken Trend zu qualitativ
hochwertigen VR- und AR-Systemen erkennen.
3.1</p>
        <sec id="sec-3-3-1">
          <title>Display Typen für MR</title>
          <p>HMD-basierte Virtual Reality und Augmented Reality können eine sinnvolle Erweiterung
für das System darstellen. Aus ergonomischer Sicht hat der Vorteil der erhöhten Immersion
den Nachteil, dass der Benutzer einen Fremdkörper auf dem Kopf tragen muss. Formfaktor
und Gewicht der HMDs machen es sinnvoll die Nutzung zu reglementieren um eine
Überbeanspruchung zu vermeiden. Die Studie von [Th14] hat dieses Problem untersucht.
Bei der Portierung von monitorbasierten zu HMD-basierten Systemen sind Best Practices,
beispielsweise zur Vermeidung von Simulatorkrankheit, zu berücksichtigen. Ein Beispiel
hierzu ist die Einführung zu Best Practices von [Oc17]. Grundlegend lassen sich die
möglichen Probleme entweder auf dem System oder dem Design der Software begründen. Da
die Telekooperationsanwendung keinerlei künstliche Bewegung verlangt, sind voraussichtlich
wenige Änderungen am Design vorzunehmen. Auch mit Hardwareproblemen, wie zu
geringer Leistung für die Darstellung, was zu Latenz führen kann, ist bei der momentanen
Komplexität der darzustellenden Objekte nicht zu rechnen.</p>
          <p>Mixed Reality-Hardware hat in den letzten Jahren starke Verbesserungen erlebt. Eine
Miniaturisierung der Hardware durch Komponenten aus dem Smartphone Markt hat zu MR
Systemen für Konsumenten geführt. Für Gaming, einschließlich Serious Games, haben sich
besonders VR Systeme wie Playstation VR, HTC Vive und Oculus Rift durchgesetzt. Mobile
Systeme wie Gear VR und Googles Daydream haben zwar eine größere Nutzerbasis, jedoch
sind sie in ihrem Tracking zumeist noch auf 3 Freiheitsgrade beschränkt. Bei vollwertigen
AR Systemen sind momentan hauptsächlich Microsofts HoloLens und Meta verfügbar. Bei
beiden Systemen handelt es sich noch um Entwicklerversionen.</p>
        </sec>
        <sec id="sec-3-3-2">
          <title>3.2 Interaktion mit MR Systemen</title>
          <p>Die an PC-Arbeitsplätzen verbreitete Steuerung mit Maus und Tastatur ist für die
HMDbasierte AR und VR wenig geeignet. Hier bieten sich insbesondere intuitive
Eingabemöglichkeiten an, die an die reale Welt angelehnt sind.</p>
          <p>Der für die Telemaintenance optionale Voice Chat ist beim Fernlernen in der MR wichtiger.
Da die Benutzung von Tastatur und Maus aufgrund der geschlossenen Brillen problematisch
sein kann, ist die Verwendung dieser Eingabegeräte zu vermeiden. Ein Hybridsystem,
welches per Spracherkennung die Eingaben aufnimmt, dem Nutzer zuordnet und ihn
visualisiert kann Probleme vermeiden, welche durch das gleichzeitige Sprechen mehrerer
Lernender entstehen. Der Lehrer kann dann durch visuelles fixieren auf den Fragestellenden
die Aufnahme abspielen. Das aus der Schule bekannte Aufzeigen entfällt somit.
Bei AR Systemen, wie HoloLens oder Meta befinden sich die Eingabemethoden noch in
einem frühen experimentellen Stadium. Hier wird momentan Gesten- oder Sprachsteuerung
genutzt. Ältere Systeme, wie Zeigegeräte mit virtuellen Markern, haben sich bisher nicht
durchgesetzt. Die Nutzung der vom PC bekannten Eingabegeräte, Maus und Tastatur, sind
für eine zwei dimensionale Interaktion gedacht. Die Interaktion im drei dimensionalen
Raum ist somit umständlich und für unser System nicht wünschenswert.</p>
          <p>Bei VR Systemen haben sich bei den drei großen Systemen, HTC Vive, Oculus Rift und
Sony Playstation VR, bereits Eingabemethoden durchgesetzt. Alle Systeme setzen bei
Interaktionen im Nahbereich auf Touch-Implementierungen. Hierbei kann der Benutzer das
Objekt mit sogenannten motion-controllern greifen und direkt manipulieren. Eingesetzt wird
dies im Serious Gaming Bereich bei Anwendungen wie dem 3D Modellierungs-Tool Oculus
Medium oder dem Zeichenprogramm Tilt Brush von Google. Diese bereits bewährten
Systeme entsprechen stark der Nutzung unserer Lernumgebung und sollten deswegen für
die Interaktion mit dem Arbeitsgegenstand genutzt werden.
4</p>
        </sec>
      </sec>
      <sec id="sec-3-4">
        <title>Erweiterungen der Funktionalität</title>
        <p>Zusätzlich zu der Portierung unseres Systems zur Fernwartung mit Ein- und
Ausgabemethoden der MR sind für die Applikation weitere Anpassungen für das virtuelle Lernen geplant.
Hierbei handelt es sich um mögliche Erweiterungen und Verbesserungen, die im Laufe
unserer Systemtests und Versuchsreihen geäußert wurden.
4.1</p>
        <sec id="sec-3-4-1">
          <title>Virtuelle Lehrgänge mit mehreren Teilnehmern</title>
          <p>Ein weiteres Ziel für das computergestützte Lernen mit MR ist es mehrere Schüler
gleichzeitig zu unterrichten. Konkret bedeutet das, dass alle Schüler den Lehrer in ihrer
eigenen Lernumgebung sehen. Der bisherige Code muss daraufhin erweitert werden um
virtuelle Lehrveranstaltungen zu ermöglichen. Um das Sichtfeld nicht durch zu viele
Teilnehmer einzuschränken, werden die Schüler nur durch ihre Interaktion visualisiert.
Die Aktionen des Lehrers können dann synchron an alle Schüler weitergegeben werden.
Dies würde weitere Veränderungen am System sinnvoll machen. Ofene Fragen müssen
geklärt werden: Was soll der Lehrer in einer virtuellen Schulklasse alles sehen können?
Sollen alle Schüler gleichzeitig angezeigt werden oder immer nur die Schüler, die gerade
aktiv unterstützt werden? Hierbei ist geplant den Benutzern alle Auswahlmöglichkeiten zur
Verfügung zu stellen und Versuchsreihen zur Efektivität und Akzeptanz durchzuführen.
4.2</p>
        </sec>
        <sec id="sec-3-4-2">
          <title>Asynchrones lernen</title>
          <p>Eine weitere geplante Erweiterung des Systems stellt die asynchrone Kommunikation dar.
Diese Lösung könnte durch eine schrittweise Aufzeichnung von Arbeitsschritten durch den
Lehrer umgesetzt werden. Der Schüler kann die Arbeitsschritte dann zu jeder Zeit und in
seiner individuellen Lerngeschwindigkeit ansehen. Ein Üben der Arbeitsschritte wäre dann
auch ohne die Verbindung zum Lehrer möglich. Alternativ könnten somit auch die zuvor
beschriebenen virtuellen Lehrgänge mit mehreren Teilnehmern erweitert werden. Durch
das Vorgehen des asynchronen Lernens muss der Lehrer nur die Personen unterstützen, die
trotz der gespeicherten Lösungsvorschläge Probleme haben. Diese Art des Lernens kann
unter Umständen nicht mehr als E-Learning definiert werden, je nachdem ob die Aufnahme
lokal oder online gespeichert wird.
4.3</p>
        </sec>
        <sec id="sec-3-4-3">
          <title>Fotofunktion</title>
          <p>Nicht immer ist es sinnvoll ausschließlich mit virtuellen Objekten zu arbeiten. Eine weitere
sinnvolle Erweiterung ist das Senden von Fotos vom AR-Benutzter zum VR-Benutzer.
Diese Fotofunktion ermöglicht es der unterstützenden Person Fehler, die das System nicht
selbständig auszumachen im Stande ist, zu erkennen. Im Gegensatz zur Videoübertragung
spart die Übertragung eines Bildes viel Bandbreite. Mit einem Foto kann die unterstützende
Person dann Ferndiagnosen erstellen, die über den Sprachkanal nicht möglich wären. Die
aufgewendete Zeit für die Beschreibung des Arbeitsgegenstandes entfällt durch dieses
Vorgehen. Darüber hinaus können so Fehler oder Missverständnisse bei der Kommunikation
vermieden werden.
5</p>
        </sec>
      </sec>
      <sec id="sec-3-5">
        <title>Langfristige Erweiterungsmöglichkeiten</title>
        <p>Wir haben aufgezeigt, wie man eine Applikation zur Telemaintenance auch für das Fernlernen
nutzen kann. Weitere Verbesserungen sollen es ermöglichen, auch neue Konzepte des
Fernlernens umzusetzen, wie Gruppenlernen oder asynchrones Lernen mit MR. Ein weiteres
Beispiel ist die Unterstützung des Lernenden durch das System selbst. Dies ist aufgrund der
hohen technischen Komplexität ein langfristiges Ziel. Durch automatische Fehlererkennung
wäre es möglich statt des Lehrers einen virtuellen Lehrer einzusetzen. Die automatisierte
Erkennung kann mittels einer Künstlichen Intelligenz (KI) auch ohne Datenverbindung
komplexe Vorschläge zur Lösung anbieten. Nur bei komplexeren Problemen, bei deren
Auftreten die KI keine eindeutige Lösung errechnen kann wäre es dann notwendig weiterhin
durch eine reale Person unterstützt zu werden. Somit könnte die Gruppengröße für Lehrgänge
entscheidend angehoben werden. Ein solches intelligentes Tutoring System könnte alle
zuvor genutzten Verbesserungen erweitern und die Applikation auch in der Telemaintenance
und im telemedizinischen Bereich erweitern.</p>
        <p>Zur Messung der Efektivität wäre eine Feedbacksystem als mögliche Erweiterung zu
implementieren. Dieses könnte über systeminterne Evaluationswerkzeuge den Lernerfolg,
sowie den Fortschritt der Arbeit des Lernenden messbar machen. Ermittelt werden könnte
somit die Zeit zur Durchführung der Aufgabe. In einem als Graphen realisierten Modell
könnte der genommene Weg aus Arbeitsschritten mit dem optimalen Pfad verglichen
werden. Bei entsprechender Visualiserung könnte dies den in Kapitel 2.1 genannten Weg
zum Einsatz der Gamification darstellen. Der Erfolg wäre somit messbar und könnte durch
visuelle Darstellung zur Motivation des Lernenden beitragen.</p>
      </sec>
      <sec id="sec-3-6">
        <title>Literaturverzeichnis</title>
        <p>[Al17]
[BB10]
[Bl17]
[De11]
[Kl12]
[Kl13]
[Oc17]
[Th14]
[Vu17]
[WA15]</p>
        <p>Kleiber, Michael; Alexander, Thomas; Winkelholz, Carsten; Schlick, Christopher M.:
User-centered design and evaluation of an integrated AR-VR system for tele-maintenance.
In: Systems, Man, and Cybernetics (SMC), 2012 IEEE International Conference on. S.
1443–1448, 2012.</p>
        <p>Kleiber, Michael: Konzeption und Entwicklung eines integrierten stereoskopischen Systems
der Erweiterten und Virtuellen Realität für die Ferninstandsetzung. Shaker, 2013.</p>
      </sec>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>Oculus</surname>
            <given-names>:</given-names>
          </string-name>
          , Introduction to Best Practices. https://developer.oculus.com/design/latest/ concepts/bp_intro/,
          <year>2017</year>
          . Stand:
          <volume>01</volume>
          .
          <fpage>06</fpage>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Theis</surname>
          </string-name>
          , Sabine; Alexander, Thomas; Mertens, Alexander; Schlick, Christopher; Wille,
          <article-title>Matthias: Physiologische Auswirkungen der Langzeitnutzung von Head-Mounted Displays im industriellen Kontext</article-title>
          . In: Gesellschaft für Arbeitswissenschaft e. V.
          <article-title>(Hrsg.) Gestaltung der Arbeitswelt der Zukunft (60</article-title>
          . Kongress der Gesellschaft für Arbeitswissenschaft)
          <year>2014</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          S.
          <fpage>106</fpage>
          -
          <lpage>108</lpage>
          ,
          <year>2014</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <surname>Breuer</surname>
          </string-name>
          , Johannes; Bente, Gary:
          <article-title>Why so serious? On the relation of serious games and learning</article-title>
          .
          <source>Journal for Computer Game Culture</source>
          ,
          <volume>4</volume>
          :
          <fpage>7</fpage>
          -
          <lpage>24</lpage>
          ,
          <year>2010</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          Blender. https://www.blender.org/,
          <year>2017</year>
          . Stand:
          <volume>01</volume>
          .
          <fpage>06</fpage>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Deterding</surname>
          </string-name>
          , Sebastian; Dixon, Dan; Khaled, Rilla; Nacke,
          <article-title>Lennart: From game design elements to gamefulness: defining gamification</article-title>
          .
          <source>In: Proceedings of the 15th international academic MindTrek conference: Envisioning future media environments. S. 9-15</source>
          ,
          <year>2011</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          [HVB17] Hochberg, Jana; Vogel, Cathrin; Bastiaens, Theo:
          <article-title>Gestaltung und Erforschung eines Mixed-Reality-Lernsystems</article-title>
          .
          <source>MedienPädagogik: Zeitschrift für Theorie und Praxis der Medienbildung</source>
          ,
          <volume>28</volume>
          (
          <issue>0</issue>
          ),
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          [KdW04]
          <string-name>
            <surname>Kerres</surname>
          </string-name>
          , Michael; de Witt,
          <article-title>Claudia: Pragmatismus als theoretische Grundlage für die Konzeption von eLearning</article-title>
          . na,
          <year>2004</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          [Un17a]
          <article-title>Unity Game Engine</article-title>
          . https://unity3d.com/unity,
          <year>2017</year>
          . Stand:
          <volume>01</volume>
          .
          <fpage>06</fpage>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          [Un17b]
          <article-title>Unity GameObject</article-title>
          . https://docs.unity3d.com/Manual/class-GameObject.html,
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <source>Stand: 01.06</source>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          Vuforia. https://developer.vuforia.com/,
          <year>2017</year>
          . Stand:
          <volume>01</volume>
          .
          <fpage>06</fpage>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          <string-name>
            <surname>Westhoven</surname>
          </string-name>
          , Martin; Alexander, Thomas:
          <article-title>Towards a Structured Selection of Game Engines for Virtual Environments</article-title>
          . In (Shumaker, Randall; Lackey, Stephanie, Hrsg.): Virtual, Augmented and
          <string-name>
            <given-names>Mixed</given-names>
            <surname>Reality</surname>
          </string-name>
          , Jgg. 9179 in Lecture Notes in Computer Science, S.
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          142-
          <fpage>152</fpage>
          . Springer International Publishing, Cham,
          <year>2015</year>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>