<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta>
      <journal-title-group>
        <journal-title>Frankfurt, Germany, September</journal-title>
      </journal-title-group>
    </journal-meta>
    <article-meta>
      <title-group>
        <article-title>Virtual SkillsLab - Trainingsanwendung zur Infusionsvorbereitung</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Thies Pfeiffer</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Carolin Hainke</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Leonard Meyer</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Maik Fruhner</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Moritz Niebling</string-name>
        </contrib>
      </contrib-group>
      <pub-date>
        <year>2018</year>
      </pub-date>
      <volume>10</volume>
      <issue>2018</issue>
      <fpage>374</fpage>
      <lpage>385</lpage>
      <abstract>
        <p>There is a need for practical training in nursing education. SkillsLabs, physical replicas of real workspaces at educational institutions, provide the unique opportunity to develop practical knowledge in close proximity and in direct involvement with the teachers and to link this knwoledge with the theoretical training. However, the necessary resources (rooms, work equipment) are often not sufficiently available. Virtual SkillsLabs can partly cover the requirements and bridge between theory and practice. This paper presents such an implementation with different stages of development. An der FH Bielefeld wurde für den Fachbereich Wirtschaft und Gesundheit ein SkillsLab eingerichtet, das die realen Räumlichkeiten und Ausstattungen eines Krankenhauses reflektiert und den Lernenden vor Ort an der Hochschule zur Verfügung stellt. Betreut und geleitet wird das SkillsLab von Christiane Freese und Prof. Dr. med. Annette Nauerth, 1 CITEC, Universität Bielefeld, Inspiration 1, 33619 Bielefeld, Deutschland; thies.pfeiffer@uni-bielefeld.de 2 Universität Bielefeld, Universitätsstraße 25, 33615 Bielefeld, Deutschland; (chainke | lemeyer | mfruhner | mniebling)@techfak.uni-bielefeld.de</p>
      </abstract>
      <kwd-group>
        <kwd>Virtuelle Realität</kwd>
        <kwd>Training</kwd>
        <kwd>SkillsLab</kwd>
        <kwd>Praxisvorbereitung</kwd>
      </kwd-group>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>In einer praxisnahen Ausbildung steht der Transfer des Erlernten, seien es technische,
motorische oder kommunikative Fähigkeiten, an vorderster Stelle. Eine besondere
Lehrform stellt hier das SkillsLab dar, welches psychomotorische Fähigkeiten und
implizites Kontextwissen durch praktisches Handeln, emotionales Lernen, sowie
wiederholtes Üben schult.
2</p>
    </sec>
    <sec id="sec-2">
      <title>Motivation und Zielsetzung eines Virtuellen SkillsLab</title>
      <p>Während das reale SkillsLab viele Vorteile bietet und eine praxisnahe Ausbildung
ermöglicht, birgt es jedoch auch Nachteile und Beschränkungen. So ist ein SkillsLab teuer
in Einrichtung und Instandhaltung und benötigt umfangreiche Räumlichkeiten. Darüber
hinaus sind in vielen Anwendungen im Trainingsdurchgang Verbrauchsmaterialien
notwendig, wodurch weitere Kosten entstehen. Gleichzeitig können an den einzelnen
aufgebauten Stationen nur eine begrenzte Anzahl an Studierenden gleichzeitig trainieren.
Gerade in berufsbegleitenden Ausbildungen, in denen die Studierenden nur wenige Tage
der Woche an der Hochschule verbringen, entsteht so ein Engpass und die Flexibilität des
einzelnen sinkt. Dies führt letztlich dazu, dass lange Wartezeiten entstehen und deutlich
weniger trainiert werden kann, als eigentlich gewünscht.</p>
      <p>Mit aus diesen Gründen wurde die Idee entwickelt, das reale SkillsLab virtuell
nachzubilden, um Teile des praxisnahen Trainings aus dem realen Training auszulagern.
Der Fokus liegt dabei auf dem Prozesswissen, da psychomotorische Fähigkeiten in der
Virtuellen Realität (VR) nur eingeschränkt trainiert werden können. Ziel ist es, dadurch
die Anzahl und Dauer der notwendigen realen Trainingsdurchgänge zu senken und
gleichzeitig die Flexibilität und die Selbststeuerung des Lernens zu erhöhen.
3</p>
    </sec>
    <sec id="sec-3">
      <title>Entwicklung</title>
      <p>In einer interdisziplinären Kooperation zwischen FH Bielefeld und dem CITEC an der
Universität Bielefeld wird am Virtuellen SkillsLab seit 2015 entwickelt. Bislang sind zwei
Szenarien realisiert und erprobt: die Vorbereitung einer Infusion (siehe Abbildung 1) und
die kardiopulmonale Reanimation. Die erste technische Umsetzung erfolgte durch
Melanie Derksen und Le Zhang [De16] für die Samsung GearVR, eine mobile VR-Brille
mit Nutzung des Smartphones, die sich insbesondere für das Training in größeren
Klassenverbänden oder zu Hause eignet. Die Interaktion war technisch bedingt in dieser
Variante auf eine einfache Point-and-Click Interaktion reduziert.</p>
      <p>Abbildung 1. Das virtuelle Zimmer, in dem die Infusion vorbereitet wird.</p>
      <p>Nach der durchweg positiven Resonanz aus einer Nutzerstudie mit Studierenden der FH
Bielefeld wurde eine zweite Version entwickelt, welche komplexere Interaktionen mit den
Händen und eine räumliche Bewegung unter Einsatz der HTC Vive realisierte [Ko16]. Die
Studie hatte gezeigt, dass typische Handbewegungen von den Studierenden vermisst
wurden. Die neue Version wurde wiederum positiv bewertet, konnte sich jedoch bezogen
auf den Lernerfolg nicht deutlich abheben.</p>
      <p>Da wesentliche Handbewegungen, wie insbesondere die Desinfektion der Hände, auch mit
den Controllern noch unrealistisch durchzuführen waren, wurde 2017 in einem weiteren
Anlauf eine Steuerung über freies Handtracking mit der Leap Motion umgesetzt [MP17].
Diese Version schnitt ebenfalls sehr gut ab, wobei technisch bedingt jedoch die
Manipulation etwas weniger präziser erfolgt, als mit den Controllern.</p>
      <p>In der aktuellen Trainingssimulation ist damit bezogen auf die Interaktionsfähigkeit der
bestmögliche Stand unter Verwendung der im Konsumer-Markt verfügbaren Sensorik
erreicht. Als nächster wesentlicher Schritt wurde die Bewertung der Kompetenz bzw. des
Trainingsfortschritts identifiziert, um dem Lernenden ein genaueres Feedback und eine
sinnvollere Strukturierung der Lerneinheiten anbieten zu können. In 2017 wurde daher das
Simulationssystem um Blickbewegungsmessung erweitert, was es ermöglicht, die
Pupillengröße als Indikator für die kognitive Belastung zu nutzen [HP17]. In weiteren
Schritten werden zusätzliche Bio-Indikatoren erfasst und auf ihre Nützlichkeit für die
Performance-Erfassung geprüft. Darüber hinaus laufen Studien um das Training in
sinnvolle Einheiten zu unterteilen und eine intelligente Auswahl der Einheiten zu
ermöglichen.</p>
      <p>Im Folgenden wird auf einzelne Stationen noch einmal detaillierter eingegangen, bevor
dann die Ergebnisse der Studien und technische Details vorgestellt werden.
4</p>
    </sec>
    <sec id="sec-4">
      <title>Voll-Immersive Simulation mit Handinteraktionen</title>
      <p>Mit den Zielen, Lerneffekt und Nutzererfahrung weiter zu verbessern, portierte Mike
Kortemeier [Ko16] das Virtual SkillsLab auf die HTC Vive unter Nutzung der Vive
Motion Controller. Seither können mit den Controllern Gegenstände selektiert und
manipuliert werden. Die Controller werden dabei als statische Hände in der VR
abgebildet. Die These, dass der Lerneffekt weiter gesteigert werden kann, wenn Nutzer
auch mit ihren Händen interagieren können, konnte trotz hoher Nutzerzufriedenheit nicht
bestätigt werden.</p>
      <p>Um den Grad an Realismus weiter zu erhöhen und Nutzern die Bedienung zu erleichtern,
wurde 2017 eine gestikbasierte Steuerung ohne statische Controller integriert [MP17].
Dazu wurde die Leap Motion verwendet, ein kleines USB-Gerät, welches optische
Sensoren und Infrarotlicht zum Analysieren von Handstellungen benutzt [Le17]. Externe
Hilfsmittel, wie gesonderte Markierungen oder Handschuhe, werden dabei nicht benötigt.
Das Interagieren funktioniert über abstrakte Handgesten, wie Greifen oder einem
angedeuteten Pinzettengriff, welche entsprechend Selektionen auslösen. Im gleichen
Entwicklungsschritt wurde die Simulation von physikalischem Verhalten für
Schranktüren, Schubladen und bewegliche Gegenstände implementiert. Im Durchschnitt
erreicht die Leap Motion eine Präzision von 1,2~mm Abweichung zur tatsächlichen
Hand/Finger Position und Krümmung [WBRF13].</p>
      <p>In einer Vergleichsstudie zwischen Controllern und Leap Motion zeigten Meyer und
Pfeiffer, dass sowohl Lerneffekt als auch berichtete Nutzererfahrung sich nicht signifikant
unterscheiden [MP17]. Auffällig war die signifikant höhere Geschwindigkeit, mit der das
Trainingsprogramm in der Leap Motion Gruppe durchlaufen wurde, was für den Einsatz
der Technik spricht. Da die aktuelle Leap Motion noch Unzulänglichkeiten bei
bestimmten Handkonfigurationen zeigt, die insbesondere beim in der Simulation
mehrfach vorkommenden Drehen von Objekten auftreten, ist hier noch Potential für
Verbesserungen zu erwarten.
5</p>
    </sec>
    <sec id="sec-5">
      <title>Entwicklungen hin zum Adaptiven Training</title>
      <p>In der aktuellen Version wird die Trainingssimulation sequentiell durchlaufen, ein
Einstieg bzw. Ausstieg in bestimmten Phasen ist nicht vorgesehen. Für ein flexibleres
angepasstes Training sollen der gesamte Prozess aufgeteilt (Chunking) und systematisch
einzelne Abschnitte wiederholt trainiert werden können. Diese Einteilung basiert auf
Befragungen von berufstätigem Pflegepersonal. Dabei soll das Trainingsprogramm, wenn
möglich, entsprechendes Feedback über die Leistung und passende Trainingsvorschläge
abgeben. Nach Nagic u.a. [NGG15] soll eine an den Nutzer angepasste Hilfestellung den
Lerneffekt einer Anwendung besonders verbessern. Da der Bedarf an Hilfestellung je nach
Person unterschiedlich ist, würde die Anwendung im Optimalfall selbst erkennen können,
wann welche Art von Hilfe benötigt wird.
Um dies umsetzen zu können, muss die Kompetenz des Lernenden bezogen auf die
einzelnen Abschnitte beurteilt werden. Neben einfachen Maßen wie benötigte Zeit und
Anzahl der Fehler soll versucht werden, die gefühlte Kompetenz des Nutzers, basierend
auf Biodaten und Selbsteinschätzung, in die Bewertung mit einzubeziehen, um verstärkt
die emotionale und motivationale Situation des Lernenden mit berücksichtigen zu können.
Die Biodaten bestehen dabei aus Pupillendurchmesser, Blickposition und Blinzelverhalten
gemessen mit Hilfe von Eye-Tracking [Re08] und die Herzfrequenzvariabilität wird durch
einen Brustgurt bestimmt. Die selbst eingeschätzten Daten zur eigenen Leistung werden
durch Fragebögen ermittelt, die für die Erhebung der kognitiven Belastung konzipiert sind.
Momentan wird dafür der NASA TLX [HS88] verwendet. Zusätzlich soll dazu ein
Fragebogen nach Leppink~u.a. [Le14] verwendet werden.</p>
      <p>Auf Basis der gewonnenen Einschätzung soll dann eine individuellere Lernmethode
realisiert werden. Diese sieht vor, den Benutzer je nach Wissensstand zu unterstützen, z.B.
durch Reduzierung von zu lernenden Materialien. Ebenso wird der Gesamtprozess in
einzelne Teilabläufe unterteilt. Durch das Erkennen von Schwierigkeiten in bestimmten
Teilabläufen könnten diese durch Wiederholungen effizient und gezielt trainiert werden.
5.1</p>
      <sec id="sec-5-1">
        <title>Messen kognitiver Belastung mit Eyetracking</title>
        <p>In einer ersten Version wurde die kognitive Belastung mittels Eyetracking zur Laufzeit
gemessen [HP17]. Die resultierenden Informationen wurden genutzt, um zusätzliche
Hilfestellungen einzublenden und den Nutzer so zu entlasten. In einer Studie mit 13
Probanden wurde das Verfahren evaluiert. Während der Studie sollten die Teilnehmer
zunächst die einzelnen Schritte des Ablaufes der Infusionsvorbereitung in eine für sie
sinnvolle Reihenfolge bringen. Hierbei wurde sowohl die Zeit gemessen, als auch die
Fehlerquote erhoben. Danach wurde das Training mit der Lernanwendung durchgeführt.
Hierbei wurden, basierend auf der gemessenen Belastung, zusätzliche Hilfestellungen
eingeblendet. Anschließend sollten zur Messung des Lernerfolgs erneut die Schritte des
Ablaufs in eine Reihenfolge gebracht werden.</p>
        <p>Wie in Tab. 1 zu sehen, konnte die benötigte Zeit und der Lernerfolg deutlich verbessert
werden. Weiterhin wurde gezeigt, dass die gemessene kognitive Belastung in den meisten
Fällen nach dem Einblenden der Hilfe gesunken ist. Sowohl die Art der Hilfestellungen
als auch der Effekt auf den Lernerfolg müssen jedoch in weiteren Studien untersucht
werden.</p>
      </sec>
      <sec id="sec-5-2">
        <title>Zeit</title>
        <p>06:53 min</p>
      </sec>
      <sec id="sec-5-3">
        <title>Richtig</title>
      </sec>
      <sec id="sec-5-4">
        <title>Falsch</title>
      </sec>
      <sec id="sec-5-5">
        <title>Zeit</title>
      </sec>
      <sec id="sec-5-6">
        <title>Richtig</title>
        <p>30,4%
Vor dem Training
69,6%
04:54 min
78,8%
Nach dem Training</p>
      </sec>
      <sec id="sec-5-7">
        <title>Falsch</title>
        <p>21,2%
6</p>
      </sec>
    </sec>
    <sec id="sec-6">
      <title>Evaluationen</title>
      <p>Das Virtuelle SkillsLab wurde bereits mehrfach evaluiert. Neben den oben beschriebenen
eher technischen Evaluationen, die neben dem Lernerfolg auch insbesondere die Usability
adressierten, wurden auch zwei Studien mit Studierenden der FH Bielefeld aus dem
Bereich Pflege durchgeführt, wobei die Trainingseinheiten auch jeweils eigenständig von
nicht-Technikern aus dem Bereich Pflege durchgeführt wurden. Die Ergebnisse sind
aktuell nur in Studien- und Abschlussarbeiten festgehalten und nicht öffentlich
zugänglich. An einer umfangreicheren Studie wird noch gearbeitet.</p>
      <p>Beide Studien an der FH Bielefeld wurden mit der Version für die GearVR durchgeführt.
In der ersten wurden 6 Studierende aus dem Bereich berufliche Bildung und 6 aus dem
Bereich Pflege einbezogen. Die Ergebnisse zeigen, dass sich die Probanden vorstellen
konnten, diese oder ähnliche Anwendungen in der Lehre einsetzen zu können. Außerdem
hatten die Probanden das Gefühl, sich nach der Lernanwendung sicherer in der
Durchführung zu fühlen. Bis auf eine Person konnten sich alle Probanden gut in die
Situation hineinversetzen.</p>
      <p>In einer zweiten Studie wurde an weiteren 12 Probanden geprüft, wie sich das Training
auf die konkrete Studienleistung auswirkt. Hier konnte in der relativ kleinen Stichprobe
gezeigt werden, dass die VR-trainierten im Vergleich zur Kontrollgruppe besser in der
Prüfung abschnitten. Die Ergebnisse sind jedoch nicht signifikant.
7</p>
    </sec>
    <sec id="sec-7">
      <title>Technische Umsetzung</title>
      <p>Die Trainingssimulation wurde unter Verwendung der Unreal Engine implementiert. Die
Modellierung der Objekte und Szenen erfolgte maßgeblich mit Blender. Als Hardware
kommt in der mobilen Variante eine Samsung GearVR mit Samsung Note 4 oder besser
zum Einsatz. In der voll-immersiven Variante mit roomscale-tracking wird eine HTC Vive
mit Leap Motion und eine Gaming-Workstation mit NVIDIA GTX 1080 eingesetzt. Die
Blickverfolgung wurde in der ersten Version mit einem PupilLabs System, in der neueren
Version mit einem SMI Eyetracker realisiert.
8</p>
    </sec>
    <sec id="sec-8">
      <title>Zusammenfassung</title>
      <p>Die konkrete Simulation ist aktuell für das Training in der Pflege bestimmt. Hier ist die
Version für die GearVR (Cardboard wäre ebenfalls möglich) besonders interessant, da sie
besser skaliert, sowohl bezogen auf die Anzahl der Personen, als auch auf Zeit und Raum.
Die entwickelten Interaktionstechniken und die Konzepte zur Strukturierung der
Lerneinheiten, sowie der Echtzeit-Messung des Kompetenzstandes lassen sich jedoch
auch leicht auf andere Lerneinheiten übertragen. Letztlich besticht ein virtuelles SkillsLab
dadurch, dass die dafür zu beschaffende Hardware generisch ist und die konkrete fachliche
Ausprägung weitestgehend durch die Software bestimmt wird. Dadurch ist ein virtuelles
SkillsLab flexibel im Einsatz, leichter zu aktualisieren und deutlich kostengünstiger im
Verbrauch.</p>
      <p>Literaturverzeichnis
[De16]
[HP17]
[HS88]
[Ko16]
[Le17]
[Le14]
[MP17]
[Re08]</p>
      <p>Hainke, Carolin; Pfeiffer, Thies: Messen mentaler Auslastung in einer VR-Umgebung
basierend auf Eyetrackingdaten. In (Dörner, Ralf; Kruse, Rolf; Mohler, Betty; Weller,
René, Hrsg.): Virtuelle und Erweiterte Realität - 14. Workshop der GI-Fachgruppe
VR/AR. Shaker Verlag, S. 43–54, 2017.</p>
      <p>Hart, Sandra G.; Staveland, Lowell E.: Development of NASA-TLX (Task Load Index):
Results of Empirical and Theoretical Research. In (Hancock, Peter A.; Meshkati,
Najmedin, Hrsg.): Advances in Psychology, Jgg. 52 in Human Mental Workload, S.
139–183. North-Holland, Januar 1988.</p>
      <p>Kortemeier, Mike: Optimierung eines Virtual Reality Trainingsprogramms und
Portierung für die HTC Vive und Google Cardboard. Bachelorarbeit, Technische
Fakultät, Universität Bielefeld, 2016.</p>
      <p>LeapMotion: Leap Motion API Documentation.
https://developer.leapmotion.com/documentation/csharp/devguide/Leap_Overview.ht
ml. Zugriff: 13.07.2017.</p>
      <p>Leppink, Jimmie; Paas, Fred; van Gog, Tamara; van der Vleuten, Cees P. M.; van
Merriënboer, Jeroen J. G.: Effects of pairs of problems and examples on task
performance and different types of cognitive load. Elsevier. Learning and Instruction,
30:32–42, April 2014.</p>
      <p>Meyer, Leonard; Pfeiffer, Thies: Vergleich von Leap Motion Hand-Interaktion mit den
HTC-Vive MotionControllern in einer VR-Trainingssimulation für manuelle Arbeiten.
In (Dörner, Ralf; Kruse, Rolf; Mohler, Betty; Weller, René, Hrsg.): Virtuelle und
Erweiterte Realität - 14. Workshop der GI-Fachgruppe VR/AR. Shaker Verlag, S. 91–
102, 2017.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          [WBRF13] Frank Weichert, Daniel Bachmann, Bartholomäus Rudak, and
          <string-name>
            <given-names>Denis</given-names>
            <surname>Fisseler</surname>
          </string-name>
          .
          <article-title>Analysis of the accuracy and robustness of the leap motion controller</article-title>
          .
          <source>Sensors</source>
          ,
          <volume>13</volume>
          (
          <issue>5</issue>
          ):
          <fpage>6380</fpage>
          -
          <lpage>6393</lpage>
          ,
          <year>2013</year>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>