Daniel Schiffner (Hrsg.): Proceedings of DeLFI Workshops 2018 co-located with 16th e-Learning Conference of the German Computer Society (DeLFI 2018) Frankfurt, Germany, September 10, 2018 Virtual SkillsLab - Trainingsanwendung zur Infusionsvorbereitung Thies Pfeiffer1, Carolin Hainke2, Leonard Meyer2, Maik Fruhner2, Moritz Niebling2 Zusammenfassung: In der Ausbildung in der Pflege gibt es großen Bedarf an praktischem Training. SkillsLabs, physikalische Nachbauten von realen Arbeitsräumen an den Lehrstätten, bieten die einzigartige Möglichkeit, praktisches Wissen in direkter Nähe und in direkter Einbindung mit den Lehrenden zu erarbeiten und mit der theoretischen Ausbildung zu verzahnen. Häufig stehen jedoch die notwendigen Ressourcen (Räume, Arbeitsmittel) nicht in ausreichendem Maße zur Verfügung. Virtuelle SkillsLabs können hier den Bedarf zum Teil abdecken und eine Brücke zwischen Theorie und Praxis bilden. Im Beitrag wird eine solche Umsetzung mit verschiedenen Ausbaustufen vorgestellt. Abstract: There is a need for practical training in nursing education. SkillsLabs, physical replicas of real workspaces at educational institutions, provide the unique opportunity to develop practical knowledge in close proximity and in direct involvement with the teachers and to link this knwoledge with the theoretical training. However, the necessary resources (rooms, work equipment) are often not sufficiently available. Virtual SkillsLabs can partly cover the requirements and bridge between theory and practice. This paper presents such an implementation with different stages of development. Keywords: Virtuelle Realität, Training, SkillsLab, Praxisvorbereitung 1 Einleitung In einer praxisnahen Ausbildung steht der Transfer des Erlernten, seien es technische, motorische oder kommunikative Fähigkeiten, an vorderster Stelle. Eine besondere Lehrform stellt hier das SkillsLab dar, welches psychomotorische Fähigkeiten und implizites Kontextwissen durch praktisches Handeln, emotionales Lernen, sowie wiederholtes Üben schult. An der FH Bielefeld wurde für den Fachbereich Wirtschaft und Gesundheit ein SkillsLab eingerichtet, das die realen Räumlichkeiten und Ausstattungen eines Krankenhauses reflektiert und den Lernenden vor Ort an der Hochschule zur Verfügung stellt. Betreut und geleitet wird das SkillsLab von Christiane Freese und Prof. Dr. med. Annette Nauerth, 1 CITEC, Universität Bielefeld, Inspiration 1, 33619 Bielefeld, Deutschland; thies.pfeiffer@uni-bielefeld.de 2 Universität Bielefeld, Universitätsstraße 25, 33615 Bielefeld, Deutschland; (chainke | lemeyer | mfruhner | mniebling)@techfak.uni-bielefeld.de Thies Pfeiffer, Carolin Hainke, Leonard Meyer, Maik Fruhner und Moritz Niebling mit denen in enger Kooperation die hier vorzustellende Trainingssimulation entwickelt wurde. 2 Motivation und Zielsetzung eines Virtuellen SkillsLab Während das reale SkillsLab viele Vorteile bietet und eine praxisnahe Ausbildung ermöglicht, birgt es jedoch auch Nachteile und Beschränkungen. So ist ein SkillsLab teuer in Einrichtung und Instandhaltung und benötigt umfangreiche Räumlichkeiten. Darüber hinaus sind in vielen Anwendungen im Trainingsdurchgang Verbrauchsmaterialien notwendig, wodurch weitere Kosten entstehen. Gleichzeitig können an den einzelnen aufgebauten Stationen nur eine begrenzte Anzahl an Studierenden gleichzeitig trainieren. Gerade in berufsbegleitenden Ausbildungen, in denen die Studierenden nur wenige Tage der Woche an der Hochschule verbringen, entsteht so ein Engpass und die Flexibilität des einzelnen sinkt. Dies führt letztlich dazu, dass lange Wartezeiten entstehen und deutlich weniger trainiert werden kann, als eigentlich gewünscht. Mit aus diesen Gründen wurde die Idee entwickelt, das reale SkillsLab virtuell nachzubilden, um Teile des praxisnahen Trainings aus dem realen Training auszulagern. Der Fokus liegt dabei auf dem Prozesswissen, da psychomotorische Fähigkeiten in der Virtuellen Realität (VR) nur eingeschränkt trainiert werden können. Ziel ist es, dadurch die Anzahl und Dauer der notwendigen realen Trainingsdurchgänge zu senken und gleichzeitig die Flexibilität und die Selbststeuerung des Lernens zu erhöhen. 3 Entwicklung In einer interdisziplinären Kooperation zwischen FH Bielefeld und dem CITEC an der Universität Bielefeld wird am Virtuellen SkillsLab seit 2015 entwickelt. Bislang sind zwei Szenarien realisiert und erprobt: die Vorbereitung einer Infusion (siehe Abbildung 1) und die kardiopulmonale Reanimation. Die erste technische Umsetzung erfolgte durch Melanie Derksen und Le Zhang [De16] für die Samsung GearVR, eine mobile VR-Brille mit Nutzung des Smartphones, die sich insbesondere für das Training in größeren Klassenverbänden oder zu Hause eignet. Die Interaktion war technisch bedingt in dieser Variante auf eine einfache Point-and-Click Interaktion reduziert. Virtual SkillsLab Abbildung 1. Das virtuelle Zimmer, in dem die Infusion vorbereitet wird. Nach der durchweg positiven Resonanz aus einer Nutzerstudie mit Studierenden der FH Bielefeld wurde eine zweite Version entwickelt, welche komplexere Interaktionen mit den Händen und eine räumliche Bewegung unter Einsatz der HTC Vive realisierte [Ko16]. Die Studie hatte gezeigt, dass typische Handbewegungen von den Studierenden vermisst wurden. Die neue Version wurde wiederum positiv bewertet, konnte sich jedoch bezogen auf den Lernerfolg nicht deutlich abheben. Da wesentliche Handbewegungen, wie insbesondere die Desinfektion der Hände, auch mit den Controllern noch unrealistisch durchzuführen waren, wurde 2017 in einem weiteren Anlauf eine Steuerung über freies Handtracking mit der Leap Motion umgesetzt [MP17]. Diese Version schnitt ebenfalls sehr gut ab, wobei technisch bedingt jedoch die Manipulation etwas weniger präziser erfolgt, als mit den Controllern. In der aktuellen Trainingssimulation ist damit bezogen auf die Interaktionsfähigkeit der bestmögliche Stand unter Verwendung der im Konsumer-Markt verfügbaren Sensorik erreicht. Als nächster wesentlicher Schritt wurde die Bewertung der Kompetenz bzw. des Trainingsfortschritts identifiziert, um dem Lernenden ein genaueres Feedback und eine sinnvollere Strukturierung der Lerneinheiten anbieten zu können. In 2017 wurde daher das Simulationssystem um Blickbewegungsmessung erweitert, was es ermöglicht, die Pupillengröße als Indikator für die kognitive Belastung zu nutzen [HP17]. In weiteren Schritten werden zusätzliche Bio-Indikatoren erfasst und auf ihre Nützlichkeit für die Performance-Erfassung geprüft. Darüber hinaus laufen Studien um das Training in sinnvolle Einheiten zu unterteilen und eine intelligente Auswahl der Einheiten zu ermöglichen. Im Folgenden wird auf einzelne Stationen noch einmal detaillierter eingegangen, bevor dann die Ergebnisse der Studien und technische Details vorgestellt werden. Thies Pfeiffer, Carolin Hainke, Leonard Meyer, Maik Fruhner und Moritz Niebling 4 Voll-Immersive Simulation mit Handinteraktionen Mit den Zielen, Lerneffekt und Nutzererfahrung weiter zu verbessern, portierte Mike Kortemeier [Ko16] das Virtual SkillsLab auf die HTC Vive unter Nutzung der Vive Motion Controller. Seither können mit den Controllern Gegenstände selektiert und manipuliert werden. Die Controller werden dabei als statische Hände in der VR abgebildet. Die These, dass der Lerneffekt weiter gesteigert werden kann, wenn Nutzer auch mit ihren Händen interagieren können, konnte trotz hoher Nutzerzufriedenheit nicht bestätigt werden. Um den Grad an Realismus weiter zu erhöhen und Nutzern die Bedienung zu erleichtern, wurde 2017 eine gestikbasierte Steuerung ohne statische Controller integriert [MP17]. Dazu wurde die Leap Motion verwendet, ein kleines USB-Gerät, welches optische Sensoren und Infrarotlicht zum Analysieren von Handstellungen benutzt [Le17]. Externe Hilfsmittel, wie gesonderte Markierungen oder Handschuhe, werden dabei nicht benötigt. Das Interagieren funktioniert über abstrakte Handgesten, wie Greifen oder einem angedeuteten Pinzettengriff, welche entsprechend Selektionen auslösen. Im gleichen Entwicklungsschritt wurde die Simulation von physikalischem Verhalten für Schranktüren, Schubladen und bewegliche Gegenstände implementiert. Im Durchschnitt erreicht die Leap Motion eine Präzision von 1,2~mm Abweichung zur tatsächlichen Hand/Finger Position und Krümmung [WBRF13]. In einer Vergleichsstudie zwischen Controllern und Leap Motion zeigten Meyer und Pfeiffer, dass sowohl Lerneffekt als auch berichtete Nutzererfahrung sich nicht signifikant unterscheiden [MP17]. Auffällig war die signifikant höhere Geschwindigkeit, mit der das Trainingsprogramm in der Leap Motion Gruppe durchlaufen wurde, was für den Einsatz der Technik spricht. Da die aktuelle Leap Motion noch Unzulänglichkeiten bei bestimmten Handkonfigurationen zeigt, die insbesondere beim in der Simulation mehrfach vorkommenden Drehen von Objekten auftreten, ist hier noch Potential für Verbesserungen zu erwarten. 5 Entwicklungen hin zum Adaptiven Training In der aktuellen Version wird die Trainingssimulation sequentiell durchlaufen, ein Einstieg bzw. Ausstieg in bestimmten Phasen ist nicht vorgesehen. Für ein flexibleres angepasstes Training sollen der gesamte Prozess aufgeteilt (Chunking) und systematisch einzelne Abschnitte wiederholt trainiert werden können. Diese Einteilung basiert auf Befragungen von berufstätigem Pflegepersonal. Dabei soll das Trainingsprogramm, wenn möglich, entsprechendes Feedback über die Leistung und passende Trainingsvorschläge abgeben. Nach Nagic u.a. [NGG15] soll eine an den Nutzer angepasste Hilfestellung den Lerneffekt einer Anwendung besonders verbessern. Da der Bedarf an Hilfestellung je nach Person unterschiedlich ist, würde die Anwendung im Optimalfall selbst erkennen können, wann welche Art von Hilfe benötigt wird. Virtual SkillsLab Um dies umsetzen zu können, muss die Kompetenz des Lernenden bezogen auf die einzelnen Abschnitte beurteilt werden. Neben einfachen Maßen wie benötigte Zeit und Anzahl der Fehler soll versucht werden, die gefühlte Kompetenz des Nutzers, basierend auf Biodaten und Selbsteinschätzung, in die Bewertung mit einzubeziehen, um verstärkt die emotionale und motivationale Situation des Lernenden mit berücksichtigen zu können. Die Biodaten bestehen dabei aus Pupillendurchmesser, Blickposition und Blinzelverhalten gemessen mit Hilfe von Eye-Tracking [Re08] und die Herzfrequenzvariabilität wird durch einen Brustgurt bestimmt. Die selbst eingeschätzten Daten zur eigenen Leistung werden durch Fragebögen ermittelt, die für die Erhebung der kognitiven Belastung konzipiert sind. Momentan wird dafür der NASA TLX [HS88] verwendet. Zusätzlich soll dazu ein Fragebogen nach Leppink~u.a. [Le14] verwendet werden. Auf Basis der gewonnenen Einschätzung soll dann eine individuellere Lernmethode realisiert werden. Diese sieht vor, den Benutzer je nach Wissensstand zu unterstützen, z.B. durch Reduzierung von zu lernenden Materialien. Ebenso wird der Gesamtprozess in einzelne Teilabläufe unterteilt. Durch das Erkennen von Schwierigkeiten in bestimmten Teilabläufen könnten diese durch Wiederholungen effizient und gezielt trainiert werden. 5.1 Messen kognitiver Belastung mit Eyetracking In einer ersten Version wurde die kognitive Belastung mittels Eyetracking zur Laufzeit gemessen [HP17]. Die resultierenden Informationen wurden genutzt, um zusätzliche Hilfestellungen einzublenden und den Nutzer so zu entlasten. In einer Studie mit 13 Probanden wurde das Verfahren evaluiert. Während der Studie sollten die Teilnehmer zunächst die einzelnen Schritte des Ablaufes der Infusionsvorbereitung in eine für sie sinnvolle Reihenfolge bringen. Hierbei wurde sowohl die Zeit gemessen, als auch die Fehlerquote erhoben. Danach wurde das Training mit der Lernanwendung durchgeführt. Hierbei wurden, basierend auf der gemessenen Belastung, zusätzliche Hilfestellungen eingeblendet. Anschließend sollten zur Messung des Lernerfolgs erneut die Schritte des Ablaufs in eine Reihenfolge gebracht werden. Wie in Tab. 1 zu sehen, konnte die benötigte Zeit und der Lernerfolg deutlich verbessert werden. Weiterhin wurde gezeigt, dass die gemessene kognitive Belastung in den meisten Fällen nach dem Einblenden der Hilfe gesunken ist. Sowohl die Art der Hilfestellungen als auch der Effekt auf den Lernerfolg müssen jedoch in weiteren Studien untersucht werden. Zeit Richtig Falsch Zeit Richtig Falsch 06:53 min 30,4% 69,6% 04:54 min 78,8% 21,2% Vor dem Training Nach dem Training Tab. 1: Durchschnittswerte der Ergebnisse einer Strukturlegekontrolle der Prozesse. Thies Pfeiffer, Carolin Hainke, Leonard Meyer, Maik Fruhner und Moritz Niebling 6 Evaluationen Das Virtuelle SkillsLab wurde bereits mehrfach evaluiert. Neben den oben beschriebenen eher technischen Evaluationen, die neben dem Lernerfolg auch insbesondere die Usability adressierten, wurden auch zwei Studien mit Studierenden der FH Bielefeld aus dem Bereich Pflege durchgeführt, wobei die Trainingseinheiten auch jeweils eigenständig von nicht-Technikern aus dem Bereich Pflege durchgeführt wurden. Die Ergebnisse sind aktuell nur in Studien- und Abschlussarbeiten festgehalten und nicht öffentlich zugänglich. An einer umfangreicheren Studie wird noch gearbeitet. Beide Studien an der FH Bielefeld wurden mit der Version für die GearVR durchgeführt. In der ersten wurden 6 Studierende aus dem Bereich berufliche Bildung und 6 aus dem Bereich Pflege einbezogen. Die Ergebnisse zeigen, dass sich die Probanden vorstellen konnten, diese oder ähnliche Anwendungen in der Lehre einsetzen zu können. Außerdem hatten die Probanden das Gefühl, sich nach der Lernanwendung sicherer in der Durchführung zu fühlen. Bis auf eine Person konnten sich alle Probanden gut in die Situation hineinversetzen. In einer zweiten Studie wurde an weiteren 12 Probanden geprüft, wie sich das Training auf die konkrete Studienleistung auswirkt. Hier konnte in der relativ kleinen Stichprobe gezeigt werden, dass die VR-trainierten im Vergleich zur Kontrollgruppe besser in der Prüfung abschnitten. Die Ergebnisse sind jedoch nicht signifikant. 7 Technische Umsetzung Die Trainingssimulation wurde unter Verwendung der Unreal Engine implementiert. Die Modellierung der Objekte und Szenen erfolgte maßgeblich mit Blender. Als Hardware kommt in der mobilen Variante eine Samsung GearVR mit Samsung Note 4 oder besser zum Einsatz. In der voll-immersiven Variante mit roomscale-tracking wird eine HTC Vive mit Leap Motion und eine Gaming-Workstation mit NVIDIA GTX 1080 eingesetzt. Die Blickverfolgung wurde in der ersten Version mit einem PupilLabs System, in der neueren Version mit einem SMI Eyetracker realisiert. 8 Zusammenfassung Die konkrete Simulation ist aktuell für das Training in der Pflege bestimmt. Hier ist die Version für die GearVR (Cardboard wäre ebenfalls möglich) besonders interessant, da sie besser skaliert, sowohl bezogen auf die Anzahl der Personen, als auch auf Zeit und Raum. Die entwickelten Interaktionstechniken und die Konzepte zur Strukturierung der Lerneinheiten, sowie der Echtzeit-Messung des Kompetenzstandes lassen sich jedoch auch leicht auf andere Lerneinheiten übertragen. Letztlich besticht ein virtuelles SkillsLab Virtual SkillsLab dadurch, dass die dafür zu beschaffende Hardware generisch ist und die konkrete fachliche Ausprägung weitestgehend durch die Software bestimmt wird. Dadurch ist ein virtuelles SkillsLab flexibel im Einsatz, leichter zu aktualisieren und deutlich kostengünstiger im Verbrauch. Literaturverzeichnis [De16] Derksen, Melanie; Zhang, Le; Schäfer, Marc; Schröder, Dimitri; Pfeiffer, Thies: Virtuelles Training in der Krankenpflege: Erste Erfahrungen mit Ultra-mobilen Head- Mounted-Displays. In (Pfeiffer, Thies; Fröhlich, Julia; Kruse, Rolf, Hrsg.): Virtuelle und Erweiterte Realität - 13. Workshop der GI-Fachgruppe VR/AR. Shaker Verlag, S. 137– 144, 2016. [HP17] Hainke, Carolin; Pfeiffer, Thies: Messen mentaler Auslastung in einer VR-Umgebung basierend auf Eyetrackingdaten. In (Dörner, Ralf; Kruse, Rolf; Mohler, Betty; Weller, René, Hrsg.): Virtuelle und Erweiterte Realität - 14. Workshop der GI-Fachgruppe VR/AR. Shaker Verlag, S. 43–54, 2017. [HS88] Hart, Sandra G.; Staveland, Lowell E.: Development of NASA-TLX (Task Load Index): Results of Empirical and Theoretical Research. In (Hancock, Peter A.; Meshkati, Najmedin, Hrsg.): Advances in Psychology, Jgg. 52 in Human Mental Workload, S. 139–183. North-Holland, Januar 1988. [Ko16] Kortemeier, Mike: Optimierung eines Virtual Reality Trainingsprogramms und Portierung für die HTC Vive und Google Cardboard. Bachelorarbeit, Technische Fakultät, Universität Bielefeld, 2016. [Le17] LeapMotion: Leap Motion API Documentation. https://developer.leapmotion.com/documentation/csharp/devguide/Leap_Overview.ht ml. Zugriff: 13.07.2017. [Le14] Leppink, Jimmie; Paas, Fred; van Gog, Tamara; van der Vleuten, Cees P. M.; van Merriënboer, Jeroen J. G.: Effects of pairs of problems and examples on task performance and different types of cognitive load. Elsevier. Learning and Instruction, 30:32–42, April 2014. [MP17] Meyer, Leonard; Pfeiffer, Thies: Vergleich von Leap Motion Hand-Interaktion mit den HTC-Vive MotionControllern in einer VR-Trainingssimulation für manuelle Arbeiten. In (Dörner, Ralf; Kruse, Rolf; Mohler, Betty; Weller, René, Hrsg.): Virtuelle und Erweiterte Realität - 14. Workshop der GI-Fachgruppe VR/AR. Shaker Verlag, S. 91– 102, 2017. [NGG15] Nakic, Jelena; Granic, Andrina; Glavinic, Vlado: Anatomy of Student Models in Adaptive Learning Systems: A Systematic Literature Review of Individual Differences from 2001 to 2013. Journal of Educational Computing Research, 2015. [Re08] Recarte, Miguel Angel; Perez, Elisa; Conchillo, Angela; Nunes, Luis Miguel: Mental Workload and Visual Impairment: Differences between Pupil, Blink, and Subjective Rating. Spanish Journal of Psychology, 11(2):374–385, 2008. Thies Pfeiffer, Carolin Hainke, Leonard Meyer, Maik Fruhner und Moritz Niebling [WBRF13] Frank Weichert, Daniel Bachmann, Bartholomäus Rudak, and Denis Fisseler. Analysis of the accuracy and robustness of the leap motion controller. Sensors, 13(5):6380–6393, 2013.