=Paper= {{Paper |id=Vol-1669/WS1_1_099_Paper |storemode=property |title=Digitale Infrastruktur und Learning Analytics im Co-Design |pdfUrl=https://ceur-ws.org/Vol-1669/WS1_1_099_Paper.pdf |volume=Vol-1669 |authors=Truong-Sinh An,Francois Dubois,Eileen Manthey,Agathe Merceron |dblpUrl=https://dblp.org/rec/conf/delfi/AnDMM16 }} ==Digitale Infrastruktur und Learning Analytics im Co-Design== https://ceur-ws.org/Vol-1669/WS1_1_099_Paper.pdf
                                    Raphael Zender (Hrsg.): Proceedings of DeLFI Workshops 2016
         co-located with 14th e-Learning Conference of the German Computer Society (DeLFI 2016)
                                                         Potsdam, Germany, September 11, 2016 8

Digitale Infrastruktur und Learning Analytics im Co-
Design

Truong-Sinh An1, Francois Dubois1, Eileen Manthey1, Agathe Merceron1



Abstract: Im Projekt SLHw wird ein neuartiges didaktisches Konzept für die berufliche
Fortbildung zur/m Gebäudeenergieberater/-in erarbeitet. Die generische digitale Infrastruktur für
das Speichern und die Anzeige der Lehrmaterialen wird parallel mit den
Auswertungsmöglichkeiten für die Learning Analytics Web-App entwickelt. Dies ermöglicht es,
Benutzerinteraktion gezielt zu verfolgen. Es werden zunächst Dashboards entwickelt, welche den
Dozenten einen schnellen Überblick über den Kenntnisstand der Lernenden ermöglichen. Dieser
Beitrag präsentiert die generische digitale Infrastruktur und die Learning Analytics Web-App.
Keywords: Digitales Lehrmaterial, Learning Analytics, Benutzerinteraktionen, xAPI, Learning
Record Store


1        Einleitung
Die Forschungsgebiete „Educational Data Mining“ und „Learning Analytics“
beschäftigen sich mit der Auswertung von Daten, die von Lernsystemen gespeichert
werden, mit dem Ziel Lernen und Lehren besser zu unterstützen. Eine Voraussetzung für
eine sinnvolle Auswertung der Daten ist, dass das Lernsystem die richtigen
Benutzerinteraktionen speichert. Dies ist in der Praxis nicht immer gegeben. In vielen
Fällen ist ein Lernsystem vorhanden, welches nicht genügend Interaktionen speichert.
Wenn das System beispielsweise nicht alle Versuche beim Lösen einer Übung speichert,
kann der Schwierigkeitsgrad der Übung nicht ausreichend analysiert werden. Als
weiteres Beispiel ist es problematisch zu berechnen, wie lange Lernende das Material
einer Lernplattform bearbeiten; ein Grund unter anderen ist, dass die Interaktionen der
Lernenden mit dem Lehrmaterial nicht explizit genug gespeichert werden. Wie die
Autoren in [Ko15] zeigen, hat die Heuristik, welche bei der Auswertung der „time on
task“ benutzt wird, Einfluss auf die Ergebnisse.
Dieser Beitrag beschreibt, wie im Projekt Smart Learning im Handwerk [Zw15] (kurz
SLHw) der didaktische Ansatz und die digitale Infrastruktur zusammen mit der Learning
Analytics Web-App konzipiert werden, mit dem Ziel eine solide Datenbasis für die
Analyse der Benutzerinteraktionen zu schaffen. Im Projekt SLHw wird ein didaktisches
Konzept für die berufliche Fortbildung zur/m Gebäudeenergieberater/-in erarbeitet. Das
didaktische Konzept beinhaltet insbesondere (1) die Erstellung von strukturierten
1
    Beuth Hochschule für Technik Berlin, Fachbereich VI – Informatik und Medien, Luxemburger Str. 10, 13353
    Berlin, {vorname.nachname}@beuth-hochschule.de
                               Digitale Infrastruktur und Learning Analytics im Co-Design   9

digitalen Inhalten auf Basis wiederverwendbarer Lehrmaterialien, damit sich Lernende
auf die Präsenzphasen selbstständig vorbereiten können, (2) die Entwicklung einer
Lernbegleiter-App [Kr16], die Lernenden Lernempfehlungen anbietet, und (3) die
Entwicklung einer Learning Analytics Web-App, damit Dozenten die Präsenzphasen
passgenau vorbereiten können. Zusätzlich zu den Interaktionen der Lernenden mit dem
digitalen Lehrmaterial werden weitere optionale Interaktionsmöglichkeiten angeboten,
welche den Lernenden aktiver in den Lernprozess mit einbeziehen kann. Die digitale
Infrastruktur für das Speichern und die Anzeige der Lehrmaterialen wird parallel mit den
Auswertungsmöglichkeiten für die Learning Analytics Web-App entwickelt. Dies
ermöglicht es, Benutzerinteraktion gezielt zu verfolgen. Die Vorgehensweise ist
generisch und auch in einem anderen Umfeld einsetzbar. Unter Berücksichtigung des
Datenschutzes erklären die Lernenden per Opt-in, ob Benutzerinteraktionen gar nicht,
anonym oder nicht-anonymisiert erfasst werden.
Dieser Artikel ist wie folgt organisiert: Zuerst wird kurz der Stand der Forschung über
Learning Analytics insbesondere für Dozenten vorgestellt. Dann werden die digitale
Infrastruktur und das digitale Lehrmaterial beschrieben, gefolgt von der Learning
Analytics Web-App. Fazit und Ausblick beenden den Beitrag.


2    Stand der Forschung und Technik zu Learning Analytics
Verschiedene Learning Analytics (LA) Anwendungen wurden in den letzten Jahren
entwickelt, siehe die Übersicht bei Verbert und al. [Ve13]. In diesen Arbeiten werden
vor allem Tools mit ihren Funktionalitäten präsentiert. A.L. Dyckhoff in [Dy13]
erforscht dagegen, welche Funktionalitäten eine LA Anwendung, unabhängig von einem
konkreten Tool, anbieten sollte. Andere Beiträge verbinden die Bedürfnisse ihrer
Anwender und die Entwicklung eines LA Tools, wie z. B. im Projekt LeMo [EFM13]
oder im Ansatz von Bakharia et al. [Ba16]. Dieser Stand zeigt, dass es noch kein
allgemein gültiges Konzept für eine LA Anwendung gibt. Die Funktionalitäten einer LA
Anwendung hängen vor allem von den Zielen und Bedürfnissen der Anwender ab. Aus
diesem Grund ist die Einbeziehung der Anwender bei der Entwicklung so wichtig, wie in
[Ma15] argumentiert. Es gibt aber Funktionalitäten, die in den genannten Beiträgen als
primär angesehen werden. Eine ist, dem Dozenten einen Überblick über die Zugriffe der
Lernenden auf das Lehrmaterial – über die Zeit hinweg – zu ermöglichen.
Im Projekt SLHw werden die Dozenten in der Entwicklung der LA Web-App
regelmäßig einbezogen. Es werden Dashboards entwickelt, welche den Dozenten einen
schnellen Überblick über den Kenntnisstand der Lernenden ermöglichen. Die
Diagramme können nach dem top-down Prinzip analysiert werden, indem Dozenten
zuerst einen Überblick des Lernfortschrittes der Lernenden im gesamten Kurs erhalten
und dann nach Bedarf, weitere Details über untergeordnete Lehrmaterialien anzeigen
lassen können, wie in [Sch96] geschildert. Angelehnt an Dollár und Steif [DS12],
benutzen die Diagramme die Ampel-Farbcodierung, welche es erlaubt auf einen Blick zu
erkennen, wie viele Lernende im grünen oder roten Bereich liegen, siehe Kapitel 4.
10   Truong-Sinh An et al.



3    Digitale Infrastruktur
Der didaktische Ansatz wurde gemeinsam mit den Dozenten und Medienerstellern
erarbeitet und sieht die Erstellung von strukturierten digitalen Lehrmaterialen vor, damit
sich Lernende auf die Präsenzphasen selbstständig vorbereiten können. Die
kleinstmögliche Lernvermittlung, die sogenannten Lernobjekte (LO), sind Übungen,
Animationen, Audio- sowie Video-Dateien, und Texte, siehe Abb. 1, und werden zentral
in einem Repository gehalten, siehe [Kr16]. Zu jedem LO werden Metadaten assoziiert.
Die Metadaten beinhalten unter anderem die Lernziele und die vom Dozenten
angegebene Lernzeit. Die LO können zu Lerneinheiten (LE) komponiert werden, diese
wiederum werden zu einem Kurs komponiert; die Infrastruktur erlaubt mehr
Zwischenstufen. Jede Stufe erbt die Metadaten ihrer Komponenten. Dieser Ansatz
erlaubt es ein LO in mehreren Kursen zu verwenden.
Bei der Darstellung jedes einzelnen LO im Kontext einer LE, die wiederum Bestandteil
eines Kurses sind, wurden die Bedürfnisse der Learning Analytics bedacht und die
technischen Möglichkeiten bei der Erfassung von Benutzerinteraktionsdaten gezielt für
die Learning Analytics optimiert. Um eine kontrollierte und konsistente Erfassung zu
gewährleisten, wurde ein Player entwickelt, welcher die Darstellung von LE übernimmt.
Zur Steigerung des Lernerlebnisses werden im Player weitere Interaktionsmöglichkeiten
generiert, welche die Lernenden aktiver in den Lernprozess einbeziehen. So generiert der
Player am Anfang und am Ende einer LE eine Selbsteinschätzung, welche alle Lernziele
der in der LE beinhaltete LO listet; jedes Lernziel kann mit 1 (schlecht) bis 5 (sehr gut)
Sternen von Lernenden bewertet werden. Die Lernziele sind in Sätzen formuliert, welche
die Bloomsche Taxonomie (wissen, verstehen, anwenden usw.) benutzen. Die
Selbsteinschätzung am Anfang der LE erlaubt dem Lernenden zu entscheiden, ob er den
Inhalt der LE bereits beherrscht; am Ende der LE erlaubt sie, über das Gelernte zu
reflektieren. Die eigene Bewertung ist bei jedem Öffnen der Selbsteinschätzung sichtbar
und modifizierbar. Zusätzlich, wie in [HC13] beschrieben, erzeugt der Player am Ende
der LE eine Abfrage über die Lernzeit. Die Lernzeiten aus den Metadaten der einzelnen
LO werden summiert und dem Lernenden zur Bewertung angeboten: genau richtig, zu
viel oder zu wenig. Eine LA Web-App kann diese Information, sowohl für eine feinere
Analyse der Lernzeit jedes Einzelnen, als auch für die Anpassung der Metadaten,
auswerten. Schließlich generiert der Player ein Textfeld, um Lernenden die Eingabe von
Fehlermeldungen und freien Kommentaren zu ermöglichen.
                              Digitale Infrastruktur und Learning Analytics im Co-Design   11




                       Abb. 1: Lernobjekte und digitale Infrastruktur
Der im Dialog mit den Dozenten und Medienerstellern verfolgte Ansatz von LO spiegelt
sich auch im Player wieder. Durch eine Akkordeon-Ansicht wird nur ein einziges LO
gezeigt, um den Fokus der Lernenden jeweils auf die Lernvermittlung des jeweiligen
Lernziels zu lenken. Ein Benutzer muss den Titel eines LO innerhalb der LE anklicken,
um dieses sehen zu können. Diese Interaktion wird als implizites Feedback gespeichert
und kann von der LA Web-App ausgewertet werden, um die Verweildauer auf einem LO
innerhalb einer LE zu berechnen. Das Starten oder Stoppen eines Videos oder einer
Audio-Datei und die Interaktionen innerhalb Animationen werden ebenso verfolgt.
Hierbei werden alle erfassten Interaktionen im Kontext eines Kurses jeweils zu der
übergeordneten Interaktion, im Sinne der Komponierung der Lerninhalte wie im ersten
Absatz erwähnt, referenziert. Dadurch kann ein nachträgliches Navigations- bzw.
Lernverhalten nach [MD11] in der LA Web-App ermittelt werden.
Übungen können aus mehreren Aufgaben bestehen, siehe Abb. 1. Neben der impliziten
Interaktion der Öffnung einer Übung werden auch alle expliziten Möglichkeiten erfasst.
Diese sind z. B. jeder Versuch eine Aufgabe zu lösen, sowie das Anfordern von
Hilfestellungen. Gemeinsam mit diesen expliziten Interaktionen werden die abgegebene
Auswahl gegenüber der erwarteten Antwort und der erreichte Punktestand erhoben.
Unter Berücksichtigung des “User data Manifesto” [UDM14] hat der Lernende die
Kontrolle über das Erfassen von Interaktionen. Über das doppelte Opt-In Verfahren
stimmt der Lernende im ersten Schritt zu, ob seine Benutzerinteraktionen erfasst werden
und in einem zweiten Schritt entscheidet dieser über die Anonymisierung seiner Daten.
Es wurde angestrebt, Standards und übliche Spezifikationen zu benutzen, siehe [Kr16].
Ein Kurs kann sowohl in eine Lernplattform wie Moodle, als auch in den im Projekt
entwickelten Lernbegleiter importiert werden. Das einheitliche Datenmodell für die
erfassten Benutzerinteraktionsdaten basiert auf dem Experience API (xAPI). Diese
Daten werden in dem Learning Record Store (LRS) Learning Locker gehalten. Neben
dem Player und den Editoren für LO und Metadaten beinhaltet die digitale Infrastruktur -
open Learning Content Management System Infrastruktur (OpenLCMSI) genannt - eine
12   Truong-Sinh An et al.

Middleware, bei der einheitliche Datenformate, wie z. B. Experience API, über
festgelegte Routen und mit Hilfe von Konnektoren mit Drittanbieter-Anwendungen auf
anderen Servern kommunizieren kann. Diese generische und flexible Infrastruktur
erlaubt z. B. Learning Locker als LRS durch eine weitere Alternative zu ergänzen oder
zu ersetzen, ohne die Funktionalität bei den Anwendungen, wie der Lernbegleiter Web-
App, zu beeinträchtigen.


4    Learning Analytics im SLHw
Die Learning Analytics Web-App im SLHw Projekt stellt den Dozenten eine
Auswertungsplattform über die Nutzung der Lehrmaterialien zur Verfügung. Da die
Dozenten im SLHw Projekt noch nicht viel Erfahrung mit Learning Analytics besitzen,
müssen die Web-App und die Diagramme einfach, verständlich und passgenau sein. Die
Passgenauigkeit wird ermöglicht, indem die Struktur der Auswahlmöglichkeiten zum
Anzeigen der Diagramme dem Aufbau der Lehrmaterialien (vgl. Abb. 1) angepasst ist.
Der Dozent wählt seinen Kurs, seine LE oder sein LO aus und kann diese auswerten
lassen. Zusätzlich zeichnet sich die LA Web-App durch ihre Individualisierbarkeit, die
Vergleichbarkeit der Diagramme und durch das Responsive Webdesign aus. Durch die
Verwendung eines Widget-Systems wird die Individualisierbarkeit erreicht. Die
unterschiedlichen Diagramme werden jeweils in einem sogenannten Widget dargestellt,
welches nach Belieben angeordnet, vergrößert und verkleinert werden kann. Durch das
individuelle Anordnen können problemlos verschiedene Diagramme gegenübergestellt
werden und miteinander verglichen werden. Die Anordnung und Skalierung der
Widgets, sowie die Auswahl der Lehrmaterialien, werden gespeichert, sodass jeder
Dozent seine persönliche Ansicht generieren und später wieder abrufen kann.
Durch das verwendete Widget-System müssen die Diagramme responsive und
platzsparend sein. Zudem müssen die Diagramme einfach und übersichtlich sein, um die
Verständlichkeit zu gewährleisten. Aus diesen Gründen werden die Diagramme als
gestapelte Balkendiagramme mit vertikaler Ausrichtung dargestellt. Die vertikale
Ausrichtung hat den Vorteil, dass die Diagramme immer eine feste Breite haben können,
wodurch sie problemlos auch auf dem Smartphone dargestellt werden. Die gestapelte
Anzeige der Balkendiagramme ermöglicht einen platzsparenden und zugleich
übersichtlicheren Anblick. Um die Einfachheit und Verständlichkeit der Diagramme
weiter zu verbessern, wird ein intuitives Ampel-Farbkonzept verwendet, wie bei Dollár
und Steif [DS12]. Grün sind die positiven Auswertungen, rot die negativen und gelb sind
die Auswertungen dazwischen. Die gestapelten Balkendiagramme werden von links
nach rechts von grün über gelb bis rot angezeigt.
Durch das Co-Design der Auswertungsmöglichkeiten mit der digitalen Infrastruktur,
wird es ermöglicht, dass genau die Benutzerinteraktionsdaten im Rahmen der
technischen Möglichkeiten gespeichert werden, die für die Auswertung benötigt werden.
Die Auswertung der xAPI-Statements erfolgt in der LA Web-App. Drei Bereiche der
                              Digitale Infrastruktur und Learning Analytics im Co-Design   13

Auswertung werden hier näher erläutert: der Bearbeitungsstatus, die Selbsteinschätzung
und die Aufgabenauswertung. Diese drei Bereiche werden hierarchisch dem Aufbau der
Lehrmaterialien (vgl. Abb. 1) angepasst, sodass ein Überblick dieser Bereiche über den
gesamten Kurs, über die LE bis hin zu einer detaillierten Ansicht der einzelnen LO
ermöglicht wird.
Der Bearbeitungsstatus ist abhängig von der Medienart des LO (vgl. Abb. 1) und
analysiert, inwieweit sich die Lernenden mit dem LO beschäftigt haben. Für den
Bearbeitungsstatus von Texten wird die Dauer, wie lange das LO im geöffneten Zustand
war, mit der Lernzeit, die in den Metadaten des LO angegeben wird, verglichen. In
diesem Projekt haben die LO in der Regel eine kurze Lernzeit von wenigen Minuten, um
mobiles Lernen zu ermöglichen. Der Vergleich dieser Dauer mit der Lernzeit ermöglicht
eine genauere Einschätzung, ob sich die Lernenden vermutlich ausreichend mit dem LO
beschäftigt haben. Allerdings kann mit der Dauer des geöffneten Zustandes nicht
ermittelt werden, ob sich der Lernende auch tatsächlich mit dem LO beschäftigt hat.
Wenn ein Lernender sich beispielsweise von seinem PC entfernt, läuft die Zeit, in der
das LO im geöffneten Zustand ist, weiter. Durch die Akkordeon-Ansicht betrifft diese
möglicherweise viel zu hohe Zeit nur ein LO. Im konkreten Diagramm wird für den
Bearbeitungsstatus die Hälfte der Lernzeit als Referenzpunkt verwendet. Wenn ein
Lernender ein LO über 50 % der Lernzeit geöffnet hat, dann wird davon ausgegangen,
dass er sich mit dem LO ausreichend beschäftigt hat und gelangt somit in den grünen
Bereich. Unterhalb der Hälfte der Lernzeit wird der Lernende im gelben Bereich
eingeordnet. Wenn ein Lernender das LO noch gar nicht geöffnet hat, ist er im roten
Bereich. In der detaillierten Ansicht wird zudem noch analysiert, wie häufig das LO
besucht wurde und ob die einzelnen Besuche kürzer oder länger als die halbe Lernzeit
gedauert haben. Die detaillierte Auswertung kann zudem über den gesamten
angegebenen Zeitraum, über Monate, Wochen oder Tage angezeigt werden, um eine
genaue zeitliche Nutzung des LO wiederzugeben. Der Bearbeitungsstatus von Videos,
Audiodateien und Animationen ähnelt dem der Texte und erfolgt durch die Auswertung
der Interaktionsbuttons. Bei einem Video werden zum Beispiel die Interaktionen „start“
(initialized), „pause“ (suspended), „weiter“ (resumed), „zu Ende abgespielt“ (completed)
und „schließen“ (exited) aufgezeichnet. Das Vor- und Zurückspulen und das Springen
innerhalb des Videos werden immer mit den Interaktionen „pause“ und „weiter“
versehen. Die Endpunkt-Interaktionen, also „pause“, „zu Ende abgespielt“ und
„schließen“, beinhalten immer den Startpunkt von wo aus abgespielt wurde und die
Dauer von dem Startpunkt bis zum Endpunkt. Durch diese Informationen und durch die
Länge des gesamten Videos ist es möglich die prozentuale Abdeckung des Videos zu
berechnen. Für die Anzeige als Diagramm wurde bei der Befragung der Dozenten
ebenfalls eine Unterteilung in drei Bereiche gewünscht, wobei der Referenzpunkt bei 90
% der Abspielung liegt. Wenn mehr als 90 % des Videos angeschaut wurde, wechselt
der Lernende in den grünen Bereich. Wenn das Video nicht angeschaut wurde ist der
Lernende im roten Bereich. Der gelbe Bereich deckt 1-89 % des Videos ab. In der
detaillierten Ansicht kann ebenfalls der Zeitraum in Monaten, Wochen oder Tage
angezeigt werden und es wird die Häufigkeit der einzelnen Abspielungen angezeigt. Der
14   Truong-Sinh An et al.

Bearbeitungsstatus der Übungen wird anhand der Anzahl der abgegebenen Antworten
der einzelnen Aufgaben berechnet. Wenn alle Aufgaben beantwortet wurden, rückt der
Lernende in den grünen Bereich, bei keinen Antworten verbleibt der Lernende im roten
Bereich. Dazwischen ist der gelbe Bereich. Für den Überblick über die gesamte LE wird
der Bearbeitungsstatus der einzelnen LO herangezogen und akkumuliert. Der Überblick
über den gesamten Kurs akkumuliert die enthaltenden LE.
Die Selbsteinschätzung, welches den geschätzten Wissenstand der Lernenden zu den
Lernzielen mithilfe eines Fünf-Sterne System angibt, wird für die Überblick-Ansicht so
ausgewertet, dass die letzte abgegebene Selbsteinschätzung im gewählten Zeitraum
angezeigt wird. In Abb. 2 auf der rechten Seite ist dieser Überblick dargestellt. Die
Lernenden werden von grün mit sehr gutem Wissen, bis rot mit keinem Wissen
eingeordnet. Die Lernenden, die keine Selbsteinschätzung abgegeben haben, werden
grau dargestellt. Durch diesen Überblick kann der Dozent schnell den aktuellen
selbsteingeschätzten Wissensstand der Lernenden sehen und dadurch seinen Unterricht
gezielt an den Wissensstand der Lernenden anpassen.
Die Aufgabenauswertung zeigt den Wissensstand der Lernenden anhand der Aufgaben
an. Die Überblick-Ansicht erfolgt auf Ebene einer Übung, wobei die Lernenden in vier
Bereiche unterteilt werden: (1) 100 % richtig abgegebene Antwort, (2) 50-99 % teilweise
richtig abgegebene Antwort. (3) 0-49 % falsch abgegebene Antwort und (4) keine
abgegebene Antwort. Der Umbruchpunkt von 50 % lehnt sich an die Einteilung von
Prüfungsergebnissen der Handwerkskammer Berlin an, bei der unter 50 % die Prüfung
als nicht bestanden gilt. Diese Unterteilung gibt den Dozenten einen genaueren
Überblick, ob die Lernenden die Übung in einer Prüfung bestanden hätten oder nicht.
Die detaillierte Auswertung der Aufgaben erfolgt je nach Aufgabentyp, wobei immer die
Häufigkeit der gewählten Antwort und die Anzahl der Lernenden, die diese Antwort
gewählt haben, ausgewertet werden. Diese detaillierte Auswertung soll dem Dozenten
zeigen, wie nahe die Lernenden an der richtigen Antwort liegen, wenn sie diese falsch
beantwortet haben. Dadurch kann der Dozent den Wissensstand der Lernenden genauer
einschätzen. In Abb. 2 ist auf der linken Seite die detaillierte Auswertung einer Multiple-
Choice Aufgabe dargestellt. Hierbei werden alle Auswahlmöglichkeiten der Mutiple-
Choice Aufgabe angezeigt. Zu jeder Auswahlmöglichkeit wird die Häufigkeit, wie oft in
dem gewählten Zeitraum diese Auswahl gewählt wurde, angezeigt und wie viele
Lernende diese Auswahl getätigt haben.
                                 Digitale Infrastruktur und Learning Analytics im Co-Design    15




    Abb. 2: Diagramm einer detaillierten Auswertung einer Multiple Choice Auswertung (links)
                  und die Diagrammdarstellung der Selbsteinschätzung (rechts)



5     Fazit und Ausblick
Die Entwicklung der digitalen Infrastruktur im Co-Design mit der Learning Analytics
Anwendung bietet den Mehrwert, dass bei der technischen Umsetzung die Bedürfnisse
des integrierten Lernens bedarfsorientiert berücksichtigt werden. Die einheitliche
Erfassung von implizitem Feedback, wie das Anklicken der Titel der Lerneinheiten oder
Lernobjekte oder Starten / Stoppen von Videos, und von explizitem Feedback, wie die
Selbsteinschätzung der Lernziele, die Selbsteinschätzung der Lernzeit oder die
Antworten in den Übungen, ergibt einen reichen Datenbestand für die Analyse.
Die Diagramme der LA Web-App werden iterativ weiterentwickelt und ausgebaut. Es
soll eine Verbindung zwischen Selbsteinschätzungen, Lernzeit und Bearbeitungsstatus
erfolgen, sodass die Dozenten erkennen können, ob ein Lernender z. B. wegen seiner
Vorkenntnisse das entsprechende LO nicht bearbeitet. Ferner ist vorgesehen, dass die
Aufgabenergebnisse nach der Anzahl der Versuche unterteilt werden können. Dadurch
wird erkennbar, wie viel Versuche im Schnitt benötigt wurden. Zudem soll die
detaillierte Selbsteinschätzungs-Ansicht so verbessert werden, dass der Verlauf des
eingeschätzten Wissens erkennbar wird. Da der Bearbeitungsstatus von den Texten
anhand der Lernzeit, die der Medienersteller in den Metadaten hinterlegt hat,
ausgewertet wird, kann nicht angenommen werden, dass die Hälfte der Lernzeit für alle
16   Truong-Sinh An et al.

Texte der richtige Schwellwert ist. Aus diesem Grund ist geplant, dass der Dozent für
jede Medienart der LO den Prozentsatz des Schwellwertes individuell einstellen kann.
Dozenten oder Medienersteller sind in der geschätzten Bearbeitungszeit eines LO nicht
immer realistisch. Die Abfrage der Studierenden über die Lernzeit soll bei den
Medienerstellern oder Dozenten zur Selbstreflektion führen, um gegebenenfalls
Anpassungen an den Metadaten vorzunehmen. Des Weiteren soll mit Clustering-
Algorithmen untersucht werden, ob es typische Profile von Lernenden gibt. Auf Basis
dieser Lerntypen können die Dozenten zum Beispiel die Lernenden für Gruppenarbeiten
einteilen. Die Medienersteller können diese Lerntypen für eine Personalisierung der LO
verwenden.
Ab September 2016 wird die digitale Infrastruktur und die LA Web-App in Kursen an
der Handwerkskammer Berlin und der TU Berlin eingesetzt.


Danksagung
Wir danken B. Bayat, M. Bärenfänger, R. Chandru, M. Dinziol, M. Edriss, I. Fritsch, D.
Jürgensen, J. Kania, C. Krauß, U. Meurer, S. Müller und M. Zwicklbauer für
Diskussionen. Das diesem Beitrag zugrundeliegende Vorhaben wird mit Mitteln des
BMBF Förderkennzeichen 01PD14002B gefördert.


Literaturverzeichnis
[Ba16]     Bakharia, A.; Corin, L.; de Barba P.; Gasevic, D.; Dawson, S.: A conceptual
           framework linking learning design with learning analytics. Proceedings of the
           6th International Conference on Learning Analytics and Knowledge, ACM,
           New York, 2016, pp. 329-338.
[DS12]     A. Dollár and P. Steif, “Web-based statics course with learning dashboard for
           instructors,” Proceedings of Computers and Advanced Technology in
           Education (CATE 2012), Napoli, 2012.
[Dy13]     Dychoff, A.L.; Lukarov, V.; Muslim, A.; Chatti, M.A.; Schroeder, U.:
           “Supporting action research with learning analytics”. Proceedings of the 3th
           International Conference on Learning Analytics and Knowledge, ACM, New
           York, 2013, pp. 220-29.
[EFM13] M. Elkina, A. Fortenbacher, and A. Merceron, “The learning analytics
        application LEMO - rationals and first results,” International Journal of
        Computing, vol. 12(3), 2013, pp. 226-234.
[HC13]     Hsu, Y.-C., & Ching, Y.-H.: “Mobile app design for teaching and learning:
           Educators’ experiences in an online graduate course.” In: The International
           Review of Research in Open and Distance Learning, 14(4), 2013.
                             Digitale Infrastruktur und Learning Analytics im Co-Design   17

[Ko15]    Kovanovic, V.; Gašević, D.; Dawson, D.; Joksimovic, S.; Baker, R.: Does
          Time-on-task Estimation Matter? Implications on Validity of Learning
          Analytics Findings. Journal of Learning Analytics, Vol 2, N° 3, S. 81 –
          110, 2015.
[Kr16]    Krauß, C.; Merceron, A.; An, T.; Zwicklbauer, M.: The Smart Learning
          Approach – A mobile Learning Companion Application. In: Proceedings of
          eLmL 2016 International Conference on mobile Learning, hybrid Learning
          and Online Learning, 2016, Venice, in press.
[Ma15]    Martinez-Maldonado, R.; Pardo, A.; Mirriahi, N.; Yacef, K.; Kay, J.;
          Clayphan, A.: “The LATUX workflow: designing and deploying awareness
          tools in technology-enabled learning settings,” In: Proceedings of the 5th
          International Conference on Learning Analytics and Knowledge, ACM, New
          York, 2015, pp. 1-10.
[MD11] Munk, M., Drlík, M.: “Impact of Different Pre-Processing Tasks on Effective
       Identification of Users`Behavioral Patterns in Web-based Educational
       System.” In: Procedia Computer Science, 4, 1640-1649, 2011.
[Sch96]   Shneiderman, B.: The eyes have it: A task by data type taxonomy for
          information visualizations. In: Proc. of the IEEE Symposium on Visual
          Languages, pp. 336. IEEE, 1996.
[UDM14] User Data Manifesto, 2014, Available: https://userdatamanifesto.org/,
        Accessed: 18.07.2016.
[Ve13]    Verbert, K. et al.: “Learning dashboards: an overview and future research
          opportunities,” In: Personal and Ubiquitous Computing, vol. 18(6), 2013, pp.
          1-16.
[Zw15]    Zwicklbauer, M.; Krauß, C.; Merceron, A.; Kania, J.; Scharp, M.: „Smart
          Learning: Der digitale Lernbegleiter für die berufliche Bildung“. In:
          Proceedings of DeLFI 2015, 2015, S. 227-232, Gesellschaft für Informatik
          Publisher, München.