=Paper=
{{Paper
|id=Vol-2250/WS_Pro_paper1
|storemode=property
|title=Brutus der Orkschamane erklärt die Brute-Force-Methode(Brutus the Orc-Shaman Explains Brute-Force-Methods)
|pdfUrl=https://ceur-ws.org/Vol-2250/WS_Pro_paper1.pdf
|volume=Vol-2250
|authors=Christopher Schölzel
|dblpUrl=https://dblp.org/rec/conf/delfi/Scholzel18
}}
==Brutus der Orkschamane erklärt die Brute-Force-Methode(Brutus the Orc-Shaman Explains Brute-Force-Methods)==
Daniel Schiffner (Hrsg.): Proceedings of DeLFI Workshops 2018
co-located with 16th e-Learning Conference of the German Computer Society (DeLFI 2018)
Frankfurt, Germany, September 10, 2018
Brutus der Orkschamane erklärt die Brute-Force-Methode
Gamification und E-Learning in der Veranstaltung „Algorithmen und Datenstruk-
turen“
Christopher Schölzel1
Abstract: Für die oft ungeliebte Theorieveranstaltung „Algorithmen und Datenstrukturen“ setze
ich ein Gamification-Konzept mit einem Punktsystem, einer Fortschrittsanzeige, einem Beloh-
nungssystem, einer Rollenverteilung und einer Spielwelt in einem zeitgenössischen Fantasy-
Setting ein, um mehr Motivation zum kontinuierlichen Lernen zu wecken und die Inhalte besser
im Langzeitgedächtnis der Studierenden zu verankern. Unterstützt wird dieses Konzept durch zwei
an der THM entwickelte e-Learning-Systeme. Das System führte dazu, dass die Studierenden im
Schnitt bis zu acht Stunden pro Woche zusätzlich zur Präsenzzeit in die Veranstaltung investierten
und zu Bestehensquoten von über 90%. Der Nutzen von gamifizierten Metaphern zeigt dagegen
eher ein zwiespältiges Bild.
Abstract (English): I developed a gamification concept for the theoretical and rather unpopular
module “Algorithms and data structures” that uses points, a progress feedback, a reward system, a
role allocation, and a game world in a contemporary fantasy setting to generate more motivation
for continuous learning and to make the content more memorable for the students. The concept is
supported by two e-learning platforms that where developed at the THM. On average the students
invested up to eight additional hours per week outside of the lecture time and the success rate at
the exam was above 90%. The investigation of the benefit of gamified metaphors shows a more
divided result.
Keywords: e-Learning, Gamification, Algorithmen und Datenstrukturen, Punkte, Fortschrittsan-
zeige, Belohnungen, Rollen, Spielwelt, Fantasy
1 Einleitung
Die Veranstaltung „Algorithmen und Datenstrukturen“ im zweiten Semester der Infor-
matikstudiengänge der THM setzt sich zum Ziel, das Programmierverständnis der Stu-
dierenden auf eine abstraktere Stufe zu heben und gehört deshalb nicht unbedingt zu den
beliebtesten Fächern der Studierenden. Erschwerend kommt hinzu, dass die 100 bis 200
Teilnehmer aus unterschiedlichen Studiengängen2 stammen. Für eine erfolgreiche Teil-
nahme an der Veranstaltung ist kontinuierliches Lernen unabdingbar. Erfahrungsgemäß
bringen die meisten Studierenden leider wenig intrinsische Motivation dafür mit. Eine
1
Technische Hochschule Mittelhessen, Fachbereich MNI, Wiesenstraße 14, 35390 Gießen, chris-
topher.schoelzel@mni.thm.de
2
Informatik, Ingenieurinformatik, Bioinformatik, Medizinische Informatik und Social Media Systems
Christopher Schölzel
klassische Antwort darauf waren in der Vergangenheit verpflichtende Übungen als Prü-
fungsvorleistung, die eine extrinsische Motivation bieten, sich mit den Inhalten der Ver-
anstaltung über die Präsenzzeit hinaus zu beschäftigen. Das ändert jedoch nichts an dem
Grundproblem der fehlenden intrinsischen Motivation und wäre in dem eigentlich nöti-
gen zeitlichen Umfang auch unrealistisch. Außerdem kann damit nur eine Form von
Lernleistung angeregt werden und andere Lernstrategien (zum Beispiel das Anfertigen
und Überarbeiten von Mitschriften) werden nicht berücksichtigt.
Als ich die Veranstaltung im Sommersemester 2017 zum ersten Mal hielt, entschied ich
mich deshalb für ein Gamification-Konzept3. Mit diesem wollte ich den Studierenden
einen angenehmeren spielerischen Zugang sowohl zu einem breit gefächerten Angebot
an freiwilligen Zusatzaufgaben wie auch zu den Inhalten der Veranstaltung selbst bieten.
Idealerweise sollte jede sinnvolle Beteiligung der Studierenden an der Veranstaltung mit
Punkten und daraus resultierenden Vorteilen belohnt werden. Im Sinne von Nicholsons
Idee einer „meaningful gamification“ [Ni12] sollte dabei der Fokus nicht auf der extrin-
sischen Motivation durch Punkte liegen, sondern darauf, durch ein positives Erlebnis
intrinsische Motivation aufzubauen, die auch nach dem Ende der Gamification noch
Bestand hat. Um den damit einhergehenden Verwaltungsaufwand zu reduzieren, habe
ich über das Projekt „Klasse in der Masse“ [Kl18] im Sommersemester 2017 und 2018
jeweils circa 15 studentische Tutor_innen eingestellt, die Aufgaben erstellt und bewertet,
Illustrationen angefertigt, und die technischen Systeme betreut und weiterentwickelt
haben. Außerdem habe ich zwei Bachelorarbeiten zur Entwicklung von geeigneten e-
Learning-Plattformen ausgeschrieben: eine für die Verwaltung der Gamification-
Elemente und eine für die automatische Korrektheitsprüfung von Programmierabgaben.
In Abschnitt 2 werde ich nun zunächst das Gamification-Konzept näher beschreiben und
mich in Abschnitt 3 einer Vorstellung der besagten e-Learning-Plattformen widmen.
Danach bespreche ich die Ergebnisse der Evaluationen in Abschnitt 4, um schließlich in
Abschnitt 5 ein vorläufiges Fazit zu dem Experiment zu ziehen.
2 Das Gamification-Konzept
Angelehnt an die Terminologie von Seaborn et al. [Se15] besteht das Konzept aus den
folgenden Teilen: 1) einem Punktsystem, bei dem die Studierenden Erfahrungspunkte für
jede Form der sinnvollen Beteiligung an der Veranstaltung erhalten und Lebenspunkte
verlieren, wenn sie Pflichtaufgaben nicht rechtzeitig erledigen; 2) einem Stufenaufstieg
nach jeweils 64 Erfahrungspunkten als Fortschrittsanzeige; 3) einem Belohnungssystem
in Form von Bonuspunkten für die Klausur und Fähigkeiten, die individuelle Vorteile im
Verlauf des Semesters oder kursweite Vorteile bei der Klausur am Ende des Semesters
bringen; und 4) einer Rollenverteilung durch die Art der gewählten Fähigkeiten sowie 5)
3
Ich verwende den Begriff „Gamification“ im Folgenden nach Deterding et al. [De11] als die Verwendung
von Elementen des Gamedesigns in einem spielfremden Kontext.
Brutus der Orkschamane erklärt die Brute-Force-Methode
einer Spielwelt, die als lustige, einprägsame Metapher für die eigentlichen Vorlesungsin-
halte fungiert
Das Punktsystem baut auf dem klassischen Konzept der verpflichtenden Übungsaufga-
ben auf. Alle Studierenden starten mit zehn Lebenspunkten und verlieren vier Lebens-
punkte für jedes der sechs Aufgabenblätter, bei dem sie weniger als 70% der Punkte
erhalten. Auf diese Weise funktioniert die Veranstaltung für diejenigen, die nicht an der
Gamification teilnehmen möchten genauso wie vorher: Es müssen vier von sechs Auf-
gabenblätter bestanden werden. Darüber hinaus gibt es ein positives Feedback in Form
von Erfahrungspunkten. Diese werden für Pflichtaufgaben, freiwillige Bonusaufgaben,
angefertigte Mitschriften, Mitarbeit in den Übungen und andere Formen der Beteiligung
vergeben. Nach jeweils 64 Erfahrungspunkten steht dann ein Stufenaufstieg an (d.h.
etwa alle ein bis zwei Wochen). Eine höhere Stufe übersetzt sich direkt in mehr Bonus-
punkte für die Klausur (bis zu 24% für sehr engagierte Studierende). Darüber hinaus gibt
jeder Erfahrungspunkt auch einen Fähigkeitspunkt, mit denen man sich Fähigkeiten
kaufen kann. Diese bringen verschiedene Vorteile – entweder individuell (Nachreichen
von Aufgabenblättern, Zurückerhalten von Lebenspunkten, Tipps zur Lösung einer Auf-
gabe), für eine kleine soziale Gruppe (Mentor-Mentee-Paarung) oder für den gesamten
Kurs (Erlaubnis eines Spickzettels, Streichen einer Klausuraufgabe). Stärkere Fähigkei-
ten können erst erlernt werden, wenn man die vorausgegangenen schwächeren Fähigkei-
ten besitzt. Mit der daraus resultierenden Baumstruktur habe ich in der ersten Iteration
die vier verschiedenen Spielertypen nach Bartle [Ba18] (Killer, Achiever, Socializer,
Explorer) abgebildet. In der zweiten Iteration im Sommersemester 2018 habe ich mich
für eine flachere Struktur entschieden, die mehr Freiraum bietet. Für die Spielwelt habe
ich mir ein zeitgenössisches Fantasy-Setting ausgedacht, das grob an J. K. Rowlings
„Harry Potter“-Buchreihe angelehnt ist. Magie bietet sich als Metapher für das Pro-
grammieren an, da sowohl Magier als auch Informatiker „ihre Vorstellungskraft zum
Leben erwecken“. Außerdem sind Begriffe wie black magic, automagically und die
magic number ohnehin schon in der Fachsprache etabliert. Die typischen algorithmi-
schen Techniken werden in diesem Setting zu Charakteren wie Brutus dem Orkschama-
nen (für Brute-Force) oder Greedy dem zwergischen Runenschmied (für Gier). Die Da-
tenstrukturen dagegen werden zu „Datenkreaturen“ wie den mehrköpfigen Basilisten
(für Listen; siehe Abb. 1) oder den Knotlingen (für Knoten), die sich als soziale Wesen
gerne zu einem Graphen zusammenrotten. Dabei bleiben gamifizierte Inhalte und Lehr-
buchwissen auf den Präsentationsfolien klar getrennt: Jede Folie trägt entweder das
Emoji „Dragon“ oder das Emoji „Open Book“ vor dem Titel.
Abb. 1: Verketteter Basilist als Metapher für die verkettete Liste. Illustratorin: Julia Jelitzki; Li-
zenz: CC BY-SA 4.0
Christopher Schölzel
3 Die e-Learning-Plattformen Dozentron und Gildamesh
Der Gamification-Server Gildamesh wurde von Tristan Hisgen in seiner Bachelorarbeit
mit Ruby on Rails [Ru18] erstellt und von mehreren Tutor_innen weiterentwickelt. Stu-
dierende melden sich per Central Authentication Service [CA16] mit den Benutzerdaten
der Hochschule an. Als Dozent_in oder Tutor_in kann man Beschreibungstexte, Links,
Dokumente und Aufgaben mit Text- oder Dateiabgaben für den Kurs erstellen. Außer-
dem können Fähigkeiten und deren Effekte auf das Punktesystem definiert werden. Die-
se werden weitestgehend automatisch ausgeführt, an manchen Stellen aber auch noch
von Tutor_innen manuell geprüft.
Der Abgabenserver Dozentron wurde parallel zu Gildamesh von Dominic Althaus in
dessen Bachelorarbeit ebenfalls mit Ruby on Rails [Ru18] erstellt. Auch hier gab es seit
der Erstellung weitere Beiträge anderer Tutor_innen. Die Grundidee von Dozentron ist
es, den Tutor_innen die Arbeit zu erleichtern, indem die Korrektheit der studentischen
Lösungen automatisch überprüft wird. Dazu gibt es zwei verschiedene Aufgabengattun-
gen:
Unittest-Aufgaben werden, wie der Name sagt, mit Unittests (zurzeit JUnit) geprüft. Die
Studierenden müssen ein JAR-Archiv mit dem kompilierten Code und ihren Quelldatei-
en auf den Server hochladen. Dort wird die korrekte Formatierung und Vollständigkeit
der Dateien geprüft, der Quellcode erneut kompiliert und schließlich die Unittests ausge-
führt. Diese testen verschiedene Anwendungsfälle der einzelnen Klassen und Methoden
(zum Beispiel das Sortieren einer leeren Liste, einer einelementigen Liste, einer Liste mit
zehn und einer mit 1000 Elementen). Auf der Ergebnisseite wird der oder dem Studie-
renden sofort angezeigt, welche Tests er oder sie bestanden hat und welche noch fehl-
schlagen. Eine Einreichung kann bis zur Deadline beliebig oft wiederholt werden. Für so
detaillierte Tests muss natürlich in der Aufgabenstellung eine klare Schnittstelle vorge-
geben werden. Es gibt sowohl eine Unterstützung für öffentliche Tests, deren Quellcode
die Studierenden sich als Hilfe herunterladen können, wie auch versteckte Tests, die nur
auf dem Server verbleiben. Für jeden möglichen Fehler in diesem Prozess liefert Dozent-
ron den Studierenden eine ausführliche Fehlermeldung. Auf Wunsch des Dozenten kön-
nen Abgaben für diesen Aufgabentyp außerdem mit der Measure Of Software Similarity
(MOSS) der Universität Stanford [Mo18] auf Plagiate überprüft werden.
Input/Output-Aufgaben sind inspiriert von der Webseite „Advent of Code“ [Ad18]. Hier
wird für jeden Studierenden ein individueller Input (z.B. eine Liste von Zufallszahlen)
als Textdatei generiert, zu dem er oder sie dann den korrekten Output (zum Beispiel die
5 größten Zahlen aus dem Input) in einem Textfeld eingeben muss. Dadurch kann die
Aufgabe in jeder beliebigen Sprache gelöst werden. Die Studierenden geben ihren
Quellcode über ein zusätzliches Upload-Feld als Zip-Archiv ab. Dieser wird vom Server
nicht weiter analysiert, sondern nur den Tutoren zur Bewertung bereitgestellt. Der ein-
gegebene Output wird dagegen wieder mit einer Reihe von JUnit-Tests geprüft, die den
generierten Input und den abgegebenen Output eines Studenten aus zwei von Dozentron
Brutus der Orkschamane erklärt die Brute-Force-Methode
generierten Dateien einlesen und dann auswerten, ob die Abgabe korrekt ist. Da der
Unittest in den meisten Fällen notgedrungen eine Lösung der Aufgaben beinhalten muss,
ist hier das Verstecken der Tests die Standardeinstellung.
4 Resultate
Es ist bei jedem Projekt in der Lehre schwer, messbare Kriterien für dessen Gelingen zu
definieren. Mit meinem Gamification-Konzept wollte ich erreichen, dass a) die Studie-
renden über das Semester hinweg mehr Zeit in die Veranstaltung investieren, dass sie b)
die Inhalte besser verstehen und sie c) länger im Gedächtnis behalten, dass sie d) eigenes
Interesse für das Thema entwickeln und idealerweise e) das kontinuierliche Lernen auch
in Folgesemestern ohne Gamification beibehalten. Gerade die drei letztgenannten lang-
fristigen Ziele ließen sich nur wissenschaftlich überprüfen, wenn man die Studierenden
über mehrere Semester hinweg mit Befragungen begleiten würde. Auch eine Überprü-
fung der ersten zwei Kriterien scheitert schon daran, dass es keine angemessene Kon-
trollgruppe gibt. Ich habe die Veranstaltung vorher nie selbst gehalten und bei einem
Vergleich mit den Ergebnissen anderer Kollegen würden die Effekte der Gamification
sich mit dem Effekt des wechselnden Dozenten überlagern. Dieser Beitrag kann daher
auch nur als Best Practice-Beispiel dienen und keinen Anspruch auf Allgemeingültigkeit
erheben.
Dennoch wollte ich so viele Indizien wie möglich für positive und auch etwaige negative
Effekte der Gamification sammeln. Daher habe ich folgende Feedbackkanäle genutzt: 1)
eine anonyme Feedbackbox, die am Ende jeder Veranstaltung aufgestellt wurde; 2) der
standardisierte Evaluationsfragebogen des Fachbereichs (n = 73 | 68 im Jahr 2017 |
2018); 3) ein individueller Fragebogen zur Aktionsforschung [Al18], der spezifisch auf
die einzelnen Gamification-Inhalte eingeht (n = 79 | 64); 4) ein abschließendes Reflexi-
onstreffen mit den Studierenden einige Tage nach der Klausur (n = 15, nur im Sommer-
semester 2017). Bei den beiden letztgenannten Evaluationsformen hatte ich ebenfalls
wieder Unterstützung aus dem KIM-Projekt [Kl18].
Wie viel Zeit Studierende in die Veranstaltung investieren, wird in der Standardevaluati-
on in zwei separaten Fragen erfasst, die sich in die Zeit für Vor- und Nachbereitung der
Vorlesung und der Übungen unterteilt. Im Sommersemester 2017 gaben die Studieren-
den im Schnitt4 an, 2,3 Stunden für die Vorlesung und 4 Stunden für die Übungen zu
arbeiten. Im Sommersemester 2018 erhöhte sich das auf 2,7 Stunden für die Vorlesung
und 5,7 Stunden für die Übungen. Der Unterschied bei der Zeit für die Übungen lässt
sich damit erklären, dass das Angebot an Zusatzaufgaben im Jahr 2018 deutlich größer
4
Der Durchschnitt ist möglicherweise fehlerbehaftet, da die Studierenden im Fragebogen keine Zahl angeben,
sondern eines von neun Intervallen ankreuzen, wobei das letzte Intervall mit „> 7 Stunden“ offen ist. Für
diese Auswertung habe ich jeweils die Mittelwerte der Intervallgrenzen angenommen und bei dem offenen
Intervall einen Zeitaufwand von 8 Stunden angesetzt.
Christopher Schölzel
war als im Jahr 2017. Das Ziel scheint damit erreicht und vielleicht sogar etwas übertrof-
fen zu sein.
Das Verständnis der Inhalte spiegelt sich am besten im Ergebnis der Klausur abzüglich
der Bonuspunkte wider. Hier lag der Notenschnitt im Jahr 2017 bei 2,4 mit einer Beste-
hensquote5 von 90% (n = 81, nicht erschienene Studierende ausgenommen) und im Jahr
2018 bei 2,2 mit einer Bestehensquote von 96% (n = 90). Einen eventuell mangelnden
Anspruch der Klausurfragen konnte ich nach Rücksprache mit einigen Kollegen plausi-
bel ausschließen. Im Jahr 2018 habe ich außerdem absichtlich deutlich mehr Transfer-
fragen gestellt, um zwischen auswendig Gelerntem und einem tieferen Verständnis der
Inhalte unterscheiden zu können.
Die Frage nach der Einprägsamkeit der Inhalte wird ebenfalls von den Aktionsfor-
schungsfragebögen abgedeckt. Im Sommersemester 2017 waren 34% der Studierenden
der Meinung, dass die gamifizierten Metaphern den Stoff leichter und/oder zugänglicher
für sie machten, während 25% das verneinten. Außerdem fanden 39% den Stoff dadurch
einprägsamer, während 24% das verneinten. Im Sommersemester 2018 fragte ich auch
danach, ob die Gamification vielleicht eher verwirrte. 48% half die Gamification beim
Verständnis, 16% empfanden sie als störend. Zum Thema der Einprägsamkeit waren hier
die Verhältnisse mit 39% positiven und 24% negativen Stimmen ähnlich. In diesem Jahr
habe ich auch noch detaillierter nach dem Nutzen der einzelnen Elemente gefragt. Die
Charaktere und die Datenkreaturen haben im Schnitt nur „ein wenig“ geholfen. Das
Punktesystem liegt dagegen und die Bonusaufgaben dagegen „eher viel“
Das Interesse der Studierenden habe ich im Sommersemester 2017 mit einigen Fragen
aus dem Berliner Evaluationsinstrument für selbsteingeschätzte studentische Kompeten-
zen (BEvaKomp) im Rahmen der Aktionsforschung abgefragt [Br08]. Hier stimmten
54% der Studierenden bei der Personalkompetenz der Aussage zu, dass sie den Vorle-
sungsstoff jetzt interessanter finden als vorher, während nur 24% das verneinten. 56%
gaben an, etwas gelernt zu haben, was sie begeistert, was wiederum 17% verneinten. Es
gab sogar einen nicht zu vernachlässigenden Teil von 27% der Studierenden, die anga-
ben, sich aufgrund der Veranstaltung auch außerhalb der Hochschule mit den gelehrten
Themen zu beschäftigen, wobei hier erwartungsgemäß ein größerer Teil von 38% das
verneinten. Im Sommersemester 2018 sind diese Fragen leider aus Platzgründen nicht
mehr in der Aktionsforschung enthalten. Ohne einen direkten Vergleich zu haben, halte
ich das für eine Theorieveranstaltung für ein sehr positives Ergebnis.
Wie bereits erwähnt sehe ich mich außerstande, das letzte Ziel der Gamification – die
Veränderung des Lernverhaltens über folgende Semester direkt zu überprüfen. Neben
diesen quantitativen Auswertungen lohnt sich natürlich auch ein Blick auf die individu-
ellen Aussagen der Studierenden in den Freitextfeldern der beiden Fragebögen und (im
5
Von den 203 zunächst in der Veranstaltung eingeschriebenen Studierenden haben im Sommersemester 2017
leider nur 81 die Klausur mitgeschrieben. Im Sommersemester 2018 waren es 90 von 238. Einen ähnlichen
Rückgang gibt es jedoch auch bei den Kollegen, die keine Gamification verwenden.
Brutus der Orkschamane erklärt die Brute-Force-Methode
Falle des Sommersemesters 2017) im anschließenden Reflexionstreffen. Hier zeigte sich
vor allem, dass Gamification polarisiert. Es gab viele sehr positive Bemerkungen und
wenige sehr negative, während Personen mit gleichgültiger Einstellung kaum auftraten
(oder sich nicht zu Wort meldeten). In beiden Semestern ließ sich ein wesentlicher Kri-
tikpunkt ausmachen: Im Sommersemester 2017 waren das die unausgereiften techni-
schen Systeme, die von den Studierenden verlangten, ihre Lösungen auf insgesamt drei
verschiedenen Plattformen abzugeben und stellenweise durch Fehler in der Programmie-
rung Daten verloren hatten. Diese Probleme wurden im Sommersemester 2018 weitest-
gehend behoben. Dafür wurde nun bemängelt, dass die Antwortzeiten auf Abgaben (be-
sonders die zusätzlichen freien Aufgaben) mit bis zu fünf Wochen viel zu hoch waren.
Das lag an organisatorischen Problemen bei der Arbeit der Tutoren und wird mein Fokus
für Verbesserungen im nächsten Jahr sein. Die Feedbackbox hat zudem geholfen, akute
Probleme im Semester schnell zu erkennen und zu beheben – insbesondere dann, wenn
ich die Studierenden am Ende der Veranstaltung um eine Antwort zu einer bestimmten
Frage gebeten habe.
Zum Schluss möchte ich hier noch einige Studierende zu Wort kommen lassen, deren
Feedback meiner Meinung nach für die Rückmeldungen stehen kann, die ich in Wort
und Schrift erhalten habe.
„[Besonders gut gefallen hat mir] das neue, sehr fantasievolle Konzept,
das wirklich Spaß macht und die Lust am Lernen weckt!“ (2017)
„Ich bin kein Fan der Gamifizierung. Es bringt mir nichts außer teilw.
verwirrung und kostet allen nur Zeit.“ (2017)
„Gamification hilft extrem bei dem Verständnis der Themen der Vorle-
sung“ (2018)
„Ich finde es sehr gut gelungen, da durch diese Elemente die oft doch eher
trockenen Algorithmen und Datenstrukturen ein Bild bekommen haben,
als was man sich diese vorstellen konnte, was das ganze anschaulicher, in-
teressanter und besser zu merken gemacht hat.“ (2018)
„Ich studiere nicht zum Spielen. Ich möchte Vorlesungen in welchen ich
nicht überlegen muss was eigentlich gemeint ist.“ (2018)
5 Fazit
Zusammenfassend hat sich der Einsatz des Gamification-Konzepts in meinen Augen
gelohnt – allein schon durch die zusätzliche Zeit, die die Studierenden in die Veranstal-
tung investiert haben, das gesteigerte Interesse und das ausgesprochen gute Ergebnis der
Klausur. Es gab jedoch nicht nur positive Rückmeldungen und ich sehe daher meine
Christopher Schölzel
Aufgabe für das Sommersemester 2019 darin, genauer zu identifizieren, welche Teile
des Konzepts zurückgefahren werden können, um den störenden Effekt (und auch den
immer noch sehr hohen Aufwand) zu minimieren und möglichst viele positive Effekte
beizubehalten. Hier zeichnet es sich ab, dass das Punktesystem selbst und die freiwilli-
gen Zusatzaufgaben den Studierenden am besten gefallen haben, während die spieleri-
schen Metaphern zwiespältig aufgefasst wurden. Ich denke man muss jedoch vorsichtig
sein, daraus zu schließen, dass diese Teile ganz verschwinden können, da das resultie-
rende System eher auf eine „Pointsification“ hinauslaufen würde, die in der Fachliteratur
eher kritisiert wird [Se15]. In jedem Fall würde ich mich freuen, wenn sowohl meine
Unterlagen als auch die e-Learning-Systeme Gildamesh und Dozentron nicht nur mir
von Nutzen sein würden. Sollten Sie, lieber Leser oder liebe Leserin, sich also für diese
Thematik interessieren, zögern Sie nicht, mich anzuschreiben.
Literaturverzeichnis
[Ad18] Advent of Code, adventofcode.com, Stand: 19.06.2018.
[Al18] Altrichter, Herbert; Posch, Peter; Spann, Harald: Lehrerinnen und Lehrer erforschen
ihren Unterricht, 5. Auflage, utb, Stuttgart, 2018.
[Ba18] Bartle, R.: Hearts, clubs, diamonds, spades: Players who suit MUDs, http://mud.co.uk/
richard/hcds.htm, Stand: 24.07.2018.
[Br08] Braun, E.; Gusy B.; Leidner B.; Hannover, B.: Das Berliner Evaluationsinstrument für
selbsteingeschätzte, studentische Kompetenzen (BEvaKomp). Diagnostica 54, S. 30–
42, 2008.
[CA16] CAS protocol 3.0 specification, https://apereo.github.io/cas/5.1.x/protocol/CAS-
Protocol-Specification.html, Stand: 24.07.2018.
[De11] Deterding, S.; Dixon, D.; Khaled, R.; Nacke, L.; From game design elements to game-
fulness: defining “gamification”. In (Lugmayr, A.; Franssila, H.; Safran, C.; Hammou-
da, I. Hrsg.) Proc. 15th Int. Academic MindTrek Conference: Envisioning Future Me-
dia Environments, Tampere, Finland. ACM Press, New York, S. 9–15, 2011.
[Kl18] Klasse in der Masse, https://www.thm.de/kim/, Stand: 25.06.2018.
[Mo18] Moss: A system for detecting software similarity, http://theory.stanford.edu/~aiken/
moss/, Stand: 24.07.2018.
[NI12] Nicholson, S.: A User-Centered Theoretical Framework for Meaningful Gamification.
In (Martin, C.; Ochsner, A.; Squire, K. Hrsg.) Proc. Games+Learning+Society 8.0,
Madison, WI 2012. ETC Press, Pittsburgh, PA, S. 223–230, 2012.
[Ru18] Ruby on Rails, rubyonrails.org, Stand: 19.06.2018.
[Se15] Seaborn, K.; Fels, D. I.: Gamification in theory and action: A survey. Int. J. Human-
Computer Studies 74, S. 14–31, 2014.