=Paper= {{Paper |id=Vol-2092/paper11 |storemode=property |title=Potentiale aufzeigen und Synergien nutzen: Audience Response Systeme als ein Anwendungsgebiet hochschulübergreifender Kooperationen(Audience Response Systems as an Example for Cross-University Cooperation) |pdfUrl=https://ceur-ws.org/Vol-2092/paper11.pdf |volume=Vol-2092 |authors=Alexander Kiy,Sven Strickroth |dblpUrl=https://dblp.org/rec/conf/delfi/KiyS17 }} ==Potentiale aufzeigen und Synergien nutzen: Audience Response Systeme als ein Anwendungsgebiet hochschulübergreifender Kooperationen(Audience Response Systems as an Example for Cross-University Cooperation)== https://ceur-ws.org/Vol-2092/paper11.pdf
      Carsten Ullrich, Martin Wessner (Eds.): Proceedings of DeLFI and GMW Workshops 2017
                                                        Chemnitz, Germany, September 5, 2017



Audience Response Systems as an Example for Cross-
University Cooperation


Alexander Kiy und Sven Strickroth


Abstract: Audience Response Systems (ARS) are an enhancement to teaching in
higher education with the aim to strengthen participant activation and the
involvement of students directly in lectures. There is a wide range of different
solutions available. However, these solutions either rely on personal devices of
students (so-called software clicker) or require the purchase of mostly commercial
hardware solutions. Here, the presented Hands.UP approach tries to bridge these
two complementary concepts. Based on a cost and effort estimation of selected
ARS, the necessity of inter-university cooperation with regard to adequate further
development and the use of ARS in teaching are motivated.
        Carsten Ullrich, Martin Wessner (Eds.): Proceedings of DeLFI and GMW Workshops 2017
                                                          Chemnitz, Germany, September 5, 2017




Potentiale aufzeigen und Synergien nutzen: Audience
Response Systeme als ein Anwendungsgebiet
hochschulübergreifender Kooperationen

Alexander Kiy1 und Sven Strickroth1



Abstract: Audience Response Systeme (ARS) stellen eine Ergänzung der Hochschullehre dar, um
die Teilnehmeraktivierung zu stärken und die Studierenden unmittelbar in das Vorlesungsgeschehen
einzubinden. Es existiert eine Fülle an Lösungen, die entweder ohne dedizierte Hardware
auskommen (sogenannte Software-Clicker) oder die Anschaffung meist kommerzieller Hardware-
Lösungen voraussetzen. An dieser Stelle versucht Hands.UP eine integrative Brücke zu schlagen.
Auf Grundlage einer Kosten- und Aufwandsschätzung ausgewählter ARS-Lösungen soll die
Notwendigkeit hochschulübergreifender Kooperationen hinsichtlich einer adäquate Weiter-
entwicklung und des Einsatzes von ARS in der Lehre motiviert werden.
Keywords: Audience Response System, Classroom Response System, Personal Response System,
Clicker, Cost estimation, COCOMO



1     Einleitung
Audience Response Systeme (ARS), auch Classroom Response Systeme (CRS) oder
„Clicker“ genannt, werden immer häufiger an Hochschulen eingesetzt. Dabei handelt es
sich um E-Learning-Systeme, die in unterschiedlichsten didaktischen Szenarien (z. B.
Wissensüberprüfungen, Feedback, Gruppeninteraktionen) zur Aktivierung von Studieren-
den oder zur Steigerung der Interaktivität (z. B. zur Auswahl von möglichen Vertiefungen)
in großen Vorlesungen und Seminaren eingesetzt werden. Jedoch besteht nach wie vor der
typische Einsatzzweck von ARS in der Durchführung einfacher Abstimmungen. Die
verschiedenen Systeme ermöglichen eine automatisierte Auswertung und eine sofortige
Bereitstellung der (anonymen, aggregierten) Ergebnisse ohne Zeitverlust. In den letzten
Jahren fand eine rege Entwicklung solcher Systeme statt [Keo12, Kun13]. Folglich
existieren unterschiedliche Systeme2 [FB15] und empirische Ergebnisse, die den Nutzen
von Clickern bestätigen [Mor09, OK13]. Neben einigen bundesweit bekannten und auch
kommerziell beworbenen Systemen gibt es nach wie vor eine „Dunkelziffer“ von
1 Institut für Informatik und Computational Science, Universität Potsdam, August-Bebel-Str. 89, 14482

 Potsdam, vorname.nachname@uni-potsdam.de
2 Übersichten und Vergleiche finden sich z. B. unter: http://ep.elan-ev.de/wiki/Audience_Response und

 http://www.brandhofer.cc/audience-response-systeme/ (letzter Abruf 2017-06-23)
Alexander Kiy und Sven Strickroth

kleineren, lokal entwickelten Systemen, die oft sehr ähnliche Kernfunktionen aufweisen.
Häufig gibt es jedoch deutliche Unterschiede bei der Herangehensweise, den verwendeten
Technologien und dem Funktionsumfang. Dies resultiert in einer Vielzahl untereinander
inkompatibler Insellösungen. Dabei können sich an einzelnen Hochschulen3, wie der
Universität Potsdam, auch unterschiedliche Systeme (Hands.UP, PINGO, Hardware,
sowie mindestens zwei von Lehrstühlen entwickelte Lösungen) parallel im Einsatz
befinden. Probleme von Insellösungen und lokalen Entwicklungen bestehen vor allem bei
der Weiterentwicklung und der Sicherstellung des langfristigen Betriebs mitsamt Support.
Zunächst werden überblicksartig Clicker-Lösungen skizziert. Anschließend wird die an
der Universität Potsdam entwickelte ARS-Lösung zur Integration von Software- und
Hardware-Clickern vorgestellt. Eine vergleichende Aufwandsschätzung, der bisher er-
brachten Arbeiten wird diskutiert und zur Motivation für eine hochschulübergreifende
Kooperation genutzt, um auf diesem Weg Kosten zu sparen und eine gleichbleibend hohe
Qualität, Usability sowie langfristige Verfügbarkeit sicherzustellen.


2     Vielfältige Clicker-Systeme
Audience Response Systeme können grundsätzlich in Hardware- und Software-Clicker
eingeteilt werden. Bei Hardware-Clickern handelt es sich um „single-purpose“ Hardware,
die ausschließlich für diese Aufgabe hergestellt werden und Eingaben in Form vorgege-
bener Tasten (z. B. 0-9, Ja/Nein) entgegennehmen. Einige Systeme bieten die Möglichkeit
Text auf den Geräten anzuzeigen. Sie können kabelgebunden, fest in Hörsälen installiert
sein oder aus mobilen Einheiten bestehen, die über Funk oder Infrarot mit einer Basis-
station kommunizieren. Vor einem Einsatz müssen die Systeme zum Hörsaal transportiert
und ausgeteilt werden oder sind von den Studierenden mitzubringen. Zu den bekanntesten
Hardware-Clickern zählen ActiVote, Quizdom Q6 und Interactive Voting System (IVS).
Neben den Hardware-Clickern gibt es einen Trend hin zu Apps bzw. Webseiten, die
basierend auf dem BYOD-Ansatz auf mobilen Geräten der Studierenden verwendet
werden. Einige Systeme benötigen eine lokale Installation auf den Geräten der Studieren-
den (z. B. Socrative), andere bestehen aus einer Webseite, die im Browser aufgerufen wird
(z. B. ARSNova über QR-Code). Vorteile der sogenannten Software-Clicker liegen in der
einfachen funktionalen Erweiterbarkeit, einer guten Skalierung bei vielen Abstimmenden
und es können prinzipiell auch Studierende teilnehmen, die nicht vor Ort sind. Jedoch
benötigen solche Systeme eine stabile Verbindung zu einem Server (in der Regel über das
Internet) und die Geräte der Studierenden laden möglicherweise zur Ablenkung ein. Der
Betrieb von Software-Clickern kann entweder über eine lokale Installation (z. B.
ARSNova), über die Bereitstellung eines externen Dienstleister (z. B. PINGO) oder über
dedizierte Clicker-Plugins für Lern-Management-Systeme (z. B. Cliqr für Stud.IP)
erfolgen. Um nicht nur auf eine Kategorie (Hardware oder Software) angewiesen zu sein,
3 Übersicht über in NRW-Hochschulen genutzte Systeme: http://www.eassessmentnrw.de/einsatzorte-in-

 nrw/formative-assessments/feedbacksysteme.html (letzter Abruf 2017-06-23)
                                                  Potentiale aufzeigen und Synergien nutzen

wurden hybride Frameworks entwickelt, die versuchen beide Welten auf technischer
Ebene miteinander zu kombinieren (z. B. Hands.UP, siehe nächster Abschnitt).
Clicker lassen sich weiter bezüglich der Verfügbarkeit und der Kosten kategorisieren
[FB15]. Hardware-Clicker sind, sofern nicht selbstgebaut, ausschließlich kommerziell
erhältlich und benötigen eine zusätzliche Software, die zur Auswertung genutzt wird.
Teilweise müssen Hardware-Dongles erworben werden, die eine zusätzliche Lizensierung
der Abstimmungsgeräte erfordern. Im Extremfall erfolgt beim Kauf eine Bindung an einen
Hersteller (Vendor Lock-in) und bei Erweiterungen sind nicht nur Geräte, sondern auch
neue Basisstationen und Lizenzen zu erwerben. Jedoch sind meist keine jährlichen Kosten
zu entrichten. Bei Software-Clickern kann zwischen kommerzieller Software (z. B.
EduVote), Freeware (z. B. feedbackr.io) und Open Source (z. B. ARSNova) unterschieden
werden: Erstere erfordern i. d. R. eine jährliche Gebühr, werden aber komplett wie
Freeware-Angebote von Dritten gepflegt und betrieben. Bei den freien Angeboten besteht
eine Abhängigkeit vom Anbieter, sodass der Dienst langfristig angeboten werden kann.
Wie bereits in der Einleitung angedeutet, besteht die Hauptfunktionalität der meisten
Systeme auf dem Handling von Single-Choice-Fragen, wobei es teilweise spezielle Unter-
stützung für Ja/Nein-Fragen oder Likert-Skalen gibt [FB15]. Multiple-Choice-Fragen
werden noch von der Mehrzahl der Systeme unterstützt. Bei der Darstellung gibt es bereits
große Unterschiede. So existieren Software-Clicker, die wie Hardware-Clicker Buttons
nur mit vorgegebenen Beschriftungen anzeigen (vgl. EduVote). Funktionen wie Live-
Feedback zum Dozenten (z. B. anonym Fragen stellen, „Abgehängt“-Button), Spontan-
umfragen, simultane Unterstützung von Hardware- und Software-Lösungen oder Abbil-
dung weiterer Fragenformate (z. B. nummerische und Freitext-Antworten, Lückentexte
oder die Markierung von Bereichen auf Bildern) treten sehr fragmentiert auf. Es gibt kein
System mit einer breiten Unterstützung dieser Features. Auch wenn einzelne Systeme sehr
viele Funktionen bieten (z. B. AMCS und ARSNova), unterstützen viele Systeme
lediglich die Hauptfunktionalität (Single-Choice) und fokussieren auf einige ausgewählte
Features. Darüber hinaus, wurden viele Entwicklungen mit viel Aufwand begonnen, die
zwar die typischen Umfrage-Anwendungsfälle unterstützen, jedoch diese nur rudimentär
umsetzen. Überspitzt pointiert argumentiert gibt es viele Systeme, die „das gleiche“
machen, aber kein System, das einem Dozierenden erlaubt „aus dem Vollen zu schöpfen“.


3    Hands.UP: Ein Integrativer Ansatz
Das Clicker-System Hands.UP basiert auf der Integrationslösung Click2Vote [ZHL14]
und verfolgt das Ziel eine webbasierte, offene Plattform für die systemübergreifende
Verwendung unterschiedlicher ARS-Lösungen zu schaffen. Das System zeichnet sich
durch einen Webservice aus, an den Software- und Hardware-Clicker angebunden werden
können. Click2Vote bzw. die Weiterentwicklung Hands.UP stellt die Datendrehscheibe
zwischen dem in der Lehre verbreiteten und verwendeten Lernmanagementsystem
Alexander Kiy und Sven Strickroth

Moodle, klassischen Präsentationswerkzeugen wie PowerPoint und eingesetzten Soft-
ware- und Hardware-Clickern dar. Für die Anbindung von Hardware-Clickern wurde das
ResponseCard-System von Turning Technologies integriert: Hauptbestandteile dieser
Hardwarelösung sind eine beliebige Anzahl an Clicker-Clienten (Response Card RF) und
eine Basisstation (RF Receiver) welche per USB an den Dozierendenrechner angebunden
wird.4 Mittels des vorhandenen Software Development Kits (SDK) ist es möglich, die
abgegebenen Stimmen der Clients mit Hilfe eines Windows-Programms namens
ClickerManager über den Webservice weiterzugeben.
Die bisherige Lösung bestand aus einer Webseite, einer nativen Android und iOS App,
einem Moodle-Plugin auf Basis des „Questionnaire“-Plugins5, einem PowerPoint-Plugin,
einem ClickerManager und einem Webservice zur Integration von Software- und Hard-
ware-Clickern (Architektur vgl. Abb. 1). Umfragen können sowohl über die Adminis-
trations-Oberfläche der Webseite als auch über das Moodle-Plugin angelegt werden. Für
die Präsentation der Umfragen kann das Moodle-Plugin, die Präsentationsansicht der
Webseite oder auch das C-basierte Office-AddIn für PowerPoint genutzt werden. Die
Abstimmungen können sowohl über die Apps, die Webseite, das Moodle-Plugin als auch
mit Hilfe der angebundenen Hardware-Clicker über den ClickerManager erfolgen.




      Abbildung 1: Übersicht Architektur/ und Integration der unterschiedlichen Plattformen
In Folge von Evaluationen (Nutzendentests) und Konsolidierungen mit anderen Applika-
tionen mit dem Ziel Click2Vote in Form einer Weiterentwicklung namens Hands.UP für
die Breite der Hochschule zugänglich zu machen, wurde das Webservice-Interface
überarbeitet. Zur Erleichterung der Pflege der mobilen Applikationen wurde, vor dem
Hintergrund eines vergleichsweise geringen Funktionsumfangs, eine hybride Implemen-
tierung der App gewählt. Bisher bestanden der Webservice und die Webseite separat. Zur
4 https://www.turningtechnologies.com/response-solutions/responsecard-rf (letzter Abruf 2017-06-23)
5 https://moodle.org/plugins/mod_questionnaire (letzter Abruf 2017-06-23)
                                                              Potentiale aufzeigen und Synergien nutzen

Reduktion von Funktionsdoppelungen wurden beide Bestandteile in eine WebApp
zusammengeführt und im gleichen Zug etablierte Frameworks (Hibernate, Spring etc.)
eingesetzt. Studierenden und Dozierenden steht es nach wie vor offen über die Webseite,
die App, Moodle oder mittels Hardware-Clickern abzustimmen. Die grundlegende
service-orientierte Architektur blieb erhalten, lediglich die Anzahl der Einzelsysteme
wurde reduziert und deren Wartbarkeit erhöht. Im Vergleich zu klassischen Systemen
werden Systemgrenzen überwunden und ist unerheblich über welches System die
Eingaben und Ergebnispräsentationen erfolgen.


4     Aufwandsschätzung
Das Projekt Click2Vote und die Weiterentwicklung hin zu Hands.UP wurden im Rahmen
unterschiedlicher studentischer Arbeiten umgesetzt, hierzu zählen u. a. eine Bachelor- und
Masterarbeit, eine Praxisaufgabe, ein Projekt und die Beschäftigung einer Hilfskraft im
Rahmen von 7,5 Stunden für 10 Monate zwecks Überarbeitungen und der Überführung in
den Produktivbetrieb. Die reinen Arbeitszeiten würden sich auf eine Summe von 12
Personenmonaten (PM) unter Berücksichtigung des ECTS-Aufwands (1 ECTS ~ 30h)
belaufen. Hinzu kommen weitere Aufwände wie konzeptionelle Arbeiten, der
Betreuungsaufwand, die Einrichtung und Konfiguration der Build- und Betriebs-
umgebungen (z. B. Installation von Software, Zertifikate, Dokumentationen), die Nutzung
des CI-Designs oder der Betrieb und die Durchführung von Nutzendentests. Insofern
bilden die 12 PM die erbrachten Arbeiten nur unzureichend ab, geben jedoch bereits eine
grobe Aufwandsschätzung der Implementierungsarbeiten. Für eine bessere Aufwands-
schätzung kann das sogenannte Constructive Cost Model II (COCOMO II) genutzt werden
[Boe00]. COCOMO versucht mit Hilfe von Parametern eine Berechnungsgrundlage und
somit Aufwandsabschätzung in Personenmonaten (PM) und Entwicklungszeit (Time to
Develop (TDEV) in Monaten) in Abhängigkeit der geschätzten Codezeilen (Lines of Code
(LOC) in Tausend - kurz KLOC) zu liefern. Nach dem COCOMO-Modell ergeben sich
unter Verwendung der spezifischen Parameter für organische Projekte, zu denen insbe-
sondere Kleinteams gehören und sich gut auf ARS-Implementierungen im Hochschul-
kontext anwenden lassen, die folgenden Berechnungsformeln:

             𝑃𝑀 = 2.04 ∙ 𝐾𝐿𝑂𝐶 1.05                      bzw.        𝑇𝐷𝐸𝑉 = 2.5 ∙ 𝑃𝑀0.38

Ein weiterer Algorithmus namens git-hours6 versucht auf Basis eines Git-Repositories die
erbrachten Programmierstunden abzuschätzen. Dabei werden für Programmierer auf Basis
von Commits/Beiträgen für das Git-Repository sogenannte Coding-Sessions identifiziert,
um daraus schließlich die erbrachten Programmierstunden abzuleiten. Alle Commits, die
innerhalb eines Zeitraums von zwei Stunden erfolgen, gehören zur gleichen Session; alles
darüber hinaus wird zu einer separaten Session gezählt. Dieses Verfahren funktioniert
6 https://github.com/kimmobrunfeldt/git-hours (letzter Abruf 2017-07-20)
Alexander Kiy und Sven Strickroth

jedoch ausschließlich mit Git-Repositorien und einer entsprechenden Commit-Historie.
Um einen besseren Eindruck der erbrachten Implementierungsaufwände zu vergleich-
baren Projekten zu erhalten, wurden die Ergebnisse von den verbreiteten Open-Source-
Projekten PINGO7 und ARSNova8 in Verbindung gesetzt. Dabei wurden zunächst die
Hauptsoftwaremodule identifiziert und anschließend ausgewertet (siehe Tabelle 1).
             Tabelle 1: Aufwandsschätzungen auf Basis von COCOMO II und git-hours
 Projekt                         KLOC                PM         TDEV in Monaten   git-hours in Monaten
 Hands.UP
 Moodle-Plugin                       12,541             17,08              7,35
 iOS App                             16,963             46,90             10,79
 Android App                          9,347             25,09              8,51
 PowerPoint AddIn                    72,304            214,95             19,24
 ClickerManager                      12,396             33,74              9,52
 Webservice                          19,951             55,61             11,51
 Webseite                            95,067            286,51             21,46
 WebApp                             101,129            305,72             22,00
 Hands.UP App (hybrid)                0,584              1,36              2,81
 ARSNova
 arsnova.click                      113,454            172,48             17,70                  17,50
 arsnova-backend                     26,839             75,93             12,96                  12,36
 arsnova-flashcards                   8,956             23,98              8,36                   8,79
 arsnova-ppt-integration             49,304            143,79             16,52                   1,59
 arsnova-mobile                      99,742            301,33             21,88                  26,79
 PINGO
 PINGOWebApp                         35,748             51,30             11,16                      -
 Remote-Win                         578,196            953,59             33,89                      -
 pingo-push                           0,144              0,16              1,24                      -


Die auf den KLOC basierenden Ergebnisse werden bei einigen Software-Modulen augen-
scheinlich massiv verzerrt. Das liegt bei genauerer Betrachtung entweder an Bibliotheken,
die direkt im Repository eingebunden wurden, an automatisiert generiertem Quelltext oder
es liegt Quelltext vor, der im Wesentlichen nur adaptiert wurde, und die real geschriebenen
Codezeilen nur einen Bruchteil darstellen. So wurden für das Moodle-Plugin von
Hands.UP, welches auf dem Moodle-Modul „mod_questionnaire“ mit ca. 12,5 KLOC
basiert, lediglich 212 Zeilen angepasst, so dass sich im Endeffekt lediglich 1,8 Entwick-
lungsmonate ergeben. Werden bei der Hands.UP WebApp die Bibliotheken heraus-
gerechnet, resultieren bei 13,2 KLOC schließlich nur noch 9,17 Entwicklungsmonate.
Diese Beobachtung ist wohl auch auf die Webseite und den Webservice übertragbar. Das
PowerPoint-Plugin besitzt viele externe DLLs, welche die Ergebnisse ebenfalls massiv
7 https://github.com/PingoUPB (letzter Abruf 2017-07-20)
8 https://github.com/thm-projects (letzter Abruf 2017-07-20)
                                                  Potentiale aufzeigen und Synergien nutzen

verfälschen. Ein Indiz für die unzureichende Validität des COCOMO-Modells für
Microsoft-spezifische Implementierungen findet sich im Vergleich von git-hours und
COCOMO (vgl. arsnova-ppt-integration). Diese Fehler finden sich wahrscheinlich auch
bei den Ergebnissen von ARSNova und PINGO wieder (vgl. Remote-Win und arsnova-
ppt-integration). Der Vergleich der ARSNova-Ergebnisse von git-hours und COCOMO
zeigt eine deutliche Korrelation der verschiedenen Algorithmen (unter Einschränkung des
o. g. PowerPoint-Plugins). Weiterhin stellt die WebApp von Hands.UP lediglich eine
Überarbeitung und Zusammenführung der Webseite und des Webservices dar und fällt
somit weit geringer aus. Das PINGO-Repository beinhaltet nicht alle Vorgängerversionen,
die realistische Entwicklungszeit ist somit wahrscheinlich weitaus höher einzuschätzen.
Die Schätzungen können maßgeblich durch die Extraktion extern entwickelten Codes, mit
Hilfe der Durchführung von Experten- und Vergleichsschätzungen oder genauer inhalt-
licher Quelltext-Analysen verfeinert werden. Sowohl das COCOMO-Modell als auch git-
hours haben ihre Stärken und Schwächen. Beide blenden Aspekte wie Code-Metriken und
Coding-Styles aus, liefern jedoch eine grobe Aufwandschätzungen aller notwendigen
Aufgaben (nicht nur die bloße Programmierung). Unter Ausklammerung des AddIns und
der ursprünglichen Webseite/Webservices, ergibt sich für das Projekt Hands.UP eine
bereinigte Aufwandsschätzung von 42,6 Entwicklungsmonaten, für ARSNova 77,42 und
für PINGO 46,29 Entwicklungsmonaten. Auch wenn die Wahrheit wahrscheinlich
irgendwo zwischen den einzelnen Abschätzungen in Tabelle 1 liegt und bei Hands.UP
wohl deutlich die erste Abschätzung von 12 Entwicklungsmonaten übersteigt, muss sich
die Frage bei jeder Weiterentwicklung und Überführung in den Regelbetrieb gestellt
werden, inwieweit die bisherigen und künftigen Investition überhaupt noch in einem
Verhältnis zum Erwerb einer kommerziellen Lösung stehen (vgl. [KS13] für Kostenab-
schätzungen; z. B. ca. 2000-8000 € für 50 Hardware-Clicker bzw. ca. 3000 €/Jahr für einen
externen Software-Clicker). Eine Kooperation mit anderen Hochschulen, die ähnliche
Funktionalitäten implementieren und Herausforderungen hinsichtlich des Betriebs
meistern müssen stellt vor diesem Hintergrund eine mögliche Alternative dar.


5    Diskussion und Ausblick
In diesem Paper wurden verschiedene Kategorisierungsmöglichkeiten für Clicker-
Systeme vorgestellt. Dabei wurde deutlich, dass es große Übereinstimmungen bei den
Kernfunktionalitäten existierender Systeme gibt. Anschließend wurde Hands.UP
vorgestellt, welches auf Basis von Webservices die Integration von Software- und
Hardware-Clickern ermöglicht. Die sich anschließenden Aufwandsschätzungen sollen als
Kenngröße dienen über mögliche Kooperationen und Synergien bei der hochschulweiten
Entwicklung von ARS nachzudenken. Wie bei Software-Entwicklungen üblich, dürfen
neben den Kosten für die reine Entwicklung, die auch schon beträchtlich sein können, der
Betrieb und die Wartung nicht vernachlässigt werden, die die Entwicklungskosten schnell
Alexander Kiy und Sven Strickroth

übersteigen können. Externe Dienste bieten zwar eine finanzielle Planungssicherheit,
jedoch ist man vom Anbieter abhängig, da Dienste auch eingestellt werden können und
nicht mehr verfügbar sind (evtl. mitsamt der dort gespeicherten Daten). Aber auch bei
Hardware-Lösungen darf die Wartung nicht vernachlässigt werden: Hier fallen in
regelmäßigen Abständen Reinigungen, Batteriewechsel und evtl. Reparaturen an. Wie in
den vorherigen Abschnitten bereits gesehen, werden nicht nur viele Funktionen doppelt
implementiert, sondern benötigen über die Zeit weitere Ressourcen, die sich meist schwer
quantifizieren lassen und einige Personen in (Weiter)-Entwicklungen einbinden. Eine
Kooperation und eine gemeinsame Software bieten indes viele Vorteile in Bezug auf
Wartung und Weiterentwicklungen. Dennoch darf nicht vernachlässigt werden, dass viele
Systeme im akademischen Umfeld auf Grund einer innovativen Idee bzw. Forschungs-
frage entstanden sind. Neuentwicklungen und akademische Prototypen haben daher
durchaus auch ihre Daseinsberechtigung. Jedoch können positiv evaluierte Features auch
wieder in eine gemeinsame Software einfließen, so dass diese nicht nur exklusiv in einem
einzigen Prototypen (möglicherweise „verstauben“), sondern auch einer breiten
Öffentlichkeit zur Verfügung stehen.
Dies birgt grundsätzlich die Gefahr, ein System zu einer „eierlegenden Wollmilchsau“
ausbauen zu wollen. Diesem Problem kann begegnet werden, indem sich zum einen auf
Kernfunktionalitäten verständigt wird, die sich bereits in vielen existierenden Systemen
finden, und zum anderen eine modulare Architektur genutzt wird.


Literaturverzeichnis
[Boe00]   Boehm, B. et al.: COCOMO II Model Definition Manual. Technical report. Ver. 2.1.
          Center for Software Engineering, USC, 1995.
[FB15]    Frenger, F.; Bernhardt, S.: Abschlussbericht Audience‐ Response‐ Systeme an der JLU,
          2015. http://www.uni-giessen.de/fbz/svc/hrz/org/mitarb/abt/3/Archiv/projekte/
          mob-abst-projekt-bericht
[Keo12]   Keough, S. M.: Clickers in the Classroom: A Review and a Replication. Journal of
          Management Education, 36/6, S. 822–847, 2012.
[KS13]    Krüger, M.; Schmees, M. (Hrsg.): E-Assessments in der Hochschullehre: Einführung,
          Positionen & Einsatzbeispiele, Psychologie und Gesellschaft, 2013.
[Kun13] Kundisch, D. et al.: Classroom Response Systems. Informatik-Spektrum, 36/4, S. 389–
        393, 2013.
[Mor09] Morin, D. et al.: The “Clicker” project: A scholarly approach to technology integration.
        In: Real learning opportunities at business school and beyond, S. 97–107, 2009.
[OK13]    Oigara, J.; Keengwe, J.: Students’ perceptions of clickers as an instructional tool to
          promote active learning. J. Educ Inf Technol, 18/1, S. 15–28, 2013.
[ZHL14] Zender, R.; Haucke, P.; Lucke, U.: Click2Vote - Systematische Integration heterogener
        Clicker-Lösungen. In: Proc. DeLFI 2014, S. 163-168, 2014.