=Paper= {{Paper |id=None |storemode=property |title=None |pdfUrl=https://ceur-ws.org/Vol-1067/einleitung.pdf |volume=Vol-1067 }} ==None== https://ceur-ws.org/Vol-1067/einleitung.pdf
          Workshop „Automatische Bewertung von Programmieraufgaben“
                                   - Vorwort -

Systeme zur (semi-)automatischen Bewertung von Programmieraufgaben haben eine lange
Forschungsgeschichte und werden immer häufiger an Hochschulen zur Begleitung von Vorlesungen
und Übungen eingesetzt. Wesentliche Gründe für den Einsatz solcher Systeme sind besseres und
schnelleres Feedback für Studierende, eine Arbeitserleichterung für Lehrende und eine
Vereinheitlichung der Punktevergabe. Gerade auch im Zuge der stetigen Öffnung von Hochschulen für
Online-Kurse und vergleichbare Formate mit hohen Teilnehmerzahlen und ohne direkten Kontakt
zwischen Lehrenden, Tutoren und Studierenden erscheint der Einsatz von Systemen zur automatischen
Bewertung nahezu unverzichtbar. Aus Forschungssicht ist die Erstellung solcher Systeme zudem ein
interessantes Thema, welches Aspekte des Softwaretestens, der adaptiven und intelligenten
Tutorensysteme und der künstlichen Intelligenz verbindet.

Es gibt daher auch eine große Anzahl von publizierten Systemen, jedoch ist die Anzahl der
eingesetzten Systemen sicherlich noch deutlich größer: Viele Hochschulen haben eigene,
abgeschlossene Systeme, teils mit besonderen Schwerpunkten entwickelt. Im Rahmen des Workshops
kommen nun erstmals im deutschsprachigen Raum TeilnehmerInnen aus Wissenschaft und Praxis
zusammen, die Systeme zur automatischen Bewertung von Programmieraufgaben entwickeln,
einsetzen oder an deren Einsatz interessiert sind. Das Ziel des Workshop ist es, sowohl den Grundstein
für eine fundierte und umfassende Bestandsaufnahme über existierende Systeme zur automatischen
Bewertung von Programmieraufgaben zu legen, als auch über aktuelle Entwicklungen und praktische
Fragestellungen, insbesondere zum Austausch von Programmieraufgaben und dazugehörigen Tests
über Systemgrenzen hinweg zu diskutieren. Im letztgenannten Bereich haben sich für allgemeine E-
Learning-Systeme diverse Standards für austauschbare, abgeschlossene Lernobjekte (SCORM, IEEE
LOM, IMS Content Packaging, QTI, LONCAPA) etabliert. Diese bestehenden Formate werden jedoch
der Komplexität von Programmieraufgaben (verschiedene Sprachen, Versionen, Test-Frameworks, …)
bzw. der besonderen Features einzelner Systeme nicht gerecht, so dass hier ein Entwicklungspotenzial
besteht, das vermutlich nur durch die Zusammenarbeit der verschiedenen Systementwickler
gemeinsam ausgeschöpft werden kann.

Die erfreulich starke Resonanz auf die Einladung zum Workshop ermöglicht es, diese Zielsetzungen in
drei Sessions sehr weitgehend zu verwirklichen: In der ersten Session werden in vier Beiträgen
aktuelle technische Entwicklungen beleuchtet und in Form von Fallbeispielen diskutiert. Neben
Aspekten wie Sicherheit und Reichhaltigkeit des Feedbacks kommen dabei auch die Integration von
Systemen in Lern-Management-Systeme sowie ein „Blick über den Tellerrand“ in Richtung von
Systemen für Datenbankaufgaben zur Sprache. Die zweite Session widmet sich mit weiteren vier
Beiträgen ganz konzentriert einzelnen Systemen und Erfahrungen aus ihrem praktischen Einsatz.
Durch Vorträge sowohl zu Systemen für die Programmiersprache Java als auch für C++ können auch
hier erste Ansätze für die gewünschte Breite des Workshops umgesetzt werden. Die abschließende
Plenarsession ermöglicht es den Teilnehmern, Fragen der Interoperabilität verschiedener Systeme zu
diskutieren und gemeinsam über ein Austauschformat nachzudenken, das den Transfer von Aufgaben
über Systemgrenzen hinweg ermöglichen soll.

Es besteht die Hoffnung, dass das breite Teilnehmerfeld das vorhandene große Interesse an
automatischen Systemen zur Bewertung von Programmieraufgaben widerspiegelt und der Workshop
kein einmaliges Ereignis bleiben wird. Im Hinblick auf viele offene Forschungsfragen, zahlreiche
Anknüpfungspunkte und nicht zuletzt auch den großen Bedarf an leistungsstarken Systemen wird ein
erneutes Zusammentreffen der Community zu weiteren Auflagen des Workshops bereits jetzt ins Auge
gefasst.

                                                                       Michael Striewe, Uta Priss
                                                                                   Oktober 2013