Workshop „Automatische Bewertung von Programmieraufgaben“ - Vorwort - Systeme zur (semi-)automatischen Bewertung von Programmieraufgaben haben eine lange Forschungsgeschichte und werden immer häufiger an Hochschulen zur Begleitung von Vorlesungen und Übungen eingesetzt. Wesentliche Gründe für den Einsatz solcher Systeme sind besseres und schnelleres Feedback für Studierende, eine Arbeitserleichterung für Lehrende und eine Vereinheitlichung der Punktevergabe. Gerade auch im Zuge der stetigen Öffnung von Hochschulen für Online-Kurse und vergleichbare Formate mit hohen Teilnehmerzahlen und ohne direkten Kontakt zwischen Lehrenden, Tutoren und Studierenden erscheint der Einsatz von Systemen zur automatischen Bewertung nahezu unverzichtbar. Aus Forschungssicht ist die Erstellung solcher Systeme zudem ein interessantes Thema, welches Aspekte des Softwaretestens, der adaptiven und intelligenten Tutorensysteme und der künstlichen Intelligenz verbindet. Es gibt daher auch eine große Anzahl von publizierten Systemen, jedoch ist die Anzahl der eingesetzten Systemen sicherlich noch deutlich größer: Viele Hochschulen haben eigene, abgeschlossene Systeme, teils mit besonderen Schwerpunkten entwickelt. Im Rahmen des Workshops kommen nun erstmals im deutschsprachigen Raum TeilnehmerInnen aus Wissenschaft und Praxis zusammen, die Systeme zur automatischen Bewertung von Programmieraufgaben entwickeln, einsetzen oder an deren Einsatz interessiert sind. Das Ziel des Workshop ist es, sowohl den Grundstein für eine fundierte und umfassende Bestandsaufnahme über existierende Systeme zur automatischen Bewertung von Programmieraufgaben zu legen, als auch über aktuelle Entwicklungen und praktische Fragestellungen, insbesondere zum Austausch von Programmieraufgaben und dazugehörigen Tests über Systemgrenzen hinweg zu diskutieren. Im letztgenannten Bereich haben sich für allgemeine E- Learning-Systeme diverse Standards für austauschbare, abgeschlossene Lernobjekte (SCORM, IEEE LOM, IMS Content Packaging, QTI, LONCAPA) etabliert. Diese bestehenden Formate werden jedoch der Komplexität von Programmieraufgaben (verschiedene Sprachen, Versionen, Test-Frameworks, …) bzw. der besonderen Features einzelner Systeme nicht gerecht, so dass hier ein Entwicklungspotenzial besteht, das vermutlich nur durch die Zusammenarbeit der verschiedenen Systementwickler gemeinsam ausgeschöpft werden kann. Die erfreulich starke Resonanz auf die Einladung zum Workshop ermöglicht es, diese Zielsetzungen in drei Sessions sehr weitgehend zu verwirklichen: In der ersten Session werden in vier Beiträgen aktuelle technische Entwicklungen beleuchtet und in Form von Fallbeispielen diskutiert. Neben Aspekten wie Sicherheit und Reichhaltigkeit des Feedbacks kommen dabei auch die Integration von Systemen in Lern-Management-Systeme sowie ein „Blick über den Tellerrand“ in Richtung von Systemen für Datenbankaufgaben zur Sprache. Die zweite Session widmet sich mit weiteren vier Beiträgen ganz konzentriert einzelnen Systemen und Erfahrungen aus ihrem praktischen Einsatz. Durch Vorträge sowohl zu Systemen für die Programmiersprache Java als auch für C++ können auch hier erste Ansätze für die gewünschte Breite des Workshops umgesetzt werden. Die abschließende Plenarsession ermöglicht es den Teilnehmern, Fragen der Interoperabilität verschiedener Systeme zu diskutieren und gemeinsam über ein Austauschformat nachzudenken, das den Transfer von Aufgaben über Systemgrenzen hinweg ermöglichen soll. Es besteht die Hoffnung, dass das breite Teilnehmerfeld das vorhandene große Interesse an automatischen Systemen zur Bewertung von Programmieraufgaben widerspiegelt und der Workshop kein einmaliges Ereignis bleiben wird. Im Hinblick auf viele offene Forschungsfragen, zahlreiche Anknüpfungspunkte und nicht zuletzt auch den großen Bedarf an leistungsstarken Systemen wird ein erneutes Zusammentreffen der Community zu weiteren Auflagen des Workshops bereits jetzt ins Auge gefasst. Michael Striewe, Uta Priss Oktober 2013