<?xml version="1.0" encoding="UTF-8"?>
<TEI xml:space="preserve" xmlns="http://www.tei-c.org/ns/1.0" 
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
xsi:schemaLocation="http://www.tei-c.org/ns/1.0 https://raw.githubusercontent.com/kermitt2/grobid/master/grobid-home/schemas/xsd/Grobid.xsd"
 xmlns:xlink="http://www.w3.org/1999/xlink">
	<teiHeader xml:lang="de">
		<fileDesc>
			<titleStmt>
				<title level="a" type="main"></title>
			</titleStmt>
			<publicationStmt>
				<publisher/>
				<availability status="unknown"><licence/></availability>
			</publicationStmt>
			<sourceDesc>
				<biblStruct>
					<analytic>
						<author>
							<persName><forename type="first">Niels</forename><surname>Pinkwart</surname></persName>
							<affiliation key="aff0">
								<orgName type="institution">Humboldt Universität Berlin</orgName>
								<address>
									<postCode>2015 1</postCode>
								</address>
							</affiliation>
						</author>
					</analytic>
					<monogr>
						<imprint>
							<date/>
						</imprint>
					</monogr>
					<idno type="MD5">6B6671AC4207C9B7FC77629A46F90374</idno>
				</biblStruct>
			</sourceDesc>
		</fileDesc>
		<encodingDesc>
			<appInfo>
				<application version="0.7.2" ident="GROBID" when="2023-03-24T00:28+0000">
					<desc>GROBID - A machine learning software for extracting information from scholarly documents</desc>
					<ref target="https://github.com/kermitt2/grobid"/>
				</application>
			</appInfo>
		</encodingDesc>
		<profileDesc>
			<abstract/>
		</profileDesc>
	</teiHeader>
	<text xml:lang="de">
		<body>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Automatisches Feedback zu Programmieraufgaben</head></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Niels Pinkwart 1</head><p>Eines der wiederkehrenden Probleme bei der Gestaltung von Online-Lernumgebungen für die Programmierausbildung ist es, Nutzern sinnvolles Feedback zu ihren Lösungsversuchen bei Programmieraufgaben zu geben. Dies ist notwendig: Eigene Aktivität ist wichtig für den Lernerfolg <ref type="bibr" target="#b2">[Ko15]</ref>, und gerade in selbstgesteuerten Lernszenarien sind Rückmeldungen für die Nutzer von immenser Bedeutung, um ihren Lernfortschritt einschätzen und ihre weiteren Schritte planen zu können <ref type="bibr" target="#b0">[BW95]</ref>. Problematisch ist die automatisierte Berechnung von Feedback auf Lernerlösungen u.a. deshalb, weil Programmieraufgaben oft viele verschiedene Lösungsmöglichkeiten (unterschiedlicher Qualität) haben. Es besteht somit die Herausforderung, ein ggf. fehlerhaftes vom Nutzer geschriebenes Programm nicht nur auf Korrektheit zu prüfen, sondern auch darüber hinaus lernförderliche Rückmeldungen zu generieren, welche die vom Nutzer vermutlich favorisierte Lösungsstrategie ebenso berücksichtigen wie mögliche Fehler in der aktuellen Lernerlösung. Nachfolgend werden vier Möglichkeiten zur Generierung von Feedback vorgestellt, die auf unterschiedlichen Prinzipien beruhen. Zu jedem Ansatz werden dabei empirische Erkenntnisse diskutiert. Einzelgänger" ist. Geeignete Feedbackmechanismen in diesem Szenario sind z.B. in <ref type="bibr" target="#b1">[Gr14]</ref> beschrieben.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Der erste Ansatz zielt dabei nicht primär auf</head></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Literaturverzeichnis</head></div><figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_0"><head></head><label></label><figDesc>Online-Lernszenarien, sondern auf " klassische" universitäre Programmierkurse. Ziel des GATE-Systems [SOP11] ist es, Studierende, Tutoren und Dozenten beim Übungsbetrieb zu unterstützen. Das GATE-System kombiniert aufgabenunabhängige Syntaxtests und aufgabenspezifische Funktionstests (als Feedback für Studierende) mit Plagiatserkennungsverfahren (als Feedback für Tutoren). Ergebnisse zeigen, dass sowohl Tutoren als auch Studierende Vorteile durch den Einsatz des Systems hatten und dass mit dem Konzept studentischer Tests vor Abgabeschluss durchaus Qualitätssteigerungen erreicht werden konnten. Der zweite vorgestellte Ansatz ist in der Online-Lehre verwendbar, wurde aber auch im Rahmen von Programmierkursen an Universitäten eingesetzt und evaluiert [LP12]. Hier ist dem System (INCOM) für jede Aufgabe eine feste Menge von Lösungsstrategien bekannt (z.B. unterschiedliche rekursive und iterative Verfahren). Für jede dieser abstrakten Strategien lassen sich mittels bekannter allgemeiner Regeln (z.B. arithmetische Gesetze, Freiheiten bei Reihenfolgen von Kommandos) eine Vielzahl von korrekten Lösungsmöglichkeiten generieren. Eine Lernerlösung wird im INCOM-System mittels einer KI-gestützten Heuristik über eine gewichtete Constraint-Logik mit allen bekannten Lösungsstrategien und deren Varianten verglichen, um so die Strategie zu bestimmen, die der Nutzer vermutlich verfolgte. Auf Basis der Unterschiede zwischen der ähnlichsten Musterlösung und der (fehlerhaften) Lernerlösung kann dann Feedback gegeben werden. Der dritte vorgestellte Ansatz setzt kollaborative Filteralgorithmen und Peer Reviews im E-Learning ein und wurde zur Klausurvorbereitung in Informatikkursen erfolgreich eingesetzt [LP09]. Ergebnisse von kontrollierten Laborstudien mit dem CiTUC-System belegen die grundsätzliche Eignung des Verfahrens im Sinne einer hohen Korrelation von Peer-Review-Ergebnissen mit Expertenbewertungen von Lernerlösungen. Probleme bei der praktischen Nutzung des CiTUC-Systems ergaben sich in der Motivation der Studierenden zur kontinuierlichen und sinnvollen Nutzung des Systems bei freiwilliger Teilnahme -vor der Klausur wurde das System jedoch intensiv verwendet und sowohl durch den Übungsleiter als auch durch die Studierenden als hilfreich angesehen. Im vierten vorgestellten Ansatz stehen Visualisierungen von Lösungsräumen im Mittelpunkt. Hier wird auf die formale Analyse der Korrektheit von Lernerlösungen (insbesondere der semantischen Korrektheit) komplett verzichtet. Stattdessen werden Lernerlösungen und deren Zwischenschritte sowie verschiedene Musterlösungen über Ähnlichkeitsmetriken auf Basis von Codestruktur und Stichworten miteinander verglichen. Die resultierenden Ähnlichkeiten werden verwendet, um den Raum aller Lösungen visuell zu strukturieren und Nutzern so Orientierungshilfen zu geben -z.B. dahingehend, wie nah sie an Musterlösungen sind oder ob ihre eigene Lösung ein "</figDesc></figure>
			<note xmlns="http://www.tei-c.org/ns/1.0" place="foot" n="1" xml:id="foot_0">Institut für Informatik, Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin, niels.pinkwart@huberlin.de</note>
		</body>
		<back>
			<div type="references">

				<listBibl>

<biblStruct xml:id="b0">
	<analytic>
		<title level="a" type="main">Feedback and Self-Regulated Learning: A Theoretical Synthesis</title>
		<author>
			<persName><forename type="first">D</forename><surname>Butler</surname></persName>
		</author>
		<author>
			<persName><forename type="first">P</forename><surname>Winne</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Review of Educational Research</title>
		<imprint>
			<biblScope unit="volume">65</biblScope>
			<biblScope unit="issue">3</biblScope>
			<biblScope unit="page" from="245" to="281" />
			<date type="published" when="1995">1995</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b1">
	<analytic>
		<title level="a" type="main">Example-based feedback provision using structured solution spaces</title>
		<author>
			<persName><forename type="first">S</forename><surname>Gross</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">International Journal of Learning Technology</title>
		<imprint>
			<biblScope unit="volume">9</biblScope>
			<biblScope unit="issue">3</biblScope>
			<biblScope unit="page" from="248" to="280" />
			<date type="published" when="2014">2014</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b2">
	<analytic>
		<title level="a" type="main">Learning is not a Spectator Sport</title>
		<author>
			<persName><forename type="first">K</forename><surname>Koedinger</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proceedings of the Second ACM Conference on Learning @ Scale</title>
				<meeting>the Second ACM Conference on Learning @ Scale<address><addrLine>New York</addrLine></address></meeting>
		<imprint>
			<publisher>ACM</publisher>
			<date type="published" when="2015">2015</date>
			<biblScope unit="page" from="111" to="120" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b3">
	<analytic>
		<title level="a" type="main">CITUC: Automatisierte Lösungsbewertung im E-Learning durch kollaboratives Filtern</title>
		<author>
			<persName><forename type="first">F</forename><surname>Loll</surname></persName>
		</author>
		<author>
			<persName><forename type="first">N</forename><surname>Pinkwart</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Tagungsband 2 der 9. Internationalen Tagung Wirtschaftsinformatik</title>
				<meeting><address><addrLine>Wien</addrLine></address></meeting>
		<imprint>
			<publisher>Österreichische Computer Gesellschaft</publisher>
			<date type="published" when="2009">2009</date>
			<biblScope unit="page" from="411" to="420" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b4">
	<analytic>
		<title level="a" type="main">Can Soft Computing Techniques Enhance the Error Diagnosis Accuracy for Intelligent Tutors?</title>
		<author>
			<persName><forename type="first">N</forename><forename type="middle">T</forename><surname>Le</surname></persName>
		</author>
		<author>
			<persName><forename type="first">N</forename><surname>Pinkwart</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proceedings of the 11th International Conference on Intelligent Tutoring Systems</title>
				<meeting>the 11th International Conference on Intelligent Tutoring Systems<address><addrLine>Berlin</addrLine></address></meeting>
		<imprint>
			<publisher>Springer</publisher>
			<date type="published" when="2012">2012</date>
			<biblScope unit="page" from="320" to="329" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b5">
	<analytic>
		<title level="a" type="main">Das GATE-System: Qualitätssteigerung durch Selbsttests für Studenten bei der Onlineabgabe von Übungsaufgaben</title>
		<author>
			<persName><forename type="first">S</forename><surname>Strickroth</surname></persName>
		</author>
		<author>
			<persName><forename type="first">H</forename><surname>Olivier</surname></persName>
		</author>
		<author>
			<persName><forename type="first">N</forename><surname>Pinkwart</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">GI Lecture Notes in Informatics (P-188) -Tagungsband der 9. e-Learning Fachtagung Informatik (DeLFI)</title>
				<imprint/>
	</monogr>
</biblStruct>

<biblStruct xml:id="b6">
	<analytic>
		<title/>
		<author>
			<persName><forename type="first">G</forename><forename type="middle">I</forename><surname>Bonn</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">S</title>
		<imprint>
			<biblScope unit="page" from="115" to="126" />
			<date type="published" when="2011">2011</date>
		</imprint>
	</monogr>
</biblStruct>

				</listBibl>
			</div>
		</back>
	</text>
</TEI>
