<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Mobile Erweiterte Realität im Katastrophenschutz</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Frank Fuchs-Kittowski</string-name>
          <email>frank.fuchs-kittowski@htw-berlin.de</email>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Simon Burkard</string-name>
          <email>s.burkard@htw-berlin.de</email>
        </contrib>
      </contrib-group>
      <pub-date>
        <year>2017</year>
      </pub-date>
      <fpage>13</fpage>
      <lpage>38</lpage>
      <abstract>
        <p>In this paper, location-based mAR applications covering different domains of risk and crisis communication in disaster management are presented. The applications discussed are already in use in the context of flood management and urban disaster and safety management. Benefits as well as challenges of these applications regarding risk and crisis communication in disaster management are discussed.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>
        Kamerabild mobiler Endgeräte dazu genutzt, um die reale, örtliche Umgebung des
Nutzers durch die Darstellung von digitalen Zusatzinformationen in Ec
        <xref ref-type="bibr" rid="ref11">htzeit zu
erweitern [Höllerer 1999</xref>
        ]. Grundsätzlich kann dabei anhand des Tracking-Verfahrens
zur Erfassung von Position und Blickrichtung des Nutzers (Pose) zwischen zwei
Formen der mAR differenziert werden: Beim geo- bzw. ortsbasierten Ansatz (auch
Location-based AR oder kurz: GeoAR) wird die Pose anhand der in das Smartphone
eingebauten GPS- und IMU-Sensoren bestimmt. Beim bildbasierten Ansatz
(Imagebased AR) werden anhand von optischen Tracking-Verfahren die Nutzerpose bzw.
Objekte in der Umgebung identifiziert [
        <xref ref-type="bibr" rid="ref7 ref8">Fuchs-Kittowski 2012</xref>
        ].
      </p>
      <p>Diese innovative Benutzerschnittstelle hat ein großes Potenzial für die Risiko- und
Gefahrenkommunikation im Katastrophenschutz. Die digitalen Risiko- und
GefahrenInformationen werden in ihren realen, räumlichen Kontext gesetzt und die Sicht auf die
Realität wird durch deren Darstellung angereichert. Diese Darstellung von
Gefahrenund Risiko-Informationen aus der Vergangenheit, der Gegenwart und der Zukunft in
der realen Umgebung vor Ort ermöglicht neue Wege der Wahrnehmung der dortigen
Risiken und Gefahren. Dies ermöglicht eine bessere Analyse und besseres
Verständnis der Risiken und Gefahren vor Ort und unterstützt damit eine bessere
Orientierung und Entscheidungsfindung.</p>
      <p>In diesem Beitrag werden nach einer kurzen Einführung in geobasierte Mobile
Erweiterte Realität (Kapitel 2) mehrere geobasierte mAR-Anwendungen vorgestellt,
die verschiedene Anwendungsbereiche des Katastrophenschutzes umfassen (Kapitel
3). Die beschriebenen Anwendungen werden bereits im Kontext des
Hochwasserschutzes und der Sicherheit in Smart Cities eingesetzt. Die Vorteile und
der Nutzen dieser Anwendungen (Kapitel 4) sowie bestehende Probleme und
Herausforderungen (Kapitel 5) für die Risiko- und Gefahrenkommunikation im
Katastrophenschutz werden diskutiert. Der Beitrag endet mit einer Zusammenfassung
und gibt einen Ausblick auf mögliche zukünftige Entwicklungen (Kapitel 6).</p>
    </sec>
    <sec id="sec-2">
      <title>1 Stand der Technik –geobasierte Mobile Erweiterte Realität</title>
      <p>In diesem Abschnitt wird ausgehend von einer Einführung in die Mobile Erweiterte
Realität (mAR) die Funktionsweise von geobasierter mAR genauer präsentiert.</p>
      <sec id="sec-2-1">
        <title>1.1 Erweiterte Realität</title>
        <p>Der Begriff „Erweiterte Realität“ (engl.: Augmented Reality, oder kurz: AR) bezeichnet
die Anreicherung der menschlichen Wahrnehmung der Realität mit zusätzlichen,
kontext-abhängigen, digitalen Informationen in Echtzeit [Azuma 1997]. Einem
Benutzer einer AR-Anwendung werden in seinem Sichtfeld zusätzliche, digitale
Informationen präsentiert, die in fester räumlicher Beziehung mit Objekten der realen
Welt stehen. Beispielsweise wird eine durch eine Kamera aufgenommene Ansicht der
realen Welt durch computergenerierte Inhalte erweitert bzw. überlagert. Diese Idee ist
in vielen Bereichen des alltäglichen Lebens bereits sehr etabliert, z.B. bei
TVÜbertragungen von Fußballspielen, wenn virtuelle Abseitslinien oder virtuelle
Entfernungsmessungen auf der Ansicht des realen Spielfeldes eingeblendet werden.</p>
        <p>
          Abbildung 1: Realitäts-Virtualitäts-Kontinuum
Erweiterte Realität definiert ein Realitäts-Virtualitäts-Kontinuum [
          <xref ref-type="bibr" rid="ref19">Milgram et al. 1994</xref>
          ].
An dessen beiden Enden stehen die vollständige Realität bzw. die vollständige
Virtualität (Abbildung 1). Dazwischen liegt der Bereich der Gemischten Realität (Mixed
Reality), der durch unterschiedliche Grade der Virtualität gekennzeichnet ist. In rein
virtuellen Umgebungen, der Virtual Reality (VR), wird die reale Umgebung komplett
durch die virtuelle Welt ersetzt und der Benutzer taucht komplett in eine virtuelle Welt
ein. Dagegen steht bei der AR die Darstellung zusätzlicher Informationen im
Vordergrund, d.h. es handelt sich lediglich um Ergänzungen zur realen Umgebung.
Während sich ein Anwender in die virtuelle Welt hineinbegeben („eintauchen“) muss
und somit den Kontakt zur realen Umgebung unterbricht, kann er in AR weiterhin die
reale Umgebung wahrnehmen. Virtuelle und reale Welt, die gleichzeitig
wahrgenommen werden können, bilden für den Nutzer eine Einheit.
        </p>
      </sec>
      <sec id="sec-2-2">
        <title>1.2 Mobile Erweiterte Realität</title>
        <p>
          In den letzten Jahren wurde die AR-Technologie auch zunehmend im mobilen Kontext
relevant und eingesetzt. Bei der mobilen Erweiterten Realität (engl.: Mobile
Augmented Reality, kurz: mAR) werden mobile Endgeräte zur Verschmelzung realer
und digitaler (virtueller) Welt genutzt, um die gemeinsame Wahrnehmung von realer
Welt und digitaler Information im Ortskontext möglic
          <xref ref-type="bibr" rid="ref11">h zu machen [Höllerer 1999</xref>
          ]. Die
reale Welt wird dabei durch die Kamera eines mobilen Endgeräts (z.B. Smartphone)
betrachtet und durch ortsabhängige, computergenerierte Inhalte in Echtzeit erweitert.
Dadurch werden die digitalen, geokodierten Informationen in ihren räumlichen Kontext
gesetzt sowie die Sicht auf die reale Welt durch diese Informationen angereichert.
Lange Zeit war Erweiterte Realität (mAR) Grundlagenforschung mit wenigen teuren
Spezialanwendungen für wenige Fachexperten. Heute bilden moderne mobile
Endgeräte (Smartphones, Tablets etc.) aufgrund ihrer hohen Leistungsfähigkeit
(Rechenleistung, Datenverbindung etc.) eine geeignete Hardware-Plattform für mAR.
Insbesondere sind wichtige Sensoren zur Realisierung von mAR in Smartphones
bereits integriert. Dazu zählen neben der Kamera zur Bildaufnahme selbst auch die
Sensoren des Inertial Measurement Unit (IMU) zur Bestimmung von Orientierung
(Rotation) des Gerätes sowie GPS-Empfänger zur Positionsbestimmung. Zudem sind
diese leistungsfähigen mobilen Endgeräte weit verbreitet, nutzerfreundlich und
kostengünstig, so dass eine massenhafte Nutzung von mAR-Anwendungen durch
Jedermann (Mitarbeiter, Bürger etc.) möglich ist.
        </p>
      </sec>
      <sec id="sec-2-3">
        <title>1.3 Geobasierte (Location-based) und bildbasierte (Image-based) mAR</title>
        <p>
          Bei der Umsetzung von mAR-Anwendung kann - basierend auf der verwendeten
Methode, um die eigene Geräteposition innerhalb der realen dreidimensionalen Welt
zu bestimmen (sog. Tracking) - grundsätzlich zwischen zwei verschiedenen
Technologien unterschieden werden. Die Bestimmung der Lage des mobilen Geräts
innerhalb der realen Umgebung ist dabei essentielle Voraussetzung zur Umsetzung
von AR, da nur mit der Kenntnis der Kameralage und der Kameraprojektion
entsprechende Objektinformationen auf der Bildschirmansicht der realen Welt an
korrekter Stelle positioniert werden können. Die Lage der Kamera ist dabei im
dreidimensionalen Raum durch sechs Freiheitsgrade bestimmt: drei Freiheitsgrade der
Orientierung (Rotation) und drei Freiheitsgrade der Position (Translation).
Bei der geobasierten mAR (GeomAR) wird die Rotation allein basierend auf den
IMUSensoren des Geräts bestimmt, also aus der Kombination aus Werten von Gyroscope,
Accelerometer und Magnetometer. Zur Bestimmung der groben Position dient das
GPS-Signal. Diese mAR-Technologie basiert somit auf etablierten, recht robusten,
einfachen und wenig rechenintensiven Technologien. Sie ist aber primär für
Einsatzgebiete unter freiem Himmel geeignet (siehe Abbildung 2, links) und
problematisch innerhalb von Gebäuden, da hier meist kein GPS-Signal verfügbar ist.
Außerdem neigt die IMU-Sensorik zur Erzeugung eines „Drifts“ bei der
Rotationsbestimmung und kann auch die absolute Blickrichtung aufgrund lokaler
Störungen des globalen Magnetfeldes oft nur ungenau erfassen [
          <xref ref-type="bibr" rid="ref3">Blum et al. 2012</xref>
          ].
        </p>
        <p>Abbildung 2: Anzeige von nahegele-genen Points of Interests (links, geobasiertes mAR) und</p>
        <p>Visualisierung von virtuellen Möbelstücken (rechts, bildbasiertes mAR)
Im Gegensatz dazu wird bei der bildbasierten mAR die Lage der Kamera allein auf
Basis einer Analyse des Kamerabildes bestimmt. Durch Erkennen von markanten
Bildpunkten (Natural Feature Tracking) im fortlaufenden Kamerabild kann somit
sowohl Rotation als auch Translation der Kamera relativ zur Umgebung bestimmt
werden [Marchand et al. 2016]. Zur Interpretation und Analyse der Kamerabilder sind
hierfür sehr komplexe und rechenintensive Algorithmen notwendig. Allerdings können
auf diese Weise unter idealen Bedingungen sehr genaue und realistische
ARÜberlagerungen ermöglicht werden. Eine große Herausforderung besteht darin,
externe Einflussfaktoren zu bewältigen und auch bei schlechten Lichtverhältnissen
(z.B. Dunkelheit), bei sich bewegenden Objekten oder bei texturloser Umgebung
brauchbare Ergebnisse zu erzeugen. Diese AR-Technologie ist dadurch eher für
Anwendungen in näherer Umgebung geeignet, z.B. zur Darstellung virtueller
Informationen zu Gegenständen in der unmittelbaren Umgebung (Abbildung 2, rechts).
Durch das Erstellen von dreidimensionalen Modellen der Umgebung kann die
Robustheit der bildbasierten Technologie weiter verbessert werden (Model-based AR).</p>
        <p>17
Der Nutzer kann sich dann innerhalb dieser virtuellen Modelle zur Laufzeit lokalisieren
und diese weiter ausbauen (SLAM) [Lahdenoja 2016]. Idealerweise sind hierfür aber
weitere Sensoren notwendig (z.B. Infrarot-Sensoren zur Tiefenmessung oder eine
zweite Kamera zum Stereosehen). In handelsüblichen Smartphones werden
derartigen zusätzlichen Sensoren allerdings noch nicht verbaut.</p>
        <p>Die folgende Tabelle fasst die oben genannten Schlüssel-Eigenschaften zusammen,
die die Verlässlichkeit und Benutzbarkeit der mAR-Ansätze bestimmen (und untersetzt
diese mit quantitativen Ergebnissen aus [Bae et al. 2016]). Diese Eigenschaften sind:
• Lokalisierung: Bestimmung der Position und Blickrichtung des Nutzers, um
reale Objekte im Blickfeld des Benutzers abzuleiten und relevante digitale
Informationen zu diesen Objekten an der richtigen Stelle darzustellen,
• Geschwindigkeit: Erforderliche Zeit zur Bestimmung der Position des Nutzers,
der relevanten Informationen und der Visualisierung der Informationen an der
richtigen Stelle,
• Robustheit: wie Abhängigkeit von externer Infrastruktur, Batterieverbrauch und
der Fähigkeit mit sich dynamisch ändernden Umgebungen umzugehen,
• Skalierbarkeit: wie Skalierung auf größere Gebiete, Anzahl der Objekte und</p>
        <p>Größe der Objekte.</p>
        <p>Metrik
LokalisierungsGenauigkeit
Lokalisierungs-Gebiet
LokalisierungsGeschwindigkeit
Externe Infrastruktur
Drift-beständig
CPU-/Batterie-Verbrauch
Skalierung zu größeren
Gebieten</p>
        <p>Location-based
1,5-35 m</p>
        <p>Image-based
0,5-2 mm
Groß (GPS-Gebiet) 3 m (Marker)
100-200 ms 20-140 ms</p>
        <p>Model-based
0,5-20 mm
10 m (Objekte)
5-240 s
GPS-Satellit
Nein
Gering
Ja
(outdoor)</p>
        <p>Optische Marker Ext. Sensoren, Modell
Ja Ja
Hoch Sehr hoch
Nein Nein
(indoor/Raum) (indoor/Gebäude)</p>
        <p>Tabelle 1: Vergleich von mAR-Ansätzen
Zusammenfassend lässt sich festhalten, dass Image-based mAR aufgrund der hohen
Fehleranfälligkeit und geringen Robustheit momentan noch nicht für den Massenmarkt
einsatzfähig scheint. Image-based AR kann - unter idealen Voraussetzungen - recht
genaue und realistische AR-Visualisierungen ermöglichen, ist jedoch sehr
fehleranfällig. Die Nachteile der Location-based mAR (ungenaue Positionierung und
Orientierung) sind hingegen für viele (Outdoor-) Anwendungsfälle hinnehmbar.</p>
      </sec>
    </sec>
    <sec id="sec-3">
      <title>2 mAR-Anwendungen im Katastrophenmanagement</title>
      <p>
        Innerhalb der vergangenen Jahre sind vielfältige mAR-Anwendungen für
unterschiedliche Einsatzgebiete entstanden [Adhani et al. 2012;
        <xref ref-type="bibr" rid="ref18">Mehler-Bicher et al.
2011</xref>
        ], z.B. in Tourismus [
        <xref ref-type="bibr" rid="ref15">Linaza &amp; Marimon 2012</xref>
        ] (z.B. zur Darstellung nahegelegener
Hotels oder Sehenswürdigkeiten), Medizin [
        <xref ref-type="bibr" rid="ref16">Maier-Hein et al. 2011</xref>
        ], Bildung [
        <xref ref-type="bibr" rid="ref2">Bischoff
2011</xref>
        ], Kulturerbe/Museen [
        <xref ref-type="bibr" rid="ref9">Haugstvedt 2012</xref>
        ], Werbung/Marketing [
        <xref ref-type="bibr" rid="ref24">Stampler 2012</xref>
        ;
        <xref ref-type="bibr" rid="ref23">Scott 2016</xref>
        ] (z.B. zur Visualisierung von 3D-Möbelstücken in der eigenen Wohnung)
oder Unterhaltung [
        <xref ref-type="bibr" rid="ref13">Joseph &amp; Amstrong 2016</xref>
        ] (z.B. Pokemon Go) (Abbildung 2).
Aufgrund der einfachen und weit verbreiteten technischen Basis (Smartphones etc.)
sowie einer Vielzahl potenzieller Anwendungen für unterschiedliche Einsatzbereiche
wird mAR ein großes wirtschaftliches Potenzial zugesprochen [
        <xref ref-type="bibr" rid="ref12">Inoue &amp; Sato 2010</xref>
        ].
Marktforschungsunternehmen prognostizieren ein starkes Wachstum für die
kommenden Jahre. Z.B. schätzt Juniper Research das Marktvolumen für 2021 auf
über 6 Mrd. $US [
        <xref ref-type="bibr" rid="ref1">Barker 2016</xref>
        ].
      </p>
      <p>Auch im Bereich des Katastrophenschutzes wird für mAR ein großes Potenzial
gesehen und es lassen sich bereits zahlreiche Anwendungsfälle für mAR finden. In
diesem Kapitel werden nach einem allgemeinen Überblick über mAR-Anwendungen
im Katastrophenschutz (Abschnitt 3.1) existierende Location-based
mARAnwendungen für Bürger zur Risiko- und Gefahren-Kommunikation aus den
Katastrophenschutz-Bereichen „Hochwasserschutz“ (Abschnitt 3.2) und „Sicherheit in
Smart Cities“ (Abschnitt 3.3) präsentiert.</p>
      <sec id="sec-3-1">
        <title>2.1 Überblick über mAR-Anwendungen im Katastrophenschutz</title>
        <p>Grundsätzlich muss beim Einsatz von mAR im Katastrophenschutz zwischen teuren
Spezialanwendungen für Einsatzkräfte und kostengünstigeren Standardanwendungen
für Bürger (Massenmarkt) unterschieden werden.</p>
        <p>Für Einsatzkräfte im Katastrophenschutz, insbesondere bei kostenintensiven oder
risikobehafteten Tätigkeiten (z.B. Militär und Gesundheit), existieren bereits zahlreiche
mAR-Spezialanwendungen. Diese zeichnen sich durch teure Spezialhardware (z.B.
Datenbrillen, Sensorik) und individuell erstellte, maßgeschneiderte Software aus.
Diese für einen speziellen Anwendungsfall erstellten Systeme sind oftmals sehr teuer,
aber dafür sehr präzise in der Darstellung der AR-Inhalte.
mAR-Anwendungen für Bürger werden dagegen meist für günstige, bei den
Endanwendern oftmals ohnehin vorhandene mobile Geräte (z.B. Smartphones,
mAR-Anwendungen oftmals günstig, aber aufgrund der eingebauten einfachen
Sensorik meist ungenau.</p>
        <p>Spezialmarkt (Einsatzkräfte)
Information in kritischen Situationen
Warnung vor Gefahren
Navigation (Zufahrtswege)
Training/Ausbildung
Echtzeit-Planung von
Maßnahmen/Objekten
Wartung komplexer Produkte/Objekte
Prozessoptimierung
Kooperation in Teams
Massenmarkt (Bürger)
Information über potentielle Gefahren
Warnung vor Gefahren
Navigation (Fluchtwege)</p>
        <p>Bildung (Lehrpfad)
komplexen Visualisierung von</p>
        <p>Maßnahmen/Objekten
Wartung privater Geräte</p>
        <p>Assistenz
Tabelle 2: mAR-Anwendungen im Katastrophenmanagement (Beispiele)
Planungen von
Tabelle 2 listet einige Beispiele für mAR-Anwendungen im Katastrophenschutz auf.
Diese unterscheiden sich aus den o.g. Gründen grundsätzlich hinsichtlich der
Nutzergruppe (Einsatzkräfte vs. Bürger). Auch inhaltlich verbergen sich hinter
ähnlichen Bezeichnungen ganz unterschiedliche Szenarien. So adressiert das
Szenario „Navigation“ bei Einsatzkräften das Bereitstellen von Informationen, um
möglichst schnell zum Ort der Katastrophe zu gelangen. Bei Bürgern wird es i.d.R.
darum gehen, Informationen bereitzustellen, damit die Bürger möglichst schnell und
sicher aus dem Gefahrengebiet an einen sicheren Ort gelangen können.</p>
      </sec>
      <sec id="sec-3-2">
        <title>2.2 mAR-Anwendungen für Bürger (Massenmarkt) im Hochwasserschutz</title>
        <p>Auch im Bereich Hochwasserschutz lassen sich zahlreiche Anwendungsfälle für mAR
finden. In diesem Abschnitt werden existierende mAR-Anwendungen für Bürger im
Bereich des Hochwasserschutzes (Hochwassergefahrenkarten, Hochwasserpegel
und -warnung, historische Hochwassermarken, aktuelle Wasserstände) vorgestellt.</p>
      </sec>
      <sec id="sec-3-3">
        <title>2.2.1 Hochwassergefahrenkarten</title>
        <p>Die EG-Hochwasserrisikomanagement-Richtlinie 2007/60 [EG 2007] sieht die
Erstellung von Gefahren- und Risikokarten für Gebiete mit potentiell signifikantem
Hochwasserrisiko und darauf aufbauenden Hochwasserrisikomanagementplänen vor.
Hochwassergefahrenkarten informieren darüber, welche Gefahr von Hochwasser
grundsätzlich ausgehen kann und leisten einen Beitrag zur Hochwasservorsorge.
Abbildung 3: Hochwassergefahrenkarte in Kartenansicht (links) und in Kameraansicht als AR (rechts)
Abbildung 3 zeigt die mobile Anwendung „HochwasserBB“, in der
Hochwassergefahrenkarten vor Ort über das mobile Endgerät auf einer Karte
(Vogelperspektive) oder als mobile Erweiterte Realität (im Kamerabild des
Smartphones) dargestellt werden. Dabei kann der Nutzer anhand von Jährlichkeiten
des Hochwasserereignisses (HQHäufig, HQ100, HQExtrem) unterschiedliche
Hochwasserszenarien wählen und sich darstellen lassen. Durch den Einsatz von mAR
kann der durch die Hochwassergefahrenkarten gezeigte, virtuelle Wasserspiegel
direkt in der Realität sichtbar gemacht werden. Damit wird es möglich,
Hochwasserszenarien realitätsnah zu erzeugen und damit die Wahrnehmung und
Analyse von Gefahren zu erweitern.</p>
        <p>
          Solche mobilen Anwendungen dienen der Verbesserung des Informationsstandes und
des Bewusstseins der Bevölkerung über die Hochwassergefahren, um die individuelle
Vorsorge zu fördern: Ein Hochwasserrisikobewusstsein besteht beim Bürger oft nur
während oder bis kurz nach dem Hochwasserereignis. Ohne ständig wiederkehrende
Hochwasserereignisse und die Erinnerung an die bestehenden Gefahren, fällt das
Risikobewusstsein relativ schnell wieder auf das Niveau vor de
          <xref ref-type="bibr" rid="ref20">m Hochwasser ab
[Müller 2010</xref>
          ]. Zur Förderung und Bewahrung des Risikobewusstseins dienen
zusätzlich zu periodisch durchgeführten Informationsveranstaltungen auch o.g.
mARAnwendung. Informationen zur Hochwasservorsorge kommen direkt vor Ort, im
Risikogebiet bei den betroffenen oder interessierten Bürgerinnen und Bürgern an. Ein
Bürger soll z.B. darüber informiert werden, ob er sich zurzeit in einem von Hochwasser
bedrohten Gebiet befindet bzw. wo potentielle Überschwemmungsgebiete liegen.
        </p>
        <p>21
Außerdem soll er wissen können, wie weit das Wasser im Hochwasserfall fließen kann
und ob sein Haus und Grund ausreichend vor Hochwasser geschützt ist. Durch eine
solche zielgerichtete Gefahren- und Risikokommunikation kann eine Verbesserung der
Eigenvorsorge erreicht werden.</p>
      </sec>
      <sec id="sec-3-4">
        <title>2.2.2 Hochwasserwarnung</title>
        <p>Damit die aktuell von einem Hochwasser bedrohten Bürger rechtzeitig Maßnahmen zu
ihrem Schutz ergreifen können, müssen sie schnell aktuelle Informationen über den
derzeitigen und erwarteten Wasserstand bzw. die aktuelle Hochwassergefahr erhalten
[Hornemann 2006].</p>
        <p>Abbildung 4: Hochwassermeldepegel auf Karte (links) und in Kamera als AR (rechts)
Abbildung 4 zeigt die App „PegelBB“, die aktuelle Hochwassermelde-Pegel aus
Brandenburg als Liste, Karte und Erweiterte Realität darstellt. Jeder Pegel wird durch
ein Icon symbolisiert über das eine Detailansicht aktiviert werden kann. In der
Detailansicht werden dann zu dem Pegel, seine Bezeichnung, Position, der aktuelle
Pegelstand, die Warnstufe sowie weitere aktuelle Informationen angezeigt.
Diese mobile Anwendung dient der besseren Informationsversorgung, frühzeitigen
Warnung und besseren Erreichbarkeit der Bevölkerung. Zusätzlich kann die
Bevölkerung durch Warnungen über die aktuelle Hochwassergefahr unterrichtet
werden. Solche Hochwasser-Warnungen können auch aktiv an die Nutzer übermittelt
werden (Push-Notification). So kann die Bevölkerung rechtzeitig etwas zu ihrem
Schutz tun (z.B. Türen oder Fenster mit Dammbalken oder Sandsäcken sichern).</p>
      </sec>
      <sec id="sec-3-5">
        <title>2.2.3 Historische Hochwassermarken und aktuelle Wasserstände (VGI)</title>
        <p>
          Historische Hochwassermarken dienen dazu, die Wahrnehmung für die bestehende
Hochwassergefahr an in der Vergangenheit überfluteten Orten zu stärken und wach
zu halten. Sie zeigen Überflutungshöhen von historischen Hochwassern an und
erinnern damit an diese vergangenen Überschwemmungen [
          <xref ref-type="bibr" rid="ref21">Petrow 2003</xref>
          ].
        </p>
        <p>
          Abbildung 5: Erfassung einer histor. Hochwassermarke (links), Messung des Wasserstands (rechts)
Abbildung 5 (links) zeigt die App „HochwasserMarkeBB“, mit der historische
Hochwassermarken im Land Brandenburg als Liste, Karte und Erweiterte Realität im
mobilen Endgerät dargestellt werden. In der Detailansicht werden ein Foto, das Datum
des Hochwassers und andere Informationen dargestellt. Darüber hinaus können von
der interessierten Bevölkerung Hochwassermarken selbst erfasst werden. Hierfür
besteht die Möglichkeit, ein Foto von der Hochwassermarke zu erstellen und
erforderliche Metadaten (z.B. Datum des Hochwassers) zu erfassen.
Abbildung 5 (rechts) zeigt die App „VGI4HWM“, die mAR nutzt, damit Freiwillige
Wasserstände mit dem Smartphone messen können [
          <xref ref-type="bibr" rid="ref4 ref5">Burkard et al. 2017</xref>
          a]. Der
Wasserstand an vordefinierten Messstellen ist eine wichtige Eingangsgröße für
Hochwasserprognosesysteme, da dieser Parameter für die Bestimmung des
Durchflusses von Bedeutung ist. Mit dieser App zeichnet der Nutzer mindestens vier
Punkte auf dem Bild ein, die bekannten Referenzpunkten entsprechen, um die
Messposition zu bestimmen. Danach wird vom Nutzer zusätzlich die Wasserlinie in
das Bild eingezeichnet, um den Wasserstand zu bestimmen.
Eine solche mobile Anwendung dient der Involvierung und Aktivierung der
Bevölkerung sowie der Steigerung des Bewusstseins der Bevölkerung über die
Gefahren und Schadenspotenziale von Hochwassern. Es soll nicht nur die Erinnerung
an vergangene Hochwasser-Ereignisse bewahrt werden. Zudem soll die Bevölkerung
zu einem kontinuierlichen Engagement für Vorsorge veranlasst werden, in dem sie
sich der spezifischen Hochwassergefahren bewusst werden.
        </p>
      </sec>
      <sec id="sec-3-6">
        <title>2.2.4 Hochwasser-Lehrpfad</title>
        <p>
          Ein (Natur-) Lehrpfad dient verschiedenen Aufgaben. Dazu gehören u.a. die
Umweltbildung, die Förderung der Regionalentwicklung, die Besucherlenkung und die
Vermittlung einer spezifischen Thematik, z.B. der Sensibilisierung und
Bewusstseinsbildung über
          <xref ref-type="bibr" rid="ref11">Hochwassergefahren [Szekeres 1999</xref>
          ].
        </p>
        <p>Mit einer mobilen AR-Anwendung können Informationen über die Position der Objekte
auf einem Lehrpfad sowie zugehörige Lern-Inhalte im Kamerabild angezeigt werden.
Dadurch können die einzelnen Objekte leichter gefunden werden (Orientierung im
Gelände, Wegweiser auf dem Pfad) und aktuelle (Zusatz-) Informationen
kostengünstig bereitgestellt werden (multimedialer, selbstgesteuerter Lernprozess).</p>
      </sec>
      <sec id="sec-3-7">
        <title>2.3 mAR-Anwendungen für Bürger zur Sicherheit in Smart Cities</title>
        <p>In diesem Abschnitt werden existierende mAR-Anwendungen für Bürger im Bereich
der Sicherheit in Smart Cities (aktuelle Verbrechensinformationen, sichere Navigation)
vorgestellt. Diese mobilen Anwendungen wurden im EU-Projekt „City.Risks“
implementiert. Das Ziel dieses Projektes besteht in der Entwicklung von IT-Lösungen,
die Sicherheitsrisiken in städtischen Umgebungen verringern oder verhindern sowie
die Angst der Bürger vor Verbrechen und Kriminalität reduzieren.</p>
      </sec>
      <sec id="sec-3-8">
        <title>2.3.1 Laufende kriminelle Vorgänge in der Umgebung</title>
        <p>Großeräumige, aktuell laufende Vorfälle (wie Unruhen, Schießereien, gewalttätige
Handlungen sowie Unruhen an öffentlichen Plätzen) neigen dazu, große
Menschenansammlungen zu beinhalten und zu überfüllten städtischen Gebieten zu
führen und können negative Auswirkungen auf Unbeteiligte haben. Das Sammeln von
Informationen über die Entstehung und Entwicklung dieser Vorgänge sowie die
rechtzeitige Information der Menschen in der unmittelbaren Umgebung kann daher von
großer Bedeutung sein.
Abbildung 6 (links) zeigt eine mobile Anwendung, die mAR nutzt, um Informationen
über aktuell laufende kriminelle Vorfälle in der Stadt zu zeigen und es den Nutzern zu
ermöglichen, selbst aktiv solche Ereignisse zu melden. Durch den Einsatz der mobilen
Anwendung bleiben die Nutzer (einschließlich Einwohner und Besucher) über die
Sicherheitsbedingungen informiert, indem Sie aktuelle Informationen erhalten. Mittels
mobiler Erweiterter Realität sehen die Nutzer Berichte über kriminelle Vorgänge in der
Umgebung und explorieren Kriminalitäts-bezogene Daten zu diesem Gebiet. Die
Nutzer dienen dabei als Sensoren (citizen sensors), indem sie kriminelle
Vorkommnisse an die verantwortlichen Stellen berichten (Fotos und Videos
aufnehmen etc.). Die verantwortlichen Stellen können basierend auf den Informationen
agieren und Informationen über ihre Aktivitäten mit der Öffentlichkeit teilen.</p>
        <p>Abbildung 6: Laufende Vorkommnisse in Umgebung (links), Sichere Navigation (rechts)
Diese mobile Anwendung dient als Zwei-Wege-Kommunikations-Kanal zwischen den
Nutzern der App und den verantwortlichen Stellen. Das Berichten und Teilen von
Informationen zwischen Bürgern und Behörden über Verbrechen mittels mobiler Apps
kann das öffentliche Vertrauen und die Wahrnehmung von Sicherheit erhöhen.</p>
      </sec>
      <sec id="sec-3-9">
        <title>2.3.2 Sichere Navigation (aus einem gefährlichen Gebiet an einen sicheren Ort)</title>
        <p>Wenn ein Bürger oder Besucher sich an einem bestimmten Ort in einer Stadt unsicher
fühlt, ist es sehr wichtig, Informationen darüber bereitzustellen, wie dieser von diesem
„unsicheren“ Ort zu einem sicheren Ort gelangen kann, wo er sich sicher fühlen kann.
Abbildung 6 (rechts) zeigt eine mobile Anwendung, die es mittels mAR ermöglicht, aus
einem gefährlichen Gebiet zu einem sicheren Ziel zu navigieren: Fühlt sich der Nutzer
der mobilen Anwendung an einem bestimmten Ort oder in seiner aktuellen Situation
unsicher, kann der Nutzer die mobile Anwendungen nutzen, um nach einem sicheren
Ziel zu suchen. Dies sind z.B. individuell gespeicherte Adressen (zu Hause, Hotel),
nahe gelegene „sichere Häfen“ (werden durch die App vorgeschlagen) oder ein
anderer Ort (über Karten- oder Adresssuche). Danach erhält der Nutzer detaillierte
Informationen über die verschiedenen Orte, wählt ein sicheres Ziel aus und fordert
eine „Sichere Route“ zu diesem Ziel über die App an. Das System berechnet die
sichere Route (inkl. sichere Alternativen) und liefert diese an den Nutzer zurück (inkl.
Angaben zu Länge, Dauer, Sicherheits-Bewertung). Der Nutzer wählt eine Route aus
und navigiert unter Nutzung von mobiler Erweiterter Realität zu dem ausgewählten
Ziel. Dabei wird die ausgewählte Route im Kamera des Smartphones als durch eine
Linie miteinander verbundene Kreise dargestellt. Näher gelegene Kreise werden
größer und undurchsichtiger dargestellt als weiter entfernte. Der Benutzer folgt der
Route, die von der Linie, die die Kreise verbindet, gezeichnet wird. Auf diese Art und
Weise kann der Nutzer mittels erweiterte Realität aus einem gefährlichen Gebiet zu
einer sicheren Ziel navigieren.</p>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>3 Vorteile und Nutzen</title>
      <p>mAR ist eine neuartige Nutzerschnittstelle, die im Ortskontext eine unmittelbare neue
mediale Erfahrung ermöglicht. Der Einsatz von mAR zur gemeinsamen Wahrnehmung
von realer und virtueller Welt im Ortskontext bietet neue Möglichkeiten zur
Wahrnehmung der Realität sowie der Rückkopplung zwischen realer und virtueller,
digitaler Welt.</p>
      <sec id="sec-4-1">
        <title>3.1 Wahrnehmung von realer und virtueller Welt als Einheit</title>
        <p>Mit mAR können Objekte der natürlichen Welt mit zusätzlichen digitalen Informationen
angereichert werden. Z.B. können zu einem Bauwerk an einem Gewässer, z.B. ein
Staudamm, zusätzliche Informationen zu seiner Geschichte, Modelle der
verschiedenen Phasen seiner Entstehung, Animationen zur Bauart, Informationen
zum Betreiber etc. im Kamerabild dargestellt werden. Doch dabei werden die
(hydrologisch) relevanten Informationen (Messwerte, Modelldaten etc.) nicht nur über
Ihren Raumbezug abgefragt (ortsbezogene Dienste), sondern auch intelligent mit der
26
„realen Welt“ verknüpft. Die Sicht auf die reale Welt wird durch digitale Informationen
angereichert und die digitalen Informationen werden derart in ihren realen, räumlichen
Kontext gesetzt, dass reale und virtuelle Welt als Einheit wahrgenommen werden. Dies
ermöglicht eine neuartige Wahrnehmung der Wirklichkeit sowie der digitalen Daten.
Wahrnehmung des Ortes: Die Anreichung der Realität mit Informationen ermöglicht
einerseits eine neuartige Wahrnehmung des Ortes. Die als erweiterte Realität
dargestellten Inhalte können Informationen aus der Vergangenheit, Gegenwart oder
Zukunft sein. Damit können Dinge sichtbar gemacht werden, die nicht mehr sichtbar
sind (z.B. nicht mehr vorhandene Gebäude wie ein im Krieg zerstörtes Haus, von
vergangenen Hochwassern verursachte Schäden), die derzeit nicht sichtbar sind (z.B.
aktuelle Informationen zur Wasserqualität, zum Pegelstand oder zum derzeitigen
Hochwasserrisiko) oder die noch nicht sichtbar sind (z.B. das Aussehen eines
Gewässers nach der Renaturierung, Planungen von Überflutungsflächen und
Hochwasserschutzmaßnahmen, wie Verwallungen, Deiche etc.).</p>
        <p>Durch den Einsatz von mobiler Erweiterter Realität kann bspw. der virtuelle
Wasserspiegel eines Hochwassers (Ergebnisse von Hochwassersimulationen,
verschiedene Überflutungsszenarien bei bestimmten Pegelständen, bestimmten
Jährlichkeiten oder historische Hochwasserereignisse) vor Ort und direkt in der
Realität sichtbar gemacht. Damit werden Hochwasserszenarien realitätsnah
dargestellt sowie die Wahrnehmung und Analyse von Hochwasser-Gefahren
verbessert, was eine genauere Hochwasser-Gefährdungsanalyse für ein konkretes
Gebäude ermöglicht. Dies ist von großem Nutzen bei der Identifizierung von
Schadenspotenzialen als Grundlage für das Einleiten von Schutzmaßnahmen als auch
für die Identifizierung von Schadensursachen nach einem Hochwasser, der
Verbesserung des Informationsstandes und des Bewusstseins der Bevölkerung über
die Hochwassergefahren und die Notwendigkeit von Eigenvorsorge.</p>
      </sec>
      <sec id="sec-4-2">
        <title>Wahrnehmung der digitalen Informationen: Andererseits ermöglicht die Anreichung</title>
        <p>der Realität mit Informationen aber auch eine neuartige und verbesserte
Wahrnehmung der als erweiterte Realität im Ortskontext dargestellten digitalen
(Zusatz-) Informationen. So kann genauer die Korrektheit und Validität von digitalen
Informationen, wie numerisch berechneten Daten (z.B. Hochwassergefahrenkarten)
oder gemessenen Werten (z.B. Hochwassermeldepegeln) überprüft werden, wenn
diese vor Ort im Kamerabild mit der durch sie charakterisierten Realität verknüpft
dargestellt werden. Darüber hinaus ermöglicht dies eine bessere Analyse und
Interpretation der digitalen Daten vor Ort (z.B. welche Gefahr geht von einem
Hochwasser für mein Haus aus) und somit eine bessere Entscheidungsfindung (z.B.
einzuleitende Hochwasser-Schutzmaßnahmen). Auf diese Weise ist also eine bessere
Interpretation und genauere Validierung der Daten und somit eine effizientere
Entscheidungsunterstützung möglich.</p>
      </sec>
      <sec id="sec-4-3">
        <title>3.2 Herstellen des Realitäts-Virtualitäts-Kreislaufs</title>
        <p>Doch die mit mAR im Kontext ihrer realen Welt dargestellten und mit der realen Welt
als Einheit wahrgenommenen digitalen Informationen haben ihren Ursprung meist in
dieser realen Welt. Sie werden oftmals (als Geodaten) über Messungen manuell durch
die Nutzer oder automatisiert durch spezielle Sensoren und Sensornetze erfasst (z.B.
Pegeldaten) und direkt oder in weiterverarbeiteter Form (z.B. numerische Berechnung
von Hochwasserszenarien) in entsprechenden Informationssystemen (z.B. GeoDB,
GIS) gespeichert. Diese digitalen Daten und Modelle werden nun mit mAR nicht nur
vor Ort verfügbar macht, sondern wieder in ihrem realen Kontext visualisiert, d.h. auch
mit der Realität vor Ort verknüpft, so dass Realität und ortsbezogene Daten als Einheit
wahrgenommen werden können.</p>
        <p>
          Abbildung 7: Kreislauf von der Realität über das digitale, virtuelle
          <xref ref-type="bibr" rid="ref20">Modell zur Realität [Wagner 2010</xref>
          ]
In diesem Sinne schließt mAR den Kreis von der Realität über die Digitalisierung
wieder zurück zur Realität. Die Digitalisierung ist also keine Endstation, sondern eine
Zwischenstufe [
          <xref ref-type="bibr" rid="ref17">McGuire 2006</xref>
          ;
          <xref ref-type="bibr" rid="ref26">Wagner 2010</xref>
          ]. Damit kann der Kreis zu einem
Realitäts-Virtualitäts-Kreislauf geschlossen werden, der Rückkopplungen zwischen
Realität und Darstellung in mAR ermöglicht:
Erfassung der Realität: Die in den mobilen Geräten verfügbaren Sensoren
ermöglichen nicht nur die kontextbezogene Visualisierung der digitalen Inhalte als
erweiterte Realität. Sie ermöglichen auch die Erfassung neuer Messwerte und neuer
Inhalte durch die eingebauten Sensoren (digital sensors) sowie die Nutzer (human
sensors), die Bearbeitung der digitalen Inhalte als auch die Interaktion mit den Inhalten
im Kontext der Realität. So können vor Ort die gespeicherten Daten aktualisiert oder
neue Daten erhoben werden. Beispielsweise können mit der eingebauten Kamera
Wasserstände als Input für Hochwasserprognosemodelle gemessen [
          <xref ref-type="bibr" rid="ref4 ref5">Burkard et al.
2017</xref>
          a], Hochwasserschäden erfasst oder die Größe von Gebäuden vermessen
werden. Mit den eingebauten Sensoren können auch die Höhe (Barometer) oder die
Geschwindigkeit des Nutzers bestimmt werden. Der Nutzer kann auch mit anderen
Geräten gemessene Werte über das Gerät erfassen, z.B. Bodenfeuchte. Zwar lassen
sich aufgrund der noch hohen Ungenauigkeit klassische, genormte
Datenerhebungsprozesse (z.B. Windstärke) nicht umsetzen. Es können aber
innovative Geschäftsprozesse realisiert werden, bei denen schwächere
Anforderungen an das Messverfahren gestellt werden können (z.B. Vermessung von
Räumen für die Organisation einer Veranstaltung).
        </p>
        <p>Gestaltung der Realität: Darüber hinaus kann der Nutzer mit den digitalen, virtuellen
Objekten im Kontext der Realität interagieren und damit die zukünftige Realität planen
und ggf. gestalten, z.B. im Rahmen Analyse verschiedener Hochwasserszenarien oder
der Planung zu Maßnahmen an Gewässern (z.B. bei einer Renaturierung oder
Hochwasserschutzmaßnahmen): Bspw. können zur besseren Analyse und
Entscheidungsfindung bei einer geplanten Baumaßnahme für den Hochwasserschutz
an einer kritischen Flussstelle unterschiedliche Alternativen bzw. Planungsvarianten
(Deichbau, Ringdeich, Rückverlegung etc.). im Kamerabild als Erweiterte Realität (z.B.
in Form von 3D-Visualisierungen) dargestellt werden, indem die Realität mit den
3DModellen der verschiedenen Planungsvarianten überlagert wird. So können die
einzelnen Alternativen vor Ort in der Realität bewertet und miteinander vergleichen
29
werden. Diese Art der Visualisierung kann den Planungsaufwand deutlich reduzieren,
da die Auswirkungen plastischer werden und die Analyse präziser durchgeführt
werden kann. Durch die verschiedenen Planungsvarianten können Alternativen
diskutiert und eine optimale Entscheidung getroffen werden, wie die Realität gestaltet
werden soll.</p>
        <p>Erforderlich sind hierfür allerdings Techniken zur Unterstützung der Interaktion mit den
In-Kontext-Visualisierungen der Daten, um die Auswirkungen von solchen Prozessen
zu analysieren (monitoring), zu bestimmen und mit Mitarbeitern, Partnern, Betroffenen
etc. zu diskutieren, um damit mögliche Lösungen zu erhalten.</p>
      </sec>
      <sec id="sec-4-4">
        <title>3.3 Rückkopplungen durch den informierten Nutzern</title>
        <p>mAR-fähige Endgeräte (Smartphones, Tablets etc.) sind kostengünstig und
massenhaft verbreitet. Dadurch können mAR-Anwendungen durch eine riesige Anzahl
von Nutzern eingesetzt werden - also nicht nur von wenigen Fachexperten, sondern
von einer sehr großen Anzahl an Nicht-Experten (z.B. „normale“ Bürger und
Mitarbeiter), um mit den Daten – insb. Gefahren- und Risko-Informationen - zu
interagieren, neue Daten zu erfassen oder die vorhandenen Daten zu bewerten, zu
ergänzen oder zu modifizieren bzw. zu aktualisieren. Dies bietet neue Möglichkeit für
Transparenz, Partizipation und die Effizienz der Datenverarbeitung.</p>
        <p>
          Transparenz: mAR bietet die Möglichkeit, ortsbasierte Gefahren- und
RisikoInformationen in die Breite zu bringen. Die Verfügbarkeit und Nutzung von Daten als
mAR auf weit verbreiteten mobilen Geräten (Smartphones, Tablets etc.) bietet
Transparenz gegenüber den Mitarbeitern, den Kunden und Partnern sowie der
Bevölkerung. Beispielsweise können Bürger im Falle eines
Überschwemmungsgebiets erkennen, ob sie betroffen sein könnten. Z.B. können bei Planung und Bau
einer Hochwasserschutzmaßnahme mittels mAR alle Beteiligten (z.B. Mitarbeiter,
Bürgermeister, Umweltgruppen, betroffene Bürger etc.) frühzeitig die Auswirkungen
der Hochwasserschutzmaßnahmen visuell und akustisch erleben und sich eine
objektivere Meinung bilden, in dem die Umsetzung der Maßnahme mit ihren
Auswirkungen als mAR visualisiert wird. Dies ist insbesondere für Behörden, wie
Landesumweltämter, von großer und aktueller Bedeutung (Open Data).
Beispielsweise müssen Hochwassergefahren- und risikokarten bis 2013 europaweit
aufgrund der HWRM-RL
          <xref ref-type="bibr" rid="ref6">(2007/60 EG 2007)</xref>
          den Bürgern zugänglich gemacht und
veröffentlicht werden. Die frühzeitige und realitätsnahe Information der betroffenen
Bürger über die Auswirkungen einer Hochwasserschutzmaßnahme hilft, Probleme
frühzeitig zu erkennen und Konfliktpotenzial abzubauen.
        </p>
      </sec>
      <sec id="sec-4-5">
        <title>Bürgerbeteiligung (Partizipation): Es zeigt sich angesichts der</title>
        <p>gesellschaftspolitischen Diskussion bei neuen Großprojekten (Stuttgart21, BER,
Windkraftanlagen etc.), dass klassische Planungsmechanismen und -Instrumente oft
nicht mehr gesellschaftsfähig sind bzw. eher technologieorientiert als bedarfsorientiert
verfolgt werden. Um zu einer zukunftsfähigen Konsensbildung der Bevölkerung
beizutragen, sind dringend neue Partizipationsprozesse und Beteiligungsverfahren
notwendig. Die höhere Transparenz durch die Verfügbarkeit und realitätsnahe
Darstellung von Gefahren- und Risiko-Informationen als mAR auf mobilen Geräten
ermöglicht auch eine stärkere Involvierung der Bevölkerung in Diskussions- und
Entscheidungsprozesse, z.B. bei der Entscheidung über Baumaßnahmen zum
Hochwasserschutz. Ein interessierter oder womöglich betroffener Bürger kann direkt
in die Überflutungsgebiete mit seinem Mobilgerät „hineingehen“ bzw. „hineinschauen“
und damit die zuvor berechneten Informationen in der realen Welt besser verstehen.
Die Bevölkerung kann frühzeitig die Auswirkungen von Baumaßnahmen visuell und
akustisch erleben, sich eine objektive Meinung bilden und somit zur Teilnahme an den
Entscheidungsprozessen angeregt werden. Mit dieser Technologie kann aber auch
gemeinsam vor Ort mit allen Beteiligten die Situation diskutiert und erforderliche
Maßnahmen (z.B. zum Hochwasserschutz) diskutiert und beschlossen werden. Damit
können häufig kritische Naturschützer wie auch betroffene Bürger, aber nicht zuletzt
auch der Auftraggeber, z.B. ein Bürgermeister, die berechneten Auswirkungen bzw.
die geplanten Maßnahmen realitätsnah und in situ erfahren und sich mit den anderen
darüber austauschen.</p>
        <p>Effizienz der Datenverarbeitung: Die hohe Verfügbarkeit mobiler Endgeräte und
deren Nutzung durch Jedermann im Ortskontext ermöglicht auch eine effizientere
Erfassung und Verarbeitung der ortsbezogenen Daten, da eine größere Menge an
Nutzern an den Prozessen der Datenerhebung, -verarbeitung, -analyse,
bereitstellung beteiligt werden kann. Zudem bietet dies aber auch enormes Potenzial
für die Nutzung der Idee des Crowd Sourcing, d.h. die Delegation der Aufgabe der
Erfassung, Erzeugung, Zusammenstellung und Verarbeitung von ortsbezogenen
Daten an eine größere Anzahl an Menschen (z.B. Mitarbeiter, registrierte Freiwillige,
31
ungebundene Helfer oder sogar die allgemeine Öffentlichkeit). Beispielsweise können
Nutzer neue Daten erfassen (z.B. aktuelle Hochwasserstände und
Hochwasserschäden, historische Hochwassermarken, Zustand von Gewässern,
Gebäuden an Gewässern) oder vorhandene Daten bewerten bzw. Feedback geben,
i.S.v. Plausibilität, Aktualität, Korrektheit, Nützlichkeit von Daten, z.B. Pegeldaten. Dies
kann für Unternehmen aber auch Behörden (u.a. Umweltämter, z.B. bei der Erfassung
von Hochwasserschäden) große Effizienzsteigerung und Entlastung der ohnehin
knappen Personalressourcen bedeuten.</p>
        <p>Aufgaben des Hochwasserschutzes sind oft mit einem hohen personellen / manuellen
Aufwand verbunden. Den Behörden werden immer mehr Aufgaben übertragen, wobei
gleichzeitig immer weniger Mittel zu ihrer Erfüllung zur Verfügung stehen. Ein Ausweg
aus diesem Dilemma scheint darin zu bestehen, dass Teile der Bevölkerung einen Teil
der Aufgaben übernehmen bzw. bei der Erfüllung der Aufgaben unterstützen.
Anwohner in Hochwassergebieten haben eine hohe Eigenmotivation, aktuelle
Informationen zu erhalten. Via mAR können diese ihren Beitrag zu einer
Informationsverfügbarkeit, -aktualität und -qualität beitragen. Gleichzeitig werden sie
in die Aufgaben des Hochwasserschutzes involviert, was die Bildung und Bewahrung
eines Bewusstseins für das Hochwasserrisiko unterstützt. Beispielsweise könnten
interessierte Bürger die Aufgabe der Beobachter ehrenamtlich übernehmen und die
Wasserstände an den Pegellatten automatisiert über mAR erfassen oder nach einem
Hochwasser die entstandenen Schäden oder Geschwemmsellinien dokumentieren.</p>
      </sec>
    </sec>
    <sec id="sec-5">
      <title>4 Probleme und Herausforderungen</title>
      <p>Mobile Augmented Reality verfügt über ein großes Einsatz-Potenzial, insb. im
Katastrophenschutz. Doch um dieses Potenzial auch auszuschöpfen, werden
Lösungsansätze für die bestehenden Probleme und Herausforderungen benötigt.
Tabelle 3 gibt einen Überblick über derzeit bestehende Probleme und
Herausforderungen aus verschiedenen Bereichen.</p>
      <p>Bereich Problem / Herausforderung
Nutzerfreundlichkeit Nutzerfreundliche Handhabung (Hands-free)</p>
      <p>Nutzerfreundliche Steuerung (Interaktion)</p>
      <p>Blickgerechte Bilddarstellung (Sensorik)
Technologie Ausdauernde Batterieleistung</p>
      <p>Ausreichende Rechenleistung
Leistungsfähige Netzwerkinfrastruktur</p>
      <p>32
Regulation
Ökonomie</p>
      <p>Vertrauenswürdiger Datenschutz
Schutz der Privatsphäre</p>
      <p>Hohe Entwicklungskosten</p>
      <p>Tabelle 3: Hürden des Einsatzes und der Verbreitung von mAR</p>
      <sec id="sec-5-1">
        <title>4.1 Nutzerfreundlichkeit (Usability)</title>
        <p>Für Bürger im Bereich des Massenmarktes werden heutzutage meist handelsübliche
Smartphones oder Tablets verwendet. Diese Endgeräte stellen die digitale Information
unmittelbar im natürlichen Blickfeld des Nutzers dar. Damit ist keine gesonderte
Kopfbewegung und/oder kognitive Leistung mehr erforderlich, um die Information –
z.B. von einer Karte – aufzunehmen und sich in der Realität vorzustellen. Die
Darstellung und Handhabung der Information im eigentlichen Sichtfeld des Nutzers ist
zweifelsohne weniger ablenkend, als dies bei den derzeit üblichen mobilen Endgeräten
der Fall ist. Der Grad der Nutzerfreundlichkeit dieser mobilen Endgeräte weist aber
noch einige Probleme auf und lässt sich noch weiter steigern.</p>
        <p>Handhabung (Hands-free): Die Nutzer empfinden es als oftmals als störend und
unangenehm, mit vorgehaltenem mobilen Endgerät (Smartphone etc.) durch die
Gegend zu laufen. Zudem wirkt sich längeres Halten eines mobilen Geräts mit
ausgestrecktem Arm ermüdend auf den Arm aus. Momentan wird daher viel mit
‘Hands-free‘-Anwendungen experimentiert. Z.B. bieten Datenbrillen ganz neue
Möglichkeiten. Aber auch gegenüber Datenbrillen zeigen sich viele Nutzer abgeneigt,
ihr tägliches Leben mit dem auffälligen Headset zu verbringen. Zudem wird auch von
„Motion Sickness“ (Übelkeit, Schwindelgefühlen etc.) bei längerer Nutzung von
Datenbrillen berichtet [Lawson 2014]. Das zukünftige Potenzial wird daher bei
Augmented-Reality-Kontaktlinsen gesehen.</p>
      </sec>
      <sec id="sec-5-2">
        <title>Blickgerechte Darstellung (Sensorik): Die größte Hürde der technischen</title>
        <p>
          Umsetzung lag bislang meist im räumlichen Tracking. So neigt beispielsweise beim
location-based mAR die IMU-Sensorik zur Erzeugung eines „Drifts“ bei der
Rotationsbestimmung und kann auch die absolute Blickrichtung aufgrund lokaler
Störungen des globalen Magnetfeldes sowie die Position des Nutzers aufgrund
ungenauer Messwerte oft nur ungenau erfassen [
          <xref ref-type="bibr" rid="ref3">Blum et al. 2012</xref>
          ]. Beim vision-based
AR kann die Überlagerung eines Objektes mit digitalen Inhalten fehlschlagen, wenn
das Objekt bspw. durch eine unpassende Perspektive, schlechte Lichtverhältnisse
oder eine zu schnelle Bewegung nicht erkannt werden kann. Zukünftig sind in diesem
Bereich Verbesserungen in der Sensorik und bildverarbeitenden Algorithmik
erforderlich und erwartbar.
        </p>
        <p>
          Interaktion (Steuerung): Ein weiteres Problem bei den derzeit vorhandenen
Realisierungen von mobiler Augmented Reality besteht in der Steuerungsform der
Interaktion zwischen Mensch und Maschine. Eine Interaktion mit den als mAR
dargestellten Objekten ist derzeit kaum möglich und auch die Steuerung der
Anwendungen ist oftmals kompliziert. Hier erscheinen beispielsweise Steuerungen
mittels intuitiver, natürlicher Körperbewegungen des Menschen (insbesondere auch
Gesten-Steuerung) besonders zukunftsweisend [
          <xref ref-type="bibr" rid="ref10">Heng et al. 2015</xref>
          ].
        </p>
      </sec>
      <sec id="sec-5-3">
        <title>4.2 Technologie</title>
        <p>Aber auch auf der Ebene der technischen Infrastruktur sind noch einige Hürden zu
bewältigen, damit mAR sinnvoll eingesetzt werden kann:
Rechenleistung: Für mAR-Bildberechnungen und -darstellungen in Echtzeit bzw.
ohne Verzögerungen ist eine hohe Rechenleistung erforderlich, um Diskrepanzen
zwischen Bewegungen in der realen Welt und angezeigten Inhalten zu vermeiden.
Durch die rapide Entwicklung der Rechenleistung, insbesondere auch im Bereich
mobiler Technologien, können Verzögerungen mittlerweile weitgehend vermieden
werden. Doch in einfachen, handelsüblichen Smartphones ist die erforderliche
Rechenleistung oftmals nicht ausreichend verfügbar.</p>
        <p>Ausdauernde Batterieleistung: Die erforderliche hohe Rechenleistung führt zu
einem hohen Stromverbrauch. Momentan verfügbare Batterien können die
handelsüblichen mobilen Geräte oftmals nicht ausreichend lange versorgen und
erreichen im Betrieb teilweise auch hohe Temperaturen. In der praktischen
Anwendung können daher derzeit mAR-Anwendungen nur für kurze Zeit, aber nicht
im längeren Betrieb eingesetzt werden, was insbesondere beim Einsatz während einer
Katastrophe, in der ein Aufladen der Batterie zeitlich oder technisch nicht möglich ist,
problematisch ist.</p>
      </sec>
      <sec id="sec-5-4">
        <title>Leistungsfähige Kommunikationsnetze: Für mAR-Anwendungen ist aufgrund der</title>
        <p>oftmals umfangreichen Datenflüsse meist eine mobile Datenverbindung mit einem
hohen Datendurchsatz erforderlich. Es wird ein hinreichend leistungsfähiges
Breitbandnetz benötigt, das in der Lage ist, die Datenmengen schnell, zuverlässig und
vollständig zu transportieren. Ist das Kommunikationsnetz nicht hinreichend
leistungsfähig (insb. hinsichtlich Verfügbarkeit und Geschwindigkeit) kann dies bei
mAR-Anwendungen zu Verzögerungen bei der Bild-Darstellung führen (ähnlich wie bei
unzureichender Rechenleistung). Während in Städten meist eine gute
MobilnetzAbdeckung und -Anbindung verfügbar ist, besteht diese im ländlichen Raum oftmals
noch nicht. Ein flächendeckendes, breitbandiges Netz ist in Deutschland vorerst nicht
in Sicht. Mit dem begonnenen Ausbau der digitalen Infrastruktur und des „schnellen
Internets“ in Deutschland wird aber in naher Zukunft eine entsprechende Infrastruktur
zur Verfügung stehen.</p>
      </sec>
      <sec id="sec-5-5">
        <title>4.3 Regulation - Datenschutz und -sicherheit</title>
        <p>
          Die Gewährleistung von Datenschutz und Datensicherheit ist unabdingbar für den
Erfolg der mAR. Doch mit mAR sind auch in diesem Bereich einige Probleme
verbunden [
          <xref ref-type="bibr" rid="ref22">Roesner et al. 2014</xref>
          ], insbesondere weil mAR-Anwendungen (wie
DatenBrillen) meist ständig an sind und Daten aus der Umgebung erfassen (alwayson,
always-sensing inputs) sowie der Richtigkeit der dargestellten Daten vertraut werden
muss. Datenschützer befürchten, dass mit mAR in die Persönlichkeitsrechte
eingegriffen wird. Vor allem die Möglichkeit einer automatischen Gesichtserkennung
(vision-orientierte AR) erzeugt Angst vor Überwachungssystemen und provoziert
starke Diskussionen sowie gesellschaftliche Widerstände. Die Anbieter müssen das
Vertrauen der Kunden gewinnen und über Risiken vollständig aufklären. Hierbei sind
Transparenz sowie geteilte Kontrolle und Steuerung Schlüsselelemente. Dies führt zu
einem mündigen Bürger, der sich bewusst für die Nutzung eines Services entscheiden
kann. Zudem ist ein internationaler Rechtsrahmen – wie von der EU-Kommission
bereits gefordert - erforderlich.
        </p>
      </sec>
      <sec id="sec-5-6">
        <title>4.4 Ökonomie - Entwicklungskosten</title>
        <p>
          Die hohen Entwicklungskosten für mAR-Anwendungen sind ein weiteres großes
Hindernis für die weite Verbreitung von mAR-Anwendungen. Derzeit sind
mARAnwendungen oftmals Einzel- und Speziallösungen. Es fehlen effiziente,
standardisierte Entwicklungswerkzeuge für die gesamte mAR-Wertschöpfungskette:
von der Content-Produktion, über die Datenintegration, -verarbeitung und
-bereitstellung bis hin zur Darstellung der Inhalte auf den mobilen Endgeräten. Es muss durch
Plattformen einfacher werden, mAR-Content zu produzieren und Anwendungen in
kürzerer Zeit und mit weniger Ressourcen zu erstellen. Einige erste Schritte wurden
bereits unternommen: zum einen in Richtung der Entwicklung von
mAR-InhaltePlattformen, z.B. holgAR [
          <xref ref-type="bibr" rid="ref7 ref8">Fuchs-Kittowski et al. 2012</xref>
          ] als auch von mAR-SDKs, z.B.
MolAR [
          <xref ref-type="bibr" rid="ref4 ref5">Burkard et al. 2017</xref>
          b].
        </p>
      </sec>
    </sec>
    <sec id="sec-6">
      <title>5 Zusammenfassung</title>
      <p>Mit der neuen Generation an weit verbreiteten und leistungsfähigen mobilen
Endgeräten (Smartphones etc.) ist eine technische Basis vorhanden, die die
Entwicklung und den Einsatz eine Vielzahl verschiedenere mAR-Anwendung in
unterschiedlichsten Bereich ermöglicht, insb. auch im Bereich der Gefahren- und
Risiko-Kommunikation,
z.B. im</p>
      <sec id="sec-6-1">
        <title>Hochwasserschutz und im</title>
      </sec>
      <sec id="sec-6-2">
        <title>Urbanen</title>
        <p>Sicherheitsmanagemement.
mAR reichert die menschliche Wahrnehmung der Realität mit zusätzlichen digitalen
(virtuellen) Informationen an. Dies ermöglicht neue Wege der Wahrnehmung des
gegenwärtigen Ortes sowie der Gefahren und Risiken an diesem Ort als auch der
digitalen (Gefahren- und Risiko-) Information selbst. Die digitale (virtuelle) Information
wird mit der umgebenden Realität als Einheit wahrgenommen. mAR unterstützt damit
zum einen die Erfassung der gegenwärtigen Realität und zum anderen auch die
Gestaltung der zukünftigen Realität. Der Einsatz von mAR im Katastrophenschutz
ermöglicht darüber hinaus eine stärkere Einbindung der Bevölkerung, was
Transparenz, Partizpation sowie eine effizientere Datenverarbeitung ermöglichen
kann. Allerdings sind, um diese Potenziale ausschöpfen zu können, noch eine Reihe
von Problemen und Herausforderungen in unterschiedlichen Bereichen zu bewältigen.</p>
      </sec>
    </sec>
    <sec id="sec-7">
      <title>6 Literaturverzeichnis</title>
      <p>Adhani, N.I.; Awang Rambli, D.R. (2012): A Survey of Mobile Augmented Reality Applications.</p>
      <p>In: Int. Conf. Future Trends in Computing and Communication Technologies, S. 89-95.
Amin, D.; Govilkar, S. (2015): Comparative Study of Augmented Reality SDK's. In: Int. J.</p>
      <p>Computational Sciences &amp; Applications 5(1), S. 11-26.</p>
      <p>Azuma, R.T.A. (1997): A Survey of Augmented Reality. In: Presence - Teleoperators and</p>
      <p>Virtual Environments. 6(4), S. 355-385.</p>
      <p>Bae, H.; Walker, M.; White, J.; Pan, Y.; Sun, Y.; Golpavar-Fard, M. (2016): Fast and scalable
structure-from-motion based localization for high-precision mobile augmented reality
systems. In: mUX J Mob User Exp 5(4), doi:10.1186/s13678-016-0005-0.
KATWARN (2017): KATWARN – Projektwebseite, via: www.katwarn.de. Letzter Zugriff:
29.08.2017.
Reality for On-Patient Visualization of Medical Images. In: Bildverarbeitung für die Medizin
- Algorithmen - Systeme – Anwendungen, Berlin: Springer, S. 389-393.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>Barker</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          (
          <year>2016</year>
          ): Augmented Reality - Developer &amp; Vendor
          <string-name>
            <surname>Strategies</surname>
          </string-name>
          2016
          <article-title>-2021</article-title>
          . Juniper Research.
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Bischoff</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          (
          <year>2011</year>
          ):
          <article-title>Dienste für Smartphones an Universitäten - ein plattformunabhängiges Augmented Reality Campus-Informationssystem für iPhone und Android-Smartphones</article-title>
          . In: Roth,
          <string-name>
            <surname>J.</surname>
          </string-name>
          ; Werner,
          <string-name>
            <surname>M.</surname>
          </string-name>
          (Hrsg.):
          <article-title>Ortsbezogene Anwendungen und Dienste. 8</article-title>
          . GI/KuVSFachgespräch, Berlin: Logos, S.
          <fpage>127</fpage>
          -
          <lpage>135</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>Blum</surname>
            ,
            <given-names>J.R.</given-names>
          </string-name>
          ; Greencorn,
          <string-name>
            <given-names>D.G.</given-names>
            ;
            <surname>Cooperstock</surname>
          </string-name>
          ,
          <string-name>
            <surname>J.R.</surname>
          </string-name>
          (
          <year>2012</year>
          )
          <article-title>: Smartphone Sensor Reliability for Augmented Reality Applications</article-title>
          . In: Zheng,
          <string-name>
            <given-names>K.</given-names>
            ;
            <surname>Li</surname>
          </string-name>
          ,
          <string-name>
            <given-names>M.</given-names>
            ;
            <surname>Jiang</surname>
          </string-name>
          ,
          <string-name>
            <surname>H.</surname>
          </string-name>
          (
          <article-title>Hrsg.) Mobile and Ubiquitous Systems: Computing, Networking,</article-title>
          and
          <article-title>Services (MobiQuitous2012)</article-title>
          .
          <source>LNICST</source>
          , vol.
          <volume>120</volume>
          , Berlin Heidelberg: Springer, S.
          <fpage>127</fpage>
          -
          <lpage>138</lpage>
          , doi:10.1007/978-3-
          <fpage>642</fpage>
          -40238-8_
          <fpage>11</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <surname>Burkard</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Fuchs-Kittowski</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          <article-title>;</article-title>
          <string-name>
            <surname>O'Faolain de Bhroithe</surname>
            ,
            <given-names>A</given-names>
          </string-name>
          , (
          <year>2017</year>
          ):
          <article-title>Mobile crowd sensing of water level to improve flood forecasting in small drainage areas</article-title>
          . In: Denzer,
          <string-name>
            <surname>R.</surname>
          </string-name>
          (Hrsg.):
          <source>Environmental Software Systems (ISESS2017)</source>
          , Berlin: Springer (im Erscheinen).
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>Burkard</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Fuchs-Kittowski</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Himberger</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Fischer</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Pfennigschmidt</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          (
          <year>2017</year>
          )
          <article-title>: Mobile Location-based Augmented Reality Framework</article-title>
          . In: Denzer,
          <string-name>
            <surname>R.</surname>
          </string-name>
          (Hrsg.):
          <source>Environmental Software Systems (ISESS2017)</source>
          , Berlin: Springer (im Erscheinen).
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>EG</surname>
          </string-name>
          <year>2007</year>
          /60 (
          <year>2007</year>
          ):
          <article-title>Richtlinie 2007/60/EG des Europäischen Parlaments und des Rates vom 23</article-title>
          .
          <article-title>Oktober 2007 über die Bewertung und das Management von Hochwasserrisiken</article-title>
          .
          <source>ABl. L 288 vom 06.11</source>
          .
          <year>2007</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>Fuchs-Kittowski</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          (
          <year>2012</year>
          )
          <article-title>: Mobile Erweiterte Realität</article-title>
          .
          <source>In: WISU</source>
          <volume>41</volume>
          (
          <issue>2</issue>
          ), S.
          <fpage>216</fpage>
          -
          <lpage>224</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Fuchs-Kittowski</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Simroth</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Himberger</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Fischer</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          (
          <year>2012</year>
          )
          <article-title>: A content platform for smartphone-based mobile augmented reality</article-title>
          . In: Arndt,
          <string-name>
            <given-names>H.K.</given-names>
            ;
            <surname>Knetsch</surname>
          </string-name>
          ,
          <string-name>
            <given-names>G.</given-names>
            ;
            <surname>Pillmann</surname>
          </string-name>
          ,
          <string-name>
            <surname>W.</surname>
          </string-name>
          (Hrsg.):
          <fpage>EnviroInfo2012</fpage>
          . Aachen: Shaker, S.
          <fpage>403</fpage>
          -
          <lpage>412</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Haugstvedt</surname>
            ,
            <given-names>A.C.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Krogstie</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          (
          <year>2012</year>
          ):
          <article-title>Mobile augmented reality for cultural heritage</article-title>
          .
          <source>In: IEEE Int. Symp. on Mixed and Augmented Reality (ISMAR</source>
          <year>2012</year>
          ), S.
          <fpage>247</fpage>
          -
          <lpage>255</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <string-name>
            <surname>Heng</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Hörster</surname>
            ,
            <given-names>A.K.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Karollus</surname>
          </string-name>
          (
          <year>2015</year>
          )
          <article-title>: Augmented Reality - Bei Spezialanwendungen sollte Deutschland von dynamischen Zukunftsmarkt profitieren können</article-title>
          . Frankfurt/M.: Deutsche Bank Research.
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <string-name>
            <surname>Höllerer</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Feiner</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ; Terauchi,
          <string-name>
            <given-names>T.</given-names>
            ;
            <surname>Rashid</surname>
          </string-name>
          ,
          <string-name>
            <given-names>G.</given-names>
            ;
            <surname>Hallaway</surname>
          </string-name>
          ,
          <string-name>
            <surname>D.</surname>
          </string-name>
          (
          <year>1999</year>
          )
          <article-title>: Exploring MARS: Developing Indoor and Outdoor User Interfaces to a Mobile Augmented Reality System</article-title>
          .
          <source>In: Computers and Graphics</source>
          , Elsevier Publishers,
          <volume>23</volume>
          (
          <issue>6</issue>
          ), S.
          <fpage>779</fpage>
          -
          <lpage>785</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          <string-name>
            <surname>Inoue</surname>
            ,
            <given-names>K.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Sato</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          (
          <year>2010</year>
          )
          <article-title>: Mobile Augmented Reality Business Models</article-title>
          .
          <source>In: Mobile Augmented Reality Summit</source>
          , pp.
          <fpage>1</fpage>
          -
          <lpage>2</lpage>
          , http://www.perey.com/MobileARSummit/TonchidotMobileARBusiness-Models.pdf. Letzter Zugriff:
          <volume>29</volume>
          .
          <fpage>08</fpage>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          <string-name>
            <surname>Joseph</surname>
            ,
            <given-names>B.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Armstrong</surname>
            ,
            <given-names>D.G.</given-names>
          </string-name>
          (
          <year>2016</year>
          ):
          <article-title>Potential perils of peri-Pokémon perambulation: the dark reality of augmented reality?</article-title>
          <source>In: Oxf Med Case Rep 10, S. 265-266</source>
          , doi:10.1093/omcr/omw080
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          <string-name>
            <surname>Lahdenoja</surname>
            ,
            <given-names>O.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Suominen</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          ; Säntti,
          <string-name>
            <given-names>T.</given-names>
            ;
            <surname>Lehtonen</surname>
          </string-name>
          ,
          <string-name>
            <surname>T.</surname>
          </string-name>
          (
          <year>2015</year>
          ):
          <article-title>Recent advances in monocular model-based tracking: a systematic literature review</article-title>
          .
          <source>In:Technical Report, No. 8 (August</source>
          <year>2015</year>
          ), University of Turku.
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          <string-name>
            <surname>Linaza</surname>
          </string-name>
          , M.T.;
          <string-name>
            <surname>Marimon</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          (
          <year>2012</year>
          )
          <article-title>: Evaluation of Mobile Augmented Reality Applications for Tourism</article-title>
          . In: Fuchs,
          <string-name>
            <surname>M.</surname>
          </string-name>
          et al. (
          <year>Hrsg</year>
          .):
          <article-title>Information and Communication Technologies in Tourism</article-title>
          . Wien: Springer, S.
          <fpage>260</fpage>
          -
          <lpage>271</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          <string-name>
            <surname>Maier-Hein</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Franz</surname>
            ,
            <given-names>A.M.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Fangerau</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Schmidt</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Seitel</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Mersmann</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ; Kilgus,
          <string-name>
            <given-names>T.</given-names>
            ;
            <surname>Groch</surname>
          </string-name>
          ,
          <string-name>
            <given-names>A.</given-names>
            ;
            <surname>Yung</surname>
          </string-name>
          ,
          <string-name>
            <surname>K.</surname>
          </string-name>
          ; dos Santos, T.R.; Meinzer,
          <string-name>
            <surname>H.-P.</surname>
          </string-name>
          (
          <year>2011</year>
          )
          <article-title>: Towards Mobile Augmented Marchand</article-title>
          , E.;
          <string-name>
            <surname>Uchiyama</surname>
            ,
            <given-names>H.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Spindler</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          (
          <year>2016</year>
          )
          <article-title>: Pose Estimation for Augmented Reality: A Hands-On Survey</article-title>
          .
          <source>In: IEEE Transactions on Visualization and Computer Graphics</source>
          ,
          <volume>22</volume>
          (
          <issue>12</issue>
          ), S.
          <fpage>2633</fpage>
          -
          <lpage>2651</lpage>
          , doi:10.1109/TVCG.
          <year>2015</year>
          .2513408
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          <string-name>
            <surname>McGuire</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          (
          <year>2006</year>
          ):
          <article-title>The role of location in the mobilty revolution</article-title>
          . Los Angeles: World LBS Forum.
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          <string-name>
            <surname>Mehler-Bicher</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Reiß</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Steiger</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          (
          <year>2011</year>
          )
          <article-title>: Augmented Reality - Theorie und Praxis</article-title>
          . München: De Gruyter Oldenbourg.
        </mixed-citation>
      </ref>
      <ref id="ref19">
        <mixed-citation>
          <string-name>
            <surname>Milgram</surname>
            ,
            <given-names>P.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Takemura</surname>
            ,
            <given-names>H.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Utsum</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Kishino</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          (
          <year>1994</year>
          ):
          <article-title>Augmented reality - A class of displays on the reality-virtuality continuum</article-title>
          .
          <source>In: SPIE conference on telemanipulator and telepresence technologies</source>
          , vol.
          <volume>2351</volume>
          , S.
          <fpage>282</fpage>
          -
          <lpage>292</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref20">
        <mixed-citation>
          <string-name>
            <surname>Müller</surname>
            ,
            <given-names>U.</given-names>
          </string-name>
          (
          <year>2010</year>
          )
          <article-title>: Hochwasserrisikomanagement - Theorie und Praxis</article-title>
          .
          <source>Wiesbaden: Vieweg &amp; Teubner.</source>
        </mixed-citation>
      </ref>
      <ref id="ref21">
        <mixed-citation>
          <string-name>
            <surname>Petrow</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Thieken</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Kreibich</surname>
            ,
            <given-names>H.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Merz</surname>
            ,
            <given-names>B.</given-names>
          </string-name>
          (
          <year>2003</year>
          )
          <article-title>: Vorsorgende Maßnahmen zur Schadensminderung</article-title>
          . In:
          <article-title>Hochwasservorsorge in Deutschland - Lernen aus der Katastrophe 2002 im Elbegebiet</article-title>
          .
          <source>Schriftenreihe des DKKV 29</source>
          ,
          <string-name>
            <surname>Bonn</surname>
          </string-name>
          , Deutsches Komitee für Katastrophenvorsorge e. V. (DKKV).
        </mixed-citation>
      </ref>
      <ref id="ref22">
        <mixed-citation>
          <string-name>
            <surname>Roesner</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Kohno</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Molnar</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          (
          <year>2014</year>
          )
          <article-title>: Security and privacy for augmented reality systems</article-title>
          .
          <source>In: Communications of ACM</source>
          ,
          <volume>57</volume>
          (
          <issue>4</issue>
          ), S.
          <fpage>88</fpage>
          -
          <lpage>96</lpage>
          , DOI: http://dx.doi.org/10.1145/2580723.2580730. Letzter Zugriff:
          <volume>29</volume>
          .
          <fpage>08</fpage>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref23">
        <mixed-citation>
          <string-name>
            <surname>Scott</surname>
            ,
            <given-names>G.D.</given-names>
          </string-name>
          (
          <year>2016</year>
          ):
          <article-title>Enabling smart retail settings via mobile augmented reality shopping apps</article-title>
          .
          <source>In: Technological Forecasting and Social Change</source>
          ,
          <article-title>Elsevier doi</article-title>
          .org/10.1016/j.techfore.
          <year>2016</year>
          .
          <volume>09</volume>
          .032 . Letzter Zugriff:
          <volume>29</volume>
          .
          <fpage>08</fpage>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref24">
        <mixed-citation>
          <string-name>
            <surname>Stampler</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          (
          <year>2012</year>
          ):
          <article-title>Augmented reality makes shopping more personal - New mobile application from IBM Research helps both consumers and retailers</article-title>
          .
          <source>IBM Research</source>
          , http://www.research.ibm.com/articles/augmented-reality.
          <source>shtml. Letzter Zugriff: 29.08</source>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref25">
        <mixed-citation>
          <string-name>
            <surname>Szekeres</surname>
            ,
            <given-names>P.</given-names>
          </string-name>
          (
          <year>1999</year>
          )
          <article-title>: Naturlehrpfade. 3</article-title>
          . Aufl.,
          <string-name>
            <surname>Marburg</surname>
          </string-name>
          , Institut für Ökologie, URL: http://www.projektwerkstatt.de/download/texte_cd/reader/lehrpfade.pdf. Letzter Zugriff:
          <volume>29</volume>
          .
          <fpage>08</fpage>
          .
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref26">
        <mixed-citation>
          <string-name>
            <surname>Wagner</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          (
          <year>2010</year>
          ):
          <article-title>Geoinformatik von GIS- über GDI- ins LBS-Zeitalter</article-title>
          . In: Zipf,
          <string-name>
            <given-names>A.</given-names>
            ;
            <surname>Behnke</surname>
          </string-name>
          ,
          <string-name>
            <given-names>K.</given-names>
            ;
            <surname>Hillen</surname>
          </string-name>
          ,
          <string-name>
            <given-names>F.</given-names>
            ;
            <surname>Schäfermeyer</surname>
          </string-name>
          ,
          <string-name>
            <surname>J.</surname>
          </string-name>
          (Hrsg.):
          <article-title>Geoinformatik 2010 - Die Welt im Netz</article-title>
          . Konferenzband, Kiel: Gesellschaft für Geoinformatik GfGI, S.
          <fpage>140</fpage>
          -
          <lpage>148</lpage>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>