<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>3D-Überwachung des OP-Saals - stören sich PMD-Kameras, Trackingsysteme und Spielkonsolenzubehör?</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>P. Nicolai</string-name>
          <email>philip.nicolai@kit.edu</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>H. Mönnich</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>J. Raczkowsky</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>H. Wörn</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Karlsruher Institut für Technologie, Institut für Prozessrechentechnik, Automation und Robotik</institution>
          ,
          <addr-line>Karlsruhe</addr-line>
          ,
          <country country="DE">Germany</country>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>Schlüsselworte: 3D-Kamera</institution>
          ,
          <addr-line>Kinect, Überwachungssystem, Operationssaal, Evaluation</addr-line>
        </aff>
      </contrib-group>
      <pub-date>
        <year>2011</year>
      </pub-date>
      <fpage>165</fpage>
      <lpage>169</lpage>
      <abstract>
        <p>Für verschiedene heutige und künftige Aufgaben im Operationssaal können 3D-Kameras nützliche Ergänzungen darstellen oder neue Möglichkeiten eröffnen. Neben klassischen Time-of-Flight Kameras erfreut sich derzeit vor allem die Microsoft Kinect wachsender Beliebtheit - trotz ihrer Vermarktung als Spielkonsolenzubehör. Da die Mehrzahl der 3DKameras ebenso wie markerbasierte Trackingsysteme mit aktiver Aussendung von Licht im Infrarotbereich arbeitet, besteht die Gefahr, dass diese sich bei simultaner Verwendung ohne aufwendige Synchronisierung gegenseitig stören. Anhand dreier Kameramodelle und eines Trackingsystems wird dieser Sachverhalt untersucht und aufgezeigt, welche Kombinationen ohne entsprechende Mechanismen keine nennenswerten Beeinflussungen aufweisen und zwischen welchen Komponenten eine Synchronisierung notwendig ist.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>Problem</title>
      <p>Diese Arbeit untersucht exemplarisch drei verschiedene 3D-Kameras sowie ein markerbasiertes Trackingsystem auf
gegenseitige Beeinflussungen beim simultanen Einsatz. Der Fokus liegt nicht auf der absoluten Genauigkeit der
Messungen, sondern auf der Wiederholgenauigkeit bzw. dem Rauschen der Tiefenbilddaten. Hier ist im Gegensatz zu
Abweichungen der absoluten Genauigkeit keine „einfache“ Korrektur mit distanz- oder situationsabhängigen Korrekturwerten
möglich.
2</p>
    </sec>
    <sec id="sec-2">
      <title>Methoden</title>
      <p>Die hier untersuchten 3D-Kameras basieren auf verschiedenen Techniken zur Erfassung der räumlichen Informationen,
die im Folgenden kurz vorgestellt werden. Im Anschluss folgt eine Beschreibung des Testsetups, mit dem die
Experimente durchgeführt wurden. Tabelle 1 bietet zunächst eine Übersicht über die Spezifikationen und Modalitäten der
3DKameras.</p>
      <sec id="sec-2-1">
        <title>Auflösung</title>
      </sec>
      <sec id="sec-2-2">
        <title>Blickwinkel</title>
      </sec>
      <sec id="sec-2-3">
        <title>Messverfahren</title>
      </sec>
      <sec id="sec-2-4">
        <title>Infrarotsignal</title>
      </sec>
      <sec id="sec-2-5">
        <title>Wellenlänge</title>
      </sec>
      <sec id="sec-2-6">
        <title>Ausgabe</title>
      </sec>
      <sec id="sec-2-7">
        <title>Anschluss</title>
      </sec>
      <sec id="sec-2-8">
        <title>PMD[vision] S3</title>
        <p>64 x 48 px
40° h, 30° v
Time of Flight
getriggert
850 nm
3D-Daten
Ethernet</p>
      </sec>
      <sec id="sec-2-9">
        <title>PMD[vision] CamCube 2.0</title>
        <p>204 x 204 px
40° h, 40° v
Time of Flight
getriggert
870 nm
3D-Daten, Grauwertbild
USB</p>
      </sec>
      <sec id="sec-2-10">
        <title>Microsoft Kinect</title>
        <p>640 x 480 px
58° h, 45° v
LightCoding</p>
        <p>konstant
nicht verfügbar
3D-Daten, Farbbild, Audiodaten</p>
        <p>USB</p>
        <p>Tabelle 1: Spezifikationen der untersuchten 3D-Kameras</p>
      </sec>
      <sec id="sec-2-11">
        <title>2.1 Time-of-Flight-Kameras</title>
        <p>Die Kameras der Firma PMDTec, die PMD[vision] S3 und PMD[vision] CamCube 2.0, verwenden zur Erfassung des
Tiefenbildes das klassische Time-of-Flight-Verfahren. Sie senden kurze Lichtblitze im Infrarotbereich aus und messen
die Laufzeit des Lichtes, also die Zeit, bis der ausgesandte Lichtblitz nach einer Reflektion wieder die Kamera erreicht.
Aus der gemessenen Laufzeit kann mit sehr geringem rechnerischen Aufwand die Entfernung des reflektierenden
Objektes zur Kamera errechnet werden. Um eine theoretische Genauigkeit im Millimeterbereich erreichen zu können sind
hierbei allerdings extrem kurze Schaltzeiten von wenigen Picosekunden erforderlich, die nur von speziell für diesen
Zweck entwickelten Kamerachips erreicht werden. Zur Erhöhung der Genauigkeit werden in der Regel mehrere
Messungen mit verschiedenen Integrationszeiten durchgeführt und zu einem einzigen Messergebnis kombiniert. Die
Kameras können in drei verschiedenen, fest vorgegebenen Frequenzen betrieben werden.</p>
      </sec>
      <sec id="sec-2-12">
        <title>2.2 Microsoft Kinect</title>
        <p>
          Die Microsoft Kinect basiert auf einer von der israelischen Firma PrimeSense entwickelten Technik namens
LightCoding. Ein IR-Laser projiziert dauerhaft ein festes Muster in die zu erfassende Szene. Die mit diesem Muster
beleuchtete Szene wird von einem herkömmlichen CMOS-Chip mit IR-Passfilter aufgenommen, der sich im
Kameragehäuse um einige Zentimeter vom Laser entfernt befindet. Somit liegen Aufnahmen der Szene im IR-Bereich aus zwei
Perspektiven vor, aus denen durch klassische Triangulation ein Tiefenbild errechnet werden kann. Der im Vergleich zu
ToF-Kameras ungleich höhere Rechenaufwand schlägt sich in einer erhöhten Latenz von ca. 300 Millisekunden nieder.
Prinzip bedingt ist die Verwendung von Standard-Bauteilen möglich, so dass die Kameras zu sehr niedrigen Preisen
produziert werden können. Da die Microsoft Kinect in erster Linie als Spielekonsolenzubehör an Privatanwender
vermarktet wird sind die Zugriffmöglichkeiten auf kamerainterne Parameter allerdings stark eingeschränkt. Im Rahmen der
Open Natural Interaction-Initiative steht seit dem Spätjahr 2010 ein Framework mit Treiber für den Anschluss und die
Steuerung der Microsoft Kinect am PC bereit [5]. Aufgrund der großen Resonanz außerhalb der originären Nutzung an
einer Spielekonsole, insbesondere im Bereich Forschung und Kunst, veröffe
          <xref ref-type="bibr" rid="ref4">ntlichte Microsoft im Juni 2011</xref>
          die erste
Version eines offiziellen Software Development Kits zur nicht-kommerziellen Nutzung.
        </p>
      </sec>
      <sec id="sec-2-13">
        <title>2.3 Markerbasiertes Trackingsystem</title>
        <p>Als markerbasiertes Trackingsystem kommt das ARTtrack2-System der ART GmbH mit sechs Kameras zum Einsatz.
Diese erleuchten die Szene jeweils mit kurzen Infrarotblitzen (Wellenlänge 880 nm), nehmen ein Bild im infraroten
Bereich auf und segmentieren darin die hochreflektiven Markerkugeln. Aus diesen zweidimensionalen, segmentierten
Bildern können mittels der bekannten Kamerakalibrierung und der bekannten räumlichen Anordnung der Kameras die
Positionen der Marker berechnet werden. Die Funktionsweise entspricht aus dem Operationssaal bekannten
Trackingsystemen (z.B. NDI Polaris). Der Vorteil des ARTtrack2-Systems liegt in der höheren Anzahl an Kameras, die das System
genauer und weniger anfällig für Verdeckungen macht sowie ein deutlich vergrößertes Arbeitsvolumen abdecken kann.</p>
      </sec>
      <sec id="sec-2-14">
        <title>2.4 Experimente</title>
        <p>Zur Untersuchung gegenseitiger Beeinflussungen wurde ein Teststand aufgebaut, der je eine 3D-Kamera jeder Bauart
unterhalb des vorhandenen, deckenmontierten ART-Systems enthielt (siehe Abb. 1). Alle Kameras waren auf ein planes
Testobjekt gerichtet, das per Roboter bewegt werden konnte. Zur präzisen Bestimmung der Position des Testobjekts kam
ein passiver FARO-Messarm zum Einsatz, der mechanisch mit dem Roboter gekoppelt wurde. Zusätzlich wurden die
Positionen der Ecken des Testobjekts über das ART-System erfasst, um eventuelle Verwindungen berücksichtigen zu
können. In dieser (im Rahmen der hier behandelten Tests festen) Konfiguration wurden für jede Messung 100
aufeinanderfolgende Frames aus jeder aktiven Kamera aufgezeichnet. Diese Messwerte bilden die Grundlagen für die im
folgenden Abschnitt dargestellten Auswertungen.



3</p>
      </sec>
    </sec>
    <sec id="sec-3">
      <title>Ergebnisse</title>
      <p>Abb. 1: links: Testaufbau mit PMD[vision] CamCube im Vordergrund, rechts: Positionierung des Testobjekts
mittels Roboter und Positionsaufzeichnung durch passiven FARO-Messarm
Getestet wurde das Zusammenspiel verschiedener Kameras unterschiedlicher und gleicher Bauart. Folgende Punkte
waren hierbei von besonderem Interesse, da anhand der technischen Daten gegenseitige Beeinflussungen nahe liegen:
Stört das ARTtrack2-System die PMD[vision] CamCube, da die Wellenlängen nur 10 nm auseinanderliegen?
Beeinflussen sich die ToF-Kameras untereinander?</p>
      <p>Stören sich mehrere Kinect-Kameras, da die projizierten Punktmuster nicht eindeutig zugeordnet werden können?
Aufgrund der Vielzahl der getesteten Kombinationen sollen hier nur einige Ergebnisse exemplarisch genannt werden.
Sämtliche im Folgenden genannten Werte beruhen auf der Auswertung des jeweils mittigen Kamerapixels und wurden
über alle 100 Aufnahmen der jeweiligen Messreihe berechnet.
Überraschenderweise beeinflusst der unsynchronisierte Betrieb des ARTtrack2-Systems parallel zur PMD[vision]
CamCube deren Wiederholgenauigkeit nur minimal: die Standardabweichung der Entfernung verringerte sich in den
Messungen beim Hinzuschalten des Trackingsystems von 3.2 mm auf 2.8 mm. Die Messwerte weisen weiterhin keine
signifikanten periodischen Schwankungen oder Ausreiser auf, wie sie evtl. aufgrund der unterschiedlichen Frequenzen
des ARTtrack2-Systems und der PMD[vision] CamCube zu erwarten gewesen wären (siehe Abb. 2).
Auch der Betrieb verschiedener ToF-Kameras ergab keine unbekannten Probleme. Wie in früheren Arbeiten gemessen
[6] stören sich mehrere PMD[vision] S3 beim Betrieb mit gleicher Frequenz massiv: die Standardabweichung liegt bei
19.4 mm im Vergleich zu 2.1 mm bei Einzelbetrieb – ein Anstieg um den Faktor zehn. Werden die PMD[vision] S3
jedoch mit Frequenzmultiplexing und (bei der Verwendung von mehr als drei Kameras) zusätzlich mit Zeitmultiplexing
betrieben, so ergibt sich für die Standardabweichung ein Wert von 1.6 mm, vergleichbar mit dem Einzelbetrieb. Eine
gegenseitige Beeinflussung der PMD[vision] CamCube und der PMD[vision] S3 konnte nicht festgestellt werden.
Abb. 2: links: CamCube ohne ARTtrack2, rechts: CamCube mit aktivem ARTtrack2; x-Achsen: Abweichung vom
Mittelwert in mm, y-Achsen: Einzelbilder innerhalb der Messreihe; durchgezogene Linie jeweils „korrekte“ Distanz
Bei der simultanen Nutzung zweier Kinect im Abstand von ca. 30 cm, die auf dieselbe Fläche gerichtet sind, wäre je
nach gewählter Implementierung eine starke Beeinflussung plausibel. Diese tritt jedoch in engen Grenzen erst ein, wenn
die zweite Kinect in Relation zur ersten im Raum bewegt wird (Rotation, Translation): hierbei steigt die
Standardabweichung von 1.4 mm auf 2.0 mm. Dies lässt sich anhand des projizierten Musters erklären, das in seiner konkreten
Ausprägung globale und lokale Informationen kodiert. Anhand dieser Merkmale lassen sich Überlagerungen durch eine
zweite Kinect anscheinend sehr effektiv als fremde Störquelle verwerfen. Einschränkend muss jedoch erwähnt werden,
dass die im Test vorliegende frontale Ausrichtung der Kinect auf eine ebene Fläche ideale Bedingungen für das
LightCoding-Verfahren darstellt.
4</p>
    </sec>
    <sec id="sec-4">
      <title>Diskussion</title>
      <p>Die hier vorgestellten Ergebnisse zeigen, dass der Betrieb mehrerer 3D-Kameras und des ARTtrack2-Systems bei
vergleichbarer Wiederholgenauigkeit ohne weitere Maßnahmen möglich ist. Mit Ausnahme der PMD[vision] S3 Kameras
untereinander kann damit auf aufwendige Synchronisierung, Abschirmung oder ähnliche Maßnahmen verzichtet werden.
Dies ermöglicht in Bezug auf die getesteten Komponenten ein modulares Konzept für die Überwachung des
Operationssaals: je nach Bedarf können verschiedene Kamerasysteme kombiniert werden.</p>
      <p>So könnte beispielsweise bei einer Operation, für die die Nutzung von prä- oder intraoperativ aufgenommenen Bilddaten
von Bedeutung ist, eine Microsoft Kinect zur Gestensteuerung eingesetzt werden. Bei einer anderen, roboterassistierten
Operation würde dagegen ein System aus ToF-Kameras zur Freiraumüberwachung verwendet, bei einer dritten
Operation ließen sich beide kombinieren.</p>
      <p>Diese Arbeit wurde finanziert durch das siebte Rahmenprogramm der Europäischen Kommission innerhalb des Projekts
„SAFROS – Patient Safety in Robotic Surgery“ unter Grant. Nr. 248960.
5</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <given-names>U.</given-names>
            <surname>Hagn</surname>
          </string-name>
          ,
          <string-name>
            <given-names>R.</given-names>
            <surname>Konietschke</surname>
          </string-name>
          ,
          <string-name>
            <given-names>A.</given-names>
            <surname>Tobergte</surname>
          </string-name>
          ,
          <string-name>
            <given-names>M.</given-names>
            <surname>Nickl</surname>
          </string-name>
          ,
          <string-name>
            <given-names>S.</given-names>
            <surname>Jörg</surname>
          </string-name>
          ,
          <string-name>
            <given-names>B.</given-names>
            <surname>Kübler</surname>
          </string-name>
          , G. Passig,
          <string-name>
            <given-names>M.</given-names>
            <surname>Gröger</surname>
          </string-name>
          ,
          <string-name>
            <given-names>F.</given-names>
            <surname>Fröhlich</surname>
          </string-name>
          ,
          <string-name>
            <given-names>U.</given-names>
            <surname>Seibold</surname>
          </string-name>
          ,
          <string-name>
            <given-names>L.</given-names>
            <surname>Le-Tien</surname>
          </string-name>
          ,
          <string-name>
            <given-names>A.</given-names>
            <surname>Albu-Schäffer</surname>
          </string-name>
          ,
          <string-name>
            <given-names>A.</given-names>
            <surname>Nothhelfer</surname>
          </string-name>
          ,
          <string-name>
            <given-names>F.</given-names>
            <surname>Hacker</surname>
          </string-name>
          ,
          <string-name>
            <given-names>M.</given-names>
            <surname>Grebenstein</surname>
          </string-name>
          , G. Hirzinger, DLR MiroSurge:
          <article-title>a versatile system for research in endoscopic telesurgery</article-title>
          ,
          <source>International Journal of Computer Assisted Radiology and Surgery</source>
          , Springer Berlin / Heidelberg,
          <year>2009</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>L.J.M. van den</surname>
            <given-names>Bedem</given-names>
          </string-name>
          ,
          <article-title>Realization of a demonstrator slave for robotic minimally invasive surgery</article-title>
          ,
          <source>Technische Universiteit Eindhoven</source>
          ,
          <year>2010</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          [3]
          <string-name>
            <given-names>P.</given-names>
            <surname>Nicolai</surname>
          </string-name>
          ,
          <string-name>
            <given-names>H.</given-names>
            <surname>Mönnich</surname>
          </string-name>
          ,
          <string-name>
            <given-names>J.</given-names>
            <surname>Raczkowsky</surname>
          </string-name>
          ,
          <string-name>
            <given-names>H.</given-names>
            <surname>Wörn</surname>
          </string-name>
          ,
          <string-name>
            <given-names>J.</given-names>
            <surname>Bernshausen</surname>
          </string-name>
          ,
          <article-title>Überwachung eines Operationssaals für die kooperative robotergestützte Chirurgie mittels neuartiger Tiefenbildkameras, Tagungsband der 9</article-title>
          . Jahrestagung der Deutschen Gesellschaft für Computer- und Roboterassistierte Chirurgie, Der andere Verlag,
          <year>2010</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <given-names>N.</given-names>
            <surname>Chung-Sayers</surname>
          </string-name>
          ,
          <article-title>Team uses Xbox Kinect to see Patient Images during Surgery (Presse-Mitteilung)</article-title>
          ,
          <source>Sunnybrook Health Science Centre</source>
          ,
          <year>2011</year>
          .
          <source>Abgerufen am 04.05</source>
          .2011 von http://sunnybrook.ca/uploads/N110314.pdf Open Natural Interaction, www.openni.org,
          <source>abgerufen am 03.05</source>
          .2011
          <string-name>
            <given-names>J.</given-names>
            <surname>Bernshausen</surname>
          </string-name>
          ,
          <string-name>
            <given-names>J.</given-names>
            <surname>Wahrburg</surname>
          </string-name>
          ,
          <string-name>
            <given-names>P.</given-names>
            <surname>Nicolai</surname>
          </string-name>
          ,
          <string-name>
            <given-names>H.</given-names>
            <surname>Mönnich</surname>
          </string-name>
          ,
          <article-title>PMD-Kameratechnik als Teil eines Sicherheitskonzepts für robotergestützte Operationen, Tagungsband der 9. Jahrestagung der Deutschen Gesellschaft für Computerund Roboterassistierte Chirurgie</article-title>
          , Der andere Verlag,
          <year>2010</year>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>