<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>GPU-basierte Verarbeitung von hochaufgelösten Videodaten zur Navigation in der laparoskopischen Prostatektomie</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>M. Müller</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>A. Seitel</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>M. Baumhauer</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>A. Jalal</string-name>
          <xref ref-type="aff" rid="aff1">1</xref>
          <xref ref-type="aff" rid="aff2">2</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>D. Teber</string-name>
          <xref ref-type="aff" rid="aff1">1</xref>
          <xref ref-type="aff" rid="aff2">2</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>J. Rassweiler</string-name>
          <xref ref-type="aff" rid="aff1">1</xref>
          <xref ref-type="aff" rid="aff3">3</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>H.P. Meinzer</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>und Lena Maier-Hein</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Abteilung für Medizinische und Biologische Informatik, Deutsches Krebsforschungszentrum (DKFZ)</institution>
          ,
          <addr-line>Heidelberg</addr-line>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>Schlüsselworte: Augmented Reality</institution>
          ,
          <addr-line>Navigation, Prostatektomie, GPU, laparoskopisch</addr-line>
        </aff>
        <aff id="aff2">
          <label>2</label>
          <institution>Universitätsklinik Heidelberg</institution>
        </aff>
        <aff id="aff3">
          <label>3</label>
          <institution>Urologische Klinik des SLK-Klinikums am Gesundbrunnen Heilbronn</institution>
        </aff>
      </contrib-group>
      <fpage>2</fpage>
      <lpage>5</lpage>
      <abstract>
        <p>In der medizinischen Bildverarbeitung müssen immer größere Datenmengen verarbeitet werden, während die Echtzeitfähigkeit der eingesetzten Systeme mitunter eine entscheidende Rolle spielt. Um diesen Anforderungen gerecht zu werden, werden zunehmend Grafikkarten-Prozessoren (GPU, graphics processing unit) eingesetzt, die aufgrund ihrer Architektur prädestiniert sind, um parallele Rechenschritte auf großen Datensätzen durchzuführen. Insbesondere für minimal-invasive, laparoskopische Eingriffen, in denen eine Echtzeitanzeige der Videobilddaten unabdingbar ist, birgt eine GPU-basierte Datenverarbeitung großes Potential. In diesem Beitrag stellen wir die GPU-basierte Optimierung von Algorithmen vor, welche innerhalb eines Navigationssystems für die laparoskopische Entfernung der Prostata zum Einsatz kommen. Für die Verarbeitung der hochaufgelösten Laparoskopie-Bilder konnten Geschwindigkeitszuwächse um den Faktor 6 erzielt werden. Dies zeigt das Potential von modernen GPUs für bildverarbeitende Echtzeitsysteme in der Laparoskopie.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>Problem</title>
      <p>(Prostata- Kapsel, Urethra, Neuro-vaskuläre Bündel).</p>
      <p>5. Einblenden der relevanten Strukturen in das Videobild durch Echtzeitanalyse der eingehenden Videobilddaten.
Dabei kann die Echtzeitanalyse grob in die Teile Farbraumsegmentierung, Registrierung und Bildentzerrung unterteilt
werden.</p>
      <p>Die Registrierung von Videobild und Ultraschallbildvolumen erfolgt mit Hilfe der eingebrachten Navigationshilfen. Die
farbigen Köpfe müssen hierzu in Echtzeit in den laparoskopischen Videodaten detektiert werden. Hierfür werden die
ankommenden Videobilder in den HSV-Farbraum konvertiert. Jeder Farbkanal wird dann anhand von empirisch
festgelegten HSV-Werten gefiltert. Aus den so gewonnenen Binärbildern werden die Konturen extrahiert und die
wahrscheinlichsten Kandidaten als Navigationshilfe festgelegt. Die Konvertierung der Farbraums, die Zerlegung in die einzelnen
Farbkanäle, sowie die Anwendung einer Segmentierung mit zweiseitigem Schwellwert wurden hier als parallelisierbare
Einzelschritte auf die Grafikkarte portiert.</p>
      <p>
        Aus den Korrespondenzen der so extrahierten 2D-Bildpunkte und den einmalig lokalisierten 3D-Punkten im
Ultraschallvolumen wird eine Registrierung mittels projektiver Geometrie errechnet [
        <xref ref-type="bibr" rid="ref5">5</xref>
        ]. Hier wird ein Levenberg-Marquardt
Algorithmus angewendet, der durch Minimierung des Rückprojektionsfehlers eine geeignete Registrierung errechnet.
Für die Eliminierung von Ausreißern wird ein RANSAC-Ansatz (engl. „random sample consensus“, [
        <xref ref-type="bibr" rid="ref6">6</xref>
        ]) verwendet.
Die einzelnen, voneinander unabhängigen Iterationen werden nach der Umstellung auf die GPU parallel ausgeführt.
Damit die zuvor segmentierten Strukturen korrekt dargestellt werden, müssen die einzelnen Videobilder schließlich
entzerrt werden. Bei der Entzerrung werden die Pixel der eingehenden Bilder einzeln anhand der kalibrierten
Verzerrungsparameter im Bild verschoben und durch Interpolation ein neues verzerrungsfreies Bild ermittelt. Die Verschiebung und
Interpolation kann für einzelne bzw. eine Untermenge von Pixeln unabhängig auf der GPU berechnet werden.
Für große Teile der Implementierung wurde die Computer-Vision Bibliothek OpenCV verwendet, die in der Version 2.3.
die Möglichkeit bietet, mittels Nvidia CUDA Technologie („Compute Unified Device Architecture“), Algorithmen auf
Grafikkarten-Prozessoren auszuführen. CUDA bietet eine Schnittstelle, um eigene Algorithmen auf Nvidia-Grafikkarten
zu implementieren und von der Leistung moderner GPUs zu profitieren.
      </p>
      <p>Für die Experimente wurde folgende Hardware verwendet: Intel Quad CPU Q6600 2.40GHz, 4,00 GB RAM, NVIDIA
GeForce GTX 460. Die Evaluierung der portierten Algorithmen wurde auf aufgezeichneten, hochaufgelösten
Videodaten aus bereits durchgeführten Prostata-Resektionen durchgeführt.
3</p>
    </sec>
    <sec id="sec-2">
      <title>Ergebnisse</title>
      <p>Die drei folgenden Diagramme fassen die Ergebnisse der GPU- und CPU-basierten Implementierung für die jeweiligen
Algorithmen zusammen. Abb. 2 zeigt die Geschwindigkeitsveränderung bei der Farbraumsegmentierung, Abb. 3 und
Abb. 4 stellen die Ergebnisse der Re-Implementierung des Registrierungsalgorithmus und der Bildentzerrung grafisch
dar.</p>
      <p>224
Abb. 2 Laufzeiten von CPU- und GPU-Implementierung der Farbraumsegmentierung in der Gegenüberstellung.
Abb. 3 Laufzeiten von CPU- und GPU-Implementierung des Registrierungs-Algorithmus in der Gegenüberstellung.
Abb. 4 Laufzeiten von CPU- und GPU-Implementierung der Bildentzerrung in der Gegenüberstellung.</p>
      <p>225
4</p>
    </sec>
    <sec id="sec-3">
      <title>Diskussion</title>
      <p>Wie die Ergebnisse zeigen, erfüllt Re-Implementierung der für die Navigation verwendeten Algorithmen die
Erwartungen an den Geschwindigkeitzuwachs und garantiert so eine nahezu echtzeitfähige Computerassistenz während der
laparoskopischen Prostatektomie. Wie die Ergebnisse für die Re-Implementierung der Farbraumsegmentierung und des
Registrierungsalgorithmus zeigen, kostet die initiale Speicherallokation auf der Grafikkarte einen beträchtlichen Zeitanteil.
Solange aber die Auflösung der ankommenden Videobilder konstant ist, amortisiert sich die zeitaufwändige
Speicherallokation bereits nach wenigen Zeitschritten. Im Fall der Bildentzerrung ist die Grafikkarte bereits im ersten Durchlauf
schneller. Hier lässt sich der größte Geschwindigkeitsunterschied feststellen. Dies ist dadurch zu erklären, dass neben
der reinen Speicherallokation beim ersten Durchlauf auch bereits statische Entzerrungsmatrizen aus den
Kalibrierungsdaten erstellt werden, die dann im weiteren Programmablauf eine einfache Entzerrung der neu ankommenden Bilder
erlauben. Da dieser rechenaufwendige Vorgang bereits auf der Grafikkarte ausgeführt werden kann, ist bereits im ersten
Durchlauf eine höhere Geschwindigkeit bei der GPU-Implementierung festzustellen. Demgegenüber ist der geringste
Geschwindigkeitsunterschied bei der Registrierung festzustellen. In den Versuchen wurde für die Ausreißer-Eliminierung
die Zahl der Iterationen auf 100 festgelegt. Diese geringe Zahl und der vergleichsweise niedrige Rechenaufwand in jeder
Iteration sind dafür ausschlaggebend, dass die CPU-Implementierung ähnliche Ausführungszeiten erreicht. Natürlich
lässt sich die Zahl der Iterationen beliebig steigern. Allerdings verbessert sich die Registrierungsqualität dabei kaum.
Daraus lässt sich folgern, dass nur hoch parallelisierbare Probleme für die Ausführung auf einer GPU lohnenswert sind. Es
ist anzumerken, dass der Geschwindigkeitszuwachs in großem Maß von der eingesetzten Hardware abhängt. Die in den
Experimenten verwendete NVIDIA GeForce GTX 460 ist ebenfalls nur eine Grafikkarte der mittleren Preisklasse und
bietet dennoch einen ausreichenden Geschwindigkeitsgewinn. Grafikkarten in höheren Preisklassen würden noch
bessere Ergebnisse erzielen. Dasselbe gilt natürlich auch für die neusten Generationen von CPUs.</p>
      <p>Insgesamt war der Implementierungs- und Umstellungsaufwand überschaubar. Viele Bildverarbeitungsbibliotheken
bieten bereits Implementierungen ihrer Algorithmen auf Basis von GPUs an bzw. stellen einfache Tools zur Verfügung, um
eigene Funktionen auf einfache Art und Weise auf der Grafikkarte zu implementieren. Aus diesem Grund lohnt sich die
Re-Implementierung von Algorithmen auf Grafikkarten überall da, wo Echtzeitfähigkeit ein wichtiges Kriterium
darstellt.</p>
      <p>Kommende Arbeiten werden sich vor allem auf die GPU-basierte Auswertung der für die Navigation verwendeten
Bilddaten konzentrieren. Insbesondere die Lokalisierung der Navigationshilfen im Ultraschallbild in Echtzeit ist hinsichtlich
der Kompensation von Organdeformationen interessant.</p>
    </sec>
    <sec id="sec-4">
      <title>Danksagung</title>
      <p>Die vorliegende Arbeit ist im Rahmen des Graduiertenkollegs 1126 „Intelligente Chirurgie“ der Deutschen
Forschungsgemeinschaft (DFG) entstanden. Die entwickelte Software ist Teil der frei verfügbaren Bibliothek „Medical Imaging and
Interaction Toolkit“ (MITK), die am Deutschen Krebsforschungszentrum entwickelt wirds.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          [1]
          <string-name>
            <surname>Reaungamornrat</surname>
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Otake</surname>
            <given-names>Y.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Uneri</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Schafer</surname>
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Mirota</surname>
            <given-names>DJ.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Nithiananthan</surname>
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Stayman</surname>
            <given-names>JW.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kleinszig</surname>
            <given-names>G.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Khanna</surname>
            <given-names>AJ.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Taylor RH</surname>
          </string-name>
          .,
          <string-name>
            <surname>Siewerdsen</surname>
            <given-names>JH..</given-names>
          </string-name>
          <article-title>An on-board surgical tracking and video augmentation system for C- arm image guidance</article-title>
          .
          <source>International Journal of Computer Assisted Radiology and Surgery</source>
          , 2012
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          [2]
          <string-name>
            <surname>Shams</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Sadeghi</surname>
            ,
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kennedy</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Hartley</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          <article-title>A Survey of Medical Image Registration on Multicore and the GPU, Signal Processing Magazine</article-title>
          , IEEE,
          <year>2010</year>
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          [3]
          <string-name>
            <surname>Simpfendörfer</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Baumhauer</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Müller</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Gutt</surname>
            ,
            <given-names>C. N.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Meinzer</surname>
            ,
            <given-names>H. P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Rassweiler</surname>
            ,
            <given-names>J. J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Güven</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          &amp; Te- ber, D.
          <article-title>Augmented reality visualization during laparoscopic radical prostatectomy</article-title>
          .
          <source>Journal of Endourology</source>
          , Mary Ann Liebert Inc.,
          <string-name>
            <surname>USA-New</surname>
            <given-names>Rochelle</given-names>
          </string-name>
          , NY,
          <year>2011</year>
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          [4]
          <string-name>
            <surname>Mueller</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Groch</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Baumhauer</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Maier-Hein</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Teber</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Rassweiler</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Meinzer</surname>
            ,
            <given-names>H.-P.</given-names>
          </string-name>
          &amp;
          <string-name>
            <surname>Wegner</surname>
            ,
            <given-names>I.</given-names>
          </string-name>
          <article-title>Robust and efficient fiducial tracking for augmented reality in HD-laparoscopic video streams</article-title>
          .
          <source>Proceedings of SPIE</source>
          ,
          <year>2012</year>
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          [5]
          <string-name>
            <surname>Grest</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Petersen</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          &amp;
          <string-name>
            <surname>Krüger</surname>
            ,
            <given-names>V.</given-names>
          </string-name>
          <article-title>A Comparison of Iterative 2D-3D Pose Estimation Methods for RealTime Applications</article-title>
          .
          <source>Proceedings of the 16th Scandinavian Conference on Image Analysis</source>
          , Springer-Verlag, Berlin, Heidelberg,
          <year>2009</year>
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          [6]
          <string-name>
            <given-names>Richard</given-names>
            <surname>Hartley</surname>
          </string-name>
          ,
          <string-name>
            <given-names>Andrew</given-names>
            <surname>Zisserman</surname>
          </string-name>
          .
          <source>Multiple View Geometry in Computer Vision</source>
          . 2.
          <string-name>
            <surname>Auflage</surname>
          </string-name>
          . Cambridge Uni- versity Press, Cambridge,
          <year>2004</year>
          6
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>