Entwicklung eines robotergeführten Lichtschnittsensors für die be- rührungslose Erfassung anatomischer Strukturen D.Scarpin¹,J. Wahrburg¹ ¹ Zentrum für Sensorsysteme, Siegen, Deutschland Kontakt: modicas@zess.uni-siegen.de Abstract: Dieser Beitrag behandelt die Entwicklung eines robotergeführten Lichtschnittsensors um die Patientenanatomie erfas- sen zu können. Es wird dargestellt warum die Auswahl des Messsystems zu Gunsten eines Lichtschnittsensors ausgefal- len ist, was bei der Auswahl der Komponenten für einen Lichtschnittsensor zu beachten ist und welche Vorbereitungen getroffen werden müssen um das System im Operationssaal einsetzen zu können. Schlüsselworte: 3D Messtechnik, Patientenregistrierung, Roboterassistierte Chirurgie 1 Problem Um medizinische Navigationssysteme nutzen zu können ist es unerlässlich, die Patientenanatomie intraoperativ zu er- fassen. Die erfassten Patientendaten werden im Anschluss mit den präoperativ aufgenommenen Patientendaten abgegli- chen um somit einen Bezug zwischen den präopertiv aufgenommenen Daten und dem realen Patienten herzustellen. Um die Anatomie intraoperativ zu erfassen, stehen dem Chirurgen verschiede taktile sowie nicht taktile Methoden zur Verfügung. Die Verwendung einer taktilen Datenaufnahme ist derzeit die meist verwendete Methode. Hierbei werden auf der Haut des Patienten fiducial Marker aufgeklebt die intraoperativ angetastet werden. Hierbei kann es durch Haut- verschiebungen beim Antasten oder durch fehlkalibrierte Antastwerkzeuge des Navigationssystems zu Fehlern kom- men. Um diese Probleme zu umgehen soll hier eine Möglichkeit zur nicht taktilen Aufnahme der Patientenanatomie vorgestellt werden. Dabei werden die Daten robotergestützt mit Hilfe eines selbst entwickelten Lichtschnittsensors auf- genommen. 2 Methoden 2.1 Vor- und Nachteile der taktilen und nicht taktilen Registrierungsverfahren Zur Erfassung der Patientenanatomie können sowohl taktile als auch nicht taktile 3D Messverfahren verwendet werden. Die taktilen Verfahren können gegliedert werden in mechanische, magnetische und optische 3D Messverfahren. Die Positionsgenauigkeit der mechanischen Systeme ist kleiner als 0,1 mm. Magnetische Systeme, wie das NDI Aurora System weisen eine Positionsgenauigkeit im Bereich von 0,47 mm RMS bis 1,1 mm RMS [1], je nach Position des Messobjekts im Messvolumen des Magnetfeldgenerators. Optische Systeme, wie das NDI Polaris weisen eine Positi- onsgenauigkeit im Bereich von 0,261 mm RMS bis 0,308 mm RMS einzelner Marker in einem Pyramidenvolumen auf [2]. Problematisch bei den mechanischen Systemen ist, dass sie im Operationssaal aufgrund ihrer Größe schwer ein- setzbar sind. Bei den magnetischen Verfahren kann es aufgrund von anderen magnetischen Feldern im Operationssaal zu Störungen kommen. Die optischen Verfahren können durch Unterbrechung der Line of Sight gestört werden. Bei den nicht taktilen Verfahren sind die Streifenprojektionsverfahren, das Brainlab Z-Touch Verfahren und das Licht- schnittverfahren zu nennen. Die Genauigkeit der Streifenprojektionssysteme liegt, abhängig von dem Aufbau und der Kalibrierung der Systeme, im Submillimeterbereich. Allerdings sind derzeitige Systeme noch zu groß um diese mit ei- nem Gelenkroboter mit einer Traglastbegrenzung von 5 – 10 kg zu führen. Bei dem Brainlab Z-Touch liegt die Genau- igkeit im Millimeterbereich [3]. Bei diesem System wird ein Laserpunkt über den zu erfassenden Bereich des Patienten geführt und seine 3D Position mittels eines Polaris Systems errechnet. Die Homogenität der aufgenommenen Punkte- wolke hängt hierbei sehr stark vom Geschick des Chirurgen ab. Bei den Lichtschnittsensoren liegt die Genauigkeit im Bereich von einigen Mikrometern bis einigen Millimetern, abhängig von deren Aufbau und Kalibrierung. Diese Syste- me eignen sich aufgrund ihres kompakten Aufbaus und geringen Gewichts sehr gut um von einem Roboterarm geführt zu werden. Die von den nicht taktilen Verfahren intraoperativ erhaltenen 3D Punktewolken werden mit den präoperati- Proceedings curac2010@MEDICA 231 ven Daten, z.B. aus einer CT oder MRT Aufnahme, des Patienten durch Surface-Matching abgeglichen. Der Vorteil hierbei ist, dass keine fiducial Marker, wie sie bei den taktilen Verfahren verwendet werden, benötigt werden. Dazu wird für den Abgleich eine markante Oberfläche am Patienten erfasst, wie sie z.B. in der Nasen und Augenpartie eines Menschen vorliegt. Das sind Merkmale, die bei jedem Patienten individuell verschieden sind und sich mittels geeigne- ter Software aus präoperativen Aufnahmen extrahieren lassen. Dies lässt sich besonders gut in Bereichen der Kopfchi- rurgie anwenden. 2.2 Vorteile eines robotergeführten Lichtschnittsensors Um ein 3D Datensatz zu erhalten muss ein Lichtschnittsensor über eine Fläche des Patienten geführt werden. Geschieht dies handgeführt ist die aufgenommene Punktewolke inhomogen und es können Ungenauigkeiten beim Abgleich ent- stehen. Im Gegensatz zu einem handgeführten Sensor ist es mit dem Roboterarm möglich jede Punkteaufnahme mit konstanter Sensororientierung durchzuführen. Hierbei ist es zur Rekonstruktion der 3D Daten nicht notwendig den Sensor mit einem magnetischen Messsystem zu tracken, wie es bei den Systemen Cobra und Scorpion der Firma FastScan [4], oder mit einem optischen Messsystem, wie es bei dem DLR Laser-Stripe Profiler [6], der Fall ist. Die Be- festigung des Lichtschnittsensors erfolgt mittels eines Schnellkupplungssystems am Flansch des Roboters Abb. 1: Lichtschnittsensor auf Basis einer AVT Marlin Kamera am Roboterflansch Der Roboterarm übernimmt nun die Führung des Sensors mit einer linearen Bewegung über den zu erfassenden Be- reich des Patienten. Diese Methode bietet den großen Vorteil, dass sich eine sehr homogene Punktwolke erzeugen lässt. Ein weiterer Vorteil ist es, dass sich der Lichtschnittsensor zitter- und verdrehungsfrei über dem Patienten positionieren lässt. Dadurch ist es im Anschluss an die Datenaufnahme erheblich einfacher das 3D Bild aus den erfassten Daten zu rekonstruieren, da alle Aufnahmen mit der gleichen Sensororientierung durchgeführt werden. Um die Datenaufnahme robotergestützt durchführen zu können ist im Vorfeld eine Hand-Auge-Kalibrierung notwendig. Hierdurch wird die Transformationsmatrix zwischen dem TCP des Roboters und dem Koordinatensystem des Lichtschnittsensors zu ermit- telt. Somit ist es möglich die erfassten Patientendaten in das Roboterkoordinatensystem zu transformieren. Dies ermög- licht eine genaue Positionierung des Roboters im vom Sensor erfassten Bereich. Zur Durchführung einer Hand-Auge- Kalibrierung stehen verschiedene Verfahren zur Verfügung. Zur Überprüfung der Genauigkeit der Hand-Auge- Kalibrierung wurden in unserem Versuch 2 verschiedene Verfahren angewendet. Das erste Verfahren verwendet zur Be- rechnung der Transformationsmatrix mehrere Bilder eines Kalibriermusters und die zu den Bildern gehörenden Trans- formationsmatrizen zwischen der Roboterbasis und dem TCP. Bei dem zweiten Verfahren wird die Transformations- matrix unter zu Hilfenahme eines NDI Polaris Systems und eines mit einem Pointer angetasteten Kalibriermusters er- rechnet. Bei der Gegenüberstellung dieser beiden Verfahren wurde festgestellt, dass Abweichungen bis zu 3 mm bei den Translationsanteilen und Abweichungen bis 0,6 Grad bei den Rotationsanteilen auftreten können. Ursache dafür sind Ungenauigkeiten bei der Antastung des Kalibriermusters mit dem Pointer und Messtoleranzen des Polaris Systems. 232 Proceedings curac2010@MEDICA 2.3 Test eines kommerziellen Lichtschnittsensors Zur Erprobung des Verfahrens wurde ein kommerzieller Lichtschnittsensor getestet. Das getestete System ist ein scan- CONTROL 2700-100 Lichtschnittsensor der Firma Micro-Epsilon mit einem erweiterten Messbereich von 300mm – 600mm. Aufgrund des erweiterten Messbereichs ist es möglich einen großen Sicherheitsabstand zu dem Patienten ein- zuhalten und gleichzeitig einen großen Bereich zu erfassen. Mit einem Gewicht von ca. 850 g [5] ist der Sensor zudem sehr leicht und damit ideal für den Einsatz an einem Roboterarm, da bei dem verwendeten Gelenkarmroboter, mit einer Armlänge von 850 mm, eine Nutzlastbeschränkung von 5 kg vorgegeben ist. Getestet wurde der Sensor zur Erfassung der Anatomie im Kopfbereich eines Patienten anhand eines Kopfmodells. Die Ansteuerung des Sensors erfolgt mittels einer LabView Applikation über die FireWire Schnittstelle. Aufgrund des hohen Beschaffungspreises kommerziell er- hältlicher Lichtschnittsensoren und einer gewünschten Flexibilität bezüglich des benötigten Sensormessbereichs wurde entschieden einen eigenen robotergeführten Lichtschnittsensor zu entwickeln. 2.4 Aufbau eines eigenen Lichtschnittsensors Bei der Entwicklung eines Lichtschnittsensors sind mehrere Parameter zu beachten, die die Präzision des Systems be- einflussen. Bei der Auswahl der Kamera ist darauf zu achten, dass der enthaltene CCD oder CMOS Sensor eine mög- lichst hohe Auflösung hat. Die von uns getesteten Kameras verfügen über eine Auflösung von 640 x 480 Pixel bzw. 1024 x768 Pixel. Je höher die Auflösung des Bildsensors ist umso höher ist auch die Tiefenauflösung des Lichtschnitt- sensors. Die Objektive der gestesteten Kameras haben eine Brennweite von 2 mm, einen horizontalen Öffnungswinkel von 50° und einen vertikalen Öffnungswinkel von 38°. Die erreichte Tiefenauflösung unseres Sensors mit diesem Objektiv be- trägt derzeit 1,1 mm bei einer Entfernung von 60 cm zum Messobjekt. Es werden dazu derzeit Untersuchungen zur Ver- besserung der Tiefenauflösung durchgeführt. Dies kann z.B. durch Verringerung der Objektivöffnungswinkel erreicht werden. Je kleiner diese sind umso größer sind die Tiefen- und laterale Auflösung. Dies resultiert daher, dass bei kleine- ren Öffnungswinkeln ein kleinerer Bildausschnitt der realen Welt auf den Bildsensor abgebildet wird und daher höher aufgelöst werden kann. Weiterhin muss die Kamera auf den Messbereich fokussiert sein, um die projizierte Laserlinie so scharf wie möglich auf den Bildsensor abzubilden, da die Tiefenberechnung sonst nicht möglich ist. Aufgrund der nicht idealen Eigenschaften realer Objektive kommt es bei der Bildaufnahme zu Verzerrungen. Diese müssen korrigiert werden um die Kamera als Lichtschnittsensor verwenden zu können, da die Laserlinie sonst nicht nur durch die Projek- tion auf das Messobjekt, sondern auch noch durch die verwendete Optik verzerrt wird. Zur Beseitigung der durch das Objektiv hervorgerufenen Verzerrungen wird eine Kamerakalibrierung durchgeführt, um die intrinsischen Kamerapa- rameter Brennweite, optische Achse, Scherung sowie die linearen und nichtlinearen Verzerrungskoeffizienten zu bestimmen. Mit Hilfe dieser Parameter wird jedes aufgenommene Bild vor der Auswertung der Tiefeninformationen korrigiert. Die Berechnung dieser Parameter wird unter Verwendung des von Zhengyou Zhang [7] entwickelten Verfah- rens durchgeführt. Die Genauigkeit der Kamerakalibrierung hängt stark von der Qualität der dazu verwendeten Bilder ab und wie gut das Kalibriermuster in diesen Aufnahmen detektiert wird. Zur Bewertung der Genauigkeit wird die errechnete Brennweite, welche in Pixel angegeben ist, in mm zurückgerechnet und mit der angegebenen Brennweite im Kameradatenblatt ver- glichen. Hierbei beträgt die Abweichung zwischen diesen Werten 0,2 mm. Ein für einen Lichtschnittsensor geeignetes Linienlasermodul zeichnet sich durch eine großen Öffnungswinkel und eine fokussierte Laserlinie aus. Zudem sollte der Linienlaser über die gesamte Breite eine geringe Divergenz aufweisen. Das von uns verwendete Linienlasermodul weist einen Öffnungswinkel von 90° auf und ist manuell fokussierbar. Die Di- vergenz des Moduls ist mit 0.4 mrad sehr gering. Diese Parameter sind notwendig um eine breite, scharfe und gerade Laserlinie auf das zu erfassende Gebiet zu projizieren. Das für die Tests verwendete Linienlasermodul ist der Laserklas- se 2M zugeordnet und damit begrenzt augensicher. Für Anwendungen im Operationssaal muss daher der Linienlaser gegen ein augensicheres Modell ausgetauscht werden. Problematisch bei dem System ist der Einfluss von Hintergrund- licht auf die Präzision. Durch zu starkes Hintergrundlicht steigt das Pixelrauschen des Bildsensors an und im schlimms- ten Fall kann die Laserlinie im aufgenommenen Bild nicht mehr identifiziert werden. Um diesen Einfluss zu vermin- dern wird ein optischer Filter, nach der Durchführung der Hand-Auge-Kalibrierung, vor der Kameralinse befestigt. Dieser optische Bandpassfilter lässt nur Licht mit einer Wellenlänge im Bereich von 655 nm – 665 nm und damit nur das Laserlicht passieren. Die Kamera und das Linienlasermodul sind durch eine mechanische Konstruktion rigide mit- einander verbunden um den Abstand und Triangulationswinkel zwischen beiden konstant zu halten. 3 Ergebnisse Der von uns entwickelte Lichtschnittsensor wurde für Testzwecke auf einen Messbereich von 300 mm - 800 mm kalib- riert und robotergeführt getestet. Tests mit einem kalibrierten Versuchsaufbau haben für den entwickelten Lichtschnitt- Proceedings curac2010@MEDICA 233 sensor Entfernungsabweichungen von kleiner 1mm zu einer 600 mm entfernten Referenzfläche ergeben. Hierzu wurde der Abstand sowohl mit dem Lichtschnittsensor, als auch mit der Camera Calibration Toolbox für MATLAB, unter Verwendung eines Kalibriermusters ermittelt. Derzeit finden weitere Untersuchungen dazu statt, um eine exakte Be- stimmung der Abweichung zwischen dem Referenzwert und dem gemessenen Wert durchführen zu können. Die laterale Abweichung des entwickelten Lichtschnittsensors ist ebenfalls kleiner 1 mm bei einer Entfernung von 540 mm zu ei- nem Referenzobjekt, welches manuell und anschließend mittels des Lichtschnittsensors vermessen wurde. Wie in Abb. 2 b) zu erkennen ist, lässt sich aus den aufgenommenen einzelnen Punktewolken eine homogene Punkte- wolke des dem Lichtschnittsensor zugewanden Teil des Kunststoffschädels rekonstruieren. Im Gegensatz zu den handgeführten Sensoren kann hierbei auf ein Trackingsystem verzichtet werden, da die Sensorposition aufgrund der Hand-Auge-Kalibrierung in das Roboterkoordinatensystem transformiert wird. Dadurch, dass der Roboterarm während der Datenaufnahme die Orientierung des Lichtschnittsensors konstant beibehält und ihn in einer konstanten Ebene ver- fährt, benötigt die Datenrekonstruktion sehr wenig Rechenaufwand. Die weißen Bereiche in Abb.2 entstehen durch die Abschattung des Linienlasers in denen die Kamera diesen nicht erfassen kann. Diese Bereiche werden im 3D Datensatz durch vordefinierte Werte die bei der Datenerfassung nicht auftreten können, wie z.B. negative Entfernungswerte, als fehlerhaft markiert und beim Abgleich nicht berücksichtigt. a) b) Abb. 2: a) Kunststoffschädel, b) Oberflächenrekonstruktion des Kunststoffschädels aus den aufgenommenen Daten 4 Diskussion In diesem Beitrag wird gezeigt, dass ein selbst entwickelter Lichtschnittsensor eine günstige und gute Alternative zu den kommerziell erhältlichen Lichtschnittsensoren darstellt. Die Genauigkeit des entwickelten Sensors ist ausreichend hoch genug für einen Einsatz in medizinischen Applikationen. Weiterführende Arbeit wird sein die Präzision des Licht- schnittsensors durch Verbesserungen der Mechanik zur Erhöhung des Triangulationswinkels, sowie durch die Verwen- dung von Objektiven mit kleineren Öffnungswinkeln zu erhöhen. Dadurch kann eine höhere Tiefenauflösung des Sen- sors erreicht werden. Dazu ist es notwendig, das auftretende Pixelrauschen der eingesetzten Kamera durch Hinter- grundlicht oder Störlicht so weit wie möglich zu unterdrücken. Zum Teil ist dies schon durch den Einsatz eines optischen Filters geschehen. Derzeit werden Softwaremöglichkeiten zur Rauschfilterung getestet und bei Eignung in das System integriert. Dadurch wird das aufgenommene Entfernungsprofil geglättet und Fehlmessungen vermieden. Weiterhin werden Untersuchungen durchgeführt ob sich Abschattungen durch mehrere Scanbewegungen mit unter- schiedlichen Perspektiven kompensieren lassen. Danksagung: Dieses Projekt wird zum Teil aus Mitteln des BMBF Projekts 01EZ0470 gefördert 234 Proceedings curac2010@MEDICA 5 Referenzen [1] Stefan R. Kirsch, Accuracy Assessment of the Electromagnetic Tracking System Aurora, Technical report, NDI Europe GmbH, 2005 [2] Andrew D. Wiles, David G. Thompson and Donald D. Frantza, Accuracy assessment and interpretation for optical tracking systems, Proceedings of Medical Imaging (SPIE) Bd. 5367. San Diego, CA, USA, Februar 2004, S. 421–432 [3] Zinser M., Mischkowski RA, Siessegger M, Neugebauer J, Kübler A, Zöller JE, Comparison of different reg- istration methods for navigation in craniomaxillofacial surgery, Buzug TM, Lueth TC, (eds): Perspective in Image-Guided Surgery. Proceedings of the Scientific Workshop on Medical Robotics, Navigation and Visuali- zation. 11 - 12 March 2004. Singapore, World Scientific, 2004, pp 19-25. [4] FastSCAN, Cobra and Scorpion Handheld Laser Scanner User Manual, 2009 [5] MicroEpsilon, scanCONTROL 2700 Kompakter 2D/3D-Profilsensor mit integriertem Controller Datenblatt, 2008 [6] K. H. Strobl, W. Sepp, E. Wahl, T. Bodenmüller, M. Suppa, J. F. Seara, and G. Hirzinger, The DLR Multisen- sory Hand-Guided Device: The Laser Stripe Profiler, Institute of Robotics and Mechatronics German Aero- space Center DLR 82230 Wessling, Germany [7] Zhengyou Zhang, Flexible Camera Calibration By Viewing a Plane From Unknown Orientations, Computer Vision, 1999. The Proceedings of the Seventh IEEE International Conference on Computer Vision ICCV'99, pp 666 - 673 vol.1 Proceedings curac2010@MEDICA 235