DE102009019019A1 - Video-based mono camera navigation system - Google Patents

Video-based mono camera navigation system Download PDF

Info

Publication number
DE102009019019A1
DE102009019019A1 DE102009019019A DE102009019019A DE102009019019A1 DE 102009019019 A1 DE102009019019 A1 DE 102009019019A1 DE 102009019019 A DE102009019019 A DE 102009019019A DE 102009019019 A DE102009019019 A DE 102009019019A DE 102009019019 A1 DE102009019019 A1 DE 102009019019A1
Authority
DE
Germany
Prior art keywords
camera
video
markers
video camera
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009019019A
Other languages
German (de)
Inventor
Robert Haase
Hendrik Möckel
Ronny Grunert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PHACON GmbH
Original Assignee
PHACON GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PHACON GmbH filed Critical PHACON GmbH
Priority to DE102009019019A priority Critical patent/DE102009019019A1/en
Priority to DE112010001790T priority patent/DE112010001790A5/en
Priority to PCT/DE2010/000440 priority patent/WO2010124672A1/en
Publication of DE102009019019A1 publication Critical patent/DE102009019019A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0808Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain
    • A61B8/0816Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain using echo-encephalography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Herstellung eines video-basierten Mono-Kamera-Navigationssystems. Das System ist in der Lage, unter Nutzung einer einzigen Kamera und Markern versehen mit unterschiedlichen Geometrien und Farben die Ortsinformation eines Objektes zu bestimmen. Zu dem System gehören eine Videokamera (5), eine elektronische Datenverarbeitungsanlage (8), ein mit einem bestimmten Muster und einer bestimmten Farbe versehener erster Marker (6), der sich in einer bekannten festen Position zu einem ortsfesten oder ortsveränderlichen Objekt (10) befindet, und ein zweiter Marker (7), der mit einem anderen bestimmten Muster und einer anderen bestimmten Farbe versehen ist und mit einem lageveränderlichen Gegenstand (2), dessen jeweils eingenommene Lage in einem Messbereich erfasst werden soll, verbunden ist. Dieses System hat gegenüber bekannten Lösungen den Vorteil, dass nur eine Videokamera (5) benötigt wird und an diese Kamera (5) nur solche technischen Ansprüche gestellt werden, die von nahezu jeder käuflich erhältlichen Videokamera erfüllt werden.The invention relates to a method for producing a video-based mono-camera navigation system. The system is able to determine the location information of an object using a single camera and markers with different geometries and colors. The system includes a video camera (5), an electronic data processing system (8), a first marker (6) of a specific pattern and color, located in a known fixed position with respect to a stationary or mobile object (10) , and a second marker (7) provided with another particular pattern and color and associated with a position-variable object (2) whose respective position is to be detected in a measuring area. This system has the advantage over known solutions that only one video camera (5) is required and only such technical demands are placed on this camera (5) that are met by virtually any commercially available video camera.

Description

Die Erfindung betrifft ein Video-basiertes Kamera-Navigationssystem, bestehend aus einer Vorrichtung und einem Verfahren, welches die Erkennung von mit Markern versehenen Objekten im Raum und deren Ortsbestimmung mit nur einer Videokamera ermöglicht.The The invention relates to a video-based camera navigation system, consisting of a device and a method which the Detection of tagged objects in the room and their Location with only a video camera allows.

Es ist bekannt, die Lagebeziehung von Objekten zueinander mit optischen Navigationssystemen zu ermitteln. So beispielsweise auf den Gebieten der Lagertechnik, im Transportwesen, in der Metallbearbeitung und der Chirurgie. In der Chirurgie werden diese Systeme im Operationssaal angewandt, um die Position von Instrumenten relativ zum Patienten zu bestimmen und somit die Erfolgsaussichten einer Operation zu verbessern.It is known, the positional relationship of objects to each other with optical To determine navigation systems. For example, in the fields warehousing, transportation, metalworking and the surgery. In surgery, these systems are in the operating room applied to the position of instruments relative to the patient to determine and thus the chances of success of an operation too improve.

In ”Khan M, Ecke U, Mann WJ.: ”The application of an optical navigation system in endonasal sinus surgery”, HNO, 2003 ; Stange T, Schultz-Coulon, Hans-Jürgen: ”Clinical experience with an optical navigation system in clinical routine Operation”, 77th Annual Meeting of the German Society of Oto-Rhino Laryngology, Head and Neck Surgery, 2006 ; Nobuhiko Sugano: ”computerassistierte Navigation in der Hüftendoprothetik”, Springer Berlin, 2001” werden optische Stereokamera-Navigationssysteme beschrieben. Um mindestens zwei oder mehr Kameras zirkulär angeordnete Dioden senden Infrarotlicht aus. Dieses wird von Markern, die sich am Patienten und chirurgischen Instrumenten befinden, reflektiert. Das reflektierte Infrarotlicht wird von mindestens zwei Kameras erfasst. Durch Software gestützte Triangulation werden die Ortskoordinaten der Marker im Raum bestimmt.In "Khan M, corner U, man WJ:" The application of an optical navigation system in endonasal sinus surgery ", ENT, 2003 ; Stange T, Schultz-Coulon, Hans-Jürgen: "Clinical experience with an optical navigation system in clinical routine surgery", 77th Annual Meeting of the German Society of Oto-Rhino Laryngology, Head and Neck Surgery, 2006 ; Nobuhiko Sugano: "Computer Assisted Navigation in Hip Arthroplasty", Springer Berlin, 2001 " Optical stereo camera navigation systems are described. At least two or more cameras circularly arranged diodes emit infrared light. This is reflected by markers located on the patient and surgical instruments. The reflected infrared light is detected by at least two cameras. Software-supported triangulation determines the spatial coordinates of the markers in the room.

Die Koordinatensysteme der Kamera, des Patienten (CT-Schnittbilder) und des chirurgischen Instruments werden durch Registrierung in ein einheitliches Koodinatensystem überführt.The Coordinate systems of the camera, of the patient (CT sectional images) and the surgical instrument are registered by registration in a uniform coordinate system.

Dadurch ist es möglich, in den CT-Schnittbildern das chirurgische Instrument oder einen so genannter Pointer einzublenden. Der Chirurg ist damit in der Lage, in den CT-Schnittbildern auf einem Monitor die aktuelle Lage des Instruments am oder im Patienten zu bestimmen. Anhand der graphischen Darstellung des Instruments in den CT-Schnittbildern erkennt der Chirurg die Entfernung zum Zielgebiet und den zu schützenden Risikostrukturen (z. B. Nerven oder Gefäße).Thereby it is possible in surgical CT scans Instrument or a so-called pointer. The surgeon is thus able to display in CT scans on a monitor to determine the current position of the instrument on or in the patient. Recognized by the graphical representation of the instrument in the CT slice images the surgeon's distance to the target area and the one to be protected Risk structures (eg nerves or vessels).

Aus der Druckschrift US 2004/0002642 A1 ist ein optisches Stereo-Kamera-Navigationssystem bekannt, das im sichtbaren Wellenlängenbereich arbeitet. Die Ortsbestimmung wird hier durch die Erkennung von Schwarz-Weiß-Kontrastmarkern mit zwei Kameras realisiert.From the publication US 2004/0002642 A1 is known a stereo optical camera navigation system which operates in the visible wavelength range. The localization is realized here by the recognition of black and white contrast markers with two cameras.

Die Nachteile dieser bekannten Lösungen bestehen darin, dass mindestens zwei Kameras in definierten Abstand zueinander benötigt werden, um Objekte im Raum zu erfassen. Es ist problematisch, die damit verbundenen großen Gehäuse oder Gerätewagen in einem Operationssaal unterzubringen.The Disadvantages of these known solutions are that at least two cameras needed in defined distance to each other be used to capture objects in space. It is problematic, the associated large housing or equipment cart in an operating room.

Ein weiterer Aspekt sind die hohen Kosten aufgrund der verwendeten Spezial-Stereo-Kameras.One Another aspect is the high costs due to the special stereo cameras used.

Der Erfindung liegt die Aufgabe zugrunde, ein Video-basiertes Kamera-Navigationssystem zu entwickeln, das mit dem Einsatz einer einzigen Videokamera realisiert werden kann und an eine solche Videokamera keine besonderen Anforderungen gestellt werden. Dadurch ist es möglich, eine kommerziell erhältliche Videokamera zu verwenden.Of the Invention is based on the object, a video-based camera navigation system to develop that realized with the use of a single video camera can be and to such a video camera no special requirements be put. This makes it possible to be a commercial available video camera to use.

Diese Aufgabe wird durch ein optisches Messsystem gelöst, das aus einer Vorrichtung nach dem des Anspruch 1 und nach einem Verfahren nach Anspruch 5 besteht.These Task is solved by an optical measuring system, which from a device according to claim 1 and a method according to claim 5.

Zu der Vorrichtung gehören

  • • eine Videokamera,
  • • eine elektronische Datenverarbeitungsanlage,
  • • ein mit einem bestimmten Muster und einer bestimmten Farbe versehener erster Marker, der sich in einer bekannten festen Position zu einem ortsfesten oder ortsveränderlichen Objekt befindet, und
  • • ein zweiter Marker, der mit einem anderen bestimmten Muster und einer anderen bestimmten Farbe versehenen ist und mit einem lageveränderlichen Gegenstand, dessen jeweils eingenommene Lage in einem Messbereich erfasst werden soll, verbunden ist.
Belong to the device
  • • a video camera,
  • • an electronic data processing system,
  • • a first marker provided with a specific pattern and color, which is in a known fixed position with respect to a stationary or mobile object, and
  • • a second marker, which is provided with a different pattern and a different color, and which is connected to a variable object whose position is to be recorded in a measuring area.

Die beiden Marker bilden so zusammen eine Einheit zur Erfassung der räumlichen Position und Rotation in Umgebungen der virtuellen Realität eines ersten, räumlich feststehenden oder beweglichen Gegenstandes gegenüber einem zweiten, feststehenden oder beweglichen Gegenstand und werden ebenso wie die Videokamera an die elektronische Datenverarbeitungsablage angeschlossen.The Both markers together form a unit for recording the spatial position and rotation in environments of the virtual Reality of a first, spatially fixed or movable object with respect to a second, fixed or movable object and will as well the video camera connected to the electronic data processing system.

An die Videokamera zur Überwachung des Messbereiches werden keine besonderen Anforderungen gestellt. Hierfür kann eine handelsübliche Videokamera verwendet werden, die über eine USB- oder eine andere Datenschnittstelle mit der elektronischen Datenverarbeitungsanlage verbunden wird.At the video camera to monitor the measuring range No special requirements. For this one can Commercially available video camera can be used over a USB or other data interface with the electronic Data processing system is connected.

An den Objekten, wie beispielsweise Personen, Instrumenten oder Werkzeugen, deren Ortsparameter bestimmt werden sollen, wird ein charakteristisches Merkmal (Marker) angebracht. Der Marker wird mit verschiedenen Markierungen bzw. Geometrien versehen, die von der vollautomatischen Bildverarbeitung durch die Videokamera erkannt und durch die Farb-Form-Kodierung zugeordnet werden können. Die Größe, Farbe und Form des Markers ist beliebig. Die Grundfarbe sollte sich lediglich mit den auf ihr aufgebrachten farbigen Markierungen unterscheiden. Die Farbtöne der Markierungen können theoretisch beliebig gewählt werden. In Hinblick auf eine optimale Bildverarbeitung sind jedoch kräftige Farbkontraste vorzuziehen. Für die Positionsberechnung werden charakteristische Punkte der Geometrie wie Eckpunkte, Mittelpunkte oder Schwerpunkte herangezogen. Die Form, die Farbe und der Abstand bzw. die Anordnung der Geometrien auf dem jeweiligen Marker ist dem Mono-Kamera-Navigationssystem bekannt.On the objects, such as persons, instruments or tools whose location parameters are to be determined, a characteristic feature (marker) is attached. The marker is provided with various markings or geometries, which are provided by the fully automatic image processing be recognized by the video camera and can be assigned by the color-shape coding. The size, color and shape of the marker is arbitrary. The base color should differ only with the colored markings applied to it. The color tones of the markers can theoretically be chosen arbitrarily. For optimal image processing, however, strong color contrasts are preferable. For the position calculation, characteristic points of the geometry such as corner points, centers or centers of gravity are used. The shape, the color and the distance or the arrangement of the geometries on the respective marker is known to the mono-camera navigation system.

Eine speziell entwickelte Bildverarbeitungssoftware greift die aufgenommenen Bilder der Videokamera auf und detektiert in diesen vollautomatisch die farbigen Markierungen. Durch die anschließende Zuordnung der charakteristischen Schwer- oder Eckpunkte der Markierungen im aufgenommenen Kamerabild zu den am Marker angebrachten Geometrien unter der Berücksichtigung der Kameraeigenschaften erfolgt die Positionsberechnung des Objektes im Raum. Die Bildverarbeitungssoftware benötigt keine Spezialhardware. Sie kann auf einem handelsüblichen PC installiert und ausgeführt werden.A Specially developed image processing software attacks the recorded Pictures of the video camera on and detected in these fully automatic the colored markers. By the subsequent assignment the characteristic heavy or corner points of the markings in the recorded camera image to the attached to the marker geometries the consideration of the camera characteristics is the Position calculation of the object in the room. The image processing software does not need special hardware. It can be on a commercial PC installed and running.

Das Navigationssystem arbeitet nach folgenden Verfahrensschritten:

  • a) Anbringen eines ersten Markers in einer festen Position am ersten feststehenden oder beweglichen Objekt,
  • b) Anbringen eines zweiten Markers am zweiten feststehenden oder beweglichen Objekt,
  • c) Ausrichten der Videokamera auf beide Marker unter der Berücksichtigung ihres möglichen Bewegungsbereiches,
  • d) Eingabe der Position des feststehenden Zielgebiets,
  • e) Bildakquirierung über die Videokamera,
  • f) Bildvorverarbeitung,
  • g) Objekterkennung,
  • h) Zuordnung der Objekte zu den bekannten Geometrien – Klassifizierung,
  • i) Farbbestimmung der Geometrien der Markierungen,
  • j) Zuordnung der aufgenommenen charakteristischen Bildpunkte (beispielsweise Eckpunkte) einer Geometrie zu den am realen Objekt angebrachten Markierungen,
  • k) Berechnen der Transformation T über den zugeordneten Punkten der Marker und den Kameraparametern (Brennweite, Bildverzerrung),
  • l) Anzeigen des Bildes auf dem Bildschirm,
  • m) Erfassung der neuen Positionen der beiden Marker durch die Videokamera,
  • n) Senden der neuen Kameraparameter an die elektronische Datenverarbeitungsanlage,
  • o) Wiederholung der Schritte e) bis n).
The navigation system works according to the following process steps:
  • a) attaching a first marker in a fixed position on the first fixed or movable object,
  • b) attaching a second marker to the second fixed or movable object,
  • c) Aligning the video camera on both markers taking into account their possible range of motion,
  • d) entering the position of the fixed target area,
  • e) image acquisition via the video camera,
  • f) image preprocessing,
  • g) object recognition,
  • h) assignment of the objects to the known geometries - classification,
  • i) color determination of the geometries of the markings,
  • j) assignment of the recorded characteristic pixels (for example corner points) of a geometry to the markings attached to the real object,
  • k) calculating the transformation T over the associated points of the markers and the camera parameters (focal length, image distortion),
  • l) displaying the image on the screen,
  • m) recording of the new positions of the two markers by the video camera,
  • n) sending the new camera parameters to the electronic data processing system,
  • o) repetition of steps e) to n).

Aufgrund des Einsatzes einer handelsüblichen Videokamera, dem einfachen Aufbau der Marker und der Verwendung eines Standard-PC's wird dem Anwender eine sehr wirtschaftliche Navigationslösung angeboten. Die kostengünstige Hardware ermöglicht es, die Technik in neuen Marktfeldern zu etablieren und sie einer größeren Menge an potentiellen Kunden zur Verfügung zu stellen.by virtue of the use of a commercially available video camera, the simple Structure of the markers and the use of a standard PC's is the Users offered a very economical navigation solution. The cost-effective hardware allows the To establish technology in new market fields and make them a bigger one To provide quantity to potential customers.

Ein weiterer Vorteil zu bisherigen optischen Navigationssysteme besteht darin, das anstatt zwei oder mehr, nur eine Kamera zur Positionsbestimmung genutzt wird. Diese neuartige Umsetzung löst verschiedene Problematiken:

  • – Der Aufbau des Systems wird sehr klein gehalten. Es müssen keine Kameras entfernt im Raum aufgestellt werden, was die Flexibilität und Nutzbarkeit des Systems einschränkt.
  • – Es können beliebige Kamerasysteme eingesetzt werden. Somit ist eine Anpassung an die Messanforderung, den Stand der modernsten Kameratechnik und wirtschaftlicher Systeme ist jederzeit ohne größere Aufwendungen möglich.
  • – Die Sichtbarkeit der Marker (Line of Sight-Problem) ist besser gewährleistet, da sich die Videokamera im Gegensatz zu herkömmlichen Systemen nicht zwei bis drei Meter vom zu messenden Gebiet entfernt befindet. Am bevorzugten Beispiel eines medizinischen Einsatzes wird sie entweder am OP-Tisch oder direkt am Patienten bzw. chirurgischen Instrument angebracht.
  • – Die Kameraposition kann flexibler an die Dimensionen des zu vermessenen Gebietes angepasst werden. Bei einem kleinen Areal kann die einzelne Videokamera problemlos näher an das zu vermessende Gebiet bewegt werden. Muss ein größeres Gebiet überwacht werden, wird die Kamera in einem größeren Abstand aufgestellt. Die Auflösung der Videokamera und die damit korrelierende Messgenauigkeit kann dadurch optimal an die jeweilige Messsituation angepasst werden. Eine höhere Messgenauigkeit wird bei kleineren und eine gröbere Messgenauigkeit bei größeren Gebieten erzielt.
Another advantage to previous optical navigation systems is that instead of two or more, only one camera is used for position determination. This novel implementation solves various problems:
  • - The structure of the system is kept very small. No need to place cameras in the room, which limits the flexibility and usability of the system.
  • - Any camera system can be used. Thus, an adaptation to the measurement requirement, state of the art camera technology and economic systems is possible at any time without major expenses.
  • - The visibility of the markers (line of sight problem) is better ensured, since the video camera, in contrast to conventional systems is not two to three meters from the area to be measured. The preferred example of a medical insert is either attached to the operating table or directly to the patient or surgical instrument.
  • - The camera position can be adapted more flexibly to the dimensions of the area to be measured. In a small area, the single video camera can be easily moved closer to the area to be surveyed. If a larger area needs to be monitored, the camera will be set up at a greater distance. The resolution of the video camera and the correlating measuring accuracy can thus be optimally adapted to the respective measurement situation. Higher measurement accuracy is achieved with smaller and coarser measurement accuracy in larger areas.

Ausführungsbeispieleembodiments

Die Erfindung wird nachstehend an Hand von 3 Ausführungsbeispielen und dazugehörigen Zeichnungen näher erläutert, die sämtlich die Anwendung des Mono-Kamera-Navigationssystems bei der Operation eines Patienten betreffen.The Invention will be described below with reference to 3 embodiments and associated drawings explained in more detail, all the application of the mono camera navigation system in the operation of a patient.

Es zeigen:It demonstrate:

1 den Aufbau eines Mono-Kamera-Navigationssystems in einer schematischen Darstellung, 1 the construction of a mono-camera navigation system in a schematic representation,

2 Möglichkeiten für den Aufbau der Marker in einer schematischen Darstellung und 2 Possibilities for the construction of markers in a schematic representation and

3 den Ablauf der Verfahrensschritte für den Bildverarbeitungs- und Trackingprozess. 3 the sequence of process steps for the image processing and tracking process.

Das in 1 dargestellte Mono-Kamera-Navigationssystem wird zur Hilfe und Überwachung bei einer Operation für den operierenden Chirurgen in einem Operationssaal so untergebracht, dass er auf dem Bildschirm 1 die Lage seines chirurgischen Instruments 2 zum Ort bzw. Zielgebiet 3 des operativen Eingriffs mit seinen gesunden und kranken Geweben sowie seinen Risikostrukturen genau sehen kann. Der Bildschirm 1 gehört zusammen mit dem Prozessor 4 und der zeichnerisch nicht dargestellten Tastatur und Computermaus zur elektronischen Datenverarbeitungsanlage 8. Zum optischen Erfassen der jeweiligen Situation ist eine Videokamera 5 vorgesehen, die ebenfalls mit der elektronischen Datenverarbeitungsanlage 8 verbunden ist.This in 1 The mono-camera navigation system shown is housed in an operating room for assistance and monitoring during an operation for the operating surgeon so that he is on the screen 1 the location of his surgical instrument 2 to the place or target area 3 surgery with healthy and diseased tissues and risk structures. The screen 1 belongs together with the processor 4 and the drawing keyboard and computer mouse not shown to the electronic data processing system 8th , For optically detecting the respective situation is a video camera 5 provided also with the electronic data processing system 8th connected is.

Erfindungswesentlich ist die Verwendung von zwei Markern 6, 7, die zusammen eine Einheit zur Erfassung der räumlichen Position und Rotation in Umgebungen der virtuellen Realität eines ersten, räumlich beweglichen Gegenstandes gegenüber einem zweiten, feststehenden Gegenstand bilden. Der eine Marker 6 ist in einer festen Position am Patienten 10 angebracht, während der zweite Marker 7 in einer bestimmten Position am chirurgischen Instrument 2 befestigt ist. Beide Marker 6, 7 sind nach 2 mit Markierungen 9 versehen, die nach 2 eine bestimmte Farbe und eine bestimmte Form aufweisen und in unterschiedlichen festen Positionen angeordnet sind. Die in die Umrisse eingetragenen Buchstaben sollen beispielhaft bestimmte Farben wie g für Gelb, R für rot, O für orange usw. benannt werden. Durch die unterschiedlichen Farben und Konturen sowie die unterschiedliche Anordnung der Markierungen kann mit nur einer Videokamera 5 die jeweilige Lage der beiden Marker 6, 7 zueinander und die Stellung und Lage des chirurgischen Instruments 2 zum Ort bzw. Zielgebiet 3 des operativen Eingriffs erfasst und auf dem Bildschirm 2 dargestellt werden.Essential to the invention is the use of two markers 6 . 7 , which together form a unit for detecting the spatial position and rotation in virtual reality environments of a first, spatially movable object with respect to a second stationary object. The one marker 6 is in a fixed position on the patient 10 attached while the second marker 7 in a certain position on the surgical instrument 2 is attached. Both markers 6 . 7 are after 2 with markings 9 provided after 2 have a certain color and a certain shape and are arranged in different fixed positions. The letters entered in the outlines are to be given an example of certain colors such as g for yellow, R for red, O for orange and so on. Due to the different colors and contours as well as the different arrangement of the markings can with only one video camera 5 the respective position of the two markers 6 . 7 to each other and the position and position of the surgical instrument 2 to the place or target area 3 of the surgical procedure and on the screen 2 being represented.

1. Ausführungsbeispiel1st embodiment

Dieses 1. Ausführungsbeispiel beinhaltet die Anwendung des Kamera-Navigationssystems bei der Operation eines Patienten, wobei das operative Zielgebiet während des gesamten chirurgischen Eingriffs auf dem OP-Tisch die gleiche Position und Lage einnimmt. Dabei ist es von großer Bedeutung, das operative Zielgebiet unter gleichzeitiger Schonung der Risikostrukturen wie z. B. Nerven oder Gefäße zu erreichen. Die Unterstützung des Chirurgen bei der Operation durch das Mono-Kamera-Navigationssystem besteht in der optischen Navigation. Der Chirurg kann bei Bedarf jederzeit auf dem Bildschirm 1 genau sehen, wo er sich mit seinem chirurgischen Instrument 2 genau befindet.This 1st embodiment involves the use of the camera navigation system in the operation of a patient, wherein the operative target area occupies the same position and position on the operating table during the entire surgical procedure. It is of great importance to protect the operative target area while at the same time sparing the risk structures such as B. Nerves or vessels to reach. The assistance of the surgeon in the operation by the mono-camera navigation system consists in the optical navigation. The surgeon can if necessary on the screen at any time 1 see exactly where he is with his surgical instrument 2 exactly located.

Wenn sich der am Instrument 2 angebrachte Marker 7 gegenüber dem am Patienten 10 fest angeordnete Marker 6 bewegt, wird dies in Folge der unterschiedlichen Muster und Farben durch die Videokamera 5 erkannt und auf dem Bildschirm 1 angezeigt, so dass der Chirurg auch in schwierigen Situationen die Lage seines Instruments 2 zum operativen Zielgebiet 3 erkennen kann.If the on the instrument 2 attached markers 7 opposite to the patient 10 fixed markers 6 moved, this is due to the different patterns and colors through the video camera 5 recognized and on the screen 1 so the surgeon can see the location of his instrument even in difficult situations 2 to the operative target area 3 can recognize.

Dabei werden durch eine punktbasierte Registrierung die Koordinaten-Systeme von Patient (CT/MRT-Schnittbilder), Videokamera 5 und Instrument 2 in ein Koordinatensystem überführt.By a point-based registration, the coordinate systems of the patient (CT / MRI slice images), video camera 5 and instrument 2 transferred into a coordinate system.

Während der Chirurg das Instrument 2 führt, kann er gleichzeitig die tatsächliche Position des von ihm geführten Instruments 2 auf einem Bildschirm 1 in den CT-Schnittbildern erkennen.While the surgeon the instrument 2 at the same time he can determine the actual position of the instrument he controls 2 on a screen 1 recognize in the CT slice images.

Das Verfahren zur Anwendung des Video-basierten Mono-Kamera-Navigationssystem bei der Operation erfolgt in folgenden Schritten:

  • 1. Anbringen eines ersten Markers 6 ist in einer festen Position am Patienten 10,
  • 2. Anbringen eines zweiten Markers 7 am Instrument 2 des Chirurgen,
  • 3. Eingabe der Position des operativen Zielgebiets 3,
  • 4. Eingabe der Position des Angriffspunktes des chirurgischen Instruments 2,
  • 5. Bildakquirierung über die Videokamera 5,
  • 6. Bildvorverarbeitung,
  • 7. Objekterkennung,
  • 8. Zuordnung der Objekte zu den bekannten Geometrien-Klassifizierung,
  • 9. Farbbestimmung der Geometrien der Markierungen,
  • 10. Zuordnung der aufgenommenen charakteristischen Bildpunkte (beispielsweise Eckpunkte) einer Geometrie zu den am realen Objekt angebrachten Markierungen,
  • 11. Berechnen der Transformation T über den zugeordneten Punkten der Marker und den Kameraparametern (Brennweite, Bildverzerrung),
  • 12. Anzeigen des Bildes auf dem Bildschirm 1,
  • 13. Erfassung der neuen Positionen der beiden Marker 6, 7 durch die Videokamera 5,
  • 14. Senden der neuen Kameraparameter an die elektronische Datenverarbeitungsanlage 8,
  • 15. Wiederholung der Schritte 5 bis 14.
The procedure for using the video-based mono-camera navigation system in the operation is as follows:
  • 1. Attaching a first marker 6 is in a fixed position on the patient 10 .
  • 2. Attach a second marker 7 on the instrument 2 of the surgeon,
  • 3. Enter the position of the operative target area 3 .
  • 4. Entry of the position of the point of application of the surgical instrument 2 .
  • 5. Image acquisition via the video camera 5 .
  • 6. image preprocessing,
  • 7. object recognition,
  • 8. Assignment of the objects to the known geometry classification,
  • 9. color determination of the geometries of the markings,
  • 10. Assignment of the recorded characteristic pixels (for example corner points) of a geometry to the markings attached to the real object,
  • 11. Calculate the transformation T over the assigned points of the markers and the camera parameters (focal length, image distortion),
  • 12. Display the image on the screen 1 .
  • 13. Detecting the new positions of the two markers 6 . 7 through the video camera 5 .
  • 14. Send the new camera parameters to the electronic data processing system 8th .
  • 15. Repeat steps 5 through 14.

2. Ausführungsbeispiel2nd embodiment

Bei Operationen am Gehirn wird dessen Position nach der Schädelöffnung verändert (Brainshift). Da die MRT-Daten präoperativ aufgenommen wurden, ist die tatsächliche Position des Hirntumors als operatives Zielgebiet 3 nicht mehr genau feststellbar.In operations on the brain, its position is changed after cranial opening (brain shift). Since the MRI data were taken preoperatively the actual position of the brain tumor as the operative target area 3 no longer exactly determinable.

Mit einem 2D-Ultraschallkopf wird das Gehirn des Patienten intraoperativ gescannt. Die beschriebene Erfindung wird mit dem 2D-Ultraschallsystem kombiniert. Sowohl am Patienten 10 als auch am 2D-Ultraschallkopf befinden sich Marker 6, 7 unterschiedlichen Musters und Farbe. Durch eine punktbasierte Registrierung werden die Koordinaten-Systeme von Patient (MRT-Schnittbilder), Videokamera 5 und 2D-Ultraschallkopf in ein Koordinatensystem überführt.A 2D ultrasound head scans the patient's brain intraoperatively. The described invention is combined with the 2D ultrasound system. Both on the patient 10 as well as on the 2D ultrasound head are markers 6 . 7 different pattern and color. By a point-based registration, the coordinate systems of the patient (MRI slice images), video camera 5 and 2D ultrasound head converted into a coordinate system.

Der Ort des 2D-Ultraschallkopf wird zum Zeitpunkt der Aufnahme des 2D-Ultraschallbildes festgehalten. Somit ist es möglich, aus dem 2D- ein 3D-Ultraschallbild zu ermitteln. Das intraoperative 3D-Ultraschallbild wird mit den präoperativ akquirierten MRT-Schnittbildern überlagert.Of the Location of the 2D ultrasound head is recorded at the time of taking the 2D ultrasound image. Thus, it is possible from the 2D a 3D ultrasound image to investigate. The intraoperative 3D ultrasound image is combined with the superimposed preoperatively acquired MRI slice images.

Somit erhält der Chirurg die Information über die aktuell tatsächliche Position des Hirntumors.Consequently the surgeon receives the information about the current actual position of the brain tumor.

3. Anwendungsbeispiel3. Application example

Das Mono-Kamera-System kann als direktes 3D-Eingabegerät für verschiedene Programm- und Betriebssystemoberflächen genutzt werden. Dazu werden die Positionsinformation des Trackers in Aktionen und Positionen der Computermaus umgesetzt. Der Marker 6 kann dabei an die Hand am Kopf oder an verschiedene Objekte angebracht werden, um z. B. die Steuerung der Computermaus zu übernehmen. In 3D-Szenen oder in 3D-Spielen ist folglich auch eine Steuerung der Videokamera 5 mit beispielsweise der Drehung oder Bewegung des Kopfes möglich. Durch die direkte Verbindung zwischen realer Bewegung des Kopfes des Patienten 10 und Veränderung der virtuellen Kameraposition gewinnt der Anwender einen lebhaften und realistischen Eindruck der 3D-Szene.The mono camera system can be used as a direct 3D input device for various program and operating system surfaces. For this, the position information of the tracker is converted into actions and positions of the computer mouse. The marker 6 can be attached to the hand on the head or to different objects, z. B. take over the control of the computer mouse. In 3D scenes or in 3D games is therefore also a control of the video camera 5 possible with, for example, the rotation or movement of the head. By the direct connection between real movement of the patient's head 10 and changing the virtual camera position, the user gains a vivid and realistic impression of the 3D scene.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - US 2004/0002642 A1 [0006] US 2004/0002642 A1 [0006]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • - ”Khan M, Ecke U, Mann WJ.: ”The application of an optical navigation system in endonasal sinus surgery”, HNO, 2003 [0003] - "Khan M, corner U, man WJ .:" The application of an optical navigation system in endonasal sinus surgery ", ENT, 2003 [0003]
  • - Stange T, Schultz-Coulon, Hans-Jürgen: ”Clinical experience with an optical navigation system in clinical routine Operation”, 77th Annual Meeting of the German Society of Oto-Rhino Laryngology, Head and Neck Surgery, 2006 [0003] - Stange T, Schultz-Coulon, Hans-Jürgen: "Clinical Experience with an Optical Navigation System in Clinical Routine Operation", 77th Annual Meeting of the German Society of Oto-Rhino Laryngology, Head and Neck Surgery, 2006 [0003]
  • - Nobuhiko Sugano: ”computerassistierte Navigation in der Hüftendoprothetik”, Springer Berlin, 2001” [0003] - Nobuhiko Sugano: "Computer Assisted Navigation in Hip Arthroplasty", Springer Berlin, 2001 " [0003]

Claims (5)

Vorrichtung für ein Video-basiertes Kamera-Navigationssystem, bestehend aus • einer Videokamera (5), • einer, aus einer Tastatur, einer Computermaus, einem Prozessor (4) und einem Bildschirm (1) bestehenden elektronische Datenverarbeitungsanlage (8), • einem mit zwei, von der Videokamera (5) optisch unterscheidbaren Kennzeichnungsarten versehenen erster Marker (6), der sich in einer bekannten festen Position befindet, und • einem zweiten, mit zwei, von der Videokamera (5) optisch unterscheidbaren Kennzeichnungsarten versehenen Marker (7), der mit einem lageveränderlichen Gegenstand starr verbunden ist, dessen jeweils zum ersten Marker (6) eingenommene Lage in einem Messbereich erfasst werden soll,Device for a video-based camera navigation system, consisting of • a video camera ( 5 ), • one, from a keyboard, a computer mouse, a processor ( 4 ) and a screen ( 1 ) existing electronic data processing system ( 8th ), • one with two, from the video camera ( 5 ) optically distinguishable identification types provided first marker ( 6 ), which is in a known fixed position, and • a second, with two, of the video camera ( 5 ) markers provided with optically distinguishable types of markings ( 7 ) which is rigidly connected to a position-variable object, each of which is the first marker ( 6 ) is to be recorded in a measuring range, Vorrichtung für ein Video-basiertes Kamera-Navigationssystem nach Anspruch 1., dadurch gekennzeichnet, dass die beiden auf den Markern (6, 7) angebrachten und von der Videokamera (5) optisch unterscheidbaren Kennzeichnungsarten aus einem zweidimensionalen Kennzeichen mit scharfen Konturen bestehen, die mit einer bestimmten Farbe ausgefüllt sind.Device for a video-based camera navigation system according to claim 1, characterized in that the two on the markers ( 6 . 7 ) and from the video camera ( 5 ) optically distinguishable types of identification consist of a two-dimensional characteristic with sharp contours that are filled with a particular color. Vorrichtung für ein Video-basiertes Kamera-Navigationssystem nach den Ansprüchen 1. und 2., dadurch gekennzeichnet, dass die Marker (6, 7) mit unterschiedliche Markierungen (9), bestehend aus mehren Zeichen, versehen sind.Device for a video-based camera navigation system according to claims 1 and 2, characterized in that the markers ( 6 . 7 ) with different markings ( 9 ), consisting of several characters, are provided. Vorrichtung für ein Video-basiertes Kamera-Navigationssystem nach Anspruch 1., dadurch gekennzeichnet, dass es als Eingabegerät für verschiedene Programm- und Betriebssystemoberflächen verwendbar ist.Device for a video-based camera navigation system according to claim 1, characterized in that it as an input device suitable for various program and operating system surfaces is. Verfahren zur Anwendung der Vorrichtung für ein Video-basiertes Kamera-Navigationssystem nach Anspruch 1, gekennzeichnet durch folgende Verfahrensschritte: a) Anbringen eines ersten Markers (6) in einer festen Position am ersten Objekt (10), b) Anbringen eines zweiten Markers (7) am zweiten Objekt (2), c) Ausrichten der Videokamera (5) auf beide Marker (6, 7), d) Eingabe der Position des feststehenden Zielgebiets, e) Bildakquirierung über die Videokamera (5), f) Bildvorverarbeitung, g) Objekterkennung, h) Zuordnung der Objekte zu den bekannten Geometrien-Klassifizierung, i) Farbbestimmung der Geometrien der Markierungen, j) Zuordnung der aufgenommenen charakteristischen Bildpunkte (beispielsweise Eckpunkte) einer Geometrie zu den am realen Objekt angebrachten Markierungen, k) Berechnen der Transformation T über den zugeordneten Punkten der Marker und den Kameraparametern (Brennweite, Bildverzerrung), l) Anzeigen des Bildes auf dem Bildschirm (1), m) Erfassung der neuen Positionen der beiden Marker (6, 7) durch die Videokamera (5), n) Senden der neuen Kameraparameter an die elektronische Datenverarbeitungsanlage (8), o) Wiederholung der Punkte e) bis n).Method for using the device for a video-based camera navigation system according to claim 1, characterized by the following method steps: a) attaching a first marker ( 6 ) in a fixed position on the first object ( 10 b) attaching a second marker ( 7 ) on the second object ( 2 ), c) Aligning the video camera ( 5 ) on both markers ( 6 . 7 ), d) input of the position of the fixed target area, e) image acquisition via the video camera ( 5 f) image preprocessing, g) object recognition, h) assignment of the objects to the known geometry classification, i) color determination of the geometries of the markings, j) assignment of the recorded characteristic pixels (for example corner points) of a geometry to the markings applied to the real object , k) calculating the transformation T over the associated points of the markers and the camera parameters (focal length, image distortion), l) displaying the image on the screen ( 1 ), m) recording the new positions of the two markers ( 6 . 7 ) through the video camera ( 5 ), n) sending the new camera parameters to the electronic data processing system ( 8th ), o) repetition of points e) to n).
DE102009019019A 2009-04-27 2009-04-27 Video-based mono camera navigation system Withdrawn DE102009019019A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102009019019A DE102009019019A1 (en) 2009-04-27 2009-04-27 Video-based mono camera navigation system
DE112010001790T DE112010001790A5 (en) 2009-04-27 2010-04-20 VIDEO BASED MONO CAMERA NAVIGATION SYSTEM
PCT/DE2010/000440 WO2010124672A1 (en) 2009-04-27 2010-04-20 Video-based mono-camera navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009019019A DE102009019019A1 (en) 2009-04-27 2009-04-27 Video-based mono camera navigation system

Publications (1)

Publication Number Publication Date
DE102009019019A1 true DE102009019019A1 (en) 2010-10-28

Family

ID=42347343

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102009019019A Withdrawn DE102009019019A1 (en) 2009-04-27 2009-04-27 Video-based mono camera navigation system
DE112010001790T Ceased DE112010001790A5 (en) 2009-04-27 2010-04-20 VIDEO BASED MONO CAMERA NAVIGATION SYSTEM

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112010001790T Ceased DE112010001790A5 (en) 2009-04-27 2010-04-20 VIDEO BASED MONO CAMERA NAVIGATION SYSTEM

Country Status (2)

Country Link
DE (2) DE102009019019A1 (en)
WO (1) WO2010124672A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103142313A (en) * 2013-03-19 2013-06-12 张巍 Surgical operation tool position-pose real-time detection method and system based on monocular vision
DE102020209177A1 (en) 2020-07-22 2022-01-27 Robert Bosch Gesellschaft mit beschränkter Haftung Method of determining the position of an object

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL236003A (en) 2014-11-30 2016-02-29 Ben-Yishai Rani Model registration system and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040002642A1 (en) 2002-07-01 2004-01-01 Doron Dekel Video pose tracking system and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6675040B1 (en) * 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US20030210812A1 (en) * 2002-02-26 2003-11-13 Ali Khamene Apparatus and method for surgical navigation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040002642A1 (en) 2002-07-01 2004-01-01 Doron Dekel Video pose tracking system and method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Khan M, Ecke U, Mann WJ.: "The application of an optical navigation system in endonasal sinus surgery", HNO, 2003
Nobuhiko Sugano: "computerassistierte Navigation in der Hüftendoprothetik", Springer Berlin, 2001"
Stange T, Schultz-Coulon, Hans-Jürgen: "Clinical experience with an optical navigation system in clinical routine Operation", 77th Annual Meeting of the German Society of Oto-Rhino Laryngology, Head and Neck Surgery, 2006

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103142313A (en) * 2013-03-19 2013-06-12 张巍 Surgical operation tool position-pose real-time detection method and system based on monocular vision
CN103142313B (en) * 2013-03-19 2015-05-13 张巍 Surgical operation tool position-pose real-time detection system based on monocular vision
DE102020209177A1 (en) 2020-07-22 2022-01-27 Robert Bosch Gesellschaft mit beschränkter Haftung Method of determining the position of an object

Also Published As

Publication number Publication date
DE112010001790A5 (en) 2012-09-20
WO2010124672A1 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
EP3330922B1 (en) Method and device for representing an object
DE69503814T2 (en) Video-based system for computer-assisted surgery and localization
DE102007021185B4 (en) X-ray diagnostic device with a plurality of coded marks and a method for determining the position of device parts of the X-ray diagnostic device
DE69821072T2 (en) Real-time image-controlled positioning of anchoring units
DE102015212352A1 (en) Method, arrangement and computer program product for the position detection of an object to be examined
DE102016105496A1 (en) System for checking objects using augmented reality
DE102007062843A1 (en) Method for detecting movement
EP0950380A1 (en) Image guided surgery arrangement
DE19936364A1 (en) Identification and localisation of marks in a 3D medical scanning process
DE102014226756A1 (en) An imaging assembly and method for positioning a patient in an imaging modality
DE102011050201A1 (en) System for the evaluation of identification marks, identification marks and their use
EP3435202A1 (en) Allocation of a tool to a gesture
DE212012000054U1 (en) Apparatus, structures, circuits and systems for assessing, assessing and / or determining relative positions, orientations, orientations and angles of rotation of a portion of a bone and between two or more portions of one or more bones
DE102009019019A1 (en) Video-based mono camera navigation system
EP2831839B1 (en) Method for automatically operating a monitoring system
DE10112732C2 (en) Method for determining the position of measurement images of an object relative to the object
WO2017017103A1 (en) System for the stereoscopic representation of images of an endoscope
DE112019005400T5 (en) GUIDED DURING X-RAY IMAGING
WO2015024685A1 (en) Method for displaying on a screen an object shown in a 3d data set
DE102021100653B3 (en) Method and device for registering coordinate systems of at least two display devices for virtual objects, computer program for carrying out such a method, and display device
DE102012209664B4 (en) DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS
DE102021131060B3 (en) System and method with a system
WO2007125037A1 (en) Device and method for showing the position of a medical appliance in the body of a living being
DE112020007859T5 (en) PATTERNED INCISION FILM AND METHOD FOR DETERMINING THE GEOMETRY OF AN ANATOMICAL SURFACE
DE102024103833A1 (en) MARKER AND MARKERLESS TRACKING

Legal Events

Date Code Title Description
R118 Application deemed withdrawn due to claim for domestic priority

Effective date: 20111027