WO2010124672A1 - Video-based mono-camera navigation system - Google Patents

Video-based mono-camera navigation system Download PDF

Info

Publication number
WO2010124672A1
WO2010124672A1 PCT/DE2010/000440 DE2010000440W WO2010124672A1 WO 2010124672 A1 WO2010124672 A1 WO 2010124672A1 DE 2010000440 W DE2010000440 W DE 2010000440W WO 2010124672 A1 WO2010124672 A1 WO 2010124672A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
video
video camera
marker
navigation system
Prior art date
Application number
PCT/DE2010/000440
Other languages
German (de)
French (fr)
Inventor
Robert Haase
Hendrik Möckel
Ronny Grunert
Original Assignee
Phacon Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Phacon Gmbh filed Critical Phacon Gmbh
Priority to DE112010001790T priority Critical patent/DE112010001790A5/en
Publication of WO2010124672A1 publication Critical patent/WO2010124672A1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0808Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain
    • A61B8/0816Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain using echo-encephalography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray

Definitions

  • the invention relates to a video-based camera navigation system, comprising a device and a method which allows the detection of objects provided with markers in space and their location with only one video camera.
  • optical navigation systems It is known to determine the positional relationship of objects to each other with optical navigation systems. For example, in the fields of warehouse technology, in transportation, in metalworking and surgery. In surgery, these systems are used in the operating room to determine the position of instruments relative to the patient and thus to improve the chances of success of an operation.
  • Software-supported triangulation determines the spatial coordinates of the markers in the room.
  • the coordinate systems of the camera, the patient (CT sectional images) and the surgical instrument are transferred by registration into a uniform coordinate system. This makes it possible to display the surgical instrument or a so-called pointer in the CT slice images.
  • the surgeon is thus able to determine the current position of the instrument on or in the patient in the CT slice images on a monitor. Based on the graphical representation of the instrument in the CT slice images, the surgeon recognizes the distance to the target area and the risk structures to be protected (eg nerves or vessels).
  • US 2004/0002642 A1 discloses an optical stereo camera navigation system which operates in the visible wavelength range. The localization is realized here by the recognition of black and white contrast markers with two cameras.
  • the invention has for its object to develop a video-based camera navigation system that can be implemented with the use of a single video camera and no special requirements are placed on such a video camera. This makes it possible to use a commercially available video camera.
  • an optical measuring system which consists of a device according to claim 1 and a method according to claim 5. Belong to the device
  • a second marker which is provided with a different pattern and a different color, and which is connected to a variable object whose position is to be recorded in a measuring area.
  • the two markers thus together form a unit for detecting the spatial position and rotation in virtual reality environments of a first, fixed or movable object relative to a second, fixed or movable object and are connected as well as the video camera to the electronic data processing system.
  • a commercially available video camera can be used, which is connected via a USB or other data interface with the electronic data processing system.
  • a characteristic feature is attached on the objects, such as persons, instruments or tools whose location parameters are to be determined.
  • the marker is provided with various markings or geometries, which can be recognized by the fully automatic image processing by the video camera and assigned by the color-shape coding.
  • the size, color and shape of the marker is arbitrary.
  • the base color should differ only with the colored markings applied to it.
  • the color tones of the markers can theoretically be chosen arbitrarily. For optimal image processing, however, strong color contrasts are preferable.
  • characteristic points of the geometry such as corner points, centers or centers of gravity are used.
  • the shape, the color and the distance or the arrangement of the geometries on the respective marker is known to the mono-camera navigation system. - A -
  • a specially developed image processing software picks up the recorded images of the video camera and detects fully automatically the colored markings. By subsequently assigning the characteristic heavy or corner points of the markers in the recorded camera image to the geometries attached to the marker taking into account the camera properties, the position calculation of the object takes place in space.
  • the image processing software does not require special hardware. It can be installed and run on a standard PC.
  • the navigation system operates according to the following method steps: a) placing a first marker in a fixed position on the first fixed or movable object, b) attaching a second marker on the second fixed or movable object, c) aligning the video camera on both markers, taking into account their possible Movement range, d) input of the position of the fixed target area, e) image acquisition via the video camera, f) image preprocessing, g) object recognition, h) assignment of the objects to the known geometries - classification, i) color determination of the geometries of the markings, j) assignment of the recorded characteristic pixels (for example, corner points) of a geometry to the markings attached to the real object, k) calculating the transformation T over the associated points of the markers and the camera parameters (focal length, image distortion),
  • Any camera system can be used.
  • an adaptation to the measurement requirement, state of the art camera technology and economic systems is possible at any time without major expenses.
  • the visibility of the markers is better ensured, since the video camera, in contrast to conventional systems is not two to three meters from the area to be measured.
  • the preferred example of a medical insert is either attached to the operating table or directly to the patient or surgical instrument.
  • the camera position can be adapted more flexibly to the dimensions of the area to be measured.
  • the single video camera can be easily moved closer to the area to be surveyed. If a larger area needs to be monitored, the camera will be set up at a greater distance.
  • the resolution of the video camera and the correlating measuring accuracy can thus be optimally adapted to the respective measurement situation. Higher measurement accuracy is smaller and coarser Accuracy achieved in larger areas.
  • FIG 3 shows the sequence of the method steps for the image processing and tracking process.
  • the monaural camera navigation system illustrated in FIG. 1 is placed in an operating room for assistance and monitoring during an operation for the operating surgeon in such a way that on the screen 1, the position of his surgical instrument 2 to the location or target area 3 of the surgical procedure with his healthy and diseased tissues as well as his risk structures can see exactly.
  • the screen 1 belongs together with the processor 4 and the keyboard and computer mouse not shown to the electronic data processing system 8.
  • a video camera 5 is provided, which is also connected to the electronic data processing system 8.
  • Essential to the invention is the use of two markers 6, 7, which together form a unit for detecting the spatial position and rotation in virtual reality environments of a first, spatially movable object with respect to a second, stationary object.
  • the one marker 6 is mounted in a fixed position on the patient 10, while the second Marker 7 is fixed in a specific position on the surgical instrument 2.
  • Both markers 6, 7 are provided according to FIG. 2 with markings 9, which according to FIG. 2 have a specific color and a certain shape and are arranged in different fixed positions.
  • the letters entered in the outlines are to be given an example of certain colors such as g for yellow, R for red, O for orange and so on. Due to the different colors and contours as well as the different arrangement of the markings, the respective position of the two markers 6, 7 relative to one another and the position and position of the surgical instrument 2 to the location or target area 3 of the surgical procedure can be detected with only one video camera 5 and on the Screen 2 are displayed.
  • This first embodiment involves the use of the camera navigation system in the operation of a patient, wherein the operative target area occupies the same position and position on the operating table during the entire surgical procedure. It is of great importance to reach the operative target area while at the same time sparing the risk structures such as nerves or vessels.
  • the assistance of the surgeon in the operation by the mono-camera navigation system consists in the optical navigation. If necessary, the surgeon can see exactly where he is with his surgical instrument 2 on screen 1 at any time. When the marker 7 attached to the instrument 2 moves with respect to the marker 6 fixedly attached to the patient 10, this is recognized by the video camera 5 as a result of the different patterns and colors and displayed on the screen 1, so that the surgeon can use the Position of his instrument 2 to the operative target area 3 can recognize.
  • the coordinate systems of the patient (CT / MRI slice images), video camera 5 and instrument 2 are converted into a coordinate system by a point-based registration. While the surgeon leads the instrument 2, he can simultaneously recognize the actual position of the guided by him instrument 2 on a screen 1 in the CT Thomasbildem.
  • a 2D ultrasound head scans the patient's brain intraoperatively.
  • the described invention is combined with the 2D ultrasound system.
  • Both the patient 10 and the 2D ultrasound head are markers 6, 7 different pattern and color. Point-based registration enables the patient coordinate systems (MRI systems) to
  • Sectional images), video camera 5 and 2D ultrasound head are converted into a coordinate system.
  • the location of the 2D ultrasound head is captured at the time the 2D ultrasound image is taken. It is thus possible to determine a 3D ultrasound image from the 2D.
  • the intraoperative 3D ultrasound image is superimposed with the preoperatively acquired MRI slice images. Thus, the surgeon receives the information about the actual actual position of the brain tumor.
  • the mono camera system can be used as a direct 3D input device for various program and operating system surfaces.
  • the position information of the tracker is converted into actions and positions of the computer mouse.
  • the marker 6 can be attached to the hand on the head or to various objects, in order, e.g. to take control of the computer mouse. Consequently, in 3D scenes or in 3D games, it is also possible to control the video camera 5 with, for example, the rotation or movement of the head.
  • the direct link between real movement of the patient's head 10 and changing the virtual camera position gives the user a vivid and realistic impression of the 3D scene.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The invention relates to a method for producing a video-based mono-camera navigation system. The system is able to determine the position information of an object utilizing a single camera and markers provided with different geometries and colors. The system includes a video camera (5), an electronic data processing unit (8), a first marker (6), which has a specific pattern and a specific color and is located in a known fixed position with respect to a stationary or mobile object (10), and a second marker (7), which is provided with a different specific pattern and a different specific color and connected to an object (2) the position of which can be moved and the respectively assumed position of which is to be detected in a measuring range. Compared to known solutions, said system has the advantage that only one video camera (5) is required, and that the technical demands placed on said camera (5) are only such which can be fulfilled by nearly any video camera that is available for purchase.

Description

Video-basiertes Mono-Kamera-Navigationssystem Video-based mono camera navigation system
Beschreibungdescription
Die Erfindung betrifft ein Video-basiertes Kamera-Navigationssystem, bestehend aus einer Vorrichtung und einem Verfahren, welches die Erkennung von mit Markern versehenen Objekten im Raum und deren Ortsbestimmung mit nur einer Videokamera ermöglicht.The invention relates to a video-based camera navigation system, comprising a device and a method which allows the detection of objects provided with markers in space and their location with only one video camera.
Es ist bekannt, die Lagebeziehung von Objekten zueinander mit optischen Navigationssystemen zu ermitteln. So beispielsweise auf den Gebieten der Lagertechnik, im Transportwesen, in der Metallbearbeitung und der Chirurgie. In der Chirurgie werden diese Systeme im Operationssaal angewandt, um die Position von Instrumenten relativ zum Patienten zu bestimmen und somit die Erfolgsaussichten einer Operation zu verbessern. In "Khan M, Ecke U, Mann WJ.: "The application of an optical navigation System in endonasal sinus surgery", HNO, 2003; Stange T, Schultz-Coulon, Hans-Jürgen: "Clinical experience with an optical navigation System in clinical routine Operation", 77th Annual Meeting of the German Society of Oto-Rhino Laryngology, Head and Neck Surgery, 2006; Nobuhiko Sugano: "computerassistierte Navigation in der Hüftendoprothetik", Springer Berlin, 2001" werden optische Stereokamera-Navigationssysteme beschrieben. Um mindestens zwei oder mehr Kameras zirkulär angeordnete Dioden senden Infrarotlicht aus. Dieses wird von Markem, die sich am Patienten und chirurgischen Instrumenten befinden, reflektiert. Das reflektierte Infrarotlicht wird von mindestens zwei Kameras erfasst. Durch Software gestützte Triangulation werden die Ortskoordinaten der Marker im Raum bestimmt. Die Koordinatensysteme der Kamera, des Patienten (CT-Schnittbilder) und des chirurgischen Instruments werden durch Registrierung in ein einheitliches Koodinatensystem überführt. Dadurch ist es möglich, in den CT-Schnittbildern das chirurgische Instrument oder einen so genannter Pointer einzublenden. Der Chirurg ist damit in der Lage, in den CT-Schnittbildern auf einem Monitor die aktuelle Lage des Instruments am oder im Patienten zu bestimmen. Anhand der graphischen Darstellung des Instruments in den CT-Schnittbildern erkennt der Chirurg die Entfernung zum Zielgebiet und den zu schützenden Risikostrukturen (z.B. Nerven oder Gefäße).It is known to determine the positional relationship of objects to each other with optical navigation systems. For example, in the fields of warehouse technology, in transportation, in metalworking and surgery. In surgery, these systems are used in the operating room to determine the position of instruments relative to the patient and thus to improve the chances of success of an operation. In "Khan M, corner U, man WJ .:" The application of an optical navigation system in endonasal sinus surgery ", HNO, 2003, rod T, Schultz-Coulon, Hans-Jürgen:" Clinical experience with an optical navigation system in Clinical Routine Operation ", 77th Annual Meeting of the German Society of Oto-Rhino Laryngology, Head and Neck Surgery, 2006; Nobuhiko Sugano:" Computer Assisted Navigation in Hip Arthroplasty ", Springer Berlin, 2001" describes optical stereo camera navigation systems. At least two or more cameras circularly arranged diodes emit infrared light. This is reflected by Markem, who are on patient and surgical instruments. The reflected infrared light is detected by at least two cameras. Software-supported triangulation determines the spatial coordinates of the markers in the room. The coordinate systems of the camera, the patient (CT sectional images) and the surgical instrument are transferred by registration into a uniform coordinate system. This makes it possible to display the surgical instrument or a so-called pointer in the CT slice images. The surgeon is thus able to determine the current position of the instrument on or in the patient in the CT slice images on a monitor. Based on the graphical representation of the instrument in the CT slice images, the surgeon recognizes the distance to the target area and the risk structures to be protected (eg nerves or vessels).
Aus der Druckschrift US 2004/0002642 A1 ist ein optisches Stereo-Kamera- Navigationssystem bekannt, das im sichtbaren Wellenlängenbereich arbeitet. Die Ortsbestimmung wird hier durch die Erkennung von Schwarz-Weiß- Kontrastmarkem mit zwei Kameras realisiert.US 2004/0002642 A1 discloses an optical stereo camera navigation system which operates in the visible wavelength range. The localization is realized here by the recognition of black and white contrast markers with two cameras.
Die Nachteile dieser bekannten Lösungen bestehen darin, dass mindestens zwei Kameras in definierten Abstand zueinander benötigt werden, um Objekte im Raum zu erfassen. Es ist problematisch, die damit verbundenen großen Gehäuse oder Gerätewagen in einem Operationssaal unterzubringen. Ein weiterer Aspekt sind die hohen Kosten aufgrund der verwendeten SpezialStereo-Kameras.The disadvantages of these known solutions are that at least two cameras are needed in a defined distance from each other to capture objects in the room. It is problematic to accommodate the associated large housing or equipment cart in an operating room. Another aspect is the high cost due to the use of special stereo cameras.
Der Erfindung liegt die Aufgabe zugrunde, ein Video-basiertes Kamera- Navigationssystem zu entwickeln, das mit dem Einsatz einer einzigen Videokamera realisiert werden kann und an eine solche Videokamera keine besonderen Anforderungen gestellt werden. Dadurch ist es möglich, eine kommerziell erhältliche Videokamera zu verwenden.The invention has for its object to develop a video-based camera navigation system that can be implemented with the use of a single video camera and no special requirements are placed on such a video camera. This makes it possible to use a commercially available video camera.
Diese Aufgabe wird durch ein optisches Messsystem gelöst, das aus einer Vorrichtung nach dem des Anspruch 1 und nach einem Verfahren nach Anspruch 5 besteht. Zu der Vorrichtung gehörenThis object is achieved by an optical measuring system which consists of a device according to claim 1 and a method according to claim 5. Belong to the device
• eine Videokamera,• a video camera,
• eine elektronische Datenverarbeitungsanlage, • ein mit einem bestimmten Muster und einer bestimmten Farbe versehener erster Marker, der sich in einer bekannten festen Position zu einem ortsfesten oder ortsveränderlichen Objekt befindet, und• an electronic data processing system, • a first marker provided with a specific pattern and color, which is in a known fixed position with respect to a stationary or mobile object, and
• ein zweiter Marker, der mit einem anderen bestimmten Muster und einer anderen bestimmten Farbe versehenen ist und mit einem lageveränderlichen Gegenstand, dessen jeweils eingenommene Lage in einem Messbereich erfasst werden soll, verbunden ist.• a second marker, which is provided with a different pattern and a different color, and which is connected to a variable object whose position is to be recorded in a measuring area.
Die beiden Marker bilden so zusammen eine Einheit zur Erfassung der räumlichen Position und Rotation in Umgebungen der virtuellen Realität eines ersten, räumlich feststehenden oder beweglichen Gegenstandes gegenüber einem zweiten, feststehenden oder beweglichen Gegenstand und werden ebenso wie die Videokamera an die elektronische Datenverarbeitungsablage angeschlossen.The two markers thus together form a unit for detecting the spatial position and rotation in virtual reality environments of a first, fixed or movable object relative to a second, fixed or movable object and are connected as well as the video camera to the electronic data processing system.
An die Videokamera zur Überwachung des Messbereiches werden keine besonderen Anforderungen gestellt. Hierfür kann eine handelsübliche Videokamera verwendet werden, die über eine USB- oder eine andere Datenschnittstelle mit der elektronischen Datenverarbeitungsanlage verbunden wird.No special requirements are placed on the video camera for monitoring the measuring range. For this purpose, a commercially available video camera can be used, which is connected via a USB or other data interface with the electronic data processing system.
An den Objekten, wie beispielsweise Personen, Instrumenten oder Werkzeugen, deren Ortsparameter bestimmt werden sollen, wird ein charakteristisches Merkmal (Marker) angebracht. Der Marker wird mit verschiedenen Markierungen bzw. Geometrien versehen, die von der vollautomatischen Bildverarbeitung durch die Videokamera erkannt und durch die Farb-Form-Kodierung zugeordnet werden können. Die Größe, Farbe und Form des Markers ist beliebig. Die Grundfarbe sollte sich lediglich mit den auf ihr aufgebrachten farbigen Markierungen unterscheiden. Die Farbtöne der Markierungen können theoretisch beliebig gewählt werden. In Hinblick auf eine optimale Bildverarbeitung sind jedoch kräftige Farbkontraste vorzuziehen. Für die Positionsberechnung werden charakteristische Punkte der Geometrie wie Eckpunkte, Mittelpunkte oder Schwerpunkte herangezogen. Die Form, die Farbe und der Abstand bzw. die Anordnung der Geometrien auf dem jeweiligen Marker ist dem Mono-Kamera-Navigationssystem bekannt. - A -On the objects, such as persons, instruments or tools whose location parameters are to be determined, a characteristic feature (marker) is attached. The marker is provided with various markings or geometries, which can be recognized by the fully automatic image processing by the video camera and assigned by the color-shape coding. The size, color and shape of the marker is arbitrary. The base color should differ only with the colored markings applied to it. The color tones of the markers can theoretically be chosen arbitrarily. For optimal image processing, however, strong color contrasts are preferable. For the position calculation, characteristic points of the geometry such as corner points, centers or centers of gravity are used. The shape, the color and the distance or the arrangement of the geometries on the respective marker is known to the mono-camera navigation system. - A -
Eine speziell entwickelte Bildverarbeitungssoftware greift die aufgenommenen Bilder der Videokamera auf und detektiert in diesen vollautomatisch die farbigen Markierungen. Durch die anschließende Zuordnung der charakteristischen Schwer- oder Eckpunkte der Markierungen im aufgenommenen Kamerabild zu den am Marker angebrachten Geometrien unter der Berücksichtigung der Kameraeigenschaften erfolgt die Positionsberechnung des Objektes im Raum. Die Bildverarbeitungssoftware benötigt keine Spezialhardware. Sie kann auf einem handelsüblichen PC installiert und ausgeführt werden.A specially developed image processing software picks up the recorded images of the video camera and detects fully automatically the colored markings. By subsequently assigning the characteristic heavy or corner points of the markers in the recorded camera image to the geometries attached to the marker taking into account the camera properties, the position calculation of the object takes place in space. The image processing software does not require special hardware. It can be installed and run on a standard PC.
Das Navigationssystem arbeitet nach folgenden Verfahrensschritten: a) Anbringen eines ersten Markers in einer festen Position am ersten feststehenden oder beweglichen Objekt, b) Anbringen eines zweiten Markers am zweiten feststehenden oder beweglichen Objekt, c) Ausrichten der Videokamera auf beide Marker unter der Berücksichtigung ihres möglichen Bewegungsbereiches, d) Eingabe der Position des feststehenden Zielgebiets, e) Bildakquirierung über die Videokamera, f) Bildvorverarbeitung, g) Objekterkennung, h) Zuordnung der Objekte zu den bekannten Geometrien - Klassifizierung, i) Farbbestimmung der Geometrien der Markierungen, j) Zuordnung der aufgenommenen charakteristischen Bildpunkte (beispielsweise Eckpunkte) einer Geometrie zu den am realen Objekt angebrachten Markie- rungen, k) Berechnen der Transformation T über den zugeordneten Punkten der Marker und den Kameraparametern (Brennweite, Bildverzerrung),The navigation system operates according to the following method steps: a) placing a first marker in a fixed position on the first fixed or movable object, b) attaching a second marker on the second fixed or movable object, c) aligning the video camera on both markers, taking into account their possible Movement range, d) input of the position of the fixed target area, e) image acquisition via the video camera, f) image preprocessing, g) object recognition, h) assignment of the objects to the known geometries - classification, i) color determination of the geometries of the markings, j) assignment of the recorded characteristic pixels (for example, corner points) of a geometry to the markings attached to the real object, k) calculating the transformation T over the associated points of the markers and the camera parameters (focal length, image distortion),
I) Anzeigen des Bildes auf dem Bildschirm, m) Erfassung der neuen Positionen der beiden Marker durch die Videokamera, n) Senden der neuen Kameraparameter an die elektronische Datenverarbeitungsanlage, o) Wiederholung der Schritte e) bis n). Aufgrund des Einsatzes einer handelsüblichen Videokamera, dem einfachen Aufbau der Marker und der Verwendung eines Standard-PCs wird dem Anwender eine sehr wirtschaftliche Navigationslösung angeboten. Die kostengünstige Hardware ermöglicht es, die Technik in neuen Marktfeldem zu etablieren und sie einer größeren Menge an potentiellen Kunden zur Verfügung zu stellen.I) displaying the image on the screen, m) capturing the new positions of the two markers by the video camera, n) sending the new camera parameters to the electronic data processing equipment, o) repeating steps e) to n). Due to the use of a commercially available video camera, the simple structure of the markers and the use of a standard PC, the user is offered a very economical navigation solution. The cost-effective hardware makes it possible to establish the technology in new market fields and to make them available to a larger number of potential customers.
Ein weiterer Vorteil zu bisherigen optischen Navigationssysteme besteht darin, das anstatt zwei oder mehr, nur eine Kamera zur Positionsbestimmung genutzt wird. Diese neuartige Umsetzung löst verschiedene Problematiken:Another advantage to previous optical navigation systems is that instead of two or more, only one camera is used for position determination. This novel implementation solves various problems:
- Der Aufbau des Systems wird sehr klein gehalten. Es müssen keine Kameras entfernt im Raum aufgestellt werden, was die Flexibilität und Nutzbarkeit des Systems einschränkt.- The structure of the system is kept very small. No need to place cameras in the room, which limits the flexibility and usability of the system.
- Es können beliebige Kamerasysteme eingesetzt werden. Somit ist eine Anpassung an die Messanforderung, den Stand der modernsten Kameratechnik und wirtschaftlicher Systeme ist jederzeit ohne größere Aufwendungen möglich.- Any camera system can be used. Thus, an adaptation to the measurement requirement, state of the art camera technology and economic systems is possible at any time without major expenses.
- Die Sichtbarkeit der Marker (Line of Sight-Problem) ist besser gewährleistet, da sich die Videokamera im Gegensatz zu herkömmlichen Systemen nicht zwei bis drei Meter vom zu messenden Gebiet entfernt befindet. Am bevorzugten Beispiel eines medizinischen Einsatzes wird sie entweder am OP-Tisch oder direkt am Patienten bzw. chirurgischen Instrument angebracht.- The visibility of the markers (line of sight problem) is better ensured, since the video camera, in contrast to conventional systems is not two to three meters from the area to be measured. The preferred example of a medical insert is either attached to the operating table or directly to the patient or surgical instrument.
- Die Kameraposition kann flexibler an die Dimensionen des zu vermessenen Gebietes angepasst werden. Bei einem kleinen Areal kann die einzelne Videokamera problemlos näher an das zu vermessende Gebiet bewegt werden. Muss ein größeres Gebiet überwacht werden, wird die Kamera in einem größeren Abstand aufgestellt. Die Auflösung der Videokamera und die damit korrelierende Messgenauigkeit kann dadurch optimal an die jeweilige Messsituation angepasst werden. Eine höhere Messgenauigkeit wird bei kleineren und eine gröbere Messgenauigkeit bei größeren Gebieten erzielt.- The camera position can be adapted more flexibly to the dimensions of the area to be measured. In a small area, the single video camera can be easily moved closer to the area to be surveyed. If a larger area needs to be monitored, the camera will be set up at a greater distance. The resolution of the video camera and the correlating measuring accuracy can thus be optimally adapted to the respective measurement situation. Higher measurement accuracy is smaller and coarser Accuracy achieved in larger areas.
Ausführungsbeispieleembodiments
Die Erfindung wird nachstehend an Hand von 3 Ausführungsbeispielen und dazugehörigen Zeichnungen näher erläutert, die sämtlich die Anwendung des Mono-Kamera-Navigationssystems bei der Operation eines Patienten betreffen. Es zeigen:The invention will be explained in more detail below with reference to three exemplary embodiments and associated drawings, all of which relate to the use of the mono-camera navigation system in the operation of a patient. Show it:
Fig. 1 den Aufbau eines Mono-Kamera-Navigationssystems in einer schematischen Darstellung,1 shows the structure of a mono-camera navigation system in a schematic representation,
Fig. 2 Möglichkeiten für den Aufbau der Marker in einer schematischen Darstellung undFig. 2 possibilities for the construction of the marker in a schematic representation and
Fig. 3 den Ablauf der Verfahrensschritte für den Bildverarbeitungs- und Trackingprozess.3 shows the sequence of the method steps for the image processing and tracking process.
Das in Fig. 1 dargestellte Mono-Kamera-Navigationssystem wird zur Hilfe und Überwachung bei einer Operation für den operierenden Chirurgen in einem Operationssaal so untergebracht, dass er auf dem Bildschirm 1 die Lage seines chirurgischen Instruments 2 zum Ort bzw. Zielgebiet 3 des operativen Eingriffs mit seinen gesunden und kranken Geweben sowie seinen Risikostrukturen genau sehen kann. Der Bildschirm 1 gehört zusammen mit dem Prozessor 4 und der zeichnerisch nicht dargestellten Tastatur und Computermaus zur elektronischen Datenverarbeitungsanlage 8. Zum optischen Erfassen der jeweiligen Situation ist eine Videokamera 5 vorgesehen, die ebenfalls mit der elektronischen Datenverarbeitungsanlage 8 verbunden ist. Erfindungswesentlich ist die Verwendung von zwei Markern 6, 7, die zusammen eine Einheit zur Erfassung der räumlichen Position und Rotation in Umgebungen der virtuellen Realität eines ersten, räumlich beweglichen Gegenstandes gegenüber einem zweiten, feststehenden Gegenstand bilden. Der eine Marker 6 ist in einer festen Position am Patienten 10 angebracht, während der zweite Marker 7 in einer bestimmten Position am chirurgischen Instrument 2 befestigt ist. Beide Marker 6, 7 sind nach Fig. 2 mit Markierungen 9 versehen, die nach Fig. 2 eine bestimmte Farbe und eine bestimmte Form aufweisen und in unterschiedlichen festen Positionen angeordnet sind. Die in die Umrisse eingetragenen Buchstaben sollen beispielhaft bestimmte Farben wie g für Gelb, R für rot, O für orange usw. benannt werden. Durch die unterschiedlichen Farben und Konturen sowie die unterschiedliche Anordnung der Markierungen kann mit nur einer Videokamera 5 die jeweilige Lage der beiden Marker 6, 7 zueinander und die Stellung und Lage des chirurgischen Instruments 2 zum Ort bzw. Zielgebiet 3 des operativen Eingriffs erfasst und auf dem Bildschirm 2 dargestellt werden.The monaural camera navigation system illustrated in FIG. 1 is placed in an operating room for assistance and monitoring during an operation for the operating surgeon in such a way that on the screen 1, the position of his surgical instrument 2 to the location or target area 3 of the surgical procedure with his healthy and diseased tissues as well as his risk structures can see exactly. The screen 1 belongs together with the processor 4 and the keyboard and computer mouse not shown to the electronic data processing system 8. For the optical detection of the respective situation, a video camera 5 is provided, which is also connected to the electronic data processing system 8. Essential to the invention is the use of two markers 6, 7, which together form a unit for detecting the spatial position and rotation in virtual reality environments of a first, spatially movable object with respect to a second, stationary object. The one marker 6 is mounted in a fixed position on the patient 10, while the second Marker 7 is fixed in a specific position on the surgical instrument 2. Both markers 6, 7 are provided according to FIG. 2 with markings 9, which according to FIG. 2 have a specific color and a certain shape and are arranged in different fixed positions. The letters entered in the outlines are to be given an example of certain colors such as g for yellow, R for red, O for orange and so on. Due to the different colors and contours as well as the different arrangement of the markings, the respective position of the two markers 6, 7 relative to one another and the position and position of the surgical instrument 2 to the location or target area 3 of the surgical procedure can be detected with only one video camera 5 and on the Screen 2 are displayed.
1. Ausführungsbeispiel1st embodiment
Dieses 1. Ausführungsbeispiel beinhaltet die Anwendung des Kamera- Navigationssystems bei der Operation eines Patienten, wobei das operative Zielgebiet während des gesamten chirurgischen Eingriffs auf dem OP-Tisch die gleiche Position und Lage einnimmt. Dabei ist es von großer Bedeutung, das operative Zielgebiet unter gleichzeitiger Schonung der Risikostrukturen wie z.B. Nerven oder Gefäße zu erreichen. Die Unterstützung des Chirurgen bei der Operation durch das Mono-Kamera-Navigationssystem besteht in der optischen Navigation. Der Chirurg kann bei Bedarf jederzeit auf dem Bildschirm 1 genau sehen, wo er sich mit seinem chirurgischen Instrument 2 genau befindet. Wenn sich der am Instrument 2 angebrachte Marker 7 gegenüber dem am Patienten 10 fest angeordnete Marker 6 bewegt, wird dies in Folge der unterschiedlichen Muster und Farben durch die Videokamera 5 erkannt und auf dem Bildschirm 1 angezeigt, so dass der Chirurg auch in schwierigen Situationen die Lage seines Instruments 2 zum operativen Zielgebiet 3 erkennen kann. Dabei werden durch eine punktbasierte Registrierung die Koordinaten-Systeme von Patient (CT/MRT-Schnittbilder), Videokamera 5 und Instrument 2 in ein Koordinatensystem überführt. Während der Chirurg das Instrument 2 führt, kann er gleichzeitig die tatsächliche Position des von ihm geführten Instruments 2 auf einem Bildschirm 1 in den CT-Schnittbildem erkennen.This first embodiment involves the use of the camera navigation system in the operation of a patient, wherein the operative target area occupies the same position and position on the operating table during the entire surgical procedure. It is of great importance to reach the operative target area while at the same time sparing the risk structures such as nerves or vessels. The assistance of the surgeon in the operation by the mono-camera navigation system consists in the optical navigation. If necessary, the surgeon can see exactly where he is with his surgical instrument 2 on screen 1 at any time. When the marker 7 attached to the instrument 2 moves with respect to the marker 6 fixedly attached to the patient 10, this is recognized by the video camera 5 as a result of the different patterns and colors and displayed on the screen 1, so that the surgeon can use the Position of his instrument 2 to the operative target area 3 can recognize. In this case, the coordinate systems of the patient (CT / MRI slice images), video camera 5 and instrument 2 are converted into a coordinate system by a point-based registration. While the surgeon leads the instrument 2, he can simultaneously recognize the actual position of the guided by him instrument 2 on a screen 1 in the CT Schnittbildem.
Das Verfahren zur Anwendung des Video-basierten Mono-Kamera- Navigationssystem bei der Operation erfolgt in folgenden Schritten:The procedure for using the video-based mono-camera navigation system in the operation is as follows:
1. Anbringen eines ersten Markers 6 ist in einer festen Position am Patienten 10,1. attaching a first marker 6 is in a fixed position on the patient 10,
2. Anbringen eines zweiten Markers 7 am Instrument 2 des Chirurgen,2. attaching a second marker 7 to the surgeon's instrument 2,
3. Eingabe der Position des operativen Zielgebiets 3,3. input the position of the operative target area 3,
4. Eingabe der Position des Angriffspunktes des chirurgischen Instruments 2,4. input the position of the point of application of the surgical instrument 2,
5. Bildakquirierung über die Videokamera 5,5. image acquisition via the video camera 5,
6. Bildvorverarbeitung,6. image preprocessing,
7. Objekterkennung,7. object recognition,
8. Zuordnung der Objekte zu den bekannten Geometrien - Klassifizierung,8. Assignment of the objects to the known geometries - classification,
9. Farbbestimmung der Geometrien der Markierungen,9. color determination of the geometries of the markings,
10. Zuordnung der aufgenommenen charakteristischen Bildpunkte (beispielsweise Eckpunkte) einer Geometrie zu den am realen Objekt angebrachten Markierungen,10. Assignment of the recorded characteristic pixels (for example corner points) of a geometry to the markings attached to the real object,
11. Berechnen der Transformation T über den zugeordneten Punkten der Marker und den Kameraparametern (Brennweite, Bildverzerrung),11. Calculate the transformation T over the assigned points of the markers and the camera parameters (focal length, image distortion),
12. Anzeigen des Bildes auf dem Bildschirm 1 ,12. Display the image on the screen 1,
13. Erfassung der neuen Positionen der beiden Marker 6, 7 durch die Videokamera 5,13. Detection of the new positions of the two markers 6, 7 by the video camera 5,
14. Senden der neuen Kameraparameter an die elektronische Datenverarbeitungsanlage 8,14. sending the new camera parameters to the electronic data processing system 8,
15. Wiederholung der Schritte 5 bis 14.15. Repeat steps 5 through 14.
2. Ausführungsbeispiel2nd embodiment
Bei Operationen am Gehirn wird dessen Position nach der Schädelöffnung verändert (Brainshift). Da die MRT-Daten präoperativ aufgenommen wurden, ist die tatsächliche Position des Hirntumors als operatives Zielgebiet 3 nicht mehr genau feststellbar. Mit einem 2D-Ultraschallkopf wird das Gehirn des Patienten intraoperativ gescannt. Die beschriebene Erfindung wird mit dem 2D-Ultraschallsystem kombiniert. Sowohl am Patienten 10 als auch am 2D-Ultraschallkopf befinden sich Marker 6, 7 unterschiedlichen Musters und Farbe. Durch eine punktbasier- te Registrierung werden die Koordinaten-Systeme von Patient (MRT-In operations on the brain, its position is changed after cranial opening (brain shift). Since the MRI data was recorded preoperatively, the actual position of the brain tumor as operative target area 3 can no longer be determined exactly. A 2D ultrasound head scans the patient's brain intraoperatively. The described invention is combined with the 2D ultrasound system. Both the patient 10 and the 2D ultrasound head are markers 6, 7 different pattern and color. Point-based registration enables the patient coordinate systems (MRI systems) to
Schnittbilder), Videokamera 5 und 2D-Ultraschallkopf in ein Koordinatensystem überführt.Sectional images), video camera 5 and 2D ultrasound head are converted into a coordinate system.
Der Ort des 2D-Ultraschallkopf wird zum Zeitpunkt der Aufnahme des 2D- Ultraschallbildes festgehalten. Somit ist es möglich, aus dem 2D- ein 3D- Ultraschallbild zu ermitteln. Das intraoperative 3D-Ultraschallbild wird mit den präoperativ akquirierten MRT-Schnittbildern überlagert. Somit erhält der Chirurg die Information über die aktuell tatsächliche Position des Hirntumors.The location of the 2D ultrasound head is captured at the time the 2D ultrasound image is taken. It is thus possible to determine a 3D ultrasound image from the 2D. The intraoperative 3D ultrasound image is superimposed with the preoperatively acquired MRI slice images. Thus, the surgeon receives the information about the actual actual position of the brain tumor.
3. Anwendungsbeispiel3. Application example
Das Mono-Kamera-System kann als direktes 3D-Eingabegerät für verschiedene Programm- und Betriebssystemoberflächen genutzt werden. Dazu werden die Positionsinformation des Trackers in Aktionen und Positionen der Computermaus umgesetzt. Der Marker 6 kann dabei an die Hand am Kopf oder an ver- schiedene Objekte angebracht werden, um z.B. die Steuerung der Computermaus zu übernehmen. In 3D-Szenen oder in 3D-Spielen ist folglich auch eine Steuerung der Videokamera 5 mit beispielsweise der Drehung oder Bewegung des Kopfes möglich. Durch die direkte Verbindung zwischen realer Bewegung des Kopfes des Patienten 10 und Veränderung der virtuellen Kameraposition gewinnt der Anwender einen lebhaften und realistischen Eindruck der 3D- Szene. The mono camera system can be used as a direct 3D input device for various program and operating system surfaces. For this, the position information of the tracker is converted into actions and positions of the computer mouse. The marker 6 can be attached to the hand on the head or to various objects, in order, e.g. to take control of the computer mouse. Consequently, in 3D scenes or in 3D games, it is also possible to control the video camera 5 with, for example, the rotation or movement of the head. The direct link between real movement of the patient's head 10 and changing the virtual camera position gives the user a vivid and realistic impression of the 3D scene.

Claims

Patentansprüche claims
1. Vorrichtung für ein Video-basiertes Kamera-Navigationssystem, bestehend aus1. Device for a video-based camera navigation system consisting of
• einer Videokamera (5),A video camera (5),
• einer, aus einer Tastatur, einer Computermaus, einem Prozessor (4) und einem Bildschirm (1) bestehenden elektronische Datenverarbeitungsanlage (8),An electronic data processing system (8) consisting of a keyboard, a computer mouse, a processor (4) and a screen (1),
• einem mit zwei, von der Videokamera (5) optisch unterscheidbaren Kennzeichnungsarten versehenen erster Marker (6), der sich in einer bekannten festen Position befindet, undA first marker (6) provided with two types of markings optically distinguishable from the video camera (5), which is in a known fixed position, and
• einem zweiten, mit zwei, von der Videokamera (5) optisch unterscheidbaren Kennzeichnungsarten versehenen Marker (7), der mit einem lageveränderlichen Gegenstand starr verbunden ist, dessen jeweils zum ersten Marker (6) eingenommene Lage in einem Messbereich erfasst werden soll,A second marker (7), which is provided with two types of markings optically distinguishable from the video camera (5) and rigidly connected to a position-variable object whose position to be taken in each case relative to the first marker (6) is to be recorded in a measuring range,
2. Vorrichtung für ein Video-basiertes Kamera-Navigationssystem nach Anspruch 1., dadurch gekennzeichnet, dass die beiden auf den Markern (6, 7) angebrachten und von der Videokamera (5) optisch unterscheid baren Kennzeichnungsarten aus einem zweidimensionalen Kennzeichen mit scharfen Konturen bestehen, die mit einer bestimmten Farbe ausgefüllt sind.2. Device for a video-based camera navigation system according to claim 1, characterized in that the two on the markers (6, 7) mounted and of the video camera (5) optically distinguishable types of marking consist of a two-dimensional license plate with sharp contours that are filled with a particular color.
3. Vorrichtung für ein Video-basiertes Kamera-Navigationssystem nach den Ansprüchen 1. und 2., dadurch gekennzeichnet, dass die Marker (6, 7) mit unterschiedliche Markierungen (9), bestehend aus mehren Zeichen, versehen sind.3. Device for a video-based camera navigation system according to claims 1 and 2, characterized in that the markers (6, 7) are provided with different markings (9) consisting of several characters.
4. Vorrichtung für ein Video-basiertes Kamera-Navigationssystem nach Anspruch 1., dadurch gekennzeichnet, dass es als Eingabegerät für verschiedene Programm- und Betriebssystemoberflächen verwendbar ist. 4. Device for a video-based camera navigation system according to claim 1, characterized in that it can be used as an input device for various program and operating system surfaces.
5. Verfahren zur Anwendung der Vorrichtung für ein Video-basiertes Kamera- Navigationssystem nach Anspruch 1 , gekennzeichnet durch folgende Verfahrensschritte: a) Anbringen eines ersten Markers (6) in einer festen Position am ersten Objekt (10), b) Anbringen eines zweiten Markers (7) am zweiten Objekt (2), c) Ausrichten der Videokamera (5) auf beide Marker (6, 7), d) Eingabe der Position des feststehenden Zielgebiets, e) Bildakquirierung über die Videokamera (5), f) Bildvorverarbeitung, g) Objekterkennung, h) Zuordnung der Objekte zu den bekannten Geometrien - Klassifizierung, i) Farbbestimmung der Geometrien der Markierungen, j) Zuordnung der aufgenommenen charakteristischen Bildpunkte (beispielsweise Eckpunkte) einer Geometrie zu den am realen Objekt angebrachten Markierungen, k) Berechnen der Transformation T über den zugeordneten Punkten der Marker und den Kameraparametern (Brennweite, Bildverzerrung), I) Anzeigen des Bildes auf dem Bildschirm (1), m) Erfassung der neuen Positionen der beiden Marker (6, 7) durch die Video¬ kamera (5), n) Senden der neuen Kameraparameter an die elektronische Datenverarbeitungsanlage (8), o) Wiederholung der Punkte e) bis n). 5. A method of using the device for a video-based camera navigation system according to claim 1, characterized by the following method steps: a) attaching a first marker (6) in a fixed position on the first object (10), b) attaching a second marker (7) on the second object (2), c) aligning the video camera (5) on both markers (6, 7), d) input of the position of the fixed target area, e) image acquisition via the video camera (5), f) image preprocessing, g) object recognition, h) assignment of the objects to the known geometries - classification, i) color determination of the geometries of the markings, j) assignment of the recorded characteristic pixels (for example corner points) of a geometry to the markings attached to the real object, k) calculation of the transformation T above the assigned points of the markers and the camera parameters (focal length, image distortion), I) display the image on the screen (1), m) acquire the new positives ones of the two markers (6, 7) by the video camera ¬ (5), n) transmitting the new camera parameters to the electronic data processing installation (8), o) repeating steps e) to n).
PCT/DE2010/000440 2009-04-27 2010-04-20 Video-based mono-camera navigation system WO2010124672A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE112010001790T DE112010001790A5 (en) 2009-04-27 2010-04-20 VIDEO BASED MONO CAMERA NAVIGATION SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009019019.8 2009-04-27
DE102009019019A DE102009019019A1 (en) 2009-04-27 2009-04-27 Video-based mono camera navigation system

Publications (1)

Publication Number Publication Date
WO2010124672A1 true WO2010124672A1 (en) 2010-11-04

Family

ID=42347343

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2010/000440 WO2010124672A1 (en) 2009-04-27 2010-04-20 Video-based mono-camera navigation system

Country Status (2)

Country Link
DE (2) DE102009019019A1 (en)
WO (1) WO2010124672A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10022065B2 (en) 2014-11-30 2018-07-17 Elbit Systems Ltd. Model registration system and method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103142313B (en) * 2013-03-19 2015-05-13 张巍 Surgical operation tool position-pose real-time detection system based on monocular vision
DE102020209177A1 (en) 2020-07-22 2022-01-27 Robert Bosch Gesellschaft mit beschränkter Haftung Method of determining the position of an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030210812A1 (en) * 2002-02-26 2003-11-13 Ali Khamene Apparatus and method for surgical navigation
US20040138556A1 (en) * 1991-01-28 2004-07-15 Cosman Eric R. Optical object tracking system
US20050201613A1 (en) * 1998-10-23 2005-09-15 Hassan Mostafavi Single-camera tracking of an object

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6978167B2 (en) 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040138556A1 (en) * 1991-01-28 2004-07-15 Cosman Eric R. Optical object tracking system
US20050201613A1 (en) * 1998-10-23 2005-09-15 Hassan Mostafavi Single-camera tracking of an object
US20030210812A1 (en) * 2002-02-26 2003-11-13 Ali Khamene Apparatus and method for surgical navigation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KHAN M; ECKE U; MANN WJ.: "The application of an optical navigation system in endonasal sinus surgery", HNO, 2003
STANGE T; SCHULTZ-COULON; HANS-JÜRGEN: "Clinical experience with an optical navigation system in clinical routine operation", 77TH ANNUAL MEETING OF THE GERMAN SOCIETY OF OTO-RHINO LARYNGOLOGY, HEAD AND NECK SURGERY, 2006

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10022065B2 (en) 2014-11-30 2018-07-17 Elbit Systems Ltd. Model registration system and method
US10932689B2 (en) 2014-11-30 2021-03-02 Elbit Systems Ltd. Model registration system and method

Also Published As

Publication number Publication date
DE102009019019A1 (en) 2010-10-28
DE112010001790A5 (en) 2012-09-20

Similar Documents

Publication Publication Date Title
EP3330922B1 (en) Method and device for representing an object
EP3449830B1 (en) Control of a medical imaging device
DE69503814T2 (en) Video-based system for computer-assisted surgery and localization
DE102007021185B4 (en) X-ray diagnostic device with a plurality of coded marks and a method for determining the position of device parts of the X-ray diagnostic device
DE19848765C2 (en) Position verification in camera images
DE102006035292B4 (en) Method and system for transferring position-related information from a virtual to an actual reality and for displaying this information in the actual reality and use of such a system
EP2082686B1 (en) Method to display orientated (overlap) images
DE102007062843A1 (en) Method for detecting movement
EP0950380A1 (en) Image guided surgery arrangement
DE102015212352A1 (en) Method, arrangement and computer program product for the position detection of an object to be examined
DE10137241A1 (en) Arrangement, for detecting and measuring objects, optically projects markers onto object, records partial views of object in global coordinate system using information re-detected markers
DE102014226756A1 (en) An imaging assembly and method for positioning a patient in an imaging modality
WO2009010195A1 (en) Method and system for determining the position and orientation of a camera relative to a real object
DE212012000054U1 (en) Apparatus, structures, circuits and systems for assessing, assessing and / or determining relative positions, orientations, orientations and angles of rotation of a portion of a bone and between two or more portions of one or more bones
DE102011050201A1 (en) System for the evaluation of identification marks, identification marks and their use
DE102017116558A1 (en) Method for guiding movement sequences and training device for guiding movement sequences
WO2010124672A1 (en) Video-based mono-camera navigation system
DE102004049258A1 (en) Operation-supporting medical information system controlling device, has control unit with control unit section to evaluate indicating instrument positions and motion operation, where section produces control signal for information system
EP2831839B1 (en) Method for automatically operating a monitoring system
EP1464285B1 (en) Perspective registration and visualisation of internal body regions
DE102010018291B4 (en) Navigation system and X-ray system
WO2017017103A1 (en) System for the stereoscopic representation of images of an endoscope
DE102006019470B4 (en) Apparatus and method for displaying the position of a medical device in the body of a living being
WO2018211057A1 (en) Marker-based camera tracker
DE102012209664B4 (en) DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10721104

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112010001790

Country of ref document: DE

Ref document number: 1120100017905

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10721104

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112010001790

Country of ref document: DE

Effective date: 20120920