DE102015212352A1 - Method, arrangement and computer program product for the position detection of an object to be examined - Google Patents

Method, arrangement and computer program product for the position detection of an object to be examined Download PDF

Info

Publication number
DE102015212352A1
DE102015212352A1 DE102015212352.9A DE102015212352A DE102015212352A1 DE 102015212352 A1 DE102015212352 A1 DE 102015212352A1 DE 102015212352 A DE102015212352 A DE 102015212352A DE 102015212352 A1 DE102015212352 A1 DE 102015212352A1
Authority
DE
Germany
Prior art keywords
marker
evaluation unit
unit
optical recording
examined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015212352.9A
Other languages
German (de)
Inventor
Sebastian Engel
Manuel Katanacho
Erwin Keeve
Eckart Uhlmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102015212352.9A priority Critical patent/DE102015212352A1/en
Publication of DE102015212352A1 publication Critical patent/DE102015212352A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1443Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1456Methods for optical code recognition including a method step for retrieval of the optical code determining the orientation of the optical code with respect to the reader and correcting therefore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Toxicology (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren, eine Anordnung und eine Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts (1, 2), an dem ortsfest ein Marker (3) mit einer optisch auslesbaren Struktur (4) angeordnet ist, die zumindest Abmessungen und/oder eine Größe des Markers (3) codiert kennzeichnet. Hierzu erfolgt ein optisches Aufnehmen (8) mindestens eines Einzelbilds (21) des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit (5) und Übermitteln des mindestens einen Einzelbilds (21) an eine Auswerteeinheit (7), ein Durchführen einer Markerlokalisation (9) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit (7), ein Festlegen eines Bildausschnitts (10) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit (7), in dem sich der Marker befindet, ein Durchführen einer Markerdetektion (11) durch die Auswerteeinheit (7), bei der die an dem oder auf dem Marker (3) angeordnete Struktur (4) erfasst wird, und ein Verarbeiten der bei der Markerdetektion (12) erfassten Struktur (4), wobei zumindest eine Position und bzw. oder eine Orientierung des Markers (3) in Bezug zu der optischen Aufnahmeeinheit (5) aus den durch die Struktur (4) codierten Abmessungen oder der Größe des erfassten Markers (3) und der erfassten Struktur (4) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit ermittelt und in der Auswerteeinheit (7) gespeichert werden und/oder auf einer Ausgabeeinheit (20) dargestellt werden.The present invention relates to a method, an arrangement and a computer program product for detecting the position of an object to be examined (1, 2), on which a marker (3) with an optically readable structure (4) is fixed, at least dimensions and / or a Marked marker size (3). For this purpose, an optical recording (8) of at least one single image (21) of the object to be examined is carried out with an optical recording unit (5) and transmission of the at least one individual image (21) to an evaluation unit (7), performing a marker localization (9) in the at least one single image (21) by the evaluation unit (7), a definition of an image section (10) in the at least one single image (21) by the evaluation unit (7) in which the marker is located, performing a marker detection (11) the evaluation unit (7), in which the structure (4) arranged on or on the marker (3) is detected, and a processing of the structure (4) detected in the marker detection (12), wherein at least one position and / or an orientation of the marker (3) relative to the optical pickup unit (5) from the dimensions encoded by the structure (4) or the size of the detected marker (3) and the detected structure (4) in the at least one n single image (21) determined by the evaluation and stored in the evaluation unit (7) and / or displayed on an output unit (20).

Description

Die vorliegende Erfindung betrifft ein Verfahren, eine Anordnung und ein Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts.The present invention relates to a method, an arrangement and a computer program product for position detection of an object to be examined.

Zum Bestimmen einer Patientenlage und einer Instrumentenlage in einem Operationssaal oder zum Bestimmen einer Werkzeuglage in einer Werkhalle gibt es zwei verschiedene Messprinzipien: Optisches Tracking und elektromagnetisches Tracking. Beim optischen Tracking wird ein externes Stereokameramesssystem verwendet, das eine Anordnung von Reflektorkugeln vermisst und daraus eine Lage der Instrumente bzw. des Patienten bestimmt. Nachteilig an dieser Variante ist, dass nur ein eingeschränkter Patientenzugang des medizinischen Personals im Operationssaal möglich ist, um eine Kamerasichtlinie nicht zu kreuzen und somit die Aufnahme zu stören (sogenannte Line-of-Sight-Problematik). Außerdem fallen hohe Investitionskosten bei einer Anschaffung eines derartigen Systems an und laufende Kosten für die erforderlichen Einweg-Reflektorkugeln müssen berücksichtigt werden. Überdies ist jedem Instrument in dem Operationssaal eine einzigartige Anordnung von Reflektorkugeln zugeordnet, die eingemessen und spezifiziert werden müssen.There are two different measurement principles for determining a patient position and an instrument position in an operating room or for determining a tool position in a workshop: optical tracking and electromagnetic tracking. Optical tracking uses an external stereo camera measurement system that measures an array of reflector spheres and determines a position of the instruments or patient. A disadvantage of this variant is that only a limited patient access of the medical staff in the operating room is possible in order not to cross a camera directive and thus to disturb the recording (so-called line-of-sight problem). In addition, high investment costs for the purchase of such a system and ongoing costs for the required disposable reflector balls must be taken into account. Moreover, each instrument in the operating room is assigned a unique array of reflector spheres that must be calibrated and specified.

Das elektromagnetische Instrumententracking nutzt ein mit einem Feldgenerator erzeugtes Magnetfeld zur Messung einer Lage einer Sensorspule am Instrument bzw. in einem Operationsgebiet. Diese Spule ermöglicht es, Aufschluss über die Position und Orientierung des Instruments zu erhalten. Wesentlicher Nachteil dieses Verfahrens ist eine hohe Ungenauigkeit und Störempfindlichkeit gegenüber elektrisch leitfähigen oder ferromagnetischen Materialien.The electromagnetic instrument tracking uses a magnetic field generated by a field generator for measuring a position of a sensor coil on the instrument or in an operating area. This coil makes it possible to obtain information about the position and orientation of the instrument. The main disadvantage of this method is a high degree of inaccuracy and susceptibility to interference with electrically conductive or ferromagnetic materials.

Der vorliegenden Erfindung liegt damit die Aufgabe zugrunde, ein Verfahren und eine Anordnung zu entwickeln, die die genannten Nachteile vermeiden, mit denen also mit hoher Genauigkeit und Zuverlässigkeit eine Lage eines zu untersuchenden Objekts bestimmt werden kann.The present invention is therefore based on the object to develop a method and an arrangement which avoid the disadvantages mentioned, with which therefore a position of an object to be examined can be determined with high accuracy and reliability.

Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren nach Anspruch 1, eine Anordnung nach Anspruch 7 und ein Computerprogrammprodukt nach Anspruch 10. Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den abhängigen Ansprüchen beschrieben.This object is achieved by a method according to claim 1, an arrangement according to claim 7 and a computer program product according to claim 10. Advantageous embodiments and further developments are described in the dependent claims.

Ein Verfahren zur Lageerfassung eines zu untersuchenden Objekts, an dem ortsfest ein Marker mit einer optisch auslesbaren Struktur angeordnet ist, die zumindest Abmessungen und bzw. oder eine Größe des Markers codiert kennzeichnet, umfasst mehrere Schritte. In einem der Schritte erfolgt ein optisches Aufnehmen mindestens eines Einzelbilds des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit und ein Übermitteln des mindestens einen Einzelbilds an eine Auswerteeinheit. Nachfolgend wird in dem mindestens einen Einzelbild eine Markerlokalisation durchgeführt. In einem weiteren Schritt wird durch die Auswerteeinheit ein Bildausschnitt in dem mindestens einen Einzelbild festgelegt, in dem sich der Marker befindet. Es wird eine Markerdetektion durch die Auswerteeinheit durchgeführt, bei der die an dem oder auf dem Marker angeordnete Struktur erfasst wird. Schließlich wird die bei der Markerdetektion erfasste Struktur verarbeitet, wobei zumindest eine Position und bzw. oder eine Orientierung des Markers in Bezug zu der optischen Aufnahmeeinheit aus den Abmessungen oder der Größe des erfassten Markers und bzw. oder der erfassten Struktur in dem mindestens einen Einzelbild durch die Auswerteeinheit ermittelt und in der Auswerteeinheit gespeichert werden und bzw. oder auf einer Ausgabeeinheit dargestellt werden. Die Abmessungen und bzw. oder die Größe des erfassten Markers bzw. der erfassten Struktur sind hierbei durch die optisch auslesbare Struktur codiert, d. h. insbesondere in der Struktur durch Zeichen enthalten.A method for detecting the position of an object to be examined, on which a marker with an optically readable structure is fixed, which identifies at least dimensions and / or a size of the marker encoded, comprises a plurality of steps. In one of the steps, an optical recording of at least one individual image of the object to be examined is carried out with an optical recording unit and a transmission of the at least one individual image to an evaluation unit. Subsequently, a marker localization is performed in the at least one frame. In a further step, an image section in the at least one single image in which the marker is located is determined by the evaluation unit. A marker detection is performed by the evaluation unit, in which the structure arranged on or on the marker is detected. Finally, the structure detected in the marker detection is processed, wherein at least one position and / or orientation of the marker with respect to the optical acquisition unit from the dimensions or the size of the detected marker and / or the detected structure in the at least one single image the evaluation unit is determined and stored in the evaluation unit and / or displayed on an output unit. The dimensions and / or the size of the detected marker or the detected structure are in this case coded by the optically readable structure, i. H. especially in the structure by signs.

Dadurch, dass der Marker ortsfest an dem zu untersuchenden Objekt angebracht ist und mit der optisch auslesbaren Struktur versehen ist, können Informationen in der optisch auslesbaren Struktur codiert sein, die das zu untersuchende Objekt näher beschreiben und zu einer Lageerfassung herangezogen werden können. Durch die ortsfeste Befestigung kann aus einer Lageänderung des Markers auch auf eine Lageänderung des zu untersuchenden Objekts geschlossen werden. Dies ist umso einfacher möglich, da die Abmessungen bzw. die Größe des Markers durch die Struktur des Markers nach der Aufnahme bereits bekannt sind und im Rahmen des Verarbeitens der bei der Markerdetektion erfassten Struktur auch mit einer bei der Markerdetektion bestimmten Größe in Beziehung gesetzt werden kann. Da eine optische Aufnahmetechnik Anwendung findet, ist mit hinreichend hoher Genauigkeit durch die bereits bekannte Größe des Markers von der Aufnahmeeinheit zuverlässig die Position und die Orientierung berechenbar. Die Markerlokalisation dient hierbei zunächst dem Erfassen des Markers in dem jeweiligen Einzelbild, wohingegen bei der Markerdetektion die gewünschten Informationen erfasst werden. Während die Markerlokalisation somit vergleichsweise geringe Genauigkeitsanforderungen hat, soll der Marker erst bei der Markerdetektion mit erhöhter Genauigkeit bestimmbar sein. Durch das Ausgeben der durch das Verfahren erlangten Informationen über das zu untersuchende Objekt auf der Ausgabeeinheit kann auch ein Benutzer diese Informationen wahrnehmen. Die genannten Schritte müssen nicht alle in der angegebenen Reihenfolge durchgeführt werden, insbesondere kann bereits vor dem Durchführen der Markerdetektion aus der Größe des Markers eine Positionsbestimmung bzw. Orientierungsbestimmung durchgeführt werden.Characterized in that the marker is fixedly attached to the object to be examined and provided with the optically readable structure, information in the optically readable structure can be encoded, which describe the object to be examined in more detail and can be used for a position detection. Due to the fixed attachment can be concluded from a change in position of the marker on a change in position of the object to be examined. This is all the more easily possible, since the dimensions or the size of the marker are already known by the structure of the marker after the recording and can also be correlated with a determined in the marker detection size in the context of processing the detected during the marker detection structure , Since an optical recording technique is used, the position and the orientation can be reliably calculated with a sufficiently high accuracy by the already known size of the marker from the recording unit. In this case, the marker localization initially serves to detect the marker in the respective individual image, whereas the desired information is detected during the marker detection. While the marker localization thus has comparatively low accuracy requirements, the marker should be determinable only with the marker detection with increased accuracy. By outputting the information on the object to be examined obtained by the method on the output unit, a user can also perceive this information. The above steps do not all have to be done in the given order In particular, a position determination or orientation determination can already be carried out before the marker detection is carried out from the size of the marker.

Vorzugsweise ist durch die Struktur des Markers eine Größe, eine Bezeichnung, ein Typ und bzw. oder eine Form des zu untersuchenden Objekts gekennzeichnet. Diese Informationen dienen einer genaueren Erfassung des jeweiligen Objekts, insbesondere falls mehrere zu untersuchende Objekte mit jeweils daran angeordneten Markern verwendet werden. Es kann aber auch eine Transformation von einem Schwerpunkt des Markers oder des zu untersuchenden Objekts zu einem vorab festgelegten Punkt in der Struktur des Markers codiert sein. Auch bislang unbekannte zu untersuchende Objekte, beispielsweise bislang nicht verwendete Instrumente können so schnell mit ihren Eigenschaften erfasst und verwendet werden. Das Verfahren kann somit schneller und zuverlässiger als vergleichbare Verfahren zur Lageerfassung durchgeführt werden.Preferably, the structure of the marker indicates a size, a name, a type and / or a shape of the object to be examined. This information is used for a more accurate detection of the respective object, in particular if several objects to be examined are used, each with markers arranged thereon. However, a transformation from a centroid of the marker or of the object to be examined to a predetermined point in the structure of the marker may also be coded. Even previously unknown objects to be examined, for example, previously unused instruments can be detected and used so quickly with their properties. The method can thus be carried out faster and more reliably than comparable methods for position detection.

Es kann vorgesehen sein, dass von der Auswerteeinheit der Abstand zwischen dem Marker und der optischen Aufnahmeeinheit bestimmt wird, um zusätzliche Informationen über die Anordnung des Markers in einem von der optischen Aufnahmeeinheit erfassten Raumbereich zu erhalten.It can be provided that the distance between the marker and the optical recording unit is determined by the evaluation unit in order to obtain additional information about the arrangement of the marker in a spatial area detected by the optical recording unit.

Typischerweise ist die Struktur des Markers durch einen Strichcode, einen QR-Code (Quick Response-Code), mindestens eine Kante und bzw. oder kreisförmige Strukturen mit mindestens zwei Farben gebildet. Die genannten Strukturen sind optisch einfach und eindeutig zu erfassen und bieten auf relativ kleinem Raum eine verhältnismäßig große Informationsdichte. Alternativ oder zusätzlich kann die Struktur des Markers die Informationen auch in beliebiger verschlüsselter Form enthalten, so dass die Auswerteeinheit nur bei bekanntem, in der Aufnahmeeinheit hinterlegten Schlüssel zum Entschlüsseln auf die Informationen zugreifen kann.Typically, the structure of the marker is formed by a bar code, a QR code (quick response code), at least one edge, and / or circular structures having at least two colors. The structures mentioned are optically simple and unambiguous to capture and offer a relatively large amount of information in a relatively small space. Alternatively or additionally, the structure of the marker may also contain the information in any desired encrypted form, so that the evaluation unit can access the information only if the key stored in the recording unit is known to decrypt.

In einer Ausführungsform wird vor dem optischen Aufnehmen des mindestens einen Einzelbilds eine Kalibrierung der Aufnahmeeinheit durchgeführt, um eine ordnungsgemäße Funktionsweise der Aufnahmeeinheit zu gewährleisten.In one embodiment, prior to the optical recording of the at least one individual image, a calibration of the recording unit is carried out in order to ensure a proper functioning of the recording unit.

Es kann auch vorgesehen sein, mehrere Einzelbilder zeitlich nacheinander aufzunehmen und in jedem der Einzelbilder den Marker und die Struktur wie beschrieben zu erfassen.It can also be provided to record a plurality of individual images one after the other and to record the marker and the structure in each of the individual images as described.

Typischerweise wird von der Auswerteeinheit beim Verarbeiten der Strukturen eine Transformation zwischen dem Marker und der optischen Aufnahmeeinheit in dem mindestens einen Einzelbild ermittelt, um die Position des Markers und die Orientierung des Marker zu bestimmen und bzw. oder zu überprüfen. Vorzugsweise erfolgt dies durch eine Homographie-Transformation, also eine Transformation zwischen zwei Ebenen, die bei der vorliegenden Erfindung typischerweise durch den flachen Marker und eine ebenfalls typischerweise flache Aufnahmeebene der optischen Aufnahmeeinheit, beispielsweise einen Kamerachip, gegeben sind.Typically, during processing of the structures, the evaluation unit determines a transformation between the marker and the optical acquisition unit in the at least one single image in order to determine and / or check the position of the marker and the orientation of the marker. This is preferably done by a homography transformation, ie a transformation between two planes, which in the present invention are typically given by the flat marker and a likewise typically flat recording plane of the optical recording unit, for example a camera chip.

In einer Ausführungsform kann eine nicht-lineare Optimierung von der Auswerteeinheit beim Verarbeiten der Struktur durchgeführt werden, um Rückprojektionsfehler zu vermeiden.In one embodiment, non-linear optimization may be performed by the evaluation unit in processing the structure to avoid backprojection errors.

Eine Anordnung zur Lageerfassung eines zu untersuchenden Objekts, an dem ortsfest ein Marker mit einer optisch auslesbaren Struktur angeordnet ist, weist eine optische Aufnahmeeinheit und eine Auswerteeinheit auf. Die Anordnung ist dazu eingerichtet, das beschriebene Verfahren durchzuführen. Das zuvor beschriebene Verfahren kann dementsprechend dazu ausgelegt sein, auf der Anordnung ausgeführt zu werden.An arrangement for detecting the position of an object to be examined, to which a marker with an optically readable structure is fixed, has an optical recording unit and an evaluation unit. The arrangement is adapted to carry out the described method. Accordingly, the method described above may be configured to be carried out on the assembly.

Typischerweise ist die Anordnung Teil einer Ausstattung eines Operationssaals, das Verfahren wird somit also auch in dem Operationssaal durchgeführt.Typically, the arrangement is part of an equipment of an operating room, the method is thus also carried out in the operating room.

Es kann vorgesehen sein, dass die optische Aufnahmeeinheit an einer Lichtquelle des Operationssaals angeordnet ist. Da die Lichtquelle meist ohnehin in dem Operationssaal vorhanden ist, kann die Anordnung platzsparend in dieses Gerät integriert werden. Typischerweise ist auch die Auswerteeinheit in diese Lichtquelle integriert.It may be provided that the optical recording unit is arranged on a light source of the operating room. Since the light source is usually present anyway in the operating room, the arrangement can be integrated to save space in this device. Typically, the evaluation unit is integrated into this light source.

Alternativ oder zusätzlich kann die optische Aufnahmeeinheit als eine Stereokamera ausgebildet sein, um eine Genauigkeit und Robustheit der Markerdetektion zu erhöhen. Unter einer Stereokamera soll hierbei insbesondere eine Kamera mit zwei Linsen und zwei bildgebenden Elementen verstanden werden, die in einem einzigen Gehäuse angeordnet sind. Die optische Aufnahmeeinheit kann aber auch zwei einzelne Kameras in separaten Gehäusen oder mehr als zwei einzelne Kameras in einem Gehäuse oder jeweils in einzelnen Gehäusen aufweisen.Alternatively or additionally, the optical recording unit can be designed as a stereo camera in order to increase the accuracy and robustness of the marker detection. A stereo camera is to be understood here in particular as a camera with two lenses and two imaging elements, which are arranged in a single housing. The optical recording unit can also have two individual cameras in separate housings or more than two individual cameras in a housing or in individual housings.

Ein Computerprogrammprodukt weist eine auf einem maschinenlesbaren Träger, vorzugsweise einem digitalen Speichermedium, gespeicherte Befehlsfolge zum Durchführen des beschriebenen Verfahrens und bzw. oder zum Ansteuern der beschriebenen Anordnung auf, wenn das Computerprogrammprodukt auf einer elektronischen Recheneinheit abläuft. Vorzugsweise kann das Computerprogrammprodukt direkt in einen internen Speicher der elektronischen Recheneinheit geladen werden oder ist in diesem bereits gespeichert und umfasst typischerweise Teile eines Programmcodes zum Durchführen des beschriebenen Verfahrens oder zum Ansteuern der beschriebenen Vorrichtung, wenn das Computerprogrammprodukt auf der elektronischen Recheneinheit abläuft bzw. ausgeführt wird. Das Computerprogrammprodukt kann auch ein Computerprogramm umfassen, das Softwaremittel zur Durchführung des beschriebenen Verfahrens und bzw. oder zum Ansteuern der beschriebenen Vorrichtung aufweist, wenn das Computerprogramm in einem Automatisierungssystem oder auf der Recheneinheit ausgeführt wird.A computer program product has a command sequence stored on a machine-readable carrier, preferably a digital storage medium, for performing the described method and / or for actuating the described arrangement when the computer program product runs on an electronic processing unit. Preferably, the computer program product can be loaded directly into an internal memory of the electronic processing unit or is already stored therein and includes typically parts of a program code for performing the described method or for driving the described device when the computer program product is executed on the electronic processing unit. The computer program product may also comprise a computer program which has software means for carrying out the described method and / or for driving the described device when the computer program is executed in an automation system or on the arithmetic unit.

Als elektronische Recheneinheit kann hierbei auch die Auswerteeinheit dienen.As an electronic processing unit can also serve the evaluation.

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der 1 bis 8 erläutert.Embodiments of the invention are illustrated in the drawings and are described below with reference to the 1 to 8th explained.

Es zeigen:Show it:

1 eine seitliche Ansicht eines Patienten und eines medizinischen Instruments, die jeweils mit einem Marker versehen sind, in einem Operationssaal; 1 a side view of a patient and a medical instrument, each provided with a marker, in an operating room;

2 eine Draufsicht auf einen QR-Code als Markerstruktur; 2 a plan view of a QR code as a marker structure;

3 eine perspektivische Ansicht eine mit dem Marker versehenen Instruments und einer Aufnahmeeinheit; 3 a perspective view of a provided with the marker instrument and a receiving unit;

4 ein Ablaufdiagramm eines Verfahrens zur Lageerfassung; 4 a flowchart of a method for position detection;

5 eine 1 entsprechende Ansicht eines Markers mit einem Stereokamerasystem; 5 a 1 corresponding view of a marker with a stereo camera system;

6 ein weiteres Ablaufdiagramm eines Verfahrens zur Lageerfassung; 6 another flowchart of a method for position detection;

7 eine perspektivische Ansicht eines Instruments mit einem gebogenen Marker und 7 a perspective view of an instrument with a curved marker and

8 ein Ablaufdiagramm mit einer detaillierteren Darstellung der Markerlokalisation. 8th a flowchart with a more detailed representation of the marker localization.

In 1 ist in einer seitlichen Ansicht ein Operationssaal gezeigt, in dem ein Patient 1 auf einem OP-Tisch liegt und auf dem Patienten 1 ein Marker 3 mit einer Markerstruktur 4 angeordnet ist. Die Markerstruktur 4 enthält in Form eines durch schwarze und weiße Rechtecke und Quadrate gebildeten QR-Codes Informationen über den Patienten 1, beispielsweise Name oder anatomische Auffälligkeiten. Während einer Operation mit einem medizinischen Instrument 2 kann über den Marker 3 eine Position und Ausrichtung des Patienten 1 überprüft werden.In 1 is shown in a side view of an operating room in which a patient 1 lying on an operating table and on the patient 1 a marker 3 with a marker structure 4 is arranged. The marker structure 4 Contains information about the patient in the form of a QR code formed by black and white rectangles and squares 1 such as name or anatomical abnormalities. During an operation with a medical instrument 2 can over the marker 3 a position and orientation of the patient 1 be checked.

An dem Instrument 2 ist hierzu ebenfalls ein weiterer Marker 3 mit einer weiteren Markerstruktur 4 ortsfest angeordnet. Die Markerstruktur 4 ist ebenfalls ein QR-Code, der das Instrument 2 bezeichnet und Angaben über dessen Abmessungen und bzw. oder einen Hersteller des Instruments 2 enthält. Außerdem sind in der Markerstruktur 4 Informationen über Abmessungen der Markerstruktur 4 selbst bzw. deren Größe enthalten, also beispielsweise eine Größe von 4 cm auf 4 cm in durch den QR-Code codierter Form hinterlegt. In weiteren Ausführungsbeispielen kann statt eines QR-Codes auch ein Strichcode oder eine zweifarbige Struktur beliebiger geometrischer Formen, beispielsweise mit Kreisen, verwendet werden. Außerdem sind auch Kombinationen verschiedener Darstellungsformen der Markerstruktur 4 möglich.On the instrument 2 is also another marker 3 with another marker structure 4 fixedly arranged. The marker structure 4 is also a QR code of the instrument 2 and details of its dimensions and / or a manufacturer of the instrument 2 contains. Also, in the marker structure 4 Information about the dimensions of the marker structure 4 themselves or their size included, so for example, a size of 4 cm deposited on 4 cm in encoded by the QR code form. In further embodiments, instead of a QR code, a bar code or a two-color structure of any geometric shapes, for example, with circles, can be used. In addition, combinations of different forms of representation of the marker structure 4 possible.

Oberhalb des Patienten 1 ist eine OP-Lampe 6 als Lichtquelle angeordnet, an der eine Kamera 5 befestigt ist, durch die mehrere Einzelbilder des Patienten 1 und des Instrumentes 2 mit den jeweiligen Markern 3 aufgenommen werden. Diese Einzelbilder werden an eine ebenfalls an der OP-Lampe 6 angebrachte Auswerteeinheit 7 übermittelt, dort verarbeitet und ein Ergebnis der Verarbeitung auf einer in 1 schematisch dargestellten Ausgabeeinheit 20, beispielsweise einem Display, einem Benutzer, wie einem Chirurgen in dem Operationssaal, ausgegeben.Above the patient 1 is a surgical lamp 6 arranged as a light source, on which a camera 5 is attached, through which several individual images of the patient 1 and the instrument 2 with the respective markers 3 be recorded. These frames will be attached to one of the surgical lights 6 attached evaluation unit 7 transmitted, processed there and a result of the processing on an in 1 schematically shown output unit 20 , such as a display, to a user, such as a surgeon in the operating room.

Diese Anordnung dient einer Durchführung eines Verfahrens zur Instrumentennavigation, das mit Hilfe der in die OP-Lampe 6 oder OP-Leuchte integrierten Kamera 5 als Aufnahmeeinheit und den codierten Markern 3 als Instrumententracker bzw. Patiententracker navigierte chirurgische Eingriffe ermöglicht. Die über einem Operationsgebiet positionierte OP-Lampe 6 mit der integrierten Kamera 5 erfasst die codierten Marker 3 mit ihren Markerstrukturen 4, die an einem oder mehreren medizinischen Instrumenten 2 sowie am Patienten 1 angebracht sind.This arrangement is used to carry out a method for instrument navigation, with the help of the in the surgical lamp 6 or surgical light integrated camera 5 as recording unit and the coded markers 3 as an instrument tracker or patient tracker navigated surgical interventions allows. The surgical lamp positioned over an operating area 6 with the integrated camera 5 captures the coded markers 3 with their marker structures 4 attached to one or more medical instruments 2 as well as on the patient 1 are attached.

Aus einer Projektion der als Flächenmarker gestalteten Markerstrukturen 4 auf die Kamera 5 kann eine Position und eine Orientierung der Markerstrukturen 4 bzw. Markercodes algorithmisch berechnet werden, wodurch eine für die Navigation erforderliche Koordinatentransformation zwischen einem Koordinatensystem des Patienten 1 und einem Koordinatensystem des Instruments 2 bekannt ist. Die Lage der Marker 3 wird hierbei durch deren Größe, Verzerrung und Form bestimmt. Die Markerstruktur 4 mit den Markerinformationen kann in weiteren Ausführungsbeispielen auch verschlüsselt sein, beispielsweise durch einen Hash-Code. Aus der ermittelten Lage der Marker 3 im Kamerabild und deren in den Aufnahmen ermittelten Abmessungen kann durch einen Vergleich mit den beispielsweise in der Markerstruktur 4 hinterlegten bekannten Abmessungen algorithmisch eine Entfernung zwischen der Kamera 5 und dem jeweils betrachteten Marker 3 ermittelt werden.From a projection of the marker structures designed as area markers 4 to the camera 5 can be a position and an orientation of marker structures 4 or marker codes are calculated algorithmically, whereby a required for the navigation coordinate transformation between a coordinate system of the patient 1 and a coordinate system of the instrument 2 is known. The location of the markers 3 is determined by their size, distortion and shape. The marker structure 4 With the marker information can also be encrypted in other embodiments, for example, by a hash code. From the determined position of the markers 3 in the camera image and their dimensions determined in the images can be compared with the example in the marker structure 4 deposited known dimensions algorithmically a distance between the camera 5 and the respective marker considered 3 be determined.

Durch eine Integration in bereits in dem Operationssaal vorhandene Ausstattung ergibt sich eine Zeit- und Kastenersparnis und eine Verminderung einer ”Eine-of-Sight”-Problematik durch die Positionierung einer Messkamera über dem Operationsgebiet und einem intuitiven Freilassen eines Sichtfelds der Kamera 5. Somit wird eine Instrumentennavigation ermöglicht, die eine Darstellung der Lage chirurgischer Instrumente 2 in einem präoperativ aufgenommenen dreidimensionalen Datensatz, beispielsweise einem durch Computertomographie erhaltenen Volumendatensatz des Patienten 1, umfasst. Dazu müssen die Positionen der Instrumente 2 und des Patienten 1 bzw. des Operationsgebiets kontinuierlich messtechnisch bestimmt werden und zu dem bereits vorhandenen dreidimensionalen Datensatz in Beziehung gesetzt werden.Integration into equipment already present in the operating room results in time and box savings and a reduction in a "one-of-sight" issue by positioning a measuring camera over the surgical field and intuitively releasing a field of view of the camera 5 , Thus, an instrument navigation is provided, which is a representation of the location of surgical instruments 2 in a preoperatively recorded three-dimensional data set, for example a volume data set of the patient obtained by computed tomography 1 , includes. This requires the positions of the instruments 2 and the patient 1 or the operating area are continuously determined metrologically and are related to the already existing three-dimensional data set in relation.

Als Beispiel für die Markerstruktur 4 ist einer der auf den in 1 gezeigten Markern 3 verwendete QR-Codes in 2 in Draufsicht dargestellt. Wiederkehrende Merkmale sind in dieser Figur wie auch in den folgenden Figuren mit identischen Bezugszeichen versehen. Die dargestellte Codierung enthält Informationen über die Größe des in Draufsicht quadratischen Markers 3 bzw. dessen Abmessungen sowie den Instrumententyp des Instruments 2, an dem der Marker 3 befestigt ist. Der in 2 dargestellte beispielhafte QR-Code stellt sich nach einem Auslesen als ”s50 Pointer” dar und bezeichnet durch ”s50” eine Kantenlänge von 50 mm, wodurch aufgrund der quadratischen Ausgestaltung sowohl Länge als auch Breite bekannt sind. Durch ”Pointer” wird das Werkzeug bezeichnet, an dem der Marker 3 mit der dargestellten Markerstruktur 4 befestigt ist. Gegebenenfalls kann der Marker 3 bzw. die Markerstruktur 4 als Codierung auch eine Transformation zur Instrumentenspitze aufweisen. Die Markerstrukturen 4 und die Marker 3 können sehr flexibel ausgebildet sein. Beispielsweise können Metallplättchen oder Kunststoffplättchen durch Lasergravieren oder Ätzen strukturiert werden, oder es können Aufkleber ausgedruckt und auf das Instrument 2 aufgeklebt werden.As an example of the marker structure 4 is one of the most on the in 1 shown markers 3 used QR codes in 2 shown in plan view. Recurring features are provided with identical reference numerals in this figure as well as in the following figures. The illustrated coding contains information about the size of the square in plan view marker 3 or its dimensions and the instrument type of the instrument 2 at which the marker 3 is attached. The in 2 The example QR code shown after reading is represented as "s50 pointer" and denoted by "s50" has an edge length of 50 mm, which due to the square configuration both length and width are known. "Pointer" refers to the tool on which the marker is located 3 with the illustrated marker structure 4 is attached. Optionally, the marker 3 or the marker structure 4 as coding also have a transformation to the instrument tip. The marker structures 4 and the markers 3 can be designed very flexible. For example, metal flakes or plastic flakes may be patterned by laser engraving or etching, or stickers may be printed and applied to the instrument 2 glued on.

Videobilddaten der in der OP-Lampe 6 integrierten Kamera 5 werden in dem im Folgenden noch näher beschriebenen Verfahren zur Navigation verwendet, wobei, wie in 3 in einer perspektivischen Ansicht gezeigt, aus einer Abbildung des Flächenmarkers in einem Einzelbild der Videobilddaten die Position und die Orientierung des Markers 3 im Raum bestimmt werden. Das von der Kamera 5 aufgenommene Einzelbild 21 ist in 3 mit einem zugehörigen Koordinatensystem zwischen der Kamera 5 und dem mit dem Marker 3 und der Markerstruktur 4 versehenen Instrument 2 schematisch dargestellt. Die Markerstruktur 4 erscheint in dem Einzelbild 21 aufgrund einer Verkippung des Instruments 2 und des Markers 3 verzerrt. Da der Marker 3 auch gut erfassbare Außenkanten als zusätzliche sogenannte ”feature points” zu den schwarz-weiß Übergängen der Markerstruktur 4 aufweist, kann die Markerstruktur 4 mit ihrer Verzerrung im Einzelbild 21 klar erfasst werden und durch die Auswerteeinheit 7 verarbeitet werden. Zudem kann auch ein Abstand zwischen dem Marker 3 und der Kamera 5 bestimmt werden.Video image data in the operating room lamp 6 integrated camera 5 are used in the navigation method described in more detail below, wherein, as in 3 shown in a perspective view, from an image of the area marker in a frame of the video image data, the position and orientation of the marker 3 to be determined in the room. That from the camera 5 captured single image 21 is in 3 with an associated coordinate system between the camera 5 and with the marker 3 and the marker structure 4 provided instrument 2 shown schematically. The marker structure 4 appears in the frame 21 due to tilting of the instrument 2 and the marker 3 distorted. Because the marker 3 also well detectable outer edges as additional so-called "feature points" to the black and white transitions of the marker structure 4 may have the marker structure 4 with its distortion in the frame 21 be clearly recorded and by the evaluation unit 7 are processed. In addition, there may be a distance between the marker 3 and the camera 5 be determined.

Ein entsprechendes Ausführungsbeispiel eines Verfahrens ist in 4 in einem Ablaufdiagramm dargestellt. Ziel ist hierbei, die Position und Orientierung des Markers 3 bzw. der Markerstruktur 4 im Videodatenstrom aus den Einzelbildern 21 zu rekonstruieren. Hierzu wird zunächst eine Kamerakalibrierung 8 zur Bestimmung der internen Kameraparameter und Eliminierung optischer Verzerrungen durchgeführt. Nachfolgend erfolgt zur Bestimmung der Lagedaten eine Markerlokalisation 9, wodurch ein Bildausschnitt in dem Einzelbild 21 bestimmt wird, in dem sich der Marker 3 befindet. Eine anschließende Markererkennung 10 liest die in der Markerstruktur 4 enthaltenen Informationen aus, beispielsweise die Große oder die Transformation zur Instrumentenspitze. In der darauffolgenden Markerdetektion 11 erfolgt eine präzise Erkennung der Markerstruktur 4 und dadurch die Bestimmung von Punkt- und Linienkorrespondenzen als Basis für die Positions- und Orientierungsberechnung, der sogenannten ”Pose”. Diese Poseberechnung 12 wird durch eine Homographie-Transformation auf die Position und die Orientierung des Markers 3 rückgerechnet. Im letzten Schritt wird durch ein nicht-lineare Optimierung 13 ein Rückprojektionsfehler minimiert und hierdurch die optimale Pose bestimmt Außerdem kann als Optimierungsschritt mittels z. B. eines Kalman-Filters das dargestellte Verfahren stabilisiert und hierdurch Ausreißer eliminiert werden.A corresponding embodiment of a method is in 4 shown in a flow chart. The goal here is the position and orientation of the marker 3 or the marker structure 4 in the video stream from the frames 21 to reconstruct. For this purpose, first a camera calibration 8th for determining the internal camera parameters and eliminating optical distortions. Subsequently, a marker localization is carried out to determine the position data 9 , creating a picture detail in the frame 21 it is determined in which the marker 3 located. A subsequent marker detection 10 read those in the marker structure 4 contained information, such as the size or the transformation to the instrument tip. In the subsequent marker detection 11 there is a precise recognition of the marker structure 4 and thus the determination of point and line correspondences as the basis for the position and orientation calculation, the so-called "pose". This pose calculation 12 is transformed by a homography on the position and orientation of the marker 3 recalculated. The last step is through a non-linear optimization 13 minimizes a backprojection error and thereby determines the optimal pose In addition, as an optimization step using z. B. a Kalman filter stabilizes the illustrated method and thereby outliers are eliminated.

5 zeigt in einer 1 entsprechenden Ansicht den auf dem Patienten 1 befestigten Marker 3 mit Markerstruktur 4, der nun jedoch durch ein Stereokamerasystem aus den OP-Lampen 6 und 14 mit jeweils daran angeordneten Kameras 5 und einer gemeinsamen Auswerteeinheit 7 erfasst wird. Statt zweier OP-Lampen 6 und 14 kann in weiteren Ausführungsbeispielen auch ein einteiliges Gerät mit zwei darin enthaltenen Kameras 5 verwendet werden. Es ist aber natürlich auch möglich, mehr als zwei Kameras zu verwenden, die in jeweils einzelnen Gehäusen oder in einem einzigen Gehäuse angeordnet sind. 5 shows in one 1 corresponding view on the patient 1 attached marker 3 with marker structure 4 However, the now by a stereo camera system from the surgical lights 6 and 14 each with cameras arranged on it 5 and a common evaluation unit 7 is detected. Instead of two surgical lights 6 and 14 may in other embodiments, a one-piece device with two cameras contained therein 5 be used. Of course, it is also possible to use more than two cameras, which are arranged in individual housings or in a single housing.

Die Markernavigation kann mit beliebig vielen Kameras 5 umgesetzt werden. Bei einer Nutzung von mehr als einer Kamera 5 erhöht sich eine Genauigkeit und Robustheit der Instrumentennavigation erheblich. Weiterhin erhöht sich die Wahrscheinlichkeit, dass immer zumindest eine der Kameras 5 ein freies Sichtfeld auf die Markerstrukturen 4 als Markerlokalisatoren hat. Da Operationssäle zunehmend mit Kameras 5 für Schulungs-, Visualisierungs- und Dokumentationszwecke ausgerüstet sind, können diese Kameras 5 auch für Navigationszwecke genutzt werden.The marker navigation can with any number of cameras 5 be implemented. When using more than one camera 5 Increases the accuracy and robustness of instrument navigation significantly. Furthermore, the probability increases that always at least one of the cameras 5 a clear field of view on the marker structures 4 as marker locators. As operating theaters increasingly with cameras 5 For training, visualization and documentation purposes, these cameras can 5 also be used for navigation purposes.

Ein entsprechendes Verfahrensablaufdiagramm beim Benutzen zweier Kameras 5 ist in 6 in einer 4 entsprechenden Ansicht gezeigt. Startend mit der Kalibrierung 15 der ersten Kamera 5 und der Kalibrierung 16 der zweiten Kamera 5 erfolgt die Markerdetektion 11 und die Berechnung der Position und Orientierung der Marker 3, also die Poseberechnung 12, für jede der Kameras 5 individuell durch die gemeinsame Auswerteeinheit 7. Aus der Transformation, also Translation und Rotation, der Marker 3 zu jeder der Kameras 5 kann wiederum durch eine Transformationsberechnung 17 die Transformation der beiden Kameras 5 zueinander berechnet werden. Hierdurch kann durch eine Stereotriangulation 18 die Markerlage bestimmt werden und ein Genauigkeitscheck 19 sowie eine Optimierung 13 der berechneten Lage aus den individuellen Berechnungen, also der Lagebestimmung 12 der ersten Kamera 5 und der zweiten Kamera 5 sowie der Lagebestimmung durch Triangulation 18, durchgeführt werden.A corresponding process flow diagram when using two cameras 5 is in 6 in a 4 corresponding view shown. Starting with the calibration 15 the first camera 5 and the calibration 16 the second camera 5 the marker detection takes place 11 and the calculation of the position and orientation of the markers 3 So the pose calculation 12 , for each of the cameras 5 individually by the common evaluation unit 7 , From the transformation, ie translation and rotation, the marker 3 to each of the cameras 5 in turn, through a transformation calculation 17 the transformation of the two cameras 5 be calculated to each other. This can be achieved by stereotriangulation 18 the marker position will be determined and an accuracy check 19 as well as an optimization 13 the calculated position from the individual calculations, ie the orientation 12 the first camera 5 and the second camera 5 as well as the orientation by triangulation 18 , be performed.

Die Auswerteeinheit 7 ist typischerweise eine elektronische Recheneinheit, beispielsweise ein Computer, auf der ein Computerprogramm abläuft, das das beschriebene Verfahren durchführt und bzw. oder die beschriebene Anordnung ansteuert. Ein Computerprogrammprodukt liegt in Form einer auf einem maschinenlesbaren Träger wie einer Festplatte oder einer Compact Disc gespeicherten Befehlsfolge (oder Teile eines Programmcodes) vor, die das Verfahren wie beschrieben durchführt bzw. die Anordnung ansteuert, wenn das Computerprogramm auf der elektronischen Recheneinheit abläuft.The evaluation unit 7 is typically an electronic processing unit, such as a computer running on a computer program that performs the described method and / or controls the described arrangement. A computer program product is in the form of a sequence of instructions (or parts of a program code) stored on a machine-readable medium such as a hard disk or a compact disc, which performs the method as described or controls the arrangement when the computer program runs on the electronic processor.

7 zeigt eine weitere Ausführungsform des Markers 3 in einer perspektivischen Ansicht. Auf dem Instrument 2 ist der als Flchenmarker ausgeführte Marker 3 nun dreidimensional ausgeprägt, um seine Sichtbarkeit aus verschiedenen Richtungen zu gewährleisten. Hierzu ist der Marker 3 aus mehreren gegeneinander verkippten Plättchen aufgebaut, auf denen jeweils die Markerstruktur 4 angeordnet ist. In weiteren Ausführungsbeispielen kann auch auf jedem der Plättchen lediglich ein Teil der Markerstruktur 4 angeordnet sein. Der Marker 3 ist somit um das Instrument 2 gebogen. Dies erlaubt es, eine Genauigkeitssteigerung des beschriebenen Verfahrens zur Lageerfassung zu erreichen, da nun zwei oder mehr Flächen zur Lagebestimmung verwendet werden. 7 shows a further embodiment of the marker 3 in a perspective view. On the instrument 2 is the marker designed as a flath marker 3 now three-dimensional, to ensure its visibility from different directions. This is the marker 3 composed of several mutually tilted platelets, on each of which the marker structure 4 is arranged. In further embodiments, only a portion of the marker structure may be on each of the platelets 4 be arranged. The marker 3 is thus the instrument 2 bent. This makes it possible to achieve an increase in accuracy of the described method for position detection, since now two or more surfaces are used for orientation.

8 zeigt ein detailliertes Ausführungsbeispiel des Verfahrens. Startend mit einer Videobildaufnahme 22 durch die Kamera 5, die Eingabedaten für das Verfahren erzeugt, wird zunächst ein Einzelbild 21 erhalten, in dem der Marker 3 neben einer Nichtmarkerumgebung 23 abgebildet ist. 8th shows a detailed embodiment of the method. Starting with a video image capture 22 through the camera 5 , which generates input data for the method, first becomes a frame 21 get in which the marker 3 next to a nonmarker environment 23 is shown.

Nachfolgend erfolgt bei dem dargestellten Ausführungsbeispiel eine grobe Markerlokalisation 9, bei der ein Bildausschnitt 24 um den Marker 3 ermittelt wird anhand Grobstrukturen 25 oder Markierungen des Markers 3 als sogenannte ”finder pattern”. Der vergrößerte Bildausschnitt 24 mit dem Marker 3 wird nachfolgend weiterverarbeitet, indem ein Auslesen 26 der codierten Markerinformationen aus der Markerstruktur 4 und eine feinere Markerlokalisation 27 in dem erfassten Bildausschnitt 24 durchgeführt, bei der die ausgelesenen Markerinformationen bereits benutzt werden und außerdem eine Linienzuordnung 28 von nun ermittelten Feinstrukturen und eine Detektion bzw. Lokalisierung der Feinstrukturen erfolgt. Im Ergebnis kann somit im letzten Schritt 29 eine Ausgabe von genaueren Lagedaten zwischen dem Marker 3 und der Kamera 5 erfolgen.Subsequently, in the illustrated embodiment, a coarse marker location 9 in which a picture section 24 around the marker 3 is determined by rough structures 25 or markers of the marker 3 as so-called "finder pattern". The enlarged image section 24 with the marker 3 is subsequently processed by a readout 26 the coded marker information from the marker structure 4 and a finer marker localization 27 in the captured image section 24 performed, in which the read marker information is already used and also a line mapping 28 from now determined fine structures and a detection or localization of the fine structures takes place. As a result, in the last step 29 an output of more accurate location data between the marker 3 and the camera 5 respectively.

Der dargestellte QR-Code ergibt ausgelesen ”id = 1001 size = 54 mm Fraunhofer” und bezeichnet eine Identifikationsnummer des Instruments, an dem der Marker 3 befestigt ist, bzw. eine Identifikationsnummer des Markers selbst sowie eine Angabe der Kantenlänge und eine Angabe des Herstellers des Instruments, an dem der Marker 3 mit der abgebildeten Markerstruktur 4 befestigt ist.The QR code shown reads "id = 1001 size = 54 mm Fraunhofer" and denotes an identification number of the instrument to which the marker 3 is attached, or an identification number of the marker itself and an indication of the edge length and an indication of the manufacturer of the instrument to which the marker 3 with the depicted marker structure 4 is attached.

Lediglich in den Ausführungsbeispielen offenbarte Merkmale der verschiedenen Ausführungsformen können miteinander kombiniert und einzeln beansprucht werden.Only features disclosed in the embodiments of the various embodiments can be combined and claimed individually.

Claims (10)

Verfahren zur Lageerfassung eines zu untersuchenden Objekts (1, 2), an dem ortsfest ein Marker (3) mit einer optisch auslesbaren Struktur (4) angeordnet ist, die zumindest Abmessungen und/oder eine Größe des Markers (3) codiert kennzeichnet, mit den Schritten: a) Optisches Aufnehmen (8) mindestens eines Einzelbilds (21) des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit (5) und Übermitteln des mindestens einen Einzelbilds (21) an eine Auswerteeinheit (7); b) Durchführen einer Markerlokatisation (9) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit (7); c) Festlegen eines Bildausschnitts (10) in dem mindestens einen Einzelbild (21), in dem sich der Marker befindet, durch die Auswerteeinheit (7); d) Durchführen einer Markerdetektion (11), bei der die an dem oder auf dem Marker (3) angeordnete Struktur (4) erfasst wird, durch die Auswerteeinheit (7); e) Verarbeiten der bei der Markerdetektion (12) erfassten Struktur (4), wobei zumindest eine Position und/oder eine Orientierung des Markers (3) in Bezug zu der optischen Aufnahmeeinheit (5) aus den durch die Struktur (4) codierten Abmessungen oder der Größe des erfassten Markers (3) und der erfassten Struktur (4) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit ermittelt und in der Auswerteeinheit (7) gespeichert werden und/oder auf einer Ausgabeeinheit (20) dargestellt werden.Method for detecting the position of an object to be examined ( 1 . 2 ), to which a marker ( 3 ) with an optically readable structure ( 4 ) is arranged, the at least dimensions and / or a size of the marker ( 3 ), comprising the steps of: a) optical recording ( 8th ) at least one frame ( 21 ) of the object to be examined with an optical recording unit ( 5 ) and transmitting the at least one single image ( 21 ) to an evaluation unit ( 7 ); b) performing a markerlocation ( 9 ) in the at least one single image ( 21 ) by the evaluation unit ( 7 ); c) definition of an image section ( 10 ) in the at least one single image ( 21 ), in which the marker is located, through the evaluation unit ( 7 ); d) performing a marker detection ( 11 ), in which the at or on the marker ( 3 ) arranged structure ( 4 ) is detected by the evaluation unit ( 7 ); e) processing the during marker detection ( 12 ) ( 4 ), wherein at least one position and / or orientation of the marker ( 3 ) with respect to the optical pickup unit ( 5 ) from the through the structure ( 4 ) encoded dimensions or the size of the detected marker ( 3 ) and the recorded structure ( 4 ) in the at least one single image ( 21 ) determined by the evaluation unit and in the evaluation unit ( 7 ) and / or on an output unit ( 20 ) being represented. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch die Struktur (4) des Markers (3) eine Größe, eine Bezeichnung und/oder eine Form des zu untersuchenden Objekts (1, 2) gekennzeichnet werden.Method according to claim 1, characterized in that through the structure ( 4 ) of the marker ( 3 ) a size, a name and / or a shape of the object to be examined ( 1 . 2 ). Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass von der Auswerteeinheit (7) der Abstand zwischen dem Marker (3) und der optischen Aufnahmeeinheit (5) bestimmt wird.Method according to Claim 1 or Claim 2, characterized in that the evaluation unit ( 7 ) the distance between the marker ( 3 ) and the optical recording unit ( 5 ) is determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Struktur (4) des Markers (3) durch einen Strichcode, einen QR-Code, mindestens eine Kante und/oder kreisförmige Strukturen mit mindestens zwei Farben gebildet werden.Method according to one of the preceding claims, characterized in that the structure ( 4 ) of the marker ( 3 ) are formed by a bar code, a QR code, at least one edge and / or circular structures with at least two colors. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass von der Auswerteeinheit (7) beim Verarbeiten der Strukturen eine Transformation zwischen dem Marker (3) und der optischen Aufnahmeeinheit (5) in dem mindestens einen Einzelbild (21) ermittelt wird, um die Position des Markers (3) und die Orientierung des Markers (3) zu bestimmen und/oder zu überprüfen.Method according to one of the preceding claims, characterized in that the evaluation unit ( 7 ) when processing the structures, a transformation between the marker ( 3 ) and the optical recording unit ( 5 ) in the at least one single image ( 21 ) to determine the position of the marker ( 3 ) and the orientation of the marker ( 3 ) to determine and / or verify. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine nicht-lineare Optimierung von der Auswerteeinheit (7) beim Verarbeiten der Struktur (4) durchgeführt wird, um Rückprojektionsfehler zu minimieren.Method according to one of the preceding claims, characterized in that a non-linear optimization of the evaluation unit ( 7 ) when processing the structure ( 4 ) to minimize backprojection errors. Anordnung zur Lageerfassung eines zu untersuchenden Objekts (1, 2), an dem ortsfest ein Marker (3) mit einer optisch auslesbaren Struktur angeordnet ist, mit einer optischen Aufnahmeeinheit (5) und einer Auswerteeinheit (7), wobei die Anordnung eingerichtet ist, ein Verfahren nach einem der Ansprüche 1–6 durchzuführen.Arrangement for detecting the position of an object to be examined ( 1 . 2 ), to which a marker ( 3 ) is arranged with an optically readable structure, with an optical recording unit ( 5 ) and an evaluation unit ( 7 ), wherein the arrangement is arranged to perform a method according to any one of claims 1-6. Anordnung nach Anspruch 7, dadurch gekennzeichnet, dass die optische Aufnahmeeinheit (5) an einer Lichtquelle (6) eines Operationssaals angeordnet ist.Arrangement according to claim 7, characterized in that the optical recording unit ( 5 ) at a light source ( 6 ) is arranged an operating room. Anordnung nach Anspruch 7 oder Anspruch 8, dadurch gekennzeichnet, dass die optische Aufnahmeeinheit (5) als eine Stereokamera oder als mehr als zwei einzelne Kameras ausgebildet ist.Arrangement according to claim 7 or claim 8, characterized in that the optical recording unit ( 5 ) is designed as a stereo camera or as more than two individual cameras. Computerprogrammprodukt, aufweisend eine auf einem maschinenlesbaren Träger gespeicherte Befehlsfolge zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 6 und/oder zum Ansteuern der Anordnung nach einem der Ansprüche 7 bis 9, wenn das Computerprogrammprodukt auf einer elektronischen Recheneinheit abläuft.A computer program product comprising an instruction sequence stored on a machine-readable medium for carrying out the method according to one of claims 1 to 6 and / or for driving the arrangement according to any one of claims 7 to 9, when the computer program product runs on an electronic processing unit.
DE102015212352.9A 2015-07-01 2015-07-01 Method, arrangement and computer program product for the position detection of an object to be examined Withdrawn DE102015212352A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015212352.9A DE102015212352A1 (en) 2015-07-01 2015-07-01 Method, arrangement and computer program product for the position detection of an object to be examined

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015212352.9A DE102015212352A1 (en) 2015-07-01 2015-07-01 Method, arrangement and computer program product for the position detection of an object to be examined

Publications (1)

Publication Number Publication Date
DE102015212352A1 true DE102015212352A1 (en) 2017-01-05

Family

ID=57582918

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015212352.9A Withdrawn DE102015212352A1 (en) 2015-07-01 2015-07-01 Method, arrangement and computer program product for the position detection of an object to be examined

Country Status (1)

Country Link
DE (1) DE102015212352A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018007091A1 (en) 2016-07-06 2018-01-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Imaging device for an operating theatre
DE102018208203A1 (en) * 2018-05-24 2019-11-28 Carl Zeiss Industrielle Messtechnik Gmbh Target body, assembly with target body and method for determining a position and / or orientation of a target body
DE102018010361B4 (en) * 2018-05-24 2021-06-17 Carl Zeiss Industrielle Messtechnik Gmbh Target body with a plurality of markers, arrangement with target body and method for determining a position and / or an alignment of a target body
DE102020126029A1 (en) 2020-10-05 2022-04-07 B. Braun New Ventures GmbH Surgical assistance system and display method
DE102020134898A1 (en) 2020-12-23 2022-06-23 Sensopart Industriesensorik Gmbh Target for determining a three-dimensional pose of an object
WO2022182549A1 (en) * 2021-02-26 2022-09-01 Surgical Planning Associates Inc. Systems and methods for registering and tracking anatomical structures
US11504855B2 (en) 2017-06-20 2022-11-22 Carl Zeiss Smt Gmbh System, method and marker for the determination of the position of a movable object in space
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
DE102021213358A1 (en) 2021-11-26 2023-06-01 Physik Instrumente (PI) GmbH & Co KG Pose determination for parallel kinematics with reference markers
US11806081B2 (en) 2021-04-02 2023-11-07 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015003727A1 (en) * 2013-07-08 2015-01-15 Brainlab Ag Single-marker navigation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015003727A1 (en) * 2013-07-08 2015-01-15 Brainlab Ag Single-marker navigation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Wikipedia QR-Code *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018007091A1 (en) 2016-07-06 2018-01-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Imaging device for an operating theatre
US11504855B2 (en) 2017-06-20 2022-11-22 Carl Zeiss Smt Gmbh System, method and marker for the determination of the position of a movable object in space
DE102018208203A1 (en) * 2018-05-24 2019-11-28 Carl Zeiss Industrielle Messtechnik Gmbh Target body, assembly with target body and method for determining a position and / or orientation of a target body
DE102018208203B4 (en) * 2018-05-24 2020-02-13 Carl Zeiss Industrielle Messtechnik Gmbh Target body, arrangement with target body and method for determining a position and / or an orientation of a target body
US10748300B2 (en) 2018-05-24 2020-08-18 Carl Zeiss Industrielle Messtechnik Gmbh Target body, arrangement including a target body, and method for determining a position and/or an alignment of a target body
DE102018010361B4 (en) * 2018-05-24 2021-06-17 Carl Zeiss Industrielle Messtechnik Gmbh Target body with a plurality of markers, arrangement with target body and method for determining a position and / or an alignment of a target body
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
DE102020126029A1 (en) 2020-10-05 2022-04-07 B. Braun New Ventures GmbH Surgical assistance system and display method
DE102020134898A1 (en) 2020-12-23 2022-06-23 Sensopart Industriesensorik Gmbh Target for determining a three-dimensional pose of an object
WO2022182549A1 (en) * 2021-02-26 2022-09-01 Surgical Planning Associates Inc. Systems and methods for registering and tracking anatomical structures
US11806081B2 (en) 2021-04-02 2023-11-07 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US11871997B2 (en) 2021-04-02 2024-01-16 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
US11610378B1 (en) 2021-10-04 2023-03-21 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
DE102021213358A1 (en) 2021-11-26 2023-06-01 Physik Instrumente (PI) GmbH & Co KG Pose determination for parallel kinematics with reference markers

Similar Documents

Publication Publication Date Title
DE102015212352A1 (en) Method, arrangement and computer program product for the position detection of an object to be examined
EP3330922B1 (en) Method and device for representing an object
EP1900336B1 (en) Device and method for measuring geometric properties of medical tools, in particular for automated verification, calibration and gauging of tools for computer assisted surgery
EP1719472B1 (en) Devices and methods for automatic verification, calibration and measurement of instruments for computer aided surgery
DE102006005036A1 (en) System for determination of form and alignment of body, comprises of computer-aided navigation system, detection unit and tracing device, which can be detected by computer-aided navigation system
WO2003105709A1 (en) Method and instrument for surgical navigation
DE102011114333B4 (en) A method of registering an X-ray volume with a position sensing system using a registration phantom
DE19807884C2 (en) Method for calibrating a recording device for determining spatial coordinates of anatomical target objects and device for carrying out the method
EP3290861B1 (en) Sensor unit with an optical sensor unit and automation system
DE102014102425B4 (en) Microscope system and microscopy method using digital markers
DE102017113615A1 (en) System, method and marker for determining the position of a moving object in space
DE102007030378A1 (en) Camera system e.g. eye tracking system, position determining method for use in vehicle, involves performing determination of position of camera system with respect to reference system under consideration of position of display system
DE102015013551B4 (en) System and method for determining the position and orientation of objects
EP1657678B1 (en) Patient registration assisted by video imaging
DE102018119343A1 (en) Methods for calibrating objects in a reference coordinate system and method for tracking objects
EP1813911A1 (en) Position determination system
DE102020200959A1 (en) Recording of a panorama data set of an examination subject by means of a movable medical X-ray device
DE102014110570A1 (en) An imaging apparatus and method combining functional imaging and ultrasound imaging
EP1667067B1 (en) Method and apparatus for calibrating a medical instrument
EP1681028B1 (en) Video tracking and registration
DE102009019019A1 (en) Video-based mono camera navigation system
DE102017122627B4 (en) Optical measuring system and measuring method
DE102018208604A1 (en) Determining a recording behavior of a recording unit
DE102017208526A1 (en) Marker based camera tracker
DE102012209664B4 (en) DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee