DE102016217628A1 - Movement of a surgical microscopy system - Google Patents

Movement of a surgical microscopy system Download PDF

Info

Publication number
DE102016217628A1
DE102016217628A1 DE102016217628.5A DE102016217628A DE102016217628A1 DE 102016217628 A1 DE102016217628 A1 DE 102016217628A1 DE 102016217628 A DE102016217628 A DE 102016217628A DE 102016217628 A1 DE102016217628 A1 DE 102016217628A1
Authority
DE
Germany
Prior art keywords
image
movement
detection structure
microscope optics
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016217628.5A
Other languages
German (de)
Other versions
DE102016217628B4 (en
Inventor
Tanja Teuber
Dr. Haverkamp Nils
Dr. Omlor Lars
Dominik Seitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102016217628.5A priority Critical patent/DE102016217628B4/en
Publication of DE102016217628A1 publication Critical patent/DE102016217628A1/en
Application granted granted Critical
Publication of DE102016217628B4 publication Critical patent/DE102016217628B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • A61B90/25Supports therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/362Mechanical details, e.g. mountings for the camera or image sensor, housings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Operationsmikroskopiesystems (1), das aufweist: – eine Mikroskop-Optik (21), welche einen Objektbereich zur Berücksichtigung bei einer Operation abbildet, – eine Bewegungseinrichtung (18), welche die Mikroskop-Optik (21) derart bewegt, dass eine Position des Objektbereichs verändert wird, – zumindest eine Bildaufzeichnungseinrichtung (23, 24), (a) die entweder mit der Mikroskop-Optik (21) verbunden ist und bei Bewegung der Mikroskop-Optik (21) mitbewegt wird, wobei die Bildaufzeichnungseinrichtung (23, 24) eine separat von der Mikroskop-Optik (21) angeordnete Erfassungsstruktur (28, 29), die bei Bewegung der Mikroskop-Optik (21) nicht mitbewegt wird, durch zumindest ein Aufzeichnungsbild erfasst, (b) oder die separat von der Mikroskop-Optik (21) angeordnet ist, bei Bewegung der Mikroskop-Optik (21) nicht mitbewegt wird und eine Erfassungsstruktur (28, 29), die durch die Mikroskop-Optik (21) und/oder durch zumindest ein fest mit der Mikroskop-Optik (21) verbundenes Teil gebildet ist und/oder an der Mikroskop-Optik (21) und/oder an dem zumindest einen fest mit der Mikroskop-Optik (21) verbundenen Teil angeordnet ist, durch zumindest ein Aufzeichnungsbild erfasst, wobei unter Verwendung von Informationen über eine tatsächliche Erscheinung der Erfassungsstruktur (28, 29) aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur (28, 29) eine Geschwindigkeit einer Relativbewegung der Bildaufzeichnungseinrichtung (23, 24) und der Erfassungsstruktur (28, 29) ermittelt wird.The invention relates to a method for operating a surgical microscopy system (1), comprising: a microscope optics (21) which images an object area for consideration during an operation, a movement device (18) which transmits the microscope optics (21) moved such that a position of the object area is changed, - at least one image recording device (23, 24), (a) which is either connected to the microscope optics (21) and moves with movement of the microscope optics (21), wherein the image recording device (23, 24) detects a detection structure (28, 29) arranged separately from the microscope optics (21), which is not moved when the microscope optics (21) move, by at least one recording image, (b) or is arranged separately from the microscope optics (21), is not moved during movement of the microscope optics (21) and a detection structure (28, 29) through the microscope optics (21) and / or by at least one fe St formed with the microscope optics (21) part is formed and / or on the microscope optics (21) and / or on which at least one fixed to the microscope optics (21) connected part, detected by at least one recording image wherein, using information about an actual appearance of the detection structure (28, 29) from differences in the at least one recording image to the actual appearance of the detection structure (28, 29), a speed of relative movement of the image recording device (23, 24) and the detection structure (28 , 29) is determined.

Description

Die Erfindung betrifft ein Verfahren zum Betreiben eines Operationsmikroskopiesystems, ein Bewegungsmesssystem für ein Operationsmikroskopiesystem und ein Operationsmikroskopiesystem, das das Bewegungsmesssystem aufweist. Das Operationsmikroskopiesystem weist eine Mikroskop-Optik auf, welche dazu ausgestaltet ist, einen Objektbereich zur Berücksichtigung bei einer Operation abzubilden. Der Objektbereich enthält insbesondere den Bereich, den ein Chirurg während einer Operation eines Patienten beobachtet. Mittels einer Bewegungseinrichtung kann die Mikroskop-Optik derart bewegt werden, dass eine Position des Objektbereichs verändert wird. Zum Beispiel verschiebt sich dadurch der Objektbereich quer zur Beobachtungsrichtung der Mikroskop-Optik. The invention relates to a method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and a surgical microscopy system having the motion sensing system. The surgical microscopy system has a microscope optic which is designed to image an object area for consideration during an operation. Specifically, the object area includes the area a surgeon observes during a patient's operation. By means of a movement device, the microscope optics can be moved in such a way that a position of the object area is changed. For example, the object area shifts thereby transversely to the observation direction of the microscope optics.

Insbesondere mikrochirurgische Eingriffe am menschlichen Körper werden von einem Chirurgen häufig unter Verwendung eines Operationsmikroskopiesystems durchgeführt. Ein solches Operationsmikroskopiesystem weist typischerweise eine Mikroskop-Optik auf, um den abzubilden Objektbereich zu erfassen. Bei manchen Operationsmikroskopiesystemen kann der Chirurg über Okulare den abgebildeten Objektbereich mit dem Auge wahrnehmen. Alternativ oder zusätzlich kann ein Bilddetektor (zum Beispiel mit zumindest einer Matrix aus Fotozellen) vorhanden sein, welcher ein Bild des Objektbereichs aufnimmt. Dieses aufgenommene Bild kann dann wiederum für den Chirurgen wahrnehmbar dargestellt werden, beispielsweise auf einem Bildschirm, über eine am Kopf des Chirurgen getragene Anzeigevorrichtung oder auf einer an einem Stativ oder von einem anderen Träger getragenen Anzeigevorrichtung, welche wiederum Okulare aufweisen kann. In particular, microsurgical procedures on the human body are often performed by a surgeon using a surgical microscopy system. Such a surgical microscopy system typically has a microscope optics to detect the object area to be imaged. In some surgical microscopy systems, the surgeon can use oculars to perceive the imaged subject area with the eye. Alternatively or additionally, an image detector (for example with at least one matrix of photocells) can be present, which records an image of the object region. This captured image may then in turn be displayed to the surgeon perceptibly, for example on a screen, via a display device worn on the surgeon's head, or on a display device carried on a tripod or other carrier, which in turn may have eyepieces.

Vielfach wird es von dem Chirurgen gewünscht, dass der abzubildende Objektbereich während der Operation seine Position nicht verändert, sobald er von dem Chirurgen eingestellt wurde. Es können aber Umgebungseinflüsse wie z.B. Schwingungen aufgrund des Auftretens auf den Boden des Operationssaals vorkommen. Um den abgebildeten Objektbereich dennoch hinsichtlich seiner Position konstant zu halten, kann eine Positionsregelung verwendet werden, die jedoch auf aktuelle Informationen über die tatsächliche Position des Objektbereichs oder der Mikroskop-Optik angewiesen ist. In many cases, it is desired by the surgeon that the object area to be imaged does not change its position during surgery once it has been adjusted by the surgeon. However, environmental influences, such as Vibrations occur due to the occurrence of the floor of the operating room. In order to keep the imaged object area constant with respect to its position, a position control can be used, which, however, relies on actual information about the actual position of the object area or the microscope optics.

Operationsmikroskopiesysteme können insbesondere mit einem Navigationssystem eines Operationssaals zusammenwirken, welches ausgestaltet ist, Positionen verschiedener Objekte in dem Operationssaal zu erfassen. Ein solches Navigationssystem kann beispielsweise mehrere Kameras aufweisen, welche mit Abstand voneinander in dem Operationssaal angeordnet sind, um Markierungen, welche an den Objekten angebracht sind, zu detektieren und deren Positionen und Orientierungen in einem Koordinatensystem des Navigationssystems zu berechnen. Eine derartige Markierung weist beispielsweise drei mit Abstand voneinander und nicht auf einer Geraden angeordnete Retroreflektoren auf. Derartige Markierungen können an einem Patienten, einem bei dem Eingriff verwendeten Werkzeug und/oder der Mikroskop-Optik angebracht sein, um deren Positionen im Koordinatensystem des Operationssaals zu erfassen. Diese erfassten Positionen können dazu verwendet werden, anatomische Strukturen des Patienten, welche durch das Operationsmikroskopiesystem abgebildet werden, mit zuvor gewonnenen Bildern dieser Strukturen, wie beispielsweise durch Computertomographie gewonnenen Bildern, zu überlagern. Dadurch kann z.B. versucht werden sicherzustellen, dass eine während des Eingriffs vorgenommene Manipulation an dem Patienten an einem gewünschten Ort erfolgt, welcher in vor dem Eingriff erfolgten Untersuchungen bestimmt wurde. In particular, surgical microscopy systems may cooperate with a navigation system of an operating room designed to detect positions of various objects in the operating room. Such a navigation system may, for example, comprise a plurality of cameras, which are arranged at a distance from one another in the operating theater, in order to detect markings which are attached to the objects and to calculate their positions and orientations in a coordinate system of the navigation system. Such a marking has, for example, three retroreflectors spaced apart from one another and not arranged on a straight line. Such markers may be attached to a patient, a tool used in the procedure and / or the microscope optics to detect their positions in the coordinate system of the operating room. These sensed positions may be used to superimpose anatomical structures of the patient imaged by the surgical microscopy system with previously acquired images of those structures, such as images obtained by computed tomography. Thereby, e.g. attempt to ensure that any manipulation performed on the patient during the procedure is at a desired location determined in pre-surgery examinations.

In der Praxis kann es bei solchen Navigationssystemen vorkommen, dass an dem chirurgischen Eingriff beteiligte Personen die Sichtlinie zwischen den Kameras des Navigationssystems und einer an dem Objekt, dessen Position bestimmt werden soll, angebrachten Markierung verdecken, so dass es zeitweise nicht möglich ist, die gewünschten Positionsinformationen zu gewinnen. Ferner hängt die Positionsbestimmung von den Betriebsbedingungen ab, wie z. B. Temperatur und Luftfeuchtigkeit. Dies erfordert eine Kalibrierung. In practice, it may occur in such navigation systems that people involved in the surgical procedure obscure the line of sight between the cameras of the navigation system and a mark attached to the object whose position is to be determined so that it is temporarily impossible to achieve the desired ones To gain positional information. Furthermore, the position determination depends on the operating conditions, such. B. temperature and humidity. This requires a calibration.

Die Kalibrierung der Positionsbestimmungseinrichtung kann zumindest vereinfacht werden, wenn eine optische Positionsbestimmung durch Aufnehmen von Kamerabildern durch zumindest eine Kamera stattfindet. Durch Auswerten der Kamerabilder lässt sich bei geeigneter Ausgestaltung und Anordnung der Kamera oder Kameras die Position des beweglichen Teils (zumindest der Mikroskop-Optik) mit hoher Genauigkeit bestimmen. The calibration of the position determination device can at least be simplified if an optical position determination takes place by taking camera images through at least one camera. By evaluating the camera images, the position of the movable part (at least the microscope optics) can be determined with high accuracy with a suitable configuration and arrangement of the camera or cameras.

Eine weitere Möglichkeit, die Position der Mikroskop-Optik zu bestimmen, besteht darin, den Bewegungszustand der Bewegungseinrichtung durch in den Träger der Mikroskop-Optik integrierte Messeinrichtungen zu erfassen. Zum Beispiel können in Gelenke des Trägers entsprechende Drehwinkelgeber integriert sein. Hochpräzise Bewegungsmesseinrichtungen sind jedoch verhältnismäßig aufwendig in der Herstellung und müssen kalibriert werden. Another way to determine the position of the microscope optics is to detect the state of motion of the movement device by integrated into the wearer of the microscope optics measuring devices. For example, corresponding angular encoders can be integrated in joints of the carrier. However, high-precision motion measuring devices are relatively expensive to manufacture and must be calibrated.

Alle bekannten Positionsbestimmungsverfahren gehen davon aus, dass zur Ermittlung des zeitlichen Verlaufs der Bewegung nacheinander mehrere Kamerabilder aufgezeichnet werden, die Relativposition von beweglichem Teil (hier: Mikroskop-Optik) und Basis zu verschiedenen Zeitpunkten aus dem Kamerabildern ermittelt wird und unter Berücksichtigung des zeitlichen Abstandes zwischen den Zeitpunkten, zu denen die verschiedenen Kamerabilder aufgezeichnet wurden, die Geschwindigkeit oder Beschleunigung ermittelt wird. Im Fall einer Bewegungssteuerung oder Regelung der Bewegung führt dies jedoch zu zeitlichen Verzögerungen zwischen der Aufzeichnung der Kamerabilder und dem Zeitpunkt, an dem die Information über den zeitlichen Verlauf der Bewegung zur Weiterverarbeitung durch die Steuerung oder Regelung zur Verfügung steht. All known positioning methods assume that several camera images are successively recorded to determine the time profile of the movement, the relative position of moving part (here: microscope optics) and base is determined at different times from the camera images and taking into account the time interval between the times at which the various camera images were recorded, the speed or acceleration is determined. In the case of motion control or regulation of the movement, however, this leads to delays between the recording of the camera images and the time at which the information about the time course of the movement for further processing by the controller or control is available.

Zusätzlich zu der Bewegung der Mikroskop-Optik durch eine z.B. mehrere Antriebsmotoren aufweisende automatische Bewegungseinrichtung kann der Chirurg die Möglichkeit haben, die Position und/oder Ausrichtung der Mikroskop-Optik einzustellen oder auch zu verstellen, wenn die Mikroskop-Optik ein Hindernis während der Operation darstellen sollte. Insbesondere um zu verhindern, dass die Mikroskop-Optik in andere hinderliche Positionen bewegt wird, kann eine Antriebssteuerung oder Antriebsregelung der Bewegung in vorab definierte hinderliche Ortsbereiche einen Widerstand entgegensetzen oder dies verhindern. Es sind z. B. entsprechende Zwangsbedingungen hinterlegt, die sich auf die Bewegungseinrichtung zur Bewegung der Mikroskop-Optik auswirken und insbesondere die Steuerung des Antriebs oder der Antriebe der Bewegungseinrichtung beeinflussen. Insbesondere kann dadurch gewährleistet werden, dass die Mikroskop-Optik den abzubildenden Objektbereich weiterhin abbildet, wenn auch aus einem anderen Blickwinkel. In addition to the movement of the microscope optics by a e.g. multi-drive automatic movement means, the surgeon may have the ability to adjust or adjust the position and / or orientation of the microscope optics, if the microscope optics should be an obstacle during the operation. In particular, to prevent the microscope optics from being moved to other obstructive positions, drive control or drive control may resist or prevent movement in predefined obstructive location areas. There are z. B. corresponding constraints deposited, which affect the movement means for moving the microscope optics and in particular affect the control of the drive or the drives of the moving device. In particular, this can ensure that the microscope optics continue to image the object region to be imaged, albeit from a different angle.

Operationsmikroskopiesysteme bieten, wie bereits kurz erwähnt, häufig nicht nur die Möglichkeit, den Objektbereich für den Chirurgen vergrößert darzustellen, sondern können dem Chirurgen auch zusätzliche Informationen zur Verfügung stellen, insbesondere durch Überlagerung der zusätzlichen Informationen mit dem von der Mikroskop-Optik abgebildeten Bild oder Bildern des Objektbereichs. Dies wird auch als Augmentierung bezeichnet. Durch die zusätzlichen Informationen kann dem Chirurgen z.B. angezeigt werden, welche Gewebebereiche des Patienten zu entfernen sind. Die korrekte und von Umgebungseinflüssen möglichst vollständig unabhängige Position und Ausrichtung der Mikroskop-Optik ist daher in vielen Fällen eine erforderliche Voraussetzung für das Gelingen einer Operation. Surgical microscopy systems, as already briefly mentioned, often not only offer the possibility of enlarging the object area for the surgeon, but can also provide the surgeon with additional information, in particular by superimposing the additional information with the image or images imaged by the microscope optics of the object area. This is also called augmentation. The additional information may provide the surgeon with e.g. displayed which tissue areas of the patient are to be removed. The correct position and orientation of the microscope optics, which is as completely independent as possible of environmental influences, is therefore in many cases a necessary prerequisite for the success of an operation.

Es sind Aufgaben der vorliegenden Erfindung, ein Operationsmikroskopiesystems, ein Bewegungsmesssystem für ein Operationsmikroskopiesystem und ein Operationsmikroskopiesystem anzugeben, bei denen Information über den zeitlichen Verlauf der Bewegung der Mikroskop-Optik mit geringer zeitlicher Verzögerung zur Weiterverarbeitung durch eine Bewegungssteuerung und/oder Regelung der Bewegung zur Verfügung stehen. It is an object of the present invention to provide a surgical microscopy system, a motion measurement system for a surgical microscopy system, and a surgical microscopy system in which information about the timing of the movement of the microscope optics with little time delay for further processing by a motion control and / or regulation of movement available stand.

Die Lösung der Aufgabe geht von einem Bewegungsmesssystem mit zumindest einer Bildaufzeichnungseinrichtung auf, die in der Beschreibung auch dann als Kamera bezeichnet wird, wenn die Bildaufzeichnungseinrichtung nicht mit einer optischen Linseneinrichtung kombiniert ist. Zum Beispiel werden so genannte LSS (Lensless Smart Sensors) zum Kauf angeboten, die als Bildaufzeichnungseinrichtung geeignet sind. Es gibt jedoch auch Ausgestaltungen des Bewegungsmesssystems, bei denen die Mikroskop-Optik zur Abbildung verwendet wird. The object is achieved by a motion measuring system with at least one image recording device, which is referred to as a camera in the description, even if the image recording device is not combined with an optical lens device. For example, so-called LSS (Lensless Smart Sensors) are offered for sale, which are suitable as an image recording device. However, there are also embodiments of the motion measuring system, in which the microscope optics is used for imaging.

Außer der zumindest einen Bildaufzeichnungseinrichtung ist zumindest eine Erfassungsstruktur vorhanden, die von der Bildaufzeichnungseinrichtung oder einer Mehrzahl der Bildaufzeichnungseinrichtungen erfasst wird. Für die Bildaufzeichnungseinrichtung oder im Fall einer Mehrzahl der Bildaufzeichnungseinrichtungen gilt jeweils, dass die Bildaufzeichnungseinrichtung während eines Betriebes

  • a) entweder mit der Mikroskop-Optik verbunden ist und bei Bewegung der Mikroskop-Optik mitbewegt wird, wobei die Bildaufzeichnungseinrichtung zumindest eine separat von der Mikroskop-Optik angeordnete Erfassungsstruktur, die bei Bewegung der Mikroskop-Optik nicht mitbewegt wird, durch zumindest ein Aufzeichnungsbild erfasst,
  • b) oder separat von der Mikroskop-Optik angeordnet ist, bei Bewegung der Mikroskop-Optik nicht mitbewegt wird und eine Erfassungsstruktur, die durch die Mikroskop-Optik und/oder durch zumindest ein fest mit der Mikroskop-Optik verbundenes Teil gebildet ist und/oder an der Mikroskop-Optik und/oder an dem zumindest einen fest mit der Mikroskop-Optik verbundenen Teil angeordnet ist, durch zumindest ein Aufzeichnungsbild erfasst.
In addition to the at least one image recording device, there is at least one detection structure which is detected by the image recording device or a plurality of the image recording devices. For the image recording device or, in the case of a plurality of the image recording devices, it is the case that the image recording device during operation
  • a) is either connected to the microscope optics and is moved with movement of the microscope optics, wherein the image recording device detects at least one separately arranged from the microscope optics detection structure, which is not moved during movement of the microscope optics, by at least one recording image .
  • b) or is arranged separately from the microscope optics, is not moved during movement of the microscope optics and a detection structure which is formed by the microscope optics and / or at least one fixedly connected to the microscope optics part and / or is arranged on the microscope optics and / or on which at least one part fixedly connected to the microscope optics is detected by at least one recording image.

Im Fall einer Mehrzahl von Bildaufzeichnungseinrichtungen ist es möglich, dass zumindest eine Bildaufzeichnungseinrichtung gemäß Fall a) und zumindest eine andere Bildaufzeichnungseinrichtung gemäß Fall b) verwendet wird bzw. vorgesehen ist. Es können aber auch alle Bildaufzeichnungseinrichtungen des Bewegungsmesssystems gemäß Fall a) oder gemäß Fall b) verwendet werden bzw. vorgesehen sein. In the case of a plurality of image recording devices, it is possible that at least one image recording device according to case a) and at least one other image recording device according to case b) is used or provided. However, it is also possible to use or provide all the image recording devices of the motion measuring system according to case a) or according to case b).

Die zumindest eine Bildaufzeichnungseinrichtung nimmt zumindest ein Aufzeichnungsbild (im Folgenden ohne Beschränkung der Allgemeinheit auch als Kamerabild bezeichnet) zumindest einer Erfassungsstruktur auf bzw. ist entsprechend ausgestaltet. The at least one image recording device takes at least one recording image (hereinafter also referred to as camera image without limiting the generality) of at least one detection structure or is designed accordingly.

Unter einem Aufzeichnungsbild wird daher Information über eine abgebildete Szene verstanden, die von der Bildaufzeichnungseinrichtung erzeugt wird/wurde, wobei Bildwerte (zum Beispiel binäre Werte, Grauwerte oder Farbwerte) bezüglich eines Bild-Koordinatensystems definiert sind. Wenn auch bevorzugt, muss es sich bei dem Aufzeichnungsbild nicht um das Bild einer optischen Linse oder Linsenanordnung handeln. Vielmehr kommen auch andere Arten von Abbildungen in Frage, zum Beispiel mittels Gittern oder Masken. Insbesondere jedoch wird bei der Auswertung des Aufzeichnungsbildes die Art der Abbildung berücksichtigt. A recording image is therefore understood to be information about a mapped scene generated by the image recording device, wherein image values (for example binary values, gray values or color values) are defined with respect to an image coordinate system. Although preferred, the recording image need not be the image of an optical lens or lens array. Rather, other types of images come into question, for example by means of grids or masks. In particular, however, the type of mapping is taken into account in the evaluation of the recording image.

Bei einer Relativbewegung der Bildaufzeichnungseinrichtungen und der Szene tritt ein beim Fotografieren von bewegten Objekten allgemein bekanntes Problem auf, nämlich die Verschmierung von Strukturen im aufgenommenen Kamerabild. Zum Beispiel wird ein scharfer Übergang (Kante) von einem hellen, weißen oder stark reflektierenden Strukturbereich zu einem dunklen, schwarzen oder schwach reflektierenden Strukturbereich zu einem allmählichen Übergang von hell, weiß oder stark reflektierend zu dunkel, schwarz oder schwach reflektierend im Kamerabild verschmiert. Entsprechendes gilt für scharfe Übergänge (Kanten) zwischen Strukturbereichen unterschiedlicher Farbe oder Farbtiefe. Bei der vorliegenden Erfindung kann die Erfassungsstruktur (nicht nur im Fall des Vorhandenseins zumindest einer Kante) Strahlung reflektieren und/oder selbst Strahlung erzeugen (z.B. ein Feld von Leuchtdioden sein). In a relative movement of the image recording devices and the scene occurs a well-known in the photographing of moving objects problem, namely the smearing of structures in the recorded camera image. For example, a sharp transition (edge) from a bright, white, or highly reflective texture region to a dark, black, or weakly reflective texture region is blurred to a gradual transition from light, white, or highly reflective to dark, black, or low reflective in the camera image. The same applies to sharp transitions (edges) between structural areas of different color or color depth. In the present invention, the detection structure (not only in the case of the presence of at least one edge) may reflect radiation and / or even generate radiation (e.g., a field of light emitting diodes).

Die in dem Kamerabild erfasste Struktur unterscheidet sich somit im Fall der Relativbewegung bereits deshalb von der tatsächlichen Erscheinung der Struktur. Grund hierfür ist die Tatsache, dass sich während des Zeitintervalls der Strukturerfassung (häufig als Belichtungszeit bezeichnet) durch die Kamera die Struktur relativ zur Kamera bewegt hat und daher eine Verschiebung des Abbilds der Struktur stattgefunden hat. Anders ausgedrückt entstehen die Verschmierungen durch eine sich im Laufe des Aufnahme-Zeitintervalls verändernde Strahlungsverteilung der von der Kamera erfassten Strahlung. Das Aufzeichnungsbild kann daher während eines Zeitintervalls einer Erfassung der Erfassungsstruktur aufgenommen werden und im Fall der Relativbewegung der Bildaufzeichnungseinrichtung und der Erfassungsstruktur erscheint eine tatsächliche Erscheinung der Erfassungsstruktur aufgrund der Relativbewegung im Aufzeichnungsbild verändert. The structure detected in the camera image therefore already differs in the case of the relative movement from the actual appearance of the structure. This is due to the fact that during the time interval of the structure detection (often referred to as exposure time) by the camera, the structure has moved relative to the camera and therefore a shift of the image of the structure has taken place. In other words, the smudges are caused by a radiation distribution of the radiation detected by the camera during the recording time interval. Therefore, the recording image can be taken during a time interval of detection of the detection structure, and in case of relative movement of the image recording device and the detection structure, an actual appearance of the detection structure due to the relative movement in the recording image changes.

Die Erfindung macht sich diese sonst unerwünschten Unterschiede zu Nutze. Unter Verwendung von Informationen über eine tatsächliche Erscheinung der Erfassungsstruktur wird aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur eine Geschwindigkeit der Relativbewegung der Bildaufzeichnungseinrichtungen und der Erfassungsstruktur ermittelt. Ein wesentlicher Vorteil der Erfindung besteht darin, dass bereits aus einem einzigen Aufzeichnungsbild die Geschwindigkeit der Relativbewegung ermittelt werden kann. Dies schließt jedoch nicht aus, zur Ermittlung der Geschwindigkeit eine Mehrzahl der Aufzeichnungsbilder zu nutzen, die gleichzeitig, zeitlich einander überlappend und/oder nacheinander aufgenommen werden/wurden. Gegenüber einer Ermittlung der Geschwindigkeit aus Positionsbestimmungen aus nacheinander aufgenommenen Aufzeichnungsbildern ermöglicht es die Erfindung jedoch in jedem Fall, die Geschwindigkeit mit geringerer zeitlicher Verzögerung nach Aufzeichnung des oder der Bilder zu ermitteln. The invention takes advantage of these otherwise undesirable differences. Using information about an actual appearance of the detection structure, a speed of relative movement of the image recording devices and the detection structure is determined from differences of the at least one recording image to the actual appearance of the detection structure. An essential advantage of the invention is that the speed of the relative movement can already be determined from a single recording image. However, this does not exclude the use of a plurality of recording images, which were taken simultaneously, temporally overlapping and / or successively, in order to determine the speed. In contrast to a determination of the speed from position determinations from successively recorded recorded images, however, the invention makes it possible in each case to determine the speed with a lesser time delay after recording the image (s).

Von Vorteil ist die geringe zeitliche Verzögerung bei der Erfassung der Bewegung, besonders, wenn das Operationsmikroskopiesystem eine Bewegungseinrichtung zur Bewegung der Mikroskop-Optik mit zumindest einem Antriebsmotor und einer Bewegungssteuerung oder Bewegungsregelung kombiniert ist. Zum Umfang der Erfindung gehört daher auch eine solche Steuerung oder Regelung für ein Operationsmikroskopiesystem, welche über einen Signaleingang mit dem Bewegungsmesssystem verbunden ist/wird, welches die Geschwindigkeit der Bewegung aus zumindest einem Aufzeichnungsbild ermittelt, insbesondere wiederholt aus jeweils zumindest einem Aufzeichnungsbild einer zeitlichen Folge von Aufzeichnungsbildern ermittelt. Vor allem bei dem Ausgleich von Umgebungseinflüssen wie mechanischen Schwingungen, die sich auf den Träger der Mikroskop-Optik auswirken, ist eine geringe zeitliche Verzögerung der Ermittlung der Geschwindigkeit nach Aufzeichnung des Aufzeichnungsbildes von großem Vorteil. Entsprechende Regelungen können umso stabiler ausgeführt werden, je kürzer die zeitliche Verzögerung ist. Of advantage is the small time delay in the detection of the movement, especially when the surgical microscope system is combined with a movement device for moving the microscope optics with at least one drive motor and a motion control or movement control. The scope of the invention therefore also includes such a control or regulation for a surgical microscopy system, which is connected via a signal input to the motion measuring system which determines the speed of movement from at least one recording image, in particular repeatedly from at least one recording image of a temporal sequence of Recorded images. Especially in the compensation of environmental influences such as mechanical vibrations, which affect the wearer of the microscope optics, a small time delay of determining the speed after recording the recording image of great advantage. Corresponding regulations can be carried out all the more stably, the shorter the time delay is.

Die Träger der Mikroskop-Optiken bekannter Operationsmikroskopiesysteme können auskragende Teile (z.B. Arme) mit einer Länge im Bereich von z.B. 1 bis 2 m aufweisen. Alternativ oder zusätzlich kann der Träger mehrere Freiheitsgrade der Bewegung für die Positionierung und/oder Ausrichtung der von ihm getragenen Mikroskop-Optik aufweisen. Bekannt sind z.B. sogenannte 6-achsige Kinematiken. Z.B. ist ein entsprechender Tragarm des Trägers an einem Ende fest mit der Basis des Operationsmikroskopiesystems (z.B. der Basis des Operationssaals) verbunden und trägt am entgegengesetzten Ende die Mikroskop-Optik, welche z.B. eine Masse von einigen Kilogramm aufweist. Konstruktiv und auch in Bezug auf die Bewegungsregelung stellt dies hohe Anforderungen, da einerseits eine stabile, schwingungsresistente Ausgestaltung wünschenswert ist und andererseits der Träger jedenfalls im Ortsbereich nahe des Patienten möglichst schmal ausgeführt sein sollte, um den Chirurgen und Hilfspersonen nicht bei der Operation zu stören. Eine schnell reagierende Regelung ermöglicht es, den Träger leichter und somit schmaler auszuführen, da die größere Schwingungsanfälligkeit aufgrund der geringeren trägen Masse durch die Regelung der Bewegungseinrichtung ausgeglichen werden kann. The microscope slide carriers of known surgical microscopy systems can have projecting parts (eg arms) with a length in the range of, for example, 1 to 2 m. Alternatively or additionally, the carrier may have a plurality of degrees of freedom of movement for the positioning and / or alignment of the microscope optics carried by it. For example, so-called 6-axis kinematics are known. For example, a corresponding support arm of the carrier is fixed at one end to the base of the surgical microscopy system (eg the Base of the operating room) and carries at the opposite end of the microscope optics, which for example has a mass of a few kilograms. In terms of design and also in terms of motion control, this places great demands, since, on the one hand, a stable, vibration-resistant design is desirable and, on the other hand, the carrier should be made as narrow as possible in the area near the patient so as not to disturb the surgeons and assistants during the operation. A fast-acting control makes it possible to make the carrier lighter and thus narrower, since the greater susceptibility to vibration due to the lower inertial mass can be compensated by the control of the movement device.

Eine Regelung setzt bei Kopplung von Sollwerten der Bewegung mit erwarteten Ist-Werten (sogenannten Feed-Forward-Regelung) ein sehr genaues (computerimplementiertes) Modell der Bewegungseinrichtung und der bewegten Teile sowie eine aufwendige Kalibrierung voraus, um z.B. aus Bewegungssensoren und/oder Positionssensoren an den beweglichen Teilen des Trägers die für eine konkrete Position notwendigen Korrekturen zu berechnen (z.B. aufgrund der konkreten Masseverteilung oder aufgrund von Umgebungseinflüssen). Dagegen kann eine Regelung mit Rückkopplung gemessener Bewegungs-Istwerte (Feed-Back-Regelung) grundsätzlich auch Umwelteinflüsse auf die Patientenunterlage oder auch Bewegungen des Patienten selbst durch entsprechende Nachführung der Mikroskop-Optik ausgleichen. A control requires a very accurate (computer-implemented) model of the moving device and the moving parts and a complex calibration in coupling of set values of the movement with expected actual values (so-called feed-forward control), for example, in order to obtain e.g. From movement sensors and / or position sensors on the moving parts of the carrier to calculate the necessary corrections for a specific position (for example, due to the specific mass distribution or due to environmental influences). In contrast, regulation with feedback of measured actual movement values (feed-back control) can in principle also compensate for environmental influences on the patient pad or even movements of the patient himself by corresponding tracking of the microscope optics.

Die oben erwähnte Bewegungsregelung ist daher vorzugsweise als Feed-Back-Regelung ausgeführt und berücksichtigt als Bewegungs-Istwert die aus dem zumindest einen Aufzeichnungsbild ermittelte Geschwindigkeit der Relativbewegung. Wenn z.B. die Erfassungsstruktur am Patienten angeordnet ist, kann die zumindest eine mit der Mikroskop-Optik verbundene Kamera eine Relativbewegung aufgrund einer Bewegung des Patienten als Information in dem jeweiligen Aufzeichnungsbild erfassen und die Ermittlungseinrichtung des Bewegungsmesssystems daraus die Geschwindigkeit der Bewegung ermitteln, welche dann der Bewegungsregelung übermittelt wird. Aber auch bei Anordnung der zumindest einen Kamera an einer Patientenunterlage und Anordnung und/oder Ausgestaltung der Erfassungsstruktur an der Mikroskop-Optik kann eine Relativbewegung aufgrund der Bewegung der Patientenunterlagen erfasst und ausgeregelt werden. The above-mentioned movement control is therefore preferably carried out as a feed-back control and takes into account as movement actual value the speed of the relative movement determined from the at least one recording image. If e.g. the detection structure is arranged on the patient, the at least one camera connected to the microscope optics can detect a relative movement due to a movement of the patient as information in the respective recording image and the detection device of the motion measuring system therefrom determine the speed of movement, which is then transmitted to the motion control , But even with the arrangement of the at least one camera on a patient pad and arrangement and / or configuration of the detection structure on the microscope optics, a relative movement due to the movement of the patient documents can be detected and corrected.

Generell wird somit eine Weiterbildung der Erfindung vorgeschlagen, bei der die ermittelte Geschwindigkeit der Relativbewegung dazu verwendet wird, die Relativbewegung zu minimieren und/oder zu kompensieren. In general, a refinement of the invention is thus proposed in which the determined speed of the relative movement is used to minimize and / or compensate for the relative movement.

Bei der Erfassungsstruktur kann es sich um eine Strahlung reflektierende und/oder Strahlung emittierende Struktur handeln, zum Beispiel durch eine Struktur, die durch einen leuchtenden Bildinhalt eines Displays (zum Beispiel mit einer LED-Matrix) gebildet wird. Das Display kann an dem beweglichen Teil angeordnet sein (zu dem die Mikroskop-Optik gehört) oder, in einem anderen Fall, an einem ortsfesten Teil (Basis) des Operationsmikroskopiesystems. In dem zuletzt genannten Fall wird die Kamera mit dem beweglichen Teil mitbewegt. Bei der Basis kann es sich um irgendeinen Teil des Operationsmikroskopiesystems handeln, zum Beispiel den nicht mit der Mikroskop-Optik mitbewegten Teil des Trägers der Mikroskop-Optik, eine Unterlage, auf der der Patient während der Operation positioniert ist, und/oder der Patient selbst. The detection structure may be a radiation-reflecting and / or radiation-emitting structure, for example by a structure formed by a luminous image content of a display (for example with an LED matrix). The display can be arranged on the moving part (to which the microscope optics belongs) or, in another case, on a fixed part (base) of the surgical microscope system. In the latter case, the camera is moved with the moving part. The base may be any part of the surgical microscopy system, such as the part of the microscope optics support not moving with the microscope optics, a pad on which the patient is positioned during the operation, and / or the patient himself ,

Eine Strahlung emittierende Struktur kann optional z.B. eine nicht selbst Strahlung erzeugende Teilstruktur vor einer Strahlung emittierenden hinteren Teilstruktur aufweisen. Die vordere Teilstruktur erzeugt somit eine örtlich nicht konstante Strahlungsverteilung, da sie Strahlung ortsabhängig passieren lässt. Eine solche Strahlung emittierende Struktur, aber auch Displays ohne eine in Richtung der Kamera angeordnete nicht selbst Strahlung erzeugende Teilstruktur sind besonders gut für die unten näher beschriebene Ermittlung der Orientierung der Relativbewegung von Bildaufzeichnungseinrichtungen und Basis geeignet. A radiation emitting structure may optionally be e.g. a non-self-generating radiation substructure in front of a radiation emitting rear substructure. The front substructure thus generates a locally non-constant radiation distribution, since it allows radiation to pass in a location-dependent manner. Such a radiation-emitting structure, but also displays without a non-self-generating radiation component structure in the direction of the camera are particularly well suited for the determination of the orientation of the relative movement of image recording devices and base described in more detail below.

Unabhängig von dem Ursprung der Strahlung, die von der Erfassungsstruktur ausgeht und/oder von der Erfassungsstruktur moduliert, reflektiert und/oder abgelenkt wird, kann es sich bei der Erfassungsstruktur insbesondere um eine zusammengesetzte Struktur handeln, das heißt verschiedene Bereiche der abgebildeten Szene bilden gemeinsam die Erfassungsstruktur. Zum Beispiel können mehrere Marker gemeinsam die Erfassungsstruktur bilden. Dabei ist es auch nicht erforderlich, dass in verschiedenen nacheinander aufgenommenen Aufzeichnungsbildern immer dieselbe zusammengesetzte Struktur erfasst wird/ist. Regardless of the origin of the radiation emanating from the detection structure and / or being modulated, reflected and / or deflected by the detection structure, the detection structure may in particular be a composite structure, ie different areas of the imaged scene together form the sensing structure. For example, several markers together may form the detection structure. It is also not necessary for the same composite structure to always be recorded in different successively recorded recording images.

Es ist möglich, den Grad der Verschmierungen zu reduzieren, indem das Zeitintervall der Bildaufnahme verkürzt wird und/oder die zu erfassende Struktur mit sehr kurzen Strahlungspulsen beleuchtet wird. Es ist jedoch auf eine ausreichende Beleuchtung zu achten, um das Signal-Rauschverhältnis der durch die Kamera erfassten Bildinformation nicht zu gering werden zu lassen. Kurze Strahlungspulse stellen einen zusätzlichen Aufwand für die Beleuchtung dar und führen in manchen Betriebssituationen zu Störungen des Betriebs oder Irritationen der Personen, die sich während des Betriebes im Bereich des Operationsmikroskopiesystems aufhalten. It is possible to reduce the degree of smearing by shortening the time interval of the image pickup and / or illuminating the structure to be detected with very short radiation pulses. However, it is important to ensure sufficient illumination to the signal-to-noise ratio of the captured by the camera image information is not too low. Short radiation pulses represent an additional expense for the lighting and lead in some operating situations to disruptions of the operation or Irritation of the persons who are in the area of the surgical microscopy system during operation.

In mathematischer Verallgemeinerung beruht die Lösung auf folgendem Prinzip. Physikalisch bedingt kann kein messendes System mit unendlichen Bandbreiten realisiert werden, sondern jedes Informationen verarbeitende System hat eine bestimmte endliche Übertragungsfunktion. Diese beschreibt, wie am Eingang vorliegende Informationen verändert bzw. am Ausgang des Systems ausgegeben werden, weil sie nicht in ihrer vollen Bandbreite übertragen bzw. verarbeitet werden können. Für optische Systeme gibt es verschiedene Weisen, wie die Übertragungsfunktion des Systems beschrieben wird. Die Wahl der Beschreibung wird maßgeblich durch die zu beantwortende Frage bestimmt. Für entsprechende Überlegungen, die noch anhand der Figuren näher erläutert werden, wird die Argumentationsweise der optischen Transferfunktion eines optischen Systems verwendet. Sie kann insbesondere als Faltungskern einer mathematischen Faltung aufgefasst werden und beschreibt zum Beispiel, wie Kontrast im Objekt in Kontrast im Bild überführt wird. Die Anwendung der inversen optischen Transferfunktion (als Beispiel wird noch die mathematische Faltung genauer beschrieben) erlaubt somit die Rekonstruktion des Objektinhaltes aus dem Bildinhalt. Dies gilt jedoch nur für diejenigen Komponenten einer Frequenzanalyse (zum Beispiel Fourieranalyse) des Objektes, welche vom System übertragen wurden und/oder für die eine Invertierung der optischen Transferfunktion möglich ist. Anders ausgedrückt muss die Abbildung zumindest bezüglich eines für die gewünschten Zwecke ausreichenden Informationsgehaltes bijektiv sein und/oder eine ausreichend verlustarme Rekonstruktion ermöglichen. In mathematical generalization, the solution is based on the following principle. For physical reasons, no measuring system with infinite bandwidths can be realized, but every information processing system has a certain finite transfer function. This describes how information present at the input is changed or output at the output of the system because it can not be transmitted or processed in its full bandwidth. For optical systems, there are several ways in which the transfer function of the system is described. The choice of description is determined largely by the question to be answered. For corresponding considerations, which will be explained in more detail with reference to the figures, the argumentation of the optical transfer function of an optical system is used. In particular, it can be understood as a convolution kernel of a mathematical convolution and describes, for example, how contrast in the object is converted into contrast in the image. The application of the inverse optical transfer function (as an example, the mathematical folding is described in more detail) thus allows the reconstruction of the object content from the image content. However, this applies only to those components of a frequency analysis (for example Fourier analysis) of the object which have been transmitted by the system and / or for which an inversion of the optical transfer function is possible. In other words, the mapping has to be bijective at least with respect to a sufficient information content for the desired purposes and / or allow a sufficiently low-loss reconstruction.

Es wird vorgeschlagen, die Effekte der Relativbewegung von Bildaufzeichnungseinrichtung und erfasstem Systemteil, nämlich insbesondere die genannten Verschmierungen der Strukturen im Aufzeichnungsbild, auszuwerten und daraus die Geschwindigkeit der Relativbewegung zu ermitteln. Es ist daher nicht erforderlich, die Belichtungszeit so weit wie möglich zu verkürzen und/oder mit Strahlungspulsen zu beleuchten. It is proposed to evaluate the effects of the relative movement of the image recording device and the detected system part, namely in particular the smearing of the structures in the recording image, and to determine the speed of the relative movement therefrom. It is therefore not necessary to shorten the exposure time as far as possible and / or to illuminate with radiation pulses.

Insbesondere wird ein Verfahren zum Betreiben eines Operationsmikroskopiesystems vorgeschlagen, wobei das Operationsmikroskopiesystem aufweist:

  • – eine Mikroskop-Optik, welche dazu ausgestaltet ist, einen Objektbereich zur Berücksichtigung bei einer Operation abzubilden,
  • – eine Bewegungseinrichtung, welche dazu ausgestaltet ist, die Mikroskop-Optik derart zu bewegen, dass eine Position des Objektbereichs verändert wird,
  • – zumindest eine Bildaufzeichnungseinrichtung, (a) die entweder mit der Mikroskop-Optik verbunden ist und bei Bewegung der Mikroskop-Optik mitbewegt wird, wobei die Bildaufzeichnungseinrichtung eine separat von der Mikroskop-Optik angeordnete Erfassungsstruktur, die bei Bewegung der Mikroskop-Optik nicht mitbewegt wird, durch zumindest ein Aufzeichnungsbild erfasst, (b) oder die separat von der Mikroskop-Optik angeordnet ist, bei Bewegung der Mikroskop-Optik nicht mitbewegt wird und eine Erfassungsstruktur, die durch die Mikroskop-Optik und/oder durch zumindest ein fest mit der Mikroskop-Optik verbundenes Teil gebildet ist und/oder an der Mikroskop-Optik und/oder an dem zumindest einen fest mit der Mikroskop-Optik verbundenen Teil angeordnet ist, durch zumindest ein Aufzeichnungsbild erfasst,
wobei unter Verwendung von Informationen über eine tatsächliche Erscheinung der Erfassungsstruktur aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur eine Geschwindigkeit einer Relativbewegung der Bildaufzeichnungseinrichtung und der Erfassungsstruktur ermittelt wird. In particular, a method for operating a surgical microscopy system is proposed, wherein the surgical microscopy system has:
  • A microscope optics, which is designed to image an object area for consideration in an operation,
  • A movement device which is designed to move the microscope optics such that a position of the object region is changed,
  • - At least one image recording device, (a) which is either connected to the microscope optics and is moved with movement of the microscope optics, wherein the image recording device arranged separately from the microscope optics detection structure, which is not moved when moving the microscope optics , detected by at least one recording image, (b) or which is arranged separately from the microscope optics, is not moved during movement of the microscope optics, and a detection structure that passes through the microscope optics and / or through at least one fixed with the microscope Optically connected part is formed and / or on the microscope optics and / or on the at least one part fixedly connected to the microscope optics part is detected by at least one recording image,
wherein, using information about an actual appearance of the detection structure from differences in the at least one recording image to the actual appearance of the detection structure, a speed of relative movement of the image recording device and the detection structure is determined.

Ferner wird vorgeschlagen: Ein Bewegungsmesssystem für ein Operationsmikroskopiesystem mit einer Mikroskop-Optik, welche dazu ausgestaltet ist, einen Objektbereich zur Berücksichtigung bei einer Operation abzubilden, wobei das Bewegungsmesssystem aufweist:

  • – zumindest eine Bildaufzeichnungseinrichtung, (a) die während eines Betriebes entweder mit der Mikroskop-Optik verbunden ist und bei Bewegung der Mikroskop-Optik mitbewegt wird, wobei die Bildaufzeichnungseinrichtung eine separat von der Mikroskop-Optik angeordnete Erfassungsstruktur, die bei Bewegung der Mikroskop-Optik nicht mitbewegt wird, durch zumindest ein Aufzeichnungsbild erfasst, (b) oder die während eines Betriebes separat von der Mikroskop-Optik angeordnet ist, bei Bewegung der Mikroskop-Optik nicht mitbewegt wird und eine Erfassungsstruktur, die durch die Mikroskop-Optik und/oder durch zumindest ein fest mit der Mikroskop-Optik verbundenes Teil gebildet ist und/oder an der Mikroskop-Optik und/oder an dem zumindest einen fest mit der Mikroskop-Optik verbundenen Teil angeordnet ist, durch zumindest ein Aufzeichnungsbild erfasst,
  • – eine Ermittlungseinrichtung, die ausgestaltet ist, unter Verwendung von Informationen über eine tatsächliche Erscheinung der Erfassungsstruktur aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur eine Geschwindigkeit einer Relativbewegung der Bildaufzeichnungseinrichtung und der Erfassungsstruktur zu ermitteln.
It is further proposed: A motion measuring system for a surgical microscope system with a microscope optical system, which is designed to image an object area for consideration during an operation, wherein the motion measuring system comprises:
  • - At least one image recording device, (a) which is connected during operation either with the microscope optics and is moved with movement of the microscope optics, wherein the image recording device arranged separately from the microscope optics detection structure, the movement of the microscope optics is not moved, detected by at least one recording image, (b) or which is arranged separately from the microscope optics during operation, is not moved when moving the microscope optics and a detection structure, by the microscope optics and / or at least one part fixedly connected to the microscope optics is formed and / or is arranged on the microscope optics and / or on which at least one part fixedly connected to the microscope optics is detected by at least one recording image,
  • A detection means configured to determine a speed of relative movement of the image recording means and the detection structure by using information about an actual appearance of the detection structure from differences of the at least one recorded image to the actual appearance of the detection structure.

Ferner gehört zum Umfang der Erfindung ein Operationsmikroskopiesystem, das aufweist: Further, within the scope of the invention is a surgical microscopy system comprising:

  • – das Bewegungsmesssystem in einer der Ausgestaltungen, die in dieser Beschreibung beschrieben sind, The motion measuring system in one of the embodiments described in this specification,
  • – die Mikroskop-Optik, welche dazu ausgestaltet ist, einen Objektbereich zur Berücksichtigung bei einer Operation abzubilden, The microscope optics, which is designed to image an object area for consideration in an operation,
  • – eine Bewegungseinrichtung, welche dazu ausgestaltet ist, die Mikroskop-Optik derart zu bewegen, dass eine Position des Objektbereichs verändert wird. - A movement device which is adapted to move the microscope optics such that a position of the object area is changed.

Wie an anderer Stelle in dieser Beschreibung erwähnt, kann die Erfassungsstruktur insbesondere Strahlung reflektieren und/oder emittieren. Daher gehört zum Herstellen einer Erfassungsstruktur auch das Einstellen einer variabel einstellbaren Erfassungsstruktur, wie zum Beispiel eines Displays. Durch das Einstellen wird die von der Erfassungsstruktur ausgehende, zu der zumindest einen Kamera übertragende Strahlung verändert. Alternativ oder zusätzlich können die Abmessungen der Erfassungsstruktur im Laufe der Zeit verändert werden, zum Beispiel durch Bestrahlung mit einer Strahlungsverteilung, die sich mit der Zeit verändert, beispielsweise deren Wellenlängen (Farben) sich verändern. Zum Beispiel kann die Erfassungsstruktur abhängig von der auftreffenden Strahlungsverteilung (zum Beispiel Farbverteilung) unterschiedliche Abmessungen von Strukturmerkmalen der Erfassungsstruktur haben, die von der Kamera erfasst werden können. Eine einfache Möglichkeit zur Veränderung der Erfassungsstruktur besteht in der Verwendung zumindest eines Displays, dessen dargestellter Inhalt verändert wird. Insbesondere kann zusätzliche Information durch das Kamerabild gewonnen werden, wenn sich für die Kamera erfassbare Strukturmerkmale und insbesondere Abmessungen der Erfassungsstruktur während des Zeitintervalls, über das hinweg Bildinformation für das Kamerabild aufgenommen wird, verändern. As mentioned elsewhere in this description, the detection structure may in particular reflect and / or emit radiation. Therefore, the production of a detection structure also includes the setting of a variably adjustable detection structure, such as a display. By adjusting the emanating from the detection structure, is transmitted to the at least one camera transmitting radiation. Alternatively or additionally, the dimensions of the detection structure may be changed over time, for example by irradiation with a radiation distribution which changes over time, for example whose wavelengths (colors) change. For example, depending on the impinging radiation distribution (eg, color distribution), the detection structure may have different dimensions of structural features of the detection structure that can be detected by the camera. An easy way to change the detection structure is the use of at least one display whose displayed content is changed. In particular, additional information can be obtained by the camera image if the camera detects detectable structural features and in particular dimensions of the detection structure during the time interval over which image information for the camera image is recorded.

Insbesondere kann an einem Patienten, an dem eine Operation ausgeführt werden soll, eine Erfassungsstruktur angeordnet werden, z.B. als Anordnung einer Mehrzahl von Markern. Insbesondere kann die Erfassungsstruktur derart angeordnet werden, dass sie nicht nur für zumindest eine mit der Mikroskop-Optik verbundene Bildaufzeichnungseinrichtung erfassbar ist, sondern auch für den Chirurgen in einer vorgegebenen Relativposition zum Patienten. Ferner vorzugsweise kann die Erfassungsstruktur bereits bei einer der Operation vorausgehenden Bilderfassung des Patienten am Patienten angeordnet sein. Sowohl die vorausgehende Bilderfassung, die optional auch von einer tomografischen Rekonstruktion zur Bildung eines dreidimensionalen Bilddatensatzes des Patienten gefolgt wird, als auch die Bilderfassung durch die zumindest eine Bildaufzeichnungseinrichtung während der Operation können sich daher auf dieselbe Anordnung der Erfassungsstruktur am Patienten beziehen. Z.B. kann daher ein Koordinatensystem definiert werden/sein, das in Bezug auf den Patienten festgelegt ist oder in Bezug auf die Erfassungsstruktur am Patienten. In particular, a detection structure may be arranged on a patient on whom surgery is to be performed, e.g. as an arrangement of a plurality of markers. In particular, the detection structure can be arranged such that it is detectable not only for at least one image recording device connected to the microscope optics, but also for the surgeon in a predetermined relative position to the patient. Further preferably, the detection structure may already be arranged on the patient during an image acquisition of the patient preceding the operation. Both the preceding image acquisition, which is optionally followed by a tomographic reconstruction to form a three-dimensional image data set of the patient, and the image acquisition by the at least one image recording device during the operation can therefore refer to the same arrangement of the detection structure on the patient. For example, Therefore, a coordinate system can be defined / defined with respect to the patient or with respect to the detection structure on the patient.

Optional kann die Erfassungsstruktur am Patienten so ausgestaltet sein/werden, dass sie auch durch eine für die Strahlung, welche die zumindest eine Bildaufzeichnungseinrichtung zur Aufzeichnung des Aufzeichnungsbildes nutzt, transparente Abdeckung des Patienten für die zumindest eine Bildaufzeichnungseinrichtung erfassbar ist. In der Regel werden Abdeckungen in Form von Tüchern oder Folien bei Operationen verwendet, um Bereiche des Patienten abzudecken, welche außerhalb des Bereichs liegen, welcher operiert wird. Die transparente Abdeckung erlaubt es somit, die Erfassungsstruktur außerhalb des Operationsbereichs anzuordnen und den Bereich wie üblich abzudecken. Optionally, the detection structure on the patient can be configured such that it can also be detected by a cover of the patient transparent to the at least one image recording device for the radiation which uses the at least one image recording device for recording the recording image. Typically, covers in the form of wipes or foils are used in operations to cover areas of the patient that are outside of the area being operated on. The transparent cover thus allows the detection structure to be located outside the operating area and to cover the area as usual.

Wenn der Chirurg die Erfassungsstruktur am Patienten erkennen kann, wird folgendes Verfahren bevorzugt: Der Chirurg bewegt die Mikroskop-Optik so, dass der zu operierende Bereich des Patienten als Objektbereich von der Mikroskop-Optik abgebildet wird und außerdem die zumindest eine Bildaufzeichnungseinrichtung die Erfassungsstruktur erfasst. Optional kann der Chirurg die zumindest eine Bildaufzeichnungseinrichtung zusätzlich zu der Bewegung der Mikroskop-Optik einstellen. When the surgeon can recognize the sensing structure on the patient, the following procedure is preferred: The surgeon moves the microscope optics such that the patient's area to be operated on is imaged as an object area by the microscope optics and, in addition, the at least one image recorder detects the detection structure. Optionally, the surgeon may adjust the at least one imaging device in addition to the movement of the microscope optics.

Bei mehreren Bildaufzeichnungseinrichtungen können auch mehrere Erfassungsstrukturen vorgesehen sein, z.B. jeweils eine Erfassungsstruktur, die einer Bildaufzeichnungseinrichtung zugeordnet ist, oder es kann jede Bildaufzeichnungseinrichtung auf eine beliebige von mehreren Erfassungsstrukturen ausgerichtet werden. In the case of several image recording devices, a plurality of detection structures may also be provided, e.g. each one sensing structure associated with an imaging device, or each imaging device may be aligned with any of a plurality of sensing structures.

Der Chirurg kann die Mikroskop-Optik und optional zusätzlich die zumindest eine Bildaufzeichnungseinrichtung manuell bewegen und/oder durch Betätigung der Bewegungseinrichtung (z.B. über einen Joystick oder einen Touchscreen als Interaktionseinrichtung). Sobald sowohl die Mikroskop-Optik als auch die zumindest eine Bildaufzeichnungseinrichtung positioniert und/oder ausgerichtet sind, kann der Betrieb einer automatischen Bewegungsregelung gestartet werden, die eine Bewegung der Mikroskop-Optik in der jeweils gewünschten Weise regelt. Dabei kann die Regelung zumindest zeitweise auch darin bestehen, dass Relativbewegungen von Mikroskop-Optik und Patient oder Patientenunterlage bzw. allgemeiner formuliert des abzubildenden Objektbereichs verhindert und/oder kompensiert werden. Die Bewegungsregelung nutzt dabei das Ergebnis der Erfassung der zumindest einen Erfassungsstruktur durch die zumindest eine Bildaufzeichnungseinrichtung, nämlich die aus dem zumindest einen Aufzeichnungsbild ermittelte Geschwindigkeit für die Bewegungsregelung. The surgeon can manually move the microscope optics and optionally additionally the at least one image recording device and / or by actuating the movement device (eg via a joystick or a touch screen as an interaction device). Once both the microscope optics and the at least one image recording device are positioned and / or aligned, the operation of an automatic movement control can be started, which regulates a movement of the microscope optics in the respective desired manner. In this case, the regulation can also be, at least temporarily, that relative movements of the microscope optics and the patient or patient pad or, more generally, the object area to be imaged are prevented and / or compensated. The movement control uses the result of the detection of the at least one detection structure by the at least one image recording device, namely the speed for the motion control determined from the at least one recording image.

Der automatische Regelungsbetrieb kann durch ein von dem Chirurgen erzeugtes Signal gestartet werden, z.B. durch Drücken eines Bedienelements, durch einen akustischen Befehl des Chirurgen durch Gebrauch seiner Stimme, durch eine visuell erfassbare Geste des Chirurgen oder auf andere Weise. Der automatische Betrieb kann aber auch automatisch oder zu einer vorgegebenen Zeit begonnen werden. Optional kann der Beginn des automatischen Regelungsbetriebes dem Chirurgen signalisiert werden, d.h. es wird ein Signal ausgegeben, wenn der Betrieb beginnt oder begonnen hat. Nach dem Beginn des automatischen Betriebes kann dem Chirurgen dargestellt werden, z.B. in Form der oben erwähnten zusätzlichen Informationen, dass eine Relativbewegung des Patienten und der Mikroskop-Optik noch stattfindet und optional welche Bewegung stattfindet. Insbesondere kann die Relativbewegung durch die ermittelte Geschwindigkeit charakterisiert werden und ein der Höhe der Geschwindigkeit entsprechender Wert dem Chirurgen dargestellt werden. Unter einer Darstellung ist beispielsweise eine visuelle Darstellung zu verstehen. Die Darstellung kann aber auch auf andere Weise erfolgen, z.B. durch ein akustisches Signal oder die Ausgabe von Sprachinformationen. The automatic control mode may be started by a signal generated by the surgeon, e.g. by pressing a control, by the surgeon's acoustic command through use of his voice, by a visually detectable gesture of the surgeon or otherwise. The automatic operation can also be started automatically or at a predetermined time. Optionally, the beginning of the automatic control operation may be signaled to the surgeon, i. a signal is issued when the operation starts or starts. After the start of automatic operation, the surgeon may be visualized e.g. in the form of the above-mentioned additional information that a relative movement of the patient and the microscope optics still takes place and optionally which movement takes place. In particular, the relative movement can be characterized by the determined speed and a value corresponding to the height of the speed can be displayed to the surgeon. For example, a representation is a visual representation. However, the representation can also take place in other ways, e.g. by an acoustic signal or the output of speech information.

Wie bereits erwähnt kann zumindest eine Bildaufzeichnungseinrichtung die Mikroskop-Optik als abbildende Optik nutzen, um den Objektbereich mit der Erfassungsstruktur durch zumindest ein Aufzeichnungsbild zu erfassen. Es wird jedoch bevorzugt, dass zumindest eine Bildaufzeichnungseinrichtung ohne Nutzung der Mikroskop-Optik als abbildende Optik zumindest ein Aufzeichnungsbild erfasst, aus dem die Geschwindigkeit der Relativbewegung ermittelt wird. Dies hat z.B. den Vorteil, dass die Bildaufzeichnungseinrichtung auf einen anderen Bereich als den von der Mikroskop-Optik zu erfassenden Objektbereich ausgerichtet sein/werden kann und sich in diesem anderen Bereich die Erfassungsstruktur befinden kann. Auch kann mit einer separaten Abbildungsoptik z.B. eine an den Zweck der Abbildung der Erfassungsstruktur angepasste Optik verwendet werden. As already mentioned, at least one image recording device can use the microscope optics as imaging optics in order to capture the object area with the detection structure by at least one recording image. However, it is preferred that at least one image recording device detects at least one recording image without using the microscope optics as imaging optics, from which the speed of the relative movement is determined. This has e.g. the advantage that the image recording device can be oriented to a region other than the object region to be detected by the microscope optics and the detection structure can be located in this other region. Also, with separate imaging optics, e.g. an optics adapted to the purpose of imaging the detection structure may be used.

Ferner wird vorgeschlagen, dass das Operationsmikroskopiesystem für seine bildvergrößernde Systemfunktion einerseits und die Erfassung der zumindest einen Erfassungsstruktur andererseits Strahlung unterschiedlicher Wellenlängenbereiche nutzt. Z.B. kann für die Systemfunktion sichtbares Licht verwendet werden und für die Erfassung der Erfassungsstruktur durch das zumindest eine Aufzeichnungsbild Strahlung im nahen Infrarotbereich. Dies ermöglicht es, im nichtsichtbaren Infrarotbereich zum Zweck der Erfassung der Erfassungsstruktur zusätzlich zu beleuchten, ohne den Chirurgen bei der Operation zu stören. It is also proposed that the surgical microscopy system, on the one hand, uses radiation of different wavelength ranges for its image-enlarging system function, on the one hand, and the detection of the at least one detection structure, on the other hand. For example, For example, visible light can be used for the system function and radiation in the near infrared range can be used for the acquisition of the detection structure by the at least one recording image. This makes it possible to additionally illuminate in the non-visible infrared range for the purpose of detecting the detection structure, without disturbing the surgeon during the operation.

Falls für die Operation, d.h. die Behandlung des Patienten, Strahlung in dem Wellenlängenbereich verwendet wird, in dem die Erfassung der Erfassungsstruktur zum Zweck der Aufzeichnung des zumindest einen Aufzeichnungsbildes stattfindet, kann die Erfassung der Erfassungsstruktur auf Zeitintervalle beschränkt werden, in denen die für die Operation verwendete Strahlung nicht erzeugt wird. Z.B. kann die für die Operation genutzte Strahlung jeweils über kurze Zeitintervalle hinweg erzeugt werden und in dazwischen liegenden Zeitintervallen jeweils zumindest ein Aufzeichnungsbild zum Zweck der Ermittlung der Geschwindigkeit der Relativbewegung aufgezeichnet werden. Das Bewegungsmesssystem kann daher mit einer Steuerung einer Strahlungsquelle zur Erzeugung der bei der Operation genutzten Strahlung verbunden sein und Signale von dieser Strahlungsquelle oder deren Steuerung empfangen, aus denen eine Steuerung des Bewegungsmesssystems die Information entnehmen kann, wann ungestörte Aufzeichnungen von Aufzeichnungsbildern möglich sind. If for the operation, i. the treatment of the patient, radiation in the wavelength range is used, in which the detection of the detection structure for the purpose of recording the at least one recorded image takes place, the detection of the detection structure can be limited to time intervals in which the radiation used for the operation is not generated. For example, For example, the radiation used for the operation can be generated in each case over short time intervals and in each case at least one recording image can be recorded in intermediate time intervals for the purpose of determining the speed of the relative movement. The motion measuring system may therefore be connected to a control of a radiation source for generating the radiation used in the operation and receive signals from this radiation source or its control, from which a control of the motion measuring system can take the information when undisturbed recordings record images are possible.

Alternativ oder zusätzlich zu der Anordnung zumindest einer Bildaufzeichnungseinrichtung an der Mikroskop-Optik kann zumindest eine Bildaufzeichnungseinrichtung separat von der Mikroskop-Optik vorgesehen sein, z.B. an der Patientenunterlage oder auch am Patienten. Bevorzugt wird eine Anordnung und Befestigung an der Patientenunterlage (z.B. einem Operationstisch) oder an einem relativ zu der Patientenunterlage ruhenden Gegenstand. Diese zumindest eine Bildaufzeichnungseinrichtung kann so ausgestaltet sein, dass sie sowohl eine am Patienten angeordnete Erfassungsstruktur als auch eine an der Mikroskop-Optik angeordnete und/oder durch die Mikroskop-Optik gebildete Erfassungsstruktur gleichzeitig erfassen kann. Die Anordnung an der Mikroskop-Optik schließt den Fall mit ein, dass die Erfassungsstruktur zumindest teilweise an einem mit der Mikroskop-Optik verbundenen Teil angeordnet und/oder durch dieses ausgebildet ist. Dies ermöglicht es insbesondere, eine Erfassungsstruktur zu verwenden, welche eine Strahlungsquelle aufweist. Die von der Strahlungsquelle erzeugte Strahlung kann z.B. zur Beleuchtung des Operationsraumes und insbesondere zur Beleuchtung des zu operierenden Bereichs des Patienten genutzt und auch erfasst werden zur Aufzeichnung des zumindest einen Aufzeichnungsbildes. Insbesondere muss die Erfassungsstruktur an der Mikroskop-Optik daher nicht von einer andernorts angeordneten Strahlungsquelle beleuchtet werden, die den Chirurgen und das Hilfspersonal möglicherweise stört. Auch im Fall der unterschiedlichen Wellenlängenbereiche, insbesondere auch, wenn sich die Wellenlängenbereiche überlappen, kann in diesem Fall verhindert werden, dass die Strahlung aus der Strahlungsquelle der Erfassungsstruktur an der Mikroskop-Optik die Systemfunktion des Operationsmikroskopiesystems beeinträchtigt. Z.B. kann die Strahlung der Strahlungsquelle an der Mikroskop-Optik so ausgerichtet und/oder ausgeblendet werden, dass sie nicht in den von der Mikroskop-Optik abzubildenden Objektbereich einfällt. As an alternative or in addition to the arrangement of at least one image recording device on the microscope optics, at least one image recording device can be provided separately from the microscope optics, for example on the patient pad or on the patient. Preferred is an arrangement and attachment to the patient pad (eg an operating table) or to an object resting relative to the patient pad. This at least one image recording device can be designed such that it can simultaneously detect both a detection structure arranged on the patient and a detection structure arranged on the microscope optics and / or formed by the microscope optics. The order at the microscope optics includes the case that the detection structure is at least partially arranged on a part connected to the microscope optics and / or formed by this. This makes it possible, in particular, to use a detection structure which has a radiation source. The radiation generated by the radiation source can be used, for example, to illuminate the operating room and in particular to illuminate the area of the patient to be operated and also be recorded for recording the at least one recording image. In particular, therefore, the detection structure on the microscope optics does not have to be illuminated by a radiation source arranged elsewhere, which possibly disturbs the surgeon and the auxiliary personnel. In the case of the different wavelength ranges, in particular also when the wavelength ranges overlap, in this case it can be prevented that the radiation from the radiation source of the detection structure on the microscope optics impairs the system function of the surgical microscopy system. For example, the radiation of the radiation source can be aligned and / or masked on the microscope optics such that it does not enter the object region to be imaged by the microscope optics.

Es wurde bereits erwähnt, dass mechanische Schwingungen von Komponenten des Operationsmikroskopiesystems die gewünschte Systemfunktion stören können, da sie zu einer Relativbewegung der Mikroskop-Optik und des abzubildenden Objektbereichs führen können. Insbesondere können die Eigenfrequenzen der mechanischen Schwingungen der Mikroskop-Optik im Bereich weniger Hertz bis weniger Zehntel Hertz liegen. Schwingungen mit diesen Eigenfrequenzen führen zu Störungen bei der Abbildung durch die Mikroskop-Optik, welche als De-Fokussierung und/oder seitlicher Bildversatz wahrnehmbar sind. Für den Chirurgen können solche Störungen ermüdend wirken. Im Fall der Augmentierung können sich solche Störungen auch auf das Ergebnis der Operation auswirken. Denkbar wäre die Verwendung von Beschleunigungssensoren insbesondere an der Mikroskop-Optik, um diese niederfrequenten Schwingungen zu erfassen und durch eine Bewegungsregelung kompensieren zu können. Derartige Sensoren sind jedoch aufwendig in der Anschaffung und aufgrund der niedrigen Frequenzen auch verhältnismäßig großvolumig. Die entsprechende Bewegungsregelung tendiert außerdem dazu, dass die Mikroskop-Optik angetrieben durch die Bewegungseinrichtung von ihrer Sollposition allmählich wegbewegt wird. Um die Sollposition beizubehalten, wird die Information über die absolute Position der Mikroskop-Optik im Operationsraum benötigt. It has already been mentioned that mechanical oscillations of components of the surgical microscopy system can disturb the desired system function since they can lead to a relative movement of the microscope optics and of the object region to be imaged. In particular, the natural frequencies of the mechanical oscillations of the microscope optics can range from a few hertz to a few tenths hertz. Vibrations with these natural frequencies lead to disturbances in the imaging by the microscope optics, which are perceptible as de-focusing and / or lateral image offset. For the surgeon, such disturbances can be tiring. In the case of augmentation, such disorders may also affect the outcome of the surgery. It would be conceivable to use acceleration sensors, in particular on the microscope optics, in order to be able to detect these low-frequency oscillations and compensate them by means of a movement control. However, such sensors are expensive to purchase and due to the low frequencies and relatively large volume. The corresponding movement control also tends to the microscope optics driven by the moving means is gradually moved away from its desired position. In order to maintain the desired position, the information about the absolute position of the microscope optics in the operating room is needed.

Dagegen ermöglicht es die erfindungsgemäße Erfassung der Erfassungsstruktur und Ermittlung der Geschwindigkeit aus dem zumindest einen Aufzeichnungsbild unmittelbar die Relativbewegung der Mikroskop-Optik und der Erfassungsstruktur und damit auch bei entsprechender Ausgestaltung des Objektbereichs zu erfassen. Die Kompensation niederfrequenter mechanischer Schwingungen wird somit unmittelbar ohne Bestimmung der absoluten Position im Raum möglich. By contrast, the detection according to the invention of the detection structure and determination of the speed from the at least one recording image makes it possible to directly detect the relative movement of the microscope optics and the detection structure and thus also with a corresponding configuration of the object region. The compensation of low-frequency mechanical vibrations is thus possible directly without determining the absolute position in space.

Nicht nur bei dem zuvor beschriebenen Ausführungsbeispiel schließt die Ermittlung der Geschwindigkeit aus dem zumindest einen Aufzeichnungsbild nicht aus, dass zusätzlich auch die Relativposition von Mikroskop-Optik und Erfassungsstruktur ermittelt wird, z.B. ebenfalls aus zumindest einem Aufzeichnungsbild und insbesondere aus demselben Bild oder denselben Bildern wie bei der Geschwindigkeitsermittlung. Not only in the embodiment described above, the determination of the speed from the at least one recording image does not preclude that the relative position of microscope optics and detection structure is additionally determined, e.g. also from at least one recording image and in particular from the same image or the same images as in the speed determination.

Insbesondere bei den genannten niederfrequenten Schwingungen reichen heutzutage auf dem Markt erhältliche Kameras mit einer Auflösung von einigen Megapixeln und Bild-Ausleseraten im Bereich von einigen zehn bis einigen hundert Hertz aus, um die Informationen für eine Bewegungsregelung zur Kompensation der Schwingungen zu liefern. Außer der Geschwindigkeitsermittlung ist es insbesondere auch möglich, den Ortsvektor zu ermitteln, der die Relativbewegung einschließlich deren Bewegungsrichtung beschreibt. In particular, in the low-frequency oscillations mentioned, cameras available today with a resolution of a few megapixels and image readout rates in the range of a few tens to a few hundred hertz are sufficient to provide the information for a motion control to compensate for the oscillations. In addition to determining the speed, it is also possible in particular to determine the position vector which describes the relative movement including its direction of movement.

In der Praxis wird bei Operationen z.B. eine Positionsgenauigkeit der Bilderfassung und Bilddarstellung des Systems von einigen zehn Mikrometern angestrebt. Bei den erwähnten örtlichen Auflösungen von Kameras reicht die Matrix der Fotozellen der Kamera als zweidimensionale Referenz aus, d.h. die Matrix stellt ein zweidimensionales Koordinatensystem dar, auf das die aufgezeichneten Aufzeichnungsbilder und die Auswertung dieser Aufzeichnungsbilder bezogen werden können. In practice, in operations, e.g. a positional accuracy of image acquisition and image representation of the system of a few tens of microns sought. At the aforementioned local resolutions of cameras, the matrix of the camera's photocells is sufficient as a two-dimensional reference, i. the matrix represents a two-dimensional coordinate system, to which the recorded recording images and the evaluation of these recording images can be referred.

Wenn jedoch die Mikroskop-Optik eine Zoom-Funktion aufweist, d.h. wenn die Brennweite der Optik verändert werden kann und insbesondere wenn Zusatzinformation für den Chirurgen bereitgestellt werden soll, kann zumindest eine Erfassungsstruktur im Erfassungsbereich der Mikroskop-Optik nicht nur durch die zumindest eine Bildaufzeichnungseinrichtung zum Zweck der Geschwindigkeitsermittlung erfasst werden, sondern auch eine mittels der Mikroskop-Optik abgebildete Abbildung der Erfassungsstruktur zur Bestimmung des Maßstabes und/oder Größenverhältnisses der Abbildung durch die Mikroskop-Optik verwendet werden. In diesem Fall wird das Bezugs-Koordinatensystem der Erfassungsstruktur verwendet. Bei Augmentierung kann die zusätzliche Information daher auf das Koordinatensystem der Erfassungsstruktur bezogen werden und insbesondere im Fall einer nahe oder im Operationsbereich des Patienten angeordneten Erfassungsstruktur ist gewährleistet, dass die zusätzliche Information im richtigen Maßstab des Objektbereichs zur Verfügung gestellt wird. However, if the microscope optics has a zoom function, ie if the focal length of the optics can be changed and in particular if additional information for the surgeon to be provided, at least one detection structure in the detection range of the microscope optics not only by the at least one image recording device for Purpose of the speed determination are detected, but also an image of the detection structure imaged by means of microscope optics for determining the scale and / or size ratio of the image by the microscope optics are used. In this case, the reference coordinate system of the detection structure is used. For augmentation, the additional information can therefore be related to the coordinate system of the detection structure and Particularly in the case of a detection structure arranged near or in the operating area of the patient, it is ensured that the additional information is provided on the correct scale of the object area.

Wenn der Maßstab der Erfassungsstruktur in der beschriebenen Weise verwendet wird, kann auch das zumindest eine Aufzeichnungsbild, welches durch eine Bildaufzeichnungseinrichtung von der Erfassungsstruktur erfasst wird, wobei aber nicht die Mikroskop-Optik zur Abbildung verwendet wird, in Kombination mit zumindest einem mittels der Mikroskop-Optik bei einer gegebenen Zoom-Einstellung erzeugten Abbild ausgewertet werden. Unter Berücksichtigung der bekannten Information über den Maßstab und/oder das Koordinatensystem der Erfassungsstruktur kann daher zusätzlich auf die Bildinformation aus dem zumindest einen Aufzeichnungsbild zurückgegriffen werden. Es steht somit redundante Information zur Verfügung, sofern die zumindest eine Bildaufzeichnungseinrichtung und die Mikroskop-Optik fest miteinander verbunden sind. Insbesondere eine Kalibrierung der Abbildungsmaßstäbe der Zoom-Funktion ist auf diese Weise zuverlässig möglich. If the scale of the detection structure is used in the manner described, the at least one recording image which is captured by the detection structure by an image recording device, but the microscope optics are not used for imaging, can also be used in combination with at least one microscope image. Optics are evaluated at a given zoom setting generated image. Taking into account the known information about the scale and / or the coordinate system of the detection structure, it is therefore additionally possible to make use of the image information from the at least one recording image. There is thus redundant information available, provided that the at least one image recording device and the microscope optics are firmly connected to each other. In particular, a calibration of the image scales of the zoom function is reliably possible in this way.

Es wird bevorzugt, dass eine Mehrzahl von Kameras zur Aufzeichnung von jeweils zumindest einem Aufzeichnungsbild verwendet wird. Ferner wird bevorzugt, dass eine Mehrzahl von Erfassungsstrukturen aus Sicht des Operationsmikroskops mit der Mikroskop-Optik (falls die Kameras an der Mikroskop-Optik angeordnet sind) oder aus Sicht der Patientenunterlage oder des Bereichs um die Patientenunterlage (falls die Kameras dort angeordnet sind) in unterschiedlichen Richtungen am relativ zu den Kameras beweglichen Teil angeordnet sind. Dadurch kann dem Problem begegnet werden, dass das Auflösungsvermögen der optischen Einrichtungen bekannter Kameras in tangentialer Richtung (quer zum Strahlengang bei der Aufnahme des Aufzeichnungsbildes) größer ist als in Richtung des Strahlengangs. It is preferable that a plurality of cameras are used for recording each of at least one recording image. Furthermore, it is preferred that a plurality of detection structures from the viewpoint of the surgical microscope with the microscope optics (if the cameras are arranged on the microscope optics) or from the perspective of the patient pad or the area around the patient pad (if the cameras are arranged there) in different directions are arranged on relative to the cameras moving part. As a result, the problem can be solved that the resolution of the optical devices of known cameras in the tangential direction (transverse to the beam path when recording the recording image) is greater than in the direction of the beam path.

Insbesondere kann zur gleichzeitigen Erfassung einer Mehrzahl der Erfassungsstrukturen oder einer verteilten Erfassungsstruktur mit einer Mehrzahl von Elementen zumindest eine Kamera eine Fischaugen-Optik aufweisen. Ferner ist auch der Einsatz einer sogenannten perizentrischen Optik möglich, mit welcher nicht nur die Stirnflächen, sondern auch die Mantelflächen eines Objekts (hier des Patienten oder der Patientenunterlage bzw. der jeweiligen Erfassungsstruktur) erfasst werden können. In particular, for the simultaneous detection of a plurality of the detection structures or of a distributed detection structure having a plurality of elements, at least one camera can have fisheye optics. Furthermore, the use of a so-called pericentric optics is also possible with which not only the end surfaces but also the lateral surfaces of an object (here the patient or the patient pad or the respective detection structure) can be detected.

Insbesondere aufgrund der im Operationsraum vergleichsweise geringen benötigten Genauigkeiten bei der Positionsbestimmung und Geschwindigkeitsbestimmung sowie bezüglich der örtlichen Auflösung können auch weitere optische Abbildungs-Prinzipien genutzt werden, die eine dreidimensionale Abbildung bzw. den Erhalt eines dreidimensionalen Bilddatensatzes erlauben. Hierzu gehören Optiken gemäß dem Prinzip der Plenoptik, die Linien-Triangulation und/oder die Streifenprojektion. Die Erfassungsstrukturen können an die optischen Erfassungsverfahren angepasst werden. In particular, due to the comparatively low accuracy required in the operating room for determining the position and determining the speed as well as the local resolution, it is also possible to use further optical imaging principles which allow a three-dimensional image or the acquisition of a three-dimensional image data set. These include optics according to the principle of plenoptics, the line triangulation and / or the fringe projection. The detection structures can be adapted to the optical detection methods.

Teile der folgenden Beschreibung beziehen sich auf den Fall, dass die Relativbewegung senkrecht zur optischen Achse der Abbildung verläuft. Die Erfindung ist jedoch nicht auf diesen Fall beschränkt. Zum Beispiel kann durch Vorverarbeitung der Bilddaten und/oder durch Vorkenntnisse über die Geometrie der Abbildung (insbesondere über Position und/oder Ausrichtung der Erfassungsstruktur relativ zur Kamera) bei der Ermittlung der Geschwindigkeit berücksichtigt werden, dass die Relativbewegung nicht senkrecht zur optischen Achse verläuft. Parts of the following description refer to the case where the relative movement is perpendicular to the optical axis of the image. However, the invention is not limited to this case. For example, by pre-processing the image data and / or by prior knowledge of the geometry of the image (in particular via the position and / or orientation of the detection structure relative to the camera), it can be taken into account in the determination of the velocity that the relative movement does not run perpendicular to the optical axis.

Im häufigsten Anwendungsfall eines zweidimensionalen Aufzeichnungsbildes (ohne Beschränkung auf Linsenoptik auch als Kamerabild bezeichnet) sind keine Tiefeninformationen, das heißt aus Informationen zu der dritten Dimension, vorhanden. Insbesondere durch die genannte Vorverarbeitung und/oder Vorkenntnisse kann aber berücksichtigt werden, dass die Erfassungsstruktur sich nicht lediglich in einer Ebene erstrecken kann, die senkrecht zur optischen Achse der Abbildung verläuft. Zum Beispiel kann die Ebene der Erfassungsstruktur gegen diese Ebene abgewinkelt verlaufen. Auch ist es möglich, dass die Erfassungsstruktur nicht lediglich in einer Ebene verläuft, sondern zum Beispiel eine dreidimensionale Struktur aufweist und/oder entlang einer gebogenen Oberfläche verläuft. Abhängig von der Tiefenposition des jeweiligen im Kamerabild abgebildeten Punkts oder Bereichs der Erfassungsstruktur kann sich eine unterschiedlich starke Schmierung im Kamerabild ergeben. In the most common use case of a two-dimensional recording image (also referred to as a camera image without limitation to lens optics), there is no depth information, that is, information about the third dimension. However, it can be taken into account in particular by the aforementioned preprocessing and / or prior knowledge that the detection structure can not extend only in a plane which runs perpendicular to the optical axis of the image. For example, the plane of the detection structure may be angled against that plane. It is also possible for the detection structure not to run only in one plane, but for example to have a three-dimensional structure and / or to run along a curved surface. Depending on the depth position of the respective point or area of the detection structure depicted in the camera image, different degrees of lubrication in the camera image may result.

Die Erfindung ist auch nicht auf den Fall von Bewegungen eines beweglichen Teils entlang einer geradlinig verlaufenden Koordinatenachse oder innerhalb einer Ebene beschränkt. Die Erfindung ist auch nicht auf geradlinige Bewegungen entlang einer beliebigen Richtung im Raum beschränkt. Vielmehr können auch Drehbewegungen oder Überlagerungen von Drehbewegungen und geradlinigen Bewegungen mit dem Bewegungsmesssystem bzw. durch das Verfahren gemessen werden. The invention is also not limited to the case of movements of a movable part along a straight-line coordinate axis or within a plane. Nor is the invention limited to linear movements along any direction in space. Rather, it is also possible to measure rotational movements or superimpositions of rotary movements and rectilinear movements with the movement measuring system or by the method.

Insbesondere kann die Erfassungsstruktur zumindest eine und vorzugsweise mehrere der Kanten aufweisen, die oben erwähnt sind. In diesen Fällen ist es insbesondere möglich, den örtlichen Verlauf der Verschmierung (d.h. z.B. den Übergang von weiß zu schwarz oder hell zu dunkel) an der Kante oder den Kanten im Kamerabild auszuwerten. Als Informationen über die tatsächliche Erscheinung der Erfassungsstruktur reichen in diesem Fall z.B. die Kenntnis der Position und/oder des Verlaufs der Kante in der Erfassungsstruktur aus. Optional kann ferner berücksichtigt werden, wie scharf die Kante in der Erfassungsstruktur ist und bis zu welchem Grad und/oder in welcher Weise die Kante bereits aufgrund der Aufnahme des Kamerabildes (z.B. durch Abbildungsfehler und örtliche Auflösung der Kamera) verändert und insbesondere verschmiert wird. Veränderung allein aufgrund der Abbildung kann aber bei der Ermittlung der Geschwindigkeit auch dann berücksichtigt werden, wenn keine Kante vorhanden oder keine Verschmierung an einer Kante ausgewertet wird. In particular, the detection structure may have at least one, and preferably more, of the edges mentioned above. In these cases, it is possible in particular to evaluate the local course of the smearing (ie, for example, the transition from white to black or light to dark) at the edge or the edges in the camera image. In this case, for example, knowledge of the position and / or the course of the edge in the detection structure is sufficient as information about the actual appearance of the detection structure. Optionally, it can also be taken into account how sharp the edge is in the detection structure and to what extent and / or in which way the edge is already changed and, in particular, smeared due to the image of the camera image (eg due to aberrations and local resolution of the camera). However, change due to mapping alone can be taken into account when determining the speed even if no edge is present or no smearing is evaluated on one edge.

Zum Beispiel kann eine Erfassungsstruktur ein oder mehrere strichartige Flächen aufweisen, an deren Ränder sich die Kanten, das heißt die sprungartigen Übergänge, befinden. Insbesondere kann eine Erfassungsstruktur strichartige Flächen mit unterschiedlichen Breiten, das heißt Abstände der Ränder und/oder Richtungen der Kantenverläufe aufweisen. Ihre Staffelung kann insbesondere abhängig von dem Belichtungszeitintervall der Kamera und dem Geschwindigkeitsbereich gewählt werden, in dem die Geschwindigkeit der Relativbewegung erwartet wird und ermittelt werden soll. Z. B. kann die Erfassungsstruktur eine kontinuierliche Grauwertverteilung und/oder (im Frequenzraum) ein kontinuierliches Frequenzspektrum der Strukturelemente aufweisen. Die Frequenzen des Frequenzspektrums werden zu einer gemeinsamen Grauwertverteilung überlagert. Die Frequenzüberlagerung kann dabei mit statistischer Phase erfolgen, so dass sich eine statistische Grauwertverteilung im Bild ergibt. Eine derartige Ausgestaltung der Erfassungsstruktur ist gut geeignet, um Rauschanteile in der Geschwindigkeitsmessung auszumitteln. Der Rechenaufwand für die Auswertung eines Bildes einer Erfassungsstruktur mit statistischer Grauwertverteilung ist jedoch verhältnismäßig hoch. Wenn, wie bevorzugt, jedes Kamerabild einer Folge von nacheinander aufgenommenen Kamerabilder (z.B. bei einer Frequenz von größer als 1 kHz) zur Ermittlung der Geschwindigkeit ausgewertet werden soll, ist der Rechenaufwand sehr hoch. Bevorzugt wird daher eine durch die Erfassungsstruktur definierte kontinuierliche Phasenbeziehung für die Fourierfrequenzen der Strukturelemente. In diesem Fall kann das Kamerabild als zusammenhängender Datensatz bezeichnet werden, sodass keine Bezugnahme bzw. kein Vergleich mit externen Informationen notwendig ist. For example, a detection structure may have one or more line-like surfaces, at the edges of which are the edges, that is, the sudden transitions. In particular, a detection structure can have line-like areas with different widths, that is to say distances of the edges and / or directions of the edge courses. In particular, their staggering can be selected depending on the exposure time interval of the camera and the speed range in which the speed of the relative movement is expected and is to be determined. For example, the detection structure may have a continuous gray scale distribution and / or (in the frequency domain) a continuous frequency spectrum of the structural elements. The frequencies of the frequency spectrum are superimposed to a common gray value distribution. The frequency superposition can be done with statistical phase, so that there is a statistical gray scale distribution in the picture. Such a configuration of the detection structure is well suited to average out noise components in the speed measurement. However, the computational effort for the evaluation of an image of a detection structure with statistical gray value distribution is relatively high. If, as is preferred, each camera image of a sequence of consecutively recorded camera images (for example at a frequency of greater than 1 kHz) is to be evaluated to determine the speed, the computational effort is very high. Therefore, a continuous phase relationship defined by the detection structure for the Fourier frequencies of the structural elements is preferred. In this case, the camera image may be referred to as a contiguous data set, so that no reference or comparison with external information is necessary.

Mit dem beschriebenen Ansatz der Frequenzüberlagerung von kontinuierlichen Grauwertverteilungen kann erreicht werden, dass an jedem Ort in der Erfassungsstruktur jede Frequenz vorkommt. Grautonfähige Bilderzeugungsverfahren zur Erzeugung solcher kontinuierlichen Grauwertverteilungen sind bereits bekannt. Alternativ kann aber z.B. eine binäre Schwarz-Weiß-(oder Hell-Dunkel-)Ortsverteilungen durch die Erfassungsstruktur realisiert werden. Für die Ermittlung der Geschwindigkeit aus verhältnismäßig großen Entfernungen sind die Punktdichten (Pixeldichten) der Erfassungsstruktur in diesem Fall nicht auflösbar, d.h. sie liegen in einem Ortsfrequenzintervall außerhalb der Übertragungsbandbreite des verwendeten optischen Systems. Ein Beispiel für ein solches Grauwertverfahren ist die Analyse von Bernoulli-Rausch-Mustern, z.B. wie veröffentlicht in „The Non-parametric Sub-pixel Local Point Spread Function Estimation Is a Well Posed Problem“ von Mauricio Delbracio et al., International Journal of Computer Vision (2012) 96, Seiten 175–195, Springer . With the described approach of the frequency superimposition of continuous gray-scale distributions it can be achieved that every frequency occurs at every location in the detection structure. Grayscale imaging methods for generating such continuous gray level distributions are already known. Alternatively, however, a binary black-and-white (or light-dark) spatial distributions can be realized by the detection structure, for example. In order to determine the speed from relatively large distances, the point densities (pixel densities) of the detection structure are not resolvable in this case, ie they lie in a spatial frequency interval outside the transmission bandwidth of the optical system used. An example of such a grayscale method is the analysis of Bernoulli noise patterns, eg as published in Mauricio Delbracio et al., International Journal of Computer Vision (2012) 96, pp. 175-195, Springer, "The Non-parametric Sub-pixel Local Point Spread Function Estimation Is a Well-Posed Problem" ,

Die vorstehend beschriebene kontinuierliche Grauwertverteilung ist lediglich ein Ausführungsbeispiel für Erfassungsstrukturen. Grundsätzlich kann nach der Fouriertheorie jedes Signal als Überlagerung von Frequenzen dargestellt werden. D.h. auch binäre Strukturen (die somit an den Übergängen der Strukturen Kanten bilden) enthalten viele Frequenzen aus dem möglichen Frequenzspektrum. Da jedoch eine Kante, d.h. ein einzelner Kontrastsprung im Bild, ein nicht-periodisches Signal liefert, ist zu seiner Beschreibung ein Fourier-Integral, d.h. keine Fourier-Summe, erforderlich. Das Frequenzspektrum ist dabei unendlich ausgedehnt und enthält Information bei hohen Frequenzen, die vom optischen Übertragungssystem nicht mehr aufgelöst werden können. Dies führt zu einem niedrigen Signal-/Rausch-Verhältnis. Die binären Strukturen in der Fourierebene können aber so ausgelegt werden, dass sie niedrige Frequenzen enthalten. Insbesondere können Strukturelemente regelmäßig ausgelegt werden bzw. nennenswerte periodische Anteile aufweisen. Diese Periodizität hat die Folge, dass das Frequenzspektrum Peaks (das heißt schmale Frequenzbereiche mit sprungartig ansteigender und abfallender Amplitude) enthält, deren Frequenzabstand der inversen Strukturperiode entspricht. The continuous gray value distribution described above is merely an exemplary embodiment of detection structures. Basically, according to Fourier theory, each signal can be represented as a superimposition of frequencies. That Even binary structures (which thus form edges at the transitions of the structures) contain many frequencies from the possible frequency spectrum. However, since an edge, i. a single contrast jump in the image that produces a non-periodic signal is for its description a Fourier integral, i. no Fourier sum, required. The frequency spectrum is infinitely extended and contains information at high frequencies that can no longer be resolved by the optical transmission system. This leads to a low signal-to-noise ratio. However, the binary structures in the Fourier plane can be designed to contain low frequencies. In particular, structural elements can be designed regularly or have appreciable periodic proportions. This periodicity has the consequence that the frequency spectrum contains peaks (ie narrow frequency ranges with a sudden increase and decrease in amplitude) whose frequency spacing corresponds to the inverse structure period.

Z.B. kann die Verschmierung der Kante im Kamerabild durch an sich bereits bekannte Verfahren auf dem Gebiet der Bildverarbeitung und Bildverbesserung ermittelt, charakterisiert und/oder ausgewertet werden. Z.B. kann die erste und/oder zweite örtliche Ableitung des Bildwertes (z.B. des Grauwertes) entlang einer Linie quer zum Verlauf der Kante und insbesondere senkrecht zum Verlauf der Kante gebildet werden. Z.B. durch Bestimmung eines Maßes für den Verlauf der ersten örtlichen Ableitung kann der Grad der Verschmierung charakterisiert werden. For example, For example, the smearing of the edge in the camera image can be determined, characterized and / or evaluated by methods already known per se in the field of image processing and image enhancement. For example, For example, the first and / or second local derivative of the image value (e.g., the gray value) may be formed along a line transverse to the edge of the edge, and more particularly perpendicular to the edge. For example, By determining a measure of the course of the first local derivative, the degree of smearing can be characterized.

Eine weitere Möglichkeit besteht darin, die Verschmierung an jeweils einer einzelnen Kante durch mathematische Faltung einer mathematischen Funktion, die die Verschmierung der Kante im Kamerabild beschreibt, mit einer zweiten mathematischen Funktion, die die Kante der Erfassungsstruktur beschreibt, zu ermitteln. Another possibility is to determine the smearing at each of a single edge by mathematical convolution of a mathematical function that describes the smearing of the edge in the camera image with a second mathematical function that describes the edge of the detection structure.

Die unmittelbare Auswertung der Verschmierung an einer einzelnen Kante ist jedoch verhältnismäßig aufwendig und kostet daher verhältnismäßig viel Rechenzeit, wenn die Auswertung, wie generell (nicht nur im Fall einer Kante) bevorzugt, von einer Datenverarbeitungseinrichtung ausgeführt wird. Auch ist der durch Auswertung einer einzelnen Kantenverschmierung gewonnene Informationsgehalt verhältnismäßig gering. Auch die Genauigkeit der Geschwindigkeitsbestimmung kann gesteigert werden, wenn nicht lediglich eine einzelne Kante ausgewertet wird. Bevorzugt wird daher, nicht nur eine einzelne Kante bezüglich der Verschmierung im Kamerabild auszuwerten, sondern eine Mehrzahl von Kanten und insbesondere auch den Abstand der Kanten zueinander zu berücksichtigen. Insbesondere ist es von Vorteil, wenn die Erfassungsstruktur eine Vielzahl von Kanten (d.h. zumindest drei Kanten) aufweist, deren Abstände zueinander nicht gleich groß sind. Dies betrifft insbesondere die Anordnung der Kanten entlang einer virtuellen oder tatsächlich vorhandenen (z.B. geraden) Linie in der Erfassungsstruktur, die die Kanten quer zu ihrem Verlauf und insbesondere senkrecht zu ihrem Verlauf schneidet. Der Kantenabstand wird insbesondere zwischen zwei nächstbenachbarten Kanten definiert, sodass sich Paare von nächstbenachbarten Kanten in unterschiedlichem Abstand zueinander in der Erfassungsstruktur befinden. Dies schließt nicht aus, dass sich Kantenabstände wiederholen, d.h. sich verschiedene Paare von Kanten, die einen gleichen Abstand zueinander haben, in verschiedenen Bereichen der Struktur befinden. The immediate evaluation of smearing on a single edge, however, is relatively expensive and therefore costs relatively much computing time if the evaluation, as generally (not only in the case of an edge) preferred, is performed by a data processing device. Also, the information obtained by evaluating a single Kantenverschmierung information content is relatively low. The accuracy of the velocity determination can be increased if not just a single edge is evaluated. It is therefore preferred to evaluate not only a single edge with respect to the smearing in the camera image, but to take into account a plurality of edges and in particular also the spacing of the edges from one another. In particular, it is advantageous if the detection structure has a plurality of edges (i.e., at least three edges) whose distances from each other are not equal. In particular, this concerns the placement of the edges along a virtual or actually existing (e.g., straight) line in the detection structure that intersects the edges transversely to their course, and more particularly perpendicular to their course. In particular, the edge distance is defined between two adjacent edges so that pairs of nearest adjacent edges are at different distances from one another in the detection structure. This does not exclude that edge distances repeat, i. Different pairs of edges that are equally spaced are located in different areas of the structure.

Insbesondere kann die örtliche Kantenverteilung der Erfassungsstruktur virtuell oder tatsächlich z.B. durch eine Fouriertransformation in den Frequenzraum transformiert werden und insbesondere die Frequenzverteilung analysiert werden und auf diese Weise die Geschwindigkeit ermittelt werden. Verschiedene Kantenabstände entsprechen somit verschiedenen Frequenzen im Frequenzraum, die größere Amplituden als andere Frequenzen haben. Es ist eine Möglichkeit, die Unterschiede zwischen der Fouriertransformierten eines Referenzbildes, das die nichtverschmierte Erfassungsstruktur darstellt, und der Fouriertransformierten des Kamerabildes bzw. des der Erfassungsstruktur zugeordneten Bereichs des Kamerabildes auszuwerten und daraus die Relativgeschwindigkeit zu ermitteln. Z.B. kann durch Kalibrierung des Bewegungsmesssystems bei unterschiedlich großen Relativgeschwindigkeiten und jeweils Bestimmung der Veränderung der Frequenzverteilung bezogen auf die Fouriertransformierte des Referenzbildes ermittelt werden, welche Auswirkungen der jeweilige Wert der Geschwindigkeit auf das Kamerabild und die Frequenzverteilung hat. Insbesondere werden durch die Verschmierung von Kanten hohe Amplituden der Fouriertransformierten des Referenzbildes verkleinert und die entsprechenden Peaks verbreitert. Sowohl die Amplitudenreduktion als auch die Peakverbreiterung können ausgewertet werden und dadurch die Geschwindigkeit ermittelt werden. In particular, the local edge distribution of the detection structure may be virtual or actual, e.g. be transformed by a Fourier transform in the frequency domain and in particular the frequency distribution are analyzed and determined in this way the speed. Different edge distances thus correspond to different frequencies in the frequency domain, which have larger amplitudes than other frequencies. It is a possibility to evaluate the differences between the Fourier transform of a reference image, which represents the non-smeared detection structure, and the Fourier transform of the camera image or the region of the camera image assigned to the detection structure, and to determine therefrom the relative velocity. For example, can be determined by calibration of the motion measuring system at different relative velocities and each determination of the change in the frequency distribution based on the Fourier transform of the reference image, which effects the respective value of the speed on the camera image and the frequency distribution has. In particular, by smearing edges, high amplitudes of the Fourier transform of the reference image are reduced and the corresponding peaks are broadened. Both the amplitude reduction and the peak broadening can be evaluated and thus the speed can be determined.

Nicht nur die zuvor erwähnten Erfassungsstrukturen können so ausgestaltet werden, dass Eigenschaften der Erfassungsstrukturen bezüglich mehrerer insbesondere geradlinig verlaufender Auswertungsrichtungen ausgewertet werden können. Z.B. kann die Auswertung zumindest in zwei senkrecht zueinander verlaufenden Auswertungsrichtungen bezogen auf die Erfassungsstruktur vorgenommen werden. Auf diese Weise wird nicht nur die Geschwindigkeitskomponente in einer Auswertungsrichtung, sondern in mehreren Auswertungsrichtungen bestimmt. Insbesondere ist es daher auch möglich, die Richtung der Geschwindigkeit zu ermitteln. Dazu müssen auch nicht die Auswertungsrichtungen vorher festgelegt sein. Vielmehr kann aus den Auswirkungen der Verschmierung auf die Richtung der Geschwindigkeit geschlossen werden, indem in dem Kamerabild die Richtung ermittelt wird, in der die Relativbewegung zu dem höchsten Grad der Verschmierung führt. Not only the above-mentioned detection structures can be designed so that properties of the detection structures can be evaluated with respect to a plurality of in particular straight-line evaluation directions. For example, the evaluation can be made at least in two evaluation directions extending perpendicular to one another relative to the detection structure. In this way, not only the velocity component in an evaluation direction, but in several evaluation directions is determined. In particular, it is therefore also possible to determine the direction of the speed. For this purpose, the evaluation directions do not have to be predefined. Rather, it can be concluded from the effects of the smearing on the direction of the speed by determining in the camera image the direction in which the relative movement leads to the highest degree of smearing.

Wenn vorab bekannt ist, in welcher Richtung sich das bewegliche Teil bewegt, ist die zuvor beschriebene Richtungsauswertung nicht erforderlich. Dies ist z. B. bei einer so genannten Linearachse der Fall, entlang der die Mikroskop-Optik geradlinig bewegt wird. Wenn allerdings auch die Richtung der Bewegung bzw. der Geschwindigkeit ermittelt werden soll, ist eine Erfassungsstruktur von Vorteil, die gleichartige Strukturmerkmale bezüglich einer Vielzahl von möglichen Auswertungsrichtungen aufweist. Gleichartige Strukturmerkmale sind nicht nur die oben beschriebenen Abstände von Kanten. Auf andere Beispiele wird noch eingegangen. Vorzugsweise weist die Struktur gleichartige Strukturmerkmale, insbesondere gleichartige geometrische Strukturmerkmale, bezüglich jeder theoretisch möglichen Richtung der Relativbewegung auf. Z.B. können daher Kanten der Struktur einen gebogenen und insbesondere kreisförmig gebogenen (z. B. konzentrischen) Verlauf haben. Die Auswertungsrichtungen verlaufen z. B. senkrecht zum Verlauf der Kante(n). Die Ermittlung der Bewegungsrichtung ist zu unterscheiden von der Ermittlung der Orientierung der Bewegung, d.h. der Orientierung der Bewegung (vorwärts oder rückwärts) entlang einem gegebenen oder möglichen Bewegungspfad. In einigen der hier beschriebenen Fälle kann die Orientierung nicht aus einem einzigen Kamerabild ermittelt werden. Eine Möglichkeit, die Orientierung zu ermitteln, besteht in dem Vergleich zwischen Kamerabildern der Erfassungsstruktur, die zu verschiedenen Zeitpunkten aufgenommen wurden. Mit einer Variante des Verfahrens kann bereits durch Auswertung eines einzigen Kamerabildes die Orientierung ermittelt werden. Dies setzt voraus, dass das Kamerabild Bildwerte enthält, die durch Auswertung (hinsichtlich der Dauer und/oder des Beginns bzw. Endes) unterschiedlicher Zeitintervalle gewonnen wurden. Darauf wird noch näher eingegangen. If it is known in advance in which direction the moving part moves, the directional evaluation described above is not required. This is z. As in a so-called linear axis of the case along which the microscope optics is moved in a straight line. However, if the direction of the movement or the speed is also to be determined, a detection structure which has similar structural features with regard to a plurality of possible evaluation directions is advantageous. Similar structural features are not just the distances of edges described above. Other examples will be discussed. The structure preferably has similar structural features, in particular similar geometric structural features, with respect to any theoretically possible direction of the relative movement. For example, therefore, edges of the structure may have a curved and, in particular, circularly curved (eg concentric) profile. The evaluation directions are z. B. perpendicular to the course of the edge (s). The determination of the direction of movement is to be distinguished from the determination of the orientation of the movement, ie the orientation of the movement (forward or backward) along a given or possible movement path. In some of the cases described here, the orientation can not be determined from a single camera image. One way to determine the orientation is to compare camera images of the collection structure taken at different times. With a variant of the method, the orientation can already be determined by evaluating a single camera image. This presupposes that the camera image contains image values which were obtained by evaluation (with regard to the duration and / or the beginning or end) of different time intervals. This will be discussed in more detail.

Alternativ oder zusätzlich zu zumindest einer Kante kann die Erfassungsstruktur zumindest einen Bereich aufweisen, in dem sich die Helligkeit, Farbe und/oder Reflektivität für Strahlung kontinuierlich und somit nicht sprunghaft wie bei einer Kante verändert, sondern kontinuierlich zunimmt oder abnimmt. Die Veränderung ist insbesondere auf eine gerade virtuelle oder tatsächliche Linie der Struktur bezogen, die eine Auswertungsrichtung sein kann. Vorzugsweise weist die Erfassungsstruktur nicht nur in einer geraden Richtung, sondern in zumindest einer weiteren geraden Richtung, die quer zu der ersten geraden Richtung verläuft, eine solche kontinuierliche Veränderung auf. Zum Beispiel kann sich in einem kreisförmigen Bereich entlang von verschiedenen Radiuslinien des Kreises die Helligkeit, Farbe und/oder Reflektivität für Strahlung ändern. Insbesondere kann die Bewegung einer solchen Erfassungsstruktur mit zumindest einem kontinuierlichen Übergang mittels mathematischer Faltung der Bildwerte-Verteilung des Kamerabildes ausgewertet werden. As an alternative or in addition to at least one edge, the detection structure can have at least one region in which the brightness, color and / or reflectivity for radiation changes continuously and thus not abruptly as with an edge, but continuously increases or decreases. The change is particularly related to a straight virtual or actual line of the structure, which may be an evaluation direction. Preferably, the detection structure has such a continuous change not only in a straight direction, but in at least one further straight direction which is transverse to the first straight direction. For example, in a circular area along different radius lines of the circle, the brightness, color and / or reflectance for radiation may change. In particular, the movement of such a detection structure can be evaluated with at least one continuous transition by means of mathematical convolution of the image value distribution of the camera image.

Ferner wird eine Erfassungsstruktur vorgeschlagen, die kreisförmige Strukturen, insbesondere konzentrische Strukturen, aufweist, die periodische Strukturelemente mit verschiedenen Perioden, das heißt im Frequenzraum mit verschiedenen Frequenzen hoher Amplitude, aufweist. Insbesondere eine solche Struktur, jedoch auch andere kreisförmige Strukturen, ermöglichen die Ermittlung der Geschwindigkeit bezüglich verschiedener Richtungen, bezüglich der die Geschwindigkeit bzw. Komponenten der Geschwindigkeit ermittelt werden können und sollen. Wenn eine oder mehrere Richtungen der Bewegung festgelegt ist/sind und daher vorab bekannt ist/sind, kann die Erfassungsstruktur speziell für diese Richtung(en) konzipiert und hergestellt werden. Zum Beispiel erstrecken sich die Kantenverläufe senkrecht zu der festgelegten Bewegungsrichtung. Durch diese Beschränkung auf eine oder mehrere Bewegungsrichtungen kann die örtliche Auflösung bei der Ermittlung der Geschwindigkeit und/oder die Genauigkeit der Ermittlung erhöht werden. Furthermore, a detection structure is proposed that has circular structures, in particular concentric structures, which has periodic structural elements with different periods, that is to say in the frequency domain with different high-amplitude frequencies. In particular, such a structure, but also other circular structures, allow the determination of the speed with respect to different directions, with respect to which the speed or components of the speed can and should be determined. If one or more directions of movement are / are fixed and therefore known in advance, the detection structure may be specially designed and manufactured for that direction (s). For example, the edge courses extend perpendicular to the fixed direction of movement. By this restriction to one or more directions of movement, the local resolution in the determination of the speed and / or the accuracy of the determination can be increased.

Die Auswertung der Kantenverschmierung bietet (wie auch andere Ausgestaltungen des Verfahrens, die an anderer Stelle in dieser Beschreibung beschrieben werden) nicht nur die Möglichkeit, den Mittelwert des Betrages der Geschwindigkeit über das Belichtungsintervall zu ermitteln, sondern unter bestimmten Voraussetzungen auch den zeitlichen Verlauf der Geschwindigkeit, z.B. die mittlere Beschleunigung oder sogar den zeitlichen Verlauf der Beschleunigung über das Belichtungsintervall. Die Voraussetzung besteht darin, dass während der Belichtungszeit keine Umkehrung der Bewegung stattgefunden hat. Dem liegt die Erkenntnis zugrunde, dass Bewegungsverläufe mit einer solchen Umkehrung und Bewegungsverläufe ohne eine solche Umkehrung zumindest weitestgehend gleiche Verschmierungen bewirken können. Der Bewegungsverlauf über das Belichtungsintervall kann z.B. aus dem Verlauf der Bildwerte und z.B. Betrachtung der örtlichen Ableitung oder Ableitungen entlang einer Auswertungslinie quer zum Verlauf der Kante ermittelt werden. Aber auch z.B. die noch näher beschriebene Bestimmung und Auswertung eines Faltungskerns ermöglicht die Ermittlung des Bewegungsverlaufs. The evaluation of the edge smearing offers (as well as other embodiments of the method described elsewhere in this description) not only the ability to determine the mean value of the amount of speed over the exposure interval, but under certain conditions, the time course of the speed , eg the average acceleration or even the time course of the acceleration over the exposure interval. The prerequisite is that during the exposure time no reversal of the movement has taken place. This is based on the knowledge that movements with such a reversal and courses of motion without such a reversal can cause at least largely the same smearing. The course of the movement over the exposure interval can be e.g. from the course of the image values and e.g. Considering the local derivative or derivatives along a line of analysis across the course of the edge are determined. But also e.g. the determination and evaluation of a convolution kernel described in more detail enables the determination of the course of motion.

Die Abbildung der Erfassungsstruktur durch die Kamera auf das Kamerabild kann als mathematische Faltung beschrieben werden. Insbesondere lässt sich eine Gleichung formulieren, durch die die Bildwerteverteilung des Kamerabildes über die Bildfläche dem Ergebnis einer Operation gleichgesetzt wird, bei der der sogenannte Faltungskern mit der Intensitätswerteverteilung der aufgenommenen Erfassungsstruktur verarbeitet wird. Dabei wird insbesondere nur derjenige Teil der Bildwerteverteilung des Kamerabildes betrachtet, der der erfassten Erfassungsstruktur entspricht. Als Intensitätsverteilung der (nicht von Verschmierung betroffenen) Erfassungsstruktur eignet sich insbesondere ein Referenzbild der Erfassungsstruktur, das z.B. von der Kamera aufgenommen wurde, wenn keine Relativbewegung zwischen Kamera und Erfassungsstruktur stattfindet. Das Referenzbild kann aber alternativ z.B. aus Planungsdaten der Erfassungsstruktur und/oder durch Computersimulation der Erfassungsstruktur erhalten werden. Wie später noch näher beschrieben wird, kann der Faltungskern ermittelt werden. Er enthält die Information über die Abbildung und damit Veränderung der Intensitätsverteilung der Erfassungsstruktur und damit auch die Information über die Geschwindigkeit der Relativbewegung. The mapping of the detection structure by the camera onto the camera image can be described as mathematical folding. In particular, an equation can be formulated by which the image value distribution of the camera image over the image area is equated to the result of an operation in which the so-called convolution kernel is processed with the intensity value distribution of the recorded detection structure. In particular, only that part of the image value distribution of the camera image which corresponds to the acquired acquisition structure is considered. In particular, a reference image of the detection structure which is suitable, for example, as the intensity distribution of the detection structure (which is not affected by smearing) is suitable. was recorded by the camera when there is no relative movement between the camera and the detection structure. The reference image may alternatively be e.g. from planning data of the detection structure and / or by computer simulation of the detection structure. As will be described later, the convolution kernel can be determined. It contains the information about the mapping and thus change of the intensity distribution of the detection structure and thus also the information about the speed of the relative movement.

Das zumindest eine Kamerabild und das zuvor und/oder im Folgenden erwähnte Referenzbild der Erfassungsstruktur sind insbesondere digitale Bilder, d.h. weisen mehrere Pixel auf. Dementsprechend handelt es sich bei der Kamera insbesondere um eine Digitalkamera. Das Referenzbild muss jedoch nicht in demselben Datenformat vorliegen und/oder verarbeitet werden wie das Kamerabild. Insbesondere können das Referenzbild und derjenige Bereich des Kamerabildes, in dem die Erfassungsstruktur abgebildet ist, als mathematische Funktionen aufgefasst werden, sodass insbesondere eine mathematische Faltung des Bereichs des Kamerabildes mit dem Referenzbild oder einer aus dem Referenzbild abgeleiteten Funktion ausführbar ist und vorzugsweise auch ausgeführt wird. The at least one camera image and the previously and / or subsequently mentioned reference image of the detection structure are, in particular, digital images, ie have a plurality of pixels. Accordingly, the camera is in particular a digital camera. However, the reference image does not need to be in the same data format and / or processed as the camera image. In particular, the reference image and the region of the camera image in which the detection structure is imaged can be referred to as mathematical functions are understood, so that in particular a mathematical convolution of the area of the camera image with the reference image or derived from the reference image function is executed and preferably also executed.

Im bevorzugten Fall sind das Kamerabild und/oder das Referenzbild zweidimensionale Bilder. Es kann daher insbesondere eine an sich bekannte Kamera mit einer zweidimensionalen Matrix von lichtempfindlichen Sensorelementen verwendet werden, die in Zeilen und Spalten angeordnet sind. Die Pixel des Kamerabildes sind in diesem Fall dementsprechend ebenfalls in Zeilen und Spalten angeordnet. In the preferred case, the camera image and / or the reference image are two-dimensional images. Therefore, in particular, a camera known per se with a two-dimensional matrix of photosensitive sensor elements arranged in rows and columns can be used. The pixels of the camera image are accordingly also arranged in rows and columns in this case.

Insbesondere kann die Information über die tatsächliche Erscheinung der Erfassungsstruktur ein Referenzbild der Erfassungsstruktur aufweisen, wobei durch Auswerten von Unterschieden des Referenzbildes und des zumindest einen von der Kamera aufgenommenen Kamerabildes die Geschwindigkeit der Relativbewegung ermittelt wird. Durch Berücksichtigung des Referenzbildes kann die Geschwindigkeit einfacher, genauer und in kürzerer Zeit ermittelt werden. Die Auswertung der Unterschiede kann sich insbesondere auf einen Teilbereich des Kamerabildes beschränken, zum Beispiel auf den Teilbereich, in dem die Erfassungsstruktur erfasst ist. Wenn mit dem Kamerabild mehrere Erfassungsstrukturen erfasst sind, kann sich die Auswertung der Unterschiede auf die Teilbereiche beschränken, in denen jeweils eine der Erfassungsstrukturen erfasst ist. In particular, the information about the actual appearance of the detection structure may comprise a reference image of the detection structure, wherein the speed of the relative movement is determined by evaluating differences of the reference image and the at least one camera image recorded by the camera. By taking into account the reference image, the speed can be determined easier, more accurate and in less time. The evaluation of the differences can be limited in particular to a partial area of the camera image, for example to the partial area in which the detection structure is detected. If several acquisition structures are detected with the camera image, the evaluation of the differences can be limited to the subregions in which one of the acquisition structures is detected in each case.

Eine bevorzugte Möglichkeit, die Unterschiede des Kamerabildes zu dem Referenzbild auszuwerten und die Geschwindigkeit der Relativbewegung zu ermitteln, bietet die oben erwähnte mathematische Beschreibung der Faltung der Intensitätsverteilung der Erfassungsstruktur mit einem Faltungskern, die die der Erfassungsstruktur entsprechende Bildwerteverteilung im Kamerabild ergibt. Insbesondere bei Verwendung bestimmter Klassen von Erfassungsstrukturen, auf deren Eigenschaften noch näher eingegangen wird, lässt sich der Faltungskern und damit die Information über die Geschwindigkeit der Relativbewegung auf einfache Weise aus dem Kamerabild unter Verwendung des Referenzbildes ermitteln. A preferred possibility of evaluating the differences between the camera image and the reference image and determining the speed of the relative movement provides the abovementioned mathematical description of the convolution of the intensity distribution of the detection structure with a convolution kernel which yields the image value distribution in the camera image corresponding to the detection structure. In particular, when using certain classes of detection structures whose properties are discussed in more detail, the convolution kernel and thus the information about the speed of the relative movement can be determined in a simple manner from the camera image using the reference image.

Insbesondere kann durch mathematische Faltung des Referenzbildes mit demjenigen Bereich des Kamerabildes, in dem die Erfassungsstruktur abgebildet ist, ein Faltungskern der Faltung ermittelt werden und aus dem Faltungskern die Geschwindigkeit der Relativbewegung ermittelt werden. In particular, by mathematical convolution of the reference image with the region of the camera image in which the detection structure is imaged, a convolution kernel of the convolution can be determined, and the speed of the relative movement can be determined from the convolution kernel.

Auf einfache und anschauliche Weise gelingt die Ermittlung der Geschwindigkeit der Relativbewegung, wenn der Faltungskern als geometrische Struktur interpretiert wird, deren äußere Abmessungen den äußeren Abmessungen des Referenzbildes und den äußeren Abmessungen desjenigen Bereichs des Kamerabildes entsprechen, in dem die Erfassungsstruktur abgebildet ist. In diesem Fall kann die Geschwindigkeit der Relativbewegung aus zumindest einer geometrischen Eigenschaft einer Teilstruktur des Faltungskerns ermittelt werden. Insbesondere kann bei einer geradlinigen Bewegung der Betrag der Geschwindigkeit aus einer Länge einer Teilstruktur des Faltungskerns ermittelt werden. Bei zweidimensionalem Kamerabild und Referenzbild können Betrag und/oder Richtung der Geschwindigkeit aus der Geometrie einer Teilstruktur des Faltungskerns ermittelt werden. Dies gilt insbesondere für den einfachen Fall, dass sich die Erfassungsstruktur quer zur optischen Achse der Abbildung der Erfassungsstruktur durch die Kamera bewegt. Andernfalls ist aber eine solche Auswertung ebenfalls möglich, zum Beispiel wenn eine entsprechende geometrische Korrektur vorgenommen wird und/oder die geometrischen Eigenschaften der Anordnung von Kamera und Erfassungsstruktur berücksichtigt werden. In a simple and intuitive way, the determination of the speed of relative movement succeeds when the convolution kernel is interpreted as a geometric structure whose outer dimensions correspond to the outer dimensions of the reference image and the outer dimensions of that portion of the camera image in which the detection structure is imaged. In this case, the speed of the relative movement can be determined from at least one geometric property of a partial structure of the convolution kernel. In particular, in a rectilinear motion, the amount of velocity may be determined from a length of a substructure of the convolution kernel. In the case of a two-dimensional camera image and reference image, the magnitude and / or direction of the velocity can be determined from the geometry of a partial structure of the convolution kernel. This applies in particular to the simple case that the detection structure moves through the camera transversely to the optical axis of the image of the detection structure. Otherwise, however, such an evaluation is also possible, for example, if a corresponding geometric correction is made and / or the geometric properties of the arrangement of camera and detection structure are taken into account.

Als Erfassungsstruktur eignen sich bestimmte Klassen von Mustern besonders gut. Auf Muster mit Kanten wurde bereits eingegangen. Wenn der Faltungskern durch mathematische Faltung einer mathematischen Funktion ermittelt wird, die die Erfassungsstruktur als Funktion des Ortes (Ortsfunktion) beschreibt, findet insbesondere eine entsprechende Operation im Frequenzraum statt. Dies bedeutet, dass Eigenschaften der Erfassungsstruktur im Frequenzraum von Bedeutung sind. Die als Funktion des Ortes beschriebene Erfassungsstruktur kann insbesondere durch eine Fouriertransformation in den Frequenzraum transformiert werden. As a collection structure, certain classes of patterns are particularly well suited. Patterns with edges have already been discussed. If the convolution kernel is determined by mathematical convolution of a mathematical function which describes the detection structure as a function of the location (spatial function), in particular a corresponding operation takes place in the frequency domain. This means that properties of the detection structure in the frequency domain are important. The detection structure described as a function of the location can in particular be transformed into the frequency domain by a Fourier transformation.

Vorzugsweise hat eine Erfassungsstruktur im Frequenzraum daher die Eigenschaft, innerhalb eines Frequenzbereichs, der bei der Frequenz null beginnt, der die Frequenz null aber nicht mit einschließt und der bei einer vorgegebenen Maximalfrequenz endet, keine Nullstelle aufweist. Das heißt, dass der Funktionswert der Funktion im Frequenzraum, der auch als Amplitude bezeichnet werden kann, innerhalb des Frequenzbereichs größer als null ist. Die Maximalfrequenz ist/wird insbesondere so vorgegeben, dass sie nicht kleiner ist als die Nyquist-Frequenz der Kamera. Insbesondere ist die Maximalfrequenz gleich der Nyquist-Frequenz der Kamera oder größer als die Nyquist-Frequenz der Kamera, aber beträgt nicht mehr als das Doppelte der Nyquist-Frequenz der Kamera. Eine Erfassungsstruktur ohne Nullstellen im Frequenzraum hat den Vorteil, dass die Faltung der Erfassungsstruktur durch eine auf den Frequenzraum bezogene Operation gelingt und daher in einfacher Weise durchgeführt werden kann. Bei Nullstellen dagegen ist die Operation im Frequenzraum nicht definiert. Preferably, therefore, a frequency space detection structure has the property of having no zero within a frequency range beginning at zero frequency but not including frequency zero and ending at a given maximum frequency. That is, the function value of the function in frequency space, which may also be referred to as amplitude, is greater than zero within the frequency range. The maximum frequency is / is in particular set so that it is not smaller than the Nyquist frequency of the camera. In particular, the maximum frequency is equal to the Nyquist frequency of the camera or greater than the Nyquist frequency of the camera, but is not more than twice the Nyquist frequency of the camera. A detection structure without zeros in the frequency domain has the advantage that the convolution of the detection structure by an operation related to the frequency space succeeds and therefore can be carried out in a simple manner. For zeros, on the other hand, the operation is not defined in the frequency domain.

Bei einer Weiterbildung dieser Klasse von Erfassungsstrukturen, mit der die Faltung zuverlässig und genau durchführbar ist, ist der Funktionswert der in den Frequenzraum transformierten Ortsfunktion der Erfassungsstruktur in dem gesamten Frequenzbereich von null bis zu der Maximalfrequenz größer als ein vorgegebener Mindestwert. Insbesondere ist der vorgegebene Mindestwert größer als eine durch die Aufnahme des Kamerabildes und durch die Auswertung des Kamerabildes durch die Ermittlungseinrichtung bewirkte statistische Schwankung (Rauschen) der Bildwerte. Allgemeiner formuliert ist der vorgegebene Mindestwert größer als eine durch die Aufzeichnung des Aufzeichnungsbildes und durch eine Ermittlung der Geschwindigkeit bewirkte statistische Schwankungsamplitude von Bildwerten des Aufzeichnungsbildes. Die Schwankungsamplitude entspricht daher insbesondere der statistischen Schwankungsamplitude derjenigen mit einem zusätzlichen Rauschen behafteten Erfassungsstruktur, die unter der theoretischen Annahme einer rauschfreien Kamerabild-Aufnahme und -Verarbeitung zu demselben rauschbehafteten Auswertungsergebnis führt wie die tatsächliche rauschbehaftete Aufnahme und Verarbeitung der Erfassungsstruktur. Durch Einhaltung des Mindestwertes kann daher eine durch statistische Schwankungen nicht oder nicht wesentlich beeinflusste Auswertung des Kamerabildes erreicht werden. Eine solche Erfassungsstruktur kann zum Beispiel unter Verwendung von Barker-Codes erzeugt werden. In a further development of this class of detection structures, with which the convolution can be reliably and accurately performed, the function value of the spatial function of the detection structure transformed into the frequency domain is greater than a predefined minimum value in the entire frequency range from zero to the maximum frequency. In particular, the predetermined minimum value is greater than a statistical fluctuation (noise) of the image values caused by the acquisition of the camera image and by the evaluation of the camera image by the determination device. More generally, the predetermined minimum value is greater than a statistical fluctuation amplitude of image values of the recorded image caused by the recording image recording and speed determination. The fluctuation amplitude therefore corresponds in particular to the statistical fluctuation amplitude of that with an additional noise-affected detection structure which, under the theoretical assumption of noise-free camera image recording and processing, leads to the same noisy evaluation result as the actual noisy recording and processing of the detection structure. By observing the minimum value, it is therefore possible to achieve an evaluation of the camera image that is not or not significantly influenced by statistical fluctuations. Such a detection structure can be generated, for example, using Barker codes.

Vorzugsweise ist der Funktionswert der in den Frequenzraum transformierten Ortsfunktion der Erfassungsstruktur in dem gesamten Frequenzbereich von null bis zu der Maximalfrequenz konstant. Eine derartige Erfassungsstruktur ist besonders einfach und mit geringem Rechenaufwand auszuwerten. Preferably, the function value of the spatial function of the detection structure transformed into the frequency domain is constant in the entire frequency range from zero to the maximum frequency. Such a detection structure is particularly easy to evaluate and with little computational effort.

Der konstante Funktionswert in dem Frequenzbereich entspricht der Eigenschaft, dass die Faltung der Erfassungsstruktur mit sich selbst oder ihrer inversen Funktion eine Delta-Distribution im Ortsraum ergibt. Anders ausgedrückt ist eine bevorzugte Klasse von Erfassungsstrukturen daher durch die Eigenschaft definiert, dass sie eine perfekte Autokorrelation haben. Dies bedeutet, dass das Ergebnis der Faltung der Struktur mit ihrer inversen Struktur eine Struktur im Ortsraum ergibt, die an einer einzigen Position (insbesondere in einem zentralen örtlichen Bereich der Struktur) einen von den Werten an allen anderen Positionen im zentralen Bereich der Struktur verschiedenen Wert hat. Insbesondere ist dieser eine Wert ein hoher Wert, sodass er als Peak bezeichnet werden kann. Die Werte an allen anderen Positionen im zentralen Bereich der Ergebnisstruktur sind gleich groß, z.B. null oder können auf null normiert werden, d.h. die Werteverteilung ist mit Ausnahme des Peaks konstant. Wie noch näher ausgeführt wird, kann mit einer derartigen Erfassungsstruktur auf besonders einfache und rechenzeitsparende Weise der Faltungskern der Faltung ermittelt werden, die bei Anwendung des Faltungskerns auf die Intensitätsverteilung der Erfassungsstruktur das entsprechende Abbild durch die Kamera ergibt. Ebenfalls auf besonders einfache Weise kann aus diesem Faltungskern die Geschwindigkeit ermittelt werden. The constant function value in the frequency domain corresponds to the property that the convolution of the detection structure with itself or its inverse function results in a delta distribution in the spatial domain. In other words, a preferred class of sensing structures is therefore defined by the property of having a perfect autocorrelation. This means that the result of the convolution of the structure with its inverse structure gives a structure in place space which at a single position (in particular in a central local area of the structure) has a value different from the values at all other positions in the central area of the structure Has. In particular, this one value is a high value so that it can be called a peak. The values at all other positions in the central area of the result structure are the same, e.g. zero or can be normalized to zero, i. the value distribution is constant except for the peak. As will be explained in more detail, the convolution kernel of the convolution can be determined with such a detection structure in a particularly simple and time-saving manner, which results in the corresponding image by the camera when the convolution kernel is applied to the intensity distribution of the detection structure. Also in a particularly simple way, the speed can be determined from this convolution kernel.

Wenn z.B. Positionen des relativ zu der Kamera beweglichen Teils bestimmt werden oder werden sollen, kann die ermittelte Geschwindigkeit zur Korrektur bei der Positionsbestimmung verwendet werden. Außer einer Verbesserung des Positionsbestimmungsergebnisses durch unmittelbare Auswertung des aufgenommenen Kamerabildes kann die ermittelte Geschwindigkeit auch unabhängig von der Frage, ob eine Positionsbestimmung stattfindet, zur Korrektur von Verzögerungseffekten genutzt werden. Verzögerungen treten insbesondere durch die Auswertung des Kamerabildes und die Dauer von weiteren Prozessen der Informationsverarbeitung, insbesondere bei der Bewegungssteuerung der Mikroskop-Optik, auf. Die Kenntnis der Geschwindigkeit der Bewegung lässt zumindest eine Abschätzung zu, wie weit sich die relativ zueinander beweglichen Teile während einer Verzögerungszeitspanne bewegt haben. Bei der Betrachtung einer Relativbewegung ist es unerheblich, welches oder welche der Teile sich in einem ortsfesten Koordinatensystem des Operationsmikroskopiesystems tatsächlich bewegt hat/haben. Auch bei der Kalibrierung eines optischen Positionsbestimmungssystems, das insbesondere dieselbe Kamera oder dieselben Kameras und insbesondere dieselbe(n) Erfassungsstruktur(en) aufweist, kann die ermittelte Geschwindigkeit verwendet werden, zum Beispiel um die Effekte einer Bewegung während der Aufnahme eines Kamerabildes zum Zweck der Kalibrierung zu korrigieren. If e.g. Positions of the relatively movable relative to the camera part or be determined, the determined speed can be used for correcting the position determination. Apart from an improvement of the position determination result by immediate evaluation of the recorded camera image, the determined speed can also be used for the correction of delay effects independently of the question of whether a position determination takes place. Delays occur in particular due to the evaluation of the camera image and the duration of further processes of information processing, in particular in the motion control of the microscope optics. The knowledge of the speed of the movement allows at least an estimate of how far the relatively moving parts have moved during a delay period. When considering a relative movement, it does not matter which or which of the parts has actually moved in a fixed coordinate system of the surgical microscope system. Also, in the calibration of an optical positioning system having, in particular, the same camera or cameras and in particular the same sensing structure (s), the determined velocity may be used, for example the effects of motion during capture of a camera image for the purpose of calibration to correct.

Die erfindungsgemäße Bewegungsmessung hat den Vorteil, dass bereits aus einem einzigen Kamerabild nicht nur die Position eines beweglichen Teils, sondern auch die Geschwindigkeit der Bewegung ermittelt werden kann und insbesondere auch ermittelt wird. Zum Zweck der Positionsbestimmung kann daher insbesondere ein Positionsbestimmungsfehler, der aufgrund der Bewegung entsteht, bereits durch Auswertung des aktuellen (das heißt des zuletzt ermittelten) Kamerabildes mit Ermittlung der Geschwindigkeit korrigiert werden. Es muss nicht abgewartet werden, bis das nächste Kamerabild aufgenommen ist. The movement measurement according to the invention has the advantage that not only the position of a movable part, but also the speed of the movement can be determined from a single camera image and in particular also determined. For the purpose of determining the position, it is therefore possible in particular to correct a position-determining error which arises as a result of the movement by evaluating the current (that is to say of the last-determined) camera image with determination of the speed. There is no need to wait until the next camera picture is taken.

Wie bereits kurz erwähnt, kann die Ermittlung zumindest einer kinematischen Größe, die die Relativbewegung beschreibt (zum Beispiel der Geschwindigkeit), zur Steuerung und/oder Regelung der Bewegung zumindest eines beweglichen Teils des Operationsmikroskopiesystem, insbesondere der Mikroskop-Optik, genutzt werden. Dabei kann auch die durch Auswertung zumindest eines Kamerabildes ermittelte Orientierung der Bewegung berücksichtigt werden. As already briefly mentioned, the determination of at least one kinematic variable which describes the relative movement (for example the speed) can be used to control and / or regulate the movement of at least one movable part of the surgical microscope system, in particular the microscope optics. In this case, the orientation of the movement determined by evaluating at least one camera image can also be taken into account.

Im Folgenden wird auf die Problematik der Ermittlung des zeitlichen Verlaufs und insbesondere auch der Orientierung der Relativbewegung der relativ zueinander beweglichen Teile eingegangen. Insbesondere bei Verwendung der oben beschriebenen Erfassungsstrukturen mit zumindest einer Kante, aber auch bei anderen in dieser Beschreibung beschriebenen Erfassungsstrukturen ist es bereits durch Auswertung eines einzigen Aufzeichnungsbildes der Kamera möglich, die Bewegungsgeschwindigkeit zu ermitteln, nicht aber ohne Weiteres auch den zeitlichen Bewegungsverlauf und der Orientierung. In vielen Fällen verursacht die Bewegung dieselbe durch das Aufzeichnungsbild aufgezeichnete Veränderung der tatsächlichen Erscheinung der Erfassungsstruktur, unabhängig davon, ob die Bewegung in der einen Richtung oder in der entgegengesetzten Richtung stattfindet. Dies erschwert auch die Ermittlung des zeitlichen Bewegungsverlaufs. In the following, the problem of determining the time course and in particular also the orientation of the relative movement of the relatively movable parts will be discussed. In particular, when using the detection structures described above with at least one edge, but also in other described in this description detection structures, it is already possible by evaluating a single recording image of the camera to determine the speed of movement, but not readily the temporal course of movement and orientation. In many cases, the movement causes the same change in the actual appearance of the detection structure as recorded by the recording image, regardless of whether the movement takes place in one direction or in the opposite direction. This also complicates the determination of the temporal course of movement.

Es soll zumindest eine Lösung angegeben werden, die die Ermittlung der Orientierung der Bewegung und auch des zeitlichen Bewegungsverlaufs insbesondere aus einem einzigen Aufzeichnungsbild ermöglicht. At least one solution should be specified, which makes it possible to determine the orientation of the movement and also the temporal course of movement, in particular from a single recording image.

Bevor auf die Lösung oder Lösungen eingegangen wird, soll darauf hingewiesen werden, dass die Ermittlung der Orientierung der Bewegung auch ohne eine Ermittlung der Geschwindigkeit der Bewegung ausgeführt werden kann. Dies betrifft sowohl das Bewegungsmesssystem, als auch das Operationsmikroskopiesystem mit einem Bewegungsmesssystem und das Verfahren zum Betreiben des Operationsmikroskopiesystems. Before considering the solution or solutions it should be pointed out that the determination of the orientation of the movement can also be carried out without a determination of the speed of the movement. This concerns both the motion measurement system and the surgical microscopy system with a motion measurement system and the method for operating the surgical microscopy system.

Z.B. ist die Ermittlung der Orientierung auch dann von Vorteil, wenn weitere Information über die Bewegung auf andere Weise als durch Auswertung zumindest eines Aufzeichnungsbildes erhalten wird. Dies schließt jedoch nicht aus, dass auch die Auswertung zumindest eines Aufzeichnungsbildes einer Erfassungsstruktur zusätzliche Information über die Bewegung enthält und diese Information gewonnen wird. Ein Fall, in dem eine Auswertung eines Kamerabildes zur Ermittlung der Geschwindigkeit oder Position der Mikroskop-Optik nicht zwingend erforderlich ist, betrifft konventionelle Maßstäbe mit Maßstabssensoren, wie sie bei Stativen für Mikroskop-Optiken mit relativ zueinander beweglichen Teilen möglich sind. Insbesondere können die Maßstabssensoren Impulse aus der Erkennung von Markierungen (z.B. strichartigen Markierungen) an den Maßstäben gewinnen. Da die Abstände dieser Markierungen bekannt sind, kann aus den Impulsen und dem zeitlichen Verlauf der Impulse Information über die Position und die Geschwindigkeit der Bewegung gewonnen werden. Allein aus dem zeitlichen Verlauf der Impulse kann jedoch nicht auf die Orientierung der Bewegung geschlossen werden. Insbesondere in diesem Fall kann die Orientierung der Relativbewegung der Mikroskop-Optik und der Basis aus zumindest einem Aufzeichnungsbild der Erfassungsstruktur ermittelt werden. For example, Determining the orientation is also advantageous if further information about the movement is obtained in a different way than by evaluating at least one recording image. However, this does not exclude that the evaluation of at least one recording image of a detection structure also contains additional information about the movement and this information is obtained. A case in which an evaluation of a camera image for determining the speed or position of the microscope optics is not absolutely necessary, concerns conventional scales with scale sensors, as are possible in stands for microscope optics with relatively movable parts. In particular, the scale sensors may gain pulses from the recognition of marks (e.g., line marks) on the scales. Since the distances of these markings are known, information about the position and the speed of the movement can be obtained from the pulses and the time course of the pulses. However, it is not possible to deduce the orientation of the movement solely from the temporal course of the impulses. In particular, in this case, the orientation of the relative movement of the microscope optics and the base of at least one recording image of the detection structure can be determined.

Die Lösung, die die Ermittlung der Orientierung der Bewegung und auch des zeitlichen Bewegungsverlaufs bereits aus einem einzigen Aufzeichnungsbild ermöglicht, beruht auf einer zeitlichen Variation bei der Übertragung und/oder Erfassung der von der Erfassungsstruktur ausgehenden Strahlung. Dadurch wird zusätzliche Information über die Relativbewegung der Mikroskop-Optik und der Basis gewonnen. Die zeitliche Variation kann grundsätzlich vor, während und/oder nach der Übertragung der Strahlung von der Erfassungsstruktur zu der zumindest einen Kamera sowie bei der Erfassung der Strahlung durch die zumindest eine Kamera stattfinden. Um die zusätzliche Information zu nutzen wird die Kenntnis über die zeitliche Variation bei der Auswertung des zumindest einen Aufzeichnungsbildes verwendet. The solution, which enables the determination of the orientation of the movement and also of the temporal course of movement already from a single recording image, is based on a temporal variation in the transmission and / or detection of the radiation emanating from the detection structure. As a result, additional information about the relative movement of the microscope optics and the base is obtained. The temporal variation can in principle take place before, during and / or after the transmission of the radiation from the detection structure to the at least one camera and also during the detection of the radiation by the at least one camera. To use the additional information, the knowledge about the temporal variation in the evaluation of the at least one recorded image is used.

Die Feststellung der Orientierung oder die Kenntnis über die Orientierung der Bewegung ermöglicht es, eine Uneindeutigkeit bei der Auswertung zu eliminieren. Dadurch wird es möglich, den zeitlichen Bewegungsverlauf zu ermitteln. Auch wenn dies bevorzugt wird, ist die Erfindung nicht darauf beschränkt, aus dem jeweiligen Aufzeichnungsbild oder der jeweiligen Kombination von Aufzeichnungsbildern sowohl die Orientierung als auch den zeitlichen Verlauf der Bewegung zu ermitteln. Zum Beispiel kann die Kenntnis über die Orientierung der Bewegung auf andere Weise erhalten werden und ist auch, wie oben bereits erläutert, allein die Ermittlung der Orientierung von Vorteil. The determination of the orientation or the knowledge about the orientation of the movement makes it possible to eliminate an ambiguity in the evaluation. This makes it possible to determine the temporal course of movement. Although this is preferred, the invention is not limited to determining both the orientation and the time course of the movement from the respective recording image or the respective combination of recording images. For example, the knowledge about the orientation of the movement can be obtained in another way and, as already explained above, alone the determination of the orientation is advantageous.

Gemäß einem ersten Vorschlag für die Ermittlung der Orientierung und/oder des zeitlichen Verlaufs der Bewegung wird die während des Belichtungszeitintervalls von der Erfassungsstruktur zu der Kamera übertragene Strahlung während des Belichtungszeitintervalls variiert, d.h. die örtliche, von der Erfassungsstruktur ausgehende Strahlungsverteilung ändert sich im Laufe der Zeit während des Belichtungszeitintervalls. Dies führt daher zu einer zeitlichen Variation bei der Übertragung der Strahlung. Alle Sensorelemente der Kamera-Sensormatrix können dasselbe Belichtungszeitintervall haben, d.h. das Belichtungszeitintervall beginnt für alle Sensorelemente zum gleichen Zeitpunkt und endet auch zum gleichen Zeitpunkt. Dies ist bei handelsüblichen Kameras der Fall. Alternativ können die einzelnen Sensorelemente der Kamera, die jeweils einen örtlichen Bereich der Strahlungsverteilung erfassen, aber unterschiedliche Belichtungszeitintervalle haben. According to a first proposal for determining the orientation and / or the time course of the movement, the radiation transmitted from the detection structure to the camera during the exposure time interval is varied during the exposure time interval, ie the local radiation distribution emanating from the detection structure changes over time during the exposure time interval. This therefore leads to a temporal variation in the transmission of the radiation. All sensor elements of the camera Sensor matrix can have the same exposure time interval, ie the exposure time interval begins for all sensor elements at the same time and ends at the same time. This is the case with commercially available cameras. Alternatively, the individual sensor elements of the camera, which each detect a local area of the radiation distribution, but have different exposure time intervals.

Die sich zeitlich verändernde örtliche Strahlungsverteilung wirkt sich in unterschiedlicher Weise auf verschiedene Sensorelemente der Kamera aus und daher ist die während des Belichtungszeitintervalls von den verschiedenen Sensorelementen erfasste Strahlungsmenge (die empfangene Strahlungsleistung integriert über das Belichtungszeitintervall) selbst bei konstanter Bewegungsgeschwindigkeit verschieden. Allgemeiner formuliert erfasst ein erstes der Sensorelemente der Kamera einen bestimmten örtlichen Bereich der Erfassungsstruktur während des Belichtungszeitintervalls aufgrund der sich zeitlich verändernden örtlichen Strahlungsverteilung auf andere Weise als ein zweites Sensorelement der Kamera, das während des Belichtungszeitintervalls denselben örtlichen Bereich der Erfassungsstruktur, allerdings zu einem anderen Teilzeitraum des Belichtungszeitintervalls, erfasst. Die Kenntnis der örtlichen Strahlungsverteilung als Funktion der Zeit ermöglicht dabei die Ermittlung des zeitlichen Bewegungsverlaufs und/oder der Orientierung der Relativbewegung der Mikroskop-Optik und der Basis. The temporally varying local radiation distribution has different effects on different sensor elements of the camera and therefore the amount of radiation detected by the various sensor elements during the exposure time interval (the received radiation power integrated over the exposure time interval) differs even at a constant movement speed. More generally, a first one of the sensor elements of the camera detects a particular local area of the detection structure during the exposure time interval due to the time-varying local radiation distribution other than a second sensor element of the camera, during the exposure time interval the same local area of the detection structure, but to a different sub-period of the exposure time interval. Knowledge of the local radiation distribution as a function of time makes it possible to determine the temporal course of movement and / or the orientation of the relative movement of the microscope optics and the base.

Der zeitliche Verlauf der Bewegung kann auf unterschiedliche Weise beschrieben werden. Zum Beispiel kann er durch den Weg, die Geschwindigkeit oder durch die Beschleunigung der Bewegung jeweils als Funktion der Zeit beschrieben werden. The temporal course of the movement can be described in different ways. For example, it can be described by the path, the speed, or by the acceleration of the motion, each as a function of time.

Bereits aus einem einzigen Aufzeichnungsbild kann der zeitliche Verlauf der Bewegung während des der Erfassung des Aufzeichnungsbildes entsprechenden Belichtungszeitintervalls ermittelt werden. Optional können aus mehreren aufeinanderfolgenden Aufzeichnungsbildern jeweils die Verläufe der Bewegung ermittelt werden und daraus ein zeitlicher Verlauf der Bewegung über einen längeren Zeitraum ermittelt werden. Already from a single recording image, the time course of the movement can be determined during the exposure time interval corresponding to the acquisition of the recording image. Optionally, the progressions of the movement can be determined from a plurality of successive recording images and from this a temporal course of the movement can be determined over a longer period of time.

Wie in der Figurenbeschreibung, auch unter Bezugnahme auf mathematische Gleichungen, noch näher erläutert wird bestehen bei der Auswertung eines einzelnen Aufzeichnungsbildes zwei Uneindeutigkeiten. Die eine der Uneindeutigkeiten kann durch die hier beschriebene bekannte zeitliche Variation bei der Übertragung und Erfassung der von der Erfassungsstruktur ausgehenden Strahlung, zum Beispiel der örtlichen Strahlungsverteilung (siehe oben) und/oder der Kameraeigenschaften (siehe unten), beseitigt werden. Die andere der Uneindeutigkeiten besteht in der Orientierung der Bewegung. Bei der Auswertung des Aufzeichnungsbildes kann insbesondere zunächst die Kenntnis über die zeitliche Variation verwendet werden und dann geprüft werden, welche der beiden möglichen Orientierungen der Bewegung plausibler ist und/oder zu einem plausiblen Ergebnis für den zeitlichen Verlauf der Bewegung führt. As will be explained in more detail in the description of the figures, also with reference to mathematical equations, there are two ambiguities in the evaluation of a single recording image. One of the ambiguities can be eliminated by the known temporal variation described herein in the transmission and detection of the radiation emanating from the detection structure, for example the local radiation distribution (see above) and / or the camera characteristics (see below). The other of the ambiguities is the orientation of the movement. In the evaluation of the recorded image, it is possible in particular first to use the knowledge of the temporal variation and then to check which of the two possible orientations of the movement is more plausible and / or leads to a plausible result for the time course of the movement.

Insbesondere kann die Verteilung der Bildwerte im Aufzeichnungsbild mathematisch als Faltung beschrieben werden und kann ein Faltungskern der Faltung ermittelt werden, wobei der Faltungskern durch die bekannte zeitliche Variation und durch den zeitlichen Verlauf der Bewegung bestimmt ist. Mit Ausnahme der Orientierung ist der Faltungskern durch diese beiden Funktionen der Zeit eindeutig bestimmt. Unter Berücksichtigung der Kenntnis über die zeitliche Variation und durch Entscheidung, welche Orientierung der Bewegung zutrifft, kann der zeitliche Verlauf der Bewegung ermittelt werden. In particular, the distribution of the image values in the recording image can be mathematically described as convolution and a convolution kernel of the convolution can be determined, wherein the convolution kernel is determined by the known temporal variation and by the temporal course of the movement. With the exception of orientation, the convolution kernel is uniquely determined by these two functions of time. Taking into account the knowledge of the temporal variation and by deciding which orientation of the movement applies, the temporal course of the movement can be determined.

Eine weitere Uneindeutigkeit entsteht, wenn die Geschwindigkeit während des Belichtungszeitintervalls null wird und insbesondere wenn sich die Richtung der Bewegung während des Belichtungszeitintervalls umkehrt. Dem kann mit entsprechend kurzer Dauer des Belichtungszeitintervalls begegnet werden. Alternativ oder zusätzlich kann der Informationsgehalt in dem zumindest einen Aufzeichnungsbild erhöht werden. Another ambiguity arises when the speed becomes zero during the exposure time interval, and especially when the direction of movement reverses during the exposure time interval. This can be countered with a correspondingly short duration of the exposure time interval. Alternatively or additionally, the information content in the at least one recording image can be increased.

Es gibt verschiedene Möglichkeiten, die Strahlungsverteilung, die während des Belichtungszeitintervalls von der Erfassungsstruktur ausgeht und von der Sensormatrix der Kamera erfassbar ist/wird, im Laufe des Belichtungszeitintervalls zu verändern. Eine erste Möglichkeit der zeitlichen Veränderung der örtlichen Strahlungsverteilung ist die Veränderung der Strahlungsintensität, d.h. der Strahlungsflussdichte. Eine zweite Möglichkeit ist die Veränderung der spektralen Verteilung der Strahlung. Noch eine weitere Möglichkeit ist die Veränderung der Polarisation der Strahlung. Die Möglichkeiten können in beliebiger Weise miteinander kombiniert werden. Es ist z.B. aber auch möglich, dass die Gesamtintensität der Strahlung, die von jedem örtlichen Bereich der Erfassungsstruktur ausgeht, während des gesamten Belichtungszeitintervalls konstant bleibt, die Spektralverteilung und/oder die Polarisation aber im Lauf der Zeit zumindest für Teilbereiche der Erfassungsstruktur verändert wird. Z.B. können sich die im grünen, roten und blauen Spektralbereich liegenden spektralen Anteile während des Belichtungszeitintervalls ändern, beispielsweise gegenläufig ändern. Z.B. kann daher die Strahlungsintensität in einem ersten Spektralbereich zunehmen, während die Strahlungsintensität in einem zweiten Spektralbereich abnimmt und umgekehrt. Optional kann währenddessen die Strahlungsintensität in einem dritten Spektralbereich konstant bleiben. Dies ermöglicht, den konstant bleibenden Spektralbereich als Referenz zu verwenden, d.h. alle Sensorelemente, die diesen Spektralbereich über gleich lange Teil-Zeitintervalle des Belichtungszeitintervalls erfassen, empfangen auch die gleiche Strahlungsmenge in diesem Spektralbereich. Ein Sensorelement besteht üblicherweise aus mehreren Sub-Sensorelementen, die in verschiedenen Spektralbereichen (z.B. Rot, Grün und Blau) strahlungsempfindlich sind. Wenn z.B. zwei verschiedene Sensorelemente im grünen Spektralbereich die gleiche Strahlungsmenge während des Belichtungszeitintervalls empfangen haben, nicht aber im blauen und roten Spektralbereich, erlaubt dies bei Kenntnis der zeitlichen Veränderung der Strahlungsverteilung, auf die Orientierung der Bewegung zu schließen. There are various possibilities for changing the radiation distribution which originates during the exposure time interval from the detection structure and can be detected by the sensor matrix of the camera during the exposure time interval. A first possibility of the temporal change of the local radiation distribution is the change of the radiation intensity, ie the radiation flux density. A second possibility is the change of the spectral distribution of the radiation. Yet another possibility is the change in the polarization of the radiation. The possibilities can be combined in any way. However, it is also possible, for example, that the total intensity of the radiation emanating from each local area of the detection structure remains constant during the entire exposure time interval, but the spectral distribution and / or the polarization is changed over time, at least for partial areas of the detection structure. For example, the spectral components lying in the green, red and blue spectral range can change during the exposure time interval, for example in opposite directions. For example, therefore, the radiation intensity in a first spectral range increase, while the radiation intensity in a second spectral range decreases and vice versa. Optionally, in the meantime, the radiation intensity in a third spectral range can remain constant. This makes it possible to use the constant spectral range as a reference, ie all sensor elements that detect this spectral range over equally long part-time intervals of the exposure time interval also receive the same amount of radiation in this spectral range. A sensor element usually consists of several sub-sensor elements which are sensitive to radiation in different spectral ranges (eg red, green and blue). If, for example, two different sensor elements in the green spectral range have received the same amount of radiation during the exposure time interval, but not in the blue and red spectral range, this allows, with knowledge of the temporal change in the radiation distribution, to conclude the orientation of the movement.

Sowohl bezüglich der Variation der Intensität der Spektralanteile als auch bezüglich der Gesamtintensität über den gesamten Spektralbereich der Strahlung kann die Intensität nicht nur während des gesamten Belichtungszeitintervalls monoton ansteigend oder alternativ monoton abfallend variiert werden, sondern ferner alternativ kann die Intensität zumindest ein Maximum und/oder zumindest ein Minimum durchschreiten. Insbesondere kann die Intensität periodisch variiert werden, z.B. mit sinusförmigem Intensitätsverlauf über die Zeit. Both with respect to the variation of the intensity of the spectral components and with respect to the total intensity over the entire spectral range of the radiation, the intensity can not only be monotonically increasing or alternatively monotonically decreasing during the entire exposure time interval, but alternatively the intensity can be at least maximum and / or at least go through a minimum. In particular, the intensity can be periodically varied, e.g. with sinusoidal intensity over time.

Bevorzugt wird eine sinusförmige Variation der Intensität verschiedener Spektralanteile bei zumindest drei verschiedenen Frequenzen der Strahlung, z.B. je einer Frequenz im roten, grünen und blauen Spektralbereich. Im Unterschied zu dem oben bereits erwähnten Ausführungsbeispiel findet in diesem Fall auch eine Variation der Intensität im grünen Spektralbereich statt. In der Praxis können z.B. rote, grüne und blaue Leuchtdioden verwendet werden, um die von der Erfassungsstruktur ausgehende Strahlung mit sich im Laufe der Zeit verändernder Intensität zu erzeugen. Leuchtdioden, nicht nur in dieser Kombination von drei Farben, können auf einfache Weise angesteuert werden, um den gewünschten zeitlichen Verlauf der Intensität zu erzeugen. Preferably, a sinusoidal variation of the intensity of different spectral components at at least three different frequencies of radiation, e.g. one frequency each in the red, green and blue spectral range. In contrast to the embodiment already mentioned above, in this case also a variation of the intensity takes place in the green spectral range. In practice, e.g. red, green and blue light emitting diodes may be used to generate the radiation emanating from the sensing structure with varying intensity over time. Light-emitting diodes, not only in this combination of three colors, can be easily controlled in order to produce the desired time course of the intensity.

Die zumindest drei Spektralanteile mit sinusförmigem zeitlichem Verlauf der Intensität liegen insbesondere einen schmalen Spektralbereich. Eine Mehrzahl oder alle der zeitlichen Verläufe der Intensität können dieselbe Frequenz der Intensitätsänderung haben. Dabei sind die Spektralanteile nicht auf den sichtbaren Spektralbereich beschränkt. Vielmehr kommen insbesondere auch Strahlungsanteile im Infrarotbereich und bei Beachtung der Arbeitsschutzvorschriften auch im Ultraviolettbereich infrage. The at least three spectral components with a sinusoidal temporal course of the intensity are in particular a narrow spectral range. A majority or all of the temporal courses of the intensity may have the same frequency of the intensity change. The spectral components are not limited to the visible spectral range. Rather, in particular, radiation components in the infrared range and in compliance with health and safety regulations are also in the ultraviolet range in question.

Die zumindest drei sinusförmigen Verläufe der Strahlungsintensität in den zumindest drei Frequenzbereichen weisen jeweils paarweise betrachtet eine Phasenverschiebung auf, d.h. das Maximum der Intensität wird zu verschiedenen Zeitpunkten erreicht. Auch wenn dies bevorzugt wird, muss die Frequenz der Intensitätsänderung im Lauf der Zeit nicht bei allen zumindest drei sinusförmigen Verläufen gleich sein. Bevorzugt wird bei genau drei sinusförmigen Verläufen, dass die Frequenz der Intensitätsänderung gleich ist und die Phasenverschiebung zwischen jedem Paar von sinusförmigen Verläufen ein Drittel der Periode beträgt. The at least three sinusoidal waveforms of the radiation intensity in the at least three frequency ranges each have a phase shift in pairs, i. the maximum of the intensity is reached at different times. Although this is preferred, the frequency of the intensity change over time need not be the same for all at least three sinusoidal waveforms. With exactly three sinusoidal curves, it is preferred that the frequency of the intensity change is the same and the phase shift between each pair of sinusoidal curves is one third of the period.

Die Verwendung von zumindest drei sinusförmigen Intensitätsverläufen in verschiedenen Spektralbereichen hat den Vorteil, dass die Orientierung der Relativbewegung der beiden Teile eindeutig jedenfalls in allen Fällen ermittelbar ist, in denen während des Belichtungszeitintervalls keine Umkehr der Bewegung vorkommt. The use of at least three sinusoidal intensity curves in different spectral ranges has the advantage that the orientation of the relative movement of the two parts can be clearly determined at any rate in all cases in which no reversal of the movement occurs during the exposure time interval.

Alternativ zu einem sinusförmigem Intensitätsverlauf kann die Intensität in der Art einer wiederholten zufälligen sprungartigen Veränderung (im Folgenden: pseudozufällig) im Lauf der Zeit variiert werden. As an alternative to a sinusoidal intensity curve, the intensity can be varied in the manner of a repeated random jump-like change (in the following: pseudo-random) over time.

Bei einer pseudozufälligen Variation kommen die verschiedenen Intensitätsniveaus der Strahlung ähnlich wie bei einer Zufallsverteilung verteilt vor, jedoch ist die Variation vorgegeben und bekannt. Denkbar wäre es, die Veränderung der Intensität tatsächlich zufällig vorzunehmen. Dies erhöht jedoch den Aufwand, die tatsächlich stattfindende Variation der Intensität festzustellen und bei der Auswertung zu berücksichtigen. Auch ergeben sich bei einer tatsächlich zufälligen Variation mit einer gewissen Wahrscheinlichkeit Variationen, die wenig Information für die Ermittlung der Orientierung enthalten. In a pseudo-random variation, the different intensity levels of the radiation are similar as in a random distribution, but the variation is predetermined and known. It would be conceivable to actually make the change in intensity random. However, this increases the effort to determine the actually occurring variation of the intensity and to take into account in the evaluation. Also, in a truly random variation, there is a certain probability of variations that contain little information for determining the orientation.

Die pseudozufällige Variation der Intensität kann mit einem Code verglichen werden, der der zeitlichen Folge von Intensitätsniveaus entspricht. Anders als bei einer tatsächlich zufälligen Variation der Intensitätsniveaus kann vorgegeben werden, dass jeder Intensitätssprung von einem Niveau auf ein folgendes Niveau oder zumindest einer von mehreren aufeinanderfolgenden Intensitätssprüngen eine Mindest-Sprunghöhe (nach unten oder oben) haben muss. The pseudo-random variation of the intensity can be compared with a code corresponding to the temporal sequence of intensity levels. Unlike an actual random variation of the intensity levels, it may be specified that each intensity jump from one level to a following level or at least one of several consecutive intensity jumps must have a minimum jump height (down or up).

Unabhängig von der Art der Variation der Intensität wird es bevorzugt, dass die Strahlungsmenge, die maximal auf irgendein Sensorelement der Kamera-Sensormatrix während des Belichtungszeitintervalls auftrifft, auf eine Sättigungsmenge der Sensorelemente abgestimmt ist. Unter der Sättigung versteht man, dass das Sensorsignal ab dem Erreichen einer Sättigungsmenge von Strahlung nicht mehr oder nicht mehr in geeigneter Weise die über die Sättigungsmenge hinausgehende empfangene Strahlungsmenge wiedergibt. Regardless of the nature of the variation in intensity, it is preferred that the amount of radiation incident maximally on any sensor element of the camera sensor array during the exposure time interval be matched to a saturation amount of the sensor elements. Saturation means that the sensor signal from reaching a saturation amount of radiation is no longer or no longer in a suitable manner, the above the saturation amount of received radiation amount reproduces.

Die Beachtung der Sättigungsmenge ermöglicht es, insbesondere am Anfang oder am Ende des Belichtungszeitintervalls während eines kurzen Teilzeitraums einen im Verhältnis zu der Länge des Teilzeitraums hohen Anteil der Sättigungsmenge von der Erfassungsstruktur auszustrahlen (zu emittieren und/oder zu reflektieren). Z.B. kann während des ersten Prozents des Integrationszeitraums eine Strahlungsmenge im Bereich von 10 % bis 20 % der Sättigungsmenge, z.B. 15 % der Sättigungsmenge, ausgestrahlt werden. Im weiteren Verlauf des Belichtungszeitintervalls findet daher ein entsprechend schneller Abfall der Intensität statt, sodass die Sättigungsmenge nicht erreicht oder nicht überschritten werden kann. Sensorelemente, die eine bestimmte Strahlungsmenge während des Belichtungszeitintervalls empfangen haben, müssen den Bereich der Erfassungsstruktur, von dem die anfangs hohe Strahlungsmenge ausgestrahlt wurde, daher am Anfang des Belichtungszeitraums erfasst haben. Bereits diese Information gibt eindeutige Hinweise auf die Orientierung der Bewegung. Nicht nur in Bezug auf das in diesem Absatz beschriebene Ausführungsbeispiel verdeutlicht dies, dass jedenfalls bei einer Bewegung, die sich während des Belichtungszeitraums nicht umkehrt, die Orientierung der Bewegung auf einfache Weise eindeutig ermitteln lässt. The consideration of the saturation quantity makes it possible to emit (emit and / or reflect) a high proportion of the saturation quantity from the detection structure, in particular at the beginning or at the end of the exposure time interval during a short subperiod, in relation to the length of the subperiod. For example, For example, during the first percent of the integration period, a radiation amount in the range of 10% to 20% of the saturation amount, e.g. 15% of the saturation amount to be broadcast. In the course of the exposure time interval, therefore, a correspondingly rapid drop in intensity takes place, so that the saturation amount can not be reached or exceeded. Sensor elements that have received a certain amount of radiation during the exposure time interval must therefore have detected the area of the detection structure from which the initially high amount of radiation was emitted, at the beginning of the exposure period. Already this information gives clear indications of the orientation of the movement. Not only with respect to the exemplary embodiment described in this paragraph, this clarifies that at least in the case of a movement that does not reverse during the exposure period, the orientation of the movement can be clearly determined in a simple manner.

Zuvor wurde ein Beispiel für eine stark variierende Intensität beschrieben, d.h. die erste zeitliche Ableitung der Intensität der Strahlung ist groß. Wie erwähnt führt dies dazu, dass ein verhältnismäßig kleiner Anteil der Sensorelemente eine große Strahlungsmenge während des Belichtungszeitintervalls empfängt und daher auf einfache Weise auf die Orientierung der Bewegung und auch den zeitlichen Verlauf der Bewegung geschlossen werden kann. Dies ist nicht darauf beschränkt, dass die von der Erfassungsstruktur ausgehende Strahlungsmenge in einem bestimmten Teilzeitraum (z.B. am Anfang oder Ende) des Belichtungszeitintervalls besonders groß ist. Solange die Information darüber, in welchem Teilzeitraum die Strahlungsmenge besonders groß ist, bei der Auswertung des Aufnahmebildes berücksichtigt wird, lassen sich die Orientierung und auch der zeitliche Verlauf der Bewegung auf einfache Weise ermitteln. Allerdings ist bei einer bevorzugten Ausführungsform zu beachten, dass die Änderung der Strahlungsintensität jedenfalls nicht in allen spektralen Bereichen zeitlich symmetrisch zum Mittelpunkt des Belichtungszeitintervalls verläuft. Ohne weitere Maßnahmen, die noch ergriffen werden können, lässt sich bei einer solchen symmetrischen Variation der Strahlungsintensität die Orientierung nicht eindeutig ermitteln. Previously, an example of a widely varying intensity has been described, i. the first time derivative of the intensity of the radiation is large. As mentioned above, this results in a relatively small proportion of the sensor elements receiving a large amount of radiation during the exposure time interval and therefore it is easy to deduce the orientation of the movement and the time course of the movement. This is not limited to that the radiation amount emanating from the detection structure is particularly large in a certain sub-period (e.g., at the beginning or end) of the exposure time interval. As long as the information about the period in which the amount of radiation is particularly large is taken into account in the evaluation of the image, the orientation and also the time course of the movement can be determined in a simple manner. However, in a preferred embodiment, it should be noted that the change in the radiation intensity in any case does not run in all spectral regions with time symmetry to the center of the exposure time interval. Without further measures that can still be taken, the orientation can not be clearly determined with such a symmetrical variation of the radiation intensity.

Oben wurde bereits erwähnt, dass die Strahlungsintensität periodisch variiert werden kann. Bei einer Weiterbildung dieses Ansatzes mit einer Vielzahl von zeitlich aufeinanderfolgenden Intensitätsmaxima und Intensitätsminima während jedes Belichtungszeitintervalls wird die Frequenz der Intensitätsmaxima oder Intensitätsminima variiert. Allerdings ist die Frequenz abgestimmt auf die erwartete Bewegungsgeschwindigkeit nicht so hoch, dass sich die Strahlungsintensität auf alle Sensorelemente entlang der Bewegungsrichtung der Bewegung gleich auswirkt. Vielmehr wird es bevorzugt, dass die Frequenz einen Maximalwert hat, der nicht überschritten wird und es erlaubt, die Auswirkungen bezüglich des Empfangs von Strahlungsmengen auf die verschiedenen Sensorelemente, die auf die Variation der Frequenz zurückzuführen ist, zu unterscheiden und daraus Schlussfolgerungen auf die Orientierung und/oder den zeitlichen Verlauf der Bewegung zu ziehen. It has already been mentioned above that the radiation intensity can be periodically varied. In a further development of this approach with a plurality of temporally successive intensity maxima and intensity minima during each exposure time interval, the frequency of the intensity maxima or intensity minima is varied. However, the frequency matched to the expected movement speed is not so high that the radiation intensity has the same effect on all sensor elements along the movement direction of the movement. Rather, it is preferred that the frequency has a maximum value which is not exceeded and allows one to distinguish the effects on the reception of radiation quantities on the various sensor elements due to the variation of the frequency and thereby conclusions on the orientation and / or to trace the time course of the movement.

Eine weitere Möglichkeit, die Orientierung und/oder den zeitlichen Verlauf der Bewegung durch zeitliche Variation zu ermitteln, besteht in einer zeitlichen Variation auf der Empfangsseite der Strahlung, d.h. der Kamera. Einzelne Ausführungsbeispiele wurden bereits angedeutet. So ist es z.B. möglich, dass nicht die Belichtungszeitintervalle sämtlicher Sensorelemente der Sensormatrix der Kamera zum gleichen Zeitpunkt beginnen und zum gleichen Zeitpunkt enden. Erreicht wird dies insbesondere dadurch, dass die Werte der aufintegrierten Strahlungsmengen der einzelnen Sensorelemente nacheinander ausgelesen und mit dem Auslesen wieder auf null gesetzt werden. Dabei ist es optional möglich, das Auslesen der Strahlungsmengen gleichzeitig für mehrere der Sensorelemente vorzunehmen, sodass die Sensorelemente mehreren Auslesefolgen zugeordnet sind. Entsprechend den Auslesefolgen werden die den Auslesefolgen zugeordneten Sensorelemente nacheinander ausgelesen. Alternativ können mehrere Auslesefolgen benachbarter Sensorelemente in der Sensormatrix vorhanden sein, wobei jedoch immer nur ein Sensorelement der gesamten Sensormatrix zu einem Zeitpunkt ausgelesen wird. Z.B. bei zwei Auslesefolgen kann daher immer abwechselnd eines der Sensorelemente der beiden Auslesefolgen ausgelesen werden. Another way to determine the orientation and / or the time course of the movement by temporal variation is a temporal variation on the receiving side of the radiation, i. the camera. Individual embodiments have already been indicated. So it is e.g. possible that the exposure time intervals of all sensor elements of the sensor matrix of the camera do not start at the same time and end at the same time. This is achieved, in particular, by the values of the integrated radiation quantities of the individual sensor elements being read out in succession and being reset to zero with the readout. In this case, it is optionally possible to carry out the readout of the radiation quantities simultaneously for a plurality of the sensor elements, so that the sensor elements are assigned to a plurality of read-out sequences. In accordance with the read-out sequences, the sensor elements assigned to the read-out sequences are read out one after the other. Alternatively, several read-out sequences of adjacent sensor elements may be present in the sensor matrix, but only one sensor element of the entire sensor matrix is read out at a time. For example, in the case of two read-out sequences, one of the sensor elements of the two read-out sequences can therefore always be read alternately.

In jedem Fall wird die Kenntnis über die unterschiedlichen Belichtungszeitintervalle der einzelnen Sensorelemente bei der Auswertung und der Ermittlung der Orientierung und/oder des zeitlichen Verlaufs der Bewegung berücksichtigt. Ein vollständiges Aufzeichnungsbild der Kamera, das Werte von sämtlichen Sensorelementen enthält, ist daher nicht wie üblich eine auf ein einziges Belichtungszeitintervall begrenzte Momentaufnahme, sondern enthält Informationen über einen längeren zeitlichen Verlauf der Erfassung der Erfassungsstruktur. Hat z.B. ein Sensorelement, an dem sich ein bestimmter Teil der Erfassungsstruktur vorbeibewegt hat, diesen Teil der Erfassungsstruktur im Gegensatz zu seinen Nachbar-Sensorelementen nicht oder mit geringerer Strahlungsmenge erfasst, dann lassen sich daraus Informationen über die Orientierung und/oder den zeitlichen Verlauf der Bewegung gewinnen. Allgemein formuliert kann unter Berücksichtigung der Kenntnis über die Belichtungszeitintervalle der einzelnen Sensorelemente auf einfache Weise ermittelt werden, ob die Bewegung mit der einen Orientierung oder mit der entgegengesetzten Orientierung dem Aufzeichnungsbild der Kamera entspricht, und/oder der zeitlichen Verlauf ermittelt werden. In any case, the knowledge about the different exposure time intervals of the individual sensor elements in the evaluation and the determination of the orientation and / or the time course of the movement is taken into account. A complete recording image of the camera, which contains values from all the sensor elements, is therefore not, as usual, a snapshot limited to a single exposure time interval, but contains information about a longer time course of the detection of the Sensing structure. If, for example, a sensor element, past which a certain part of the detection structure has passed, does not detect this part of the detection structure or with less radiation than its neighboring sensor elements, then information about the orientation and / or the temporal course of the movement can be obtained therefrom win. In general terms, taking into account the knowledge of the exposure time intervals of the individual sensor elements, it can be determined in a simple manner whether the movement with the one orientation or with the opposite orientation corresponds to the recording image of the camera and / or the temporal course is determined.

Alternativ oder zusätzlich zu der Verwendung unterschiedlicher Belichtungszeitintervalle können andere Eigenschaften der Kamera zeitlich variiert werden. Dies betrifft insbesondere die Beeinflussung der Strahlungsdurchlässigkeit der Strahlungsoptik der Kamera, z.B. unter Verwendung von Blenden und/oder Filtern mit zeitlich variierenden Eigenschaften (z. B. durch Bewegung oder Steuerung der Blende und/oder des Filters), als auch die Empfindlichkeit der Sensorelemente für die auftreffende Strahlung. Bei geringerer Empfindlichkeit führt die gleiche empfangene Strahlungsmenge zu einem kleineren Wert des Sensorsignals des Sensorelements und umgekehrt. Wird z.B. die Empfindlichkeit von einem hohen Wert zu Beginn des Belichtungszeitintervalls zunächst schnell abfallend und dann im weiteren Verlauf des Belichtungszeitintervalls langsamer abfallend auf einen niedrigen Wert der Empfindlichkeit verringert, dann entspricht dies dem oben beschriebenen Ausführungsbeispiel mit hoher Strahlungsintensität zu Beginn und geringer Strahlungsintensität am Ende des Belichtungszeitintervalls. Alternatively or in addition to using different exposure time intervals, other camera characteristics may be varied over time. This particularly relates to the influence of the radiation transmission of the radiation optics of the camera, e.g. using apertures and / or filters with temporally varying properties (eg, by movement or control of the aperture and / or filter), as well as the sensitivity of the incident radiation sensor elements. At lower sensitivity, the same received radiation quantity results in a smaller value of the sensor signal of the sensor element and vice versa. If e.g. the sensitivity decreases rapidly from a high value at the beginning of the exposure time interval to a low sensitivity value later in the exposure time interval, then this corresponds to the embodiment described above with high radiation intensity at the beginning and low radiation intensity at the end of the exposure time interval.

Die zeitliche Variation von Eigenschaften der Kamera, einschließlich der Verwendung unterschiedlicher Belichtungszeitintervalle der einzelnen Sensorelemente, kann mit der oben beschriebenen zeitlichen Variation der örtlichen Intensitätsverteilung von Strahlung, die von der Erfassungsstruktur ausgeht, verglichen werden und führt teilweise zu einander entsprechenden Vorgehensweisen bei der Ermittlung der Orientierung und/oder des zeitlichen Verlaufs der Bewegung. Alle genannten Vorgehensweisen der zeitlichen Variation ermöglichen es insbesondere einzeln oder in Kombination miteinander, die Orientierung und/oder den zeitlichen Verlauf der Bewegung aus einem einzigen Aufzeichnungsbild zu ermitteln. The temporal variation of properties of the camera, including the use of different exposure time intervals of the individual sensor elements, can be compared with the above-described temporal variation of the local intensity distribution of radiation emanating from the detection structure and leads in part to corresponding procedures for determining the orientation and / or the time course of the movement. All of the above-mentioned methods of temporal variation make it possible, in particular, individually or in combination with each other, to determine the orientation and / or the temporal course of the movement from a single recording image.

Ferner ist es möglich, nicht lediglich eine Kamera, sondern mehrere Kameras zu verwenden, z.B. Kameras mit Sensorelementen, die im Vergleich der Kameras in unterschiedlichen Spektralbereichen empfindlich sind. Möglich ist auch der Einsatz einer Kamera, entweder als einzige Kamera oder in Kombination mit anderen Kameras, wobei die Sensormatrix der Kamera Sensorelemente aufweist, deren spektrale Empfindlichkeit sich von der spektralen Empfindlichkeit anderer Sensorelemente unterscheidet. Z.B. können die verschiedenen Maßnahmen der zeitlichen Variation miteinander kombiniert werden, indem das Intensitätsniveau der von der Erfassungsstruktur ausgehenden Strahlung pseudozufällig variiert wird, während zumindest eine Eigenschaft zumindest einer Kamera, die ein Aufzeichnungsbild der Erfassungsstruktur erzeugt, in anderer Weise als das Intensitätsniveau variiert wird. Furthermore, it is possible to use not just one camera but multiple cameras, e.g. Cameras with sensor elements that are sensitive in comparison to cameras in different spectral ranges. It is also possible to use a camera, either as a single camera or in combination with other cameras, the sensor matrix of the camera having sensor elements whose spectral sensitivity differs from the spectral sensitivity of other sensor elements. For example, For example, the various measures of temporal variation may be combined by varying the intensity level of the radiation emanating from the detection structure pseudo-randomly while at least one characteristic of at least one camera producing a recording image of the detection structure is varied other than the intensity level.

Eine weitere Möglichkeit, die örtliche Strahlungsverteilung im Lauf der Zeit während des Belichtungszeitintervalls zu verändern, besteht darin, die Polarisation der von der Erfassungsstruktur zu der Kamera übertragenen Strahlung im Laufe der Zeit zu ändern. Z.B. kann die Erfassungsstruktur eine Lichtquelle und/oder ein Display aufweisen, wobei in Richtung der Kamera ein steuerbarer Polarisationsfilter der Erfassungsstruktur angeordnet ist, welcher es erlaubt, die Polarisation, der von ihm in Richtung der Kamera ausgehenden Strahlung örtlich verschieden und zeitabhängig zu steuern. Another way to change the local radiation distribution over time during the exposure time interval is to change the polarization of the radiation transmitted from the detection structure to the camera over time. For example, the detection structure may comprise a light source and / or a display, wherein in the direction of the camera, a controllable polarization filter of the detection structure is arranged, which allows to control the polarization, the radiation emanating from it in the direction of the camera locally different and time-dependent.

Die Kamera oder zumindest eine der Kameras kann Sensorelemente aufweisen, die selektiv für Strahlung einer bestimmten Polarisationsrichtung empfindlich sind. In analoger Weise wie bei üblichen Sensormatrizen das einzelne Sensorelement mehrere für unterschiedliche Spektralbereiche empfindliche Sub-Sensorelemente aufweist, können die Sensorelemente jeweils mehrere (jeweils zumindest zwei) Sub-Sensorelemente aufweisen, die für Strahlung unterschiedlicher Polarisationsrichtungen empfindlich sind. Auf diese Weise lässt sich in analoger Weise, wie oben für die unterschiedliche zeitliche Variation der Intensitäten in verschiedenen Spektralbereichen der auf die Kamera einfallenden Strahlung, die Polarisationsrichtung variieren und die gleiche Information bezüglich der Bewegungserkennung und insbesondere bezüglich der Ermittlung der Orientierung und/oder des zeitlichen Verlaufs der Bewegung gewinnen. The camera or at least one of the cameras can have sensor elements which are sensitive to radiation of a specific polarization direction selectively. In an analogous manner as in conventional sensor matrices, the individual sensor element has a plurality of sub-sensor elements sensitive to different spectral ranges, the sensor elements can each comprise a plurality of (at least two) sub-sensor elements that are sensitive to radiation of different polarization directions. In this way, the polarization direction can be varied in an analogous manner, as above for the different temporal variation of the intensities in different spectral ranges of the radiation incident on the camera, and the same information regarding the motion detection and in particular with respect to the determination of the orientation and / or the temporal Course of the movement win.

In der Figurenbeschreibung wird noch näher darauf eingegangen, dass die Erfassungsstruktur zumindest einen Marker aufweisen kann. Die Figurenbeschreibung konzentriert sich dabei auf konkrete Ausführungsbeispiele. Es ist aber generell möglich, dass die Erfassungsstruktur zumindest einen Marker aufweist oder aus zumindest einem Marker besteht. Insbesondere kann unter einem Marker eine Oberfläche mit in sich geschlossen umlaufender Außen-Umfangslinie (d.h. Außenrand, z.B. Kreis oder Rechtecklinie) verstanden werden, wobei sich die Strahlungseigenschaften (Emissionsgrad und/oder Reflexionsgrad) an der Umfangslinie sprungartig ändern. Insbesondere können die Strahlungseigenschaften der durch die Umfangslinie berandeten Oberfläche konstant sein. Die Umfangslinie des Markers stellt somit eine Kante im Sinne der obigen Beschreibung dar. In the description of the figures, it will be explained in more detail that the detection structure can have at least one marker. The description of the figures concentrates on concrete exemplary embodiments. However, it is generally possible that the detection structure has at least one marker or consists of at least one marker. In particular, a marker can be understood as meaning a surface having a circumferentially closed outer circumferential line (ie outer edge, eg circle or rectangular line) be, with the radiation properties (emissivity and / or reflectance) change abruptly at the perimeter. In particular, the radiation properties of the surface bounded by the circumferential line can be constant. The peripheral line of the marker thus represents an edge in the sense of the above description.

Insbesondere kann die Erfassungsstruktur zumindest einen kreisförmigen Marker aufweisen. Dies hat den Vorteil, dass die Relativbewegung der Erfassungsstruktur und der Kamera in jeder Richtung entlang der Markeroberfläche dazu führt, dass die Kreislinie am Außenumfang des Markers senkrecht, d.h. in Richtung eines Radius der Kreislinie, von einer Projektion des Bewegungspfad der Relativbewegung auf die Markeroberfläche gekreuzt wird. Es gibt daher in jedem dieser Fälle benachbarte Sensorelemente der Kamera-Sensormatrix, die während des Ablaufs der Relativbewegung einem sprungartigen Anstieg oder Abfall der empfangenen Strahlungsintensität ausgesetzt sind, wie es oben in Bezug auf Kanten beschrieben wurde. Insbesondere wenn nur bestimmte Bewegungsrichtungen vorkommen können, ist auch die Verwendung von anders geformten als kreisförmigen Markern von Vorteil. In particular, the detection structure may comprise at least one circular marker. This has the advantage that the relative movement of the detection structure and the camera in each direction along the marker surface results in that the circular line on the outer circumference of the marker is perpendicular, i. in the direction of a radius of the circular line, is crossed by a projection of the movement path of the relative movement to the marker surface. Thus, in each of these cases, there are adjacent sensor elements of the camera sensor array exposed to a sudden increase or decrease in received radiation intensity during the course of the relative movement, as described above with respect to edges. In particular, if only certain directions of movement can occur, the use of differently shaped than circular markers of advantage.

Im Folgenden wird eine Weiterbildung der Bewegungserkennung und insbesondere der Ermittlung der Orientierung und/oder des zeitlichen Verlaufs der Bewegung beschrieben. Dieser Weiterbildung liegt die Problematik zugrunde, dass unterschiedliche örtliche Intensitätsverteilungen und/oder unterschiedliche zeitliche Variationen der örtlichen Intensitätsverteilung und/oder der Kameraeigenschaften zu unterschiedlich guten Ergebnissen führen. Dies hängt auch von der Art der Relativbewegung der relativ zueinander beweglichen Teile ab. Insbesondere kann die Bewegung schneller oder langsamer sein und eine größere oder kleinere Dynamik aufweisen, d.h. die Beschleunigung und/oder der Ruck der Bewegung können unterschiedlich groß sein. In the following, a development of the motion detection and in particular the determination of the orientation and / or the time course of the movement will be described. This development is based on the problem that different local intensity distributions and / or different temporal variations of the local intensity distribution and / or the camera properties lead to different good results. This also depends on the nature of the relative movement of the relatively movable parts. In particular, the movement may be faster or slower and have greater or lesser dynamics, i. the acceleration and / or the jerk of the movement can be different.

Zur Lösung dieses Problems wird vorgeschlagen, eine zeitliche Folge von Aufzeichnungsbildern durch die Kamera, durch eine Mehrzahl von Kameras oder jeweils durch eine von mehreren Kameras aufzuzeichnen und auszuwerten. Dabei wird zumindest ein erstes Aufzeichnungsbild der zeitlichen Folge ausgewertet und es wird abhängig vom Ergebnis der Auswertung zumindest einen ersten Aufzeichnungsbildes die zeitliche Variation der örtlichen Strahlungsverteilung und/oder die zeitliche Variation der Kameraeigenschaften verändert. Dementsprechend wird ein zweites, nach der Auswertung des zumindest einen ersten Aufzeichnungsbildes aufgenommenes Aufzeichnungsbild Strahlung in einem Belichtungszeitintervall erfassen, in dem die zeitliche Variation der örtlichen Strahlungsverteilung und/oder die zeitliche Variation der Kameraeigenschaften bereits gegenüber dem Belichtungszeitintervall des ersten Aufzeichnungsbildes verändert ist. To solve this problem, it is proposed to record and evaluate a chronological sequence of recording images by the camera, by a plurality of cameras or in each case by one of a plurality of cameras. In this case, at least a first recording image of the temporal sequence is evaluated and, depending on the result of the evaluation of at least one first recording image, the temporal variation of the local radiation distribution and / or the temporal variation of the camera properties are changed. Accordingly, a second recorded after the evaluation of the at least one first recorded image recording image radiation in an exposure time interval in which the temporal variation of the local radiation distribution and / or the temporal variation of the camera characteristics is already changed from the exposure time interval of the first recording image.

Auf diese Weise ist es möglich, die zeitliche Variation an die Relativbewegung anzupassen. Insbesondere ist mit heutigen Mitteln der Steuerung von Strahlungsquellen, z.B. Displays und/oder Anordnungen von Leuchtdioden, eine Einstellung der zeitlichen Variation der örtlichen Strahlungsverteilung bei einer Frequenz der Aufnahme von Aufzeichnungsbildern im Bereich von bis über 1 kHz oder sogar über 1 MHz möglich. Während die von Displays ausgehende Strahlung z.B. im Bereich von einigen 100 Hz, beispielsweise im Bereich von 200–600 Hz variiert werden kann, kann die von Leuchtdioden ausgehende Strahlung auch bei deutlich höheren Frequenzen bis in den MHz-Bereich variiert werden. Aufgrund der Rechenleistung heutzutage zur Verfügung stehender Computer ist auch die Auswertung einzelner Aufzeichnungsbilder und die Steuerung veränderter zeitlicher Variation der örtlichen Strahlungsverteilung bei diesen Frequenzen möglich. Entsprechendes gilt auch für die zeitliche Variation der Kameraeigenschaften. Z.B. kann die Reihenfolge beim Auslesen der Integrationswerte der Sensorelemente auf einfache Weise geändert werden, auch wenn dies dazu führen kann, dass während eines Zeitraums zwischen der Aufnahme des ersten Aufzeichnungsbildes der Folge und des zweiten Aufzeichnungsbildes der Folge kein sinnvolles Aufzeichnungsbild erhalten werden kann, während die Reihenfolge des Auslesens umgestellt wird. In this way it is possible to adapt the temporal variation to the relative movement. In particular, with present day means of controlling radiation sources, e.g. Displays and / or arrangements of light-emitting diodes, an adjustment of the temporal variation of the local radiation distribution at a frequency of recording of recorded images in the range of up to 1 kHz or even over 1 MHz possible. While the radiation emanating from displays e.g. can be varied in the range of a few 100 Hz, for example in the range of 200-600 Hz, the emanating from light emitting diodes radiation can be varied at much higher frequencies up to the MHz range. Due to the computing power of computers available today, the evaluation of individual recording images and the control of changed temporal variation of the local radiation distribution at these frequencies is possible. The same applies to the temporal variation of the camera properties. For example, For example, the order in which the integration values of the sensor elements are read out can be easily changed even though it may result in a meaningful recording image not being obtained during a period between the recording of the first recording image of the sequence and the second recording image of the sequence the readout is changed.

Alternativ oder zusätzlich kann nach Auswertung des zumindest einen ersten Aufzeichnungsbildes und vor der Aufzeichnung des zweiten Aufzeichnungsbildes die Dauer des Belichtungszeitintervalls verändert werden, z.B. wenn bei der Auswertung des zumindest einen ersten Aufzeichnungsbildes festgestellt wird, dass der Sättigungswert bei zumindest einem der Sensorelemente erreicht, überschritten oder annähernd erreicht ist, oder wenn festgestellt wird, dass der Sättigungswert bei allen Sensorelementen nicht annähernd erreicht ist, z.B. lediglich 10 % oder 20 % des Sättigungswertes erreicht werden. Alternativ oder zusätzlich zu der Veränderung der Dauer des Belichtungszeitintervalls kann die Intensität der Strahlung angepasst werden. Allgemein formuliert wird es bevorzugt, dass vorgegeben wird/ist, in welchem Bereich der Strahlungsmenge zwischen Null und dem Sättigungswert die Strahlungsmenge der Sensorelemente bei Aufzeichnung von Aufzeichnungsbildern liegen soll und/oder welche Bedingungen die Verteilung der von den Sensorelementen gelieferten Werte der Strahlungsmengen einhalten soll. Wenn die Vorgabe nicht erfüllt ist, beispielsweise der vorgegebene Bereich z.B. für eine vorgegebene Anzahl oder einen vorgegebenen Prozentsatz der Sensorelemente nicht eingehalten ist, wird die Strahlungsintensität und/oder die Dauer des Belichtungszeitintervalls verändert, bis das Kriterium für ein folgendes Aufzeichnungsbild erfüllt ist. Alternatively or additionally, after evaluating the at least one first recording image and before recording the second recording image, the duration of the exposure time interval can be changed, eg if it is determined during the evaluation of the at least one first recording image that the saturation value has been reached, exceeded or at least one of the sensor elements is approximately reached, or if it is determined that the saturation value is not nearly reached in all sensor elements, for example, only 10% or 20% of the saturation value can be achieved. Alternatively or in addition to changing the duration of the exposure time interval, the intensity of the radiation may be adjusted. In general terms, it is preferable to specify in which range of the radiation quantity between zero and the saturation value the radiation quantity of the sensor elements should lie when recording images are recorded and / or which conditions should follow the distribution of the radiation quantity values supplied by the sensor elements. If the default is not met, for example, the predetermined range, for example, for a given number or a predetermined percentage of the sensor elements not is maintained, the radiation intensity and / or the duration of the exposure time interval is changed until the criterion for a following recording image is met.

Zurückkommend auf die zeitliche Variation der örtlichen Strahlungsverteilung werden nun zwei Ausführungsbeispiele beschrieben. Gemäß dem ersten Ausführungsbeispiel wird die Intensität der Strahlung in zumindest einem örtlichen Bereich der Strahlungsverteilung (z.B. zumindest einem Marker zugeordneten örtlichen Bereich) in verschiedenen spektralen Bereichen der Strahlung zeitlich sinusartig variiert, d.h. die Intensität ist eine Sinusfunktion der Zeit. Dabei können die Sinusverläufe der Intensität in zumindest zwei, vorzugsweise zumindest drei verschiedenen spektralen Bereichen phasenverschoben sein. Returning to the temporal variation of the local radiation distribution, two embodiments will now be described. According to the first embodiment, the intensity of the radiation in at least one local area of the radiation distribution (e.g., at least one marker associated with the local area) in different spectral regions of the radiation is temporally sinusoidally varied, i. the intensity is a sine function of time. The sinusoids of the intensity can be phase-shifted in at least two, preferably at least three different spectral ranges.

Wenn bei der Auswertung des ersten Aufzeichnungsbildes der Folge festgestellt wird, dass das Ergebnis der Auswertung in Bezug auf die Ermittlung der Orientierung und/oder des zeitlichen Verlaufs der Bewegung nicht zufriedenstellend ist (weil z.B. nicht eindeutig festgestellt werden kann, welche Orientierung die Bewegung hat), dann wird die Amplitude zumindest eines Sinusverlaufs, die Frequenz zumindest eines Sinusverlaufs und/oder die Phasenverschiebung zwischen zumindest zwei Sinusverläufen der verschiedenen Spektralbereiche verändert. In zumindest einem weiteren Aufzeichnungsbild, das bei veränderten Sinusverläufen aufgenommen wird, wird dann festgestellt, ob das Ergebnis der Auswertung zufriedenstellend ist oder ob eine Veränderung der zeitlichen Variation der Strahlungsverteilung vorgenommen wird. Optional werden die Sinusverläufe nach Auswertung eines oder mehrerer der weiteren Aufzeichnungsbilder wieder verändert, bis ein zufriedenstellendes Auswertungsergebnis erhalten wird. Typischer Weise werden die sinusförmigen Verläufe auf eine höhere Sinusfrequenz eingestellt, wenn die Dynamik der Bewegung größer ist und umgekehrt. Die Amplitude der sinusförmigen Verläufe wird vorzugsweise so eingestellt, dass das Signal-/Rauschverhältnis bezüglich der Auswertung der verschiedenen Spektralanteile hoch ist, wobei auch darauf zu achten ist, dass sich die von den Sensorelementen des Kamera-Sensorfeldes ermittelten Strahlungsmengen im Belichtungszeitintervall über einen wesentlichen Teilbereich zwischen Null und der Sättigungsmenge verteilen. If, during the evaluation of the first recording image of the sequence, it is determined that the result of the evaluation in relation to the determination of the orientation and / or the time course of the movement is unsatisfactory (because, for example, it is not possible to clearly determine which orientation the movement has) , then the amplitude of at least one sinusoidal waveform, the frequency of at least one sinusoidal waveform and / or the phase shift between at least two sinusoidal waveforms of the different spectral ranges is changed. In at least one further recording image, which is recorded with changed sinusoids, it is then determined whether the result of the evaluation is satisfactory or whether a change in the temporal variation of the radiation distribution is made. Optionally, the sinusoids are changed again after evaluation of one or more of the further recording images until a satisfactory evaluation result is obtained. Typically, the sinusoidal waveforms are set to a higher sinusoidal frequency when the dynamics of the motion are greater and vice versa. The amplitude of the sinusoidal curves is preferably set so that the signal / noise ratio with respect to the evaluation of the various spectral components is high, whereby it should also be ensured that the radiation quantities determined by the sensor elements of the camera sensor field are in the exposure time interval over a substantial portion distribute between zero and the saturation amount.

Gemäß einem zweiten Ausführungsbeispiel, das sich auf die oben beschriebene pseudozufällige Variation des Intensitätsniveaus bezieht, wird die Art der pseudozufälligen Variation geändert, wenn nach Auswertung des ersten Aufzeichnungsbildes festgestellt wird, dass ein Bedarf dafür besteht. Die Art der pseudozufälligen Variation des Intensitätsniveaus der Strahlung wird insbesondere durch die Länge der Zeitintervalle, während denen die Intensität konstant ist, durch den Unterschied zwischen der maximal erlaubten und der minimal erlaubten Intensität und/oder durch die maximal erlaubte Intensität bestimmt, d.h. einer oder mehrere dieser Parameter werden geändert, wenn die Art der pseudozufälligen Variation des Intensitätsniveaus der Strahlung verändert wird. Insbesondere kann die Länge der Zeitintervalle konstanter Intensität kürzer gewählt werden, wenn die Dynamik der Bewegung hoch ist und umgekehrt. Der Unterschied zwischen der maximal erlaubten Intensität und der minimal erlaubten Intensität kann in analoger Weise wie im ersten Ausführungsbeispiel für die Amplituden des sinusförmigen Verlaufs gewählt werden. Entsprechendes gilt für den Maximalwert der Intensität. According to a second embodiment relating to the above-described pseudo-random variation of the intensity level, the kind of the pseudo-random variation is changed when it is determined after evaluation of the first recording image that there is a need. The type of pseudo-random variation of the intensity level of the radiation is determined, in particular, by the length of the time intervals during which the intensity is constant, by the difference between the maximum allowed and the minimum allowed intensity and / or by the maximum permitted intensity, i. one or more of these parameters are changed when the type of pseudo-random variation of the intensity level of the radiation is changed. In particular, the length of the time intervals of constant intensity can be chosen to be shorter if the dynamics of the movement are high and vice versa. The difference between the maximum allowed intensity and the minimum allowed intensity can be selected in an analogous manner as in the first embodiment for the amplitudes of the sinusoidal waveform. The same applies to the maximum value of the intensity.

Schnelle Bildverarbeitungsalgorithmen, die eine Entscheidung darüber ermöglichen, ob die zeitliche Variation der Strahlungsintensität und/oder der Kameraeigenschaften verändert werden soll(en), nutzen beispielsweise eine schnelle Fourier-Transformation (FFT). Auch Verfahren, die Strahlungsmengen in unterschiedlichen Spektralbereichen auswerten, können in diesem Sinne schnell ausgestaltet sein. Außerdem ist auch bei Auswertung eines Aufzeichnungsbildes in Bezug auf Strahlung in einem einzelnen Spektralbereich zum Beispiel eine Frequenzverschiebung aufgrund der Relativbewegung der relativ zueinander beweglichen Teile schnell feststellbar. Dabei kann die Strahlungsintensität insbesondere periodisch (zum Beispiel Kosinus-förmig) zeitlich geändert werden. Bei konstanter Geschwindigkeit der Relativbewegung entspricht die Frequenz der periodischen Änderung im Aufzeichnungsbild unverändert dem örtlich periodischen Verlauf der Bildwerte. Dagegen führt eine nicht konstante Geschwindigkeit zu einer Frequenzverschiebung im örtlich periodischen Verlauf der Bildwerte und der zeitliche Geschwindigkeitsverlauf kann daher aus dem Aufzeichnungsbild ermittelt werden. Die Frequenzverschiebung kann zum Beispiel im Wege einer örtlich aufgelösten Frequenzanalyse an einer Vielzahl von Orten eines Aufzeichnungsbildes festgestellt werden. Dabei kann auch die örtliche Verteilung der Frequenzverschiebung festgestellt werden und somit Information über den zeitlichen Verlauf der Relativbewegung gewonnen werden. Fast image processing algorithms that allow a decision as to whether the temporal variation of the radiation intensity and / or the camera properties should be changed, for example, use a fast Fourier transform (FFT). Even methods that evaluate radiation quantities in different spectral ranges can be designed quickly in this sense. In addition, even when evaluating a recording image with respect to radiation in a single spectral range, for example, a frequency shift due to the relative movement of the relatively movable parts can be quickly detected. In this case, the radiation intensity in particular periodically (for example, cosine-shaped) can be changed over time. At a constant speed of the relative movement, the frequency of the periodic change in the recording image is unchanged from the locally periodic course of the image values. In contrast, a non-constant speed leads to a frequency shift in the spatially periodic course of the image values and the temporal velocity profile can therefore be determined from the recorded image. The frequency shift can be detected, for example, by means of a locally resolved frequency analysis at a plurality of locations of a recorded image. In this case, the local distribution of the frequency shift can be determined and thus information about the time course of the relative movement can be obtained.

Ferner können Informationen aus der Historie der Bewegung, insbesondere aus der in der Vergangenheit liegenden Auswertung einer Folge von Kamerabildern, dazu verwendet werden, die zeitliche Variation der Übertragung und/oder Erfassung der Strahlung einzustellen. Geeignet hierfür sind insbesondere Kalman-Filter. Furthermore, information from the history of the movement, in particular from the past evaluation of a sequence of camera images, can be used to adjust the temporal variation of the transmission and / or detection of the radiation. Particularly suitable for this purpose are Kalman filters.

Die Variation der Intensität in verschiedenen spektralen Bereichen und die alternativ oder zusätzlich ausgeführte Variation der Polarisation der Strahlung werden von Personen, die sich im Bereich des Operationsmikroskopiesystems aufhalten, als weniger störend empfunden als die Variation der Gesamt-Strahlungsintensität. The variation of the intensity in different spectral regions and the alternatively or additionally performed variation of the polarization of the radiation are perceived by persons who are in the area of the surgical microscopy system as less disturbing than the variation of the total radiation intensity.

Insbesondere kann zumindest eine Kamera mit Sensorelementen verwendet werden, die jeweils in einem von mehr als drei oder vier Spektralbereichen empfindlich sind. Insbesondere sind so genannte Hyperspektral-Kameras bekannt, die in mehr als zehn, zum Beispiel sechzehn verschiedenen Spektralbereichen empfindliche Sensorelemente aufweisen. Auf diese Weise kann der Informationsgehalt im Aufzeichnungsbild noch weiter erhöht werden. In particular, at least one camera can be used with sensor elements which are each sensitive in one of more than three or four spectral ranges. In particular, so-called hyperspectral cameras are known which have sensitive sensor elements in more than ten, for example, sixteen different spectral ranges. In this way, the information content in the recording image can be further increased.

Insbesondere bei solchen Kameras, jedoch auch bei Kameras mit Sensorelementen, die in weniger Spektralbereichen empfindlich sind, kann die Strahlungsintensität der von der Erfassungsstruktur ausgehenden Strahlung in den verschiedenen Spektralbereichen mit unterschiedlicher Frequenz der Intensitätsänderung variiert werden. Zum Beispiel kann in einem ersten Spektralbereich die Strahlungsintensität mit einer Frequenz von 5 kHz und in einem anderen, zweiten Spektralbereich die Strahlungsintensität mit einer Frequenz von 10 kHz variiert werden. Verschiedene Frequenzen erhöhen den Informationsgehalt und vereinfachen die Auswertung der Aufzeichnungsbilder. Particularly in the case of such cameras, but also in the case of cameras with sensor elements which are sensitive in less spectral ranges, the radiation intensity of the radiation emanating from the detection structure can be varied in the different spectral ranges with different frequency of the intensity change. For example, in a first spectral range, the radiation intensity may be varied at a frequency of 5 kHz and in another, second spectral range, the radiation intensity may be varied at a frequency of 10 kHz. Different frequencies increase the information content and simplify the evaluation of the recorded images.

Insbesondere kann der Bewegungsbereich der beiden relativ zueinander beweglichen Teile (Mikroskop-Optik und Basis) klein sein. Es ist daher möglich, den räumlichen Erfassungsbereich der zumindest einen Kamera ebenfalls klein auszulegen, ohne dass die Erfassungsstruktur den Erfassungsbereich verlassen kann. Insbesondere in diesem Fall ist das im Folgenden beschriebene Verfahren der Einstrahlung eines Musters auf die Oberfläche der Erfassungsstruktur von Vorteil, da sowohl der relativ kleine räumliche Erfassungsbereich als auch die Auswertung des Ergebnisses der Einstrahlung des Musters geringen Aufwand erfordert oder eine Auswertung der Aufzeichnungsbilder mit besonders hoher Genauigkeit ermöglicht. In particular, the range of movement of the two relatively movable parts (microscope optics and base) can be small. It is therefore possible to make the spatial detection range of the at least one camera also small, without the detection structure being able to leave the detection range. In particular, in this case, the method described below of the irradiation of a pattern on the surface of the detection structure is advantageous because both the relatively small spatial detection area and the evaluation of the result of the irradiation of the pattern requires little effort or an evaluation of the recording images with particularly high Accuracy allows.

Eine Möglichkeit der zeitlichen Variation besteht in einer Einstrahlung (insbesondere Projektion) einer einstellbaren örtlichen Strahlungsverteilung auf die Erfassungsstruktur. Das Erscheinungsbild der Erfassungsstruktur, das bereits ohne die Projektion vorhanden ist, bestimmt gemeinsam mit der eingestrahlten Strahlungsverteilung das wirksame Erscheinungsbild, welches von der zumindest einen Kamera erfasst wird. One possibility of temporal variation is irradiation (in particular projection) of an adjustable local radiation distribution onto the detection structure. The appearance of the detection structure, which already exists without the projection, determines, together with the incident radiation distribution, the effective appearance which is detected by the at least one camera.

Insbesondere kann das bereits ohne Projektion vorhandene Erscheinungsbild ein erstes Muster (das heißt eine Struktur) bilden und kann die eingestrahlte örtliche Strahlungsverteilung auf der Oberfläche der Erfassungsstruktur ein zweites Muster erzeugen. Als Muster kommen insbesondere binäre Muster, zum Beispiel schachbrettartige Muster, Muster mit parallelen Streifen, Muster mit konzentrischen Ringen, und/oder Muster mit speziellen Eigenschaften wie die anhand von 8 noch erläuterten MURA infrage. Insbesondere können das erste Muster und das zweite Muster gleichartig sein, so dass die Überlagerung des ersten Musters mit dem zweiten Muster insbesondere das gleiche Erscheinungsbild wie das erste Muster allein und/oder zumindest in örtlichen Teilbereichen der Oberfläche der Erfassungsstruktur eine Auslöschung des Musters (d.h. ein homogenes Erscheinungsbild) zur Folge haben kann. Dies ermöglicht es insbesondere bei der Auswertung zumindest eines Aufzeichnungsbildes eine einfache Größe zu ermitteln, die Informationen über die relative Bewegung enthält. Zum Beispiel kann der Grad der Auslöschung des ersten binären Musters durch das zweite binäre Muster auf einfache Weise durch den Flächenanteil ermittelt werden, der nicht dem binären Wert der Auslöschung (zum Beispiel „1“ für „hell“) entspricht. Alternativ oder zusätzlich kann auf einfache Weise ein durch die Überlagerung der beiden Muster entstehender Moiré-Effekt und/oder anderer musterspezifischer Überlagerungseffekt bestimmt und ausgewertet werden. In particular, the appearance already present without projection can form a first pattern (that is, a structure) and the irradiated local radiation distribution on the surface of the detection structure can produce a second pattern. In particular, binary patterns, for example checkerboard-like patterns, parallel-striped patterns, concentric-ring patterns, and / or patterns having special properties such as those based on 8th MURA further questioned. In particular, the first pattern and the second pattern may be similar, so that the superimposition of the first pattern with the second pattern, in particular the same appearance as the first pattern alone and / or at least in local portions of the surface of the detection structure deletion of the pattern (ie homogeneous appearance) can result. This makes it possible, in particular when evaluating at least one recording image, to determine a simple variable which contains information about the relative movement. For example, the degree of cancellation of the first binary pattern by the second binary pattern can be easily determined by the area ratio that does not correspond to the binary value of the cancellation (eg, "1" for "bright"). Alternatively or additionally, a moiré effect arising from the superimposition of the two patterns and / or other pattern-specific overlay effect can be determined and evaluated in a simple manner.

Bei einer Weiterbildung kann ein vorgegebener Zustand der Überlagerung des ersten und des zweiten Musters vorhanden sein und kann durch die Einstrahlung des zweiten Musters auf die Erfassungsstruktur versucht werden, diesen vorgegebenen Zustand trotz der Relativbewegung der relativ zueinander beweglichen Teile zu erreichen oder ihm möglichst nahe zu kommen. Um dies zu erreichen, wird zum Beispiel wie oben bereits beschrieben zumindest ein erstes Aufzeichnungsbild ausgewertet und die Einstrahlung des zweiten Musters abhängig von dem Ergebnis der Auswertung angepasst. Dadurch ist es insbesondere möglich, den Wertebereich für die auszuwertende Größe klein zu halten. Dies wiederum erlaubt es, die auszuwertende Größe bei geringem Aufwand mit gutem Signal-/Rausch-Verhältnis zu ermitteln. In a further development, a predetermined state of the superposition of the first and the second pattern may be present and may be attempted by the irradiation of the second pattern on the detection structure to reach this predetermined state despite the relative movement of the relatively movable parts or to come as close as possible , In order to achieve this, for example, as described above, at least one first recorded image is evaluated and the irradiation of the second pattern is adapted as a function of the result of the evaluation. This makes it possible in particular to keep the range of values for the size to be evaluated small. This in turn makes it possible to determine the size to be evaluated with little effort and good signal-to-noise ratio.

Ausführungsbeispiele der Erfindung werden nun unter Bezugnahme auf die beigefügte Zeichnung beschrieben. Die einzelnen Figuren der Zeichnung zeigen: Embodiments of the invention will now be described with reference to the accompanying drawings. The individual figures of the drawing show:

1 in vereinfachter schematischer Darstellung eines Operationsmikroskopiesystem und einen auf einer Patientenunterlage liegenden Patienten in einem Operationsraum, 1 in a simplified schematic illustration of a surgical microscope system and a patient lying on a patient pad in an operating room,

2 eine schematische Darstellung eines Teils des in 1 dargestellten Operationsmikroskopiesystems mit zwei Kameras, in deren Erfassungsbereiche jeweils eine Erfassungsstruktur liegt, die an dem Patienten angeordnet ist, 2 a schematic representation of a part of in 1 illustrated surgical microscopy system with two cameras, in their detection areas each have a detection structure, which is arranged on the patient,

3 schematisch in vereinfachter Darstellung eine Anordnung wie in 2, wobei jedoch die Kameras an der Patientenunterlage befestigt sind und Erfassungsstrukturen erfassen, die an der Mikroskop-Optik befestigt sind, 3 schematically in a simplified representation of an arrangement as in 2 however, the cameras are attached to the patient pad and detect sensing structures attached to the microscope optics,

4 schematisch den unteren Teil eines Gehäuses der Mikroskop-Optik, wobei vier Kameras Erfassungsstrukturen an verschiedenen Seiten des Gehäuses erfassen, 4 schematically the lower part of a housing of the microscope optics, wherein four cameras detect detection structures on different sides of the housing,

5 eine schematische Darstellung verschiedener Teilbereiche einer Erfassungsstruktur mit unterschiedlichen Abmessungen und einer zugehörigen Bildwerteverteilung in einem Kamerabild, wobei keine Relativbewegung zwischen Erfassungsstruktur und Kamera stattfindet, 5 a schematic representation of different subregions of a detection structure with different dimensions and an associated image value distribution in a camera image, wherein there is no relative movement between the detection structure and the camera,

6 eine schematische Darstellung der Teilbereiche und der zugehörigen Bildwerteverteilung wie in 5, wobei jedoch eine Relativbewegung zwischen Erfassungsstruktur und Kamera stattfindet, 6 a schematic representation of the sub-areas and the associated image value distribution as in 5 but where there is a relative movement between the detection structure and the camera,

7 zeitliche Verläufe der von zwei Pixeln des Kamerabildes erfassten Strahlungsflussdichte für den links oben in 6 dargestellten Teilbereich der Erfassungsstruktur während der Relativbewegung, 7 temporal curves of the radiation flux density recorded by two pixels of the camera image for the top left in 6 illustrated portion of the detection structure during the relative movement,

8 ein MURA (Modified Uniformly Redundant Array) als Beispiel für einen Teil einer Erfassungsstruktur, deren Kamerabild sich bei geringem Aufwand zur Ermittlung der Geschwindigkeit der Relativbewegung auswerten lässt, 8th a MURA (Modified Uniformly Redundant Array) as an example of a part of a detection structure whose camera image can be evaluated with little effort to determine the speed of the relative movement,

9 schematisch in einer einzigen Darstellung einen Faltungskern als zweidimensionale ortsabhängige Funktion, wobei in einem zentralen Bereich des Faltungskerns für zwei unterschiedliche Fälle einer Teilstruktur dargestellt ist, anhand deren geometrischer Eigenschaften die Geschwindigkeit der Relativbewegung ermittelt werden kann, 9 schematically in a single representation a convolution kernel as a two-dimensional location-dependent function, wherein in a central region of the convolution kernel for two different cases of a substructure is shown, based on the geometric properties of the speed of relative movement can be determined

10 Beispiele für den zeitlichen Verlauf einer Strahlungsflussdichte bei drei unterschiedlichen Bewegungen, wobei durch Integration der Strahlungsmenge über das Belichtungszeitintervall allein nicht zwischen den drei unterschiedlichen Bewegungen unterschieden werden kann, 10 Examples of the temporal course of a radiation flux density with three different movements, whereby integration of the radiation quantity over the exposure time interval alone can not differentiate between the three different movements,

11 integrierte Strahlungsmengen eines Pixels eines Kamerabildes im Laufe der Zeit für die drei Bewegungen, für die in 10 die zeitlichen Verläufe der Strahlung Flussdichte dargestellt sind, 11 integrated radiation quantities of a pixel of a camera image over time for the three movements, for the in 10 the temporal courses of the radiation flux density are shown,

12 integrierte Strahlungsmengen des Pixels ähnlich wie in 11, wobei jedoch die Integrationszeiträume zeitlich gegen die Integrationszeiträume der Darstellung in 11 versetzt sind, 12 integrated amounts of radiation of the pixel similar to in 11 However, where the integration periods in time against the integration periods of the representation in 11 are offset,

13 ein Beispiel für einen einfachen Positionsregler zur Regelung der Position eines beweglichen Teils, 13 an example of a simple position controller for controlling the position of a moving part,

14 eine kaskadierte Regelung zur Regelung der Position und Geschwindigkeit und optional auch der Beschleunigung eines beweglichen Teils (z.B. einer Mikroskop-Optik oder einer Patientenunterlage) als Beispiel für eine Regelung, die den aus einem einzelnen Kamerabild ermittelten Istwert der Geschwindigkeit des beweglichen Teils berücksichtigt, 14 a cascaded control for controlling the position and speed and optionally also the acceleration of a moving part (eg a microscope optics or a patient pad) as an example of a control that takes into account the actual value of the speed of the moving part determined from a single camera image,

15 schematisch Positionen eines kreisförmigen Markers bei einer Bewegung mit konstanter Bewegungsgeschwindigkeit in geradliniger Richtung, einen Verlauf von Bildwerten eines Sensorfeldes entlang der Bewegungsrichtung und einen zeitlichen Intensitätsverlauf während des Belichtungszeitintervalls, wobei die von dem Marker zu dem Sensorfeld einer Kamera übertragene Strahlung hinsichtlich der Intensität nicht zeitlich variiert wird, 15 schematically positions of a circular marker in a movement with constant moving speed in a straight line, a course of image values of a sensor field along the direction of movement and a temporal intensity curve during the exposure time interval, wherein the transmitted from the marker to the sensor array of a camera radiation with respect to the intensity does not vary over time becomes,

16 eine schematische Darstellung für einen Fall wie in 15, wobei der Marker jedoch eine Bewegung in geradliniger Richtung mit abnehmender Geschwindigkeit ausführt, 16 a schematic representation of a case as in 15 However, the marker performs a movement in a straight line direction with decreasing speed,

17 eine schematische Darstellung für einen Fall wie in 15 und 16, wobei jedoch der Marker eine Bewegung in geradliniger Richtung ausführt, die sich während des Belichtungszeitintervalls umkehrt, d.h. die Orientierung der Bewegung ändert sich während des Belichtungszeitintervalls, 17 a schematic representation of a case as in 15 and 16 however, the marker performs a rectilinear motion that reverses during the exposure time interval, ie the orientation of the movement changes during the exposure time interval,

18 eine schematische Darstellung für einen Fall wie in 17, wobei jedoch die Intensität der von dem Marker zu dem Sensorfeld der Kamera übertragenen Strahlung während des Belichtungszeitintervalls mit konstanter Steigung abnimmt, 18 a schematic representation of a case as in 17 however, the intensity of radiation transmitted from the marker to the sensor array of the camera decreases during the constant pitch exposure time interval,

19 den sinusförmigen zeitlichen Verlauf der Intensitäten von Strahlungsanteilen in drei verschiedenen Spektralbereichen und 19 the sinusoidal time course of the intensities of radiation components in three different spectral ranges and

20 den Intensitätsverlauf von Strahlung bei einer pseudozufälligen Variation des Intensitätsniveaus. 20 the intensity profile of radiation in a pseudo-random variation of the intensity level.

1 zeigt ein Operationsmikroskopiesystem 1 sowie einen auf einer Patientenunterlage 15 liegenden Patienten 16 in schematischer Seitenansicht. Dabei kann es sich z.B. um ein Operationsmikroskopiesystem handeln, das von der Carl Zeiss Meditec GmbH unter der Bezeichnung OPMI PENTERO 900 vertrieben wird. Das Operationsmikroskopiesystem weist einen Unterbau 2 auf, der auf dem Boden des Operationsraumes stehen kann und optional mit nicht dargestellten Rollen oder Rädern versehen sein kann, um den Unterbau 2 auf dem Boden zu verfahren. Im Unterbau 2 sind vorzugsweise alle elektronischen Komponenten zum Betrieb des Operationsmikroskopiesystems 1 angeordnet, wie z.B. eine Steuerung 4 zum Steuern von nicht dargestellten Antrieben. Die Steuerung kann insbesondere durch einen Computer mit Computerprogrammen realisiert sein. Zusätzlich kann der Computer auch die Regelung der in 1 nicht näher dargestellten Mikroskop-Optik des Operationsmikroskopiesystems 1 ausführen, um die Mikroskop-Optik relativ zum Patienten 16 oder zur Patientenunterlage 15 in konstanter Relativposition zu halten. 1 shows a surgical microscope system 1 and one on a patient pad 15 lying patients 16 in a schematic side view. This may be, for example, a surgical microscopy system marketed by Carl Zeiss Meditec GmbH under the name OPMI PENTERO 900. The surgical microscopy system has a substructure 2 on, which can stand on the floor of the operating room and can optionally be provided with rollers or wheels, not shown, to the substructure 2 to move on the ground. In the substructure 2 are preferably all electronic components for operating the surgical microscope system 1 arranged, such as a controller 4 for controlling drives, not shown. The control can be realized in particular by a computer with computer programs. In addition, the computer can also control the in 1 not shown microscope optics of the surgical microscope system 1 Perform the microscope optics relative to the patient 16 or to the patient pad 15 to keep in constant relative position.

Am Unterbau 2 kann optional ein Bildschirm und/oder Display angeschlossen sein, über die der Chirurg oder die Bedienperson des Operationsmikroskopiesystems 1 Informationen über den Betriebszustand, die Bedienmöglichkeiten und/oder die mittels der Mikroskop-Optik abgebildeten Bilder wahrnehmen kann. Ferner kann an den Unterbau zumindest eine Interaktionseinrichtung angeschlossen sein, um es dem Chirurgen oder der Bedienperson zu ermöglichen, mit dem Operationsmikroskopiesystem zu interagieren. Z.B. kann auf diese Weise die Position und/oder Ausrichtung der Mikroskop-Optik manuell gesteuert werden. Beispiele für Interaktionseinrichtungen sind eine Tastatur, ein Joystick, ein Fußschalter und ein Touchscreen. At the substructure 2 Optionally, a display and / or display may be connected via which the surgeon or operator of the surgical microscopy system 1 Information about the operating state, the operating options and / or can perceive the images displayed by the microscope optics. Furthermore, at least one interaction device may be connected to the substructure to allow the surgeon or the operator to interact with the surgical microscopy system. For example, in this way the position and / or orientation of the microscope optics can be controlled manually. Examples of interaction devices include a keyboard, a joystick, a footswitch, and a touchscreen.

Das Operationsmikroskopiesystem 1 weist einen Träger 3 in Form eines Stativs auf. Zu dem Träger 3 gehören ein höhenverstellbarerer Teleskoparm 6, ein erster Arm 7 und ein zweiter Arm 8, an dem wiederum eine Aufhängung 9 angeordnet ist. Die Aufhängung 9 weist ihrerseits eine Verbindung 10, einen Schwenkarm 11 und ein Haltestück 12 auf, wobei am Haltestück das Operationsmikroskop 5 angeordnet ist. The surgical microscope system 1 has a carrier 3 in the form of a tripod. To the carrier 3 include a height-adjustable telescopic arm 6 , a first arm 7 and a second arm 8th on which in turn a suspension 9 is arranged. The suspension 9 in turn has a connection 10 , a swivel arm 11 and a holding piece 12 on, on the holding piece the surgical microscope 5 is arranged.

Der erste Arm 7 ist an einem Ende um eine in 1 nicht dargestellte in senkrechter Richtung durch den Teleskoparm 6 verlaufende erste Achse drehbar gelagert. An seinem anderen Ende ist wiederum ein Ende eines zweiten Arms 8 um eine zur ersten Achse parallele zweite Achse drehbar gelagert. Somit bilden der erste Arm und der zweite Arm einen Gelenkmechanismus, der es ermöglicht, das Operationsmikroskop 5 in einer Ebene parallel zum Boden des Operationsraums an eine gewünschte Position zu bringen. Weiterhin erlaubt der Teleskoparm 6 eine Bewegung des Trägers und des daran angeordneten Operationsmikroskops 5 in vertikaler Richtung. Ferner erlaubt die Aufhängung 9 eine Drehbewegung des Operationsmikroskops 5 um drei Drehachsen. Die erste Drehachse verläuft vertikal in Längsrichtung der Verbindung 10. Die zweite Drehachse verläuft horizontal in Längsrichtung des Schwenkarmes 11. Die dritte Drehachse verläuft senkrecht zur Längsachse des Schwenkarms (d.h. in der in 1 gezeigten Position senkrecht zur Figurenebene) im Übergangsbereich zwischen dem Schwenkarm 11 und dem Haltestück 12. The first arm 7 is at one end about one in 1 not shown in the vertical direction by the telescopic arm 6 extending first axis rotatably mounted. At its other end is again an end of a second arm 8th rotatably mounted about a second axis parallel to the first axis. Thus, the first arm and the second arm form a hinge mechanism that allows the surgical microscope 5 in a plane parallel to the floor of the operating room to a desired position. Furthermore, the telescopic arm allows 6 a movement of the carrier and the operating microscope arranged thereon 5 in the vertical direction. Furthermore, the suspension allows 9 a rotary movement of the surgical microscope 5 around three axes of rotation. The first axis of rotation extends vertically in the longitudinal direction of the connection 10 , The second axis of rotation runs horizontally in the longitudinal direction of the swivel arm 11 , The third axis of rotation is perpendicular to the longitudinal axis of the pivot arm (ie in the in 1 shown position perpendicular to the plane of the figure) in the transition region between the swivel arm 11 and the holding piece 12 ,

Bewegungen entsprechend den zuvor beschriebenen Freiheitsgraden der Bewegung werden durch zugeordnete Antriebe mit Motoren (z.B. Linearmotoren oder Drehmotoren) angetrieben. Sie werden insbesondere von der Steuerung 4 über in dem Stativ verlegte Steuerleitungen (nicht dargestellt) gesteuert. Zusätzlich können Positions- und/oder Drehwinkelgeber an den Gelenken vorgesehen sein. Allerdings kann auf solche Signalgeber auch verzichtet werden, wenn eine Positionssteuerung oder Positionsregelung oder andere Bewegungssteuerung oder Bewegungsregelung unter Berücksichtigung des erfindungsgemäßen Verfahrens zur Geschwindigkeitsermittlung mit optionaler zusätzlicher Positionsermittlung zurückgegriffen wird. Movements according to the above-described degrees of freedom of movement are driven by associated drives with motors (eg linear motors or rotary motors). They are used in particular by the controller 4 controlled by control cables (not shown) laid in the stand. In addition, position and / or rotary encoder can be provided on the joints. However, it is also possible to dispense with such signal transmitters if position control or position regulation or other motion control or motion control is used with consideration of the speed determination method according to the invention with optional additional position determination.

Die in 2 und 3 dargestellten Teildarstellungen der Anordnung in 1 stellen mögliche Ausführungsformen der Erfindung dar. Sie können auch miteinander kombiniert sein, d.h. Erfassungsstrukturen können sowohl mit dem Operationsmikroskop 5 als auch mit dem Patienten 16 und/oder der Patientenunterlage 15 verbunden sein. Entsprechendes gilt für Kameras, die die Erfassungsstrukturen in jeweils zumindest einem Aufzeichnungsbild erfassen. In the 2 and 3 shown partial representations of the arrangement in 1 represent possible embodiments of the invention. They can also be combined with each other, ie detection structures can both with the surgical microscope 5 as well as with the patient 16 and / or the patient's pad 15 be connected. The same applies to cameras that capture the detection structures in at least one recording image.

In 2 sind von dem Stativ lediglich die Verbindung 10, der Schwenkarm 11 und das Haltestück 12 dargestellt, wobei schematisch auch ein Antrieb 18 im Bereich des Übergangs zwischen der Verbindung 10 und dem Schwenkarm 11 dargestellt ist, welcher die Drehbewegung des Schwenkarms 11 um die erste Drehachse anzutreiben. Der Antrieb 18 ist über eine gepunktet dargestellte Steuerleitung mit einer Regelung 19 verbunden, die z.B. die Steuerung 4 aus 1 aufweisen kann, welche im Unterbau 2 angeordnet ist. Die Regelung 19 ist außerdem über ebenfalls gepunktet dargestellte Signalleitungen mit zwei Kameras 23, 24 verbunden, welche über eine Halterung 22 mit dem Operationsmikroskop 5 verbunden sind. Über die Signalleitungen erhält die Regelung 19 während des Betriebes der Regelung wiederholt Kamerabilder, die die Kameras 23, 24 von jeweils einer Erfassungsstruktur 28, 29 in ihrem Erfassungsbereich aufnehmen. Dabei kann jede Kamera 28, 29 wiederholt, in kurzen zeitlichen Abständen oder über unmittelbar ohne Abstand aufeinander folgende Zeitintervalle Aufzeichnungsbilder (d.h. Kamerabilder) von der jeweiligen Erfassungsstruktur 28, 29 aufnehmen und über die Signalleitung an die Regelung 19 übermitteln. In 2 are only the connection of the tripod 10 , the swivel arm 11 and the holding piece 12 shown, wherein schematically also a drive 18 in the area of the transition between the connection 10 and the swivel arm 11 is shown, which the rotational movement of the pivot arm 11 to drive the first axis of rotation. The drive 18 is via a dotted control line with a control 19 connected, for example, the controller 4 out 1 may have, which in the substructure 2 is arranged. The regulation 19 is also via dotted signal lines with two cameras 23 . 24 connected, which has a holder 22 with the surgical microscope 5 are connected. The control receives over the signal lines 19 during operation of the scheme repeated camera images, the cameras 23 . 24 each of a collection structure 28 . 29 in their coverage. Every camera can do this 28 . 29 repeatedly, at short time intervals or on immediately without a distance successive time intervals recording images (ie camera images) of the respective detection structure 28 . 29 record and via the signal line to the scheme 19 to transfer.

Schematisch ist in 2 und entsprechend auch in 3 die Mikroskop-Optik 21 des Operationsmikroskops 5 dargestellt. Sie erfasst einen zu erfassenden Objektbereich, in dem sich zumindest ein Körperbereich des Patienten 16 befindet. Die Ränder der Erfassungsbereiche der Mikroskop-Optik 21 sowie der Kameras 23, 24 sind durch gestrichelte Linien in 2 und entsprechend auch in 3 schematisch dargestellt. Schematically is in 2 and accordingly also in 3 the microscope optics 21 of the surgical microscope 5 shown. It detects an object region to be detected, in which at least one body region of the patient 16 located. The edges of the detection areas of the microscope optics 21 as well as the cameras 23 . 24 are indicated by dashed lines in 2 and accordingly also in 3 shown schematically.

Im Ausführungsbeispiel oberhalb der Mikroskop-Optik 21 befindet sich eine Sensormatrix 20 zur Aufnahme von Bildern des Objektbereichs. Durch eine nicht dargestellte Signalleitung werden die Bilder z.B. zum Unterbau 2 des Operationsmikroskopiesystems 1 übertragen, um für den Chirurgen oder die Bedienperson visuell wahrnehmbar dargestellt zu werden. Dabei kann zusätzlich eine Augmentierung der dargestellten Bildinformation sattfinden. In the embodiment above the microscope optics 21 there is a sensor matrix 20 for taking pictures of the object area. By a signal line, not shown, the images are for example to the substructure 2 of the surgical microscope system 1 transmitted to be visually perceptible to the surgeon or operator. In addition, an augmentation of the displayed image information can be found.

In dem in 2 dargestellten Ausführungsbeispiel sind am Patienten zwei Erfassungsstrukturen 28, 29 angeordnet. Sie sind schematisch als Kreuze dargestellt. Dabei kann es sich um jede geeignete Erfassungsstruktur handeln. Z.B. können, wie noch näher beschrieben wird, Linienmuster oder Anordnungen von kreisförmigen Markern als Erfassungsstruktur verwendet werden. Bereits beschrieben wurden zahlreiche weitere mögliche Ausgestaltungen, einschließlich selbstleuchtender Marker oder Strukturen. In the in 2 illustrated embodiment are two sensing structures on the patient 28 . 29 arranged. They are shown schematically as crosses. This can be any suitable detection structure. For example, as will be described later, line patterns or arrays of circular markers may be used as the detection structure. Numerous other possible embodiments have already been described, including luminescent markers or structures.

Während des Betriebes der in 2 und auch entsprechend in 3 dargestellten Anordnungen erfassen die Kameras 23, 24 jeweils zumindest ein Aufzeichnungsbild der von ihr erfassen Erfassungsstruktur 28, 29 und wird aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur eine Geschwindigkeit einer Relativbewegung der Kamera 23, 24 und damit des Operationsmikroskops 5 einerseits und der Erfassungsstruktur 28, 29 andererseits ermittelt. During operation of the in 2 and also in accordance with 3 arrangements shown capture the cameras 23 . 24 in each case at least one recording image of the detection structure that it detects 28 . 29 and, from differences of the at least one recorded image to the actual appearance of the detecting structure, becomes a speed of relative movement of the camera 23 . 24 and the surgical microscope 5 on the one hand, and the collection structure, on the other 28 . 29 on the other hand.

In 3 ist ein Ausführungsbeispiel dargestellt, bei dem die Kameras 23, 24 über zusätzliche Stützen 35, 36 mit der Patientenunterlage 15 verbunden sind. Die von ihnen erfassten Erfassungsstrukturen 28, 29 sind an der Halterung 22 befestigt. Insbesondere kann es sich bei den Erfassungsstrukturen 28, 29 in 3 um selbstleuchtende Erfassungsstrukturen handeln. Dies stört den Chirurgen während der Operation nicht, da die Beleuchtung von oben in Richtung der Kameras gerichtet ist. Optional kann sie auch in Richtung Operationsbereich gerichtet sein und so den Operationsbereich zusätzlich beleuchten. In 3 an embodiment is shown in which the cameras 23 . 24 about additional supports 35 . 36 with the patient pad 15 are connected. The collection structures they cover 28 . 29 are on the bracket 22 attached. In particular, it may be in the collection structures 28 . 29 in 3 to act as self-luminous collection structures. This does not disturb the surgeon during the operation, as the illumination is directed from the top towards the cameras. Optionally, it can also be directed in the direction of the surgical area and thus additionally illuminate the surgical area.

Die Ausführungsbeispiele der 2 und 3 dienen dazu, die zwei verschiedenen Grundprinzipien der Anordnungen von Erfassungsstruktur und Kamera an den relativ zueinander beweglichen Teilen oder Anordnungen von Teilen und Patient zu veranschaulichen. Wie bereits erwähnt, sind Kombinationen möglich. Auch sind hinsichtlich der Ausrichtung, Art der Befestigung, Anzahl der Kameras und Anzahl der Erfassungsstrukturen zahlreiche weitere Modifikationen möglich. Z.B. kann eine andere Anzahl als zwei Erfassungsstrukturen vorhanden sein. Gleiches gilt für die Anzahl der Kameras. Ferner kann zumindest eine Kamera im Fall der Befestigung am Operationsmikroskop die Mikroskop-Optik für die Abbildung und Aufzeichnung des von ihr erfassten Erfassungsbereichs nutzen. Es kann sich im Erfassungsbereich der Kamera oder der Kameras jeweils mehr als eine Erfassungsstruktur befinden. Die Erfassungsstrukturen müssen im grundsätzlichen Fall der 3 nicht an der Patientenunterlage oder am Patienten angeordnet sein, sondern können auch an anderen relativ zur Patientenunterlage ruhenden Teilen des Operationsraums befestigt sein. The embodiments of the 2 and 3 serve to illustrate the two different basic principles of the sensing structure and camera arrangements on the relatively movable parts or patient parts or arrangements. As already mentioned, combinations are possible. Also, many other modifications are possible in terms of alignment, type of mounting, number of cameras and number of detection structures. For example, there may be a different number than two detection structures. The same applies to the number of cameras. Furthermore, at least one camera, in the case of attachment to the surgical microscope, can use the microscope optics for the imaging and recording of the detection area covered by it. There may be more than one detection structure in the detection area of the camera or cameras. The collection structures must in the basic case of 3 can not be arranged on the patient pad or on the patient, but can also be attached to other resting relative to the patient pad parts of the operating room.

In 4 ist als Variante eine Anordnung mit vier Kameras 43a, 43b, 43c, 43d dargestellt, die über eine oder mehrere nicht dargestellte Tragstruktur(en) ortsfest im Operationsraum mit dem Operationsmikroskop und damit mit der Mikroskop-Optik verbunden sind. 4 zeigt schematisch und vereinfacht, dass sich am Gehäuse des Operationsmikroskops 5 eine Anordnung mit einer Vielzahl von Markern 41 befinden kann. Aus der vereinfachten Darstellung sind in 4 lediglich im Vordergrund und rechts an dem Gehäuse Marker 41 erkennbar. Es befinden sich jedoch weitere Marker links und im Hintergrund an dem Gehäuse. Abhängig von ihrem Blickwinkel beobachtet und erfasst jede Kamera 43 zumindest die Marker 41 an einem oder zwei der im Ausführungsbeispiel ebenen Oberflächenbereiche des Gehäuses. In 4 is a variant of an arrangement with four cameras 43a . 43b . 43c . 43d represented, which are connected via one or more support structure, not shown, stationary in the operating room with the surgical microscope and thus with the microscope optics. 4 shows schematically and simplified that on the housing of the surgical microscope 5 an arrangement with a multiplicity of markers 41 can be located. From the simplified representation are in 4 only in the foreground and to the right of the case marker 41 recognizable. However, there are more markers left and in the background on the housing. Depending on their point of view, each camera observes and captures 43 at least the markers 41 at one or two of the surface areas of the housing which are planar in the exemplary embodiment.

Bei den in 2, 3 und 4 dargestellten Anordnungen wird die Geschwindigkeit, der zeitliche Verlauf und/oder die Orientierung der Bewegung und optional auch die Position und/oder Ausrichtung des beweglichen Teils (der Mikroskop-Optik bzw. des Patienten oder der Patientenunterlage) beispielsweise wie folgt festgestellt. Die Kameras nehmen wiederholt, z.B. mit einer Taktfrequenz von 100 Hz, Bilder ihres Erfassungsbereichs auf. Jedes Bild erhält einen Zeitstempel, d.h. der Zeitpunkt der Aufnahme des jeweiligen Kamerabildes wird dem Kamerabild zugeordnet und z.B. in einem gemeinsamen Datensatz mit den Bilddaten abgespeichert. At the in 2 . 3 and 4 The arrangements shown, the speed, the time course and / or the orientation of the movement and optionally also the position and / or orientation of the movable part (the microscope optics or the patient or the patient pad), for example, as follows. The cameras repeatedly record images of their detection range, eg with a clock frequency of 100 Hz. Each image is given a time stamp, ie the time of the recording of the respective camera image is assigned to the camera image and stored, for example, in a common data set with the image data.

Insbesondere aus zum gleichen Zeitpunkt aufgenommenen Kamerabildern mehrerer der Kameras wird die Geschwindigkeit, der zeitliche Verlauf und/oder die Orientierung der Bewegung und optional auch die Position und/oder Ausrichtung des beweglichen Teils innerhalb seines Bewegungsbereichs festgestellt. Jedes einzelne auszuwertende Kamerabild wird optional einer Vorbearbeitung unterzogen, in der derjenige Bildbereich des Kamerabildes ermittelt wird, in dem sich zumindest eine Erfassungsstruktur des beweglichen Teils (z.B. ein charakteristisches Merkmal oder ein Marker) befindet. In diesem Fall werden lediglich die Bilddaten des ermittelten Bereiches des Kamerabildes weiter zum Zweck der Feststellung der Geschwindigkeit, des zeitlichen Verlaufs und/oder der Orientierung der Bewegung und optional auch der Position und/oder Ausrichtung des beweglichen Teils ausgewertet. Diese Vorbearbeitung findet z.B. innerhalb der jeweiligen Kamera statt, die das Kamerabild aufgenommen hat, und wird z.B. von einer Recheneinrichtung der Kamera durchgeführt. Auch der nächste Verarbeitungsschritt, nämlich die Bestimmung der Geschwindigkeit, des zeitlichen Verlaufs und/oder der Orientierung der Bewegung und optional auch der Position und/oder Ausrichtung der zumindest einen Erfassungsstruktur, die in dem Kamerabild erfasst ist, in Bezug auf ein Koordinatensystem der Kamera (bei dem es sich insbesondere um ein zweidimensionales in der Bildebene des Kamerabildes liegendes Koordinatensystem handeln kann), kann dezentral ausgeführt werden, z.B. durch die erwähnte Recheneinrichtung der Kamera. Alternativ ist es jedoch auch möglich, die zum gleichen Zeitpunkt aufgenommenen Kamerabilder mehrerer Kameras und/oder die nicht zum gleichen Zeitpunkt aufgenommenen Kamerabilder mehrerer Kameras, die jedoch dieselbe oder annähernd dieselbe Position und/oder Ausrichtung des beweglichen Teils erfasst haben, gemeinsam von einer zentralen Auswertungseinrichtung des Operationsmikroskopiesystems auswerten zu lassen. Dies ist insbesondere dann sinnvoll, wenn Kamerabilder verschiedener Kameras dieselbe Erfassungsstruktur oder dieselben Erfassungsstrukturen erfassen. Bei der Recheneinrichtung kann es sich beispielsweise um ein oder mehrere Mikroprozessoren und/oder FPGA (Field Programmable Gate Array) handeln. In particular from camera images of several of the cameras recorded at the same time, the speed, the time course and / or the orientation of the movement and optionally also the position and / or orientation of the movable part are detected within its movement range. Each individual camera image to be evaluated is optionally subjected to pre-processing, in which the image region of the camera image in which there is at least one detection structure of the movable part (for example a characteristic feature or a marker) is determined. In this case, only the image data of the determined region of the camera image are further evaluated for the purpose of determining the speed, the time course and / or the orientation of the movement and optionally also the position and / or orientation of the movable part. This pre-processing is e.g. within the respective camera which has taken the camera image, and is e.g. performed by a computing device of the camera. Also, the next processing step, namely the determination of the speed, the time course and / or the orientation of the movement and optionally also the position and / or orientation of the at least one detection structure, which is detected in the camera image, with respect to a coordinate system of the camera ( which may in particular be a two-dimensional coordinate system lying in the image plane of the camera image), can be executed decentrally, eg by the mentioned computing device of the camera. Alternatively, however, it is also possible for the camera images of a plurality of cameras recorded at the same time and / or the camera images of a plurality of cameras not captured at the same time but having the same or approximately the same position and / or orientation of the movable part to be jointly from a central evaluation device of the surgical microscopy system. This is particularly useful when camera images of different cameras capture the same detection structure or the same detection structures. The computing device can be, for example, one or more microprocessors and / or FPGA (Field Programmable Gate Array).

Bei der Feststellung der Geschwindigkeit, des zeitlichen Verlaufs und/oder der Orientierung der Bewegung und optional auch der Position und/oder Ausrichtung des beweglichen Teils aus dem oder den Kamerabildern wird insbesondere die Kenntnis der geometrischen Eigenschaften der Erfassungsstruktur genutzt. Z.B. kann es sich bei der Erfassungsstruktur um eine Erfassungsstruktur mit kreisförmigem oder rechteckförmigem Außenrand handeln, wobei die Fläche der Erfassungsstruktur innerhalb ihrer Umrandung nicht optisch homogen ist, d.h. über den Verlauf ihrer Fläche hat die Erfassungsstruktur eine optische Struktur. Es kann daher aus dem Bild der strukturierten Fläche auf die Geschwindigkeit, den zeitlichen Verlauf und/oder die Orientierung der Bewegung und optional auch auf die Position und/oder Ausrichtung der Erfassungsstruktur und somit auf die des damit verbundenen beweglichen Teils geschlossen werden. When ascertaining the speed, the time course and / or the orientation of the movement and optionally also the position and / or orientation of the movable part from the camera image or images, the knowledge of the geometric properties of the detection structure is used in particular. For example, the detection structure may be a detection structure having a circular or rectangular outer edge, the surface of the detection structure not being optically homogeneous within its boundary, i. over the course of its surface, the detection structure has an optical structure. It can therefore be concluded from the image of the structured surface on the speed, the time course and / or the orientation of the movement and optionally also on the position and / or orientation of the detection structure and thus on the associated movable part.

Die Kenntnis über die zumindest eine erfasste Erfassungsstruktur erlaubt es, aufgrund von geometrischen Überlegungen aus dem zumindest einen Kamerabild festzustellen, wie die Erfassungsstruktur im Bewegungsbereich des beweglichen Teils positioniert und/oder ausgerichtet ist. Z.B. wird eine Erfassungsstruktur mit kreisförmig umlaufendem Rand im Kamerabild im Allgemeinen als eine Struktur abgebildet, die einen umlaufenden Rand einer Ellipse hat. Z.B. durch Feststellung der Lage und Länge der Hauptachsen der Ellipse in dem Kamerabild kann der Blickwinkel der Kamera bezüglich der Erfassungsstruktur und die Entfernung der Kamera zur Erfassungsstruktur festgestellt werden. Vorzugsweise enthält die zumindest eine in dem Kamerabild oder den Kamerabildern erfasste Erfassungsstruktur redundante Information, sodass die Position und/oder Ausrichtung der Erfassungsstruktur nicht lediglich anhand eines Strukturmerkmals, sondern anhand einer Mehrzahl von Strukturmerkmalen durchgeführt werden kann. Dadurch wird die Sicherheit bei der Bestimmung der Position und/oder Ausrichtung des beweglichen Teils erhöht. Dies gilt auch bezüglich der Auswertung mehrerer Kamerabilder, die in demselben Bewegungszustand des beweglichen Teils zumindest eine Erfassungsstruktur aus verschiedenen Blickrichtungen erfasst haben. The knowledge of the at least one detected detection structure makes it possible, on the basis of geometric considerations, to determine from the at least one camera image how the detection structure is positioned and / or aligned in the movement region of the movable part. For example, a circular edge detection structure in the camera image is generally depicted as a structure having a circumferential edge of an ellipse. For example, by detecting the position and length of the major axes of the ellipse in the camera image, the angle of view of the camera with respect to the detection structure and the distance of the camera to the detection structure can be determined. Preferably, the at least one detection structure detected in the camera image or camera images contains redundant information, such that the position and / or orientation of the detection structure is based not only on a structural feature but on a Plurality of structural features can be performed. This increases the safety in determining the position and / or orientation of the movable part. This also applies with regard to the evaluation of a plurality of camera images which have detected at least one detection structure from different viewing directions in the same movement state of the movable part.

Die Feststellung der Abbildungsgeometrie von Kamera und beweglichem Teil, z.B. mit Berechnung des Blickwinkels und der Entfernung aus der Geometrie der abgebildeten Erfassungsstruktur, stellt jedoch nicht die einzige mögliche Vorgehensweise dar. Aus der Bildverarbeitung sind andere Verfahren bekannt. Z.B. kann durch Vergleichen der in dem Kamerabild abgebildeten Erfassungsstruktur mit simulierten und/oder vorher aufgenommenen Bildern die Position und/oder Ausrichtung der Erfassungsstruktur im Bewegungsbereich ermittelt werden. Z.B. kann jedem der simulierten oder vorher aufgenommenen Bilder die entsprechende Position und/oder Ausrichtung zugeordnet sein. Durch Ermittlung des korrekten Vergleichsbildes wird daher die Position und/oder Ausrichtung festgestellt. The determination of the imaging geometry of camera and movable part, e.g. however, calculation of the viewing angle and distance from the geometry of the imaged registration structure is not the only possible approach. Other methods are known from image processing. For example, By comparing the detection structure imaged in the camera image with simulated and / or previously acquired images, the position and / or orientation of the detection structure in the movement region can be determined. For example, Each of the simulated or previously recorded images may be assigned the appropriate position and / or orientation. By determining the correct comparison image, therefore, the position and / or orientation is determined.

Insbesondere wenn Marker der Erfassungsstruktur(en) jeweils eine individuelle Struktur haben oder auf andere Weise für die Kamera erkennbar individuell gestaltet sind, kann bereits aus der Identifizierung der in dem Kamerabild erfassten Erfassungsstruktur und aus der Kenntnis über die Ausrichtung des Erfassungsbereichs der Kamera Information über die ungefähre Position und/oder Ausrichtung des beweglichen Teils gewonnen werden. In particular, if markers of the detection structure (s) each have an individual structure or are otherwise individually designed for the camera, information about the camera can already be obtained from the identification structure captured in the camera image and from the knowledge of the alignment of the camera's coverage area Approximate position and / or orientation of the movable part can be obtained.

Anders als in 2 dargestellt kann eine Vielzahl von Erfassungsstrukturen im Operationsraum angeordnet sein und können die Kameras abhängig von ihrer Position und auch abhängig von ihrer Ausrichtung verschiedene der Erfassungsstrukturen mit ihren Aufzeichnungsbildern erfassen. Der Erfassungsbereich der Kameras ist in diesem Fall so klein, dass nicht alle Erfassungsstrukturen gleichzeitig erfasst werden können. Im Vergleich zu Erfassungsbereichen, die sich über größere Raumwinkeln erstrecken, nimmt die jeweilige erfasste Erfassungsstruktur daher einen größeren Teil des aufgenommenen Kamerabildes ein und es kann daher prinzipiell eine feinere Auflösung und genauere Feststellung der Geschwindigkeit des beweglichen Teils bei gleichzeitiger Feststellung der Position und/oder Ausrichtung des beweglichen Teils anhand des identifizierten Markers erzielt werden und/oder die Anzahl der Pixel der Kamerabilder reduziert werden, sodass insbesondere mit höherer Wiederholfrequenz Kamerabilder aufgenommen werden können. Unlike in 2 a plurality of detection structures can be arranged in the operating room and the cameras can detect different of the detection structures with their recording images, depending on their position and also on their orientation. The detection range of the cameras in this case is so small that not all detection structures can be detected simultaneously. Therefore, as compared to detection areas extending over larger solid angles, the respective detected detection structure occupies a larger portion of the captured camera image, and therefore, in principle, a finer resolution and more accurate detection of the speed of the movable portion can be achieved while detecting the position and / or orientation of the movable part can be achieved on the basis of the identified marker and / or the number of pixels of the camera images can be reduced so that camera images can be recorded, in particular with a higher repetition frequency.

Anhand von 5 bis 7 wird an vereinfachten Beispielen erläutert, welche Auswirkungen eine Relativbewegung eines ersten Teils (zum Beispiel der Mikroskop-Optik oder in einem anderen Fall des Patienten oder der Patientenunterlage) und eines zweiten Teils (des Patienten oder der Patientenunterlage oder im anderen Fall der Mikroskop-Optik) und allgemein auch Relativbewegungen beliebiger Teile haben, wenn eine Kamera mit einem der Teile gekoppelt ist und ein Kamerabild des anderen Teils aufnimmt. Gemäß 5 können Teilbereiche (oben in der Figur durch vier Rechtecke mit unterschiedlicher Breite dargestellt) einer Binärstruktur mit unterschiedlichen Ausdehnungen, das heißt Teilbereiche eines beweglichen Teils und insbesondere der Erfassungsstruktur betrachtet werden. In dem vereinfachten Beispiel werden eindimensionale Teilbereiche der Binärstruktur betrachtet, deren Abmessungen in Breitenrichtung (von links nach rechts in der Figur) ein, zwei, drei und vier (im Allgemeinen n) Bild-Pixel betragen. Für den Fall, dass es sich bei den Teilbereichen um Strahlung reflektierende oder emittierende Bereiche einer ansonsten nicht reflektierenden oder emittierenden Struktur handelt, beschreibt 5 darunter den örtlichen Verlauf von Bildwerten von entsprechenden Pixeln des Kamerabildes, das die Teilbereiche erfasst. Die Bildwerte entsprechen unter Berücksichtigung der optischen Eigenschaften der erfassten Teilbereiche und der Abbildung einer maximal möglichen Sättigung S (maximal möglicher Wert der Integration der auf das jeweilige Pixel einfallenden Strahlung über die Belichtungszeit), wenn die Belichtungszeit (Integrationszeit) der Kamera entsprechend gewählt wird. Voraussetzung für das Auftreten des skizzierten Bildwerteverlaufes ist, dass das Objekt während der Bildaufnahme nicht bewegt wird. Based on 5 to 7 is explained in simplified examples, which effects a relative movement of a first part (for example, the microscope optics or in another case of the patient or the patient pad) and a second part (of the patient or the patient pad or in the other case the microscope optics) and in general also have relative movements of any parts when a camera is coupled to one of the parts and takes a camera image of the other part. According to 5 For example, partial areas (shown at the top in the figure by four rectangles with different widths) of a binary structure with different dimensions, that is to say partial areas of a movable part and in particular the detection structure, can be considered. In the simplified example, one-dimensional portions of the binary structure are considered whose dimensions in the width direction (from left to right in the figure) are one, two, three, and four (generally n) image pixels. In the case that the subregions are radiation-reflecting or emitting regions of an otherwise non-reflecting or emitting structure 5 including the local history of image values of corresponding pixels of the camera image, which captures the subregions. Taking into account the optical properties of the detected subregions and the image of a maximum possible saturation S, the image values correspond to the maximum possible integration of the radiation incident on the respective pixel over the exposure time if the exposure time (integration time) of the camera is selected accordingly. Prerequisite for the appearance of the sketched image value course is that the object is not moved during the image acquisition.

6 veranschaulicht die Verhältnisse, wenn sich das Objekt (hier die Binärstruktur) zum Zeitpunkt Null schlagartig in Bewegung setzt, sich während der Integrationszeit mit konstanter Geschwindigkeit um ein Pixel im Bildraum nach rechts verschiebt (die Position wird durch gestrichelte Rechtecke symbolisiert), und dann wiederum schlagartig zur Ruhe kommt. Unter den Teilbereichen sind wiederum die örtlichen Verläufe der Sättigung S bzw. die Bildwerteverläufe der entsprechenden n Kamerapixel dargestellt. 6 illustrates the relationships when the object (in this case the binary structure) suddenly starts to move at time zero, shifts to the right during the constant-speed integration time by one pixel in the image space (the position is symbolized by dashed rectangles), and then abruptly comes to rest. Among the subregions, the local profiles of the saturation S or the image value profiles of the corresponding n camera pixels are again shown.

In 7 ist die Strahlungsflussdichte Φ für zwei der Kamerapixel p1 und p2 im Verlaufe der Zeit dargestellt. Das Belichtungszeitintervall beginnt dabei zum Zeitpunkt t1 und endet zum Zeitpunkt t2. 7 stellt den Fall lediglich des ein Pixel großen Teilbereichs links in 6 dar. Die Strahlungsflussdichte, die das Pixel p1 empfängt, befindet sich bis zum Beginn des Belichtungszeitintervalls zum Zeitpunkt t1 auf konstantem Niveau und nimmt während des Belichtungszeitintervalls linear auf den Wert 0 ab. Gleichzeitig nimmt die Strahlungsflussdichte Φ des zweiten Pixels p2 vom Zeitpunkt t1 linear ansteigend bis zum Zeitpunkt t2 auf dasselbe Niveau zu, das zuvor die Strahlungsflussdichte auf das Pixel p1 hatte. In 7 For example, the radiation flux density Φ for two of the camera pixels p1 and p2 is shown over time. The exposure time interval begins at time t1 and ends at time t2. 7 sets the case of only the one-pixel portion to the left in 6 The radiation flux density which the pixel p1 receives is constant until the beginning of the exposure time interval at time t1 Level and decreases linearly to the value 0 during the exposure time interval. At the same time, the radiation flux density Φ of the second pixel p2 increases linearly from time t1 to time t2 to the same level that previously had the radiation flux density on the pixel p1.

Aus dem Verlauf der Strahlungsflussdichte Φ für die Pixel p1 und p2 kann die ausgeführte Bewegung ermittelt werden. Allerdings liefert der jeweilige Bildwert der Pixel p1 und p2 wie 6 zeigt denselben Wert, da über das Integrationszeitintervall integriert wird und der zeitliche Verlauf während dieses Zeitintervalls nicht bekannt ist. Anders ist dies jedoch für die örtlichen Bildwerteverläufe in 6 für die breiteren Teilbereiche. Da sich im mittleren örtlichen Bereich während des gesamten Belichtungszeitintervalls ein Strahlung reflektierender und/oder emittierender Teilbereich befindet, ist die Sättigung S dort maximal. An den Rändern der Bildwerteverläufe bzw. Sättigungskurven ist der Wert jedoch geringer. Es hat eine Verschmierung der Kanten stattgefunden, die sich in Bewegungsrichtung an den Enden der Teilbereiche befinden. Diese Information kann nun ausgewertet werden, um die Geschwindigkeit der Bewegung zu bestimmen. Bereits die Länge der Bereiche von Pixeln n, die Strahlung empfangen und während des Belichtungszeitintervalls integriert haben, ergibt den Betrag der konstanten Geschwindigkeit oder im Allgemeinen den mittleren Betrag der Geschwindigkeit während des Belichtungszeitintervalls. Im dargestellten Ausführungsbeispiel hat sich der Teilbereich um ein Pixel weiterbewegt und ist daher die Länge des Bereichs der belichteten Pixel bzw. der dargestellten nicht verschwindenden Abschnitte der Sättigungskurve größer als im Fall der 5, und zwar um genau ein Pixel. Die Geschwindigkeit ergibt sich daher durch Division der Längenvergrößerung zwischen den Fällen der 5 und der 6, dividiert durch das Belichtungszeitintervall. Die Information in 5 entspricht Kenntnissen über die mit dem Kamerabild erfasste Erfassungsstruktur. Insbesondere ist die Breite der vier oben in 5 dargestellten rechteckigen Teilbereiche vorab bekannt. Diese Teilbereiche können durch an sich bekannte Verfahren der Bildverarbeitung trotz der Verschmierungen von Kanten im Kamerabild identifiziert werden. Dabei kann bei wiederholter Aufnahme und Auswertung von Kamerabildern der Kamera, insbesondere von Frame zu Frame, eine Objektverfolgung stattfinden, sodass der Aufwand für die Identifizierung der bekannten Teilbereiche oder Strukturen gering ist. From the course of the radiation flux density Φ for the pixels p1 and p2, the executed movement can be determined. However, the respective image value of pixels p1 and p2 provides like 6 shows the same value because it is integrated over the integration time interval and the timing over this time interval is unknown. However, this is different for the local image gradients in 6 for the broader sections. Since there is a radiation-reflecting and / or emitting partial area in the middle local area during the entire exposure time interval, the saturation S there is maximal. At the edges of the image value curves or saturation curves, however, the value is lower. There has been a smearing of the edges, which are located in the direction of movement at the ends of the sections. This information can now be evaluated to determine the speed of the movement. Already the length of the regions of pixels n which received radiation and integrated during the exposure time interval gives the magnitude of the constant velocity or, in general, the mean amount of velocity during the exposure time interval. In the exemplary embodiment illustrated, the partial area has moved on by one pixel and therefore the length of the area of the exposed pixels or of the non-disappearing portions of the saturation curve shown is greater than in the case of FIG 5 , by exactly one pixel. The speed therefore results by dividing the increase in length between the cases of 5 and the 6 , divided by the exposure time interval. The information in 5 corresponds to knowledge about the acquisition structure recorded with the camera image. In particular, the width of the four top in 5 shown rectangular sections known in advance. These subareas can be identified by per se known methods of image processing despite the smearing of edges in the camera image. In this case, with repeated recording and evaluation of camera images of the camera, in particular from frame to frame, an object tracking take place, so that the effort for the identification of the known subregions or structures is small.

Um auf die oben begonnene Betrachtung der Übertragungsfunktion der Abbildung zurückzukommen, ändert sich die Übertragungsfunktion mit der Bewegung. Daher enthält die Übertragungsfunktion die Information über die Bewegung. Insbesondere kann die Änderung der Übertragungsfunktion bei bewegtem und nicht bewegtem Objekt (Erfassungsstruktur) betrachtet werden oder unmittelbar aus der Übertragungsfunktion bei bewegtem Objekt die Bewegung ausgewertet werden. Dabei kann insbesondere auf eine Frequenzanalyse, insbesondere nach Transformation in den Frequenzraum (insbesondere Fouriertransformation) und/oder mathematische Faltung zurückgegriffen werden. Neben einer Auswertung von Bildkontrasten, z.B. an Strukturkanten (darauf wurde bereits eingegangen), kommt daher auch eine mathematische Faltung der Bildwerteverteilung des Kamerabildes zur Auswertung der Bewegung infrage und wird auch bevorzugt. Insbesondere abhängig von dem gewählten Verfahren der Auswertung und/oder abhängig von der zu erwartenden Geschwindigkeit der Bewegung kann die Erfassungsstruktur hergestellt werden, die von der Kamera erfasst wird. Beispiele für geeignete Erfassungsstrukturen wurden bereits genannt. Z.B. als Erfassungsstrukturen mit Kanten kommen Siemenssterne infrage. To return to the above consideration of the transfer function of the map, the transfer function changes with the movement. Therefore, the transfer function contains the information about the movement. In particular, the change in the transfer function can be viewed with the moving and non-moving object (detection structure) or the motion can be evaluated directly from the moving object transfer function. In particular, a frequency analysis, in particular after transformation into the frequency domain (in particular Fourier transformation) and / or mathematical convolution can be used. In addition to an evaluation of image contrasts, e.g. At structural edges (this has already been discussed), therefore, a mathematical convolution of the image value distribution of the camera image for evaluating the movement in question and is also preferred. In particular, depending on the selected method of evaluation and / or depending on the expected speed of movement, the detection structure can be produced, which is detected by the camera. Examples of suitable collection structures have already been mentioned. For example, Siemens stars are suitable as detection structures with edges.

Im Folgenden werden Ausführungsbeispiele für die Ermittlung der Geschwindigkeit aus einem Faltungskern beschrieben. Hierzu wird zunächst eine zugrundeliegende mathematische Beschreibung der Abbildung der Erfassungsstruktur auf das Kamerabild als Faltung der Intensitätsverteilung der Erfassungsstruktur mit einem Faltungskern beschrieben. Embodiments for determining the velocity from a convolution kernel will now be described. For this purpose, an underlying mathematical description of the mapping of the detection structure to the camera image as a convolution of the intensity distribution of the detection structure with a convolution kernel will first be described.

In den folgenden Formeln und Gleichungen kommt die Grauwertverteilung GW des unter Umständen durch die Kameraaufnahme verschmierten Bildes der Erfassungsstruktur vor. Dies ist jedoch lediglich ein Beispiel für die Verteilung der Bildwerte. Z.B. können alternativ oder zusätzlich die Farbverteilung, z.B. Farbwerte und Farbintensitäten, berücksichtigt werden. Im eindimensionalen Fall, in dem die Grauwertverteilung GW lediglich von einer Ortskoordinate x abhängt, kann die Grauwertverteilung GW (x) durch folgende Integralgleichung (1) beschrieben werden:

Figure DE102016217628A1_0002
In the following formulas and equations, the gray-scale distribution GW of the image of the detection structure, possibly smeared by the camera image, occurs. However, this is just one example of the distribution of image values. For example, alternatively or additionally, the color distribution, eg color values and color intensities, can be taken into account. In the one-dimensional case in which the gray value distribution GW depends only on a spatial coordinate x, the gray value distribution GW (x) can be described by the following integral equation (1):
Figure DE102016217628A1_0002

Gleichung (1) geht als Beispiel vereinfachend davon aus, dass die Relativgeschwindigkeit vx von Erfassungsstruktur und Kamera in Richtung der x-Achse während des Belichtungsintervalls konstant ist und insbesondere senkrecht zur optischen Achse der Abbildung verläuft. Die Geschwindigkeit vx hängt über die Beziehung sx = x + vx t mit der Zeitvariable t und dem durch die Bewegung zurückgelegten Weg sx in Richtung der x-Achse zusammen:

Figure DE102016217628A1_0003
As an example, equation (1) simplifies the assumption that the relative velocity v x of the detection structure and the camera in the x-axis direction is constant during the exposure interval and in particular runs perpendicular to the optical axis of the image. The velocity v x is related to the time variable t and the distance s x traveled by the movement s x in the direction of the x-axis via the relationship s x = x + v × t:
Figure DE102016217628A1_0003

T ist die Länge des Belichtungszeitintervalls, d.h. des Zeitintervalls, über das hinweg die Abbildung der Erfassungsstruktur auf das Kamerabild stattgefunden hat. I (sx) ist die Intensitätsverteilung der nicht verschmierten, abzubildenden Erfassungsstruktur. Die letzte Zeile der Gleichung (1) enthält die Ersetzung des Integrals durch eine vereinfachte Schreibweise der Faltung des Faltungskerns k mit der Intensitätsverteilung I. Die Faltung ist abhängig von der Ortsvariablen x. Für den Faltungskern k gilt Folgendes:

Figure DE102016217628A1_0004
T is the length of the exposure time interval, ie the time interval over which the imaging structure has been imaged onto the camera image. I (s x ) is the intensity distribution of the non-smeared, imaged acquisition structure. The last line of equation (1) contains the replacement of the integral by a simplified notation of the convolution of the convolution kernel k with the intensity distribution I. The convolution is dependent on the spatial variable x. For the convolution kernel k the following applies:
Figure DE102016217628A1_0004

Dabei ist ℓ ist eine Ortsvariable in Richtung der x-Achse. Where ℓ is a spatial variable in the direction of the x-axis.

Im Folgenden wird der entsprechende zweidimensionale Fall beschrieben. Die Relativbewegung findet mit einer bezüglich Richtung und Betrag konstanten Geschwindigkeit in einer x-y-Ebene statt und verläuft senkrecht zur optischen Achse der Abbildung. Die Geschwindigkeit wird daher eindeutig durch ihre Komponenten vx in Richtung der x-Achse und vy in Richtung der senkrecht zur x-Achse verlaufenden y-Achse beschrieben. sy ist dementsprechend der von der Zeitvariable t abhängige, seit Beginn des Belichtungsintervalls zurückgelegte Weg in y-Richtung. Die Funktion δ ist die Dirac-Funktion auch Delta-Distribution genannt. Gleichung (4) lautet demnach:

Figure DE102016217628A1_0005
Figure DE102016217628A1_0006
The following describes the corresponding two-dimensional case. The relative movement takes place with a velocity constant in direction and magnitude in an xy plane and runs perpendicular to the optical axis of the image. The velocity is therefore clearly described by its components v x in the direction of the x-axis and v y in the direction of the y-axis extending perpendicular to the x-axis. Accordingly, s y is the distance in the y-direction, which is dependent on the time variable t and has been traveled since the beginning of the exposure interval. The function δ is the Dirac function also called delta distribution. Equation (4) reads as follows:
Figure DE102016217628A1_0005
Figure DE102016217628A1_0006

Da es sich um den zweidimensionalen Fall handelt, sind zwei Laufvariablen definiert, nämlich ℓx in x-Richtung und ℓy in y-Richtung. Der Faltungskern k ist dementsprechend durch folgende Gleichung (5) beschrieben:

Figure DE102016217628A1_0007
Since this is the two-dimensional case, two variables are defined, namely ℓ x in the x direction and ℓ y in the y direction. The convolution kernel k is accordingly described by the following equation (5):
Figure DE102016217628A1_0007

Wiederum lässt sich die Grauwertverteilung daher als Faltung eines Faltungskerns mit der Intensitätsverteilung der nicht verschmierten Erfassungsstruktur ausdrücken: GW(x, y) = (k·I)(x, y) (6) Again, the gray value distribution can therefore be expressed as a convolution of a convolution kernel with the intensity distribution of the non-blurred detection structure: GW (x, y) = (k * I) (x, y) (6)

Wie die Gleichung (1), letzte Zeile, Gleichung (6) für vereinfachte Fälle konstanter Geschwindigkeit senkrecht zur optischen Achse ausdrücken, kann die Bildwerteverteilung des Bildes der von der Kamera erfassten Erfassungsstruktur durch die Faltung eines Faltungskerns k mit der Intensitätsverteilung ausgedrückt werden. Da die Intensitätsverteilung die Erfassungsstruktur in dem ursprünglichen, nicht aufgrund einer Bewegung verschmierten Zustand beschreibt und da sich der durch die Bewegung im Kamerabild verschmierte Zustand aus der Bildwerteverteilung ergibt, enthält der Faltungskern k die Information über die Geschwindigkeit der Relativbewegung, die zu dem verschmierten Kamerabild geführt hat. As expressed in equation (1), last line, equation (6) for simplified cases of constant velocity perpendicular to the optical axis, the image value distribution of the image of the detection structure detected by the camera can be expressed by the convolution of a convolution kernel k with the intensity distribution. Since the intensity distribution describes the detection structure in the original non-motion blurred state, and since the blurred state by the movement in the camera image results from the image distribution, the convolution kernel k contains the information about the speed of the relative movement that led to the blurred camera image Has.

Für den Faltungskern k kann nun eine Länge definiert werden, die über die Belichtungszeit bzw. Integrationszeit und die Abbildungsgeometrie mit der Geschwindigkeit zusammenhängt. Durch die Bestimmung der Länge kann daher die Geschwindigkeit ermittelt werden. Dies setzt selbstverständlich zunächst die Ermittlung des Faltungskerns voraus. Darauf wird noch näher eingegangen. Insbesondere kann die Erfassungsstruktur so gewählt werden, dass in dem zentralen örtlichen Bereich des Faltungskerns, der nicht den geometrischen Rand des Faltungskerns bildet, eine geometrische Teilstruktur des Faltungskerns enthalten ist und die Länge dieser Teilstruktur die genannte Länge ist, welche der Größe und/oder Richtung der Geschwindigkeit entspricht. For the convolution kernel k, a length can now be defined which is related to the speed over the exposure time or integration time and the imaging geometry. By determining the length, therefore, the speed can be determined. Of course, this first requires the determination of the convolution kernel. This will be discussed in more detail. In particular, the detection structure can be selected such that in the central local area of the convolution kernel, which does not form the geometric boundary of the convolution kernel, a geometric substructure of the convolution kernel is included and the length of this substructure is that length, which is the size and / or direction corresponds to the speed.

Im Folgenden werden Beispiele für Erfassungsstrukturen beschrieben, bei denen diese Teilstruktur lediglich der Größe eines einzigen Pixels des Kamerabildes entspricht, wenn die Geschwindigkeit null ist (und wenn ansonsten keine Abbildungsfehler oder andere Einflüsse existieren, die zu einer Verschmierung der Erfassungsstruktur im Kamerabild führen). Wenn dagegen der Betrag der Geschwindigkeit nicht null ist, vergrößert sich die Teilstruktur, sodass deren Größe durch die genannte Länge beschrieben werden kann, die dem Betrag und/oder der Richtung der Geschwindigkeit entspricht. Z.B. kann die Teilstruktur der Größe von zwei einander benachbarten Pixeln des Kamerabildes entsprechen. Dies bedeutet, dass vom Beginn des Belichtungsintervalls bis zum Ende des Belichtungsintervalls eine Bewegung stattgefunden hat, die zum Versatz der Erfassungsstruktur aus Sicht der Kamera um ein Kamerapixel geführt hat. Dies gilt insbesondere für den Fall konstanter Geschwindigkeit. Die Teilstruktur ergibt sich in dem zentralen Bereich aus dem Unterschied der Bildwerte (z.B. Grauwerte oder Farbwerte) zu der Umgebung der Teilstruktur im zentralen Bereich. Z.B. wird die Teilstruktur durch konstante Bildwerte in einem zusammenhängenden örtlichen Teilbereich des zentralen Bereichs des Faltungskerns definiert, während außerhalb der Teilstruktur im zentralen Bereich konstante Bildwerte auf einem anderen Bildwerteniveau als für die Teilstruktur liegen. Insbesondere kann durch geeignete Normierung der Faltung erreicht werden, dass die Bildwerte der Teilstruktur den Wert „1“ in einem möglichen Bildwerteintervall von [0, 1] haben, während der zentrale Bereich außerhalb der Teilstruktur durch konstante, niedrigere Bildwerte beschrieben wird, z.B. durch die Bildwerte „0“. Da der Faltungskern aber insbesondere als Ortsfunktion interpretiert werden kann, deren Skalierung der Matrix des Kamerabildes entspricht, ist der zentrale Bereich des Faltungskerns insbesondere entsprechend der Unterteilung des Kamerabildes in Pixel digital strukturiert. An den Rändern der Teilstruktur des Faltungskerns kann es daher Unschärfen geben, d.h. Bildwerte zwischen dem an sich konstanten Niveau der Bildwerte der Teilstruktur und dem an sich konstanten Niveau der Bildwerte außerhalb der Teilstruktur. In diesem Fall kann dennoch die Größe der Teilstruktur und damit insbesondere die genannte Länge ermittelt werden. Verfahren zur Bestimmung der Größe der Teilstruktur sind aus der Bildverarbeitung für die Identifizierung von Objekten, die im Kamerabild unscharfe Ränder haben, bereits bekannt. In dieser Beschreibung wird daher nicht näher darauf eingegangen. In the following, examples of detection structures are described in which this substructure only corresponds to the size of a single pixel of the camera image when the speed is zero (and otherwise there are no aberrations or other influences that lead to smearing of the detection structure in the camera image). If, on the other hand, the amount of speed is not zero, the substructure increases so that its size can be described by said length corresponding to the magnitude and / or direction of the velocity. For example, the substructure may correspond to the size of two adjacent pixels of the camera image. This means that from the beginning of the exposure interval to the end of the exposure interval, a movement has taken place which led to a camera pixel for the displacement of the detection structure as seen by the camera. This is especially true in the case of constant speed. The substructure results in the central area from the difference of the image values (eg gray values or color values) to the environment of the substructure in the central area. For example, the substructure is defined by constant image values in a contiguous local subregion of the central region of the convolution kernel, while outside the substructure in the central region, constant image values lie at a different image value level than for the substructure. In particular, it can be achieved by suitable normalization of the convolution that the image values of the substructure have the value "1" in a possible image value interval of [0, 1], while the central region outside the substructure is described by constant, lower image values, for example by Image values "0". However, since the convolution kernel can be interpreted in particular as a spatial function whose scaling corresponds to the matrix of the camera image, the central region of the convolution kernel is in particular corresponding to the subdivision of the camera image into pixels digitally structured. There may therefore be blurring at the edges of the substructure of the convolution kernel, ie image values between the constant level of the image values of the substructure and the constant level of image values outside the substructure. In this case, nevertheless, the size of the substructure and thus in particular the length mentioned can be determined. Methods for determining the size of the substructure are already known from image processing for the identification of objects that have blurred edges in the camera image. Therefore, this description will not be discussed in more detail.

Wie bereits erwähnt, kann nicht nur der Betrag der Geschwindigkeit, sondern auch deren Richtungsverlauf und/oder zeitliche Änderung aus der Geometrie der Teilstruktur im zentralen Bereich des Faltungskerns ermittelt werden. Insbesondere führt eine Relativbewegung mit nicht konstantem Betrag der Geschwindigkeit zu Bildwerten in der Teilstruktur des Faltungskerns, die nicht konstant sind. Die Bildwerte der den Pixeln im Kamerabild entsprechenden örtlichen Bereiche (im Folgenden der Einfachheit wegen ebenfalls Pixel genannt) können daher z.B. lediglich in einem zentralen Bereich der Teilstruktur konstant hohe oder konstant niedrige Werte haben. Es ist aber auch möglich, dass aufgrund der Art der Zunahme oder Abnahme des Geschwindigkeitsbetrages auch in einem zentralen Bereich der Teilstruktur keine konstanten Werte von Pixeln zu finden sind, d.h. es gibt keine zwei benachbarten Pixel, deren Bildwerte gleich groß sind. Dennoch ist die Bestimmung der Größe der Teilstruktur z.B. mit den erwähnten bereits bekannten Verfahren möglich. Aus dem Verlauf der Bildwerte entlang der Erstreckung der Teilstruktur kann außerdem Information über den zeitlichen Verlauf der Geschwindigkeit während des Belichtungszeitintervalls gewonnen werden. Dem liegt die Erkenntnis zugrunde, dass sich die Pixel der Teilstruktur des Faltungskerns wie die Pixel des Kamerabildes verhalten: Bei einer langsameren Bewegung erhält das jeweilige Pixel des Kamerabildes mehr Strahlungsintensität als bei langsamerer Bewegung, wenn ein entsprechender Ortsbereich mit hoher Strahlungsemission und/oder hoher Strahlungsreflektivität auf dieses Pixel abgebildet wird und ein entsprechend der Bewegung nachfolgender örtlicher Bereich der Erfassungsstruktur eine geringere Strahlungsemission und/oder Strahlungsreflektivität hat. In dem vereinfachten Beispiel der obigen Gleichungen (1) und (5) entspricht der Erstreckung der Teilstruktur in Bewegungsrichtung die Laufvariable l, auch wenn die Beispiele für den vereinfachten Fall der konstanten Geschwindigkeit beschrieben wurden. Es lässt sich aber auch für einen entsprechenden Faltungskern bei nicht konstanter Geschwindigkeit eine entsprechende Laufvariable definieren, die lediglich in dem Bereich der Erstreckung der Teilstruktur nicht verschwindende Werte hat. Insbesondere für den Fall, dass sich auch die Richtung der Bewegung während des Belichtungszeitintervalls ändert, soll hiermit nochmals klargestellt werden, dass die Länge der Teilstruktur des Faltungskerns im Allgemeinen nicht eine in gerader Richtung zu bestimmende Länge ist, sondern eine dem durch die Bewegung zurückgelegten Weg entsprechende Länge ist. Auf ein Beispiel wird noch anhand von 9 eingegangen. As already mentioned, not only the magnitude of the velocity but also its directional course and / or temporal change can be determined from the geometry of the substructure in the central region of the convolution kernel. In particular, a relative movement with non-constant amount of velocity leads to image values in the substructure of the convolution kernel which are not constant. The image values of the local regions corresponding to the pixels in the camera image (also referred to below as pixels for the sake of simplicity) can therefore have constant high or constant low values, for example, only in a central region of the substructure. However, it is also possible that due to the nature of the increase or decrease in the speed amount, even in a central region of the substructure, no constant values of pixels can be found, ie there are no two adjacent pixels whose image values are the same. Nevertheless, the determination of the size of the substructure is possible, for example, with the mentioned already known methods. From the course of the image values along the extension of the substructure, it is also possible to obtain information about the temporal course of the speed during the exposure time interval. This is based on the knowledge that the pixels of the substructure of the convolution kernel behave like the pixels of the camera image: with a slower movement, the respective pixel of the camera image receives more radiation intensity than with slower motion, if a corresponding location area with high radiation emission and / or high radiation reflectivity is imaged onto this pixel and a corresponding subsequent movement of the local area of the detection structure has a lower radiation emission and / or radiation reflectivity. In the simplified example of the above equations (1) and (5), the extension of the partial structure in the moving direction corresponds to the running variable ℓ, although the examples of the simplified case of the constant speed have been described. However, it is also possible for a corresponding convolution kernel to define a corresponding run variable at non-constant speed, which has non-vanishing values only in the region of the extent of the substructure. In particular, in the event that the direction of the movement changes during the exposure time interval, it should again be made clear that the length of the substructure of the convolution kernel is generally not a length to be determined in a straight direction but a path traveled by the movement corresponding length is. An example is still based on 9 received.

Bestimmte Klassen von Erfassungsstrukturen können auf einfache Weise hergestellt werden und ermöglichen eine besonders einfache und Rechenzeit sparende Bestimmung des Faltungskerns. Auch können die sich daraus ergebenden Teilstrukturen der Faltungskerne besonders einfach insbesondere in der oben beschriebenen Weise ausgewertet werden. Eine solche Klasse von Erfassungsstrukturen sind die sogenannten MURA (Modified Uniformly Redundant Arrays), die die Eigenschaft haben, dass sie gefaltet mit ihrer inversen Struktur einen einzigen Intensitätspeak ergeben. Dem entspricht eine mathematische Delta-Funktion. Insbesondere wird die Größe der Strukturen des verwendeten insbesondere binären MURA so auf die Geometrie der Abbildung und Auflösung des Kamerabildes abgestimmt, dass der Intensitätspeak einem einzigen Pixel des Kamerabildes entspricht. Der entsprechende örtliche Bereich der genannten Teilstruktur im zentralen Bereich des Faltungskerns hat daher die Abmessungen eines einzigen Pixels, wenn keine Verschmierung und keine Abbildungsfehler auftreten. Nicht nur für MURA wird diese Abstimmung der Geometrie der Abbildung und der Bildauflösung der Kamera bevorzugt. Certain classes of detection structures can be easily manufactured and allow a particularly simple and time-saving determination of the convolution kernel. Also, the resulting substructures of the convolution cores can be particularly easily evaluated in particular in the manner described above. One such class of collection structures is the so-called Modified Uniformly Redundant Arrays (MURA), which have the property of giving a single peak of intensity with their inverse structure folded. This corresponds to a mathematical delta function. In particular, the size of the structures of the particular binary MURA used is matched to the geometry of the image and resolution of the camera image such that the intensity peak corresponds to a single pixel of the camera image. The corresponding local area of said substructure in the central region of the convolution kernel therefore has the dimensions of a single pixel if no smearing and no aberrations occur. Not only for MURA, this coordination of the geometry of the image and the image resolution of the camera is preferred.

Allerdings lässt sich diese Bedingung abhängig von der Art der Bewegungsverfolgung beim Betrieb des Operationsmikroskopiesystems nicht immer aufrechterhalten. Z.B. ändert sich die Geometrie der Abbildung mit der Entfernung der Erfassungsstruktur von der Kamera. In diesem Fall können entsprechende Korrekturen der Entfernung vorgenommen werden und/oder kann die Auswertung der Teilstruktur des Faltungskerns unter Berücksichtigung der veränderten Geometrie der Abbildung vorgenommen werden. Vorzugsweise werden daher die Geometrie der Abbildung und insbesondere die Entfernung der Erfassungsstruktur von der Kamera ermittelt und mit berücksichtigt. However, this condition can not always be maintained depending on the type of motion tracking during operation of the surgical microscopy system. For example, The geometry of the image changes with the distance of the detection structure from the camera. In this case, appropriate corrections of the distance can be made and / or the evaluation of the substructure of the convolution kernel can be made taking into account the changed geometry of the mapping. Preferably, therefore, the geometry of the image and in particular the removal of the detection structure are determined by the camera and taken into account.

Alternativ kommt auch die Klasse der URA (Uniformly Redundant Arrays) für eine einfache Bestimmung und Auswertung des Faltungskerns infrage. URA ergeben mit sich selbst gefaltet einen Delta-Funktions-Peak als Ergebnis. Alternatively, the class of URA (Uniformly Redundant Arrays) comes into question for a simple determination and evaluation of the convolution kernel. URA results in a delta-function peak folded with itself as a result.

Sowohl MURA als auch URA sind insbesondere binäre Strukturen. Z.B. werden sie für die Bestimmung des Faltungskerns so gewählt, dass lediglich die auf das Intervall [0, 1] normierten Bildwerte vorkommen. Ein Beispiel für ein MURA 41 ist in 8 dargestellt. Man erkennt die zum Mittelpunkt der dargestellten Fläche des MURA punktsymmetrische Struktur. Both MURA and URA are binary structures in particular. For example, they are chosen for the determination of the convolution kernel so that only the image values normalized to the interval [0, 1] occur. An example of a MURA 41 is in 8th shown. One recognizes the point-symmetric structure to the center of the represented surface of the MURA.

Im Fall einer Erfassungsstruktur, die mit Barker-Code erstellte Teilstrukturen aufweist, hat der Faltungskern bei der Relativgeschwindigkeit 0 folgende Eigenschaften: In the case of a detection structure which has substructures created with Barker code, the convolution kernel has the following properties at the relative velocity 0:

In Verallgemeinerung der obigen Gleichungen (1) und (6) kann der Faltungskern dadurch ermittelt werden, dass auf die (rechts der genannten Gleichungen stehende) Faltung diejenige Operation angewendet wird, die die Intensitätsverteilung der Erfassungsstruktur eliminiert. Die Art der Operation ist daher insbesondere von der Art oder Klasse der Erfassungsstruktur abhängig. Z.B. bei MURA wird der Ausdruck, der die Faltung des Faltungskerns mit der Intensitätsverteilung der Erfassungsstruktur beschreibt, mit der inversen Erfassungsstruktur gefaltet. Es muss daher lediglich auf die erhaltene Grauwertverteilung die entsprechende Operation angewendet werden und es ergibt sich der Faltungskern k. Im Fall der URA ist dies die Faltung der Bildwerteverteilung mit der Intensitätsverteilung der Erfassungsstruktur. Es ist daher lediglich eine einzige Faltungsoperation erforderlich, um den Faltungskern zu bestimmen. Insbesondere kann, wie bereits erwähnt, auch bei der Auswertung des Faltungskerns ein Abbildungsfehler der Abbildung mitberücksichtigt werden. Insbesondere kann in einer vorab ausgeführten Kalibrierung des Bewegungsmesssystems für zumindest eine Relativposition und vorzugsweise für verschiedene Relativpositionen von Erfassungsstruktur und Kamera jeweils ein Faltungskern bestimmt werden, wenn keine Relativbewegung stattfindet. Durch Auswertung des Faltungskerns kann das Ergebnis des Abbildungsfehlers ermittelt werden und beim späteren eigentlichen Betrieb des Bewegungsmesssystems berücksichtigt werden. In generalization of the above equations (1) and (6), the convolution kernel can be determined by applying to the convolution (to the right of said equations) the operation that eliminates the intensity distribution of the detection structure. The type of operation is therefore dependent in particular on the type or class of the collection structure. For example, in MURA, the term describing the convolution of the convolution kernel with the intensity distribution of the detection structure is convoluted with the inverse detection structure. Therefore, it is only necessary to apply the corresponding operation to the gray value distribution obtained and the convolution kernel k results. In the case of the URA, this is the convolution of the image value distribution with the intensity distribution of the detection structure. Thus, only a single convolution operation is required to determine the convolution kernel. In particular, as already mentioned, an aberration of the image can also be taken into account in the evaluation of the convolution kernel. In particular, a convolution kernel can be determined in each case in a previously executed calibration of the movement measuring system for at least one relative position and preferably for different relative positions of the detection structure and the camera, if no relative movement takes place. By evaluating the convolution kernel, the result of the aberration can be determined and taken into account in the later actual operation of the motion measuring system.

Vorzugsweise setzt sich eine Erfassungsstruktur aus mehreren aneinander grenzenden Teilbereichen zusammen, die in der Art von Kacheln eine Gesamtfläche ohne Lücken ergeben. Ein Beispiel ist die aus drei Zeilen mit je drei Teilbereichen zusammengesetzte Gesamtfläche aus neun Kacheln, die in 9 dargestellt ist. Drei der Kacheln, nämlich die Kacheln in der ersten Zeile, sind mit dem Bezugszeichen 51 bezeichnet. Der Teilbereich bzw. die Kachel im Zentrum der Anordnung ist mit dem Bezugszeichen 51e bezeichnet. Jeder der Teilbereiche wird vorzugsweise durch dasselbe Muster gebildet, sodass die Muster sich aufgrund der Kachelung periodisch wiederholen. Es ist auch möglich, durch Muster und in benachbarten Teilbereichen invertierte Muster solch periodische Strukturen als Erfassungsstruktur zu erzeugen. Die periodischen Strukturen haben den Vorteil, dass Randeffekte aufgrund der endlichen Abmessungen der Erfassungsstruktur bei der Bestimmung des Faltungskerns im zentralen Bereich keine oder lediglich geringe Auswirkungen haben. Abhängig von der Anzahl der zentralen, nicht den Rand der gesamten Erfassungsstruktur ergebenden Muster gibt es ein oder mehrere zentrale Bereiche, in denen jeweils die oben genannte Teilstruktur des Faltungskerns vorhanden ist, welche zur Ermittlung der Relativgeschwindigkeit ausgewertet werden kann. Mehrere solcher zentralen Bereiche können optional gleichzeitig oder nacheinander ausgewertet werden. Dies ermöglicht es insbesondere, die Genauigkeit bei der Ermittlung der Geschwindigkeit zu steigern, wenn noch Randeffekte auch im zentralen Bereich festzustellen sind und/oder wenn sonstige Effekte, wie z.B. statistische Schwankungen der Bildsignale der Kamerasensoren (Rauschen) vorkommen. Preferably, a detection structure is composed of a plurality of adjoining subareas which, in the manner of tiles, give a total area without gaps. An example is the total area of nine tiles composed of three lines with three subregions each 9 is shown. Three of the tiles, namely the tiles in the first row, are identified by the reference numeral 51 designated. The sub-area or the tile in the center of the arrangement is denoted by the reference numeral 51e designated. Each of the partial areas is preferably formed by the same pattern, so that the patterns repeat periodically due to the tiling. It is also possible to generate such periodic structures as a detection structure by patterns and in adjacent subregions inverted patterns. The periodic structures have the advantage that edge effects due to the finite dimensions of the detection structure in the determination of the convolution kernel in the central region have little or no effect. Depending on the number of central patterns that do not result in the edge of the entire detection structure, there are one or more central areas in each of which the above-mentioned partial structure of the convolution kernel exists, which can be evaluated to determine the relative speed. Several such central areas can optionally be evaluated simultaneously or one after the other. This makes it possible, in particular, to increase the accuracy in determining the speed if edge effects are still to be detected in the central area and / or if other effects, such as statistical fluctuations of the image signals of the camera sensors (noise), occur.

Die Darstellung in 9 kann als schematische Darstellung eines Faltungskerns verstanden werden, der sich durch Faltung der Bildwerteverteilung aus einem Kamerabild ergibt. Im zentralen Bereich 51e sind zwei Teilstrukturen 53, 54 dargestellt, die nicht gleichzeitig in demselben Faltungskern zu beobachten sind, sondern die mögliche Varianten der Teilstruktur darstellen. Die Teilstruktur 53 ist z.B. eine geradlinige Struktur, die sich aus von rechts nach links in der Figur hintereinander gereihten Pixeln ergibt. Die Länge l entspricht dem Betrag der Relativgeschwindigkeit unter Berücksichtigung der Geometrie der Erfassungsstruktur und der Geometrie der Abbildung. Auch die Richtung der Bewegung mit der konstanten Geschwindigkeit kann aus der Teilstruktur 53 entnommen werden, falls dies von Interesse ist und nicht bereits durch die Eigenschaften des Operationsmikroskopiesystems bekannt ist. The representation in 9 can be understood as a schematic representation of a convolution kernel resulting from convolution of the image value distribution from a camera image. In the central area 51e are two substructures 53 . 54 shown, which are not simultaneously observed in the same convolution kernel, but represent the possible variants of the substructure. The substructure 53 is, for example, a rectilinear structure that results from right to left in the figure one after the other lined up pixels. The length l corresponds to the amount of relative velocity taking into account the geometry of the detection structure and the geometry of the image. Also, the direction of movement with the constant speed can be from the substructure 53 if this is of interest and not already known by the characteristics of the surgical microscopy system.

Die Teilstruktur 54 weist einen gebogenen Verlauf auf, da die Geschwindigkeit während des Belichtungszeitintervalls ihre Richtung geändert hat. Der gebogene Verlauf entspricht dem gebogenen Weg der Bewegung. Obwohl nicht dargestellt, kann die Länge der Teilstruktur 54 als Länge des gebogenen Verlaufs ermittelt werden. Dadurch wird der Betrag der Geschwindigkeit bzw. der Mittelwert des Betrages der Geschwindigkeit ermittelt. Der gebogene Verlauf enthält die Information über die Bewegungsrichtung. The substructure 54 has a curved shape since the speed has changed direction during the exposure time interval. The curved course corresponds to the curved path of the movement. Although not shown, the length of the substructure may be 54 be determined as the length of the curved course. Thereby, the amount of the speed or the mean value of the amount of the speed is determined. The curved course contains the information about the direction of movement.

Wenn sich die Erfassungsstruktur in einer Ebene erstreckt, die nicht senkrecht zur Abbildung der optischen Achse verläuft, werden die Abbildungen der einzelnen Kacheln, die an sich gleiche Muster aufweisen, als unterschiedliche Muster im Kamerabild abgebildet. Dies kann jedoch insbesondere unter Verwendung von Informationen über die Neigung der Ebene relativ zur optischen Achse vor, während und/oder nach der Auswertung des Kamerabildes berücksichtigt werden. If the detection structure extends in a plane that is not perpendicular to the optical axis, the images of the individual tiles, which have the same pattern per se, shown as different patterns in the camera image. However, this can be taken into account in particular by using information about the inclination of the plane relative to the optical axis before, during and / or after the evaluation of the camera image.

10 zeigt zeitliche Verläufe der Strahlungsflussdichte Φ auf ein Sensorelement der Kamera, welches ein Kamerabild-Pixel erzeugt, wobei die Verläufe für drei unterschiedliche Bewegungen dargestellt sind. Das Kamerapixel enthält die integrierte Information über die durch das Sensorelement empfangene Strahlung über das Belichtungszeitintervall, welches zum Zeitpunkt t1 beginnt und zum Zeitpunkt t2 endet. In allen drei dargestellten Fällen beginnt die Bewegung zum Zeitpunkt t1 und endet zum Zeitpunkt t2. Bis zum Zeitpunkt t1, also bis zum Beginn des Belichtungszeitraums, empfängt das Sensorelement Strahlung bei einer maximalen Strahlungsflussdichte. Durch die Bewegung nimmt die Strahlungsflussdichte jedoch bis zum Ende des Belichtungszeitintervalls zum Zeitpunkt t2 auf 0 ab. Eine erste Bewegung findet mit konstanter Geschwindigkeit während des Belichtungszeitintervalls statt. (durchgezogene Linie des Strahlungsflussdichteverlaufs). Eine zweite Bewegung verläuft im ersten Teil des Belichtungszeitintervalls mit konstanter Geschwindigkeit, stoppt dann und wird gegen Ende des Belichtungszeitintervalls wieder mit konstanter Geschwindigkeit in die gleiche Richtung wie zuvor fortgesetzt (gestrichelte Linie des Strahlungsflussdichteverlaufs). Ferner ist der Strahlungsflussdichteverlauf für eine dritte Bewegung ähnlich der zweiten Bewegung dargestellt, wobei jedoch der Zeitraum der Unterbrechung der Bewegung in der Mitte des Belichtungszeitintervalls größer ist und daher auch der Betrag der Geschwindigkeit zu Beginn und am Ende des Belichtungszeitintervalls größer ist. Dieser dritte Verlauf ist durch eine gepunktete Linie dargestellt. 10 shows temporal curves of the radiation flux density Φ on a sensor element of the camera, which generates a camera image pixel, the progressions are shown for three different movements. The camera pixel contains the integrated information about the radiation received by the sensor element over the exposure time interval, which begins at time t1 and ends at time t2. In all three cases shown, the movement begins at time t1 and ends at time t2. Until the time t1, ie until the beginning of the exposure period, the sensor element receives radiation at a maximum radiation flux density. However, by the movement, the radiation flux density decreases to 0 until the end of the exposure time interval at time t2. A first movement takes place at a constant speed during the exposure time interval. (solid line of Strahlungsflussdichteverlaufs). A second movement proceeds in the first part of the exposure time interval at a constant speed, then stops and is again at constant speed in the same direction as before (end of the exposure time interval) (dashed line of the radiant flux density trace). Further, the radiation flux density trajectory is shown for a third movement similar to the second movement, but the period of interruption of the movement in the middle of the exposure time interval is larger, and therefore the amount of speed at the beginning and at the end of the exposure time interval is larger. This third course is represented by a dotted line.

In allen drei Fällen empfängt das Sensorelement die gleiche Strahlungsmenge. Dies folgt aus der Darstellung in 10 durch Integration der Strahlungsflussdichteverläufe über das Zeitintervall von t1 bis t2. Alle drei Flächen unter den Strahlungsflussdichteverläufen sind gleich groß. Daher kann das Sensorelement und die von ihm gelieferte Information nicht dazu genutzt werden, den Bewegungsverlauf während des Belichtungszeitintervalls zu identifizieren. Dies bezieht sich allerdings lediglich auf den dargestellten idealen Verlauf der Bewegungen, die genau zum Zeitpunkt t1 beginnen und genau zum Zeitpunkt t2 enden. Dies bezieht sich auch auf die Betrachtung lediglich eines einzigen Pixels. Wie bereits ausgeführt wurde, kann anhand der Betrachtung mehrerer Pixel Information über den zeitlichen Verlauf während des Integrationszeitintervalls gewonnen werden. Im Folgenden wird jedoch beschrieben, dass auch bereits die Betrachtung eines einzigen Kamerapixels zu einer Möglichkeit führt, den Informationsgehalt über den Verlauf der Bewegung im Kamerabild insgesamt zu erhöhen. In all three cases, the sensor element receives the same amount of radiation. This follows from the illustration in 10 by integration of the radiation flux density courses over the time interval from t1 to t2. All three surfaces under the Strahlungsflussdichteverläufen are the same size. Therefore, the sensor element and the information provided by it can not be used to identify the course of the movement during the exposure time interval. However, this only relates to the illustrated ideal course of the movements, which start exactly at time t1 and end precisely at time t2. This also applies to the consideration of only a single pixel. As already stated, information about the time course during the integration time interval can be obtained on the basis of the consideration of several pixels. However, it is described below that even the observation of a single camera pixel leads to a possibility to increase the information content overall over the course of the movement in the camera image.

11 zeigt die über ein Belichtungszeitintervall eines Sensorelements integrierte Strahlungsflussdichte ∫ϕ(t)dt. Jeweils zum Ende eines Integrationszeitintervalls zu den Zeitpunkten t1, t2 und t3 ist durch ein kleines dunkles Rechteck der Integrationswert dargestellt, den das Sensorelement liefert. Dabei findet eine Bewegung statt, die dem mit einer durchgezogenen Linie in 10 dargestellten Strahlungsflussdichteverlauf entspricht, d.h. die Geschwindigkeit ist während des Integrationszeitintervalls zwischen den Zeitpunkten t1 und t2 konstant und davor sowie danach null. Daher liegt der Integrationswert zum Zeitpunkt t1 bei dem maximal möglichen Wert. Zum Zeitpunkt t2 liegt der Integrationswert bei 50 % des maximalen Wertes und zum Zeitpunkt t3 (also ein vollständiges Integrationszeitintervall nach dem Ende der Bewegung) liegt der Integrationswert bei null. 11 shows the integrated over a exposure time interval of a sensor element radiation flux density ∫φ (t) dt. At the end of an integration time interval at the times t1, t2 and t3, the integration value provided by the sensor element is represented by a small dark rectangle. In this case, a movement takes place, which with a solid line in 10 Radiation flux density curve shown corresponds to, ie the speed is constant during the integration time interval between the times t1 and t2 and before and after zero. Therefore, the integration value at time t1 is the maximum possible value. At time t2, the integration value is 50% of the maximum value, and at time t3 (that is, a complete integration time interval after the end of the movement), the integration value is zero.

12 zeigt die Integrationswerte bei einer gegenüber 11 modifizierten Situation. Die Modifikation besteht darin, dass zwar nicht die Dauer der Integrationszeitintervalle geändert wurde, jedoch die Zeitpunkte des Beginns und des Endes des jeweiligen Integrationszeitintervalls. Dieselben Resultate würde man erhalten, wenn sich Beginn und Ende des Zeitintervalls der Bewegung mit konstanter Geschwindigkeit verschoben hätten. 12 shows the integration values at one opposite 11 modified situation. The modification is that, although not the duration of the integration time intervals has been changed, but the times of the beginning and the end of the respective integration time interval. The same results would be obtained if the beginning and end of the time interval of the movement had shifted at a constant speed.

Im Folgenden wird auf die Situation eingegangen, dass wie bei 11 der zeitliche Verlauf der Strahlungsflussdichte, die auf das Sensorelement einfällt, durch die durchgezogene Linie in 10 dargestellt ist. Das Belichtungszeitintervall beginnt jedoch immer um ein halbes Zeitintervall versetzt gegenüber der anhand von 11 beschriebenen Situation. Daher liegt der Integrationswert bei der Darstellung in 12 zum Zeitpunkt eines halben Integrationszeitintervalls vor dem Zeitpunkt t1 noch auf dem Maximalwert. Am Ende des nächsten Integrationszeitintervalls, genau in der Mitte zwischen den Zeitpunkten t1 und t2, liegt der Integrationswert aber lediglich um ein Viertel unter dem Maximalwert am Ende des nächsten Integrationszeitintervalls. In der Mitte der Zeitpunkte t2 und t3 liegt der Integrationswert bei einem Viertel des Maximalwertes. Erst am Ende des folgenden Integrationszeitintervalls nach dem Zeitpunkt t3 liegt der Integrationswert bei null, da die Bewegung erst zum Zeitpunkt t2 endet und erst das nach dem Zeitpunkt t3 beendete Integrationszeitintervall ein vollständiges Integrationszeitintervall ist, in dem keine Strahlung empfangen wurde. The following will discuss the situation that as in 11 the time course of the radiation flux density, which is incident on the sensor element, by the solid line in 10 is shown. However, the exposure time interval always starts offset by half a time interval from that of 11 described situation. Therefore, the integration value in the representation is in 12 at the time of half an integration time interval before time t1 still at the maximum value. However, at the end of the next integration time interval, exactly midway between times t1 and t2, the integration value is only one-quarter below the maximum value at the end of the next integration time interval. In the middle of the times t2 and t3, the integration value is one quarter of the maximum value. Only at the end of the following integration time interval after the time t3 is the integration value at zero, since the movement ends only at the time t2 and only after the time t3 ended integration time interval is a complete integration time interval in which no radiation was received.

Wenn dagegen die Bewegung stattfindet, die in 10 dem Verlauf der Strahlungsflussdichte entspricht, der mit einer gestrichelten Linie dargestellt ist, werden zwischen den Zeitpunkten t1 und t3 zwei andere Integrationswerte erhalten, die durch nicht dunkel ausgefüllte Rechtecke in 12 dargestellt sind. Dies liegt daran, dass in dem Integrationszeitintervall, das zwischen den Zeitpunkten t1 und t2 endet, die Strahlungsflussdichte schneller abgefallen ist, jedoch in dem Integrationsintervall, das zwischen den Zeitpunkten t2 und t3 endet, die Strahlungsflussdichte noch nicht so schnell abgefallen ist wie in dem anderen dargestellten Fall mit der durchgezogenen Linie in 10. If, on the other hand, the movement takes place in 10 According to the course of the radiation flux density, which is shown with a dashed line, between the times t1 and t3, two other integration values are obtained, which are indicated by non-darkened rectangles in 12 are shown. This is because in the integration time interval ending between the times t1 and t2, the radiation flux density has dropped faster, but in the integration interval ending between the times t2 and t3, the radiation flux density has not fallen as fast as in the other one illustrated case with the solid line in 10 ,

Daraus kann die Schlussfolgerung gezogen werden, dass die Lage des Integrationszeitintervalls einen Einfluss darauf hat, welche Integrationswerte und damit Bildwerte die einzelnen Sensorelemente der Kameramatrix liefern. From this, it can be concluded that the position of the integration time interval has an influence on which integration values and thus image values supply the individual sensor elements of the camera matrix.

Diese Erkenntnis kann in unterschiedlicher Weise genutzt werden, um den Informationsgehalt über den zeitlichen Verlauf der Bewegung zu erhöhen und durch Auswertung des Kamerabildes oder einer Mehrzahl von Kamerabildern Information über den zeitlichen Verlauf der Bewegung zu ermitteln. Dies ermöglicht insbesondere die einfache Bestimmung von Betrag und Richtung der Geschwindigkeit, das heißt des Geschwindigkeitsvektors. In allen Fällen wird Information durch zumindest eine Kamera erfasst, die über unterschiedliche Integrationszeiträume integrierte Strahlungsmengen enthält. Eine einzige Kamera kann bereits ein Kamerabild liefern, dessen Pixel Integrationswerte von zeitversetzten, aber z.B. gleich langen Integrationszeiträumen sind. Solche Kameras werden auch als sogenannte Kameras mit rollendem Verschluss bezeichnet (englisch: rolling shutter cameras). Bei Verwendung einer einzigen Kamera mit zeitlich versetzten Integrationszeiträumen wird bevorzugt, dass die insgesamt von dem Kamerabild erfasste Erfassungsstruktur in verschiedenen Teilbereichen redundante Information enthält. Z.B. erfasst die Kamera eine erste Hälfte der Erfassungsstruktur mit der oberen Hälfte des Kamerabildes und die zweite Hälfte der Erfassungsstruktur mit der unteren Hälfte des Kamerabildes. Wenn sich die Integrationszeiträume der oberen Hälfte und der unteren Hälfte des Kamerabildes unterscheiden und sich in der ersten Hälfte und der zweiten Hälfte der Erfassungsstruktur redundante Strukturinformation befindet, wird der Informationsgehalt in dem Kamerabild erhöht. Alternativ oder zusätzlich ist es möglich, eine Mehrzahl von Kameras zu verwenden, deren Integrationszeiträume sich unterscheiden. This knowledge can be used in different ways to increase the information content over the time course of the movement and to determine information about the time course of the movement by evaluating the camera image or a plurality of camera images. In particular, this makes it possible to easily determine the magnitude and direction of the velocity, that is to say the velocity vector. In all cases, information is detected by at least one camera that contains integrated amounts of radiation over different integration periods. A single camera can already provide a camera image whose pixels have time-offset, but e.g. are the same length of integration periods. Such cameras are also referred to as so-called rolling shutter cameras (English: rolling shutter cameras). When using a single camera with temporally offset integration periods, it is preferred that the detection structure captured in total by the camera image contains redundant information in different subareas. For example, The camera detects a first half of the detection structure with the upper half of the camera image and the second half of the detection structure with the lower half of the camera image. When the integration periods of the upper half and the lower half of the camera image are different and there are redundant structure information in the first half and the second half of the detection structure, the information content in the camera image is increased. Alternatively or additionally, it is possible to use a plurality of cameras whose integration periods differ.

In allen Fällen können sich die Integrationszeiträume nicht oder nicht lediglich dadurch unterscheiden, dass sie zeitlich gegeneinander versetzt sind. Vielmehr kann sich (auch) die Dauer bzw. Länge der Integrationszeiträume unterscheiden. In all cases, the integration periods can not or not only differ in that they are temporally offset from each other. Rather, the duration or length of the integration periods may (also) differ.

Eine weitere Überlegung verdeutlicht, dass aus einem oder mehreren Kamerabildern mit Bildinformation, die aus unterschiedlichen Integrationszeiträumen der Integration von Strahlung stammt, die Geschwindigkeit der Bewegung und/oder der zeitliche Verlauf der Bewegung ermittelt werden kann. Allgemein formuliert kann daher das Kamerabild Pixel aufweisen, deren Bildwerte jeweils einer über ein Belichtungszeitintervall integrierten Strahlungsmenge entsprechen, wobei sich die Belichtungszeitintervalle verschiedener Pixel des Kamerabildes voneinander unterscheiden und wobei unter Berücksichtigung von Informationen über die unterschiedlichen Belichtungszeitintervalle die Geschwindigkeit der Relativbewegung und/oder Informationen über einen zeitlichen Verlauf der Bewegung ermittelt wird/werden. Bereits aus einem einzigen Kamerabild mit Bildinformation, die aus unterschiedlichen Integrationszeiträumen stammt, kann/können die Orientierung und/oder der zeitliche Verlauf der Bewegung ermittelt werden. A further consideration makes it clear that the speed of the movement and / or the time course of the movement can be determined from one or more camera images with image information which originates from different integration periods of the integration of radiation. In general terms, therefore, the camera image may comprise pixels whose image values each correspond to an amount of radiation integrated over an exposure time interval, the exposure time intervals of different pixels of the camera image differing from each other, and taking into account information about the different exposure time intervals, the speed of the relative movement and / or information about one the time course of the movement is / are determined. Already from a single camera image with image information, which comes from different integration periods, the orientation and / or the time course of the movement can / can be determined.

Wird zum Beispiel eine linienförmige Struktur, die sich quer zur Längserstreckung der Linie bewegt, mit Pixeln aus gegeneinander versetzten Integrationszeiträumen erfasst, ergibt sich ein Versatz der Linie. Nimmt beispielsweise ein erstes Pixel den einen Endabschnitt der Linie über ein erstes Zeitintervall auf, nimmt ein zweites Pixel den mittleren Abschnitt der Linie über ein zweites, gegen das erste Zeitintervall um ein Drittel versetztes Zeitintervall auf und nimmt ein drittes Pixel den anderen Endabschnitt der Linie zu einem dritten, um zwei Drittel gegen das erste Zeitintervall versetztes Zeitintervall auf, ergeben sich in dem gesamten Kamerabild drei Linien, die jeweils einem Drittel den drei Abschnitten der ursprünglichen Linie entsprechen. Unter Berücksichtigung des Zeitversatzes der Zeitintervalle kann die Geschwindigkeit berechnet werden und/oder der zeitliche Verlauf der Geschwindigkeit und/oder die Orientierung der Bewegung ermittelt werden. Je nach Orientierung, unterscheidet sich die Anordnung der drei Linien im Kamerabild. If, for example, a line-shaped structure that moves transversely to the longitudinal extent of the line is detected with pixels from mutually offset integration periods, this results in an offset of the line. For example, if a first pixel occupies the one end portion of the line over a first time interval, a second pixel occupies the middle portion of the line for a second time interval offset from the first time interval by one-third and adopts a third pixel to the other end portion of the line A third time interval offset by two thirds from the first time interval results in three lines in the entire camera image, each corresponding to one third of the three sections of the original line. Taking into account the time offset of the time intervals, the speed can be calculated and / or the time course of the speed and / or the orientation of the movement can be determined. Depending on the orientation, the arrangement of the three lines differs in the camera image.

Daher wird vorzugsweise die Erfassungsstruktur so ausgelegt, dass sie Information (zum Beispiel Kantenverläufe oder eine bekannte Binärstruktur) enthält, die bei unterschiedlichen Zeitintervallen der Strahlungsintegration zur Ermittlung der Geschwindigkeit genutzt werden kann. Z. B. kann durch entsprechende Wahl der Objektinhalte der Erfassungsstruktur erreicht werden, dass die Verschmierung im Kamerabild errechnet werden kann, um anschließend aus dem Versatz in den Teilbereichen (z. B. Zeilen) des Bildes die Geschwindigkeit im zu errechnen. Therefore, preferably, the detection structure is designed to contain information (eg, edge traces or a known binary structure) that can be used at different time intervals of radiation integration to determine the velocity. For example, can be achieved by appropriate selection of the object contents of the detection structure that calculates the smearing in the camera image can then be used to calculate the speed in the offset from the subregions (eg lines) of the image.

Insbesondere ist eine an sich bekannte Digitalkamera verwendbar, die eine Sensormatrix mit zumindest einer Zeile von Sensorelementen hat, deren Integrationswerte nacheinander in der Reihenfolge der Sensorelemente entlang der Zeile aus gelesen werden und als Bildwerten der Pixel des Kamerabildes genutzt werden. Aus der Dauer für das Auslesen der Bildwerte einer Zeile ergibt sich die Zeilengeschwindigkeit. Im Fall einer zweidimensionalen Sensormatrix mit in Zeilen und Spalten angeordneten Sensorelementen können die einzelnen Zeilen (oder alternativ die einzelnen Spalten) nacheinander mit der Zeilengeschwindigkeit ausgelesen werden. Insbesondere kann daher aus dem örtlichen Versatz (d.h. einer Positionsverschiebung) der durch verschiedene Zeilen oder verschiedene Spalten eines zweidimensionalen Kamerabildes erfassten Kamerabildes der Erfassungsstruktur die Geschwindigkeit ermittelt werden. In particular, a digital camera known per se can be used which has a sensor matrix with at least one row of sensor elements whose integration values are successively read in the order of the sensor elements along the line and used as image values of the pixels of the camera image. The duration for reading out the image values of a line results in the line speed. In the case of a two-dimensional sensor matrix with sensor elements arranged in rows and columns, the individual lines (or alternatively the individual columns) can be read out in succession at the line speed. In particular, from the local offset (i.e., a positional shift) of the camera image of the detection structure detected by different rows or different columns of a two-dimensional camera image, the velocity can be determined.

Ein Bild einer Erfassungsstruktur, das von einer einzelnen Zeile von Sensorelementen, aufgenommen wird, kann zunächst nicht von der Geschwindigkeit Null unterschieden werden, wenn sich die Erfassungsstruktur mit der Zeilengeschwindigkeit der Kamera bewegt. Allerdings führt die Bewegung des Objektes (der Erfassungsstruktur) anders als bei einem nicht bewegten Objekt zu einer Verschmierung, abhängig von Geschwindigkeit und Belichtungszeit der einzelnen Sensorelemente. Wie andernorts in dieser Beschreibung beschrieben kann daher die Geschwindigkeit anhand der Verschmierung bzw. Veränderung des Bildes der Erfassungsstruktur gegenüber der nicht bewegten Erfassungsstruktur ermittelt werden. An image of a detection structure taken by a single row of sensor elements can not initially be distinguished from zero velocity as the detection structure moves at the line speed of the camera. However, unlike a non-moving object, the movement of the object (the detection structure) causes smearing, depending on the speed and exposure time of the individual sensor elements. As described elsewhere in this description, therefore, the speed can be determined from the smearing or changing of the image of the detection structure with respect to the non-moving detection structure.

Allgemeiner formuliert wird es daher bevorzugt, die Kenntnis über die unterschiedlichen Integrationszeitintervalle mit der Geschwindigkeitsmessung unter Berücksichtigung der Informationen über die tatsächliche Erscheinung der Erfassungsstruktur zu kombinieren. Insbesondere wird die Erfassungsstruktur daher so konzipiert und hergestellt, dass sie sowohl anhand von Verschmierungen als auch durch Effekte der unterschiedlichen Integrationszeitintervalle eine Ermittlung der Relativbewegung von Kamera und Erfassungsstruktur ermöglichen. More generally, it is therefore preferable to combine the knowledge about the different integration time intervals with the speed measurement taking into account the information about the actual appearance of the detection structure. In particular, the detection structure is therefore designed and manufactured in such a way that it enables a determination of the relative movement of the camera and the detection structure both by smearing and by effects of the different integration time intervals.

Vorteilhaft kann eine Mehrzahl von Kameras, zumindest zwei Kameras, mit insbesondere gleichgroßer Anzahl von Zeilen und Spalten der Sensorelemente und gleicher Zeilengeschwindigkeit verwendet werden. Dabei unterscheidet sich aber bei den verschiedenen Kameras die Reihenfolge, in der die von den Sensorelementen über die individuellen Integrationszeitintervalle aufintegrierten Strahlungsmengen als Bildwerte ausgelesen werden. Zum Beispiel bei einem Auslesen der Bildwerte zweier Kameras kann das Auslesen bei der ersten Kamera mit dem Sensorelement in der ersten Zeile und der ersten Spalte beginnen (oder bei Zeilenkameras mit dem ersten Sensorelement) und kann das Auslesen bei der zweiten Kamera mit dem Sensorelement in der letzten Zeile und der letzten Spalte beginnen (oder bei Zeilenkameras mit dem letzten Sensorelement der Zeile). Handelsübliche Kameras lesen die Bildwerte zeilenweise gleichzeitig aus. In diesem Fall kann das Auslesen bei der ersten Kamera zum Beispiel mit der ersten Zeile und bei der zweiten Kamera mit der letzten Zeile beginnen. Bei einer anderen Ausgestaltung kann das Auslesen im zentralen Bereich der Matrix (z. B. bezüglich der Zeilen und/oder der zweidimensionalen Matrix) gleichzeitig bei beiden oder allen Kameras beginnen, wobei jedoch die Sensorelemente in umgekehrter Reihenfolge ausgelesen werden. Bei zeilenweise gleichzeitigem Auslesen beginnt das Auslesen bei der ersten Kamera zum Beispiel mit der letzten Zeile der ersten Hälfte der Zeilen und bei der zweiten Kamera mit der ersten Zeile der zweiten Hälfte der Zeilen. Das Auslesen findet insbesondere mit gleicher Zeilengeschwindigkeit und bei zweidimensionalen Matrizen Zeile für Zeile nacheinander statt. Dies kann allgemein als gekreuztes Auslesen bezeichnet werden. Dabei sind die Matrizen der Sensorelemente der verschiedenen Kameras insbesondere in gleicher Weise auf die Erfassungsstruktur ausgerichtet, d.h. derselbe oder ungefähr derselbe Bereich der Erfassungsstruktur wird durch das erste Sensorelement der jeweiligen Kamera erfasst. Das gekreuzigte auslesen kann zum Beispiel dadurch auf einfache Weise erreicht werden, dass zwei gleichartige Kameras mit rollierendem Auslesen relativ zueinander mit ihren optischen Achsen um 180° gedreht auf die Erfassungsstruktur ausgerichtet werden. Zum Beispiel können die Kameras zunächst in gleicher Weise auf die Erfassungsstruktur ausgerichtet werden und dann eine der Kameras um 180° um Ihre optische Achse gedreht werden. Advantageously, a plurality of cameras, at least two cameras, with in particular the same number of rows and columns of the sensor elements and the same line speed can be used. In the case of the different cameras, however, the sequence in which the radiation quantities integrated in by the sensor elements over the individual integration time intervals are read out as image values differs. For example, when reading out the image values of two cameras, the readout in the first camera can begin with the sensor element in the first row and the first column (or with line scan cameras with the first sensor element) and can read out in the second camera with the sensor element in the first camera Last line and last column begin (or on line scan cameras with the last sensor element of the line). Commercially available cameras read the image values line by line at the same time. In this case, for the first camera, for example, the reading may begin with the first line and the second line with the last line. In another embodiment, readout in the central region of the matrix (eg, with respect to the lines and / or the two-dimensional matrix) may begin simultaneously at both or all of the cameras, but with the sensor elements being read out in reverse order. In the case of line-by-line simultaneous read-out, reading starts with the first camera, for example with the last line of the first half of the lines, and with the second camera with the first line of the second half of the lines. The readout takes place in particular at the same line speed and in two-dimensional arrays line by line instead of one after the other. This can generally be referred to as crossed readout. In this case, the matrices of the sensor elements of the different cameras are aligned in the same way in particular to the detection structure, i. the same or approximately the same area of the detection structure is detected by the first sensor element of the respective camera. The crucified reading can be achieved, for example, in a simple manner by aligning two similar cameras with rolling read-out relative to one another with their optical axes turned by 180 ° onto the detection structure. For example, the cameras may first be similarly aligned with the detection structure, and then one of the cameras rotated 180 degrees about its optical axis.

Dieses spezielle Beispiel verdeutlicht, dass allein durch Berücksichtigung des örtlichen Versatzes der gleichzeitig aufgenommenen Kamerabilder der beiden Kameras Information über die Relativbewegung aufgenommen wird, die vorzugsweise zur Bestimmung der Geschwindigkeit und/oder zumindest einer anderen klimatischen Größe der Bewegung genutzt wird. This specific example makes it clear that information about the relative movement is recorded solely by taking into account the local offset of the simultaneously recorded camera images of the two cameras, which information is preferably used to determine the speed and / or at least one other climatic variable of the movement.

Insbesondere bei Verwendung von mehr als zwei Kameras wird bevorzugt, dass die Reihenfolge des Auslesens der Sensorelemente sich bei allen Kameras unterscheidet und/oder dass einander entsprechende, denselben Bereich der Erfassungsstruktur erfassende Sensorelemente bei den verschiedenen Kameras zeitversetzt aus gelesen werden. Particularly when using more than two cameras, it is preferred that the order of reading out the sensor elements differs for all cameras and / or that corresponding to one another, the same area of the detection structure detecting sensor elements in the different cameras are read out of time.

Durch die unterschiedliche Reihenfolge des Auslesens wird insbesondere bei mehr als zwei Kameras eine Homogenisierung des Auflösungsvermögens des Kameraensembles bei der Erfassung der Bewegung in unterschiedlichen Raumrichtungen erreicht, so dass in die Objektgeschwindigkeiten in den unterschiedlichen Raumrichtungen mit annähernd gleicher Genauigkeit gemessen werden können. Due to the different order of readout, a homogenization of the resolving power of the camera ensemble is achieved when detecting the movement in different spatial directions, in particular in the case of more than two cameras, so that the object speeds in the different spatial directions can be measured with approximately the same accuracy.

Vorteilhaft ist es, die Erfassungsstruktur derart herzustellen, dass sie keine periodischen Strukturelemente enthält, welche im geplanten Objektgeschwindigkeitsspektrum zu nicht eindeutigen Bildern führen, wie dies z.B. bei einem scheinbaren Rückwärtsdrehen eines vorwärts drehenden Speichenrades mit einer Filmkamera bei entsprechenden wiederholt Frequenzen der Bildaufnahme der Fall ist. It is advantageous to produce the detection structure in such a way that it does not contain any periodic structural elements which lead to ambiguous images in the planned object velocity spectrum, as described e.g. in an apparent reverse rotation of a forward-rotating spoked wheel with a film camera at corresponding repeated frequencies of the image recording is the case.

Der zeitversetzte Betrieb mehrerer Kameras ist auch eine Möglichkeit, die Auflösung der Geschwindigkeitsmessung zu steigern. Alternativ oder zusätzlich ermöglicht dieser zeitversetzte Betrieb eine Bewegungsmessung mit Ermittlung von Tiefeninformation. E The time-shifted operation of several cameras is also a way to increase the resolution of the speed measurement. Alternatively or additionally, this time-shifted operation enables a motion measurement with determination of depth information. e

Eine weitere vorteilhafte Möglichkeit zur Vermeidung des Problems, dass es bei bestimmten Kombinationen aus Geschwindigkeiten und Objektinhalten zu nicht umkehrbaren oder uneindeutigen Ergebnissen kommen kann, besteht in der Verwendung von Rolling-Shutter-Ausleseverfahren bei mehr als einer Kamera, in denen nicht nur eine Ausleserichtung vorkommt. Beispiele dazu wurden bereits genannt. Insbesondere kann auch die Auslesereihenfolge beim Auslesen der Bildwerte jeweils derselben Kamera insbesondere nach dem auslesen eines vollständigen Kamerabildes geändert werden. A further advantageous way of avoiding the problem that irreversible or ambiguous results may occur with certain combinations of speeds and object contents is the use of rolling shutter readout methods in more than one camera in which not only one readout direction occurs , Examples have already been mentioned. In particular, the reading sequence when reading out the image values of the same camera, in particular after reading out a complete camera image, can also be changed.

Alternativ oder zusätzlich können auch Ausleseverfahren angewendet werden, die rollierendes Auslesen zur Bildung eines Kamerabildes bei zumindest einer Kamera mit gleichzeitigem Auslesen aller Sensorelemente zur Bildung eines Kamerabildes bei zumindest einer anderen Kamera kombinieren, bei denen sich die Auslesefrequenzen bei den verschiedenen Kameras des Ensembles unterscheiden. Dadurch kann gewährleistet werden, dass eindeutige Bildinformationen aufgenommen werden. Alternatively or additionally, readout methods can also be used which combine rolling readout to form a camera image in at least one camera with simultaneous readout of all sensor elements to form a camera image in at least one other camera in which the readout frequencies in the different cameras of the ensemble differ. This can ensure that unique image information is recorded.

Alternativ oder zusätzlich kann die Erfassungsstruktur im Laufe der Zeit verändert werden, zum Beispiel unter Verwendung zumindest eines Displays, und/oder verschiedene Strukturelemente durch unterschiedliche Farben (durch Reflexion und/oder Emission von Strahlung) zu realisieren. In dem letztgenannten Fall werden farbempfindliche Kameras verwendet. Dies beruht jedoch auf demselben Grundansatz wie bei der Verwendung von Kameras oder Kamerabereichen mit unterschiedlichen Integrationszeitintervallen. Zeitliche Variabilität der Erfassungsstruktur kann beispielsweise dadurch erreicht werden, dass die Erfassungsstruktur zumindest ein Display aufweist, welches eine durch das Display dargestellte Grauwertverteilung im Laufe der Zeit verändert. Dabei kann der Zustand der Grauwertverteilung abhängig von zumindest einem Parameter des Operationsmikroskopiesystems gewählt werden. Auf diese Weise kann (im Frequenzraum) der Zustand der Erfassungsstruktur (insbesondere der Frequenzinhalt der Erfassungsstruktur) an die momentane (zum Beispiel von der Antriebssteuerung beabsichtigte) zu messende Geschwindigkeit angepasst werden. Alternatively or additionally, the detection structure can be changed over time, for example by using at least one display, and / or to realize different structural elements by different colors (by reflection and / or emission of radiation). In the latter case, color sensitive cameras are used. However, this is based on the same basic approach as when using cameras or camera areas with different integration time intervals. Temporal variability of the detection structure can be achieved, for example, by virtue of the fact that the detection structure has at least one display which changes a gray scale distribution represented by the display over time. In this case, the state of the gray value distribution can be selected as a function of at least one parameter of the surgical microscopy system. In this way, in the frequency space, the state of the detection structure (in particular the frequency content of the detection structure) can be adapted to the instantaneous speed (intended, for example, by the drive control).

In einer Ausführungsform kann die kontinuierliche Grauwertverteilung betriebsparameterabhängig auf zumindest einem selbstleuchtenden Display dargestellt werden, wobei das Pixelrastern des Displays insbesondere klein im Vergleich zur Auflösung der Abbildung auf das Kamerabild ist. Insbesondere kann die Information über die gemessene Geschwindigkeit des beweglichen Teils und optional auch des aus dem Kamerabild ermittelten Ortes verwendet werden, um unter Berücksichtigung der geplanten Trajektorie der Bewegung mit einem optionalen Sicherheitszuschlag für zu erwartende Bahnabweichungen vor ab den auszuwertenden Teilbereich des Kamerabildes festzulegen. Auf diese Weise kann aus Einzelbildern die Regelgröße Istgeschwindigkeit und optional auch Istposition für die Regelung der Bewegung des beweglichen Teils erzeugt werden. In one embodiment, the continuous gray value distribution can be displayed on at least one self-illuminating display depending on the operating parameter, the pixel raster of the display being particularly small compared to the resolution of the image on the camera image. In particular, the information about the measured speed of the movable part and optionally also the location determined from the camera image can be used to determine, taking into account the planned trajectory of the movement with an optional safety margin for expected path deviations, from the partial area of the camera image to be evaluated. In this way, the controlled variable actual speed and optionally also actual position for the regulation of the movement of the movable part can be generated from individual images.

Die aus der Geschwindigkeitsmessung gewonnene Information kann insbesondere auch dazu verwendet werden, die Verschmierungen der Erfassungsstruktur im Kamerabild an zu korrigieren. Damit kann die Auflösung und/oder die Genauigkeit für eine Bestimmung der Position des beweglichen Teils durch Auswertung des Kamerabildes gesteigert werden. The information obtained from the speed measurement can in particular also be used to correct the smearing of the detection structure in the camera image. Thus, the resolution and / or the accuracy for a determination of the position of the movable part can be increased by evaluating the camera image.

Zur Stabilisierung von Messungen von Orts- und Geschwindigkeitskomponenten in Richtung der optischen Ache oder ungefähr in Richtung der optischen Achse der Abbildung können stereoskopische Bilder verwendet werden. Dies schließt nicht aus, dass mehr als zwei Kameras, sondern zum Beispiel drei oder vier Kameras verwendet werden, und deren Bilder zum Beispiel unter Berücksichtigung der Position und Ausrichtung der Kamera gemeinsam ausgewertet werden. Auf diese Weise kann Tiefeninformationen erhalten werden, das heißt ein 3D-Bild des beweglichen Teils erstellt und ausgewertet werden. Dabei können zum Beispiel bekannte Verfahren der Trennung polarisierter Strahlung durch Polarisationsfilter oder Trennung von Strahlung unterschiedlicher Wellenlänge (Farbe) angewendet werden. Auch bei stereoskopischen Verfahren ist es zusätzlich möglich, verschiedene Kamerabilder und/oder Teilbereiche von Kamerabildern unter Berücksichtigung unterschiedlicher Belichtungszeitintervalle auszuwerten, wie bereits beschrieben wurde. To stabilize measurements of location and velocity components in the direction of the optical axis or approximately in the direction of the optical axis of the image, stereoscopic images can be used. This does not exclude that more than two cameras, but for example, three or four cameras are used, and their images, for example, taking into account the position and Orientation of the camera to be evaluated together. In this way, depth information can be obtained, that is, a 3D image of the moving part can be created and evaluated. For example, known methods of separating polarized radiation by polarizing filters or separating radiation of different wavelengths (color) can be used. In stereoscopic methods, it is additionally possible to evaluate different camera images and / or partial regions of camera images taking into account different exposure time intervals, as has already been described.

Lediglich als Beispiel für eine bestimmte Art von Operationsmikroskopiesystem wurde zuvor ein System mit einer Linearachse und fünf Rotationsachsen beschrieben. Diese insgesamt sechs Bewegungsachsen können als gestapelte oder kaskadierte Bewegungsachsen bezeichnet werden, da eine Bewegung der jeweils logisch übergeordneten Bewegungsachse im Stapel bzw. der Kaskade zu einer Bewegung aller nachgeordneten Achsen im Stapel bzw. der Kaskade führt. In der Praxis kommen jedoch nicht nur gestapelte Bewegungsachsen vor. Merely as an example of a particular type of surgical microscopy system, a system having a linear axis and five axes of rotation has previously been described. This total of six axes of motion can be referred to as stacked or cascaded axes of motion, since a movement of each logically superior axis of movement in the stack or the cascade leads to a movement of all subordinate axes in the stack or the cascade. In practice, however, not only stacked axes of motion occur.

Bisher, bei konventionellen Ausgestaltungen der Steuerung und/oder Regelung der Bewegung zumindest bezüglich einer Bewegungsachse wurde für die Messung der Bewegung ein Koordinatensystem zugrunde gelegt, das auf die jeweilige Achse bezogen ist. Findet z.B. in einer Achsstapelfolge eine Bewegungsmessung bezüglich einer Achse statt, die nicht die erste Achse in der Stapelfolge ist, bewegt sich das Koordinatensystem relativ zum ortsfesten Maschinenkoordinatensystem (das auch als Laborsystem oder Weltkoordinatensystem bezeichnet werden kann), wenn eine Bewegung zumindest einer übergeordneten Achse stattfindet. Die erfindungsgemäße Messung einer Bewegung ermöglicht es nun auf einfache Weise, die Bewegung des beweglichen Teils eines Operationsmikroskopiesystems bezüglich des Laborkoordinatensystems zu messen. Hierzu kann die zumindest eine Kamera (wie oben an Beispielen bereits beschrieben) entweder an der Basis des Systems und damit fest im Laborkoordinatensystem angeordnet sein oder die Erfassungsstruktur fest an der Basis angeordnet sein und die Kamera mit dem beweglichen Teil mitbewegt werden. Die Anzahl der verwendeten Kameras hängt insbesondere von der Art der Bewegungsmessung und/oder von der Bauweise des Systems sowie von dem zu erfassenden Bewegungsbereich ab. So far, in conventional embodiments of the control and / or regulation of the movement at least with respect to a movement axis for the measurement of the movement was based on a coordinate system, which is based on the respective axis. Finds e.g. In an axis stack sequence, a motion measurement relative to an axis that is not the first axis in the stacking sequence, the coordinate system moves relative to the fixed machine coordinate system (which may also be referred to as a laboratory system or world coordinate system) when there is movement of at least one major axis. The measurement of a movement according to the invention now makes it possible in a simple manner to measure the movement of the movable part of a surgical microscopy system with respect to the laboratory coordinate system. For this purpose, the at least one camera (as already described above with examples) can either be arranged at the base of the system and thus fixed in the laboratory coordinate system or the detection structure can be fixedly arranged on the base and the camera can be moved with the moving part. The number of cameras used depends in particular on the type of motion measurement and / or on the design of the system and on the range of motion to be detected.

Insbesondere kann daher zur Erzeugung der jeweiligen kinematischen Größe (wie Position, Geschwindigkeit und/oder Beschleunigung) der Bewegung wiederholt ein Kamerabild aufgenommen werden und die kinematische Größe für jedes der Kamerabilder bestimmt werden. Dadurch kann jeweils aktuell für das zuletzt aufgenommene Kamerabild der Wert der kinematischen Größe ermittelt werden. Optional kann auch die Orientierung und/oder der zeitliche Verlauf der Bewegung wiederholt jeweils aus einem der Kamerabilder ermittelt werden. Insbesondere können daher lokale Messsysteme an bewegten Teilen (z.B. mit Maßstabsteilungen und optischen Leseköpften an bewegten Teilen, die lediglich Pulssignale bei Erfassung einer Teilungsmarkierung liefern) durch die erfindungsgemäße Kamerabildauswertung ersetzt werden. Auch Tachometer von Antrieben können hierdurch ersetzt werden. In particular, therefore, to generate the respective kinematic variable (such as position, speed and / or acceleration) of the movement, a camera image can be repeatedly recorded and the kinematic variable can be determined for each of the camera images. As a result, the value of the kinematic variable can be determined in each case currently for the last recorded camera image. Optionally, the orientation and / or the temporal course of the movement can also be determined repeatedly from one of the camera images. In particular, therefore, local measurement systems on moving parts (e.g., scale divisions and optical read heads on moving parts providing only pulse signals upon detection of a split mark) can be replaced by the camera image evaluation of the present invention. Even tachometers of drives can be replaced by this.

Bei der wiederholten Erfassung der Erfassungsstruktur kann die Erfassungsstruktur oder können Teilbereiche der Erfassungsstruktur hinsichtlich ihrer Relativbewegung verfolgt werden, insbesondere aus den verschiedenen, nacheinander aufgenommenen Kamerabildern jeweils identifiziert werden. Z.B. wird dabei eine Mehrzahl von Kameras verwendet, mit der die Bewegung desselben beweglichen Teils verfolgt wird. Dies schließt auch den bereits genannten Fall mit ein, dass die Mehrzahl von Kameras an dem beweglichen Teil mitbewegt wird und zumindest eine ortsfeste Erfassungsstruktur erfasst. In the case of repeated detection of the detection structure, the detection structure or subregions of the detection structure can be tracked with respect to their relative movement, in particular identified from the various camera images taken one after the other. For example, In this case, a plurality of cameras is used, with which the movement of the same moving part is tracked. This also includes the already mentioned case in that the plurality of cameras is moved along the movable part and detects at least one stationary detection structure.

Insgesamt ist es daher insbesondere möglich, die Steuerung und/oder Regelung der Bewegung eines beweglichen Teils über zumindest einen entsprechenden Antrieb (z.B. Elektromotor) auf Basis zumindest einer kinematischen Größe auszuführen, die in dem Laborkoordinatensystem definiert ist und unmittelbar in diesem Koordinatensystem gemessen wird. Eine Umrechnung aus einem mitbewegten Koordinatensystem in das Laborkoordinatensystem kann daher entfallen. Auch entfällt eine entsprechende Kalibrierung durch Veränderungen der Lage des mitbewegten Koordinatensystems z.B. abhängig von dem jeweiligen Betriebszustand (etwa bei unterschiedlicher Belastung eines beweglichen Teils des Systems oder bei unterschiedlichen Temperaturniveaus oder Temperaturverteilungen). Overall, therefore, it is particularly possible to carry out the control and / or regulation of the movement of a moving part via at least one corresponding drive (e.g., electric motor) based on at least one kinematic quantity defined in the laboratory coordinate system and measured directly in that coordinate system. A conversion from a co-moving coordinate system in the laboratory coordinate system can therefore be omitted. Also, there is no need for a corresponding calibration by changing the position of the co-moving coordinate system, e.g. depending on the respective operating state (for example with different loading of a moving part of the system or with different temperature levels or temperature distributions).

Insbesondere kann die Steuerung und/oder Regelung der Bewegung des beweglichen Teils unter Verwendung wiederholt aus den Kamerabildern ermittelter kinematischer Größen der Bewegung ausgeführt werden. Insbesondere wird aus jedem Kamerabild sowohl die Position des beweglichen Teils als auch dessen Geschwindigkeit und/oder Beschleunigung ermittelt. Da für die Geschwindigkeitsermittlung lediglich ein einziges, aktuelles Kamerabild benötigt wird, liegt für die Steuerung und/oder Regelung der Bewegung bereits mit geringer Verzögerung nach der Aufnahme eines einzigen Kamerabildes der Geschwindigkeitsmesswert vor. Die Reaktionszeit der Steuerung und/oder Regelung ist daher geringer als bei Auswertung mehrerer nacheinander aufgenommener Kamerabilder. Bei bekannten Steuerungen und/oder Regelungen auftretende Nachteile wie ein Oszillieren der Ausgangsgröße der Steuerung und/oder Regelung aufgrund verzögerter Bestimmung der Messgröße können daher vermieden oder zumindest reduziert werden. In particular, the control and / or regulation of the movement of the movable part can be carried out using kinematic variables of the movement which are determined repeatedly from the camera images. In particular, both the position of the movable part and its speed and / or acceleration are determined from each camera image. Since only a single, up-to-date camera image is required for speed determination, the speed measurement value already exists with little delay after the acquisition of a single camera image for controlling and / or regulating the movement. The Response time of the control and / or regulation is therefore lower than in the evaluation of several consecutively recorded camera images. Disadvantages occurring in known controls and / or controls, such as oscillation of the output variable of the control and / or regulation due to delayed determination of the measured variable, can therefore be avoided or at least reduced.

Für einen einfachen Positionsregler reicht es aus, die aktuelle Istposition (Regelgröße) zu erfassen und dementsprechend die Stellgröße, z.B. die Soll-Fahrgeschwindigkeit bezüglich der Bewegungsachse, auf Grund der Regelabweichung (also Differenz aus Sollposition und Istposition) zu bestimmen und an den Antriebsstrang (Regelstrecke) weiterzugeben. For a simple position controller, it suffices to detect the current actual position (controlled variable) and, accordingly, the manipulated variable, e.g. to determine the target vehicle speed with respect to the axis of motion, based on the control deviation (ie difference between the target position and actual position) and pass it on to the drive train (controlled system).

13 zeigt ein Ausführungsbeispiel eines einfachen Positionsreglers. y(t) steht für die Regelgröße am Ausgang der Regelstrecke 71, auf die z.B. eine Störgröße d(t) einwirken kann. Über eine Rückführung 73 wird die Regelgröße y(t) einer Vergleichseinrichtung 75 zugeführt, die somit die Ist-Position mit dem Wert einer Führungsgröße w(t) vergleicht und das Vergleichsergebnis e(t) dem Regler 77 zuführt. Am Ausgang des Reglers 77 wird die Stellgröße u(t) an die Regelstrecke 71 ausgegeben. 13 shows an embodiment of a simple position controller. y (t) stands for the controlled variable at the output of the controlled system 71 on which, for example, a disturbance d (t) can act. About a return 73 becomes the controlled variable y (t) of a comparator 75 supplied, which thus compares the actual position with the value of a reference variable w (t) and the comparison result e (t) the controller 77 supplies. At the output of the regulator 77 the manipulated variable u (t) is sent to the controlled system 71 output.

Ein auf die Regelstrecke angepasster Regler ist auch bei konventioneller Erfassung der Regelgröße am Ausgang der Regelstrecke in der Lage, die Regelabweichung e(t) auf ein Minimum zu reduzieren und somit die zu regelnde Position auf die angeforderte Sollposition w(t) einzustellen und mit einer Toleranz beizubehalten. Wie aus 13 ersichtlich ist, berücksichtigt der Regler 77 unmittelbar lediglich die Positionsabweichung e(t), nicht aber die Geschwindigkeit zum aktuellen Zeitpunkt der Ausführung des Regelungsvorganges und somit auch nicht die Abweichung zur Sollgeschwindigkeit. Die aktuelle Istgeschwindigkeit kann zwar innerhalb des Reglers 77 (z.B. dessen Übertragungsfunktion) berechnet werden, indem die Differenz zu einer früheren Position berechnet wird. Dabei wird aber veraltete Information mitberücksichtigt, nämlich die frühere Position aus einem früheren Zyklus der Ausführung der Regelung. A controller adapted to the controlled system is also able to reduce the control deviation e (t) to a minimum and thus to adjust the position to be controlled to the requested setpoint position w (t), even with conventional detection of the controlled variable at the output of the controlled system Maintain tolerance. How out 13 is apparent, the controller takes into account 77 directly only the position deviation e (t), but not the speed at the current time of execution of the control process and thus not the deviation from the target speed. The current actual speed can indeed be within the controller 77 (eg its transfer function) can be calculated by calculating the difference to an earlier position. In this case, however, outdated information is taken into account, namely the former position from an earlier cycle of execution of the control.

Dies hat zur Folge, dass die Regelabweichung e(t) zwar annähernd null ist, die Geschwindigkeit des beweglichen Teils am Ort der Sollposition aber nicht null ist. Dies ist vor allem dann der Fall, wenn das geregelte System eine meist hochfrequente mechanische Schwingung ausführt. Bisherige Regler kompensieren dies zwar für vorgegebene Frequenzbereiche bzw. geeignete Kombinationen aus Resonanzfrequenzen des Reglers und der Regelstrecke. Sie können die Auswirkung von Schwingungen aber in vielen Fällen nicht vollständig eliminieren. As a result, although the control deviation e (t) is approximately zero, the speed of the movable part at the location of the desired position is not zero. This is especially the case when the controlled system performs a mostly high-frequency mechanical oscillation. Previous regulators compensate this for predetermined frequency ranges or suitable combinations of resonance frequencies of the controller and the controlled system. However, in many cases they can not completely eliminate the effect of vibrations.

Es wird nun vorgeschlagen, eine Regelung zum Regeln der Bewegung eines beweglichen Teils eines Operationsmikroskopiesystems zu verwenden, von der außer der Information über die Istposition (gegebenenfalls in Form einer Abweichung gegenüber der Sollposition) auch ein Geschwindigkeitsmesswert (gegebenenfalls als Differenz zwischen einer Sollgeschwindigkeit und einer Istgeschwindigkeit) verwendet wird. Insbesondere kann eine solche Regelung eine Kaskadenregelung sein, d.h. ein erster Regler (z.B. der Positionsregler) und ein zweiter Regler (z.B. der Geschwindigkeitsregler) sind in Reihe geschaltet, d.h. kaskadiert. Optional kann außerdem noch die Beschleunigung insbesondere in einer weiteren kaskadierten Stufe der Regelung als gemessene Ist-Größe (gegebenenfalls als Differenz zwischen einer Sollbeschleunigung und einer Istbeschleunigung) von der Regelung als Eingangsgröße genutzt werden. It is now proposed to use a control for regulating the movement of a moving part of a surgical microscopy system, of which in addition to the information about the actual position (optionally in the form of a deviation from the target position) also a speed measurement (optionally as a difference between a target speed and an actual speed ) is used. In particular, such a control may be a cascade control, i. a first controller (e.g., the position controller) and a second controller (e.g., the speed controller) are connected in series, i. cascaded. Optionally, the acceleration can also be used by the control as an input variable, in particular in a further cascaded stage of the control as a measured actual variable (possibly as a difference between a desired acceleration and an actual acceleration).

Ein Ausführungsbeispiel einer solchen kaskadierten Regelung zeigt 14. Darin sind mit s die Position des beweglichen Teils, mit v die Geschwindigkeit des beweglichen Teils und mit a die Beschleunigung des beweglichen Teils bezeichnet. Diese drei, die Bewegung des beweglichen Teils beschreibenden kinematischen Größen, welche zur Messung jeweils am Ausgang eines entsprechenden Teils der Regelstrecke zur Verfügung stehen, werden zur Bildung der Regelabweichung auch mit dem Index „ist“ für den Istwert und mit dem Index „soll“ für den Sollwert unterschieden. An embodiment of such a cascaded control shows 14 , Therein, s is the position of the moving part, v is the speed of the moving part and a is the acceleration of the moving part. These three, the movement of the movable part descriptive kinematic variables, which are available for the measurement at the output of a corresponding part of the controlled system are also used to form the control deviation with the index "is" for the actual value and the index "soll" for distinguished the setpoint.

Während die Position s über konventionelle Positionsmesssysteme von Bewegungseinrichtungen, wie z.B. mit Maßstabsteilung und optischem Lesekopf, gemessen werden kann und/oder aus einem einzigen Kamerabild des erfindungsgemäßen Bewegungsmesssystems ermittelt wird, wird die Geschwindigkeit bevorzugt unmittelbar aus einem Kamerabild ermittelt. Bei konventionellen Systemen dagegen wird die Geschwindigkeit z.B. durch eine an einem Gleichstrom-Motor angelegte elektrische Spannung und/oder durch Messung der Drehzahl z.B. mittels eines Tachometers bestimmt. Konventionell kann die Beschleunigung a durch den dem Gleichstrommotor zugeführten Strom bestimmt werden. Alternativ kann zumindest ein Beschleunigungssensor an dem beweglichen Teil angeordnet sein. Während diese konventionelle Bestimmung der Beschleunigung auch möglich ist, wird bevorzugt, dass die Beschleunigung entweder unmittelbar aus dem Verlauf der Bewegung während des Integrationszeitintervalls des Kamerabildes ermittelt wird und/oder aus dem zeitlichen Verlauf der Geschwindigkeit, die aus einer Folge von mehreren Kamerabildern ermittelt wird. While the position s can be measured via conventional position measuring systems of moving devices, such as scale graduation and optical read head, and / or is determined from a single camera image of the motion measuring system according to the invention, the speed is preferably determined directly from a camera image. In contrast, in conventional systems, the speed is determined, for example, by means of an electrical voltage applied to a DC motor and / or by measuring the rotational speed, for example by means of a tachometer. Conventionally, the acceleration a can be determined by the current supplied to the DC motor. Alternatively, at least one acceleration sensor can be arranged on the movable part. While this conventional determination of the acceleration is also possible, it is preferred that the acceleration either directly from the course of Movement is determined during the integration time interval of the camera image and / or from the time course of the speed, which is determined from a sequence of several camera images.

Die in 14 dargestellte Regelung ist lediglich ein spezielles Ausführungsbeispiel für eine Regelung, durch die die unmittelbar aus einem Kamerabild ermittelte Geschwindigkeit verwendet wird. Alternative Ausgestaltungen einer derartigen Regelung sind möglich. Z.B. kann die Beschleunigung keine Messgröße sein und z.B. stattdessen durch eine Berechnung aus der Geschwindigkeit ermittelt werden oder unberücksichtigt bleiben. Das konkret in 14 dargestellte Ausführungsbeispiel weist an seinem links dargestellten Eingang eine Vergleichseinrichtung auf, die die Sollposition ssoll mit der Istposition sist vergleicht und einem ersten Regler, dem Positionsregler Po, zuführt. Bei diesem Regler kann es sich z.B. um einen Proportionalregler handeln. Am Ausgang des Positionsreglers Po wird die ausgegebene Stellgröße, z.B. eine Geschwindigkeit, einer weiteren Vergleichseinrichtung zugeführt, die diese Stellgröße insbesondere mit der gemessenen Istgeschwindigkeit vist und der Sollgeschwindigkeit vsoll vergleicht und die entsprechende Regelabweichung einem Geschwindigkeitsregler PID zuführt, welcher z.B. ein Regler mit Proportional-, Integral- und Differenzialanteil ist. An dessen Ausgang wird die entsprechende Stellgröße einer weiteren Vergleichseinrichtung zugeführt, die z.B. eine Beschleunigung mit der Istbeschleunigung aist und der Sollbeschleunigung asoll vergleicht. Die entsprechende Regelabweichung wird einem Beschleunigungsregler PI zugeführt, bei dem es sich z.B. um einen Proportional- und Integralregler handeln kann. Am Ausgang dieses Beschleunigungsreglers PI liegt die Stellgröße U für die Regelstrecke an. In the 14 Control shown is merely a special embodiment of a scheme by which the speed determined directly from a camera image is used. Alternative embodiments of such a scheme are possible. For example, the acceleration can not be a measured variable and, for example, instead be determined by calculation from the speed or ignored. That in concrete 14 illustrated embodiment, at its input shown on the left on a comparison device, which is the target position s soll with the actual position s is compared and a first controller, the position controller Po, supplying. This controller may be, for example, a proportional controller. At the output of the position controller Po, the output control value, eg, a speed, a further comparison device supplied to this control value, in particular with the measured actual velocity v and the target velocity v soll compares and supplies the appropriate control error to a speed controller PID, which, for example, a regulator with proportional -, integral and Differenzialanteil is. At the output of the corresponding manipulated variable of a further comparison device is supplied to, for example, is an acceleration with the actual acceleration a and the target acceleration a is to compare. The corresponding control deviation is fed to an acceleration controller PI, which may be, for example, a proportional and integral controller. At the output of this acceleration controller PI is the manipulated variable U for the controlled system.

In 14 ist die Regelstrecke symbolisiert durch ein erstes PT1-Glied zur Modellierung einer zeitlichen Verzögerung, an deren Ausgang die Beschleunigung a messbar ist. Ein nachgeschaltetes weiteres PT1-Glied modelliert eine weitere Verzögerung, an deren Ausgang die Geschwindigkeit v messbar ist. Noch ein weiteres Glied I modelliert eine integrierende Wirkung der Regelstrecke, an deren Ausgang die Position s messbar ist. In 14 is the controlled system symbolized by a first PT 1 member for modeling a time delay at the output of the acceleration a is measurable. A further downstream PT 1 element models a further delay, at the output of which the speed v can be measured. Yet another element I models an integrating effect of the controlled system, at whose output the position s can be measured.

Die 15 bis 18 zeigen jeweils den Ort eines kreisförmigen Markers, der Teil einer von einem Aufzeichnungsbild erfassten Erfassungsstruktur ist, zu vier verschiedenen Zeitpunkten während eines einzigen Belichtungszeitintervalls. In jedem der Ausführungsbeispiele der 15 bis 18 bewegt sich der Marker relativ zu der Kamera in geradliniger Richtung. Die Ortsvariable der geradlinigen Richtung ist mit x bezeichnet. Oberhalb der durch Schraffuren ausgefüllten Kreise, die den Marker an dem jeweiligen Ort darstellen, befindet sich jeweils eine Zeitangabe, die den Zeitpunkt bezeichnet, zu dem sich der Marker an dem jeweiligen Ort befindet. Es werden jeweils die Zeitpunkte t0 (zu Beginn des Belichtungszeitintervalls), der Zeitpunkt t0 + τ/3 (wenn ein Drittel des Belichtungszeitintervalls abgelaufen ist), der Zeitpunkt t0 + 2τ/3 (wenn zwei Drittel des Belichtungszeitintervalls abgelaufen sind) und der Zeitpunkt t0 + τ am Ende des Belichtungszeitintervalls in den 15 bis 18 angegeben. The 15 to 18 each show the location of a circular marker that is part of a detection structure captured by a recording image at four different times during a single exposure time interval. In each of the embodiments of the 15 to 18 the marker moves in a straight line relative to the camera. The location variable of the straight-line direction is denoted by x. Above the circles filled with hatchings, which represent the marker at the respective location, there is a respective time, which designates the time at which the marker is located at the respective location. In each case, the times t0 (at the beginning of the exposure time interval), the time t0 + τ / 3 (when one third of the exposure time interval has elapsed), the time t0 + 2τ / 3 (when two-thirds of the exposure time interval have elapsed) and the time t0 + τ at the end of the exposure time interval in the 15 to 18 specified.

Darunter befindet sich in jeder der 15 bis 18 ein Diagramm, in dem die über das gesamte Belichtungszeitintervall hinweg von dem Marker ausgehende und von den Sensorelementen der Kamera empfangene Strahlungsmenge S(x) als Funktion des Ortes x aufgetragen ist. Dem entspricht die Signalstärke des Sensors am entsprechenden Ort im Aufzeichnungsbild. Zum Zeitpunkt t0 befindet sich der Marker jeweils am Ort x0. Der Marker befindet sich jedoch nicht in allen der 15 bis 18 zum Zeitpunkt des Endes des Belichtungszeitintervalls an dem Ort, der am weitesten von dem Ort x0 entfernt ist. Dies ist lediglich in den Fällen der 15 und 16 der Fall. Dagegen kehrt sich die Bewegung in den Fällen der 17 und 18 zum Zeitpunkt t0 + τ/3 um. Underneath is in each of the 15 to 18 a diagram in which over the entire exposure time interval away from the marker emanating and received by the sensor elements of the camera radiation amount S (x) is plotted as a function of the location x. This corresponds to the signal strength of the sensor at the corresponding location in the recording image. At time t0, the marker is located at location x0. However, the marker is not in all of the 15 to 18 at the time of the end of the exposure time interval at the location furthest from the location x0. This is only in the cases of 15 and 16 the case. In contrast, the movement in the cases of the 17 and 18 at time t0 + τ / 3.

Unterhalb des Diagramms, das die empfangene Strahlungsmenge als Funktion des Ortes darstellt, befindet sich in jeder 15 bis 18 ein weiteres Diagramm, das den zeitlichen Intensitätsverlauf I(t) der von dem Marker während des Belichtungszeitintervalls ausgehenden Strahlung darstellt, d.h. die Intensität I ist eine Funktion der Zeit t. Im Fall der 15 bis 17 ist der Verlauf konstant, d.h. von dem Marker geht während des Belichtungszeitintervalls Strahlung mit konstant bleibender Strahlungsintensität aus. Im Fall der 18 dagegen fällt die Intensität I(t) linear mit konstantem Gefälle ab. Außerdem ist eine Variante des zeitlichen Intensitätsverlaufs in 18 durch eine gestrichelte Linie angedeutet. Gemäß der Variante ist die Intensität am Anfang des Belichtungszeitintervalls wesentlich größer und fällt zunächst steil ab, um dann in den mit konstantem Gefälle abfallenden Verlauf einzuschwenken. Dem entspricht in der Darstellung der empfangenen Strahlungsmenge S(x) eine gestrichelte Linie im Bereich des Ortes x0. Below the diagram, which represents the amount of radiation received as a function of location, is in each 15 to 18 another diagram illustrating the temporal intensity curve I (t) of the radiation emanating from the marker during the exposure time interval, ie the intensity I is a function of the time t. In the case of 15 to 17 the course is constant, ie radiation emanating from the marker during the exposure time interval with a constant radiation intensity. In the case of 18 on the other hand, the intensity I (t) decreases linearly with a constant gradient. In addition, a variant of the temporal intensity curve in 18 indicated by a dashed line. According to the variant, the intensity at the beginning of the exposure time interval is substantially greater and initially falls steeply, in order then to swivel into the course descending with a constant gradient. This corresponds in the representation of the received radiation amount S (x) a dashed line in the region of the location x0.

Im Fall der 15 bewegt sich der Marker mit konstanter Geschwindigkeit in x-Richtung. Wie erwähnt ist außerdem der zeitliche Verlauf der Strahlungsintensität konstant. Die im Belichtungszeitintervall von der Kamera empfangene Strahlungsmenge S(x) hat eine symmetrische Form zum Mittelpunkt des Ortsbereiches, in dem sich der Marker während des Belichtungszeitintervalls bewegt. Daher kann die Bewegung des Markers hinsichtlich ihrer Orientierung nicht von der umgekehrten Bewegung des Markers unterschieden werden. In the case of 15 The marker moves at constant speed in x-direction. As mentioned, the time course of the radiation intensity is also constant. The radiation amount S (x) received by the camera in the exposure time interval has a symmetrical shape to the center of the location area, where the marker moves during the exposure time interval. Therefore, the movement of the marker can not be distinguished in its orientation from the reverse movement of the marker.

Dies gilt auch für den Fall der 16, in dem der Marker eine sich im Laufe des Belichtungszeitintervalls verlangsamende geradlinige Bewegung in x-Richtung ausführt. Wenn der Marker stattdessen eine sich beschleunigende Bewegung in umgekehrte Richtung ausführt, kann dieselbe Strahlungsmenge S(x) als Funktion des Ortes wie in 16 dargestellt entstehen. This also applies to the case of 16 in that the marker executes a linear movement in the x-direction slowing down during the exposure time interval. Instead, if the marker performs an accelerating motion in the reverse direction, the same amount of radiation S (x) as a function of location, as in 16 shown arise.

Die aus den Fällen der 15 und 16 gezogene Schlussfolgerung kann wie im Folgenden dargestellt mathematisch begründet werden. Dabei wird auf die oben stehende Darstellung der Grauwertverteilung GW Bezug genommen. Die in Gleichung (1) dargestellte Faltung wird jedoch zur Veranschaulichung des Sachverhalts der Fälle in 15 und 16 in veränderter Weise dargestellt. In der folgenden Gleichung (7) bedeuten die Größen I(t) die Beleuchtungsintensität als Funktion der Zeit t und σ die ortsabhängige Bild-Funktion der vom Kamerabild aufgenommenen Erfassungsstruktur. Da es sich um eine Relativbewegung zwischen der Erfassungsstruktur und der Kamera handelt, ändert sich der Ort x im Laufe der Zeit um den Weg s(t), d.h. der Weg s ist ebenfalls eine Funktion der Zeit: GW(x) = ∫0 TI(t)σ(x + s(t))dt (7) The from the cases of the 15 and 16 The conclusion drawn can be explained mathematically as shown below. In this case, reference is made to the above representation of the gray value distribution GW. However, the convolution shown in equation (1) is used to illustrate the facts of the cases in 15 and 16 shown in a different way. In the following equation (7), the quantities I (t) denote the illumination intensity as a function of the time t and σ the location-dependent image function of the detection structure taken by the camera image. Since it is a relative movement between the detection structure and the camera, the location x changes in the course of time by the path s (t), ie the path s is also a function of time: GW (x) = ∫ 0 T I (t) σ (x + s (t)) dt (7)

Wenn der Weg s(t) als Variable u bezeichnet wird, ergibt sich: t = s–1(u) => du = v(t)dt (8) If the path s (t) is called variable u, we get: t = s -1 (u) => du = v (t) dt (8)

D.h. die Zeit t ist gleich der Umkehrfunktion des Weges s als Funktion der Variablen u und daraus folgt der rechts in den Gleichungen (8) stehende Ausdruck, der den Infinitesimalwert du der Variablen u mit der ersten zeitlichen Ableitung v des Weges s multipliziert mit dem Infinitesimalwert dt der Zeit t gleichsetzt. Hieraus folgt wiederum der folgende umgeformte Ausdruck:

Figure DE102016217628A1_0008
That is, the time t is equal to the inverse function of the path s as a function of the variable u and from this follows the expression on the right in the equations (8) which multiplies the infinitesimal value du of the variable u by the first derivative of the path s times the infinitesimal value dt equated to time t. From this follows again the following transformed expression:
Figure DE102016217628A1_0008

Die Ausdrücke in den Gleichungen (8) und (9) können nun in Gleichung (7) eingesetzt werden, um die Zeit t zu substituieren. Dabei sind ein Ruhen der Bewegung und daher auch ein Wechsel der Bewegungsrichtung nicht zugelassen. Die erste zeitliche Ableitung v des Weges, d.h. die Geschwindigkeit, wird daher nicht Null:

Figure DE102016217628A1_0009
Figure DE102016217628A1_0010
mit:
Figure DE102016217628A1_0011
The expressions in equations (8) and (9) can now be substituted into equation (7) to substitute time t. In this case, a rest of the movement and therefore a change of the direction of movement are not allowed. The first time derivative v of the path, ie the speed, therefore does not become zero:
Figure DE102016217628A1_0009
Figure DE102016217628A1_0010
With:
Figure DE102016217628A1_0011

Dabei kann der erste Ausdruck k(u), d.h. der Bruch, im Integral in Gleichung (10) als Faltungskern und Operator verstanden werden, der die Verschmierung der Erfassungsstruktur im aufgenommenen Aufzeichnungsbild bewirkt. Dieser Ausdruck wird im Folgenden als Verschmierungsoperator bezeichnet. Im Fall konstanter Strahlungsintensität I(t) = 1 vereinfacht sich die Gleichung (10) wie folgt:

Figure DE102016217628A1_0012
In this case, the first term k (u), ie the fraction, in the integral in equation (10) can be understood as the convolution kernel and operator which causes the smearing of the detection structure in the recorded recording image. This term will be referred to hereafter as a smearing operator. In the case of constant radiation intensity I (t) = 1, equation (10) simplifies as follows:
Figure DE102016217628A1_0012

Aus der folgenden Gleichung (12), die aus der Gleichung (11) durch Substitution der Variablen u durch ihre negative Variable –w erhalten wird (d.h. u = –w und du = –dw), ist erkennbar, dass die Orientierung der Bewegung im Fall konstanter Strahlungsintensität nicht ermittelbar ist. Dies folgt aus der Gleichheit der Ausdrücke auf den rechten Seiten der Gleichungen (11) und (12), wobei wegen der Substitution die Integrationsgrenzen und die Vorzeichen vor den Variablen u bzw. w umgekehrt sind:

Figure DE102016217628A1_0013
From the following equation (12) obtained from the equation (11) by substituting the variable u by its negative variable -w (ie, u = -w and du = -dw), it can be seen that the orientation of the motion in the Case of constant radiation intensity can not be determined. This follows from the equality of the expressions on the right-hand sides of equations (11) and (12), where, because of the substitution, the bounds of integration and the signs in front of the variables u and w are reversed:
Figure DE102016217628A1_0013

Somit ist der empirisch durch die Fälle der 15 und 16 dargestellte Sachverhalt mathematisch belegt. Wenn sich jedoch die Strahlungsintensität I(t) im Laufe der Zeit verändert, kann die Grauwertverteilung GW(x) wie in der zweiten Zeile der Gleichung (10) geschrieben werden und die im Zähler des Bruchs (d.h. des Verschmierungsoperators) stehende Strahlungsintensität I(t) ist nicht konstant. Vielmehr hängt der Verschmierungsoperator dann vom zeitlichen Verlauf der Strahlungsintensität ab sowie von der Geschwindigkeit der Bewegung als Funktion der Zeit, das heißt vom zeitlichen Verlauf der Bewegung. Der Verschmierungsoperator kann aus einem oder mehreren Aufzeichnungsbildern ermittelt werden. Thus, empirically by the cases of 15 and 16 presented facts mathematically proven. However, if the radiation intensity I (t) changes over time, the gray scale distribution GW (x) can be written as in the second row of equation (10) and the radiation intensity I (t ) is not constant. Rather, the smear operator then depends on the time course of the radiation intensity and on the speed of the movement as a function of time, that is, on the time course of the movement. The smear operator can be determined from one or more recorded images.

Wenn der Verschmierungsoperator ermittelt ist, kann aus diesem der zeitliche Verlauf der Bewegung, z.B. die von der Zeit abhängige Geschwindigkeitsänderung ermittelt werden. Bereits an dem Ausdruck des Verschmierungsoperators in der zweiten Zeile der Gleichung (10) ist erkennbar, dass bei unbekanntem zeitlichem Verlauf der Strahlungsintensität und unbekannter Geschwindigkeitsänderung eine Uneindeutigkeit zwischen der Strahlungsintensität und dem Geschwindigkeitsverlauf besteht. Dieser Ausdruck kann wie folgt umgeformt werden: v(t) = I(t) / k(u) Once the smear operator has been determined, the time course of the movement, eg the time-dependent speed change, can be determined from this. It can already be seen from the expression of the smear operator in the second line of equation (10) that, given an unknown time profile of the radiation intensity and unknown velocity change, there is an ambiguity between the radiation intensity and the velocity profile. This expression can be reshaped as follows: v (t) = I (t) / k (u)

Der Ausdruck enthält sowohl die Strahlungsintensität I als auch die Geschwindigkeit v als Funktion der Zeit t, das heißt deren zeitliche Verläufe. Ist der zeitliche Verlauf der Strahlungsintensität allerdings bekannt, wie dies hier der Fall ist, bleibt lediglich noch die Frage offen, mit welcher Orientierung die Relativbewegung stattfindet. Diese Uneindeutigkeit drückt sich in dem umgeformten Ausdruck dadurch aus, dass der Ausdruck nicht nur der Faltungskern des Integrals gemäß Gleichung (10), sondern auch des entsprechenden Integrals mit umgekehrter Integrationsrichtung und umgekehrte Richtung der Bewegung ist. Diese beiden Integrale verhalten sich mit Ausnahme einer in ihnen vorkommenden zeitlich nicht konstanten Strahlungsintensität I(t) genauso wie die Integrale in den Gleichungen (11) und (12) zueinander. The expression contains both the radiation intensity I and the velocity v as a function of the time t, that is to say their temporal courses. However, if the time course of the radiation intensity is known, as is the case here, the only question left is with which orientation the relative movement takes place. This ambiguity is expressed in the transformed expression in that the expression is not only the convolution kernel of the integral according to Equation (10), but also the corresponding integral with the direction of inverse integration and the opposite direction of the motion. These two integrals behave the same as the integrals in equations (11) and (12) with the exception of a non-constant radiation intensity I (t) occurring in them.

Die Uneindeutigkeit bezüglich der Orientierung lässt sich jedoch bereits bei Auswertung eines einzigen Aufzeichnungsbildes eliminieren, wenn der zeitliche Verlauf der Strahlungsintensität so gewählt wird, dass bei theoretisch denkbarer umgekehrter Bewegungsrichtung ein nicht realistischer Geschwindigkeitsverlauf der Bewegung die Folge ist. Z.B. ist es möglich, wurde bereits oben erwähnt und wird anhand der Variante von 18 noch erläutert, dass die Strahlungsintensität innerhalb eines kurzen Teilzeitraums zu Beginn des Belichtungszeitintervalls sehr viel größer gewählt wird als während des verbleibenden Rests des Belichtungszeitintervalls. Anschaulich kann man diesen Vorgang als „Einbrennen“ der Objektszene in das Aufzeichnungsbild bezeichnen. However, the ambiguity with respect to the orientation can be eliminated even when evaluating a single recording image, if the time course of the radiation intensity is chosen so that in theoretically conceivable reverse direction of movement, a non-realistic speed profile of the movement is the result. For example, it is possible, has already been mentioned above and is based on the variant of 18 to explain that the radiation intensity is chosen to be much larger within a short sub-period at the beginning of the exposure time interval than during the remainder of the exposure time interval. Illustratively, this process can be described as "burning in" of the object scene into the recording image.

Zusätzliche Uneindeutigkeiten bezüglich der Ermittlung der Orientierung und/oder des zeitlichen Verlaufs der Bewegung können sich jedoch bei Auswertung lediglich eines einzigen Aufzeichnungsbildes ergeben, wenn während des Belichtungszeitintervalls eine Umkehrung der Bewegung stattfindet. Dieses Problem lässt sich lösen, indem die Dauer des Belichtungszeitintervalls kurz genug gewählt wird und/oder durch jeweils separate Auswertung mehrerer nacheinander aufgenommener Aufzeichnungsbilder eine bereits ermittelte Orientierung der Bewegung bestätigt wird und/oder ein bereits ermittelter zeitlicher Verlauf der Bewegung in plausibler Weise fortgesetzt wird. Hinzu kommt, dass abhängig von den Massen der bewegten Teile Informationen über die Trägheit des Bewegungssystems getroffen werden können. Ferner kann unter Berücksichtigung von Informationen über die möglichen Antriebskräfte ermittelt werden, welche Dynamik die Bewegung haben kann. Auf diese Weise lassen sich von mehreren denkbaren Bewegungsverläufen, die während eines Belichtungszeitintervalls stattgefunden haben könnten, unrealistische Bewegungsverläufe ausschließen. However, additional ambiguities with respect to the determination of the orientation and / or the time course of the movement may result when evaluating only a single recorded image, if there is a reversal of the movement during the exposure time interval. This problem can be solved by the duration of the exposure time interval is selected short enough and / or by a separate evaluation of several consecutively recorded recording images an already determined orientation of the movement is confirmed and / or an already determined time course of the movement is plausibly continued. In addition, depending on the masses of the moving parts, information about the inertia of the moving system can be made. Furthermore, taking into account information about the possible driving forces, it can be determined which dynamics the movement can have. In this way, it is possible to exclude unrealistic movement patterns from several conceivable movement progresses which could have taken place during an exposure time interval.

Wie ebenfalls bereits oben erwähnt wurde und wie noch anhand von 19 kurz erläutert wird, kann außerdem zusätzliche Information durch ein einziges Aufzeichnungsbild gewonnen werden, wenn z.B. der zeitliche Verlauf der Strahlungsintensität in verschiedenen Spektralbereichen in unterschiedlicher Weise variiert wird und/oder Sensorelemente von zumindest einer Kamera mit zumindest zwei Auslesefolgen wie oben bereits beschrieben ausgelesen werden. As also mentioned above and as with reference to 19 is briefly explained, additional information can be obtained by a single recording image, for example, if the temporal course of the radiation intensity in different spectral ranges is varied in different ways and / or sensor elements of at least one camera with at least two read-out sequences as already described above.

Ein konkreter Fall für die unterschiedliche zeitliche Variation der Strahlungsintensität in verschiedenen Spektralbereichen wird anhand der folgenden Gleichungen mathematisch dargestellt. Dabei wird davon ausgegangen, dass während der ersten Hälfte des Belichtungszeitintervalls lediglich die Strahlungsintensität der ersten Spektralkomponente der Strahlung ungleich Null ist und in der zweiten Hälfte des Belichtungszeitintervalls lediglich die Strahlungsintensität der anderen, zweiten Spektralkomponente ungleich Null ist. Dies führt dazu, dass die Verschmierung der ersten Spektralkomponente eindeutig versetzt gegenüber der Verschmierung durch die andere Spektralkomponente ist. Während die folgende Gleichung (13) im Zähler des Verschmierungsoperators und dementsprechend links des Gleichheitszeichens in der Grauwertverteilung bzw. Strahlungsverteilung GW lediglich den allgemeinen Index i enthält und damit für eine beliebige ganze Zahl von Spektralkomponenten steht,

Figure DE102016217628A1_0014
wird in dem konkreten Beispiel wie bereits beschrieben von lediglich zwei Spektralkomponenten mit den Strahlungsintensitätsverläufen I1(t) und I2(t) ausgegangen:
Figure DE102016217628A1_0015
A concrete case for the different temporal variation of the radiation intensity in different spectral ranges is represented mathematically using the following equations. It is assumed that during the first half of the exposure time interval only the radiation intensity of the first spectral component of the radiation is not equal to zero and in the second half of the exposure time interval only the radiation intensity of the other, second spectral component is not equal to zero. As a result, the smearing of the first spectral component is clearly offset from smearing by the other spectral component. While the following equation (13) in the counter of the smear operator and, accordingly, to the left of the equal sign in the gray value distribution or radiation distribution GW contains only the general index i and thus stands for any integer number of spectral components,
Figure DE102016217628A1_0014
In the concrete example, as already described, only two spectral components with the radiation intensity profiles I1 (t) and I2 (t) are assumed:
Figure DE102016217628A1_0015

Daraus folgen die Gleichungen (15.1) und (15.2) für die Intensitätsverteilung der beiden Spektralkomponenten:

Figure DE102016217628A1_0016
This is followed by the equations (15.1) and (15.2) for the intensity distribution of the two spectral components:
Figure DE102016217628A1_0016

Gemäß Gleichungen (15) liefert die erste Spektralkomponente lediglich in der ersten Hälfte des Belichtungszeitintervalls, d.h. bis zum Zeitpunkt T/2, einen Beitrag zur örtlichen Strahlungsverteilung und liefert die zweite Spektralkomponente lediglich in der zweiten Hälfte des Belichtungszeitintervalls, beginnend mit dem Zeitpunkt T/2, einen Beitrag zur Strahlungsverteilung. Es ist somit eindeutig ermittelbar, mit welcher Orientierung die Bewegung stattfindet. Die Sensorelemente der zumindest einen Kamera, die Strahlung der ersten Spektralkomponente aufgenommen haben, haben die Erfassungsstruktur in der ersten Hälfte des Belichtungszeitintervalls erfasst. Die Sensorelemente, die Strahlung der zweiten Spektralkomponente empfangen haben, haben die Erfassungsstruktur dagegen in der zweiten Hälfte des Belichtungszeitintervalls erfasst. Aus der Anordnung der Sensorelemente kann daher die Orientierung der Bewegung zweifelsfrei ermittelt werden. According to Equations (15), the first spectral component contributes to the localized radiation distribution only in the first half of the exposure time interval, ie, until time T / 2, and provides the second spectral component only in the second half of the exposure time interval, beginning at time T / 2 , a contribution to the radiation distribution. It is thus clearly possible with which orientation the movement takes place. The sensor elements of the at least one camera, which have received radiation of the first spectral component, have detected the detection structure in the first half of the exposure time interval. By contrast, the sensor elements which received radiation of the second spectral component detected the detection structure in the second half of the exposure time interval. From the arrangement of the sensor elements, therefore, the orientation of the movement can be determined beyond doubt.

Es gibt auch andere Möglichkeiten, das Prinzip der Gewinnung zusätzlicher Information durch unterschiedliche zeitliche Variation der Spektralanteile der Strahlung umzusetzen. Bei der oben bereits beschriebenen und anhand von 19 erläuterten Variation von zumindest drei Spektralkomponenten λ1, λ2, λ3, haben die spektralen Intensitäten z.B. jeweils einen sinusförmigen zeitlichen Verlauf, jedoch mit Phasenversatz zueinander. In dem konkreten Ausführungsbeispiel ist die Frequenz der Intensitätsveränderung bei allen drei Spektralkomponenten gleich. Dargestellt ist in 19 der Intensitätsverlauf für die drei Spektralkomponenten in einem einzigen Belichtungszeitintervall. Durch an sich bekannte mathematische Verfahren, die unter der Bezeichnung „phase shift“ aus dem Gebiet der Erfassung dreidimensionaler Oberflächenstrukturen bekannt sind, kann aus einem einzigen Aufzeichnungsbild eindeutig die Orientierung und/oder der zeitliche Verlauf der Bewegung ermittelt werden, wenn während des Belichtungszeitintervalls keine Umkehr der Bewegung stattgefunden hat. Z.B. beschreibt Jason Geng in „Structured-light 3D surface imaging: a tutorial“, Advances in Optics and Photonics 3, 128–160 (2011) doi: 10.1364/AOP.3.000128 , ein solches mathematisches Verfahren. Auch andere darin beschriebene mathematische Verfahren zur Erfassung dreidimensionaler Oberflächenstrukturen können auf das der vorliegenden Erfindung zu Grunde liegende Anwendungsgebiet der Erkennung von Bewegungen übertragen werden. There are other ways to implement the principle of obtaining additional information by varying the temporal variation of the spectral components of the radiation. In the already described above and based on 19 explained variation of at least three spectral components λ1, λ2, λ3, the spectral intensities, for example, each have a sinusoidal time course, but with phase offset to each other. In the specific embodiment, the frequency of the intensity change is the same for all three spectral components. Is shown in 19 the intensity profile for the three spectral components in a single exposure time interval. By known mathematical methods, which are known as "phase shift" from the field of detection of three-dimensional surface structures, the orientation and / or the temporal course of the movement can be determined unambiguously from a single recording image if no reversal occurs during the exposure time interval the movement took place. For example, describes Jason Geng in Structured-light 3D Surface Imaging: A Tutorial, Advances in Optics and Photonics 3, 128-160 (2011) doi: 10.1364 / AOP.3000128 , such a mathematical procedure. Other mathematical methods described therein for detecting three-dimensional surface structures can also be transferred to the field of application of motion detection on which the present invention is based.

Der oben dargestellte Sachverhalt, wonach eine zeitlich konstante Strahlungsintensität jedenfalls im Fall eines einziges Markers und einer einzigen Kamera mit gleichem Belichtungszeitintervall für alle Sensorelemente keine ausreichende Information für die Ermittlung der Orientierung und/oder des zeitlichen Verlaufs der Bewegung aus einem einzigen Aufzeichnungsbild ermöglicht, ist für einen weiteren Fall in 17 dargestellt. Wie bereits erwähnt, findet außerdem im Fall der 17 eine Umkehr der Bewegung des Markers statt. Ausgehend von dem links oben in 17 dargestellten Ort x0 des Markers zum Zeitpunkt t0 des Beginns des Belichtungszeitintervalls erreicht der Marker bereits nach einem Drittel der Dauer des Belichtungszeitintervalls seine maximale Entfernung vom Ort x0. Im weiteren Verlauf der Bewegung während des Belichtungszeitintervalls findet eine Bewegung in umgekehrter Richtung statt, jedoch mit geringerer Geschwindigkeit als im ersten Drittel des Belichtungszeitintervalls. Die resultierende Bestrahlungsmenge S(x) als Funktion des Ortes x, die von den Sensorelementen aufgenommen wird, zeigt qualitativ den im oberen Diagramm der 17 dargestellten Verlauf. Am Ort, den der Marker am Ende des Belichtungszeitintervalls erreicht hat, findet ein nahezu sprungförmiger Anstieg der Strahlungsmenge S(x) statt, da der Marker diesen Ort und alle weiter vom Ort x0 entfernten Orte zweimal während des Belichtungszeitintervalls durchlaufen bzw. erreicht hat. The situation described above, according to which a temporally constant radiation intensity, in the case of a single marker and a single camera with the same exposure time interval for all sensor elements, does not allow sufficient information for determining the orientation and / or the time profile of the movement from a single recording image, is for another case in 17 shown. As already mentioned, also in the case of 17 a reversal of the movement of the marker takes place. Starting from the top left in 17 At the time t0 of the beginning of the exposure time interval, the marker reaches its maximum distance from location x0 after one third of the duration of the exposure time interval. As the movement progresses during the exposure time interval, it will move in the reverse direction, but at a slower speed than in the first third of the exposure time interval. The resulting irradiation amount S (x) as a function of the location x, which is recorded by the sensor elements, shows qualitatively the in the upper diagram of 17 illustrated course. At the location reached by the marker at the end of the exposure time interval, there is a nearly jump-like increase in the amount of radiation S (x) since the marker has traversed this location and all locations farther from location x0 twice during the exposure time interval.

Obwohl 18 für den gleichen Fall der Bewegung des Markers eine konstant abfallende Strahlungsintensität zeigt, lässt sich dennoch aus einem einzigen Aufzeichnungsbild nicht eindeutig ermitteln, wann der Marker während des Belichtungszeitintervalls sich mit welcher Orientierung bewegt hat. Der durch eine durchgezogene Linie in 18 dargestellte Verlauf der von den Sensorelementen empfangenen Strahlungsmenge S(x) ist dem in 17 gezeigten Verlauf qualitativ ähnlich. Lediglich die beiden Plateaus des Verlaufs sind leicht verändert und fallen zu größeren Werten von x stellenweise ab, wobei das rechte Plateau hin zu dem maximalen x-Wert zunächst nochmals leicht ansteigt, weil dort die Umkehr der Bewegung stattgefunden hat und die Aufenthaltsdauer des Markers dort verhältnismäßig lang war. Even though 18 For the same case, if the movement of the marker shows a constantly decreasing radiation intensity, it can not be unambiguously determined from a single recording image when the marker has moved with which orientation during the exposure time interval. The by a solid line in 18 illustrated course of the received radiation from the sensor elements S (x) is the in 17 shown qualitatively similar. Only the two plateaus of the course are slightly changed and drop to larger values of x in places, with the right plateau initially slightly increasing again towards the maximum x value, because there the reversal of the movement has taken place and the residence time of the marker there is relatively high was long.

Jedoch zeigen die mit gestrichelten Linien dargestellte Variante des zeitlichen Verlaufs der Strahlungsintensität I(t) und die resultierende Variante der Strahlungsmenge S(x) den Wert der zusätzlich erhaltenen Information, wenn die Strahlungsintensität im Verlauf der Zeit mit großer Änderungsrate abnimmt. Für den umgekehrten Fall einer Zunahme mit großer Änderungsrate gilt entsprechendes. Die Strahlungsintensität ist im ersten Zehntel des Belichtungszeitintervalls besonders groß und dies führt zu einem Maximum der Strahlungsmenge nahe des Ortes x0. Es wird somit die Information gewonnen, dass sich mit hoher Wahrscheinlichkeit der Marker zu Beginn des Belichtungszeitintervalls an diesem Ort befunden hat. However, the variant of the time course of the radiation intensity I (t) shown in dashed lines and the resulting variant of the radiation amount S (x) show the value of the additionally obtained information when the radiation intensity decreases over time with a large rate of change. For the reverse case of an increase with a large rate of change applies accordingly. The radiation intensity is particularly large in the first tenth of the exposure time interval and this leads to a maximum of the radiation quantity near the location x0. Thus, the information is obtained that the marker was most likely located at the beginning of the exposure time interval.

20 zeigt eine pseudozufällige Variation der Strahlungsintensität I(t). Dabei kann es sich um die Gesamt-Strahlungsintensität handeln oder um eine andere Strahlungsintensität, z.B. eine Strahlungsintensität innerhalb eines bekannten und/oder vorgegebenen Spektralbereichs der Strahlung. Ferner alternativ kann es sich dabei um die Strahlungsintensität von Strahlung einer bestimmten Polarisationsrichtung handeln. Z. B. kann die Strahlungsintensität innerhalb von anderen bekannten und/oder vorgegebenen Spektralbereichen der Strahlung ebenfalls pseudozufällig variiert werden und zwar mit verschiedenen pseudozufälligen Intensitätsniveausprüngen in den verschiedenen Spektralbereichen der Strahlung. Entsprechendes gilt für Strahlungsanteile mit anderen Polarisationsrichtungen. 20 shows a pseudo-random variation of the radiation intensity I (t). This can be the total radiation intensity or a different radiation intensity, eg a radiation intensity within a known and / or predetermined spectral range of the radiation. Furthermore, this may alternatively be the radiation intensity of radiation of a specific polarization direction. For example, the radiation intensity within other known and / or predetermined spectral regions of the radiation may also be varied pseudorandomly with different pseudo-random intensity level jumps in the different spectral regions of the radiation. The same applies to radiation components with other polarization directions.

Die Strahlungsintensität ist jeweils innerhalb von Teil-Zeitintervallen konstant und springt am Ende des Teil-Zeitintervalls stufenartig auf ein anderes Intensitätsniveau. 20 zeigt den Zeitraum eines Belichtungszeitintervalls zwischen dem Anfangszeitpunkt t0 und dem Endzeitpunkt t0 + τ. Innerhalb des Teil-Zeitintervalls befinden sich in dem Ausführungsbeispiel acht Teil-Zeitintervalle, in denen die Strahlungsintensität jeweils einen konstanten Wert hat. The radiation intensity is constant in each case within sub-time intervals and jumps at the end of the sub-time interval in steps to another intensity level. 20 shows the period of an exposure time interval between the start time t0 and the end time t0 + τ. Within the sub-time interval, there are eight sub-time intervals in the exemplary embodiment in which the radiation intensity in each case has a constant value.

Die pseudozufällige Intensitätsverteilung ist nicht auf acht Teil-Zeitintervalle pro Belichtungszeitintervall beschränkt, sondern kann vielmehr jede andere geeignete Anzahl und Dauer der Teil-Zeitintervalle haben. Auch ist es nicht zwingend erforderlich, dass die Teil-Zeitintervalle alle gleich lang sind. Z.B. kann in der Art des in 18 als Variante bezeichneten Verlaufs der Strahlungsintensität ein einzelnes Teilzeitintervall einen sehr viel höheren Wert der Strahlungsintensität haben als die unmittelbar benachbarten Teil-Zeitintervalle oder als alle Teil-Zeitintervalle innerhalb desselben Belichtungszeitintervalls. Auf diese Weise wird in dem oben beschriebenen Sinn die Szene während dieses Teilzeitintervalls in das Aufzeichnungsbild „eingebrannt“. The pseudorandom intensity distribution is not limited to eight sub-time intervals per exposure time interval, but rather may have any other suitable number and duration of sub-time intervals. Also, it is not mandatory that the sub-time intervals are all the same length. For example, in the type of in 18 As a variant of the course of the radiation intensity of a single part-time interval have a much higher value of the radiation intensity than the immediately adjacent part-time intervals or as all sub-time intervals within the same exposure time interval. In this way, in the sense described above, the scene is "burned" into the recording image during this part-time interval.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturCited non-patent literature

  • „The Non-parametric Sub-pixel Local Point Spread Function Estimation Is a Well Posed Problem“ von Mauricio Delbracio et al., International Journal of Computer Vision (2012) 96, Seiten 175–195, Springer [0060] "The Non-parametric Sub-pixel Local Point Spread Function Estimation Is a Well-Posed Problem" by Mauricio Delbracio et al., International Journal of Computer Vision (2012) 96, pages 175-195, Springer [0060]
  • Jason Geng in „Structured-light 3D surface imaging: a tutorial“, Advances in Optics and Photonics 3, 128–160 (2011) doi: 10.1364/AOP.3.000128 [0268] Jason Geng in Structured-light 3D Surface Imaging: A Tutorial, Advances in Optics and Photonics 3, 128-160 (2011) doi: 10.1364 / AOP.3.000128 [0268]

Claims (17)

Verfahren zum Betreiben eines Operationsmikroskopiesystems (1), wobei das Operationsmikroskopiesystem (1) aufweist: – eine Mikroskop-Optik (21), welche dazu ausgestaltet ist, einen Objektbereich zur Berücksichtigung bei einer Operation abzubilden, – eine Bewegungseinrichtung (18), welche dazu ausgestaltet ist, die Mikroskop-Optik (21) derart zu bewegen, dass eine Position des Objektbereichs verändert wird, – zumindest eine Bildaufzeichnungseinrichtung (23, 24), (a) die entweder mit der Mikroskop-Optik (21) verbunden ist und bei Bewegung der Mikroskop-Optik (21) mitbewegt wird, wobei die Bildaufzeichnungseinrichtung (23, 24) eine separat von der Mikroskop-Optik (21) angeordnete Erfassungsstruktur (28, 29), die bei Bewegung der Mikroskop-Optik (21) nicht mitbewegt wird, durch zumindest ein Aufzeichnungsbild erfasst, (b) oder die separat von der Mikroskop-Optik (21) angeordnet ist, bei Bewegung der Mikroskop-Optik (21) nicht mitbewegt wird und eine Erfassungsstruktur (28, 29), die durch die Mikroskop-Optik (21) und/oder durch zumindest ein fest mit der Mikroskop-Optik (21) verbundenes Teil gebildet ist und/oder an der Mikroskop-Optik (21) und/oder an dem zumindest einen fest mit der Mikroskop-Optik (21) verbundenen Teil angeordnet ist, durch zumindest ein Aufzeichnungsbild erfasst, wobei unter Verwendung von Informationen über eine tatsächliche Erscheinung der Erfassungsstruktur (28, 29) aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur (28, 29) eine Geschwindigkeit einer Relativbewegung der Bildaufzeichnungseinrichtung (23, 24) und der Erfassungsstruktur (28, 29) ermittelt wird. Method for operating a surgical microscope system ( 1 ), wherein the surgical microscope system ( 1 ): - a microscope optic ( 21 ), which is designed to image an object area for consideration in an operation, - a movement device ( 18 ), which is designed to the microscope optics ( 21 ) in such a way that a position of the object area is changed, - at least one image recording device ( 23 . 24 ), (a) either with the microscope optics ( 21 ) and upon movement of the microscope optics ( 21 ) is moved, wherein the image recording device ( 23 . 24 ) a separate from the microscope optics ( 21 ) ( 28 . 29 ) when moving the microscope optics ( 21 ) is not moved, detected by at least one recording image, (b) or separately from the microscope optics ( 21 ), upon movement of the microscope optics ( 21 ) is not moved and a collection structure ( 28 . 29 ) through the microscope optics ( 21 ) and / or by at least one fixed with the microscope optics ( 21 ) connected part and / or on the microscope optics ( 21 ) and / or on the at least one fixed to the microscope optics ( 21 ) is detected by at least one recording image, using information about an actual appearance of the detection structure ( 28 . 29 ) from differences of the at least one recording image to the actual appearance of the detection structure ( 28 . 29 ) a speed of relative movement of the image recording device ( 23 . 24 ) and the collection structure ( 28 . 29 ) is determined. Verfahren nach Anspruch 1, wobei das Aufzeichnungsbild während eines Zeitintervalls einer Erfassung der Erfassungsstruktur (28, 29) aufgenommen wird und im Fall der Relativbewegung der Bildaufzeichnungseinrichtung (23, 24) und der Erfassungsstruktur (28, 29) eine tatsächliche Erscheinung der Erfassungsstruktur (28, 29) aufgrund der Relativbewegung im Aufzeichnungsbild verändert erscheint. The method of claim 1, wherein the recording image is captured during a time interval of detection of the detection structure ( 28 . 29 ) and in the case of the relative movement of the image recording device ( 23 . 24 ) and the collection structure ( 28 . 29 ) an actual appearance of the collection structure ( 28 . 29 ) appears changed due to the relative movement in the recording image. Verfahren nach Anspruch 1 oder 2, wobei die Informationen über die tatsächliche Erscheinung der Erfassungsstruktur (28, 29) ein Referenzbild der Erfassungsstruktur (28, 29) aufweisen und wobei durch Auswerten von Unterschieden des Referenzbildes und des zumindest einen von der Bildaufzeichnungseinrichtung (23, 24) aufgenommenen Aufzeichnungsbildes die Geschwindigkeit der Relativbewegung ermittelt wird. Method according to claim 1 or 2, wherein the information about the actual appearance of the detection structure ( 28 . 29 ) a reference image of the collection structure ( 28 . 29 ) and wherein by evaluating differences of the reference image and the at least one of the image recording device (10) 23 . 24 ) recorded recording image, the speed of the relative movement is determined. Verfahren nach Anspruch 3, wobei durch mathematische Faltung des Referenzbildes mit demjenigen Bereich des Aufzeichnungsbildes, in dem die Erfassungsstruktur (28, 29) abgebildet ist, ein Faltungskern der Faltung ermittelt wird und aus dem Faltungskern die Geschwindigkeit der Relativbewegung ermittelt wird. Method according to Claim 3, wherein the mathematical convolution of the reference image with the region of the recording image in which the detection structure ( 28 . 29 ), a convolution kernel of the convolution is determined and from the convolution kernel the velocity of the relative movement is determined. Verfahren nach Anspruch 4, wobei der Faltungskern als geometrische Struktur interpretiert wird, deren äußere Abmessungen den äußeren Abmessungen des Referenzbildes und den äußeren Abmessungen des Bereichs des Aufzeichnungsbildes entsprechen, in dem die Erfassungsstruktur (28, 29) abgebildet ist, und wobei die Geschwindigkeit der Relativbewegung aus zumindest einer geometrischen Eigenschaft einer Teilstruktur (53, 54) des Faltungskerns ermittelt wird. The method of claim 4, wherein the convolution kernel is interpreted as a geometric structure whose outer dimensions correspond to the outer dimensions of the reference image and the outer dimensions of the region of the recorded image in which the detection structure ( 28 . 29 ) and wherein the speed of the relative movement of at least one geometric property of a substructure ( 53 . 54 ) of the convolution kernel. Verfahren nach Anspruch 5, wobei das Aufzeichnungsbild und das Referenzbild zweidimensionale Bilder sind und wobei ein Betrag und/oder eine Richtung der Geschwindigkeit der Relativbewegung aus einer Geometrie der Teilstruktur (54) des Faltungskerns ermittelt werden. The method of claim 5, wherein the recording image and the reference image are two-dimensional images, and wherein an amount and / or a direction of the velocity of the relative movement from a geometry of the substructure ( 54 ) of the convolution kernel. Verfahren nach einem der Ansprüche 1–6, wobei die Erfassungsstruktur (28, 29) eine Struktur ist, deren in den Frequenzraum transformierte Ortsfunktion innerhalb eines Frequenzbereichs, der bei der Frequenz null beginnt, der die Frequenz null aber nicht mit einschließt und der bei einer vorgegebenen Maximalfrequenz endet, keine Nullstelle aufweist. Method according to one of claims 1-6, wherein the detection structure ( 28 . 29 ) is a structure whose spatial function transformed into frequency space has no zero within a frequency range beginning at zero but not including frequency zero and ending at a given maximum frequency. Verfahren nach Anspruch 7, wobei die Maximalfrequenz so vorgegeben ist, dass sie nicht kleiner ist als die Nyquist-Frequenz der Kamera.  The method of claim 7, wherein the maximum frequency is set so that it is not smaller than the Nyquist frequency of the camera. Verfahren nach Anspruch 7 oder 8, wobei der Funktionswert der in den Frequenzraum transformierten Ortsfunktion der Erfassungsstruktur (28, 29) in dem gesamten Frequenzbereich größer als ein vorgegebener Mindestwert ist. Method according to claim 7 or 8, wherein the function value of the spatial function of the detection structure transformed into the frequency domain ( 28 . 29 ) is greater than a predetermined minimum value in the entire frequency range. Verfahren nach Anspruch 9, wobei der vorgegebene Mindestwert größer als eine durch die Aufzeichnung des Aufzeichnungsbildes und durch eine Ermittlung der Geschwindigkeit bewirkte statistische Schwankungsamplitude von Bildwerten des Aufzeichnungsbildes. The method of claim 9, wherein the predetermined minimum value is greater than a statistical fluctuation amplitude of image values of the recorded image caused by the recording of the recorded image and by the determination of the velocity. Verfahren nach einem der Ansprüche 7–10, wobei der Funktionswert der in den Frequenzraum transformierten Ortsfunktion der Erfassungsstruktur (28, 29) in dem gesamten Frequenzbereich konstant ist. Method according to one of claims 7-10, wherein the function value of the spatial function of the detection structure ( 28 . 29 ) is constant in the entire frequency range. Verfahren nach einem der Ansprüche 1–11, wobei das Aufzeichnungsbild Pixel aufweist, deren Bildwerte jeweils einer über ein Belichtungszeitintervall integrierten Strahlungsmenge entsprechen, wobei sich die Belichtungszeitintervalle verschiedener Pixel des Aufzeichnungsbildes voneinander unterscheiden und wobei unter Berücksichtigung von Informationen über die unterschiedlichen Belichtungszeitintervalle die Geschwindigkeit der Relativbewegung und/oder Informationen über einen zeitlichen Verlauf der Bewegung ermittelt wird/werden.  A method according to any one of claims 1-11, wherein the recording image comprises pixels whose image values each correspond to an amount of radiation integrated over an exposure time interval, the exposure time intervals of different pixels of the recording image differing from each other, and taking into account information about the different exposure time intervals, the speed of the relative movement and / or information about a time course of the movement is / are determined. Verfahren nach einem der Ansprüche 1–11, wobei unter Verwendung der Informationen über eine tatsächliche Erscheinung der Erfassungsstruktur (28, 29) aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur (28, 29) eine Orientierung und/oder ein zeitlicher Verlauf der Relativbewegung der Bildaufzeichnungseinrichtung (23, 24) und der Erfassungsstruktur (28, 29) ermittelt wird. Method according to one of claims 1-11, wherein, using the information about an actual appearance of the detection structure ( 28 . 29 ) from differences of the at least one recording image to the actual appearance of the detection structure ( 28 . 29 ) an orientation and / or a temporal course of the relative movement of the image recording device ( 23 . 24 ) and the collection structure ( 28 . 29 ) is determined. Bewegungsmesssystem (19) für ein Operationsmikroskopiesystem (1) mit einer Mikroskop-Optik (21), welche dazu ausgestaltet ist, einen Objektbereich zur Berücksichtigung bei einer Operation abzubilden, wobei das Bewegungsmesssystem aufweist: – zumindest eine Bildaufzeichnungseinrichtung (23, 24), (a) die während eines Betriebes entweder mit der Mikroskop-Optik (21) verbunden ist und bei Bewegung der Mikroskop-Optik (21) mitbewegt wird, wobei die Bildaufzeichnungseinrichtung (23, 24) eine separat von der Mikroskop-Optik (21) angeordnete Erfassungsstruktur (28, 29), die bei Bewegung der Mikroskop-Optik (21) nicht mitbewegt wird, durch zumindest ein Aufzeichnungsbild erfasst, (b) oder die während eines Betriebes separat von der Mikroskop-Optik (21) angeordnet ist, bei Bewegung der Mikroskop-Optik (21) nicht mitbewegt wird und eine Erfassungsstruktur (28, 29), die durch die Mikroskop-Optik (21) und/oder durch zumindest ein fest mit der Mikroskop-Optik (21) verbundenes Teil gebildet ist und/oder an der Mikroskop-Optik (21) und/oder an dem zumindest einen fest mit der Mikroskop-Optik (21) verbundenen Teil angeordnet ist, durch zumindest ein Aufzeichnungsbild erfasst, – eine Ermittlungseinrichtung, die ausgestaltet ist, unter Verwendung von Informationen über eine tatsächliche Erscheinung der Erfassungsstruktur (28, 29) aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur (28, 29) eine Geschwindigkeit einer Relativbewegung der Bildaufzeichnungseinrichtung (23, 24) und der Erfassungsstruktur (28, 29) zu ermitteln. Motion measuring system ( 19 ) for a surgical microscopy system ( 1 ) with a microscope optic ( 21 ), which is designed to image an object area for consideration in an operation, wherein the movement measuring system comprises: - at least one image recording device ( 23 . 24 ), (a) during operation with either the microscope optics ( 21 ) and upon movement of the microscope optics ( 21 ) is moved, wherein the image recording device ( 23 . 24 ) a separate from the microscope optics ( 21 ) ( 28 . 29 ) when moving the microscope optics ( 21 ) is not moved, detected by at least one recording image, (b) or during operation separate from the microscope optics ( 21 ), upon movement of the microscope optics ( 21 ) is not moved and a collection structure ( 28 . 29 ) through the microscope optics ( 21 ) and / or by at least one fixed with the microscope optics ( 21 ) connected part and / or on the microscope optics ( 21 ) and / or on the at least one fixed to the microscope optics ( 21 ) is detected by at least one recording image, - a detection device that is configured using information about an actual appearance of the detection structure ( 28 . 29 ) from differences of the at least one recording image to the actual appearance of the detection structure ( 28 . 29 ) a speed of relative movement of the image recording device ( 23 . 24 ) and the collection structure ( 28 . 29 ) to investigate. Bewegungsmesssystem (19) nach Anspruch 14, wobei die Ermittlungseinrichtung (4, 19) ausgestaltet ist, unter Verwendung der Informationen über eine tatsächliche Erscheinung der Erfassungsstruktur (28, 29) aus Unterschieden des zumindest einen Aufzeichnungsbildes zu der tatsächlichen Erscheinung der Erfassungsstruktur (28, 29) eine Orientierung und/oder einen zeitlichen Verlauf der Relativbewegung der Relativbewegung der Bildaufzeichnungseinrichtung (23, 24) und der Erfassungsstruktur (28, 29) zu ermitteln. Motion measuring system ( 19 ) according to claim 14, wherein the determining device ( 4 . 19 ) using the information about an actual appearance of the collection structure ( 28 . 29 ) from differences of the at least one recording image to the actual appearance of the detection structure ( 28 . 29 ) an orientation and / or a temporal course of the relative movement of the relative movement of the image recording device ( 23 . 24 ) and the collection structure ( 28 . 29 ) to investigate. Bewegungsmesssystem nach Anspruch 14 oder 15, wobei das Bewegungsmesssystem eine Bewegungssteuerung (4) aufweist, die ausgestaltet ist, unter Berücksichtigung der von der Ermittlungseinrichtung (4, 19) ermittelten Geschwindigkeit eine Bewegungseinrichtung (18) zur Bewegung der Mikroskop-Optik (21) zu steuern. Motion measuring system according to claim 14 or 15, wherein the movement measuring system comprises a movement control ( 4 ), which is designed taking into account the information provided by the determining device ( 4 . 19 ) determined speed a movement device ( 18 ) for moving the microscope optics ( 21 ) to control. Operationsmikroskopiesystem (1), das aufweist: – das Bewegungsmesssystem (19) nach einem der Ansprüche 14 bis 16, – eine Mikroskop-Optik (21), welche dazu ausgestaltet ist, einen Objektbereich zur Berücksichtigung bei einer Operation abzubilden, – eine Bewegungseinrichtung (18), welche dazu ausgestaltet ist, die Mikroskop-Optik (21) derart zu bewegen, dass eine Position des Objektbereichs verändert wird. Surgical microscopy system ( 1 ), comprising: - the motion measuring system ( 19 ) according to one of claims 14 to 16, - a microscope optics ( 21 ), which is designed to image an object area for consideration in an operation, - a movement device ( 18 ), which is designed to the microscope optics ( 21 ) to move such that a position of the object area is changed.
DE102016217628.5A 2016-09-15 2016-09-15 A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system Active DE102016217628B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016217628.5A DE102016217628B4 (en) 2016-09-15 2016-09-15 A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016217628.5A DE102016217628B4 (en) 2016-09-15 2016-09-15 A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system

Publications (2)

Publication Number Publication Date
DE102016217628A1 true DE102016217628A1 (en) 2018-03-15
DE102016217628B4 DE102016217628B4 (en) 2018-06-07

Family

ID=61247379

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016217628.5A Active DE102016217628B4 (en) 2016-09-15 2016-09-15 A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system

Country Status (1)

Country Link
DE (1) DE102016217628B4 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018206405B3 (en) 2018-04-25 2019-09-12 Carl Zeiss Meditec Ag Microscopy system and method for operating a microscopy system
DE102018206406B3 (en) 2018-04-25 2019-09-12 Carl Zeiss Meditec Ag Microscopy system and method for operating a microscopy system
DE102019125418B3 (en) * 2019-09-20 2020-11-19 Carl Zeiss Meditec Ag Intraoperative optical imaging method and intraoperative optical imaging system
CN111983793A (en) * 2019-05-23 2020-11-24 卡尔蔡司显微镜有限责任公司 Device for controlling and/or configuring a system
CN113205556A (en) * 2020-01-31 2021-08-03 卡尔蔡司工业测量技术有限公司 Method and apparatus for determining the position of an object
DE102021204033B3 (en) 2021-04-22 2022-06-15 Carl Zeiss Meditec Ag Method for operating a surgical microscope and surgical microscope
DE102022115510B4 (en) 2021-06-24 2023-07-06 Northern Digital Inc. RETROREFLECTIVE MARKER

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010022592A1 (en) 2010-05-31 2011-12-01 Siemens Aktiengesellschaft Method for determining speed of rail-bound vehicle e.g. magnetic levitation train, involves detecting image of stretching-side surrounding vehicle, and detecting speed of vehicle from distortion of image by using evaluation device
DE102014206851A1 (en) 2014-04-09 2015-03-05 Siemens Aktiengesellschaft Arrangement and method for detecting a one-dimensional position and speed of an object with a camera
DE102014210056A1 (en) 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Method for controlling a surgical device and surgical device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3908785A1 (en) 1989-03-17 1990-09-27 Bke Bildtechnisches Konstrukti Method and devices for measuring the speed of motor vehicles

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010022592A1 (en) 2010-05-31 2011-12-01 Siemens Aktiengesellschaft Method for determining speed of rail-bound vehicle e.g. magnetic levitation train, involves detecting image of stretching-side surrounding vehicle, and detecting speed of vehicle from distortion of image by using evaluation device
DE102014206851A1 (en) 2014-04-09 2015-03-05 Siemens Aktiengesellschaft Arrangement and method for detecting a one-dimensional position and speed of an object with a camera
DE102014210056A1 (en) 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Method for controlling a surgical device and surgical device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
„The Non-parametric Sub-pixel Local Point Spread Function Estimation Is a Well Posed Problem" von Mauricio Delbracio et al., International Journal of Computer Vision (2012) 96, Seiten 175–195, Springer
Jason Geng in „Structured-light 3D surface imaging: a tutorial", Advances in Optics and Photonics 3, 128–160 (2011) doi: 10.1364/AOP.3.000128

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018206405B3 (en) 2018-04-25 2019-09-12 Carl Zeiss Meditec Ag Microscopy system and method for operating a microscopy system
DE102018206406B3 (en) 2018-04-25 2019-09-12 Carl Zeiss Meditec Ag Microscopy system and method for operating a microscopy system
CN114488501A (en) * 2018-04-25 2022-05-13 卡尔蔡司医疗技术股份公司 Microscope system and method for operating a microscope system
US11406455B2 (en) 2018-04-25 2022-08-09 Carl Zeiss Meditec Ag Microscopy system and method for operating the microscopy system
US11806092B2 (en) 2018-04-25 2023-11-07 Carl Zeiss Meditec Ag Microscopy system and method for operating the microscopy system
CN111983793A (en) * 2019-05-23 2020-11-24 卡尔蔡司显微镜有限责任公司 Device for controlling and/or configuring a system
DE102019125418B3 (en) * 2019-09-20 2020-11-19 Carl Zeiss Meditec Ag Intraoperative optical imaging method and intraoperative optical imaging system
CN113205556A (en) * 2020-01-31 2021-08-03 卡尔蔡司工业测量技术有限公司 Method and apparatus for determining the position of an object
DE102021204033B3 (en) 2021-04-22 2022-06-15 Carl Zeiss Meditec Ag Method for operating a surgical microscope and surgical microscope
DE102022115510B4 (en) 2021-06-24 2023-07-06 Northern Digital Inc. RETROREFLECTIVE MARKER

Also Published As

Publication number Publication date
DE102016217628B4 (en) 2018-06-07

Similar Documents

Publication Publication Date Title
EP3278302B1 (en) Motion-measuring system of a machine and method for operating the motion-measuring system
DE102016217628B4 (en) A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system
EP2710331B1 (en) Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
EP3298344B1 (en) Method and camera for the three-dimensional measurement of a dental object
EP1597539B1 (en) Method and optical system for measuring the topography of a test object
EP1825217B1 (en) Measuring device and method that operates according to the basic principles of confocal microscopy
EP2079981B1 (en) Device and method for the contactless detection of a three-dimensional contour
EP2437027A2 (en) Device and method for three dimensional optical mapping of a sample
DE102014206309B4 (en) System and method for obtaining offset images to be used for improved edge resolution
EP3298345B1 (en) Camera and method for the three-dimensional measurement and colour measurement of a dental object
DE102015209402A1 (en) Device for optical 3D measurement of an object
DE102008040947A1 (en) 3D dental camera for detecting surface structures of a test object by means of triangulation
DE102009009372A1 (en) Monitoring of tiltable mirrors
DE102008054985A1 (en) Method and device for optical measurement of three-dimensional objects by means of a dental 3D camera using a triangulation method
DE102005023212B4 (en) Method and device for fast and accurate white light interferometry
EP3292371B1 (en) Device and method for spatially measuring surfaces
WO2009018894A1 (en) Method and device for determining geometric data of a measured object
DE102014016087B4 (en) Three-dimensional optical detection of object surfaces
DE10256725B3 (en) Sensor for contactless optical measurement of relative velocity of material surface using detection of moving light pattern directed onto material surface via illumination device with controlled light sources
DE102016125451A1 (en) Device and method for the interferometric determination of a surface topography of a measurement object
DE102011055967B4 (en) Measuring method and device for carrying out the measuring method
DE102019204361A1 (en) Increase in the accuracy of positioning a movable medical X-ray device relative to an examination subject by means of a camera system
DE102017009334B3 (en) Method for testing an optical system
EP4002067A1 (en) Method for preparation of a 3d scan and 3d scanner for performing the method
DE2518209C3 (en) Method and device for photoelectrically determining the position of at least one focal plane of an image

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0021340000

Ipc: G02B0021240000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final