DE102022126824A1 - Method for superimposing overlay recording information with a live image and a corresponding device - Google Patents

Method for superimposing overlay recording information with a live image and a corresponding device Download PDF

Info

Publication number
DE102022126824A1
DE102022126824A1 DE102022126824.1A DE102022126824A DE102022126824A1 DE 102022126824 A1 DE102022126824 A1 DE 102022126824A1 DE 102022126824 A DE102022126824 A DE 102022126824A DE 102022126824 A1 DE102022126824 A1 DE 102022126824A1
Authority
DE
Germany
Prior art keywords
image
live
overlay
recorded
recording information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022126824.1A
Other languages
German (de)
Inventor
Lukas Buschle
Johannes Albert Fallert
Werner Göbel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Karl Storz SE and Co KG
Original Assignee
Karl Storz SE and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Karl Storz SE and Co KG filed Critical Karl Storz SE and Co KG
Priority to DE102022126824.1A priority Critical patent/DE102022126824A1/en
Publication of DE102022126824A1 publication Critical patent/DE102022126824A1/en
Pending legal-status Critical Current

Links

Images

Abstract

Die Erfindung betrifft ein Verfahren zum Überlagern von Überlagerungsaufnahmeinformationen (140) mit einem Livebild (135), insbesondere mit einem endoskopischen und/oder einem exoskopischen und/oder einem laryngoskopischen und/oder einem mikroskopischen Livebild (135), zumindest die folgenden Schritte umfassend: Erfassen mindestens eines Aufnahmebildes (134) eines beweglichen Objektes (112) mittels einer beweglichen Bilderfassungsvorrichtung (104); Ermitteln der Überlagerungsaufnahmeinformationen (140) in dem mindestens einen erfassten Aufnahmebild (134) zumindest bezüglich des Objektes (112); Erfassen mindestens eines zeitlich auf das Aufnahmebild (134) folgenden Livebildes (135) des beweglichen Objektes (112) mittels der beweglichen Bilderfassungsvorrichtung (104); Berechnen einer Transformationsvorschrift zumindest zwischen dem Aufnahmebild (134) und dem Livebild (135), um derart eine Positions- und/oder Lage- und/oder Tiefenänderung des beweglichen Objektes (112) zwischen dem Aufnahmebild (134) und dem Livebild (135) nachzuverfolgen; und Überlagern der zuvor ermittelten Überlagerungsaufnahmeinformationen (140) mit dem Livebild (135) zumindest in Abhängigkeit von der berechneten Transformationsvorschrift..The invention relates to a method for superimposing superimposed recording information (140) with a live image (135), in particular with an endoscopic and/or an exoscopic and/or a laryngoscopic and/or a microscopic live image (135), comprising at least the following steps: capturing at least one recorded image (134) of a moving object (112) by means of a moving image capturing device (104); determining the superimposed recording information (140) in the at least one captured recorded image (134) at least with regard to the object (112); capturing at least one live image (135) of the moving object (112) following the recorded image (134) by means of the moving image capturing device (104); Calculating a transformation rule at least between the recorded image (134) and the live image (135) in order to track a change in position and/or location and/or depth of the moving object (112) between the recorded image (134) and the live image (135); and overlaying the previously determined overlay recording information (140) with the live image (135) at least as a function of the calculated transformation rule.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Überlagern von Überlagerungsaufnahmeinformationen mit einem Livebild, insbesondere mit einem endoskopischen und/oder einem exoskopischen und/oder einem laryngoskopischen und/oder einem mikroskopischen Livebild, gemäß dem unabhängigen Anspruch 1. Die Erfindung betrifft ferner eine Vorrichtung mit einer beweglichen Bilderfassungsvorrichtung mit einem Bildsensor und mindestens einer Bilderfassungseinheit, einer Recheneinrichtung und einer Anzeigevorrichtung gemäß dem unabhängigen Anspruch 15.The present invention relates to a method for superimposing overlay recording information with a live image, in particular with an endoscopic and/or an exoscopic and/or a laryngoscopic and/or a microscopic live image, according to independent claim 1. The invention further relates to a device with a movable image capture device with an image sensor and at least one image capture unit, a computing device and a display device according to independent claim 15.

Optische Visualisierungssysteme, wie Mikroskope, Exoskope und Endoskope, ermöglichen eine Darstellung einer Szene und/oder eines Arbeitsbereiches, in der bzw. dem feinmotorische Arbeiten und/oder visuelle Überprüfungen durchgeführt werden. Bei medizinischen Eingriffen ist der Arbeitsbereich beispielsweise ein Operationsfeld in einem inneren Bereich, beispielsweise innerhalb eines Thorax oder eines Kopfes, des menschlichen Körpers.Optical visualization systems, such as microscopes, exoscopes and endoscopes, enable a representation of a scene and/or a work area in which fine motor work and/or visual inspections are performed. In medical procedures, for example, the work area is an operating field in an internal region, for example within a thorax or a head, of the human body.

Die Exoskopie beschreibt dabei ein Beobachten und ggf. Beleuchten eines Operationsfeldes an einem Patienten und/oder eines Objektfeldes an einem beliebigen Objekt ausgehend von einer Stelle abseits, d. h. außerhalb, eines Körpers des Patienten bzw. abseits des Objektes.Exoscopy describes the observation and, if necessary, illumination of an operating field on a patient and/or an object field on any object from a location away from, i.e. outside, the patient's body or away from the object.

Die Endoskopie beschreibt eine bildgebende Technik, bei der ein Endoskop in einen Hohlraum eingeführt wird. Das Fachpersonal, welches einen solchen Eingriff mit einem Endoskop durchführt, betrachtet das vom Endoskop erfasste Bild auf einem Bildschirm und kann auf Basis dieses Bildes seine Handlungen lenken. Bei medizinischen, beispielsweise minimal-invasiven Eingriffen wird ein Endoskop in den Körper eingeführt, um ein inneres Bild des Körpers zu erfassen und auf dem Bildschirm darzustellen. Aufgrund einer oftmals benötigten präzisen Arbeitsweise des Fachpersonals ist es wünschenswert, dass ein möglichst genaues, hoch aufgelöstes Bild des Hohlraums und/oder des Arbeitsbereiches vermittelt wird, an dem die Überprüfung und/oder die Operation durchzuführen ist.Endoscopy describes an imaging technique in which an endoscope is inserted into a cavity. The specialist who carries out such an intervention with an endoscope looks at the image captured by the endoscope on a screen and can direct his actions on the basis of this image. In medical procedures, for example minimally invasive procedures, an endoscope is inserted into the body in order to capture an internal image of the body and display it on the screen. Because the specialist often needs to work precisely, it is desirable to provide as accurate, high-resolution an image as possible of the cavity and/or the work area where the examination and/or operation is to be carried out.

Die durch das Endoskop erfassten und auf einem Anzeigegerät dargestellten Bilder sind in der Regel zweidimensional, so dass es selbst dem Fachpersonal aufgrund des Fehlens von Tiefeninformationen nicht möglich ist, Dimensionen und/oder Abmessungen eines betrachteten Objektes in der abgebildeten Szene exakt zu bestimmen.The images captured by the endoscope and displayed on a display device are usually two-dimensional, so that even the specialist personnel is unable to accurately determine the dimensions and/or measurements of an object being viewed in the imaged scene due to the lack of depth information.

Um diese Problematik zu lösen und/oder auch Tiefenmessungen in einem Messbild zu ermöglichen, sind jedoch auch dreidimensional arbeitende Stereoendoskope und/oder Stereoexoskope und/oder Mikroskope bekannt, bei denen eine Szene aus zwei verschiedenen Blickwinkeln durch zwei Bilderfassungseinheiten aufgenommen wird. Durch die beiden Bilderfassungseinheiten wird, vorzugsweise pro Zeiteinheit und Blickwinkel synchronisiert, je ein Bild von der zu betrachtenden Szene aufgenommen. Hieraus resultieren jeweils sogenannte Stereomessbildpaare mit einem gemeinsamen Zeitstempel. Aus einem solchen Stereomessbildpaar können über Verfahren der Stereorekonstruktion Tiefeninformationen ausgewertet werden.In order to solve this problem and/or to enable depth measurements in a measurement image, three-dimensional stereo endoscopes and/or stereo exoscopes and/or microscopes are also known, in which a scene is recorded from two different angles by two image capture units. The two image capture units record one image of the scene to be viewed, preferably synchronized per unit of time and angle of view. This results in so-called stereo measurement image pairs with a common time stamp. Depth information can be evaluated from such a stereo measurement image pair using stereo reconstruction methods.

Im Zuge dieser Stereorekonstruktion wird eine Disparität, d. h. ein horizontaler Pixelversatz, in den jeweiligen Stereobildpaaren durch einen Algorithmus pixelweise, d. h. pro Pixel, bestimmt. Objekte in großer Entfernung weisen bei einer Stereoerfassung eine geringe Disparität, d. h. einen geringen Pixelversatz, innerhalb eines jeweiligen Bildpaares auf. Hingegen weisen Objekte im Vordergrund eine große Disparität auf. Aus der Disparität kann mit Kenntnis weiterer optischer Parameter der Bilderfassungsvorrichtung(en) eine Art Tiefenkarte zu dem stereorekonstruierten Stereomessbild berechnet werden, die beispielsweise pixelweise eine Tiefeninformation des zu betrachtenden Objektes umfasst. Mithilfe der Tiefeninformationen ist es beispielsweise möglich, einen Abstand zwischen zwei beliebigen Bildpunkten im euklidischen Raum zu bestimmen.During this stereo reconstruction, a disparity, i.e. a horizontal pixel offset, is determined in the respective stereo image pairs by an algorithm pixel by pixel, i.e. per pixel. Objects at a great distance have a small disparity, i.e. a small pixel offset, within a respective image pair in a stereo capture. Objects in the foreground, on the other hand, have a large disparity. From the disparity, with knowledge of further optical parameters of the image capture device(s), a type of depth map can be calculated for the stereo-reconstructed stereo measurement image, which, for example, includes depth information of the object to be viewed pixel by pixel. Using the depth information, it is possible, for example, to determine a distance between any two image points in Euclidean space.

Aus dem Stand der Technik ist ferner die Nutzung der Fluoreszenzendoskopie und/oder der Fluoreszenzexoskopie und/oder der Fluoreszenzlaryngoskopie im operativen Umfeld bekannt. Auch ist die Nutzung von Multispektral- (engl. multispectral imaging (MSI)) und/oder Hyperspektralbildgebungsverfahren (engl. hyperspectral imaging (HSI)) bekannt, durch die jeweils einzelne Gewebebereiche durch die Darstellung von multi- oder hyperspektralen Gewebeparametern hervorgehoben darstellbar sind.The use of fluorescence endoscopy and/or fluorescence exoscopy and/or fluorescence laryngoscopy in the surgical environment is also known from the state of the art. The use of multispectral imaging (MSI) and/or hyperspectral imaging (HSI) is also known, through which individual tissue areas can be highlighted by displaying multi- or hyperspectral tissue parameters.

Die Fluoreszenzendoskopie ist ein endoskopisches Untersuchungsverfahren, bei dem Substanzen (z. B. monoklonale Antikörper) eingesetzt werden, die mit fluoreszierenden Farbstoffen, beispielsweise mit Indocyaningrün (ICG), gemarkert sind. Nach dem Injizieren des fluoreszenzfähigen Farbstoffes in den betreffenden Gewebebereich und/oder den Blutkreislauf des Patienten reichert sich der Farbstoff mit samt Trägermaterial aufgrund seiner spezifischen Eigenschaften beispielsweise in Dysplasien oder Tumoren an. Dies wird als Anflutungsverhalten des Farbstoffes bezeichnet. Durch Beleuchtung des Gewebebereichs mit einer Anregungslichtquelle wird der eingebrachte Farbstoff zur Fluoreszenz angeregt, so dass während der Anflutungsphase das veränderte Gewebe optisch deutlich hervortritt. Hierdurch erhält der Operateur vor und/oder während der Operation einen optischen Hinweis auf das geschädigte bzw. auf das zu entfernende Gewebe. Mit anderen Worten liefert bei der Fluoreszenzdarstellung das Anflutungsverhalten des fluoreszenten Farbstoffes entscheidende Informationen zur Diagnostik des betreffenden Gewebes. Die durch die Beleuchtung ausgelöste Fluoreszenz nimmt während der Anflutungsphase an Intensität zu und erreicht nach einer gewissen Zeitspanne ihr Intensitätsmaximum. An diesem Punkt sind die betreffenden Organbereiche und/oder Objekte am stärksten hervorgehoben. Im Anschluss daran nimmt die Intensität wieder ab. Bei ICG liegen die Anregung und die Fluoreszenz im nahen Infrarot. Die Fluoreszenzendoskopie benötigt in der Regel eine Kaltlichtquelle, mindestens einen optischen Filter und/oder mindestens einen optischen Sperrfilter sowie ein handelsübliches Endoskop. Am Markt ist eine Vielzahl von Systemen der Anmelderin erhältlich, beispielsweise das Tipcam Rubina mit ICG-Darstellung, das TH 121 zur ICG-Darstellung oder das TH 112 zur PDD-Darstellung.Fluorescence endoscopy is an endoscopic examination procedure in which substances (e.g. monoclonal antibodies) are used that are marked with fluorescent dyes, for example with indocyanine green (ICG). After the fluorescent dye is injected into the relevant tissue area and/or the patient's bloodstream, the dye and its carrier material accumulate in dysplasias or tumors, for example, due to its specific properties. This is known as the dye's flooding behavior. By illuminating the tissue area with an excitation light source, the introduced dye is stimulated to fluoresce, so that the altered tissue is clearly visible during the flooding phase. This gives the surgeon a visual indication before and/or during the operation. on the damaged tissue or on the tissue to be removed. In other words, in fluorescence imaging, the flooding behavior of the fluorescent dye provides crucial information for diagnosing the tissue in question. The fluorescence triggered by the illumination increases in intensity during the flooding phase and reaches its maximum intensity after a certain period of time. At this point, the organ areas and/or objects in question are most prominent. After this, the intensity decreases again. With ICG, the excitation and fluorescence are in the near infrared. Fluorescence endoscopy usually requires a cold light source, at least one optical filter and/or at least one optical blocking filter and a commercially available endoscope. A large number of systems from the applicant are available on the market, for example the Tipcam Rubina with ICG imaging, the TH 121 for ICG imaging or the TH 112 for PDD imaging.

Da das Kontrastmittel üblicherweise nur einmalig gespritzt wird, kann der Anwender das Anflutungsverhalten nur einmalig beobachten. Dies gilt in ähnlicher Weise für die Multispektral- und/oder die Hyperspektralbildgebung, zum Beispiel bei Beobachtung nicht reversibler Gewebeveränderungen und dadurch bedingter Änderungen der durch die Multispektral- oder die Hyperspektralbildgebung erfassten Gewebeeigenschaften, wie zum Beispiel der Sauerstoffsättigung. Somit ist es wünschenswert, dass ein Operateur und/oder ein mit einer Untersuchung beauftragter Mediziner das Anflutungsverhalten auch im Anschluss an die Anflutungsphase, nämlich nachdem sich der fluoreszierende Farbstoff wieder abgebaut hat, nochmals beobachten und/oder nachvollziehen kann.Since the contrast agent is usually only injected once, the user can only observe the flooding behavior once. This applies in a similar way to multispectral and/or hyperspectral imaging, for example when observing irreversible tissue changes and the resulting changes in the tissue properties recorded by the multispectral or hyperspectral imaging, such as oxygen saturation. It is therefore desirable for a surgeon and/or a doctor commissioned to carry out an examination to be able to observe and/or understand the flooding behavior again after the flooding phase, namely after the fluorescent dye has broken down again.

Zur teilweisen Lösung dieses Problems ist es aus dem Stand der Technik bekannt, dass ein betreffender Gewebebereich während der Anflutungsphase mittels einer Kamera aufgenommen und die daraus resultierende Videosequenz gespeichert wird. Wenn im weiteren Verlauf die Intensität der Fluoreszenz nachlässt, kann die zuvor aufgenommene und gespeicherte Videosequenz der Fluoreszenz abgerufen und beispielsweise mit einem aktuellen Weißlichtbild des betreffenden Gewebebereiches überlagert werden. Dabei tritt das Problem auf, dass sich die aktuelle Ansicht des Gewebes von der Ansicht zum Zeitpunkt der Anflutungsphase verändert haben kann, beispielsweise durch Bewegung des Gewebes oder durch Bewegung der Kamera.To partially solve this problem, it is known from the prior art that a relevant tissue area is recorded using a camera during the flooding phase and the resulting video sequence is saved. If the intensity of the fluorescence decreases later on, the previously recorded and saved video sequence of the fluorescence can be called up and, for example, overlaid with a current white light image of the relevant tissue area. The problem here is that the current view of the tissue may have changed from the view at the time of the flooding phase, for example due to movement of the tissue or movement of the camera.

Das Überlagern von Fluoreszenzbilddaten mit 3D-Bildern ist beispielsweise in der US 10,849,710 B2 für präoperativ aufgenommene 3D-Bilder beschrieben. Diese Bilddaten werden beispielsweise durch einen C-Bogen aufgenommen, was als Registrierung bezeichnet wird. Die aufgenommenen Bilddaten werden an die 3D-Bilder angepasst. Das Speichern und wiederholte Abspielen von Fluoreszenzbildern für eine Überlagerung mit einem Weißlichtvideo ist in der EP 359 048 A1 und der JP 2019 098 008 A beschrieben. Aus der JP 5160 276 B2 ist ferner bekannt, dass eine Gefäßdarstellung aus Fluoreszenzaufnahmen mit einem Weißlichtbild kombiniert wird. Ferner betrifft die US 8,767,057 B2 ein Kapselendoskop, bei dem eine Bewegung einer Kamerakapsel aus zuvor aufgenommenen Bilddaten ermittelt und bei der Erstellung eines 3D-Modells berücksichtigt wird. Aus der wissenschaftlichen Publikation Selka, F., Agnus, V., Nicolau, S., Bessaid, A., Soler, L., Marescaux, J., & Diana, M. (2014, July). Fluorescence-based enhanced reality for colorectal endoscopic surgery. In International Workshop on Biomedical Image Registration (pp. 114-123) . Springer, Cham ist es ferner bekannt, eine Weißlichtvideosequenz mit einer aus einer Fluoreszenzsequenz generierten „Ischemic Map“ zu überlagern. Hierbei wird ICG verwendet, um eine Durchblutung von Gewebe nach einer Anastomose, also einer Verbindung von Gewebe, zu überprüfen. Eine Ischämie läge vor, wenn eine betreffende Durchblutung nicht ausreichend wäre. Das gemäß der Publikation generierte Überlagerungsbild wird an das laufende Weißlichtvideo angepasst und mit diesem überlagert. Die dabei verwendete „Ischemic Map“ wird erstellt, indem eine Dynamik in der Aufnahme in einem statischen Bild komprimiert, d. h. eine Bildsequenz in einem einzigen Bild zur Überlagerung eingefroren wird.Overlaying fluorescence image data with 3D images is, for example, possible in US10,849,710 B2 for preoperatively recorded 3D images. These image data are recorded, for example, by a C-arm, which is called registration. The recorded image data are adjusted to the 3D images. Saving and repeatedly playing back fluorescence images for overlay with a white light video is in the EP 359 048 A1 and the JP 2019 098 008 A described. From the JP 5160 276 B2 It is also known that a vessel image from fluorescence images is combined with a white light image. Furthermore, the US8,767,057 B2 a capsule endoscope in which the movement of a camera capsule is determined from previously recorded image data and taken into account when creating a 3D model. From the scientific publication Selka, F., Agnus, V., Nicolau, S., Bessaid, A., Soler, L., Marescaux, J., & Diana, M. (2014, July). Fluorescence-based enhanced reality for colorectal endoscopic surgery. In International Workshop on Biomedical Image Registration (pp. 114-123) . Springer, Cham also knows how to overlay a white light video sequence with an "ischemic map" generated from a fluorescence sequence. ICG is used to check the blood flow of tissue after an anastomosis, i.e. a connection of tissue. Ischemia would be present if the blood flow in question was insufficient. The overlay image generated according to the publication is adjusted to the running white light video and overlaid with it. The "ischemic map" used is created by compressing a dynamic in the recording into a static image, i.e. freezing an image sequence in a single image for overlay.

Der oben aufgezeigte Stand der Technik umfasst jedoch den Nachteil, dass eine Positions- und/oder Lageänderung eines betreffenden Gewebebereichs, beispielsweise eines zu untersuchenden Organs, und/oder der sich im Einsatz befindlichen Bilderfassungsvorrichtung zu Fehlern in der Darstellung der überlagerten Fluoreszenzinformation führt. So gerät die im Stand der Technik bekannte Überlagerung von Fluoreszenzinformationen mit einer Weißlichtvideoaufnahme beispielsweise bereits dann an ihre Grenzen, wenn sich ein betreffendes Objekt während der Aufnahme beispielsweise rhythmisch und/oder mit einer Frequenz bewegt. Dasselbe gilt für den Fall, dass der Anwender die Bilderfassungsvorrichtung während der Aufnahme des Objektes hin und her bewegt, um beispielsweise das Objekt aus verschiedenen Blickwinkeln und/oder unter verschiedenen Beleuchtungssituationen und/oder Schattenwurfrichtungen aufzunehmen. Bei derartigen Bewegungen des Objektes und/oder der Bilderfassungsvorrichtung kann die Fluoreszenzinformation nicht korrekt mit der virtuellen Abbildung des Objektes überlagert werden, so dass es beispielsweise zu einer Deplatzierung und/oder einem Versatz der Fluoreszenzinformation innerhalb der Abbildung kommt, was vom Anwender als verwischte und/oder verschwommene Überlagerung wahrgenommen wird. Dies ist nachteilig, da es ggf. zu einer fehlerhaften Beurteilung der Position der mit der (Weißlicht-)Aufnahme des Objektes überlagerten Fluoreszenzinformation kommt. Im schlimmsten Fall kann dies dazu führen, dass beispielsweise Gewebebereiche, die in der Überlagerungsdarstellung fehlerhafterweise als Fluoreszenzbereiche dargestellt sind, als krankes Gewebe aufgefasst und in Reaktion darauf operativ entfernt werden. Dies gilt es zu vermeiden.However, the above-mentioned prior art has the disadvantage that a change in position and/or location of a tissue area in question, for example an organ to be examined, and/or the image capture device in use, leads to errors in the representation of the superimposed fluorescence information. For example, the superimposition of fluorescence information with a white light video recording known in the prior art already reaches its limits when an object in question moves rhythmically and/or at a frequency during the recording. The same applies if the user moves the image capture device back and forth during the recording of the object, for example in order to record the object from different angles and/or under different lighting situations and/or shadow directions. With such movements of the object and/or the image capture device, the fluorescence information cannot be correctly superimposed on the virtual image of the object, so that, for example, the fluorescence information is displaced and/or offset within the image, which the user perceives as blurred images. and/or blurred overlay is perceived. This is disadvantageous because it may lead to an incorrect assessment of the position of the fluorescence information superimposed on the (white light) image of the object. In the worst case, this can lead to, for example, tissue areas that are incorrectly shown as fluorescence areas in the overlay representation being perceived as diseased tissue and surgically removed in response. This must be avoided.

Die Aufgabe der vorliegenden Erfindung besteht mithin darin, die vorstehend genannten Nachteile des Standes der Technik zu überwinden. Insbesondere ist es eine Aufgabe, ein Verfahren und eine Vorrichtung bereitzustellen, durch das bzw. die eine Überlagerung von Überlagerungsaufnahmeinformationen mit einem Livebild eines Objektes auch bei einem sich bewegenden Objekt und/oder bei einer sich bewegenden Bilderfassungsvorrichtung möglich ist und gleichermaßen ein Überlagerungsfehler minimiert ist.The object of the present invention is therefore to overcome the above-mentioned disadvantages of the prior art. In particular, it is an object to provide a method and a device by means of which a superimposition of overlay recording information with a live image of an object is possible even with a moving object and/or with a moving image capture device and at the same time a superimposition error is minimized.

Die zuvor genannten Ausführungen gelten in ähnlicher Form für bekannte Multispektral- und/oder Hyperspektralbildgebungsverfahren.The above statements apply in a similar form to known multispectral and/or hyperspectral imaging techniques.

Die vorstehend genannte Aufgabe wird durch ein Verfahren mit den Merkmalen des unabhängigen Anspruchs 1 gelöst. Ferner wird die Aufgabe durch eine erfindungsgemäße Vorrichtung mit den Merkmalen des unabhängigen Anspruchs 15 gelöst.The above-mentioned object is achieved by a method having the features of independent claim 1. Furthermore, the object is achieved by a device according to the invention having the features of independent claim 15.

Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben. In den Rahmen der Erfindung fallen sämtliche Kombinationen aus mindestens zwei in der Beschreibung, den Ansprüchen und/oder den Figuren offenbarten Merkmalen. Es versteht sich, dass Ausführungsbeispiele und Ausführungsformen, die in Bezug auf das Verfahren gemäß Anspruch 1 beschrieben wurden, sich in äquivalenter, wenn auch nicht wortgleicher Form auf die Vorrichtung nach Anspruch 15 beziehen können, ohne für diese explizit genannt zu werden. Es versteht sich zudem, dass auch sprachübliche Umformungen und/oder ein sinngemäßes Ersetzen von jeweiligen Begrifflichkeiten im Rahmen der üblichen sprachlichen Praxis, insbesondere das Verwenden von durch die allgemein anerkannte Sprachliteratur gestützten Synonymen, von dem vorliegenden Offenbarungsgehalt umfasst sind, ohne in ihrer jeweiligen Ausformulierung explizit erwähnt zu werden.Advantageous developments of the invention are specified in the dependent claims. The scope of the invention includes all combinations of at least two features disclosed in the description, the claims and/or the figures. It is understood that embodiments and forms of embodiment described in relation to the method according to claim 1 can refer to the device according to claim 15 in an equivalent, if not word-for-word, form without being explicitly mentioned for this. It is also understood that customary linguistic transformations and/or a corresponding replacement of respective terms within the scope of usual linguistic practice, in particular the use of synonyms supported by generally accepted language literature, are also included in the present disclosure content without being explicitly mentioned in their respective formulation.

Gemäß einem ersten Aspekt der Erfindung wird ein Verfahren zum Überlagern von Überlagerungsaufnahmeinformationen mit einem Livebild, insbesondere mit einem endoskopischen und/oder einem exoskopischen und/oder einem laryngoskopischen und/oder einem mikroskopischen Livebild vorgeschlagen. Das Verfahren umfasst zumindest die Schritte: Erfassen mindestens eines Aufnahmebildes eines beweglichen Objektes mittels einer beweglichen Bilderfassungsvorrichtung; Ermitteln der Überlagerungsaufnahmeinformationen in dem mindestens einen erfassten Aufnahmebild zumindest bezüglich des Objektes; Erfassen mindestens eines zeitlich auf das Aufnahmebild folgenden Livebildes des beweglichen Objektes mittels der beweglichen Bilderfassungsvorrichtung; Berechnen einer Transformationsvorschrift zumindest zwischen dem Aufnahmebild und dem Livebild, um derart eine Positions- und/oder Lage- und/oder Tiefenänderung des beweglichen Objektes zwischen dem Aufnahmebild und dem Livebild nachzuverfolgen; und Überlagern der ermittelten Überlagerungsaufnahmeinformationen mit dem Livebild zumindest in Abhängigkeit von der berechneten Transformationsvorschrift.According to a first aspect of the invention, a method is proposed for overlaying overlay recording information with a live image, in particular with an endoscopic and/or an exoscopic and/or a laryngoscopic and/or a microscopic live image. The method comprises at least the steps: capturing at least one recorded image of a moving object using a moving image capturing device; determining the overlay recording information in the at least one captured recorded image at least with regard to the object; capturing at least one live image of the moving object that follows the recorded image in time using the moving image capturing device; calculating a transformation rule at least between the recorded image and the live image in order to track a change in position and/or location and/or depth of the moving object between the recorded image and the live image; and overlaying the determined overlay recording information with the live image at least depending on the calculated transformation rule.

Gemäß einem zweiten Aspekt der Erfindung wird eine Vorrichtung vorgeschlagen, die Folgendes aufweist: eine bewegliche Bilderfassungsvorrichtung mit einem Bildsensor (bspw. einem Fotochip) und mindestens einer Bilderfassungseinheit, die vorzugsweise mindestens eine optische Einrichtung, bspw. eine Linse umfasst, die dazu eingerichtet ist, mindestens ein Aufnahmebild eines beweglichen Objektes zu erfassen und mindestens ein zeitlich auf das Aufnahmebild folgendes Livebild des beweglichen Objektes zu erfassen; eine Recheneinrichtung, die dazu eingerichtet ist, Überlagerungsaufnahmeinformationen in dem mindestens einen erfassten Aufnahmebild bezüglich des Objektes zu ermitteln, eine Transformationsvorschrift zumindest zwischen dem Aufnahmebild und dem Livebild zu berechnen, um derart eine Positions- und/oder Lage- und/oder Tiefenänderung des beweglichen Objektes zwischen dem Aufnahmebild und dem Livebild nachzuverfolgen, und die zuvor ermittelten Überlagerungsaufnahmeinformationen mit dem Livebild zumindest in Abhängigkeit von der berechneten Transformationsvorschrift zu überlagern; und eine Anzeigevorrichtung, insbesondere ein Display, die dazu eingerichtet ist, zumindest das Livebild gemeinsam mit den Überlagerungsaufnahmeinformationen anzuzeigen. Bei dem Aufnahmebild handelt es sich vorzugsweise um ein endoskopisches und/oder ein exoskopisches und/oder ein laparoskopisches und/oder ein mikroskopisches Aufnahmebild. Bei dem Livebild handelt es sich vorzugsweise um ein endoskopisches und/oder ein exoskopisches und/oder ein laparoskopisches und/oder ein mikroskopisches Livebild.According to a second aspect of the invention, a device is proposed which has the following: a moving image capture device with an image sensor (e.g. a photo chip) and at least one image capture unit, which preferably comprises at least one optical device, e.g. a lens, which is set up to capture at least one recorded image of a moving object and to capture at least one live image of the moving object following the recorded image in time; a computing device which is set up to determine overlay recording information in the at least one captured recorded image relating to the object, to calculate a transformation rule at least between the recorded image and the live image in order to track a position and/or location and/or depth change of the moving object between the recorded image and the live image, and to overlay the previously determined overlay recording information with the live image at least depending on the calculated transformation rule; and a display device, in particular a display, which is set up to display at least the live image together with the overlay recording information. The recorded image is preferably an endoscopic and/or an exoscopic and/or a laparoscopic and/or a microscopic recorded image. The live image is preferably an endoscopic and/or an exoscopic and/or a laparoscopic and/or a microscopic live image.

Im Gegensatz zum Stand der Technik wird erfindungsgemäß vorgeschlagen, eine sich verändernde Position und/oder Lage der Bilderfassungsvorrichtung und/oder des Gewebes bei der Überlagerung der Überlagerungsaufnahmeinformation mit dem mindestens einen Livebild zu berücksichtigen. Die Berücksichtigung erfolgt vorzugsweise durch eine Anwendung der berechneten Transformationsvorschrift auf die in dem mindestens einen Aufnahmebild umfassten Überlagerungsaufnahmeinformationen. Mit anderen Worten geht es bei der vorliegenden Erfindung besonders bevorzugt darum, ein Live-Video eines Operationssitus, in dem sich ein zu beobachtendes Objekt befindet, mit einem zuvor aufgenommenen Video, in dem die Überlagerungsaufnahmeinformationen umfasst sind, unter Berücksichtigung einer Positions- und/oder Lageänderung des Objektes und/oder der Bilderfassungsvorrichtung zu überlagern. Hierdurch ist beispielsweise eine wiederholte Darstellung der Überlagerungsaufnahmeinformation mit dem Livebild während einer Operation möglich. Die Erfinder schlagen somit im Gegensatz zum Stand der Technik vor, eine Überlagerung der Überlagerungsaufnahmeinformationen mit dem mindestens einen Livebild, das vorzugsweise ein Einzelbild einer Live-Videosequenz ist, an eine aktuelle Blickrichtung und/oder Position der Bildererfassungsvorrichtung, z. B. des Endoskops, und/oder an eine aktuelle Bewegung des betreffenden Gewebes anzupassen. Hierfür wird die Position und/oder die Lage des betreffenden Objektes bzw. Gewebes erfasst und nachverfolgt. Die Überlagerung der Überlagerungsaufnahmeinformationen mit dem Livebild wird dann auf Basis der Transformationsvorschrift an die jeweilige momentane Perspektive der Bilderfassungsvorrichtung und/oder an die jeweilige momentane Lage und/oder Position des Objektes angepasst und mit dem Livebild überlagert. So stehen die Überlagerungsaufnahmeinformationen auch bei einem sich bewegenden Objekt und/oder einer sich bewegenden Bilderfassungsvorrichtung weiterhin möglichst fehlerfrei zur Verfügung und dienen beispielsweise zur Kennzeichnung eines sich bewegenden Tumorgewebes.In contrast to the prior art, the invention proposes to take into account a changing position and/or location of the image capture device and/or the tissue when superimposing the overlay recording information with the at least one live image. The consideration is preferably made by applying the calculated transformation rule to the overlay recording information included in the at least one recorded image. In other words, the present invention particularly preferably involves overlaying a live video of an operation site in which an object to be observed is located with a previously recorded video in which the overlay recording information is included, taking into account a change in position and/or location of the object and/or the image capture device. This makes it possible, for example, to repeatedly display the overlay recording information with the live image during an operation. In contrast to the prior art, the inventors therefore propose adapting an overlay of the overlay recording information with the at least one live image, which is preferably a single image of a live video sequence, to a current viewing direction and/or position of the image capture device, e.g. the endoscope, and/or to a current movement of the tissue in question. For this purpose, the position and/or location of the object or tissue in question is recorded and tracked. The overlay of the overlay recording information with the live image is then adapted to the respective current perspective of the image capture device and/or to the respective current location and/or position of the object on the basis of the transformation rule and overlaid with the live image. In this way, the overlay recording information is still available as error-free as possible even with a moving object and/or a moving image capture device and is used, for example, to mark moving tumor tissue.

Die während der Aufnahme des mindestens einen Aufnahmebildes erzeugten Überlagerungsaufnahmeinformationen und bevorzugt die Weißlichtaufnahmeinformationen werden vorzugsweise abgespeichert. Dabei werden die Überlagerungsaufnahmeinformationen besonders bevorzugt während der Anflutungsphase erfasst und abgespeichert. Erfindungsgemäß ist es möglich, zu berücksichtigen, dass der Benutzer im Allgemeinen eine Perspektive der Bilderfassungsvorrichtung, insbesondere des Endoskops, durch Bewegung während der Aufnahme ändert. Alternativ oder ergänzend kann sich auch eine Position und/oder Lage des zu erfassenden Objektes durch eine Bewegung des Objektes während der Aufnahmephase ändern. Diese Bewegungen können erfindungsgemäß kompensiert werden, da vorzugsweise basierend auf einem aktuellen (Weißlicht-)Aufnahmebild eine Transformationsvorschrift berechnet wird. Diese Transformationsvorschrift bildet vorzugsweise ab, wie das (Weißlicht- )Aufnahmebild während der Liveaufnahme möglichst passend zu dem mindestens einen Livebild transformiert werden kann. Die Transformationsvorschrift kann eine Transformationsmatrix umfassen. Es ist bevorzugt, wenn während der Aufnahme des mindestens einen Aufnahmebildes sowie des mindestens einen Livebildes jeweils eine 3D-Struktur des Objektes bzw. des Gewebebereichs durch eine Stereorekonstruktion eines vorzugsweise aufgenommenen Stereoaufnahmebildes und/oder Stereolivebildes und/oder durch eine Schätzung unter dem Einsatz von Algorithmen der künstlichen Intelligenz aus einem 2D-Aufnahmebild und/oder einem 2D-Livebild oder durch andere bekannte Verfahren berechnet wird. Die Transformationsvorschrift kann vorzugsweise zwischen einer 3D-Punktwolke, die auf Basis des Aufnahmebildes erzeugt wird, und einer 3D-Punktwolke, die auf Basis des Livebildes erzeugt wird, berechnet werden, um darauffolgend die Überlagerung der Überlagerungsaufnahmeinformationen mit dem Livebild zu ermöglichen. Insbesondere kann eine Transformationsvorschrift zwischen dem Livebild und Anteilen des Aufnahmebildes ohne die Überlagerungsaufnahmeinformationen berechnet werden und diese Transformationsvorschrift dann auf die Überlagerungsaufnahmeinformationen angewandt werden, um sie an das aktuelle Livebild anzupassen.The overlay recording information generated during the recording of the at least one recorded image and preferably the white light recording information are preferably stored. The overlay recording information is particularly preferably recorded and stored during the flood phase. According to the invention, it is possible to take into account that the user generally changes a perspective of the image capture device, in particular of the endoscope, by moving during the recording. Alternatively or additionally, a position and/or location of the object to be recorded can also change due to a movement of the object during the recording phase. These movements can be compensated according to the invention, since a transformation rule is preferably calculated based on a current (white light) recorded image. This transformation rule preferably depicts how the (white light) recorded image can be transformed during the live recording in a way that is as suitable as possible to the at least one live image. The transformation rule can comprise a transformation matrix. It is preferred if, during the recording of the at least one recorded image and the at least one live image, a 3D structure of the object or of the tissue region is calculated by a stereo reconstruction of a preferably recorded stereo recorded image and/or stereo live image and/or by an estimate using artificial intelligence algorithms from a 2D recorded image and/or a 2D live image or by other known methods. The transformation rule can preferably be calculated between a 3D point cloud generated on the basis of the recorded image and a 3D point cloud generated on the basis of the live image in order to subsequently enable the overlay recording information to be superimposed on the live image. In particular, a transformation rule can be calculated between the live image and parts of the recorded image without the overlay recording information and this transformation rule can then be applied to the overlay recording information in order to adapt it to the current live image.

Das Aufnahmebild umfasst vorzugsweise Weißlichtinformationen, insbesondere des Objektes innerhalb einer Aufnahmeszene, mithin Bildinformationen, die in einem für das menschliche Auge sichtbaren Wellenlängenbereich dargestellt sind. Das Livebild umfasst vorzugsweise Weißlichtinformationen, insbesondere des Objektes innerhalb einer Aufnahmeszene, mithin Bildinformationen, die in einem für das menschliche Auge sichtbaren Wellenlängenbereich dargestellt sind.The recorded image preferably comprises white light information, in particular of the object within a recorded scene, thus image information that is displayed in a wavelength range visible to the human eye. The live image preferably comprises white light information, in particular of the object within a recorded scene, thus image information that is displayed in a wavelength range visible to the human eye.

Es versteht sich, dass das mindestens eine Aufnahmebild und das mindestens eine Livebild grundsätzlich auch durch verschiedene Vorrichtungen erfasst werden können. Beispielsweise kann die Erfassung und/oder Aufnahme des mindestens einen Aufnahmebildes durch eine erste Bilderfassungsvorrichtung, die in einer ersten Vorrichtung umfasst ist, erfolgen. Eine Erfassung und/oder Aufnahme des mindestens einen Livebildes kann hingegen durch eine zweite Bilderfassungsvorrichtung, die in einer zweiten Vorrichtung umfasst ist, erfolgen. Handelt es sich um verschiedene Bilderfassungsvorrichtungen, ist es bevorzugt, wenn bei der Berechnung der Transformationsvorschrift beispielsweise verschiedene Bezugssysteme und/oder Bezugskoordinatensysteme der verschiedenen Bilderfassungsvorrichtungen berücksichtigt werden. Beispielsweise kann die erste Bilderfassungsvorrichtung bezüglich eines einen ersten Koordinatenursprung aufweisenden ersten Koordinatensystems referenziert und/oder kalibriert sein. Beispielsweise kann die zweite Bilderfassungsvorrichtung bezüglich eines einen zweiten Koordinatenursprung aufweisenden zweiten Koordinatensystems referenziert und/oder kalibriert sein. Bei der Berechnung der Transformationsvorschrift können diese beiden voneinander verschiedenen Koordinatensysteme vorzugsweise berücksichtigt werden, indem beispielsweise Bildinformationen zu den betreffenden Koordinatensystemen auf ein gemeinsames Koordinatensystem transformiert werden.It is understood that the at least one recorded image and the at least one live image can in principle also be captured by different devices. For example, the at least one recorded image can be captured and/or recorded by a first image capture device that is included in a first device. The at least one live image can, however, be captured and/or recorded by a second image capture device that is included in a second device. If different image capture devices are involved, it is preferred if, for example, different reference systems and/or reference coordinate systems of the different image capture devices are taken into account when calculating the transformation rule. For example, the first image capture device can be referenced and/or calibrated with respect to a first coordinate system having a first coordinate origin. For example, the second image capture device can be referenced and/or calibrated with respect to a second coordinate system having a second coordinate origin. When calculating the transformation rule, these two mutually different coordinate systems can preferably be taken into account, for example by transforming image information on the relevant coordinate systems to a common coordinate system.

Die Berechnung der Transformationsvorschrift umfasst vorzugsweise ein Bestimmen einer Positions- und/oder Lage- und/oder Tiefeninformation des beweglichen Objektes in dem Aufnahmebild und/oder ein Bestimmen einer Positions- und/oder Lage- und/oder Tiefeninformation des beweglichen Objektes in dem Livebild und/oder vorzugsweise einer sich daraus ergebenden Positions- und/oder Lage- und/oder Tiefeninformationsänderung. Eine Nachverfolgung der Positions- und/oder Lage- und/oder Tiefeninformationsänderung zwischen dem mindestens einen Aufnahmebild und dem mindestens einen Livebild erfolgt vorzugsweise unter Anwendung eines deterministischen Algorithmus und/oder durch Anwendung und/oder Trainieren eines künstlichen neuronalen Netzwerkes, mithin durch eine mathematisch-statistische Schätzung auf Basis einer künstlichen Intelligenz, die vorzugsweise durch bekannte Ansätze des maschinellen Lernens auf die Erkennung solcher Positions- und/oder Lage- und/oder Tiefeninformationsänderungen trainiert ist. Das Berechnen der Transformationsvorschrift und/oder das Überlagern der zuvor ermittelten Überlagerungsaufnahmeinformationen mit dem mindestens einen Livebild erfolgt erfindungsgemäß vorzugsweise in Echtzeit oder zumindest in Quasi-Echtzeit, d. h. mit einem für das menschliche Auge nicht nachverfolgbaren Zeitversatz, beispielsweise < 70 Millisekunden. Das Überlagern der zuvor ermittelten Überlagerungsaufnahmeinformationen mit dem mindestens einen Livebild erfolgt vorzugsweise in Abhängigkeit von der berechneten Transformationsvorschrift ergänzt um (eine) zuvor bestimmte Positions- und/oder Lage- und/oder Tiefeninformation(en) des mindestens einen Aufnahmebildes.The calculation of the transformation rule preferably comprises determining position and/or location and/or depth information of the moving object in the recorded image and/or determining position and/or location and/or depth information of the moving object in the live image and/or preferably a resulting change in position and/or location and/or depth information. Tracking the change in position and/or location and/or depth information between the at least one recorded image and the at least one live image is preferably carried out using a deterministic algorithm and/or by using and/or training an artificial neural network, thus using a mathematical-statistical estimate based on artificial intelligence, which is preferably trained to recognize such changes in position and/or location and/or depth information using known machine learning approaches. The calculation of the transformation rule and/or the overlaying of the previously determined overlay recording information with the at least one live image preferably takes place in real time or at least in quasi-real time, i.e. with a time offset that cannot be tracked by the human eye, for example < 70 milliseconds. The overlaying of the previously determined overlay recording information with the at least one live image preferably takes place depending on the calculated transformation rule, supplemented by previously determined position and/or location and/or depth information of the at least one recorded image.

Weiterhin kann das Aufnahmebild Teil einer Sequenz von wenigstens zwei Aufnahmebildern sein, die mittels der beweglichen Bilderfassungsvorrichtung erfasst wurden, und das Livebild kann Teil einer Sequenz von wenigstens zwei Livebildern des beweglichen Objektes sein, die von der beweglichen Bilderfassungsvorrichtung erfasst werden, wobei folgende Schritte durchgeführt werden:

  • - Ermitteln der Überlagerungsaufnahmeinformationen in den Aufnahmebildern der Sequenz zumindest bezüglich des Objektes;
  • - Fortlaufendes Berechnen einer bildweisen Transformationsvorschrift zwischen einzelnen Aufnahmebildern der Sequenz von Aufnahmebildern und einzelnen Livebildern der Sequenz von Livebildern, um derart eine Positions- und/oder Lage- und/oder Tiefenänderung des beweglichen Objektes zwischen den Aufnahmebildern und den Livebildern nachzuverfolgen;
  • - Fortlaufendes bildweises Überlagern der zuvor ermittelten Überlagerungsaufnahmeinformationen mit der aktuellen Sequenz von Livebildern jeweils zumindest in Abhängigkeit der bildweise berechneten Transformationsvorschrift.
Furthermore, the recorded image can be part of a sequence of at least two recorded images that were captured by means of the moving image capture device, and the live image can be part of a sequence of at least two live images of the moving object that are captured by the moving image capture device, wherein the following steps are carried out:
  • - Determining the overlay recording information in the recording images of the sequence at least with respect to the object;
  • - Continuously calculating an image-by-image transformation rule between individual recorded images of the sequence of recorded images and individual live images of the sequence of live images in order to track a change in position and/or location and/or depth of the moving object between the recorded images and the live images;
  • - Continuous image-by-image overlaying of the previously determined overlay recording information with the current sequence of live images, each at least depending on the transformation rule calculated image-by-image.

Es versteht sich, dass die erfindungsgemäßen Verfahrensschritte nicht zwingend in der aufgeführten Reihenfolge durchgeführt werden müssen, sondern diese Reihenfolge auch verändert werden kann. Es ist zudem möglich, dass ein oder mehrere Zwischenschritte zwischen einem oder mehreren Verfahrensschritten durchgeführt werden können.It is understood that the method steps according to the invention do not necessarily have to be carried out in the order listed, but this order can also be changed. It is also possible that one or more intermediate steps can be carried out between one or more method steps.

In einer bevorzugten Ausführungsform basiert die Positions- und/oder Lage- und/oder Tiefenänderung des Objektes zwischen dem mindestens einen Aufnahmebild und dem mindestens einen Livebild auf einer Bewegung des beweglichen Objektes und/oder auf einer Bewegung der Bilderfassungsvorrichtung. Die Positions- und/oder Lage- und/oder Tiefenänderung des Objektes kann beispielsweise auf einer rhythmischen und/oder periodischen und/oder frequenzbasierten Bewegung des beweglichen Objektes basieren. Bei dem Objekt handelt es sich vorzugsweise um ein Organ und/oder um einen Gewebebereich und/oder um einen Gewebeabschnitt eines menschlichen und/oder eines tierischen Körpers. Alternativ oder ergänzend kann die Positions- und/oder Lage- und/oder Tiefenänderung des Objektes zwischen dem mindestens einen Aufnahmebild und dem mindestens einen Livebild auch auf einer Bewegung der Bilderfassungsvorrichtung beruhen. Erfindungsgemäß wird diese Bewegung bei der Überlagerung der Überlagerungsaufnahmeinformationen mit dem mindestens einen Livebild kompensiert. Hierzu wird vorzugsweise die Bewegung des Objektes zumindest zwischen dem mindestens einen Aufnahmebild und dem mindestens einen Livebild durch Verfahren der optischen Nachverfolgung nachvollzogen. Vorzugsweise weist die Bilderfassungsvorrichtung zusätzlich mindestens einen Positions- oder Lagesensor, beispielsweise einen Gyrosensor, einen Beschleunigungssensor, einen GPS-Sensor und/oder einen optischen Sensor, auf, durch den eine Positionsänderung der Bilderfassungsvorrichtung in Form eines Sensorsignals erfasst werden kann. Ein derartiges Sensorsignal wird vorzugsweise bei der Berechnung der Transformationsvorschrift mit einbezogen.In a preferred embodiment, the change in position and/or location and/or depth of the object between the at least one recorded image and the at least one live image is based on a movement of the moving object and/or on a movement of the image capture device. The change in position and/or location and/or depth of the object can, for example, be based on a rhythmic and/or periodic and/or frequency-based movement of the moving object. The object is preferably an organ and/or a tissue region and/or a tissue section of a human and/or animal body. Alternatively or additionally, the change in position and/or location and/or depth of the object between the at least one recorded image and the at least one live image can also be based on a movement of the image capture device. According to the invention, this movement is compensated when the overlay recording information is superimposed on the at least one live image. For this purpose, the movement of the object is preferably tracked at least between the at least one recorded image and the at least one live image using optical tracking methods. Preferably, the image capture device additionally has at least one position or attitude sensor, for example a gyro sensor, an acceleration sensor, a GPS sensor and/or an optical sensor, by means of which a change in position of the image capture device can be detected in the form of a sensor signal. Such a sensor signal is preferably included in the calculation of the transformation rule.

In einer weiteren bevorzugten Ausführungsform erfolgt das Berechnen der Transformationsvorschrift auf Basis eines Optical-Flow-Algorithmus und/oder eines elastischen Bildregistrierungsalgorithmus und/oder eines Punktwolkenregistrierungsalgorithmus und/oder eines landmarkenbasierten Trackings, vorzugsweise jeweils angewandt auf dem Objekt zugeordnete Bildpunkte des Aufnahmebildes und/oder des Livebildes. Die Transformationsvorschrift kann vorzugsweise mithilfe von optischen Nachverfolgungsmodellen zwischen dem Aufnahmebild und dem Livebild berechnet werden, welche grundsätzlich aus dem Stand der Technik bekannt sind. Besonders bevorzugt wird die Berechnung der Transformationsvorschrift um eine Einbeziehung von Bewegungssensordaten, die durch mindestens einen Bewegungssensor (bspw. einen Inertialsensor) der an der Bilderfassungsvorrichtung angeordnet ist, ergänzt, um diese derart durch physische Bezugsgrößen weiter zu verbessern bzw. zu verfeinern. Aus dem Stand der Technik, jedoch aus anderen technischen Bereichen ist die Berechnung von Bildtransformationen bekannt, siehe z. B. für den optischen Fluss: S. Shah et al. Traditional and modern strategies for optical flow: an investigation. 2021; für Landmarken-basierte Verfahren: M. Webster et al. A practical introduction to landmark based geometric morphometrics. 2010; und für Punktwolkenregistrierung: X. Hang et al. A comprehensive survey on point cloud registration. 2021). Erfindungsgemäß erfolgt die Berechnung einer Transformationsvorschrift vorzugsweise zwischen einem Zeitpunkt einer Aufnahme des mindestens einen Aufnahmebildes und einem Zeitpunkt der wiederholten Darstellung der Überlagerungsaufnahmeinformationen mit dem mindestens einen Livebild mit dem Ziel, die Überlagerungsaufnahmeinformationen entsprechend der berechneten Transformationsvorschrift auf das Livebild zu transformieren.In a further preferred embodiment, the transformation rule is calculated on the basis of an optical flow algorithm and/or an elastic image registration algorithm and/or a point cloud registration algorithm and/or landmark-based tracking, preferably applied to image points of the recorded image and/or the live image assigned to the object. The transformation rule can preferably be calculated using optical tracking models between the recorded image and the live image, which are generally known from the prior art. The calculation of the transformation rule is particularly preferably supplemented by the inclusion of motion sensor data obtained by at least one motion sensor (e.g. an inertial sensor) arranged on the image capture device in order to further improve or refine it using physical reference variables. The calculation of image transformations is known from the prior art, but from other technical fields, see e.g. for optical flow: S. Shah et al. Traditional and modern strategies for optical flow: an investigation. 2021; for landmark-based methods: M. Webster et al. A practical introduction to landmark based geometric morphometrics. 2010; and for point cloud registration: X. Hang et al. A comprehensive survey on point cloud registration. 2021). According to the invention, the calculation of a transformation rule preferably takes place between a time of recording the at least one recorded image and a time of repeated display of the overlay recording information with the at least one live image with the aim of transforming the overlay recording information to the live image in accordance with the calculated transformation rule.

Die Berechnung der Transformationsvorschrift erfolgt vorzugsweise frameweise, d. h. zwischen jeder aufeinanderfolgenden Bildfolge, besonders bevorzugt in Echtzeit. Hierdurch ist es möglich, dass Bewegungen während der Aufnahmephase und/oder während der Livephase bzw. während der Wiedergabe der Überlagerung berücksichtigt werden.The transformation rule is preferably calculated frame by frame, i.e. between each successive image sequence, particularly preferably in real time. This makes it possible to take movements during the recording phase and/or during the live phase or during the playback of the overlay into account.

In einer weiteren bevorzugten Ausführungsform umfassen die Überlagerungsaufnahmeinformationen Fluoreszenzinformationen, insbesondere Indocyaningrün-Fluoreszenzinformationen und/oder Fluorescein-Fluoreszenzinformationen, und/oder Intraoperativ-Hyperspektral-Aufnahmeinformationen und/oder Multispektral-Aufnahmeinformationen. Die Fluoreszenzinformationen resultieren beispielsweise aus einem Untersuchungsverfahren, bei dem Substanzen (z. B. monoklonale Antikörper) eingesetzt werden, die mit fluoreszierenden Farbstoffen, beispielsweise mit Indocyaningrün (ICG) oder Fluorescein, gemarkert sind. Nach dem Injizieren des fluoreszenzfähigen Farbstoffes in den betreffenden Gewebebereich und/oder den Blutkreislauf des Patienten reichert sich der Farbstoff mitsamt Trägermaterial aufgrund seiner spezifischen Eigenschaften vorzugsweise in Dysplasien oder Tumoren an. Dies wird vorzugsweise als Anflutungsverhalten des Farbstoffes bezeichnet. Vorzugsweise wird durch Beleuchtung des Gewebebereichs mit einer Anregungslichtquelle der eingebrachte Farbstoff zur Fluoreszenz angeregt, so dass während der Anflutungsphase das veränderte Gewebe optisch deutlich hervortritt. Hierdurch erhält der Operateur vorzugsweise einen optischen Hinweis auf das geschädigte bzw. auf das zu entfernende Gewebe. Die durch die Beleuchtung ausgelöste Fluoreszenz nimmt vorzugsweise während der Anflutungsphase an Intensität zu und erreicht nach einer gewissen Karenzzeit ihr Intensitätsmaximum. An diesem Punkt sind die betreffenden Organbereiche und/oder Objekte am stärksten hervorgehoben. Im Anschluss daran nimmt die Intensität wieder ab.In a further preferred embodiment, the overlay recording information comprises fluorescence information, in particular indocyanine green fluorescence information and/or fluorescein fluorescence information, and/or intraoperative hyperspectral recording information and/or multispectral recording information. The fluorescence information results, for example, from an examination method in which substances (e.g. monoclonal antibodies) are used that are marked with fluorescent dyes, for example with indocyanine green (ICG) or fluorescein. After injecting the fluorescent dye into the relevant tissue area and/or the patient's bloodstream, the dye and carrier material accumulate, due to its specific properties, preferably in dysplasias or tumors. This is preferably referred to as the dye's flooding behavior. The introduced dye is preferably excited to fluoresce by illuminating the tissue area with an excitation light source, so that the altered tissue is clearly visible during the flooding phase. This gives the surgeon a visual indication of the damaged tissue or the tissue to be removed. The fluorescence triggered by the illumination increases in intensity during the initial phase and reaches its maximum intensity after a certain waiting period. At this point, the organ areas and/or objects in question are most prominent. After this, the intensity decreases again.

Intraoperativ-Hyperspektral-Aufnahmeinformationen resultieren vorzugsweise aus einem Intraoperativ-Hyperspektral-Bildgebungsverfahren, das zur Darstellung und/oder Hervorhebung von vorbestimmten Objekt- bzw. Gewebeeigenschaften eingesetzt wird. Derartige Intraoperativ-Hyperspektral-Bildgebungsverfahren sind aus dem medizinisch-technischen Bereich bekannt und werden als intraoperative hyperspectral imaging (HSI) bezeichnet. Die Multispektral-Aufnahmeinformationen resultieren vorzugsweise aus einem Multispektralbildgebungsverfahren, das zur Darstellung und/oder Hervorhebung von vorbestimmten Objekt- bzw. Gewebeeigenschaften eingesetzt wird. Derartige Multispektralbildgebungsverfahren sind aus dem medizinisch-technischen Bereich bekannt und werden als multispectral imaging (MSI) bezeichnet.Intraoperative hyperspectral recording information preferably results from an intraoperative hyperspectral imaging method that is used to display and/or highlight predetermined object or tissue properties. Such intraoperative hyperspectral imaging methods are known from the medical-technical field and are referred to as intraoperative hyperspectral imaging (HSI). The multispectral recording information preferably results from a multispectral imaging method that is used to display and/or highlight predetermined object or tissue properties. Such multispectral imaging methods are known from the medical-technical field and are referred to as multispectral imaging (MSI).

In einer weiteren bevorzugten Ausführungsform umfasst das erfasste Aufnahmebild die Überlagerungsaufnahmeinformationen und/oder die Weißlichtbildinformationen. Das Aufnahmebild, das auch als Weißlichtbild bezeichnet wird, sowie die Überlagerungsaufnahmeinformationen, insbesondere Fluoreszenzüberlagerungsaufnahmeinformationen und/oder Multispektralüberlagerungsaufnahmeinformationen und/oder Hyperspektralüberlagerungsaufnahmeinformationen, werden vorzugsweise mit derselben Bilderfassungsvorrichtung erfasst. Vorzugsweise umfasst jedes Aufnahmebild zu jedem dem Objekt zugeordneten Pixel im Abbildungsbereich mindestens eine Überlagerungsaufnahmeinformation. Besonders bevorzugt ist die Bilderfassungsvorrichtung dazu eingerichtet, die Weißlichtbildinformationen und die Überlagerungsaufnahmeinformationen gleichzeitig zu erfassen und anschließend eine spektrale Trennung durchzuführen. Unter dem Begriff „Weißlichtaufnahmebild“ sowie der dazugehörigen Weißlichtinformation wird vorliegend ein Aufnahmebild verstanden, bei dem eine Bildszene mit der Bilderfassungsvorrichtung im für das menschliche Auge sichtbaren Wellenlängenbereich erfasst wird. Besonders bevorzugt wird das Livebild auch als Weißlichtlivebild erfasst und umfasst daher Weißlichtinformationen des in Echtzeit aufgenommenen Objektes.In a further preferred embodiment, the captured image comprises the overlay recording information and/or the white light image information. The captured image, which is also referred to as a white light image, and the overlay recording information, in particular fluorescence overlay recording information and/or multispectral overlay recording information and/or hyperspectral overlay recording information, are preferably captured using the same image capture device. Preferably, each captured image comprises at least one overlay recording information item for each pixel in the imaging area assigned to the object. Particularly preferably, the image capture device is set up to capture the white light image information and the overlay recording information simultaneously. and then to carry out a spectral separation. The term "white light recording image" and the associated white light information are understood here to mean a recording image in which an image scene is recorded with the image capture device in the wavelength range visible to the human eye. Particularly preferably, the live image is also recorded as a white light live image and therefore includes white light information of the object recorded in real time.

In einer weiteren bevorzugten Ausführungsform umfasst der Schritt des Ermittelns der Überlagerungsaufnahmeinformationen eine spektrale Trennung zwischen den Überlagerungsaufnahmeinformationen und den Weißlichtbildinformationen. Mit anderen Worten werden beide Informationen also vorzugsweise gleichzeitig durch die Bilderfassungsvorrichtung erfasst. Anschließend können durch eine Signalauswertung, die vorzugsweise unter Verwendung eines oder mehrerer optischer Filter erfolgt, bevorzugt die Überlagerungsaufnahmeinformationen von den Weißlichtbildinformationen getrennt bzw. unterschieden werden, um die Überlagerungsaufnahmeinformationen beispielsweise pixelbezogen zu erhalten, so dass eine spätere Überlagerung dieser Informationen mit einem (neuen) Livebild ermöglicht ist. Besonders bevorzugt umfasst das mindestens eine Aufnahmebild pro Pixel jeweilige Überlagerungsaufnahmeinformationen oder eine Aussage (bspw. einen Nullwert) darüber, dass einem betreffenden Pixel keine Überlagerungsaufnahmeinformationen zugeordnet sind. Bei der Berechnung der Transformationsvorschrift können dann die pixelweise zugeordneten Überlagerungsaufnahmeinformationen auf das Livebild transformiert werden. Hierbei wird eine Änderung der Lage und/oder der Position des jeweiligen Pixels zwischen dem mindestens einen Aufnahmebild und dem mindestens einen Livebild durch die Transformationsvorschrift berücksichtigt, so dass im erfassten Livebild auch bei einer sich verändernden Position und/oder Lage eine jeweilige Überlagerungsaufnahmeinformation jeweils korrekt einem Pixel, das einem ursprünglichen Realpunkt der Aufnahmeszene zugewiesen ist, zugeordnet werden kann, auch wenn sich das Objekt und/oder die Bilderfassungsvorrichtung bewegt hat.In a further preferred embodiment, the step of determining the overlay recording information comprises a spectral separation between the overlay recording information and the white light image information. In other words, both pieces of information are preferably recorded simultaneously by the image capture device. Subsequently, the overlay recording information can preferably be separated or differentiated from the white light image information by means of a signal evaluation, which is preferably carried out using one or more optical filters, in order to obtain the overlay recording information, for example, on a pixel-by-pixel basis, so that a later overlay of this information with a (new) live image is possible. Particularly preferably, the at least one recording image per pixel comprises respective overlay recording information or a statement (e.g. a zero value) that no overlay recording information is assigned to a respective pixel. When calculating the transformation rule, the overlay recording information assigned pixel by pixel can then be transformed to the live image. In this case, a change in the location and/or position of the respective pixel between the at least one recorded image and the at least one live image is taken into account by the transformation rule, so that in the captured live image, even with a changing position and/or location, a respective overlay recording information can be correctly assigned to a pixel that is assigned to an original real point of the recording scene, even if the object and/or the image capture device has moved.

Die Überlagerungsaufnahmeinformationen können auch getrennt erfasst werden, beispielsweise durch zusätzliche Kameras oder Bildsensoren oder durch einen schnellen Wechsel zwischen Weißlicht- und Fluoreszenzbilderzeugung, beispielsweise frameweise abwechselnd.The overlay imaging information can also be captured separately, for example by additional cameras or image sensors or by rapidly switching between white light and fluorescence imaging, for example alternating frame by frame.

In einer bevorzugten Ausführungsform ist/sind das mindestens eine Aufnahmebild und/oder das mindestens eine Livebild jeweils ein Einzelbild einer Videosequenz aus einer Vielzahl von zeitlich aufeinanderfolgenden Aufnahmebildern und/oder Livebildern. Mit anderen Worten sind sowohl das Aufnahmebild als auch das Livebild vorzugsweise jeweils Einzelbilder einer Vielzahl von zeitlich aufeinanderfolgenden Aufnahmebildern bzw. Livebildern, die in Aneinanderreihung eine Videoaufnahme des mindestens einen Objektes ergeben. Ein zeitlicher Abstand zwischen den Einzelbildern wird vorzugsweise durch eine vorbestimmte Bilderfassungsfrequenz (engl.: frame rate) bestimmt. Es versteht sich, dass sowohl das Aufnahmebild als auch das Livebild grundsätzlich ein beliebiges Einzelbild einer solchen Videoaufnahme und/oder Videosequenz sein kann und selbstverständlich nicht ein initial erfasstes Bild sein muss. Besonders bevorzugt wird also sowohl ein Aufnahmevideo oder eine Aufnahmevideosequenz als auch ein Livevideo oder eine Livevideosequenz von dem zu beobachtenden Objekt durch die erste und/oder die zweite Bildererfassungsvorrichtung aufgenommen. Mit anderen Worten ist es erfindungsgemäß bevorzugt, wenn die Überlagerungsaufnahmeinformationen in dem Aufnahmevideo und/oder der Aufnahmevideosequenz als Überlagerungsaufnahmevideosequenz umfasst sind und mit dem Livevideo bzw. dem Echtzeitvideo überlagert werden können. Dabei können die vorzugsweise als Überlagerungsaufnahmevideosequenz bereitgestellten Überlagerungsaufnahmeinformationen vorzugsweise frameweise mit einzelnen Zeitabschnitten des Livevideos überlagert werden. Erfindungsgemäß ist es bevorzugt, wenn die Überlagerung der Überlagerungsaufnahmeinformationen mit der Livebildfolge auf Basis der Transformationsvorschrift perspektivisch korrigiert wird. Eine Darstellungsdauer der Überlagerungsaufnahmeinformationen mit der Livebildfolge kann vorzugsweise gegenüber einer ursprünglichen Aufnahmedauer verkürzt (d. h. beschleunigt) oder verlängert (d. h. verlangsamt) sein.In a preferred embodiment, the at least one recorded image and/or the at least one live image is/are each an individual image of a video sequence from a large number of chronologically successive recorded images and/or live images. In other words, both the recorded image and the live image are preferably each individual images of a large number of chronologically successive recorded images or live images, which when placed one after the other result in a video recording of the at least one object. A time interval between the individual images is preferably determined by a predetermined frame rate. It is understood that both the recorded image and the live image can in principle be any individual image of such a video recording and/or video sequence and of course do not have to be an initially recorded image. Particularly preferably, both a recorded video or a recorded video sequence and a live video or a live video sequence of the object to be observed are recorded by the first and/or the second image capture device. In other words, it is preferred according to the invention if the overlay recording information is included in the recording video and/or the recording video sequence as an overlay recording video sequence and can be overlaid with the live video or the real-time video. The overlay recording information, preferably provided as an overlay recording video sequence, can preferably be overlaid frame by frame with individual time periods of the live video. According to the invention, it is preferred if the overlay of the overlay recording information with the live image sequence is perspectively corrected on the basis of the transformation rule. A display duration of the overlay recording information with the live image sequence can preferably be shortened (i.e. accelerated) or extended (i.e. slowed down) compared to an original recording duration.

Für eine beschleunigte Darstellung der Überlagerungsaufnahmeinformationen kann beispielsweise jedes n-te Aufnahmebild der Sequenz von Aufnahmebildern mit den Livebildern der aktuellen Sequenz von Livebildern überlagert werden, mit n > 1, wobei wenigstens die Überlagerungsinformationen von zwei Aufnahmebildern überlagert werden, so dass die Überlagerungsaufnahmeinformation im Zeitraffer den Livebildern überlagert werden. Statt jedes n-te Aufnahmebild zu verwenden kann auch eine andere Vorschrift angewandt werden, um aus der Sequenz von Aufnahmebildern eine Untermenge von Aufnahmebildern für die Überlagerung auszuwählen.For an accelerated display of the overlay recording information, for example, every nth recording image of the sequence of recording images can be overlaid with the live images of the current sequence of live images, with n > 1, wherein at least the overlay information of two recording images is overlaid so that the overlay recording information is overlaid on the live images in fast motion. Instead of using every nth recording image, another rule can also be applied to select a subset of recording images for the overlay from the sequence of recording images.

In einer bevorzugten Ausführungsform ist dem Schritt des Ermittelns der Überlagerungsaufnahmeinformationen eine Belichtung des Objektes mittels einer Lichtquelle und ein Erfassen eines belichteten Aufnahmebildes durch die Bilderfassungsvorrichtung vorangestellt. Eine derartige Belichtung des Objektes mit einer Lichtquelle bzw. mit einer Anregungslichtquelle erfolgt vorzugsweise zeitlich versetzt zu einer Aufnahme des Weißlichtbildes bzw. der Weißlichtaufnahmeinformationen. Beispielsweise kann die Bilderfassungsvorrichtung dazu eingerichtet sein, über einen vorbestimmten Zeitraum eine Weißlichtaufnahme des Objektes zu erzeugen.. Nach einer Beleuchtung des Objektes mit der Anregungslichtquelle ist die Bilderfassungsvorrichtung vorzugsweise dazu eingerichtet, die Überlagerungsaufnahmeinformationen, insbesondere die Fluoreszenzinformationen zu dem Objekt, zu erfassen. Somit muss die Erfassung der Weißlichtaufnahmeinformationen nicht zeitgleich zur Erfassung der Überlagerungsaufnahmeinformationen erfolgen, sondern kann auch zeitlich versetzt durgeführt werden. Beispielsweise kann die Bilderfassungsvorrichtung durch Hinzuschalten oder Abschalten eines optischen Filters zwischen den beiden Aufnahmemodi hin- und herwechseln.In a preferred embodiment, the step of determining the overlay recording information is preceded by exposing the object by means of a light source and detecting a exposed recording image by the image capture device. Such exposure of the object with a light source or with an excitation light source preferably takes place at a different time to a recording of the white light image or the white light recording information. For example, the image capture device can be set up to produce a white light recording of the object over a predetermined period of time. After illuminating the object with the excitation light source, the image capture device is preferably set up to capture the overlay recording information, in particular the fluorescence information about the object. Thus, the white light recording information does not have to be captured at the same time as the overlay recording information, but can also be carried out at a different time. For example, the image capture device can switch back and forth between the two recording modes by switching on or off an optical filter.

In einer bevorzugten Ausführungsform ist das Aufnahmebild ein Stereoaufnahmebild und/oder ist das Livebild ein Stereolivebild, das/die durch Stereorekonstruktion eines jeweiligen Stereobildpaares auf Basis von optischen und/oder dimensionalen Parametern der Bilderfassungsvorrichtung bearbeitetet wird/werden. Bei dem Aufnahmebild und/oder dem Livebild handelt es sich vorzugsweise jeweils um ein bereits stereorekonstruiertes Stereomessbild, bei dem vorzugsweise zumindest für jedes Pixel in Bezug auf das mindestens eine bewegliche Objekt jeweils eine Tiefeninformation auf Basis einer durchgeführten Stereorekonstruktion verfügbar gemacht wird. Um das Stereoaufnahmebild und/oder das Stereolivebild zu erfassen, wird vorzugsweise hinsichtlich einer vorbestimmten Zeiteinheit synchronisiert je ein Stereobildpaar von dem beweglichen Objekt aus zwei unterschiedlichen Blickwinkeln (vorbestimmt durch eine Stereobasis) aufgenommen. Die beiden jeweils zeitlich synchron erfassten Bilder bilden vorzugsweise das Stereomessbildpaar mit einem gemeinsamen Zeitstempel. Aus jedem Stereomessbildpaar können pro Zeitstempel über Verfahren der Stereorekonstruktion pixelweise Tiefeninformationen ausgewertet werden. Vorzugsweise wird im Zuge der Stereorekonstruktion eine sogenannte Disparität, d. h. ein horizontaler Pixelversatz, zwischen dem jeweiligen Bild des jeweiligen Stereobildpaares durch einen Algorithmus pixelweise, d. h. pro Pixel, bestimmt. Objekte in großer Entfernung weisen vorzugsweise bei der Stereoerfassung eine geringe Disparität, d. h. einen geringen Pixelversatz, innerhalb eines jeweiligen Stereobildpaares auf. Hingegen weisen Objekte im Vordergrund eine große Disparität auf. Aus der pixelweise ermittelten Disparität kann mit Kenntnis weiterer optischer Parameter der Bilderfassungseinheit(en) vorzugsweise eine Tiefenkarte zu dem stereorekonstruierten ersten und/oder zweiten Stereomessbild berechnet werden, die vorzugsweise eine pixelweise Tiefeninformation des zu betrachtenden Objektes umfasst.In a preferred embodiment, the recorded image is a stereo recorded image and/or the live image is a stereo live image, which is/are processed by stereo reconstruction of a respective stereo image pair on the basis of optical and/or dimensional parameters of the image capture device. The recorded image and/or the live image is preferably in each case an already stereo reconstructed stereo measurement image, in which depth information is preferably made available on the basis of a performed stereo reconstruction at least for each pixel in relation to the at least one moving object. In order to capture the stereo recorded image and/or the stereo live image, a stereo image pair of the moving object is preferably captured from two different viewing angles (predetermined by a stereo basis) synchronized with respect to a predetermined time unit. The two images captured synchronously in time preferably form the stereo measurement image pair with a common time stamp. Depth information can be evaluated pixel by pixel for each time stamp from each stereo measurement image pair using stereo reconstruction methods. In the course of the stereo reconstruction, a so-called disparity, i.e. a horizontal pixel offset, between the respective image of the respective stereo image pair is determined by an algorithm pixel by pixel, i.e. per pixel. Objects at a great distance preferably have a small disparity, i.e. a small pixel offset, within a respective stereo image pair during stereo capture. In contrast, objects in the foreground have a large disparity. From the disparity determined pixel by pixel, with knowledge of further optical parameters of the image capture unit(s), a depth map can preferably be calculated for the stereo-reconstructed first and/or second stereo measurement image, which preferably includes pixel by pixel depth information of the object to be viewed.

In einer bevorzugten Ausführungsform umfasst das erfindungsgemäße Verfahren ferner die Schritte: Aufnehmen des Aufnahmebildes und der Überlagerungsaufnahmeinformationen durch die Bilderfassungsvorrichtung; und Speichern des Aufnahmebildes und der Überlagerungsaufnahmeinformationen. Hierdurch ist es möglich, einen Datensatz zu erzeugen. Die Überlagerungsaufnahmeinformationen können insbesondere getrennt vom Aufnahmebild gespeichert werden. Beispielsweise kann ein Aufnahmebild Weißlicht- und Fluoreszenzinformationen enthalten. Das Fluoreszenzbild kann die Überlagerungsaufnahmeinformationen umfassen oder darstellen. Diese können durch spektrale Trennung, beispielsweise bereits bei der Aufnahme durch spektrale Trennung direkt im Instrument, oder auch durch getrennte Kamerasysteme getrennt von der Weißlichtbildinformation gespeichert werden. Auch kann mit derselben Kamera durch schnellen Wechsel der Aufnahmemodi von Weißlicht und Fluoreszenz, z.B. frameweise, eine quasi gleichzeitige Darstellung von Weißlicht- und Fluoreszenzlichtbild erfolgen, die Fluoreszenzbildinformation und damit die Überlagerungsaufnahmeinformationen jedoch trotzdem getrennt vorliegen. Hierdurch kann vorzugsweise ein erneutes Überlagern der Überlagerungsaufnahmeinformationen mit einem neu erfassten Livebild des Objektes erfolgen, ohne dass während einer weiteren Aufnahmephase notwendigerweise ein weiteres Aufnahmebild mitsamt Überlagerungsaufnahmeinformationen bereitgestellt werden muss. Für die Dokumentation und/oder die weitere Analyse ist es bevorzugt, dass das Aufnahmebild und/oder das mit den Überlagerungsaufnahmeinformationen überlagerte Livebild abgespeichert wird/werden. Derart kann vorzugsweise im Anschluss an eine erfolgte Untersuchung und/oder Operation nochmals eine Folgeuntersuchung basierend auf diesen gespeicherten Informationen erfolgen. Zudem dient ein Abspeichern dazu, dass die Möglichkeit besteht, gespeicherte Überlagerungsaufnahmen mit neuen Liveaufnahmen zu vergleichen, um derart beispielsweise eine Entwicklung und/oder eine Veränderung des Objektes auf die gespeicherten Informationen gestützt historisch nachzuvollziehen. Auch ist hierdurch die Möglichkeit einer Mehrfach-Überlagerung von Überlagerungsaufnahmeinformationen mit verschiedenen Zeitstempeln ermöglicht, die beispielsweise farblich unterschiedlich dargestellt werden können. Bevorzugt erfolgt eine automatische Speicherung der Überlagerungsaufnahmeinformationen und/oder der Weißlichtaufnahmeinformationen während der Aufnahmephase und/oder während der Überlagerungsphase (während der Livedarstellung) mit dem Ziel, die Überlagerungsaufnahmeinformationen weitere Male mit einem neu erfassten Livebild bzw. Livevideo zu überlagern.In a preferred embodiment, the method according to the invention further comprises the steps of: recording the recorded image and the overlay recording information by the image capture device; and storing the recorded image and the overlay recording information. This makes it possible to generate a data set. The overlay recording information can in particular be stored separately from the recorded image. For example, a recorded image can contain white light and fluorescence information. The fluorescence image can include or display the overlay recording information. This can be stored separately from the white light image information by spectral separation, for example during the recording by spectral separation directly in the instrument, or by separate camera systems. The same camera can also display white light and fluorescence images almost simultaneously by quickly changing the recording modes of white light and fluorescence, e.g. frame by frame, but the fluorescence image information and thus the overlay recording information are still available separately. This preferably allows the overlay recording information to be overlaid again with a newly recorded live image of the object, without necessarily having to provide another recording image including overlay recording information during a further recording phase. For documentation and/or further analysis, it is preferred that the recording image and/or the live image overlaid with the overlay recording information is/are saved. In this way, a follow-up examination based on this saved information can preferably be carried out following an examination and/or operation. In addition, saving serves to make it possible to compare saved overlay recordings with new live recordings in order to historically trace, for example, a development and/or a change in the object based on the saved information. This also enables the possibility of multiple overlay recording information with different time stamps, which can be displayed in different colors, for example. The overlay recording information and/or the white light recording information is preferably saved automatically during the recording phase and/or during the overlay phase (during the live display) with the aim of to overlay the overlay recording information several times with a newly captured live image or live video.

In einer bevorzugten Ausführungsform umfasst das erfindungsgemäße Verfahren ferner die Schritte: Überprüfen der berechneten Transformationsvorschrift und/oder eines darauf basierend überlagerten Livebildes hinsichtlich einer Überlagerbarkeit der Überlagerungsaufnahmeinformationen mit dem Livebild; und vorzugsweise Ausgeben einer Warnung, wenn eine Überlagerung der Überlagerungsaufnahmeinformationen mit dem Livebild nur bei Überschreitung einer zulässigen Fehlertoleranzgrenze möglich ist. Im erfindungsgemäßen Fokus steht somit auch das Anzeigen einer Verlässlichkeit der erzeugten Überlagerung. Mit anderen Worten wird, falls eine Transformation auf Basis der berechneten Transformationsvorschrift zwischen dem mindestens einen Aufnahmebild und dem mindestens eine Livebild nur mit einem intolerablen Fehler möglich ist oder gar nicht möglich ist, dies erfindungsgemäß angezeigt bzw. als Warnmeldung ausgegeben. Ferner wird die Überlagerung der Überlagerungsaufnahmeinformationen mit dem mindestens einen Livebild vorzugsweise nicht angezeigt bzw. ausgegeben. Anstelle dessen wird dem Anwender vorzugsweise ein Warnhinweis ausgegeben, dass die Darstellung der Überlagerung unter Einhaltung einer vorbestimmten Fehlertoleranz nicht möglich ist und daher nicht angezeigt werden kann. Alternativ oder ergänzend kann dem Anwender ein Grund für die Nicht-Überlagerbarkeit ausgegeben werden, wenn beispielsweise die Bilderfassungsvorrichtung zu schnell bewegt wurde. Ebenfalls kann dem Anwender vorzugsweise ein Hinweis auf eine disruptive Veränderung zwischen dem Aufnahmebild und dem Livebild ausgegeben werden, wenn beispielsweise das im Aufnahmebild abgebildete Objekt nur noch teilweise oder nicht mehr vorhanden ist, beispielsweise also operativ entfernt wurde. Die Bilderfassungsvorrichtung kann vorzugsweise dazu eingerichtet sein, das Livebild mit dem Aufnahmebild derart zu vergleichen, dass die beiden Bilder auf das Vorhandensein oder Nicht-Vorhandensein des mindestens einen Objektes überprüft werden. Hierdurch können Fehler in der Darstellung der Überlagerung und folglich Fehler, die auf einer derart fehlerhaften Überlagerung basieren, effektiv vermieden werden. Ebenfalls ist es erfindungsgemäß bevorzugt, wenn der Anwender die Möglichkeit einer manuellen oder teilweise manuellen Anpassung einer Darstellung der Überlagerung erhält und ggf. auf diese Möglichkeit hingewiesen wird. Alternativ oder ergänzend ist es bevorzugt, wenn neben der Überlagerung der Überlagerungsaufnahmeinformationen mit dem mindestens einen Livebild zusätzlich ein Einblenden eines Hinweises für den Anwender erfolgt, dass die Überlagerung der Überlagerungsaufnahmeinformationen nicht auf Basis von Liveüberlagerungsaufnahmeinformationen erfolgt, sondern diese vorab aufgezeichnet wurden. Besonders bevorzugt findet erfindungsgemäß eine Kontrolle statt, ob die Transformationsvorschrift korrekt berechnet werden konnte. Sofern die Transformationsvorschrift nicht korrekt berechnet werden konnte, kann beispielsweise eine Ausgabe an den Anwender erfolgen, dass die Überlagerung der Überlagerungsaufnahmeinformationen mit dem mindestens einen Livebild aufgrund einer inkorrekt berechneten Transformationsvorschrift gestoppt werden muss. Die Kontrolle kann vorzugsweise über einen Plausibilitätsabgleich erfolgen. Besonders bevorzugt kann die Kontrolle der Transformationsvorschrift auf Basis einer manuellen Eingabe oder automatisch erfolgen. Ebenfalls ist es erfindungsgemäß möglich, dass der Anwender manuelle Anpassungen bei der Transformationsvorschrift vornehmen kann.In a preferred embodiment, the method according to the invention further comprises the steps of: checking the calculated transformation rule and/or a live image superimposed on the basis thereof with regard to the ability of the overlay recording information to be superimposed on the live image; and preferably issuing a warning if an overlay of the overlay recording information with the live image is only possible if a permissible error tolerance limit is exceeded. The focus of the invention is therefore also on displaying the reliability of the generated overlay. In other words, if a transformation based on the calculated transformation rule between the at least one recorded image and the at least one live image is only possible with an intolerable error or is not possible at all, this is displayed according to the invention or issued as a warning message. Furthermore, the overlay of the overlay recording information with the at least one live image is preferably not displayed or output. Instead, the user is preferably given a warning that the representation of the overlay is not possible while maintaining a predetermined error tolerance and therefore cannot be displayed. Alternatively or additionally, the user can be given a reason for the inability to overlay if, for example, the image capture device was moved too quickly. The user can also preferably be given an indication of a disruptive change between the recorded image and the live image if, for example, the object depicted in the recorded image is only partially present or no longer present, for example if it has been surgically removed. The image capture device can preferably be set up to compare the live image with the recorded image in such a way that the two images are checked for the presence or absence of the at least one object. This makes it possible to effectively avoid errors in the representation of the overlay and consequently errors based on such an incorrect overlay. It is also preferred according to the invention if the user is given the option of manually or partially manually adjusting a representation of the overlay and is informed of this option if necessary. Alternatively or additionally, it is preferred if, in addition to the overlay recording information being overlaid with the at least one live image, a message is also displayed for the user that the overlay recording information is not being overlaid based on live overlay recording information, but that this was recorded in advance. Particularly preferably, according to the invention, a check is carried out to determine whether the transformation rule was correctly calculated. If the transformation rule could not be correctly calculated, an output can be given to the user, for example, that the overlay recording information being overlaid with the at least one live image must be stopped due to an incorrectly calculated transformation rule. The check can preferably be carried out via a plausibility check. Particularly preferably, the transformation rule can be checked based on manual input or automatically. It is also possible according to the invention for the user to make manual adjustments to the transformation rule.

In einer bevorzugten Ausführungsform umfasst das erfindungsgemäße Verfahren ferner die Schritte: Darstellen des Livebildes gemeinsam mit den überlagerten Überlagerungsaufnahmeinformationen; und Hervorheben eines Bildbereiches in einer Erfassungsszene in dem Livebild, in dem die Überlagerungsaufnahmeinformationen dargestellt sind. Bei Anzeige der Überlagerung der Überlagerungsaufnahmeinformationen in dem Livebild können vorzugsweise Bereiche, für welche die Überlagerung auf Basis der Transformationsvorschrift möglich ist und folglich auch ausgeführt wird, durch Bereichsindikatoren, beispielsweise farbliche Umrandungen oder Ähnliches, in dem mindestens einen Livebild hervorgehoben werden. Hierdurch wird dem Anwender vorzugsweise eine Information angezeigt, in welchem Abbildungsbereich die Überlagerung möglich ist und stattfindet. Beispielsweise kann das Livebild einen größeren Ausschnitt einer Abbildungsszene umfassen, in dem beispielsweise andere Objekte, beispielsweise andere Organe, mit abgebildet sind. Die Überlagerung findet nur bezüglich eines dieser Objekte statt, das zur besseren Erkennbarkeit beispielsweise farblich hervorgehoben, bspw. rot umrandet, in der Abbildungsszene dargestellt wird. Die Anzeigevorrichtung ist vorzugsweise dazu ausgebildet, Bereiche, in denen die Überlagerungsaufnahmeinformationen mit dem Livebild überlagert sind, hervorgehoben darzustellen. In a preferred embodiment, the method according to the invention further comprises the steps of: displaying the live image together with the superimposed overlay recording information; and highlighting an image area in a capture scene in the live image in which the overlay recording information is displayed. When displaying the overlay of the overlay recording information in the live image, areas for which the overlay is possible on the basis of the transformation rule and is therefore also carried out can preferably be highlighted in the at least one live image by area indicators, for example colored borders or the like. This preferably shows the user information about the imaging area in which the overlay is possible and takes place. For example, the live image can include a larger section of an imaging scene in which, for example, other objects, for example other organs, are also imaged. The overlay only takes place with respect to one of these objects, which is shown in the imaging scene, for example highlighted in color, for example with a red border, for better recognition. The display device is preferably designed to highlight areas in which the overlay recording information is superimposed on the live image.

Zusätzlich kann während der Anzeige des mit den Überlagerungsaufnahmeinformationen überlagerten Livebildes dem Anwender ein Hinweis auf einem Monitor dargestellt werden, dass es sich bei den Überlagerungsaufnahmeinformationen nicht um Livebilder handelt.In addition, while the live image superimposed with the overlay recording information is displayed, a notice can be displayed to the user on a monitor that the overlay recording information is not a live image.

Bevorzugt wird ein Anflutverhalten eines Indikatorstoffes für die Erzeugung von Fluoreszenzinformationen und/oder Multispektralinformationen und/oder Hyperspektralinformationen bezüglich eines Realbildes und/oder eines Livebildes beschleunigt dargestellt, um eine effektivere Beurteilung der aufgenommenen Überlagerungsaufnahmeinformationen durch den Anwender zu ermöglichen. Beispielsweise wird eine Aufnahmevideosequenz durch Anwendung eines Zeitraffers von beispielhaften 2 Minuten auf beispielhafte 10 Sekunden verkürzt bzw. beschleunigt. Beispielsweise können die Überlagerungsaufnahmeinformationen, die in einer Aufnahmevideosequenz je Zeiteinheit umfasst sind, gegenüber einer Livevideosequenz mit einer x-fachen Beschleunigung mit dieser überlagert werden. Die Aufnahmevideosequenz ist vorzugsweise in einer Größenordnung von 1 bis 5 Minuten, kann jedoch grundsätzlich auch kürzer oder länger sein. Die Beschleunigung des Zeitraffers ist vorzugsweise 2-fach oder mehr als 2-fach. Bei Auswertungen von Multispektral- oder Hyperspektralinformationen, die beispielswiese bei der Erfassung einer Sauerstoffsättigung Anwendung finden, kann die Aufnahmevideosequenz beispielsweise 10 bis 20 Sekunden betragen und die Überlagerungsaufnahmeinformationen mit einer 1,5- bis 2-fachen Beschleunigung mit einer Livevideosequenz überlagert werden.A flooding behavior of an indicator substance is preferred for the generation of fluorescence information and/or multispectral information and/or hyperspectral information relating to a real image and/or a live image is displayed at an accelerated rate in order to enable the user to more effectively assess the recorded overlay recording information. For example, a recording video sequence is shortened or accelerated from an example of 2 minutes to an example of 10 seconds by using a time lapse. For example, the overlay recording information contained in a recording video sequence per unit of time can be overlaid on a live video sequence at an x-fold acceleration compared to this. The recording video sequence is preferably on the order of 1 to 5 minutes, but can in principle also be shorter or longer. The acceleration of the time lapse is preferably 2-fold or more than 2-fold. When evaluating multispectral or hyperspectral information, which is used, for example, to detect oxygen saturation, the recording video sequence can be, for example, 10 to 20 seconds and the overlay recording information can be overlaid on a live video sequence at a 1.5 to 2-fold acceleration.

In einer bevorzugten Ausführungsform ist die Vorrichtung in einem Endoskop oder einem Stereoendoskop und/oder in einem Exoskop oder einem Stereoexoskop und/oder in einem Mikroskop oder einem Stereomikroskop und/oder in einem Laryngoskop oder einem Stereolaryngoskop umfasst.In a preferred embodiment, the device is comprised in an endoscope or a stereoendoscope and/or in an exoscope or a stereoexoscope and/or in a microscope or a stereomicroscope and/or in a laryngoscope or a stereolaryngoscope.

In einer bevorzugten Ausführungsform umfasst die Vorrichtung eine Benutzereingabevorrichtung und/oder eine Benutzerausgabevorrichtung. Die Benutzereingabevorrichtung kann eine Tastatur und/oder eine Maus und/oder einen Joystick und/oder einen Touchscreen und/oder ein Touchpad und/oder eine sonstige manuelle Eingabevorrichtung umfassen. Die Benutzerausgabevorrichtung ist vorzugsweise dazu eingerichtet, dem Benutzer der Vorrichtung eine Interaktion und/oder eine Reaktion und/oder ein zumindest teilweise manuelles Eingreifen, insbesondere in den Darstellungsprozess der Überlagerung von Überlagerungsaufnahmeinformationen mit dem Livebild, zu ermöglichen. Die Benutzerausgabevorrichtung kann einen Bildschirm und/oder einen Touchscreen und/oder eine Brille und/oder eine 3D-Brille und/oder eine Augmented-Reality-Brille umfassen.In a preferred embodiment, the device comprises a user input device and/or a user output device. The user input device can comprise a keyboard and/or a mouse and/or a joystick and/or a touchscreen and/or a touchpad and/or another manual input device. The user output device is preferably designed to enable the user of the device to interact and/or react and/or at least partially intervene manually, in particular in the display process of overlaying overlay recording information with the live image. The user output device can comprise a screen and/or a touchscreen and/or glasses and/or 3D glasses and/or augmented reality glasses.

Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsformen der Erfindung sowie anhand von lediglich schematischen Zeichnungen.Further advantages and details of the invention will become apparent from the following description of preferred embodiments of the invention and from purely schematic drawings.

Es zeigen:

  • 1: eine schematische Ansicht eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung;
  • 2: eine schematische Ansicht eines weiteren Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung;
  • 3: eine schematische Darstellung einer zeitlichen Abfolge von Aufnahmebildern und Livebildern; und
  • 4: eine schematische Darstellung einer Überlagerung von in zeitlicher Abfolge erfassten Überlagerungsaufnahmeinformationen mit einer zeitlichen Abfolge von Livebildern.
Show it:
  • 1 : a schematic view of an embodiment of a device according to the invention;
  • 2 : a schematic view of a further embodiment of a device according to the invention;
  • 3 : a schematic representation of a temporal sequence of recorded images and live images; and
  • 4 : a schematic representation of an overlay of overlay recording information acquired in chronological order with a chronological sequence of live images.

Gleiche Elemente beziehungsweise Elemente mit gleicher Funktion sind in den Figuren mit den gleichen Bezugsziffern versehen.Identical elements or elements with the same function are provided with the same reference numbers in the figures.

1 zeigt in einer schematisch stark vereinfachten Blockdarstellung eine beispielhafte Ausgestaltung einer erfindungsgemäßen Vorrichtung 100. Die Vorrichtung 100 ist gemäß 1 beispielhaft in einem Stereoendoskop 102 umfasst. Grundsätzlich kann die Vorrichtung 100 auch in einem Stereoexoskop und/oder einem Stereomikroskop und/oder einem Stereolaryngoskop umfasst sein. 1 shows in a schematically simplified block diagram an exemplary embodiment of a device 100 according to the invention. The device 100 is according to 1 for example in a stereoendoscope 102. In principle, the device 100 can also be included in a stereoexoscope and/or a stereomicroscope and/or a stereolaryngoscope.

Ferner kann die Vorrichtung 100 ebenso in einem Endoskop und/oder einem Exoskop und/oder einem Mikroskop und/oder einem Laryngoskop umfasst sein. Eine beispielhafte Ausführung der Vorrichtung 100, die in einem Endoskop 103 (ohne Stereovision) umfasst ist, ist in 2 dargestellt.Furthermore, the device 100 can also be included in an endoscope and/or an exoscope and/or a microscope and/or a laryngoscope. An exemplary embodiment of the device 100 included in an endoscope 103 (without stereo vision) is shown in 2 shown.

Nachfolgend wird zunächst die grundsätzliche Funktionsweise eines Ausführungsbeispiels der Vorrichtung 100, umfasst in dem Stereoendoskop 102, gemäß 1 beschrieben. Anschließend wird die grundsätzliche Funktionsweise eines Ausführungsbeispiels der Vorrichtung 100 in einem Endoskop 103 (ohne Stereovision) beschrieben. Ferner wird auf das erfindungsgemäße Verfahren, das durch die Vorrichtung 100 ausführbar ist, eingegangen.In the following, the basic operation of an embodiment of the device 100, included in the stereoendoscope 102, according to 1 described. The basic mode of operation of an embodiment of the device 100 in an endoscope 103 (without stereo vision) is then described. The method according to the invention, which can be carried out by the device 100, is also discussed.

Die Vorrichtung 100 gemäß 1 weist eine Bilderfassungsvorrichtung 104 mit einem Bildsensor 106 auf. Aufgrund der Ausführung als Stereoendoskop 102 umfasst die Bilderfassungsvorrichtung 104 eine erste Bilderfassungseinheit 108 und eine zweite Bildererfassungseinheit 110. Bei der Ausführung als Endoskop 103 kann die Bilderfassungsvorrichtung 104 nur eine der Bildererfassungseinheiten 108, 110 umfassen (vgl. 2). Es versteht sich, dass das Stereoendoskop 102 beweglich sein kann und beispielsweise durch eine Handbewegung eines Anwenders oder durch eine robotergesteuerte Bewegung relativ zu dem Objekt 112 bewegt werden kann.The device 100 according to 1 has an image capture device 104 with an image sensor 106. Due to the design as a stereo endoscope 102, the image capture device 104 comprises a first image capture unit 108 and a second image capture unit 110. When designed as an endoscope 103, the image capture device 104 can comprise only one of the image capture units 108, 110 (cf. 2 ). It is understood that the stereo endoscope 102 can be movable and can be moved relative to the object 112, for example by a hand movement of a user or by a robot-controlled movement.

Die erste Bilderfassungseinheit 108 weist einen vorbestimmten Abstand von der zweiten Bilderfassungseinheit 110 auf, der eine Stereobasis des Stereoendoskops 102 definiert. Bei der ersten und der zweiten Bilderfassungseinheit 108, 110 handelt es sich vorzugsweise jeweils um eine Kamera. Der Bildsensor 106 ist vorzugsweise dazu eingerichtet, von der ersten und der zweiten Bilderfassungseinheit 108, 110 Bilddaten in Form von Aufnahmebildern und/oder Livebildern zu empfangen und diese auszuwerten. Der Bildsensor 106 interagiert vorzugsweise mit einer Auswerte- und Recheneinheit, wodurch eine Verarbeitung der erfassten Bilddaten ermöglicht ist. Die Recheneinrichtung 109 kann beispielsweise eine Kamerakontrolleinheit (engl.: Camera Control Unit (CCU)) umfassen.The first image capture unit 108 is at a predetermined distance from the second image capture unit 110, which defines a stereo base of the stereo endoscope 102. The first and second image capture units 108, 110 are preferably each a camera. The image sensor 106 is preferably set up to receive image data in the form of recorded images and/or live images from the first and second image capture units 108, 110 and to evaluate them. The image sensor 106 preferably interacts with an evaluation and computing unit, which enables processing of the captured image data. The computing device 109 can, for example, comprise a camera control unit (CCU).

Der ersten und der zweiten Bilderfassungseinheit 108, 110 ist eine Objektivbaugruppe 114 vorgelagert. Die Objektivbaugruppe 114 umfasst beispielhaft ein Deckglas und optische Einheiten 116, 118 mit Aperturen, die den Bilderfassungseinheiten 108, 110 zugeordnet sind. Die optischen Einheiten 116, 118 definieren das jeweilige Sichtfeld der Bilderfassungseinheiten 108, 110. Jede der beiden Bilderfassungseinheiten 108, 110 ist einem Beobachtungskanal 120, 122 zugeordnet. Die Beobachtungskanäle 120, 122 sind jeweils dazu ausgebildet, die Aufnahmebilder und/oder die Livebilder in Form von signalförmigen Bildinformationen an den Bildsensor 106 zu übermitteln. Zur Bereitstellung der Bildinformationen ist jeder der Bilderfassungseinheiten 108, 110 ein Signalwandler 124, 126 zugeordnet. Die Signalwandler 124, 126 sind jeweils dazu eingerichtet, die optisch erfassten Aufnahmebilder und/oder Livebilder in Bildinformationen umzuwandeln. Beispielhaft handelt es sich bei den Signalwandlern 124, 126 um Fotochips.A lens assembly 114 is arranged in front of the first and second image capture units 108, 110. The lens assembly 114 comprises, for example, a cover glass and optical units 116, 118 with apertures that are assigned to the image capture units 108, 110. The optical units 116, 118 define the respective field of view of the image capture units 108, 110. Each of the two image capture units 108, 110 is assigned to an observation channel 120, 122. The observation channels 120, 122 are each designed to transmit the recorded images and/or the live images in the form of signal-like image information to the image sensor 106. To provide the image information, each of the image capture units 108, 110 is assigned a signal converter 124, 126. The signal converters 124, 126 are each designed to convert the optically captured images and/or live images into image information. For example, the signal converters 124, 126 are photo chips.

Die erste Bilderfassungseinheit 108 ist dazu eingerichtet, mindestens ein Aufnahmebild 134 und/oder ein Livebild 135 von mindestens einem beweglichen Objekt 112 zu erfassen (s. 3). Das Objekt 112 ist hier in 1 beispielhaft als ein Buchstabe P dargestellt. Allerdings handelt es sich bei dem Objekt 112 normalerweise vorzugsweise um ein menschliches oder tierisches Organ oder einen Organbereich oder mehrere Organe oder einen anderen Teil eines menschlichen oder tierischen Körpers oder um ein Bauteil. Die erste Bilderfassungseinheit 108 erfasst das mindestens eine Aufnahmebild 134 und/oder das mindestens eine Livebild 135 des Objektes 112 vorzugsweise aus einem ersten Blickwinkel.The first image capture unit 108 is configured to capture at least one recorded image 134 and/or a live image 135 of at least one moving object 112 (see 3 ). Object 112 is here in 1 represented by way of example as a letter P. However, the object 112 is normally preferably a human or animal organ or an organ region or several organs or another part of a human or animal body or a component. The first image capture unit 108 captures the at least one recorded image 134 and/or the at least one live image 135 of the object 112 preferably from a first viewing angle.

Zur Stereoerfassung ist die zweite Bilderfassungseinheit 110 dazu eingerichtet, ebenfalls mindestens ein Aufnahmebild 134 und/oder mindestens ein Livebild 135 des mindestens einen beweglichen Objektes 112 aus einem zweiten Blickwinkel zu erfassen. Die erste und die zweite Bilderfassungseinheit 108, 110 sind jeweils dazu eingerichtet, das mindestens eine Aufnahmebild 134 und/oder das mindestens eine Livebild 135 vorzugsweise zeitlich synchronisiert zu erfassen. Derartig zeitlich synchron erfasste Aufnahmebilder 134 bilden vorzugsweise ein Stereoaufnahmebildpaar. Derartig zeitlich synchron erfasste Livebilder 135 bilden vorzugsweise ein Stereolivebildpaar.For stereo recording, the second image recording unit 110 is set up to also record at least one recorded image 134 and/or at least one live image 135 of the at least one moving object 112 from a second viewing angle. The first and second image recording units 108, 110 are each set up to record the at least one recorded image 134 and/or the at least one live image 135 preferably in a time-synchronized manner. Recorded images 134 recorded in such a time-synchronized manner preferably form a stereo recorded image pair. Live images 135 recorded in such a time-synchronized manner preferably form a stereo live image pair.

Der Bildsensor 106 ist dazu ausgebildet, aus dem Stereoaufnahmebildpaar und/oder dem Stereolivebildpaar bzw. aus den signalbasierten Bildinformationen durch bekannte Methoden der Stereorekonstruktion Stereobildinformationen zu ermitteln. In den Stereobildinformationen sind zu jedem erfassten Bildpunkt des mindestens einen Objektes 112 Tiefeninformationen verfügbar, die beispielsweise dazu verwendet werden können, einen Abstand zwischen zwei Messpunkten an dem Objekt 112 im euklidischen Raum zu berechnen.The image sensor 106 is designed to determine stereo image information from the stereo recording image pair and/or the stereo live image pair or from the signal-based image information using known methods of stereo reconstruction. In the stereo image information, depth information is available for each captured pixel of the at least one object 112, which can be used, for example, to calculate a distance between two measurement points on the object 112 in Euclidean space.

Die Stereobildinformationen können vorzugsweise über einen ersten und/oder einen zweiten Ausgabekanal 128, 130 an eine Benutzerausgabevorrichtung 132 und/oder an einen Datenspeicher übertragen werden. Einem Anwender kann vorzugsweise mindestens ein derart erfasstes Stereolivebild 135 auf der Benutzerausgabevorrichtung 132 ausgegeben und/oder angezeigt werden. Die Benutzerausgabevorrichtung 132 kann beispielsweise ein Display und/oder ein Touchdisplay sein. Auf der Benutzerausgabevorrichtung 132 wird das mindestens eine Objekt 112 in Form eines Beobachtungsobjektes 136 abgebildet. Ein Benutzer kann mithilfe einer Benutzereingabevorrichtung (nicht gezeigt) eine oder mehrere manuelle oder teilweise manuelle Eingaben vornehmen. Die Benutzereingabevorrichtung kann in der Benutzerausgabevorrichtung 132 umfasst sein.The stereo image information can preferably be transmitted to a user output device 132 and/or to a data storage device via a first and/or a second output channel 128, 130. At least one stereo live image 135 acquired in this way can preferably be output and/or displayed to a user on the user output device 132. The user output device 132 can be a display and/or a touch display, for example. The at least one object 112 is displayed on the user output device 132 in the form of an observation object 136. A user can make one or more manual or partially manual inputs using a user input device (not shown). The user input device can be included in the user output device 132.

Es versteht sich, dass die Vorrichtung 100 dazu eingerichtet ist, grundsätzlich eine Vielzahl von Aufnahmebildern 134 und/oder Stereoaufnahmebildpaaren des Objektes 112 zu erfassen. Besonders bevorzugt ist es mit der Vorrichtung 100 möglich, ein Aufnahmevideo und/oder ein Stereoaufnahmevideo von dem mindestens einen Objekt 112 aufzunehmen, das aus einer Vielzahl von zeitlich aufeinanderfolgenden Aufnahmebildern 134 und/oder Stereoaufnahmebildern (die jeweils aus je einem Stereoaufnahmebildpaar resultieren) zusammengesetzt ist, die in einem vordefinierten zeitlichen Abstand (bestimmt durch die frame rate) nacheinander erfasst werden. Dasselbe gilt für das Erfassen der Livebilder 135 und/oder der Stereolivebilder, die vorzugsweise als Livevideo und/oder Stereolivevideo erfasst werden.It is understood that the device 100 is designed to basically capture a plurality of recorded images 134 and/or stereo recorded image pairs of the object 112. It is particularly preferably possible with the device 100 to capture a recorded video and/or a stereo recorded video of the at least one object 112, which is composed of a plurality of temporally successive recorded images 134 and/or stereo recorded images (each resulting from a stereo recorded image pair) that are captured one after the other at a predefined time interval (determined by the frame rate). The same applies to capturing the live images 135 and/or the stereo live images, which are preferably captured as live video and/or stereo live video.

In 2 ist ein zweites Ausführungsbeispiel der erfindungsgemäßen Vorrichtung 100 dargestellt. Dabei ist eine beispielhafte Systemarchitektur gezeigt. Die Vorrichtung 100 ist dabei in dem Endoskop 103 umfasst, das nicht zur Stereovision ausgebildet ist. Demgemäß umfasst die Bilderfassungsvorrichtung 104 auch nur eine Bilderfassungseinheit 108, 110. Die Vorrichtung 100 mitsamt Endoskop 103 ist vorliegend als schematischer Block ohne eine weitere Detaillierung dargestellt. Die Bilderfassungsvorrichtung 104 kann beispielsweise als Kamerakopf aufgefasst werden. Die Vorrichtung 100 kann ferner mindestens einen Beobachtungsfilter 138, beispielsweise einen optischen Filter, umfassen, durch den beispielsweise vorbestimmte Wellenlängen und/oder Wellenlängenbereiche gefiltert werden können.In 2 a second embodiment of the device 100 according to the invention is shown. An exemplary system architecture is shown. The device 100 is contained in the endoscope 103, which is not designed for stereo vision. Accordingly, the image capture device 104 also comprises only one image capture unit 108, 110. The device 100 together with the endoscope 103 is shown here as a schematic block without further detailing. The image capture device 104 can be understood as a camera head, for example. The device 100 can also comprise at least one observation filter 138, for example an optical filter, through which predetermined wavelengths and/or wavelength ranges can be filtered, for example.

Die Bilderfassungseinheit 108, 110, die beispielsweise als Kamera ausgebildet sein kann, ist dazu eingerichtet, mindestens ein Aufnahmebild 134 und/oder mindestens ein Livebild 135 des mindestens einen Objektes 112 zu erfassen. Es versteht sich, dass das Endoskop 103 beweglich sein kann und beispielsweise durch eine Handbewegung eines Anwenders oder durch eine robotergesteuerte Bewegung relativ zu dem Objekt 112 bewegt werden kann. Bevorzugt wird das mindestens eine Livebild 135 zeitlich auf das mindestens eine Aufnahmebild 134 folgend erfasst.The image capture unit 108, 110, which can be designed as a camera, for example, is set up to capture at least one recorded image 134 and/or at least one live image 135 of the at least one object 112. It is understood that the endoscope 103 can be movable and can be moved relative to the object 112, for example, by a hand movement of a user or by a robot-controlled movement. The at least one live image 135 is preferably captured chronologically following the at least one recorded image 134.

Das mindestens eine Aufnahmebild 134 wird vorzugsweise während einer Aufnahmephase erfasst, während der das mindestens eine Objekt 112 durch die Vorrichtung 100 bzw. durch das Endoskop 103 und/oder durch das Stereoendoskop 102 erfasst wird. Das mindestens eine Aufnahmebild 134 wird vorzugsweise zumindest zwischengespeichert oder abgespeichert, um weiterhin verfügbar zu sein. Erfindungsgemäß ist es erwünscht, dass in dem mindestens einen Aufnahmebild 134 Überlagerungsaufnahmeinformationen 140 umfasst sind. Diese Überlagerungsaufnahmeinformationen 140 resultieren beispielsweise aus einer Fluoreszenzanregung des mindestens einen Objektes 112 mittels eines fluoreszierenden Farbstoffes, wie z. B. Indocyaningrün oder Fluorescein. Alternativ resultieren die Überlagerungsaufnahmeinformationen 140 aus bekannten Intraoperativ-Hyperspektralverfahren und/oder aus Multispektralverfahren. In 2 ist beispielhaft eine Fluoreszenzanregung des mindestens einen Objektes 112 als dunkle bzw. schwarze Bereiche dargestellt.The at least one recorded image 134 is preferably captured during a recording phase during which the at least one object 112 is captured by the device 100 or by the endoscope 103 and/or by the stereoendoscope 102. The at least one recorded image 134 is preferably at least temporarily stored or saved in order to continue to be available. According to the invention, it is desirable that the at least one recorded image 134 includes overlay recording information 140. This overlay recording information 140 results, for example, from a fluorescence excitation of the at least one object 112 by means of a fluorescent dye, such as indocyanine green or fluorescein. Alternatively, the overlay recording information 140 results from known intraoperative hyperspectral methods and/or from multispectral methods. In 2 By way of example, a fluorescence excitation of at least one object 112 is shown as dark or black areas.

Zur Erzeugung der Überlagerungsaufnahmeinformationen 140 wird beispielsweise ein fluoreszenzfähiger Farbstoff in das betreffende Objekt 112 bzw. in einen betreffenden Gewebebereich 142, in dem das Objekt 112 umfasst ist, injiziert und/oder eingebracht. Der Fluoreszenzfarbstoff wird dann beispielsweise durch eine Anregungslichtquelle 144 beleuchtet und derart zur Fluoreszenz angeregt. Die Anregungslichtquelle 144 kann vorzugsweise über einen Lichtleiter 146 mit dem Endoskop 103 (und selbstredend in gleicher Weise auch mit dem Stereoendoskop 102) lichtleitend verbunden sein, um derart das Objekt 112 mit dem Licht der Anregungslichtquelle 144 unmittelbar über das Endoskop 103 bzw. das Stereoendoskop 102 zu beleuchten. Besonders bevorzugt kann der Lichtleiter 146 derart mit dem Endoskop 103 bzw. dem Stereoendoskop 102 gekoppelt sein, dass eine möglichst verlustfreie Lichteinkopplung in den Lichtleiter 146 des Endoskopes 103 bzw. des Stereoendoskopes 102 erfolgen kann. Bevorzugt umfasst der Lichtleiter 146 eine Vielzahl von Glasfasern.To generate the overlay recording information 140, for example, a fluorescent dye is injected and/or introduced into the relevant object 112 or into a relevant tissue region 142 in which the object 112 is contained. The fluorescent dye is then illuminated, for example, by an excitation light source 144 and thus excited to fluoresce. The excitation light source 144 can preferably be connected in a light-conducting manner to the endoscope 103 (and of course in the same way to the stereoendoscope 102) via a light guide 146 in order to illuminate the object 112 with the light from the excitation light source 144 directly via the endoscope 103 or the stereoendoscope 102. Particularly preferably, the light guide 146 can be coupled to the endoscope 103 or the stereo endoscope 102 in such a way that light can be coupled into the light guide 146 of the endoscope 103 or the stereo endoscope 102 with as little loss as possible. The light guide 146 preferably comprises a plurality of glass fibers.

Die Anregung zur Fluoreszenz bzw. die Beleuchtung des Objektes 112 durch die Anregungslichtquelle 144 erfolgt vorzugsweise zeitlich unmittelbar vor oder während der Aufnahmephase. Während der Aufnahmephase wird dann das mindestens eine Aufnahmebild 134 erfasst, in dem die Überlagerungsaufnahmeinformationen 140, insbesondere die Fluoreszenzaufnahmeinformationen, umfasst sind. Zusätzlich zu den Überlagerungsaufnahmeinformationen 140 werden durch die Bilderfassungseinheit 108, 110 ferner vorzugsweise Weißlichtbildinformationen erfasst. Mit anderen Worten kann das Gewebe bzw. das Objekt 112 vorzugsweise mit einem fluoreszenten Farbstoff zur Fluoreszenz angeregt und von dem Endoskop 103 und/oder dem Stereoendoskop 102 untersucht werden. Durch das Endoskop 103 fällt beispielsweise Weißlicht bzw. Anregungslicht der Anregungslichtquelle 144 auf das Gewebe, wird dort reflektiert bzw. durch den Fluoreszenzprozess emittiert und kann durch die Bilderfassungsvorrichtung 104 detektiert werden. Die Recheneinrichtung 109 bzw. die Kamerakontrolleinheit (CCU) verarbeitet dann vorzugsweise die erfassten Aufnahmebilder 134.The excitation of fluorescence or the illumination of the object 112 by the excitation light source 144 preferably takes place immediately before or during the recording phase. During the recording phase, the at least one recorded image 134 is then captured, in which the overlay recording information 140, in particular the fluorescence recording information, is included. In addition to the overlay recording information 140, the image capture unit 108, 110 also preferably captures white light image information. In other words, the tissue or the object 112 can preferably be excited to fluoresce using a fluorescent dye and examined by the endoscope 103 and/or the stereoendoscope 102. For example, white light or excitation light from the excitation light source 144 falls on the tissue through the endoscope 103, is reflected there or emitted by the fluorescence process and can be detected by the image capture device 104. The computing device 109 or the camera control unit (CCU) then preferably processes the captured images 134.

Bevorzugt ist die Recheneinrichtung 109, bevorzugt ausgeführt als CCU, dazu eingerichtet, die Überlagerungsaufnahmeinformationen 140 durch eine spektrale Trennung zwischen den erfassten Überlagerungsaufnahmeinformationen 140 und den erfassten Weißlichtbildinformationen bereitzustellen. Alternativ oder ergänzend ist es möglich, dass dem Ermitteln der Überlagerungsaufnahmeinformationen 140 eine Belichtung des Objektes 112 mittels der Anregungslichtquelle 144 und ein Erfassen eines derart belichteten Aufnahmebildes 134 vorangestellt ist.Preferably, the computing device 109, preferably designed as a CCU, is configured to provide the overlay recording information 140 by means of a spectral separation between the acquired overlay recording information 140 and the acquired white light image information. Alternatively or additionally, it is possible that the determination of the overlay recording information 140 is preceded by an exposure of the object 112 by means of the excitation light source 144 and a capture of a recording image 134 exposed in this way.

Um eine Überlagerung der Überlagerungsaufnahmeinformationen 140 mit dem mindestens einen Livebild 135 auch bei einem sich bewegenden Objekt 112 und/oder einer sich bewegenden Bilderfassungsvorrichtung 104 möglichst fehlerfrei zu ermöglichen, ist es erfindungsgemäß vorgesehen, dass eine Transformationsvorschrift zumindest zwischen dem Aufnahmebild 134 und dem Livebild 135 unter Einsatz der Recheneinrichtung 109 berechnet wird, um derart eine Positions- und/oder Lage- und/oder Tiefenänderung des beweglichen Objektes 112 zwischen dem Aufnahmebild 134 und dem Livebild 135 nachzuverfolgen.In order to ensure that the overlay recording information 140 is superimposed with the at least one live image 135 as error-free as possible even with a moving object 112 and/or a moving image capture device 104, In order to enable this, it is provided according to the invention that a transformation rule is calculated at least between the recorded image 134 and the live image 135 using the computing device 109 in order to track a position and/or location and/or depth change of the moving object 112 between the recorded image 134 and the live image 135.

In 3 ist linksseitig eine Vielzahl von zeitlich aufeinanderfolgenden (t, t-1, t-2, t-3, t-4) Aufnahmebildern 134 dargestellt, in denen jeweils Überlagerungsaufnahmeinformationen 140 sowie Weißlichtbildinformationen umfasst sind. In den Aufnahmebildern 134 sind mehrere Objekte 112 dargestellt. Rechtsseitig sind mehrere Livebilder 135, insbesondere Weißlichtlivebilder, dargestellt, die ebenfalls zeitlich aufeinanderfolgend (t, t-1, t-2) von dem Objekt 112 erfasst werden. In den Livebildern 135 sind keine Überlagerungsaufnahmeinformationen 140 umfasst, da die Überlagerungsaufnahmeinformationen 140 lediglich während der zeitlich der Livephase vorangegangenen Aufnahmephase erfasst wurden. Wie aus einer Zusammenschau der rechts- und linksseitigen Abbildungen in 3 zu erkennen ist, hat das Objekt 112 zwischen der Aufnahmephase (dargestellt in den Aufnahmebildern 134) und der Livephase (dargestellt in den Livebildern 135) seine Position geändert. Ferner ist gegenüber den Aufnahmebildern 134 in den Livebildern 135 nur noch eines der Objekte 112 dargestellt.In 3 On the left side, a plurality of temporally consecutive (t, t-1, t-2, t-3, t-4) recorded images 134 are shown, each of which includes overlay recording information 140 and white light image information. Several objects 112 are shown in the recorded images 134. On the right side, several live images 135, in particular white light live images, are shown, which are also recorded in temporally consecutive (t, t-1, t-2) of the object 112. No overlay recording information 140 is included in the live images 135, since the overlay recording information 140 was only recorded during the recording phase preceding the live phase. As can be seen from a summary of the right and left side images in 3 As can be seen, the object 112 has changed its position between the recording phase (shown in the recording images 134) and the live phase (shown in the live images 135). Furthermore, only one of the objects 112 is shown in the live images 135 compared to the recording images 134.

Die Überlagerungsaufnahmeinformationen 140 werden erfindungsgemäß insbesondere bildweise fortlaufend mit den Livebildern 135 überlagert, wobei eine Bewegung des Objektes 112 und/oder der Bilderfassungsvorrichtung 104 durch Berechnung der Transformationsvorschrift berücksichtigt wird. Dies Überlagerung ist in 4 exemplarisch dargestellt.According to the invention, the overlay recording information 140 is continuously overlaid with the live images 135, in particular image by image, wherein a movement of the object 112 and/or the image capture device 104 is taken into account by calculating the transformation rule. This overlay is in 4 shown as an example.

Zwischen den (Weißlicht-)Aufnahmebildern 134 und den Livebildern 135 wird, wie aus 4 hervorgeht, eine Transformationsvorschrift berechnet, bei der die Bewegung des mindestens einen Objektes 112 innerhalb eines Erfassungsbereiches der Bilderfassungsvorrichtung 104 einbezogen wird. Dabei können die während der Aufnahmephase erfassten Aufnahmebilder 134 gegenüber der Livephase beschleunigt, beispielsweise 2-fach beschleunigt, bei der Berechnung der Transformationsvorschrift berücksichtigt werden, so dass beispielsweise nur jedes zweite Aufnahmebild 134 zur Berechnung der Transformationsvorschrift berücksichtigt wird (beispielhaft angedeutet durch t, t-2, t-4, wobei t-1 und t-3 aufgrund der 2-fachen Beschleunigung übersprungen wurden). Die Berechnung der Transformationsvorschrift wird vorzugsweise jeweils in vorbestimmten Zeitabschnitten wiederholt, um derart eine Objektbewegung möglichst stetig nachzuverfolgen. Durch die berechnete Transformationsvorschrift ist es möglich, die in den Aufnahmebildern 134 umfassten Überlagerungsaufnahmeinformationen 140, die vorzugsweise aus diesen in isolierter Form extrahiert oder getrennt aufgenommen wurden, mit den Livebildern 135 zu überlagern, wie dies rechtsseitig in 4 dargestellt ist. Dabei können aufgrund der Transformationsvorschrift bzw. aufgrund der dadurch einbeziehbaren Positions- und/oder Lageänderung des mindestens einen Objektes 112 die Überlagerungsaufnahmeinformationen 140 möglichst fehlerfrei mit den jeweiligen Livebildern 135 überlagert werden.Between the (white light) recording images 134 and the live images 135, as can be seen from 4 , a transformation rule is calculated in which the movement of the at least one object 112 within a detection range of the image capture device 104 is included. In this case, the recorded images 134 captured during the recording phase can be accelerated compared to the live phase, for example accelerated twice, and taken into account in the calculation of the transformation rule, so that, for example, only every second recorded image 134 is taken into account for calculating the transformation rule (indicated by t, t-2, t-4, where t-1 and t-3 were skipped due to the 2-fold acceleration). The calculation of the transformation rule is preferably repeated in predetermined time periods in order to track an object movement as continuously as possible. The calculated transformation rule makes it possible to overlay the overlay recording information 140 included in the recorded images 134, which was preferably extracted from them in isolated form or recorded separately, with the live images 135, as shown on the right-hand side in 4 is shown. Due to the transformation rule or due to the position and/or location change of the at least one object 112 that can be included thereby, the overlay recording information 140 can be overlaid with the respective live images 135 as error-free as possible.

Die Überlagerungsaufnahmeinformationen 140 können Fluoreszenzinformationen, wie bspw. ICG, PDD etc. umfassen. Denkbar sind auch Überlagerungsaufnahmeinformationen einer hyperspektralen oder multispektralen Bilderserie. Der erfindungsgemäß entscheidende Schritt ist die korrekte Berechnung der Transformationsvorschrift. Hierbei gibt es grundsätzlich mehrere Ansatzmöglichkeiten. Zum einen lässt sich mit Hilfe von Dense-Optical-Flow-Algorithmen aus zwei Weißlichtbildern (einem Aufnahmebild und einem Livebild) eine wahrscheinlichste Pixelverschiebung berechnen. Andererseits gibt es landmarkenbasierte Ansätze, durch die markante Punkte in dem Aufnahmebild und dem Livebild detektiert werden. Aus diesen markanten Punkten kann vorzugweise mindestens ein Punktepaar identifiziert werden, das als Ausgangspunkt für eine weitere Interpolation zur Berechnung der Transformationsvorschrift verwendet werden kann. Darüber hinaus können beispielsweise aus zwei 3D-Bildpaaren (jeweils bestehend aus je einem 3D-Aufnahmebild und je einem 3D-Livebild) jeweils eine 3D-Punktwolke berechnet werden (z. B. mit Stereorekonstruktionsalgorithmen, siehe z. B. H. Hirschmüller et al. 2005). Mittels Point-Cloud-Registration-Algorithmen kann eine Transformationsvorschrift berechnet werden, durch die beide 3D-Punktwolken möglichst exakt überlagert werden. Hierbei können z. B. auch Inertialsensordaten miteinbezogen werden. Hierdurch kann beispielsweise eine Information über einen Anstellwinkel der Vorrichtung 100 gegenüber dem mindestens einen Objekt 112 eine Anzahl an möglichen Bewegungsfreiheitsgraden bei einer Schätzung der Bewegung reduzieren.The overlay recording information 140 can include fluorescence information, such as ICG, PDD, etc. Overlay recording information from a hyperspectral or multispectral image series is also conceivable. The decisive step according to the invention is the correct calculation of the transformation rule. There are basically several possible approaches here. On the one hand, a most probable pixel shift can be calculated from two white light images (a recorded image and a live image) using dense optical flow algorithms. On the other hand, there are landmark-based approaches by which prominent points in the recorded image and the live image are detected. From these prominent points, at least one pair of points can preferably be identified, which can be used as a starting point for further interpolation to calculate the transformation rule. In addition, a 3D point cloud can be calculated from two 3D image pairs (each consisting of a 3D recorded image and a 3D live image) (e.g. with stereo reconstruction algorithms, see e.g. H. Hirschmüller et al. 2005). Using point cloud registration algorithms, a transformation rule can be calculated by which both 3D point clouds are superimposed as precisely as possible. Inertial sensor data can also be included here, for example. As a result, for example, information about an angle of attack of the device 100 with respect to the at least one object 112 can reduce a number of possible degrees of freedom of movement when estimating the movement.

Auch robotische Systeme können durch die Information zu der Position und/oder der Lage, beispielsweise einer Endoskopspitze, die Zahl an möglichen Freiheitsgraden reduzieren.Robotic systems can also reduce the number of possible degrees of freedom by using information about the position and/or orientation of, for example, an endoscope tip.

Aus einer Rückprojektion eines aktuellen Livebildes 135, das basierend auf der berechneten Transformationsvorschrift mit Überlagerungsaufnahmeinformationen 140 überlagert ist, kann vorzugsweise durch einen Vergleich zum vorherigen Bild eingeschätzt werden, ob die berechnete Transformationsvorschrift korrekt ist. Gegebenenfalls kann einem Anwender bei einer inkorrekt berechneten Transformationsvorschrift angezeigt werden, dass die Überlagerung nur unter Inkaufnahme eines großen Fehlers oder gar nicht möglich ist, da z. B. während der Aufnahmephase und/oder während der Livephase eine starke Gewebebewegung vorgelegen hatte.From a back projection of a current live image 135, which is superimposed with overlay recording information 140 based on the calculated transformation rule, it can preferably be estimated by a comparison with the previous image whether the calculated transformation rule is correct. Given If the transformation rule is incorrectly calculated, the user may be informed that the superimposition is only possible with the risk of a large error or not at all, because, for example, there was a strong tissue movement during the acquisition phase and/or during the live phase.

BezugszeichenlisteList of reference symbols

100100
Vorrichtungcontraption
102102
StereoendoskopStereoendoscope
103103
Endoskopendoscope
104104
BilderfassungsvorrichtungImage capture device
106106
BildsensorImage sensor
108108
erste Bilderfassungseinheitfirst image capture unit
109109
RecheneinrichtungComputing device
110110
zweite Bilderfassungseinheitsecond image acquisition unit
112112
Objektobject
114114
ObjektivbaugruppeLens assembly
116116
optische Einheitoptical unit
118118
optische Einheitoptical unit
120120
BeobachtungskanalObservation channel
122122
BeobachtungskanalObservation channel
124124
SignalwandlerSignal converter
126126
SignalwandlerSignal converter
128128
erster Ausgabekanalfirst output channel
130130
zweiter Ausgabekanalsecond output channel
132132
Benutzerausgabevorrichtung, AnzeigevorrichtungUser output device, display device
134134
Aufnahmebild, StereoaufnahmebildRecording image, stereo recording image
135135
Livebild, StereolivebildLive image, stereo live image
136136
BeobachtungsobjektObject of observation
138138
BeobachtungsfilterObservation filter
140140
ÜberlagerungsaufnahmeinformationenOverlay recording information
142142
GewebebereichTissue area
144144
AnregungslichtquelleExcitation light source
146146
LichtleiterLight guide

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 10849710 B2 [0012]US 10849710 B2 [0012]
  • EP 359048 A1 [0012]EP 359048 A1 [0012]
  • JP 2019098008 A [0012]JP 2019098008 A [0012]
  • JP 5160276 B2 [0012]JP 5160276 B2 [0012]
  • US 8767057 B2 [0012]US 8767057 B2 [0012]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Selka, F., Agnus, V., Nicolau, S., Bessaid, A., Soler, L., Marescaux, J., & Diana, M. (2014, July). Fluorescence-based enhanced reality for colorectal endoscopic surgery. In International Workshop on Biomedical Image Registration (pp. 114-123) [0012]Selka, F., Agnus, V., Nicolau, S., Bessaid, A., Soler, L., Marescaux, J., & Diana, M. (2014, July). Fluorescence-based enhanced reality for colorectal endoscopic surgery. In International Workshop on Biomedical Image Registration (pp. 114-123) [0012]

Claims (17)

Verfahren zum Überlagern von Überlagerungsaufnahmeinformationen (140) mit einem Livebild (135), insbesondere mit einem endoskopischen und/oder einem exoskopischen und/oder einem laryngoskopischen und/oder einem mikroskopischen Livebild (135), zumindest die folgenden Schritte umfassend: - Erfassen mindestens eines Aufnahmebildes (134) eines beweglichen Objektes (112) mittels einer beweglichen Bilderfassungsvorrichtung (104); - Ermitteln der Überlagerungsaufnahmeinformationen (140) in dem mindestens einen erfassten Aufnahmebild (134) zumindest bezüglich des Objektes (112); - Erfassen mindestens eines zeitlich auf das Aufnahmebild (134) folgenden Livebildes (135) des beweglichen Objektes (112) mittels der beweglichen Bilderfassungsvorrichtung (104); - Berechnen einer Transformationsvorschrift zumindest zwischen dem Aufnahmebild (134) und dem Livebild (135), um derart eine Positions- und/oder Lage- und/oder Tiefenänderung des beweglichen Objektes (112) zwischen dem Aufnahmebild (134) und dem Livebild (135) nachzuverfolgen; und - Überlagern der zuvor ermittelten Überlagerungsaufnahmeinformationen (140) mit dem Livebild (135) zumindest in Abhängigkeit von der berechneten Transformationsvorschrift.Method for superimposing superimposed recording information (140) with a live image (135), in particular with an endoscopic and/or an exoscopic and/or a laryngoscopic and/or a microscopic live image (135), comprising at least the following steps: - capturing at least one recorded image (134) of a moving object (112) by means of a moving image capture device (104); - determining the superimposed recording information (140) in the at least one captured recorded image (134) at least with respect to the object (112); - capturing at least one live image (135) of the moving object (112) following the recorded image (134) by means of the moving image capture device (104); - Calculating a transformation rule at least between the recorded image (134) and the live image (135) in order to track a change in position and/or location and/or depth of the moving object (112) between the recorded image (134) and the live image (135); and - Overlaying the previously determined overlay recording information (140) with the live image (135) at least as a function of the calculated transformation rule. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Aufnahmebild (134) Teil einer Sequenz von wenigstens zwei Aufnahmebildern ist, die mittels der beweglichen Bilderfassungsvorrichtung (104) erfasst wurden und dass das Livebild (135) Teil einer Sequenz von wenigstens zwei Livebildern des beweglichen Objektes (112) ist, die von der beweglichen Bilderfassungsvorrichtung (104) erfasst werden; weiterhin gekennzeichnet durch die Schritte - Ermitteln der Überlagerungsaufnahmeinformationen (140) in den Aufnahmebildern der Sequenz zumindest bezüglich des Objektes (112); - Fortlaufendes Berechnen einer bildweisen Transformationsvorschrift zwischen einzelnen Aufnahmebildern (134) der Sequenz von Aufnahmebildern und einzelnen Livebildern (135) der Sequenz von Livebildern, um derart eine Positions- und/oder Lage- und/oder Tiefenänderung des beweglichen Objektes (112) zwischen den Aufnahmebildern und den Livebildern nachzuverfolgen; - Fortlaufendes bildweises Überlagern der zuvor ermittelten Überlagerungsaufnahmeinformationen (140) mit der aktuellen Sequenz von Livebildern jeweils zumindest in Abhängigkeit der bildweise berechneten Transformationsvorschrift.Procedure according to Claim 1 , characterized in that the recorded image (134) is part of a sequence of at least two recorded images that were captured by means of the moving image capture device (104) and that the live image (135) is part of a sequence of at least two live images of the moving object (112) that are captured by the moving image capture device (104); further characterized by the steps - determining the overlay recording information (140) in the recorded images of the sequence at least with regard to the object (112); - continuously calculating an image-by-image transformation rule between individual recorded images (134) of the sequence of recorded images and individual live images (135) of the sequence of live images in order to track a change in position and/or orientation and/or depth of the moving object (112) between the recorded images and the live images; - Continuous image-by-image superimposition of the previously determined overlay recording information (140) with the current sequence of live images, each at least as a function of the transformation rule calculated image-by-image. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass nur die Überlagerungsaufnahmeinformationen (140) jedes n-ten Aufnahmebildes (134) der Sequenz von Aufnahmebildern mit den Livebildern (135) der aktuellen Sequenz von Livebildern überlagert werden, mit n > 1, wobei wenigstens die Überlagerungsinformationen (140) von zwei Aufnahmebildern überlagert werden, so dass die Überlagerungsaufnahmeinformation (140) im Zeitraffer den Livebildern überlagert werden.Procedure according to Claim 2 , characterized in that only the overlay recording information (140) of every n-th recorded image (134) of the sequence of recorded images is overlaid with the live images (135) of the current sequence of live images, with n > 1, wherein at least the overlay information (140) of two recorded images is overlaid so that the overlay recording information (140) is overlaid on the live images in time lapse. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Positions- und/oder Lage- und/oder Tiefenänderung des Objektes (112) zwischen dem mindestens einen Aufnahmebild (134) und dem mindestens einen Livebild (135) auf einer Bewegung des beweglichen Objektes (112) und/oder auf einer Bewegung der Bilderfassungsvorrichtung (104) basiert.Method according to one of the preceding claims, characterized in that the change in position and/or location and/or depth of the object (112) between the at least one recorded image (134) and the at least one live image (135) is based on a movement of the movable object (112) and/or on a movement of the image capture device (104). Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Berechnen der Transformationsvorschrift auf Basis eines Optical-Flow-Algorithmus und/oder eines elastischen Bildregistrierungsalgorithmus und/oder eines Punktwolkenregistrierungsalgorithmus und/oder eines landmarkenbasierten Trackings, vorzugsweise jeweils angewandt auf dem Objekt zugeordnete Bildpunkte des Aufnahmebildes und/oder des Livebildes, erfolgt.Method according to one of the preceding claims, characterized in that the calculation of the transformation rule is carried out on the basis of an optical flow algorithm and/or an elastic image registration algorithm and/or a point cloud registration algorithm and/or a landmark-based tracking, preferably in each case applied to image points of the recorded image and/or the live image assigned to the object. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Überlagerungsaufnahmeinformationen (140) Fluoreszenzinformationen, insbesondere Indocyaningrün-Fluoreszenzinformationen und/oder Fluorescein-Fluoreszenzinformationen, und/oder Intraoperativ-Hyperspektral-Aufnahmeinformationen und/oder Multispektral-Aufnahmeinformationen umfassen.Method according to one of the preceding claims, characterized in that the overlay recording information (140) comprises fluorescence information, in particular indocyanine green fluorescence information and/or fluorescein fluorescence information, and/or intraoperative hyperspectral recording information and/or multispectral recording information. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das mindestens eine erfasste Aufnahmebild (134) die Überlagerungsaufnahmeinformationen (140) und Weißlichtbildinformationen umfasst.Method according to one of the preceding claims, characterized in that the at least one captured image (134) comprises the overlay image information (140) and white light image information. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass der Schritt des Ermittelns der Überlagerungsaufnahmeinformationen (140) eine spektrale Trennung zwischen den Überlagerungsaufnahmeinformationen (140) und den Weißlichtbildinformationen umfasst.Procedure according to Claim 7 , characterized in that the step of determining the overlay image information (140) comprises a spectral separation between the overlay image information (140) and the white light image information. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das mindestens eine Aufnahmebild (134) und/oder das mindestens eine Livebild (135) jeweils ein Einzelbild einer Videosequenz aus einer Vielzahl von zeitlich aufeinanderfolgenden Aufnahmebildern und/oder Livebildern ist/sind.Method according to one of the preceding claims, characterized in that the at least one recorded image (134) and/or the at least one live image (135) is/are each an individual image of a video sequence from a plurality of temporally successive recorded images and/or live images. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass dem Schritt des Ermittelns der Überlagerungsaufnahmeinformationen (140) eine Belichtung des Objektes (112) mittels einer Lichtquelle und ein Erfassen eines belichteten Aufnahmebildes durch die Bilderfassungsvorrichtung (104) vorangestellt ist.Method according to one of the preceding claims, characterized in that the step of determining the overlay recording information (140) is preceded by an exposure of the object (112) by means of a light source and a capture of an exposed recording image by the image capture device (104). Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Aufnahmebild (134) ein Stereoaufnahmebild ist und/oder das Livebild (135) ein Stereolivebild ist, das/die durch Stereorekonstruktion eines jeweiligen Stereobildpaares auf Basis von optischen und/oder dimensionalen Parametern der Bilderfassungsvorrichtung (104) bearbeitetet wird/werden.Method according to one of the preceding claims, characterized in that the recorded image (134) is a stereo recorded image and/or the live image (135) is a stereo live image which is/are processed by stereo reconstruction of a respective stereo image pair on the basis of optical and/or dimensional parameters of the image capture device (104). Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass es ferner die folgenden Schritte umfasst: - Aufnehmen des Aufnahmebildes und der Überlagerungsaufnahmeinformationen (140) durch die Bilderfassungsvorrichtung (104); und - Speichern des Aufnahmebildes und der Überlagerungsaufnahmeinformationen (140).Method according to one of the preceding claims, characterized in that it further comprises the following steps: - capturing the captured image and the overlay capture information (140) by the image capture device (104); and - storing the captured image and the overlay capture information (140). Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass es ferner die folgenden Schritte umfasst: - Überprüfen der berechneten Transformationsvorschrift und/oder eines darauf basierend überlagerten Livebildes (135) hinsichtlich einer Überlagerbarkeit der Überlagerungsaufnahmeinformationen (140) mit dem Livebild (135); und vorzugsweise - Ausgeben einer Warnung, wenn eine Überlagerung der Überlagerungsaufnahmeinformationen (140) mit dem Livebild (135) nur bei Überschreitung einer zulässigen Fehlertoleranzgrenze möglich ist.Method according to one of the preceding claims, characterized in that it further comprises the following steps: - checking the calculated transformation rule and/or a live image (135) superimposed on the basis thereof with regard to the ability of the overlay recording information (140) to be superimposed on the live image (135); and preferably - issuing a warning if the overlay recording information (140) to be superimposed on the live image (135) is only possible if a permissible error tolerance limit is exceeded. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass es ferner die folgenden Schritte umfasst: - Darstellen des Livebildes (135) gemeinsam mit den überlagerten Überlagerungsaufnahmeinformationen (140); und - Hervorheben eines Bildbereiches in einer Erfassungsszene in dem Livebild (135), in dem die Überlagerungsaufnahmeinformationen (140) dargestellt sind.Method according to one of the preceding claims, characterized in that it further comprises the following steps: - displaying the live image (135) together with the superimposed overlay recording information (140); and - highlighting an image area in a capture scene in the live image (135) in which the overlay recording information (140) is displayed. Vorrichtung (100), die Folgendes aufweist: eine bewegliche Bilderfassungsvorrichtung (104) mit einem Bildsensor (106) und mindestens einer Bilderfassungseinheit (108, 110), die dazu eingerichtet ist, mindestens ein Aufnahmebild (134) eines beweglichen Objektes (112) zu erfassen und mindestens ein zeitlich auf das Aufnahmebild (134) folgendes Livebild (135) des beweglichen Objektes (112) zu erfassen; eine Recheneinrichtung (109), die dazu eingerichtet ist, Überlagerungsaufnahmeinformationen (140) in dem mindestens einen erfassten Aufnahmebild (134) bezüglich des Objektes (112) zu ermitteln, eine Transformationsvorschrift zumindest zwischen dem Aufnahmebild (134) und dem Livebild (135) zu berechnen, um derart eine Positions- und/oder Lage- und/oder Tiefenänderung des beweglichen Objektes (112) zwischen dem Aufnahmebild (134) und dem Livebild (135) nachzuverfolgen, und die zuvor ermittelten Überlagerungsaufnahmeinformationen (140) mit dem Livebild (135) zumindest in Abhängigkeit von der berechneten Transformationsvorschrift zu überlagern; und eine Anzeigevorrichtung (132), insbesondere ein Display, die dazu eingerichtet ist, zumindest das Livebild (135) gemeinsam mit den Überlagerungsaufnahmeinformationen (140) anzuzeigen.Device (100) comprising: a moving image capture device (104) with an image sensor (106) and at least one image capture unit (108, 110) which is configured to capture at least one recorded image (134) of a moving object (112) and to capture at least one live image (135) of the moving object (112) following the recorded image (134) in time; a computing device (109) which is set up to determine overlay recording information (140) in the at least one captured recording image (134) relating to the object (112), to calculate a transformation rule at least between the recording image (134) and the live image (135) in order to track a position and/or location and/or depth change of the moving object (112) between the recording image (134) and the live image (135), and to overlay the previously determined overlay recording information (140) with the live image (135) at least depending on the calculated transformation rule; and a display device (132), in particular a display, which is set up to display at least the live image (135) together with the overlay recording information (140). Vorrichtung nach Anspruch 15, dadurch gekennzeichnet, dass die Anzeigevorrichtung (132) dazu ausgebildet ist, Bereiche, in denen die Überlagerungsaufnahmeinformationen (140) mit dem Livebild (135) überlagert sind, hervorgehoben darzustellen.Device according to Claim 15 , characterized in that the display device (132) is designed to highlight areas in which the overlay recording information (140) is superimposed on the live image (135). Vorrichtung nach Anspruch 15 oder 16, dadurch gekennzeichnet, dass die Bilderfassungsvorrichtung (104) in einem Endoskop (103) und/oder einem Stereoendoskop (102) und/oder einem Exoskop und/oder einem Stereoexoskop und/oder einem Mikroskop und/oder einem Stereomikroskop und/oder einem Laryngoskop und/oder einem Stereolaryngoskop umfasst ist.Device according to Claim 15 or 16 , characterized in that the image capture device (104) is comprised in an endoscope (103) and/or a stereoendoscope (102) and/or an exoscope and/or a stereoexoscope and/or a microscope and/or a stereomicroscope and/or a laryngoscope and/or a stereolaryngoscope.
DE102022126824.1A 2022-10-13 2022-10-13 Method for superimposing overlay recording information with a live image and a corresponding device Pending DE102022126824A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022126824.1A DE102022126824A1 (en) 2022-10-13 2022-10-13 Method for superimposing overlay recording information with a live image and a corresponding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022126824.1A DE102022126824A1 (en) 2022-10-13 2022-10-13 Method for superimposing overlay recording information with a live image and a corresponding device

Publications (1)

Publication Number Publication Date
DE102022126824A1 true DE102022126824A1 (en) 2024-04-18

Family

ID=90469668

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022126824.1A Pending DE102022126824A1 (en) 2022-10-13 2022-10-13 Method for superimposing overlay recording information with a live image and a corresponding device

Country Status (1)

Country Link
DE (1) DE102022126824A1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0359048A2 (en) 1988-09-03 1990-03-21 Hoechst Aktiengesellschaft Amidoamine salts of alkenylsuccinic acid derivatives, method for their preparation and their use as corrosion inhibitors
JP5160276B2 (en) 2008-03-24 2013-03-13 富士フイルム株式会社 Image display method and apparatus
US8767057B2 (en) 2010-03-30 2014-07-01 Olympus Corporation Image processing device, image processing method, and program
JP2019098008A (en) 2017-12-06 2019-06-24 オリンパス株式会社 Endoscope system
EP3590438A1 (en) 2017-03-27 2020-01-08 Sony Olympus Medical Solutions Inc. Medical display-control device, medical observation device, display-control method, and medical observation system
WO2020144374A1 (en) 2019-01-11 2020-07-16 Pie Medical Imaging Bv Methods and systems for dynamic coronary roadmapping
US10849710B2 (en) 2014-02-21 2020-12-01 The University Of Akron Imaging and display system for guiding medical interventions
EP3804604A1 (en) 2018-05-31 2021-04-14 Panasonic i-PRO Sensing Solutions Co., Ltd. Camera apparatus, image processing method, and camera system
EP3878345A1 (en) 2019-12-10 2021-09-15 Covidien LP Lymphatic system tracking

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0359048A2 (en) 1988-09-03 1990-03-21 Hoechst Aktiengesellschaft Amidoamine salts of alkenylsuccinic acid derivatives, method for their preparation and their use as corrosion inhibitors
JP5160276B2 (en) 2008-03-24 2013-03-13 富士フイルム株式会社 Image display method and apparatus
US8767057B2 (en) 2010-03-30 2014-07-01 Olympus Corporation Image processing device, image processing method, and program
US10849710B2 (en) 2014-02-21 2020-12-01 The University Of Akron Imaging and display system for guiding medical interventions
EP3590438A1 (en) 2017-03-27 2020-01-08 Sony Olympus Medical Solutions Inc. Medical display-control device, medical observation device, display-control method, and medical observation system
JP2019098008A (en) 2017-12-06 2019-06-24 オリンパス株式会社 Endoscope system
EP3804604A1 (en) 2018-05-31 2021-04-14 Panasonic i-PRO Sensing Solutions Co., Ltd. Camera apparatus, image processing method, and camera system
WO2020144374A1 (en) 2019-01-11 2020-07-16 Pie Medical Imaging Bv Methods and systems for dynamic coronary roadmapping
EP3878345A1 (en) 2019-12-10 2021-09-15 Covidien LP Lymphatic system tracking

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
HIRSCHMÜLLER, Heiko; SCHOLTEN, Frank; HIRZINGER, Gerd: Stereo Vision Based Reconstruction of Huge Urban Areas from an Airborne Pushbroom Camera (HRSC). In: W. Kropatsch, R. Sablatnig, and A. Hanbury (Eds.): DAGM 2005, LNCS 3663, pp. 58 - 66. ISBN 978-3-540-28703-2. Berlin; Heidelberg: Springer-Verlag, 2005.
HUANG, Xiaoshui [u.a.]: A comprehensive survey on point cloud registration. 05-03-2021. arXiv:2103.02690. S. 1-17. DOI: 10.48550/arXiv.2103.02690. URL: https://arxiv.org/pdf/2103.02690v2 [abgerufen am 2022-12-15]
MAINTZ, J. B. Antoine; VIERGEVER, Max A.: An Overview of Medical Image Registration Methods. Symposium of the Belgian hospital physicists association (SBPH/BVZF), 1996. pp 1 - 22.
SELKA, F. [u.a.]: Fluorescence-based enhanced reality for colorectal endoscopic surgery. In: Biomedical Image Registration : 6th International Workshop, WBIR 2014, London, UK, July 7-8, 2014, Proceedings. Cham : Springer, 2014 (Lecture notes in computer science ; 8545). S. 114-123. - ISBN 978-3-319-08553-1. DOI: 10.1007/978-3-319-08554-8. URL: https://link.springer.com/content/pdf/10.1007/978-3-319-08554-8_12?pdf=chapter%20toc [abgerufen am 2022-12-15]
Selka, F., Agnus, V., Nicolau, S., Bessaid, A., Soler, L., Marescaux, J., & Diana, M. (2014, July). Fluorescence-based enhanced reality for colorectal endoscopic surgery. In International Workshop on Biomedical Image Registration (pp. 114-123)
SHAH, Syed Tafseer Haider ; XUEZHI, Xiang: Traditional and modern strategies for optical flow: an investigation. In: SN Applied Sciences, Vol. 3, 2021, No. 3, Artikelnummer: 289 (14 S.). - ISSN 2523-3963 (P); 2523-3971 (E). DOI: 10.1007/s42452-021-04227-x. URL: https://link.springer.com/content/pdf/10.1007/s42452-021-04227-x.pdf?pdf=button [abgerufen am 2022-12-15]
WEBSTER, Mark ; SHEETS, H. David: A practical introduction to landmark-based geometric morphometrics. In: Quantitative methods in paleobiology : [presented as a Paleontological Society short course at the Annual Meeting of the Geological Society of America, Denver, Colorado, October 30, 2010]. United States of America : Paleontological Society, 2010 (The Paleontological Society Papers ; 16). S. 163-188. DOI: 10.1017/S1089332600001868

Similar Documents

Publication Publication Date Title
EP2926733B1 (en) Triangulation-based depth and surface visualisation
DE102008040804B4 (en) Method, surgical microscope and analysis system for the quantitative representation of blood flow
DE102008040807B4 (en) Method of correcting blood flow image data, medical device and analysis system
DE102009040017A1 (en) System for detecting temperature of upper surface of body, comprises infrared camera system, by which temperature of certain area of upper surface is detected in form of heat image
DE102004061875A1 (en) Device for diagnostic support
DE112018003204T5 (en) Surgical imaging system and method
DE102017108371B4 (en) Medical optical display system and method for operating the same
EP3484338B1 (en) Endoscopic apparatus and method for endoscopic examination
DE102014210053A1 (en) Surgical microscope with data unit and method for overlaying images
DE102013206911A1 (en) Method and apparatus for the stereoscopic display of image data
DE112014003528T5 (en) Image processing apparatus and image processing method
DE102008040803A1 (en) Method for the quantitative representation of the blood flow
DE102014102425B4 (en) Microscope system and microscopy method using digital markers
DE102007050343A1 (en) Apparatus and method for calibrating an endoscope
EP3928680A1 (en) Endoscopic imaging method, endoscope imaging system, and software program product
DE102022126824A1 (en) Method for superimposing overlay recording information with a live image and a corresponding device
EP4187306A1 (en) Method for evaluating measurement data from a light field microscope, and apparatus for light field microscopy
DE102019208355A1 (en) Method and system for navigating a person to navigate a resected specimen, computer program and electronically readable data carrier
DE19800765A1 (en) Method of generating image representations of surface of inner wall of hollow bodies
DE102007029888A1 (en) Medical diagnostic imaging and apparatus operating according to this method
DE102008040802B4 (en) Method for the quantitative representation of blood flow as well as surgical microscope and analysis system
DE102009000376B4 (en) Method for the quantitative representation of the blood flow
DE102015112411A1 (en) System for the stereoscopic display of images of an endoscope
DE102022101524A1 (en) Method and measuring device for correcting a position of a measuring point
DE102021119481A1 (en) Measuring method and a measuring device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication