WO2017054818A1 - Endoskopisches bildverarbeitungssystem zur einfügung in eine datenleitung - Google Patents

Endoskopisches bildverarbeitungssystem zur einfügung in eine datenleitung Download PDF

Info

Publication number
WO2017054818A1
WO2017054818A1 PCT/DE2016/200451 DE2016200451W WO2017054818A1 WO 2017054818 A1 WO2017054818 A1 WO 2017054818A1 DE 2016200451 W DE2016200451 W DE 2016200451W WO 2017054818 A1 WO2017054818 A1 WO 2017054818A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
output
information
input
camera
Prior art date
Application number
PCT/DE2016/200451
Other languages
English (en)
French (fr)
Inventor
Olaf Christiansen
Original Assignee
Olaf Christiansen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olaf Christiansen filed Critical Olaf Christiansen
Priority to DE112016004501.8T priority Critical patent/DE112016004501A5/de
Publication of WO2017054818A1 publication Critical patent/WO2017054818A1/de

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope

Definitions

  • the invention relates to an image processing system specified in the preamble of claim 1 Art.
  • Such image processing systems are widely used today in minimally invasive surgery. Due to the short focal length of the cameras used, they have a relatively large depth of field, which is also necessary so that the operator has a good overview of the work area and the objects viewed do not get out of the focus area with each movement of the endoscope.
  • the corresponding cameras usually have a fixed distance setting that is adapted to the work area.
  • the depth of field may in known systems include, for example, a range of 1 mm to infinity. Since the objects of a work area to be considered can thus be located at different distances from the camera optics, the displayed variable on a reproduction monitor can not be used as a reference for other elements or implants to be introduced into the work area. The true size of objects and their distances between them can therefore only be estimated with great difficulty when viewed endoscopically.
  • the surgical measuring technique used in neurology is based on the use of additional imaging systems with different physical bases in order to record the image data recorded before the operation into the running image of the endoscope camera in order to provide an overview of the anatomical anatomy To preserve conditions for the surgeon.
  • the shape of at least a part of the auxiliary instrument in the optical imaging system is determined and from this a factor for the image scale is calculated with regard to a reference point which is preferably located at a point of the instrument and when touching touches an organ point first.
  • the invention has for its object to provide an image processing system of the type mentioned in which it is possible despite the provision of measures that make it possible to perform surveys in the current image and to display them, to maintain essential parts of the device.
  • the invention is based on the recognition that despite the provision of evaluation devices which take measurements in the current image and display them on the monitor, these calculations and processing in the image can be performed by a device which is inserted in the monitor line, if these calculations practically in real-time - that is, without significant time delay - be performed.
  • the input line has means for connecting to the video output of a system for processing and video signals recorded by an endoscope camera and intended for display on a monitor.
  • the device shown here is suitable for connection to any device having a monitor output to show recorded via an endoscope camera video images.
  • the output line has means for connection to a monitor which serves for image reproduction during a - especially medical - operation, so that the device can be inserted into a conventional device arrangement, if only the plug standards and the video format are adapted to each other.
  • the processing part provided between the input and output data lines has a data and video processor which adds image contents to the video input signal that have been generated by processing from the current video input signal.
  • a data and video processor which adds image contents to the video input signal that have been generated by processing from the current video input signal.
  • the representation of survey information in analog or digital representation which can be evaluated via their optical information as distance information and recorded in the detection range of the endoscope camera of the upstream system. These may be based on a scaling device, which are visible in the image. Both the imaging properties of the endoscope camera and those of the scaling device must be known.
  • At least one graphic element is then generated via the data and video processor, which is superimposed on the input signal directly and in real time via summing means so that it is visible in the video signal that arrives at the output data line and thus at the monitor from the output of the summation circuit.
  • a bridging circuit is provided for the connection between the input and output data lines. which is designed as a sleep switch and in the currentless case, the input and output data line galvanically bridged.
  • the processing unit itself is simultaneously galvanically isolated with the galvanic bridging of the input and output data lines, so that the galvanic coupling of fault currents into the external video reproduction line is prevented for any type of electrical malfunction.
  • a detection circuit for various malfunctions such as a fault in the power supply, the response of an over-temperature detector, etc. is provided, which activates the bypass circuit in response to an error signal.
  • the error bridging is ensured in any case, because the relays in question rest in their rest position the video line galvanic and otherwise separate from the processing unit.
  • the processing unit is activated if no criterion is met, which concerns a temporary impairment of the data evaluation, such as a distortion of the image information by a camera movement, an overexposure or color falsification.
  • the processing unit is an integral part of the monitor, so that results in a particularly small design and some assemblies that would otherwise have been performed separately omitted.
  • the processing unit is provided as a self-contained device with its own power supply, there is the advantage that increased reliability and a largely universal adaptability to a variety of industrially available endoscope systems is given.
  • a detection circuit is provided by means of which the processing unit is capable of recognizing the connected video camera based on its specific data such as line number, frame rate or pixel error in order to activate a stored camera-specific equalization.
  • the stenciled area in the image of the input video information is excluded from the overlay so as not to overlay system displays of the main system.
  • FIG. 1 shows the principle of an image processing unit to the embodiment of the inventive endoscope system shown in FIG. 4, FIG.
  • FIG. 2 shows a surgical instrument for use with the image processing unit according to FIG. 1, FIG.
  • FIG. 3 shows a graphic construct as a graphical simplification of the instrument according to FIG. 2 for evaluation with the image processing unit according to FIG. 1, FIG.
  • FIG. 4 shows an exemplary embodiment of the system according to the invention for interacting with the image processing unit according to FIG. 1 and an instrument according to FIGS. 2 and 3.
  • an endoscope camera 1 is provided with an optical system 2 with a polarization filter 2 a whose output video signal passes through a motion discriminator 3 and an adder circuit 4 to be described in greater detail below.
  • the function of the polarization filter 2a is shown in more detail below.
  • the output of the addition circuit 4 is connected to a monitor 5, which is set up for the reproduction of the image taken by the endoscope camera 1. This monitor 5 is used by the treating surgeon to monitor the operating area in minimally invasive technique.
  • the output signal of the endoscope camera 1 reaches a frame memory 6, which is designed to hold the respective current image from the video stream of the output signal of the endoscope camera 1.
  • the endoscope camera transmits with the video stream an identification signal contained therein, which contains characteristic values of the optics 2 and of the image converter chip contained in the camera 1 or a coding characterizing this.
  • This identification signal is evaluated in a camera recognition unit 7, which activates a geometry equalization circuit 8, which in turn determines the correction values for the individual image portions, which indicate the amount by which they are to be shifted in order to produce a geometrically "pure" image which is free from influences caused by individual errors or distortions of the camera optics.
  • the correction level for the imaging geometry 9 thus generates an image which represents the objects to be reproduced in the image plane, such as the geometric image transformation should take place through the lens according to the lens equation.
  • the initial evaluation is usually done at low resolution and large image window, while after finding an edge (as described below, the resolution is increased to increase the measurement accuracy and the image area is reduced to the region of interest (ROI).
  • Downstream of the image field and quality selection stage 10 is a circuit for improving the image representation 11 in the sense of improving the possibility of evaluation by the subsequent stages.
  • This improvement consists in that those portions of the picture content which contribute to the contour recognition to be described below are amplified as far as possible in their amplitude or their effect, while those portions of the picture which do not contribute thereto are as far as possible reduced in their effect.
  • the geometrically and contentwise improved image information in terms of its quality of reproduction reaches an image analysis unit 13 which contains the steps which are provided for actually finding the information of interest and for evaluating the same.
  • the first stage of the image analysis unit 13 forms an edge detection unit 14. This involves the detection of the straight-line edge contours of the cylindrical area of the surgical instrument which are rectilinear in the planar representation.
  • an algorithm for the detection of straights in the image after differentiation finds an algorithm according to Hough (the so-called Hough Transformation), which finds collinear points in the image.
  • Hough the so-called Hough Transformation
  • an image window (image segment) is thus selected for further processing, which comprises the region of the straight line.
  • image segment image segment
  • the image field selected to find the straight line does not cover the entire image, but only the edge area, since the instruments used during the operation always protrude from the outside into the image when they are displayed, so that they are reliably detected in this way can.
  • this image part is in high resolution after raising the image quality of the edge detection stage 14 and a subsequent stage to the end region detection 15 (FIG. again), processing now being of high quality.
  • the edge detection is performed again with high precision (at high resolution) and, to facilitate the geometric processing, the central axis of the two obtained straight lines is calculated and added.
  • an edge is determined transversely to the previously recognized lateral boundaries of the shaft part of the surgical instrument, namely at the end remote from the edge of the image.
  • Another criterion used is the fact that the straight line must run perpendicular to the two lateral boundary lines of the representation. This limitation is clearly emphasized on the shaft part (see also FIG. 1b and the associated description) and is also determined after differentiation with the Hough transformation.
  • steps 14 and 15 are combined in the form of a contour in the form of a contour and form in the summary a "U" (see Fig. 3) or its axis of symmetry as the central axis of the cylinder and that located on the axis distal end of the shaft area characteristic point. (Both constructs are equivalent to one another and can be used according to circumstances.)
  • This planar contour representation is transferred to a corresponding contour memory 16, together with an indication of the approximate position in the image. Due to the perspective image of the shaft, the lateral boundary lines do not run parallel. The deviation from the parallelism characterizes the inclination of the shaft about an axis directed perpendicular to the viewing direction of the endoscope optic axis.
  • the U-shaped contour or its axis of symmetry and the point marking the distal end of the shaft with their characteristic data in pixel or vector representation reach the input of an optical computer 17, which practically forms an optical lens simulator, and executes the lens equation as a transformation.
  • he does not calculate the mapping to a given object for a given optics, but calculates the position and orientation in space for an object of known contour - here the distal shaft end of a surgical instrument - a forceps - whose imaging contour is known.
  • This is particularly easy, because the lens equation allows plane objects to be transferred directly into the image plane. Since the image structure found is plane, it is possible to directly define a corresponding contour for the real object, which is essentially cylindrical and thus clearly defined.
  • both the edge detection unit 14 and the end detection unit 15 each determine a spatial reference value, which is composed of the direction of the central axis the cylindrical shaft and the direction of the edge connecting the end points of the contour of the cylindrical shell of the shaft, so that the resulting intersection in the middle of the crossbar of the U is a reference for the corresponding transformation to find the position and orientation of the real instrument due to the knowledge forms the contour of a part of his picture.
  • the optics calculator 17 is supplied with characteristic data of the optics - essentially the focal length - and the dimensions of the real instrument from corresponding memories 18 and 19 for the calculation to be carried out.
  • the optics computer 17 can also be designed as an addressable look-up memory, as described with reference to Fig. 2. This allows lengthy calculation times to be shortened, which is very advantageous in terms of real-time representation. )
  • the orientation of the auxiliary tool is not important per se, but the position of a protruding reference point for the measurement at the distal end of the auxiliary tool, which first comes into contact with the tissue during an operation and therefore serves as a pointing instrument.
  • the coordinates of this reference point are given by extending the central axis of the cylindrical shaft over the position of the point of intersection with the transverse bar of the U-shaped contour (corresponding to the point defining the end of the shaft on the central axis of the cylinder) towards the distal end of the Instrument is defined by a distance value that can be taken from the dimensional data of the instrument, although its possible eccentricity must be taken into account.
  • this eccentricity requires knowledge of the orientation of the instrument with respect to rotation about its central axis.
  • a number of markings are mounted, which are optically readable in the manner of digital codes and have a digitally coded information on the type of QR codes. (This will be explained in more detail with reference to Fig. 2.) It is important that the coding ensures that coding is performed such that the coded information differs when viewed from different directions, so that from each viewing direction the radial orientation of the instrument is unambiguous is removable. If, as here, a viewing direction is specified, the orientation of the instrument can therefore be unambiguously assigned from this viewing direction.
  • the identification of the optically readable data takes place in OCR module 20 within the image analysis unit 13.
  • the camera facing data of the corresponding ring area are transmitted to the optical computer 17, which also performs the data analysis and comparison with a corresponding existing in the instrument data memory 19 record an angle value is output together with a fixed value for the amount of eccentricity, which is likewise stored in the instrument data memory 19 specifically for the relevant instrument.
  • a reference point located eccentric to the central axis its position on the illustrated optical detection steps for the surgical instrument is clearly defined, although only a portion of this instrument could be used for evaluation by optical observation.
  • the spatial position of a correspondingly selected reference data system is stored in the position memory together with the scale factor for the imaging at this point - relative to a plane perpendicular to the camera viewing direction.
  • the reference point at the extremity is available as a pointer with a starting point for the measurement within the surgical field (Situs). By calculating in real time, this reference point can be chosen freely and form the basis for the features shown below.
  • These graphic auxiliary representations which will also be described below for facilitating the measurement, are contained in a memory for graphics 22 to be displayed virtually in the image and can optionally be activated via a selection circuit 23. These include, for example, a marking of the reference point or a virtual dipstick, which can be connected to the reference point of the instrument and moved with it in the image.
  • Superposition level 4 displays the virtual graphic guided with the instrument in the current camera image for display on the monitor.
  • the motion detection stage 3 which monitors the optical flow in the image.
  • the function is similar to that of an optical computer mouse, whose processor responds to the camera image as a whole and emits a signal when the movement speed exceeds a predetermined threshold.
  • the output signal of the motion detection stage 3 blocks the output of the position data memory 21, so that no survey information appears.
  • the activation of the surveying function requires a resting state of camera and tool, which is also a prerequisite for the reading of measured values. With normal activity in the situs, as it accompanies the execution of operative manipulations, the survey information is switched off and therefore does not appear disturbing.
  • An improvement in the accuracy of the measurement of the position of the auxiliary tool can be achieved by the fact that on the shaft of the auxiliary tool preferably at the end region circumferential rings are generated, as they can be detected according to the circumferential end edge of the shaft portion. At least two parallel ring parts or one in addition to the annular edge at the end of the cylindrical shaft portion, which are in the field of view of the camera, then form in their orientation one or more rungs within the "U" or on the central axis and by their distance a measure of Inclination of a shaft in addition to deviation of vertical lines of "U" from parallelism.
  • delayed signal cancellation circuit 25 which receives a logical input signal from the moving image recognition circuit 3 when substantial image parts are in motion, as a result of the evaluation of the optical flow as differentiation of parts of the image content
  • a signal indicating this state appears at the output of stage 3, which prevents the output of the current position of the instrument and of the associated scale value for its reference point via the reset input of position data circuit 21.
  • the cancellation of the reset signal is delayed by the delay circuit 25, which leaves even after calming the image, the reset signal for a period of about up to one second, so that a signal evaluation and display of surveying data takes place only when the camera and the instrument is decidedly kept quiet.
  • FIG. 1 shows the image processing in the form of modules for clarity in the form of blocks, which is oriented in its description rather to a hardware solution.
  • the practical implementation nowadays is performed using processors, here a combination of CPU and GPU in cooperation or corresponding task sharing, whereby the functions described in connection with the individual blocks are executed in real time by the combination of processors with the corresponding software.
  • FIG. 2 shows a side view of a surgical instrument 100 according to the invention in the form of a forceps. It has a cylindrical shaft portion 101 which has a dull dark surface provided with a nano-coating which prevents adhesion of liquids or small particles. The distal end of the shaft region is marked by a contrasting ring 102 followed by a coding region 103 which has digital or analog markings which are optically detectable and differ depending on the viewing direction from which the shaft is viewed.
  • a reference point 106 is located at the end of the instrument which, when used as a pointing instrument, first comes into contact with the body tissue in the situs region. It is the reference point for surveying or for surveying instruments or data displayed on the screen.
  • the shaft of the instrument extends from the edge region 107 of the image into the image part in which a position evaluation of the instrument 100 is to take place.
  • the exact positioning of the respective local imaging scale can be calculated by the plane U-shaped construct shown in FIG. 3 which consists of the constructive end point of the shaft as a reference point 117 and the parallel lines delimiting the contour, which run at a distance of the shaft diameter , so that the local magnification results from the respective distance in the image.
  • the construct according to FIG. 3 is defined by only three points, namely the reference point for the shank end 117 and two points of one of the straight lines 108 or 109, which in fact run symmetrically to the central axis 110 of the shank.
  • a (supplementary) system unit 403 which requires the camera to operate and process the video data on a monitor 404 Components has. This includes the power supply, a lighting unit and the controls, which are still necessary for the operation of the conventional system.
  • a processing system 406 Powered into the monitor line is a processing system 406 via interfaces 407 and 408 which are electrically separable.
  • this is the socket of the conventional system for a monitor 404, for which the system unit 403 has a standard plug, which together form the interface 406.
  • the interface 407 is constructed in reverse.
  • the system unit 403 has at the output a socket into which the plug of the monitor is inserted.
  • the supplementary system unit 403 can be easily inserted into an existing conventional system when the reproduction formats are uniform.
  • the components of the system unit 403 are outlined by a dashed line.
  • the input signal from the interface 405 is branched and arrives at a galvanic off switch 409 whose number of poles is adapted to the number of poles of the video line to be switched and which is turned on in the idle state to the interface 404 at the output.
  • This can be bridged in case of malfunction or power failure, so that the security for uninterrupted operation of the external conventional system is ensured.
  • the system unit simply turns off and the conventional system continues to operate, but without the additional functions of the system unit.
  • the circuit breaker 409 is controlled via a logic unit 410, which implements an AND function with an inverting input.
  • the non-inverting input is driven by a signal indicative of the presence of the supply voltage while the second input is driven via the inverter input, so long as a self-test unit in the processor unit 411 does not indicate a logic signal indicating an error via a corresponding line 412 outputs.
  • a galvanic first on-switch 413 and a galvanic second on-switch 414 are driven via the output signal of the logic unit 410, so that the system unit 405 is inserted into the line between the conventional system 403 and the monitor 404.
  • the processor unit 411 is preceded by a so-called frame grabber 415, which decomposes the video signal intended for the monitor output into its individual image components and thus processes them for further processing.
  • the output signal of the processor unit 411 is superimposed in an addition circuit 416 to the input signal from the output of the first switch 413, wherein the signal to be superimposed, the survey data to be displayed covers the original signal.
  • a memory circuit is still provided, which makes it possible to record the complete during the operation on the monitor 404 signal to be reproduced, for which purpose preferably a USB stick is used, which is easy to handle for the task.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

Endoskopisches Bildverarbeitungssystem enthaltend eine Eingangs- und eine Ausgangsdatenleitung für Videosignale mit Mitteln, welche eine im Erfassungsbereich einer Endoskop-Kamera aufgenommene geometrische Distanzinformation in Form einer optischen Information verarbeiten, die zusammen mit mindestens einem Bild (oder Teilbild) in der von einer Kamera aufgenommenen laufenden Bildinformation enthalten ist, detektieren, von der Bildinformation separieren und weiter aufbereiten, um eine Vermessungsinformation aus dem durch die Digitalkamera gewonnenen Bildinhalt zu erhalten, wobei dass die Eingangsleitung Mittel zum Anschließen an den Videoausgang eines Systems zur Verarbeitung und von Videosignalen aufweist, die von einer Endoskop-Kamera aufgenommen und zur Wiedergabe auf einem Monitor bestimmt sind und dass die Ausgangsleitung Mittel zum Anschluss an einen Monitor aufweist, der zur Bildwiedergabe während einer medizinischen Operation dient, wobei zwischen der Eingangs- und der Ausgangsdatenleitung eine Verarbeitungseinheit vorgesehen ist, die Verarbeitungseinheit einen Daten- und Videoprozessor aufweist, welcher dem Videoeingangssignal Bildinhalte zufügen, die durch Verarbeitung aus dem aktuellen Videoeingangssignal entstanden sind, wobei es sich dabei um die Darstellung von Vermessungsinformationen in analoger oder digitaler Darstellung handelt, die auf der im Erfassungsbereich der Endoskop-Kamera des vorgeschalteten Systems aufgenommene geometrische Distanzinformation in Form einer optischen Information durch Abbildung einer maßstabgebenden Vorrichtung beruhen sowie die Abbildungseigenschaften der Endoskop-Kamera charakterisierenden Daten und die der maßstabgebenden Vorrichtung und Summierungsmittel, welche das Ausgangsignal der Datenverarbeitungsteil deren Eingangssignal unmittelbar überlagert und dass der Ausgang der Summierungsschaltung mit der Ausgangsdatenleitung verbunden ist.

Description

ENDOSKOPISCHES BILDVERARBEITUNGSSYSTEM ZUR EINFÜGUNG IN EINE DATENLEITUNG
Die Erfindung betrifft ein Bildverarbeitungssystem der im Oberbegriff des Anspruchs 1 angegebenen Art.
Derartige Bildverarbeitungssysteme werden heute vielfach in der minimalinvasiven Chirurgie eingesetzt. Durch die kurze Brennweite der verwendeten Kameras weisen diese eine relativ große Schärfentiefe auf, welche auch notwendig ist, damit die Bedienungsperson einen guten Überblick über den Arbeitsbereich hat und die betrachteten Objekte nicht bei jeder Bewegung des Endoskops aus dem Schärfenbereich heraus gelangen. Die entsprechenden Kameras haben dabei meist eine feste Entfernungseinstellung, die dem Arbeitsbereich angepasst ist. Die Schärfentiefe kann bei bekannten Systemen beispielsweise einen Bereich von 1 mm bis unendlich umfassen. Da sich die zu betrachtenden Objekte eines Arbeitsbereichs damit – trotz scharfer Darstellung - in unterschiedlicher Entfernung von der Kameraoptik befinden können, kann die dargestellte Größe auf einem Wiedergabe-Monitor nicht als Bezugsgröße für andere in den Arbeitsbereich einzubringende Elemente bzw. Implantate benutzt werden. Die wahre Größe von Objekten und deren Abstände untereinander lassen sich also bei endoskopischer Betrachtung nur sehr schwer abschätzen.
Bei der endoskopischen Untersuchung besteht daher das Bedürfnis, nähere geometrische Informationen über das Objekt zu erhalten – also einzelne Teile des Objekts zu vermessen um Implantate anzupassen oder malignes Gewebe zu quantifizieren.
Die chirurgische Messtechnik, die beispielsweise in der Neurologie angewendet wird, beruht darauf, dass zusätzliche bildgebende Verfahren mit unterschiedlicher physikalischer Basis eingesetzt werden, um die vor der Operation aufgenommenen Bilddaten in das laufende Bild der Endoskopkamera einzuspielen, um auf diese Weise den Überblick betreffend die anatomischen Verhältnisse für den Chirurgen zu wahren.
Bei anderen Anwendungen bei denen Organe betroffen sind, die auch während der Operation leicht verschieblich sind, wie beispielwese auf dem Gebiet der Laparoskopie, ist die Überlagerung eines vorher aufgenommenen Standbildes dagegen nicht hilfreich. Um trotzdem eine Anwendung während der Operation mit unmittelbarer Auswertungen zu ermöglichen, müssen die zusätzlichen geometrischen Daten direkt gewonnen und möglichst in Echtzeit verarbeitet und direkt überlagert werden.
Aus der DE102009038021 des Anmelders ist es bekannt, mittels einer in das Operationsfeld eingeblendeten Lasermarkierung, die von einem in vorgegebener Raumrichtung abgegebenen Laserstrahlung herrührt, über den Abstand der Lasermarkierung von der optischen Achse des Endoskop-Objektivs den örtlichen Abbildungsmaßstab in der betreffenden Ebene zu ermitteln, so dass dort entsprechende Vermessungen vorgenommen und in eine so erzeugte Abbildung im realen Maßstab auch eine Anpassung eines Implantates an die örtlichen geometrischen Verhältnisse im Operationsgebiet vorgenommen werden kann.
Hierbei besteht jedoch die Schwierigkeit, dass mit dem Endoskop eine Laserquelle verbunden werden muss. Da die Endoskope aber im Laufe ihrer Weiterentwicklung einer ständigen Verkleinerung unterworfen sind, bestehen bei der Unterbringung einer zusätzlichen Laserquelle in manchen Fällen räumliche Probleme.
Um die größenmäßigen Abschätzungen im OP-Gebiet vornehmen zu können, behilft sich der Chirurg gewöhnlich damit, dass er den Abstand der aufgespreizten Backen eines Hilfsinstruments, beispielsweise einer Fasszange, in schrittweiser Addition zur Längenmessung heranzieht. Dieses Verfahren ist jedoch recht ungenau.
Auch in der allgemeinen Technik hat man Messobjekte bekannter Dimensionen oder solche mit Maßstabsmarkierungen in den Arbeitsraum eingebracht und damit versucht, die Abmessungen eines zu vermessenden Objekts über die Abbildungsgeometrie der verwendeten Optik zu erschließen, wie es in der US 6459481B1 detailliert dargestellt ist. Hier muss für die Vermessung jeweils ein zusätzliches Zielobjekt als geometrische Referenz in den Arbeitsraum eingebracht werden, was jedoch recht umständlich ist.
Aus der WO2010/061293 A2 ist es bekannt, Skalierungselemente unmittelbar auf dem Zangenbacken einer Fasszange im Sichtfeld der Endoskopkamera anzubringen um aus dem Durchmesser der Skalierungselemente oder deren Abstand auf die Größe eines benachbarten Objekts zu schließen. Dabei bleibt es unberücksichtigt, dass sich die Durchmesser und der Abstand der Skalierungselemente in Abhängigkeit von der Blickrichtung der Kamera verändern, so dass sie kein verlässliches Maß für eine Skalierung bilden. Außerdem bleibt es unerfindlich, wie es per Computer möglich sein soll, durch eine zeitabhängige Beobachtung der Skalierungselemente, auf die Größe eines Objekts in der Szene zu schließen, wie es in Absatz 0015 der genannten Schrift beschrieben ist. Es bleibt auch unberücksichtigt, dass sich der Abbildungsmaßstab bei endoskopischer Betrachtung stark mit dem Abstand des Objekts vom Objektiv verändert, so dass eine präzise Relation von Messobjekt und Skalierungsmitteln nicht möglich ist.
Aus der WO2012/107041A1 des Anmelders ist es bekannt, eine maßstäbliche Vermessung eines Objekts oder einen virtuellen Maßstab mittels eines Bezugspunktes an einem chirurgischen Instrument festzulegen, der in der Vermessungsebene senkrecht zur optischen Achse gelegen ist, in der die Vermessung oder Bemaßung eines Objekts durchgeführt werden soll. Dazu wird eine Anzahl von gespeicherten Abbildungen des Instruments aus verschiedenen Blickrichtungen mit dem aktuellen Bild verglichen und über einen Größenabgleich eine räumlich korrekte Skalierungsinformation gewonnen, die unter Berücksichtigung der Abbildungsgeometrie des Objektivs eine Aussage über den Maßstabsverhältnisse im Bezugspunkt und damit eine Vermessung eines in der Messebene gelegenen Objekts ermöglicht.
Erstmalig wird hier nicht eine konkret im Bild erkennbare geometrische Distanz, sondern die Form von mindestens einem Teil des Hilfsinstruments im optischen Abbildungssystem ermittelt und daraus ein Faktor für den Abbildungsmaßstab errechnet, im Hinblick auf einen Bezugspunkt, der bevorzugt an einem Punkt des Instruments gelegen ist und beim Tasten einen Organpunkt zuerst berührt.
Nachteilig ist dabei, dass hierzu jeweils ein komplettes Gerät neu aufgebaut bzw. angeschafft werden muss, was mit erheblichen Kosten verbunden ist und auch ökologisch von Nachteil ist, da dabei vielfach noch brauchbare und im Übrigen auch sehr leistungsfähige Geräte vorzeitig außer Dienst gestellt und entsorgt werden müssen.
Der Erfindung liegt die Aufgabe zugrunde, ein Bildverarbeitungssystem der eingangs genannten Art zu schaffen bei dem es möglich ist trotz des Vorsehens von Maßnahmen, die es ermöglichen im laufenden Bild Vermessungen durchzuführen und diese auch anzuzeigen, wesentliche Geräteteile beizubehalten.
Diese Aufgabe wird mit den im kennzeichnenden Teil des Anspruchs 1 angegebenen Maßnahmen gelöst.
Die Erfindung beruht auf der Erkenntnis, dass trotz des Vorsehens von Auswertungsvorrichtungen, welche im laufenden Bild Messungen vornehmen und diese auf dem Monitor anzeigen, diese Berechnungen und Verarbeitungen im Bild durch ein Gerät durchgeführt werden können, das in der Monitorleitung eingefügt ist, wenn diese Berechnungen praktisch in Echtzeit – also ohne wesentliche Zeitverzögerung – durchgeführt werden.
Die Eingangsleitung weist Mittel zum Anschließen an den Videoausgang eines Systems zur Verarbeitung und von Videosignalen auf, die von einer Endoskop-Kamera aufgenommen und zur Wiedergabe auf einem Monitor bestimmt sind. Damit ist das hier dargestellte Gerät zum Anschluss an beliebige Geräte geeignet, die einen Monitorausgang haben, um über eine Endoskopkamera aufgenommene Videobilder zu zeigen.
Die Ausgangsleitung weist Mittel zum Anschluss an einen Monitor aufweist, der zur Bildwiedergabe während einer – insbesondere medizinischen - Operation dient, so dass das Gerät in eine herkömmliche Geräteanordnung eingefügt werden kann, wenn nur die Steckernormen und die Videoformat einander angepasst sind.
Das zwischen der Eingangs- und der Ausgangsdatenleitung vorgesehene Verarbeitungsteil weist dabei einen Daten- und Videoprozessor auf, welcher dem Videoeingangssignal Bildinhalte zufügt, die durch Verarbeitung aus dem aktuellen Videoeingangssignal entstanden sind. Dabei eingeschlossen ist die Darstellung von Vermessungsinformationen in analoger oder digitaler Darstellung, die sich über ihre optische Information als Distanzinformationen auswerten lassen und im Erfassungsbereich der Endoskop-Kamera des vorgeschalteten Systems aufgenommen sind. Diese können auf einer maßstabgebenden Vorrichtung beruhen, die im Bild sichtbar sind. Dabei müssen sowohl die Abbildungseigenschaften der Endoskop-Kamera bekannt sein als auch diejenigen der maßstabgebenden Vorrichtung. Über den Daten- und Videoprozessor werden dann mindestens ein grafisches Element erzeugt, das über Summierungsmittel dem Eingangssignal unmittelbar und in Echtzeit überlagert wird, so dass es im Videosignal sichtbar ist, dass vom Ausgang der Summierungsschaltung zur Ausgangsdatenleitung und damit zum Monitor gelangt.
Um bei einem Ausfall oder einer fehlerhaften Wiedergabe des hier dargestellten Systems keine Unterbrechung der Bildwiedergabe zu erleiden ist eine Überbrückungsschaltung zur Verbindung zwischen der Eingangs- und der Ausgangsdatenleitung vorgesehen. welche als Ruheschalter ausgestaltet ist und im stromlosen Fall die Eingangs- und Ausgangsdatenleitung galvanisch überbrückt.
Um auch medizinische oder sonstige hohe Anforderungen an die Gerätesicherheit einzuhalten wird mit der galvanischen Überbrückung der Eingangs- und der Ausgangsdatenleitung die Verarbeitungseinheit selbst gleichzeitig galvanisch getrennt, so dass bei jeder Art von elektrischer Fehlfunktion die galvanische Einkopplung von Fehlerströmen in die äußere Videowiedergabeleitung verhindert ist.
Um die Fehlerüberbrückungsschaltung zu aktivieren ist eine Detektionsschaltung für verschiedene Fehlfunktionen wie einen Fehler in der Stromversorgung, das Ansprechen eines Detektors für Übertemperatur etc. vorgesehen, welche auf ein Fehlersignal hin die Überbrückungsschaltung aktiviert.
Bei Ausfall der Stromversorgung der zusätzlichen Verarbeitungseinheit ist die Fehlerüberbrückung in jedem Fall sichergestellt, weil die betreffenden Relais in ihrer Ruhestellung die Videoleitung galvanisch überbrücken und im Übrigen von der Verarbeitungseinheit abtrennen.
Die Verarbeitungseinheit wird aktiviert, wenn kein Kriterium erfüllt ist, welches eine temporäre Beeinträchtigung der Datenauswertung betrifft, wie eine Verfälschung der Bildinformation durch eine Kamerabewegung, eine Überstrahlung oder Farbverfälschung.
Bei einer bevorzugten Weiterbildung des endoskopischen Bildverarbeitungssystems ist die Verarbeitungseinheit integrierender Bestandteil des Monitors, so dass sich eine besonders kleine Bauform ergibt und einige Baugruppen, die sonst separat hätten ausgeführt sein müssen, entfallen.
Wenn die Verarbeitungseinheit als selbstständiges Gerät mit eigener Stromversorgung vorgesehen ist, ergibt sich der Vorteil, dass eine erhöhte Betriebssicherheit und eine weitgehend universelle Anpassbarkeit an eine Vielzahl industriell verfügbarer Endoskopsysteme gegeben ist.
Bei einer bevorzugten Ausführung ist eine Erkennungsschaltung vorgesehen, mittels der die Verarbeitungseinheit in Lage ist, die angeschlossene Videokamera an Hand ihrer spezifischen Daten wie Zeilenzahl, Bildwiederholungsrate oder Pixelfehler erkennt, um eine gespeicherte kameraspezifische Entzerrung zu aktivieren.
Bei einer anderen vorteilhaften Ausführungsform ist schablonisierter Bereich im der Bild der Eingangs Videoinformation von der Überlagerung ausgenommen, um dort nicht Systemanzeigen des Hauptsystems zu überlagern.
Weiterhin vorteilhaft ist es, wenn Mittel vorgesehen sind, welche den Anschluss eines Aufzeichnungsgerätes unabhängig von dem äußeren Gerät ermöglichen, um auch die eingeblendeten Grafikelemente, die von der Verarbeitungseinheit generiert wurden in einer Dokumentation festhalten zu können. Günstig ist dabei insbesondere ein USB-Anschluss oder eine Steckvorrichtung für SD-Karten und ähnliche Festkörperspeicher.
Derartige vorteilhafte Ausführungsbeispiele der Erfindung werden an Hand der Zeichnung näher dargestellt und nachfolgend näher beschrieben. (Bezüglich weiterer Einzelheiten zur Erkennung und Auswertung der Kontur und diesbezüglichen Strukturen wird auf die gleichzeitig eingereichte Patentanmeldung desselben Anmelders verwiesen.)
Es zeigen:
Fig. 1 das Prinzip einer Bildverarbeitungseinheit zu dem in Fig. 4 dargestellten Ausführungsbeispiel des erfindungsgemäßen Endoskop-Systems,
Fig. 2 ein chirurgisches Instrument zur Benutzung mit der Bildverarbeitungseinheit gemäß Fig. 1,
Fig. 3 ein grafisches Konstrukt als grafische Vereinfachung des Instruments gemäß Fig. 2 zur Auswertung mit der Bildverarbeitungseinheit gemäß Fig. 1,
Fig. 4 ein Ausführungsbeispiel des erfindungsgemäßen Systems zum Zusammenwirken mit der Bildverarbeitungseinheit gemäß Fig.1 und einem Instrument gemäß Fign. 2 und 3.
Bei der in Fig. 1 dargestellten endoskopischen Bildverarbeitungseinheit ist eine Endoskopkamera 1 mit einer Optik 2 mit einem Polarisationsfilter 2a vorgesehen, deren Ausgangs-Videosignal über in ihrer Funktion weiter unten näher zu beschreibenden Bewegungsdiskriminator 3 und eine Additionsschaltung 4 gelangt. Auch die Funktion des Polarisationsfilters 2a ist weiter unten näher dargestellt. Der Ausgang der Additionsschaltung 4 ist mit einem Monitor 5 verbunden, der für die Wiedergabe des von der Endoskopkamera 1 aufgenommen Bildes eingerichtet ist. Dieser Monitor 5 dient dem behandelnden Chirurgen zur Überwachung des Operationsgebiets in minimalinvasiver Technik.
Das Ausgangssignal der Endoskopkamera 1 gelangt zu einem Einzelbildspeicher 6, der zum Festhalten des jeweils aktuellen Bildes aus Videostream des Ausgangssignals der Endoskopkamera 1 ausgebildet ist. Die Endoskopkamera sendet mit dem Videostream ein darin enthaltenes Kennungssignal aus, welches sie Kennwerte der Optik 2 und die des in der Kamera 1 enthaltenen Bildwandler-Chips enthält bzw. eine diese kennzeichnende Codierung. Dieses Kennungssignal wird in einer Einheit zur Kameraerkennung 7 ausgewertet, welche eine Schaltung zur Geometrieentzerrung 8 ansteuert, die wiederum die die Korrekturwerte für die einzelnen Bildteile ermittelt, welche angeben, um welchen Betrag diese zu verschieben sind, um ein geometrisch „reines“ Bild zu erzeugen, das frei von Einflüssen ist, die durch individuelle Fehler oder Verzeichnungen der Kameraoptik hervorgerufen werden. Die Korrekturstufe für die Abbildungsgeometrie 9 erzeugt damit ein Bild, welches die wiederzugebenden Objekte in der Bildebene so darstellt, wie die geometrische Bildtransformation durch das Objektiv entsprechend der Linsengleichung erfolgen sollte.
Das Ausgangssignal der Korrekturstufe 9 gelangt zu einer Bildfeld- und Qualitätsauswahlstufe 10. Darin enthalten ist eine Umschalteinrichtung zur Auswertung in einer höheren Auflösung und zur Reduzierung auf ein ausgewähltes Bildfenster, so dass die Auswertung beschleunigt werden kann, wenn die Auflösung zur Auswertung zunächst (bei vergrößertem Bildfenster) zunächst reduziert und das ausgewählte Bildfenster dann bei aufgefundenem Auswertungsobjekt bei dann heraufgesetzter Auswertungsqualität verkleinert wird. Die anfängliche Auswertung erfolgt gewöhnlich bei geringer Auflösung und großem Bildfenster, während nach dem Auffinden einer Kante (wie nachfolgend beschrieben die Auflösung zur Erhöhung der Messgenauigkeit vergrößert und der Bildausschnitt auf den interessierenden Bereich (ROI) verkleinert wird.
Der Bildfeld- und Qualitätsauswahlstufe 10 nachgeschaltet ist eine Schaltung zur Verbesserung der Bilddarstellung 11 im Sinne einer Verbesserung der Auswertungsmöglichkeit durch die nachfolgenden Stufen. Diese Verbesserung besteht darin, dass diejenigen Anteile, des Bildinhalts, welche zur nachfolgend zu beschreibenden Konturerkennung beitragen, möglichst in ihrer Amplitude bzw. ihrer Auswirkung verstärkt werden, während diejenigen Bildanteile, die dazu nicht beitragen, in ihrer Auswirkung möglichst vermindert werden.
Diese Maßnahmen bestehen in einer Vergrößerung der Bildschärfe und/oder einer Kontrastvergrößerung. Diese werden entsprechend den üblichen Techniken der Bildverarbeitung ausgeführt. Eine bedeutsame Maßnahme ist eine Heraufsetzung der Rotanteile und eine Herabsetzung der Grünanteile bei einem schwarzen Schaft des Hilfswerkzeugs, während bei einem hellen Schaft die umgekehrten Maßnahmen günstig sind. Vorteilhaft ist ferner eine Schaftgestaltung bei der sich in Längsrichtung schwarze und helle umlaufende Streifen abwechseln, so dass durch Umschaltung zwischen den Maßnahmen in aufeinanderfolgenden Bildern oder Halbbildern eine Auswahl hinsichtlich der Qualität der weiter unten beschriebenen Kantenerkennung getroffen werden kann. Dies erfolgt durch eine Rückkopplungsleitung 12 wie sie ebenfalls weiter unten näher beschrieben ist.
Die in ihrer Wiedergabequalität geometrisch und inhaltlich verbesserte Bildinformation gelangt in eine Bildanalyseeinheit 13, welche die Stufen enthält, die zum eigentlichen Auffinden der interessierenden Information und zur Auswertung derselben vorgesehen sind. Die erste Stufe der Bildanalyseeinheit 13 bildet eine Einheit zur Kantenerkennung 14. Hierbei geht es um die Erkennung der in der ebenen Darstellung geradlinig begrenzten Randkonturen des zylindrischen Bereichs des chirurgischen Instruments. Dabei findet ein Algorithmus zur Geradenerkennung im Bild nach einer Differentiation ein Algorithmus nach Hough (die sogenannte Hough Transformation) Anwendung, welcher kollineare Punkte im Bild auffindet. Beim Auffinden von zwei derartigen Geraden in näherungsweiser paralleler Ausrichtung gibt die Stufe 14 ein Signal an die Bildauswahlstufe 10 zurück, welches auch den Bildbereich angibt, in dem die betreffenden Geraden aufgefunden wurden. Mittels der Bildauswahlstufe 10 wird damit ein Bildfenster (Bildsegment) zur weiteren Verarbeitung ausgewählt, das den Bereich der Geraden umfasst. Gleichzeitig wird hierfür auf eine höhere Bildauflösung umgeschaltet, so dass die weitere Verarbeitung mit größerer Genauigkeit erfolgen kann. Dabei muss hinzugefügt werden, dass das zur Auffindung der Geraden ausgewählte Bildfeld nicht das gesamte Bild umfasst, sondern ausschließlich den Randbereich, da die während der Operation benutzten Instrumente bei Bilddarstellung stets von außen in das Bild hineinragen, so dass sie auf diese Weise sicher erkannt werden können.
Nach dem Umschalten auf den kleineren Bildausschnitt, der mindestens die gesamten Geraden und einen noch weiter in deren Fortsetzung zur Bildmitte hin gelegenen Teil umfasst, wird dieser Bildteil in hoher Auflösung nach Heraufsetzung der Bildqualität der Stufe zur Kantenerkennung 14 und einer nachfolgenden Stufe zur Endbereichserkennung 15 (erneut) zugeführt, wobei die Verarbeitung jetzt mit hoher Qualität erfolgt. Von der Stufe 14 wird die Kantenerkennung erneut mit hoher Präzision (bei hoher Auflösung) durchgeführt und zur Erleichterung der geometrischen Verarbeitung die die Mittelachse der beiden erhaltenen Geraden errechnet und hinzugefügt. Mittels der Stufe 15 wird eine Kante in Querrichtung zu den bisher erkannten seitlichen Begrenzungen des Schaftteils des chirurgischen Instruments ermittelt und zwar an dem vom Bildrand entfernten Ende. Dabei dient als weiteres Kriterium der Umstand, dass die Gerade senkrecht zu den beiden seitlichen Begrenzungsgeraden der Darstellung verlaufen muss. Diese Begrenzung ist am Schaftteil deutlich hervorgehoben (siehe auch Figur 1b und die zugehörige Beschreibung.) und wird ebenfalls nach Differentiation mit der Hough-Transformation ermittelt.
Die in den Stufen 14 und 15 erfassten Strukturen werden als grafische Darstellung nach Art einer Kontur zusammengefügt und bilden in der Zusammenfassung ein „U“ (vgl. Fig. 3) bzw. deren Symmetrieachse als Mittelachse des Zylinders und den auf der Achse befindlichen, das distale Ende des Schaftbereichs kennzeichnenden Punkt. (Beide Konstrukte sind einander gleichwertig und können entsprechend den Gegebenheiten verwendet werden.) Diese ebene Konturdarstellung wird in einen entsprechenden Konturspeicher 16 übertragen – zusammen mit einer Angabe über die ungefähre Position im Bild. Auf Grund der perspektivischen Abbildung des Schafts verlaufen die seitlichen Begrenzungsgeraden nicht parallel. Die Abweichung von der Parallelität kennzeichnet dabei die Neigung des Schafts um eine senkrecht zur Blickrichtung der Endoskop Optik gerichtete Achse.
Die die U-förmige Kontur bzw. deren Symmetrieachse und dem das distale Ende des Schafts bezeichnenden Punkt mit deren kennzeichnenden Daten in Pixel oder Vektordarstellung gelangen zum Eingang eines Optik-Rechners 17, der praktisch einen optischen Linsensimulator bildet, und die Linsengleichung als Transformation ausführt. Er errechnet jedoch nicht die Abbildung zu einem gegebenen Objekt für eine vorgegebene Optik, sondern errechnet für ein Objekt bekannter Kontur – hier das distale Schaftende eines chirurgischen Instruments – einer Fasszange – , dessen Abbildungskontur bekannt ist, die Position und Ausrichtung im Raum. Das ist deswegen besonders einfach, weil sich durch die Linsengleichung ebene Objekte unmittelbar in die Bildebene übertragen lassen. Da die gefundene Abbildungsstruktur eben ist, lässt sich unmittelbar eine entsprechende Kontur für das reale Objekt festlegen, welches ja im Wesentlichen zylindrisch und damit eindeutig definiert ist.
Da für die Ermittlung der räumlichen Position des realen Objektes die Position im Bild bekannt sein muss, wird sowohl von der Einheit für die Kantenerkennung 14 als auch derjenigen für Ende-Erkennung 15 jeweils ein räumlicher Bezugswert ermittelt, wobei sich dieser zusammensetzt aus der Richtung der Mittelachse des zylindrischen Schafts und der Richtung der Kante als Verbindung der Endpunkte der Kontur des zylindrischen Mantels des Schafts, so dass der resultierende Schnittpunkt in der Mitte des Querbalkens des U eine Referenz für die entsprechende Transformation zum Auffinden der Position und Ausrichtung der realen Instruments aufgrund der Kenntnis der Kontur eines Teils seiner Abbildung bildet.
Dem Optik-Rechner 17 werden für die vorzunehmende Berechnung noch Kenndaten der Optik – im Wesentlichen die Brennweite – und die Abmessungen des realen Instruments aus entsprechenden Speichern 18 und 19 zugeführt.
(Es soll hier bereits darauf verwiesen werden, dass der Optik-Rechner 17 auch als adressierbarer Nachschlagespeicher ausgeführt sein kann, wie es an Hand von Fig. 2 beschrieben ist. Damit lassen sich langwierige Berechnungszeiten verkürzen, was sehr vorteilhaft im Sinne der Echtzeitdarstellung ist.)
Als für die weitere Verarbeitung bedeutende Größe ist an sich nicht die Ausrichtung des Hilfswerkzeugs von Bedeutung, sondern die Position eines hervorstehenden Bezugspunkts für die Vermessung am distalen Ende des Hilfswerkzeugs, der bei einer Operation mit dem Gewebe zuerst in Berührung kommt und daher als Zeigeinstrument dient. Ausgegeben werden die Koordinaten dieses Referenzpunktes, der durch Verlängerung der Mittelachse des zylindrischen Schafts über die Position des Schnittpunkts mit dem Querbalken der U-Förmigen Kontur (entsprechend dem das Ende des Schaftes auf der Mittelachse des Zylinders definierender Punkt) in Richtung auf das distale Ende des Instruments um einen aus den Abmessungsdaten des Instruments entnehmbaren Distanzwert definiert ist, wobei allerdings noch dessen mögliche Exzentrizität zu berücksichtigen ist.
Der Wert dieser Exzentrizität als radialer Versatz erfordert die Kenntnis der Ausrichtung des Instruments in Bezug auf eine Rotation um seine Mittelachse. Im Bereich des Schaft-Endes ist eine Anzahl von Markierungen angebracht, welche nach Art von Digitalcodes optisch lesbar sind und eine digital codierte Information nach Art von QR-Codes aufweisen. (Dies wird näher an Hand von Fig. 2 erläutert werden.) Wichtig ist, dass die Codierung sicherstellt, dass Codierung derart erfolgt, dass die codierten Informationen bei Betrachtung aus unterschiedlichen Richtungen verschieden sind, so dass aus jeder Betrachtungsrichtung die radiale Ausrichtung des Instruments eindeutig entnehmbar ist. Ist – wie hier – eine Betrachtungsrichtung vorgegeben, so kann also aus dieser Betrachtungsrichtung die Ausrichtung des Instruments eindeutig zugeordnet werden.
Die Identifikation der optisch lesbaren Daten erfolgt in OCR-Baugruppe 20 innerhalb der Bildanalyseeinheit 13. Die der Kamera zugewandten Daten des entsprechenden Ringbereichs werden dem Optik-Rechner 17 übermittelt, der auch die Datenauswertung vornimmt und durch Vergleich mit einem entsprechenden in dem Instrumentendatenspeicher 19 vorhandenen Datensatz eine Winkelwert ausgibt zusammen mit einem festen Wert für den Betrag der Exzentrizität, der ebenfalls – spezifisch für das betreffende Instrument im Instrumentendatenspeicher 19 abgelegt ist. Damit ist auch bei einem exzentrisch zur Mittelachse gelegenen Referenzpunkt dessen Position über die dargestellten optischen Erkennungsschritte für das chirurgische Instrument eindeutig definiert, obgleich nur ein Teilbereich dieses Instruments zur Auswertung durch optische Beobachtung nutzbar war. Die räumliche Position ein einem entsprechend gewählten Bezugsdatensystem wird im Positionsspeicher abgelegt zusammen mit dem Maßstabsfaktor für die Abbildung in diesem Punkt – bezogen auf eine Ebene senkrecht zur Kamerablickrichtung.
Damit steht der Bezugspunkt an der Extremität als Zeiger mit einem Ausgangpunkt für die Vermessung innerhalb des Operationsfeldes (Situs) zur Verfügung. Durch die Berechnung in Echtzeit, kann dieser Bezugspunkt frei gewählt werden und bilden die Basis für die weiter unten dargestellten Features. Diese ebenfalls weiter unten noch zu beschreibenden grafischen Hilfsdarstellungen zum Erleichtern der Vermessung sind in einem Speicher für virtuell in das Bild einzublendende Grafiken 22 enthalten und können über eine Auswahlschaltung 23 wahlweise aktiviert werden. Dazu gehören beispielsweise eine Markierung des Bezugspunktes oder ein virtueller Messstab, der mit dem Bezugspunkt des Instruments verbunden und mit diesem im Bild bewegt werden kann. Über die Superpositionsstufe 4 erfolgt die Einblendung der mit dem Instrument geführten virtuellen Grafik ins laufende Kamerabild zur Darstellung auf dem Monitor.
Diese Darstellung ist davon abhängig, dass das wiedergegebene Bild in Ruhe ist und auch die Instrumente relativ ruhig gehalten werden, da sonst störende Bewegungsartefakte auftreten. Deswegen ist die Stufe zur Bewegungserkennung 3 vorgesehen, welche den optischen Fluss im Bild überwacht. Die Funktion entspricht etwa der einer optischen Computermaus, deren Prozessor auf das Kamerabild insgesamt anspricht und ein Signal abgibt, wenn die Bewegungsgeschwindigkeit einen vorgegebenen Schwellwert überschreitet. Das Ausgangssignal der Stufe zur Bewegungserkennung 3 sperrt den Ausgang des Positionsdatenspeichers 21, so dass keine Vermessungsinformation erscheint. Damit setzt die Aktivierung der Vermessungsfunktion einen Ruhezustand von Kamera und Werkzeug voraus, was ja auch eine Voraussetzung für das Ablesen von Messwerten ist. Bei normaler Aktivität im Situs, wie er mit der Ausführung von operativen Handhabungen einhergeht, ist die Vermessungsinformation ausgeschaltet und tritt daher auch nicht störend in Erscheinung.
Eine Verbesserung hinsichtlich der Genauigkeit der Einmessung der Position des Hilfswerkzeugs kann noch dadurch erreicht werden, dass auf dem Schaft des Hilfswerkzeugs vorzugsweise an dessen Endbereich umlaufende Ringe erzeugt werden, wie sie entsprechend der umlaufenden Endkante des Schaftbereichs detektiert werden können. Mindestens zwei parallele Ringteile oder einer zusätzlich zur ringförmigen Kante am Ende des zylindrischen Schaftbereichs, die sich im Sichtbereich der Kamera befinden, bilden dann in ihrer Ausrichtung eine oder mehrere Sprossen innerhalb des „U“ oder auf der Mittelachse bilden und durch ihren Abstand ein Maß für die Neigung des Schafts in Ergänzung zur Abweichung der senkrechten Striche des „U“ von der Parallelität.
Dies trägt zur Erhöhung der Genauigkeit bei, da die Abstandsänderung der Ringteile in Richtung der Schaftachse bei Änderungen der Ausrichtung des Endoskops um eine Achse quer zur Blickrichtung der Kamera wesentlich größer ist als die Änderung des Schaftdurchmessers aufgrund der örtlichen Maßstabsänderung der Bildwiedergabe entlang dem Schaft.
Zu erwähnen ist noch eine Schaltung zur Qualitätsoptimierung 24 bei der zyklisch verschiedene Werte, welche die Erkennbarkeit des Schafts des Instrumentes charakterisieren ausgewählt, getestet und dann festgehalten werden. Ausgewählt werden dann solche Parameter für die Bilddarstellung zur nachfolgenden aktuellen Analyse für die Positionsbestimmung des Instruments, welche in einem vorangegangenen Zeitraum statistisch die besten Ergebnisse gebracht haben.
Des Weiteren von Bedeutung für die Signalerkennung ist eine Schaltung zur verzögerten Signalaufhebung 25, die von der Schaltung zur Bewegtbilderkennung 3 ein logisches Eingangssignal erhält, wenn wesentliche Bildteile in Bewegung sind, was über die Auswertung des optischen Flusses als Differentiation von Teilen des Bildinhaltes in Bezug auf Folgebilder erkannt wird. Wird beispielsweise die Kamera bewegt, so erscheint am Ausgang der Stufe 3 ein diesen Zustand anzeigendes Signal, was die Ausgabe der aktuellen Position des Instruments und des zugehörigen Maßstabswertes für dessen Bezugspunkt über den Reset-Eingang der Positionsdatenschaltung 21 verhindert. Die Aufhebung des Reset-Signals erfolgt verzögert durch die Verzögerungsschaltung 25, welche auch nach Beruhigung des Bildes das Reset Signal noch für eine Zeitdauer von etwa bis zu einer Sekunde andauern lässt, so dass eine Signalauswertung und Anzeige von Vermessungsdaten erst erfolgt, wenn die Kamera und das Instrument dezidiert ruhig gehalten werden. Damit ist einerseits verhindert, dass während aktiver Tätigkeit im Verlauf der Operation störende Informations-Überlagerungen auf dem Bildschirm erscheinen. Andererseits ist auch dafür gesorgt, dass in dieser Ruhephase die Verarbeitung ohne Bewegungsartefakte erfolgen und die erforderlichen Berechnungen mit hoher Präzision ausgeführt werden können. Der Übergang in die Ruhephase ist auch für die Schaltung für die Verbesserung der Erkennbarkeit des Instruments 11 von Bedeutung, denn durch das an diese Schaltung gelangende Ausgangssignal wird bewirkt, dass die Bildverarbeitung hinsichtlich ihrer Parameter auf jene Werte gesetzt wird, die sich im vorangehenden Zeitraum als besonders günstig für die Erkennbarkeit des Instruments erwiesen haben.
Nimmt man zu dem U (bzw. zur Mittelachse des Schaftes) zusätzlich Leitersprossen und zwar von den Querstreifen die mittleren Zonen - diese liegen zwar außerhalb der Mittelebene des Schafts - aber über die bekommt man die Neigung mit einem geringen Fehler, den man aber iterativ korrigieren kann, weil man ja die Neigung (und mit dem Durchmesser des Schafts) den Fehler kennt und so korrigieren kann, so dass die "Leiterbalken" in der Ebene des U liegen und dann hat man alle zur Ermittlung der Raumrichtung notwendigen Daten in einer ebenen Grafik aus der man über die Linsengleichung entsprechenden Objektgrößen und damit die räumliche Ausrichtung leicht errechnen kann.
Es soll darauf hingewiesen werden, dass das Blockschaltbild gemäß Figur 1 die Bildverarbeitung in Form von Baugruppen zur besseren Übersichtlichkeit in Form von Blöcken zeigt, die in ihrer Beschreibung eher an einer Hardware-Lösung orientiert ist. Die praktische Ausführung erfolgt heutzutage unter Benutzung von Prozessoren, hier einer Kombination von CPU und GPU im Zusammenwirken bzw. entsprechender Aufgabenteilung, wobei die im Zusammenhang mit den einzelnen Blöcken beschriebenen Funktionen durch dies Kombination von Prozessoren mit der entsprechenden Software in Echtzeit ausgeführt werden.
In Fig. 2 ist ein chirurgisches Instrument 100 gemäß der Erfindung in Form einer Fasszange in Seitenansicht dargestellt. Es weist einen zylindrischen Schaftbereich 101 auf, der eine matte dunkle Oberfläche aufweist, die mit einer Nanobeschichtung versehen ist, die Anhaftungen von Flüssigkeiten oder kleinen Partikeln verhindert. Das distale Ende des Schaftbereichs wird durch einen kontrastierenden Ring 102 markiert, an den ein Kodierungsbereich 103 anschließt, der digitale oder analoge Markierungen aufweist, die optisch detektierbar sind und sich je nach Blickrichtung, aus der man den Schaft betrachtet, unterscheiden.
Am distalen Ende des Instruments befinden sich die Zangenbacken 104 und 105, von denen der Backen 104 feststehend ist. Ein Bezugspunkt 106 befindet sich an dem Ende des Instruments, das bei der Benutzung als Zeigeinstrument mit dem Körpergewebe im Situs-Bereich zuerst in Kontakt kommt. Es ist der Bezugspunkt für Vermessungen oder für in den Bildschirm eingeblendete Vermessungsinstrumente oder –daten.
Der Schaft des Instruments erstreckt sich vom Randbereich 107 des Bildes her in den Bildteil, in dem eine Positionsauswertung des Instruments 100 erfolgen soll.
Damit lässt sich die genaue Positionierung des und der jeweilige örtliche Abbildungsmaßstab errechnen durch das in Fig. 3 abgebildete ebene U-förmige Konstrukt das besteht aus dem konstruktiven Endpunkt des Schafts als Bezugspunkt 117 und den parallelen die Kontur begrenzenden Geraden, welche im Abstand des Schaftdurchmessers verlaufen, so dass sich der örtliche Abbildungsmaßstab aus dem betreffenden Abstand im Bild ergibt. Das Konstrukt gemäß Figur 3 ist dabei durch nur drei Punkte definiert, nämlich den Bezugspunkt für das Schaftende 117 und zwei Punkte einer der Geraden 108 oder 109, die ja zur Mittelachse 110 des Schafts symmetrisch verlaufen. Eine entsprechende grafische Definition bildet auch das aus der Mittelachse 110 des Zylinders (= Symmetrieachse des „U“) und dem distalen Ende des Zylinders auf der Mittelachse definierten Punkt 117.)
Um den Abbildungsmaßstab im Referenzpunkt 106 ermitteln zu können, muss, wenn dieser – wie anzunehmen – exzentrisch zur Mittelachse 110 des Schafts liegt, noch dessen Abstand vom Bezugspunkt 106 auf der Mitteachse110 und die Richtung und der Betrag der Exzentrizität bekannt sein, welche aus den Konstruktionsdaten des Instruments entnehmbar sind. Um diese Größen jedoch bei der geometrischen Auswertung einsetzen zu können, muss die Ausrichtung des Schafts 100 des Instruments im Bild bekannt sein. Da jedoch von einer zylindrischen – oder einer an die Zylinderform angenäherten – Schaftform ausgegangen werden muss, wird hier von einer weiteren optischen Kennzeichnung Gebrauch gemacht, die im Sichtbereich der Kamera angebracht und geeignet ist, fehlende Informationen über die räumliche Ausrichtung des Schaftes zu liefern.
Bei dem in Fig. 4 dargestellten ersten Ausführungsbeispiel ist bei einem herkömmlichen System zur Verarbeitung der von einer Endoskopkamera 401 mit einer Optik 402 eine (Ergänzungs-)Systemeinheit 403 vorgesehen, welche die zum Betrieb der Kamera und zur Verarbeitung der Videodaten auf einem Monitor 404 notwendigen Komponenten aufweist. Dazu gehört auch die Stromversorgung, eine Beleuchtungseinheit und die Bedienungselemente, welche weiterhin zum Betrieb des herkömmlichen Systems notwendig sind.
In die Monitorleitung eingeschaltet ist ein Verarbeitungssystem 406 über Schnittstellen 407 und 408, welche elektrisch trennbar sind. Üblicherweise handelt sich um die Anschlussbuchse des herkömmlichen Systems für einen Monitor 404, für die die Systemeinheit 403 einen normgerechten Stecker aufweist, welche zusammen die Schnittstelle 406 bilden. Die Schnittstelle 407 ist umgekehrt aufgebaut. Hier weist die Systemeinheit 403 am Ausgang eine Buchse auf, in die der Stecker des Monitors eingesetzt wird. Damit lässt sich die Ergänzungs-Systemeinheit 403 ohne weiteres in ein vorhandenes herkömmliches System einfügen, wenn die Wiedergabeformate einheitlich bzw. aneinander angepasst sind.
Die Bauteile der Systemeinheit 403 sind von einer gestrichelten Linie umrissen. Das Eingangssignal von der Schnittstelle 405 wird verzweigt und gelangt zu einem galvanischen Ausschalter 409 dessen Polanzahl der Anzahl der Pole der zu schaltenden Videoleitung angepasst ist und der im Ruhezustand zur Schnittstelle 404 am Ausgang durchgeschaltet ist. Damit kann diese im Falle einer Fehlfunktion oder bei Stromausfall überbrückt werden, so dass die Sicherheit für einen unterbrechungsfreien Betrieb des externen herkömmlichen Systems sichergestellt ist. Auf diese Weise sind die Bedingungen auch für medizinische Systeme eingehalten, die fordern, dass die Sicherheit des Patienten auch bei einer Fehlfunktion nicht beeinträchtigt ist. In diesem Fall schaltet sich die Systemeinheit einfach aus und das herkömmliche System arbeitet weiter, wobei allerdings auf die zusätzlichen Funktionen der Systemeinheit verzichtet werden muss. Da hiermit jedoch nur Messfunktionen einer „verbesserten Wirklichkeit“ angeboten werden, sind die Grundfunktionen des herkömmlichen Systems ausreichend, das ja als solches zugelassen ist. Auf einen zusätzlichen Messkomfort kann zeitweise verzichtet werden, wobei ein Ersatzgerät allerdings jederzeit kurzfristig durch die entsprechenden Steckverbindungen eingefügt werden kann.
Der Ausschalter 409 wird angesteuert über eine Logikeinheit 410, die eine UND-Funktion mit einem invertierenden Eingang realisiert. Im Falle des Betriebs der Systemeinheit 405 wird der nicht invertierende Eingang von einem Signal angesteuert, das das Vorhandensein der Versorgungsspannung anzeigt, während der zweite Eingang über den Inverter Eingang angesteuert wird, so lange eine Selbsttesteinheit in der Prozessoreinheit 411 kein einen Fehler anzeigendes Logik-Signal über eine entsprechende Leitung 412 ausgibt. Gleichzeitig werden einen galvanischen ersten Einschalter 413 und einen galvanischen zweiten Einschalter 414 über das Ausgangssignal der Logikeinheit 410 angesteuert, so dass die Systemeinheit 405 in die Leitung zwischen herkömmlichem System 403 und dem Monitor 404 eingefügt wird. Des Weiteren ist der Prozessoreinheit 411 ein sogenannter Frame-Grabber 415 vorgeschaltet, der das für den Monitor-Ausgang bestimmte Videosignal wieder in seine einzelnen Bildanteile zerlegt und damit für die Weiterverarbeitung aufbereitet.
Des Weiteren wird das Ausgangsignal der Prozessoreinheit 411 in einer Additionsschaltung 416 dem Eingangssignal vom Ausgang des ersten Einschalters 413 überlagert, wobei das zu überlagernde Signal, das einzublendende Vermessungsdaten zeigt, das ursprüngliche Signal überdeckt. Am Ausgang der der Additionsschaltung 416 ist weiterhin noch eine Speicherschaltung vorgesehen, welche es ermöglicht, das vollständige während der Operation auf dem Monitor 404 wiederzugebende Signal aufzuzeichnen, wozu vorzugsweise ein USB-Stick verwendet wird, der für die entsprechende Aufgabe leicht zu handhaben ist.

Claims (12)

  1. Endoskopisches Bildverarbeitungssystem enthaltend eine Eingangs- und eine Ausgangsdatenleitung für Videosignale mit Mitteln, welche eine im Erfassungsbereich einer Endoskop-Kamera aufgenommene geometrische Distanzinformation in Form einer optischen Information verarbeiten, die zusammen mit mindestens einem Bild (oder Teilbild) in der von einer Kamera aufgenommenen laufenden Bildinformation enthalten ist, detektieren, von der Bildinformation separieren und weiter aufbereiten, um eine Vermessungsinformation aus dem durch die Digitalkamera gewonnenen Bildinhalt zu erhalten,
    dadurch gekennzeichnet,
    dass die Eingangsleitung Mittel zum Anschließen an den Videoausgang eines Systems zur Verarbeitung und von Videosignalen aufweist, die von einer Endoskop-Kamera aufgenommen und zur Wiedergabe auf einem Monitor bestimmt sind und dass die Ausgangsleitung Mittel zum Anschluss an einen Monitor aufweist, der zur Bildwiedergabe während einer Operation dient,
    dass zwischen der Eingangs- und der Ausgangsdatenleitung eine Verarbeitungseinheit vorgesehen ist,
    die Verarbeitungseinheit einen Daten- und Videoprozessor aufweist, welcher dem Videoeingangssignal Bildinhalte zufügen, die durch Verarbeitung aus dem aktuellen Videoeingangssignal entstanden sind, wobei es sich dabei um die Darstellung von Vermessungsinformationen in analoger oder digitaler Darstellung handelt, die auf der im Erfassungsbereich der Endoskop-Kamera des vorgeschalteten Systems aufgenommene geometrische Distanzinformation in Form einer optischen Information durch Abbildung einer maßstabgebenden Vorrichtung beruhen sowie
    dass den die Abbildungseigenschaften der Endoskop-Kamera charakterisierenden Daten und die der maßstabgebenden Vorrichtung und Summierungsmittel, welche das Ausgangsignal der Datenverarbeitungsteil deren Eingangssignal unmittelbar überlagert und dass der Ausgang der Summierungsschaltung mit der Ausgangsdatenleitung verbunden ist.
  2. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass eine Überbrückungsschaltung zur Verbindung zwischen der Eingangs- und der Ausgangsdatenleitung vorgesehen ist, welche als Ruheschalter ausgestaltet ist und im stromlosen Fall die Eingangs- und Ausgangsdatenleitung galvanisch überbrückt.
  3. Endoskopisches Bildverarbeitungssystem nach Anspruch 2, dadurch gekennzeichnet, dass mit der galvanischen Überbrückung der Eingangs- und der Ausgangsdatenleitung die Verarbeitungseinheit gleichzeitig galvanisch getrennt wird.
  4. Endoskopisches Bildverarbeitungssystem nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass eine Detektionsschaltung für eine mögliche Haupt-Fehlfunktion wie ein Fehler in der Stromversorgung, das Ansprechen eines Detektors für Übertemperatur vorgesehen ist, welche auf ein Fehlersignal hin die Überbrückungsschaltung aktiviert.
  5. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Ausgangssignal der Verarbeitungseinheit dem Eingangssignal überlagert wird, wenn kein Kriterium erfüllt ist, welches eine temporäre Beeinträchtigung der Datenauswertung betrifft, wie eine Verfälschung der Bildinformation durch eine Kamerabewegung, eine Überstrahlung oder Farbverfälschung.
  6. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit integrierender Bestandteil des Monitors ist.
  7. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit als selbstständiges Gerät mit eigener Stromversorgung vorgesehen ist.
  8. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Erkennungseinheit vorgesehen ist, welche Betriebseigenschaften der angeschlossenen Kamera wie Pixelzahl, Bildwiederholrate, Verzerrung nach deren Anschluss selbstständig ermittelt und Signale aussendet, welche nachfolgende Schaltungsteile entsprechend konfigurieren.
  9. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Einfügung der Daten in der Überlagerungseinheit mittels eines Schablonenbereichs erfolgt, welche Bereiche des Eingangs-Videoinformation von der Überlagerung ausnimmt. in denen Systeminformationen des Hauptsystem.
  10. Endoskopisches Bildverarbeitungssystem nach Anspruch 9, dadurch gekennzeichnet, dass die Schablonenbereiche solche Randbereiche des Eingangsbildes darstellen, in denen Systemanzeigen des Hauptsystems erscheinen.
  11. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Speichermittel zur Aufzeichnung des dem Ausgang nach der Überlagerung von Vermessungsdaten erscheinenden Signals vorgesehen sind.
  12. Endoskopisches Bildverarbeitungssystem nach Anspruch 11, dadurch gekennzeichnet, dass es sich bei den Speichermitteln um einen USB- oder anderen über eine Steckverbindung anschließbaren Festkörperspeicher handelt.
PCT/DE2016/200451 2015-10-01 2016-09-27 Endoskopisches bildverarbeitungssystem zur einfügung in eine datenleitung WO2017054818A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE112016004501.8T DE112016004501A5 (de) 2015-10-01 2016-09-27 Endoskopisches bildverarbeitungssystem zur einfügung in eine datenleitung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015013037.4 2015-10-01
DE102015013037 2015-10-01

Publications (1)

Publication Number Publication Date
WO2017054818A1 true WO2017054818A1 (de) 2017-04-06

Family

ID=57286177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2016/200451 WO2017054818A1 (de) 2015-10-01 2016-09-27 Endoskopisches bildverarbeitungssystem zur einfügung in eine datenleitung

Country Status (2)

Country Link
DE (1) DE112016004501A5 (de)
WO (1) WO2017054818A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5436655A (en) * 1991-08-09 1995-07-25 Olympus Optical Co., Ltd. Endoscope apparatus for three dimensional measurement for scanning spot light to execute three dimensional measurement
US6459481B1 (en) 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
WO2010061293A2 (en) 2008-11-26 2010-06-03 Haptica Limited System and method for measuring objects viewed through a camera
DE102009038021A1 (de) 2009-08-18 2011-02-24 Olaf Dipl.-Ing. Christiansen Bildverarbeitungssystem mit einer zusätzlichen zusammen mit der Bildinformation zu verarbeitenden Maßstabsinformation
WO2012107041A1 (de) 2011-02-11 2012-08-16 Olaf Christiansen Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5436655A (en) * 1991-08-09 1995-07-25 Olympus Optical Co., Ltd. Endoscope apparatus for three dimensional measurement for scanning spot light to execute three dimensional measurement
US6459481B1 (en) 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
WO2010061293A2 (en) 2008-11-26 2010-06-03 Haptica Limited System and method for measuring objects viewed through a camera
DE102009038021A1 (de) 2009-08-18 2011-02-24 Olaf Dipl.-Ing. Christiansen Bildverarbeitungssystem mit einer zusätzlichen zusammen mit der Bildinformation zu verarbeitenden Maßstabsinformation
WO2012107041A1 (de) 2011-02-11 2012-08-16 Olaf Christiansen Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen

Also Published As

Publication number Publication date
DE112016004501A5 (de) 2018-07-12

Similar Documents

Publication Publication Date Title
WO2017054817A1 (de) Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen
DE102011078212B4 (de) Verfahren und Vorrichtung zum Darstellen eines Objektes
DE10215808B4 (de) Verfahren zur Registrierung für navigationsgeführte Eingriffe
DE69432961T2 (de) Anordnung zur Bestimmung der gegenseitigen Lage von Körpern
WO2012107041A1 (de) Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen
EP1517647A1 (de) Verfahren und instrument zur chirurgischen navigation
EP3500152B1 (de) Detektionssystem zur automatischen detektion chirurgischer instrumente
EP3332730B1 (de) Verfahren und trackingsystem zum nachverfolgen eines medizinischen objekts
DE102011012460A1 (de) Chirurgisches Instrument mit integrierter Navigationskontrolle
DE102005041602A1 (de) Verfahren zur Darstellung eines medizinischen Implantats in einem Bild sowie medizinisches bildgebendes System
EP2923334A1 (de) Bestimmen der räumlichen lage und orientierung der wirbelkörper der wirbelsäule
DE102007054450A1 (de) Vorrichtung zur Bereitstellung von Bildern für einen Operateur
DE102011005259A1 (de) Verfahren und System zur Darstellung videoendoskopischer Bilddaten eines Videoendoskops
DE112021003948T5 (de) Bildrekonstruktion und endoskopische verfolgung
DE10359981A1 (de) System und Verfahren zur In Vivo Positions- und Orientierungsbestimmung einer Endoskopie-Kapsel bzw. eines Endoroboters im Rahmen einer kabellosen Endoskopie
DE102018119343B4 (de) Verfahren zur Kalibrierung von Objekten in einem Referenzkoordinatensystem und Verfahren zum Tracking von Objekten
DE102010041847A1 (de) Sensoreinheit für ein Stereoendoskop und Stereoendoskopiesystem
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
DE19648338C2 (de) Vorrichtung zur Nachführung einer Zielmarke für ein Therapiegerät
DE102017219621A1 (de) Visualisierungssystem mit einem Beobachtungsgerät und einem Endoskop
DE102009009165B4 (de) Verfahren und Vorrichtung zur Bestimmung eines von einer Endoskopiekapsel in einem Patienten zurückgelegten Weges
DE102016105962A1 (de) Positionsermittlungsanordnung für Intraokularlinse
EP3598948A1 (de) Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher
WO2017054818A1 (de) Endoskopisches bildverarbeitungssystem zur einfügung in eine datenleitung
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16794506

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112016004501

Country of ref document: DE

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112016004501

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16794506

Country of ref document: EP

Kind code of ref document: A1