WO2017054817A1 - Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen - Google Patents

Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen Download PDF

Info

Publication number
WO2017054817A1
WO2017054817A1 PCT/DE2016/200450 DE2016200450W WO2017054817A1 WO 2017054817 A1 WO2017054817 A1 WO 2017054817A1 DE 2016200450 W DE2016200450 W DE 2016200450W WO 2017054817 A1 WO2017054817 A1 WO 2017054817A1
Authority
WO
WIPO (PCT)
Prior art keywords
instrument
shaft
processing system
camera
image processing
Prior art date
Application number
PCT/DE2016/200450
Other languages
English (en)
French (fr)
Inventor
Olaf Christiansen
Original Assignee
Olaf Christiansen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olaf Christiansen filed Critical Olaf Christiansen
Priority to DE112016004461.5T priority Critical patent/DE112016004461A5/de
Publication of WO2017054817A1 publication Critical patent/WO2017054817A1/de

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00057Operational features of endoscopes provided with means for testing or calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the invention relates to an image processing system specified in the preamble of claim 1 Art.
  • Such image processing systems are widely used today in minimally invasive surgery. Due to the short focal length of the cameras used, they have a relatively large depth of field, which is also necessary so that the operator has a good overview of the work area and the objects viewed do not get out of the focus area with each movement of the endoscope.
  • the corresponding cameras usually have a fixed distance setting that is adapted to the work area.
  • the depth of field may in known systems include, for example, a range of 1 mm to infinity. Since the objects of a work area to be considered can thus be located at different distances from the camera optics, the displayed variable on a reproduction monitor can not be used as a reference for other elements or implants to be introduced into the work area. The true size of objects and their distances between them can therefore only be estimated with great difficulty when viewed endoscopically.
  • the surgical measuring technique used in neurology is based on the use of additional imaging systems with different physical bases in order to record the image data recorded before the operation into the running image of the endoscope camera in order to provide an overview of the anatomical anatomy To preserve conditions for the surgeon.
  • the shape of at least a part of the instrument in the optical imaging system is determined and from this a factor for the image scale is calculated with respect to a reference point which is preferably located at a point of the instrument and when touching touches an organ point first.
  • the invention has for its object to provide an image processing system of the type mentioned, with which the calculation is simplified so that it can be done with a conventional graphical processing unit in real time, so that the result of the calculation in the form of a graphical representation without noticeable delay in the camera image can be displayed.
  • the invention is based on the finding that in a conventional surgical instruments - such as a forceps - the cylindrical shaft portion and its end due to its linear boundary structure (in the manner of a silhouette) it is possible by means of an evaluation with knowledge of the imaging geometry of the endoscope objective by the adjustment of a Two-dimensional structure and the knowledge of the relative position of a tissue-contacting reference point on the instrument directly for this reference point to calculate the magnification in a plane which is directed perpendicular to the viewing direction of the endoscope.
  • each point of the field of view of the lens of the endoscope is associated with a magnification with which an object located there is imaged in the image plane.
  • This magnification is constant on areas whose distance to the lens is constant.
  • the required geometrical can be done very quickly with a low data processing effort, so that processing in real time is possible.
  • the results are immediately available in the image when viewed continuously.
  • the spatial position and orientation of the instrument is defined by the spatial direction of the axis of the shaft and an auxiliary point located in the distal end of the shaft, it is readily possible to obtain the reference point of interest for the measurement at the distal end of the instrument because of its protruding Position is to be used as a pointer because it first contacts the body tissue, and to obtain the scale there by directly addressing a table.
  • the table now stores, for all positions of the auxiliary point in the associated relative direction of the line of symmetry for the resulting reference point of the instrument, the imaging scale resulting from the imaging geometry, which is read to perform a survey. (For menu selection or gesture functions, this item is assigned a corresponding function to the device control.)
  • an optical marking is helpful, which - depending on the viewing direction - is different, so that the orientation when viewed from camera view can be clearly identified.
  • a type of circulating QR code can be used or a combination of analog and digital presentation elements.
  • the - different - information necessary for unambiguous recognition of the direction of rotation is concentrated in each case on an area which makes up only a few angular degrees of the circumference of the cylindrical structure so that the distortion due to the curvature of the cylinder surface remains low.
  • transverse strips which are used to determine the inclination of the shaft, extend spatially, since they follow the curved surface of the cylindrical shaft. However, they can be reduced to straight in-plane diameters by making connecting lines between their ends near the outer contour of the shaft. Then these lines complement the planar recognition structure to a ladder with several rungs, which can also be handled mathematically with little effort.
  • the horizontal stripes when contrasted with their neighborhoods - ie black-on-white or vice-versa - are also suitable for improving the visibility of the contour of the cylindrical stem when it has to be detected in a changing background and also in a shaded environment. Due to the zebra-like design of the edge contour can then be used as needed on the color scheme, which has better contrast to the background, while interpolated over the color areas with the lower contrast.
  • the shaft with a matte black coating, its nano-coating to repel perturbation, the use of a polarizing filter in front of the camera optics to avoid interference from reflections and setting the respective exposure time for the individual images Video sequences that on the one hand prevent motion blur and on the other hand, but also no nonlinear distortions due to overexposure of the recognizability and local discrimination.
  • the design of the shaft of the instrument is preferably cylindrical, but may also be slightly bulbous or concave, if it serves better handling. At the evaluation in the sense of the technique shown here, only the two limbs of the contour are to be adapted during geometrical alignment to the curve courses to be expected at different inclinations.
  • this supplemental information is "read" by the camera in its line of sight without having to change the orientation of the instrument. All data are camera right in two-dimensional - or almost two-dimensional - extent detectable. For orientations of the instrument, which are angularly difficult to detect from the camera, an auxiliary representation is available, which also allows an increased accuracy in this respect.
  • an algorithm for straight line detection is preferably provided for the first finding of the geometric data of data of straight lines, in which a straight line is defined as the boundary of the instrument shaft by a line of points which have mutually corresponding changes of image parameters such as color or brightness.
  • a Hough transformation can be used here, which is applied to a spatial differentiation of the image content, so that it is possible to locate the instrument position quickly from the edge of the image.
  • the computing means are further advantageously designed so that they outgoing of the contour of the shank of the instrument rectilinear edges, exploiting their symmetry, they the geometric data of the central axis of the cylindrical shaft as the axis of symmetry of two parallel or at an acute angle to each other extending as a boundary Store the instrument shaft recognized lines to form from there by extending the symmetry axis distally a coordinate of the reference point to display the local scale factor.
  • the computing means comprise an algorithm for detecting a transverse contour to the axis of symmetry as the distal boundary of the shaft, which forms the starting point for the determination of the reference point for the scale, taking into account the corresponding geometric distance corresponding to the geometric dimensions of the instrument.
  • the optically determined position of the distal boundary is corrected according to the inclination of the shaft determined by the convergence of the straight line with respect to the axis of symmetry, because the optical detection relates to the outer surface of the shaft, while the reference point inside of the shaft - on the central axis - is located.
  • the distal end of the shaft is defined on the central axis and results from the lines delimiting the contour and laid on the central axis, the distal end of the shaft indicative, straight lines a planar U-shaped geometric figure, which due to their symmetry on their Center line (axis of rotation of the cylinder) and the point marking the distal end of the shaft on the central axis can be reduced.
  • This plane figure is defined by the parameters of the corresponding straight line equations and it suffices for the corresponding calculations to refer to these parameters.
  • optically readable information from a plurality of radial directions can contain analog and / or digital structures in the manner of an EAN or QR code, it only being necessary to ensure that a sufficiently accurate individual identification can be read for each viewing direction of the camera.
  • the information optically readable from a plurality of radial directions forms a marking in the manner of a band extending annularly around the cylindrical shaft region, which has a clear delimitation in the axial direction and forms the distal end of the cylindrical shaft.
  • this annular marking coincides with the distal boundary of the shaft or forms its edge
  • the optically highlighted edge or circumferential marking forms a geometric reference for limiting the length of the shaft in the axial direction and thus finding the distal End of the shaft is used.
  • At least one further annular peripheral marking is provided at a distance from the first annular marking, this serves to improve the determination of the spatial orientation of the shaft by evaluating the distance in the image in the direction of the shaft, taking into account the optical shortening.
  • This optical shortening with an inclined shaft is in fact significantly more pronounced than the taper resulting from the perspective, so that the shaft inclination can be determined very precisely even when viewed through the top of the camera.
  • the contour of the shaft can also in color or regarding the brightness changing background - interpolating over several rings - are well recognized.
  • cylindrical shank region of the instrument is provided with a matt black surface which has contrasting labeling or coding elements, so that good visibility is ensured while avoiding reflections.
  • evaluation means are designed to detect the corresponding movement of more than one instrument, with the individual instruments being distinguished from one another by optically evaluable markings, more complex manipulations or instructions can also be carried out.
  • FIG. 1 is a block diagram of an embodiment of the system according to the invention.
  • FIGS. 1a to g respectively show the surgical instrument as part of the exemplary embodiment of the system according to the invention according to FIG. 1 for clarifying different states of the system according to FIG. 1, FIG.
  • FIG. 2 is a block diagram as an embodiment of an evaluation circuit according to the invention with evaluation of a table
  • Fig. 3 is a representation for measuring by means of two instruments
  • Fig. 3a is a representation for explaining a menu selection by means of an instrument
  • Fig. 3b is an illustration as an example of an information display, which is superimposed on the shaft portion of an instrument.
  • an endoscope camera 1 having an optical system 2 with a polarization filter 2a is provided, the output video signal of which passes through a motion discriminator 3 and an adder circuit 4 to be described in greater detail below.
  • the function of the polarization filter 2a is shown in more detail below.
  • the output of the addition circuit 4 is connected to a monitor 5, which is set up for the reproduction of the image taken by the endoscope camera 1. This monitor 5 is used by the treating surgeon to monitor the operating area in minimally invasive technique.
  • the output signal of the endoscope camera 1 reaches a frame memory 6, which is designed to hold the respective current image from the video stream of the output signal of the endoscope camera 1.
  • the endoscope camera transmits with the video stream an identification signal contained therein, which contains characteristic values of the optics 2 and of the image converter chip contained in the camera 1 or a coding characterizing this.
  • This identification signal is evaluated in a camera recognition unit 7, which activates a geometry equalization circuit 8, which in turn determines the correction values for the individual image portions, which indicate the amount by which they are to be shifted in order to produce a geometrically "pure" image which is free from influences caused by individual errors or distortions of the camera optics.
  • the correction level for the imaging geometry 9 thus generates an image which represents the objects to be reproduced in the image plane, such as the geometric image transformation should take place through the lens according to the lens equation.
  • the initial evaluation is usually done at low resolution and large image window, while after finding an edge (as described below, the resolution is increased to increase the measurement accuracy and the image area is reduced to the region of interest (ROI).
  • Downstream of the image field and quality selection stage 10 is a circuit for improving the image representation 11 in the sense of improving the possibility of evaluation by the subsequent stages.
  • This improvement consists in that those portions of the picture content which contribute to the contour recognition to be described below are amplified as far as possible in their amplitude or their effect, while those portions of the picture which do not contribute thereto are as far as possible reduced in their effect.
  • the geometrically and contentwise improved image information in terms of its quality of reproduction reaches an image analysis unit 13 which contains the steps which are provided for actually finding the information of interest and for evaluating the same.
  • the first stage of the image analysis unit 13 forms an edge detection unit 14. This involves the detection of the straight-line edge contours of the cylindrical area of the surgical instrument which are rectilinear in the planar representation.
  • an algorithm for the detection of straights in the image after differentiation finds an algorithm according to Hough (the so-called Hough Transformation), which finds collinear points in the image.
  • Hough the so-called Hough Transformation
  • an image window (image segment) is thus selected for further processing, which comprises the region of the straight line.
  • image segment image segment
  • the image field selected to find the straight line does not cover the entire image, but only the edge area, since the instruments used during the operation always protrude from the outside into the image when they are displayed, so that they are reliably detected in this way can.
  • this image part is in high resolution after raising the image quality of the edge detection stage 14 and a subsequent stage to the end region detection 15 (FIG. again), processing now being of high quality.
  • the edge detection is performed again with high precision (at high resolution) and, to facilitate the geometric processing, the central axis of the two obtained straight lines is calculated and added.
  • an edge is determined transversely to the previously recognized lateral boundaries of the shaft part of the surgical instrument, namely at the end remote from the edge of the image.
  • Another criterion used is the fact that the straight line must run perpendicular to the two lateral boundary lines of the representation. This limitation is clearly emphasized on the shaft part (see also FIG. 1b and the associated description) and is also determined after differentiation with the Hough transformation.
  • steps 14 and 15 are combined in the form of a contour in the form of a contour and form in the summary a "U" (see Fig. 1c) or its axis of symmetry as the central axis of the cylinder and that located on the axis distal end of the shaft area characteristic point. (Both constructs are equivalent to one another and can be used according to circumstances.)
  • This planar contour representation is transferred to a corresponding contour memory 16, together with an indication of the approximate position in the image. Due to the perspective image of the shaft, the lateral boundary lines do not run parallel. The deviation from the parallelism characterizes the inclination of the shaft about an axis directed perpendicular to the viewing direction of the endoscope optic axis.
  • the U-shaped contour or its axis of symmetry and the point marking the distal end of the shaft with their characteristic data in pixel or vector representation reach the input of an optical computer 17, which practically forms an optical lens simulator, and executes the lens equation as a transformation.
  • he does not calculate the mapping to a given object for a given optics, but calculates the position and orientation in space for an object of known contour - here the distal shaft end of a surgical instrument - a forceps - whose imaging contour is known.
  • This is particularly easy, because the lens equation allows plane objects to be transferred directly into the image plane. Since the image structure found is plane, it is possible to directly define a corresponding contour for the real object, which is essentially cylindrical and thus clearly defined.
  • both the edge detection unit 14 and the end detection unit 15 each determine a spatial reference value, which is composed of the direction of the central axis the cylindrical shaft and the direction of the edge connecting the end points of the contour of the cylindrical shell of the shaft, so that the resulting intersection in the middle of the crossbar of the U is a reference for the corresponding transformation to find the position and orientation of the real instrument due to the knowledge forms the contour of a part of his picture.
  • the optics calculator 17 is supplied with characteristic data of the optics - essentially the focal length - and the dimensions of the real instrument from corresponding memories 18 and 19 for the calculation to be carried out.
  • the optics computer 17 can also be designed as an addressable look-up memory, as described with reference to Fig. 2. This allows lengthy calculation times to be shortened, which is very advantageous in terms of real-time representation. )
  • the orientation of the auxiliary tool is not important per se, but the position of a protruding reference point for the measurement at the distal end of the auxiliary tool, which first comes into contact with the tissue during an operation and therefore serves as a pointing instrument.
  • the coordinates of this reference point are given by extending the central axis of the cylindrical shaft over the position of the point of intersection with the transverse bar of the U-shaped contour (corresponding to the point defining the end of the shaft on the central axis of the cylinder) towards the distal end of the Instrument is defined by a distance value that can be taken from the dimensional data of the instrument, although its possible eccentricity must be taken into account.
  • this eccentricity requires knowledge of the orientation of the instrument with respect to rotation about its central axis.
  • a number of markings are mounted, which are optically readable in the manner of digital codes and have a digitally coded information on the type of QR codes. (This will be explained in more detail with reference to Fig. 2.) It is important that the coding ensures that coding is performed such that the coded information differs when viewed from different directions, so that from each viewing direction the radial orientation of the instrument is unambiguous is removable. If, as here, a viewing direction is specified, the orientation of the instrument can therefore be unambiguously assigned from this viewing direction.
  • the identification of the optically readable data takes place in OCR module 20 within the image analysis unit 13.
  • the camera facing data of the corresponding ring area are transmitted to the optical computer 17, which also performs the data analysis and comparison with a corresponding existing in the instrument data memory 19 record an angle value is output together with a fixed value for the amount of eccentricity, which is likewise stored in the instrument data memory 19 specifically for the relevant instrument.
  • a reference point located eccentric to the central axis its position on the illustrated optical detection steps for the surgical instrument is clearly defined, although only a portion of this instrument could be used for evaluation by optical observation.
  • the spatial position of a correspondingly selected reference data system is stored in the position memory together with the scale factor for the imaging at this point - relative to a plane perpendicular to the camera viewing direction.
  • the reference point at the extremity is available as a pointer with a starting point for the measurement within the surgical field (Situs). By calculating in real time, this reference point can be chosen freely and form the basis for the features shown below.
  • These graphic auxiliary representations which will also be described below for facilitating the measurement, are contained in a memory for graphics 22 to be displayed virtually in the image and can optionally be activated via a selection circuit 23. These include, for example, a marking of the reference point or a virtual dipstick, which can be connected to the reference point of the instrument and moved with it in the image.
  • Superposition level 4 displays the virtual graphic guided with the instrument in the current camera image for display on the monitor.
  • the motion detection stage 3 which monitors the optical flow in the image.
  • the function is similar to that of an optical computer mouse, whose processor responds to the camera image as a whole and emits a signal when the movement speed exceeds a predetermined threshold.
  • the output signal of the motion detection stage 3 blocks the output of the position data memory 21, so that no survey information appears.
  • the activation of the surveying function requires a resting state of camera and tool, which is also a prerequisite for the reading of measured values. With normal activity in the situs, as it accompanies the execution of operative manipulations, the survey information is switched off and therefore does not appear disturbing.
  • An improvement in the accuracy of the measurement of the position of the auxiliary tool can be achieved by the fact that on the shaft of the auxiliary tool preferably at the end region circumferential rings are generated, as they can be detected according to the circumferential end edge of the shaft portion. At least two parallel ring parts or one in addition to the annular edge at the end of the cylindrical shaft portion, which are in the field of view of the camera, then form in their orientation one or more rungs within the "U" or on the central axis and by their distance a measure of Inclination of a shaft in addition to deviation of vertical lines of "U" from parallelism.
  • delayed signal cancellation circuit 25 which receives a logical input signal from the moving image recognition circuit 3 when substantial image parts are in motion, as a result of the evaluation of the optical flow as differentiation of parts of the image content
  • a signal indicating this state appears at the output of stage 3, which prevents the output of the current position of the instrument and of the associated scale value for its reference point via the reset input of position data circuit 21.
  • the cancellation of the reset signal is delayed by the delay circuit 25, which leaves even after calming the image, the reset signal for a period of about up to one second, so that a signal evaluation and display of surveying data takes place only when the camera and the instrument is decidedly kept quiet.
  • FIG. 1 shows the image processing in the form of modules for clarity in the form of blocks, which is oriented in its description rather to a hardware solution.
  • the practical implementation nowadays is performed using processors, here a combination of CPU and GPU in cooperation or corresponding task sharing, whereby the functions described in connection with the individual blocks are executed in real time by the combination of processors with the corresponding software.
  • a surgical instrument 100 in the form of a forceps in side view is shown. It has a cylindrical shaft portion 101 which has a dull dark surface provided with a nano-coating which prevents adhesion of liquids or small particles.
  • the distal end of the shaft region is marked by a contrasting ring 102 followed by a coding region 103 which has digital or analog markings which are optically detectable and differ depending on the viewing direction from which the shaft is viewed.
  • a reference point 106 is located at the end of the instrument which, when used as a pointing instrument, first comes into contact with the body tissue in the situs region. It is the reference point for surveying or for surveying instruments or data displayed on the screen.
  • the shaft of the instrument extends from the edge region 107 of the image into the image part in which a position evaluation of the instrument 100 is to take place.
  • the inclination of the shaft 101 about an axis in the plane of the drawing which is directed perpendicular to the central axis can be calculated from the taper of the shaft along its central axis (not shown in the drawing).
  • the diameter (D) 112 of the shaft is known from its design data and, via its change along the shaft, passes over the likewise known imaging geometry of the endoscope objective by applying the corresponding equations to the direction of the central axis of the shaft in the image space.
  • rings 111 to 115 which are formed in contrasting color to their neighboring areas. They serve a multiple purpose: the first ring 111 (as viewed from the end) serves in the vicinity of the ring 102 of light color, which marks the distal end of the immediate measuring portion of the shaft, to highlight it. In contrast to the intermediate regions adjacent to them, the rings in the edge region of the shaft serve to contrast it with the image background, so that the outer contour of the shaft can be recognized particularly well here by means of the zebra-like marking and thus via interpolation over the background contrasting background Improve the detection of Kontalsadenaden 108 and 109 zones, or form a possible control for their correct determination.
  • Another function of the rings 112 to 116 is that by the optical evaluation of their distance, the inclination of the shaft can be determined in addition to the evaluation of its conicity. It is thus given a means which makes it possible to improve a geometric size, which is not reliably visible optically by the one-sided evaluation of the shaft contour in plan view, by an additional geometric structure in the field of view of the camera in their precision.
  • Fig. 1c In order to find the arithmetic reference point for the end of the shaft, the central axis 110 is first tracked towards the distal end until you reach the ring 102, which marks the end of the shaft on the circumference of the shaft. Due to the known direction of the shaft and the known image geometry, it is possible to close the visible from the camera in plan view part of the ring on the intersection 117 of the ring 102 enclosed disc on the point 117 and thus receives the position of the distal end of the shaft and its reference point 117.
  • the exact positioning of the respective local image scale can be calculated by the planar U-shaped construct shown in FIG. 1d, which consists of the constructive end point of the shaft as reference point 117 and the parallel lines delimiting the contour, which extend at a distance of the shaft diameter, so that the local magnification results from the respective distance in the image.
  • the construct according to FIG. 1d is defined by only three points, namely the reference point for the shank end 117 and two points of one of the straight lines 108 or 109, which run symmetrically to the central axis 110 of the shank.
  • a digital code which can be designed in accordance with a QR code, only that it surrounds the shaft in an annular manner and, in addition to possible further information, a unique identifier for the radial Indicates alignment of an eccentricity of the reference point with respect to the shaft axis.
  • the region of the code closest to the camera is provided, insofar as it can be read substantially undistorted in the field of view of the camera.
  • identification information about the instrument such as its geometric reference variables or a clear catalog identifier, can also be read there, so that no data has to be transmitted externally for the instrument if a corresponding catalog file is currently available in the device.
  • Fig. 1g can be seen how can be extrapolated on the central axis 110 over its extension from the reference point 117 for the end of the shaft to the reference point 106, when the distance d between the two points and the eccentricity e from the design data of the instrument 100 and the Direction of eccentricity by evaluation of the codes 103 is known.
  • the plane geometric construct according to FIG. 1d is supplemented by the distance d in the direction of the center axis and the eccentricity e and the solid angle ⁇ , which is related to the viewing direction of the camera.
  • the geometric spatial orientation of the instrument 100 in the camera image can be calculated with a few variables, so that the local scale in the reference point 106 can be calculated and displayed, for example, as a virtual ruler with dimensioning for a plane perpendicular to the optical axis of the camera.
  • the calculations are done in real time, so that the instrument can be contacted with tissue for the environment length measurement data - or calculations from these data - can be displayed immediately, the tool can also be moved, then the calculation is updated and the virtual ruler that follows the movement of the instrument.
  • an evaluation circuit for the position detection of the instrument shown in Fig. 2 as an embodiment of the invention is a solution that is based on a tabulation of the possible positions and scale information.
  • the information determined in the image which relates to the spatial orientation of the auxiliary tool, and can be understood as a planar construct, which is defined by these data, can be understood as address values for a memory in which the local scale values associated with these data refer to the corresponding held instrument "shows" included. Accordingly, it is also possible to regard the corresponding elements as components of a vector.
  • the imaging system is cylindrical so that when using a polar coordinate system, only a solid angle belonging to a plane passing through the reference point 117 (in Figures 1a to 1g) as the intersection of the central axis 110 of the Instrument 100 defined as the distal end of the shaft (plane defined by the ring 102).
  • the desired scale value for the reference point 106 can then be read out in a correspondingly programmed memory, without this memory being able to read all values of a spatial 360.degree. Systems must cover.
  • the memory 200 contains the scale data for an angle in a polar coordinate system whose reference angle rotates about the optical axis of the camera so that the reference frame is connected to the camera.
  • the addressing data are the parameters determined in accordance with FIG. 1 d with reference to the selected solid angle (which in particular coincides with the reference point 117 of the instrument 100). Since the calculation is done in real time, i. without significant time delay, the camera movement can be disregarded because for each camera position the required geometric data is immediately at hand. The same applies to a movement of the instrument.
  • the scale factor for the location at which the instrument is pointing can be read-virtually timeless-of the respective instrument and camera position, and a corresponding calculation or display can be triggered.
  • the memory 200 is either permanently programmed as ROM if the camera and the instrument are known and fixed, or the data to be stored in the memory 200 is calculated in advance, since sufficient time is available during the operation before the beginning of a measurement process.
  • the calculation of the data to be read into the memory 200 is performed by a computer 203, which is fed with the geometric data of the camera and the instrument.
  • FIG. 3 shows how two instruments 100 and 100a interact to form a measurement. Both instruments are - as previously shown - detected by the camera and have different codes 103 and 103 a, so that the two instruments 100 and 100 a different reference positions 106 and 106 a are assigned. In this case, if held stationary for a short time, a virtual dimension line 300 between the reference positions 106 and 106a is faded in and the distance is calculated geometrically in the image and a corresponding measure 301 is displayed.
  • the continuous evaluation of the instrument position can also detect and evaluate its movements (due to continuous difference formation).
  • Lifting and rotational movements (302 or 303) are particularly interesting for their precise recognition, special codes 103 or 112 to 116 are provided in FIG. 1e.
  • a selection menu 304 is displayed in the image.
  • the current rotation position is indicated by a corresponding highlighting 303 and evaluated on a further stroke movement of the shaft of the tool 100, the corresponding stroke movement to execute the corresponding menu item.
  • Fig. 3b is reproduced as an example of how an information display is displayed in a region 306 in the region of the shaft of the instrument. It should be noted that the display is only a fade into the font representation of the shaft area, the area 306 being geometrically calculated in its position from the position of the axis of rotation of the instrument and the shaft end and thus seems firmly connected to the instrument.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)

Abstract

Endoskopisches Bildverarbeitungssystem für die Chirurgie, enthaltend eine Endoskop-Kamera, ein in den Aufnahmebereich der Kamera einbringbares chirurgischen Instrument, dessen Schaftbereich über seine Bildabmessungen eine geometrische Distanzinformation in Form einer optischen Information erzeugt, die zusammen mit mindestens einem Bild der von der Kamera aufgenommenen laufenden Bildinformation verarbeitet, detektiert, von der Bildinformation separiert und weiter aufbereitet wird, um eine Vermessungsinformation aus dem von der Digitalkamera aufgenommenen Bildinhalt durch Vergleich mit einer gespeicherten Abbildungsinformation des Instruments zu erhalten, wobei die Vermessungsinformation den Abbildungsmaßstab in einer zur optischen Achse der Kamera senkrechten Ebene darstellt und auf einen Bezugspunkt des Instruments bezogen ist, der eine zur Kontaktierung von Körpergewebe hervortretende Form und Position aufweist, wobei Erkennungsmittel für die seitlichen radialen Begrenzungen des zylindrischen Schaftbereichs mittels dessen Konturlinie im Bild, Erkennungsmittel für die den zylindrischen Schaftbereich nach distal hin begrenzende Konturlinie und Transformation dieser Konturlinie zu einer einen Schaftdurchmesser bildenden Geraden, die an die den Schaftbereich begrenzenden Konturlinien senkrecht anschließt, sowie Rechenmittel zum Abgleich dieser ebenen Linienkontur mit der entsprechenden Linienkontur einer für das betreffende Instrument gespeicherten Abbildungsinformation durch geeignete räumlich-virtuelle Ausrichtung des Instruments unter Berücksichtigung der Abbildungsgeometrie des Endoskop-Objektivs und zur Ermittlung des örtlichen Abbildungsmaßstabs in einer senkrecht zur optischen Achse der Kamera verlaufenden Bildebene als Vermessungsinformation für den Bezugspunkt des Instruments auf Grund der Abbildungsgeometrie.

Description

ENDOSKOPISCHES BILDVERARBEITUNGSSYSTEM FÜR DIE CHIRURGIE MIT MITTELN, WELCHE IM ERFASSUNGSBEREICH EINER OPTISCHEN DIGITALKAMERA EINE GEOMETRISCHE DISTANZINFORMATION ERZEUGEN
Die Erfindung betrifft ein Bildverarbeitungssystem der im Oberbegriff des Anspruchs 1 angegebenen Art.
Derartige Bildverarbeitungssysteme werden heute vielfach in der minimalinvasiven Chirurgie eingesetzt. Durch die kurze Brennweite der verwendeten Kameras weisen diese eine relativ große Schärfentiefe auf, welche auch notwendig ist, damit die Bedienungsperson einen guten Überblick über den Arbeitsbereich hat und die betrachteten Objekte nicht bei jeder Bewegung des Endoskops aus dem Schärfenbereich heraus gelangen. Die entsprechenden Kameras haben dabei meist eine feste Entfernungseinstellung, die dem Arbeitsbereich angepasst ist. Die Schärfentiefe kann bei bekannten Systemen beispielsweise einen Bereich von 1 mm bis unendlich umfassen. Da sich die zu betrachtenden Objekte eines Arbeitsbereichs damit – trotz scharfer Darstellung - in unterschiedlicher Entfernung von der Kameraoptik befinden können, kann die dargestellte Größe auf einem Wiedergabe-Monitor nicht als Bezugsgröße für andere in den Arbeitsbereich einzubringende Elemente bzw. Implantate benutzt werden. Die wahre Größe von Objekten und deren Abstände untereinander lassen sich also bei endoskopischer Betrachtung nur sehr schwer abschätzen.
Bei der endoskopischen Untersuchung besteht daher das Bedürfnis, nähere geometrische Informationen über das Objekt zu erhalten – also einzelne Teile des Objekts zu vermessen um Implantate anzupassen oder malignes Gewebe zu quantifizieren.
Die chirurgische Messtechnik, die beispielsweise in der Neurologie angewendet wird, beruht darauf, dass zusätzliche bildgebende Verfahren mit unterschiedlicher physikalischer Basis eingesetzt werden, um die vor der Operation aufgenommenen Bilddaten in das laufende Bild der Endoskopkamera einzuspielen, um auf diese Weise den Überblick betreffend die anatomischen Verhältnisse für den Chirurgen zu wahren.
Bei anderen Anwendungen bei denen Organe betroffen sind, die auch während der Operation leicht verschieblich sind, wie beispielwese auf dem Gebiet der Laparoskopie, ist die Überlagerung eines vorher aufgenommenen Standbildes dagegen nicht hilfreich. Um trotzdem eine Anwendung während der Operation mit unmittelbarer Auswertungen zu ermöglichen, müssen die zusätzlichen geometrischen Daten direkt gewonnen und möglichst in Echtzeit verarbeitet und direkt überlagert werden.
Aus der DE102009038021 des Anmelders ist es bekannt, mittels einer in das Operationsfeld eingeblendeten Lasermarkierung, die von einem in vorgegebener Raumrichtung abgegebenen Laserstrahlung herrührt, über den Abstand der Lasermarkierung von der optischen Achse des Endoskop-Objektivs den örtlichen Abbildungsmaßstab in der betreffenden Ebene zu ermitteln, so dass dort entsprechende Vermessungen vorgenommen und in eine so erzeugte Abbildung im realen Maßstab auch eine Anpassung eines Implantates an die örtlichen geometrischen Verhältnisse im Operationsgebiet vorgenommen werden kann.
Hierbei besteht jedoch die Schwierigkeit, dass mit dem Endoskop eine Laserquelle verbunden werden muss. Da die Endoskope aber im Laufe ihrer Weiterentwicklung einer ständigen Verkleinerung unterworfen sind, bestehen bei der Unterbringung einer zusätzlichen Laserquelle in manchen Fällen räumliche Probleme.
Um die größenmäßigen Abschätzungen im OP-Gebiet vornehmen zu können, behilft sich der Chirurg gewöhnlich damit, dass er den Abstand der aufgespreizten Backen eines Instruments, beispielsweise einer Fasszange, in schrittweiser Addition zur Längenmessung heranzieht. Dieses Verfahren ist jedoch recht ungenau.
Auch in der allgemeinen Technik hat man Messobjekte bekannter Dimensionen oder solche mit Maßstabsmarkierungen in den Arbeitsraum eingebracht und damit versucht, die Abmessungen eines zu vermessenden Objekts über die Abbildungsgeometrie der verwendeten Optik zu erschließen, wie es in der US 6459481B1 detailliert dargestellt ist. Hier muss für die Vermessung jeweils ein zusätzliches Zielobjekt als geometrische Referenz in den Arbeitsraum eingebracht werden, was jedoch recht umständlich ist.
Aus der WO2010/061293 A2 ist es bekannt, Skalierungselemente unmittelbar auf dem Zangenbacken einer Fasszange im Sichtfeld der Endoskopkamera anzubringen um aus dem Durchmesser der Skalierungselemente oder deren Abstand auf die Größe eines benachbarten Objekts zu schließen. Dabei bleibt es unberücksichtigt, dass sich die Durchmesser und der Abstand der Skalierungselemente in Abhängigkeit von der Blickrichtung der Kamera verändern, so dass sie kein verlässliches Maß für eine Skalierung bilden. Außerdem bleibt es unerfindlich, wie es per Computer möglich sein soll, durch eine zeitabhängige Beobachtung der Skalierungselemente, auf die Größe eines Objekts in der Szene zu schließen, wie es in Absatz 0015 der genannten Schrift beschrieben ist. Es bleibt auch unberücksichtigt, dass sich der Abbildungsmaßstab bei endoskopischer Betrachtung stark mit dem Abstand des Objekts vom Objektiv verändert, so dass eine präzise Relation von Messobjekt und Skalierungsmitteln nicht möglich ist.
Aus der WO2012/107041A1 des Anmelders ist es bekannt, eine maßstäbliche Vermessung eines Objekts oder einen virtuellen Maßstab mittels eines Bezugspunktes an einem chirurgischen Instrument festzulegen, der in der Vermessungsebene senkrecht zur optischen Achse gelegen ist, in der die Vermessung oder Bemaßung eines Objekts durchgeführt werden soll. Dazu wird eine Anzahl von gespeicherten Abbildungen des Instruments aus verschiedenen Blickrichtungen mit dem aktuellen Bild verglichen und über einen Größenabgleich eine räumlich korrekte Skalierungsinformation gewonnen, die unter Berücksichtigung der Abbildungsgeometrie des Objektivs eine Aussage über den Maßstabsverhältnisse im Bezugspunkt und damit eine Vermessung eines in der Messebene gelegenen Objekts ermöglicht.
Erstmalig wird hier nicht eine konkret im Bild erkennbare geometrische Distanz, sondern die Form von mindestens einem Teil des Instruments im optischen Abbildungssystem ermittelt und daraus ein Faktor für den Abbildungsmaßstab errechnet, im Hinblick auf einen Bezugspunkt, der bevorzugt an einem Punkt des Instruments gelegen ist und beim Tasten einen Organpunkt zuerst berührt.
Es ist hierbei jedoch zu berücksichtigen, dass der entsprechende Abgleich mit Abbildungsinformationen aus unterschiedlichen Raumrichtungen einen relativ großen Rechenaufwand erfordert und damit einer Verarbeitung in Echtzeit mit geringer Latenz entgegensteht. Dem wurde bei der genannten Lösung zwar dadurch entgegengewirkt, dass am chirurgischen Instrument kugelförmige Bereiche vorgesehen wurden, die aus unterschiedlicher Betrachtungsrichtung identisch erscheinen. Damit ist aber einerseits eine Einschränkung bei der Gestaltung des jeweiligen chirurgischen Instruments verbunden und andererseits kann auch keine Aussage über die genaue radiale Ausrichtung des Instruments getroffen werden.
Der Erfindung liegt die Aufgabe zugrunde, ein Bildverarbeitungssystem der eingangs genannten Art zu schaffen, mit dem die Berechnung derart vereinfacht ist, dass diese auch mit einer üblichen grafischen Prozessoreinheit in Echtzeit erledigt werden kann, so dass das Ergebnis der Berechnung in Form einer grafischen Darstellung ohne merkliche Verzögerung in das Kamerabild eingeblendet werden kann.
Diese Aufgabe wird mit den im kennzeichnenden Teil des Anspruchs 1 angegebenen Maßnahmen gelöst.
Die Erfindung beruht auf der Erkenntnis, dass bei einem herkömmlichen chirurgischen Instrumente – wie einer Fasszange – der zylindrische Schaftbereich und sein Ende aufgrund seiner linienförmigen Begrenzungsstruktur (nach Art eines Schattenrisses) es mittels einer Auswertung bei Kenntnis der Abbildungsgeometrie des Endoskopobjektivs möglich ist durch den Abgleich einer zweidimensionalen Struktur und der Kenntnis der relativen Position eines das Gewebe kontaktierenden Bezugspunkts am Instrument unmittelbar für diesen Bezugspunkt den Abbildungsmaßstab in einer Ebene zu errechnen, die senkrecht zur Blickrichtung des Endoskops gerichtet ist.
Dabei ist letztlich lediglich nur die Kenntnis der räumlichen Richtung der Rotationsachse des Schaftbereichs mit einem deren distales Ende kennzeichnenden Hilfspunkt notwendig, die durch die optische Beobachtung durch die Endoskopkamera erlangt wird und die relative Position des das Körpergewebe zuerst kontaktierenden Bezugspunkts des Instruments dazu.
Dabei wird ausgegangen von der Vorstellung, dass jedem Punkt des Sichtfelds des Objektivs des Endoskops ein Abbildungsmaßstab zugeordnet ist, mit dem ein dort befindliches Objekt in der Bildebene abgebildet wird. Dieser Abbildungsmaßstab ist konstant auf Flächen, deren Abstand zum Objektiv konstant ist. Durch den Abgleich der im Bild sichtbaren Konturlinie des zylindrischen Schaftbereichs eines chirurgischen Instruments mit derjenigen eines geometrischen Modells lässt sich unter Berücksichtigung von dessen Verzerrung bei der Abbildung in der Bildebene aufgrund der mit der Abbildungsgeometrie der Endoskop-Optik verbundenen Maßstabsbedingungen für das Modell der örtliche Abbildungsmaßstab für den Bezugspunkt errechnen, so dass für den Bezugspunkt der örtliche Abbildungsmaßstab bekannt ist und somit ein dort befindliches reales Objekt korrekt vermessen oder eingemessen werden kann.
Besonders vorteilhaft bei der Erfindung ist, dass der dazu erforderliche geometrische mit einem geringen Datenverarbeitungsaufwand sehr schnell vollzogen werden kann, so dass eine Verarbeitung in Echtzeit möglich ist. Damit stehen die Ergebnisse bei laufender Betrachtung im Bild unmittelbar zur Verfügung.
Da die räumliche Lage und Ausrichtung des Instruments definiert ist durch die räumliche Richtung der Achse des Schafts und einem im distalen Endbereich des Schaftes gelegenen Hilfspunkt, ist es ohne weiteres möglich, den für die Vermessung wichtigen Bezugspunkt am distalen Ende des Instruments, der wegen seiner hervorstehenden Position als Zeiger zu verwenden ist, weil er das Körpergewebe zuerst kontaktiert, und den dort gültigen Maßstab durch direktes Adressieren einer Tabelle zu erhalten. In der Tabelle ist jetzt für alle Positionen des Hilfspunktes in der zugeordneten relativen Richtung der Symmetrielinie für den daraus resultierenden Bezugspunkt des Instruments der sich auf Grund der Abbildungsgeometrie ergebende Abbildungsmaßstab gespeichert, welcher ausgelesen wird, um eine Vermessung durchzuführen. (Bei Menu-Auswahl oder Gestik-Funktionen ist diesem Punkt dann entsprechend eine auszuführende Funktion der Gerätesteuerung zugeordnet.)
Auf diese Weise gelingt es, die Erkennung der räumlichen Ausrichtung eines dreidimensionalen Instruments auf das Erfassen eines einfachen zweidimensionalen Konstrukts zurückzuführen.
Diejenigen Komponenten der räumlichen Ausrichtung, die aus Kamerasicht nicht oder nur mit geringer Genauigkeit zu erkennen sind, werden in ihrer Auswertbarkeit verbessert, in dem auf dem Schaft geometrisch Markierungen als Kennzeichnungen angebracht werden, die analoge oder digital verschlüsselte Informationen enthalten, die aus Richtung der Kamerasicht bequem ablesbar sind.
Dazu gehört einerseits die Ausrichtung des Instruments bezogen auf seine Längsachse, was von Bedeutung ist, wenn der Bezugspunkt zur Kontaktierung des Körpergewebes in Bezug auf die Längs- oder Rotationsachse des Instruments exzentrisch gelegen ist. Hierbei ist eine optische Kennzeichnung hilfreich, die – abhängig von der Betrachtungsrichtung – unterschiedlich ist, so dass die Ausrichtung bei Betrachtung aus Kamerasicht eindeutig erkannt werden kann. Hierbei kann beispielsweise eine Art umlaufender QR-Code Verwendung finden oder eine Kombination aus analogen und digitalen Darstellungselementen.
Die genaue Kenntnis der Position des Bezugspunktes, der das Körpergewebe kontaktiert, ist deswegen von Bedeutung, weil man für diesen Punkt in der endoskopischen Betrachtung eine eindeutige Beziehung des errechneten Maßstabs zu der organischen Struktur hat. Nach dem Stand der Technik musste man zur endoskopischen Vermessung den körperlichen Maßstab auf die zu vermessende Struktur „auflegen“ – jetzt wird der Maßstab von einer optisch erfassbaren Kontur auf die interessierenden Bereiche der Betrachtung „heruntergerechnet“.
Um die Ablesbarkeit der Kodierung zu erleichtern, wird die zur eindeutigen Erkennung der Rotationsrichtung notwendige – unterschiedliche - Information jeweils auf einen Bereich konzentriert, der nur wenige Winkelgrad des Umfangs der zylindrischen Struktur ausmacht, damit die Verzerrung durch die Krümmung der Zylinderoberfläche gering bleibt. Um die Erkennbarkeit der Information zu verbessern, ist es günstig, sie in Längsrichtung des Schaftes zu „strecken“, da sie durch die Neigung des Schafts bei Draufsicht durch die Kamera ja wieder räumlich verkürzt erscheint.
Eine weitere Ungenauigkeit, welche durch die Neigung des Instruments um eine Achse in einer Ebene quer zur Kamera-Blickrichtung verbunden ist, ist die Erkennbarkeit eben dieser Neigung. Diese Ungenauigkeit kann behoben werden, wenn mittels der Kamera die durch die Neigung hervorgerufene – oben erwähnte - optische Verkürzung ausgewertet wird. Durch eine in einem vorgegebenen Abstand zur Markierung am distalen Ende des Schafts verlaufende weitere Markierung (oder eine Anzahl derselben) ist über die entsprechende Sinus-Funktion der räumliche Winkel der Neigung leicht zu ermitteln und kann mit der Auswertung der Abbildung der räumlichen Kanten des Schafts vorteilhaft zur Verbesserung des Ergebnisses der Berechnung der Ausrichtung des Schafts benutzt werden.
Die Querstreifen, die zur Bestimmung der Neigung des Schaftes herangezogen werden, verlaufen zwar räumlich, da sie der gekrümmten Oberfläche des zylindrischen Schafts folgen. Sie lassen sich jedoch auf geradlinige in einer Ebene verlaufene Durchmesser reduzieren, wenn man jeweils Verbindungslinien zwischen ihren Enden in der Nähe der Außenkontur des Schafts herstellt. Dann ergänzen diese Geraden die ebene Erkennungsstruktur zu einer Leiter mit mehreren Sprossen, die mathematisch ebenfalls mit geringem Aufwand gehandhabt werden kann.
Die Querstreifen eignen sich, wenn sie kontrastierend zu ihrer Nachbarschaft gefärbt sind – also schwarz auf weiß oder umgekehrt – auch dazu, eine Verbesserung der Erkennbarkeit der Kontur des zylindrischen Schafts zu ermöglichen, wenn dieser vor wechselndem Hintergrund und auch vor abgeschatteter Umgebung erkannt werden muss. Durch die zebraartige Gestaltung der Randkontur kann dann je nach Bedarf auf die Farbgebung zurückgegriffen werden, die zum Hintergrund den besseren Kontrast aufweist, während über die Farbbereiche mit dem geringeren Kontrast interpoliert wird.
Zur Verbesserung der Erkennbarkeit der Kontur sind Mittel vorgesehen, welche diejenigen Parameter der optischen Information heraufsetzen, die sich im Bereich der zu erkennenden Kontur verändern. Das sind die Farbe: Bei einer Umgebung mit vorwiegend roter Farbgebung bei chirurgischer Anwendung wird dieser Farbanteil zweckmäßiger Weise herausgehoben. Weiterhin hilfreich ist eine Kontrastvergrößerung und eine Kantenverschärfung, wie sie bei der Bildbearbeitung per Computer einstellbar ist. Um die Erkennbarkeit zu verbessern, können außerhalb der Messzyklen im Voraus Erkennbarkeitstests durchgeführt werden. Vor der eigentlichen Auswertung werden im dazu zur Verfügung stehenden Zeitbereich, in dem keine Vermessung erfolgen soll, Testaufnahmen in der aktuellen Position des Instruments bei variierten Parametern ausgeführt und die Ergebnisse in Zuordnung zu den verschiedenen eingestellten Auswertungsparametern zahlenmäßig festgehalten und statistisch ausgewertet. Kommt es dann zu einem geplanten Messvorgang, werden diejenigen Parameter eingestellt, die zuvor zum besten Ergebnis geführt haben.
Für das Starten des Messvorgangs ist Voraussetzung, dass sich die Kamera und das Instrument für einen vorgegebenen Zeitraum in Ruhe befinden, da dies die Voraussetzung für einen Messvorgang ist. Vor einer automatischen Umschaltung in den Messzustand steht also genügend Zeit zur Verfügung, um über einige Bildsequenzen zu ermitteln, mit welche optischen Parametern die besten Ergebnisse erzielt werden, um einen optimalen Messvorgang einzuleiten.
Soll kein Messvorgang eingeleitet und die normale Operation fortgesetzt werden, so werden die Messergebnisse verworfen, da sie von der aktuellen Positionierung und Beleuchtungssituation abhängig sind.
Zur weiteren Verbesserung der Erkennbarkeit und optischen Verarbeitbarkeit gehören das Versehen des Schafts mit einem matt schwarzem Überzug, dessen Nanobeschichtung zur Abweisung von störenden Anhaftungen, die Verwendung eines Polarisationsfilters vor der Kameraoptik zur Vermeidung von Störungen durch Reflexionen und Einstellung der jeweiligen Belichtungszeit für die einzelnen Bilder der Videosequenzen, dass einerseits keine Bewegungsunschärfe und andererseits aber auch keine nichtlinearen Verzerrungen durch Überbelichtung die Erkennbarkeit und örtliche Diskriminierung verhindern.
Die Ausgestaltung des Schafts des Instruments ist bevorzugt zylindrisch, kann aber auch leicht bauchig oder konkav sein, wenn es der besseren Handhabung dient. An der Auswertung im Sinne der hier dargestellten Technik sind dabei lediglich die beiden Schenkel der Kontur beim geometrischen Abgleich an die bei unterschiedlicher Neigung zu erwartenden Kurvenverläufe anzupassen.
Dabei kann auf ein in seiner Grundform unverändertes chirurgisches Hilfswerkzeug (wie eine Fasszange) zurückgegriffen werden, die lediglich durch optische Kennzeichnungen ergänzt werden muss, die mit normalen Beschriftungstechniken aufbringbar sind.
Als Ergebnis lässt sich feststellen, dass es mit Hilfe der Maßnahmen gemäß der Erfindung und einiger ihrer Weiterbildungen gelungen ist, ein chirurgisches Instrument mit einem zylindrischen Schaftbereich dazu verwenden, dass es gelingt, über Abmessungen des Instruments, die nicht einer Ebene gelegen sind mit der Ebene, in der vermessen werden soll, es gelingt, den Abbildungsmaßstab für eine Extremität des Instruments zu berechnen, die in der Abbildung des Instruments gar nicht sichtbar zu sein braucht und auch verdeckt oder mit Blut verunreinigt sein kann. Das Instrument kann ist zur Vermessung nicht an eine bestimmte Ausrichtung gebunden und kann beliebig gehalten werden. Es braucht lediglich die Kontur eines Teils seines Schafts optisch erfasst zu werden, um mit dieser zweidimensionalen Grafik eine Abschätzung über die Position und die Ausrichtung des realen Instruments zu machen. Statt weitere Informationen über die Form des Instruments einzuholen werden diese ergänzenden Informationen von der Kamera in ihrer Blickrichtung „abgelesen“, ohne dass dazu die Ausrichtung des Instruments verändert werden muss. Alle Daten sind Kameragerecht in zweidimensionaler – oder nahezu zweidimensionaler – Erstreckung erfassbar. Für Ausrichtungen des Instruments, die winkelmäßig aus der Kamerasicht schwer erfassbar sind, steht eine Hilfsdarstellung zur Verfügung, die auch insoweit eine erhöhte Genauigkeit ermöglicht.
Bei den Rechenmitteln ist bevorzugt zum ersten Auffinden der geometrischen Daten von Daten von Geraden ein Algorithmus zur Geradenerkennung vorgesehen, bei dem eine Gerade als Begrenzung des Instrumentenschafts durch eine Linie von Punkten definiert ist, welche einander entsprechende Änderungen von Bildparametern wie Farbe oder Helligkeit aufweisen. Hier kann insbesondere eine Hough-Transformation Anwendung finden, welche auf eine räumliche Differentiation des Bildinhalts angewendet wird, so dass vom Bildrand her ein schnelles unmittelbares Auffinden der Instrumentenposition ermöglicht ist.
Die Rechenmittel sind weiterhin günstiger Weise derart ausgebildet, dass sie ausgehende von den die Kontur des Schaftes des Instruments geradlinig begrenzenden Kanten, deren Symmetrie ausnutzend, sie die geometrischen Daten der Mittelachse des zylindrischen Schafts als Symmetrieachse zweier paralleler oder in einem spitzen Winkel zueinander verlaufender als Begrenzung des Instrumentenschafts erkannter Geraden speichern, um von dort aus durch eine Verlängerung der Symmetrieachse nach distal eine Koordinate des Bezugspunkts zur Anzeige des dortigen Maßstabsfaktors bilden.
Insbesondere weisen die Rechenmittel einen Algorithmus zum Erkennen einer quer zur Symmetrieachse verlaufenden Kontur als distale Begrenzung des Schaftes auf, welcher den Ausgangspunkt für die Festlegung des Bezugspunkts für den Maßstab bildet, wenn man die entsprechende geometrische Distanz entsprechend den geometrischen Abmessungen des Instruments berücksichtigt.
Es ist von Bedeutung, dass die optisch ermittelte Position der distale Begrenzung entsprechend der durch die Konvergenz der Geraden ermittelten Neigung des Schaftes in Bezug auf die Symmetrieachse korrigiert wird, weil die optische Ermittlung sich auf die äußere Oberfläche des Schaftes bezieht, während der Bezugspunkt im Innern des Schaftes – auf dessen Mittelachse – gelegen ist. Damit ist das distale Ende des Schafts auf der Mittelachse definiert und es ergibt sich aus den die Kontur begrenzenden Geraden und der auf die Mittelachse verlegten, das distale Ende des Schaftes bezeichnenden, Geraden eine ebene U-förmige geometrische Figur, welche wegen ihrer Symmetrie auf ihre Mittellinie (Rotationsachse des Zylinders) und den das distale Ende des Schafts auf der Mittelachse markierenden Punkt reduziert werden kann.
Diese ebene Figur ist durch die Parameter der entsprechenden Geradengleichungen definiert und es genügt für die entsprechenden Berechnungen, sich auf diese Parameter zu beziehen. Zur Auswertung mittels einer Tabelle ist es dann ausreichend, lediglich diese wenigen Parameter zur Adressierung zu verwenden, um aus der entsprechenden Tabelle den Zielwert, nämlich den Maßstabsfaktor im Bezugspunkt am Ende des Werkzeugs, zu entnehmen.
Um auch die radiale Richtung des Schaftes bei seiner Rotation um die Längsachse unmittelbar optisch dem Bild entnehmen zu können – was von Bedeutung ist, wenn die Position des Bezugspunkts exzentrisch zur Mittelachse gelegen ist, ist es günstig, wenn auf dem Schaft eine aus mehreren radialen Richtungen optisch lesbare Information aufgebracht ist, die abhängig von der Betrachtungsrichtung und dabei für jede Betrachtungsrichtung einmalig ist. Diese Information bezeichnet dann die Richtung der Ausrichtung der Zangenbacken und/oder einer eventuellen Exzentrizität des Bezugspunktes zur Längsachse des zylindrischen Schaftbereichs, so dass damit auf Grund der Kenntnis der Abbildungsgeometrie des Objektivs die genaue – auch exzentrische – Position des Bezugspunkts ohne weiteres her leitbar ist.
Die aus mehreren radialen Richtungen optisch lesbare Information kann dabei analoge und/oder digitale Strukturen nach Art eines EAN- oder QR-Codes enthalten, wobei lediglich gewährleistet sein muss, dass für jede Blickrichtung der Kamera eine hinreichend genaue individuelle Kennzeichnung ablesbar ist.
Günstig ist es dabei auch, wenn die aus mehreren radialen Richtungen optisch lesbare Information eine den zylindrischen Schaftbereich ringförmig umlaufende Markierung nach Art eines Bandes bildet, das in axialer Richtung eine klare Abgrenzung aufweist und das distale Ende des zylindrischen Schafts bildet.
Vorteilhaft ist es dabei ferner, wenn diese ringförmige Markierung zusammenfällt mit der distalen Begrenzung des Schafts oder dessen Kante bildet, wobei die optisch hervorgehobene Kante oder umlaufende Kennzeichnung eine geometrische Bezugsgröße für die Begrenzung der Länge des Schafts in axialer Richtung bildet und damit dem Auffinden des distalen Endes des Schafts dient.
Wenn mindestens eine weitere ringförmig umlaufende Markierung in einem Abstand zur ersten ringförmigen Markierung vorgesehen ist, dient dies zur Verbesserung der Ermittlung der räumlichen Ausrichtung des Schaftes durch Auswertung des Abstands in der Abbildung in Richtung des Schafts unter Berücksichtigung der optischen Verkürzung. Diese optische Verkürzung bei geneigtem Schaft ist nämlich wesentlich stärker ausgeprägt als die sich durch die Perspektive ergebende Verjüngung, so dass die Schaftneigung auch bei Draufsicht durch die Kamera sehr präzise ermittelbar ist.
Wenn insbesondere mehrere Ringe unterschiedlicher Farbgebung auf dem Schaft angeordnet sind, wobei Mittel vorgesehen sind, welche bei der Ermittlung des Kantenbereichs des Schafts die Kantenbereiche derjenigen Ringe auswählen, deren Farbe mit dem aktuellen Hintergrund am meisten kontrastiert, kann die Kontur des Schafts auch bei farblich oder bezüglich der Helligkeit wechselndem Hintergrund - über mehrere Ringe hinweg interpolierend – gut erkannt werden.
Günstig ist es ferner, wenn der zylindrische Schaftbereich des Instruments mit einer matt schwarzen Oberfläche versehen ist, die kontrastierende Beschriftungs- oder Kodierungselemente aufweist, so dass unter Vermeidung von Reflexionen eine gute Erkennbarkeit gewährleistet ist.
Das wird auch dadurch unterstützt, wenn die Oberfläche mindestens des Schaftbereichs des Instruments mit einer flüssigkeitsabweisenden Nanobeschichtung versehen ist, so dass Anhaftungen vermieden sind und somit die Kontur des Schafts in jedem Fall gut erkennbar bleibt. Unterstützt wird die Verminderung von Reflexionen auch durch das Vorsehen eines optischen Polarisationsfilters am Kameraobjektiv.
Dadurch, dass Auswertungsmittel für eine Hub-, Rotations- oder Querbewegung des Instruments über eine entsprechende Erkennung einer Positionsveränderung in aufeinanderfolgenden Bildern vorgesehen sind, um auf diese Weise eine Steuerfunktion auszulösen. Damit ist es möglich, mittels der Instrumente Auswertungsmittel anzusteuern, die in ihrer Funktion einer Gestik- oder Menu-Steuerung entsprechen. Auf diese Weise können von dem behandelnden Chirurgen Befehle in das System eingegeben werden, ohne dass die Instrumente aus der Hand gelegt werden müssen.
Wenn die Auswertungsmittel zur Erkennung der entsprechenden Bewegung von mehr als einem Instrumente ausgelegt sind, wobei sich die einzelnen Instrumente durch optisch auswertbare Markierungen voneinander unterscheiden, können auch komplexere Handhabungen oder Befehle ausgeführt werden.
Die Vorteile der in den Unteransprüchen angegebenen Maßnahmen ergeben sich auch an Hand der nachfolgend dargestellten Ausführungsbeispiele.
Derartige vorteilhafte Ausführungsbeispiele der Erfindung werden an Hand der Zeichnung näher dargestellt und nachfolgend näher beschrieben. Es zeigen:
Fig. 1 ein Blockschaltbild eines Ausführungsbeispiels des erfindungsgemäßen Systems,
Fign. 1a bis g jeweils das chirurgisches Instrument als Teil des Ausführungsbeispiels des erfindungsgemäßen Systems gemäß Fig. 1 zur Verdeutlichung von unterschiedlichen Zuständen des Systems gemäß Fig. 1,
Fig. 2 ein Blockschaltbild als Ausführungsbeispiel einer Auswertungsschaltung gemäß der Erfindung mit Auswertung einer Tabelle,
Fig. 3 eine Darstellung zur Vermessung mittels zweier Instrumente sowie
Fig. 3a eine Darstellung zur Erläuterung einer Menu Auswahl mittels eines Instruments sowie
Fig. 3b eine Darstellung als Beispiel für eine Informationsanzeige, die über dem Schaftteil eines Instruments eingeblendet ist.
Bei dem in Fig. 1 dargestellten ersten Ausführungsbeispiel ist eine Endoskopkamera 1 mit einer Optik 2 mit einem Polarisationsfilter 2a vorgesehen, deren Ausgangs-Videosignal über in ihrer Funktion weiter unten näher zu beschreibenden Bewegungsdiskriminator 3 und eine Additionsschaltung 4 gelangt. Auch die Funktion des Polarisationsfilters 2a ist weiter unten näher dargestellt. Der Ausgang der Additionsschaltung 4 ist mit einem Monitor 5 verbunden, der für die Wiedergabe des von der Endoskopkamera 1 aufgenommen Bildes eingerichtet ist. Dieser Monitor 5 dient dem behandelnden Chirurgen zur Überwachung des Operationsgebiets in minimalinvasiver Technik.
Das Ausgangssignal der Endoskopkamera 1 gelangt zu einem Einzelbildspeicher 6, der zum Festhalten des jeweils aktuellen Bildes aus Videostream des Ausgangssignals der Endoskopkamera 1 ausgebildet ist. Die Endoskopkamera sendet mit dem Videostream ein darin enthaltenes Kennungssignal aus, welches sie Kennwerte der Optik 2 und die des in der Kamera 1 enthaltenen Bildwandler-Chips enthält bzw. eine diese kennzeichnende Codierung. Dieses Kennungssignal wird in einer Einheit zur Kameraerkennung 7 ausgewertet, welche eine Schaltung zur Geometrieentzerrung 8 ansteuert, die wiederum die die Korrekturwerte für die einzelnen Bildteile ermittelt, welche angeben, um welchen Betrag diese zu verschieben sind, um ein geometrisch „reines“ Bild zu erzeugen, das frei von Einflüssen ist, die durch individuelle Fehler oder Verzeichnungen der Kameraoptik hervorgerufen werden. Die Korrekturstufe für die Abbildungsgeometrie 9 erzeugt damit ein Bild, welches die wiederzugebenden Objekte in der Bildebene so darstellt, wie die geometrische Bildtransformation durch das Objektiv entsprechend der Linsengleichung erfolgen sollte.
Das Ausgangssignal der Korrekturstufe 9 gelangt zu einer Bildfeld- und Qualitätsauswahlstufe 10. Darin enthalten ist eine Umschalteinrichtung zur Auswertung in einer höheren Auflösung und zur Reduzierung auf ein ausgewähltes Bildfenster, so dass die Auswertung beschleunigt werden kann, wenn die Auflösung zur Auswertung zunächst (bei vergrößertem Bildfenster) zunächst reduziert und das ausgewählte Bildfenster dann bei aufgefundenem Auswertungsobjekt bei dann heraufgesetzter Auswertungsqualität verkleinert wird. Die anfängliche Auswertung erfolgt gewöhnlich bei geringer Auflösung und großem Bildfenster, während nach dem Auffinden einer Kante (wie nachfolgend beschrieben die Auflösung zur Erhöhung der Messgenauigkeit vergrößert und der Bildausschnitt auf den interessierenden Bereich (ROI) verkleinert wird.
Der Bildfeld- und Qualitätsauswahlstufe 10 nachgeschaltet ist eine Schaltung zur Verbesserung der Bilddarstellung 11 im Sinne einer Verbesserung der Auswertungsmöglichkeit durch die nachfolgenden Stufen. Diese Verbesserung besteht darin, dass diejenigen Anteile, des Bildinhalts, welche zur nachfolgend zu beschreibenden Konturerkennung beitragen, möglichst in ihrer Amplitude bzw. ihrer Auswirkung verstärkt werden, während diejenigen Bildanteile, die dazu nicht beitragen, in ihrer Auswirkung möglichst vermindert werden.
Diese Maßnahmen bestehen in einer Vergrößerung der Bildschärfe und/oder einer Kontrastvergrößerung. Diese werden entsprechend den üblichen Techniken der Bildverarbeitung ausgeführt. Eine bedeutsame Maßnahme ist eine Heraufsetzung der Rotanteile und eine Herabsetzung der Grünanteile bei einem schwarzen Schaft des Hilfswerkzeugs, während bei einem hellen Schaft die umgekehrten Maßnahmen günstig sind. Vorteilhaft ist ferner eine Schaftgestaltung bei der sich in Längsrichtung schwarze und helle umlaufende Streifen abwechseln, so dass durch Umschaltung zwischen den Maßnahmen in aufeinanderfolgenden Bildern oder Halbbildern eine Auswahl hinsichtlich der Qualität der weiter unten beschriebenen Kantenerkennung getroffen werden kann. Dies erfolgt durch eine Rückkopplungsleitung 12 wie sie ebenfalls weiter unten näher beschrieben ist.
Die in ihrer Wiedergabequalität geometrisch und inhaltlich verbesserte Bildinformation gelangt in eine Bildanalyseeinheit 13, welche die Stufen enthält, die zum eigentlichen Auffinden der interessierenden Information und zur Auswertung derselben vorgesehen sind. Die erste Stufe der Bildanalyseeinheit 13 bildet eine Einheit zur Kantenerkennung 14. Hierbei geht es um die Erkennung der in der ebenen Darstellung geradlinig begrenzten Randkonturen des zylindrischen Bereichs des chirurgischen Instruments. Dabei findet ein Algorithmus zur Geradenerkennung im Bild nach einer Differentiation ein Algorithmus nach Hough (die sogenannte Hough Transformation) Anwendung, welcher kollineare Punkte im Bild auffindet. Beim Auffinden von zwei derartigen Geraden in näherungsweiser paralleler Ausrichtung gibt die Stufe 14 ein Signal an die Bildauswahlstufe 10 zurück, welches auch den Bildbereich angibt, in dem die betreffenden Geraden aufgefunden wurden. Mittels der Bildauswahlstufe 10 wird damit ein Bildfenster (Bildsegment) zur weiteren Verarbeitung ausgewählt, das den Bereich der Geraden umfasst. Gleichzeitig wird hierfür auf eine höhere Bildauflösung umgeschaltet, so dass die weitere Verarbeitung mit größerer Genauigkeit erfolgen kann. Dabei muss hinzugefügt werden, dass das zur Auffindung der Geraden ausgewählte Bildfeld nicht das gesamte Bild umfasst, sondern ausschließlich den Randbereich, da die während der Operation benutzten Instrumente bei Bilddarstellung stets von außen in das Bild hineinragen, so dass sie auf diese Weise sicher erkannt werden können.
(Dieser Vorgang ist schematisch grafisch in Fig. 1a wiedergegeben und wird dort näher beschrieben.)
Nach dem Umschalten auf den kleineren Bildausschnitt, der mindestens die gesamten Geraden und einen noch weiter in deren Fortsetzung zur Bildmitte hin gelegenen Teil umfasst, wird dieser Bildteil in hoher Auflösung nach Heraufsetzung der Bildqualität der Stufe zur Kantenerkennung 14 und einer nachfolgenden Stufe zur Endbereichserkennung 15 (erneut) zugeführt, wobei die Verarbeitung jetzt mit hoher Qualität erfolgt. Von der Stufe 14 wird die Kantenerkennung erneut mit hoher Präzision (bei hoher Auflösung) durchgeführt und zur Erleichterung der geometrischen Verarbeitung die die Mittelachse der beiden erhaltenen Geraden errechnet und hinzugefügt. Mittels der Stufe 15 wird eine Kante in Querrichtung zu den bisher erkannten seitlichen Begrenzungen des Schaftteils des chirurgischen Instruments ermittelt und zwar an dem vom Bildrand entfernten Ende. Dabei dient als weiteres Kriterium der Umstand, dass die Gerade senkrecht zu den beiden seitlichen Begrenzungsgeraden der Darstellung verlaufen muss. Diese Begrenzung ist am Schaftteil deutlich hervorgehoben (siehe auch Figur 1b und die zugehörige Beschreibung.) und wird ebenfalls nach Differentiation mit der Hough-Transformation ermittelt.
Die in den Stufen 14 und 15 erfassten Strukturen werden als grafische Darstellung nach Art einer Kontur zusammengefügt und bilden in der Zusammenfassung ein „U“ (vgl. Fig. 1c) bzw. deren Symmetrieachse als Mittelachse des Zylinders und den auf der Achse befindlichen, das distale Ende des Schaftbereichs kennzeichnenden Punkt. (Beide Konstrukte sind einander gleichwertig und können entsprechend den Gegebenheiten verwendet werden.) Diese ebene Konturdarstellung wird in einen entsprechenden Konturspeicher 16 übertragen – zusammen mit einer Angabe über die ungefähre Position im Bild. Auf Grund der perspektivischen Abbildung des Schafts verlaufen die seitlichen Begrenzungsgeraden nicht parallel. Die Abweichung von der Parallelität kennzeichnet dabei die Neigung des Schafts um eine senkrecht zur Blickrichtung der Endoskop Optik gerichtete Achse.
Die die U-förmige Kontur bzw. deren Symmetrieachse und dem das distale Ende des Schafts bezeichnenden Punkt mit deren kennzeichnenden Daten in Pixel oder Vektordarstellung gelangen zum Eingang eines Optik-Rechners 17, der praktisch einen optischen Linsensimulator bildet, und die Linsengleichung als Transformation ausführt. Er errechnet jedoch nicht die Abbildung zu einem gegebenen Objekt für eine vorgegebene Optik, sondern errechnet für ein Objekt bekannter Kontur – hier das distale Schaftende eines chirurgischen Instruments – einer Fasszange – , dessen Abbildungskontur bekannt ist, die Position und Ausrichtung im Raum. Das ist deswegen besonders einfach, weil sich durch die Linsengleichung ebene Objekte unmittelbar in die Bildebene übertragen lassen. Da die gefundene Abbildungsstruktur eben ist, lässt sich unmittelbar eine entsprechende Kontur für das reale Objekt festlegen, welches ja im Wesentlichen zylindrisch und damit eindeutig definiert ist.
Da für die Ermittlung der räumlichen Position des realen Objektes die Position im Bild bekannt sein muss, wird sowohl von der Einheit für die Kantenerkennung 14 als auch derjenigen für Ende-Erkennung 15 jeweils ein räumlicher Bezugswert ermittelt, wobei sich dieser zusammensetzt aus der Richtung der Mittelachse des zylindrischen Schafts und der Richtung der Kante als Verbindung der Endpunkte der Kontur des zylindrischen Mantels des Schafts, so dass der resultierende Schnittpunkt in der Mitte des Querbalkens des U eine Referenz für die entsprechende Transformation zum Auffinden der Position und Ausrichtung der realen Instruments aufgrund der Kenntnis der Kontur eines Teils seiner Abbildung bildet.
Dem Optik-Rechner 17 werden für die vorzunehmende Berechnung noch Kenndaten der Optik – im Wesentlichen die Brennweite – und die Abmessungen des realen Instruments aus entsprechenden Speichern 18 und 19 zugeführt.
(Es soll hier bereits darauf verwiesen werden, dass der Optik-Rechner 17 auch als adressierbarer Nachschlagespeicher ausgeführt sein kann, wie es an Hand von Fig. 2 beschrieben ist. Damit lassen sich langwierige Berechnungszeiten verkürzen, was sehr vorteilhaft im Sinne der Echtzeitdarstellung ist.)
Als für die weitere Verarbeitung bedeutende Größe ist an sich nicht die Ausrichtung des Hilfswerkzeugs von Bedeutung, sondern die Position eines hervorstehenden Bezugspunkts für die Vermessung am distalen Ende des Hilfswerkzeugs, der bei einer Operation mit dem Gewebe zuerst in Berührung kommt und daher als Zeigeinstrument dient. Ausgegeben werden die Koordinaten dieses Referenzpunktes, der durch Verlängerung der Mittelachse des zylindrischen Schafts über die Position des Schnittpunkts mit dem Querbalken der U-Förmigen Kontur (entsprechend dem das Ende des Schaftes auf der Mittelachse des Zylinders definierender Punkt) in Richtung auf das distale Ende des Instruments um einen aus den Abmessungsdaten des Instruments entnehmbaren Distanzwert definiert ist, wobei allerdings noch dessen mögliche Exzentrizität zu berücksichtigen ist.
Der Wert dieser Exzentrizität als radialer Versatz erfordert die Kenntnis der Ausrichtung des Instruments in Bezug auf eine Rotation um seine Mittelachse. Im Bereich des Schaft-Endes ist eine Anzahl von Markierungen angebracht, welche nach Art von Digitalcodes optisch lesbar sind und eine digital codierte Information nach Art von QR-Codes aufweisen. (Dies wird näher an Hand von Fig. 2 erläutert werden.) Wichtig ist, dass die Codierung sicherstellt, dass Codierung derart erfolgt, dass die codierten Informationen bei Betrachtung aus unterschiedlichen Richtungen verschieden sind, so dass aus jeder Betrachtungsrichtung die radiale Ausrichtung des Instruments eindeutig entnehmbar ist. Ist – wie hier – eine Betrachtungsrichtung vorgegeben, so kann also aus dieser Betrachtungsrichtung die Ausrichtung des Instruments eindeutig zugeordnet werden.
Die Identifikation der optisch lesbaren Daten erfolgt in OCR-Baugruppe 20 innerhalb der Bildanalyseeinheit 13. Die der Kamera zugewandten Daten des entsprechenden Ringbereichs werden dem Optik-Rechner 17 übermittelt, der auch die Datenauswertung vornimmt und durch Vergleich mit einem entsprechenden in dem Instrumentendatenspeicher 19 vorhandenen Datensatz eine Winkelwert ausgibt zusammen mit einem festen Wert für den Betrag der Exzentrizität, der ebenfalls – spezifisch für das betreffende Instrument im Instrumentendatenspeicher 19 abgelegt ist. Damit ist auch bei einem exzentrisch zur Mittelachse gelegenen Referenzpunkt dessen Position über die dargestellten optischen Erkennungsschritte für das chirurgische Instrument eindeutig definiert, obgleich nur ein Teilbereich dieses Instruments zur Auswertung durch optische Beobachtung nutzbar war. Die räumliche Position ein einem entsprechend gewählten Bezugsdatensystem wird im Positionsspeicher abgelegt zusammen mit dem Maßstabsfaktor für die Abbildung in diesem Punkt – bezogen auf eine Ebene senkrecht zur Kamerablickrichtung.
Damit steht der Bezugspunkt an der Extremität als Zeiger mit einem Ausgangpunkt für die Vermessung innerhalb des Operationsfeldes (Situs) zur Verfügung. Durch die Berechnung in Echtzeit, kann dieser Bezugspunkt frei gewählt werden und bilden die Basis für die weiter unten dargestellten Features. Diese ebenfalls weiter unten noch zu beschreibenden grafischen Hilfsdarstellungen zum Erleichtern der Vermessung sind in einem Speicher für virtuell in das Bild einzublendende Grafiken 22 enthalten und können über eine Auswahlschaltung 23 wahlweise aktiviert werden. Dazu gehören beispielsweise eine Markierung des Bezugspunktes oder ein virtueller Messstab, der mit dem Bezugspunkt des Instruments verbunden und mit diesem im Bild bewegt werden kann. Über die Superpositionsstufe 4 erfolgt die Einblendung der mit dem Instrument geführten virtuellen Grafik ins laufende Kamerabild zur Darstellung auf dem Monitor.
Diese Darstellung ist davon abhängig, dass das wiedergegebene Bild in Ruhe ist und auch die Instrumente relativ ruhig gehalten werden, da sonst störende Bewegungsartefakte auftreten. Deswegen ist die Stufe zur Bewegungserkennung 3 vorgesehen, welche den optischen Fluss im Bild überwacht. Die Funktion entspricht etwa der einer optischen Computermaus, deren Prozessor auf das Kamerabild insgesamt anspricht und ein Signal abgibt, wenn die Bewegungsgeschwindigkeit einen vorgegebenen Schwellwert überschreitet. Das Ausgangssignal der Stufe zur Bewegungserkennung 3 sperrt den Ausgang des Positionsdatenspeichers 21, so dass keine Vermessungsinformation erscheint. Damit setzt die Aktivierung der Vermessungsfunktion einen Ruhezustand von Kamera und Werkzeug voraus, was ja auch eine Voraussetzung für das Ablesen von Messwerten ist. Bei normaler Aktivität im Situs, wie er mit der Ausführung von operativen Handhabungen einhergeht, ist die Vermessungsinformation ausgeschaltet und tritt daher auch nicht störend in Erscheinung.
Eine Verbesserung hinsichtlich der Genauigkeit der Einmessung der Position des Hilfswerkzeugs kann noch dadurch erreicht werden, dass auf dem Schaft des Hilfswerkzeugs vorzugsweise an dessen Endbereich umlaufende Ringe erzeugt werden, wie sie entsprechend der umlaufenden Endkante des Schaftbereichs detektiert werden können. Mindestens zwei parallele Ringteile oder einer zusätzlich zur ringförmigen Kante am Ende des zylindrischen Schaftbereichs, die sich im Sichtbereich der Kamera befinden, bilden dann in ihrer Ausrichtung eine oder mehrere Sprossen innerhalb des „U“ oder auf der Mittelachse bilden und durch ihren Abstand ein Maß für die Neigung des Schafts in Ergänzung zur Abweichung der senkrechten Striche des „U“ von der Parallelität.
Dies trägt zur Erhöhung der Genauigkeit bei, da die Abstandsänderung der Ringteile in Richtung der Schaftachse bei Änderungen der Ausrichtung des Endoskops um eine Achse quer zur Blickrichtung der Kamera wesentlich größer ist als die Änderung des Schaftdurchmessers aufgrund der örtlichen Maßstabsänderung der Bildwiedergabe entlang dem Schaft.
Zu erwähnen ist noch eine Schaltung zur Qualitätsoptimierung 24 bei der zyklisch verschiedene Werte, welche die Erkennbarkeit des Schafts des Instrumentes charakterisieren ausgewählt, getestet und dann festgehalten werden. Ausgewählt werden dann solche Parameter für die Bilddarstellung zur nachfolgenden aktuellen Analyse für die Positionsbestimmung des Instruments, welche in einem vorangegangenen Zeitraum statistisch die besten Ergebnisse gebracht haben. Die Details dieser Schaltung werden weiter unten an Hand von Fig. 3 näher beschrieben.
Des Weiteren von Bedeutung für die Signalerkennung ist eine Schaltung zur verzögerten Signalaufhebung 25, die von der Schaltung zur Bewegtbilderkennung 3 ein logisches Eingangssignal erhält, wenn wesentliche Bildteile in Bewegung sind, was über die Auswertung des optischen Flusses als Differentiation von Teilen des Bildinhaltes in Bezug auf Folgebilder erkannt wird. Wird beispielsweise die Kamera bewegt, so erscheint am Ausgang der Stufe 3 ein diesen Zustand anzeigendes Signal, was die Ausgabe der aktuellen Position des Instruments und des zugehörigen Maßstabswertes für dessen Bezugspunkt über den Reset-Eingang der Positionsdatenschaltung 21 verhindert. Die Aufhebung des Reset-Signals erfolgt verzögert durch die Verzögerungsschaltung 25, welche auch nach Beruhigung des Bildes das Reset Signal noch für eine Zeitdauer von etwa bis zu einer Sekunde andauern lässt, so dass eine Signalauswertung und Anzeige von Vermessungsdaten erst erfolgt, wenn die Kamera und das Instrument dezidiert ruhig gehalten werden. Damit ist einerseits verhindert, dass während aktiver Tätigkeit im Verlauf der Operation störende Informations-Überlagerungen auf dem Bildschirm erscheinen. Andererseits ist auch dafür gesorgt, dass in dieser Ruhephase die Verarbeitung ohne Bewegungsartefakte erfolgen und die erforderlichen Berechnungen mit hoher Präzision ausgeführt werden können. Der Übergang in die Ruhephase ist auch für die Schaltung für die Verbesserung der Erkennbarkeit des Instruments 11 von Bedeutung, denn durch das an diese Schaltung gelangende Ausgangssignal wird bewirkt, dass die Bildverarbeitung hinsichtlich ihrer Parameter auf jene Werte gesetzt wird, die sich im vorangehenden Zeitraum als besonders günstig für die Erkennbarkeit des Instruments erwiesen haben.
Nimmt man zu dem U (bzw. zur Mittelachse des Schaftes) zusätzlich Leitersprossen und zwar von den Querstreifen die mittleren Zonen - diese liegen zwar außerhalb der Mittelebene des Schafts - aber über die bekommt man die Neigung mit einem geringen Fehler, den man aber iterativ korrigieren kann, weil man ja die Neigung (und mit dem Durchmesser des Schafts) den Fehler kennt und so korrigieren kann, so dass die "Leiterbalken" in der Ebene des U liegen und dann hat man alle zur Ermittlung der Raumrichtung notwendigen Daten in einer ebenen Grafik aus der man über die Linsengleichung entsprechenden Objektgrößen und damit die räumliche Ausrichtung leicht errechnen kann.
Es soll darauf hingewiesen werden, dass das Blockschaltbild gemäß Figur 1 die Bildverarbeitung in Form von Baugruppen zur besseren Übersichtlichkeit in Form von Blöcken zeigt, die in ihrer Beschreibung eher an einer Hardware-Lösung orientiert ist. Die praktische Ausführung erfolgt heutzutage unter Benutzung von Prozessoren, hier einer Kombination von CPU und GPU im Zusammenwirken bzw. entsprechender Aufgabenteilung, wobei die im Zusammenhang mit den einzelnen Blöcken beschriebenen Funktionen durch dies Kombination von Prozessoren mit der entsprechenden Software in Echtzeit ausgeführt werden.
In Fig. 1a ist ein chirurgisches Instrument 100 gemäß der Erfindung in Form einer Fasszange in Seitenansicht dargestellt. Es weist einen zylindrischen Schaftbereich 101 auf, der eine matte dunkle Oberfläche aufweist, die mit einer Nanobeschichtung versehen ist, die Anhaftungen von Flüssigkeiten oder kleinen Partikeln verhindert. Das distale Ende des Schaftbereichs wird durch einen kontrastierenden Ring 102 markiert, an den ein Kodierungsbereich 103 anschließt, der digitale oder analoge Markierungen aufweist, die optisch detektierbar sind und sich je nach Blickrichtung, aus der man den Schaft betrachtet, unterscheiden.
Am distalen Ende des Instruments befinden sich die Zangenbacken 104 und 105, von denen der Backen 104 feststehend ist. Ein Bezugspunkt 106 befindet sich an dem Ende des Instruments, das bei der Benutzung als Zeigeinstrument mit dem Körpergewebe im Situs-Bereich zuerst in Kontakt kommt. Es ist der Bezugspunkt für Vermessungen oder für in den Bildschirm eingeblendete Vermessungsinstrumente oder –daten.
Der Schaft des Instruments erstreckt sich vom Randbereich 107 des Bildes her in den Bildteil, in dem eine Positionsauswertung des Instruments 100 erfolgen soll.
Da sich das Instrument bei seiner Handhabung zwangsläufig vom Rand 107 her in das Bild erstreckt geht ein Rechenprogramm zur Geradenerkennung im Bildinhalt zweckmäßiger Weise von diesem Randbereich 107 aus. Die Kante des Schaftbereichs 101 hebt sich durch ihre dunklere Farbe von ihrer Umgebung ab. Durch örtliche Differentiation des Bildsignals ergibt sich an der Kante ein Sprung in der Helligkeitsinformation, der für alle Bereiche entlang des Schafts zutrifft. Ein Suchalgorithmus, der auf derartige Punktfolgen anspricht, die auf Geraden liegen spricht hier an und findet nach Ausschluss möglicher anderer Geraden, die in Fig. 1a gestrichelt dargestellt sind, die geraden Umrisskanten 108 und 109 auf, wie es in Fig. 1b dargestellt ist. (In der Realität verlaufen die Kanten durch die Perspektive der Abbildung leicht konisch. Dies ändert aber nichts am Prinzip der Auswertung.) Aus Fig. 1b ist ferner ersichtlich, dass eine Mittelachse 101 des Schafts 100 aus der Richtung der Geraden 108 und 109 errechnet werden kann.
Die Neigung des Schafts 101 um eine Achse in der Zeichenebene, die senkrecht zur Mittelachse gerichtet ist lässt sich aus der Verjüngung des Schafts entlang seiner Mittelachse (in der Zeichnung nicht dargestellt) errechnen. Der Durchmesser (D) 112 des Schafts ist aus seinen Konstruktionsdaten bekannt und führt über seine Änderung entlang des Schafts über die ebenfalls bekannte Abbildungsgeometrie des Endoskopobjektivs durch Anwendung der entsprechenden Gleichungen zur Richtung der Mittelachse des Schafts im Bildraum.
Zur Verringerung von möglichen Fehlern bei der Berechnung dienen Ringe 111 bis 115, die in kontrastierender Färbung zu ihren Nachbarbereichen ausgebildet sind. Sie dienen einem mehrfachen Zweck: Der erste Ring 111 (vom Ende her gesehen) dient in der Nachbarschaft zum Ring 102 von heller Farbe, der das distale Ende des der unmittelbaren Vermessung dienenden Bereichs des Schaftes kennzeichnet, zu dessen Hervorhebung. Im Kontrast zu den an sie angrenzenden Zwischenbereichen dienen die Ringe im Randbereich des Schaftes zu dessen kontrastierender Abgrenzung zum Bildhintergrund, so dass durch die zebraartige Markierung die Außenkontur des Schafts hier besonders gut erkannt werden kann und somit über eine Interpolation über die zum Hintergrund besonders gut kontrastierenden Zonen die Erkennung der Konturgeraden108 und 109 verbessern, bzw. eine mögliche Kontrolle für deren korrekte Ermittlung bilden.
Eine weitere Funktion der Ringe 112 bis 116 besteht darin, dass durch die optische Auswertung ihres Abstands die Neigung des Schaftes zusätzlich zu der Auswertung seiner Konizität bestimmt werden kann. Es ist damit ein Mittel gegeben, welches ermöglicht, eine geometrische Größe, die optisch durch die einseitige Auswertung der Schaftkontur in der Draufsicht nicht sicher erkennbar ist, durch eine zusätzliche geometrische Struktur im Blickfeld der Kamera in ihrer Präzision zu verbessern.
Bevor auf eine weitere Eigenschaft der Ringe 112 bis 116 eingegangen werden soll, wird zunächst die Ermittlung des distalen Endes des Schaftes beschrieben, die für die weitere geometrische Auswertung von Bedeutung ist. Hierzu wird auf Fig. 1c verwiesen: Um den rechnerischen Bezugspunkt für das Ende des Schafts aufzufinden wird zunächst die Mittelachse 110 in Richtung distales Ende verfolgt bis man zum Ring 102 gelangt, der auf dem Umfang des Schafts dessen Ende markiert. Durch die bekannte Richtung des Schafts und die bekannte Bildgeometrie ist es möglich vom für die Kamera in Draufsicht erkennbaren Teil des Rings auf den Schnittpunkt 117 der vom Ring 102 umschlossenen Scheibe auf den Punkt 117 zu schließen und erhält so die Position des distalen Endes des Schafts und dessen Bezugspunkt 117.
Damit lässt sich die genaue Positionierung des und der jeweilige örtliche Abbildungsmaßstab errechnen durch das in Figur 1d abgebildete ebene U-förmige Konstrukt das besteht aus dem konstruktiven Endpunkt des Schafts als Bezugspunkt 117 und den parallelen die Kontur begrenzenden Geraden, welche im Abstand des Schaftdurchmessers verlaufen, so dass sich der örtliche Abbildungsmaßstab aus dem betreffenden Abstand im Bild ergibt.
Das Konstrukt gemäß Figur 1d ist dabei durch nur drei Punkte definiert, nämlich den Bezugspunkt für das Schaftende 117 und zwei Punkte einer der Geraden 108 oder 109, die ja zur Mittelachse 110 des Schafts symmetrisch verlaufen.
Um den Abbildungsmaßstab im Referenzpunkt 106 ermitteln zu können, muss, wenn dieser – wie anzunehmen – exzentrisch zur Mittelachse 110 des Schafts liegt, noch dessen Abstand vom Bezugspunkt 106 auf der Mitteachse110 und die Richtung und der Betrag der Exzentrizität bekannt sein, welche aus den Konstruktionsdaten des Instruments entnehmbar sind. Um diese Größen jedoch bei der geometrischen Auswertung einsetzen zu können, muss die Ausrichtung des Schafts 100 des Instruments im Bild bekannt sein. Da jedoch von einer zylindrischen – oder einer an die Zylinderform angenäherten – Schaftform ausgegangen werden muss, wird hier von einer weiteren optischen Kennzeichnung Gebrauch gemacht, die im Sichtbereich der Kamera angebracht und geeignet ist, fehlende Informationen über die räumliche Ausrichtung des Schaftes zu liefern.
Wie aus Fig. 1e ersichtlich, befindet sich zwischen den Ringen 112 bis 116 jeweils ein digitaler Code, der entsprechend einem QR-Code ausgebildet sein kann, nur, dass er ringförmig den Schaft umgibt und neben möglichen weiteren Informationen, eine eindeutige Kennung für die radiale Ausrichtung einer Exzentrizität des Referenzpunkts in Bezug auf die Schaftachse angibt. Hierfür ist jeweils der der Kamera nächstliegende Bereich des Kodes vorgesehen, soweit er im Wesentlichen unverzerrt im Sichtfeld der Kamera zu lesen ist. Neben der Ausrichtung können auch Kenninformationen über das Instrument, wie dessen geometrische Bezugsgrößen oder eine eindeutige Katalogkennzeichnung dort ablesbar sein, so dass für das Instrument keine Daten von extern übermittelt werden müssen, wenn eine entsprechende Katalogdatei im Gerät aktuell vorhanden ist.
Aus Fig. 1f ist ersichtlich, dass in den kodierten Bereichen zwischen den Ringen 113a bis 115a auch analoge Informationen (hier Flächen, mit in Umfangsrichtung veränderlicher Begrenzung) geeignet sind, um die radiale Ausrichtung des Schafts eindeutig in Sichtrichtung der Kamera erkennbar zu machen.
In Fig. 1g ist erkennbar, wie auf der Mittelachse 110 über deren Verlängerung vom Bezugspunkt 117 für das Ende des Schafts zum Referenzpunkt 106 extrapoliert werden kann, wenn die Distanz d zwischen den beiden Punkten und die Exzentrizität e aus den Konstruktionsdaten des Instruments 100 und die Richtung der Exzentrizität durch Auswertung der Kodierungen 103 bekannt ist. Das ebene geometrische Konstrukt gemäß Fig. 1d wird durch die Distanz d in Richtung der Mittelachse und die Exzentrizität e sowie den Raumwinkel φ ergänzt, der auf die Blickrichtung der Kamera bezogen ist.
Damit lässt sich mit wenigen Größen die geometrische räumliche Ausrichtung des Instruments 100 im Kamerabild errechnen, so dass der örtliche Maßstab im Bezugspunkt 106 errechnet und beispielsweise als virtuelles Lineal mit Bemaßung für eine Ebene senkrecht zur optischen Achse der Kamera angezeigt werden kann. Die Berechnungen dazu erfolgen in Echtzeit, so dass mit dem Instrument Gewebe kontaktiert werden kann, für dessen Umgebung Längenmessdaten – oder auch Berechnungen aus diesen Daten – unmittelbar angezeigt werden können, wobei das Werkzeug auch bewegt werden kann, wobei dann die Berechnung aktualisiert wird und das virtuelle Lineal der der Bewegung des Instruments folgt.
Für die Kamera braucht nur der Schaftbereich des Instruments sichtbar zu sein, was auch den Operationsbedingungen entspricht, da das Instrument bei seiner Handhabung mit der Kamera visuell verfolgbar sein muss.
Bei dem in Fig. 2 dargestellten Blockschaltbild einer Auswertungsschaltung für die Positionserkennung des Instruments als Ausführungsbeispiel der Erfindung handelt es sich um eine Lösung, die auf einer Tabellierung der möglichen Positionen und Maßstabsangaben beruht. Die im Bild ermittelten Angaben, welche die räumliche Ausrichtung des Hilfswerkzeugs betreffen, und sich als ebenes Konstrukt verstehen lassen, das durch diese Angaben definiert ist, können als Adressenwerte für einen Speicher verstanden werden, in dem die zu diesen Angaben gehörigen örtlichen Maßstabswerte auf die das entsprechend gehaltene Instrument „zeigt“ enthalten. Man kann demnach auch die entsprechenden Elemente als Komponenten eines Vektors auffassen. Anstelle der zeitaufwendigen aktuellen Berechnung der gesuchten Größen aufgrund der Abbildungsgleichungen des Objektivs ist es also ausreichend, einen Satz die ermittelten die Ausrichtung des Hilfswerkzeugs kennzeichnende Größen zu einer Adresse zusammenzufassen und den gesuchten Maßstabsfaktor für den betreffenden Bezugspunkt auszulesen. Dies vereinfacht sich insofern, als das Abbildungssystem zylindrisch ist, so dass bei Verwendung eines Polarkoordinatensystems lediglich ein Raumwinkel zu wählen ist, der zu einer Ebene gehört, die durch den Bezugspunkt 117 (in den Fign. 1a bis 1g) als Schnittpunkt der Mittelachse 110 des Instruments 100 mit der als distales Ende des Schafts (Ebene festgelegt durch den Ring 102) definiert ist. Ausgehend von diesem Raumwinkel in einem System, welches sich um die Blickrichtung der Kamera (optische Achse) zylindrisch anordnet, lässt sich dann in einem entsprechend programmierten Speicher der gesuchte Maßstabswert für den Bezugspunkt 106 auslesen, ohne dass dieser Speicher alle Werte eines räumlichen 360°-Systems abdecken muss.
Ein derartiger Speicher ist in Fig. 2 im Prinzip dargestellt. Der Speicher 200 enthält die Maßstabsdaten für einen Winkel in einem Polarkoordinatensystem dessen Bezugswinkel um die optische Achse der Kamera rotiert, so dass das Bezugssystem mit der Kamera verbunden ist. Die Adressierungsdaten sind die gemäß Figur 1d ermittelten Parameter bezogen auf den gewählten Raumwinkel (, der insbesondere mit dem Bezugspunkt 117 des Instruments 100 zusammenfällt). Da die Berechnung in Echtzeit, d.h. ohne nennenswerte Zeitverzögerung erfolgt, kann die Kamerabewegung außer Betracht bleiben, da für jede Kameraposition die erforderlichen geometrischen Daten sofort zur Hand sind. Dasselbe gilt auch für eine Bewegung des Instruments.
Bei entsprechender Adressierung lässt sich damit – praktisch zeitlos- der zur jeweiligen Instrumenten- und Kameraposition gehörige Maßstabsfaktor für den Ort, auf den das Instrument zeigt, auslesen und eine entsprechende Berechnung oder Darstellung auslösen.
Der Speicher 200 wird entweder als ROM fest programmiert geliefert, wenn die Kamera und das Instrument bekannt und fest vorgeben ist, oder es werden die im Speicher 200 abzulegenden Daten im Vorlauf errechnet, da während der Operation vor Beginn eines Messvorgangs dazu ausreichend Zeit ist. Das Berechnen der in den Speicher 200 einzulesenden Daten erfolgt durch einen Rechner 203, der mit den geometrischen Daten der Kamera und des Instruments gespeist wird.
In Fig. 3 ist dargestellt, wie zwei Instrumente 100 und 100a zu einer Messung zusammenwirken. Beide Instrumente werden – wie zuvor dargestellt – durch die Kamera erfasst und weisen unterschiedliche Kodierungen 103 und 103a, so dass den beiden Instrumenten 100 und 100a unterschiedliche Bezugspositionen 106 und 106a zugeordnet werden. In diesem Fall wird, wenn sie für eine kurze Zeit unbewegt gehalten werden, eine virtuelle Maßlinie 300 zwischen den Bezugspositionen 106 und 106a eingeblendet und die Entfernung geometrisch im Bild errechnet und eine entsprechende Maßzahl 301 angezeigt.
Aus Figur 3 ist ersichtlich, dass durch die kontinuierliche Auswertung der Instrumentenposition auch dessen Bewegungen (durch fortlaufende Differenzbildung) erkannt und ausgewertet werden können. Besonders interessant sind dabei Hub- und Rotationsbewegungen (302 bzw. 303) für deren präzise Erkennung spezielle Kodierungen 103 bzw.112 bis 116 in Fig. 1e vorgesehen sind. Bei Erkennung einer Hubbewegung wird ein Auswahlmenu 304 in das Bild eingeblendet. Die aktuelle Rotationsposition wird durch eine entsprechende Hervorhebung 303 angezeigt und auf eine weitere Hubbewegung des Schafts des Werkzeugs 100 die entsprechende Hubbewegung zur Ausführung des entsprechenden Menu Punktes ausgewertet.
Es ist ersichtlich, dass damit eine Vielzahl von Funktionen und Steuerungen ohne Loslassen der Instrumente ausgeführt werden können, wobei die Auswertung von Vertikal- und Rotationsbewegungen der modernen Computersteuerung angepasst ist, wobei entsprechend auch Wischbewegungen ausgewertet werden können.
Für die Darstellung von Informationen ergeben sich im Zusammenhang mit der hier vorgeschlagenen Lösung auch vielfältige Möglichkeiten. In Fig. 3b ist als Beispiel wiedergegeben, wie eine Informationsanzeige in einem Bereich 306 im Bereich des Schafts des Instruments dargestellt wird. Wohlgemerkt stellt die Anzeige nur eine Einblendung in die Schriftdarstellung des Schaftbereichs dar, wobei der Bereich 306 in seiner Position aus der Position der Rotationsachse des Instruments und dem Schaftende geometrisch errechnet wird und so mit dem Instrument fest verbunden scheint.

Claims (21)

  1. Endoskopisches Bildverarbeitungssystem für die Chirurgie, enthaltend eine Endoskop-Kamera, ein in den Aufnahmebereich der Kamera einbringbares chirurgischen Instrument, dessen Schaftbereich über seine Bildabmessungen eine geometrische Distanzinformation in Form einer optischen Information erzeugt, die zusammen mit mindestens einem Bild der von der Kamera aufgenommenen laufenden Bildinformation verarbeitet, detektiert, von der Bildinformation separiert und weiter aufbereitet wird, um eine Vermessungsinformation aus dem von der Digitalkamera aufgenommenen Bildinhalt durch Vergleich mit einer gespeicherten Abbildungsinformation des Instruments zu erhalten, wobei die Vermessungsinformation den Abbildungsmaßstab in einer zur optischen Achse der Kamera senkrechten Ebene darstellt und auf einen Bezugspunkt des Instruments bezogen ist, der eine zur Kontaktierung von Körpergewebe hervortretende Form und Position aufweist,
    gekennzeichnet durch
    Erkennungsmittel für die seitlichen radialen Begrenzungen des zylindrischen Schaftbereichs des Instruments mittels dessen Konturlinien im Bild,
    Mittel zur geometrischen Errechnung der die Rotationsachse des Schaftbereichs bildenden Symmetrieachse zu den Konturlinien,
    Erkennungsmittel für die den zylindrischen Schaftbereich nach distal hin begrenzende Konturlinie und Rechenmittel zur Reduzierung dieser Konturlinie zu einer einen Schaftdurchmesser bildenden Geraden, die an die den Schaftbereich begrenzenden Konturlinien im Wesentlichen senkrecht anschließt und die Mittelsenkrechte im rechten Winkel schneidet, so dass eine in einer Ebene verlaufende Linienstruktur gebildet wird,
    Rechenmittel zum Ermitteln der räumlich-virtuellen Ausrichtung des Instruments über die Abbildungsgeometrie des Endoskop-Objektivs auf Grund der Linienstruktur einer für das betreffende Instrument gespeicherten Abbildungsinformation bzw. diese Linienstruktur kennzeichnende Parameter der entsprechenden Geradengleichungen einschließlich der Ermittlung des örtlichen Abbildungsmaßstabs in einer senkrecht zur optischen Achse der Kamera verlaufenden Bildebene als Vermessungsinformation für den Bezugspunkt des Instruments auf Grund der in der gespeicherten Abbildungsinformation enthaltenen Angabe betreffend seine relative Position zu der Linienstruktur bzw. betreffend den räumlichen Abstand zum Schnittpunkt des das distale Ende des Schaftbereichs bezeichnenden Durchmessers auf der Verlängerung der Rotationsachse des Schafts.
  2. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass in den Rechenmitteln zum ersten Auffinden der geometrischen Daten von Daten der die radialen Begrenzungen des Schafts bildenden Konturlinien ein Algorithmus zur Geradenerkennung vorgesehen ist, bei dem eine Gerade als Begrenzung des Instrumentenschafts durch eine im Wesentlichen geradlinige Linie von Punkten definiert ist, welche einander entsprechende Änderungen von Bildparametern wie Farbe oder Helligkeit aufweisen.
  3. Endoskopisches Bildverarbeitungssystem nach Anspruch 2, dadurch gekennzeichnet, dass für die Rechenmittel für den Algorithmus zur Geradenerkennung als Ausgangswerte jeweils Positionen in der Nachbarschaft des Bildrands vorgegeben sind, von denen bei der Berechnung ausgegangen wird.
  4. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Rechenmittel ausgebildet sind, um die die geometrischen Daten der Mittelachse des zylindrischen Schafts als Symmetrieachse zweier paralleler oder in einem spitzen Winkel zueinander verlaufender als Begrenzung des Instrumentenschafts erkannter Geraden zu speichern.
  5. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Rechenmittel einen Algorithmus zum Erkennen einer quer zur Symmetrieachse verlaufenden Kontur als distale Begrenzung aufweisen.
  6. Endoskopisches Bildverarbeitungssystem nach Anspruch 5, dadurch gekennzeichnet, dass diese Position der distale Begrenzung entsprechend der durch die Konvergenz der Geraden ermittelten Neigung des Schaftes in Bezug auf die Symmetrieachse korrigiert wird, so dass sie das distale Ende des Schafts auf der Mittelachse präzise definiert und sich aus den die Kontur begrenzenden Geraden und der auf die Mittelachse verlegten das distale Ende des Schaftes bezeichnenden Geraden eine ebene geometrische Figur ergibt, die durch die Parameter der entsprechenden Geradengleichungen definiert ist.
  7. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass auf dem Schaft eine aus mehreren radialen Richtungen optisch lesbare Information aufgebracht ist, die abhängig von der Betrachtungsrichtung und dabei für jede Betrachtungsrichtung einmalig ist.
  8. Endoskopisches Bildverarbeitungssystem nach Anspruch 7, dadurch gekennzeichnet, dass die Information die Richtung der Ausrichtung der Zangenbacken und/oder einer Exzentrizität des Bezugspunktes zur Verlängerung der Achse des zylindrischen Schaftbereichs bezeichnet.
  9. Endoskopisches Bildverarbeitungssystem nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die aus mehreren radialen Richtungen eine optisch lesbare Information analoge oder digitale Struktur nach Art eines EAN- oder QR-Codes aufweist
  10. Endoskopisches Bildverarbeitungssystem nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass die aus mehreren radialen Richtungen optisch lesbare Information eine den zylindrischen Schaftbereich ringförmig umlaufende Markierung bildet.
  11. Endoskopisches Bildverarbeitungssystem nach Anspruch 10, dadurch gekennzeichnet, dass diese ringförmige Markierung zusammenfällt mit der distalen Begrenzung des Schafts oder dessen Kante bildet, wobei die optisch hervorgehobene Kante oder umlaufende Kennzeichnung eine geometrische Bezugsgröße für die Begrenzung der Länge des Schafts in axialer Richtung bildet.
  12. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine weitere ringförmig umlaufende Markierung in einem Abstand zu einer ersten ringförmigen Markierung zur Verbesserung der Ermittlung der räumlichen Ausrichtung des Schaftes durch Auswertung des Abstands in der Abbildung in Richtung des Schafts unter Berücksichtigung der optischen Verkürzung vorgesehen ist.
  13. Endoskopisches Bildverarbeitungssystem nach Anspruch 12, dadurch gekennzeichnet, dass mehrere Ringe unterschiedlicher Farbgebung auf dem Schaft angeordnet sind, wobei Mittel vorgesehen sind, welche bei der Ermittlung des Kantenbereichs des Schafts die Kantenbereiche derjenigen Ringe auswählen, deren Farbe mit dem aktuellen Hintergrund am meisten kontrastiert.
  14. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Ausgabe Daten einer Bildposition oder einer Kontur durch Eingabe der sie bezeichnenden Parameter durch Adressierung einer Tabelle mit einer Adresse erfolgt, welche diese Parameter enthält.
  15. Endoskopisches Bildverarbeitungssystem nach Anspruch 14, dadurch gekennzeichnet, dass die Abbildungsgeometrie der Kamera und die Geometrie des Instruments ebenfalls tabelliert sind.
  16. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der zylindrische Schaftbereich des Instruments mit einer matt schwarzen Oberfläche versehen ist, die kontrastierende Beschriftungs- oder Kodierungselemente aufweist.
  17. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Oberfläche mindestens des Schaftbereichs des Instruments mit einer flüssigkeitsabweisenden Nanobeschichtung versehen ist.
  18. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Auswertungsmittel für eine Hub-, Rotations- oder Querbewegung des Instruments über eine entsprechende Erkennung einer Positionsveränderung in aufeinanderfolgenden Bildern vorgesehen sind, um auf diese Weise eine Steuerfunktion auszulösen.
  19. Endoskopisches Bildverarbeitungssystem nach Anspruch 17, dadurch gekennzeichnet, dass die Auswertungsmittel in ihrer Funktion einer Gestik- oder Menu-Steuerung entsprechen.
  20. Endoskopisches Bildverarbeitungssystem nach Anspruch 17 oder 18, dadurch gekennzeichnet, dass die Auswertungsmittel zur Erkennung der entsprechenden Bewegung von mehr als einem Instrumente ausgelegt sind, wobei sich die einzelnen Instrumente durch optisch auswertbare Markierungen voneinander unterscheiden.
  21. Endoskopisches Bildverarbeitungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Objektiv der Kamera mit einem Polarisationsfilter versehen ist.
PCT/DE2016/200450 2015-10-01 2016-09-27 Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen WO2017054817A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE112016004461.5T DE112016004461A5 (de) 2015-10-01 2016-09-27 Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015013038 2015-10-01
DE102015013038.2 2015-10-01

Publications (1)

Publication Number Publication Date
WO2017054817A1 true WO2017054817A1 (de) 2017-04-06

Family

ID=57256016

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2016/200450 WO2017054817A1 (de) 2015-10-01 2016-09-27 Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen

Country Status (2)

Country Link
DE (1) DE112016004461A5 (de)
WO (1) WO2017054817A1 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111936030A (zh) * 2018-06-22 2020-11-13 奥林巴斯株式会社 界标估计方法及内窥镜装置
US11007018B2 (en) 2018-06-15 2021-05-18 Mako Surgical Corp. Systems and methods for tracking objects
CN112971688A (zh) * 2021-02-07 2021-06-18 杭州海康慧影科技有限公司 图像处理方法、装置及计算机设备
EP3881793A1 (de) * 2020-03-17 2021-09-22 CHU de NICE Chirurgisches instrument und computerimplementiertes verfahren zur bestimmung der position und ausrichtung eines solchen chirurgischen instruments
NL2026208B1 (en) * 2020-08-04 2022-04-08 Stichting Het Nederlands Kanker Inst Antoni Van Leeuwenhoek Ziekenhuis Surgical forceps and stapler
WO2022187408A1 (en) * 2021-03-03 2022-09-09 Boston Scientific Scimed, Inc. Measurement markings in distal tip imaging field of view
US11540706B2 (en) * 2017-04-13 2023-01-03 V.T.M. (Virtual Tape Measure) Technologies Ltd. Method of using a manually-operated light plane generating module to make accurate measurements of the dimensions of an object seen in an image taken by an endoscopic camera
CN116439636A (zh) * 2023-03-08 2023-07-18 极限人工智能有限公司 一种器械、内窥镜系统、医疗系统及其定位控制方法
CN117788558A (zh) * 2024-02-26 2024-03-29 季华实验室 圆柱体中轴线识别方法、装置、电子设备及存储介质
CN117796745A (zh) * 2024-02-29 2024-04-02 四川大学 一种估计消化内镜镜头进退距离的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6036637A (en) * 1994-12-13 2000-03-14 Olympus Optical Co., Ltd. Treating system utilizing an endoscope
US6459481B1 (en) 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
WO2010061293A2 (en) 2008-11-26 2010-06-03 Haptica Limited System and method for measuring objects viewed through a camera
US20100168763A1 (en) * 2008-12-31 2010-07-01 Intuitive Surgical, Inc. Configuration marker design and detection for instrument tracking
DE102009038021A1 (de) 2009-08-18 2011-02-24 Olaf Dipl.-Ing. Christiansen Bildverarbeitungssystem mit einer zusätzlichen zusammen mit der Bildinformation zu verarbeitenden Maßstabsinformation
WO2012107041A1 (de) 2011-02-11 2012-08-16 Olaf Christiansen Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen
US20150164606A1 (en) * 2013-12-13 2015-06-18 Depuy Synthes Products Llc Navigable device recognition system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6036637A (en) * 1994-12-13 2000-03-14 Olympus Optical Co., Ltd. Treating system utilizing an endoscope
US6459481B1 (en) 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
WO2010061293A2 (en) 2008-11-26 2010-06-03 Haptica Limited System and method for measuring objects viewed through a camera
US20100168763A1 (en) * 2008-12-31 2010-07-01 Intuitive Surgical, Inc. Configuration marker design and detection for instrument tracking
DE102009038021A1 (de) 2009-08-18 2011-02-24 Olaf Dipl.-Ing. Christiansen Bildverarbeitungssystem mit einer zusätzlichen zusammen mit der Bildinformation zu verarbeitenden Maßstabsinformation
WO2012107041A1 (de) 2011-02-11 2012-08-16 Olaf Christiansen Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen
US20150164606A1 (en) * 2013-12-13 2015-06-18 Depuy Synthes Products Llc Navigable device recognition system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11540706B2 (en) * 2017-04-13 2023-01-03 V.T.M. (Virtual Tape Measure) Technologies Ltd. Method of using a manually-operated light plane generating module to make accurate measurements of the dimensions of an object seen in an image taken by an endoscopic camera
US11510740B2 (en) 2018-06-15 2022-11-29 Mako Surgical Corp. Systems and methods for tracking objects
US11007018B2 (en) 2018-06-15 2021-05-18 Mako Surgical Corp. Systems and methods for tracking objects
US12003869B2 (en) 2018-06-15 2024-06-04 Mako Surgical Corp. Systems and methods for tracking objects
US11723726B2 (en) 2018-06-15 2023-08-15 Mako Surgical Corp. Systems and methods for tracking objects
CN111936030A (zh) * 2018-06-22 2020-11-13 奥林巴斯株式会社 界标估计方法及内窥镜装置
WO2021185811A1 (en) * 2020-03-17 2021-09-23 Chu De Nice Surgical instrument and computer-implemented method for determining the position and orientation of such surgical instrument
EP3881793A1 (de) * 2020-03-17 2021-09-22 CHU de NICE Chirurgisches instrument und computerimplementiertes verfahren zur bestimmung der position und ausrichtung eines solchen chirurgischen instruments
WO2022031169A3 (en) * 2020-08-04 2022-06-23 Stichting Het Nederlands Kanker Instituut - Antoni Van Leeuwenhoek Ziekenhuis Surgical forceps and stapler
NL2026208B1 (en) * 2020-08-04 2022-04-08 Stichting Het Nederlands Kanker Inst Antoni Van Leeuwenhoek Ziekenhuis Surgical forceps and stapler
CN112971688B (zh) * 2021-02-07 2024-05-31 杭州海康慧影科技有限公司 图像处理方法、装置及计算机设备
CN112971688A (zh) * 2021-02-07 2021-06-18 杭州海康慧影科技有限公司 图像处理方法、装置及计算机设备
WO2022187408A1 (en) * 2021-03-03 2022-09-09 Boston Scientific Scimed, Inc. Measurement markings in distal tip imaging field of view
CN116439636A (zh) * 2023-03-08 2023-07-18 极限人工智能有限公司 一种器械、内窥镜系统、医疗系统及其定位控制方法
CN116439636B (zh) * 2023-03-08 2023-11-24 极限人工智能有限公司 一种器械、内窥镜系统、医疗系统及其定位控制方法
CN117788558A (zh) * 2024-02-26 2024-03-29 季华实验室 圆柱体中轴线识别方法、装置、电子设备及存储介质
CN117788558B (zh) * 2024-02-26 2024-05-07 季华实验室 圆柱体中轴线识别方法、装置、电子设备及存储介质
CN117796745A (zh) * 2024-02-29 2024-04-02 四川大学 一种估计消化内镜镜头进退距离的方法
CN117796745B (zh) * 2024-02-29 2024-05-03 四川大学 一种估计消化内镜镜头进退距离的方法

Also Published As

Publication number Publication date
DE112016004461A5 (de) 2018-06-21

Similar Documents

Publication Publication Date Title
WO2017054817A1 (de) Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen
EP3557523B1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
DE3150124C2 (de) Vorrichtung zur Untersuchung der vorderen Augenabschnitte
DE3424806C2 (de)
DE69913106T2 (de) Verfahren und gerät zur roboterausrichtung
DE60218406T2 (de) Ophthalmische Vorrichtung
DE4439557C2 (de) Verfahren und Einrichtung zum Eichen der Vergrößerung von Zoomoptik-Systemen
DE102006024242A1 (de) Verfahren zur Detektierung einer Abweichung eines Röntgensystems in Bezug auf eine Soll-Position
DE102015212352A1 (de) Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts
DE102018119343B4 (de) Verfahren zur Kalibrierung von Objekten in einem Referenzkoordinatensystem und Verfahren zum Tracking von Objekten
DE102014007909A1 (de) Chirurgisches Mikroskop
DE102005018349B4 (de) Verfahren zur Bestimmung der Lage eines Patienten in einem Magnetresonanzgerät und Magnetresonanzeinrichtung
DE102011005259A1 (de) Verfahren und System zur Darstellung videoendoskopischer Bilddaten eines Videoendoskops
DE102013203399A1 (de) Verfahren und Projektionsvorrichtung zur Markierung einer Oberfläche
DE102014102425B4 (de) Mikroskopsystem und Mikroskopieverfahren unter Verwendung digitaler Marker
DE60216557T2 (de) Formmessvorrichtung
DE102019211870A1 (de) Projektionsvorrichtung zur Erzeugung einer Lichtverteilung auf einer Oberfläche eines Untersuchungsobjekts zur Ausrichtung eines medizinischen Objekts und Verfahren zur Projektion einer Lichtverteilung auf eine Oberfläche eines Untersuchungsobjekts
DE102016215831A1 (de) Automatische Generierung synthetischer Projektionen
EP3248173B1 (de) Assistenzeinrichtung und verfahren zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs unter verwendung mindestens eines medizinischen instrumentes
DE102017113615A1 (de) System, Verfahren und Marker zur Positionsbestimmung eines beweglichen Objektes im Raum
DE102016105962A1 (de) Positionsermittlungsanordnung für Intraokularlinse
EP1813911A1 (de) Positionsbestimmungssystem
DE102008009190A1 (de) Verfahren zur automatischen Bestimmung der Ruhephase des Herzens
DE19954047B4 (de) Verfahren und Anordnung zum Erfassen von mehrdimensionalen Augenbewegungen sowie Markierungs-Tinktur hierfür
DE102017216953A1 (de) Anzeige eines mit einem realen Objekt verknüpften virtuellen Objekts in einer Augmented-Reality-Anzeigevorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16793740

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112016004461

Country of ref document: DE

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112016004461

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16793740

Country of ref document: EP

Kind code of ref document: A1