WO2012107041A1 - Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen - Google Patents

Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen Download PDF

Info

Publication number
WO2012107041A1
WO2012107041A1 PCT/DE2012/200007 DE2012200007W WO2012107041A1 WO 2012107041 A1 WO2012107041 A1 WO 2012107041A1 DE 2012200007 W DE2012200007 W DE 2012200007W WO 2012107041 A1 WO2012107041 A1 WO 2012107041A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
instrument
camera
information
auxiliary instrument
Prior art date
Application number
PCT/DE2012/200007
Other languages
English (en)
French (fr)
Inventor
Olaf Christiansen
Original Assignee
Olaf Christiansen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olaf Christiansen filed Critical Olaf Christiansen
Priority to DE112012000752T priority Critical patent/DE112012000752A5/de
Priority to EP12717164.3A priority patent/EP2672915A1/de
Priority to US14/004,229 priority patent/US9691162B2/en
Publication of WO2012107041A1 publication Critical patent/WO2012107041A1/de

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00057Operational features of endoscopes provided with means for testing or calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F04POSITIVE - DISPLACEMENT MACHINES FOR LIQUIDS; PUMPS FOR LIQUIDS OR ELASTIC FLUIDS
    • F04CROTARY-PISTON, OR OSCILLATING-PISTON, POSITIVE-DISPLACEMENT MACHINES FOR LIQUIDS; ROTARY-PISTON, OR OSCILLATING-PISTON, POSITIVE-DISPLACEMENT PUMPS
    • F04C2270/00Control; Monitoring or safety arrangements
    • F04C2270/04Force
    • F04C2270/041Controlled or regulated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the invention relates to an image processing system specified in the preamble of claim 1, which is particularly useful for medical purposes.
  • Such image processing systems are used today, for example in the form of digital endoscope cameras both in the general technology - in hard to reach repair sites - as well as in minimally invasive surgery. Due to the short focal length of the cameras used, they have a relatively large depth of field, which is also necessary so that the operator has a good overview of the work area and the objects viewed do not get out of the focus area with each movement of the endoscope.
  • the corresponding cameras have a fixed distance setting that is adapted to the work area.
  • the depth of field may in known systems include, for example, a range of 1 mm to infinity.
  • the displayed size on a display monitor can not be used as a reference for other elements or implants to be introduced into the work area.
  • the true size of objects and their distances between them can therefore only be estimated with great difficulty when viewed endoscopically.
  • a multi-point laser projection method is known, with the aid of which laser markings are generated on an object from the surroundings of the optics, which are then taken together with the image information and filtered out of the object in a postprocessing of the finished image and assigned geometric information due to their arrangement in the image become.
  • statements can be made about the distances of the laser markings from each other or their distance from the camera optics.
  • This system can also be used accordingly in medical image reproduction, as described in http://www.egms.de/de/meetings/hnod2009/09hnod324.shtml . This is done manually based on the determined by means of laser points distances of the object on the volume.
  • US 6891148B1 also discloses a system for generating parallel laser beams for the scaling of photographic images. Measures to influence the imaging scale are also not provided.
  • a disadvantage is that the evaluation is not done in real time, so that the results are not immediately available.
  • the endoscope for evaluation must not be pulled out of the access opening. Nevertheless, there is still a significant interruption of work, which can not be tolerated, for example, in minimally invasive operations in the medical field.
  • a special endoscope camera with means for generating laser markings is required, which appear at fixed points.
  • US Pat. No. 7206006B2 also discloses an image processing system with which a distance information determined on the basis of a distance measurement between the camera and the object is set to the scale of an image to be reproduced so that the object is reproduced in original size. In this case, there is the difficulty of making the measurement also the respective relevant object parts whose reproduction is essential to the original scale. In addition, a rangefinder is not useful in endoscopic image processing systems.
  • the invention has for its object to provide an image processing system of the type mentioned above, with which it is possible for an operator during - especially endoscopic - observation exclusively with a normal endoscope camera on a display monitor to make estimates in the operating area with great accuracy and also measurements and Immediate processing without the need for manual measurements on the inside using mechanical or electronic scales or measuring aids. Also, the measurement should be possible immediately during the ongoing observation, so that not only a still image for subsequent measurement must be selected and edited. This is particularly advantageous for minimally invasive operations carried out under endoscopic observation, in which the burden on the patient is to be kept low by keeping the operating time as short as possible. The survey should readily take into account the local scale of the image information recorded by the camera at the measuring point, without the need for later conversions.
  • the invention is based on the recognition that an instrument used in an endoscopic examination, which is located in the field of view of the endoscope camera, can be used for automatically executing geometric calculations by means of data processing if it is possible to automatically detect and normalize the proportions of the instrument. such that the image scale of objects near the instrument is known and can be used to automatically perform geometric measurements and calculations.
  • the geometric distance information forms the basis for the scale information, which in turn serves as a local scale factor for converting the local length dimensions in the image into real dimensions.
  • the comparison information consists of images of the distal part of the auxiliary instrument from different directions and forms the reference base for the size adjustment of the auxiliary instrument to determine its magnification and spatial orientation in the image.
  • the geometric reference information forms the relationship between a reference location and the map to be able to define the position of a geometric reference location (optical identification of the geometric location) of the imaged instrument with respect to the image origin of the map
  • the cursor forms the optical identification of the associated geometric reference location of the instrument in the image when the stored image of the instrument has been aligned with the image representation and the reference location associated with the image is transferred to the screen.
  • surveying information includes the combination of scale and reference location.
  • such measurements may be used in estimating size dimensions of objects or even motions, including those of the instrument itself.
  • auxiliary energy in the observation room it is thus possible to measure the image scale and the distance from the camera by means of the use of an auxiliary instrument as a reference at at least one image position. From the size of the image of the distal region of an otherwise common instrument or an instrument part in the current playback, a known distance information is determined from the image and the local scale of the reproduction of the environment - by conversion into a survey information - closed. In other endoscopic applications, a working instrument can often be introduced into the field of view of the camera through an additionally available working channel.
  • This survey information is the reference for the image scale in the distal area of the auxiliary instrument.
  • the image scale of the adjacent object area can be determined, so that distances can be measured directly from the image. It is also possible to visually connect a virtual dipstick to the image of the distal end of the instrument so that it can be moved with the instrument to take measurements on the object when the instrument recognition in the image is continuously updated with the corresponding evaluation in real time.
  • a geometrical distance information is generated by the image of a part of the auxiliary instrument to be introduced into the receiving area of the camera in the detection area of the optical digital camera within the observation space, which generates scale by comparison with the stored image of the relevant part of the auxiliary instrument. It is not necessary that the geometric distance information directly on the surface of the instrument readable or otherwise removed. The distance information can also be obtained implicitly by matching the camera image with the stored comparison image of the instrument.
  • the scale factor in this case is not determined from a dimension taken from the image information, but directly from the factor to be set during the size adjustment.
  • auxiliary instrument acts as a "pointer"
  • Memory means are in particular provided for a mapping of the relevant part of the auxiliary instrument as comparison information for the purpose of comparison with views contained in the current camera image from different directions in coarse and fine representation or means for the corresponding on-demand reduction of the image information of the stored image.
  • any data representation is suitable which is able to find a reference for finding the image of the auxiliary instrument or its relevant part in the recorded camera image.
  • This may in particular be an all-round representation of the surface of the end region or a corresponding three-dimensional representation, this being preferably matched to the comparison method used.
  • pixel or vector representations are suitable, as they can also be used for methods of content-based image search with the corresponding mathematical methods.
  • geometrical information is generated in the detection range of the optical digital camera, which is processed together with the image information and then detected and used to generate additional geometric data concerning the image content as survey information.
  • the survey information is thereby obtained from one of the image of the auxiliary instrument, which may be formed as a normal surgical instrument, wherein the image of a part of the auxiliary instrument extracted from the camera image and serves as a reference for the magnification.
  • an additional geometric information is then inserted true to scale in fixed relation to the auxiliary instrument in the current camera image as a virtual measuring or display element. Normally, this will be a cursor indicating that the auxiliary instrument has been captured and used for scaling. For example, this can also be a dipstick that appears in the image attached to the auxiliary instrument and can be "operated" with this.
  • the storage means also includes a geometric reference point in fixed relative geometric association with the image stored in the first storage means. This virtual reference point is superimposed after the detection of the position of the auxiliary instrument and its scale in the image as a reference position as a cursor-like optical marking in the current camera image to obtain a defined reference point for the positioning of the instrument.
  • This reference defines the starting point for measurements and instrument movements to be recorded. Preferably, it is located in a projecting portion of the instrument, which comes directly into contact with the body tissue, so that it also forms the calculation point for the local image scale, which is thus as closely as possible attached to an image adjacent to the instrument part object.
  • the current position of the instrument in the camera image is compared by a first rough comparison recognized by the current image and stored image.
  • the further fine adjustment detector means for adjusting the size and orientation of the stored image of the sub-image of the auxiliary instrument relative to the corresponding image of the auxiliary instrument in the camera image, taking into account its perspective distortion to obtain a congruent position by (iteratively) selecting one of several views from different directions and their displacement in the camera image in different coordinate directions while changing the magnification of the exact position of the auxiliary instrument and its orientation and size is determined so that the position of the instrument part of interest is accurately detected.
  • a "virtual" graphic to be superimposed into the current image is generated, which is adapted in size and orientation to the controlling auxiliary instrument and can interact with the remaining image content for the viewer. This is useful, for example, for measurements or even more complex calculations, which can be carried out depending on the position of the virtual graphic. It is important that the graphic depends on the position and orientation of the relevant part of the auxiliary instrument, so that it fits into the image to scale and that the measurements can also be made true to scale.
  • the graphic represents a ruler emanating from the end of the instrument, which is directed parallel to the image plane (ie perpendicular to the optical axis).
  • the local scale is determined and a corresponding length division (in a freely selectable unit of length) is represented by the ruler so that the user can move this ruler by a corresponding movement of the instrument can use like a dipstick.
  • a large number of distance information can be obtained by the optical evaluation of the image of an introduced by an additional opening auxiliary instrument in the field of view of the endoscope camera and its subsequent processing of the recorded image, which are not available in immediate viewing.
  • the online evaluation in real time also allows the resulting data to be imported directly into the camera image, thereby enabling the operator - and in the case of medical application to the surgeon - to incorporate the insights gained directly into his current working method.
  • a size estimation, adaptation and selection of implants can be made directly with the existing presentation means in the sterile area of the operating room.
  • This also includes ongoing information about the position of the instrument itself, so that the data obtained can also be the basis for a tracking system (datalogger).
  • the length of the connecting line is determined from the local image positions of the distal ends of the two instruments on the basis of the determined local scale and displayed digitally in the image. If the local scales at the two instrument ends are different, this can be taken into account in the calculation by averaging.
  • two instruments can also be used, the distal ends of the two jaws of a pair of pliers.
  • a line generated by a laser source, which is projected obliquely onto the object by the auxiliary instrument, can form-from a camera's point of view-a contour line which enables a judgment of the topology of the object captured by the camera, also from the lateral direction.
  • This is particularly favorable for gaps or cracks in the object, which are to be measured to scale to repair purposes.
  • spatial unevenness can be seen, which lead to different magnifications, so that with the selection of the areas of the local survey on this particular consideration can be taken.
  • the system according to the invention is suitable not only for endoscopic applications, but also for open repairs in which the work area of the workpiece for immediate adjustments is not accessible - whether it is too sensitive for repeated manipulations or whether its surface properties only by additional image processing becomes recognizable to the human observer. In the medical field, these would be open surgery in which implants are to be fitted without repeated try-on while avoiding direct contact with the patient's body.
  • the auxiliary instrument can also be used as a pointer (cursor) or to trigger the function.
  • the instrument can as a "mouse replacement" a function selection and control by means of menu selection and / or gestures effect, with auxiliary geometric sizes for orientation in the picture. It is important that the reference distances of these auxiliary variables for orientation in the gesture in the image are adapted to the current image scale, so that the movement strokes to be carried out with the instrument and to be monitored over the screen are constant. This ensures that - corresponding to the free space available during the operation, small and constant movement strokes in the respective image scale are reliably detected and processed in the image.
  • adjusting means for changing the reproduced on the monitor image size or comparison distances are provided according to the local scale factor in the manner of a digital zoom, for which the geometric distance value forms an input to adjust the image size on the monitor according to a predetermined scale factor, in the information representative of a given geometric distance is included as a multiplier such that an object contained in the image content whose geometrical dimension corresponds to the predetermined geometric distance is displayed on the monitor with a corresponding dimension multiplied by the predetermined scale factor.
  • the comparison with the instrument in its current position in the image thus not only makes it possible to measure the object in the depicted object in real time, but also allows further real objects or distances shown in the image to be removed during the movement of Real objects form a criterion to refer to the local image scale at which the object is located, so as to process objects or events in the current image geometrically correct.
  • measured values can also be read by an instrument serving as a measuring instrument whose geometric surface changes analogously to a physical quantity.
  • a measuring instrument serving as a measuring instrument whose geometric surface changes analogously to a physical quantity.
  • An example of this is a spring balance whose extension length is proportional to the force acting on it.
  • FIG. 1 shows the principle of a first embodiment of the system according to the invention with a surgical instrument and an endoscope camera
  • FIG. 1a shows the visible in the screen display in the configuration of FIG. 1,
  • FIG. 2 shows a block diagram as an exemplary embodiment of an evaluation circuit according to the invention
  • FIG. 3 is an expanded block diagram as an embodiment of the invention with further possibilities of signal processing
  • FIGS. 4 and 4a show the principle of an embodiment of the system according to the invention with two surgical instruments and an endoscope camera in a block diagram
  • FIG. 5 is a block diagram of the embodiment of FIG. 4,
  • FIGS. Figures 6, 6a and 6b show three illustrations of embodiments of auxiliary instruments according to the invention
  • FIGS. 7 and 7a show a further variant of an auxiliary instrument according to the invention
  • FIG. 8 shows a further block diagram for signal processing according to an embodiment of the invention
  • Fig. 9 shows an embodiment of a surgical auxiliary instrument with means for detecting tensile or compressive forces
  • FIG. 10 shows an embodiment of an arrangement for controlling functions directly through the auxiliary instrument by means of gestures or menu selection, wherein the movement distances in the image are adapted to the size of the representation of the auxiliary instrument.
  • an object 1 is provided in the region of the receiving area of an endoscope camera 2, which for the sake of simplicity is shown here in two flocks of intersecting straight lines.
  • the camera has an optical axis 21 and its receiving area is limited by the one cone, which is represented by its boundary line 22 in the image. Due to the usually short focal length of an endoscope camera, an imaged object shrinks sharply with increasing distance from the camera, which is associated with a significant change in scale, so that accurate measurements using the recorded image information are not readily possible.
  • a forceps forming auxiliary instrument 3 has a shaft 31, an insert 32 and a (distal) working end 33, which may for example form the legs of the surgical forceps.
  • Fig. 1a the associated image is approximately shown on the monitor, which sees a surgeon on a monitor.
  • the object 1 is correspondingly seen in plan view, the camera perspective, the instrument 3, the shaft 31 and the insert 32 as a support of the (distal) working end (pliers jaws 33)
  • a virtual reference point 101 the Near located at the end of the instrument and located at the real point where the instrument would touch the object 1 in normal posture.
  • a measuring beam 102 emanating from the reference point 101, which is provided with scale marks 103.
  • This measuring beam 102 extends in the simplest case in the image plane in continuation of the direction of the jaws shown, so that it can be controlled with the orientation of the real jaws in his direction.
  • the graduation on the measuring beam is divided, for example, into lengths of two millimeters and adjusted so that it is adapted in the image reproduction to the scale of the object in the reference point 101.
  • This adaptation is - as described in more detail with reference to FIG. 2 is derived from the image of the distal region (jaws 33) of the auxiliary instrument 3.
  • the surgeon can make length measurements, the scale decreasing with the distance of the distal end of the auxiliary instrument from the camera lens. In this way, precise information about the size of surgical objects can be obtained so that on the one hand a precise logging is possible and on the other hand also implants etc. can be precisely selected.
  • an additional display is virtually inserted, which is based on a distance information that is derived from the image of the auxiliary instrument in the camera image.
  • the appearance of the virtual overlay in the image is at the same time the confirmation that the - to be described below - electronic evaluation was done properly. So that an immediate control of the correct operation of the calculation process is given.
  • the surgeon can handle the virtual scale like a real dipstick attached to his instrument. But that would affect him in his way of working. He can turn the virtual dipstick on and off as needed. It is electronically generated according to the location and orientation of the instrument and precisely displays the length to be measured on the measurement object in the selected unit of measurement.
  • the image information forming the output signal of the endoscope camera 2 is transmitted continuously to the monitor 100, which monitors the current video information without interruption in real time.
  • the signal passes to a frame memory unit 101, in each of which a frame from the current video signal is held for processing. This serves as the basis for the adjustment operations to be described below.
  • the detection of the reference forming part of the auxiliary instrument significantly accelerates if, after it has been found for the first time and its location is captured in the image, in recalculations only the differences due to recent movements must be evaluated, so that the movement of the instrument easily tracked after being found for the first time.
  • the individual image captured in the frame memory unit 101 is examined in a first comparison unit 102 with (coarse) detection means for the presence of an image portion which is identical to the image of the distal end 32 of the auxiliary instrument stored in the first memory unit 103.
  • This comparison image is located in the memory segment 103a.
  • a search algorithm is used, as it is used for content-based image search. At first the search criterion becomes coarse, i. out of focus, adjusted and will preferably be directed to an easily recognizable segment of the instrument 3, such as the shaft.
  • the information of the memory unit 103 is guided in the manner of a "template" by continuous rows and column offset over the image content in the memory 101 and obtained after subtraction of the respective image components to be compared a kind of differential image, which is fed to a subsequent evaluation unit 104 as a detector means. If a match criterion, which is determined by an inverse integration over the obtained difference image of the selected part of the instrument, currently exceeds a predetermined threshold value, then a trigger signal 105 outputs a trigger signal together with the reference location of the finding in the evaluated camera image. The match criterion is met when the difference image is weakest. Also suitable are corresponding correlation methods.
  • a reference location which is communicated via the connection 107 to the comparison unit 102 in order to determine the narrowed search field is recorded in the memory 103 in association with the "search template" held in the memory part 103a.
  • the reference location here can also lie outside the comparison image recorded as a search template, as shown in FIG. 2a.
  • comparison images held in the memory 103 can also be the corresponding instrument outlines, which may be sufficient for finding the sought-after object in the original image.
  • an image detail unit 106 is actuated based on the found reference location, which selects a smaller image detail from the image content present in the memory 101, which surrounds the reference location found to speed up the subsequent enemy detection by reducing the amount of data. If, as in the example under consideration, the distal part of the auxiliary instrument used for the enemy detection was not identical to the range used in the coarse detection, the selection of the image section will result in a geometrical offset between the reference location of the detected first sub-element (shaft 31) and the distal element to be searched (jaws) - with which the fine adjustment is performed - made as it corresponds to the real conditions. In the example illustrated, this would be a displacement of the reference location into a search area towards the center of the shaft, which carries the jaws, towards the center of the image
  • a fine adjustment of the distal instrument end is then carried out with further detail images recorded in the memory 103b, which are not shown in detail here.
  • detail images recorded in the memory 103b, which are not shown in detail here.
  • the adjustment is carried out also takes place a rotation in the axis of the viewing direction (ie perpendicular to the viewing plane) and a shift in two coordinate directions, so that the object to be searched is compared in all its possible manifestations.
  • a correlation technique is suitable, which outputs a dependent on the degree of the found match signal.
  • the image size applied thereby, the coordinate alignment and additionally the swivel angle are output around the axis of the line of sight.
  • the position and orientation of the relevant part of the auxiliary instrument in the captured camera image is thus clearly defined by a reference point of the comparison image selected by the matching criterion, and an associated orientation vector whose magnitude forms the scale information.
  • the orientation vector is determined by the viewing direction of the comparison image and its rotation in the image plane.
  • a reference (distance) information which is provided in the second memory means, fixes in the captured camera image the relative geometric association between the starting point of the vector identifying the retrieved comparison image and the location which serves as the virtual reference point for the instrument part in FIG inserted image is inserted.
  • this assignment of the virtual reference point is predefined in each of the comparison images.
  • the reference point for virtual fade into the camera image results directly from the stored comparison image, if it by finding the position with maximum agreement in an enemy detection unit 108 by image selection , Size variation and shift was made correctly in accordance with the picture taken by the camera.
  • the point at which the instrument concerned touches an adjacent surface is thus fixed and can be superimposed directly into the current image due to the information held in memory 103c.
  • Fixedly connected to the found image is also a reference direction that corresponds to the orientation of the auxiliary instrument. Normally this is the orientation of the jaws.
  • a virtual information is read from the second memory 103c, which is adapted in size by the scale factor in the current video image directly or together with the captured still image as picture-in-picture information about the mixing unit 109 in a corner of the current picture in the monitor 100 is displayed.
  • Additional information such as the radial measuring rod shown, is also reproduced to scale from the corresponding memory 110 via a zoom stage 111 in an image synthesis stage 112 in the current picture.
  • the measurement plane runs parallel to the image plane, since the measurement beam is displayed to scale in it.
  • locating the subject portion of the auxiliary instrument will be facilitated if its position is captured in a previous frame and in the subsequent frames the only neighborhood of the previous position in the camera frame is searched.
  • the finding of the sub-instrument can be improved to the extent that the comparison images stored in the memory can be replaced by current images of the relevant part of the current history or partially overwritten with these.
  • a coherent representation of a three-dimensional model can also be provided here, which is adapted, enlarged, reduced or shifted according to a CAD representation depending on the viewing direction.
  • the image data of the currently used instruments are expediently inserted or selected in the memory before the operation.
  • the image data of the currently used instruments are expediently inserted or selected in the memory before the operation.
  • the views used for comparison instead of the views used for comparison, only contour images are stored and compared.
  • the system presented so far offers the possibility to use a conventional surgical auxiliary instrument without significant changes to control a virtual dipstick, which starting from a virtually associated with the surgical auxiliary instrument reference point in the surgical field measurements in the image plane measurements to perform, the dipstick to the image scale adapted to be found at the distance from the camera in which the virtual reference point of the auxiliary instrument is located.
  • the direction of the measuring rod follows the orientation of the instrument, resulting in a very simple handling.
  • An arrow 113 in FIG. 2 indicates that the coarse determination of the location of the instrument with the detector means 102 according to FIG. 2 does not always have to be based on the entire camera image. Once the desired part of the instrument has been found, it is sufficient, after a movement of the same during the next search cycle, to seek only the nearer surroundings of the place where the instrument part was previously located. In this way, it is possible in the current image, the measuring rod - or another graphic information to be displayed accordingly, which may for example be a numerical value - currently carry with the position of the instrument.
  • FIG. 3 a more complex system is shown, in which the possibilities are to be shown how the information found with the means shown in Fig. 2 can be supplemented to further, the information of the treating surgeon expands representations.
  • various graphics or measured variables which are obtained to scale from the current image, after selection and adjustment by appropriate actuation elements in the current image or in an additional still image, the manner of a Picture-in-Picture (Picture-in-Picture) Presentation is inserted.
  • a trip unit 201 is provided, which is started, for example, by an external actuating button which is attached to the camera unit together with other operating elements.
  • a still picture memory unit 202 (similar to the unit 101 in Fig. 2, from which the current video signal of the camera 2 is selected and recorded a single suitable picture to be used in the further processing This selection is assisted by a cursor input unit 203 in which additionally a local assignment can be made
  • the outputs of the units 201-203 control a computing unit 204 which includes a graphics processor to implement the desired processings
  • the processing part of the means shown in Fig. 2 is included in block II, so that true-to-scale graphic information relating to the position of one (or more) auxiliary instruments for further processing or display can be obtained.
  • the output of the calculation unit controls - depending on the selected processing program to a graphics unit 205 are stored in the graphical representations that complement the elements supplied by the unit II (according to Figure 2). These include menu selection boxes or evaluation windows for numeric measurement data.
  • the insertion into the still image stored in the unit 202 takes place in the mixing unit 206, wherein in a subsequent zoom unit 207 an adaptation to the screen size to be outputted takes place.
  • the display as sub-picture in the playback of the monitor takes place in a PiP mixing unit.
  • the generated image can also be displayed on a separate tablet monitor 208, which forms a separate playback device that can be freely moved to a desired display position as a WLAN-enabled wireless screen.
  • the control information for the special tablet monitor 208 is mixed in a unit 209, wherein in a further control unit 210 also the data from a module VII are mixed, which is shown in more detail in Fig. 7. These are log data derived from the movement of the helper tool for logging and gesture data, which is also obtained as the movement of the helper instrument, but are used to control the system, as discussed in more detail below is described in more detail.
  • a measurement by means of two instruments 3 and 4 is shown in principle.
  • the two instruments are identified by markings 34 and 44 attached to their inserts 32 and 42 in the form of circular rings of different numbers.
  • markings 34 and 44 attached to their inserts 32 and 42 in the form of circular rings of different numbers.
  • other markers may be attached to the instruments which can be identified by means of another physical signal transmission. These include, for example, RFID tags.
  • the camera is 2 is equipped with an additional laser source, which emits a laser beam 48, which generates a laser mark 49 on the object 1.
  • Their distance to the intersection of the optical axis with the object 50 defines another reference for the determination of the local scale, as described in the applicant's earlier patent application.
  • the object 1 should consist in this embodiment of a plane inclined in space, which is not directed perpendicular to the optical axis 21 of the camera 2.
  • a measurement in the camera image shown in FIG. 1 is not readily possible because the scale of the reproduced on the monitor object is different depending on the distance from the camera optics - ie in the respective areas of the plane of the object 1.
  • the image scales that are valid in the points can also be calculated.
  • Fig. 4a shows the corresponding monitor image.
  • the laser marking 49 can be seen on the object, which is generated by a laser source attached to the shaft of the endoscope camera 2. Due to the known distance of the laser mark 49 in the monitor image 4a, which corresponds to the real distance of the laser source from the intersection 50 with the optical axis of the camera, the magnification for this imaging range can be calculated, as described in the earlier patent application of the applicant.
  • the virtual reference points 51 and 52 Connected to the ends 33 and 34 are the virtual reference points 51 and 52 recognizable in FIG. 4a, which mark the end of a distance 53 to be measured, which can be freely selected by appropriately positioning the ends of the instruments 33 and 43 on the object 1.
  • the distance to be measured 53 is displayed in the current image as a connection of the instruments associated with the points 51 and 52 virtually connected so that it appears on the monitor - as shown.
  • an additional digital display 54 is displayed, which displays the currently calculated by the associated data system length of the track 53 digitally in a selected unit of measure. In this case, other arithmetic operations can be selected. For example, it is also possible to digitally evaluate the surface area of the triangle spanned by points 49, 51 and 52 and display it accordingly.
  • the screen display is corrected so that the object plane is displayed in an equalized top view, as if the camera would be located vertically above it. This is achieved here so that a trapezoidal distortion of the image is made in such a way that the surroundings of the reference points 50 to 52 are displayed on the same scale. This representation differs from that shown in Fig. 4a. The calculation method necessary for this will be described with reference to FIG. 5.
  • Reference scale shall be the local scale in laser marking 49.
  • the image in the region of these points in each case in the direction the opposite side of the dashed triangle with the points 49, 51 and 52 in Fig. 4a correspondingly compressed or stretched.
  • a corresponding keystone distortion is applied, which optically corresponds to a corresponding inclination of the plane around the respective point opposite triangle side, but is mathematically achieved by an image distortion that increases or decreases in the direction of the perpendicular bisector of each triangle side.
  • the object 1 is linearized on the screen so that length measurements can be made correctly.
  • the scale is preferably set to 1: 1 by means of a corresponding zooming operation, so that in particular on the auxiliary screen 208 according to FIG. 3, immediate shape adjustments can be made.
  • the line between the virtual reference points 51 and 52 can be measured without Trapezentzerrung and a third reference point 49, if not on the scale representation of the entire surface, but only on the length of the Straight line arrives.
  • the length of the straight line in the case of a spatially obliquely lying object surface can be determined from the respective camera distances of the reference points 51 and 52, which can be calculated from the image size according to the radiation set.
  • the data processing required for this (as part of the zoom unit 207 in FIG. 3) is shown schematically in block form.
  • the local scales and image positions of the instruments or the laser markings 50, 51 and 49 are fed to the blocks 301, 302 and 303 as input variables. From this, in the arithmetic unit 304, as indicated above, the (double trapezoidal) distortion to be applied to the image representation is calculated.
  • the current graphical representation is transferred to the image memory 305 and subjected to the distortion detected in the arithmetic unit 304 in the distortion unit 306. The output then takes place via the further intermediate memory 307.
  • predefined movements of the instrument (in the air) or in association with selection menus shown in the screen (not shown here) or precisely the described change in shape - or else their combination can be evaluated as gestures, as shown below with reference to FIG is.
  • Fig. 6 another embodiment of the distal end of an auxiliary instrument is shown, the distal end 33 is formed by the jaws of a surgical forceps.
  • This pliers is characterized in that engaging means 60 are provided on the surface coming into contact with a surface in the area of the underside, which by means of a frictional connection with a particularly resilient surface enable a holding action, so that the end of the instrument in the desired position securely held and secured against slipping.
  • the instrument can be kept in safe contact with light pressure with an organic surface, so that the measuring points can be fixed with two instruments safely selected until the time at which the measurement takes place.
  • intervention means all those measures are suitable which prevent unwanted displacement on the surface to be treated, such as roughening, knobs, toothings, profilings, corrugations or cordings.
  • Fig. 6a shows a detail of the distal end of an embodiment of an auxiliary instrument for use with the invention, which is particularly suitable as a reference and pointing instrument.
  • the screen presentation is shown again.
  • the insert 32 is designed as a rod-shaped region, which carries two balls 61 and 62 of different diameters, which are arranged at a distance 66 from each other.
  • the outside ball 62 has a smaller diameter 67 than the inside ball 61 with the diameter 68.
  • the balls are particularly easy to identify in the image of the camera with digital evaluation, since they from different spatial directions each have the same outer contour (with different Diameters). This can - with known dimensions and positioning from the image of the balls in the camera image on their spatial positioning, the orientation of the instrument and the local magnification be concluded.
  • the virtual reference point is the end 63 of the rod-shaped region 32, which also initially comes into contact with an adjacent object surface, so that the instrument shown in this figure is particularly suitable for accurately positioned selection of measurement points or for pointer applications.
  • the distance 69 is the internal reference information which relates the distance of the external reference point of the instrument to an internal reference base (here the center of the lower sphere 67).
  • the cursor 63 is generated in the screen, indicating that the instrument 31 has been correctly recognized in its positioning.
  • the position of the cursor is relative to the outer frame 64 of the screen on which the display is made.
  • the optical evaluation by matching according to FIG. 2 is particularly simple, because the balls 61 and 62 appear the same from all sides, so that the axial alignment is irrelevant and therefore only one spatial direction must be taken into account.
  • the design can therefore be used under difficult conditions or for measuring a system according to the invention.
  • FIG. 6b shows how not only the end 33 of an instrument can be used to determine a position and a local scale, but with the instrument a signaling in the manner of a gesture is also possible, if not only the position of the instrument in the camera image, but also its shape is evaluated.
  • This change in shape is effected in the illustrated example by the spreading of the two jaws 64 and 65, which can be triggered from outside the observation room located at the end of the instrument forth. (The changed form is recognized by the above-mentioned detection and evaluation means as an instrument shown separately as a figure.)
  • a line-shaped laser marking 75 is generated by a laser line source 71 mounted on the insert 32 in an end adjacent to the lower end of the shaft 31 by means of the radiation 72, 73 in a region 74 deviating in its heightwise extension.
  • a laser line source 71 mounted on the insert 32 in an end adjacent to the lower end of the shaft 31 by means of the radiation 72, 73 in a region 74 deviating in its heightwise extension.
  • the unevenness 74 of the surface 1 of the object 1 can be recognized in perspective by the imaging of the laser line 75 because of its oblique incidence relative to the optical axis of the camera.
  • a second instrument 4 is held such that the connecting path 78 formed by the virtual reference points is crossed by the laser line 75, not only the straight line 74 can be displayed for measurement in the screen, but also the laser line 75 on the basis of the dimensional relationships known to scale be converted into a profile to be displayed on the screen, as shown in Fig. 7a. Accordingly, a perspective view, as shown in Fig. 7, provided with displayed figures.
  • the laser line Since the laser line is projected obliquely onto the object (represented here in a stepped manner), it forms a contour line from the camera, which allows an assessment of the topology of the object recorded by the camera. This is particularly favorable for gaps or cracks in the object, which should be measured accurately for repair purposes. In the case of a two-dimensional camera system, a three-dimensional overview of the object can be obtained in this way, without requiring lengthy subsequent evaluations.
  • the topographical course of the surface is determined by the evaluation of the course of the laser line in the camera image on the basis of the known mathematical relationships and is superimposed in the running image as a contour line. In this way, for example, the depth of cracks can be determined there by measuring exactly where they are hit by the laser line. This allows the user in case of defects, a precise assessment of the measures to be initiated.
  • Fig. 8 is shown schematically by means of a block diagram, as logging of the instrument movements on the one hand logging the operation history and on the other hand, the evaluation of instrument movements for controlling connected devices or other signal triggers in the sense of gestural analysis can be used. In both cases, these are the sequential storage of instrument positions, as well as orientations and form states (see FIG. These states are logged with the associated timestamps in memory 81. The storage takes place optionally in context and spatial allocation, to a - not shown here - on-screen menu.
  • the stored state data from block 81 in an evaluation unit 82 where by comparing with predetermined time and location conditions, the determined sequence of instrument positions and orientation either is evaluated as a gesture for controlling predefined processes, which are addressable in a memory 83 and are passed on to a control unit 85 for execution.
  • the designation provided for this purpose is stored in a memory for the surgical procedure and stored in progress and transferred to the output unit 86.
  • an auxiliary instrument 3 is shown in section, as it can be used for the measurement in such a way that a visible on its surface change can be transmitted by changing the instrument shape via a corresponding measurement to the outside.
  • the insert is designed in the manner of a spring balance.
  • a resiliently extending portion 91 is provided at the end with a hook 92 which engages in a flexible portion 93 of the object.
  • the spring-extendable area is pulled out from the outer end via a manual tensile load of the instrument until a required nominal load is reached.
  • the evaluation can take place in accordance with the representation in FIG. 8, whereby different instrument forms are evaluated instead of different instrument positions, which are assigned to the different evaluation values in the evaluation memory to be addressed, which can be transmitted into the system without auxiliary power or cable the camera is connected.
  • an arrangement for controlling functions directly by the auxiliary instrument by means of gesture or menu selection is provided. Functions of the system can be triggered directly by appropriate movements of the distal end of the instrument. Thus, it is no longer necessary to deposit the instrument for controlling the system.
  • the tip of the instrument only needs to be located in a free space, which makes it possible to carry out a relatively small movement in the image plane.
  • the movement distances required for triggering in the image reproduction are adapted to the scale of the size of the representation of the auxiliary instrument. In this way it is ensured that the actual movements of the instrument are independent of the size of the image in the screen, although the motion evaluation is based on the digital data of the image reproduction.
  • a section 120 of the reproduced image the scene visible to the user is shown.
  • the auxiliary instrument 3 is guided with its distal end away from the object, the details of which are not shown in the cutout 120.
  • the instrument 3 is detected by the arrangement shown in FIG. 2 with the camera 2 reproduced there.
  • the image data are processed accordingly so that the image scale in the area of the instrument 3 is available as scale information and the position of the instrument tip as survey information besides the image data.
  • a cursor 121 is reproduced in the region of the distal end of the instrument 3, which moves in synchronism with the instrument tip and displays the determined position of the instrument tip in the image as the surveying information.
  • the image of the cursor is synthetically generated and forms a virtual mark on the distal end of the instrument. Its appearance forms the optical feedback for the correct detection and processing of the image of the instrument by the recording camera 2 according to FIG. 2.
  • selection fields 122 to 125 with the designations A to D are shown in the image.
  • the letters A to D are associated with actuating functions of the system, which can now be triggered directly by a movement of the instrument 3, in such a way that the image of the instrument tip with the cursor 129 reaches one of the selection fields 122 to 125 and at least partially overlays it .
  • An evaluation logic to be described below triggers the assigned function in this case. Examples of assigned functions include: saving a still image, starting or stopping a video recording, saving a timestamp as part of a log, or invoking a submenu.
  • the representation of the selection fields takes place at a distance x from the starting point, which is determined by the position of the cursor 129 in a momentary rest position of the instrument 3.
  • the set of marks 120 through 125 distributed around the current position of the cursor 121 will appear in the image indicating that a function selection may occur. Since the distance x of the marks from the starting position is dependent on the scale factor of the image of the instrument 3 (x increases with increasing size of the instrument representation), it is ensured that the paths of the instrument to be performed in the image plane remain substantially the same - regardless of the camera distance and the resulting image display scale.
  • An evaluation of the movements of the instrument in the image plane would also be possible without the illustrated marks, which serve only for orientation (pure gestures). In the sense of a complete menu navigation, more detailed labels can also be displayed in the image or submenus can be called up.
  • the image information from the camera reaches an image mixing part 127, by means of which the recorded image information is superimposed on the synthetically generated impressions of a virtual nature.
  • the data characterizing the position of the instrument derived from the block diagram according to FIG. 2 are transferred to a memory 128 for the cursor position via its input 129.
  • the memory 130 for the scale (of the instrument display) receives the corresponding signal from the block circuit according to FIG via the input 131.
  • the researchertabstex is transmitted as a reciprocal value, the amount of which also increases with increasing size of the representation.
  • signals for generating the indication of the markers 122 to 125 are generated in the image, the position being shifted by the distance x (controlled by the scale signal from the block 130) to the position of the cursor (controlled by the position signal from the block 128) is.
  • a timer 133 is used, which cyclically outputs a clock signal at times T1 and T2. If the instrument remains at rest for a period of time that is greater than t1 (about 1 second), the output signal T1 reaches the set input of a flip-flop 134, which via a switch 136 supplies the signals for the generation of the markers 122 to 125 to the image mixing section turns on, so that it is recognizable to the operator that the menu or gesture control is enabled.
  • the display positions of the marks 122 to 125 are now held for the period t1. Cursor movement caused by a movement of the instrument in the image plane which does not reach one of the markers 122 to 125 at the time t1, by the corresponding signal to the control circuit 132 and the reset input of the flip-flop 134, resets both circuits to their initial state that no further function is triggered. Small instrument movements thus remain without effect. When the position of the cursor connected to the instrument tip reaches the position of one of the markers 122 to 125, those marks whose position has not been reached are extinguished. Only the selected marker remains displayed as an acknowledgment for the successful selection.
  • the switch 135 is also turned on, which reduces the display position for the selected marker output signal reduces to the logical switching level, which triggers the associated function with the pulse at time T2 via one of the outputs 138 in the system. This also clears the display of the selected and activated display item on the screen.
  • a measurement is activated with the instrument, as described above, it may be useful to record the measured value in a still photo.
  • the instrument is not available for active function selection.
  • this still picture is triggered when the cursor simply remains immobile until T2 in the middle position and this position leads to a corresponding function triggering via the line "0" of the outputs 138.
  • the still photo can be prevented, however, if the cursor is moved over the instrument 3 only from the center, without reaching any of the other markings.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

Endoskopisches Bildverarbeitungssystem enthaltend eine optische Digitalkamera, insbesondere mit großer Schärfentiefe, sowie Mittel, welche im Erfassungsbereich der optischen Digitalkamera eine Distanzinformation erzeugen, die zusammen mit der Bildinformation verarbeitet und dann detektiert und benutzt wird, um zusätzliche geometrische Daten betreffend den Bildinhalt zu erzeugen. Die Vermessungsinformation wird dabei gewonnen aus einer der Abbildung eines Hilfsinstruments, das als normales chirurgisches Instrument ausgebildet sein kann, wobei das Bild eines Teils des Hilfsinstruments aus dem Kamerabild extrahiert und als Bezugsgröße für den Abbildungsmaßstab dient. Auf dieser Grundlage wird dann eine geometrische Information maßstabsgerecht in festem Bezug zum Hilfsinstrument in das laufende Kamerabild als virtuelles Mess- oder Anzeigeelement eingefügt. Beispielsweise kann das ein Messstab sein, der im Bild an das Hilfsinstrument angehängt erscheint und mit diesem „bedient" werden kann.

Description

Die Erfindung betrifft ein Bildverarbeitungssystem der im Oberbegriff des Anspruchs 1 angegebenen Art, das insbesondere für medizinische Zwecke verwendbar ist.
Derartige Bildverarbeitungssysteme werden heute beispielsweise in Form von digitalen Endoskop-Kameras sowohl in der allgemeinen Technik - bei schwer zugänglichen Reparaturstellen - als auch in der minimalinvasiven Chirurgie eingesetzt. Durch die kurze Brennweite der verwendeten Kameras weisen diese eine relativ große Schärfentiefe auf, welche auch notwendig ist, damit die Bedienungsperson einen guten Überblick über den Arbeitsbereich hat und die betrachteten Objekte nicht bei jeder Bewegung des Endoskops aus dem Schärfenbereich heraus gelangen. Die entsprechenden Kameras haben dabei eine feste Entfernungseinstellung, die dem Arbeitsbereich angepasst ist. Die Schärfentiefe kann bei bekannten Systemen beispielsweise einen Bereich von 1 mm bis Unendlich umfassen. Da sich die zu betrachtenden Objekte eines Arbeitsbereichs damit – trotz scharfer Darstellung - in unterschiedlicher Entfernung von der Kameraoptik befinden können, kann die dargestellte Größe auf einem WiedergabeMonitor nicht als Bezugsgröße für andere in den Arbeitsbereich einzubringende Elemente bzw. Implantate benutzt werden. Die wahre Größe von Objekten und deren Abstände untereinander lassen sich also bei endoskopischer Betrachtung nur sehr schwer abschätzen.
Bei der endoskopischen Untersuchung von unzugänglichen Objekten mittels Digitalkameras besteht daher das Bedürfnis, nähere geometrische Informationen über das Objekt zu erhalten – also einzelne Teile des Objekts mittels Längenmaßeinheiten reproduzierbar zu vermessen.
Bekannt ist ein Vielpunkt-Laserprojektionsverfahren, mit dessen Hilfe von der Umgebung der Optik aus Lasermarkierungen auf einem Objekt erzeugt werden, die dann mit der Bildinformation zusammen aufgenommen und in einer Nachbereitung der fertigen Aufnahme aus dem Objekt herausgefiltert und aufgrund ihrer Anordnung im Bild geometrischen Informationen zugeordnet werden. Auf diese Weise lassen sich durch eine anschließende Rechnerbearbeitung mittels geeigneter Software Aussagen über die Abstände der Lasermarkierungen untereinander oder aber deren Abstand von der Kameraoptik machen.
Insbesondere ist von der Firma Karl Storz Endoskope für technische Endoskope http://www.karlstorz.de/cps/rde/xbcr/SID-0A010A01-E 6111DF4/karlstorz/3 628419295_156329_156329_1.pdf (siehe Seite 46, ebenfalls am Anmeldetag zugänglich) ein Laser-Referenz-Messsystem bekannt, mit dem Laserpunkte im Bereich des Objekts erzeugt werden können, mit deren Hilfe dann ein in das Bild einblendbarer Maßstab eines elektronischen Messsystems kalibriert werden kann. Dieses System kann entsprechend auch bei der medizinischen Bildwiedergabe verwendet werden, wie es in http://www.egms.de/de/meetings/hnod2009/09hnod324.shtml beschrieben ist. Hierbei wird manuell aufgrund der mittels Laserpunkten ermittelten Entfernungen des Objekts auf dessen Volumen geschlossen.
Aus der US 6891148B1 ist ebenfalls ein System zur Erzeugung von parallelen Laserstrahlen für die Skalierung von photographischen Bildern bekannt. Maßnahmen zur Beeinflussung des Abbildungsmaßstabs sind ebenfalls nicht vorgesehen.
Nachteilig ist dabei, dass die Auswertung nicht in Echtzeit erfolgt, so dass die Ergebnisse nicht unmittelbar zur Verfügung stehen. Zwar muss das Endoskop für die Auswertung nicht aus der Zugangsöffnung herausgezogen werden. Es entsteht aber trotzdem eine erhebliche Arbeitsunterbrechung, welche beispielsweise bei minimalinvasiven Operationen im medizinischen Bereich nicht hingenommen werden kann. Auch ist dabei eine besondere Endoskopkamera mit Mitteln zur Erzeugung von Lasermarkierungen erforderlich, welche an festen Punkten erscheinen.
In der Dissertation „Augmented Reality in Laparoscopic Surgery” von Marco Feuerstein, 2007, ( http://nbn-resolving.de /urn/resolver.pl?urn:nbn:de:bvb:91-diss-20070619-6 22737-1-8 ) werden zahlreiche Konzepte beschrieben, um bei endoskopisch ausgeführten Operationen zusätzliche geometrische Informationen für den ausführenden Chirurgen bereitzustellen. Diese Daten werden unter anderem über die Position von bei der Operation benutzten Instrumenten dadurch gewonnen, dass die aus dem Operationsraum herausragenden Enden und daran befestigte Marker von zusätzlichen Kameras überwacht und deren Bewegungen ausgewertet werden. Eine Erzeugung von zusätzlichen geometrischen Informationen betreffend den Arbeitsraum ist aber auf Grund der Auswertung optischer Daten nicht möglich. Statt dessen werden zusätzliche Informationen von CT- oder Ultraschallmesseinrichtungen benötigt, um zuverlässige geometrische Daten betreffend den Operationsraum zu gewinnen. Erst diese zusätzlichen Informationen auf Grund unterschiedlicher geometrischer Messverfahren ermöglichen es dann eine Skalierung des Bildes der Endoskopkamera vorzunehmen, wobei das optische Bild des Ultraschallkopfes dazu dient, die durch die anderen geometrischen Messverfahren ermittelten geometrischen Werte in Bezug auf das Kamerabild zu kalibrieren. Die Dissertation fasst damit die Messtechniken zusammen, welche bei den bekannten Operationsrobotern verwendet werden.
Nachteilig ist dabei, dass bei den dort beschriebenen Verfahren zur Gewinnung zusätzlicher Informationen betreffend den Operationsbereich aufwendige zusätzliche bildgebende Verfahren angewendet werden müssen, welche auf anderen als optisch erfassbaren Größen beruhen.
Aus der US-Patentschrift 7794396B2 ist es weiterhin bekannt, den Zoomfaktor einer Endoskopkamera automatisch aufgrund der im Bild erfassten Position eines OperationsInstruments zu verändern. Hierdurch soll aber keine zusätzliche, den Bildinhalt der Kamera ergänzende geometrische Information gewonnen werden, sondern lediglich dafür gesorgt werden, dass die Kamera stets den Operationsbereich einschließlich der aktiven OperationsInstrumente erfasst. Es kommt dabei auch lediglich auf das Detektieren eines derartigen Instruments an, ohne dass dessen Geometrie erfasst und abgeglichen würde. Eine selbsttätige geometrische Erfassung von Distanzen zur Vermessung des Operationsbereiches mit einer nachfolgenden automatischen Bildeinstellung ist somit nicht vorgesehen.
Aus http://www.duettrs.com/imageServer.aspx?contentID=14325&contenttype =application/pdf ist ein OperationsInstrument bekannt, dass einen in einer Längeneinheit geeichten Maßstab aufweist. Dieser ist jedoch für die visuelle Ablesung für den menschlichen Betrachter bestimmt. Die erforderlichen Übertragungen und Auswertungen müssen rein manuell erfolgen und unterliegen der subjektiven Abschätzung. Eine unmittelbare automatische Gewinnung von objektiven geometrischen Messwerten aus dem Situs ist somit nicht möglich. Auch hier ist eine selbsttätige geometrische Erfassung von Distanzen zur Vermessung des Operationsbereiches mit einer nachfolgenden automatischen Bildeinstellung ist somit nicht möglich.
Aus der US-Patentschrift 7206006B2 ist ferner ein Bildverarbeitungssystem bekannt, mit dem eine aufgrund einer Entfernungsmessung zwischen Kamera und Objekt ermittelten Distanzinformation der Maßstab eines wiederzugebenden Bildes so eingestellt wird, dass das Objekt in Originalgröße wiedergegeben wird. Hierbei besteht die Schwierigkeit, mit der Messung auch die jeweils relevanten Objektteile zu treffen, deren Wiedergabe im Originalmaßstab wesentlich ist. Außerdem ist ein Entfernungsmesser bei endoskopischen Bildverarbeitungssystemen nicht brauchbar.
In der nicht vorveröffentlichten Patentanmeldung PCT/DE2010/050058 des Anmelders ist ein Bildverarbeitungssystem beschrieben, welches Lasermarkierungen zur Maßstabseinstellung des wiederzugebenden Bildes verwendet.
Der Erfindung liegt die Aufgabe zugrunde, ein Bildverarbeitungssystem der eingangs genannten Art zu schaffen, mit dem es einer Bedienungsperson während einer – insbesondere endoskopischen - Beobachtung ausschließlich mit einer normalen Endoskopkamera auf einem Wiedergabemonitor möglich ist, Abschätzungen im Operationsbereich mit großer Genauigkeit und auch Messungen vorzunehmen und unmittelbar in die Bearbeitung umzusetzen, ohne dass es dazu manueller Messungen im Inneren mittels mechanischer oder elektronischer Maßstäbe oder Messhilfen bedarf. Auch soll die Vermessung unmittelbar während der laufenden Beobachtung möglich sein, so dass nicht erst ein Standbild zur nachträglichen Vermessung ausgewählt und bearbeitet werden muss. Dies ist insbesondere vorteilhaft für unter endoskopischer Beobachtung ausgeführte minimalinvasive Operationen, bei denen die Belastung des Patienten durch eine möglichst kurze OP-Zeit gering gehalten werden soll. Die Vermessung soll dabei ohne weiteres den örtlichen Maßstab der von der Kamera aufgenommenen Bildinformation im Messpunkt berücksichtigen, ohne dass dazu spätere Umrechnungen erforderlich sind.
Diese Aufgabe wird mit den im kennzeichnenden Teil des Anspruchs 1 angegebenen Maßnahmen gelöst.
Die Erfindung beruht auf der Erkenntnis, dass ein bei einer endoskopischen Untersuchung verwendetes Instrument, welches sich im Blickfeld der Endoskopkamera befindet, für automatisch auszuführende geometrische Berechnungen mittels Datenverarbeitung benutzt werden kann, wenn es gelingt, die Größenverhältnisse des Instruments automatisch zu erfassen und zu normieren, so dass der Bildmaßstab von Objekten in der Nähe des Instruments bekannt ist und zu selbsttätig auszuführenden geometrischen Messungen und Berechnungen benutzt werden kann.
Begriffe werden hierbei wie folgt verwendet: Die geometrische Distanzinformation bildet als eine für eine geometrische Distanz repräsentative Größe die Basis für die Maßstabsinformation, welche ihrerseits als örtlicher Maßstabsfaktor zur Umrechnung der örtlichen Längenabmessungen im Bild zu Realabmessungen dient.
Die Vergleichsinformation besteht aus Abbildungen des distalen Teils des Hilfsinstruments aus unterschiedlichen Richtungen und bildet die Bezugsbasis für den Größenabgleich des Hilfsinstruments, um dessen Abbildungsmaßstab und räumliche Ausrichtung im Bild zu ermitteln.
Die geometrische Bezugsinformation bildet die Beziehung zwischen einem Bezugsort und der Abbildung, um die Position eines geometrischen Bezugsortes (Optische Kennzeichnung des geometrischen Ortes) des abgebildeten Instruments in Bezug auf den Bildursprung der Abbildung definieren zu können
Der Cursor bildet die optische Kennzeichnung des zugeordneten geometrischen Bezugsortes des Instruments im Bild, wenn die gespeicherte Abbildung des Instruments mit der Bilddarstellung abgeglichen wurde und der zu der Abbildung gehörige Bezugsort auf den Bildschirm übertragen wird.
Der Begriff Vermessungsinformation beinhaltet dabei die Zusammenfassung von Maßstab und Bezugsort.
Wie weiter unten dargestellt ist, können derartige Messungen in der Abschätzung von Größenabmessungen von Objekten oder auch von Bewegungen, einschließlich solcher des Instruments selbst, herangezogen werden.
Ohne Aufwendung von Hilfsenergie im Beobachtungsraum ist damit die Möglichkeit gegeben, an mindestens einer Bildposition den Bildmaßstab und die Entfernung von der Kamera mittels der Verwendung eines Hilfsinstruments als Bezugsgröße auszumessen. Aus der Größe des Bilds des distalen Bereichs eines im Übrigen üblichen Instruments bzw. eines Instrumententeils in der laufenden Wiedergabe wird aus dem Bild eine bekannte Distanzinformation ermittelt und auf den örtlichen Maßstab der Wiedergabe der Umgebung - durch Umsetzung in eine Vermessungsinformation – geschlossen. Bei anderen endoskopischen Anwendungen kann ein Arbeitsinstrument vielfach durch einen zusätzlich verfügbaren Arbeitskanal in den Sichtbereich der Kamera eingebracht werden.
Diese Vermessungsinformation ist dabei die Bezugsgröße für den Bildmaßstab im distalen Bereich des Hilfsinstruments. Damit lässt sich der Bildmaßstab des angrenzenden Objektbereichs ermitteln, so dass dort Wegstrecken unmittelbar aus dem Bild heraus messtechnisch erfasst werden können. Es lässt sich auch ein virtueller Messstab mit dem Bild des distalen Endes des Instruments optisch verbinden, so dass dieser mit dem Instrument bewegt werden kann, um Messungen am Objekt auszuführen, wenn die Instrumentenerkennung im Bild mit der entsprechenden Auswertung in Echtzeit fortlaufend aktualisiert wird.
Dazu bedarf es keines speziell angefertigten Hilfsinstrumentariums. Dadurch, dass ein ohnehin bei der Operation eingesetztes übliches Instrument durch Vergleich mit einem gespeicherten Bild, dessen Abmessungen bekannt sind, als Bezugsbasis für die Vermessung dient – und damit die „Distanzinformation“ gemäß der Erfindung als eine direkt aus dem Bild entnehmbare „optische Information“ bildet, braucht kein besonderer körperlicher Messstab verwendet zu werden. Unmittelbar aus dem Operationsgeschehen heraus kann das in Kontakt mit dem zu vermessenden Bereich gebrachte Operationsinstrument als Bezugsbasis für die Vermessung dienen. Voraussetzung ist lediglich, dass das verwendete Instrument in seiner äußeren Form (und damit seinen geometrischen Abmessungen) bekannt ist. Durch die spezielle Herstellung von besonders geformten und "vermessungstauglichen" Instrumenten, kann dabei zusätzlich sichergestellt werden, dass durch eine entsprechende Zertifizierung ein hoher Qualitätsstandard diesbezüglich eingehalten wird.
Dabei wird durch das Bild eines in den Aufnahmebereich der Kamera einzubringenden Teils des Hilfsinstruments im Erfassungsbereich der optischen Digitalkamera innerhalb des Beobachtungsraums eine geometrische Distanzinformation erzeugt, die durch Vergleich mit dem gespeicherten Abbild des betreffenden Teils des Hilfsinstruments maßstabsbildend wirkt. Dabei ist es nicht erforderlich, dass die geometrische Distanzinformation unmittelbar an der Oberfläche des Instruments ables- oder in sonstiger Weise entnehmbar ist. Die Distanzinformation kann auch implizit durch Abgleich des Kamerabildes mit dem gespeicherten Vergleichsbild des Instruments gewonnen werden. Der Maßstabsfaktor wird in diesem Fall nicht aus einer der Bildinformation entnommenen Abmessung, sondern unmittelbar aus dem bei dem Größenabgleich einzustellenden Faktor ermittelt.
Wenn das Ende des Hilfsinstruments als „Zeiger“ wirkt, besteht damit ein Bezugspunkt für die Errechnung des örtlichen Maßstabs, der im Bild als mit dem Ende des Instruments mitgeführter Cursor angezeigt wird.
Speichermittel sind insbesondere vorgesehen für eine Abbildung des relevanten Teils des Hilfsinstruments als Vergleichsinformation zum Zwecke des Abgleichs mit in dem laufenden Kamerabild enthalten Ansichten aus unterschiedlichen Richtungen in Grob- und Feindarstellung bzw. Mittel zur entsprechenden bedarfsweisen Reduktion der Bildinformation der gespeicherten Abbildung. Dabei ist jede Datenrepräsentation geeignet, welche in der Lage ist, eine Referenz zum Auffinden der Abbildung des Hilfsinstruments bzw. dessen relevanten Teil im aufgenommenen Kamerabild aufzufinden. Hierbei kann es sich insbesondere um eine Rundum-Darstellung der Oberfläche des Endbereichs oder eine entsprechende dreidimensionale Darstellung handeln, wobei diese bevorzugt auf das verwendete Vergleichsverfahren abgestimmt ist. Geeignet sind also Pixel- oder Vektordarstellungen, wie sie auch für Verfahren der inhaltsbasierten Bildsuche mit den entsprechenden mathematischen Verfahren verwendet werden können.
Es wird also im Erfassungsbereich der optischen Digitalkamera eine geometrische Information erzeugt, die zusammen mit der Bildinformation verarbeitet und dann detektiert und benutzt wird, um zusätzliche geometrische Daten betreffend den Bildinhalt als Vermessungsinformation zu erzeugen. Die Vermessungsinformation wird dabei gewonnen aus einer der Abbildung des Hilfsinstruments, das als normales chirurgisches Instrument ausgebildet sein kann, wobei das Bild eines Teils des Hilfsinstruments aus dem Kamerabild extrahiert und als Bezugsgröße für den Abbildungsmaßstab dient. Auf dieser Grundlage wird dann eine zusätzliche geometrische Information maßstabsgerecht in festem Bezug zum Hilfsinstrument in das laufende Kamerabild als virtuelles Mess- oder Anzeigeelement eingefügt. Normalerweise wird das ein Cursor sein, der anzeigt, dass das Hilfsinstrument erfasst und zur Maßstabsbildung herangezogen wurde. Beispielsweise kann das aber auch ein Messstab sein, der im Bild an das Hilfsinstrument angehängt erscheint und mit diesem „bedient“ werden kann.
Die Speichermittel enthalten auch einen geometrischen Bezugspunkt in fester relativer geometrischer Zuordnung zu der in den ersten Speichermitteln gespeicherten Abbildung. Dieser virtuelle Bezugspunkt wird nach der Detektion der Position des Hilfsinstruments und dessen Maßstab im Bild als Bezugsposition als optische Kennzeichnung nach Art eines Cursors in das laufende Kamerabild eingeblendet, um einen definierten Bezugspunkt für die Positionierung des Instruments zu erhalten.
Dieser Bezugspunkt definiert den Ausgangspunkt für Messungen und zu erfassende Instrumentenbewegungen. Bevorzugt ist er in einem vorstehenden Teilbereich des Instruments gelegen, der direkt mit dem Körpergewebe in Kontakt kommt, so dass er auch den Berechnungspunkt für den örtlichen Bildmaßstab bildet, der somit möglichst eng an ein im Bild dargestelltes dem Instrumententeil benachbartes Objekt geknüpft ist.
Mit den ersten Detektormitteln zum groben Auffinden der Position der Abbildung des Teilbildes des Hilfsinstruments im laufenden Kamerabild durch Vergleich mit der in den Speichermitteln festgehalten Abbildung des Teils des Hilfsinstruments und die Ausgabe der gefundenen Positionsdaten, wird die aktuelle Position des Instruments im Kamerabild durch einem ersten Grobvergleich von laufendem Bild und gespeichertem Abbild erkannt.
Mit den weiteren Detektormitteln für den Feinabgleich zum Anpassen der Größe und Ausrichtung der gespeicherten Abbildung des Teilbildes des Hilfsinstruments in Bezug auf die entsprechende Abbildung des Hilfsinstruments im Kamerabild unter Berücksichtigung von dessen perspektivischer Verzeichnung zur Erzielung einer deckungsgleichen Position durch (iterative) Auswahl einer von verschiedenen Ansichten aus unterschiedlichen Richtungen und deren Verschiebung im Kamerabild in unterschiedlichen Koordinatenrichtungen unter gleichzeitiger Veränderung des Abbildungsmaßstabs wird die genaue Position des Hilfsinstruments und dessen Ausrichtung und Größe festgelegt, so dass die Position des interessierenden Instrumententeils exakt erfasst wird.
Es ist ersichtlich, dass die hier eine in das laufende Bild einzublendende „virtuelle“ Grafik erzeugt wird, die in Größe und Ausrichtung angepasst an das steuernde Hilfsinstrument angepasst ist und für den Betrachter in Wechselwirkung mit dem übrigen Bildinhalt treten kann. Das ist beispielsweise günstig für Messungen oder auch komplexere Berechnungen, die in Abhängigkeit von der Position der virtuellen Grafik ausgeführt werden können. Wichtig ist dabei, dass die Grafik von der Position und Ausrichtung des relevanten Teils des Hilfsinstruments abhängig ist, so dass es sich maßstabsgerecht in das Bild einfügt und die Vermessungen ebenso maßstabsgerecht ausgeführt werden können. Bevorzugt stellt die Grafik – wie zuvor erwähnt - ein vom Ende des Instruments ausgehendes Lineal dar, welches parallel zur Bildebene (also senkrecht zur optischen Achse) gerichtet ist. Über die Größe des benachbarten Teils des Hilfsinstruments wird – unter Berücksichtigung von des dessen Ausrichtung im Raum – der örtliche Maßstab ermittelt und eine entsprechende Längenteilung (in einer frei zu wählenden Längeneinheit) mit dem Lineal dargestellt, so dass der Benutzer dieses Lineal durch eine entsprechende Bewegung des Instruments wie einen Messstab nutzen kann.
Um das Bild des Hilfsinstruments im Kamerabild mit dem im Speicher festgehaltenen Bild zu vergleichen, und mittels geeigneter Detektionskriterien die Übereinstimmung zu erkennen, sind übliche mathematische Verfahren geeignet, wie sie auch in der Bildbearbeitungstechnik verwendet werden.
Dabei kann durch die optische Auswertung des Bilds eines durch eine Zusatzöffnung eingebrachten Hilfsinstrument im Sichtbereich der Endoskopkamera und dessen anschließender Weiterverarbeitung des aufgenommenen Bildes eine große Zahl von Distanzinformationen gewonnen werden, welche bei unmittelbarer Bildbetrachtung nicht erhältlich sind. Durch die Online Auswertung in Echtzeit lassen sich auch die resultierenden Daten direkt ins Kamerabild einspielen und ermöglichen auf diese Weise dem Bediener – und im Falle der medizinischen Anwendung dem Operateur – die gewonnenen Erkenntnisse unmittelbar in seine aktuelle Arbeitsweise einzubeziehen.
Besonders vorteilhaft dabei ist auch, dass eine Größenabschätzung, Anpassung und Auswahl von Implantaten direkt mit den vorhandenen Darstellungsmitteln im sterilen Bereich des Operationssaals vorgenommen werden kann. Dazu gehört auch die laufende Information über die Position des Instruments selbst, so dass die gewonnenen Daten auch die Grundlage für ein System zur Verfolgung von Arbeitsschritten (Tracking, Datalogger) sein können.
Durch die Verwendung zweier Instrumente lässt sich auf dem im Bild dargestellten Objekt – ausgehend von den Enden der Bilder der relevanten distalen Instrumententeile - eine Verbindungsgerade abbilden, wobei mit der Bildverarbeitung eine entsprechende Darstellung im aktuellen Bild erzeugt wird. In Zuordnung zu dieser im Bild dargestellten Geraden wird aus den örtlichen Bildpositionen der distalen Enden der beiden Instrumente auf Grund des ermittelten lokalen Maßstabs die Länge der Verbindungsgeraden ermittelt und digital im Bild angezeigt. Sind die örtlichen Maßstäbe an den beiden Instrumentenenden unterschiedlich, so lässt sich das bei der Berechnung durch Mittelung berücksichtigen. Anstelle zweier Instrumente können dabei auch die distalen Enden der beiden Backen einer Zange verwendet werden.
Wenn dabei eine Endoskopkamera mit einer zusätzlichen Laserquelle benutzt wird, wie sie Gegenstand einer früheren Patentanmeldung desselben Anmelders ist, erhält man einen dritten Maßstabswert für das aktuelle Bild und kann damit eine nicht parallel zur Bildebene verlaufende Objektebene zur Darstellung und Vermessung in durch Anwendung der Trapezverzerrung in Echtzeit „entzerren“. Dies ist günstig, wenn die Objektebene insgesamt zur Bildebene der Kamera geneigt ist.
Eine von einer Laserquelle erzeugte Line, die von dem Hilfsinstrument schräg auf das Objekt projiziert wird, kann - aus Kamerasicht - eine Konturlinie bilden, welche eine Beurteilung der Topologie des von der Kamera aufgenommenen Objekts auch aus seitlicher Richtung ermöglicht. Dies ist insbesondere bei Spalten oder Rissen im Objekt günstig, welche zu Reparaturzwecken maßstäblich vermessen werden sollen. Hierdurch werden räumliche Unebenheiten erkennbar, welche zu unterschiedliche Abbildungsmaßstäben führen, so dass mit der Auswahl der Bereiche der der örtlichen Vermessung hierauf besonders Rücksicht genommen werden kann.
Das erfindungsgemäße System eignet sich nicht nur für endoskopische Anwendungen, sondern auch für offene Reparaturen, bei denen der Arbeitsbereich des Werkstücks für unmittelbare Anpassungen nicht zugänglich ist – sei es, dass er zu empfindlich für wiederholte Manipulationen ist oder sei es, dass deren Oberflächeneigenschaften erst durch eine zusätzliche Bildverarbeitung für den menschlichen Betrachter erkennbar werden. Im medizinischen Bereich wären das offene Operationen, in denen Implantate ohne wiederholte Anprobe unter Vermeidung von direktem Kontakt mit dem Körper des Patienten angepasst werden sollen.
Mit dem erfindungsgemäßen Bildverarbeitungssystem lassen sich nicht nur Vermessungen und maßstabsgerechte Anpassungen im Situs erzielen, sondern das Hilfsinstrument kann auch als Zeiger (Cursor) oder zur Funktionsauslösung benutzt werden. Weil mit der Erkennung der Position des Instruments im Bild auch eine Positionskennung des geometrischen Ortes des distalen Bezugsortes des Instruments in das Bild eingeblendet wird, kann das Instrument als „Mausersatz“ eine Funktionsauswahl und Steuerung mittels Menüauswahl und/oder durch Gestik bewirken, wobei geometrische Hilfsgrößen zur Orientierung in das Bild eingeblendet werden. Dabei ist von Bedeutung, dass auch die Bezugsentfernungen dieser Hilfsgrößen zur Orientierung bei der Gestik im Bild dem aktuellen Bildmaßstab angepasst werden, so dass die mit dem Instrument auszuführenden, über den Bildschirm zu kontrollierenden, Bewegungshübe konstant sind. Damit ist sichergestellt, dass – entsprechend dem bei der Operation zur Verfügung stehenden Freiraum kleinen und konstant bleibenden Bewegungshübe im jeweiligen Bildmaßstab sicher im dem Bild erkannt und verarbeitet werden.
Dabei sind Stellmittel zur Veränderung der auf dem Monitor wiedergegebenen Bildgröße bzw. von Vergleichsdistanzen entsprechend dem örtlichen Maßstabsfaktor nach Art eines digitalen Zooms vorgesehen, für die der geometrische Distanzwert eine Eingangsgröße bildet, zur Einstellung der Bildgröße auf dem Monitor entsprechend einem vorgegeben Maßstabsfaktor, in den die für eine vorgegebene geometrische Distanz repräsentative Information als Multiplikator einbezogen ist, derart dass ein im Bildinhalt enthaltenes Objekt, dessen geometrische Abmessung der vorgegebenen geometrischen Distanz entspricht, auf dem Monitor mit einer entsprechenden Abmessung wiedergegeben wird, die mit dem vorgegebenen Maßstabsfaktor multipliziert ist.
Der durch Vergleich mit dem Instrument in seiner aktuellen Position im Bild ermöglicht also nicht nur die Vermessung des im dargestellten Objekts in Echtzeit, sondern erlaubt auch, weitere aus dem Bild entnommene reale oder in das Bild eingeblendete Objekte bzw. Distanzen, die bei der Bewegung von realen Objekten ein Kriterium bilden, auf den örtlichen Bildmaßstab zu beziehen, an dem sich das Objekt befindet, um auf diese Weise Objekte oder Ereignisse, im laufenden Bild geometrisch korrekt zu verarbeiten.
Dazu gehört nicht nur das Einblenden eines virtuellen Messstabs mit einer dem örtlichen Bildmaßstab angepassten Längenteilung, sondern auch Bewegungen des Instruments als Cursor oder Gestikelement können aus dem Bild heraus in der Weise korrekt verarbeitet werden, dass übereinstimmende Wegstrecken unabhängig vom Bildmaßstab korrekt ausgewertet werden.
Entsprechend können auch Messwerte von einem als Messinstrument dienenden Instrument abgelesen werden, dessen geometrische Oberfläche sich analog zu einer physikalischen Größe verändert. Als Beispiel hierfür soll eine Federwaage dienen, deren Auszugslänge proportional zu der auf sie wirkenden Kraft ist. Mit den Mitteln der Erfindung kann der Längung der Waage im Bild unter Berücksichtigung des jeweiligen Aufnahmemaßstabs zu verschiedenen Zeiten erfasst und trotz unterschiedlicher Position im Bild maßstabsgetreu und daher korrekt vermessen und ausgewertet werden.
Es ist aber auch vorteilhaft möglich, die Instrumentenfunktion selbst zur Steuerung mittels Gesten zu verwenden, wie beispielsweise kann das gezielte Öffnen der Zange in einer Menüstruktur als Befehl ausgewertet werden, wenn die beiden Backenenden der Zange jeweils als ein TeilInstrument erkannt, ihnen jeweils ein Bezugspunkt zugeordnet und der Abstand dieser Bezugspunkte in der Bildebene jeweils entsprechend dem ermittelten örtlichen Maßstab „vermessen“ wird.
Die Vorteile der in den Unteransprüchen angegebenen Maßnahmen ergeben sich auch an Hand der nachfolgend dargestellten Ausführungsbeispiele.
Derartige vorteilhafte Ausführungsbeispiele der Erfindung werden an Hand der Zeichnung näher dargestellt und nachfolgend näher beschrieben. Es zeigen:
Fig. 1 das Prinzip des eines ersten Ausführungsbeispiels des erfindungsgemäßen Systems mit einem chirurgischen Instrument und einer Endoskopkamera,
Fig. 1a die im Bildschirm sichtbare Darstellung bei der Konfiguration gemäß Fig. 1,
Fig. 2 ein Blockschaltbild als Ausführungsbeispiel einer Auswertungsschaltung gemäß der Erfindung,
Fig. 3 ein erweitertes Blockschaltbild als Ausführungsbeispiel der Erfindung mit weiteren Möglichkeiten der Signalverarbeitung,
Fign. 4 und 4a das Prinzip des eines Ausführungsbeispiels des erfindungsgemäßen Systems mit zwei chirurgischen Instrumenten und einer Endoskopkamera im Blockschaltbild,
Fig. 5 ein Blockschaltbild zum Ausführungsbeispiel gemäß Fig. 4,
Fign. 6, 6a und 6b drei Darstellungen zu Ausführungsformen von Hilfsinstrumenten gemäß der Erfindung,
Fign. 7 und 7a eine weitere Variante eines Hilfsinstruments gemäß der Erfindung,
Fig. 8 ein weiteres Blockschaltbild zur Signalverarbeitung gemäß einer Weiterbildung der Erfindung,
Fig. 9 ein Ausführungsbeispiel eines chirurgischen Hilfsinstrument mit Mitteln zur Erfassung von Zug- oder Druckkräften sowie
Fig. 10 ein Ausführungsbeispiel einer Anordnung zur Steuerung von Funktionen direkt durch das Hilfsinstrument mittels Gestik bzw. Menüauswahl, wobei die Bewegungsweiten im Bild der Größe der Darstellung des Hilfsinstruments angepasst sind.
Bei dem in Fig. 1 dargestellten ersten Ausführungsbeispiel ist ein Objekt 1 im Bereich Aufnahmebereich einer Endoskopkamera 2 vorgesehen, welches hier der Einfachheit halber in zwei Scharen sich kreuzender Geraden dargestellt ist. Die Kamera weist eine optische Achse 21 auf und ihr Aufnahmebereich ist durch die einen Kegel begrenzt, der durch seine Begrenzungsgeraden 22 im Bild dargestellt ist. Durch die gewöhnlich kurze Brennweite einer Endoskopkamera verkleinert sich ein abgebildetes Objekt mit zunehmendem Abstand von der Kamera stark, was mit einer wesentlichen Maßstabsänderung verbunden ist, so dass genaue Messungen mittels der aufgenommenen Bildinformation nicht ohne weiteres möglich sind. Ein eine Fasszange bildendes Hilfsinstrument 3 weist einen Schaft 31, einem Einsatz 32 und ein (distales) Arbeitsende 33 auf, welches beispielsweise die Schenkel der chirurgischen Zange bilden kann.
In Fig. 1a ist in etwa die zugehörige Abbildung auf dem Monitor dargestellt, die ein Chirurg dazu auf einem Monitor sieht. Auf dem Objekt 1 ist entsprechend in Draufsicht, der Kameraperspektive, das Instrument 3, dem Schaft 31 und dem Einsatz 32 als Träger des (distalen) Arbeitsendes (Zangenbacken 33) zu sehen In das wiedergegebene Bild elektronisch eingefügt ist ein virtueller Bezugspunkt 101, der Nahe dem Ende des Instruments gelegen ist und an dem realen Punkt gelegen ist, an dem das Instrument bei normaler Haltung das Objekt 1 berühren würde. Zusätzlich – virtuell - in das Bild eingefügt ist ein von dem Bezugspunkt 101 ausgehender Messstrahl 102, welcher mit Maßstabsmarkierungen 103 versehen ist. Dieser Messstrahl 102 verläuft im einfachsten Fall in der Bildebene in Fortsetzung der Richtung der dargestellten Zangenbacken, so dass er mit der Ausrichtung der realen Zangenbacken in seiner Richtung kontrolliert werden kann.
Die Maßeinteilung auf dem Messstrahl ist beispielsweise in Längenabschnitte von je zwei Millimetern geteilt und stellt sich so ein, dass sie in der Bildwiedergabe an den Maßstab des Objekts im Bezugspunkt 101 angepasst ist. Diese Anpassung wird – wie es an Hand von Fig. 2 näher beschrieben ist aus der Abbildung des distalen Bereichs (Zangenbacken 33) des Hilfsinstruments 3 abgeleitet. Damit kann der Chirurg durch die Positionierung des Hilfsinstruments in Kontakt mit dem Objekt - wie mit einem realen Messstab - Längenmessungen vornehmen, wobei sich die Maßeinteilung mit dem Abstand des distalen Endes des Hilfsinstruments vom Kameraobjektiv verkleinert. Auf diese Weise kann präzise Aufschluss über die Größe von Operationsobjekten gewonnen werden, so dass einerseits eine präzise Protokollierung möglich ist und andererseits auch Implantate etc. präzise ausgewählt werden können. In den Bildinhalt wird also eine zusätzliche Anzeige virtuell eingefügt, welche auf einer Distanzinformation beruht, die aus der Abbildung des Hilfsinstruments im Kamerabild abgeleitet wird. Das Erscheinen der virtuellen Einblendung im Bild ist auch gleichzeitig die Bestätigung dafür, dass die – nachfolgend zu beschreibende – elektronische Auswertung ordnungsgemäß erfolgte. So dass eine unmittelbare Kontrolle der korrekten Arbeitsweise des Rechenvorgangs gegeben ist. Der Chirurg kann mit dem virtuellen Maßstab so hantieren wie mit einem realen Messstab, der mit seinem Instrument verbunden ist. Dies würde ihn aber in seiner Arbeitsweise beeinträchtigen. Den virtuellen Messstab kann er nach Bedarf ein- und ausschalten. Er wird elektronisch je Ort und Ausrichtung des Instruments passend generiert und zeigt die zu messende Länge am im Bild dargestellten Messobjekt in der gewählten Maßeinheit präzise an.
Bei dem in Fig. 2 als Blockschaltbild dargestellten Ausführungsbeispiel einer Auswertungsschaltung, welche die Mittel zur Verarbeitung der geometrischen Distanzinformation gemäß der Erfindung bildet - gelangt die das Ausgangssignal der Endoskopkamera 2 bildende Bildinformation kontinuierlich zu dem Monitor 100, der die reguläre Betrachtung der laufenden Videoinformation ohne Unterbrechung in Echtzeit ermöglicht. Außerdem gelangt das Signal zu einer Einzelbildspeichereinheit 101, in der jeweils ein Einzelbild aus dem laufenden Videosignal zur Verarbeitung festgehalten wird. Dieses dient als Ausgangsbasis für die nachfolgend zu beschreibenden Abgleichoperationen. Dabei beschleunigt sich die Erfassung des den Bezug bildenden Teils des Hilfsinstruments wesentlich, wenn, nachdem es zum ersten Mal aufgefunden wurde und sein Ort im Bild festgehalten ist, bei Neuberechnungen lediglich die Differenzen auf Grund aktueller Bewegungen ausgewertet werden müssen, so dass die Bewegung des Instruments leicht verfolgt werden kann, nachdem es zum ersten Mal aufgefunden wurde.
Das in der Einzelbildspeichereinheit 101 festgehaltene Einzelbild wird in einer ersten Vergleichseinheit 102 mit (Grob-)Detektormitteln auf das Vorhandensein eines Bildanteils untersucht, das dem in der ersten Speichereinheit 103 gespeicherten Bild des distalen Endes 32 des Hilfsinstruments identisch ist. Dieses Vergleichsbild befindet sich in dem Speichersegment 103a. Hierbei wird in der Vergleichseinheit 102 ein Suchalgorithmus verwendet, wie er zur inhaltsbasierten Bildsuche verwendet wird. Dabei wird das Suchkriterium zunächst grob, d.h. unscharf, eingestellt und wird bevorzugt auf ein leicht erkennbares Segment des Instruments 3, wie beispielsweise den Schaft gerichtet sein. Dabei wird die Information der Speichereinheit 103 gleichsam nach Art einer „Schablone“ durch fortlaufenden Zeilen und Spaltenversatz über den Bildinhalt im Speicher 101 geführt und nach Subtraktion der jeweils zu vergleichenden Bildanteile eine Art Differenzbild gewonnen, das einer nachfolgenden Auswertungseinheit 104 als Detektormittel zugeführt wird. Überschreitet ein Übereinstimmungskriterium, welches durch eine inverse Integration über das gewonnenen Differenzbild des gewählten Teils des Instruments ermittelt wird, aktuell einen vorgegebenen Schwellwert, so wird von einer Detektionsstufe 105 ein Triggersignal zusammen mit dem Bezugsort des Auffindens im ausgewerteten Kamerabild ausgegeben. Dabei ist das Übereinstimmungskriterium erfüllt, wenn das Differenzbild am schwächsten ist. Geeignet sind dabei auch entsprechende Korrelationsverfahren.
Im Speicher 103 ist in Zuordnung zu der im Speicherteil 103a festgehalten „Suchschablone“ ein Bezugsort festgehalten, der über die Verbindung 107 der Vergleichseinheit 102 mitgeteilt wird, um das eingeengte Suchfeld zu bestimmen. Wie erläutert, kann der Bezugsort hier auch außerhalb des als Suchschablone festgehaltenen Vergleichsbildes liegen, wie es in Fig. 2a dargestellt ist.
Weiterhin soll darauf hingewiesen werden, dass es sich bei den im Speicher 103 festgehaltenen Vergleichsbildern auch um die entsprechenden Instrument-Umrisse handeln kann, welche gegebenenfalls zum Auffinden des gesuchten Gegenstands im Originalbild ausreichend sind.
Wenn der Schaft 31 (Fig. 1) des Instruments im in der Speichereinheit 101 festgehaltenen Bild ermittelt wird, so wird aufgrund des aufgefundenen Bezugsorts eine Bildausschnitteinheit 106 angesteuert, welche aus dem im Speicher 101 vorhandenen Bildinhalt einen kleineren Bildausschnitt auswählt, die den gefundenen Bezugsort umgibt, um die nachfolgende Feindetektion durch Reduktion der Datenmenge zu beschleunigen. Wenn – wie bei dem betrachteten Beispiel - der distale Teil des Hilfsinstruments, der für die Feindetektion herangezogen wird, nicht mit der Bereich der bei der Grobdetektion verwendet wurde, identisch ist, so wird bei der Auswahl des Bildausschnitts ein geometrischer Versatz zwischen dem Bezugsort des aufgefundenen ersten Teilelements (Schaft 31) und dem zu suchenden distalen Element (Zangenbacken) – mit dem der Feinabgleich durchgeführt wird - vorgenommen, wie er den realen Gegebenheiten entspricht. Dies wäre im dargestellten Beispiel eine Verlagerung des Bezugsorts in einen Suchbereich zu dem zur Bildmitte hin gelegenen Ende des Schafts, der die Zangenbacken trägt, hin
In dem ausgewählten Teilbild wird anschließend ein Feinabgleich des distalen Instrumentenendes mit weiteren im Speicher 103b festgehaltenen Detailbildern vorgenommen, die hier nicht im Einzelnen dargestellt sind. Hier steht eine Reihe von Ansichten aus unterschiedlichen Raumrichtungen und unterschiedlicher Größe zur Verfügung. Beim vorgenommenen Abgleich erfolgt ferner eine Rotation in der Achse der Blickrichtung (also senkrecht zur Betrachtungsebene) und eine Verschiebung in zwei Koordinatenrichtungen, so dass das zu suchende Objekt in allen seinen möglichen Erscheinungsformen verglichen wird. Hierbei ist eine Korrelationstechnik geeignet, welche ein vom Grad der gefundenen Übereinstimmung abhängiges Signal abgibt. Überschreitet dies einen vorgegebenen Triggerwert und stellt auch das absolute Maximum der anderen sich ergebenden Übereinstimmungswerte dar, so wird die dabei angewendete Bildgröße, die Koordinatenausrichtung und zusätzlich der Schwenkwinkel um die Achse der Blickrichtung ausgegeben. Die Position und Ausrichtung des betreffenden Teils des Hilfsinstruments im festgehaltenen Kamerabild ist damit eindeutig definiert durch einen Bezugspunkt des durch das Übereinstimmungskriterium ausgesuchten Vergleichsbildes, und einen zugehörigen Ausrichtungsvektor, dessen Betrag die Maßstabsinformation bildet.
Der Ausrichtungsvektor wird bestimmt durch die Blickrichtung des Vergleichsbildes und dessen Rotation in der Bildebene. Ausgehend vom Endpunkt dieses Vektors legt eine Bezugs(distanz)information, welche in den zweiten Speichermitteln vorgesehen ist, im festgehaltenen Kamerabild die relative geometrische Zuordnung zwischen dem Ausgangspunkt des das aufgefundene Vergleichsbild kennzeichnenden Vektor fest und demjenigen Ort, der als virtueller Bezugspunkt für den Instrumententeil im dargestellten Bild eingefügt wird. Der Einfachheit halber ist diese Zuordnung des virtuellen Bezugspunkts in jedem der Vergleichsbilder fest vorgegeben. Ist nämlich jedes der Vergleichsbilder aus den unterschiedlichen Raumrichtungen entsprechend der Brennweite der verwendeten Endoskopkamera perspektivisch verzerrt abgebildet, ergibt sich der Bezugspunkt zum virtuellen Einblenden in das Kamerabild direkt aus dem gespeicherten Vergleichsbild, wenn es durch Auffinden der Position mit maximaler Übereinstimmung in einer Feindetektionseinheit 108 durch Bildauswahl, Größenvariation und Verschiebung korrekt in Übereinstimmung mit dem von der Kamera aufgenommenen Bild gebracht wurde. Der Punkt in dem das betreffende Instrument eine benachbarte Oberfläche berührt, ist damit fest und kann aufgrund der im Speicher 103c festgehaltenen Information unmittelbar in das laufende Bild eingeblendet werden. Fest verbunden mit dem aufgefundenen Bild ist auch eine Bezugsrichtung, die der Ausrichtung des Hilfsinstruments entspricht. Im Normalfall ist das die Ausrichtung der Zangenbacken.
Aufgrund dieser Daten wird also aus dem zweiten Speicher 103c eine virtuelle Information ausgelesen, die in der Größe angepasst durch den Maßstabsfaktor in das aktuelle Videobild direkt eingespielt wird oder zusammen mit dem festgehaltenen Standbild als Picture-in-Picture Information über die Mischeinheit 109 in eine Ecke des laufenden Bilds im Monitor 100 eingeblendet wird.
Auch eine Zusatzinformation, wie der abgebildete strahlenförmige Messstab wird aus einem entsprechenden Speicher 110 über eine Zoomstufe 111 in einer Bildsynthesestufe 112 maßstabsgetreu zusammengefasst in das laufende Bild eingespielt.
Es ist ersichtlich, dass auf diese Weise vom Chirurgen während der Operation ohne zusätzliche Maßnahme – allein durch eine entsprechend ausgestaltete Bildverarbeitung – Messungen im Operationsbereich vorgenommen werden können.
Bei dem hier zunächst dargestellten Ausführungsbeispiel wird davon ausgegangen, dass die Messebene parallel zur Bildebene verläuft, da in diese der Messstrahl maßstabsgerecht eingeblendet wird.
Es ist ferner ersichtlich, dass das Auffinden des betreffenden Teils des Hilfsinstruments erleichtert wird, wenn dessen Position in einem vorangehenden Bild festgehalten wird und in den folgenden Bildern die nur noch die nächste Umgebung der bisherigen Position im Kamerabild abgesucht wird.
Das Auffinden des TeilInstruments lässt sich noch insoweit verbessern, als die im Speicher festgehaltenen Vergleichsbilder durch aktuelle Bilder des betreffenden Teils aus dem aktuellen Verlauf ersetzt oder mit diesen teilweise überschrieben werden können.
Anstelle der Einzeldarstellungen aus unterschiedlichen Raumrichtungen im Vergleichsspeicher kann hier auch eine zusammenhängende Darstellung eines dreidimensionalen Modells vorgesehen sein, die entsprechend einer CAD-Darstellung je nach Betrachtungsrichtung angepasst, vergrößert, verkleinert oder verschoben wird.
Zweckmäßigerweise werden in dem Speicher vor der Operation die Bilddaten der aktuell verwendeten Instrumente eingefügt bzw. dort ausgewählt. Anstelle der Gesamtbilder werden bei einer alternativen Ausführungsform der Erfindung statt der zum Vergleich herangezogenen Ansichten lediglich Konturbilder eingespeichert und verglichen.
Es ist ersichtlich, dass bei verwendeten geeigneten Ähnlichkeitskriterien auch Verschmutzungen der Instrumente auftreten können, ohne dass der Vergleich aufgrund einer aufzufindenden maximalen Ähnlichkeit versagt. Dies gilt insbesondere, wenn die genannte Selbstlerntechnik und eine Verfolgung des Instrumententeils durch eine Berücksichtigung des jeweils letzten aufgefundenen Standorts angewendet wird.
Das bisher dargestellte System bietet also die Möglichkeit, ein übliches chirurgisches Hilfsinstrument ohne wesentliche Änderungen zur Steuerung eines virtuellen Messstabs zu benutzen, welcher ausgehend von einem mit dem chirurgischen Hilfsinstrument virtuell verbundenen Bezugspunkt im Operationsfeld Messungen in der Bildebene Messungen auszuführen, wobei der Messstab an den Bildmaßstab angepasst ist, wie er in dem Abstand von der Kamera vorzufinden ist, in dem sich der der virtuelle Bezugspunkt des Hilfsinstruments befindet. Die Richtung des Messstabs folgt dabei der Ausrichtung des Instruments, woraus sich eine sehr einfache Handhabung ergibt.
Ein Pfeil 113 in Fig. 2 deutet an, dass bei der Grobbestimmung des Ortes des Instruments mit den Detektormitteln 102 gemäß Fig. 2 nicht immer vom gesamten Kamerabild ausgegangen werden muss. Ist der gesuchte Instrumententeil erst einmal gefunden, so ist es ausreichend, nach einer Bewegung desselben beim nächsten Suchzyklus lediglich die nähere Umgebung des Ortes aufzusuchen, an dem sich der Instrumententeil zuvor befand. Auf diese Weise ist es möglich im laufenden Bild den Messstab – oder eine andere entsprechend einzublendende Grafikinformation, welche beispielsweise auch ein Zahlenwert sein kann – aktuell mit der Position des Instruments mitzuführen.
In Fig. 3 ist ein komplexeres System dargestellt, in dem die Möglichkeiten aufgezeigt werden sollen, wie die mit den in Fig. 2 dargestellten Mitteln aufgefundenen Informationen zu weiteren, die Information des behandelnden Chirurgen erweiternden Darstellungen ergänzt werden können. Hierbei können verschiedene Grafiken oder Messgrößen, die aus dem laufenden Bild maßstabsgerecht gewonnen werden, nach Auswahl und Einstellung durch entsprechende Betätigungselemente in das laufende Bild oder in ein zusätzliches Standbild, das nach Art einer Picture-in-Picture-(Bild-in-Bild) Darstellung eingeblendet wird, eingefügt werden.
Das kann dann zweckmäßig werden, wenn innerhalb des Bildes maßstabsgerechte Berechnungen ausgeführt werden sollen, die über die reine die aktuelle Handhabung unterstützende Bemaßung hinausgehen. Wenn also beispielsweise Flächen- oder Volumenberechnungen durchgeführt oder Messdaten in Protokollen festgehalten werden sollen, die über die reine Echtzeitverarbeitung hinausgehen.
Um einen Vorgang der Bildvermessung oder eines sonstigen Verfahrens, welches einen grafischen Mess- oder Auswertungsvorgang auslöst, zu starten, ist eine Auslöseeinheit 201 vorgesehen, welche beispielsweise durch eine externe Betätigungstaste gestartet wird, die an der Kameraeinheit zusammen mit anderen Bedienungselementen angebracht ist. Mit dieser Auslöseeinheit wird einer Standbildspeichereinheit 202 (vergleichbar mit der Einheit 101 in Fig. 2 aus der der laufenden Videosignal der Kamera 2 ein einzelnes geeignetes Bild ausgewählt und festgehalten, das bei der weiteren Verarbeitung zu Grunde gelegt werden soll. Mittels einer weiteren Eingabeeinheit wird die gewünschte von verschiedenen Grafikdarstellungen oder -prozeduren ausgewählt. Diese Auswahl wird unterstützt durch eine Cursoreingabeeinheit 203, in der zusätzlich eine örtliche Zuordnung getroffen werden kann. Die Ausgangssignale der Einheiten 201 bis 203 steuern eine Berechnungseinheit 204, die einen Grafikprozessor enthält, um die gewünschten Verarbeitungen umzusetzen. Weiterhin ist in Block II der Verarbeitungsteil der in Fig. 2 dargestellten Mittel einbezogen. Hiermit können also maßstabsgerechte Grafikinformationen in Zuordnung zur Position eines (oder mehrerer) Hilfsinstrumente zur weiteren Verarbeitung oder Darstellung erlangt werden.
Das Ausgangssignal der Berechnungseinheit steuert – je nach ausgewähltem Verarbeitungsprogramm eine Grafikeinheit 205 an, in den grafischen Darstellungen gespeichert sind, welche die von der Einheit II (gemäß Fig.2) gelieferten Elemente ergänzen. Dazu gehören Menü-Auswahlfelder oder Auswertungsfenster für numerische Messdaten. Die Einblendung in das in der Einheit 202 gespeicherte Standbild erfolgt in der Mischeinheit 206, wobei in einer nachgeschalteten Zoomeinheit 207 eine Anpassung an die auszugebende Bildschirmgröße erfolgt. Die Einblendung als Teilbild in die Wiedergabe des Monitors erfolgt in einer PiP-Mischeinheit. Außerdem kann das erzeugte Bild auch auf einem separaten Tablett-Monitor 208 wiedergegeben werden, der ein separates Wiedergabegerät bildet, das als WLAN-fähiger kabelloser Bildschirm frei in eine gewünschte Darstellungsposition bewegt werden kann. Die Steuerungsinformationen für den speziellen Tablett-Monitor 208 werden in einer Einheit 209 zugemischt, wobei in einer weiteren Steuereinheit 210 auch noch die Daten aus einer Baugruppe VII zugemischt werden, die in Fig. 7 näher dargestellt ist. Hierbei handelt es sich um Log-Daten, die aus der Bewegung des Hilfsinstruments zum Zwecke der Protokollierung abgeleitet werden und über Gesten-Daten, die ebenfalls als der Bewegung des Hilfsinstruments gewonnen werden – aber der Steuerung des Systems dienen, wie es im einzelnen weiter unten näher beschrieben ist.
In Fig. 4 ist eine Vermessung mittels zweier Instrumente 3 und 4 im Prinzip dargestellt. Mit deren Endteilen 33 und 43 lassen sich – wie anhand von Fign. 1 und 2 beschrieben – Bezugspunkte auf dem Objekt 1 durch entsprechende Positionierung der distalen Enden 33 und 43 über ihre zugeordneten virtuellen Markierungen (vgl. das Kamerabild gemäß Fig. 4a) definieren. Die beiden Instrumente werden durch an ihren Einsätzen 32 und 42 in Form von Kreisringen unterschiedlicher Zahl angebrachten Kennzeichnungen 34 und 44 identifizieren. Anstelle dieser Kennzeichnungen können auch andere Kennzeichnungsmittel an den Instrumenten angebracht sein, die sich mittels einer anderen physikalischen Signalübertragung identifizieren lassen. Dazu gehören beispielsweise RFID-Tags.
Die Kamera ist 2 ist mit einer zusätzlichen Laserquelle ausgestattet, die ein Laserstrahlenbündel 48 abgibt, welches auf dem Objekt 1 eine Lasermarkierung 49 erzeugt. Deren Abstand zum Schnittpunkt der optischen Achse mit dem Objekt 50 definiert eine weitere Bezugsgröße für die Ermittlung des örtlichen Maßstabs, wie es in der älteren Patentanmeldung des Anmelders beschrieben ist.
Das Objekt 1 soll bei diesem Ausführungsbeispiel aus einer im Raum geneigten Ebene bestehen, die nicht senkrecht zur optischen Achse 21 der Kamera 2 gerichtet ist. Eine Vermessung im gemäß Fig. 1 dargestellten Kamerabild ist nicht ohne weiteres möglich, da der Maßstab des auf dem Monitor wiedergegebenen Objekts je nach Entfernung von der Kameraoptik – also in den jeweiligen Bereichen der Ebene des Objekts 1 unterschiedlich ist. Wie anhand von Fig. 2 dargestellt, lassen sich mit den dort beschriebenen Maßnahmen auch die in den Punkten gültigen Abbildungsmaßstäbe errechnen.
Fig. 4a zeigt das entsprechende Monitorbild. Hier ist auf dem Objekt die Lasermarkierung 49 erkennbar, welche durch eine am Schaft der Endoskopkamera 2 angebrachte Laserquelle erzeugt wird. Durch den bekannten Abstand der Lasermarkierung 49 im Monitorbild 4a, der dem realen Abstand der Laserquelle vom Schnittpunkt 50 mit der optischen Achse der Kamera entspricht, lässt sich der Abbildungsmaßstab für diesen Abbildungsbereich errechnen, wie es in der älteren Patentanmeldung des Anmelders beschrieben ist.
Mit den Enden 33 und 34 sind die in Fig. 4a erkennbaren virtuellen Bezugspunkte 51 und 52 verbunden, welche das Ende einer zu vermessenden Strecke 53 markieren, die durch entsprechende Positionierung der Enden der Instrumente 33 und 43 auf dem Objekt 1 frei ausgewählt werden können. Die zu vermessende Strecke 53 wird in das aktuelle Bild als Verbindung der den Instrumenten zugeordneten und mit den virtuell verbunden Punkte 51 und 52 eingeblendet, so dass sie auf dem Monitor – wie dargestellt – erscheint. Im Bild ist eine zusätzliche Digitalanzeige 54 eingeblendet, welche die durch das zugehörige Datensystem errechnete Länge der Strecke 53 aktuell digital in einer gewählten Maßeinheit anzeigt. Dabei können auch andere Rechenoperationen ausgewählt werden. So ist es beispielsweise möglich, auch den Flächeninhalt des von den Punkte 49, 51 und 52 aufgespannten Dreiecks digital auszuwerten und entsprechend anzuzeigen.
Da die Objektebene 1 zur optischen Achse der Kamera 2 eine beliebige – nicht bekannte – Neigung aufweisen kann, wird die Bildschirmdarstellung so korrigiert, das die Objektebene in entzerrter Draufsicht dargestellt wird, so als ob sich die Kamera senkrecht darüber befinden würde. Das wird hier so erreicht, dass eine Trapezentzerrung des Bildes in der Weise vorgenommen wird, dass die Umgebungen der Bezugspunkte 50 bis 52 im selben Maßstab dargestellt werden. Diese Darstellung unterscheidet sich von der in Fig. 4a wiedergegebenen. Die dazu notwendige Berechnungsweise wird an Hand von Fig. 5 beschrieben.
Um eine korrekte Vermessung in Ebene des Objekts – und damit auf dem Bildschirm - vornehmen zu können, wird in der Anordnung gemäß Fig. 5 eine Trapezentzerrung vorgenommen. Bezugsmaßstab soll der örtliche Maßstab bei der Lasermarkierung 49 sein. Um jetzt auch Umgebung der virtuellen Punkte 51 und 52, die über die Geometrie der Enden 33 und 34 der beiden Instrumente 3 und 4 nach oben beschriebenen Prinzipien ermittelt wurden, im gleichen Maßstab erscheinen zu lassen, wird das Bild im Bereich dieser Punkte jeweils in Richtung der gegenüberliegenden Seite des gestrichelten Dreiecks mit den Punkten 49, 51 und 52 in Fig. 4a entsprechend gestaucht oder gestreckt. Dazu wird jeweils eine entsprechende Trapezverzerrung angewandt, welche optisch einer entsprechenden Neigung der Ebene um jeweils die dem betreffenden Punkt gegenüberliegende Dreiecksseite entspricht, mathematisch aber durch eine Bildverzerrung erreicht wird, die in Richtung der Mittelsenkrechten der jeweiligen Dreieckseite zu- oder abnimmt. Auf diese Weise erscheint auf dem Bildschirm das Objekt 1 derart linearisiert, dass Längenmessungen korrekt vorgenommen werden können. Um entsprechende Messungen und Objektvergleiche im Original vornehmen zu können wird der Maßstab bevorzugt durch einen entsprechenden Zoomvorgang auf 1:1 eingestellt, so dass insbesondere auf dem Hilfsbildschirm 208 gemäß Fig. 3 unmittelbare Formanpassungen vorgenommen werden können.
Zu dem in den Fign. 4 und 4a dargestellten Ausführungsbeispiel muss noch gesagt werden, dass die Gerade zwischen den virtuellen Bezugspunkten 51 und 52 auch ohne Trapezentzerrung und einen dritten Bezugspunkt 49 vermessen werden kann, wenn es dabei nicht auf die maßstabsgerechte Darstellung der gesamten Fläche, sondern nur auf die Länge der Geraden ankommt. In diesem Fall lässt sich die Länge der Geraden bei räumlich schief liegender Objektoberfläche aus den jeweiligen Kamerabständen der Bezugspunkte 51 und 52 ermitteln, die sich aus der Abbildungsgröße nach dem Strahlensatz errechnen lassen.
In Fig. 5 ist die dazu erforderliche Datenverarbeitung (als Teil der Zoomeinheit 207 in Fig. 3) schematisch in Blockdarstellung wiedergegeben. Die örtlichen Maßstäbe und Bildpositionen der Instrumente bzw. der Lasermarkierung 50, 51 und 49 werden den Blöcken 301, 302 bzw. 303 als Eingangsgrößen zugeführt. Hieraus wird in der Recheneinheit 304 – wie oben angegeben, die auf die Bilddarstellung anzuwendende (Zweifache Trapez-) Verzerrung errechnet. Die aktuelle graphische Darstellung wird in den Bildspeicher 305 überführt und in der Verzerrungseinheit 306, der in der Recheneinheit 304 ermittelten Verzerrung unterworfen. Die Ausgabe erfolgt dann über den weiteren Zwischenspeicher 307.
Es ist ersichtlich, das in dem bezüglich des Maßstabs linearisierten in Draufsicht dargestellten Objekt 1 mittels geeigneter Cursormittel, die ebenfalls – nach entsprechender Voreinstellung - durch das Hilfsinstrument bzw. sein zugeordneter im Bild dargestellter Bezugspunkt gebildet werden können, in der Ebene des Objekts beliebige Punkte nachträglich markiert und vermessen werden können, so dass diese Auswertung nicht daran gebunden ist, dass ein Ende eines Hilfsinstruments tatsächlich am Objekt zu dem zu vermessenden Punkt hin geführt wird. Im Rahmen einer Operation kann es daher für Protokollzwecke ausreichend sein, in festzuhaltenden Standbildern zur Vermessung mit den Instrumenten kurz die Grenzen einer Hernie oder eines Tumors, Gallensteins etc. zu berühren, um die zur späteren Vermessung notwendigen Daten festzuhalten.
Als Gesten können somit vordefinierte Bewegungen des Instruments (in der Luft) oder in Zuordnung zu in den Bildschirm eingeblendete AuswahlMenüs (hier nicht dargestellt) oder eben die beschriebene Formänderung - bzw. auch deren Kombination ausgewertet werden wie es weiter unten an Hand von Figur 10 dargestellt ist.
In Fig. 6 ist ein weiteres Ausführungsbeispiel des distalen Endes eines Hilfsinstruments wiedergegeben, dessen distales Ende 33 durch die Backen einer chirurgischen Zange gebildet wird. Diese Zange zeichnet sich dadurch aus, dass an der mit einer Oberfläche in Kontakt kommenden Fläche im Bereich der Unterseite Eingriffsmittel 60 vorgesehen sind, welche durch eine kraftschlüssige Verbindung mit einer insbesondere nachgiebigen Oberfläche eine Haltewirkung ermöglichen, so dass das Ende des Instruments in der gewünschten Position sicher gehalten und gegen ein Verrutschen gesichert ist. Auf diese Weise kann das Instrument bei leichtem Andruck mit einer organischen Oberfläche in sicherem Kontakt gehalten werden, so dass die Messpunkte auch mit zwei Instrumenten sicher gewählt bis zu dem Zeitpunkt fixiert werden können zu dem die Messung erfolgt. Als Eingriffsmittel sind alle diejenigen Maßnahmen geeignet, die auf der zu behandelnden Oberfläche eine ungewollte Verschiebung verhindern, wie Aufrauhungen, Noppen, Verzahnungen, Profilierungen, Riffelungen oder Kordierungen.
Fig. 6a zeigt ein Detail des distalen Endes eines Ausführungsbeispiels eines Hilfsinstruments zur Anwendung mit der Erfindung, welches als Bezugs- und Zeigeinstrument besonders geeignet ist. Wiedergegeben ist die Bildschirmdarstellung. Der Einsatz 32 ist als stabförmiger Bereich ausgestaltet, der zwei Kugeln 61 und 62 von unterschiedlichem Durchmesser trägt, die in einem Abstand 66 voneinander angeordnet sind. Die außen gelegene Kugel 62 weist dabei einen geringeren Durchmesser 67 aufweist als die innen gelegene Kugel 61 mit dem Durchmesser 68. Die Kugeln sind im Bild der Kamera mit digitalen Auswertungsmittel besonders leicht zu identifizieren, da sie aus unterschiedlichen Raumrichtungen eine jeweils gleiche Außenkontur (mit unterschiedlichen Durchmessern) aufweisen. Damit kann – bei bekannter Dimensionierung und Positionierung aus der Abbildung der Kugeln im Kamerabild auf deren räumliche Positionierung, die Ausrichtung des Instruments und den örtlichen Abbildungsmaßstab geschlossen werden. Virtueller Bezugspunkt ist dabei das Ende 63 des stabförmigen Bereichs 32, der auch mit einer benachbarten Objektoberfläche zunächst in Berührung kommt, so dass das in dieser Fig. dargestellte Instrument besonders zur genauen positionierten Auswahl von Messpunkten oder für Zeigeranwendungen geeignet ist.
Bei der Strecke 69 handelt es sich um die interne Bezugsinformation, welche die Entfernung des äußeren Bezugspunktes des Instruments mit einer internen Bezugsbasis (hier der Mittelpunkt der unteren Kugel 67) in Beziehung setzt. Am Ort des äußeren Bezugspunkts wird der Cursor 63 im Bildschirm erzeugt, der anzeigt, dass das Instrument 31 in seiner Positionierung korrekt erkannt wurde. Die Position des Cursors ist bezogen auf das äußere Bezugssystem 64 des Bildschirms, auf dem die Darstellung erfolgt.
Die optische Auswertung durch Abgleich gemäß Fig. 2 gestaltet sich dabei besonders einfach, weil die Kugeln 61 und 62 von allen Seiten gleich erscheinen, so dass die axiale Ausrichtung keine Rolle spielt und daher nur eine Raumrichtung berücksichtigt werden muss. Die Ausführung kann daher unter schwierigen Verhältnissen oder zur Einmessung eines Systems gemäß der Erfindung verwendet werden.
In Fig. 6b ist dargestellt, wie nicht nur das Ende 33 eines Instruments zur Ermittlung einer Position und eines örtlichen Maßstabs dienen können, sondern mit dem Instrument ist auch eine Signalisierung nach Art einer Gestik möglich, wenn nicht nur die Position des Instruments im Kamerabild, sondern auch seine Form ausgewertet wird. Diese Formänderung wird im dargestellten Beispiel durch die Aufspreizung der der beiden Zangenbacken 64 und 65 bewirkt, die von außerhalb des Beobachtungsraums gelegenen Ende des Instruments her ausgelöst werden kann. (Die geänderte Form wird dabei von den oben dargestellten Detektions- und Auswertungsmitteln als getrennt als Abbildung dargestelltes Instrument erkannt.)
Bei dem in Fig. 7 wiedergegebenen Ausführungsbeispiel eines Instruments wird von einer am Einsatz 32 in einem dem unteren Ende des Schafts 31 benachbarten Ende angebrachten Laserlinienquelle 71 mittels der Strahlung 72, 73 in einem in seiner höhenmäßigen Erstreckung abweichenden Bereich 74 eine linienförmige Lasermarkierung 75 erzeugt. Bei dem in Fig. 7 dargestellten Kamerabild ist erkennbar, dass durch die Abbildung der Laserlinie 75 wegen ihres im Vergleich zur optischen Achse der Kamera schiefwinkligen Auftreffens die Unebenheiten 74 des der Oberfläche es Objekts 1 perspektivisch erkennbar werden.
Wenn ein zweites Instrument 4 so gehalten wird, dass die durch die virtuellen Bezugspunkte gebildete Verbindungsstrecke 78 von der Laserlinie 75 gequert wird, so kann nicht nur die Gerade 74 zu Vermessung im Bildschirm dargestellt werden, sondern auch die Laserlinie 75 auf Grund der maßstäblich bekannten Maßbeziehungen in ein auf dem Bildschirm darzustellendes Profil umgerechnet werden, wie es in Fig. 7a dargestellt ist. Entsprechend lässt sich auch eine perspektivische Darstellung, wie sie in Fig. 7 wiedergegeben ist, mit eingeblendeten Maßzahlen versehen.
Da die Laserlinie schräg auf das (hier gestuft dargestellte) Objekt projiziert wird, bildet sie aus Kamerasicht eine Konturlinie, welche eine Beurteilung der Topologie des von der Kamera aufgenommenen Objekts ermöglicht. Dies ist insbesondere bei Spalten oder Rissen im Objekt günstig, welche zu Reparaturzwecken genau vermessen werden sollen. Bei einem zweidimensionalen Kamerasystem kann auf diese Weise ein dreidimensionaler Überblick über das Objekt gewonnen werden, ohne dass es langwieriger nachträglicher Auswertungen bedarf. Der topographische Verlauf der Oberfläche wird durch die Auswertung des Verlaufs der Laserlinie im Kamerabild auf Grund der bekannten mathematischen Beziehungen ermittelt und wird in das laufende Bild als Konturlinie eingeblendet. Auf diese Weise lässt sich beispielsweise die Tiefe von Rissen dort messtechnisch genau ermitteln, wo sie von der Laserlinie getroffen werden. Dies ermöglicht dem Benutzer bei Defekten eine präzise Abschätzung der einzuleitenden Maßnahmen.
In Fig. 8 ist anhand einer Blockdarstellung schematisch dargestellt, wie durch die Logaufzeichnung der Instrumentenbewegungen einerseits eine Protokollierung des Operationsverlaufs und andererseits die Auswertung von Instrumentenbewegungen zur Steuerung von angeschlossenen Geräten oder sonstigen Signalauslösungen im Sinne einer Gestikauswertung benutzt werden können. Dabei handelt es sich in beiden Fällen um die aufeinanderfolgende Speicherung von Instrumentenpositionen, sowie -ausrichtungen und Formzuständen (vgl. Fig. 6b) in zeitlicher Zuordnung. Diese Zustände werden mit den zugehörigen Zeitmarken im Speicher 81 protokolliert. Die Speicherung erfolgt dabei gegebenenfalls in Kontext und räumlicher Zuordnung, zu einem – hier nicht dargestellten – Bildschirmmenü. Je nach dem aktuellen Systemkontext, der durch weitere oder zuvor erfolgte Signaleingaben bzw. das aktuell eingeblendete Bildschirmmenü definiert ist, gelangen die gespeicherten Zustandsdaten vom Block 81 in eine Auswertungseinheit 82, wo durch Vergleich mit vorgegebenen Zeit und Ortsbedingungen die ermittelte Folge von Instrumentenpositionen und Ausrichtung entweder als Geste zur Steuerung vordefinierter Vorgänge ausgewertet wird, welche in einem Speicher 83 adressierbar sind und zwecks Ausführung an eine Steuereinheit 85 weitergegeben werden. Gehören die detektierten Instrumentenpositionen und Ausrichtungen aber zu einem vordefinierten Szenarium eines operativen Ablaufs, so wird die dafür vorgesehene Bezeichnung in einem Speicher für Operationsablauf abgelegt und im Fortlauf gespeichert und an die Ausgabeeinheit 86 übergeben.
In Fig. 9 ist ein Hilfsinstrument 3 im Schnitt dargestellt, wie es zur Messung in der Weise verwendet werden kann, dass eine an seiner Oberfläche sichtbare Änderung durch Veränderung der Instrumentenform über eine entsprechende Vermessung nach außerhalb übertagen werden kann. Im Erfassungsbereich 22 der Kamera 2 ist das entsprechende Hilfsinstrument 3 positioniert, des Einsatz nach Art einer Federwaage ausgebildet ist. Ein federnd ausziehbarer Bereich 91 ist am Ende mit einem Haken 92 versehen, der in einen flexiblen Bereich 93 des Objekts eingreift. Um die auf das Objekt übertragbare Zugkraft messen zu können wird der federn ausziehbare Bereich über eine manuelle Zugbelastung des Instruments vom äußeren Ende her ausgezogen, bis eine notwendige Sollbelastung erreicht ist. Über das Kamerabild erfolgt jetzt eine optische Auswertung der Instrumentenform, welche in unterschiedlicher Konfiguration im entsprechenden Vergleichsspeicher abgelegt ist. Im Prinzip erfolgt also für die unterschiedlichen durch den wechselnden federnden Auszug bedingten Formänderungen jeweils die Detektion eines „anderen“ Hilfsinstruments dem die zugehörige aktuell auftretende Belastung zugeordnet ist. Damit lassen sich durch rein optische Auswertung Zugmessungen bei endoskopisch ausgeführten Operationen durchführen. Eine Kennzeichnung 94 ermöglicht dabei die für die Auswertung richtige Zuordnung der verwendeten Hilfsinstruments – entsprechend beispielsweise der verwendeten Kennlinie der vorgesehenen Zugfeder. Es ist ersichtlich, dass auf ähnliche Weise auch Messungen betreffend die Eintauchtiefe eines Instruments vorgenommen werden können, wenn statt des Bereichs 91 ein fester Stab vorgesehen ist, bei dem die Länge des restlichen aus einer Vertiefung herausragenden – und damit für die Kamera sichtbaren Teils entsprechend vermessen wird.
Die Auswertung kann dabei entsprechend der Darstellung in Fig. 8 erfolgen, wobei statt unterschiedlicher Instrumentenpositionen unterschiedliche Instrumentenformen ausgewertet werden, die in dem zu adressierenden Auswertungsspeicher unterschiedlichen Messwerten zugeordnet sind, die auf diese Weise ohne Hilfsenergie oder Kabel in das System übertragen werden können, mit dem die Kamera verbunden ist.
Bei dem in Fig. 10 dargestellten Ausführungsbeispiel ist eine Anordnung zur Steuerung von Funktionen direkt durch das Hilfsinstrument mittels Gestik bzw. Menüauswahl vorgesehen. Dabei lassen sich Funktionen des Systems unmittelbar durch entsprechende Bewegungen des distalen Instrumentenendes auslösen. Damit ist es nicht mehr notwendig das Instrument zur Steuerung des Systems abzulegen. Mit der Instrumentenspitze muss lediglich ein Freiraum aufgesucht werden, der es ermöglicht, eine relativ kleine Bewegung in der Bildebene auszuführen. Dabei ist die zur Auslösung erforderlichen Bewegungsdistanzen bei der Bildwiedergabe dem Maßstab der Größe der Darstellung des Hilfsinstruments angepasst sind. Auf diese Weise ist sichergestellt, dass die real auszuführenden Bewegungen des Instruments unabhängig von der Größe der Abbildung im Bildschirm ist, obgleich die Bewegungsauswertung auf Grund der digitalen Daten der Bildwiedergabe erfolgt.
In einem Ausschnitt 120 des wiedergegebenen Bildes ist die für den Benutzer sichtbare Szenerie dargestellt. Das Hilfsinstrument 3 wird mit seinem distalen Ende entfernt von dem Objekt geführt, dessen Einzelheiten im Ausschnitt 120 nicht dargestellt sind. Das Instrument 3 wird mit der in Fig. 2 dargestellten Anordnung mit der dort wiedergegebenen Kamera 2 erfasst. Die Bilddaten werden entsprechend verarbeitet, so dass der Bildmaßstab im Bereich des Instruments 3 als Maßstabsinformation und die Position der Instrumentenspitze als Vermessungsinformation neben den Bilddaten zur Verfügung stehen. In der Bildwiedergabe des Bildausschnittes 120 ist im Bereich des distalen Endes des Instruments 3 ein Cursor 121 wiedergegeben, der synchron mit der Instrumentenspitze wandert und als Vermessungsinformation die ermittelte Position der Instrumentenspitze im Bild anzeigt. Das Bild des Cursors wird synthetisch erzeugt und bildet eine virtuelle Markierung des distalen Instrumentenendes. Sein Erscheinen bildet die optische Rückmeldung für die korrekte Erfassung und Verarbeitung des Bildes des Instruments durch die Aufnahmekamera 2 gemäß Fig. 2.
Um eine Funktionsauswahl aus einem Menü treffen zu können, sind Auswahlfelder 122 bis 125 mit den Bezeichnungen A bis D im Bild dargestellt. Den Buchstaben A bis D sind Betätigungsfunktionen des Systems zugeordnet, die nunmehr unmittelbar durch eine Bewegung des Instruments 3, in der Weise ausgelöst werden können, dass das Bild der Instrumentenspitze mit dem Cursor 129 zu einem der Auswahlfelder 122 bis 125 gelangt und dieses mindestens teilweise überlagert. Durch eine weiter unten zu beschreibende Auswertungslogik wird in diesem Fall die zugeordnete Funktion ausgelöst. Beispiele für zugeordnete Funktionen sind: Speichern eines Standbildes, Starten bzw. Beenden einer Videoaufzeichnung oder Speichern einer Zeitmarke im Rahmen eines Protokolls oder der Aufruf eines Untermenüs. Die Darstellung der Auswahlfelder erfolgt in einer Entfernung x vom Ausgangspunkt, der durch die Position des Cursors 129 in einer kurzzeitigen Ruhestellung des Instruments 3 bestimmt wird. Wird das Instrument in einer Ruheposition gehalten, erscheint also der Satz von Markierungen 120 bis 125 (verteilt um die augenblickliche Position des Cursors 121) im Bild und zeigt an, dass eine Funktionsauswahl stattfinden kann. Da die Entfernung x der Markierungen von der Ausgangsposition vom Maßstabsfaktor der Abbildung des Instruments 3 abhängig ist (x nimmt mit zunehmender Größe der Instrumentendarstellung zu), ist sichergestellt, dass die zum Auslösen einer Funktion auszuführenden Wege des Instruments in der Bildebene im wesentlichen gleich bleiben – unabhängig vom Kameraabstand und dem daraus resultierenden Bildwiedergabemaßstab. Eine Auswertung der Bewegungen des Instruments in der Bildebene wäre auch ohne die dargestellten Markierungen, die lediglich der Orientierung dienen, möglich (reine Gestik). Im Sinne einer vollständigen Menüführung können aber auch ausführlichere Beschriftungen in das Bild eingeblendet oder Untermenüs aufgerufen werden.
Im Folgenden soll die Funktionsweise anhand des weiteren Blockschaltbilds gemäß Fig. 10 im Einzelnen näher beschrieben werden: Die Bildinformation von der Kamera gelangen zu einem Bildmischteil 127, mittels dessen der aufgenommenen Bildinformation die synthetisch erzeugten Einblendungen virtueller Natur überlagert werden. Die aus dem Blockschaltbild gemäß Fig.2 abgeleiteten die Position des Instruments kennzeichnenden Daten gelangen in einen Speicher 128 für die Cursorposition über dessen Eingang 129. In den Speicher 130 für den Maßstab (der Instrumentendarstellung) gelangt das entsprechende Signal aus der Blockschaltung nach Fig. 2 über den Eingang 131. Der einfacheren Anschauung halber sei angenommen, dass der Maßtabsfaktor als reziproker Wert übermittelt wird, dessen Betrag mit zunehmender Größe der Darstellung ebenfalls ansteigt. Mittels einer Detektor- und Steuerschaltung 132 werden die zur Bilddarstellung für die Menü- bzw. Gestensteuerung notwendigen Funktionen ausgelöst. In der Schaltung 132 werden Signale zur Generierung der Anzeige der Markierungen 122 bis 125 im Bild generiert, wobei die Position jeweils um den Abstand x (gesteuert durch das Maßstabssignal aus Block 130) zur Position des Cursors (gesteuert durch das Positionssignal aus Block 128) verschoben ist. Zur Zeitsteuerung dient ein Zeitgeber 133, welcher zyklisch zu den Zeiten T1 und T2 nacheinander ein Taktsignal abgibt. Bleibt das Instrument für eine Zeitdauer, die größer als t1 (ca. 1 Sekunde) ist, in Ruhe gelangt das Ausgangssignal T1 an den Setzeingang eines Flipflops 134, welcher über einen Schalter 136 die Signale für die Generierung der Markierungen 122 bis 125 zu dem Bildmischteil durchschaltet, so dass für den Bediener erkennbar ist, dass die Menü- bzw. Gestensteuerung freigeschaltet ist. In der Steuerschaltung 132 werden jetzt die Anzeigepositionen der Markierungen 122 bis 125 für den Zeitraum t1 festgehalten. Eine Cursorbewegung, hervorgerufen durch eine Bewegung des Instruments in der Bildebene, die nicht eine der Markierungen 122 bis 125 erreicht führt zum Zeitpunkt t1 durch das entsprechende Signal an die Steuerschaltung 132 und den Rücksetzeingang des Flipflops 134 zu einem Zurücksetzen beider Schaltungen in ihren Ausgangszustand, so dass keine weitere Funktion ausgelöst wird. Kleine Instrumentenbewegungen bleiben also ohne Wirkung. Erreicht die Position des mit der Instrumentenspitze verbundenen Cursors die Position einer der Markierungen 122 bis 125, so verlöschen diejenigen Markierungen, deren Position nicht erreicht wurde. Nur die ausgewählte Markierung bleibt angezeigt als Quittung für die erfolgreiche Auswahl. Zum Zeitpunkt T2 wird auch der Schalter 135 durchgeschaltet, der das die Anzeigeposition für die ausgewählte Markierung beinhaltende Ausgangssignal reduziert auf den logischen Schaltpegel, welcher über einen der Ausgänge 138 im System die zugeordnete Funktion mit dem Impuls zum Zeitpunkt T2 auslöst. Damit wird auch die Anzeige des ausgewählten und aktivierten Anzeigeelements im Bildschirm gelöscht.
Wenn mit dem Instrument eine Messung aktiviert wird, wie es weiter oben beschrieben ist, kann es zweckmäßig sein, den Messwert in einem Standfoto zu protokollieren. In diesem Fall steht das Instrument nicht zu einer aktiven Funktionsauswahl zur Verfügung. In diesem Fall ist vorgesehen, dass dieses Standfoto ausgelöst wird, wenn der Cursor einfach unbeweglich bis T2 in der Mittelstellung bleibt und auch diese Position zu einer entsprechenden Funktionsauslösung über die Leitung „0“ der Ausgänge 138 führt. Das Standfoto kann aber verhindert werden, wenn der Cursor über das Instrument 3 nur aus dem Zentrum wegbewegt wird, ohne eine der anderen Markierungen zu erreichen.
Es ist ersichtlich, dass auch noch weitere Funktionen dadurch ausgelöst werden können, dass das das Instrument axial gedreht wird und damit durch die Schaltung gemäß Figur 2 eine andere Ansicht zum Abgleich des Bildes des Instruments 3 ausgewählt wird. Entsprechendes gilt für Formveränderungen des Instruments 3, wie ein Aufspreizen oder Schließen der Zangenbacken.

Claims (17)

  1. Endoskopisches Bildverarbeitungssystem enthaltend eine optische Endoskop-Kamera, insbesondere mit großer Schärfentiefe, Mittel, welche im Erfassungsbereich der Endoskop-Kamera (2, Fig. 2) eine geometrische Distanzinformation in Form einer optischen Information erzeugen, die zusammen mit mindestens einem Bild (oder Teilbild) der von der Kamera aufgenommenen laufenden Bildinformation verarbeitet, detektiert, von der Bildinformation separiert und weiter aufbereitet wird, um eine Vermessungsinformation aus dem durch die Digitalkamera gewonnenen Bildinhalt zu erhalten, dadurch gekennzeichnet, dass die Mittel, welche im Erfassungsbereich der optischen Digitalkamera (2) die geometrische Distanzinformation erzeugen, aus einem in den Aufnahmebereich der Kamera einbringbaren, distalen Teil mindestens eines Hilfsinstruments bestehen, und weitere Mittel zum fortlaufenden Verarbeiten der Distanzinformation gebildet werden durch: Speichermittel für mindestens eine Abbildung des Teils des Hilfsinstruments als Vergleichsinformation zum Zwecke des Abgleichs mit dem laufenden Kamerabild sowie für eine geometrische Bezugsinformation zwecks Zuordnung eines geometrischen Bezugsortes relativ zu der gespeicherten Abbildung des Teils des Hilfsinstruments, erste Detektormittel zum Auffinden der ungefähren Position einer Abbildung des Teils des Hilfsinstruments im laufenden Kamerabild durch dessen Vergleich mit der in den Speichermitteln festgehalten Abbildung des Teils des Hilfsinstruments und Ausgabemitteln für die gefundenen Positionsdaten, die bei Erfüllung eines ersten Übereinstimmungskriteriums aktiviert werden, Abgleichmittel für die Größe und Ausrichtung der in den Speichermitteln gespeicherten Abbildung des Teils des Hilfsinstruments, welche Ansichten aus verschiedenen Raumrichtungen einschließt, mit der Abbildung des Teils des Hilfsinstruments im Kamerabild zur Erzielung einer möglichst deckungsgleichen Übereinstimmung durch iterative Auswahl jeweils einer der verschiedenen Ansichten aus unterschiedlichen Raumrichtungen und deren relative Verschiebung zur Abbildung im Kamerabild in unterschiedlichen Koordinatenrichtungen unter entsprechender Veränderung des relativen Abbildungsmaßstabs mittels einer entsprechenden mathematischen Modellierung, wobei von den zuvor gefundenen Positionsdaten ausgegangen wird, zweite Detektormittel zum Erkennen der deckungsgleichen Übereinstimmung der durch die Abgleichmittel räumlich ausgerichteten und größenmäßig angepassten gespeicherten Abbildung des Teilbildes des Hilfsinstruments mit dem entsprechenden Teil des Kamerabilds und zur Ausgabe der Vermessungsinformation enthaltend die geometrische Ortsinformation betreffend die Position und die Ausrichtung der aufgefundenen Abbildung des Hilfsinstruments im Kamerabild und dessen relativer Größe im Vergleich zur gespeicherten Abbildung als Maßstabsinformation bei Erfüllung eines zweiten Übereinstimmungskriteriums, sowie Einblendmittel zum Einfügen einer optischen Kennzeichnung des zugeordneten geometrischen Ortes als Teil der Vermessungsinformation nach Art eines Cursors in das laufende Kamerabild in derjenigen Position, die sich bei deckungsgleicher Überlagerung der gespeicherten Abbildung mit dem aktuellen Bild des Teils des Hilfsinstruments bei aufgrund der Maßstabsinformation angepassten Maßstab aus den zweiten Speichermitteln ausgelesenen Bezugsinformation im Kamerabild als Bezugsort ergibt.
  2. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass es sich bei der gespeicherten Abbildung um einen Teil des Hilfsinstruments, um einen Teil seines Schaftes und/oder eine auf diesem angebrachte ebene oder räumliche Kennzeichnung oder dessen Außenkontur, handelt.
  3. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass die gespeicherte Abbildung des Teils der Oberfläche des Hilfsinstruments in verschiedenen Ansichten aus einer dreidimensionalen Rundumansicht oder aus einer Anzahl von Seitenansichten aus unterschiedlichen Richtungen besteht.
  4. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass der Teil des Hilfsinstruments mindestens einen kugelförmigen Bereich aufweist, wobei im Falle von zwei oder mehreren Kugeln diese in einem Abstand voneinander angeordnet sind.
  5. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass die feste relative geometrische Zuordnung der in den Speichermitteln gespeicherten Abbildung mit einer virtuellen optischen Kennzeichnung zu einem distalen Punkt als Bezugsort gehört, der mit einer Extremität des Hilfsinstruments zusammenfällt, die bei Annäherung an eine externe Oberfläche mit dieser zuerst in Kontakt kommt.
  6. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass es sich beim dem Hilfsinstrument um ein Operationsinstrument, insbesondere eine Zange, handelt.
  7. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass Mittel zur Einstellung der auf dem Monitor wiedergegebenen Darstellungsgröße eines realen oder eines in das Bild eingefügten synthetisierten virtuellen Objekts, einer Vergleichsentfernung oder der Bewegungsdistanz eines Objekts in der Umgebung des Bezugspunkts nach Art eines digitalen Zooms vorgesehen sind, für die der aus der geometrische Distanzinformation gebildete Maßstabsfaktor eine Eingangsgröße bildet, zur Einstellung der Bildgröße auf dem Monitor oder der Berechnung einer Distanz entsprechend dem Maßstabsfaktor, in den die für eine vorgegebene geometrische Distanz repräsentative Information als Multiplikator einbezogen ist, derart dass ein im Bildinhalt enthaltenes Objekt, dessen geometrische Abmessung der vorgegebenen geometrischen Distanz entspricht, auf dem Monitor mit einer entsprechenden Abmessung wiedergegeben wird, die mit dem vorgegebenen Distanz oder Maßstabsinformation gebildeten Faktor multipliziert ist.
  8. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass es sich bei der optischen Kennzeichnung nach Art eines Cursors um ein Anzeigeelement in analoger oder digitaler Darstellung als Messstab oder als Distanzmesswert handelt, wobei bei Darstellung als Messstab eine Maßeinteilung in einer Maßeinheit entsprechend dem in der ermittelten Distanz- oder Maßstabsinformation festgehaltenen Maßstab vorgesehen ist.
  9. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass Mittel vorgesehen sind, welche auf eine vorgegebene definierte Bewegung des distalen Endes des Hilfsinstruments hin durch Auswertung von deren zeitlich geänderter Position im Kamerabild einen zugeordneten vorbestimmten Wert in einem Speicher festhalten,
  10. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass Mittel vorgesehen sind, welche auf eine vorgegebene definierte Bewegung nach Zurücklegen einer vordefinierten Wegstrecke des distalen Endes des Hilfsinstruments hin durch Auswertung von deren zeitlich geänderter Position im Kamerabild eine vorbestimmte Funktion auslösen, wobei die vordefinierte Wegstrecke durch den ermittelten Maßstabsfaktor bestimmt wird.
  11. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, eine optische Markierung im Bild vorgesehen ist, welche das Ende der Wegstrecke – ausgehend von einem die Ausgangsposition des distalen Endes des Hilfsinstruments anzeigenden optischen Markierung angezeigt wird
  12. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass bei nicht senkrecht zur optischen Achse der Kamera gerichteter Objektoberfläche die Punkte des Dreiecks als Bezugspunkte dienen, um die Abbildung der Fläche zur Wiedergabe auf dem Bildschirm so zu entzerren, dass der bei den jeweiligen Bezugspunkten dargestellte örtliche Maßstab jeweils im wesentlichen übereinstimmt.
  13. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass durch die Bezugspunkte von zwei Instrumententeilen im auf dem Bildschirm wiedergegebenen Bild jeweils nach Art eines Cursors Punkte markierbar sind, deren Abstand im Bild durch geometrische Berechnung ermittelt und das Ergebnis auf dem Monitor digital angezeigt wird.
  14. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass das Hilfsinstrument ein Messgerät bildet, das in Abhängigkeit von einer aufzunehmenden physikalischen Größe eine äußere Formveränderung zeigt, welche eine Ablesung und Auswertung eines Messwerts für die physikalische Größe durch eine Längenbestimmung oder durch Formvergleich im Kamerabild ermöglicht.
  15. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass das Hilfsinstrument in einiger Entfernung von einem distalen Ende eine Quelle für eine Laserlinie aufweist, die derart angeordnet ist, dass die Linie quer zum Schaft des Instruments verläuft und Strahlung geneigt zum distalen Ende des Instruments gerichtet ist.
  16. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass das Hilfsinstrument ein Messgerät bildet, das in Abhängigkeit von einer aufzunehmenden physikalischen Größe eine äußere Formveränderung zeigt, welche eine Ablesung und Auswertung eines Messwerts für die physikalische Größe durch eine Längenbestimmung oder durch Formvergleich im Kamerabild ermöglicht.
  17. Endoskopisches Bildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, dass es sich bei dem Monitor um ein Tablett handelt, welches über eine Funkverbindung mit einem zugeordneten Datenverarbeitungsgerät verbunden ist, oder dass die Darstellung durch Bild-in-Bild-Einblendung in einem Hauptmonitor vorgesehen ist.
PCT/DE2012/200007 2011-02-11 2012-02-11 Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen WO2012107041A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112012000752T DE112012000752A5 (de) 2011-02-11 2012-02-11 Endoskopisches Bildverarbeitungssystem mit Mitteln, welche im Erfassungsbereich einer optischen Digitalkamera eine geometrische Vermessungsinformation erzeugen
EP12717164.3A EP2672915A1 (de) 2011-02-11 2012-02-11 Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen
US14/004,229 US9691162B2 (en) 2011-02-11 2012-02-11 Endoscopic image processing system having means which generate geometric measurement information in the detection range of an optical digital camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011011671.0 2011-02-11
DE102011011671 2011-02-11

Publications (1)

Publication Number Publication Date
WO2012107041A1 true WO2012107041A1 (de) 2012-08-16

Family

ID=46017743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2012/200007 WO2012107041A1 (de) 2011-02-11 2012-02-11 Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen

Country Status (4)

Country Link
US (1) US9691162B2 (de)
EP (1) EP2672915A1 (de)
DE (1) DE112012000752A5 (de)
WO (1) WO2012107041A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017054817A1 (de) 2015-10-01 2017-04-06 Olaf Christiansen Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen
WO2017054818A1 (de) 2015-10-01 2017-04-06 Olaf Christiansen Endoskopisches bildverarbeitungssystem zur einfügung in eine datenleitung
CN110418596A (zh) * 2017-03-28 2019-11-05 富士胶片株式会社 测量辅助装置、内窥镜系统及处理器
US11490785B2 (en) 2017-03-28 2022-11-08 Fujifilm Corporation Measurement support device, endoscope system, and processor measuring size of subject using measurement auxiliary light

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104519823B (zh) * 2012-08-02 2018-02-16 皇家飞利浦有限公司 机器人远程运动中心的控制器限定
US10420608B2 (en) * 2014-05-20 2019-09-24 Verily Life Sciences Llc System for laser ablation surgery
FR3036195B1 (fr) * 2015-05-12 2018-05-25 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif et procede d’observation d’un objet, avec prise en compte de la distance entre le dispositif et l’objet.
US10169665B1 (en) * 2016-02-28 2019-01-01 Alarm.Com Incorporated Virtual inductance loop
KR102549728B1 (ko) * 2016-07-14 2023-07-03 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 원격조작 의료 시스템 내의 온스크린 메뉴들을 위한 시스템들 및 방법들
DE102017103198A1 (de) * 2017-02-16 2018-08-16 avateramedical GmBH Vorrichtung zum Festlegen und Wiederauffinden eines Bezugspunkts während eines chirurgischen Eingriffs
US10010379B1 (en) * 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
CN116327079A (zh) * 2017-04-13 2023-06-27 虚拟卷尺技术有限公司 内窥镜测量系统和工具
WO2019017019A1 (ja) * 2017-07-18 2019-01-24 富士フイルム株式会社 内視鏡装置及び計測支援方法
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
CN111065314B (zh) * 2017-09-07 2022-06-07 富士胶片株式会社 诊断支持系统、内窥镜系统、处理器及诊断支持方法
KR102102291B1 (ko) * 2017-12-20 2020-04-21 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
JP7022154B2 (ja) * 2018-01-31 2022-02-17 富士フイルム株式会社 音響波装置および音響波装置の作動方法
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
CN113079314B (zh) * 2021-03-04 2022-09-02 首都医科大学附属北京安贞医院 手术视频采集系统视觉引导靶标
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5669871A (en) * 1994-02-21 1997-09-23 Olympus Optical Co., Ltd. Endoscope measurement apparatus for calculating approximate expression of line projected onto object to measure depth of recess or the like
US5749362A (en) * 1992-05-27 1998-05-12 International Business Machines Corporation Method of creating an image of an anatomical feature where the feature is within a patient's body
US20020026093A1 (en) * 2000-08-23 2002-02-28 Kabushiki Kaisha Toshiba Endscope system
US20070236782A1 (en) * 2006-04-05 2007-10-11 Pentax Corporation Confocal endoscope system
US20080051655A1 (en) * 2006-08-28 2008-02-28 Masatoshi Sato Ultrasonic endoscope, therapeutic system, treatment method using therapeutic system, endoscopic system, treatment method using ultrasonic endoscope, t-bar, and t-bar suturing device
WO2010061293A2 (en) * 2008-11-26 2010-06-03 Haptica Limited System and method for measuring objects viewed through a camera

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4054104B2 (ja) * 1998-04-10 2008-02-27 オリンパス株式会社 内視鏡画像処理装置
US6806899B1 (en) * 1999-07-17 2004-10-19 David F. Schaack Focusing systems for perspective dimensional measurements and optical metrology
EP1504712B1 (de) * 2002-10-29 2009-12-02 Olympus Corporation Endoskopinformationsprozessor und verarbeitungsmethode
JP5199594B2 (ja) * 2006-03-24 2013-05-15 オリンパス株式会社 画像計測装置および方法
US8248465B2 (en) * 2007-12-27 2012-08-21 Olympus Corporation Measuring endoscope apparatus and program
JP5361592B2 (ja) * 2009-07-24 2013-12-04 オリンパス株式会社 内視鏡装置、計測方法、およびプログラム
JP2011069965A (ja) * 2009-09-25 2011-04-07 Japan Atomic Energy Agency 撮像装置、画像表示方法、及び画像表示プログラムが記録された記録媒体
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5749362A (en) * 1992-05-27 1998-05-12 International Business Machines Corporation Method of creating an image of an anatomical feature where the feature is within a patient's body
US5669871A (en) * 1994-02-21 1997-09-23 Olympus Optical Co., Ltd. Endoscope measurement apparatus for calculating approximate expression of line projected onto object to measure depth of recess or the like
US20020026093A1 (en) * 2000-08-23 2002-02-28 Kabushiki Kaisha Toshiba Endscope system
US20070236782A1 (en) * 2006-04-05 2007-10-11 Pentax Corporation Confocal endoscope system
US20080051655A1 (en) * 2006-08-28 2008-02-28 Masatoshi Sato Ultrasonic endoscope, therapeutic system, treatment method using therapeutic system, endoscopic system, treatment method using ultrasonic endoscope, t-bar, and t-bar suturing device
WO2010061293A2 (en) * 2008-11-26 2010-06-03 Haptica Limited System and method for measuring objects viewed through a camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017054817A1 (de) 2015-10-01 2017-04-06 Olaf Christiansen Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen
WO2017054818A1 (de) 2015-10-01 2017-04-06 Olaf Christiansen Endoskopisches bildverarbeitungssystem zur einfügung in eine datenleitung
CN110418596A (zh) * 2017-03-28 2019-11-05 富士胶片株式会社 测量辅助装置、内窥镜系统及处理器
CN110418596B (zh) * 2017-03-28 2021-12-24 富士胶片株式会社 测量辅助装置、内窥镜系统及处理器
US11419694B2 (en) 2017-03-28 2022-08-23 Fujifilm Corporation Endoscope system measuring size of subject using measurement auxiliary light
US11490785B2 (en) 2017-03-28 2022-11-08 Fujifilm Corporation Measurement support device, endoscope system, and processor measuring size of subject using measurement auxiliary light

Also Published As

Publication number Publication date
US9691162B2 (en) 2017-06-27
EP2672915A1 (de) 2013-12-18
DE112012000752A5 (de) 2013-11-21
US20150161802A1 (en) 2015-06-11

Similar Documents

Publication Publication Date Title
WO2012107041A1 (de) Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen
EP3076369B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
DE102007033486B4 (de) Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
EP2926733B1 (de) Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
EP3363358B1 (de) Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs
DE102007054450A1 (de) Vorrichtung zur Bereitstellung von Bildern für einen Operateur
DE102014218558A1 (de) Benutzerschnittstelle und Verfahren zur automatisierten Positionierung eines Untersuchungstisches relativ zu einer medizintechnischen bildgebenden Anlage
DE102012220115A1 (de) Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
DE102009038021A1 (de) Bildverarbeitungssystem mit einer zusätzlichen zusammen mit der Bildinformation zu verarbeitenden Maßstabsinformation
DE102010029275A1 (de) Verfahren zum Bewegen eines Instrumentenarms eines Laparoskopierobotors in einer vorgebbare Relativlage zu einem Trokar
WO1996020421A1 (de) Mikroskop, insbesondere stereomikroskop und verfahren zum überlagern zweier bilder
DE102014007909A1 (de) Chirurgisches Mikroskop
DE102011078405B4 (de) Verfahren zur Endoskopie mit magnetgeführter Endoskopkapsel sowie Einrichtung dazu
EP4213755B1 (de) Chirurgisches assistenzsystem
DE102014102425B4 (de) Mikroskopsystem und Mikroskopieverfahren unter Verwendung digitaler Marker
DE102018119343A1 (de) Verfahren zur Kalibrierung von Objekten in einem Referenzkoordinatensystem und Verfahren zum Tracking von Objekten
EP2830526A1 (de) Medizinisches navigationssystem mit drahtlos verbundenem, berührungsempfindlichem bildschirm
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE102010018291B4 (de) Navigationssystem und Röntgensystem
DE10235795A1 (de) Medizinische Vorrichtung
DE102022132100A1 (de) Verfahren zur Markierung von Information in digitalen Bildern
DE102021207950A1 (de) Verfahren und System zur Bestimmung einer Lage zumindest eines Objekts in einem Operationssaal
EP4124283A1 (de) Messverfahren und eine messvorrichtung
DE102020215559A1 (de) Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
DE102020126029A1 (de) Chirurgisches Assistenzsystem und Darstellungsverfahren

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12717164

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012717164

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1120120007522

Country of ref document: DE

Ref document number: 112012000752

Country of ref document: DE

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112012000752

Country of ref document: DE

Effective date: 20131121

WWE Wipo information: entry into national phase

Ref document number: 14004229

Country of ref document: US