WO2011131277A1 - Videoendoskopsystem und verfahren zum betreiben eines videoendoskopsystems - Google Patents

Videoendoskopsystem und verfahren zum betreiben eines videoendoskopsystems Download PDF

Info

Publication number
WO2011131277A1
WO2011131277A1 PCT/EP2011/001363 EP2011001363W WO2011131277A1 WO 2011131277 A1 WO2011131277 A1 WO 2011131277A1 EP 2011001363 W EP2011001363 W EP 2011001363W WO 2011131277 A1 WO2011131277 A1 WO 2011131277A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
matrix sensor
pixels
video endoscope
control unit
Prior art date
Application number
PCT/EP2011/001363
Other languages
English (en)
French (fr)
Inventor
Thorsten JÜRGENS
Original Assignee
Olympus Winter & Ibe Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Winter & Ibe Gmbh filed Critical Olympus Winter & Ibe Gmbh
Publication of WO2011131277A1 publication Critical patent/WO2011131277A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels

Definitions

  • the invention relates to a video endoscope system comprising a video unit comprising an optical system having an imaging lens system with at least one lens, by means of which an image is imaged onto a photosensitive electronic area matrix sensor, and a corresponding camera head for a video endoscope system and a method for operating a corresponding one Video endoscope system and / or camera head.
  • video endoscopy systems are known. With video endoscopes, it is possible to penetrate through body openings or surgical openings in the body cavity or body cavities and make optical recordings in the body cavities.
  • Corresponding known video endoscopy systems usually have an imaging optic at the distal end of the endoscope shaft, wherein the optics or a first lens
  • CONFIRMATION COPY received image information is either forwarded to an eyepiece at the proximal end or by means of an also disposed at the distal end of the shaft optical sensor is detected and electronically forwarded to the proximal end of the endoscope.
  • optical sensor is detected and electronically forwarded to the proximal end of the endoscope.
  • video endoscopes The latter systems, with sensors located at the distal tip, are commonly referred to as "video endoscopes.”
  • the light is transmitted in the endoscope shaft to an eyepiece either by bundling glass fibers or by a series of rod lenses All of these endoscopes and video endoscopes are summarized in the context of the present application under the term "video endoscope system".
  • some video endoscopy systems provide that a camera head is attached to a handle or an eyepiece at the proximal end of the endoscope shaft, which transmits the light emerging at the proximal end of the endoscope shaft to an image sensor.
  • CMOS sensors or CCD sensors are used.
  • the resolution of modern video endoscope systems corresponds to a PAL signal with 576 lines, but can also be higher.
  • Video endoscope systems also include, in some cases, light sources, such as LEDs, which illuminate the body cavities to be examined. They may also have other channels in the endoscope shaft, for example for the implementation of instruments, for example gripping instruments, of electrically operated instruments, for example for the cauterization of different types of instruments. Last tissue, or tools for removing material, for example, for transurethral resection in the prostate or in the bladder.
  • light sources such as LEDs
  • They may also have other channels in the endoscope shaft, for example for the implementation of instruments, for example gripping instruments, of electrically operated instruments, for example for the cauterization of different types of instruments.
  • Last tissue, or tools for removing material for example, for transurethral resection in the prostate or in the bladder.
  • a high resolution is sought to allow the most accurate examination of tissue in the body to be examined.
  • a pathological tissue change can be detected particularly well.
  • the video-endoscope systems are either manually focusable or autofocused.
  • Corresponding known video-endoscope systems are also used for applications in which not only examination and evaluation of tissue in body cavities is desired, but also treatment of the tissue or an effect on the tissue, in particular if it is associated with rapid movements.
  • an HF loop which is traversed by a high-frequency alternating current, over a site to be ablated with relatively large strokes, whereby the stroke may be approximately 25 mm.
  • This movement is usually performed at a high frequency, so that both a manual adjustment of the focus as well as an autofocus in a camera head with the movement is overwhelmed.
  • conventional video endoscope systems is possible only with loss of image quality.
  • a video endoscope system having a video unit, which comprises an optical system with an imaging lens system having at least one lens, by means of which an image is imaged onto a photosensitive electronic area matrix sensor, which is thereby developed is that a control unit for the video unit is provided, by means of which a readout of image information from the area matrix sensor is controllable so that image information of two or more adjacent pixels are summarized.
  • the control unit can be integrated in the video endoscope system or the video unit can be connected to the control unit, which can also be external.
  • a surface-area matrix sensor is, for example, a CCD sensor or a CMOS sensor or a suitable other known sensor with light-sensitive pixels distributed in matrix form over the sensor surface.
  • the range of the depth of field of the image read out can be increased.
  • the area of each effectively read pixel is increased from the full resolution, such as doubled, tripled, or quadrupled.
  • Preferred groupings are, for example, numbers of 4, 9 or 16 pixels, which are combined in squares of 2, 3 or 4 pixels edge length and read out together. Since the area of the effective pixels is thus increased, there is a larger depth of field. This is because the circles of confusion derived from more distant from the focal plane object points, Although they are larger on the sensor than on those object points which are close to the focal plane but are no larger than the larger, combined pixels. Although the resolution is absolutely reduced by this process called binning, the depth of field is increased.
  • the number of pixels to be combined in the selection of image information is controllable, so it can be switched off, it is possible to perform with the same video endoscope system both a high-resolution examination of tissue in a cavity of a patient's body as well as after switching, for example, a transurethral resection on a prostate or bladder.
  • a "diagnostic mode” without binning or with a so-called “1 x1 binning” and a "therapy mode” with a "2x2 binning” or a higher binning can be provided.
  • a further increase in the range of the depth of field is advantageously achieved when a controllable aperture, which is arranged in a beam path of the lens system to the area matrix sensor, is included and the control unit is designed to open a f-number of the aperture when the number of combined pixels of the area matrix sensor is changed.
  • the change in the number of combined pixels in the readout of image information means that, for example, as the number increases from one to four, the amount of incident light also changes. For example, four pixels that are summed up capture four times as much light as a single pixel.
  • the image information of the combined pixels is therefore subject to a significantly lower noise than the image information of the individual points.
  • the aperture can be reduced, corresponding to an increased f-number, without that the noise in the image changes from the original state without merging pixels.
  • the f-number can be doubled, which corresponds to a halving of the diameter of the aperture or a reduction of the area of the aperture to a quarter.
  • the amount of light per pixel picked up remains the same, so that the noise is not increased.
  • both the increase in the surface area of the combined pixels and the reduction in the aperture size increase the depth of field.
  • the reduction in the aperture size leads to a reduction of the circles of confusion of objects located outside the focal plane, so that the area of the depth of field is increased by the reduction of the aperture by a further factor.
  • the procedure may then be such that, in the "full-resolution diagnostic mode" with the iris open, it is first examined exactly which area of diseased tissue needs to be removed, which requires full resolution and manual or automatic focusing is sufficient and then, after detecting the area to be ablated, to change to a "therapy mode" with a lower resolution and a larger f-number, thereby multiplying the depth of field. With the multiplied depth of field, the resection can be done without refocusing.
  • a light source is preferably provided for illuminating a region detected by the video unit.
  • the video endoscope system is advantageously developed if a frame repetition rate and / or an exposure time of the area matrix sensor per frame can be set by means of the control unit, wherein in particular a f-number of the aperture can be adapted to the exposure time per frame by means of the control means.
  • a frame repetition rate and / or an exposure time of the area matrix sensor per frame can be set by means of the control unit, wherein in particular a f-number of the aperture can be adapted to the exposure time per frame by means of the control means.
  • a desired optimum object range and a desired depth of field range can be selected by means of the control unit, the control device automatically determining the number of readings of the area matrix sensor by the area matrix sensor based on the selected optimum object range, the selected depth of focus range and existing brightness information.
  • the optimum distance between objects is understood to mean the distance of the plane in the object area, which is set sharply, from the receiving optics of the video endoscope.
  • the controller is thus able to automatically adjust acquisition parameters such as the number of combined pixels, f-number and, if necessary, refresh rate and exposure time so that the desired depth of focus range is sharply adjusted with respect to the desired subject distance and the image noise is minimized to provide a clear and usable image to obtain.
  • the optical system can be set to an adapted, changed optimum object width.
  • This measure takes into account the fact that when the binning is changed, the near limit and the far limit of the depth of field do not shift symmetrically.
  • the optimal subject distance can be slightly larger than in the "therapy mode”, since in the "diagnostic mode” the immediate post-range is less interesting and in this way the absolute depth of the depth of field can also be determined in the "diagnostic mode". Mode "something can be increased.
  • the video unit is integrated in a camera head, which is fixably attachable to a proximal end of the video endoscope system.
  • a camera head contains both an optic that focuses the light exiting the endoscope on a surface matrix sensor, and possibly one controllable diaphragm and possibly an adjustment for the focus, for example by sliding optical elements or a movable sensor.
  • the camera head in this case is connected to a control unit or comprises a control unit which operates the readout of the area matrix sensor and acquisition parameters which adjusts the collection of pixels in the readout, the aperture to be adjusted, the focusing and the image repetition rate and the exposure time per frame ,
  • the video endoscope system according to the invention is preferably designed as a rectoscope, in particular for transurethral resections.
  • a camera head for a video endoscope system wherein the video endoscope system is designed according to the invention as described above, wherein the camera head is fixable attachable to a proximal end of the video endoscope system, wherein the camera head comprises a video unit, the optical System comprising an imaging lens system with at least one lens, by means of which an image is imaged on a photosensitive electronic surface matrix sensor, which is further developed by providing a control unit for the video unit, by means of which reading out image information from the area matrix Sensor is controlled so that image information of two or more adjacent pixels are summarized.
  • the term video endoscope system or camera head also means that they are connected to a corresponding external control unit or can be connected.
  • a method for operating a video endoscope system and / or a camera head for a video endoscope which are designed according to the invention as described above, wherein the video endoscope system and / or the camera head, a video unit comprising an optical system with an imaging lens system with at least a lens, by means of which an image is imaged onto a light-sensitive electronic area matrix sensor, wherein the method is controlled by controlling by means of the control unit that when reading the image information of the area matrix sensor, the image information of two or more adjacently arranged pixels be summarized.
  • This method leads, as described above in connection with the video endoscope according to the invention, to an enlargement of the area of the sharply imaged object.
  • control device adjusts a f-number adapted to a number of pixels combined during readout at a controllable diaphragm which is arranged in a beam path of the lens system relative to the surface matrix sensor. This allows the range of depth of field to be further increased without more image noise.
  • control unit adapts in particular the f-number to the frame rate and / or the exposure time per frame, by reducing the frame repetition rate or without prolonging the exposure time without deterioration of image noise, a further enlarged depth of field can be achieved.
  • control unit adapts in particular the f-number to the frame rate and / or the exposure time per frame, by reducing the frame repetition rate or without prolonging the exposure time without deterioration of image noise, a further enlarged depth of field can be achieved.
  • by increasing the refresh rate even fast movements can be displayed clearly and without delay and smoothly.
  • a desired optimum object distance and a desired depth of field are selected, wherein the control device automatically determines the number of pixels to be combined when the area matrix sensor is read and the f-number as well as .sup.2 based on the selected optimum depth of field, the selected depth of field and existing brightness information from the area matrix sensor in particular sets the image repetition rate and / or exposure time per frame.
  • This measure ensures that the surgeon or surgeon always receives the optimum image and depth of field ranges adapted to the desired applications, for example tissue examinations or resections to be performed.
  • the optical system is adjusted to an adapted changed optimal object width by means of the control unit in the event of a change in the number of pixels to be combined when the area matrix sensor is read.
  • the camera head according to the invention and the method according to the invention it is possible, during examinations and operations, to adjust the image parameters which are necessary for the various applications flexibly and in accordance with the requirements.
  • a high resolution and detail sharpness can be achieved in a tissue examination, while, for example, in a resection, such as a transurethral resection, a large depth of field range is adjustable.
  • This provides the surgeon or surgeon with an opportunity to perform both tasks using a single instrument and to have the required image quality and image information in each application to accurately and safely perform an appropriate examination or operation. This also increases the safety of the patient.
  • Fig. 1 a schematic illustration of a "binning" - process
  • FIG. 1 The concept of "binning" is shown schematically in Figure 1.
  • a single pixel 1 from a An area matrix sensor not shown, for example, a CCD sensor or a CMOS sensor, shown.
  • the arrow indicates a summary of only this one pixel when reading out the image information from the pixel 1, ie a "1 x 1 binning.”
  • Such a pixel may, for example, have an edge length of 9 prn in conventional sensors
  • Such a "1 x 1 binning is used within the scope of the invention in a "diagnostic mode".
  • the further effect of the enlarged area of the combined pixel 3 is based on the fact that an object point which lies within the set optimum object width of the optical system of the video is located on the area matrix sensor as a dot, except for unavoidable diffraction effects. If it is slightly out of the exact optimum subject distance, the focus point is slightly in front of or behind the sensor, so that at the location of the sensor, a dispersing disc replaces a point. As long as this dispersing disc, which corresponds to the section of the sensor plane through the focusing cone of the object point, is not larger than the area of the pixel 3, the resolution of the object point is primarily determined by the size of the pixel 3. In other words, the enlarged pixel 3 is thus more tolerant of a larger distance of an object point from the optimum object distance of the optic than the small pixel 1 from the left part of FIG.
  • FIG. 2 shows schematically a model calculation of a profile of the sharpness as a function of the object distance ("working distance"), ie the distance of an object from the optics of a video endoscope
  • the logarithm of the X axis is from 1 mm to 1000 mm, where the focal length of the optics of the video endoscope is chosen as 2 mm, the sharpness is linearly represented on the Y axis, these pairs of lines corresponding to one millimeter.
  • FIG. 2 shows two curves, wherein a sharpness profile 1 1, 13 and 15 corresponds to a "1 ⁇ 1 binning", that is to say to a "diagnosis mode”, and a curve 12, 14, 16 corresponds to a “2x 2 binning” sharpness profile, So a “therapy mode” corresponds. It turns out that the sharpness is at the place of the set object width at about 12 mm in the "therapy mode” and at about 15 mm in the "diagnostic mode”. At this point, the achievable sharpness is determined by the dimensions of the pixels read out or of the combined pixels read out. Both curves are normalized to this area.
  • the achievable resolution drops sharply 15, 16, since on the one hand the focus range is left and a finite large dispersion disc is projected onto the surface of the area matrix sensor and on the other hand increases the distance to the optics, so that the number of line pairs per millimeter , which can be resolved, almost reciprocally decreases to the subject matter.
  • the achievable resolution 1 1, 12 also decreases, which is mainly due to the increasing after 1 mm towards circles of confusion on the surface matrix sensor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

Die Erfindung betrifft ein Videoendoskopsystem mit einer Videoeinheit, die ein optisches System mit einem abbildenden Linsensystem mit wenigstens einer Linse, mittels dessen ein Bild auf einen lichtempfindlichen elektronischen Flächenmatrix-Sensor abgebildet wird, sowie einen entsprechenden Kamerakopf für ein Videoendoskopsystem und ein Verfahren zum Betreiben eines entsprechenden Videoendoskopsystems und/oder Kamerakopfes. Die Erfindung liegt darin, dass eine Steuereinheit für die Videoeinheit vorgesehen ist, mittels deren ein Auslesen von Bildinformationen aus dem Flächenmatrix-Sensor so steuerbar ist, dass Bildinformationen zweier oder mehrerer benachbarter Bildpunkte (2) zusammengefasst werden.

Description

Videoendoskopsystem und Verfahren zum Betreiben eines Video- endoskopsystems
Beschreibung
Die Erfindung betrifft ein Videoendoskopsystem mit einer Videoeinheit, die ein optisches System mit einem abbildenden Linsensystem mit wenigstens einer Linse, mittels dessen ein Bild auf einen lichtempfindlichen elektronischen Flächenmatrix-Sensor abgebildet wird, sowie einen entsprechenden Kamerakopf für ein Videoendoskopsystem und ein Verfahren zum Betreiben eines entsprechenden Vi- deoendoskopsystems und/oder Kamerakopfes.
Es sind verschiedene Videoendoskopiesysteme bekannt. Mit Video- endoskopen ist es möglich, durch Körperöffnungen oder Operationsöffnungen in den Körperinnenraum bzw. Körperhohlräume einzudringen und optische Aufnahmen in den Körperhohlräumen zu machen.
Entsprechende bekannte Videoendoskopiesysteme weisen am distalen Ende des Endoskopschafts üblicherweise eine bildgebende Optik auf, wobei die durch die Optik bzw. durch eine erste Linse
BESTÄTIGUNGSKOPIE empfangene Bildinformation entweder zu einem Okular am proximalen Ende weitergeleitet wird oder mittels eines ebenfalls am distalen Ende des Schafts angeordneten optischen Sensors erfasst wird und elektronisch zum proximalen Ende des Endoskops weitergeleitet wird. Letztgenannte Systeme mit an der distalen Spitze angeordnetem Sensor werden üblicherweise als„Videoendoskop" bezeichnet. Bein anderen Endoskopen mit einer Optik erfolgt die Weiterleitung des Lichts im Endoskopschaft zu einem Okular entweder mittels Bündeln von Glasfasern oder mittels einer Reihe von Stablinsen. Alle diese Endoskope und Videoendoskope werden im Rahmen der vorliegenden Anmeldung unter dem Begriff „Videoendoskopsystem" zusammengefasst.
Im letztgenannten Fall, dass das Licht durch den Schaft des Endoskops zum proximalen Ende, beispielsweise zu einem Handgriff, des Endoskops weitergeleitet wird, sehen einige Videoendoskopie- systeme vor, dass ein Kamerakopf an einen Handgriff oder ein Okular am proximalen Ende des Endoskopschafts angesetzt wird, der das am proximalen Ende des Endoskopschafts austretende Licht auf einen Bildsensor weiterleitet.
Als Bildsensoren werden üblicherweise CMOS-Sensoren oder CCD- Sensoren eingesetzt. Die Auflösung moderner Videoendoskopsys- teme entspricht einem PAL-Signal mit 576 Zeilen, kann aber auch darüber liegen.
Videoendoskopsysteme umfassen in einigen Fällen auch Lichtquellen, beispielsweise LEDs, mit denen die zu untersuchenden Körperhohlräume ausgeleuchtet werden. Sie können auch weitere Kanäle im Endoskopschaft aufweisen, beispielsweise zur Durchführung von Instrumenten, beispielsweise Greifinstrumenten, von elektrisch betriebenen Instrumenten, beispielsweise zur Kauterisierung von ver- letztem Gewebe, oder von Werkzeugen zum Abtragen von Material, beispielsweise für die transurethrale Resektion in der Prostata oder in der Blase.
Eine hohe Auflösung wird angestrebt, um eine möglichst genaue Untersuchung von Gewebe im zu untersuchenden Körper zu ermöglichen. So kann bei hoher Auflösung eine krankhafte Gewebeveränderung besonders gut erkannt werden. Um eine gründliche Untersuchung zu ermöglichen, sind die Videoendoskopsysteme entweder manuell fokussierbar oder verfügen über einen Autofokus.
Entsprechende bekannte Videoendoskopsysteme werden auch für Anwendungen eingesetzt, bei denen nicht nur eine Untersuchung und Begutachtung von Gewebe in Körperhohlräumen erwünscht ist, sondern auch eine Behandlung des Gewebes bzw. eine Einwirkung auf das Gewebe, insbesondere, wenn diese mit schnellen Bewegungen verbunden ist. So ist es beispielsweise bei der transurethralen Resektion der Prostata oder der Blase notwendig, eine HF-Schlinge, die mit einem hochfrequenten Wechselstrom durchflössen ist, mit relativ großen Hüben über eine abzutragende Stelle zu bewegen, wobei der Hub ca. 25 mm betragen kann. Diese Bewegung wird in der Regel mit einer hohen Frequenz durchgeführt, so dass sowohl eine manuelle Nachstellung der Fokussierung als auch ein Autofokus in einem Kamerakopf mit der Bewegung überfordert ist. In der Folge ist eine solche Operation mit herkömmlichen Video- endoskopsystemen nur mit Einbußen in der Bildqualität möglich.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, vi- deoendoskopisch begleitete bzw. durchgeführte Operationen, insbesondere transurethrale Resektionen, bei besserer Bildqualität zu ermöglichen, wobei außerdem auch hochauflösende Gewebeuntersuchungen möglich sein sollen. Diese der Erfindung zugrunde liegende Aufgabe wird durch ein Vi- deoendoskopsystem mit einer Videoeinheit, die ein optisches System mit einem abbildenden Linsensystem mit mindestens einer Linse, mittels dessen ein Bild auf einen lichtempfindlichen elektronischen Flächenmatrix-Sensor abgebildet wird, umfasst, gelöst, das dadurch weitergebildet ist, dass eine Steuereinheit für die Videoeinheit vorgesehen ist, mittels deren ein Auslesen von Bildinformationen aus dem Flächenmatrix-Sensor so steuerbar ist, dass Bildinformationen zweier oder mehrerer benachbarter Bildpunkte zusam- mengefasst werden. Die Steuereinheit kann in das Videoendoskop- system integriert sein oder die Videoeinheit kann an die Steuereinheit, die auch extern sein kann, anschließbar sein.
Ein Flächenmatrix-Sensor ist erfindungsgemäß beispielsweise ein CCD-Sensor oder ein CMOS-Sensor oder ein geeigneter anderer bekannter Sensor mit über die Sensorfläche matrixförmig verteilt angeordneten lichtempfindlichen Bildpunkten.
Dadurch, dass das Auslesen von Bildinformationen aus dem Sensor so steuerbar ist, dass Bildinformationen zweier oder mehrerer Bildpunkte zusammengefasst werden, ist der Bereich der Schärfentiefe des ausgelesenen Bildes vergrößerbar. Das liegt daran, dass die Fläche eines jeden effektiv ausgelesenen Bildpunktes gegenüber der vollen Auflösung vergrößert ist, beispielsweise verdoppelt, verdreifacht oder vervierfacht. Bevorzugte Gruppierungen sind beispielsweise Anzahlen von 4, 9 oder 16 Bildpunkten, die in Quadraten von 2, 3 oder 4 Bildpunkten Kantenlänge zusammengefasst und zusammen ausgelesen werden. Da die Fläche der effektiven Bildpunkte somit vergrößert ist, ergibt sich ein größerer Schärfentiefebereich. Dies liegt daran, dass die Zerstreuungskreise, die von weiter von der Fokalebene entfernt liegenden Objektpunkten stammen, auf dem Sensor zwar größer sind als von solchen Objektpunkten, die nahe an der Fokalebene liegen, aber nicht mehr größer sind als die größeren, zusammengefassten Bildpunkte. Die Auflösung wird durch dieses„Binning" genannte Verfahren zwar absolut reduziert, der Schärfentiefebereich jedoch erhöht.
Da die Anzahl der zusammenzufassenden Bildpunkte bei der Auslese der Bildinformationen steuerbar ist, also auch abgeschaltet werden kann, ist es möglich, mit demselben Videoendoskopsystem sowohl eine hochaufgelöste Untersuchung von Gewebe in einem Hohlraum eines Körpers eines Patienten durchzuführen als auch nach einem Umschalten beispielsweise eine transurethrale Resektion an einer Prostata oder einer Blase durchzuführen. So kann beispielsweise ein „Diagnose-Modus" ohne Binning bzw. mit einem so genannten „1 x1 -Binning" und ein „Therapie-Modus" mit einem „2x2- Binning" oder einem höheren Binning vorgesehen sein.
Eine weitere Erhöhung des Bereichs der Schärfentiefe wird vorteilhafterweise erreicht, wenn eine steuerbare Blende, die in einem Strahlengang des Linsensystems zum Flächenmatrix-Sensor angeordnet ist, umfasst ist und die Steuereinheit ausgebildet ist, eine Blendenzahl der Blende zu öffnen, wenn die Anzahl der zusammengefassten Bildpunkte des Flächenmatrix-Sensors geändert wird. Die Änderung der Anzahl der zusammengefassten Bildpunkte bei der Auslese von Bildinformationen führt dazu, dass beispielsweise bei einer Erhöhung der Anzahl von einem auf vier auch die Menge des einfallenden Lichts sich ändert. So erfassen vier Bildpunkte, die zu- sammengefasst werden, viermal so viel Licht, wie ein einzelner Bildpunkt. Die Bildinformation der zusammengefassten Bildpunkte unterliegt daher einem deutlich geringeren Rauschen als die Bildinformation der einzelnen Punkte. Insofern kann die Blende verkleinert werden, entsprechend einer vergrößerten Blendenzahl, ohne dass das Rauschen im Bild sich gegenüber dem ursprünglichen Zustand ohne Zusammenfassung von Bildpunkten ändert.
Wenn also die Anzahl der zusammengefassten Bildpunkte beispielsweise von eins auf vier erhöht wird, kann die Blendenzahl verdoppelt werden, was einer Halbierung des Durchmessers der Blendenöffnung bzw. einer Reduzierung der Fläche der Blendenöffnung auf ein Viertel entspricht. Die Lichtmenge pro ausgelesenem (zu- sammengefasstem) Bildpunkt bleibt daher gleich, so dass das Rauschen nicht erhöht wird. Gleichzeitig wird sowohl durch die Erhöhung der Oberfläche der zusammengefassten Bildpunkte als auch durch die Reduzierung der Blendenöffnung der Schärfentiefebereich vergrößert. Die Reduzierung der Blendenöffnung führt zu einer Verkleinerung der Zerstreuungskreise von außerhalb der Fokus-Ebene angeordneten Objekten, so dass der Bereich der Schärfentiefe durch die Verkleinerung der Blende um einen weiteren Faktor vergrößert wird.
Mit dem vergrößerten Schärfentiefebereich ist es möglich, auch Hübe einer HF-Schlinge von beispielsweise 25 mm für eine transurethrale Resektion vollständig scharf abzubilden.
Während einer Resektion kann das Vorgehen dann so aussehen, dass zunächst im„Diagnose-Modus" mit voller Auflösung und geöffneter Blende genau untersucht wird, welcher Bereich eines erkrankten Gewebes abgetragen werden muss, wofür die volle Auflösung benötigt wird und eine manuelle oder automatische Fokussierung ausreicht, um dann nach Erfassen des abzutragenden Bereichs auf einen „Therapie-Modus" mit einer geringeren Auflösung und einer größeren Blendenzahl umzustellen, wodurch der Schärfentiefebereich vervielfacht wird. Mit dem vervielfachten Schärfentiefebereich kann die Resektion ohne Nachfokussieren erfolgen. Zur Beleuchtung eines von der Videoeinheit erfassten Bereichs ist vorzugsweise eine Lichtquelle vorgesehen.
Das Videoendoskopsystem wird vorteilhaft weitergebildet, wenn eine Bildwiederholungsrate und/oder eine Belichtungszeit des Flächenmatrix-Sensors pro Einzelbild mittels der Steuereinheit einstellbar ist, wobei insbesondere eine Blendenzahl der Blende mittels der Steuereinrichtung an die Belichtungszeit pro Einzelbild anpassbar ist. Mit dieser Maßnahme ist es möglich, beispielsweise durch eine Verringerung der Bildwiederholungsrate und zusätzlich oder alternativ dazu durch eine Verlängerung der Belichtungszeit pro Einzelbild mehr Licht zu sammeln, wodurch es möglich ist, ohne Erhöhung des Bildrauschens die Blende weiter zu schließen bzw. eine größere Blendenzahl einzustellen, wodurch der Schärfentiefebereich weiter erhöht wird. Alternativ kann wegen der Verringerung der Anzahl der auszulesenden Bildpunkte aufgrund des Binnings die Bildwiederholungsrate gesteigert werden, so dass die schnellen Bewegungen einer HF-Schlinge bei einer transurethralen Resektion genau und ohne Verzögerungen dargestellt werden.
In einer bevorzugten Weiterbildung ist vorgesehen, dass mittels der Steuereinheit eine gewünschte optimale Gegenstandsweite und ein gewünschter Schärfentiefebereich auswählbar ist, wobei die Steuereinrichtung anhand der gewählten optimalen Gegenstandsweite, des gewählten Tiefenschärfebereichs und vorhandener Helligkeitsinformationen vom Flächenmatrix-Sensor automatisch die Anzahl der beim Auslesen des Flächenmatrix-Sensors zusammenzufassenden Bildpunkte und die Blendenzahl sowie insbesondere die Bildwiederholungsrate und/oder Belichtungszeit pro Einzelbild einstellt. Unter der optimalen Gegenstandsweite wird im Rahmen der Erfindung der Abstand der Ebene im Objektbereich, auf die scharf eingestellt ist, von der empfangenden Optik des Videoendoskops verstanden. Die Steuereinrichtung ist somit in der Lage, automatisch Aufnahmeparameter, wie Anzahl der zusammengefassten Bildpunkte, Blendenzahl und ggf. Bildwiederholungsrate und Belichtungszeit so einzustellen, dass der gewünschte Schärfentiefebereich bezüglich der gewünschten Gegenstandsweite scharf eingestellt und das Bildrauschen gering gehalten wird, um ein klares und verwertbares Bild zu erhalten.
Weiterhin ist vorteilhafterweise vorgesehen, dass mittels der Steuereinheit bei einer Änderung der Anzahl der beim Auslesen des Flächenmatrix-Sensors zusammenzufassenden Bildpunkte das optische System auf eine angepasste geänderte optimale Gegenstandsweite einstellbar ist. Mit dieser Maßnahme wird dem Umstand Rechnung getragen, dass bei einer Änderung des Binning die Nahgrenze und die Ferngrenze des Schärfentiefebereichs sich nicht symmetrisch zueinander verschieben. So kann beispielsweise im „Diagnose-Modus" die optimale Gegenstandsweite etwas größer sein als im „Therapie-Modus", da im „Diagnose-Modus" der unmittelbare Nachbereich weniger interessant ist und auf diese Weise die absolute Tiefe des Schärfentiefebereichs auch im „Diagnose- Modus" etwas erhöht werden kann.
Alle diese Maßnahmen führen dazu, dass eine Operation, wie beispielsweise eine Resektion, vom Operateur bei guter Bildqualität ausgeführt werden kann. Vorzugsweise ist die Videoeinheit in einen Kamerakopf integriert, der an einem proximalen Ende des Video- endoskopsystems fixierbar anbringbar ist. Ein solcher Kamerakopf enthält sowohl eine Optik, die das aus dem Endoskop austretende Licht auf einen Flächenmatrix-Sensor fokussiert, als auch ggf. eine steuerbare Blende sowie ggf. eine Einstellmöglichkeit für den Fokus, beispielsweise durch verschiebbare optische Elemente oder einen verschiebbaren Sensor. Der Kamerakopf ist in diesem Fall an eine Steuereinheit angeschlossen oder umfasst eine Steuereinheit, die die Auslese des Flächenmatrix-Sensors betreibt und Aufnahmeparameter, die die Zusammenfassung von Bildpunkten bei der Auslese, die einzustellende Blende, das Fokussieren und die Bildwiederholungsrate und die Belichtungszeit pro Einzelbild einstellt.
Bevorzugt ist das erfindungsgemäße Videoendoskopsystem als Re- sektoskop, insbesondere für transurethrale Resektionen, ausgebildet.
Die der Erfindung zugrunde liegende Aufgabe wird auch durch einen Kamerakopf für ein Videoendoskopsystem gelöst, wobei das Videoendoskopsystem insbesondere wie oben beschrieben erfindungsgemäß ausgebildet ist, wobei der Kamerakopf an einem proximalen Ende des Videoendoskopsystems fixierbar anbringbar ist, wobei der Kamerakopf eine Videoeinheit umfasst, die ein optisches System mit einem abbildenden Linsensystem mit wenigstens einer Linse, mittels dessen ein Bild auf einem lichtempfindlichen elektronischen Flächenmatrix-Sensor abgebildet wird, umfasst, der dadurch weitergebildet ist, dass eine Steuereinheit für die Videoeinheit vorgesehen ist, mittels deren ein Auslesen von Bildinformationen aus dem Flächenmatrix-Sensor so steuerbar ist, dass Bildinformationen zweier oder mehrerer benachbarter Bildpunkte zusammengefasst werden. Unter dem Begriff Videoendoskopsystem bzw. Kamerakopf wird im Rahmen der Erfindung auch verstanden, dass diese mit einer entsprechenden externen Steuereinheit verbunden sind oder verbindbar sind.
Die der Erfindung zugrunde liegende Aufgabe wird schließlich eben- falls gelöst durch ein Verfahren zum Betreiben eines Videoendos- kopsystems und/oder eines Kamerakopfes für ein Videoendoskop, die insbesondere wie oben beschrieben erfindungsgemäß ausgebildet sind, wobei das Videoendoskopsystem und/oder der Kamerakopf eine Videoeinheit, die ein optisches System mit einem abbildenden Linsensystem mit wenigstens einer Linse, mittels dessen ein Bild auf einen lichtempfindlichen elektronischen Flächenmatrix- Sensor abgebildet wird, umfasst, wobei das Verfahren dadurch weitergebildet ist, dass mittels der Steuereinheit gesteuert wird, dass beim Auslesen der Bildinformationen des Flächenmatrix-Sensors die Bildinformationen zweier oder mehrerer benachbart angeordneter Bildpunkte zusammengefasst werden.
Dieses als„Binning" bezeichnetet Verfahren führt, wie oben im Zusammenhang mit dem erfindungsgemäßen Videoendoskop beschrieben, zu einer Vergrößerung des Bereichs scharf abgebildeter Objekt.
Das erfindungsgemäße Verfahren wird vorzugsweise dadurch weitergebildet, dass die Steuereinrichtung eine an eine Anzahl von beim Auslesen zusammengefassten Bildpunkten angepasste Blendenzahl an einer steuerbaren Blende einstellt, die in einem Strahlengang des Linsensystems zum Flächenmatrix-Sensor angeordnet ist. Dadurch kann der Bereich der Schärfentiefe ohne stärkeres Bildrauschen weiter erhöht werden.
Wenn vorteilhafterweise die Steuereinrichtung eine Bildwiederholungsrate und/oder eine Belichtungszeit pro Einzelbild einstellt, wobei die Steuereinrichtung insbesondere die Blendenzahl an die Bildwiederholungsrate und/oder die Belichtungszeit pro Einzelbild anpasst, kann durch eine Verringerung der Bildwiederholungsrate bzw. einer Verlängerung der Belichtungszeit ohne Verschlechterung des Bildrauschens ein weiterhin vergrößerter Schärfentiefebereich erreicht werden. Alternativ können durch eine Erhöhung der Bildwiederholungsrate auch schnelle Bewegungen deutlich und verzögerungsfrei und ruckelfrei dargestellt werden.
Vorzugsweise werden mittels der Steuereinheit eine gewünschte optimale Gegenstandsweite und ein gewünschter Schärfentiefebereich ausgewählt, wobei die Steuereinrichtung anhand der gewählten optimalen Gegenstandsweite, des gewählten Schärfentiefebereichs und vorhandener Helligkeitsinformationen vom Flächenmatrix-Sensor automatisch die Anzahl der beim Auslesen des Flächenmatrix-Sensors zusammenzufassenden Bildpunkte und die Blendenzahl sowie insbesondere die Bildwiederholungsrate und/oder Belichtungszeit pro Einzelbild einstellt. Mit dieser Maßnahme wird sichergestellt, dass der Operateur oder Chirurg jederzeit die an die gewünschten Anwendungen, beispielsweise Gewebeuntersuchungen oder auszuführende Resektionen angepassten optimalen Bild- und Schärfentiefebereiche erhält.
Vorteilhafterweise wird mittels der Steuereinheit bei einer Änderung der Anzahl der beim Auslesen des Flächenmatrix-Sensors zusammenzufassenden Bildpunkte das optische System auf eine ange- passte geänderte optimale Gegenstandsweite eingestellt.
Mit dem erfindungsgemäßen Videoendoskopsystem, dem erfindungsgemäßen Kamerakopf und dem erfindungsgemäßen Verfahren ist es möglich, bei Untersuchungen und Operationen die Bildparameter, die für die verschiedenen Anwendungen nötig werden, flexibel und den Anforderungen entsprechend einzustellen. So kann bei einer Gewebeuntersuchung eine hohe Auflösung und Detailschärfe erreicht werden, während beispielsweise bei einer Resektion, etwa einer transurethalen Resektion, ein großer Schärfentiefe- bereich einstellbar ist. Dadurch wird dem Operateur oder Chirurgen eine Möglichkeit an die Hand gegeben, beide Aufgaben mittels eines einzelnen Instruments durchzuführen und in jedem Anwendungsbereich die erforderliche Bildqualität und Bildinformation zu haben, um eine entsprechende Untersuchung bzw. Operation genau und sicher auszuführen. Dies erhöht auch die Sicherheit des Patienten.
Die zu den einzelnen Erfindungsgegenständen, also dem Videoen- doskopsystem, den Kamerakopf und das Verfahren genannten Merkmale, Eigenschaften, Wirkungen und Vorteile gelten in gleicher Weise auch für die jeweils anderen Erfindungsgegenstände.
Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen beschrieben, wobei bezüglich aller im Text nicht näher erläuterten erfindungsgemäßen Einzelheiten ausdrücklich auf die Zeichnungen verwiesen wird. Es zeigen:
Fig. 1 : eine schematische Veranschaulichung eines„Binning"- Prozesses und
Fig. 2: eine Modellrechnung zur Veranschaulichung des Effekts von„Binning" auf den Bereich der Schärfentiefe.
In den folgenden Figuren sind jeweils gleiche oder gleichartige Elemente bzw. entsprechende Teile mit denselben Bezugsziffern versehen, so dass von einer entsprechenden erneuten Vorstellung abgesehen wird.
In Figur 1 ist schematisch das Konzept von „Binning" dargestellt. Auf der linken Seite der Figur 1 ist ein einzelner Bildpunkt 1 aus ei- nem nicht dargestellten Flächenmatrix-Sensor, beispielsweise einem CCD-Sensor oder einem CMOS-Sensor, dargestellt. Der Pfeil deutet eine Zusammenfassung nur dieses einen Bildpunktes beim Auslesen der Bildinformationen aus dem Bildpunkt 1 an, also ein „1 x1 -Binning". Ein solcher Bildpunkt kann bei üblichen Sensoren beispielsweise eine Kantenlänge von 9 prn aufweisen. Ein solches „1 x1 -Binning" wird im Rahmen der Erfindung in einem „Diagnose- Modus" verwendet.
Auf der rechten Seite von Figur 1 sind 4 gleichartige Bildpunkte in einer 2x2-Anordnung dargestellt, wobei eines der vier Bildpunkte mit dem Bezugszeichen 2 versehen ist. Beim Auslesen mit Zusammenfassung der Bildinformationen aller vier Bildpunkte 2, also unter Anwendung eines„2x2-Binnings", ergibt sich für das Auslesen eine Bildinformation eines einzelnen größeren Bildpunktes 3 mit einer Kantenlänge von 18 pm, also der doppelten Kantenlänge der einzelnen Bildpunkte 2 und dem vierfachen Flächeninhalt. Ein „2x2- Binning" kann etwa in einem „Therapie-Modus" des erfindungsgemäßen Videoendoskops verwendet werden.
Es ist aus Figur 1 direkt ersichtlich, dass wegen der Vervierfachung der effektiven Fläche durch das Zusammenfassen von vier Bildpunkten 2 in dem zusammengefassten Bildpunkt 3 auch die vierfache Lichtmenge aufgefangen wird, wenn die Blendenzahl nicht geändert wird, so dass unter Beibehaltung der Blendenzahl das Bildrauschen stark gesenkt wird. Es ist somit möglich, die Blendenzahl zu erhöhen um den Faktor 2, ohne dass das Bildrauschen beim „2x2-Binning" gegenüber einem„1 x1 -Binning" schlechter wird.
Der weitere Effekt der vergrößerten Fläche des zusammengefassten Bildpunktes 3 liegt darin begründet, dass ein Objektpunkt, der sich in der eingestellten optimalen Gegenstandsweite der Optik des Vi- deoendoskops befindet, auf dem Flächenmatrix-Sensor als Punkt dargestellt wird, abgesehen von unvermeidbaren Beugungseffekten. Wenn er sich etwas außerhalb der exakten optimalen Gegenstandsweite befindet, liegt der Fokuspunkt etwas vor oder hinter dem Sensor, so dass am Ort des Sensors eine Zerstreuungsscheibe an die Stelle eines Punktes tritt. Solange diese Zerstreuungsscheibe, die dem Schnitt der Sensorebene durch den Fokussierkegel des Objektpunkts entspricht, nicht größer ist als die Fläche des Bildpunktes 3, wird die Auflösung des Objektpunktes vor allem von der Größe des Bildpunktes 3 bestimmt. Anders ausgedrückt ist der vergrößerte Bildpunkt 3 somit toleranter gegenüber einer größeren Entfernung eines Objektpunktes von der optimalen Gegenstandsweite der Optik als der kleine Bildpunkt 1 aus dem linken Teil von Figur 1 .
In Figur 2 ist schematisch eine Modellrechnung eines Verlaufs der Schärfe in Abhängigkeit von der Gegenstandsweite („working dis- tance"), d.h. vom Abstand eines Objekts von der Optik eines Video- endoskops dargestellt. Die X-Achse verläuft logarithmisch von 1 mm bis 1.000 mm, wobei die Brennweite der Optik des Videoendoskops als 2 mm gewählt ist. Auf der Y-Achse ist linear die Schärfe dargestellt, wobei diese Linienpaaren pro Millimeter entspricht.
In Figur 2 sind zwei Kurven dargestellt, wobei ein Schärfeverlauf 1 1 , 13 und 15 einem„1 x1 -Binning", also einem„Diagnose-Modus", und eine Kurve 12, 14, 16 einem Schärfeverlauf mit„2x2-Binning", also einem„Therapie-Modus", entspricht. Es ergibt sich, dass die Schärfe maximal am Ort der eingestellten Gegenstandsweite bei ca. 12 mm im „Therapie-Modus" und bei ca. 15 mm im „Diagnose- Modus" ist. An diesem Punkt ist die erreichbare Schärfe durch die Ausmaße der ausgelesenen Bildpunkte bzw. der zusammengefass- ten ausgelesenen Bildpunkte bestimmt. Beide Kurven sind auf diesen Bereich normiert. Es zeigt sich, dass im Bereich maximaler Schärfe die Schärfe 13 im „Diagnose-Modus" höher ist als die Schärfe 14 im„Therapie-Modus". Allerdings ist der Bereich 13 deutlich schmaler als der Bereich 14, wie sich auch aus den Grenzmarkierungen dieser Bereiche und aus den mit Pfeilen und den Bezeichnungen„DOF" („Depth of Field") mit dem Bezugszeichen 17 für den„Diagnose-Modus" und 18 für den„Therapie-Modus" ergibt.
Zu größeren Gegenstandsweiten hin fällt die erreichbare Auflösung 15, 16 scharf ab, da einerseits der Schärfebereich verlassen wird und eine endlich große Zerstreuungsscheibe auf den Ort des Flächenmatrix-Sensors projeziert wird und anderseits der Abstand zur Optik zunimmt, so dass die Anzahl der Linienpaare pro Millimeter, die aufgelöst werden können, quasi reziprok zur Gegenstandsweite abnimmt.
Zu kleinen Gegenstandsweiten hin, d.h. zu einem Wert von 1 mm hin, nimmt die erreichbare Auflösung 1 1 , 12 ebenfalls ab, was vor allem den nach 1 mm hin größer werdenden Zerstreuungskreisen auf dem Flächenmatrix-Sensor geschuldet ist.
Im Vergleich der beiden Schärfeverläufe 1 1 , 13, 15 und 12, 14, 16 zeigt sich, dass bei einer höheren Auflösung, d.h. bei schwächerem Binning, nicht nur der Bereich maximaler Schärfe 17 schmaler ist als bei stärkerem Binning (Bezugszeichen 18), sondern die Schärfe 1 1 ,15 auch in den Randbereichen von diesem Plateau her stärker abfällt als bei einer geringeren Auflösung bzw. einem schwächeren Binning.
Im in Fig. 2 dargestellten Beispiel sind neben einer Änderung des Binnings von „1 x1 " („Diagnose-Modus", Verläufe 1 1 , 13, 15) auf „2x2" („Therapie-Modus", Verläufe 12, 14, 16) auch die Blendenzahl um einen Faktor von ca. 1 ,3 vergrößert worden und die optimale Gegenstandsweite von ca. 12 mm auf ca. 15 mm geändert worden. Im Schärfeverlauf 12, 14, 16 im„Therapie-Modus" ist außerdem zu erkennen, dass die Auflösung 12 im Nahbereich im Bereich der Auflösung 1 1 im Bereich maximaler Schärfe liegt. In der Praxis ist somit die Auflösung bis sehr nah an die Optik heran für eine Resektion ausreichend. Das Abflachen der Verläufe 1 1 , 12 zu kleinen Gegenstandsweiten hin erklärt sich daraus, dass der Effekt der sich vergrößernden Zerstreuungskreise durch den reziproken geometrischen Effekt der Annäherung kompensiert wird.
Alle genannten Merkmale, auch die den Zeichnungen allein zu entnehmenden sowie auch einzelne Merkmale, die in Kombination mit anderen Merkmalen offenbart sind, werden allein und in Kombination als erfindungswesentlich angesehen. Erfindungsgemäße Ausführungsformen können durch einzelne Merkmale oder eine Kombination mehrerer Merkmale erfüllt sein.
Bezuaszeichenliste
1 Bildpunkt
2 Bildpunkt
3 zusammengefasster Bildpunkt
1 1 Schärfeverlauf im Nahfeld, Diagnosemodus
12 Schärfeverlauf im Nahfeld, Therapiemodus
13 Schärfeverlauf im Bereich maximaler Schärfe, Diagnosemodus
14 Schärfeverlauf im Bereich maximaler Schärfe Therapiemodus
15 Schärfeverlauf im Fernbereich, Diagnosemodus
16 Schärfeverlauf im Fernbereich, Therapiemodus
17 Schärfentiefebereich im Diagnosemodus
18 Schärfentiefebereich im Therapiemodus

Claims

Patentansprüche
1. Videoendoskopsystem mit einer Videoeinheit, die ein optisches System mit einem abbildenden Linsensystem mit wenigstens einer Linse, mittels dessen ein Bild auf einen lichtempfindlichen elektronischen Flächenmatrix-Sensor abgebildet wird, dadurch gekennzeichnet, dass eine Steuereinheit für die Videoeinheit vorgesehen ist, mittels deren ein Auslesen von Bildinformationen aus dem Flächenmatrix-Sensor so steuerbar ist, dass Bildinformationen zweier oder mehrerer benachbarter Bildpunkte (1 , 2) zusammengefasst werden.
2. Videoendoskop nach Anspruch 1 , dadurch gekennzeichnet, dass eine steuerbare Blende, die in einem Strahlengang des Linsensystems zum Flächenmatrix-Sensor angeordnet ist, umfasst ist und die Steuereinheit ausgebildet ist, eine Blendenzahl der Blende zu ändern, wenn die Anzahl der zusam- mengefassten Bildpunkte (1 , 2) des Flächenmatrix-Sensors geändert wird.
3. Videoendoskopsystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Bildwiederholungsrate und/oder eine Belichtungszeit des Flächenmatrix-Sensors pro Einzelbild mittels der Steuereinheit einstellbar ist, wobei insbesondere eine Blendenzahl der Blende mittels der Steuereinrichtung an die Belichtungszeit pro Einzelbild anpassbar ist.
4. Videoendoskopsystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass mittels der Steuereinheit eine gewünschte optimale Gegenstandsweite und ein gewünschter Schärfentiefebereich auswählbar sind, wobei die Steuereinrichtung anhand der gewählten optimalen Gegenstandsweite, des gewählten Schärfentiefebereichs und vorhandener Helligkeitsinformationen vom Flächenmatrix-Sensor automatisch die Anzahl der beim Auslesen des Flächenmatrix-Sensors zusammenzufassenden Bildpunkte (1 , 2) und die Blendenzahl, sowie insbesondere die Bildwiederholungsrate und/oder Belichtungszeit pro Einzelbild einstellt.
5. Videoendoskopsystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass mittels der Steuereinheit bei einer Änderung der Anzahl der beim Auslesen des Flächenmatrix-Sensors zusammenzufassenden Bildpunkte (1 , 2) das optische System auf eine angepasste geänderte optimale Gegenstandsweite einstellbar ist.
6. Videoendoskopsystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Videoeinheit in einen Kamerakopf integriert ist, der an einem proximalen Ende des Vi- deoendoskopsystems fixierbar anbringbar ist.
7. Videoendoskopsystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass es als Resektoskop, insbesondere für transurethrale Resektionen, ausgebildet ist.
8. Kamerakopf für ein Videoendoskopsystem, insbesondere nach einem der Ansprüche 1 bis 7, der an einem proximalen Ende des Videoendoskopsystems fixierbar anbringbar ist, wobei der Kamerakopf eine Videoeinheit umfasst, die ein optisches System mit einem abbildenden Linsensystem mit wenigstens einer Linse, mittels dessen ein Bild auf einen lichtempfindlichen elektronischen Flächenmatrix-Sensor abgebildet wird, umfasst, dadurch gekennzeichnet, dass eine Steuereinheit für die Videoeinheit vorgesehen ist, mittels deren ein Auslesen von Bildinformationen aus dem Flächenmatrix- Sensor so steuerbar ist, dass Bildinformationen zweier oder mehrerer benachbarter Bildpunkte (2) zusammengefasst werden.
9. Verfahren zum Betreiben eines Videoendoskopsystems und/oder eines Kamerakopfes für ein Videoendoskopsystem, das oder der eine Videoeinheit, die ein optisches System mit einem abbildenden Linsensystem mit wenigstens einer Linse, mittels dessen ein Bild auf einen lichtempfindlichen elektronischen Flächenmatrix-Sensor abgebildet wird, umfasst, insbesondere nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass mittels der Steuereinheit gesteuert wird, dass beim Auslesen der Bildinformationen des Flächenmatrix- Sensors die Bildinformationen zweier oder mehrerer benachbart angeordneter Bildpunkte (2) zusammengefasst werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Steuereinrichtung eine an eine Anzahl von beim Auslesen zusammengefassten Bildpunkten (1 , 2) angepasste Blendenzahl an einer steuerbaren Blende einstellt, die in einem Strahlengang des Linsensystems zum Flächenmatrix-Sensor angeordnet ist.
1 1. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Steuereinrichtung eine Bildwiederholungsrate und/oder eine Belichtungszeit pro Einzelbild einstellt, wobei die Steuereinrichtung insbesondere die Blendenzahl an die Bildwiederholungsrate und/oder die Belichtungszeit pro Einzelbild anpasst.
12. Verfahren nach einem der Ansprüche 9 bis 1 1 , dadurch gekennzeichnet, dass mittels der Steuereinheit eine gewünschte optimale Gegenstandsweite und ein gewünschter Schärfentiefebereich (13, 14) ausgewählt werden, wobei die Steuereinrichtung anhand der gewählten optimalen Gegenstandsweite, des gewählten Schärfentiefebereichs (13, 14) und vorhandener Helligkeitsinformationen vom Flächenmatrix-Sensor automatisch die Anzahl der beim Auslesen des Flächenmatrix- Sensors zusammenzufassenden Bildpunkte (1 , 2) und die Blendenzahl, sowie insbesondere die Bildwiederholungsrate und/oder Belichtungszeit pro Einzelbild einstellt.
13. Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass mittels der Steuereinheit bei einer Änderung der Anzahl der beim Auslesen des Flächenmatrix- Sensors auszulesenden Bildpunkte (1 , 2) das optische System auf eine angepasste geänderte optimale Gegenstandsweite eingestellt wird.
PCT/EP2011/001363 2010-04-19 2011-03-18 Videoendoskopsystem und verfahren zum betreiben eines videoendoskopsystems WO2011131277A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010027905.6A DE102010027905B4 (de) 2010-04-19 2010-04-19 Videoendoskopsystem und Verfahren zum Betreiben eines Videoendoskopsystems
DE102010027905.6 2010-04-19

Publications (1)

Publication Number Publication Date
WO2011131277A1 true WO2011131277A1 (de) 2011-10-27

Family

ID=44242461

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/001363 WO2011131277A1 (de) 2010-04-19 2011-03-18 Videoendoskopsystem und verfahren zum betreiben eines videoendoskopsystems

Country Status (2)

Country Link
DE (1) DE102010027905B4 (de)
WO (1) WO2011131277A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2446809A1 (de) * 2010-10-26 2012-05-02 Fujifilm Corporation Elektronisches Endoskopsystem mit Prozessorvorrichtung und Verfahren zur Verarbeitung endoskopischer Bilder

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5509233B2 (ja) * 2012-02-27 2014-06-04 富士フイルム株式会社 電子内視鏡装置及びその作動方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050065406A1 (en) * 2000-07-14 2005-03-24 Xillix Technologies Corporation Compact fluorescence endoscopy video system
US20090296203A1 (en) * 2007-11-26 2009-12-03 Olympus Corporation Microscope observation system
EP2149328A1 (de) * 2007-05-22 2010-02-03 Olympus Corporation Eingekapseltes medizinisches gerät und eingekapseltes medizinisches system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5523786A (en) 1993-12-22 1996-06-04 Eastman Kodak Company Color sequential camera in which chrominance components are captured at a lower temporal rate than luminance components
DE10214809A1 (de) 2002-04-04 2003-10-23 Wolf Gmbh Richard Festkörpervideokamera und Helligkeitsregelung dafür

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050065406A1 (en) * 2000-07-14 2005-03-24 Xillix Technologies Corporation Compact fluorescence endoscopy video system
EP2149328A1 (de) * 2007-05-22 2010-02-03 Olympus Corporation Eingekapseltes medizinisches gerät und eingekapseltes medizinisches system
US20090296203A1 (en) * 2007-11-26 2009-12-03 Olympus Corporation Microscope observation system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2446809A1 (de) * 2010-10-26 2012-05-02 Fujifilm Corporation Elektronisches Endoskopsystem mit Prozessorvorrichtung und Verfahren zur Verarbeitung endoskopischer Bilder
US8626273B2 (en) 2010-10-26 2014-01-07 Fujifilm Corporation Electronic endoscope system having processor device, and method for processing endoscopic image

Also Published As

Publication number Publication date
DE102010027905B4 (de) 2018-09-13
DE102010027905A1 (de) 2011-10-20

Similar Documents

Publication Publication Date Title
EP1618836B1 (de) Laryngoskop mit OCT
EP2386244B1 (de) Ophthalmoskop
DE102008018636B4 (de) Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
DE4422522B4 (de) Beobachtungs- und/oder Dokumentationseinrichtung mit vorgeschaltetem Endoskop sowie Verfahren zu deren Betrieb
EP1908398B1 (de) Ophthalmo-Operationsmikroskopsystem
DE102015012387A1 (de) Optisches System, umfassend ein Mikroskopiesystem und ein OCT-System
DE102016203487B4 (de) Augenmikroskopsystem
DE102005019143A1 (de) Kombiniertes diagnose- und therapieunterstützendes System
DE102004042790A1 (de) Röntgeneinrichtung
EP1441249A1 (de) Operationsmikroskop
DE102005032501A1 (de) Vorrichtung zur Untersuchung vorderer und hinterer Augenabschnitte
EP1555932A1 (de) Ophthalmologisches gerät und verfahren zur gerätepositionierung
EP3267235A1 (de) Optisches system eines stereo-videoendoskops, stereo-videoendoskop und verfahren zum betreiben eines optischen systems eines stereo-videoendoskops
DE102012022058A1 (de) Flexibles, multimodales Retina-Bildaufnahme- und Messsystem
DE4304422C1 (de) Endoskop
DE102010027905B4 (de) Videoendoskopsystem und Verfahren zum Betreiben eines Videoendoskopsystems
DE4214445A1 (de) Beleuchtungseinrichtung für ein Operationsmikroskop
EP1006390B1 (de) Endomikroskopsystem
DE102022127447A1 (de) Beleuchtungsvorrichtung, Beleuchtungsverfahren, Beleuchtungssystem und Verfahren zum Betreiben eines Beleuchtungssystems
DE102016002174A1 (de) Bildaufnahmeverfahren und Bildaufnahmevorrichtung mit verbesserter Regelung einer Lichtleistung
DE102019219123A1 (de) Beobachtungseinrichtung
DE102008059876B4 (de) Ophthalmoskopie-System und Ophthalmoskopie-Verfahren
DE3908928A1 (de) Bildgebendes verfahren und vorrichtung zum dosierten bestrahlen von biologischem gewebe mit laserstrahlung in der medizinischen anwendung
WO2019038386A1 (de) VORRICHTUNG ZUR AKTORISCHEN VERSTELLUNG DER VERGRÖßERUNGSSTUFEN EINES VERGRÖßERUNGSWECHSLERS
DE102022112151B3 (de) Bildgebendes Visualisierungssystem und zugehöriges Verfahren zum Betrieb einer Lichtquelle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11711270

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11711270

Country of ref document: EP

Kind code of ref document: A1