WO2004023797A1 - Verfahren zum betreiben eines endoskops sowie endoskop - Google Patents

Verfahren zum betreiben eines endoskops sowie endoskop Download PDF

Info

Publication number
WO2004023797A1
WO2004023797A1 PCT/EP2003/009726 EP0309726W WO2004023797A1 WO 2004023797 A1 WO2004023797 A1 WO 2004023797A1 EP 0309726 W EP0309726 W EP 0309726W WO 2004023797 A1 WO2004023797 A1 WO 2004023797A1
Authority
WO
WIPO (PCT)
Prior art keywords
recording unit
image recording
image
display device
read
Prior art date
Application number
PCT/EP2003/009726
Other languages
English (en)
French (fr)
Inventor
David Hradetzky
Claas MÜLLER
Original Assignee
Albert-Ludwigs-Universität
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Albert-Ludwigs-Universität filed Critical Albert-Ludwigs-Universität
Priority to AU2003267031A priority Critical patent/AU2003267031A1/en
Publication of WO2004023797A1 publication Critical patent/WO2004023797A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the invention relates to a method for operating an endoscope, which has a lens and a transmission channel for transmitting an image of an object located in front of the lens to an image recording unit as a detection unit.
  • the invention also relates to an endoscope for performing the method.
  • Endoscopes of this type and methods in which such endoscopes are used are known in a wide variety of designs and for a wide variety of uses.
  • the known endoscopes have a rigid viewing direction with predominantly two-dimensional image viewing.
  • the image recorded by the lens is usually recorded via an electro-optical image recording unit, preferably CCD chips, and on viewing devices, e.g. on video monitors or LCD displays.
  • the electro-optical image recording unit which has a chip with a matrix of light-sensitive elements and is described, for example, in US Pat. No. 5,452,004 and US Pat. No. 4,942,473, is either placed on the proximal end instead of an eyepiece or on an eyepiece or on the distal end of the endoscope near the lens.
  • the arrangement at the distal end allows a simple optical system for transmitting the image, but miniaturization of the design of the endoscope is limited by the size of the chip of the image recording unit.
  • Endoscopes with an electro-optical image acquisition unit at the proximal end require an optical transmission channel to transmit the image information from the objective to the image acquisition unit.
  • the transmission channel can consist of light-conducting fibers, which makes small designs possible, but the image quality is only low, or a lens system that has a high transmission quality.
  • Miniaturization is also sought for the electro-optical image recording unit, as described in US Pat. No. 6,211,904 B1 using the example of a CMOS sensor chip on surgical devices or apparatus such as endoscopes.
  • This US Pat. No. 6,211,904 B1 has an endoscope with electronic image recorders, with an optional access to any pixel being available in order to improve the electronic quality of the signals and in particular also to reduce the noise level. In addition to accessing individual pixels, the entire image content can also be read out.
  • the stereoscopic images are usually generated by two separate cameras, each one the image
  • a spatial separation of the images by reading out two partial areas on one chip or on two chips of an image recording unit is described in DE 38 06 190 C2.
  • This system displays both fields spatially separated on a monitor, the fields are assigned to the corresponding eye using a polarization arrangement.
  • Another way of improving the representation of the operating room in front of the lens of the endoscope is to be able to vary the viewing direction or to enlarge areas of the operating field (zoom).
  • US Pat. No. 5,196,928 describes an endoscope system in which two independent endoscopes, each with an electronic Optical image recording unit represent the operating room, the image taking place on a common monitor that displays the images side by side or also picture-in-picture. It is also possible to transform images that have been taken with the help of all-round vision optics (fisheye optics) and are correspondingly distorted into a largely flat, rectified representation, as described in DE 198 06 279 A1, but this is true during the transformation image information may be lost.
  • all-round vision optics fisheye optics
  • DE 199 03 437 C1 describes mechanical solutions for moving the distal end of endoscopes.
  • a partial area of the image is deflected into the transmission system by means of wide-angle optics, a longitudinally displaceable mirror and a mirror which is rigid with respect to transmission optics. By shifting the first mirror, another area of the image can enter the transmission system, which corresponds to a change in the viewing direction.
  • the invention essentially proposes a method which is primarily characterized in that within the entire image projected onto the image recording unit, the signals from any partial areas with any position on the image recording unit are read out and that the read out signals of the partial areas in a display device in parts or as a whole.
  • the position of the partial areas read on the image recording unit can be changed freely, this change in position corresponding to a change in the direction of view within the entire operation field.
  • a particularly good representation of the partial areas on the display device is achieved if the number of pixels of the read partial areas roughly corresponds to the number of pixels of the output format of the display device and if the read partial areas on a display device are preferably displayed in a format-filling manner. It is also advantageous if, in addition to the number of pixels, the aspect ratio of the partial areas read out also corresponds to the aspect ratio of the output format of the display device. This enables a distortion-free representation of the recorded image with good utilization of the output format. If the partial areas are changed in size and continue to be displayed in full format on the display device, this corresponds to a zoom function.
  • the image is reduced before being displayed on the display device and adapted to the output format of the display device , It is advantageous if the aspect ratio of the partial areas read matches the aspect ratio of the output format.
  • the image is enlarged before being displayed on the display device and to the output format of the display device customized.
  • the additional pixels required for the display are generated by interpolation between the pixels from the partial area read out.
  • the aspect ratio of the partial areas read matches the aspect ratio of the output format.
  • zoom function is therefore possible purely electronically without mechanical movement and can be used very flexibly.
  • the usable zoom range is only determined by the resolution of the image acquisition unit used, by the resolution of the display device used and by the quality of the interpolation algorithm used.
  • the image data is generated by the Reading out a partial area achieves data reduction, which increases the speed of data transmission.
  • this zoom function is not limited to an enlargement or reduction concentrically around the center of the image recording unit, but can in principle be carried out at any point.
  • the signals of two stereoscopic fields are fed directly to an image recording unit and if the positions of the partial areas that are read out, each forming a stereoscopic field, are aligned with one another to achieve a three-dimensional representation on a two-channel display device , In this way it is possible to use practically any system that delivers stereoscopic fields for this method and thus to achieve a three-dimensional effect when viewing the operating field.
  • this also applies, for example, to stereo microscopes.
  • the two stereoscopic fields can be adjusted purely electronically, so that the assembly of such an arrangement can be considerably simplified.
  • a three-dimensional impression of the operating field can also be obtained if, according to an embodiment of the invention, for which independent protection is claimed, the image of an object is recorded by a single lens and transmitted to the image recording unit via a single transmission channel when the signals are horizontal partial areas of an image which are offset from one another can be read out on the image recording unit and if the read signals of the two partial areas on the two channels of a two-channel display device are achieved a three-dimensional impression.
  • the image of an object is recorded by a single lens and transmitted to the image recording unit via a single transmission channel when the signals are horizontal partial areas of an image which are offset from one another can be read out on the image recording unit and if the read signals of the two partial areas on the two channels of a two-channel display device are achieved a three-dimensional impression.
  • this method does not quite achieve the strong spatial impression of the method, which is based on two stereoscopic fields, which were recorded by two separate lenses, the main advantage of this method is that with a conventional endoscope, which only has a transmission channel, nevertheless to get a spatial, three-dimensional impression of the operating field.
  • the three-dimensional effect described above can also be combined with a change in viewing direction. It is provided that for a change of viewing direction in the area of the two separate images projected onto the image recording unit, the signals of a partial area are read out at different positions on the image recording unit, the partial areas read out being arbitrary in the overall area of a stereoscopic field, the two corresponding partial areas relative are positioned equally to each other. A change in the viewing direction can be carried out in the horizontal and / or vertical direction.
  • the three-dimensional impression described above can also be combined with a change in viewing direction. It is provided that for a change in the direction of view in the area of the entire image projected onto the image recording unit, the signals of two partial regions lying horizontally offset from one another are read out with any position on the image recording unit that is, however, the same relative to one another.
  • the viewing direction can be changed in the horizontal and / or vertical direction. It is also possible with the method according to the invention, for example, to project the images of several endoscopes onto an image recording unit.
  • the images of a plurality of independent transmission channels are projected onto the image recording unit in order to simultaneously display a plurality of subareas of an operating field or a plurality of operating fields and if the signals of these images are displayed in part or as a whole on a display device.
  • an operation area can be recorded from two different directions and these two images can then be output simultaneously on two viewing devices. The larger amount of image information enables the operating field to be better observed and the operating time to be shortened.
  • the image recording unit of the endoscope used with a lens a transmission channel for transmitting an image one in front of the lens Object and an image recording unit as a detection unit has at least one sensor chip if a control unit is provided for reading any part of the image recording unit and if the image recording unit is connected to a display device. Since the image evaluation in such an endoscope on the sensor chip takes place purely electronically, image corrections or adjustments can also be made for which otherwise complex mechanical or optical corrections would be necessary. This places fewer demands on the mechanical structure of the endoscope and can thus simplify the operation of the endoscope.
  • the image recording unit has a plurality of sensor chips, in particular three sensor chips.
  • Each individual sensor chip of such a construction processes a certain spectral range of the light.
  • the composite signals of all chips can then produce a color image and thus a realistic image of the objects in front of the endoscope lens with the same high resolution as for a single chip.
  • the image recording unit has a higher resolution than the viewing devices used for image output.
  • a partial area, the resolution of which approximately corresponds to the resolution of the viewing device, can thereby be shifted on the image recording unit.
  • a good display on the display device can thus be achieved without loss of information between the partial area on the image recording unit and the display on the display device.
  • FIG. 3 is a front view of the image recording unit and the image projected overlapping it
  • Fig. 5 is a front view of the image pickup unit with a
  • FIG. 6 shows a frontal view of the image recording unit with an illustration of the reduction of a partial area
  • FIG. 7 is a frontal view of the image recording unit with an illustration of the enlargement of a partial area
  • FIG. 9 is a front view of the image recording unit with two stereoscopic images projected overlapping the image recording unit
  • 10 shows a frontal view of the image recording unit with two partial areas read out
  • 11 is a frontal view of the image recording unit with a representation of the parallel displacement of two partial areas
  • FIG. 13 shows a frontal view of the image recording unit with two overlapping read partial areas
  • FIG. 14 is a front view of the image recording unit with a representation of the parallel displacement of two overlapping partial areas.
  • An endoscope designated as a whole by 1 and shown in longitudinal section in FIG. 1, has an objective 2, a transmission channel 4 and an imaging system 40 for transmitting an image 17 (FIGS. 2, 3) of an object 100 located in front of the objective 2 Image acquisition unit 6 as a detection unit. 1 also shows two different viewing directions 18a and 18b in the entire field of view of the endoscope 1 as beam paths which extend from a distal end of the endoscope 1 with the objective 2 via the transmission channel 4 and the imaging system 40 to that located at a proximal end 3 Image acquisition unit 6 run.
  • the signals from any partial areas 19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b with any position on the image recording unit 6 can be read out within the entire image 17 projected onto the image recording unit 6, and the read signals of the Subregions 19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b on one Display device 16 can be shown in parts or as a whole (cf. also FIGS. 4, 5, 6, 7, 10, 11)
  • FIG. 4 shows the positioning of a partial area 19a with the dimensions W x , W ⁇ and the position X, Y on the image recording unit 6, which has the dimensions N x , N ⁇ .
  • the dimensions N x and N ⁇ and the resulting number of pixels of the image recording unit 6 are larger than the dimensions W x , W ⁇ and the resulting number of pixels of the partial area 19a.
  • Figs. 2 and 3 show two ways the projection of the total recorded by the lens 2 image 17 on the imaging unit 6.
  • the image 17 is fully projected in Fig. 2 to the "imaging unit so that no information is lost, but the area is the 3, the recorded image 17 overlaps the image recording unit 6, so that information at the edge of the image 17 is lost, but the entire area of the image recording unit 6 is used, in order to take advantage of both projection options and at the same time
  • the image 17 can be projected onto the image recording unit in such a way that as little information as possible is lost on the one hand, ie the overlap is small with the best possible use of the area of the image recording unit 6.
  • FIG. 6 shows a partial area 19a read out on the image recording unit 6, the dimensions of which are reduced after the positioning, the position of the center of the partial area remaining the same. If the number of pixels of the partial area 19a approximately corresponds to the number of pixels of the output format of a display device 16, then the smaller one new sub-area 19c is shown enlarged with a format-filling display on the display device 16.
  • Fig. 7 shows the process shown in Fig. 6 in the opposite 5 direction.
  • the sub-area 19a with a number of pixels which approximately corresponds to the number of pixels of the output format of a viewing device 16 is increased in its dimensions after the positioning, the position of the center of the sub-area remaining the same.
  • a format-filling representation of the larger partial area 19d is then made smaller on the display device 16.
  • Image acquisition unit 6 using the example of stereoscopic fields 20 and 21.
  • the positions of the two stereoscopic fields 20 and 21 are in relation to one another in order to achieve a three-dimensional representation on a two-channel display device 16 on the image acquisition unit 6
  • FIGS. 10 and 11 demonstrate.
  • 10 shows an initial state of the two partial areas 22a and 23a of the stereoscopic fields 20 and 21 which have been read out (see FIGS. 8 and 9).
  • the two partial areas 22a and 23a are aligned with one another on the image recording unit 6 in order to provide a three-dimensional representation to reach the display device 16.
  • the two partial areas 22a and 23a in the total area of the stereoscopic fields 20 and 21 on the image recording unit 6 are shifted as desired, in this case upwards. Relative to each other, the position of the two partial areas 22a and 23a remains the same.
  • FIG. 13 shows two overlapping partial areas 22a and 23a on the image recording unit 6, each of the partial areas 22a, 23a representing a quasi-stereoscopic field. Due to the overlapping of the partial areas 22a, 23a when reading out and the separate representation of these partial areas 22a, 23a on each channel of a two-channel viewing device 16, a three-dimensional impression of the operating field is achieved, although the operating field is recorded only through one channel, for example from a single-channel endoscope or also microscope becomes.
  • this purely electronic splitting of the overall image after a single-channel image transmission to the image recording unit 6 into two (quasi) stereoscopic fields 22a, 23a such a three-dimensional impression of the operating field can be achieved without additional mechanical or constructive effort.
  • FIG. 14 shows a combination of the generation of a three-dimensional impression of the operating field with the aid of overlapping partial areas 22a, 23a and a change of viewing direction within the entire image of the operating field, which affects the image recording unit 6 was projected.
  • the two overlapping partial areas 22a, 23a with the same position relative to one another are shifted on the image recording unit 6, in this example from a lower position (22a, 23a) to an upper position (22b, 23b).
  • This change of viewing direction also takes place purely electronically by reading out different areas of the image recording unit 6 at different times, without additional constructional measures being necessary.
  • FIG. 12 shows a functional block representation with the functional groups of an electronic endoscope 1, as can be used to carry out the above-described method. It can be seen that an image 17 of an object (100) is fed to a camera 5 via a transmission channel 4. The camera 5 processes this image information via an image recording unit 6 into an electronic signal.
  • the image recording unit 6_ can have a sensor chip for obtaining monochromatic or colored images or three chips for obtaining color images.
  • a central camera control unit 7 for controlling the image recording unit 6 and a camera interface 8 for transmitting the image information to a central I / O unit 9 prepare the signals of the image recording unit 6 in such a way that the central I / O unit 9 these signals can process further.
  • the central camera control unit 7 is connected to a central 1/0 control unit 11.
  • a frame grabber 10 converts the electronic signals of the camera 5 into successive, separate individual images, which can be post-processed with an image processing unit 14, for example to make color corrections, and then be stored in an image memory 13, for example a hard disk, and / or to to be displayed on a display device 16. If the individual images from the frame grabber 10 have a different resolution than the output format of the Display device 16, the resolution of the individual images is adapted to the output format of the display device 16 with the aid of a resolution adaptation unit 12.
  • the partial area displayed on the display device 16 can be selected from the total area of the individual images via an external control 15.
  • the external control 15 can be a mouse, a joystick, a keyboard or a voice control.
  • the display device 16 used for the display can be a computer or video monitor arrangement, a head-mounted display or a projection system.
  • the method according to the invention is used to operate an endoscope 1, which has a lens 2, a transmission channel 4 for transmitting an image 17 of an object 100 located in front of the lens 2 to an image recording unit 6 ′′ as a detection unit, with the entire image being taken on the image recording unit 6 projected image, the signals from any sub-areas 19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b can be read with any position on the image recording unit 6.
  • the read-out signals from the sub-areas 19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b are shown on a display device 16 in part or as a whole.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

Ein Verfahren 'dient zum Betreiben eines Endoskops (1), das ein Objektiv (2), einen Übertragungskanal (4) zur Übertragung eines Bildes (17) eines vor dem Objektiv (2) befindlichen Objektes (100) zu einer Bildaufnahmeeinheit (6) als Detektionseinheit aufweist. Dabei werden innerhalb des gesamten auf die Bildaufnahmeeinheit (6) projizierten Bildes die Signale von beliebigen Teilbereichen (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) mit beliebiger Lage auf der Bildaufnahmeeinheit (6) ausgelesen. Die ausgelesenen Signale der Teilbereiche (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) werden auf einem Sichtgerät (16) in Teilen oder als Ganzes dargestellt. (Fig. 1)

Description

Verfahren zum Betreiben eines Endoskops sowie Endoskop
Die Erfindung bezieht sich auf ein Verfahren zum Betreiben eines Endoskops, das ein Objektiv und einen Übertragungskanal zur Übertragung eines Bildes eines vor dem Objektiv befindlichen Objektes zu einer Bildaufnahmeeinheit als Detektionseinheit aufweist. Außerdem bezieht sich die Erfindung auf ein Endoskop zur Durchführung des Verfahrens.
Derartige Endoskope sowie Verfahren, bei denen solche Endoskope eingesetzt werden, sind in vielfältigen Ausführungen und für verschiedenste Verwendungszwecke bekannt. Dabei weisen die bekannten Endoskope eine starre Blickrichtung mit überwiegend zweidimensionaler Bildbetrachtung auf. Das durch das Objektiv aufgenommene Bild wird meist über eine elektro-optische Bildaufnahmeeinheit, vorzugsweise CCD-Chips, aufgenommen und auf Sichtgeräten, z.B. auf Videomonitoren oder LCD-Displays, angezeigt .
Die elektro-optische Bildaufnahmeeinheit, die einen Chip mit einer Matrix aus lichtempfindlichen Elementen aufweist und beispielsweise in der US 5 452 004 und der US 4 942 473 beschrieben ist, ist entweder am proximalen Ende anstatt eines Okulars oder auf einem Okular aufgesetzt oder am distalen Ende des Endoskops nahe dem Objektiv angeordnet. Die Anordnung am distalen Ende erlaubt zwar ein einfaches optisches System zur Übertragung des Bildes, eine Miniaturisierung der Bauform des Endoskops ist aber durch die Größe des Chips der Bildaufnahmeeinheit begrenzt. Endoskope mit einer elektro- optischen Bildaufnahmeeinheit am proximalen Ende benötigen einen optischen Übertragungskanal zur Übertragung der Bildinformation vom Objektiv zur Bildauf ahmeeinheit. Der Übertragungskanal kann aus lichtleitenden Fasern bestehen, womit kleine Bauformen möglich sind, die Bildqualität jedoch nur gering ist, oder aus einem Linsensystem, das eine hohe Übertragungsqualität aufweist. Auch bei der elektrooptischen Bildaufnahmeeinheit wird eine Miniaturisierung angestrebt, wie dies in der US 6 211 904 B1 am Beispiel eines CMOS-Sensor-Chips an chirurgischen Geräten oder Apparaturen wie beispielsweise Endoskopen beschrieben ist. Diese US 6 211 904 B1 weist ein Endoskop mit elektronischen Bildaufnehmern auf, wobei eine wahlfreie Zugriffsmöglichkeit auf beliebige Pixel vorhanden ist, um die elektronische Qualität der Signale zu verbessern und insbesondere auch den Rauschpegel zu reduzieren. Außer dem Zugriff auf einzelne Pixel kann auch der gesamte Bildinhalt ausgelesen werden.
Zur Verbesserung der bisherigen zweidimensionalen Darstellung des Operationsfeldes vor dem Objektiv des Endoskops sind dreidimensional darstellende Systeme bekannt. Für diese Darstellungsart wird eine stereoskopische Basis benötigt, vergleichbar mit dem "Augenabstand des Menschen, um aus der Überlagerung zweier Bilder unter unterschiedlichen Betrachtungswinkeln einen räumlichen Eindruck vom Operationsfeld zu erhalten.
Die stereoskopischen Bilder werden in der Regel von zwei getrennten Kameras erzeugt, die jeweils das Bild eines
- optischen Übertragungskanals eines Stereo-Endoskops aufnehmen, wie dies zum Beispiel in der US 5 428 386 beschrieben ist. In der US 5 381 784 ist ein Stereo-Endoskop beschrieben, welches am distalen Ende zwei elektro-optische Bildaufnahmeeinheiten (CCDs) aufweist, die jeweils ein stereoskopisches Halbbild aufnehmen und die durch den Abstand der CCDs die stereoskopische Basis- bereitstellen. Die Erzeugung zweier getrennter Bilder kann auch erreicht werden, indem ein gemeinsames Bild vom Operationsbereich eines Endoskops im Verlauf des optischen Übertragungskanals in zwei Teile aufgetrennt wird. Dabei gibt es Systeme, die die Trennung entweder nahe des Objektivs (DE 42 19 851 A1 ) oder aber nahe des Okulars (DE 197 01 199 A1 ) vollziehen. Bei dieser Trennung entstehen zwei unabhängige Bildteile, die, vom Betrachter gemeinsam wahrgenommen, einen stereoskopisches Bild hervorrufen. Verschiedenste optische Ansätze zur Generierung von stereoskopischen Halbbildern sind auch in DE 692 29 778 T2 dargelegt .
Es sind aber auch Anordnungen bekannt, die mit einer Kamera auskommen, wie z.B. in DE 44 24 114 C1 oder JP 02237531 A beschrieben, und durch den Einsatz von Shuttern zwei räumlich überlagerte Halbbilder über eine Synchronisation der Kamerabilder mit der Transparenz des Shutters sequentiell trennen. Die Bildausgabe erfolgt sequentiell auf einem Monitor, wobei auch hier eine Synchronisation der Halbbilder mit dem entsprechenden Auge erforderlich ist. Auch in der DE 197 01 199 A1 wird das Erzeugen stereoskopisch korrelierter Doppelbilder mit Hilfe einer Blendeneinrichtung
(Shutter-Blende) im Strahlengang vom Objektiv zum Okular beschrieben. Dabei werden Teile des Strahlenbündels zeitweise abgedeckt, wodurch sich der optische Schwerpunkt der verbleibenden Strahlen entsprechend verschiebt und bei abwechselndem Abdecken gegenüberliegender Teile des Strahlenbündels ein stereoskopisches Doppelbild entsteht. In der DE 42 19 851 A1 ist ein System beschrieben, bei dem die Bildaufnahme über eine einzelne Objektivlinse geschieht und das Bild im nachfolgenden Strahlenverlauf mittels eines Zwillingsprismas in zwei divergierende Bilder aufgespaltet wird, die dann einer gemeinsamen oder auch zwei getrennten lichtempfindlichen Bildvorrichtungen (fotografischer Film oder elektronischer Bildsensor) zugeführt werden können. Durch die Strahlenführung und _ die Auftrennung des vom Objektiv aufgenommenen Gesamtbildes vor der Bildaufnahmeeinheit sinkt die optische Abbildungsqualität auf der Bildauf ahmeeinheit . Außerdem ist eine nachträgliche Justage oder Anpassung der Positionen der beiden Teilbereiche zueinander, beispielsweise für eine Anpassung an verschiedene Sichtgeräte und/oder Benutzer, nur schwierig und umständlich oder gar nicht möglich, weil diese Positionen durch den Aufbau der Anordnung fest vorgegeben sind.
Eine räumliche Trennung der Bilder durch Auslesen zweier Teilbereiche auf einem Chip oder auf zwei Chips einer Bildaufnahmeeinheit ist in DE 38 06 190 C2 beschrieben. Dieses System stellt beide Halbbilder räumlich getrennt auf einem Monitor dar, die Zuordnung der Halbbilder zum entsprechenden Auge erfolgt über eine Polarisationsanordnung.
Eine Änderung der Position der beiden Halbbilder zueinander ist auf elektronischem Wege nicht möglich, sodass eine exakte, mit entsprechendem Aufwand verbundene, optische Justage des Systems vorgenommen werden uss, um aus den Halbbildern eine Überlagerung und somit ein stereoskopisches Bild zu erhalten. Weitere Nachteile dieses Systems sind die durch das Endoskop hindurch zu dessen distalen Ende hin verlaufende elektrischen und hochfrequenten Signalleitungen. Die Größe dieses Endoskops wird im wesentlichen durch den eingesetzten Bildempfänger bestimmt, was eine Miniaturisierung des Gerätes nur in Grenzen gestattet .
Eine andere Art der Verbesserung der Darstellung des Operationsraumes vor dem Objektiv des Endoskops stellt die Möglichkeit dar, die Blickrichtung zu variieren oder Bereiche des Operationsfeldes zu vergrößern (Zoom) .
In der US 5 196 928 ist ein Endoskop-System beschrieben, bei dem zwei unabhängige Endoskope mit jeweils einer elektro- optischen Bildaufnahmeeinheit den Operationsraum darstellen, wobei die Abbildung auf einem gemeinsamen Monitor, der die Bilder nebeneinander oder auch Bild-in-Bild wiedergibt, stattfindet. Auch eine Transformation von Bildern, die mit Hilfe einer Rundumsicht-Optik (Fischaugenoptik) aufgenommen wurden und entsprechend verzerrt sind, in eine weitgehend ebene, entzerrte Darstellung, wie in DE 198 06 279 A1 beschrieben ist, ist möglich, wobei es bei der Transformation jedoch zu einem Verlust von Bildinformation kommen kann.
Variable Blickrichtungen sind in heutigen Endoskopsystemen dem technischen Bereich (Boreskope) vorbehalten. Hier existieren Reflexions-Schwenkprismen-Systeme verschiedener Hersteller, wie sie in WO 01/22865 A1 oder US 6 066 090 beschrieben sind.
Neben der Verstellung von Prismen, wie sie auch in DE 299 07 430 U1 und DE 198 39 188 A1 beschrieben ist, gibt es noch andere Möglichkeiten, eine Blickrichtungsänderungen zu realisieren. So beschreibt DE 199 03 437 C1 mechanische Lösungen zum Bewegen des distalen Endes von Endoskopen. In US 6 110 105 wird mittels einer Weitwinkeloptik, einem longitudinal verschiebbaren Spiegel und einem zu einer Übertragungsoptik starrem Spiegel eine Umlenkung eines Teilbereiches des Bildes in das Übertragungssystem erreicht. Durch eine Verschiebung des ersten Spiegels kann ein anderer Bereich des Bildes in das Übertragungssystem gelangen, was einer Änderung der Blickrichtung entspricht . Wegen der aufwendigen mechanischen Bewegungen am distalen Ende des Endoskops, die vom proximalen Ende des Endoskops her mit Hilfe einer entsprechenden Ansteuermechanik durchgeführt werden, ist eine Miniaturisierung solcher Systeme nur begrenzt möglich. Außerdem ist die Mechanik solcher Systeme fehleranfällig und bedarf einer Wartung, um die Funktionsfähigkeit zu gewährleisten. Derartige bewegliche Ansteuermechaniken sind außerdem schwer oder gar nicht sterilisierbar, was für den chirurgischen Einsatz erforderlich ist.
DE 43 04 422 C1 stellt die Änderung des Gesichtsfeldes durch ein Zoom-Endoskop dar. Die Zoom-Funktion ist dabei mechanisch ausgeführt, was wegen der vorbeschriebenen Merkmale mechanischer Systeme nachteilig ist und dabei so ausgelegt, dass bei kleinster Vergrößerung das Bild den gesamten Chip bedeckt, während bei größerer Vergrößerung nur ein Teil des Bildes den gesamten Chip bedeckt. Durch das parallele Verschieben des CCD-Chips als Bildaufnahmeeinheit kann ein anderer Teilbereich des Gesichtsfeldes erfasst und somit eine andere Blickrichtung gewählt werden.
Ein ähnlicher Ansatz wird auch im Schlussbericht der Sektion für Minimalinvasive Chirurgie, Chirurgischen Klinik der Eberhard-Karl-Universität Tübingen im BMBF Verbundprojekt 1995- 1999 "Sichtsysteme für die minimal-invasive Chirurgie 'SIMIC'" dargelegt, wo der Bildempfänger (mechanisch) relativ zum Bild verschoben wird, um eine Änderung der Blickrichtung zu realisieren.
In der US 5 877 819 werden grundsätzliche Funktionen wie Zoom (Vergrößern/Verkleinern) und Pan (Verschieben) von Bilddaten einer elektro-optischen Bildaufnahmeeinheit erläutert. Dabei ist die Zoom-Funktion erst im Output-Device vorgesehen und es wird dabei lediglich konzentrisch gezoomt. Dies erfordert jedoch, dass die Gesamtheit der Daten von der Kamera ausgelesen und an den PC übermittelt werden muss, was einen Geschwindigkeitsnachteil mit sich bringt. Die Bilddaten werden bei der Zoom-Funktion in ihrer Größe geändert, was insbesondere bei der Vergrößerung zu Bilddatenverlusten führt und damit die Qualität der Bilder reduziert. Es besteht deshalb die Aufgabe, ein Verfahren zum Betreiben eines Endoskops sowie ein Endoskop zu entwickeln, welches mechanisch einfach aufgebaut ist, wobei die für die Steuerung des Endoskops notwendigen mechanischen Bewegungen im oder am Endoskop möglichst gering sein sollen und welches sich flexibel für unterschiedliche Betrachtungssituationen im Operationsbereich einsetzen lässt.
Zur Lösung dieser Aufgabe schlägt die Erfindung im wesentlichen ein Verfahren vor, welches vor allem dadurch gekennzeichnet ist, dass innerhalb des gesamten auf die Bildaufnahmeeinheit projizierten Bildes die Signale von beliebigen Teilbereichen mit beliebiger Lage auf der Bildaufnahmeeinheit ausgelesen werden und dass die ausgelesenen Signale der Teilbereiche auf einem Sichtgerät in Teilen oder als Ganzes dargestellt werden.
Dabei ist die Position der ausgelesenen Teilbereiche auf der Bildaufnahmeeinheit frei veränderbar, wobei diese Positionsänderung einer Blickrichtungsänderung innerhalb des gesamten Operationsfeldes entspricht.
Eine besonders gute Darstellung der Teilbereiche auf dem Sichtgerät wird erreicht, wenn die Pixelanzahl der ausgelesenen Teilbereiche mit der Pixelanzahl des Ausgabeformates des Sichtgerätes in etwa übereinstimmt und wenn die ausgelesenen Teilbereiche an einem Sichtgerät vorzugsweise formatfüllend dargestellt werden. Vorteilhaft ist es dabei außerdem, wenn neben der Pixelanzahl auch das Seitenverhältnis der ausgelesenen Teilbereiche mit dem Seitenverhältnis des Ausgabeformates des Sichtgerätes übereinstimmt. Damit kann eine verzerrungsfreie Darstellung des aufgenommenen Bildes bei gleichzeitig guter Ausnutzung des Ausgabeformates erreicht werden. Werden die Teilbereiche in der Größe verändert und weiterhin auf dem Sichtgerät formatfüllend dargestellt, entspricht dies einer Zoom-Funktion.
Wenn der Teilbereich größer ist als das Ausgabeformat des Sichtgerätes, wenn also die Pixelanzahl der ausgelesenen Teilbereiche größer ist als die Pixelanzahl des Ausgabeformates des Sichtgerätes bei in etwa gleichem Seitenverhältnis, wird das Bild vor der Darstellung auf dem Sichtgerät verkleinert und an das Ausgabeformat des Sichtgerätes angepasst. Dabei ist es vorteilhaft, wenn das Seitenverhältnis der ausgelesenen Teilbereiche mit dem Seitenverhältnis des Ausgabeformates übereinstimmt .
Wenn der ausgelesene Teilbereich kleiner ist als das Ausgabeformat des Sichtgerätes, wenn also die Pixelanzahl der ausgelesenen Teilbereiche kleiner ist als die Pixelanzahl des Ausgabeformates des Sichtgerätes bei in etwa gleichem Seitenverhältnis, wird das Bild vor der Darstellung auf dem Sichtgerät vergrößert und an das Ausgabeformat des Sichtgerätes angepasst. Die zur Anzeige nötigen zusätzlichen Pixel werden über Interpolation zwischen den Pixeln aus dem ausgelesenen Teilbereich erzeugt. Auch hier ist es vorteilhaft, wenn das Seitenverhältnis der ausgelesenen Teilbereiche mit dem Seitenverhältnis des Ausgabeformates übereinstimmt.
Eine solche Zoom-Funktion ist somit ohne mechanische Bewegung rein elektronisch möglich und sehr flexibel einsetzbar. Der nutzbare Zoom-Bereich ist nur durch die Auflösung der eingesetzten Bildaufnahmeeinheit, durch die Auflösung des eingesetzten Sichtgerätes und durch die Qualität des zum Einsatz kommenden Interpolationsalgorithmus vorgegeben. Dabei wird bereits bei der Generierung der Bilddaten durch das Auslesen eines Teilbereiches eine Datenreduktion erreicht, wodurch die Geschwindigkeit der Datenübertragung erhöht wird. Darüber hinaus ist diese Zoom-Funktion nicht auf eine Vergrößerung oder Verkleinerung konzentrisch um den Mittelpunkt der Bildaufnahmeeinheit beschränkt, sondern kann im Prinzip um jeden beliebigen Punkt durchgeführt werden.
Bei der Erzeugung eines dreidimensionalen Effektes vom Operationsfeld ist es -besonders vorteilhaft, wenn die Signale zweier stereoskopischer Halbbilder direkt einer Bildaufnahmeeinheit zugeführt werden und wenn die Positionen der ausgelesenen, jeweils ein stereoskopisches Halbbild bildenden Teilbereiche zur Erzielung einer dreidimensionalen Darstellung auf einem zweikanaligen Sichtgerät zueinander ausgerichtet werden. Auf diese Weise ist es möglich, praktisch jedes System, welches stereoskopische Halbbilder liefert, für dieses Verfahren zu verwenden und damit einen dreidimensionalen Effekt beim Betrachten des Operationsfeldes zu erreichen. Dies betrifft neben bekannten Stereoendoskopen beispielsweise auch Stereo-Mikroskope. Die Justage der beiden stereoskopischen Halbbilder kann dabei rein elektronisch erfolgen, sodass die Montage einer solchen Anordnung wesentlich vereinfacht werden kann.
Die Erzielung eines dreidimensionalen Eindrucks vom Operationsfeld ist auch dann möglich, wenn nach einer Ausgestaltung der Erfindung, für die selbstständiger Schutz beansprucht wird, das Bild eines Objektes von einem einzigen Objektiv aufgenommen und über einen einzigen Übertragungskanal zur Bildaufnahmeeinheit übertragen wird, wenn die Signale zweier horizontal zueinander versetzt liegender Teilbereiche eines Bildes auf der Bildaufnahmeeinheit ausgelesen werden und wenn die ausgelesenen Signale der beiden Teilbereiche auf den beiden Kanälen eines zweikanaligen Sichtgerätes zur Erzielung eines dreidimensionalen Eindrucks dargestellt werden. Auf diese Weise kann mit bekannten einkanaligen Endoskopen ein räumlicher Eindruck des Operationsfeldes erzeugt werden, ohne dass dafür zusätzlicher mechanischer Aufwand nötig ist. Dabei kann zwar mit diesem Verfahren nicht ganz der starke räumliche Eindruck des Verfahren, welches auf zwei stereoskopischen Halbbildern basiert, die von zwei getrennten Objektiven aufgenommen wurden, erreicht werden, jedoch besteht der Vorteil dieses Verfahrens vor allem darin, mit einem herkömmlichen Endoskop, welches nur einen Übertragungskanal aufweist, trotzdem einen räumlichen, dreidimensionalen Eindruck vom Operationsfeld zu erhalten.
Der vorbeschriebene dreidimensionale Effekt kann auch mit einer Blickrichtungsänderung kombiniert werden. Dabei ist es vorgesehen, dass für eine Blickrichtungsänderung im Bereich der beiden auf die Bildaufnahmeeinheit projizierten getrennten Bilder jeweils die Signale eines Teilbereichs an verschiedenen Positionen auf der Bildaufnahmeeinheit ausgelesen werden, wobei die ausgelesenen Teilbereiche im Gesamtbereich eines stereoskopischen Halbbildes beliebig, die beiden einander entsprechenden Teilbereiche relativ zueinander aber gleich positioniert sind. Eine Änderung der Blickrichtung kann dabei in horizontaler und/oder vertikaler Richtung ausgeführt werden.
Auch der vorbeschriebene dreidimensionale Eindruck kann mit einer Blickrichtungsänderung kombiniert werden. Dabei ist es vorgesehen, dass für eine Blickrichtungsänderung im Bereich des gesamten auf die Bildaufnahmeeinheit projizierten Bildes jeweils die Signale zweier horizontal zueinander versetzt liegender Teilbereiche mit beliebiger, relativ zueinander aber gleicher Lage auf der Bildaufnahmeeinheit ausgelesen werden. Auch hierbei kann eine Änderung der Blickrichtung in horizontaler und/oder vertikaler Richtung ausgeführt werden. Ebenso ist es mit dem erfindungsgemäßen Verfahren möglich, beispielsweise die Bilder mehrerer Endoskope auf eine Bildaufnahmeeinheit zu projizieren. Dafür ist es zweckmäßig, wenn zur gleichzeitigen Darstellung mehrerer Teilbereiche eines Operationsfeldes oder mehrerer Operationsfelder die Bilder mehrerer unabhängiger Übertragungskanäle auf die Bildaufnahmeeinheit projiziert werden und wenn die Signale dieser Bilder auf einem Sichtgerät in Teilen oder als Ganzes dargestellt werden. Beispielsweise kann damit ein Operationsbereich aus zwei verschiedenen Richtungen aufgenommen werden und diese beiden Bilder dann auf zwei Sichtgeräten gleichzeitig ausgegeben werden. Damit kann das Operationsfeld durch die größere Menge an Bildinformation besser beobachtet und die Operationszeit verkürzt werden.
Vor allem bei Kombination einzelner oder mehrerer der vorbeschriebenen Maßnahmen ergibt sich ein Verfahren, welches flexibel für unterschiedliche Zwecke auf dem Gebiet der Endoskopie eingesetzt werden kann. Dabei können vorhandene Endoskope auf einfache Art und Weise umgerüstet werden, um für dieses Verfahren einsetzbar zu sein. Ein mechanischer Zusatzaufwand entsteht beim Einsatz des erfindungsgemäßen Verfahrens nicht. Die Miniaturisierung der einsetzbaren Endoskope ist also nur durch deren optische und grundlegende mechanische Parameter (z.B. nötige Abbildungsqualität oder nötige Festigkeit) begrenzt.
Für die Durchführung des erfindungsgemäßen Verfahrens ist es vorteilhaft, wenn bei einem Endoskop mit einem Objektiv, einem Übertragungskanal zur Übertragung eines Bildes eines vor dem Objektiv befindlichen Objektes und einer Bildaufnahmeeinheit als Detektionseinheit die Bildaufnahmeeinheit des verwendeten Endoskops mit einem Objektiv, einem Übertragungskanal zur Übertragung eines Bildes eines vor dem Objektiv befindlichen Objektes und einer Bildaufnahmeeinheit als Detektionseinheit wenigstens einen Sensor-Chip aufweist, wenn zum Auslesen beliebiger Teilbereiche der Bildaufnahmeeinheit eine Steuereinheit vorgesehen ist und wenn die Bildaufnahmeeinheit an ein Sichtgerät angeschlossen ist. Da die Bildauswertung bei einem solchen Endoskop auf dem Sensor-Chip rein elektronisch erfolgt, können dabei auch Bildkorrekturen oder Justagen vorgenommen werden, für die sonst aufwendige mechanische oder optische Korrekturen notwendig wären. Dies stellt geringere Anforderungen an den mechanischen Aufbau des Endoskops und kann damit die Bedienung des Endoskops vereinfachen.
Ist eine Wiedergabe der Bilder des Operationsfeldes in Farbe nötig, ist es zweckmäßig, wenn die Bildaufnahmeeinheit mehrere Sensor-Chips, insbesondere drei Sensor-Chips, aufweist. Jeder einzelne Sensor-Chip eines solchen Aufbaus verarbeitet dabei einen bestimmten Spektralbereich des Lichtes. Die zusammengesetzten Signale aller Chips können dann ein Farbbild und damit eine wirklichkeitsnahe Abbildung der Objekte vor dem Objektiv des Endoskops bei gleich hoher Auflösung wie bei einem einzelnen Chip ergeben.
Für eine hochauflösende Darstellung des Operationsfeldes ist es sehr vorteilhaft, wenn die Bildaufnahmeeinheit eine höhere Auflösung aufweist als die zur Bildausgabe verwendeten Sichtgeräte. Dadurch kann ein Teilbereich, dessen Auflösung in etwa der Auflösung des Sichtgerätes entspricht, auf der Bildaufnahmeeinheit verschoben werden. Damit kann eine gute Darstellung auf dem Sichtgerät erreicht werden, ohne dass ein Informationsverlust zwischen dem Teilbereich auf der Bildaufnahmeeinheit und der Darstellung auf dem Sichtgerät auftritt.
Nachstehend ist die Erfindung mit ihren als wesentlichen Einzelteilen anhand der Zeichnung näher erläutert. Es zeigt in zum Teil schematisierter Darstellung:
Fig. 1 einen Längsschnitt durch ein Endoskop mit zwei verschiedenen Blickrichtungen als Strahlengänge,
Fig. 2 eine Frontalansicht der Bildaufnahmeeinheit und darauf vollständig pro iziertem Bild,
Fig. 3 eine Frontalansicht der Bildaufnahmeeinheit und darauf überlappend projiziertem Bild,
Fig. 4 eine Frontalansicht der Bildaufnahmeeinheit mit einem ausgelesenen Teilbereich des Bildes,
Fig. 5 eine Frontalansicht der Bildaufnahmeeinheit mit einer
Darstellung der Verschiebung eines Teilbereiches,
Fig. 6 eine Frontalansicht der Bildaufnahmeeinheit mit einer Darstellung der Verkleinerung eines Teilbereiches,
Fig. 7 eine Frontalansicht der Bildaufnahmeeinheit mit einer Darstellung der Vergrößerung eines Teilbereiches,
Fig. 8 eine Frontalansicht der Bildaufnahmeeinheit mit zwei darauf vollständig projizierten stereoskopischen Bildern,
Fig. 9 eine Frontalansicht der Bildaufnahmeeinheit mit zwei die Bildaufnahmeeinheit überlappend projizierten stereoskopischen Bildern,
Fig. 10 eine Frontalansicht der Bildaufnahmeeinheit mit zwei ausgelesenen Teilbereichen, Fig. 11 eine Frontalansicht der Bildaufnahmeeinheit mit einer Darstellung der parallelen Verschiebung zweier Teilbereiche ,
Fig. 12 eine Funktionsblock-Darstellung eines Endoskops mit elektronischer Bildauswertung,
Fig. 13 eine Frontalansicht der Bildaufnahmeeinheit mit zwei sich überlappenden ausgelesenen Teilbereichen zur
Erzielung eines dreidimensionalen Eindrucks vom Operationsfeld sowie,
Fig. 14 eine Fron alänsicht der Bildaufnahmeeinheit mit einer Darstellung der parallelen Verschiebung zweier sich überlappender Teilbereiche.
Ein im Ganzen mit 1 bezeichnetes und in Fig. 1 im Längsschnitt dargestelltes Endoskop weist ein Objektiv 2, einen Übertragungskanal 4 und ein abbildendes System 40 zur Übertragung eines Bildes 17 (Fig. 2, 3) eines vor dem Objektiv 2 befindlichen Objektes 100 zu einer Bildaufnahmeeinheit 6 als Detektionseinheit auf. Außerdem zeigt Fig. 1 zeigt zwei verschiedene Blickrichtungen 18a und 18b im gesamten Gesichtsfeld des Endoskops 1 als Strahlengänge, die von einem distalen Ende des Endoskops 1 mit dem Objektiv 2 über den Übertragungskanal 4 und dem abbildenden System 40 zu der an einem proximalen Ende 3 befindlichen Bildaufnahmeeinheit 6 verlaufen. Mit diesem Endoskop 1 können innerhalb des gesamten auf die Bildaufnahmeeinheit 6 projizierten Bildes 17 die Signale von beliebigen Teilbereichen 19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b mit beliebiger Lage auf der Bildaufnahmeeinheit 6 ausgelesen werden und wobei die ausgelesenen Signale der Teilbereiche 19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b auf einem Sichtgerät 16 in Teilen oder als Ganzes dargestellt werden (vgl. dazu auch Fig. 4, 5, 6, 7, 10, 11)
Fig. 4 zeigt die Positionierung eines Teilbereiches 19a mit den Abmessungen Wx , Wγ und der Position X, Y auf der Bildaufnahmeeinheit 6, die die Abmessungen Nx , Nγ hat. Die Abmessungen Nx und Nγ und die daraus resultierende Pixelanzahl der Bildaufnahmeeinheit 6 sind dabei größer als die Abmessungen Wx , Wγ und die daraus resultierende Pixelanzahl des Teilbereiches 19a.
Fig. 2 und 3 zeigen zwei Möglichkeiten der Projektion des gesamten vom Objektiv 2 aufgenommenen Bildes 17 auf der Bildaufnahmeeinheit 6. Dabei ist in Fig. 2 das Bild 17 vollständig auf die "Bildaufnahmeeinheit projiziert, sodass keine Informationen verloren gehen, jedoch wird die Fläche der Bildaufnahmeeinheit 6 nicht völlig ausgenutzt. In Fig. 3 überlappt das aufgenommene Bild 17 die Bildaufnahmeeinheit 6, sodass zwar Informationen am Rand des Bildes 17 verloren gehen, jedoch die gesamte Fläche der Bildaufnahmeeinheit 6 ausgenutzt wird. Um die Vorteile beider Projektionsmöglichkeiten zu nutzen und gleichzeitig die Nachteile zu minimieren, kann in einer nicht dargestellten Variante das Bild 17 derart auf die Bildaufnahmeeinheit projiziert werden, dass einerseits möglichst wenig Information verloren geht, d.h. die Überlappung gering ist bei gleichzeitig möglichst guter Ausnutzung der Fläche der Bildaufnahmeeinheit 6.
Fig. 6 zeigt einen auf der Bildaufnahmeeinheit 6 ausgelesenen Teilbereich 19a, der nach der Positionierung in seinen Abmessungen verkleinert wird, wobei die Position des Zentrums des Teilbereichs gleich bleibt. Wenn die Pixelanzahl des Teilbereichs 19a mit der Pixelanzahl des Ausgabeformates eines Sichtgerätes 16 in etwa übereinstimmt, dann wird der kleinere neue Teilbereich 19c bei einer formatfüllenden Anzeige auf dem Sichtgerät 16 vergrößert dargestellt.
Fig. 7 zeigt den in Fig. 6 dargestellten Vorgang in umgekehrter 5 Richtung. Der Teilbereich 19a mit einer Pixelanzahl, die in etwa mit der Pixelanzahl des Ausgabeformates eines Sichtgerätes 16 übereinstimmt, wird nach der Positionierung in seinen Abmessungen vergrößert, wobei die Position des Zentrums des Teilbereichs gleich bleibt. Eine formatfüllende Darstellung des 0 größeren Teilbereichs 19d erfolgt dann auf dem Sichtgerät 16 verkleinert .
Die Fig. 8 und 9 zeigen vergleichbar mit Fig. 2 und 3 die Möglichkeiten der Projektion von Bildern auf die
5 Bildaufnahmeeinheit 6 am Beispiel stereoskopischer Halbbilder 20 und 21. Dabei sind die Positionen der beiden stereoskopischen Halbbilder 20 und 21 zur Erzielung einer dreidimensionalen Darstellung auf einem zweikanaligen Sichtgerät 16 auf der Bildaufnahmeeinheit 6 zueinander
!0 ausgerichtet. Für die Projektion in Fig. 9 wurden die beiden stereoskopischen Halbbilder 20 und 21 durch eine Blende gegeneinander abgeschirmt, um eine gegenseitige Überlappung zu vermeiden.
!5 Fig. 5 zeigt die Verschiebung des Teilbereiches 19a auf der Bildaufnahmeeinheit 6 zu einer anderen Position. Der neue Teilbereich 19b bleibt dabei im Vergleich zum ursprünglichen Teilbereich 19a in der Größe unveränder . Diese Verschiebung eines Teilbereiches entspricht damit einer iO Blickrichtungsänderung.
Eine Blickrichtungsänderung durch die Verschiebung von Teilbereichen auf der Bildaufnahmeeinheit 6 ist auch bei stereoskopischen Halbbildern möglich, wie Fig. 10 und 11 zeigen. Fig. 10 stellt dabei einen Anfangszustand der beiden ausgelesenen Teilbereiche 22a und 23a der stereoskopischen Halbbilder 20 und 21 (siehe Fig. 8 und 9) dar. Die beiden Teilbereiche 22a und 23a sind dabei zueinander auf der Bildaufnahmeeinheit 6 ausgerichtet, um eine dreidimensionale Darstellung auf dem Sichtgerät 16 zu erreichen. Für eine Blickrichtungsänderung und gleichzeitiger dreidimensionaler Darstellung auf dem Sichtgerät 16 werden die beiden Teilbereiche 22a und 23a im Gesamtbereich der stereoskopischen Halbbilder 20 und 21 auf der Bildaufnahmeeinheit 6 beliebig, in diesem Fall nach oben, verschoben. Relativ zueinander bleibt die Position der beiden Teilbereiche 22a und 23a aber gleich.
Fig. 13 zeigt zwei sich überlappende Teilbereiche 22a und 23a auf der Bildaufnahmeeinheit 6, wobei jeder der Teilbereiche 22a, 23a ein quasi-stereoskopisches Halbbild repräsentiert. Durch die Überlappung der Teilbereiche 22a, 23a beim Auslesen und der separaten Darstellung dieser Teilbereiche 22a, 23a auf jeweils einem Kanal eines zweikanaligen Sichtgerätes 16 wird ein dreidimensionaler Eindruck des Operationsfeldes erreicht, obwohl das Operationsfeld nur einkanalig, beispielsweise von einem einkanaligen Endoskop oder auch Mikroskop aufgenommen wird. Durch diese rein elektronische Aufspaltung des Gesamtbildes nach einer einkanaligen Bildübertragung bis zur Bildaufnahmeeinheit 6 in zwei (quasi) -stereoskopische Halbbilder 22a, 23a kann ein solcher dreidimensionaler Eindruck vom Operationsfeld ohne zusätzlichen mechanischen beziehungsweise konstruktiven Aufwand erzielt werden.
Fig. 14 zeigt eine Kombination der Erzeugung eines dreidimensionalen Eindrucks vom Operationsfeld mit Hilfe sich überlappender Teilbereiche 22a, 23a und einer Blickrichtungsänderung innerhalb des gesamten Bildes des Operationsfeldes, welches auf die Bildaufnahmeeinheit 6 projiziert wurde. Dabei werden die beiden sich überlappenden Teilbereiche 22a, 23a mit relativ zueinander gleicher Lage auf der Bildaufnahmeeinheit 6 , in diesem Beispiel von einer unteren Position (22a, 23a) - in eine obere Position (22b, 23b) , verschoben. Auch diese Blickrichtungsänderung geschieht rein elektronisch durch das Auslesen unterschiedlicher Bereiche der Bildaufnahmeeinheit 6 zu unterschiedlichen Zeitpunkten, ohne dass zusätzliche konstruktive Maßnahmen notwendig sind.
Fig. 12 zeigt eine Funktionsblock-Darstellung mit den Funktionsgruppen eines elektronischen Endoskops 1 , wie es zur Durchführung des vorbeschriebenen Verfahrens verwendet werden kann. Erkennbar ist, dass ein Bild 17 eines Objektes (100) über einen Übertragungskanal 4 einer Kamera 5 zugeführt wird. Die Kamera 5 verarbeitet diese Bildinformation über eine Bildaufnahmeeinheit 6 zu einem elektronischen Signal . Die Bildaufnahmeeinheit 6_ kann dabei einen Sensor-Chip zur Gewinnung von monochromatischen oder farbigen Bildern oder drei Chips zur Gewinnung von Farbbildern aufweisen. Eine zentrale Kamera-Steuereinheit 7 zur Steuerung der Bildaufnahmeeinheit 6 sowie ein Kamera-Interface 8 zur Übertragung der Bildinformation an eine zentrale I/O-Einheit 9 bereiten die Signale der Bildaufnahmeeinheit 6 derart auf, dass die zentrale I/O-Einheit 9 diese Signale weiterverarbeiten kann. Dabei ist die zentrale Kamera-Steuereinheit 7 mit einer zentralen 1/0- Steuereinheit 11 verbunden. Ein Framegrabber 10 wandelt die elektronische Signale der Kamera 5 in aufeinanderfolgende, getrennte Einzelbilder um, die mit einer Bildbearbeitungseinheit 14 nachbearbeitet werden können, beispielsweise um Farbkorrekturen vorzunehmen, und danach in einem Bildspeicher 13, beispielsweise einer Festplatte, abgelegt werden können und/oder um auf einem Sichtgerät 16 dargestellt zu werden. Weisen die Einzelbilder aus dem Framegrabber 10 eine andere Auflösung als das Ausgabeformat des Sichtgerätes 16 auf, findet eine Anpassung der Auflösung der Einzelbilder an das Ausgabeformat des Sichtgerätes 16 mit Hilfe einer Auflösungsadaptionseinheit 12 statt. Über eine externe Steuerung 15 kann der auf dem Sichtgerät 16 angezeigte Teilbereich aus dem Gesamtbereich der Einzelbilder gewählt werden. Die externe Steuerung 15 kann dabei eine Maus, ein Joystick, eine Tastatur oder eine Sprachsteuerung sein. Das zur Anzeige verwendete Sichtgerät 16 kann eine Computer- oder Video-Monitor-Anordnung, ein head-mounted Display oder ein Projektionssystem sein.
Kurz zusammengefasst dient das erfindungsgemäße Verfahren zum Betreiben eines Endoskops 1, das ein Objektiv 2, einen Übertragungskanal 4 zur Übertragung eines Bildes 17 eines vor dem Objektiv 2 befindlichen Objektes 100 zu einer Bildaufnahmeeinheit 6 " als Detektionseinheit aufweist, wobei innerhalb des gesamten auf die Bildaufnahmeeinheit 6 projizierten Bildes die Signale von beliebigen Teilbereichen 19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b mit beliebiger Lage auf der Bildaufnahmeeinheit 6 ausgelesen werden können. Die ausgelesenen Signale der Teilbereiche 19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b werden auf einem Sichtgerät 16 in Teilen oder als Ganzes dargestellt.
/ Ansprüche

Claims

Ansprüche
1. Verfahren zum Betreiben eines Endoskops (1), das ein Objektiv (2) , einen Übertragungskanal (4) zur Übertragung eines Bildes (17) eines vor dem Objektiv (2) befindlichen Objektes (100) zu einer Bildaufnahmeeinheit (6) als Detektionseinheit aufweist, dadurch gekennzeichnet, dass innerhalb des gesamten auf die Bildaufnahmeeinheit (6) projizierten Bildes (17) die Signale von beliebigen Teilbereichen (19a, 19b, 19c, 19d. 22a, 22b, 23a, 23b) mit beliebiger Lage auf der Bildaufnahmeeinheit (6) ausgelesen werden und dass die ausgelesenen Signale der Teilbereiche
(19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) auf einem
Sichtgerät (16) in Teilen oder als Ganzes dargestellt werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die ausgelesenen Teilbereiche (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) in ihrer Größe veränderbar sind, dass die Pixelanzahl der ausgelesenen Teilbereiche (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) größer ist als die Pixelanzahl des Ausgabeformates des Sichtgerätes (16) bei in etwa gleichem Seitenverhältnis und dass die ausgelesenen Teilbereiche (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) an einem Sichtgerät (16) vorzugsweise formatfüllend dargestellt werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die ausgelesenen Teilbereiche (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) in ihrer Größe veränderbar sind, dass die Pixelanzahl der ausgelesenen Teilbereiche (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) kleiner ist als die Pixelanzahl des Ausgabeformat-es des Sichtgerätes (16) bei in etwa gleichem Seitenverhältnis und dass die ausgelesenen Teilbereiche (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) an einem Sichtgerät (16) vorzugsweise formatfüllend dargestellt werden.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Signale zweier stereoskopischer Halbbilder (20, 21) direkt einer Bildaufnahmeeinheit (6) zugeführt werden und dass die Positionen der ausgelesenen, jeweils ein stereoskopisches Halbbild bildenden Teilbereiche (22a, 22b, 23a, 23b) zur Erzielung einer dreidimensionalen Darstellung auf einem zweikanaligen Sichtgerät (16) zueinander ausgerichtet werden.
5. Verfahren insbesondere nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Bild (17) eines Objektes
(100) von einem einzigen Objektiv (2) aufgenommen und über einen einzigen Übertragungskanal (4) zur Bildaufnahmeeinheit (6) übertragen wird, dass die Signale zweier horizontal zueinander versetzt liegender Teilbereiche (22a, 22b, 23a, 23b) eines Bildes auf der Bildaufnahmeeinheit (6) ausgelesen werden und dass die ausgelesenen Signale der beiden Teilbereiche (22a, 22b, 23a, 23b) auf den beiden Kanälen eines zweikanaligen Sichtgerätes (16) zur Erzielung eines dreidimensionalen Eindrucks dargestellt werden.
6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass für eine Blickrichtungsänderung im Bereich der beiden auf die Bildaufnahmeeinheit (6) projizierten getrennten Bilder (20, 21) jeweils die Signale eines Teilbereichs (22a, 22b, 23a, 23b) an verschiedenen Positionen auf der Bildaufnahmeeinheit (6) ausgelesen werden, wobei die ausgelesenen Teilbereiche (22a, 22b, 23a, 23b) im Gesamtbereich eines stereoskopischen Halbbildes (20, 21) beliebig, die beiden einander entsprechenden Teilbereiche (22a, 22b, 23a, 23b) relativ zueinander aber gleich positioniert sind.
7. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass für eine Blickrichtungsänderung im Bereich des gesamten auf die Bildaufnalimeeinheit (6) projizierten Bildes (17) jeweils die Signale zweier horizontal zueinander versetzt liegender Teilbereiche (22a, 22b, 23a, 23b) mit beliebiger, relativ zueinander aber gleicher Lage auf der Bildaufnahmeeinheit (6) ausgelesen werden.
8. Verfahren nach einem der Ansprüche 1 bis 7 , dadurch gekennzeichnet, dass zur gleichzeitigen Darstellung mehrerer Teilbereiche (19a, 19b, 19c, 19d) eines Operationsfeldes oder mehrerer Operationsfelder die Bilder (17) mehrerer unabhängiger Übertragungskanäle (4) auf die Bildaufnahmeeinheit (6) projiziert werden und dass die Signale dieser Bilder (17) auf einem Sichtgerät (16) in Teilen oder als Ganzes dargestellt werden.
9. Endoskop (1) mit einem Objektiv (2), einem Übertragungskanal (4) zur Übertragung eines Bildes (17) eines vor dem Objektiv befindlichen Objektes (100) und einer Bildaufnahmeeinheit (6) als Detektionseinheit insbesondere zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (6) wenigstens einen Sensor-Chip aufweist, dass zum Auslesen beliebiger Teilbereiche (19a, 19b, 19c, 19d, 22a, 22b, 23a, 23b) der Bildaufnahmeeinheit (6) eine Steuereinheit (15) vorgesehen ist und dass die Bildaufnahmeeinheit (6) an ein Sichtgerät (16) angeschlossen ist.
10. Endoskop nach Anspruch 9, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (6) mehrere Sensor-Chips, insbesondere drei Sensor-Chips, aufweist.
11. Endoskop nach einem Ansprüche 9 oder 10, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (6) eine höhere Auflösung aufweist als die zur Bildausgabe verwendeten Sichtgeräte (16).
/ Zusammenfassung
PCT/EP2003/009726 2002-09-04 2003-09-02 Verfahren zum betreiben eines endoskops sowie endoskop WO2004023797A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2003267031A AU2003267031A1 (en) 2002-09-04 2003-09-02 Method for operation of an endoscope and endoscope

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10240826A DE10240826B3 (de) 2002-09-04 2002-09-04 Verfahren zum Betreiben eines Endoskops
DE10240826.2 2002-09-04

Publications (1)

Publication Number Publication Date
WO2004023797A1 true WO2004023797A1 (de) 2004-03-18

Family

ID=31969026

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2003/009726 WO2004023797A1 (de) 2002-09-04 2003-09-02 Verfahren zum betreiben eines endoskops sowie endoskop

Country Status (3)

Country Link
AU (1) AU2003267031A1 (de)
DE (1) DE10240826B3 (de)
WO (1) WO2004023797A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008008325B4 (de) * 2007-02-07 2018-02-15 Blazejewski Medi-Tech Gmbh Verfahren und Vorrichtung zur Bearbeitung von Quellbildern eines Bildsensors eines Videoendoskops

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3806190A1 (de) * 1987-02-27 1988-09-08 Olympus Optical Co Elektronische endoskopeinrichtung
US5196928A (en) * 1991-04-02 1993-03-23 Olympus Optical Co., Ltd. Endoscope system for simultaneously displaying two endoscopic images on a shared monitor
US5222477A (en) * 1991-09-30 1993-06-29 Welch Allyn, Inc. Endoscope or borescope stereo viewing system
US5313306A (en) * 1991-05-13 1994-05-17 Telerobotics International, Inc. Omniview motionless camera endoscopy system
DE10126587A1 (de) * 2000-05-31 2001-12-06 Asahi Optical Co Ltd Elektronisches Endoskop

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL83213A (en) * 1987-07-16 1991-08-16 Technion Res & Dev Foundation Intelligent scan image sensor
JPH02237531A (ja) * 1989-03-10 1990-09-20 Fukuda Denshi Co Ltd 立体内視方式
US5191203A (en) * 1991-04-18 1993-03-02 Mckinley Optics, Inc. Stereo video endoscope objective lens system
GB9113495D0 (en) * 1991-06-21 1991-08-07 Atomic Energy Authority Uk Stereo camera
US5428386A (en) * 1992-08-24 1995-06-27 Envision Medical Corporation Remote 3D video camera system
US5381784A (en) * 1992-09-30 1995-01-17 Adair; Edwin L. Stereoscopic endoscope
DE4304422C1 (de) * 1993-02-13 1994-07-21 Winter & Ibe Olympus Endoskop
EP0692120B1 (de) * 1993-03-31 2002-10-09 Luma Corporation Informationsverwaltung in einem endoskopiesystem
US5452004A (en) * 1993-06-17 1995-09-19 Litton Systems, Inc. Focal plane array imaging device with random access architecture
DE4424114C1 (de) * 1994-07-08 1995-06-01 Kernforschungsz Karlsruhe 3D-Video-Endoskop
DE19701199A1 (de) * 1997-01-15 1998-08-06 Volker Heerich Verfahren und Vorrichtung zur Gewinnung stereoskopisch korrelierter Doppelbilder
DE19806261B4 (de) * 1997-02-14 2006-05-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur gesteuerten Darstellung von Hohlraum-Oberflächen
US6066090A (en) * 1997-06-19 2000-05-23 Yoon; Inbae Branched endoscope system
US6211904B1 (en) * 1997-09-11 2001-04-03 Edwin L. Adair Surgical devices incorporating reduced area imaging devices
DE19839188C2 (de) * 1998-08-28 2003-08-21 Storz Endoskop Gmbh Schaffhaus Endoskop
DE19903437C1 (de) * 1999-01-29 2000-08-31 Storz Karl Gmbh & Co Kg Vorrichtung zum Ein- und Ausschwenken zumindest eines optischen Bauelements innerhalb eines endoskopischen Systems
US6110105A (en) * 1999-02-03 2000-08-29 Durell & Gitelis, Inc. Variable view arthroscope
DE29907430U1 (de) * 1999-04-27 1999-09-16 Schich Gisbert Endoskop mit Drehblickoptik
GB2354836B (en) * 1999-09-28 2003-06-04 Keymed Improvements relating to borescopes and endoscopes with variable direction of view

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3806190A1 (de) * 1987-02-27 1988-09-08 Olympus Optical Co Elektronische endoskopeinrichtung
US5196928A (en) * 1991-04-02 1993-03-23 Olympus Optical Co., Ltd. Endoscope system for simultaneously displaying two endoscopic images on a shared monitor
US5313306A (en) * 1991-05-13 1994-05-17 Telerobotics International, Inc. Omniview motionless camera endoscopy system
US5222477A (en) * 1991-09-30 1993-06-29 Welch Allyn, Inc. Endoscope or borescope stereo viewing system
DE10126587A1 (de) * 2000-05-31 2001-12-06 Asahi Optical Co Ltd Elektronisches Endoskop

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008008325B4 (de) * 2007-02-07 2018-02-15 Blazejewski Medi-Tech Gmbh Verfahren und Vorrichtung zur Bearbeitung von Quellbildern eines Bildsensors eines Videoendoskops

Also Published As

Publication number Publication date
AU2003267031A1 (en) 2004-03-29
DE10240826B3 (de) 2004-05-06

Similar Documents

Publication Publication Date Title
DE69433556T2 (de) Bildanzeigevorrichtung
DE69432692T2 (de) Bildverarbeitungsvorrichtung und -verfahren.
DE3818104C2 (de)
EP0342419B1 (de) Verfahren zur Beobachtung einer Szene und Einrichtung zur Durchführung des Verfahrens
DE69830459T2 (de) Stereoskopische Bildaufnahmevorrichtung
DE3806190C2 (de)
EP0722256B1 (de) Personenadaptiver autostereoskoper Shutter-Bildschirm (PAAS)
DE102008028482B4 (de) Optisches Beobachtungsgerät mit Mehrkanal-Dateneinblendung und Verfahren zum Einblenden von elektronischen Einblendbildern in ein optisches Beobachtungsgerät
EP0776576B1 (de) Verfahren und vorrichtung zur darstellung von stereoskopischen videobildern auf einem display
EP3152614B1 (de) Operationsmikroskop mit dateneinheit und verfahren zum überlagern von bildern
DE4212924A1 (de) Stereomikroskop
DE10204430A1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
EP0836332A2 (de) Positionsadaptiver, autostereoskoper Monitor (PAM)
DE102013208306A1 (de) Stereoskopisches Mikroskop
DE10155921A1 (de) Bildsuchvorrichtung
DE3427260C2 (de) Stereoskopisches Bildwiedergabesystem
EP3610637A1 (de) Vorrichtung zur abbildung von teilgesichtsfeldern, multiaperturabbildungsvorrichtung und verfahren zum bereitstellen derselben
DE102017109021B4 (de) System für das stereoskopische Visualisieren eines Objektbereichs sowie Objektbereich-Visualisierungsverfahren
WO2005098508A2 (de) Bildaufnahmesystem, bildwiedergabesystem und bildaufnahme/-wiedergabesystem
DE102008024732A1 (de) Medizinisch optisches Beobachtungsgerät und Verfahren zum Erstellen einer stereoskopischen Zwischenperspektive in einem derartigen Gerät
DE102015216648B3 (de) System für das stereoskopische Visualisieren eines Objektbereichs mit drei optischen Kanälen und einem gemeinsamen Bildsensor
DE10240826B3 (de) Verfahren zum Betreiben eines Endoskops
EP0614595B1 (de) Verfahren und vorrichtung zur wiedergabe dreidimensionaler bilder
DE102015216569B3 (de) Zeitsequentielles Mikroskopiesystem mit gemeinsamem Beobachtungsstrahlengang
DE102016210712A1 (de) Bilderfassungsvorrichtung, Bilderfassungssystem, Bildprojektionsvorrichtung, Bildübertragungssystem, Verfahren zum Erfassen eines 360°-Objektbereichs und Verfahren zum Projizieren eines Bildes

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP