DE102011053250B4 - A method of capturing images of an observation object with an electronic image sensor and an optical observation device - Google Patents

A method of capturing images of an observation object with an electronic image sensor and an optical observation device Download PDF

Info

Publication number
DE102011053250B4
DE102011053250B4 DE102011053250.1A DE102011053250A DE102011053250B4 DE 102011053250 B4 DE102011053250 B4 DE 102011053250B4 DE 102011053250 A DE102011053250 A DE 102011053250A DE 102011053250 B4 DE102011053250 B4 DE 102011053250B4
Authority
DE
Germany
Prior art keywords
image
exposure
image sensor
sensor
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011053250.1A
Other languages
German (de)
Other versions
DE102011053250A1 (en
Inventor
Enrico Geissler
Christoph Hauger
Marco Pretorius
Artur Högele
Christoph Nieten
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Meditec AG
Carl Zeiss AG
Original Assignee
Carl Zeiss Meditec AG
Carl Zeiss AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec AG, Carl Zeiss AG filed Critical Carl Zeiss Meditec AG
Priority to DE102011053250.1A priority Critical patent/DE102011053250B4/en
Publication of DE102011053250A1 publication Critical patent/DE102011053250A1/en
Application granted granted Critical
Publication of DE102011053250B4 publication Critical patent/DE102011053250B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjekts (17) mit einem elektronischen Bildsensor (5), in dem: – ein Vollbild auf eine belichtete Sensorfläche (19) des Bildsensors (5) abgebildet wird, wobei eine interessierende Bildregion des Vollbildes auf eine Teilfläche (21) des Bildsensors (5) abgebildet wird, und – die Aufnahme der Bilder erfolgt, indem der Bildsensor (5) für das jeweilige Bild belichtet und nach jeder Belichtung ausgelesen wird, wobei auf ein Belichten des Bildsensors (5) und ein Auslesen der gesamten für ein Vollbild belichteten Sensorfläche (19) wenigstens ein mal ein Belichten des Bildsensors (5) und ein Auslesen nur der Teilfläche (21) des Bildsensors (5) mit der interessierenden Bildregion erfolgt, bevor wieder ein Belichten des Bildsensors (5) und ein Auslesen der gesamten belichteten Sensorfläche (19) erfolgt, dadurch gekennzeichnet, dass als Bildsensor (5) ein monochromer Bildsensor Verwendung findet, für das Belichten ein Beleuchten des Beobachtungsobjekts (17) in Beleuchtungszyklen erfolgt, in denen das Beobachtungsobjekt (17) zeitsequentiell mit N unterschiedlichen Wellenlängenverteilungen (L1–LN) beleuchtet wird, und das Auslesen des Bildsensors (5) in Belichtungs- und Auslesezyklen erfolgt, wobei die Beleuchtungszyklen mit den Belichtungs- und Auslesezyklen derart synchronisiert sind, dass pro Belichtungs- und Auslesezyklus a) ein Belichten des Bildsensors (5) bei Beleuchtung des Beobachtungsobjekts mit einer ersten der N Wellenlängenverteilungen eines Beleuchtungszyklus und ein anschließendes Auslesen der gesamten belichteten Sensorfläche (19) erfolgt, b) danach wenigstes ein mal eine Belichtungs- und Auslesesequenz des Bildsensors erfolgt, in der das Beobachtungsobjekt (17) nacheinander mit verschiedenen Wellenlängenverteilungen eines Beleuchtungszyklus beleuchtet wird, bei jedem Beleuchten des Beobachtungsobjekts (17) mit einer der Wellenlängenverteilungen eine Belichtung erfolgt und nach jedem Belichten jeweils nur ein Auslesen der Teilfläche (21) des Bildsensors (5) mit der interessierenden Bildregion erfolgt, und c) die Schritte a) und b) N mal durchgeführt werden, wobei in Schritt a) jedes mal eine andere Wellenlängenverteilung Verwendung findet.Method for capturing images of an observation object (17) with an electronic image sensor (5), in which: a full image is imaged onto an exposed sensor surface (19) of the image sensor (5), wherein an image region of interest of the frame is projected onto a partial surface (21 ) of the image sensor (5) is imaged, and the images are taken by exposing the image sensor (5) for the respective image and reading it out after each exposure, whereby exposing the image sensor (5) and reading all of the image sensor (5) a frame exposed sensor surface (19) at least once an exposure of the image sensor (5) and a readout only the partial surface (21) of the image sensor (5) with the image region of interest takes place before again exposing the image sensor (5) and a reading of the entire exposed sensor surface (19), characterized in that as image sensor (5) a monochrome image sensor is used, for illuminating a lighting of the Observation object (17) takes place in lighting cycles, in which the observation object (17) is time-sequentially illuminated with N different wavelength distributions (L1-LN), and the readout of the image sensor (5) takes place in exposure and readout cycles, wherein the illumination cycles with the exposure and reading-out cycles are synchronized in such a way that, per exposure and readout cycle a) the image sensor (5) is illuminated when the observation object is illuminated with a first of the N wavelength distributions of a lighting cycle and then the entire exposed sensor surface (19) is read out, b) then at least Once an exposure and read sequence of the image sensor takes place, in which the observation object (17) is illuminated successively with different wavelength distributions of a lighting cycle, with each illumination of the observation object (17) with one of the wavelength distributions an exposure takes place and after each exposure n only a readout of the partial surface (21) of the image sensor (5) with the image region of interest takes place, and c) the steps a) and b) are performed N times, wherein in step a) a different wavelength distribution is used each time.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjekts mit einem elektronischen Bildsensor. Daneben betrifft die Erfindung ein optisches Beobachtungsgerät zum Aufnehmen von Bildern eines Beobachtungsobjekts mit wenigstens einem elektronischen Bildsensor.The present invention relates to a method of capturing images of an observation object with an electronic image sensor. In addition, the invention relates to an optical observation device for taking pictures of an observation object with at least one electronic image sensor.

Um beispielsweise einem Operateur bei einem chirurgischen Eingriff unter Verwendung eines Operationsmikroskops gute Sichtverhältnisse zu verschaffen, wird das Operationsfeld beleuchtet. Typischerweise handelt es sich bei einem Operationsmikroskop um eine Optik, die ein sogenanntes Varioskop zur Fokussierung des Operationsfeldes, eine Zoom-Einheit (für die Stereobildgebung Pankrat genannt) sowie ein Okular als Schnittstelle zum Auge umfasst. Die Beleuchtung wird in der Regel durch thermische Strahler, etwa durch eine Halogen- oder Xenonlampe, mit einer nachgeschalteten Optik zur Fokussierung des Lichtes auf das Operationsfeld realisiert. Häufig werden dabei der Beleuchtungsstrahlengang und der Beobachtungsstrahlengang teilweise durch eine gemeinsame Optik, beispielsweise im Varioskop, geführt.For example, to provide good visibility to a surgeon in a surgical procedure using a surgical microscope, the surgical field is illuminated. Typically, a surgical microscope is an optic comprising a so-called varioscope for focusing the surgical field, a zoom unit (called pancake for stereoscopic imaging), and an eyepiece as an interface to the eye. The lighting is usually realized by thermal radiators, such as a halogen or xenon lamp, with a downstream optics to focus the light on the surgical field. Frequently, the illumination beam path and the observation beam path are partially guided by a common optical system, for example in the varioscope.

Geht man dazu über, die Bildaufnahme mittels Kamerachips zu digitalisieren und die Bildwiedergabe über Displays, insbesondere Stereodisplays oder digitale Okulare vorzunehmen, lassen sich nicht nur die Bildaufnahme und die Bildwiedergabe räumlich entkoppeln. Zusätzlich ist es möglich, die Belastung des Patienten durch die Beleuchtung des Operationsfeldes zu vermindern, da die Empfindlichkeit der Kamera der des Auges überlegen ist, zumindest für die Adaption des Auges an die typische Helligkeit im Operationssaal. Untersuchungen haben bestätigt, dass die Lichtintensität im Operationsfeld verringert werden kann, wenn eine Operation nicht mit einem rein optischen Mikroskop durchgeführt wird, sondern eine Kamera für eine Bildaufnahme verwendet wird.If one goes on to digitize the image recording by means of camera chips and to carry out the image reproduction via displays, in particular stereo displays or digital eyepieces, not only the image recording and the image reproduction can be spatially decoupled. In addition, it is possible to reduce the burden on the patient by illuminating the surgical field, since the sensitivity of the camera is superior to that of the eye, at least for the adaptation of the eye to the typical brightness in the operating theater. Studies have confirmed that the light intensity in the surgical field can be reduced if an operation is not performed with a purely optical microscope, but a camera is used for image acquisition.

Bei der Bildaufnahme von Farbbildern, beispielsweise während eines chirurgischen Eingriffs, werden typischerweise Farbkameras verwendet. Dabei handelt es sich entweder um teure Kameras mit drei Chips, je einem für den roten, den grünen und den blauen Spektralbereich, oder Kameras mit einem einzigen Chip, wobei ein sogenannter Bayer-Filter vor dem Chip angeordnet ist, in dem jedem Pixel des Sensorchips ein rotes, grünes oder blaues Filterelement vorgelagert ist. Gegebenenfalls können zudem Spektralfilter für andere Spektralbereiche vorhanden sein. Ein Kamerachip mit vorgeschaltetem Bayer-Filter ist beispielsweise in der deutschen Patentanmeldung DE 10 2008 017 390 A1 beschrieben. Da bei Verwendung eines Bayer-Filters wenigstens drei Pixel nötig sind, um die volle Farbinformation zu erhalten, führt diese Lösung zu einer geringeren räumlichen Auflösung, als mit dem Chip grundsätzlich möglich wäre. Zusätzlich erfordert das Vorschalten des Bayer-Filters einen zusätzlichen Fabrikationsschritt.When capturing color images, for example during a surgical procedure, color cameras are typically used. These are either expensive cameras with three chips, one each for the red, the green and the blue spectral range, or cameras with a single chip, with a so-called Bayer filter in front of the chip, in which each pixel of the sensor chip a red, green or blue filter element is upstream. If appropriate, spectral filters can also be present for other spectral ranges. A camera chip with upstream Bayer filter is for example in the German patent application DE 10 2008 017 390 A1 described. Since using a Bayer filter requires at least three pixels in order to obtain the full color information, this solution leads to a lower spatial resolution than would be possible with the chip in principle. In addition, the upstream of the Bayer filter requires an additional fabrication step.

Alternativ ist es möglich, ein Farbbild mit einer monochromen und damit preisgünstigeren Kamera zeitsequentiell aufzunehmen. Das Beobachtungsobjekt wird dabei nacheinander mit verschiedenen Grundfarben beleuchtet und die Bilder während der Beleuchtung in den jeweiligen Grundfarben nacheinander mit einem einzigen Kamerachip aufgenommen. Die Bilder in den Grundfarben werden anschließend elektronisch überlagert, um ein Bild zu erhalten, das einer Weißlichtbeleuchtung entspricht. Derartige Verfahren zum zeitsequentiellen Aufnehmen sind beispielsweise in EP 0 601 179 oder DE 10 2008 017 390 A1 beschrieben. In dem in DE 10 2008 017 390 A1 beschriebenen Verfahren können zudem zwischen den Aufnahmen für die Farbbilder auch LDI-Signale (LDI: Laser-Doppler-Imaging) aufgenommen werden. Die zeitsequentielle Aufnahme von Farbbildern erfordert jedoch eine Kamera mit sehr hoher Bildwiederholrate, was dazu führt, dass die verwendbaren Kameras sehr teuer sind.Alternatively, it is possible to record a color image with a monochrome and thus less expensive camera time sequential. The observation object is illuminated in succession with different primary colors and the images are taken during the lighting in the respective primary colors one after the other with a single camera chip. The images in the primary colors are then superimposed electronically to obtain an image that corresponds to a white light illumination. Such methods for time sequential recording are, for example, in EP 0 601 179 or DE 10 2008 017 390 A1 described. In the method described in DE 10 2008 017 390 A1, LDI signals (LDI: laser Doppler imaging) can also be recorded between the images for the color images. The time-sequential recording of color images, however, requires a camera with a very high frame rate, which results in the cameras that can be used being very expensive.

Auch in anderen Situationen, etwa dem Aufnehmen stereoskopischer Bilder mit einem einzigen Kamerachip, wobei die stereoskopischen Teilbilder dann nacheinander mit demselben Kamerachip aufgenommen werden, spielt die Bildwiederholrate des Kamerachips eine Rolle. Hohe Bildwiederholraten sind hier ebenfalls wünschenswert, um ein Flimmern des Stereobildes zu vermeiden.Also in other situations, such as recording stereoscopic images with a single camera chip, wherein the stereoscopic partial images are then taken in succession with the same camera chip, the image refresh rate of the camera chip plays a role. High frame rates are also desirable here to avoid flickering the stereo image.

Andrew Adams et al. „The Frankencamera...” beschreiben eine Kamera zum Aufnehmen von Bildern eines Beobachtungsobjekts mit einem elektronischen Bildsensor, wobei mit dem Bildsensor eine Folge von Bildern aufgenommen wird, bei der jeweils die gesamte Szene und ein Ausschnitt der Szene aufgenommen werden, wobei die Aufnahmen der gesamten Szene und die Aufnahmen des Ausschnittes einander abwechseln. Dabei werden sowohl die gesamte Szene als auch der Ausschnitt der Szene jeweils mit 640×480 Pixel aufgenommen. Hierzu erfolgt bei der Aufnahme des Vollbildes ein Zusammenfassen von Pixeln zu Pixelblöcken.Andrew Adams et al. "The Frankencamera ..." describe a camera for taking pictures of an observation object with an electronic image sensor, wherein the image sensor is used to take a sequence of pictures, in which the entire scene and a section of the scene are taken entire scene and the shots of the clipping alternate. Both the entire scene as well as the section of the scene are shot with 640 × 480 pixels. For this purpose, when capturing the full screen, a combination of pixels to pixel blocks.

Aptina Imaging Coorp.: MT9P031: 1/2.5-Inch 5Mp CMOS Digital Image Sensor, Data Sheet F beschreibt einen CMOS-Bildsensor, bei dem das gesamte Sensorfeld, einschließlich dunkler Pixel ausgelesen werden kann. Außerdem kann ein Pixelfenster definiert werden, durch das das Ausgabebild festgelegt wird. Zudem ist es möglich, Pixel zusammenzufassen oder nur einen Teil der im Fenster befindlichen Pixel zu verwenden.Aptina Imaging Coorp .: MT9P031: 1 / 2.5-inch 5Mp CMOS Digital Image Sensor, Data Sheet F describes a CMOS image sensor that can read the entire sensor field, including dark pixels. In addition, a pixel window can be defined that defines the output image. It is also possible to combine pixels or to use only a part of the pixels in the window.

CYPRESS Semiconductor Corp.: LUPA-4000 – 4M Pixel CMOS Image Sensor, Data Sheet beschreibt einen CMOS-Bildsensor, bei dem die Auslesegeschwindigkeit erhöht werden kann, indem entweder eine Unterabtastung (sub sampling) erfolgt oder lediglich ein Fenster mit einem interessierenden Bereich (Region Of Interest) ausgelesen wird. CYPRESS Semiconductor Corp .: LUPA-4000 - 4M Pixels CMOS Image Sensor, Data Sheet describes a CMOS image sensor that can increase the read speed by either sub-sampling or just a window with a region of interest (Region Of interest).

Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren und ein optisches Beobachtungsgerät zur Verfügung zu stellen, mit dem sich ausreichend hohe Bildwiederholraten auch bei Verwendung einer preisgünstigen Kamera realisieren lassen.It is an object of the present invention to provide a method and an optical observation apparatus with which sufficiently high frame rates can be realized even when using a low-cost camera.

Diese Aufgabe wird durch ein Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjekts mit einem elektronischen Bildsensor nach Anspruch 1 oder ein Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjekts mit einem elektronischen Bildsensor nach Anspruch 2 und durch ein optisches Beobachtungsgerät nach Anspruch 20 gelöst. Die abhängigen Ansprüche enthalten vorteilhafte Ausgestaltungen der Erfindung.This object is achieved by a method for capturing images of an observation object with an electronic image sensor according to claim 1 or a method for capturing images of an observation object with an electronic image sensor according to claim 2 and by an optical observation apparatus according to claim 20. The dependent claims contain advantageous embodiments of the invention.

In den erfindungsgemäßen Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjekts mit einem elektronischen Bildsensor wird ein Vollbild auf die Sensorfläche, vorzugsweise auf die gesamte Sensorfläche des Bildsensors abgebildet. Eine interessierende Bildregion (region of interest, ROI) des Vollbildes wird dabei auf eine Teilfläche des Bildsensors abgebildet. Die Aufnahme der Bilder erfolgt, indem der Bildsensor für das jeweilige Bild belichtet und nach jeder Belichtung ausgelesen wird. Dabei erfolgt auf ein Belichten des Bildsensors und ein Auslesen der gesamten für ein Vollbild belichteten Sensorfläche wenigstens einmal ein Belichten des Bildsensors und ein Auslesen nur der Teilfläche des Sensors mit der interessierenden Bildregion, bevor wieder ein Belichten des Bildsensors und ein Auslesen der gesamten belichteten Sensorfläche erfolgt. Ein Auslesen der gesamten belichteten Sensorfläche soll hierbei als ein auf die Fläche des Sensors bezogenes Auslesen und nicht als ein auf die Gesamtzahl der Pixel in dieser Fläche bezogenes Auslesen verstanden werden. Das Auslesen der gesamten belichteten Sensorfläche kann ein Auslesen aller Pixel dieser Fläche bedeuten, aber auch ein Auslesen nur eines Teils der Pixel wobei die Pixel über die gesamte Fläche verteilt sind, beispielsweise wenn nur jede n-ten Pixelzeile und/oder jede m-ten Pixelspalte im Falle eines Subsamplings ausgelesen werden. Ebenso ist ein sog. Pixel-Binning möglich, in dem Pixel (Bildelemente) des Sensors zu Pixelblöcken zusammengefasst und die Pixel eines Pixelblockes jeweils gemeinsam ausgelesen werden.In the method according to the invention for capturing images of an observation object with an electronic image sensor, a full image is imaged on the sensor surface, preferably on the entire sensor surface of the image sensor. An interesting region of interest (ROI) of the frame is imaged on a partial surface of the image sensor. The images are captured by exposing the image sensor for each image and reading it out after each exposure. In this case, an exposure of the image sensor and a readout of the entire illuminated for a frame sensor surface at least once exposing the image sensor and reading out only the partial surface of the sensor with the image region of interest, before again exposing the image sensor and reading the entire exposed sensor surface , A readout of the entire exposed sensor area is to be understood here as a read-out related to the area of the sensor and not as a read-out related to the total number of pixels in this area. Reading out the entire exposed sensor area may mean reading out all pixels of this area, but also reading out only a part of the pixels, with the pixels being distributed over the entire area, for example if only every n-th pixel row and / or every m-th pixel column be read in the case of subsampling. Likewise, a so-called pixel-binning is possible in which pixels (picture elements) of the sensor are combined into blocks of pixels and the pixels of a block of pixels are read together in each case.

Die Erfindung beruht auf der folgenden Überlegung:
Beispielsweise bei einem chirurgischen Eingriff, der unter Verwendung eines Operationsmikroskops durchgeführt wird, wird dem Operateur das Vollbild unter einem Sichtwinkel von ca. 30° bis 40° (field of view, FoV) dargeboten. Die Macula, also derjenige Bereich im Auge, der das scharfe Sehen ermöglicht, beschränkt denjenigen Sichtwinkel, in dem scharfes Sehen möglich ist, auf etwa 5°. Der Erfindung liegt die Erkenntnis zu Grunde, dass es daher eigentlich häufig nicht notwendig ist, im gesamten Sichtwinkel eine hohe Bildqualität aufrecht zu erhalten. Vielmehr reicht es aus, eine hohe Bildqualität im Bereich des scharfen Sehens aufrecht zu erhalten.
The invention is based on the following consideration:
For example, in a surgical procedure performed using a surgical microscope, the operator is presented with the full image at a viewing angle of about 30 ° to 40 ° (field of view, FoV). The macula, which is the area in the eye that allows for sharp vision, limits the viewing angle, where sharp vision is possible, to about 5 °. The invention is based on the realization that it is therefore often not necessary to maintain a high image quality in the entire viewing angle. Rather, it is sufficient to maintain a high image quality in the field of sharp vision.

Verzichtet man also darauf, jedes Mal die gesamte belichtete Sensorfläche auszulesen, sondern konzentriert sich auf den interessierenden Bereich (region of interest, ROI), der nur einem Bruchteil der Sensorfläche entspricht, so vermindert sich auch die Zeit, die für das Auslesen dieses Ausschnittes benötigt wird, auf genau diesen Bruchteil. Wenn beispielsweise der interessierende Bereich in beiden Bildrichtungen jeweils nur einem Drittel der Gesamtausdehnung der belichteten Sensorfläche in den beiden Bilddimensionen entspricht, befinden sich im interessierenden Bereich lediglich ein Neuntel der Pixel der belichteten Sensorfläche. Wird nun beispielsweise das Vollbild mit einer preisgünstigen 60 Hz-Kamera in 16,67 Millisekunden (ein Sechzigstel Sekunde) ausgelesen, so beträgt die Auslesezeit des interessierenden Bereichs lediglich ein Neuntel der Gesamtauslesedauer, also nur 1,85 Millisekunden. Wegen der für das Auslesen der Teilfläche der belichteten Sensorfläche deutlich geringeren Auslesezeit gegenüber dem Auslesen der gesamten belichteten Sensorfläche ist es möglich, die Bildwiederholrate der verwendeten Kamera gegenüber dem Stand der Technik zu erhöhen, indem nur bei jedem k-ten Auslesen des Bildsensors die gesamte belichtete Sensorfläche ausgelesen wird. Bei den übrigen Belichtungen wird dagegen lediglich diejenige Teilfläche des Sensors ausgelesen, die der interessierenden Bildregion entspricht.If one thus omits to read out the entire exposed sensor area each time, but concentrates on the region of interest (ROI), which corresponds to only a fraction of the sensor area, then the time required for reading this section is also reduced will, on just that fraction. If, for example, the region of interest in both image directions corresponds in each case to only one third of the total extent of the exposed sensor surface in the two image dimensions, only one ninth of the pixels of the exposed sensor surface are located in the region of interest. If, for example, the full image is read out with a low-cost 60 Hz camera in 16.67 milliseconds (one-sixtieth second), then the read-out time of the region of interest is only one-ninth of the total read-out duration, ie only 1.85 milliseconds. Because of the readout time for readout of the partial area of the exposed sensor area compared to readout of the entire exposed sensor area, it is possible to increase the image refresh rate of the camera used compared to the prior art, by only exposing the entire image at every k th readout of the image sensor Sensor surface is read out. In the case of the other exposures, on the other hand, only that partial area of the sensor which corresponds to the image region of interest is read out.

Wenn beispielsweise auf ein Auslesen der gesamten belichteten Sensorfläche dreimal ein Auslesen der dem interessierenden Bereich entsprechenden Teilfläche erfolgt, bevor die gesamte belichtete Sensorfläche ausgelesen wird, die zum Auslesen der gesamten belichteten Sensorfläche benötigte Zeit mit T bezeichnet wird und die Fläche des interessierenden Bereiches wie im zuvor erwähnten Beispiel ein Neuntel der Gesamtfläche beträgt, so wird für das Auslesen der Teilfläche eine Auslesedauer von 1/9T benötigt. Für die drei Teilbilder werden also insgesamt dreimal 1/9 T benötigt, was 1/3T entspricht. Die Zeitdauer die zwischen dem Auslesen zweier Vollbilder vergeht, hat sich durch das Auslesen der Teilbilder um ein Drittel erhöht. In dieser Zeit erfolgt jedoch ein viermaliges Auslesen des den interessierenden Bereich repräsentierenden Teilbildes, das ja auch zusammen mit dem Vollbild ausgelesen wird, sodass ein Auslesen dieses Teilbildes im Durchschnitt alle ((1 + 1/3)/4)T erfolgt. Für den interessierenden Bereich hat sich also die Dauer zwischen dem Auslesen im Vergleich zum Stand der Technik, in dem immer ein Vollbild ausgelesen wird, auf ein Drittel reduziert, sodass sich die Bildwiederholfrequenz für den interessierenden Bereich verdreifacht hat. Außerhalb des interessierenden Bereichs hat sich die Dauer zwischen dem Auslesen zweier Vollbilder zwar auf 4/3T erhöht, jedoch entspricht dies immer noch ¾ der Bildwiederholrate, die erreicht würde, wenn immer nur Vollbilder ausgelesen würden.If, for example, a readout of the entire exposed sensor surface occurs three times the partial area corresponding to the region of interest before the entire exposed sensor surface is read out, the time required to read the entire exposed sensor surface is denoted by T and the area of the region of interest is the same as previously example is a ninth of the total area, so for the reading of the subarea a readout time of 1 / 9T is needed. For the three partial images, a total of three times 1/9 T is needed, which corresponds to 1/3 T. The time that elapses between reading out two frames has increased by one third reading out the partial images. During this time, however, a four-time reading of the interest takes place Area-representative field, which is indeed read together with the frame, so that a reading of this field on average every ((1 + 1/3) / 4) T takes place. For the area of interest, therefore, the duration between the read-out has been reduced to one-third compared with the prior art in which one frame is always read, so that the refresh rate has tripled for the area of interest. Outside the area of interest, the duration between reading two frames has increased to 4 / 3T, but this is still ¾ of the frame rate that would be achieved if only frames were read.

Tatsächlich ist in vielen Anwendungen der interessierende Bereich erheblich kleiner als das Gesamtbild. Etwa im Falle des bereits erwähnten Operationsmikroskops, besitz der interessierende Bereich einen Sehwinkel von etwa 5° gegenüber dem Sehwinkel von 30° bis 40° des Vollbildes. In diesem Fall können beispielsweise bei Inkaufnahme einer Reduzierung der Bildwiederholrate der Vollbilder im Vergleich zu der eigentlich möglichen Rate zwischen zwei Vollbildern eine Vielzahl Teilbilder aufgenommen werden, so dass sich die Bildwiederholfrequenz für den entsprechenden Bildausschnitt um so mehr steigern lässt, je kleiner dessen Fläche in Bezug auf die Fläche des Vollbildes ist.In fact, in many applications the area of interest is considerably smaller than the overall picture. For example, in the case of the surgical microscope already mentioned, the region of interest has a visual angle of about 5 ° with respect to the angle of vision of 30 ° to 40 ° of the full image. In this case, for example, if a reduction in the frame rate of the frames is accepted, then a multiplicity of partial pictures can be taken in comparison to the actually possible rate between two frames, so that the smaller the area of the frame, the more the frame rate for the corresponding image segment can be increased on the area of the full screen.

Insbesondere für einen Chirurgen ist es außerdem wichtig, dass eine geringe Verzögerung zwischen einer Bildaufnahme und der Wiedergabe der Bilder (Delay) vorliegt. Nur so kann eine gute Hand-Auge-Koordination, wie sie für eine Operation von großer Bedeutung ist, erzielt werden. Im Vergleich zum Stand der Technik kann dieser Delay für das den interessierenden Bereich repräsentierende Teilbild mit dem erfindungsgemäßen Verfahren im Vergleich zum Stand der Technik reduziert werden. Die etwas erhöhte Verzögerung im Bereich der Vollbilder außerhalb des interessierenden Bereichs ist dabei von geringerer Bedeutung, da sie nur im peripheren Bereich des Betrachters stattfindet, der für das Durchführen der Operation von untergeordneter Bedeutung ist.It is also important for a surgeon, in particular, that there is a slight delay between image acquisition and image playback (delay). Only then can a good hand-eye coordination, as it is of great importance for an operation, be achieved. In comparison with the prior art, this delay for the partial image representing the region of interest can be reduced by the method according to the invention in comparison to the prior art. The slightly increased delay in the area outside the area of interest is of less importance since it only takes place in the peripheral area of the observer, which is of minor importance for carrying out the operation.

Neben dem Erhöhen der Bildwiederholrate im interessierenden Bereich bietet das erfindungsgemäße Verfahren auch weitere Anwendungsmöglichkeiten. Bei Systemen, in denen aufgenommene Bilder über eine Datenverbindung mit beschränkter Bandbreite übertragen werden, ermöglicht das erfindungsgemäße Verfahren bspw. das Übertragen der interessierenden Bildregion mit einer hohen Bildwiederholrate, während die übrigen Bereiche mit einer niedrigen Bildwiederholrate übertragen werden, um Bandbreite zu sparen. Weiterhin kann das erfindungsgemäße Verfahren beim Erhöhen der Tiefenschärfe eines optischen Bobachtungsgerätes zum Einsatz kommen.In addition to increasing the refresh rate in the area of interest, the inventive method also offers other applications. In systems where captured images are transmitted over a limited bandwidth data link, for example, the method of the present invention allows the image region of interest to be transmitted at a high frame rate while the remaining regions are transmitted at a low frame rate to save bandwidth. Furthermore, the inventive method can be used to increase the depth of field of an optical observation device.

Bei elektronischen Bildsensoren, bspw. bei CCD-Sensoren oder CMOS-Sensoren, erfolgt eine Belichtung des Bildsensors für das i-te Bild während des Auslesens des (i – 1)-ten Bildes. Das Auslesen der gesamten belichteten Sensorfläche erfordert jedoch mehr Zeit als das Auslesen der den interessierenden Bereich repräsentierenden Teilfläche. Die prinzipiell mögliche Belichtungszeit eines Bildes, das während des Auslesens der gesamten belichteten Sensorfläche belichtet wird, ist daher größer als die Belichtungszeit eines Bildes, das während des Auslesens der Teilfläche des Sensors belichtet wird. Um eine ausgewogene Aussteuerung des Sensors zu erzielen, ist es daher vorteilhaft, wenn die Intensität der Beleuchtung für die i-te Belichtung gegenüber der Beleuchtung für die (i – 1)-te Belichtung herabgesetzt ist, wenn zum Auslesen des (i – 1)-ten Bildes die gesamte belichtete Sensorfläche ausgelesen wird, um die längere Belichtungsdauer auszugleichen. Alternativ ist es auch möglich, die Belichtungsdauer für die i-te Belichtung gegenüber der Belichtungsdauer für die (i – 1)-te Belichtung herabzusetzen, wenn zum Auslesen des (i – 1)-ten Bildes die gesamte belichtete Sensorfläche ausgelesen wird. Mit anderen Worten, es wird dann nur ein Teil der grundsätzlich möglichen Belichtungsdauer genutzt. Selbstverständlich ist es auch möglich, eine verkürzte Belichtungsdauer und eine reduzierte Beleuchtungsintensität miteinander zu verknüpfen. Die Verknüpfung sollte dabei so erfolgen, dass beide Effekte kombiniert zu einer Belichtung führen, wie sie während des Auslesens nur der Teilfläche des Sensors, ggf. unter Berücksichtigung spektraler Empfindlichkeiten des Sensors, stattfinden würde.In the case of electronic image sensors, for example in the case of CCD sensors or CMOS sensors, exposure of the image sensor for the i-th image takes place during the readout of the (i-1) -th image. Reading out the entire exposed sensor surface, however, requires more time than reading out the partial area representing the region of interest. The theoretically possible exposure time of an image which is exposed during the readout of the entire exposed sensor area is therefore greater than the exposure time of an image which is exposed during the readout of the partial area of the sensor. In order to achieve a balanced modulation of the sensor, it is therefore advantageous if the intensity of the illumination for the i-th illumination is reduced compared to the illumination for the (i-1) -th exposure when reading (i-1) -th image the entire exposed sensor surface is read out to compensate for the longer exposure time. Alternatively, it is also possible to reduce the exposure time for the i-th exposure relative to the exposure time for the (i-1) th exposure when the entire exposed sensor area is read out for reading out the (i-1) -th image. In other words, only part of the basically possible exposure time is used. Of course, it is also possible to combine a shortened exposure time and a reduced illumination intensity. The combination should be such that both effects combined result in an exposure that would take place during the reading out of only the partial area of the sensor, possibly taking into account spectral sensitivities of the sensor.

Eine Erhöhung der reduzierten Bildrate für das Vollbild sowie eine Erhöhung der Bildrate für den interessierenden Bereich sind möglich, wenn beim Auslesen der gesamten Sensorfläche, also beim Auslesen eines Vollbildes, nur jede j-te Sensorzeile und/oder nur jede k-te Sensorspalte mit j > 1, k > 1 ausgelesen wird bzw. werden. Hierbei können die Parameter j und k gleich oder ungleich sein. Je mehr Auflösung des Vollbildes durch Subsampling herabgesetzt wird, desto höhere Bildraten lassen sich erzielen. Da nur das Vollbild mit reduzierter Auflösung ausgelesen wird, die Teilbilder jedoch mit der vollen Auflösung, führt dies insgesamt lediglich im peripheren Sichtbereich des Betrachters zu einer Reduzierung der Bildauflösung. Da im interessierenden Bereich weiterhin der überwiegende Teil der Bilder, nämlich alle Teilbilder, mit der vollen Auflösung aufgenommen werden, macht sich die Reduzierung der Auflösung des Vollbildes im interessierenden Bereich praktisch nicht bemerkbar.An increase in the reduced frame rate for the frame as well as an increase in the frame rate for the region of interest are possible if when reading the entire sensor surface, ie when reading a frame, only every jth sensor row and / or only every k th sensor column with j > 1, k> 1 is read out. Here, the parameters j and k can be the same or different. The more resolution of the frame is reduced by subsampling, the higher frame rates can be achieved. Since only the full-screen is read with reduced resolution, but the sub-images with the full resolution, this leads to a total reduction only in the peripheral field of view of the viewer to a resolution of the image. Since in the area of interest the majority of the images, namely all partial images, are still recorded with the full resolution, the reduction of the resolution of the full image in the area of interest is practically not noticeable.

Im Rahmen einer ersten Ausgestaltung des erfindungsgemäßen Verfahrens findet als Bildsensor ein monochromer Bildsensor Verwendung finden. Dieser kann ein CCD-Sensor oder insbesondere ein CMOS-Sensor sein. Für das Belichten des monochromen Bildsensors erfolgt ein Beleuchten des Beobachtungsobjekts in Beleuchtungszyklen, in denen das Beobachtungsobjekt zeitsequentiell mit N unterschiedlichen Wellenlängenverteilungen beleuchtet wird. Das Auslesen des Bildsensors erfolgt in Belichtungs- und Auslesezyklen, wobei die Beleuchtungszyklen mit den Belichtungs- und Auslesezyklen derart synchronisiert sind, dass pro Belichtungs- und Auslesezyklus

  • a) ein Belichten des Bildsensors bei Beleuchtung des Beobachtungsobjekts mit einer ersten der N Wellenlängenverteilung eines Beleuchtungszyklus und ein anschließendes Auslesen der gesamten belichteten Sensorfläche erfolgt,
  • b) danach wenigstens einmal eine Belichtungs- und Auslesesequenz des Bildsensors erfolgt, in der das Beobachtungsobjekt nacheinander mit verschiedenen Wellenlängenverteilungen eines Beleuchtungszyklus beleuchtet wird, bei jedem Beleuchten des Beobachtungsobjekts mit einer der Wellenlängenverteilungen eine Belichtung erfolgt und nach jedem Belichten jeweils nur ein Auslesen der Teilfläche des Sensors mit der interessierenden Bildregion erfolgt, und
  • c) die Schritte a) und b) N mal durchgeführt werden, wobei in Schritt a) jedes mal eine andere Wellenlängenverteilung Verwendung findet.
Within the scope of a first embodiment of the method according to the invention, the image sensor used is a monochrome image sensor. This may be a CCD sensor or in particular a CMOS sensor. For illuminating the monochrome image sensor, the observation object is illuminated in illumination cycles in which the observation object is illuminated time-sequentially with N different wavelength distributions. The readout of the image sensor takes place in exposure and read-out cycles, wherein the illumination cycles are synchronized with the exposure and readout cycles such that per exposure and read-out cycle
  • a) exposing the image sensor when the observation object is illuminated with a first of the N wavelength distribution of an illumination cycle and then reading out the entire exposed sensor surface,
  • b) thereafter at least once an exposure and read sequence of the image sensor takes place, in which the observation object is illuminated successively with different wavelength distributions of a lighting cycle, with each illumination of the observation object with one of the wavelength distributions an exposure takes place and after each exposure only one readout of the partial surface of the Sensor with the image region of interest takes place, and
  • c) the steps a) and b) are performed N times, wherein in step a) each time a different wavelength distribution is used.

Hierbei können die N unterschiedlichen Wellenlängenverteilungen wenigstens die Grundfarben eines RGB-Farbraums oder eines CMY-Farbraums umfassen. Zusätzlich zu den Grundfarben des RGB-Farbraums bzw. des CMY-Farbraums kann optional wenigstens eine weitere Wellenlängenverteilung vorhanden sein, beispielsweise für Fluoreszenzmessungen, Laser-Doppler-Imaging (LDI), Funktionsmessungen an funktionstragenden Gehirnarealen, etc. Die Grundfarben des RGB-Farbraums oder des CMY-Farbraums können hierbei insbesondere zum Generieren eines Farbbildes Verwendung finden.Here, the N different wavelength distributions may comprise at least the basic colors of an RGB color space or a CMY color space. In addition to the basic colors of the RGB color space or of the CMY color space, optionally at least one further wavelength distribution may be present, for example for fluorescence measurements, laser Doppler imaging (LDI), functional measurements on function-bearing brain areas, etc. The basic colors of the RGB color space or of the CMY color space can be used in particular for generating a color image.

In der beschriebenen Ausgestaltung des erfindungsgemäßen Verfahrens beginnt ein Belichtungs- und Auslesezyklus also mit der Aufnahme eines Vollbildes bei einer bestimmten Wellenlängenverteilung des Beleuchtungszyklus. Nach dem Aufnehmen des Vollbildes schließt sich eine Belichtungs- und Auslesesequenz an, in der bspw. nacheinander Teilbilder für alle im Beleuchtungszyklus enthaltenen Wellenlängenverteilungen aufgenommen werden. Wenn dann der Schritt a) im Rahmen des Belichtungs- und Auslesezyklus erneut durchgeführt wird, findet eine Aufnahme eines Vollbildes für den nächsten der N Wellenlängenbereiche statt. Auch hier schließt sich bspw. wieder die Aufnahme von Teilbildern für alle Wellenlängenverteilungen des Beleuchtungszyklus an. Der Belichtungs- und Auslesezyklus ist beendet, wenn der Schritt a) für alle im Beleuchtungszyklus enthaltenen Wellenlängenverteilungen einmal durchgeführt worden ist und für den letzten Schritt a) auch Schritt b) zu Ende geführt ist. Wenn in jeder Belichtungs- und Auslesesequenz das Beobachtungsobjekt wenigstens einmal nacheinander mit allen N Wellenlängenverteilungen beleuchtet wird, umfasst ein Belichtungs- und Auslesezyklus daher insgesamt mindestens xN + 1 Beleuchtungszyklus, wobei x angibt, wie oft nacheinander Teilbilder mit allen N Wellenlängenverteilungen aufgenommen werden, bevor eine erneute Aufnahme eines Vollbildes erfolgt. Wenn beispielsweise nach dem Aufnehmen eines Vollbildes genau einmal Teilbilder für alle N Wellenlängenverteilungen aufgenommen werden, beträgt x = 1, sodass ein gesamter Belichtungs- und Auslesezyklus N + 1 Beleuchtungszyklen einschließt. Um den mit der beschriebenen Weiterbildung des Verfahrens ermöglichten Zeitgewinn – und die daraus resultierende Bildwiederhalrate – abschätzen zu können, kann folgende Rechnung aufgestellt werden:
Wenn T die Zeit ist, die für das Auslesen eines Vollbildes benötigt wird und y das Flächenverhältnis des Teilbildes zu dem Vollbild darstellt, so beträgt die Auslesezeit für ein Teilbild TT = y·T. Sei N die Anzahl der für ein farbiges Vollbild nötigen Teilbilder (beispielsweise drei Teilbilder im RGB-Farbraum), so beträgt die Zeit für das Auslesen eines farbigen Vollbildes im Rahmen der beschriebenen Weiterbildung des Verfahrens N·T (für die N während eines Belichtungs- und Auslesezyklus aufgenommenen Vollbilder) + (x·N·Y·T) (für die zwischen zwei Vollbildern aufgenommenen Teilbilder).
In the described embodiment of the method according to the invention, therefore, an exposure and readout cycle begins with the acquisition of a full image at a specific wavelength distribution of the illumination cycle. After the frame has been taken, an exposure and read-out sequence follows, in which, for example, partial images are taken successively for all wavelength distributions contained in the illumination cycle. Then, if step a) is performed again as part of the exposure and read cycle, one frame is taken for the next of the N wavelength ranges. Here too, for example, the inclusion of partial images for all wavelength distributions of the illumination cycle follows again. The exposure and readout cycle is terminated when step a) has been performed once for all wavelength distributions contained in the illumination cycle and also for the last step a) step b) is completed. Therefore, if in each exposure and read sequence the observation object is illuminated at least once in succession with all N wavelength distributions, a total exposure and read cycle will comprise at least xN + 1 illumination cycle, where x indicates how many frames are taken successively with all N wavelength distributions before one resume a full screen. For example, if frames are captured exactly once for all N wavelength distributions after capturing a frame, x = 1, so that one entire exposure and read cycle will include N + 1 lighting cycles. In order to be able to estimate the time savings made possible by the further development of the method described, and the resulting image refresh rates, the following calculation can be made:
If T is the time required to read one frame and y represents the area ratio of the field to the frame, the read-out time for one field T is T = y * T. If N is the number of partial images necessary for a full color image (for example three partial images in the RGB color space), then the time for the readout of a full color image in the described development of the method N · T (for the N during an exposure and Read-out cycle) + (x * N * Y * T) (for the fields captured between two frames).

Für den Fall x = 1 und N = 3 (für drei Grundfarben des RGB-Farbraums) erhält man so die Zeitdauer für die Aufnahme eines Farbbildes von 3·T + N·yT. In einem Verfahren nach Stand der Technik, in dem nur Vollbilder aufgenommen werden, würde die Zeitdauer für das Aufnehmen eines Farbbildes 3·T betragen. Mit dem erfindungsgemäßen Verfahren verlängert sich also die Zeitdauer um N·y·T. Es ist ohne weiteres zu erkennen, dass die Verlängerung der Zeitdauer gegenüber dem Stand der Technik umso weniger ins Gewicht fällt, je kleiner der Faktor y ist, also je kleiner die für ein Teilbild benötigte Sensorfläche in Bezug auf die gesamte belichtete Sensorfläche ist. Wenn beispielsweise die Teilfläche einem Neuntel der gesamten belichteten Sensorfläche entspricht, gelangt man zu einer Auslesedauer T, die 3T + 3· 1 / 9T = 4 / 3T, also vier Drittel der Auslesedauer nach Stand der Technik entspricht. Dies entspricht einer Bildwiederholrate von drei Viertel der Bildwiederholrate nach Stand der Technik.For the case x = 1 and N = 3 (for three primary colors of the RGB color space), the time duration for taking a color image of 3 * T + N * yT is thus obtained. In a prior art method of taking only frames, the time taken to take a color image would be 3 * T. Thus, with the method according to the invention, the time duration is lengthened by N · y · T. It is readily apparent that the smaller the factor y, the smaller is the sensor area required for one sub-image with respect to the entire exposed sensor area, the less important is the extension of the time duration compared with the prior art. If, for example, the partial area corresponds to one-ninth of the total exposed sensor area, a read-out duration T is reached 3T + 3 · 1 / 9T = 4 / 3T, thus corresponds to four thirds of the readout time according to the prior art. This corresponds to a refresh rate of three quarters of the frame rate according to the prior art.

Im interessierenden Bereich werden in derselben Zeit zusätzlich zum Vollbild, das ebenfalls den interessierenden Bereich enthält, x·N Teilbilder aufgenommen. Dies bedeutet, dass bei x = 1 in der Zeit, in der ein Vollbild aufgenommen wird, insgesamt vier Bilder des interessierenden Bereiches aufgenommen werden. Die Bildwiederholrate für den interessierenden Bereich ist daher einen Faktor 4 höher als für das Vollbild.In the area of interest, in addition to the full screen, which is also the area of interest, x × N field images recorded. This means that at x = 1 in the time in which a frame is recorded, a total of four images of the area of interest are recorded. The refresh rate for the region of interest is therefore a factor of 4 higher than for the frame.

In einer alternativen Ausgestaltung des erfindungsgemäßen Verfahrens, in dem als Bildsensor ein monochromer Bildsensor Verwendung findet und in dem ebenfalls ein Beleuchten des Beobachtungsobjekts in Beleuchtungszyklen erfolgt, wird das Beobachtungsobjekt zeitsequentiell mit weißem Licht und N unterschiedlichen Wellenlängenverteilungen beleuchtet. Das weiße Licht kann dabei bspw. dadurch realisiert sein, dass alle N unterschiedlichen Wellenlängenverteilungen gleichzeitig das Beobachtungsobjekt beleuchten. Auch in dieser Weiterbildung des Verfahrens erfolgt das Auslesen des Bildsensors in Belichtungs- und Auslesezyklen. Die Beleuchtungszyklen sind dabei mit den Belichtungs- und Auslesezyklen derart synchronisiert, dass pro Belichtungs- und Auslesezyklus

  • a) ein Belichten des Bildsensors mit dem weißen Licht eines Beleuchtungszyklus und ein anschließendes Auslesen der gesamten Sensorfläche erfolgt,
  • b) danach wenigstens einmal eine Belichtungs- und Auslesesequenz des Bildsensors erfolgt, in der das Beobachtungsobjekt nacheinander mit verschiedenen Wellenlängenverteilungen eines Beleuchtungszyklus beleuchtet wird, bei jedem Beleuchten des Beobachtungsobjekts mit einer der Wellenlängenverteilungen eine Belichtung erfolgt und nach jedem Belichten jeweils nur ein Auslesen der Teilfläche des Sensors mit der interessierenden Bildregion erfolgt.
In an alternative embodiment of the method according to the invention, in which a monochrome image sensor is used as the image sensor and illumination of the observation object likewise takes place in illumination cycles, the observation object is illuminated time-sequentially with white light and N different wavelength distributions. The white light can be realized, for example, in that all N different wavelength distributions simultaneously illuminate the observation object. Also in this embodiment of the method, the reading of the image sensor in exposure and readout cycles takes place. The lighting cycles are synchronized with the exposure and readout cycles such that per exposure and readout cycle
  • a) exposing the image sensor to the white light of a lighting cycle and then reading out the entire sensor surface,
  • b) thereafter at least once an exposure and read sequence of the image sensor takes place, in which the observation object is illuminated successively with different wavelength distributions of a lighting cycle, with each illumination of the observation object with one of the wavelength distributions an exposure takes place and after each exposure only one readout of the partial surface of the Sensor takes place with the image region of interest.

In der alternativen Ausgestaltung des erfindungsgemäßen Verfahrens umfasst ein Beleuchtungszyklus also einmal ein Beleuchten mit weißem Licht und xN zeitsequentielle Beleuchtungen mit den unterschiedlichen Wellenlängenverteilungen, wenn in der Belichtungs- und Auslesesequenz jedes mal alle N Wellenlängenverteilungen enthalten sind. Im einfachsten Fall ist x = 1, sodass ein Beleuchtungszyklus N + 1 Beleuchtungen umfasst, nämlich einmal die Beleuchtung mit weißem Licht und, daran anschließend, die zeitsequentielle Beleuchtung mit den N unterschiedlichen Wellenlängenverteilungen. Wie in der zuvor beschriebenen Ausgestaltung des erfindungsgemäßen Verfahrens können die N Wellenlängenverteilungen wenigstens die Grundfarben eines RGB-Farbraums umfassen. Optional kann zusätzlich zu den Grundfarben des RGB-Farbraums und dem weißen Licht wenigstens eine weitere Wellenlängenverteilung vorhanden sein, beispielsweise für Fluoreszenzmessungen, Laser-Doppler-Imaging, Funktionsmessungen an funktionstragenden Gehirnarealen, etc. Aus den N Grundfarben des RGB-Farbraums kann ein Farbbild generiert werden. In der beschriebenen Weiterbildung des erfindungsgemäßen Verfahrens, in der weißes Licht zur Aufnahme der Vollbilder herangezogen wird, wird wegen des monochromen Bildsensors lediglich der interessierende Bereich farbig dargestellt, während die Peripherie lediglich schwarzweiß dargestellt wird. Für viele Anwendungen, in denen es häufig nur auf den interessierenden Bereich ankommt, ist eine derartige Darstellung jedoch völlig ausreichend.Thus, in the alternative embodiment of the method according to the invention, an illumination cycle comprises one illumination with white light and xN time-sequential illumination with the different wavelength distributions, if every N wavelength distributions are contained in the exposure and read sequence. In the simplest case, x = 1, so that one illumination cycle comprises N + 1 illuminations, namely the illumination with white light and, subsequently, the time-sequential illumination with the N different wavelength distributions. As in the previously described embodiment of the method according to the invention, the N wavelength distributions may comprise at least the basic colors of an RGB color space. Optionally, in addition to the primary colors of the RGB color space and the white light, at least one further wavelength distribution may be present, for example for fluorescence measurements, laser Doppler imaging, functional measurements on functional brain areas, etc. A color image can be generated from the N primary colors of the RGB color space become. In the described development of the method according to the invention, in which white light is used to take the frames, because of the monochrome image sensor, only the region of interest is shown in color, while the periphery is shown only in black and white. However, for many applications where often only the area of interest matters, such a representation is quite sufficient.

In vielen Anwendungen wird die interessierende Bildregion eines Bildes nicht immer dieselbe Position im Vollbild einnehmen. Beispielsweise bei einem Operationsmikroskop hängt die interessierende Bildregion von der Blickrichtung des Beobachters ab. Es ist daher vorteilhaft, wenn die Position der interessierenden Bildregion im Vollbild durch Bestimmen der Blickrichtung eines das Vollbild betrachtenden Beobachters ermittelt wird. In einem optischen Beobachtungssystem wie etwa einem Operationsmikroskop kann dies mittels eines sogenannten Eyetracking-Systems, welches die Blickrichtung erfasst, erfolgen. Wenn die Blickrichtung wiederholt ermittelt wird, kann die Position der die interessierende Bildregion repräsentierenden Teilfläche des Bildsensors auf der Sensorfläche anhand der jeweils aktuell ermittelten Blickrichtung aktualisiert werden. Vorzugsweise erfolgt hierbei das Ermitteln der Blickrichtung mit einer Rate von weniger als 20 Hz, vorzugsweise weniger als 10 Hz und insbesondere mit einer Rate im Bereich von 5 bis 10 Hz. Das Auge bewegt sich sehr schnell in sogenannten Sakkaden, ohne dass die dabei gewonnenen Informationen vom Gehirn verarbeitet werden. Sakkaden sind in der Regel nach 50 Millisekunden abgeschlossen. Eine Frequenz beim Ermitteln der Blickrichtung von mehr als 20 Hz könnte daher dazu führen, dass die Position der Teilfläche des Bildsensors anhand von Sakkaden nachgeführt wird, was jedoch nicht derjenigen Blickrichtung entspricht, die vom Gehirn auch verarbeitet wird. Auch wenn eine Rate von weniger als 20 Hz grundsätzlich ausreichen sollte, um das Nachführen der Teilfläche anhand von Sakkaden zu vermeiden, ist es vorteilhaft, wenn die Rate, mit der die Blickrichtung aktualisiert wird, die weniger als 10 Hz beträgt. Ein Bereich von 5 bis 10 Hz ist dabei besonders vorteilhaft, da bei einer Aktualisierung mit einer Rate von weniger als 5 Hz die Synchronisierung der die interessierende Bildregion repräsentierenden Teilfläche des Sensors auf der Sensorfläche mit der Blickrichtung störende Verzögerungen aufweisen könnte, die bspw. bei Operationen nicht hingenommen werden können.In many applications, the image region of interest of an image will not always occupy the same position in the frame. For example, in a surgical microscope, the image region of interest depends on the viewing direction of the observer. It is therefore advantageous if the position of the image region of interest in the frame is determined by determining the viewing direction of an observer viewing the frame. In an optical observation system such as a surgical microscope, this can be done by means of a so-called eye-tracking system, which detects the viewing direction. If the viewing direction is determined repeatedly, the position of the partial area of the image sensor representing the region of interest of the image sensor on the sensor surface can be updated on the basis of the currently determined viewing direction. In this case, the viewing direction is preferably determined at a rate of less than 20 Hz, preferably less than 10 Hz and in particular at a rate in the range of 5 to 10 Hz. The eye moves very quickly in so-called saccades, without the information obtained thereby processed by the brain. Saccades are usually completed after 50 milliseconds. A frequency in determining the viewing direction of more than 20 Hz could therefore lead to the position of the partial surface of the image sensor is tracked by means of saccades, but this does not correspond to the line of sight, which is also processed by the brain. Although a rate of less than 20 Hz should in principle be sufficient to avoid tracking the patch using saccades, it is advantageous if the rate at which the gaze direction is updated is less than 10 Hz. A range of 5 to 10 Hz is particularly advantageous since, in the case of an update at a rate of less than 5 Hz, the synchronization of the partial area of the sensor representing the region of interest on the sensor surface with the viewing direction could have disturbing delays, for example during operations can not be accepted.

Da die zuvor dargelegten Abschätzungen hinsichtlich der Auslesezeit für die interessierende Bildregion nicht von der Lage der entsprechenden Teilfläche des Bildsensors auf der belichteten Sensorfläche abhängen, gelten die Abschätzungen unabhängig von der Lage dieser Teilfläche auf dem Bildsensor.Since the above-described estimates with respect to the read-out time for the image region of interest do not depend on the position of the corresponding subarea of the image sensor on the exposed sensor surface, the estimates apply regardless of the location of this patch on the image sensor.

Alternativ zum Nachführen der die interessierende Bildregion des Vollbildes repräsentierenden Teilfläche des Bildsensors anhand der Blickrichtung besteht auch die Möglichkeit, ein im Vollbild vorhandenes bewegtes Objekt zur Nachführung heranzuziehen. Hierzu wird mittels einer Bilderkennungssoftware ein bewegtes Objekt im Vollbild erkannt und die Teilfläche des Bildsensors so auf der Sensorfläche positioniert und dem Bild des bewegten Objekts auf der Sensorfläche nachgeführt, dass das Bild des bewegten Objekts in dieser Teilfläche verbleibt. Diese Ausgestaltung des erfindungsgemäßen Verfahrens eignet sich insbesondere für automatisierbare Beobachtungsvorgänge, wie etwa im Rahmen von Überwachungssystemen. Sobald beispielsweise eine Bewegung im zu überwachenden Bereich erfasst wird, kann die Teilfläche des Bildsensors so positioniert werden, dass die Teilfläche die Bewegung erfasst, solange sie von der Überwachungskamera beobachtet werden kann. Wenn die Bewegung des Objektes im Bild auf eine Bewegung des Beobachtungsgerätes etwa auf Grund von Schwingungen zurückgeht, kann die Nachführung zum Ausgleichen der Schwingungen dienen. Dies ist bspw. bei Operationsmikroskopen vorteilhaft.As an alternative to tracking the partial area of the image sensor representing the region of interest of the image frame on the basis of the viewing direction, it is also possible to use a moving object present in full image for tracking purposes. For this purpose, a moving object is detected in full screen by means of an image recognition software and positioned the subarea of the image sensor on the sensor surface and tracked the image of the moving object on the sensor surface that the image of the moving object remains in this subarea. This embodiment of the method according to the invention is particularly suitable for automated observation operations, such as in the context of monitoring systems. For example, as soon as a movement is detected in the area to be monitored, the partial area of the image sensor can be positioned such that the partial area detects the movement as long as it can be observed by the surveillance camera. If the movement of the object in the image is due to a movement of the observation device due to vibrations, the tracking can be used to compensate for the vibrations. This is advantageous, for example, in surgical microscopes.

In allen beschriebenen Ausführungsvarianten des erfindungsgemäßen Verfahrens können als Bilder des Beobachtungsobjekts dreidimensionale Bilder aufgenommen werden, die aus wenigstens zwei unter verschiedenen Sichtwinkeln aufgenommenen Perspektivbildern zusammengesetzt sind. Insbesondere können als dreidimensionale Bilder stereoskopische Bilder aufgenommen werden, die aus stereoskopischen Teilbildern zusammengesetzt sind. Alle Perspektivbilder (oder stereoskopischen Teilbilder beim Aufnehmen eines stereoskopischen Bildes) werden dabei mit einem elektronischen Bildsensor aufgenommen, wobei das erfindungsgemäße Verfahren auf das Aufnehmen der Perspektivbilder angewandt wird. Wenn dabei ein monochromer Bildsensor Verwendung findet, für das Belichten ein Beleuchten des Beobachtungsobjekts in Beleuchtungszyklen erfolgt, in denen das Beobachtungsobjekt Zeitsequentiell mit N unterschiedlichen Wellenlängenverteilungen beleuchtet wird, und das Auslesen des Bildsensors in Belichtungs- und Auslesezyklen erfolgt, wobei die Beleuchtungszyklen mit den Belichtungs- und Auslesezyklen gemäß der zuvor beschriebenen Schritte a) bis c) synchronisiert sind, können zum Aufnehmen eines dreidimensionalen Bildes zuerst nacheinander die Schritte a), b) und c) eines Belichtungs- und Auslesezyklus für ein Perspektivbild ausgeführt werden, bevor die Schritte a), b) und c) für das nächste Perspektivbild ausgeführt werden. Alternativ besteht die Möglichkeit, zum Aufnehmen eines dreidimensionalen Bildes den Belichtungs- und Auslesezyklus so oft nacheinander auszuführen, wie das dreidimensionale Bild Perspektivbild aufweist und einen Wechsel zwischen dem Aufnehmen eines Perspektivbildes und dem Aufnehmen des nächsten Perspektivbildes immer dann vorzunehmen, wenn ein Belichten und Auslesen des Bildsensors mit allen N Wellenlängenverteilungen des Beleuchtungszyklus erfolgt ist. Jedes Perspektivbild des dreidimensionalen Bildes setzt sich dann aus N den interessierenden Bereich repräsentierenden Teilbildern (nachfolgend Ausschnittsbilder genannt, um sie von den stereoskopischen Teilbildern sprachlich zu unterscheiden) oder aus N – 1 Ausschnittsbildern und einem Vollbild zusammen. Dabei kann es vorteilhaft sein, wenn die Beilichtungs- und Auslesezyklen jeweils im Wechsel das Auslesen des ersten Vollbildes bei verschiedenen Wellenlängenverteilungen des Beleuchtungszyklus beginnen, so dass sich für die Belichtungs- und Auslesezyklen bspw. im Wechsel N, N + 1, N + 2 und N + 1, N + 2, N für die Reihenfolge der Beleuchtungen, bei denen die Vollbilder aufgenommen werden, ergibt.In all described embodiments of the method according to the invention, three-dimensional images can be recorded as images of the observation object, which are composed of at least two perspective images recorded at different viewing angles. In particular, as three-dimensional images, stereoscopic images composed of stereoscopic partial images can be recorded. All perspective images (or stereoscopic partial images when taking a stereoscopic image) are recorded with an electronic image sensor, whereby the method according to the invention is applied to taking the perspective images. If a monochrome image sensor is used for this purpose, for which illumination the observation object is illuminated in illumination cycles in which the observation object is time-sequentially illuminated with N different wavelength distributions, and the image sensor is read in exposure and read-out cycles, the illumination cycles being determined by the illumination exposure. and read-out cycles according to the above-described steps a) to c) are synchronized, for taking a three-dimensional image, steps a), b) and c) of a perspective image exposure and readout cycle may first be carried out in sequence, before steps a), b) and c) are executed for the next perspective image. Alternatively, for taking a three-dimensional image, it is possible to perform the exposure and read-out cycle as many times as the three-dimensional image has perspective image and make a change between taking a perspective image and taking the next perspective image whenever exposing and reading the image Image sensor with all N wavelength distributions of the lighting cycle is done. Each perspective image of the three-dimensional image is then composed of N sub-images representing the region of interest (hereinafter referred to as clipping images to distinguish them from the stereoscopic sub-images) or from N-1 clipping images and a full image. It may be advantageous if the Beilichtungs- and Auslesezyklen each alternately begin reading the first frame at different wavelength distributions of the lighting cycle, so that for the exposure and readout cycles, for example, alternately N, N + 1, N + 2 and N + 1, N + 2, N for the order of illuminations at which the frames are taken.

Wenn ein Beleuchtungszyklus N Wellenlängenverteilungen und weißes Licht umfasst, kann zum Aufnehmen eines stereoskopischen Bildes der Belichtungs- und Auslesezyklus ebenfalls so oft nacheinander ausgeführt werden, wie das dreidimensionale Bild Perspektivbilder aufweist. Ein Wechsel zwischen dem Aufnehmen eines Perspektivbildes und dem Aufnehmen des nächsten Perspektivbildes erfolgt dann, nachdem ein Belichten und Auslesen des Bildsensors mit dem weißen Licht und allen N Wellenlängenverteilungen des Beleuchtungszyklus erfolgt ist.If an illumination cycle includes N wavelength distributions and white light, the exposure and read-out cycle may also be performed as often as the three-dimensional image has perspective images to capture a stereoscopic image. A change between the taking of a perspective image and the taking of the next perspective image takes place after an exposure and readout of the image sensor with the white light and all N wavelength distributions of the illumination cycle has taken place.

Das erfindungsgemäße Verfahren kann als Computerprogramm mit Anweisungen zur Durchführung des Verfahrens realisiert sein.The method according to the invention can be realized as a computer program with instructions for carrying out the method.

Ein erfindungsgemäßes optisches Beobachtungsgerät zum Aufnehmen von Bildern eines Beobachtungsobjekts umfasst wenigstens einen elektronischen Bildsensor und eine Beobachtungsoptik, die ein Objektfeld des Beobachtungsobjekts als Vollbild auf die Sensorfläche des Bildsensors abbildet. Außerdem umfasst das erfindungsgemäße optische Beobachtungsgerät eine Auswahleinrichtung zum Auswählen einer Teilfläche des Bildsensors, die einer interessierenden Bildregion des Vollbildes entspricht, und eine Sensorsteuereinheit, die zum Steuern des Belichtens und Auslesens des Bildsensors nach dem erfindungsgemäßen Verfahren ausgebildet ist. Die Auswahleinrichtung kann dabei eine manuelle Auswahleinrichtung oder eine automatische Auswahleinrichtung sei, bspw. eine auf einen Eye-Traker beruhende Einrichtung.An optical observation device according to the invention for recording images of an observation object comprises at least one electronic image sensor and observation optics which images an object field of the observation object as a full image onto the sensor surface of the image sensor. In addition, the optical observation apparatus according to the present invention comprises selecting means for selecting a partial area of the image sensor corresponding to an image region of interest of the frame, and a sensor control unit configured to control the exposure and readout of the image sensor according to the method of the present invention. The selection device can be a manual selection device or an automatic selection device, for example a device based on an eye-traker.

Mit dem erfindungsgemäßen optischen Beobachtungsgerät lässt sich das erfindungsgemäße Verfahren durchführen. Die mit Bezug auf das Verfahren beschriebenen Eigenschaften und Vorteile lassen sich daher mit dem erfindungsgemäßen optischen Beobachtungsgerät realisieren. Das optische Beobachtungsgerät kann dabei beispielsweise als medizinisch-optisches Beobachtungsgerät wie etwa ein Operationsmikroskop oder ein Endoskop, als Überwachungskamera, als wissenschaftliches Mikroskop, als Mikroskop für Materialuntersuchungen, etc. ausgebildet sein.With the optical observation device according to the invention, the inventive Perform the procedure. The properties and advantages described with reference to the method can therefore be realized with the optical observation device according to the invention. The optical observation device can be designed, for example, as a medical-optical observation device such as a surgical microscope or an endoscope, as a surveillance camera, as a scientific microscope, as a microscope for material examinations, etc.

Außerdem umfasst das optische Beobachtungsgerät eine Beleuchtungseinrichtung mit in unterschiedlichen Wellenlängenverteilungen emittierenden, gepulst betreibbaren Beleuchtungslichtquellen. Außerdem weist es eine Beleuchtungsoptik zur Zufuhr des Lichtes der Beleuchtungslichtquellen zum Beobachtungsobjekt sowie eine Beleuchtungssteuereinheit auf. Die Beleuchtungssteuereinheit wirkt auf die Beleuchtungslichtquellen derart ein, dass diese im Wechsel, insbesondere im zyklischen Wechsel, gepulst betrieben werden. Weiterhin ist eine mit der Sensorsteuereinheit und der Beleuchtungssteuereinheit verbundene Synchronisationseinheit zum Synchronisieren des gepulsten Betriebs der Beleuchtungslichtquellen mit dem Belichten und Auslesen des Bildsensors gemäß der weiter oben beschriebenen Ausführungsvarianten des erfindungsgemäßen Verfahrens vorhanden. In der Beleuchtungseinrichtung können dabei wenigstens drei Beleuchtungslichtquellen vorhanden sein, von denen jede eine Wellenlängenverteilung mit einem Maximum bei einer Grundfarbe eines RGB-Farbraums oder CMY-Farbraums aufweist. Zusätzlich kann optional wenigstens eine Beleuchtungslichtquelle vorhanden sein, deren Wellenlängenverteilung wenigstens ein Maximum außerhalb des Bereiches von 430 bis 750 nm, insbesondere außerhalb des Bereiches von 400 nm bis 800 nm aufweist. Eine derartige Beleuchtungslichtquelle kann beispielweise für Fluoreszenzmessungen, Laser-Doppler-Imaging, Funktionsmessungen an funktionstragenden Gehirnarealen, etc. herangezogen werden.In addition, the optical observation device comprises a lighting device with pulsed light sources that can be pulsed in different wavelength distributions. In addition, it has an illumination optics for supplying the light of the illumination light sources to the observation object and a lighting control unit. The illumination control unit acts on the illumination light sources in such a way that they are operated pulsed alternately, in particular in cyclical change. Furthermore, a synchronization unit connected to the sensor control unit and the lighting control unit for synchronizing the pulsed operation of the illumination light sources with the exposure and readout of the image sensor according to the embodiment variants of the inventive method described above is provided. At least three illumination light sources can be present in the illumination device, each of which has a wavelength distribution with a maximum for a base color of an RGB color space or CMY color space. In addition, optionally at least one illumination light source may be present whose wavelength distribution has at least a maximum outside the range from 430 to 750 nm, in particular outside the range from 400 nm to 800 nm. Such an illumination light source can be used, for example, for fluorescence measurements, laser Doppler imaging, functional measurements on functional brain areas, etc.

Wenn eine Beleuchtungslichtquelle mit einer Wellenlängenverteilung, die ein Maximum außerhalb des Bereiches von 430–750 nm, insbesondere außerhalb des Bereiches von 400–800 nm aufweist, vorhanden ist, kann das optische Beobachtungsgerät außerdem eine Darstellungseinheit umfassen, die aus denjenigen Belichtungen des Bildsensors, die bei Beleuchtung des Beobachtungsobjekts mit einer Beleuchtungslichtquelle mit einem Maximum bei einer Grundfarbe eines RGB-Farbraums erfolgen, ein Farbbild synthetisiert und aus derjenigen Belichtung des Bildsensors, die bei Beleuchtung des Beobachtungsobjekts mit der Beleuchtungslichtquelle, in deren Wellenlängenverteilung wenigstens ein Maximum außerhalb des Bereichs von 430 bis 750 nm, insbesondere außerhalb des Bereiches von 400 bis 800 nm, vorhanden ist, erfolgt, ein von dem Farbbild unabhängiges Bild generiert.If an illumination light source having a wavelength distribution having a maximum outside the range of 430-750 nm, especially outside the range of 400-800 nm, is present, the optical observation apparatus may further comprise a display unit composed of those exposures of the image sensor, the when illuminating the observation object with an illumination light source having a maximum in a basic color of an RGB color space, a color image synthesized and from that exposure of the image sensor, which in the illumination of the observation object with the illumination light source, in the wavelength distribution at least a maximum outside the range of 430 to 750 nm, in particular outside the range of 400 to 800 nm, is present, an independent of the color image generated image.

Das von der Darstellungseinheit des optischen Beobachtungsgerätes genierte vom Farbbild unabhängige Bild kann in einer Überlagerungseinheit dem Farbbild überlagert werden. Hierbei kann beispielsweise eine Überlagerung in Form von Falschfarben, von Konturen, von Helligkeitsänderungen, etc. erfolgen. Insbesondere kann die wenigstens eine weitere Beleuchtungslichtquelle in deren Wellenlängenverteilung wenigstens ein Maximum außerhalb des Bereichs von 430–750 nm, insbesondere außerhalb des Bereiches von 400 bis 800 nm, liegt, ein Wellenlängenmaximum besitzen, das eine Fluoreszenz im Beobachtungsobjekt anregt. Im Beobachtungsstrahlengang des optischen Beobachtungsgeräts kann dann ein Filter vorhanden oder einbringbar sein, der die Wellenlängen dieses Wellenlängenmaximums blockiert. Dieser kann insbesondere auch nur für die Aufnahme des von dem Farbbild unabhängigen Bildes in den Strahlengang eingebracht, beispielsweise eingeschwenkt, werden.The image, which is independent of the color image and is formed by the visual display unit, can be superimposed on the color image in an overlay unit. In this case, for example, an overlay in the form of false colors, contours, changes in brightness, etc. take place. In particular, the at least one further illumination light source in whose wavelength distribution is at least a maximum outside the range of 430-750 nm, in particular outside the range of 400 to 800 nm, have a maximum wavelength that excites fluorescence in the observed object. In the observation beam path of the optical observation device may then be present or einbringbar a filter which blocks the wavelengths of this wavelength maximum. This can also be introduced into the beam path, for example, pivoted, only for the purpose of recording the image independent of the color image.

Wenn das erfindungsgemäße optische Beobachtungsgerät eine Beleuchtungseinrichtung mit in unterschiedlichen Wellenlängenverteilungen emittierenden Beleuchtungslichtquellen aufweist, kann die Beleuchtungsoptik eine Zusammenführeinrichtung zum Zusammenführen der Beleuchtungsstrahlengänge der einzelnen Beleuchtungslichtquellen aufweisen. Dadurch kann die Anzahl der optischen Komponenten gering gehalten werden, da keine optischen Komponenten für unterschiedliche Beleuchtungsstrahlengänge mehrfach vorhanden sein müssen, sodass ein kompaktes Design möglich wird. Zudem kann durch ein Zusammenführen der Beleuchtungsstrahlengänge vermieden werden, dass das Beleuchtungslicht der unterschiedlichen Beleuchtungslichtquellen dem Beobachtungsobjekt unter unterschiedlichen Beleuchtungswinkeln zugeführt wird. Beides ist beispielsweise bei Operationsmikroskopen von Bedeutung.If the optical observation device according to the invention has an illumination device with illumination light sources emitting in different wavelength distributions, the illumination optics can have an association device for merging the illumination beam paths of the individual illumination light sources. As a result, the number of optical components can be kept low, since no optical components for different illumination beam paths must be present multiple times, so that a compact design is possible. In addition, by combining the illumination beam paths, it can be avoided that the illumination light of the different illumination light sources is supplied to the observation object at different illumination angles. Both are important, for example, in surgical microscopes.

Das erfindungsgemäße optische Beobachtungsgerät kann insbesondere eine Beobachtungsoptik umfassen, die das Aufnehmen von Perspektivbildern aus wenigstens zwei unterschiedlichen Sichtwinkeln erlaubt. Insbesondere kann die Beobachtungsoptik als stereoskopische Beobachtungsoptik ausgebildet sein. In einer Weiterbildung dieser das Aufnehmen von Perspektivbildern erlaubenden Beobachtungsoptik kann diese derart ausgebildet sein, dass die Strahlenbündel der Perspektivbilder, also der Stereokanäle im Falle einer stereoskopischen Beobachtungsoptik, zeitsequentiell auf denselben Bildsensor abgebildet werden. Derartige Beobachtungsoptiken sind beispielsweise in oder deutschen Patentanmeldung DE 10 2011 010 262 beschrieben, auf die hinsichtlich möglicher Ausgestaltungen der Beobachtungsoptik, derart, dass ein zeitsequentielles Abbilden der Stereokanäle auf einen einzigen Bildsensor erfolgen kann, verwiesen wird.The optical observation device according to the invention may, in particular, comprise observation optics which allow the taking of perspective images from at least two different viewing angles. In particular, the observation optics can be designed as stereoscopic observation optics. In a further development of this observation optics permitting the taking of perspective images, the latter can be embodied such that the ray bundles of the perspective images, ie the stereo channels in the case of stereoscopic observation optics, are time-sequentially imaged onto the same image sensor. Such observation optics are for example in or German patent application DE 10 2011 010 262 described in terms of possible Embodiments of the observation optics, such that a time-sequential mapping of the stereo channels can be made on a single image sensor is referenced.

Weitere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbespielen unter Bezugnahme auf die beiliegenden Figuren.Further features, properties and advantages of the present invention will become apparent from the following description of exemplary embodiments with reference to the accompanying figures.

1 zeigt ein erstes Ausführungsbeispiel für ein erfindungsgemäßes optisches Beobachtungssystem in einer stark schematisierten Darstellung. 1 shows a first embodiment of an inventive optical observation system in a highly schematic representation.

2 zeigt die belichtete Sensorfläche eines Bildsensors mit einer die interessierende Bildregion eines Bildes repräsentierenden Teilfläche des Sensors. 2 shows the exposed sensor surface of an image sensor with a partial area of the sensor representing the region of interest of an image.

3 zeigt ein Zeitschema für eine zeitsequentielle Farbbildaufnahme mit einem monochromen Bildsensor und einer zeitsequentiellen Beleuchtung in den Grundfarben eines RGB-Farbraums. 3 shows a timing diagram for a time-sequential color image recording with a monochrome image sensor and a time-sequential illumination in the primary colors of an RGB color space.

4 zeigt ein Zeitschema für eine zeitsequentielle Bildaufnahme mit einem monochromen Bildsensor und einer zeitsequentiellen Beleuchtung mit weißem Licht sowie den Grundfarben eines RGB-Farbraums. 4 shows a timing diagram for a time-sequential image acquisition with a monochrome image sensor and a time-sequential illumination with white light and the basic colors of an RGB color space.

5 zeigt ein zweites Ausführungsbeispiel für das erfindungsgemäße optische Beobachtungsgerät. 5 shows a second embodiment of the optical observation device according to the invention.

6 zeigt ein Zeitschema für eine zeitsequentielle Bildaufnahme mit einem monochromen Bildsensor und einer zeitsequentiellen Beleuchtung mit einer Fluoreszenz generierenden Strahlungsquelle und den Grundfarben eines RGB-Farbraums. 6 shows a timing diagram for a time-sequential image acquisition with a monochrome image sensor and a time-sequential illumination with a fluorescence-generating radiation source and the basic colors of an RGB color space.

7 zeigt ein Zeitschema für eine zeitsequentielle Bildaufnahme mit einem monochromen Bildsensor und einer zeitsequentiellen Beleuchtung mit weißem Licht, Fluoreszenz anregender Strahlung und den Grundfarben eines RGB-Farbraums. 7 shows a timing diagram for a time-sequential image acquisition with a monochrome image sensor and a time-sequential illumination with white light, fluorescence exciting radiation and the basic colors of an RGB color space.

8 zeigt eine Anpassung des Zeitschemas aus 3 an ein stereoskopisches optisches Beobachtungsgerät. 8th shows an adaptation of the time scheme 3 to a stereoscopic optical observation device.

9 zeigt eine Variante des Ausleseschemas aus 8, mit dem sich die Auslesezeit für ein Vollbild verkürzen lässt. 9 shows a variant of the readout scheme 8th , which can shorten the read-out time for a full screen.

10 zeigt eine alternative Variante der Anpassung des Zeitschemas aus 3 an ein stereoskopisches optisches Beobachtungsgerät. 10 shows an alternative variant of the adaptation of the timing scheme 3 to a stereoscopic optical observation device.

11 zeigt eine Anpassung des Zeitschemas aus 4 an ein stereoskopisches optisches Beobachtungsgerät. 11 shows an adaptation of the time scheme 4 to a stereoscopic optical observation device.

12 zeigt eine Anpassung des Zeitschemas aus 6 an ein stereoskopisches optisches Beobachtungsgerät. 12 shows an adaptation of the time scheme 6 to a stereoscopic optical observation device.

13 zeigt eine alternative Variante der Anpassung des Zeitschemas aus 6 an ein stereoskopisches optisches Beobachtungsgerät. 13 shows an alternative variant of the adaptation of the timing scheme 6 to a stereoscopic optical observation device.

14 zeigt eine Anpassung des Zeitschemas aus 7 an ein stereoskopisches optisches Beobachtungsgerät. 14 shows an adaptation of the time scheme 7 to a stereoscopic optical observation device.

Ein Ausführungsbeispiel für ein erfindungsgemäßes optisches Beobachtungsgerät ist stark schematisiert in 1 dargestellt. Das dargestellte optische Beobachtungsgerät umfasst eine Beobachtungsoptik 1, eine Kamera 3 mit einem monochromen elektronischen Bildsensor 5, eine Darstellungseinheit 7 (Recheneinheit), die aus den mit dem Bildsensor 5 aufgenommenen Daten Bilder generiert, die dann auf einer Anzeigeeinheit 9, beispielsweise einem Monitor, einer Datenbrille, einem elektronischen Okular, etc. dargestellt werden.An exemplary embodiment of an optical observation device according to the invention is highly schematized in FIG 1 shown. The illustrated optical observation device comprises an observation optics 1 , a camera 3 with a monochrome electronic image sensor 5 , a presentation unit 7 (Arithmetic unit), which comes from the with the image sensor 5 Recorded data images are then generated on a display unit 9 , For example, a monitor, a data glasses, an electronic eyepiece, etc. are shown.

Weiterhin umfasst das optische Beobachtungsgerät wenigstens eine Lichtquelle L1 bis LN, wobei im vorliegenden Ausführungsbeispiel wenigstens drei Lichtquellen vorhanden sind, die Wellenlängenverteilungen aufweisen, welche unterschiedlichen Grundfarben eines RGB-Farbraums entsprechen. Die Anzahl der Lichtquellen und deren Wellenlängenverteilungen können von dem geplanten Einsatzgebiet des Beobachtungsgeräts abhängen. Falls wenigstens zwei Lichtquellen vorhanden sind, umfasst das optische Beobachtungsgerät zudem vorteilhafterweise eine Zusammenführeinrichtung 11, in der die Beleuchtungsstrahlengänge der einzelnen Lichtquellen L1–LN in eine allen Lichtquellen gemeinsame Beleuchtungsoptik 13 eingeführt werden.Furthermore, the optical observation device comprises at least one light source L1 to LN, wherein in the present embodiment, at least three light sources are present, the wavelength distributions, which correspond to different basic colors of an RGB color space. The number of light sources and their wavelength distributions may depend on the intended field of use of the observation device. In addition, if at least two light sources are present, the optical observation device advantageously comprises an assembly device 11 in which the illuminating beam paths of the individual light sources L1-LN are in a lighting optics common to all the light sources 13 be introduced.

Das optische Beobachtungsgerät wird von einer Steuereinheit 15 gesteuert, die zumindest mit der Kamera 3 verbunden ist. Falls mehrere Lichtquellen L1 bis IN vorhanden sind, die gepulst betrieben werden, ist die Steuereinheit 15 zudem mit den Lichtquellen verbunden. Mit Hilfe der Steuereinheit 15 erfolgt dann eine Synchronisation zwischen der Beleuchtung einerseits und dem Belichten und Auslesen des Bildsensors 5 andererseits. Wenn die Beobachtungsoptik als Varioskop ausgebildet ist, mit dem sich die Fokuslage des optischen Beobachtungsgeräts im Beobachtungsobjekt 17 variieren lässt, kann auch eine Steuerleitung zur Beobachtungsoptik, insbesondere zum Varioobjektiv vorhanden sein, um die Fokuslage mit dem Belichten und dem Auslesen des Bildsensors 5 zu synchronisieren. Schließlich kann die Steuereinheit 15 auch mit der Darstellungseinheit 7 verbunden sein, um die Bilddarstellung zu steuern.The optical observation device is controlled by a control unit 15 controlled, at least with the camera 3 connected is. If there are multiple light sources L1 to IN that are pulsed, the control unit is 15 also connected to the light sources. With the help of the control unit 15 Then there is a synchronization between the lighting on the one hand and the exposure and reading of the image sensor 5 on the other hand. If the observation optics is designed as a varioscope with which the focus position of the optical observation device in the observation object 17 can vary, can also be a control line to the observation optics, in particular to the zoom lens to the focus position with the exposure and the reading of the image sensor 5 to synchronize. Finally, can the control unit 15 also with the presentation unit 7 be connected to control the image representation.

Das Prinzip, das der Aufnahme von Bildern mit Hilfe des in 1 dargestellten optischen Beobachtungsgeräts zugrunde liegt, wird nachfolgend unter Bezugnahme auf 2 erläutert. 2 zeigt eine Draufsicht auf den elektronischen Bildsensor 5, in der die Sensorfläche 19, die für ein Vollbild belichtet wird, zu erkennen ist. Außerdem ist eine Teilfläche 21 des Bildsensors eingezeichnet, in der eine interessierende Bildregion (region of interest, ROI) im Folgenden ROI genannt, auf die Sensorfläche 19 abgebildet wird.The principle of taking pictures with the help of in 1 is based on the optical observation apparatus shown below, with reference to 2 explained. 2 shows a plan view of the electronic image sensor 5 in which the sensor surface 19 , which is exposed for a full screen, can be seen. In addition, a partial area 21 of the image sensor, in which a region of interest (ROI) of interest in the following called ROI, on the sensor surface 19 is shown.

Beim Aufnehmen von Bildern mit dem optischen Beobachtungsgerät wird der Bildsensor 5 wiederholt belichtet und ausgelesen, wobei das Auslesen des mit der aktuellen Belichtung belichteten Sensors während der nachfolgenden Belichtung erfolgt. Dabei steuert die Steuereinheit 15 das Belichten und Auslesen des elektronischen Bildsensors 15 derart, dass auf ein Auslesen der gesamten Sensorfläche 19 wenigstens einmal ein Auslesen nur der die ROI repräsentierenden Sensorfläche 21 erfolgt, bevor erneut die gesamte Sensorfläche ausgelesen wird. Da die Sensorfläche 21, welche die ROI repräsentiert, erheblich kleiner als die gesamte Sensorfläche 19 ist, kann sie mit einer erheblich höheren Geschwindigkeit ausgelesen werden. Dadurch lässt sich durch Auslesen nur der die ROI repräsentierende Sensorfläche 21 eine höhere Bildrate erreichen, als wenn jedes Mal die gesamte Sensorfläche 19 ausgelesen wird. Zwar verringert sich dadurch etwas die Bildrate außerhalb der ROI; dies ist jedoch in der Regel nicht störend, da sich die wesentlichen Bildinformationen in der ROI befinden.When taking pictures with the optical observation device, the image sensor becomes 5 repeatedly exposed and read out, wherein the reading of the exposed with the current exposure sensor during the subsequent exposure takes place. The control unit controls 15 the exposure and reading of the electronic image sensor 15 such that on a readout of the entire sensor surface 19 at least once reading out only the sensor area representing the ROI 21 takes place before the entire sensor surface is read again. Because the sensor surface 21 , which represents the ROI, significantly smaller than the entire sensor surface 19 is, it can be read at a much higher speed. This makes it possible by reading only the sensor surface representing the ROI 21 reach a higher frame rate than if every time the entire sensor surface 19 is read out. Although this somewhat reduces the frame rate outside of the ROI; however, this is not usually annoying because the essential image information is in the ROI.

Das Aufnehmen von Farbbildern erfolgt dabei, indem das Beobachtungsobjekt 17 zeitsequentiell mit den Grundfarben eines RGB-Farbraums beleuchtet und der Sensor 5 bei jeder Beleuchtung des Beobachtungsobjektes belichtet und ausgelesen wird. Hierzu umfasst das optische Beobachtungsgerät aus 1 wenigstens drei Lichtquellen L1 bis L3, die beispielsweise rotes (L1), grünes (L2) und blaues (L3) Licht emittieren. Entsprechend werden mit dem monochromen Bildsensor rote, grüne und blaue Bilder aufgenommen, die an die Darstellungseinheit 7 (Recheneinheit) weitergegeben und dort zu einem synthetischen Farbbild kombiniert werden, das dann auf der Anzeigeeinheit 9 dargestellt wird.The taking of color images is done by the observation object 17 time sequentially illuminated with the primary colors of an RGB color space and the sensor 5 is illuminated and read at each illumination of the observation object. For this purpose, the optical observation device comprises 1 at least three light sources L1 to L3 emitting, for example, red (L1), green (L2) and blue (L3) light. Correspondingly, the monochrome image sensor records red, green and blue images which are sent to the presentation unit 7 (Arithmetic unit) passed and combined there to form a synthetic color image, which then on the display unit 9 is pictured.

Eine typische Consumer-Kamera verfügt über eine Bildwiederholrate von 60 Hz, das heißt das für das Auslesen eines Bildes rund 16,67 Millisekunden notwendig sind. Wenn mit einer derartigen Consumer-Kamera nach dem oben beschriebenen Verfahren Farbbilder synthetisiert werden sollen, können diese lediglich mit einer Bildwiederholrate von 20 Hz dargestellt werden, da für ein Farbbild jeweils drei monochrome Bilder in Rot, Grün und Blau aufgenommen werden müssen. Verzichtet man jedoch darauf, immer die gesamte Sensorfläche 19 auszulesen, sondern konzentriert sich auf die ROI 21, die in der Regel nur einen Bruchteil der gesamten Sensorfläche 19 ausmacht, so ist die zum Auslesen der der ROI entsprechenden Sensorfläche 21 benötigte Zeit in dem Verhältnis vermindert, in der die Teilfläche 21 zur gesamten Sensorfläche 19 steht. Wenn, wie in 2 schematisch dargestellt, die der ROI entsprechende Sensorfläche 21 in beiden Bilddimensionen eine Ausdehnung aufweist, die einem Drittel der gesamten belichteten Sensorfläche 19 entspricht, so enthält diese Teilfläche ein Neuntel der Pixel der Sensorfläche 19. Entsprechend lässt sich diese Teilfläche 21 in einem Neuntel der Zeit, die zum Auslesen der gesamten Sensorfläche 19 nötig wäre, auslesen. In dem Beispiel mit der Consumer-Kamera, die eine Bildwiederholrate von 60 Hz aufweist, beträgt die Auslesedauer der gesamten Sensorfläche 19 ca. 16,67 Millisekunden. Die beschriebene Teilfläche 21 kann dagegen in ca. 1,85 Millisekunden ausgelesen werden.A typical consumer camera has a refresh rate of 60 Hz, which means that it takes around 16.67 milliseconds to read an image. If color images are to be synthesized with such a consumer camera according to the method described above, they can only be displayed with a refresh rate of 20 Hz, since three monochrome images in red, green and blue must be recorded for each color image. However, if you omit it, always the entire sensor surface 19 but focuses on the ROI 21 , which is usually only a fraction of the total sensor area 19 is the reading of the ROI corresponding sensor surface 21 required time is reduced in the ratio in which the partial area 21 to the entire sensor surface 19 stands. If, as in 2 schematically illustrated, the ROI corresponding sensor surface 21 in both image dimensions has an extent that is one third of the total exposed sensor area 19 corresponds, this sub-area contains one-ninth of the pixels of the sensor surface 19 , Accordingly, this partial area can be 21 in a ninth of the time, to read the entire sensor surface 19 would be necessary to read. In the example with the consumer camera, which has a refresh rate of 60 Hz, the readout duration is the entire sensor area 19 about 16.67 milliseconds. The described subarea 21 can be read in about 1.85 milliseconds.

3 zeigt ein Beispiel für ein Zeitschema, wie Farbbilder nach dem beschriebenen Prinzip aufgenommen werden können. Die Bildaufnahme kann dabei gedanklich in Belichtungs- und Auslesezyklen unterteilt werden. In 3 sind drei solcher Belichtungs- und Auslesezyklen dargestellt. Zudem erfolgt die Beleuchtung des Beobachtungsobjekts in Beleuchtungszyklen, wobei in jedem Beleuchtungszyklus das Licht einmal mit dem Licht der Lichtquelle L1 (rot), dem Licht der Lichtquelle L2 (grün) und dem Licht der Lichtquelle L3 (blau), beleuchtet wird. 3 shows an example of a timing scheme how color images can be taken according to the described principle. The image acquisition can be thoughtfully divided into exposure and readout cycles. In 3 Three such exposure and readout cycles are shown. In addition, the illumination of the observation object takes place in lighting cycles, wherein in each lighting cycle the light is illuminated once with the light of the light source L1 (red), the light of the light source L2 (green) and the light of the light source L3 (blue).

In dem in 3 dargestellten Ausführungsbeispiel umfasst ein Belichtungs- und Auslesezyklus jeweils vier Beleuchtungszyklen. Ein Belichtungs- und Auslesezyklus beginnt mit der ersten Beleuchtung eines Beleuchtungszyklus, also im dargestellten Beispiel mit dem Beleuchten des Beobachtungsobjekts 17 mit dem roten Licht der Lichtquelle L1. Während dieser Beleuchtung erfolgt eine Belichtung des Bildsensors 5. Anschließend folgt ein Beleuchten des Beobachtungsobjekts mit dem Licht der Lichtquelle L2, also im vorliegenden Ausführungsbeispiel mit grünem Licht. Gleichzeitig erfolgt eine Belichtung des Bildsensors 5. Außerdem erfolgt ein Auslesen des bei der vorangegangenen Belichtung aufgenommenen Bildes (das Auslesen des n-ten Bildes findet bei einer Kamera mit Global Shutter während der Belichtung für das nachfolgende Bild n + 1 statt). Beim Auslesen des während der Beleuchtung mit L1 aufgenommenen Bildes wird die gesamte Sensorfläche 19, also ein Vollbild, ausgelesen.In the in 3 illustrated embodiment, an exposure and Auslesezyklus each four lighting cycles. An exposure and readout cycle begins with the first illumination of a lighting cycle, that is, in the illustrated example, with the illumination of the observation object 17 with the red light of the light source L1. During this illumination, the image sensor is exposed 5 , This is followed by a lighting of the observation object with the light of the light source L2, that is, in the present embodiment with green light. At the same time, the image sensor is exposed 5 , In addition, the image taken during the previous exposure is read out (the reading of the nth image takes place in the case of a camera with global shutter during the exposure for the subsequent image n + 1). When reading out the image recorded during the illumination with L1, the entire sensor surface becomes 19 , so a full screen, read.

Nach der Beleuchtung des Beobachtungsobjekts 17 mit dem Licht der Lichtquelle L2 und dem entsprechenden Belichten des Bildsensors 5 erfolgt ein Beleuchten des Beobachtungsobjekts 17 mit dem Licht der Lichtquelle L3, also im vorliegenden Ausführungsbeispiel mit blauem Licht, und ein erneutes Belichten des Bildsensors 5. Gleichzeitig wird das mit der grünen Beleuchtung der Lichtquelle L2 aufgenommene Bild ausgelesen. Bei diesem Auslesen erfolgt jedoch lediglich ein Auslesen der Teilfläche 21, auf die die ROI abgebildet wird, sodass lediglich ein ROI-Bild ausgelesen wird. Nach dem Beleuchten des Beobachtungsobjekts 17 und dem Belichten des Bildsensors 5 mit dem Licht der Lichtquelle L3 ist der erste Beleuchtungszyklus beendet.After the illumination of the observation object 17 with the light from the light source L2 and the corresponding exposures of the image sensor 5 a lighting of the observation object takes place 17 with the light of the light source L3, so in the present embodiment with blue light, and re-exposing the image sensor 5 , At the same time, the image taken with the green illumination of the light source L2 is read out. In this reading, however, only a readout of the partial area 21 on which the ROI is mapped so that only one ROI image is read. After lighting the observation object 17 and exposing the image sensor 5 with the light of the light source L3, the first lighting cycle is completed.

Im Rahmen des zweiten Beleuchtungszyklus erfolgt dann ein erneutes Beleuchten mit dem Licht der Lichtquelle L1, wobei ein Belichten des Bildsensors 5 und ein Auslesen des mit dem Licht der Lichtquelle L3 gewonnenen Bildes erfolgt. Auch hierbei wird lediglich die Teilfläche 21 des Bildsensors 5 ausgelesen, sodass wiederum ein ROI-Bild entsteht. Beim erneuten Beleuchten des Beobachtungsobjektes 17 mit dem Licht der Lichtquelle L2 und dem Belichten Bildsensors 5 wird nunmehr das Bild, das mit der Lichtquelle L1 gewonnen worden ist, ausgelesen, wobei wiederum lediglich die Teilfläche 21, also ein ROI-Bild ausgelesen wird. Nachdem dieses ROI-Bild ausgelesen ist, liegen ROI-Bilder in grün, blau und rot vor, sodass ein farbiges ROI-Bild synthetisiert werden kann. Als Nächstes wird das Beobachtungsobjekt 17 erneut mit dem Licht der Lichtquelle L3 beleuchtet, wobei wiederum eine Belichtung des Bildsensors 5 stattfindet. Gleichzeitig wird das während der vorangegangenen Beleuchtung mit dem grünen Licht aufgenommene Bild aus der gesamten Sensorfläche 19 ausgelesen, sodass ein grünes Vollbild gewonnen wird. Danach ist der zweite Beleuchtungszyklus abgeschlossen.In the context of the second illumination cycle, a re-illumination with the light of the light source L1 takes place, wherein an exposure of the image sensor 5 and a reading of the image obtained with the light of the light source L3 takes place. Again, only the partial area 21 of the image sensor 5 read out, so that in turn a ROI image is created. When re-illuminating the observation object 17 with the light from the light source L2 and the exposure image sensor 5 Now, the image, which has been obtained with the light source L1, read out, in turn, only the partial area 21 , So a ROI image is read out. After this ROI image is extracted, ROI images are in green, blue, and red, so that a color ROI image can be synthesized. Next is the observation object 17 again illuminated with the light of the light source L3, in turn, an exposure of the image sensor 5 takes place. At the same time, the image taken with the green light during the previous illumination becomes the entire sensor area 19 read out, so that a green full screen is obtained. Thereafter, the second lighting cycle is completed.

Im dritten Beleuchtungszyklus erfolgt wiederum nacheinander ein Beleuchten des Beobachtungsobjekts 17 und ein entsprechendes Belichten des Bildsensors 5 mit rotem, grünem und blauem Licht der Lichtquellen L1, L2 und L3, wobei ein rotes ROI-Bild, ein grünes ROI-Bild und ein blaues Vollbild gewonnen werden. Nachdem das blaue Vollbild aufgenommen ist, kann ein farbiges Vollbild synchronisiert werden.In the third illumination cycle, in turn, a lighting of the observation object takes place in succession 17 and a corresponding exposure of the image sensor 5 with red, green and blue light of the light sources L1, L2 and L3, obtaining a red ROI image, a green ROI image and a blue frame. After the blue frame is recorded, a full color picture can be synchronized.

Im vierten und letzten Beleuchtungszyklus des Belichtungs- und Auslesezyklus werden nur ROI-Bilder in allen Farben aufgenommen. Danach ist der erste Belichtungs- und Auslesezyklus beendet, und der nachfolgende Belichtungs- und Auslesezyklus kann beginnen. Dieser nachfolgende Zyklus entspricht dem ersten Zyklus. In jedem Belichtungs- und Auslesezyklus werden so ein farbiges Vollbild und zusätzlich drei farbige ROI-Bilder aufgenommen.In the fourth and final exposure cycle of the exposure and readout cycle, only ROI images are captured in all colors. Thereafter, the first exposure and readout cycle is completed, and the subsequent exposure and readout cycle may begin. This subsequent cycle corresponds to the first cycle. In each exposure and read-out cycle, a full color image and additionally three color ROI images are recorded.

Die Tabelle in 3 enthält nicht nur die Information über den jeweiligen Belichtungs- und Auslesezyklus (1. Spalte), und die Beleuchtungszyklen (2. Spalte), sondern auch darüber, ob ein Vollbild oder ein ROI-Bild aufgenommen wird (3. Spalte). Daneben enthält die Tabelle am Beispiel der Consumer-Kamera mit 60 Hz Bildwiederholrate Angaben über den Beginn und das Ende der jeweiligen Belichtung (4. und 5. Spalte), gemessen vom Beginn des ersten Beleuchtungszyklus an. Darüber hinaus beschreibt sie die Zeitdauer, bis ein farbiges Vollbild ausgelesen ist und synthetisiert werden kann (6. Spalte), die Zeitdauer zwischen der Aufnahme eines einfarbigen Vollbildes (7.–9. Spalte), und der Darstellung des Farb-Vollbildes, die Zeitdauer, bis ein farbiges ROI-Bild ausgelesen ist und synthetisiert werden kann (10. Spalte) sowie für ROI-Bilder die Zeitdauer zwischen der Aufnahme eines einfarbigen ROI-Bildes und der Darstellung des entsprechenden Farbbildes (11.–13. Spalte). In der Tabelle ist zu beachten, dass alle Zahlen auf die erste Nachkommastelle gerundet sind.The table in 3 contains not only the information about the respective exposure and readout cycle (1st column), and the lighting cycles (2nd column), but also whether a full image or a ROI image is taken (3rd column). In addition, the table contains the example of the consumer camera with 60 Hz refresh rate information about the beginning and end of the respective exposure (4th and 5th column), measured from the beginning of the first lighting cycle on. In addition, it describes the length of time until a full color image is read out and can be synthesized (6th column), the time between recording a monochrome frame (7th-9th column), and the color frame representation, the time duration until a color ROI image is read out and can be synthesized (10th column) and, for ROI images, the time between taking a monochrome ROI image and displaying the corresponding color image (11th-13th column). Note in the table that all numbers are rounded to the first decimal place.

Wie sich aus 3 ableiten lässt, beträgt die typische Zeitdauer zwischen zwei ausgegebenen farbigen Vollbildern etwa 66,7 Millisekunden (Spalte 6), was einer Bildwiederholrate von 15 Hz entspricht. Die Bildwiederholrate für Vollbilder entspricht daher lediglich drei Viertel der Bildwiederholrate, die mit der 60 Hz-Consumer-Kamera erreichbar ist, wenn nur Vollbilder ausgelesen werden (bei 60 Hz Bildwiederholrate beträgt die Bildwiederholrate für farbige Vollbilder und zeitsequentielle Farbaufnahmen 20 Hz). Die mittlere Zeitdauer zwischen zwei farbigen ROI-Bildern beträgt dagegen lediglich 16,7 Millisekunden (vgl. Spalte 10), was einer Bildwiederholrate für die farbigen ROI-Bilder von 60 Hz entspricht. Die interessierende Region des Bildes wird daher mit einer Bildwiederholrate von 60 Hz dargestellt, was dem Dreifachen von dem entspricht, was beim ausschließlichen Auslesen von Vollbildern mit der Consumer-Kamera erreichbar ist.As it turned out 3 The typical length of time between two output color frames is about 66.7 milliseconds (column 6), which corresponds to an image refresh rate of 15 Hz. The frame rate for frames therefore only equates to three quarters of the frame rate achievable with the 60 Hz consumer camera when reading only frames (at 60 Hz frame rate, the frame rate for color frames and time-sequential color shots is 20 Hz). In contrast, the average time between two color ROI images is only 16.7 milliseconds (see column 10), which corresponds to a refresh rate for the colored ROI images of 60 Hz. The region of interest of the image is therefore represented at a refresh rate of 60 Hz, which is three times that achievable with the exclusive reading of frames with the consumer camera.

Es soll noch einmal angemerkt werden, dass, wie zuvor erwähnt, bei einer Kamera mit Global Shutter das Auslesen eines Bildes während der Belichtung des nächsten Bildes stattfindet. Die Auslesezeit, die zum Auslesen des n-ten Bildes benötigt wird, bestimmt deshalb die minimale Zeit, die für das Belichten des Bildes n + 1 zur Verfügung steht. In dem in 3 gezeigten Zeitschema ist in den Spalten 4 und 5 jeweils der Beginn und das Ende der Belichtung angegeben. Wie aus diesen Spalten entnommen werden kann, steht jeweils dann, wenn ein Vollbild, also die gesamte Sensorfläche 19, ausgelesen wird, die maximale Zeitdauer zur Verfügung. Wenn dagegen lediglich die Teilfläche 21 ausgelesen wird, steht nur ein Bruchteil dieser maximalen Zeitdauer zur Belichtung zur Verfügung. Um eine ausgewogene Aussteuerung des Bildsensors 5 zu ermöglichen, kann entweder die maximale Beleuchtungszeit oder die maximale Belichtungszeit auf die kürzere Zeitdauer des Auslesens eines ROI-Bildes beschränkt werden. Alternativ kann die längere Beleuchtungs- bzw. Belichtungsdauer beibehalten werden und die Beleuchtungsintensität entsprechend herabgeregelt werden. Auch eine Kombination aus beidem, also aus dem Herabsetzen der Beleuchtungsintensität und dem Herabsetzen der Beleuchtungs- und Belichtungsdauer ist möglich.It should be noted once again that, as previously mentioned, in a camera with global shutter reading of an image takes place during the exposure of the next image. The readout time required to read out the nth image therefore determines the minimum time available for exposing the image n + 1. In the in 3 The timing shown in columns 4 and 5, respectively, the beginning and the end of the exposure is indicated. As can be seen from these columns, is in each case when a full screen, so the entire sensor surface 19 , is read out, the maximum time available. If only the partial area 21 is read, only a fraction of this maximum time is available for exposure. For a balanced modulation of the image sensor 5 to allow either the maximum Lighting time or the maximum exposure time to the shorter period of reading a ROI image are limited. Alternatively, the longer illumination or exposure time can be maintained and the illumination intensity can be regulated down accordingly. A combination of both, ie from the reduction of the illumination intensity and the reduction of the illumination and exposure time is possible.

Mit dem beschriebenen Verfahren lässt sich mit einer preisgünstigen Kamera, die nur eine beschränkte Bildwiederholrate ermöglicht, im Bereich der ROI eine flackerfreie, farbsequentielle Bildaufnahme realisieren. Dabei macht man sich zunutze, dass ein Beobachter in der Regel lediglich im ROI die volle Bildqualität benötigt. Die Herabsetzung der Bildwiederholrate im Bereich außerhalb der ROI kann dabei hingenommen werden.With the described method can be realized with a low-priced camera, which allows only a limited refresh rate, in the area of the ROI flicker-free, color sequential image acquisition. It makes use of the fact that an observer usually only needs the full picture quality in the ROI. Reducing the refresh rate outside the ROI can be tolerated.

Im allgemeinen Fall, dass für die Aufnahme eines farbigen Vollbildes nfarb einfarbige Vollbilder aufgenommen werden und zwischen zwei einfarbigen Vollbildern nROI einfarbige ROI-Bilder aufgenommen werden, verringert sich die Bildwiederholrate für die farbigen Vollbilder gegenüber einem Aufnehmen ausschließlich von Vollbildern um nfarb/(nfarb + y·nROI), wobei y das Flächenverhältnis eines ROI-Bildes zu einem Vollbild darstellt. Die Bildwiederholrate der farbigen ROI-Bilder erhöht sich dagegen deutlich um den Faktor (nfarb + nROI)/(nfarb + y·nROI).In the general case that n color monochrome frames are taken for the capture of a full color image and monochrome ROI images are taken between two monochrome frames n ROI , the refresh rate for the colored frames decreases compared to capturing frames only by n color / ( n color + y * n ROI ), where y represents the area ratio of an ROI image to a frame. In contrast, the refresh rate of the colored ROI images increases significantly by the factor (n color + n ROI ) / (n color + y · n ROI ).

Falls es nicht erforderlich ist, außerhalb der ROI Farbinformationen über das Beobachtungsobjekt zu erhalten, kann ein alternatives Zeitschema zur Anwendung kommen. Dieses ist in 4 dargestellt. Während nach dem in 3 gezeigten Zeitschema im Rahmen eines Belichtungs- und Auslesezyklus nach einem Auslesen der gesamten Sensorfläche wenigstens einmal ein Belichtungs- und Auslesesequenz des Bildsensors folgt, in der das Beobachtungsobjekt nacheinander mit allen Wellenlängenverteilungen eines Beleuchtungszyklus beleuchtet wird und bei jeder Beleuchtung ein ROI-Bild aufgenommen wird, sodass ein Belichtungs- und Auslesezyklus mindestens vier Beleuchtungszyklen umfasst, entspricht bei dem Zeitschema aus 4 ein Belichtungs- und Auslesezyklus weitgehend einem Beleuchtungszyklus.If it is not necessary to obtain color information about the observation object outside the ROI, an alternative timing scheme may be used. This is in 4 shown. While after the in 3 The time diagram shown in the context of an exposure and readout cycle after reading the entire sensor surface at least once followed by an exposure and read sequence of the image sensor, in which the observation object is illuminated sequentially with all wavelength distributions of a lighting cycle and each ROI image is taken with each illumination, so an exposure and read-out cycle comprises at least four lighting cycles corresponds to the timing scheme 4 an exposure and readout cycle largely a lighting cycle.

In dem in 4 gezeigten Zeitschema erfolgt zu Beginn des Belichtungs- und Auslesezyklus ein Beleuchten des Beobachtungsobjekts mit weißem Licht. Dies kann beispielsweise dadurch erfolgen, dass das Beobachtungsobjekt gleichzeitig mit dem Licht aller drei Beleuchtungslichtquellen L1 bis L3, also gleichzeitig mit rotem, grünem und blauem Licht beleuchtet wird, oder dadurch, dass wenigstens eine vierte Lichtquelle L4 vorhanden ist, die weißes Licht emittiert. Nachdem die Belichtung des Bildsensors während der Beleuchtung des Beobachtungsobjekts 17 mit dem weißen Licht erfolgt ist, erfolgt ein Beleuchten des Beobachtungsobjekts mit dem Licht der Lichtquelle L1, also mit rotem Licht, und eine Belichtung des Bildsensors 5. Gleichzeitig wird das bei der Belichtung mit weißem Licht aufgenommen Bild ausgelesen. Bei diesem Auslesen wird die gesamte Sensorfläche 19 ausgelesen, sodass ein Vollbild entsteht. Da der verwendete Bildsensor monochrom ist, also keine Farbinformationen aufnehmen kann, entsteht ein Vollbild in Graustufen.In the in 4 As shown at the beginning of the exposure and read-out cycle, a lighting of the observation object with white light takes place. This can be done, for example, in that the observation object is illuminated simultaneously with the light of all three illumination light sources L1 to L3, ie simultaneously with red, green and blue light, or by the fact that at least one fourth light source L4 is present which emits white light. After the exposure of the image sensor during the illumination of the observation object 17 is done with the white light, there is a lighting of the observation object with the light of the light source L1, that is, with red light, and an exposure of the image sensor 5 , At the same time, the image taken during exposure to white light is read out. In this reading, the entire sensor surface 19 read, so that a full screen is created. Since the image sensor used is monochrome, so can not record color information, a full screen is created in grayscale.

Nach dem Beleuchten des Beobachtungsobjekts mit dem Licht der Lichtquelle L1 und dem entsprechenden Belichten des Bildsensors 5 erfolgt ein Beleuchten des Beobachtungsobjekts mit dem Licht der Lichtquelle L2, also mit grünem Licht, und ein erneutes Belichten des Bildsensors 5. Gleichzeitig wird das zuvor bei der roten Beleuchtung aufgenommene Bild aus der Sensorfläche 21, die der ROI entspricht, ausgelesen, sodass ein rotes ROI-Bild entsteht.After illuminating the observation object with the light of the light source L1 and the corresponding exposure of the image sensor 5 a lighting of the observation object with the light of the light source L2, ie with green light, and a re-exposure of the image sensor 5 , At the same time, the image previously taken in the red illumination is removed from the sensor surface 21 which matches the ROI, so that a red ROI image is created.

Nach Beleuchten des Beobachtungsobjektes 17 und dem Belichten mit dem Licht der Lichtquelle L2, erfolgt ein Beleuchten des Beobachtungsobjekts mit dem Licht der Lichtquelle L3, also mit blauem Licht, und ein entsprechendes Belichten des Bildsensors 5. Während dieser Belichtung wird das zuvor bei der grünen Beleuchtung aufgenommene Bild ausgelesen, wobei lediglich der Teilbereich 21 der Sensorfläche 19 ausgelesen wird, sodass ein grünes ROI-Bild entsteht. Nach dem Beleuchten des Beobachtungsobjekts mit dem blauen Licht und dem entsprechenden Belichten des Bildsensors 5 ist der Beleuchtungszyklus abgeschlossen und der nächste Beleuchtungszyklus kann mit der Beleuchtung mit weißem Licht beginnen. In dieser Zeit wird der zuvor während der Beleuchtung mit dem blauen Licht belichtete Bildsensor erneut ausgelesen, wobei wiederum lediglich die Teilfläche 21 der Sensorfläche 19 ausgelesen wird, sodass ein blaues ROI-Bild entsteht. Danach kann aus den drei gewonnenen ROI-Bildern ein Farbbild für die ROI synthetisiert werden. Im darauffolgenden Belichtungs- und Auslesezyklus wird dieser gesamte Vorgang wiederholt.After lighting the observation object 17 and exposing to the light of the light source L2, the observation object is illuminated with the light of the light source L3, ie with blue light, and a corresponding exposure of the image sensor 5 , During this exposure, the image previously taken in the green illumination is read out, with only the partial area 21 the sensor surface 19 is read, creating a green ROI image. After illuminating the observation object with the blue light and corresponding exposure of the image sensor 5 the lighting cycle is complete and the next lighting cycle can begin with white light illumination. During this time, the previously exposed during illumination with the blue light image sensor is read again, in turn, only the partial area 21 the sensor surface 19 is read, creating a blue ROI image. Then, from the three ROI images obtained, a color image can be synthesized for the ROI. In the subsequent exposure and read cycle, this entire process is repeated.

Wie bereits erwähnt, wird, wenn die Bildaufnahme gemäß diesem Zeitschema erfolgt, lediglich das ROI-Bild farbig dargestellt. Dafür sind jedoch die Bildwiederholraten für das Vollbild und das farbige ROI-Bild identisch. Wenn wieder davon ausgegangen wird, dass die Teilfläche 21 einem Neuntel der Sensorfläche 19 entspricht, kann mit diesem Zeitschema alle (1 + 3·1/9) × 16,67 Millisekunden, also alle 22,2 Millisekunden, sowohl ein Graustufen-Vollbild und ein farbiges ROI-Bild dargestellt werden. Dies entspricht einer Bildwiederholfrequenz von 45 Hz (zur Erinnerung, wenn mit einer 60 Hz Kamera nur Vollbilder aufgenommen werden, können Farbbilder lediglich mit einer Bildfrequenz von 20 Hz dargestellt werden).As already mentioned, if the image is taken according to this timing scheme, only the ROI image is displayed in color. However, the refresh rates for the full screen and the colored ROI image are identical. If again it is assumed that the subarea 21 a ninth of the sensor surface 19 With this timing scheme, every (1 + 3 × 1/9) × 16.67 milliseconds, that is, every 22.2 milliseconds, can be represented as both a grayscale frame and a color ROI image. This corresponds to a refresh rate of 45 Hz (to remind you, when only frames are taken with a 60 Hz camera, you can use color images only shown with a frame rate of 20 Hz).

Ein zweites Ausführungsbeispiel für das erfindungsgemäße optische Beobachtungsgerät ist in 5 dargestellt. Elemente, die denen des in 1 dargestellten ersten Ausführungsbeispiels entsprechen, sind in 5 mit denselben Bezugsziffern wie in 1 bezeichnet und werden nicht noch einmal erläutert, um Wiederholungen zu vermeiden.A second exemplary embodiment of the optical observation device according to the invention is shown in FIG 5 shown. Elements similar to those of 1 correspond to the first embodiment shown are in 5 with the same reference numerals as in 1 and will not be explained again to avoid repetition.

Das in 5 dargestellte Ausführungsbeispiel ist außer für das Aufnehmen von Farbbildern auch zur Aufnahme von weiteren Informationen ausgelegt. Im vorliegenden Ausführungsbeispiel sind diese weiteren Informationen Fluoreszenzbilder des Beobachtungsobjektes 17. Aber auch Bilder außerhalb des sichtbaren Spektralbereiches können statt der Fluoreszenzbilder oder zusätzlich zu den Fluoreszenzbildern aufgenommen werden. Zur Aufnahme der Fluoreszenzbilder umfasst das optische Beobachtungsgerät einen im Beobachtungsstrahlengang, also zwischen dem Beobachtungsobjekt 17 und dem Bildsensor 5, angeordneten Spektralfilter 23. Dieser befindet sich im vorliegenden Ausführungsbeispiel zwischen der Beobachtungsoptik 1 und der Kamera 3. Zudem weist eine der Lichtquellen L1 bis IN ein Spektrum auf, das die Anregung einer Fluoreszenz im Beobachtungsobjekt erlaubt. Der die Fluoreszenz anregende Teil des Spektrums dieser Lichtquelle wird von dem Spektralfilter 23 aus dem Beobachtungsstrahlengang herausgefiltert. Es besteht dabei die Möglichkeit, Anregungsstrahlung außerhalb des Wellenlängenbereiches von 437–750 nm, insbesondere außerhalb des Wellenlängenbereiches von 400–800 nm, zu verwenden, falls die anzuregende Fluoreszenz dies erlaubt.This in 5 illustrated embodiment is designed except for the recording of color images for receiving further information. In the present exemplary embodiment, these further information are fluorescence images of the observation object 17 , But also images outside the visible spectral range can be taken instead of the fluorescence images or in addition to the fluorescence images. To record the fluorescence images, the optical observation device comprises one in the observation beam path, ie between the observation object 17 and the image sensor 5 , arranged spectral filters 23 , This is located in the present embodiment between the observation optics 1 and the camera 3 , In addition, one of the light sources L1 to IN has a spectrum that allows the excitation of fluorescence in the observation object. The fluorescence-exciting part of the spectrum of this light source is from the spectral filter 23 filtered out of the observation beam path. It is possible here to use excitation radiation outside the wavelength range of 437-750 nm, in particular outside the wavelength range of 400-800 nm, if the fluorescence to be excited permits this.

Diese Ausgestaltung des optischen Beobachtungsgeräts ist beispielsweise vorteilhaft, wenn einem Operateur medizinisch relevante Informationen zur Verfügung gestellt werden sollen, die außerhalb des sichtbaren Spektralbereichs liegen oder sich mit diesen überlagern. Beispielhaft ist hier Fluoreszenzbildgebung genannt, für die zur Zeit drei in der Medizin zugelassene fluoreszierende Farbstoffe existieren, nämlich die Verbindung 5-Aminolävulinsäure (kurz 5-ALA), Indocyaningrün (kurz ICG) und Fluorescein.This embodiment of the optical observation device is advantageous, for example, if a surgeon is to be provided with medically relevant information that lies outside the visible spectral range or overlaps with it. Exemplary here is called fluorescence imaging, for which there are currently three approved in the field of medical fluorescent dyes, namely the compound 5-aminolevulinic acid (short 5-ALA), indocyanine green (short ICG) and fluorescein.

Bei der Verbindung 5-ALA handelt es sich um eine Verbindung, die beispielsweise in der Hirnchirurgie als Farbstoff eingesetzt wird. Bei Verabreichung von 5-ALA finden in den Zellen mit erhöhtem Stoffwechsel – typischerweise Tumorzellen – Anreicherungen von fluoreszierenden Verbindungen statt. Die Fluoreszenz wird typischerweise bei einer Wellenlänge < 430 nm angeregt, während die Emission im roten Spektralbereich stattfindet. In rein optischen Operationsmikroskopen wird die Fluoreszenz nach einer Behandlung mit 5-ALA dadurch sichtbar gemacht, dass die Beleuchtung mit einem Kantenfilter versehen wird, sodass lediglich Licht ≤ 430 nm auf das Operationsfeld gelangt. In den Beobachtungsstrahlengang wird wiederum ein Filter eingebracht, der lediglich Licht mit Wellenlängen ≥ 430 nm zum Auge des Operateurs gelangen Isst. Die Filter sind dabei so ausgelegt, dass es einen sehr schmalen Wellenlängenbereich bei 430 nm gibt, in dem Anregungsstrahlung den Filter passieren kann, sodass ein Teil des Anregungslichtes bei der Beobachtung verfügbar ist, wie dies in WO 1997/011636 beschrieben ist. Der blaue Lichtanteil im Bild dient Chirurgen dazu, sich im Operationsfeld zu orientieren. Die Fluoreszenz findet im roten statt; das Fluoreszenzlicht gelangt ungefiltert ins Auge des Beobachters. Die Unterscheidung zwischen Tumorgewebe und gesundem Gewebe erfolgt über die Differenzierung von blauen Schattierungen (unspezifische Reflexion am Gewebe) und roten Schattierungen (Fluoreszenz von Tumorgewebe). Bei diesem Verfahren kann wegen der definierten – und daher unveränderlichen – Filterkanten im Beleuchtungs- und Beobachtungsstrahlengang das Verhältnis zwischen ”blauem” unspezifischem Gewebe und rotem Tumor nicht verändert werden. Dies verhindert, dass schwache Fluoreszenz vom Operateur wahrgenommen werden kann. Die Möglichkeiten einer Gewebedifferenzierung sind somit prinzipiell limitiert.Compound 5-ALA is a compound used as a dye in, for example, brain surgery. Upon administration of 5-ALA, accumulations of fluorescent compounds take place in the cells with increased metabolism, typically tumor cells. The fluorescence is typically excited at a wavelength <430 nm, while the emission takes place in the red spectral region. In purely optical surgical microscopes, the fluorescence is visualized after treatment with 5-ALA by providing the illumination with an edge filter, so that only light ≤ 430 nm reaches the surgical field. In turn, a filter is introduced into the observation beam path, which only passes light with wavelengths ≥ 430 nm to the eye of the surgeon. The filters are designed so that there is a very narrow wavelength range at 430 nm, in which excitation radiation can pass through the filter, so that a part of the excitation light is available in the observation, as in WO 1997/011636 is described. The blue light component in the image is used by surgeons to orient themselves in the surgical field. The fluorescence takes place in the red; the fluorescent light enters the observer's eye unfiltered. The distinction between tumor tissue and healthy tissue is made by the differentiation of blue shades (nonspecific reflection on the tissue) and red shades (fluorescence of tumor tissue). In this method, the ratio between "blue" nonspecific tissue and red tumor can not be changed because of the defined - and therefore unchangeable - filter edges in the illumination and observation beam path. This prevents weak fluorescence from being perceived by the surgeon. The possibilities of tissue differentiation are thus limited in principle.

Bei ICG handelt es sich um einen Farbstoff, der für die Darstellung von Blutgefäßen (Angiographie) verwendet wird. ICG lässt sich beispielsweise bei Wellenlängen < 780 nm anregen, während die Fluoreszenz oberhalb 780 nm nachgewiesen wird – typischerweise mit einer Kamera. In der Hirnchirurgie ist es wichtig, Gefäßaussackungen, sogenannte Aneurysmen, beispielsweise mit einen Clip abzuklemmen, da die Aussackungen leicht reißen und zu Hirnbluten führen können. Nach dem Anbringen des Clips wird typischerweise ICG in die Blutbahn injiziert. Mit einer Kamera wird anschließend festgehalten, wie der Fluoreszenzfarbstoff in die Blutgefäße einströmt. Um zu erkennen, ob der Clip richtig gesetzt wurde, muss der Chirurg feststellen können, ob die Fluoreszenz im abgeklemmten Aneurysma über das große Blutgefäß oder über Kapillare einströmt. Dies bedeutet, dass eine schnelle Abfolge von Kamerabildern zu bewerten ist. Häufig ist die Bildrate bei typischen Kameras mit 60 Hz nicht ausreichend, um das Einströmverhalten bewerten zu können. Da gleichzeitig sowohl das Einströmen beobachtet werden muss – typischerweise an einem Monitor, der das infrarote Fluoreszenzbild als Graustufenbild darstellt – als auch der Patient zu überwachen ist, sind dazu mehrere Personen nötig. Hier ist eine Lösung gesucht, die sowohl ein Fluoreszenzbild mit hoher Bildrate (> 60 Hz) darstellen kann, als auch gleichzeitig eine Überwachung des Patienten erlaubt, beispielsweise über ein Bild im VIS-Bereich.ICG is a dye used to visualize blood vessels (angiography). For example, ICG can be excited at wavelengths <780 nm, while fluorescence above 780 nm is detected - typically with a camera. In brain surgery, it is important to clamp Gefäßaussackungen, so-called aneurysms, for example, with a clip, as the Aussackungen tear easily and can lead to brain bleeding. After attaching the clip, ICG is typically injected into the bloodstream. A camera is then used to record how the fluorescent dye flows into the blood vessels. To determine if the clip has been set correctly, the surgeon must be able to determine if the fluorescence in the clamped aneurysm is flowing in through the large blood vessel or through capillary. This means that a fast sequence of camera images is to be evaluated. Often the frame rate is not sufficient for typical 60 Hz cameras to evaluate the flow behavior. Since both the influx must be observed at the same time - typically on a monitor that displays the infrared fluorescence image as a grayscale image - as well as the patient is monitored, several people are required to do so. Here, a solution is sought, which can represent both a fluorescence image with high frame rate (> 60 Hz), and at the same time allows monitoring of the patient, for example via an image in the VIS area.

Bei Fluorescein handelt es sich um einen Fluoreszenzfarbstoff, der im Operationssaal sowohl in der Angiographie als auch für Gewebedifferenzierung verwendet wird. Eine Anregung wird typischerweise bei Wellenlängen von etwa 480 nm vorgenommen, um eine Fluoreszenz im Grünen zu beobachten. Dies bedeutet, dass sowohl Anregung als auch Fluoreszenz mitten im sichtbaren Spektralbereich liegen. Fluorescein is a fluorescent dye used in the operating room for both angiography and tissue differentiation. Excitation is typically done at wavelengths of about 480 nm to observe fluorescence in the green. This means that both excitation and fluorescence are in the middle of the visible spectral range.

Unabhängig von den drei genannten Fluoreszenzfarbstoffen wird generell auch für Farbstoffe, die in Zukunft eine medizinische Zulassung erhalten, die Herausforderung darin bestehen, bei einer Gewebedifferenzierung gleichzeitig sowohl ein unspezifisches Übersichtsbild, als auch die spezifische Fluoreszenz zu visualisieren bzw. bei einer Angiographie sowohl eine schnelle Fluoreszenzbilderfassung als auch eine Überwachung des Patienten zu ermöglichen.Regardless of the three fluorescent dyes mentioned above, the challenge for dyes that will receive medical approval in the future is to simultaneously visualize both a nonspecific overview image and the specific fluorescence in the case of tissue differentiation or fast fluorescence imaging in angiography as well as to allow monitoring of the patient.

Die in 5 dargestellte Anordnung erlaubt es, gleichzeitig sowohl ein visuelles Bild, als auch Fluoreszenzinformationen darzustellen. Beispielsweise mittels der gekannten Fluoreszenzfarbstoffe kann somit eine Tumorerkennung (5-ALA, Fluorescein) bzw. eine Angiographie (ICG, Fluorescein) vorgenommen werden, während sich ein Chirurg gleichzeitig am visuellen Bild des Operationsfeldes orientieren kann bzw. den Patienten überwachen kann. Mittels einer zeitsequentiellen Beleuchtung kann dabei eine zeitliche Trennung des visuellen Bildes vom Fluoreszenzbild erfolgen, wobei keine bewegliche Teile, wie etwa ein Filterrad, nötig sind. Zudem kann das visuelle Bild von der Recheneinheit 7 vom Fluoreszenzbild getrennt synthetisiert werden, sodass beide Bilder auf unterschiedlichen Monitoren dargestellt werden können. Alternativ besteht auch die Möglichkeit, dass die Recheneinheit 7 eine Überlagerung des Fluoreszenzbildes mit dem visuellen Bild berechnet, beispielsweise dahingehend, dass das Fluoreszenzbild dem visuellen Bild in Form von Konturen, welche beispielsweise einen Tumor anzeigen, in Form von Falschfarbeninformationen, in Form von ”Highlighting” also durch Aufhellen oder Abdunkeln bestimmter Bildbereiche, etc. erfolgt.In the 5 The arrangement shown makes it possible to simultaneously display both a visual image and fluorescence information. Tumor recognition (5-ALA, fluorescein) or angiography (ICG, fluorescein) can thus be carried out, for example, by means of the known fluorescent dyes, while a surgeon can simultaneously orientate himself or monitor the patient on the visual image of the surgical field. By means of time-sequential illumination, a temporal separation of the visual image from the fluorescence image can take place, with no moving parts, such as a filter wheel, being necessary. In addition, the visual image of the arithmetic unit 7 be synthesized separately from the fluorescence image, so that both images can be displayed on different monitors. Alternatively, there is also the possibility that the arithmetic unit 7 a superimposition of the fluorescence image with the visual image is calculated, for example in such a way that the fluorescence image of the visual image in the form of contours, which indicate, for example, a tumor, in the form of false color information, in the form of "Highlighting" by lightening or darkening of certain image areas, etc . he follows.

Die Aufnahme des Fluoreszenzbildes kann ohne weiteres in das mit Bezug auf 3 beschriebene Zeitschema integriert werden. Ein entsprechendes, um die Anregungsstrahlung L4 für die Fluoreszenz ergänztes Zeitschema ist in 6 dargestellt. Gemäß der zuvor erwähnten Formel lässt sich dabei eine Bildwiederholrate für die Vollbilder von 10,4 Hz (entspricht einer Zeitdauer zwischen zwei Vollbildern von 96,3 Millisekunden) und 51,9 Hz im Falle von ROI-Bildern (entspricht einer Zeitdauer zwischen zwei ROI-Bildern von 19,3 Millisekunden) erreichen.The recording of the fluorescence image can be readily in the with reference to 3 time schedule are integrated. A corresponding timing scheme supplemented for the excitation radiation L4 for the fluorescence is shown in FIG 6 shown. In accordance with the above-mentioned formula, a frame rate of 10.4 Hz (corresponding to a time interval between two frames of 96.3 milliseconds) and 51.9 Hz in the case of ROI images (corresponding to a time period between two ROI images) can be set for the frames. Images of 19.3 milliseconds).

Außer in das Zeitschema aus 3 kann das Aufnehmen von Fluoreszenzbildern auch in das Zeitschema aus 4 ohne weiteres integriert werden. Ein entsprechendes, um die Beleuchtung mit der Fluoreszenz anregenden Lichtquelle L4 ergänztes Zeitschema ist in 7 dargestellt. Für dieses Zeitschema lassen sich sowohl für die Graustufen-Vollbilder als auch für die farbigen ROI-Bilder Bildwiederholraten von 41,5 Hz realisieren, was einer mittleren Zeitdauer zwischen zwei Bildern von 24,1 Millisekunden entspricht.Except in the timetable off 3 can also take up fluorescence images in the time scheme 4 be readily integrated. A corresponding timing scheme supplemented with the fluorescence-exciting light source L4 is shown in FIG 7 shown. For this time scheme, image refresh rates of 41.5 Hz can be achieved for both the greyscale and the colored ROI images, which corresponds to an average time between two images of 24.1 milliseconds.

Die bisher beschriebenen Zeitschemata zur Aufnahme von Farbbildern oder zur Aufnahme von Farbbildern und Fluoreszenzbildern können auch auf stereoskopische optische Beobachtungsgeräte wie etwa Operationsmikroskope übertragen werden. Eine erste Variante, gemäß der das in 3 dargestellte Zeitschema in einem stereoskopischen optischen Beobachtungsgerät zur Anwendung kommen kann, ist in dem Zeitschema aus 8 dargestellt. Die aus 3 bekannten Belichtungs- und Auslesezyklen werden dabei im Wechsel für die stereoskopischen Beobachtungsstrahlengänge durchgeführt. Nachdem bspw. der erste Zyklus für den rechten Stereokanal durchgeführt worden ist, wird der erste Zyklus für den linken Stereokanal durchgeführt, bevor der zweite Zyklus für den rechten Stereokanal durchgeführt wird usw. Da jeder Belichtungs- und Auslesezyklus zweimal durchgeführt werden muss (einmal für den rechten und einmal für den linken Stereokanal), halbieren sich die gemäß diesem Zeitschema realisierbaren Bildwiederholraten bzw. verdoppeln sich die Zeitabstände zwischen zwei Vollbildern bzw. zwischen zwei ROI-Bildern im Vergleich zu dem mit Bezug auf 3 beschriebenen Zeitschema. Aber auch bei einer 60-Hz-Consumer-Kamera, bei der lediglich Vollbilder aufgenommen werden, müssten sowohl für den rechten als auch den linken Stereokanal nacheinander Vollbilder aufgenommen werden, sodass sich auch bei dieser Kamera die Bildwiederholrate für farbige Bilder von 20 Hz auf 10 Hz reduzieren würde. Der mit dem Zeitschema realisierbare Vorteil, wie er mit Bezug auf 3 beschrieben worden ist, bleibt daher erhalten.The time schemes described so far for taking color images or for taking color images and fluorescence images can also be transferred to stereoscopic optical observation devices such as surgical microscopes. A first variant according to which the in 3 shown in a stereoscopic optical observation device is used, is in the timing of 8th shown. From 3 known exposure and readout cycles are carried out alternately for the stereoscopic observation beam paths. For example, after the first cycle for the right stereo channel has been performed, the first cycle for the left stereo channel is performed before the second cycle for the right stereo channel is performed, etc. Since each exposure and read cycle must be performed twice (once for the right and once for the left stereo channel), the frame rates achievable according to this timing scheme are halved, and the time intervals between two frames or between two ROI images are doubled in comparison to that described with reference to FIG 3 described timing. But synonymous with a 60-Hz consumer camera in which only frames are recorded, would be synonymous for the right and the left stereo channel sequentially frames are recorded, so that even with this camera, the refresh rate for colored images from 20 Hz to 10 Would reduce Hz. The realizable with the timing advantage, as he with respect to 3 has been described, therefore, remains.

Wenn die farbigen Vollbilder nicht dieselbe räumliche Auflösung wie die farbigen ROI-Bilder aufzuweisen brauchen, kann eine Erhöhung der Bildwiederholrate für die Vollbilder und die ROI-Bilder dadurch erzielt werden, dass beim Auslesen der gesamten Sensorfläche 19 (Vollbild) ein Subsampling zur Anwendung kommt. Ein entsprechendes Zeitschema ist in 9 dargestellt. Beispielsweise kann statt jedem Pixel der Sensorfläche 19 nur jedes Zweite Pixel pro Spalte und Zeile ausgelesen werden. Dadurch kann die Auslesedauer, die zum Auslesen der Sensorfläche 19 nötig ist, um einen Faktor 4 reduziert werden. Obwohl das Subsampling nicht auf stereoskopische optische Beobachtungsgeräte beschränkt ist, ist es insbesondere beim Aufnehmen stereoskopischer Bilder vorteilhaft, da dann auch bei einer 60 Hz Consumer-Kamera für Vollbilder eine Bildwiederholrate von 17,1 Hz und im Falle von ROI-Bildern eine Bildwiederholrate von 69 Hz realisiert werden kann. Im Vergleich zu dem mit Bezug auf 8 beschriebenen Zeitschema lässt sich somit die Bildwiederholrate beim Aufnehmen stereoskopischer Bilder mehr als verdoppeln. Die Bildwiederholrate ist dabei sogar höher als die mit dem Zeitschema aus 3 realisierte Bildwiederholrate (bei der kein Subsampling erfolgt ist).If the color frames do not need to have the same spatial resolution as the colored ROI images, increasing the frame rate for the frames and the ROI images can be achieved by reading the entire sensor surface 19 (Full screen) subsampling is used. An appropriate time scheme is in 9 shown. For example, instead of each pixel, the sensor area 19 only every second pixel per column and row can be read. As a result, the readout duration for reading out the sensor surface 19 necessary to be reduced by a factor of 4. Although the subsampling is not limited to stereoscopic optical observation devices, it is particularly advantageous when taking stereoscopic images, since then even with a 60 Hz consumer camera for frames a frame rate of 17.1 Hz and in the case of ROI images a refresh rate of 69 Hz can be realized. Compared to that with respect to 8th Thus, the frame rate can be more than doubled when recording stereoscopic images. The refresh rate is even higher than that with the time scheme 3 realized refresh rate (where no subsampling was done).

Allgemein lässt sich durch Subsampling, bei dem nur jedes n-te Pixel in einer für ein Vollbild erforderlichen Zeile und nur jede m-te Zeile ausgelesen werden, eine Verkürzung der Auslesedauer um den Faktor n·m erreichen. Da die ROI in der Regel der Blickrichtung des Auges entspricht und das Auge außerhalb der Blickrichtung über eine geringere Winkelauflösung verfügt als in Blickrichtung ist das Aufnehmen der Vollbilder mit Subsampling häufig ohne weiteres möglich.In general, subsampling, in which only every nth pixel in a line required for a frame and only every mth line is read out, can shorten the read duration by the factor n × m. Since the ROI usually corresponds to the viewing direction of the eye and the eye has a smaller angular resolution outside the viewing direction than in the viewing direction, the recording of the frames with subsampling is often readily possible.

Eine Verkürzung der Auslesedauer lässt sich auch durch ein sog. Pixel-Binning erreichen. Bei einem Pixel-Binning werden benachbarte Pixel zu Pixelblöcken zusammengefasst und alle Pixel eines Blocks gemeinsam ausgelesen. Wenn ein Block n·m Pixel aufweist, ist eine Verkürzung der Auslesedauer um ebendiesen Faktor möglich.A shortening of the readout duration can also be achieved by a so-called pixel binning. In pixel binning, adjacent pixels are grouped into blocks of pixels, and all the pixels in a block are read together. If a block has n × m pixels, it is possible to shorten the read duration by the same factor.

Eine alternative Variante, wie das Zeitschema aus 3 auf das Aufnehmen von Farbbildern mit einem stereoskopischen Beobachtungsgerät übertragen werden kann, ist in 10 dargestellt. Gemäß diesem Zeitschema erfolgt das Umschalten von dem einen zu dem anderen Stereokanal nicht nach einem Belichtungs- und Auslesezyklus, wie dies im Zeitschema aus 8 der Fall ist, sondern nach jedem Beleuchtungszyklus. Außerdem erfolgt bei einem Wechsel zwischen zwei Belichtungs- und Auslesezyklen ein Wechsel derjenigen Beleuchtung, bei der das erste einfarbige Vollbild aufgenommen wird. In 10 zu erkennen ist, ist der erste Belichtungs- und Auslesezyklus nach dem vierten Beleuchtungszyklus beendet. Der zweite Belichtungs- und Auslesezyklus beginnt mit dem fünften Beleuchtungszyklus. Wäre dieser entsprechend dem ersten Belichtungs- und Auslesezyklus ausgestaltet, würde im ersten Beleuchtungszyklus des zweiten Belichtungs- und Auslesezyklus das Vollbild bei der roten Beleuchtung aufgenommen werden. Stattdessen ist der zweite Belichtungs- und Auslesezyklus derart abgewandelt, dass das erste Vollbild bei der grünen Beleuchtung aufgenommen wird. Das zweite Vollbild wird dann im darauffolgenden Beleuchtungszyklus bei der blauen Beleuchtung aufgenommen. Im nächsten Beleuchtungszyklus wird dann gar keine Vollbild aufgenommen, während im letzten Beleuchtungszyklus des zweiten Belichtungs- und Auslesezyklus dann das rote Vollbild aufgenommen wird. Der dritte Belichtungs- und Auslesezyklus entspricht dann wieder dem ersten Belichtungs- und Auslesezyklus, der vierte Belichtungs- und Auslesezyklus wieder dem zweiten Belichtungs- und Auslesezyklus usw. Mit andern Worten, im vorliegenden Ausführungsbeispiel wird bei allen ungeradzahlige Belichtungs- und Auslesezyklen das erste Vollbild bei der roten Beleuchtung aufgenommen, bei allen geradzahligen Belichtungs- und Auslesezyklus wird dagegen das erste Vollbild bei grüner Beleuchtung aufgenommen. Dies hat zur Folge, dass bei einem Wechsel zwischen einem ungeradzahligen Belichtungs- und Auslesezyklus vier ROI-Bilder nacheinander aufgenommen werden, bei einem Wechsel von einem geradzahligen Belichtungs- und Auslesezyklus zu einem ungeradzahligen Belichtungs- und Auslesezyklus dagegen nur zwei einfarbige ROI-Bilder. Der beschriebene Wechsel beim Aufnehmen des ersten Vollbildes dient der Sicherstellung, dass für jeden Stereokanal auch tatsächlich Vollbilder in rot, grün und blau aufgenommen werden. Wären im vorliegenden Ausführungsbeispiel alle Belichtungs- und Auslesezyklen identisch, so würden für den rechten Stereokanal stets nur rote und blaue Vollbilder, für den linken Stereokanal stets nur grüne Vollbilder aufgenommen.An alternative variant, like the time scheme 3 can be transferred to the recording of color images with a stereoscopic viewing device is in 10 shown. According to this timing scheme, switching from one to the other stereo channel does not occur after an exposure and readout cycle, as in the timing diagram 8th the case is, but after each lighting cycle. In addition, with a change between two exposure and read-out cycles, a change of the illumination takes place in which the first monochrome frame is recorded. In 10 1, the first exposure and readout cycle is completed after the fourth illumination cycle. The second exposure and readout cycle begins with the fifth illumination cycle. If this were designed according to the first exposure and read-out cycle, the full image would be picked up in the red illumination in the first illumination cycle of the second exposure and read-out cycle. Instead, the second exposure and readout cycle is modified such that the first frame is captured in the green illumination. The second frame is then taken in the subsequent illumination cycle with the blue illumination. In the next illumination cycle, no full image is then recorded at all, while in the last illumination cycle of the second exposure and readout cycle the red frame is then recorded. The third exposure and readout cycle then again corresponds to the first exposure and readout cycle, the fourth exposure and readout cycle again to the second exposure and readout cycle, etc. In other words, in the present embodiment, the first frame is included in all odd-numbered exposure and readout cycles the red illumination, however, in all even-numbered exposure and read-out cycle, the first frame is taken in green illumination. As a result, when changing between an odd-numbered exposure and read-out cycle, four ROI images are successively taken, but when changing from an even-numbered exposure and readout cycle to an odd-numbered exposure and readout cycle, only two monochrome ROI images are taken. The change described when recording the first frame is to ensure that for each stereo channel actually frames are recorded in red, green and blue. In the present embodiment, if all the exposure and read-out cycles were identical, only red and blue frames would always be recorded for the right stereo channel and only green frames for the left stereo channel.

Die mit dem in 10 dargestellten Zeitschema für stereoskopische Farb-Vollbilder bzw. stereoskopische ROI-Bilder realisieren durchschnittliche Bildwiederholraten entsprechen den Bildwiederholraten, die mit dem in 8 gezeigten Zeitschema realisierbar sind. Da ein häufigerer Wechsel zwischen den Stereokanälen erfolgt, sind die Schwankungen der Zeitdauer zwischen zwei aufeinanderfolgenden farbigen ROI-Bildern jedoch geringer als im Zeitschema gemäß 8.The with the in 10 Real-time frame rates for stereoscopic color frames and stereoscopic ROI images, respectively, realize average frame rates corresponding to the frame rates associated with the in 8th shown time scheme are feasible. However, since there is a more frequent change between the stereo channels, the variations in time between two consecutive colored ROI images are less than in the time scheme according to FIG 8th ,

Wie sich aus 8 ablesen lässt, ist das letzte farbige ROI-Bild des rechten Beobachtungskanals im ersten Belichtungs- und Auslesezyklus nach 68,5 Millisekunden ausgelesen. Das erste farbige ROI-Bild des zweiten Belichtungs- und Auslesezyklus des rechten Stereokanals ist nach 155,6 Millisekunden ausgelesen. Zwischen dem letzten farbigen ROI-Bild des ersten Zyklus für den rechten Stereokanal und dem ersten farbigen ROI-Bild des zweiten Zyklus des rechten Stereokanals vergehen also 87,1 Millisekunden. Innerhalb eines Belichtungs- und Auslesezyklus für den rechten Stereokanal beträgt die Zeitdauer zwischen zwei farbigen ROI-Bildern dagegen nicht mehr als 20,4 Millisekunden. Die geringste Zeitdauer zwischen zwei farbigen ROI-Bildern des rechten Stereokanals innerhalb eines Belichtungs- und Auslesezyklus beträgt lediglich 5,5 Millisekunden (zwischen dem letzten und dem vorletzten ROI-Bild des rechten Stereokanals im ersten Belichtungs- und Auslesezyklus). Es liegen daher recht große Schwankungen in der Zeitdauer zwischen zwei farbigen ROI-Bildern im Zeitschema aus 8 vor.As it turned out 8th The last colored ROI image of the right observation channel is read out after 68.5 milliseconds in the first exposure and readout cycle. The first color ROI image of the second exposure and readout cycle of the right stereo channel is read out after 155.6 milliseconds. Thus, between the last colored ROI image of the first cycle for the right stereo channel and the first colored ROI image of the second cycle of the right stereo channel, 87.1 milliseconds pass. However, within a right stereo channel exposure and read cycle, the time between two color ROI images is not more than 20.4 milliseconds. The minimum amount of time between two colored ROI images of the right stereo channel within an exposure and readout cycle is only 5.5 milliseconds (between the last and last but one ROI image of the right stereo channel in the first exposure and readout cycle). There are therefore quite large fluctuations in the time duration between two colored ROI images in the time scheme 8th in front.

In dem in 10 dargestellten Zeitschema beträgt die Zeitdauer zwischen zwei ROI-Bildern dagegen nicht mehr als 40,8 Millisekunden, da nach jedem ROI-Bild der Stereokanal gewechselt wird. Die minimale Zeitdauer zwischen zwei ROI-Bildern ist in dem in 10 dargestellten Zeitschema 25,9 Millisekunden (zwischen dem dritten ROI-Bild und dem zweiten ROI-Bild des rechten Stereokanals). Die Schwankungen zwischen zwei farbigen ROI-Bildern sind daher deutlich geringer als in dem in 8 dargestellten Zeitschema. Allerdings erhöht sich im Zeitschema gemäß 10 die maximale Zeitdauer zwischen der Aufnahme eines einfarbigen Vollbildes und der Synthetisierung des Farb-Vollbildes auf maximal 107,4 Millisekunden (für das rote Vollbild), wohingegen die maximale Zeitdauer zwischen der Aufnahme eines einfarbigen Vollbildes und der Synthetisierung des Farb-Vollbildes im Zeitschema aus 8 nur bei 61,11 Millisekunden liegt. Je nach Anwendung bzw. Schnelligkeit der beim Beobachtungsobjekt zu erwartenden Bewegung ist abzuwägen, ob das Zeitschema aus 8 oder das Zeitschema aus 10 zur Anwendung kommen soll. In the in 10 On the other hand, the time interval between two ROI images is not more than 40.8 milliseconds since the stereo channel is changed after each ROI image. The minimum amount of time between two ROI images is in the in 10 25.9 milliseconds (between the third ROI image and the second ROI image of the right stereo channel). The fluctuations between two colored ROI images are therefore significantly lower than in the 8th illustrated time schedule. However, the time schedule increases according to 10 the maximum time between taking a monochrome frame and synthesizing the color frame to a maximum of 107.4 milliseconds (for the red frame), whereas the maximum time between taking a monochrome frame and synthesizing the color frame in the timing scheme 8th only at 61.11 milliseconds. Depending on the application or the speed of the movement to be expected in the object under observation, it must be weighed whether the time schedule is off 8th or the time schedule 10 should be used.

Auch das Zeitschema aus 4, in dem die Vollbilder bei Beleuchtung des Beobachtungsobjekts mit weißem Licht und die ROI-Bilder mit zeitsequentieller farbiger Beleuchtung aufgenommen werden, kann auf ein stereoskopisches optisches Beobachtungsgerät übertragen werden. Ein entsprechendes Zeitschema ist in 11 dargestellt. Die für ein stereoskopisches Farbbild bzw. ein stereoskopisches ROI-Bild realisierbaren Bildwiederholraten betragen bei diesem Zeitschema 22,4 Hz, was einer Zeitdauer zwischen zwei Vollbildern bzw. zwischen zwei ROI-Bildern von 44,4 Millisekunden entspricht.Also the timetable off 4 in which the frames are captured when the observation object is illuminated with white light and the ROI images with time-sequential colored illumination can be transferred to a stereoscopic optical observation device. An appropriate time scheme is in 11 shown. The image refresh rates that can be achieved for a stereoscopic color image or a stereoscopic ROI image in this time scheme are 22.4 Hz, which corresponds to a time interval between two frames or between two ROI images of 44.4 milliseconds.

Außer dem Aufnehmen von Farbbildern lässt sich auch das Aufnehmen von Farbbildern und beispielsweise Fluoreszenzbildern oder Bildern außerhalb des visuellen Spektralbereichs auf die Aufnahme stereoskopischer Bilder übertragen. Die dabei möglichen Zeitschemata sind in den 12 bis 14 dargestellt. Sie entsprechen im Wesentlichen den Abläufen aus den 8, 10 und 11, wobei die Zeitschema jedoch um einen vierten Spektralbereich der Lampe L4, mit dem beispielsweise eine Fluoreszenz angeregt werden kann, ergänzt sind.In addition to taking color images, the taking of color images and, for example, fluorescence images or images outside the visual spectral range can also be transferred to the recording of stereoscopic images. The possible time schedules are in the 12 to 14 shown. They essentially correspond to the processes from the 8th . 10 and 11 However, the timing is supplemented by a fourth spectral range of the lamp L4, with which, for example, a fluorescence can be excited.

In dem in 12 dargestellten Zeitschema, das den Ablauf aus 8 entspricht, lässt sich so eine Bildwiederholrate für ein farbiges Stereo-Vollbild von 5,2 Hz erreichen, eine Bildwiederholrate für ein farbiges Stereo-ROI-Bild von 26 Hz. Dies entspricht einer Zeitdauer zwischen zwei farbigen Stereo-Vollbildern von 192,6 Millisekunden bzw. zwischen zwei farbigen Stereo-ROI-Bildern von 38,5 Millisekunden. Durch Anwenden von Subsampling im Falle der Aufnahme der Vollbilder können die Bildwiederholraten aber erhöht werden.In the in 12 displayed time schedule that the process off 8th Thus, a refresh rate for a full color stereo image of 5.2 Hz can be achieved, a refresh rate for a color stereo ROI image of 26 Hz. This corresponds to a time between two color stereo frames of 192.6 milliseconds or between two colored stereo ROI images of 38.5 milliseconds. However, applying subsampling in case of capturing the frames may increase the refresh rates.

Im Falle des in 13 dargestellten Zeitschemas, das dem Ablauf aus 10 entspricht, ergeben sich dieselben mittleren Bildwiederholraten für die farbigen Stereo-Vollbilder und die farbigen Stereo-ROI-Bilder wie beim Zeitschema aus 12. Die mit Bezug auf die Zeitschemata aus den 8 und 10 erfolgten Erläuterungen hinsichtlich der maximalen Zeitdauer zwischen zwei farbigen stereoskopischen Vollbildern und zwischen der Aufnahme eines einfarbigen Vollbildes und der Wiedergabe des farbigen Vollbildes gelten entsprechend auch für die Zeitschemata aus den 12 und 13. Im Unterschied zum Zeitschema aus 10 braucht bei dem in 13 dargestellten Zeitschema zwischen zwei aufeinander folgenden Belichtungs- und Auslesezyklen zu erfolgen kein Wechsel der Beleuchtungsfarbe für das erste Vollbild.In the case of in 13 displayed time schedules, the expiry of 10 The same average frame rates for the color stereo frames and the color stereo ROI images are the same as for the timing scheme 12 , With reference to the time schedules from the 8th and 10 Explanations regarding the maximum time duration between two color stereoscopic frames and between the recording of a monochrome frame and the reproduction of the colored frame apply correspondingly also to the timing diagrams of FIGS 12 and 13 , In contrast to the timing scheme 10 needs at the in 13 shown time scheme between two consecutive exposure and readout cycles to take place no change in the illumination color for the first frame.

Auch die in 7 dargestellte Variante eines Zeitschemas zum Aufnehmen schwarzweißer Vollbilder, farbiger ROI-Bilder sowie von Fluoreszenzbildern, lässt sich auf die Aufnahme stereoskopischer Bilder übertragen. Ein entsprechendes, auf die Aufnahme stereoskopischer Bilder übertragenes Zeitschema ist in 14 dargestellt. Nach jedem Beleuchtungszyklus erfolgt ein Wechsel zwischen den Stereokanälen, sodass sich die Bildwiederholraten gegenüber dem in 7 dargestellten Zeitschema halbieren bzw. die Zeitdauer zwischen zwei aufeinanderfolgenden Stereobildern verdoppeln. Dies gilt sowohl für Vollbilder als auch für ROI-Bilder.Also in 7 shown variant of a time scheme for recording black and white frames, colored ROI images and fluorescent images can be transferred to the recording of stereoscopic images. A corresponding time schedule transmitted to the recording of stereoscopic images is in 14 shown. After each illumination cycle, there is a change between the stereo channels, so that the refresh rates compared to the in 7 Halve the time scheme shown or double the time between two consecutive stereo images. This applies to both frames and ROI images.

In allen beschriebenen Verfahren kann die Positionierung der die ROI repräsentierende Teilfläche 21 auf der Sensorfläche 19 bspw. mit Hilfe eines Eye-Trackers geschehen. Mittels des Eye-Trackers erfolgt eine Bestimmung der Blickrichtung des Beobachters und ein Nachführen der Teilfläche 21 auf der Sensorfläche anhand der ermittelten Blickrichtung. Das Ermitteln der Blickrichtung und das Aktualisieren der Lage der Teilfläche 21 erfolgt dabei mit einer Rate von weniger als 20 Hz und vorzugsweise mit einer Rate von weniger als 10 Hz. Besonders vorteilhaft ist es, wenn das Bestimmen der Blickrichtung und das Aktualisieren der Lage der Teilfläche 21 auf der Sensorfläche 19 mit einer Rate im Bereich zwischen 5 und 10 Hz erfolgen. Mit einer Rate in diesem Bereich lässt sich einerseits das Nachführen der Teilfläche auf der Basis von Sakkaden vermeiden. Andererseits ist eine Rate von 5 bis 10 Hz hoch genug, um keine störende Verzögerung zwischen einem Wechsel der Blickrichtung und dem Nachführen der ROI zu bewirken.In all the methods described, the positioning of the ROI representing partial surface 21 on the sensor surface 19 For example, done with the help of an eye tracker. By means of the eye tracker, a determination of the viewing direction of the observer and a tracking of the sub-area 21 on the sensor surface based on the determined viewing direction. Determining the viewing direction and updating the position of the subarea 21 This is done at a rate of less than 20 Hz and preferably at a rate of less than 10 Hz. It is particularly advantageous when determining the viewing direction and updating the position of the partial area 21 on the sensor surface 19 at a rate in the range between 5 and 10 Hz. At a rate in this range, on the one hand, the tracking of the partial surface on the basis of saccades can be avoided. On the other hand, a rate of 5 to 10 Hz is high enough to cause no disturbing delay between a change in the viewing direction and the tracking of the ROI.

Im Rahmen des erfindungsgemäßen Verfahrens können darüber hinaus Bewegungen des optischen Beobachtungssystems ausgeglichen werden.In the context of the method according to the invention, moreover, movements of the optical observation system can be compensated.

Erfolgt beispielsweise eine Bewegung senkrecht zur optischen Achse (etwa aufgrund Vibrationen) so besteht die Möglichkeit, diese beispielsweise mittels Beschleunigungssensoren oder einer Registrierung von zeitlich aufeinanderfolgenden Bildern zu erkennen und eine Verschiebung der ROI auf dem Bildsensor durchzuführen, welche die Bewegung des optischen Beobachtungssystems kompensiert.For example, if a movement is perpendicular to the optical axis (for example due to Vibrations) so it is possible to detect them for example by means of acceleration sensors or a registration of temporally successive images and to perform a shift of the ROI on the image sensor, which compensates for the movement of the optical observation system.

Zudem kann das erfindungsgemäße Verfahren auch vorteilhaft bei Überwachungskameras eingesetzt werden. Bei einer Überwachung mittels Kamera (beispielsweise in öffentlichen Gebäuden, zur Grenzraumüberwachung oder bei militärischer Aufklärung) tritt häufig das Problem auf, dass nur eine begrenzte Bandbreite zur Übertragung der gewonnenen Bildinformation an eine Überwachungsstelle zur Verfügung steht. Auch für derartige Anwendungen lässt sich das erfindungsgemäße Prinzip heranziehen, wobei jedoch nicht eine ausreichend hohe Bildwiederholrate erzielt werden soll, sondern die Übertragungsrate von der zur Überwachung eingesetzten Kamera an die Überwachungsstelle verringert werden soll. Das erfindungsgemäße Verfahren ermöglicht es dabei, Vollbilder mit geringer Bildwiederholrate zu übertragen und ROI-Bilder mit einer normalen Bildwiederholrate. Da für ein ROI-Bild eine geringere Bandbreite nötig ist, kann insgesamt die Bandbreite, die zum Übertragen der Überwachungsbilder nötig ist, verringert werden. Wenn zudem am Ort der Kamera eine Auswerteeinheit vorhanden ist, die beispielsweise anhand von Bewegungen im Bild die ROI festlegen kann, kann eine solche Überwachungskamera weitgehend autonom agieren.In addition, the inventive method can also be used advantageously in surveillance cameras. When monitoring by means of a camera (for example in public buildings, for border surveillance or in military intelligence), the problem frequently arises that only a limited bandwidth is available for transmitting the acquired image information to a monitoring station. The principle according to the invention can also be used for such applications, but the aim is not to achieve a sufficiently high refresh rate but to reduce the transmission rate from the camera used for monitoring to the monitoring point. The method according to the invention makes it possible to transmit frames at a low frame rate and ROI images at a normal frame rate. Since a lower bandwidth is required for an ROI image, overall the bandwidth required to transmit the surveillance images can be reduced. If, moreover, an evaluation unit is present at the location of the camera, which can determine the ROI, for example based on movements in the image, such a surveillance camera can act largely autonomously.

Bei den im erfindungsgemäßen optischen Beobachtungsgerät verwendeten Lichtquellen kann es sich insbesondere um LEDs handeln, die im roten, grüne bzw. blauen Wellenlängenbereich emittieren. Aber auch andere Wellenlängenbereiche, die einen RGB-Farbraum oder CMY-Farbraum aufspannen, können zur Anwendung kommen. Zudem besteht die Möglichkeit weitere Lichtquellen vorzusehen, die beispielsweise im infraroten oder ultravioletten Spektralbereich emittieren.The light sources used in the optical observation device according to the invention may in particular be LEDs which emit in the red, green or blue wavelength range. But also other wavelength ranges that span an RGB color space or CMY color space can be used. In addition, it is possible to provide additional light sources that emit, for example, in the infrared or ultraviolet spectral range.

Für optische Beobachtungsgeräte, die für Anwendungen am Auge vorgesehen sind, ist es vorteilhaft, die Belastung des Patienten mit Licht gering zu halten, um die Sehzellen nicht zu schädigen. Die Verwendung einer Infrarotbeleuchtung ermöglicht es, die Belastung zu verringern, da diese eine spektrale Abhängigkeit aufweist. So kann beispielsweise das IR-Bild dazu verwendet werden, dem behandelnden Chirurgen eine Orientierung zu ermöglichen, und das Farbbild dazu, verschiedene Gewebearten im Auge zu erkennen.For optical observation devices intended for use on the eye, it is advantageous to keep the burden of the patient on light low so as not to damage the visual cells. The use of infrared lighting makes it possible to reduce the load since it has a spectral dependence. For example, the IR image can be used to guide the treating surgeon and the color image to detect different types of tissue in the eye.

Eine UV-Beleuchtung kann dazu Verwendung finden, Fluoreszenz im Untersuchungsobjekt anzuregen. Dabei kann entweder eine Autofluoreszenz des Gewebes oder Fluoreszenz eines injizierten Farbstoffes angeregt werden.UV illumination can be used to stimulate fluorescence in the examination subject. In this case, either an autofluorescence of the tissue or fluorescence of an injected dye can be excited.

In Rahmen des erfindungsgemäßen Verfahrens können zudem die Beleuchtungszeiten mit den einzelnen Lichtquellen so gesteuert werden, dass die Einzelbilder optimal ausgesteuert sind, das heißt ein optimales Signal-zu-Rauschen-Verhältnis aufweisen. Außerdem ist es möglich, die Beleuchtungszeiten im Hinblick auf eine möglichst geringe Gewebebelastung zu wählen. Weiterhin ermöglicht es das Vorsehen getrennter Lichtquellen mit unterschiedlichen Spektralbereichen den Weißpunkt der Beleuchtung zu optimieren und gleichzeitig die aufzubringende Lichtmenge zu optimieren.In the context of the method according to the invention, moreover, the illumination times with the individual light sources can be controlled so that the individual images are optimally controlled, that is to say have an optimum signal-to-noise ratio. In addition, it is possible to choose the illumination times with regard to the lowest possible tissue load. Furthermore, the provision of separate light sources with different spectral ranges makes it possible to optimize the white point of the illumination and at the same time to optimize the amount of light to be applied.

Wird die Bildaufnahme außerdem um ein weiteres Bild erweitert, bei dem alle Beleuchtungen ausgeschaltet sind, so kann dieses ”dunkle Bild” dazu verwendet werden, das Umgebungslicht von den ”Farbbildern” abzuziehen, um eine Beeinflussung der Farbdarstellung sowohl im visuellen als auch im außervisuellen Bereich durch Umgebungslicht zu vermindern. Es ist auch möglich, mehr als drei Farben im visuellen Bereich zu verwenden, um die Differenzierung von Farben zu verbessern, das heißt um Farbunterschiede von Objekten besser erkennen zu können. Die Auswertung der Farbunterschiede kann automatisiert werden. Beispielsweise ist es auch möglich, lediglich die Farbunterschiede zur Darstellung zu bringen. Bei Verwendung von Vier-Farben-Displays ist es außerdem möglich, über die Benutzung von vier spektral angepassten Lichtquellen auf eine Verrechnung von Farbbildern verzichten zu können. Vielmehr werden der aufgenommene und der wiedergegebene Farbraum aneinander angepasst.If the image acquisition is also extended by another image in which all the lights are turned off, this "dark image" can be used to subtract the ambient light from the "color images", to influence the color representation both in the visual and in the external area to diminish by ambient light. It is also possible to use more than three colors in the visual area to improve the differentiation of colors, that is, to better recognize color differences of objects. The evaluation of color differences can be automated. For example, it is also possible to show only the color differences for illustration. When using four-color displays, it is also possible to dispense with the use of four spectrally matched light sources on a billing of color images. Rather, the recorded and reproduced color space are adapted to each other.

Obwohl in den Ausführungsbeispielen das Aufnehmen dreidimensionaler Bilder am Beispiel von stereoskopischen Bildern beschrieben worden ist, kann das beschriebene Verfahren auch bei anderen Arten der Aufnahme von dreidimensionalen Bildern zur Anwendung kommen, etwa bei der Aufnahme von Bildern mit einer plenoptischen Beobachtungsoptik oder einer Beobachtungsoptik, wie sie in DE 10 2011 010 262 beschrieben ist.Although the recording of three-dimensional images has been described using the example of stereoscopic images in the exemplary embodiments, the method described can also be used in other types of recording of three-dimensional images, for example when taking pictures with plenoptic observation optics or observation optics, such as in DE 10 2011 010 262 is described.

Mit dem erfindungsgemäßen Verfahren und dem erfindungsgemäßen optischen Beobachtungsgerät lässt sich die Bildwiederholrate im interessierenden Bildbereich (ROI) gegenüber dem Stand der Technik deutlich erhöhen, wohingegen die Bildwiederholrate für Vollbilder lediglich geringfügig verringert wird. Auf diese Weise ist es möglich, selbst mit langsamen Consumer-Kameras, die lediglich eine Bildwiederholrate von 60 Hz realisieren können, eine Farbbildaufnahme mit zeitsequentieller farbiger Beleuchtung zu realisieren, wobei im ROI eine Bildwiederholrate von mehr als 50 Hz erreicht werden kann. Selbst für eine Stereoaufnahme mit lediglich einem Bildsensor lassen sich Bildwiederholraten erreichen, die über der Kino-Norm von 24 Hz liegen. Weiterhin bieten das erfindungsgemäße Verfahren und das erfindungsgemäße optische Beobachtungsgerät den Vorteil, dass die Wahrnehmung von Farbsäumen durch bewegte Objekte verringert wird. Darüber hinaus bieten das erfindungsgemäße Verfahren und das erfindungsgemäße optische Beobachtungsgerät den Vorteil, dass die Verzögerung zwischen der Bildaufnahme und der Bilddarstellung für die ROI geringer als im Stand der Technik ist.With the method according to the invention and the optical observation device according to the invention, the image repetition rate in the image area of interest (ROI) can be significantly increased compared with the prior art, whereas the image refresh rate for frames is only slightly reduced. In this way it is possible, even with slow consumer cameras, which can realize only a refresh rate of 60 Hz, to realize a color image with time-sequential color illumination, wherein in the ROI a refresh rate of more than 50 Hz can be achieved. Even for a stereo recording with only one image sensor can achieve refresh rates that are above the cinema standard of 24 Hz. Furthermore, the method according to the invention and the optical observation device according to the invention have the advantage that the perception of color fringes by moving objects is reduced. In addition, the inventive method and the optical observation device according to the invention offer the advantage that the delay between the image acquisition and the image representation for the ROI is lower than in the prior art.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Beobachtungsoptikobservation optics
33
Kameracamera
55
elektronischer Bildsensorelectronic image sensor
77
Recheneinheitcomputer unit
L1...LNL1 ... LN
Lichtquellenlight sources
99
Darstellungseinheitdisplay unit
1111
ZusammenführeinrichtungCombining device
1313
Beleuchtungsoptikillumination optics
1515
Steuereinheitcontrol unit
1717
Beobachtungsobjektobservation object
1919
Sensorflächesensor surface
2121
ROI (region of intrest)ROI (region of intrest)
2323
Spektralfilterspectral

Claims (28)

Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjekts (17) mit einem elektronischen Bildsensor (5), in dem: – ein Vollbild auf eine belichtete Sensorfläche (19) des Bildsensors (5) abgebildet wird, wobei eine interessierende Bildregion des Vollbildes auf eine Teilfläche (21) des Bildsensors (5) abgebildet wird, und – die Aufnahme der Bilder erfolgt, indem der Bildsensor (5) für das jeweilige Bild belichtet und nach jeder Belichtung ausgelesen wird, wobei auf ein Belichten des Bildsensors (5) und ein Auslesen der gesamten für ein Vollbild belichteten Sensorfläche (19) wenigstens ein mal ein Belichten des Bildsensors (5) und ein Auslesen nur der Teilfläche (21) des Bildsensors (5) mit der interessierenden Bildregion erfolgt, bevor wieder ein Belichten des Bildsensors (5) und ein Auslesen der gesamten belichteten Sensorfläche (19) erfolgt, dadurch gekennzeichnet, dass als Bildsensor (5) ein monochromer Bildsensor Verwendung findet, für das Belichten ein Beleuchten des Beobachtungsobjekts (17) in Beleuchtungszyklen erfolgt, in denen das Beobachtungsobjekt (17) zeitsequentiell mit N unterschiedlichen Wellenlängenverteilungen (L1–LN) beleuchtet wird, und das Auslesen des Bildsensors (5) in Belichtungs- und Auslesezyklen erfolgt, wobei die Beleuchtungszyklen mit den Belichtungs- und Auslesezyklen derart synchronisiert sind, dass pro Belichtungs- und Auslesezyklus a) ein Belichten des Bildsensors (5) bei Beleuchtung des Beobachtungsobjekts mit einer ersten der N Wellenlängenverteilungen eines Beleuchtungszyklus und ein anschließendes Auslesen der gesamten belichteten Sensorfläche (19) erfolgt, b) danach wenigstes ein mal eine Belichtungs- und Auslesesequenz des Bildsensors erfolgt, in der das Beobachtungsobjekt (17) nacheinander mit verschiedenen Wellenlängenverteilungen eines Beleuchtungszyklus beleuchtet wird, bei jedem Beleuchten des Beobachtungsobjekts (17) mit einer der Wellenlängenverteilungen eine Belichtung erfolgt und nach jedem Belichten jeweils nur ein Auslesen der Teilfläche (21) des Bildsensors (5) mit der interessierenden Bildregion erfolgt, und c) die Schritte a) und b) N mal durchgeführt werden, wobei in Schritt a) jedes mal eine andere Wellenlängenverteilung Verwendung findet.Method for taking pictures of an observation object ( 17 ) with an electronic image sensor ( 5 ), in which: - a full image on an exposed sensor surface ( 19 ) of the image sensor ( 5 ), wherein an image region of the frame of interest on a partial surface ( 21 ) of the image sensor ( 5 ), and - the images are taken by the image sensor ( 5 ) is exposed for the respective image and read out after each exposure, wherein an exposure of the image sensor ( 5 ) and a readout of the entire image area exposed to a full image ( 19 ) at least once exposing the image sensor ( 5 ) and reading out only the partial area ( 21 ) of the image sensor ( 5 ) with the image region of interest before re-exposure of the image sensor ( 5 ) and a reading of the entire exposed sensor surface ( 19 ), characterized in that as an image sensor ( 5 ) a monochrome image sensor is used, for illuminating a lighting of the observation object ( 17 ) takes place in lighting cycles in which the observation object ( 17 ) is time-sequentially illuminated with N different wavelength distributions (L1-LN), and the readout of the image sensor ( 5 ) in exposure and read-out cycles, wherein the illumination cycles are synchronized with the exposure and read-out cycles such that, per exposure and read-out cycle, a) exposure of the image sensor (FIG. 5 when the observation object is illuminated with a first of the N wavelength distributions of a lighting cycle and then reading out the entire exposed sensor area (FIG. 19 ), b) at least one time then an exposure and read-out sequence of the image sensor takes place, in which the observation object ( 17 ) is successively illuminated with different wavelength distributions of a lighting cycle, each time the object to be illuminated is illuminated ( 17 ) with one of the wavelength distributions an exposure takes place and after each exposure only one readout of the partial area ( 21 ) of the image sensor ( 5 ) with the image region of interest, and c) steps a) and b) are performed N times, wherein in step a) a different wavelength distribution is used each time. Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjekts (17) mit einem elektronischen Bildsensor (5), in dem: – ein Vollbild auf eine belichtete Sensorfläche (19) des Bildsensors (5) abgebildet wird, wobei eine interessierende Bildregion des Vollbildes auf eine Teilfläche (21) des Bildsensors (5) abgebildet wird, und – die Aufnahme der Bilder erfolgt, indem der Bildsensor (5) für das jeweilige Bild belichtet und nach jeder Belichtung ausgelesen wird, wobei auf ein Belichten des Bildsensors (5) und ein Auslesen der gesamten für ein Vollbild belichteten Sensorfläche (19) wenigstens ein mal ein Belichten des Bildsensors (5) und ein Auslesen nur der Teilfläche (21) des Bildsensors (5) mit der interessierenden Bildregion erfolgt, bevor wieder ein Belichten des Bildsensors (5) und ein Auslesen der gesamten belichteten Sensorfläche (19) erfolgt, dadurch gekennzeichnet, dass als Bildsensor (5) ein monochromer Bildsensor Verwendung findet, für das Belichten ein Beleuchten des Beobachtungsobjekts (17) in Beleuchtungszyklen erfolgt, in denen das Beobachtungsobjekt (17) zeitsequentiell mit weißem Licht und mit N unterschiedlichen Wellenlängenverteilungen (L1–LN) beleuchtet wird, und das Auslesen des Bildsensors (5) in Belichtungs- und Auslesezyklen erfolgt, wobei die Beleuchtungszyklen und die Belichtungs- und Auslesezyklen derart synchronisiert sind, dass pro Belichtungs- und Auslesezyklus a) ein Belichten des Bildsensors (5) mit dem weißen Licht eines Beleuchtungszyklus und ein anschließendes Auslesen der gesamten Sensorfläche (19) erfolgt, b) danach wenigstes ein mal eine Belichtungs- und Auslesesequenz des Bildsensors (5) erfolgt, in der das Beobachtungsobjekt (17) nacheinander mit verschiedenen Wellenlängenverteilungen eines Beleuchtungszyklus beleuchtet wird, bei jedem Beleuchten des Beobachtungsobjekts (17) mit einer der Wellenlängenverteilungen eine Belichtung erfolgt und nach jedem Belichten jeweils nur ein Auslesen der Teilfläche (21) des Bildsensors (5) mit der interessierenden Bildregion erfolgt.Method for taking pictures of an observation object ( 17 ) with an electronic image sensor ( 5 ), in which: - a full image on an exposed sensor surface ( 19 ) of the image sensor ( 5 ), wherein an image region of the frame of interest on a partial surface ( 21 ) of the image sensor ( 5 ), and - the images are taken by the image sensor ( 5 ) is exposed for the respective image and read out after each exposure, wherein an exposure of the image sensor ( 5 ) and a readout of the entire image area exposed to a full image ( 19 ) at least once exposing the image sensor ( 5 ) and reading out only the partial area ( 21 ) of the image sensor ( 5 ) with the image region of interest before re-exposure of the image sensor ( 5 ) and a reading of the entire exposed sensor surface ( 19 ), characterized in that as an image sensor ( 5 ) a monochrome image sensor is used, for illuminating a lighting of the observation object ( 17 ) takes place in lighting cycles in which the observation object ( 17 ) is time-sequentially illuminated with white light and with N different wavelength distributions (L1-LN), and the readout of the image sensor ( 5 ) in exposure and read-out cycles, wherein the illumination cycles and the exposure and read-out cycles are synchronized in such a way that, per exposure and read-out cycle, a) exposure of the image sensor (FIG. 5 ) with the white light of a lighting cycle and then reading the entire sensor surface ( 19 ), b) at least one time then an exposure and read-out sequence of the image sensor ( 5 ), in which the observation object ( 17 ) is successively illuminated with different wavelength distributions of a lighting cycle, each time the object to be illuminated is illuminated ( 17 ) with one of the wavelength distributions an exposure takes place and after each exposure only one readout of the partial area ( 21 ) of the image sensor ( 5 ) takes place with the image region of interest. Verfahren nach Anspruch 1 oder Anspruch 2, in dem eine Belichtung des Bildsensors (5) für das i-te Bild während des Auslesens des i – 1-sten Bildes erfolgt.Method according to Claim 1 or Claim 2, in which an exposure of the image sensor ( 5 ) for the i-th image while reading the i-1th image. Verfahren nach Anspruch 3, in dem die Intensität der Beleuchtung für die i-te Belichtung gegenüber der Beleuchtung für die i – 1-ste Belichtung herabgesetzt ist, wenn zum Auslesen des i – 1-sten Bildes die gesamte belichtete Sensorfläche (19) ausgelesen wird.Method according to Claim 3, in which the intensity of the illumination for the i-th illumination relative to the illumination for the i-th first exposure is reduced if, for reading out the i-1-th image, the entire exposed sensor surface ( 19 ) is read out. Verfahren nach Anspruch 3, in dem die Belichtungsdauer für die i-te Belichtung gegenüber der Belichtungsdauer für die i – 1-ste Belichtung herabgesetzt ist, wenn zum Auslesen des i – 1-sten Bildes die gesamte belichtete Sensorfläche (19) ausgelesen wird.Method according to Claim 3, in which the exposure time for the i-th exposure is reduced relative to the exposure time for the i-th first exposure if, for reading out the i-1-th image, the entire exposed sensor area ( 19 ) is read out. Verfahren nach einem der Ansprüche 1 bis 5, in dem beim Auslesen der gesamten Sensorfläche (19) nur jede j-te Sensorzeile und/oder nur jede k-te Sensorspalte mit j > 1, k > 1 ausgelesen wird bzw. werden oder in dem Pixel des Bildsensors zu Pixelblöcken zusammengefasst werden und die Pixel eines Pixelblockes jeweils gemeinsam ausgelesen werden.Method according to one of Claims 1 to 5, in which, when the entire sensor surface is read ( 19 ) only every jth sensor line and / or every k-th sensor column with j> 1, k> 1 is read out or are combined in the pixel of the image sensor into pixel blocks and the pixels of a pixel block are read together in each case. Verfahren nach einem der vorangehenden Ansprüche, in dem die N unterschiedlichen Wellenlängenverteilungen (L1–LN) wenigstens die Grundfarben eines RGB-Farbraums oder eines CMY-Farbraums umfassen.Method according to one of the preceding claims, in which the N different wavelength distributions (L1-LN) comprise at least the basic colors of an RGB color space or of a CMY color space. Verfahren nach Anspruch 7, in dem die N unterschiedlichen Wellenlängenverteilungen (L1–LN) zusätzlich zu den Grundfarben eines RGB-Farbraums oder eines CMY-Farbraums wenigstens eine weitere Wellenlängenverteilung umfassen.Method according to Claim 7, in which the N different wavelength distributions (L1-LN) comprise at least one further wavelength distribution in addition to the basic colors of an RGB color space or of a CMY color space. Verfahren nach Anspruch 7 oder Anspruch 8, in dem aus den Grundfarben eines RGB-Farbraums oder eines CMY-Farbraums ein Farbbild generiert wird.Method according to Claim 7 or Claim 8, in which a color image is generated from the primary colors of an RGB color space or of a CMY color space. Verfahren nach einem der vorangehenden Ansprüche, in dem zusätzlich zu den Belichtungen bei den N Wellenlängenverteilungen wenigstens ein mal eine Belichtung ohne Beleuchtung erfolgt.Method according to one of the preceding claims, in which, in addition to the exposures in the N wavelength distributions, at least one exposure takes place without illumination. Verfahren nach einem der vorangehenden Ansprüche, in dem die Position der interessierenden Bildregion im Vollbild durch Bestimmen der Blickrichtung eines das Vollbild betrachtenden Beobachters ermittelt wird.Method according to one of the preceding claims, in which the position of the image region of interest in the frame is determined by determining the viewing direction of an observer viewing the frame. Verfahren nach Anspruch 11, in dem die Blickrichtung wiederholt ermittelt und die Position der die interessierende Bildregion repräsentierenden Teilfläche (21) des Bildsensors (5) auf der Sensorfläche (19) anhand der jeweils aktuell ermittelten Blickrichtung aktualisiert wird.Method according to Claim 11, in which the viewing direction is determined repeatedly and the position of the subarea representing the region of interest ( 21 ) of the image sensor ( 5 ) on the sensor surface ( 19 ) is updated on the basis of the currently determined viewing direction. Verfahren nach Anspruch 11, in dem das Ermitteln der Blickrichtung mit einer Rate von weniger als 20 Hz erfolgt.The method of claim 11, wherein determining the line of sight is at a rate of less than 20 Hz. Verfahren nach einem der vorhergehenden Ansprüche, in dem mittels einer Bilderkennungssoftware ein bewegtes Objekt im Vollbild erkannt wird und die die interessierende Bildregion im Vollbild repräsentierende Teilfläche (21) des Bildsensors (5) so auf der belichteten Sensorfläche (19) positioniert und dem Bild des bewegten Objekts auf der belichteten Sensorfläche (19) nachgeführt wird, dass das Bild des bewegten Objekts in der Teilfläche (21) verbleibt.Method according to one of the preceding claims, in which a moving object is recognized in full image by means of an image recognition software and the partial area representing the region of interest ( 21 ) of the image sensor ( 5 ) so on the exposed sensor surface ( 19 ) and the image of the moving object on the exposed sensor surface ( 19 ), that the image of the moving object in the subarea ( 21 ) remains. Verfahren nach einem der vorangehenden Ansprüche, in dem als Bilder des Beobachtungsobjekts (17) dreidimensionale Bilder aufgenommen werden, die aus wenigstens zwei unter verschiedenen Sichtwinkeln aufgenommenen Perspektivbildern zusammengesetzt sind, wobei alle Perspektivbilder zeitsequentiell mit einem elektronischen Bildsensor (5) aufgenommen werden und das Verfahren nach einem der vorangehenden Ansprüche auf das Aufnehmen der Perspektivbilder angewandt wird.Method according to one of the preceding claims, in which as images of the observation object ( 17 ) three-dimensional images, which are composed of at least two perspective images taken at different viewing angles, wherein all perspective images are time-sequential with an electronic image sensor ( 5 ) and the method of any one of the preceding claims is applied to taking the perspective images. Verfahren nach Anspruch 15 und Anspruch 1, in dem zum Aufnehmen eines dreidimensionalen Bildes zuerst nacheinander die Schritte a), b) und c) eines Belichtungs- und Auslesezyklus für ein Perspektivbild ausgeführt werden bevor die Schritte a), b) und c) für das nächste Perspektivbild ausgeführt werden.A method according to claim 15 and claim 1, wherein, for taking a three-dimensional image, steps a), b) and c) of a perspective image exposure and readout cycle are first performed before the steps a), b) and c) for the next perspective image to be executed. Verfahren nach Anspruch 15 und Anspruch 1, in dem zum Aufnehmen eines dreidimensionalen Bildes – der Belichtungs- und Auslesezyklus so oft nacheinander ausgeführt wird, wie das dreidimensionale Bild Perspektivbilder aufweist, – ein Wechsel zwischen dem Aufnehmen eines Perspektivbildes und dem Aufnehmen des nächsten Perspektivbildes immer dann erfolgt, wenn ein Beleuchtungszyklus beendet ist.A method according to claim 15 and claim 1, wherein for capturing a three-dimensional image The exposure and readout cycle is carried out successively as the three-dimensional image has perspective images, A change takes place between the taking of a perspective image and the taking of the next perspective image whenever a lighting cycle has ended. Verfahren nach Anspruch 15 und Anspruch 2, in dem zum Aufnehmen eines dreidimensionalen Bildes – der Belichtungs- und Auslesezyklus so oft nacheinander ausgeführt wird, wie das dreidimensionale Bild Perspektivbilder aufweist, und – ein Wechsel zwischen dem Aufnehmen eines Perspektivbildes und dem Aufnehmen des nächsten Perspektivbildes erfolgt, nachdem ein Belichten und Auslesen des Bildsensors (5) mit dem weißen Licht und allen N Wellenlängenverteilungen des Beleuchtungszyklus erfolgt ist.A method according to claim 15 and claim 2, wherein for taking a three-dimensional image, the exposure and readout cycle is performed as many times as the three-dimensional image comprises perspective images, and there is a change between taking a perspective image and taking the next perspective image after exposing and reading the image sensor ( 5 ) with the white light and all N wavelength distributions of the illumination cycle. Computer-Programm mit Anweisungen zur Durchführung des Verfahrens nach einem der vorangehenden Ansprüche. Computer program with instructions for carrying out the method according to one of the preceding claims. Optisches Beobachtungsgerät zum Aufnehmen von Bildern eines Beobachtungsobjekts mit – wenigstens einem elektronischen Bildsensor (5), – einer Beobachtungsoptik (1), die ein Objektfeld des Beobachtungsobjekts (17) als Vollbild auf die belichtete Sensorfläche (19) des Bildsensors (5) abbildet, – einer Auswahleinrichtung zum Auswählen einer Teilfläche (21) des Bildsensors (5), die einer interessierenden Bildregion des Vollbildes entspricht, und – einer Sensorsteuereinheit, die zum Steuern des Belichtens und Auslesens des Bildsensors nach dem Verfahren gemäß einem der Ansprüche 1 bis 18 ausgebildet ist, dadurch gekennzeichnet, dass es außerdem umfasst: – eine Beleuchtungseinrichtung mit in unterschiedlichen Wellenlängenverteilungen emittierenden, gepulst betreibbaren Beleuchtungslichtquellen (L1–LN), – eine Beleuchtungsoptik (13) zur Zufuhr des Lichtes der Beleuchtungslichtquellen (L1–LN) zum Beobachtungsobjekt (17) und – eine Beleuchtungssteuereinheit, die auf die Beleuchtungslichtquellen (L1–LN) derart einwirkt, dass diese im Wechsel gepulst betrieben werden, – eine mit der Sensorsteuereinheit und der Beleuchtungssteuereinheit (1) verbundene Synchronisationseinheit (15) zum Synchronisieren des gepulsten Betriebs der Beleuchtungslichtquellen (L1–LN) mit dem Belichten und Auslesen des Bildsensors (5) gemäß dem Verfahren nach einem der Ansprüche 1 bis 18.Optical observation device for taking pictures of an observation object with - at least one electronic image sensor ( 5 ), - an observation optics ( 1 ), which is an object field of the observation object ( 17 ) in full screen on the exposed sensor surface ( 19 ) of the image sensor ( 5 ), - a selection device for selecting a partial area ( 21 ) of the image sensor ( 5 ), which corresponds to an image region of interest of the frame, and a sensor control unit adapted to control the exposure and readout of the image sensor according to the method of any of claims 1 to 18, characterized in that it further comprises: - a lighting device with in pulsed illumination light sources (L1-LN) emitting pulsed light which can be operated in different wavelength distributions, 13 ) for supplying the light of the illumination light sources (L1-LN) to the observation object ( 17 ) and - a lighting control unit which acts on the illumination light sources (L1-LN) in such a way that they are pulsed alternately, - one with the sensor control unit and the lighting control unit ( 1 ) connected synchronization unit ( 15 ) for synchronizing the pulsed operation of the illumination light sources (L1-LN) with the exposure and readout of the image sensor ( 5 ) according to the method of any one of claims 1 to 18. Optisches Beobachtungsgerät nach Anspruch 20, in dem wenigstens drei Beleuchtungslichtquellen (L1–LN) vorhanden sind, von denen jede eine Wellenlängenverteilung mit einem Maximum bei einer Grundfarbe eines RGB-Farbraums oder eines CMY-Farbraums aufweist.An optical observation apparatus according to claim 20, wherein there are at least three illumination light sources (L1-LN) each of which has a wavelength distribution having a maximum in a basic color of an RGB color space or a CMY color space. Optisches Beobachtungsgerät nach Anspruch 20 oder Anspruch 21, in dem wenigstens eine Beleuchtungslichtquelle (L1–LN) vorhanden ist, deren Wellenlängenverteilung wenigstens ein Maximum außerhalb des Bereiches von 430–750 nm aufweist.An optical observation apparatus according to claim 20 or claim 21, wherein there is at least one illumination light source (L1-LN) whose wavelength distribution has at least a maximum outside the range of 430-750 nm. Optisches Beobachtungsgerät nach Anspruch 21 und Anspruch 22, in dem außerdem eine Darstellungseinheit (7) vorhanden ist, die – aus denjenigen Belichtungen des Bildsensors (5), die bei Beleuchtung des Beobachtungsobjekts (17) mit einer Beleuchtungslichtquelle (L1–LN) mit einem Maximum bei einer Grundfarbe eines RGB-Farbraums oder CMY-Farbraums erfolgen, ein Farbbild synthetisiert und – aus derjenigen Belichtung des Bildsensors (5), die bei Beleuchtung des Beobachtungsobjekts (17) mit der Beleuchtungslichtquelle (L1–LN), in deren Wellenlängenverteilung wenigstens ein Maximum außerhalb des Bereiches von 430–750 nm vorhanden ist, erfolgt, ein von dem Farbbild unabhängiges Bild generiert.An optical observation apparatus according to claim 21 and claim 22, further comprising a display unit (16). 7 ), which - from those exposures of the image sensor ( 5 ), which are illuminated when the observation object ( 17 ) with an illumination light source (L1-LN) with a maximum in a base color of an RGB color space or CMY color space, a color image is synthesized and - from that exposure of the image sensor ( 5 ), which are illuminated when the observation object ( 17 ) with the illumination light source (L1-LN), in whose wavelength distribution at least a maximum outside the range of 430-750 nm is present, an image independent of the color image is generated. Optisches Beobachtungsgerät nach Anspruch 23, in dem außerdem eine Überlagerungseinheit vorhanden ist, die das von dem Farbbild unabhängige Bild dem Farbbild überlagert.An optical observation apparatus according to claim 23, further comprising an overlay unit overlaying the image independent of the color image onto the color image. Optisches Beobachtungsgerät nach einem der Ansprüche 22 bis 24, in dem – die wenigstens eine weitere Beleuchtungslichtquelle (L1–LN), in deren Wellenlängenverteilung wenigstens ein Maximum außerhalb des Bereiches von 430–750 nm liegt, eine Wellenlängenmaximum besitzt, das eine Fluoreszenz im Beobachtungsobjekt (17) anregt, und – im Beobachtungsstrahlengang ein Filter (23) vorhanden oder einbringbar ist, der die Wellenlängen dieses Wellenlängenmaximums blockiert.Optical observation device according to one of claims 22 to 24, in which - the at least one further illumination light source (L1-LN), whose wavelength distribution is at least a maximum outside the range of 430-750 nm, has a wavelength maximum which is a fluorescence in the observed object ( 17 ), and - in the observation beam path a filter ( 23 ) is present or can be introduced, blocking the wavelengths of this wavelength maximum. Optisches Beobachtungsgerät nach einem der Ansprüche 20 bis 25 in dem die Beleuchtungsoptik (13) eine Zusammenführeinrichtung (11) zum Zusammenführen der Beleuchtungsstrahlengänge der einzelnen Beleuchtungslichtquellen (L1–LN) aufweist.Optical observation device according to one of Claims 20 to 25, in which the illumination optics ( 13 ) an assembly device ( 11 ) for merging the illumination beam paths of the individual illumination light sources (L1-LN). Optisches Beobachtungsgerät nach einem der Ansprüche 20 bis 26, in der die Beobachtungsoptik (1) eine Beobachtungsoptik ist die das Aufnehmen von Perspektivbildern aus wenigstens zwei unterschiedlichen Sichtwinkeln erlaubt.Optical observation device according to one of Claims 20 to 26, in which the observation optics ( 1 ) is an observation optics which allows the taking of perspective images from at least two different angles of view. Optisches Beobachtungsgerät nach Anspruch 27, in dem die Beobachtungsoptik derart ausgebildet ist, dass die Strahlenbündel der Perspektivbilder zeitsequentiell auf denselben Bildsensor (5) abgebildet werden.An optical observation device according to claim 27, in which the observation optics are designed in such a way that the beams of the perspective images are time-sequentially directed to the same image sensor ( 5 ).
DE102011053250.1A 2011-09-05 2011-09-05 A method of capturing images of an observation object with an electronic image sensor and an optical observation device Active DE102011053250B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011053250.1A DE102011053250B4 (en) 2011-09-05 2011-09-05 A method of capturing images of an observation object with an electronic image sensor and an optical observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011053250.1A DE102011053250B4 (en) 2011-09-05 2011-09-05 A method of capturing images of an observation object with an electronic image sensor and an optical observation device

Publications (2)

Publication Number Publication Date
DE102011053250A1 DE102011053250A1 (en) 2013-03-07
DE102011053250B4 true DE102011053250B4 (en) 2016-11-17

Family

ID=47710418

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011053250.1A Active DE102011053250B4 (en) 2011-09-05 2011-09-05 A method of capturing images of an observation object with an electronic image sensor and an optical observation device

Country Status (1)

Country Link
DE (1) DE102011053250B4 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013104060B4 (en) * 2013-04-22 2016-10-13 Deutsches Zentrum für Luft- und Raumfahrt e.V. Method and device for videographic tracking of fast moving objects
DE102013226196A1 (en) * 2013-12-17 2015-06-18 Volkswagen Aktiengesellschaft Optical sensor system
CN112040118B (en) 2015-09-16 2022-06-07 佳能株式会社 Image pickup apparatus
DE112016004211T5 (en) 2015-09-16 2018-06-14 Canon Kabushiki Kaisha Image sensor and image pickup device
CN112584066B (en) * 2020-11-20 2024-01-05 格科微电子(上海)有限公司 Exposure and reading control method and device, storage medium, and image processing apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0601179B1 (en) * 1992-06-26 1998-12-30 Apollo Camera, L.L.C. Single sensor video imaging system and method using sequential color object illumination
DE102008017390A1 (en) * 2008-04-02 2009-10-08 Carl Zeiss Surgical Gmbh Method and apparatus for capturing color images and LDI signals from an object
EP2362641A1 (en) * 2010-02-18 2011-08-31 Raytheon Company Imaging System

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29620732U1 (en) 1995-09-26 1997-04-24 Storz Karl Gmbh & Co Device for photodynamic diagnosis
DE102011010262B4 (en) 2011-01-27 2013-05-16 Carl Zeiss Meditec Ag Optical observation device with at least two each having a partial beam path having optical transmission channels

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0601179B1 (en) * 1992-06-26 1998-12-30 Apollo Camera, L.L.C. Single sensor video imaging system and method using sequential color object illumination
DE102008017390A1 (en) * 2008-04-02 2009-10-08 Carl Zeiss Surgical Gmbh Method and apparatus for capturing color images and LDI signals from an object
EP2362641A1 (en) * 2010-02-18 2011-08-31 Raytheon Company Imaging System

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ADAMS, Andrew et al.: The Frankencamera: An Experimental Platform for Computational Photography. ACM Transactions on Graphics, Vol. 29, No. 4, July 2010. Article 29, pp. 29:1 - 29:12. *
APTINA Imaging Corp.: MT9P031: 1/2.5-Inch 5Mp CMOS Digital Image Sensor. Data Sheet F. Firmenschrift, MT9P031_DS - Rev. F 5/11 EN, Copyright 2005, 16.08.2011. Singapore: Aptina, 2011. *
CYPRESS Semiconductor Corp.: LUPA-4000 - 4M Pixel CMOS Image Sensor. Data Sheet. Firmenschrift, Document Number 38-05712 Rev. *B, Revised January 4, 2007. San Jose, CA: CYPRESS, 2007. *
PULLI, Kari et al.: FCam: An Architecture and API for Computational Cameras. SA'11: SIGGRAPH Asia 2011 Courses, December 2011. ISBN: 978-1-4503-1135-9. New York, NY: ACM, 2011. *

Also Published As

Publication number Publication date
DE102011053250A1 (en) 2013-03-07

Similar Documents

Publication Publication Date Title
DE19535114B4 (en) Endoscope system with fluorescence diagnosis
DE10362402B3 (en) Microscopy system and microscopy method
DE3743920C2 (en)
DE102005034332A1 (en) Apparatus and method for observation, documentation and / or diagnosis of the ocular fundus
DE102010045364A1 (en) Method for generating high-quality fundus image of eye of patient, involves obtaining color intensity distribution for correcting color composition of resultant color fundus image based on dark image representing noise of sensor
DE102010044502A1 (en) Special lighting Video Operations stereomicroscope
DE102009015598B4 (en) Method and device for finding functional tissue areas in a tissue area
DE102014110131A1 (en) Image pickup device and image recording method
DE102006042670A1 (en) Electronic endoscope system
DE10204430A1 (en) Stereo microscopy method and stereo microscopy system
DE102011053250B4 (en) A method of capturing images of an observation object with an electronic image sensor and an optical observation device
DE102005034658A1 (en) Electronic endoscope system for fluorescence observation
WO2014060412A1 (en) Stereoscopic imaging system
DE102004062226A1 (en) Device for viewing a fundus
DE102015216570A1 (en) microscopy system
DE102018110641B3 (en) Microscopy method for imaging an object and microscope
DE19502472A1 (en) Method and device for picking up an object
DE102020105459A1 (en) MEDICAL IMAGING DEVICE WITH MULTIPLE IMAGING MODES
DE102009010446A1 (en) Method for quantification of blood flow in tissue area, involves adjusting image of tissue area in wavelength area of fluorescence radiation of color material by electronic image sensor
DE102011123037B3 (en) Method of capturing images of an observation object with an electronic image sensor and optical observation device
DE3818278C2 (en) Examination device for the eye, in particular the fundus, and method for operating the same
DE10357734A1 (en) Universal ophthalmological examination device and ophthalmological examination method
DE102018110643B3 (en) Stereo microscope and method for stereomicroscopy
DE102018110642B4 (en) Microscopy method for imaging an object and microscope
WO2014166954A1 (en) Method for photographically observing and/or documenting the fundus of an eye, and fundus camera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R082 Change of representative

Representative=s name: PATERIS THEOBALD ELBEL FISCHER, PATENTANWAELTE, DE

R081 Change of applicant/patentee

Owner name: CARL ZEISS AG, DE

Free format text: FORMER OWNER: CARL ZEISS AG, 73447 OBERKOCHEN, DE

Effective date: 20130423

Owner name: CARL ZEISS MEDITEC AG, DE

Free format text: FORMER OWNER: CARL ZEISS AG, 73447 OBERKOCHEN, DE

Effective date: 20130423

R082 Change of representative

Representative=s name: PATERIS PATENTANWAELTE, DE

Effective date: 20130423

Representative=s name: PATERIS THEOBALD ELBEL FISCHER, PATENTANWAELTE, DE

Effective date: 20130423

R016 Response to examination communication
R130 Divisional application to

Ref document number: 102011123037

Country of ref document: DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005345000

Ipc: H04N0025440000