WO2020207984A1 - Bildaufnahmesystem und verfahren zum aufnehmen von bildern - Google Patents

Bildaufnahmesystem und verfahren zum aufnehmen von bildern Download PDF

Info

Publication number
WO2020207984A1
WO2020207984A1 PCT/EP2020/059804 EP2020059804W WO2020207984A1 WO 2020207984 A1 WO2020207984 A1 WO 2020207984A1 EP 2020059804 W EP2020059804 W EP 2020059804W WO 2020207984 A1 WO2020207984 A1 WO 2020207984A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensors
sensor
additional sensor
resolution
water
Prior art date
Application number
PCT/EP2020/059804
Other languages
English (en)
French (fr)
Inventor
Dirk Döring
Mario Sondermann
Andreas Kaiser
Andrea Berner
Original Assignee
Carl Zeiss Jena Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Jena Gmbh filed Critical Carl Zeiss Jena Gmbh
Priority to NO20211009A priority Critical patent/NO347566B1/en
Priority to CA3132090A priority patent/CA3132090A1/en
Publication of WO2020207984A1 publication Critical patent/WO2020207984A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/15Image signal generation with circuitry for avoiding or correcting image misregistration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the invention relates to an image recording system and a method for recording images.
  • a variety of imaging systems using multiple image sensors are known.
  • a monochrome sensor and a color sensor are used for aerial photography with an airplane.
  • the monochrome sensor usually has a higher resolution than the color sensor.
  • the color information of the color sensor can be offset against the information of the monochrome sensor, whereby a high-resolution color image can be generated.
  • the object is much closer to the image recording system than with aerial photos from an airplane (e.g. from a height of 500 m), so that a parallax exists between the different image sensors. This can lead to the fact that the combination or offsetting of the information from the color sensor with the information from the monochrome sensor leads to an incorrect assignment of the respective pixels or
  • the invention is based on the object of providing an image recording system or a method for recording images by means of which an image of an object can be generated based on a plurality of image sensors without parallax errors.
  • the task is performed by an image recording system, in particular a
  • Underwater image recording system solved for recording images of an object, the image recording system comprising: two high-resolution sensors and an additional sensor, the two high-resolution sensors each having a higher one
  • Calculation device for calculating a parallax between the high-resolution sensors and the additional sensor for improved assignment of the information from the additional sensor to the information from the high-resolution sensors, wherein
  • the additional sensor is arranged between the high-resolution sensors.
  • parallax is taken into account when assigning the information from the additional sensor to the information from the high-resolution sensors.
  • the image recording system can have a technically simple structure and be compact.
  • a 3D reconstruction (actual size and distance) of the object is also possible.
  • the high-resolution sensors can be arranged on the edge and the additional sensor can be arranged further away from the edge.
  • the object is also achieved by a method for recording images of an object, in particular by means of an image recording system according to one of the preceding Claims, solved, wherein the method comprises the following steps: recording images of the object by means of two high-resolution sensors and an additional sensor, the two high-resolution sensors and the additional sensor being arranged in one plane; Calculating a parallax between the high-resolution sensors and the additional sensor on the basis of the recorded images of the two high-resolution sensors; and
  • High resolution sensors is taken into account. This technically simply prevents incorrect assignment of the information from the sensors to one another. As a result, this leads to a reproduction of the object that is particularly true to the original.
  • This method also only requires a small amount of computing power.
  • a 3D reconstruction (actual size and distance) of the object is also possible, the additional sensor being arranged between the high-resolution sensors. In other words, in the method, the additional sensor can be arranged in an area that extends between the high-resolution sensors. Another advantage of this method is that the reliability or precision of the assignment of the information from the additional sensor to the information from the high-resolution sensor or high-resolution sensors is improved, since the parallax can be determined particularly precisely.
  • the additional sensor and the high-resolution sensors are arranged essentially along an imaginary straight line.
  • the sensors can be arranged on a straight line, so that there is essentially no lateral offset between the sensors.
  • the advantage here is that the parallax can be determined particularly precisely, so that the information from the additional sensor is particularly reliable in relation to the information from the
  • High resolution sensors can be assigned.
  • the additional sensor is arranged centrally between the high-resolution sensors.
  • High-resolution sensor essentially correspond to the distance from the additional sensor to a second high-resolution sensor.
  • the parallax can be determined even more precisely, so that the information from the various sensors can be assigned to one another even more precisely or with fewer errors.
  • the additional sensor is a color sensor, in particular the additional sensor is a color sensor comprising a
  • a colored image of the object can be recorded by means of the additional sensor.
  • Image recording system can be generated.
  • the additional sensor comprises a plurality of monochrome sensors, with mutually different color filters being arranged between the plurality of monochrome sensors and the object in such a way that the plurality of monochrome sensors detect light of different colors.
  • the additional sensor itself can in turn have several monochrome sensors that record different color information by means of color filters.
  • the advantage here is that the image recording system can be designed to be particularly inexpensive.
  • the additional sensor can have a particularly high resolution in this way exhibit. This increases the quality of the assignment of the information from the additional sensor to the information from the high-resolution sensor.
  • the image recording system is an underwater image recording system for recording objects under water, wherein the image recording system further comprises a salinity sensor for determining the refractive index of the water based on a salinity of the water, the
  • Calculation device is designed to calculate depth and / or size information of the objects, the calculation device being designed to take into account the refractive index of the water determined on the basis of the salt content when calculating the depth and / or size information of the objects.
  • the image recording system can determine the refractive index of the water depending on the salinity.
  • the depth and size information that is calculated from the parallax can be determined with greater precision, since the refractive index of the water, which is included in this calculation, usually depends heavily on the salinity of the water. Thus, the quality of the image generated by the image recording system increases.
  • the image recording system is an underwater image recording system for recording objects under water
  • the image recording system further comprises a pressure sensor for determining the refractive index of the water based on a pressure of the water and / or a temperature sensor for determining the refractive index of the water based on a temperature of the water
  • the calculation device being designed to determine depth and / or size information of the objects, the calculation device taking into account the refractive index of the water determined by the pressure sensor and / or by the temperature sensor when determining the depth and / or size information of the objects is trained.
  • the image recording system can determine the pressure and / or the temperature of the water and thereby the refractive index of the water.
  • the depth and size information that is calculated from the parallax can be determined with greater precision, since the refractive index of the water, which is included in this calculation, usually depends on the temperature and the pressure of the water.
  • the quality of the image generated by the image recording system increases.
  • lenses which are essentially structurally identical to one another and have the same focal length are arranged between the object and the respective sensor.
  • the image recording system can comprise many structurally identical elements.
  • the image recording system has a particularly simple technical structure. This also ensures that the image sensors are the same
  • the additional sensor is a color sensor, in particular the additional sensor is a color sensor comprising a Bayer pattern.
  • the additional sensor can generate a color image of the object.
  • One advantage of this method is that an image with a very high level of information can be generated in a technically simple manner.
  • the additional sensor comprises several
  • Monochrome sensors with mutually different color filters being arranged between the monochrome sensors and the object in such a way that the multiple monochrome sensors detect light of different colors.
  • an additional sensor can be used with this method, which in turn has several black-and-white sensors, the several black-and-white sensors detecting different colors.
  • the additional sensor can generate an image with a high resolution by means of this method. As a result, the assignment of the information from the additional sensor to the information from the high-resolution sensor can be further improved.
  • the object is arranged under water
  • the method further comprises the following steps: determining a refractive index of the water based on a salinity of the water, and determining the depth and / or size information of the objects, the determined refractive index of the water at the
  • Determining the depth and / or size information of the objects is taken into account.
  • the refractive index which is dependent on the salt content of the water, can be determined with this method.
  • One advantage of this is that the parallax can be better determined and the information from the various sensors can thus be assigned with particularly high precision.
  • the object is arranged under water, and the method further comprises the step of determining the depth and / or depth
  • Size information of the objects and further the following step: determining a refractive index of the water based on a measured pressure of the water and / or determining a refractive index of the water based on a measured temperature of the water, wherein the determined refractive index of the water when determining the depth and / or size information is taken into account.
  • the refractive index which is slightly different from the
  • Temperature and pressure of the water is dependent, to be determined.
  • One advantage of this is that the depth and size information that is calculated from the parallax can be determined with greater precision.
  • the image recording system or the method can be designed to generate images under water or in water.
  • an exit lens can be provided which is calculated against water, i.e. which is designed for underwater use.
  • Fig. 1 is a schematic view of an embodiment of the invention
  • FIG. 2 is a schematic view of the image recording system from FIG. 1 with three
  • 3a shows a schematic view of the images of the three objects on the
  • FIG. 3b shows a schematic view of the combination of the images of the three objects from FIG.
  • FIG. 4 shows a schematic view of the determination of the parallax of the three objects from FIG. 2
  • FIG. and FIG. 5 shows a schematic view of the determined depth and size information of the three objects from FIG. 2.
  • FIG. 1 shows a schematic view of an embodiment of the image recording system 10 according to the invention.
  • the imaging system 10 may be a surface imaging system or a
  • An underwater imaging system is
  • the front lens of the image recording system 10 can be calculated against water, i. E. designed or designed for direct contact with water.
  • the image recording system 10 is designed to generate an image or a plurality of images or a film of an object 80, 82, 84.
  • the image recording system 10 is placed in water in order to record or generate an image or images of an object 80, 82, 84 that is also located in water or underwater.
  • the image recording system 10 comprises at least three image sensors, namely two
  • High-resolution sensors 20, 30 and an additional sensor 40 have a higher resolution or a higher one
  • a higher resolution can in particular mean that certain very small structures can still be reproduced, while this may no longer be possible with a lower resolution.
  • An objective 22, 32, 42 can be assigned to each sensor 20, 30, 40, for example. However, it is conceivable that two or all three sensors 20, 30, 40 share one lens.
  • the sensors 20, 30, 40 each create or generate an image of the object 80, 82, 84 or data for an image of the object 80, 82, 84, the images or the data of the various sensors 20, 30, 40 created or generated independently of each other
  • each sensor 20, 30, 40 has its own physical sensor.
  • the two high resolution sensors 20, 30 share a single physical sensor, i. a large sensor is divided into two high-resolution sensors 20, 30.
  • the high-resolution sensors 20, 30 can each be a monochrome sensor or a black-and-white sensor, for example.
  • the high-resolution sensors 20, 30 can each have a black-and-white sensor or monochrome sensor, for example.
  • the additional sensor 40 can be a color sensor, for example.
  • the color sensor can have a Bayer pattern or Bayer pattern. It is also conceivable that the color sensor, in addition to the colors red-green-blue, also has individual pixels for detecting infrared light.
  • the color sensor is formed by or comprises several monochrome sensors.
  • a color filter e.g. red, green, yellow
  • the object 80, 82, 84 can be arranged between three monochrome sensors and the object 80, 82, 84.
  • the monochrome sensor thus detects a color of the object 80, 82, 84. In this way, a color image can be put together. It is thus possible for the image recording system 10 to have only monochrome sensors. This lowers the cost of the image pickup system 10.
  • the object 80, 82, 84, of which the image is to be generated, is usually less than 10 m away from the image recording system 10.
  • the various sensors 20, 30, 40 thus have a parallax.
  • the image recording system 10 comprises a calculation device 70 for calculating a parallax between the high-resolution sensors 20, 30 and the additional sensor 40 and for assigning the images of the objects 90 ", 92", 94 "from the additional sensor 40 to the images 90, 92, 94, 90 ', 92', 94 'of the high-resolution sensors 20, 30.
  • the calculation device 70 to reconstruct the depth and / or size information of the objects recorded with the three sensors 20, 30, 40 80, 82, 84 is formed.
  • the calculation device 70 can be, for example, a computer with appropriate software or a chip specially designed for this purpose.
  • the calculation device 70 can be external, ie it can for example be a smartphone on which the calculation is carried out.
  • the calculation device 70 determines how great the parallax is between the sensors 20, 30, 40. In addition, the calculation device 70 determines which pixels of the additional sensor 40 correspond or correspond to which pixels of the high-resolution sensors 20, 30.
  • the information from the auxiliary sensor 40 e.g. the color information is assigned to corresponding pixels of the high-resolution sensors 20, 30 (so-called mapping) and in this way a high-resolution color image of the object 80, 82, 84 is generated.
  • the calculation device determines the depths from the parallax and the precisely known system parameters, the focal length of the lenses and the base distance or the distance between the sensors 20, 30, 40 and the depths of the refractive index determined very precisely with the aid of the pressure temperature sensor, temperature sensor and / or salinity sensor - and size information of the recorded objects.
  • the additional sensor 40 and the high-resolution sensors 20, 30 are located in one plane. It is possible that the sensors 20, 30, 40 are located along an imaginary straight line. The three sensors 20, 30, 40 are, so to speak, next to one another. The additional sensor 40 is usually located between the two high-resolution sensors 20, 30.
  • three high-resolution sensors 20, 30 are present, which are arranged uniformly around a centrally placed additional sensor 40.
  • the sensors 20, 30, 40 are usually arranged equidistant from one another. In other words, the distance between a sensor 20, 30, 40 and the immediately adjacent sensor 20, 30, 40 is always the same.
  • the object 80, 82, 84 is at a height which essentially corresponds to the height of the additional sensor 40 arranged in the center.
  • Y-axis (height) runs from bottom to top.
  • S-axis runs from left to right.
  • the parallax, the depth information and the size information can be determined as follows, the variables having the following meaning: y ob height of the object 80 y ' 0 height of the depicted object 80 in FIG. 1 on additional sensor 40
  • y ob2 ' parallax-free height of the second depicted object calculated from y ob2 ' 1 and y ob2 ' 2
  • y ob3 ' parallax-free height of the 3rd imaged object calculated from y ob3 ' 1 and y ob3 ' 2
  • Dy ob3 ' Parallax of the third imaged object ß ob1 imaging scale of the first object on the high-resolution sensors 20, 30 ß ob2 imaging scale of the second object on the high-resolution sensors 20, 30 ß ob3 imaging scale of the third object on the high-resolution sensors 20, 30
  • Parallax or displacement due to the different position in a direction parallel to the Y-axis between the various sensors 20, 30, 40 can be determined.
  • a parallax-free representation of the objects on the high-resolution sensors 20, 30 can be calculated and determine the associated color information on the additional sensor 40 in a technically simple manner. In this way, the pixels of the high-resolution sensors 20, 30 can be assigned to the respective corresponding pixel of the additional sensor 40 or vice versa.
  • the parallax can be determined directly from the relative offset of the images of the objects 90, 92, 94, 90 ‘, 92‘, 94 ‘on the two outer high-resolution sensors 20, 30:
  • the object location and the size of the object can be calculated with the aid of the image scale of the objects. All required information is recorded by the high-resolution sensors 20, 30 and can be read with knowledge of the system parameters
  • a high-resolution, colored 3-D reconstruction of the objects recorded with the sensors 20, 30, 40 can thus be achieved.
  • FIG. 2 shows a schematic view of the image recording system from FIG. 1 with three objects.
  • Fig. 3a shows a schematic View of the images of the three objects on the sensors of the image recording system from FIG. 1.
  • FIG. 3b shows a schematic view of the combination of the images of the three objects from FIG. 3a.
  • FIG. 4 shows a schematic view of the determination of the parallax of the three objects from FIG. 2.
  • FIG. 5 shows a schematic view of the determined depth and size information of the three objects from FIG. 2.
  • Three objects 80, 82, 84 located at different distances (s ob1 , s ob2 , s ob3 ) from the sensors at different heights (y ob1 , y ob2 , y ob3 ) are mapped onto sensors 20, 30, 40.
  • the zero line of the height runs horizontally through the center of the respective sensor 20, 30, 40. From here, the height positions of the images of the three objects 90, 92, 94, 90 ', 92', 94 ', 90 ", 92" , 94 ”as shown in Fig. 3a. The height positions are shown in each case by dotted lines in FIGS. 3a, 3b and 4.
  • FIG. 3b shows the distance of the parallax from the objects 80, 82, 84 recorded by the high-resolution sensors 20, 30 via the averaging of the measured positions.
  • the images 90 ‘, 92, 94‘ of the objects that are recorded with the additional sensor 40 are assigned to the high-resolution, monochrome, parallax-free images of the objects calculated using the mean values.
  • y ob1 y ob1 ' ⁇ * s ob1 / (f * n)
  • y ob2 y ob2 ' ⁇ * s ob2 / (f * n)
  • y ob3 y ob3 ' ⁇ * s ob1 / (f * n)
  • the sensors 20, 30, 40 can, for example, each comprise or be a CCD sensor (charged coupled device sensor).
  • CCD sensor charged coupled device sensor
  • High-resolution sensors 20, 30 are infrared sensors, while the auxiliary sensor 40 uses optical light. It is also conceivable that the additional sensor 40 use an infrared sensor and the two high-resolution sensors 20, 30 use light that is visible to humans.
  • the sensors 20, 30, 40 can use objectives 22, 32, 42 of essentially identical construction to one another.
  • the lenses can each have the same focal length. Is conceivable also that the sensors 20, 30, 40 have the same dimension or size.
  • the sensors 20, 30, 40 are of different sizes from one another.
  • the refractive index of the water depends on the salinity. Hence that
  • Imaging system 10 have a salinity sensor 50 for determining the salinity of the water and for determining the refractive index on the basis of the salinity determined.
  • the specific refractive index is used when calculating the depth and
  • the image recording system 10 can comprise a pressure sensor 52 and / or a temperature sensor 54.
  • the refractive index of water is slightly dependent on the pressure of the water and the temperature of the water.
  • the pressure sensor 52 measures the pressure of the water.
  • the temperature sensor 54 measures the temperature of the water.
  • the measured pressure and / or the measured temperature and / or the measured salt content are taken into account when calculating the depth and / or size information from the parallax. It is also conceivable that the pressure of the water is estimated or calculated by means of a depth measurement. In this way, the parallax can be calculated even more precisely. Consequently, the pixels of the high-resolution sensors 20, 30 can be assigned even better or more accurately to the respective pixel of the additional sensor 40 or vice versa (so-called mapping).
  • An intermediate image (for example from the mean values) can be calculated between the high-resolution sensors 20, 30.
  • This intermediate image corresponds to the image that would be generated by a high-resolution sensor 20, 30 that would be at the position of the additional sensor 40.
  • This image is offset against the image recorded by the additional sensor 40, taking into account the respective parallax.
  • an image can be generated which combines the information from the high-resolution sensors 20, 30 (with high resolution) and the information from the additional sensor 40.
  • a colored image with a resolution in the range of the resolution of the high-resolution sensors 20, 30 can be calculated in this way.
  • the color information that was obtained by the additional sensor 40 is “transferred” or mapped to the respective pixels of the high-resolution sensors 20, 30.
  • the image recording system 10 generates or calculates one or more images (one after the other) and outputs this or these and / or stores them. It is also conceivable that the images will be further processed. For example, pattern recognition is conceivable.
  • the image generated by the image recording system 10 can be any image generated by the image recording system 10.
  • the image generated by the image recording system 10 can be any image generated by the image recording system 10.
  • the resolution of the high-resolution sensors 20, 30 is usually the same.
  • the image recording system 10 can have further sensors in addition to the two high-resolution sensors 20, 30 and the additional sensor 40. These can use light visible to humans and / or infrared light.
  • the other sensors can have resolutions comparable to the resolution of the
  • the further sensors can be arranged in such a way that, for example, with five sensors, one sensor being the additional sensor 40, the additional sensor 40 is located centrally between the other four sensors arranged symmetrically around the additional sensor 40
  • the objects 80, 82, 84 are each represented in FIGS. 1-5 by means of a rectangular symbol. However, the objects 80, 82, 84 can have any type of external shape.
  • the objects 80, 82, 84 can e.g. have an ellipsoidal, cuboid, pyramidal or other shape.
  • the objects 80, 82, 84 can be flat (e.g.
  • disk-shaped or have a larger extension in the direction of the s-axis.
  • first high-resolution sensor first monochrome sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Endoscopes (AREA)
  • Measurement Of Optical Distance (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Es wird ein Bildaufnahmesystem (10), insbesondere ein Unterwasserbildaufnahmesystem, zum Aufnehmen von Bildern eines Objekts (80, 82, 84) vorgeschlagen, wobei das Bildaufnahmesystem (10) folgendes umfasst: zwei Hochauflösungs-Sensoren (20, 30) und einen Zusatz-Sensor (40), wobei die zwei Hochauflösungs-Sensoren (20, 30) jeweils ein höheres Auflösungsvermögen aufweisen als der Zusatz-Sensor (40), wobei die Hochauflösungs-Sensoren (20, 30) und der Zusatz-Sensor (40) im Wesentlichen in einer Ebene angeordnet sind, und eine Berechnungsvorrichtung (70) zum Berechnen einer Parallaxe zwischen den Hochauflösungs-Sensoren (20, 30) und dem Zusatz-Sensor (40) zum verbesserten Zuordnen der Informationen des Zusatz-Sensors (40) zu den Informationen der Hochauflösungs-Sensoren (20, 30), wobei der Zusatz-Sensor (40) zwischen den Hochauflösungs-Sensoren (20, 30) angeordnet ist.

Description

Bildaufnahmesystem und Verfahren zum Aufnehmen von Bildern
Beschreibung
Die Erfindung betrifft ein Bildaufnahmesystem und ein Verfahren zum Aufnehmen von Bildern.
Stand der Technik
Eine Vielzahl von Bildaufnahmesystemen, bei denen mehrere Bild-Sensoren verwendet werden, ist bekannt. So wird beispielsweise ein Monochrom-Sensor und ein Farb-Sensor für Luftaufnahmen mit einem Flugzeug verwendet. Der Monochrom-Sensor hat üblicherweise eine höhere Auflösung als der Farb-Sensor. Die Farbinformationen des Farb-Sensors können mit den Informationen des Monochrom-Sensors verrechnet werden, wodurch ein hochauflösendes farbiges Bild erzeugt werden kann.
Bei Unterwasseraufnahmen befindet sich das Objekt viel näher an dem Bildaufnahmesystem als bei Luftaufnahmen aus einem Flugzeug (z.B. aus 500 m Höhe), so dass eine Parallaxe zwischen den verschiedenen Bild-Sensoren existiert. Dies kann dazu führen, dass die Kombination bzw. Verrechnung der Informationen des Farb-Sensors mit den Informationen des Monochrom-Sensors zu einer falschen Zuordnung der jeweiligen Pixel bzw.
unzutreffenden Zuordnung führt, da eine Verschiebung bzw. ein Shift aufgrund der unterschiedlichen Positionen der beiden Sensoren vorhanden ist. Dies bedeutet, dass aufgrund der Parallaxe die jeweilige erfasste Farbe den falschen Pixeln des Monochrom- Sensors zugeordnet wird.
Offenbarung der Erfindung Der Erfindung liegt die Aufgabe zu Grunde, ein Bildaufnahmesystem bzw. ein Verfahren zum Aufnehmen von Bildern aufzuzeigen, mittels dem ein Bild eines Objekts basierend auf mehreren Bild-Sensoren ohne Parallaxenfehler erzeugt werden kann.
Diese Aufgabe wird durch ein Bildaufnahmesystem gemäß Anspruch 1 und ein Verfahren zum Aufnehmen von Bildern gemäß Anspruch 9 gelöst.
Insbesondere wird die Aufgabe durch ein Bildaufnahmesystem, insbesondere ein
Unterwasserbildaufnahmesystem, zum Aufnehmen von Bildern eines Objekts gelöst, wobei das Bildaufnahmesystem folgendes umfasst: zwei Hochauflösungs-Sensoren und einen Zusatz-Sensor, wobei die zwei Hochauflösungs-Sensoren jeweils ein höheres
Auflösungsvermögen aufweisen als der Zusatz-Sensor, wobei die Hochauflösungs-Sensoren und der Zusatz-Sensor im Wesentlichen in einer Ebene angeordnet sind, und eine
Berechnungsvorrichtung zum Berechnen einer Parallaxe zwischen den Hochauflösungs- Sensoren und dem Zusatz-Sensor zum verbesserten Zuordnen der Informationen des Zusatz-Sensors zu den Informationen der Hochauflösungs-Sensoren, wobei
der Zusatz-Sensor zwischen den Hochauflösungs-Sensoren angeordnet ist.
Ein Vorteil hiervon ist, dass eine Parallaxe bei der Zuordnung der Informationen des Zusatz- Sensors zu den Informationen der Hochauflösungs-Sensoren berücksichtigt wird bzw.
werden kann. Somit wird eine fehlerhafte Zuordnung von Informationen des Zusatz-Sensors zu den Informationen der Hochauflösungs-Sensoren verhindert bzw. stark verringert. Folglich wird die Exaktheit der Wiedergabe des Objekts auf dem durch das Bildaufnahmesystem erzeugten Bild erhöht. Zudem kann das Bildaufnahmesystem technisch einfach aufgebaut und kompakt sein. Auch ist eine 3D Rekonstruktion (tatsächliche Größe und Entfernung) des Objekts möglich. Mit anderen Worten können die Hochauflösungs-Sensoren am Rand angeordnet sein und der Zusatz-Sensor weiter entfernt vom Rand angeordnet sein.
Hierdurch wird die Genauigkeit bzw. Zuverlässigkeit der Zuordnung der Informationen des Zusatz-Sensors zu den Informationen von dem Hochauflösungs-Sensor bzw. den
Hochauflösungs-Sensoren verbessert, da die Parallaxe besonders genau bestimmt werden kann.
Insbesondere wird die Aufgabe auch durch ein Verfahren zum Aufnehmen von Bildern eines Objekts, insbesondere mittels eines Bildaufnahmesystems nach einem der vorhergehenden Ansprüche, gelöst, wobei das Verfahren folgende Schritte umfasst: Aufnehmen von Bildern des Objekts mittels zweier Hochauflösungs-Sensoren und einem Zusatz-Sensor, wobei die zwei Hochauflösungs-Sensoren und der Zusatz-Sensor in einer Ebene angeordnet sind; Berechnen einer Parallaxe zwischen den Hochauflösungs-Sensoren und dem Zusatz-Sensor auf Grundlage der aufgenommenen Bilder der zwei Hochauflösungs-Sensoren; und
Zuordnen der Information des Zusatz-Sensors zu einem Bild der Hochauflösungs-Sensoren oder einem berechneten Zwischenbild der Bilder der Hochauflösungs-Sensoren unter Berücksichtigung der berechneten Parallaxe.
Vorteilhaft an diesem Verfahren ist, dass eine Parallaxe bzw. Verschiebung bei der
Zuordnung der Informationen des Zusatz-Sensors zu den Informationen der
Hochauflösungs-Sensoren berücksichtigt wird. Dadurch wird eine unzutreffende Zuordnung der Informationen der Sensoren zueinander technisch einfach verhindert. Dies führt in der Folge zu einer besonders originalgetreuen Wiedergabe des Objekts. Auch wird bei diesem Verfahren nur eine geringe Rechenleistung benötigt. Auch ist eine 3D Rekonstruktion (tatsächliche Größe und Entfernung) des Objekts möglich, wobei der Zusatz-Sensor zwischen den Hochauflösungs-Sensoren angeordnet ist. Mit anderen Worten kann bei dem Verfahren der Zusatz-Sensor in einem Bereich angeordnet sein, der sich zwischen den Hochauflösungs-Sensoren erstreckt. Ein Vorteil dieses Verfahrens ist zudem, dass die Zuverlässigkeit bzw. Präzision der der Zuordnung der Informationen des Zusatz-Sensors zu den Informationen von dem Hochauflösungs-Sensor bzw. den Hochauflösungs-Sensoren verbessert wird, da die Parallaxe besonders genau bestimmt werden kann.
Gemäß einer Ausführungsform des Bildaufnahmesystems sind der Zusatz-Sensor und die Hochauflösungs-Sensoren im Wesentlichen entlang einer gedachten Gerade angeordnet.
Mit anderen Worten können die Sensoren auf einer Geraden angeordnet sein, so dass im Wesentlichen kein seitlicher Versatz der Sensoren zueinander vorhanden ist.
Vorteilhaft hieran ist, dass die Parallaxe besonders präzise bestimmt werden kann, so dass die Informationen des Zusatz-Sensors besonders zuverlässig den Informationen der
Hochauflösungs-Sensoren zugeordnet werden können. Gemäß einer Ausführungsform des Bildaufnahmesystems ist der Zusatz-Sensor mittig zwischen den Hochauflösungs-Sensoren angeordnet.
Mit anderen Worten kann der Abstand von dem Zusatz-Sensor zu einem ersten
Hochauflösungs-Sensor im Wesentlichen dem Abstand von dem Zusatz-Sensor zu einem zweiten Hochauflösungs-Sensor entsprechen.
Durch die mittige Anordnung kann die Parallaxe noch genauer bestimmt werden, so dass die Informationen der verschiedenen Sensoren noch präziser bzw. mit weniger Fehlern einander zugeordnet werden können.
Gemäß einer Ausführungsform des Bildaufnahmesystems ist der Zusatz-Sensor ein Farb- Sensor ist, insbesondere ist der Zusatz-Sensor ein Farb-Sensor umfassend ein
Bayermuster.
Mit anderen Worten kann mittels des Zusatz-Sensors ein farbiges Bild des Objekts aufgenommen werden.
Vorteilhaft hieran ist, dass ein Bild mit sehr vielen Informationen durch das
Bildaufnahmesystem erzeugt werden kann.
Gemäß einer Ausführungsform des Bildaufnahmesystems umfasst der Zusatz-Sensor mehrere Monochromsensoren, wobei zwischen den mehreren Monochromsensoren und dem Objekt zueinander unterschiedliche Farbfilter derart angeordnet sind, dass die mehreren Monochromsensoren Licht unterschiedlicher Farben erfassen.
Mit anderen Worten kann der Zusatz-Sensor selbst wiederum mehrere Monochromsensoren aufweisen, die mittels Farbfiltern unterschiedliche Farbinformationen aufzeichnen.
Vorteilhaft hieran ist, dass das Bildaufnahmesystem besonders kostengünstig ausgebildet sein kann. Zudem kann der Zusatz-Sensor auf diese Weise eine besonders hohe Auflösung aufweisen. Dies erhöht die Qualität der Zuordnung der Informationen des Zusatz-Sensors zu den Informationen des Hochauflösungs-Sensors.
Gemäß einer Ausführungsform des Bildaufnahmesystems ist das Bildaufnahmesystem ein Unterwasserbildaufnahmesystem zum Aufnehmen von Objekten unter Wasser, wobei das Bildaufnahmesystem ferner einen Salzgehaltsensor zum Bestimmen der Brechzahl des Wassers basierend auf einem Salzgehalt des Wassers umfasst, wobei die
Berechnungsvorrichtung zum Berechnen einer Tiefen- und/oder Größeninformation der Objekte ausgebildet ist, wobei die Berechnungsvorrichtung zum Berücksichtigen der auf Grundlage des Salzgehalts bestimmten Brechzahl des Wassers beim Berechnen der Tiefen- und/oder Größeninformation der Objekte ausgebildet ist.
Mit anderen Worten kann das Bildaufnahmesystem die Brechzahl des Wassers abhängig vom Salzgehalt bestimmen.
Hierdurch kann die Tiefen- und Größeninformation, die aus der Parallaxe berechnet wird, mit höherer Präzision bestimmt werden, da die Brechzahl des Wassers, die in diese Berechnung eingeht, üblicherweise stark vom Salzgehalt des Wassers abhängt. Somit steigt die Qualität des von dem Bildaufnahmesystem erzeugten Bilds.
Gemäß einer Ausführungsform des Bildaufnahmesystems ist das Bildaufnahmesystem ein Unterwasserbildaufnahmesystem zum Aufnehmen von Objekten unter Wasser, wobei das Bildaufnahmesystem ferner einen Drucksensor zum Bestimmen der Brechzahl des Wassers basierend auf einem Druck des Wassers und/oder einen Temperatursensor zum Bestimmen der Brechzahl des Wassers basierend auf einer Temperatur des Wassers umfasst wobei die Berechnungsvorrichtung zum Bestimmen einer Tiefen- und/oder Größeninformation der Objekte ausgebildet ist, wobei die Berechnungsvorrichtung zum Berücksichtigen der durch den Drucksensor und/oder durch den Temperatursensor bestimmten Brechzahl des Wassers beim Bestimmen der Tiefen- und/oder Größeninformation der Objekte ausgebildet ist.
Mit anderen Worten kann das Bildaufnahmesystem den Druck und/oder die Temperatur des Wassers und hierdurch die Brechzahl des Wassers bestimmen. Hierdurch kann die Tiefen- und Größeninformation, die aus der Parallaxe berechnet wird, mit höherer Präzision bestimmt werden, da die Brechzahl des Wassers, die in diese Berechnung eingeht, üblicherweise von der Temperatur und dem Druck des Wassers abhängt. Somit steigt die Qualität des von dem Bildaufnahmesystem erzeugten Bilds.
Gemäß einer Ausführungsform des Bildaufnahmesystems ist bei zumindest zwei der Sensoren, insbesondere bei den drei Sensoren, zueinander im Wesentlichen baugleiche Objektive mit gleicher Brennweite zwischen dem Objekt und dem jeweiligen Sensor angeordnet.
Mit anderen Worten kann das Bildaufnahmesystem viele baugleiche Elemente umfassen.
Vorteilhaft hieran ist, dass das Bildaufnahmesystem technisch besonders einfach aufgebaut ist. Zudem wird hierdurch sichergestellt, dass die Bild-Sensoren die gleichen
Inhomogenitäten bzw. Fertigungstoleranzen aufweisen. Auf diese Weise ist die Zuordnung der Informationen der Bild-Sensoren noch präziser.
Gemäß einer Ausführungsform des Verfahrens ist der Zusatz-Sensor ein Farb-Sensor, insbesondere ist der Zusatz-Sensor ein Farb-Sensor umfassend ein Bayermuster.
Mit anderen Worten kann der Zusatz-Sensor ein Farbbild des Objekts erzeugen.
Ein Vorteil dieses Verfahrens ist, dass ein Bild mit einem sehr hohen Informationsgrad technisch einfach erzeugt werden kann.
Gemäß einer Ausführungsform des Verfahrens umfasst der Zusatz-Sensor mehrere
Monochromsensoren, wobei zwischen den Monochromsensoren und dem Objekt zueinander unterschiedliche Farbfilter derart angeordnet sind, dass die mehreren Monochromsensoren Licht unterschiedlicher Farben erfassen. Mit anderen Worten kann bei diesem Verfahren ein Zusatz-Sensor verwendet werden, die wiederum mehrere Schwarz-Weiß-Sensoren aufweist, wobei die mehreren Schwarz-Weiß- Sensoren unterschiedliche Farben erfassen.
Ein Vorteil hiervon ist, dass das Verfahren ein besonders kostengünstiges
Bildaufnahmesystem verwenden kann. Darüber hinaus kann mittels dieses Verfahrens der Zusatz-Sensor ein Bild mit einer hohen Auflösung erzeugen. Hierdurch kann die Zuordnung der Informationen des Zusatz-Sensors zu den Informationen des Hochauflösungs-Sensors weiter verbessert werden.
Gemäß einer Ausführungsform des Verfahrens ist das Objekt unter Wasser angeordnet, und das Verfahren umfasst ferner folgende Schritte: Bestimmen einer Brechzahl des Wassers basierend auf einem Salzgehalt des Wassers, und Bestimmen der Tiefen- und/oder Größeninformation der Objekte, wobei die bestimmte Brechzahl des Wassers beim
Bestimmen der Tiefen- und/oder Größeninformation der Objekte berücksichtigt wird.
Mit anderen Worten kann bei diesem Verfahren die vom Salzgehalt des Wassers abhängige Brechzahl bestimmt werden.
Ein Vorteil hiervon ist, dass die Parallaxe besser bestimmt werden kann und somit die Zuordnung der Informationen der verschiedenen Sensoren mit besonders hoher Präzision durchgeführt werden kann.
Gemäß einer Ausführungsform des Verfahrens ist das Objekt unter Wasser angeordnet, und das Verfahren umfasst ferner den Schritt des Bestimmens der Tiefen- und/oder
Größeninformation der Objekte, und ferner folgenden Schritt: Bestimmen einer Brechzahl des Wassers basierend auf einem gemessenen Druck des Wassers und/oder Bestimmen einer Brechzahl des Wassers basierend auf einer gemessenen Temperatur des Wassers, wobei die bestimmte Brechzahl des Wassers beim Bestimmen der Tiefen- und/oder Größeninformation berücksichtigt wird. Mit anderen Worten kann bei dem Verfahren die Brechzahl, die geringfügig von der
Temperatur und dem Druck des Wassers abhängig ist, bestimmt werden.
Ein Vorteil hiervon ist, dass die Tiefen- und Größeninformation, die aus der Parallaxe berechnet wird, mit höherer Präzision bestimmt werden kann.
Das Bildaufnahmesystem bzw. das Verfahren kann zum Erzeugen von Bildern unter Wasser bzw. in Wasser ausgebildet sein. Hierzu kann eine Ausgangslinse vorhanden sein, die gegen Wasser gerechnet ist, d.h. die für Unterwassergebrauch ausgebildet ist.
Bevorzugte Ausführungsformen ergeben sich aus den Unteransprüchen. Nachfolgend wird die Erfindung anhand einer Zeichnung eines Ausführungsbeispiels näher erläutert. Hierbei zeigt
Fig. 1 eine schematische Ansicht einer Ausführungsform des erfindungsgemäßen
Bildaufnahmesystems mit einem Objekt;
Fig. 2 eine schematische Ansicht des Bildaufnahmesystems aus Fig. 1 mit drei
Objekten;
Fig. 3a eine schematische Ansicht der Abbildungen der drei Objekte auf den
Sensoren des Bildaufnahmesystems aus Fig. 1 ;
Fig. 3b schematische Ansicht der Kombination der Abbildungen der drei Objekte aus
Fig. 3a;
Fig. 4 eine schematische Ansicht der Bestimmung der Parallaxe der drei Objekte aus Fig. 2; und Fig. 5 eine schematische Ansicht der bestimmten Tiefen- und Größeninformationen der drei Objekte aus Fig. 2.
Bei der nachfolgenden Beschreibung werden für gleiche und gleich wirkende Teile dieselben Bezugsziffern verwendet.
Fig. 1 zeigt eine schematische Ansicht einer Ausführungsform des erfindungsgemäßen Bildaufnahmesystems 10.
Das Bildaufnahmesystem 10 kann ein Überwasserbildaufnahmesystem oder ein
Unterwasserbildaufnahmesystem sein. Ein Unterwasserbildaufnahmesystem ist
üblicherweise wasserdicht ist und ist zum Aufnehmen von Bildern von Objekten 80, 82, 84 unter Wasser bzw. in Wasser ausgebildet. Die Frontlinse des Bildaufnahmesystems 10 kann gegen Wasser gerechnet sein, d.h. für einen direkten Kontakt mit Wasser ausgelegt bzw. ausgebildet sein.
Das Bildaufnahmesystem 10 ist zum Erzeugen eines Bilds bzw. mehrerer Bilder oder eines Films eines Objekts 80, 82, 84 ausgebildet. Das Bildaufnahmesystem 10 wird in Wasser platziert, um ein Bild bzw. Bilder eines Objekts 80, 82, 84, das sich ebenfalls in Wasser bzw. unter Wasser befindet, aufzunehmen bzw. zu erzeugen.
Das Bildaufnahmesystem 10 umfasst mindestens drei Bild-Sensoren, nämlich zwei
Hochauflösungs-Sensoren 20, 30 und einen Zusatz-Sensor 40. Die zumindest zwei Hochauflösungs-Sensoren 20, 30 weisen eine höhere Auflösung bzw. eine höheres
Auflösungsvermögen auf im Vergleich zu der Auflösung des Zusatz-Sensors 40.
Ein höheres Auflösungsvermögen kann insbesondere bedeuteten, dass bestimmte kleinste Strukturen noch wiedergegeben werden können, während dies mit einem niedrigeren Auflösungsvermögen unter Umständen nicht mehr möglich ist. Jedem Sensor 20, 30, 40 kann beispielsweise jeweils ein Objektiv 22, 32, 42 zugeordnet sein. Denkbar ist jedoch, dass sich zwei oder alle drei Sensoren 20, 30, 40 ein Objektiv teilen.
Die Sensoren 20, 30, 40 erstellen bzw. erzeugen jeweils ein Bild des Objekts 80, 82, 84 bzw. Daten für ein Bild des Objekts 80, 82, 84, wobei die Bilder bzw. die Daten der verschiedenen Sensoren 20, 30, 40 unabhängig voneinander erstellt bzw. erzeugt werden.
In der Regel weist jeder Sensor 20, 30, 40 einen physikalisch eigenen Sensor auf. Es ist jedoch denkbar, dass die beiden Hochauflösungs-Sensoren 20, 30 sich einen einzigen physischen Sensor teilen, d.h. ein großer Sensor ist in zwei Hochauflösungs-Sensoren 20, 30 aufgeteilt.
Die Hochauflösungs-Sensoren 20, 30 können beispielsweise jeweils ein Monochrom-Sensor bzw. ein Schwarz-Weiß-Sensor sein. Die Hochauflösungs-Sensoren 20, 30 können beispielsweise jeweils einen Schwarz-Weiß-Sensor bzw. Monochrom-Sensor aufweisen.
Der Zusatz-Sensor 40 kann beispielsweise ein Farb-Sensor sein. Der Farb-Sensor kann ein Bayerpattern bzw. Bayer-Muster aufweisen. Denkbar ist auch, dass der Farb-Sensor neben den Farben Rot-Grün-Blau auch einzelne Pixel zum Erfassen von Infrarotlicht aufweist.
Vorstellbar ist auch, dass der Farb-Sensor durch mehrere Monochrom-Sensoren gebildet wird oder dies umfasst. Beispielsweise kann zwischen drei Monochrom-Sensoren und dem Objekt 80, 82, 84 jeweils ein Farbfilter (z.B. Rot, Grün, Gelb) angeordnet sein. Jeder
Monochrom-Sensor erfasst somit eine Farbe des Objekts 80, 82, 84. Auf diese Weise kann ein Farbbild zusammengesetzt werden. Somit ist es möglich, dass das Bildaufnahmesystem 10 nur Monochrom-Sensoren aufweist. Dies senkt die Kosten des Bildaufnahmesystems 10.
Das Objekt 80, 82, 84, von dem Bild erzeugt werden soll, befindet sich üblicherweise weniger als 10 m entfernt von dem Bildaufnahmesystem 10. Somit weisen die verschiedenen Sensoren 20, 30, 40 eine Parallaxe auf. Das Bildaufnahmesystem 10 umfasst eine Berechnungsvorrichtung 70 zum Berechnen einer Parallaxe zwischen den Hochauflösungs-Sensoren 20, 30 und dem Zusatz-Sensor 40 und zum Zuordnen der Abbildungen der Objekte 90“, 92“, 94“ vom Zusatz-Sensor 40 zu den Abbildungen 90, 92, 94, 90‘, 92‘, 94‘ der Hochauflösungs-Sensoren 20, 30. Zudem ist es möglich, dass die Berechnungsvorrichtung 70 zur Rekonstruktion der Tiefen- und/oder Größeninformation der mit den drei Sensoren 20, 30, 40 aufgenommenen Objekte 80, 82, 84 ausgebildet ist. Die Berechnungsvorrichtung 70 kann z.B. ein Computer mit entsprechender Software sein oder ein hierfür speziell entworfener Chip. Die Berechnungsvorrichtung 70 kann extern sein, d.h. es kann beispielsweise ein Smartphone sein, auf dem die Berechnung ausgeführt wird.
Die Berechnungsvorrichtung 70 bestimmt, wie groß die Parallaxe zwischen den Sensoren 20, 30, 40 ist. Zudem bestimmt die Berechnungsvorrichtung 70, welche Pixel des Zusatz- Sensors 40 welchen Pixeln der Hochauflösungs-Sensoren 20, 30 entsprechen bzw.
zugeordnet werden. Auf diese Weise kann die Information des Zusatz-Sensors 40, z.B. die Farbinformation, entsprechenden Pixeln der Hochauflösungs-Sensoren 20, 30 zugeordnet werden (sogenanntes Mapping) und auf diese Weise ein hochauflösendes farbiges Bild des Objekts 80, 82, 84 erzeugt werden. Die Berechnungsvorrichtung bestimmt aus der Parallaxe und den genau bekannten Systemparametern Brennweite der Objektive und Basisabstand bzw. dem Abstand der Sensoren 20, 30, 40 jeweils zueinander, sowie der aus den mit Hilfe der Drucktemperatursensor, Temperatursensor und/oder Salzgehaltsensor sehr präzise bestimmten Brechzahl die Tiefen- und Größeninformation der aufgenommenen Objekte.
Der Zusatz-Sensor 40 und die Hochauflösungs-Sensoren 20, 30 befinden sich in einer Ebene. Es ist möglich, dass sich die Sensoren 20, 30, 40 befinden entlang einer gedachten Gerade befinden. Die drei Sensoren 20, 30, 40 befinden sich sozusagen nebeneinander. Der Zusatz-Sensor 40 befindet sich üblicherweise zwischen den beiden Hochauflösungs- Sensoren 20, 30.
Es ist auch möglich, dass drei Hochauflösungs-Sensoren 20, 30 vorhanden sind, die um einen mittig platzierten Zusatz-Sensor 40 gleichmäßig angeordnet sind. Die die Sensoren 20, 30, 40 sind üblicherweise zueinander äquidistant angeordnet. D.h. der Abstand eines Sensors 20, 30, 40 zu dem unmittelbar benachbarten Sensor 20, 30, 40 ist jeweils gleichgroß.
In Fig. 1 befindet sich das Objekt 80, 82, 84 auf einer Höhe, die im Wesentlichen der Höhe des in der Mitte angeordneten Zusatz-Sensors 40 entspricht.
In Fig. 1 verläuft die Y-Achse (Höhe) von unten nach oben. Die S-Achse verläuft von links nach rechts.
Die Parallaxe, die Tiefeninformation und die Größeninformation lässt sich wie nachfolgend ermitteln, wobei die Variablen folgende Bedeutung haben: yob Höhe des Objekts 80 y‘0 Höhe des abgebildeten Objektes 80 in Fig. 1 auf Zusatz-Sensor 40
y‘1 Höhe des abgebildeten Objektes 80 in Fig. 1 auf oberen Hochauflösungs-Sensor 20 y‘2 Höhe des abgebildeten Objektes 80 in Fig. 1 auf unteren Hochauflösungs-Sensor 30 y’Ø parallaxefreie Höhe des Objektes 80 berechnet aus y‘1 und y‘2 f Brennweite der Objektive 22 und 32
n Brechzahl des Mediums in dem sich das Objekt 80 befindet
b Abstand der beiden äußeren Hochauflösungs-Sensoren 20, 30
s Entfernung des Objektes 80 von dem Bildaufnahmesystem 10
ß Abbildungsmaßstab des Objektes 80 in der Entfernung s auf den Hochauflösungs- Sensoren 20, 30
Dy‘(s) Parallaxe auf den Hochauflösungs-Sensoren 20, 30 sob1 Entfernung des ersten Objekts von dem Bildaufnahmesystem 10
sob2 Entfernung des zweiten Objekts von dem Bildaufnahmesystem 10
sob3 Entfernung des dritten Objekts von dem Bildaufnahmesystem 10 yob11 Höhe des ersten abgebildeten Objekts auf Hochauflösungs-Sensor 20
yob12 Höhe des ersten abgebildeten Objekts auf Hochauflösungs-Sensor 30
yob10 Höhe des ersten abgebildeten Objekts auf Zusatz-Sensor 40 yob1Ø parallaxefreie Höhe des ersten abgebildeten Objekts berechnet aus yob11 und yob12 Dyob1’ Parallaxe des ersten abgebildeten Objekts
yob21 Höhe des zweiten abgebildeten Objekts auf Hochauflösungs-Sensor 20
yob22 Höhe des zweiten abgebildeten Objekts auf Hochauflösungs-Sensor 30
yob20 Höhe des zweiten abgebildeten Objekts auf Zusatz-Sensor 40
yob2Ø parallaxefreie Höhe des zweiten abgebildeten Objekts berechnet aus yob21 und yob22
Dyob2’ Parallaxe des zweiten abgebildeten Objekts yob31 Höhe des dritten abgebildeten Objekts auf Hochauflösungs-Sensor 20
yob32 Höhe des dritten abgebildeten Objekts auf Hochauflösungs-Sensor 30
yob30 Höhe des dritten abgebildeten Objekts auf Zusatz-Sensor 40
yob3Ø parallaxefreie Höhe des 3. abgebildeten Objekts berechnet aus yob31 und yob32 Dyob3’ Parallaxe des dritten abgebildeten Objekts ßob1 Abbildungsmaßstab des ersten Objekts auf den Hochauflösungs-Sensoren 20, 30 ßob2 Abbildungsmaßstab des zweiten Objekts auf den Hochauflösungs-Sensoren 20, 30 ßob3 Abbildungsmaßstab des dritten Objekts auf den Hochauflösungs-Sensoren 20, 30
y‘0 = yob * f * n/s
y‘1 =(yob - b/2) * f * n/s
y‘2 =(yob + b/2) * f * n/s wenn b nicht mehr vernachlässigbar klein im Verhältnis zu yob ist, so gilt für die Parallaxe Dy‘
Dy‘ = y‘1 - y‘2 = [(yob -b/2)-(yob + b/2)] * f * n/s
Dy‘(s)= y‘1 -y‘2 = - b * f * n/s
Durch die beiden Hochauflösungs-Sensoren 20, 30, insbesondere wenn der Zusatz-Sensor 40 zwischen den beiden Hochauflösungs-Sensoren 20, 30 angeordnet ist, kann die
Parallaxe bzw. Verschiebung aufgrund der unterschiedlichen Position in einer Richtung parallel zu der Y-Achse zwischen den verschiedenen Sensoren 20, 30, 40 bestimmt werden. Über den Mittelwert aus den gemessen Objektpositionen auf den Hochauflösung-Sensoren 20, 30 yØ‘ = (y‘1 + y‘2 ) /2 = ((yob - b/2) * f * n/s + (yob + b/2) * f * n/s)/2 = (2 * yob * f * n/s)/2 = y‘0 lässt sich eine parallaxenfreie Darstellung der Objekte auf den Hochauflösung-Sensoren 20, 30 berechnen und die zugehörige Farbinformation auf dem Zusatz-Sensor 40 technisch einfach bestimmen. Auf diese Weise können die Pixel der Hochauflösungs-Sensoren 20, 30 dem jeweiligen korrespondierenden Pixel des Zusatz-Sensors 40 oder umgekehrt zugeordnet werden.
Die Parallaxe kann direkt aus dem relativen Versatz der Abbildungen der Objekte 90, 92, 94, 90‘, 92‘, 94‘ auf den zwei äußeren Hochauflösungs-Sensoren 20, 30 bestimmt werden:
Dy‘ = y‘1— y‘2
Durch die genaue Kenntnis der Systemparameter f, b, n kann aus der Parallaxe die
Tiefeninformation der Objekte rekonstruiert werden. Da Dy‘(s)= y‘1 -y‘2 = - b * f * n/s ergibt sich s = -b * f *n / (y‘1 -y‘2)
Der Objektort und die Größe des Objektes lassen sich mit Hilfe des Abbildungsmaßstabes der Objekte berechnen. Alle benötigten Informationen werden durch die Hochauflösungs- Sensoren 20, 30 aufgenommen und lassen sich mit Kenntnis der System parameter
(Brennweite und Brechzahl Medium) berechnen.
Aus y‘0 = yob * f * n/s folgt ß = yob/y‘o = s/(f * n) (mit y’0=yØ‘ = (y‘1 + y‘2 ) /2)
Damit lässt sich eine hochaufgelöste, farbige 3-D Rekonstruktion der mit den Sensoren 20, 30, 40 aufgenommenen Objekte erzielen.
In Fig. 2 bis Fig. 5 ist dies an einem Beispiel illustriert. Fig. 2 zeigt eine schematische Ansicht des Bildaufnahmesystems aus Fig. 1 mit drei Objekten. Fig. 3a zeigt eine schematische Ansicht der Abbildungen der drei Objekte auf den Sensoren des Bildaufnahmesystems aus Fig. 1. Fig. 3b zeigt schematische Ansicht der Kombination der Abbildungen der drei Objekte aus Fig. 3a. Fig. 4 zeigt eine schematische Ansicht der Bestimmung der Parallaxe der drei Objekte aus Fig. 2. Fig. 5 zeigt eine schematische Ansicht der bestimmten Tiefen- und Größeninformationen der drei Objekte aus Fig. 2.
Drei in unterschiedlichen Entfernungen (sob1 , sob2, sob3) zu den Sensoren befindliche Objekte 80, 82, 84 in unterschiedlichen Höhen (yob1 , yob2, yob3) werden auf die Sensoren 20, 30, 40 abgebildet. Je nach Position im Raum ergeben sich unterschiedliche Lagen der Abbildungen 90, 92, 94, 90‘, 92‘, 94‘, 90“, 92“, 94“ auf den Sensoren 20, 30, 40 (nämlich yob10, yob11 , yob12 für das erste Objekt 80, yob20, yob21 , yob22 für das zweite Objekt 82 und yob30 , yob31 , yob32 für das dritte Objekt 84). Dies ist in Fig. 3a illustriert. Die Nulllinie der Höhe verläuft jeweils horizontal durch die Mitte des jeweiligen Sensors 20, 30, 40, Von hier aus werden die Höhenpositionen der Abbildungen der drei Objekte 90, 92, 94, 90‘, 92‘, 94‘, 90“, 92“, 94“ gemessen, wie dies in Fig. 3a gezeigt ist. Die Höhenpositionen sind jeweils durch gepunktete Linien in Fig. 3a, Fig. 3b und Fig. 4 dargestellt.
In Fig. 3b ist die Entfernung der Parallaxe aus den von den Hochauflösung-Sensoren 20, 30 aufgenommenen Objekten 80, 82, 84 über die Mittelwertsbildung der gemessenen Lagen gezeigt.
Die Abbildungen 90‘, 92‘, 94‘ der Objekte, die mit dem Zusatz-Sensor 40 aufgenommen werden, werden dem über die Mittelwerte verrechneten hochaufgelösten, monochromen, parallaxefreien Abbildungen der Objekte zugeordnet.
In Fig. 4 ist die Berechnung der Parallaxeninformation der Objekte 80, 82, 84 aus den von den Hochauflösungs-Sensoren 20, 30 aufgenommenen Objekten 80, 82, 84 über die
Differenzbildung der gemessenen Lagen bzw. Höhen auf den Sensoren 20, 30, 40 dargestellt.
In Fig. 5 ist die Rekonstruktion der Objekte 80, 82, 84 hinsichtlich Lage und Größe durch Verrechnung der Informationen aus den verschiedenen Sensoren dargestellt. Hierbei gelten folgende Gleichungen: yob1Ø = ( yob11 + yob12 ) / 2
yob10 = yob1Ø
Dyob1‘ = yob11 — yob12
sob1 = - b * f * n / Dyob1
yob1 = yob1Ø * sob1 /( f * n)
ßob1 = sob1 /(f * n) yob2Ø = ( yob21 + yob22 ) / 2
yob20 = yob2Ø
Dyob2‘ = yob21 - yob22
sob2 = - b * f * n / Dyob2
yob2 = yob2Ø * sob2 /(f * n)
ßob2 = sob2 /(f * n)
yob3Ø = ( yob31 + yob32 ) / 2
yob30 = yob3Ø
Dyob3‘ = yob31 — yob32
sob3 = - b * f * n / Dyob3
yob3 = yob3Ø * sob1 /( f * n)
ßob3 = sob3 /(f * n)
Die Sensoren 20, 30, 40 können beispielsweise jeweils ein CCD-Sensor (charged coupled device sensor) umfassen oder sein.
Es ist auch denkbar, dass einer der Hochauflösungs-Sensoren 20, 30 oder beide
Hochauflösungs-Sensoren 20, 30 Infrarot-Sensoren sind, während der Zusatz-Sensor 40 optisches Licht verwendet. Auch vorstellbar ist, dass der Zusatz-Sensor 40 ein Infrarot- Sensor und die beiden Hochauflösungs-Sensoren 20, 30 für den Menschen sichtbares Licht verwenden.
Die Sensoren 20, 30, 40 können zueinander im Wesentlichen baugleiche Objektive 22, 32, 42 verwendet. Die Objektive können jeweils die gleiche Brennweite aufweisen. Denkbar ist auch, dass die Sensoren 20, 30, 40 die gleiche Dimension bzw. Größe aufweisen.
Vorstellbar ist auch, dass die Sensoren 20, 30, 40 zueinander unterschiedlich groß sind.
Die Brechzahl des Wassers hängt von dem Salzgehalt ab. Daher kann das
Bildaufnahmesystem 10 einen Salzgehaltsensor 50 zum Bestimmen des Salzgehalts des Wassers und zum Bestimmen der Brechzahl auf Grundlage des bestimmten Salzgehalts aufweisen. Die bestimmte Brechzahl wird beim Berechnen der Tiefen- und
Größeninformation, die aus der Parallaxe berechnet wird, berücksichtigt.
Darüber hinaus kann das Bildaufnahmesystem 10 einen Drucksensor 52 und/oder einen Temperatursensor 54 umfassen. Die Brechzahl des Wassers ist geringfügig abhängig von dem Druck des Wassers und der Temperatur des Wassers. Der Drucksensor 52 misst den Druck des Wassers. Der Temperatursensor 54 misst die Temperatur des Wassers. Der gemessene Druck und/oder die gemessene Temperatur und/oder der gemessene Salzgehalt werden bei der Berechnung der Tiefen- und/oder Größeninformation aus der Parallaxe berücksichtigt. Denkbar ist auch, dass der Druck des Wassers durch eine Tiefenmessung abgeschätzt bzw. berechnet wird. Auf diese Weise kann die Parallaxe noch genauer berechnet werden. Folglich können die Pixel der Hochauflösungs-Sensoren 20, 30 dem jeweiligen Pixel des Zusatz-Sensors 40 oder umgekehrt noch besser bzw. zutreffender zugeordnet werden (sogenanntes mapping).
Es kann ein Zwischenbild (z.B. aus den Mittelwerten) zwischen den Hochauflösungs- Sensoren 20, 30 berechnet werden. Dieses Zwischenbild entspricht dem Bild, das von einem Hochauflösungs-Sensor 20, 30 erzeugt würde, der sich an der Position des Zusatz-Sensors 40 befände. Dieses Bild wird mit dem vom Zusatz-Sensor 40 aufgenommen Bild verrechnet, unter Beachtung der jeweiligen Parallaxe. Auf diese Weise kann ein Bild erzeugt werden, das die Informationen der Hochauflösungs-Sensoren 20, 30 (mit hoher Auflösung) und die Informationen des Zusatz-Sensors 40 vereint. Z.B. kann ein farbiges Bild mit einer Auflösung im Bereich der Auflösung der Hochauflösungs-Sensoren 20, 30 hierdurch berechnet werden. Hierbei werden die Farbinformationen, die durch den Zusatz-Sensor 40 erhalten wurden, auf die jeweiligen Pixel der Hochauflösungs-Sensoren 20, 30„übertragen“ bzw. gemappt. Das Bildaufnahmesystem 10 erzeugt bzw. berechnet ein Bild oder mehrere Bilder (nacheinander) und gibt dieses bzw. diese aus und/oder speichert diese. Vorstellbar ist auch, dass die Bilder weiterverarbeitet werden. Z.B. ist eine Mustererkennung vorstellbar.
Darüber hinaus kann das von dem Bildaufnahmesystem 10 erzeugte Bild ein
stereoskopisches Bild bzw. ein 3D-Bild sein, da ein Bild des Objekts 80 aus zwei
unterschiedlichen Winkeln aufgenommen wird.
Die Auflösung der Hochauflösungs-Sensoren 20, 30 ist üblicherweise gleichgroß.
Es ist möglich, dass das Bildaufnahmesystem 10 zusätzlich zu den zwei Hochauflösungs- Sensoren 20, 30 und dem Zusatz-Sensor 40 weitere Sensoren aufweist. Diese können für den Menschen sichtbares Licht und/oder Infrarotlicht verwenden.
Die weiteren Sensoren können Auflösungen vergleichbar mit der Auflösung der
Hochauflösungs-Sensoren 20, 30 aufweisen oder vergleichbar mit der Auflösung des Zusatz- Sensors 40 aufweisen.
Die weiteren Sensoren können derart angeordnet sein, dass sich beispielsweise bei fünf Sensoren, wobei ein Sensor der Zusatz-Sensor 40 ist, der Zusatz-Sensor 40 mittig zwischen den anderen vier symmetrisch um den Zusatz-Sensor 40 angeordneten Sensoren
angeordnet ist.
Die Objekte 80, 82, 84 sind in Fig. 1-5 jeweils mittels eines rechteckigen Symbols dargestellt. Die Objekte 80, 82, 84 können jedoch jede Art von äußerer Form haben. Die Objekte 80, 82, 84 können z.B. eine ellipsoidförmige, eine quaderförmige, eine pyramidenförmige oder eine andere Form haben. Die Objekte 80, 82, 84 können beispielsweise flach sein (z.B.
scheibenförmig) oder in Richtung der s-Achse eine größere Ausdehnung haben.
Bezugszeichenliste Bildaufnahmesystem
erster Hochauflösungs-Sensor (erster Monochromsensor) erstes Objektiv
zweiter Hochauflösungs-Sensor (zweiter Monochromsensor) zweites Objektiv
Zusatz-Sensor (Farbsensor)
drittes Objektiv
Salzgehaltsensor
52 Drucksensor
Temperatursensor
Berechnungsvorrichtung
erstes Objekt
zweites Objekt
drittes Objekt
90‘, 90“ Abbildung des ersten Objekts
92‘, 92“ Abbildung des ersten Objekts
94‘, 94“ Abbildung des ersten Objekts

Claims

Ansprüche
1. Bildaufnahmesystem (10), insbesondere Unterwasserbildaufnahmesystem, zum Aufnehmen von Bildern eines Objekts (80, 82, 84), wobei das Bildaufnahmesystem (10) folgendes umfasst:
zwei Hochauflösungs-Sensoren (20, 30) und einen Zusatz-Sensor (40),
wobei die zwei Hochauflösungs-Sensoren (20, 30) jeweils ein höheres
Auflösungsvermögen aufweisen als der Zusatz-Sensor (40),
wobei die Hochauflösungs-Sensoren (20, 30) und der Zusatz-Sensor (40) im Wesentlichen in einer Ebene angeordnet sind, und
eine Berechnungsvorrichtung (70) zum Berechnen einer Parallaxe zwischen den Hochauflösungs-Sensoren (20, 30) und dem Zusatz-Sensor (40) zum verbesserten Zuordnen der Informationen des Zusatz-Sensors (40) zu den Informationen der Hochauflösungs-Sensoren (20, 30),
wobei der Zusatz-Sensor (40) zwischen den Hochauflösungs-Sensoren (20, 30) angeordnet ist.
2. Bildaufnahmesystem (10) nach Anspruch 1 , wobei
der Zusatz-Sensor (40) und die Hochauflösungs-Sensoren (20, 30) im Wesentlichen entlang einer gedachten Gerade angeordnet sind.
3. Bildaufnahmesystem (10) nach Anspruch 1 oder 2, wobei
der Zusatz-Sensor (40) mittig zwischen den Hochauflösungs-Sensoren (20, 30) angeordnet ist.
4. Bildaufnahmesystem (10) nach einem der vorhergehenden Ansprüche, wobei
der Zusatz-Sensor (40) ein Farb-Sensor ist, insbesondere ein Farb-Sensor umfassend ein Bayermuster ist.
5. Bildaufnahmesystem (10) nach einem der Ansprüche 1-3, wobei
der Zusatz-Sensor (40) mehrere Monochromsensoren umfasst,
wobei zwischen den mehreren Monochromsensoren und dem Objekt (80, 82, 84) zueinander unterschiedliche Farbfilter derart angeordnet sind, dass die mehreren Monochromsensoren Licht unterschiedlicher Farben erfassen.
6. Bildaufnahmesystem (10) nach einem der vorhergehenden Ansprüche, wobei
das Bildaufnahmesystem (10) ein Unterwasserbildaufnahmesystem zum Aufnehmen von Objekten (80, 82, 84) unter Wasser ist,
wobei das Bildaufnahmesystem (10) ferner einen Salzgehaltsensor (50) zum
Bestimmen der Brechzahl des Wassers basierend auf einem Salzgehalt des Wassers umfasst,
wobei die Berechnungsvorrichtung (70) zum Bestimmen einer Tiefen- und/oder Größeninformation der Objekte (80, 82, 84) ausgebildet ist, wobei die
Berechnungsvorrichtung (70) zum Berücksichtigen der auf Grundlage des
Salzgehalts bestimmten Brechzahl des Wassers beim Bestimmen der Tiefen- und/oder Größeninformation der Objekte (80, 82, 84) ausgebildet ist.
7. Bildaufnahmesystem (10) nach einem der vorhergehenden Ansprüche, wobei
das Bildaufnahmesystem (10) ein Unterwasserbildaufnahmesystem zum Aufnehmen von Objekten (80, 82, 84) unter Wasser ist,
wobei das Bildaufnahmesystem (10) ferner
einen Drucksensor (52) zum Bestimmen der Brechzahl des Wassers basierend auf einem Druck des Wassers
und/oder
einen Temperatursensor (54) zum Bestimmen der Brechzahl des Wassers basierend auf einer Temperatur des Wassers
umfasst,
wobei die Berechnungsvorrichtung (70) zum Bestimmen einer Tiefen- und/oder Größeninformation der Objekte (80, 82, 84) ausgebildet ist, wobei die
Berechnungsvorrichtung (70) zum Berücksichtigen der durch den Drucksensor (52) und/oder durch den Temperatursensor (54) bestimmten Brechzahl des Wassers beim Bestimmen der Tiefen- und/oder Größeninformation der Objekte (80, 82, 84) ausgebildet ist.
8. Bildaufnahmesystem (10) nach einem der vorhergehenden Ansprüche, wobei
bei zumindest zwei der Sensoren, insbesondere bei den drei Sensoren, zueinander im Wesentlichen baugleiche Objektive mit gleicher Brennweite zwischen dem Objekt (80, 82, 84) und dem jeweiligen Sensor angeordnet ist.
9. Verfahren zum Aufnehmen von Bildern eines Objekts (80, 82, 84), insbesondere mittels eines Bildaufnahmesystems (10) nach einem der vorhergehenden Ansprüche, wobei das Verfahren folgende Schritte umfasst:
Aufnehmen von Bildern des Objekts (80, 82, 84) mittels zweier Hochauflösungs- Sensoren (20, 30) und einem Zusatz-Sensor (40), wobei die zwei Hochauflösungs- Sensoren (20, 30) und der Zusatz-Sensor (40) in einer Ebene angeordnet sind; Berechnen einer Parallaxe zwischen den Hochauflösungs-Sensoren (20, 30) und dem Zusatz-Sensor (40) auf Grundlage der aufgenommenen Bilder der zwei Hochauflösungs-Sensoren (20, 30); und
Zuordnen der Information des Zusatz-Sensors (40) zu einem Bild der
Hochauflösungs-Sensoren (20, 30) oder einem berechneten Zwischenbild der Bilder der Hochauflösungs-Sensoren (20, 30) unter Berücksichtigung der berechneten Parallaxe,
wobei der Zusatz-Sensor (40) zwischen den Hochauflösungs-Sensoren (20, 30) angeordnet ist.
10. Verfahren nach Anspruch 9, wobei
der Zusatz-Sensor (40) ein Farb-Sensor ist, insbesondere ein Farb-Sensor umfassend ein Bayermuster ist.
11. Verfahren nach Anspruch 9, wobei
der Zusatz-Sensor (40) mehrere Monochromsensoren umfasst, wobei zwischen den Monochromsensoren und dem Objekt (80, 82, 84) zueinander unterschiedliche Farbfilter derart angeordnet sind, dass die mehreren Monochromsensoren Licht unterschiedlicher Farben erfassen.
12. Verfahren nach einem der Ansprüche 9-11 , wobei
das Objekt (80, 82, 84) unter Wasser angeordnet ist, und wobei
das Verfahren ferner folgende Schritte umfasst:
Bestimmen einer Brechzahl des Wassers basierend auf einem Salzgehalt des Wassers, und
Bestimmen der Tiefen- und/oder Größeninformation der Objekte (80, 82, 84), wobei die bestimmte Brechzahl des Wassers beim Bestimmen der Tiefen- und/oder Größeninformation der Objekte (80, 82, 84) berücksichtigt wird.
13. Verfahren nach einem der Ansprüche 9-12, wobei
das Objekt (80, 82, 84) unter Wasser angeordnet ist, und wobei
das Verfahren ferner den Schritt des Bestimmens der Tiefen- und/oder
Größeninformation der Objekte (80, 82, 84),
und ferner
folgenden Schritt umfasst:
Bestimmen einer Brechzahl des Wassers basierend auf einem gemessenen Druck des Wassers
und/oder
Bestimmen einer Brechzahl des Wassers basierend auf einer gemessenen
Temperatur des Wassers,
wobei die bestimmte Brechzahl des Wassers beim Bestimmen der Tiefen- und/oder Größeninformation berücksichtigt wird.
PCT/EP2020/059804 2019-04-08 2020-04-06 Bildaufnahmesystem und verfahren zum aufnehmen von bildern WO2020207984A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
NO20211009A NO347566B1 (en) 2019-04-08 2020-04-06 Image acquisition system and method for acquiring images
CA3132090A CA3132090A1 (en) 2019-04-08 2020-04-06 Image acquisition system and method for acquiring images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019109147.0A DE102019109147A1 (de) 2019-04-08 2019-04-08 Bildaufnahmesystem und verfahren zum aufnehmen von bildern
DE102019109147.0 2019-04-08

Publications (1)

Publication Number Publication Date
WO2020207984A1 true WO2020207984A1 (de) 2020-10-15

Family

ID=70224383

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/059804 WO2020207984A1 (de) 2019-04-08 2020-04-06 Bildaufnahmesystem und verfahren zum aufnehmen von bildern

Country Status (4)

Country Link
CA (1) CA3132090A1 (de)
DE (1) DE102019109147A1 (de)
NO (1) NO347566B1 (de)
WO (1) WO2020207984A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044202A1 (en) * 2000-09-01 2002-04-18 Korea Ocean Research And Development Institute Single-cannister underwater stereocamera system with distance measurement function
US20060125936A1 (en) * 2004-12-15 2006-06-15 Gruhike Russell W Multi-lens imaging systems and methods
WO2009026064A2 (en) * 2007-08-21 2009-02-26 Micron Technology, Inc. Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
US20100141928A1 (en) * 2008-12-08 2010-06-10 Carl Embry Continuous Index of Refraction Compensation Method for Measurements in a Medium
US20170318273A1 (en) * 2016-04-28 2017-11-02 Qualcomm Incorporated Shift-and-match fusion of color and mono images
US20180274917A1 (en) * 2015-12-04 2018-09-27 Socionext Inc. Distance measurement system, mobile object, and component

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006055641B4 (de) * 2006-11-22 2013-01-31 Visumotion Gmbh Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
EP2238745A4 (de) * 2007-12-27 2012-02-22 Google Inc Bildgebungsvorrichtung mit hoher auflösung und veränderlicher fokustiefe

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044202A1 (en) * 2000-09-01 2002-04-18 Korea Ocean Research And Development Institute Single-cannister underwater stereocamera system with distance measurement function
US20060125936A1 (en) * 2004-12-15 2006-06-15 Gruhike Russell W Multi-lens imaging systems and methods
WO2009026064A2 (en) * 2007-08-21 2009-02-26 Micron Technology, Inc. Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
US20100141928A1 (en) * 2008-12-08 2010-06-10 Carl Embry Continuous Index of Refraction Compensation Method for Measurements in a Medium
US20180274917A1 (en) * 2015-12-04 2018-09-27 Socionext Inc. Distance measurement system, mobile object, and component
US20170318273A1 (en) * 2016-04-28 2017-11-02 Qualcomm Incorporated Shift-and-match fusion of color and mono images

Also Published As

Publication number Publication date
NO347566B1 (en) 2024-01-15
NO20211009A1 (en) 2021-08-23
CA3132090A1 (en) 2020-10-15
DE102019109147A1 (de) 2020-10-08

Similar Documents

Publication Publication Date Title
DE112015005073B4 (de) Abbildungssystem, enthaltend eine Linse mit longitudinaler chromatischer Aberration, Endoskop und Abbildungsverfahren
EP2596642B1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen eines bildes
EP3186952B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE112016001559T5 (de) Abbildungssystem, das strukturiertes Licht zur Tiefenrückgewinnung nutzt
DE19525561C2 (de) 3D-Meßvorrichtung
DE102016100132A1 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
EP4049445B1 (de) Verfahren zur erzeugung eines ausgabesignals eines pdaf-bildpunkts
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
WO2004056570A1 (de) Verfahren und vorrichtung zur echzeitkontrolle von druckbildern
WO2020207984A1 (de) Bildaufnahmesystem und verfahren zum aufnehmen von bildern
DE102015110926A1 (de) System zur Bestimmung einer Objektivposition
EP3420533A1 (de) Verfahren zum kalibrieren eines optischen messaufbaus
EP3561772B1 (de) Verfahren zur kalibrierung einer zeilenbildaufnahmeeinheit
DE102021111417A1 (de) Verfahren und System zu Bestimmung der Lage eines Markers in einem 2D-Bild und dafür ausgebildeter Marker
EP2903264B1 (de) Verfahren zur Ermittlung des Lichtfeldes eines Gegenstands
DE112011105320T5 (de) Autofokus-Bildsystem
DE112013005363T5 (de) Kamera, Farbmesssystem und Offset-Druckerpresse
DE102009024030B3 (de) Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen
EP3762870B1 (de) Entfernungsmesselement
DE102018205399A1 (de) Korrekturverfahren und Vorrichtung zur Korrektur von Bilddaten
DE102012003127A1 (de) Verfahren für eine Autofokuseinrichtung
WO2018211057A1 (de) Marker basierter kamera-tracker
DE19500507C2 (de) Kamera mit Objektiv- und Bildträgereinstellvorrichtung und Scharfstellverfahren
EP3062290A1 (de) Verfahren zur ermittlung eines abbilds eines gegenstands

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20717639

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3132090

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20717639

Country of ref document: EP

Kind code of ref document: A1