WO2010079557A1 - 撮像装置向き検出装置および当該装置を備える移動体 - Google Patents

撮像装置向き検出装置および当該装置を備える移動体 Download PDF

Info

Publication number
WO2010079557A1
WO2010079557A1 PCT/JP2009/007034 JP2009007034W WO2010079557A1 WO 2010079557 A1 WO2010079557 A1 WO 2010079557A1 JP 2009007034 W JP2009007034 W JP 2009007034W WO 2010079557 A1 WO2010079557 A1 WO 2010079557A1
Authority
WO
WIPO (PCT)
Prior art keywords
polarization
image
orientation
imaging device
sky
Prior art date
Application number
PCT/JP2009/007034
Other languages
English (en)
French (fr)
Inventor
甲本亜矢子
金森克洋
佐藤智
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US12/935,321 priority Critical patent/US8390696B2/en
Priority to CN2009801306543A priority patent/CN102177719B/zh
Priority to EP09837447.3A priority patent/EP2375755B8/en
Priority to JP2010545634A priority patent/JP5357902B2/ja
Publication of WO2010079557A1 publication Critical patent/WO2010079557A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present invention relates to an imaging device orientation detection device that can acquire the relative positional relationship between the imaging device and the sun during shooting.
  • the present invention also relates to an imaging device or a moving body that includes an imaging device orientation detection device.
  • image processing includes, for example, (i) correction of backlight, which has been the main cause of camera shooting failures, (ii) high resolution of an image known as digital zoom, (iii) human face And (iv) augmented reality in which an image virtually created by Computer-Graphics is superimposed and displayed on a real image.
  • Japanese Patent Application Laid-Open No. 2004-228561 proposes a method of attaching a sensor to the upper part of a camera to detect a light source and instructing a photographer about a shooting direction.
  • a photoelectric conversion element provided with a fisheye lens is used as a sensor for knowing the light source direction.
  • a light source direction is determined by obtaining a position where the intensity of light collected from the whole sky is maximum on the sensor.
  • the sun reflected by the window is seen at a high position, a strong light source exists in a direction other than the actual sun direction, and the solar direction detection may fail.
  • Patent Document 2 proposes a method of using the whole sky polarization state in order to acquire information reflecting the sun position more accurately.
  • the light source detection unit is installed on the upper part of the camera as in Patent Document 1.
  • the light source detection unit performs all-sky polarization imaging using an all-sky observation sensor including a polarization filter.
  • the polarization characteristics of the whole sky are acquired from a plurality of images taken by rotating the polarization filter, and the solar direction is determined therefrom.
  • the sky polarization is also taken up in Non-Patent Document 1, and the polarization state of the sky is observed using a fish-eye camera capable of photographing a wide sky region, as in Patent Documents 1 and 2 described above. .
  • the concrete method is not described, it mentions the possibility that the solar direction can be obtained from the polarization state.
  • Patent Document 3 discloses a patterned polarizer for acquiring a plurality of polarized images having different polarization main axes.
  • Non-Patent Document 2 Non-Patent Document 3
  • Non-Patent Document 4 The empty polarization pattern is also described in Non-Patent Document 2, Non-Patent Document 3, and Non-Patent Document 4.
  • an all-sky observation sensor is required on the upper part of the camera in addition to the image sensor, so that it must be disadvantageous in terms of size. Further, it may be difficult to hold and inconvenience for a photographer who holds the camera.
  • the shooting range includes the sun in most cases.
  • sunlight is very strong, for example, a mechanism for reducing incident light components is required. That is, it is not easy to input to the camera photographing / photoelectric conversion element including the sun.
  • the present invention has been made in consideration of the above-described problems, and the relative positional relationship between the imaging device and the sun can be obtained from a partial sky state in a scene image without providing an all-sky observation sensor. Another object is to provide an apparatus capable of detecting the orientation of an imaging apparatus.
  • Another object of the present invention is to provide a mobile object (including a mobile terminal, a mobile phone, an automobile, etc.) provided with such an imaging device and having a function of detecting the orientation of the mobile object. There is.
  • An imaging apparatus orientation detection apparatus is an imaging apparatus orientation detection apparatus that detects an orientation of an imaging apparatus including an imaging unit that acquires a polarization image including a polarization phase image and a luminance image by imaging, and the polarization image And an image processing unit that generates a blue sky polarization phase image indicating a polarization phase of a blue sky region included in the luminance image based on the luminance image, and an imaging device orientation determined by the orientation of the imaging unit based on the blue sky polarization phase image And an output unit that outputs information indicating the imaging device direction estimated by the direction estimation unit.
  • a solar position acquisition unit that acquires information regarding the position of the sun at the time of shooting is provided, and the direction estimation unit estimates the direction of the imaging device using the information.
  • the apparatus includes an all-sky polarization map acquisition unit that acquires an all-sky polarization map indicating a polarization state of the sky at the time of photographing based on information on the position of the sun, and the direction estimation unit includes the blue sky polarization phase.
  • the orientation of the imaging device is estimated based on the image and the all-sky polarization map.
  • the omnidirectional polarization map acquisition unit acquires an omnidirectional polarization map indicating a sky polarization state at the time of photographing from a database including the omnidirectional polarization map.
  • a storage device for storing the database is provided.
  • a communication device accesses an external storage device that stores the database.
  • the all-sky polarization map acquisition unit generates an all-sky polarization map indicating a sky polarization state at the time of photographing by calculation.
  • the direction estimation unit calculates the direction of the blue sky region from the polarization phase of the blue sky region, and estimates the direction of the imaging device.
  • the apparatus includes an all-sky polarization map acquisition unit that acquires an all-sky polarization map indicating a sky polarization state at the time of photographing, and the direction estimation unit operates in at least one of a search mode and a calculation mode, and the search In the mode, the direction of the blue sky region is searched based on the blue sky polarization phase image and the all-sky polarization map, and in the calculation mode, the direction of the blue sky region is calculated from the polarization phase of the blue sky region.
  • a horizontality correction unit that corrects the inclination of the imaging device is provided.
  • the tilt of the imaging device includes a tilt in the roll direction.
  • the imaging device includes a spirit level, acquires a level by the level, and corrects an inclination of the imaging device based on the acquired level.
  • the camera has an angle-of-view acquisition unit that acquires an angle of view of an imaging range and determines a range of a blue sky region based on the acquired angle of view.
  • the imaging unit includes a plurality of polarizers having different polarization main axis angles, and acquires the polarization image according to light transmitted through the plurality of polarizers.
  • the polarization image includes a polarization degree image in addition to the polarization phase image.
  • the image processing unit uses the degree of polarization to cut out the blue sky region when the sky polarization degree is equal to or higher than a reference value, and uses the hue when the polarization degree is lower than the reference value.
  • the blue sky region is cut out and the blue sky polarization phase image is output.
  • a reliability determination unit that determines the reliability of the estimation result and presents information to the user is provided.
  • a solar altitude determination unit that determines whether or not estimation is possible according to the altitude of the sun obtained from information on the position of the sun at the time of shooting is provided.
  • coordinate conversion is performed based on the altitude and orientation of the sun and the orientation of the imaging device to obtain the sun position in camera coordinates.
  • the imaging device (camera) of the present invention includes an imaging device having an imaging unit that acquires a polarization image including a polarization phase image and a luminance image, and any one of the imaging device orientation detection devices described above.
  • a moving body of the present invention is a moving body including any one of the above-described imaging device orientation detection devices, an imaging device having an imaging unit that acquires a polarization image including a polarization phase image and a luminance image, and the moving body.
  • a moving body direction estimation unit that determines the direction of the moving body from the detected direction of the imaging apparatus according to the relationship between the direction and the direction of the imaging apparatus.
  • a portable device of the present invention is a portable device including any one of the imaging device orientation detection devices described above, and an imaging device having an imaging unit that acquires a polarization image including a polarization phase image and a luminance image, and the portable device A portable device orientation estimation unit that determines the orientation of the portable device from the detected orientation of the imaging device according to the relationship between the orientation and the orientation of the imaging device;
  • An image input device includes an imaging unit that acquires a polarization image including a polarization phase image and a luminance image by photographing, and a polarization phase of a blue sky region included in the luminance image based on the polarization image and the luminance image.
  • An image processing unit that generates a blue sky polarization phase image to be shown, an orientation estimation unit that estimates an imaging device direction determined by the orientation of the imaging unit based on the blue sky polarization phase image, and data of an image captured by the imaging unit, And an output unit that outputs information indicating the imaging device direction estimated by the orientation estimation unit.
  • the image format of the present invention holds image data, data indicating the date and time of shooting, data indicating the longitude and latitude of the shooting location, and data indicating the orientation of the imaging device.
  • a polarization image and a luminance image are obtained by the imaging device, and a blue sky polarization phase indicating a polarization phase of a blue sky region included in the luminance image based on the polarization image and the luminance image.
  • a program of the present invention is a program for an imaging device orientation detection device that detects an imaging device orientation at the time of shooting using a sky polarization pattern, and acquires a polarization image and a luminance image by the imaging device; Generating a blue sky polarization phase image indicating a polarization phase of a blue sky region included in the luminance image based on the polarization image and the luminance image; estimating an imaging device direction based on the blue sky polarization phase image; Causing the computer to execute a step of outputting information indicating the orientation of the imaging apparatus.
  • the orientation of an imaging device or a moving body is acquired using partial polarization information of the sky without providing an all-sky observation sensor. it can.
  • FIG. 3 is a schematic diagram illustrating a basic configuration of a color polarization acquisition unit 301.
  • FIG. (A) And (b) is the schematic diagram which looked at a part of imaging surface of the polarization
  • (A), (b), (c) is a graph which shows typically the wavelength characteristic of a B, G, R polarization pixel, respectively. It is a graph which shows the transmission region and polarization separation region of G color filter. It is a graph which shows the brightness
  • (A), (b), and (c) are a polarization degree image, a polarization phase image, and a color image (luminance image) photographed by the scene image / scene polarization image acquisition unit, respectively, and (d) is a color image.
  • It is a schematic diagram of an image.
  • (A) And (b) is a schematic diagram shown about the roll horizontal degree correction
  • (A)-(f) is a figure which shows the processing result at the time of applying this method to the daytime east sky scene image actually.
  • (A)-(d) is a figure which shows the final process result about the image of FIG.
  • (A)-(f) is a figure which shows the processing result (failure) at the time of applying this method to the east sky scene image of the evening actually.
  • (A)-(d) is a figure which shows the processing result at the time of applying to the east sky scene image of the evening using hue similarity in this method.
  • (A) And (b) is a block diagram which shows the structure of a camera direction acquisition part.
  • (A)-(c) is a conceptual diagram which shows the relationship between an all-sky polarization map and a blue sky polarization phase image.
  • (A) And (b) is a schematic diagram which shows an astronomical coordinate system. It is a schematic diagram which shows the relationship between a picked-up image and a camera. It is a schematic diagram which shows the relationship between a camera, an image coordinate system, and a celestial sphere coordinate system. It is a block diagram which shows the structure of the image input device in the 2nd Embodiment of this invention. It is the schematic diagram which showed the blue sky polarization
  • the present invention pays attention to the fact that the blue sky is polarized, and the knowledge that the orientation of the imaging device can be estimated based on the polarization information of the blue sky region included in the scene image by using the polarization pattern. was completed based on.
  • FIG. 1A consider a case where an imaging device (referred to as a “camera” for simplicity) 10 takes a landscape photograph in the line-of-sight direction (z-axis direction) outdoors.
  • a camera referred to as a “camera” for simplicity
  • FIG. 1B it is assumed that a part of the blue sky (blue sky region) is included in the captured scene image.
  • the blue sky region in the scene image shown in FIG. 1B is obliquely shaded, and this oblique line schematically represents the polarization phase of the blue sky.
  • the polarization phase is an angle (phase angle) indicating the polarization main axis direction, and is defined by a rotation angle around the camera viewing direction (z-axis direction).
  • the direction (phase angle) of the polarization phase is not directly visible by human vision, but is information that does not appear in a normal image (luminance image).
  • a polarizing filter is arranged in front of the camera 10 and the polarizing filter is rotated around the camera viewing direction (z-axis direction) shown in FIG. 1A, light (polarized light) emitted from the blue sky is generated at a specific rotation angle.
  • the polarizing filter can be transmitted with the highest transmittance.
  • the transmission axis direction (angle) of the polarizing filter at this time corresponds to the polarization direction (phase angle) of the blue sky region positioned ahead of the camera viewing direction (z axis).
  • FIG. 1C and FIG. 1D are diagrams showing examples of the polarization phase pattern of the whole sky, and the polarization phase patterns of the hemispherical whole sky are shown in the respective circles. The center of this circle corresponds to the zenith and the outer periphery corresponds to the horizon.
  • FIG. 1C and FIG. 1D a large number of curves are described, and the tangential direction at an arbitrary position of each curve indicates the direction of the polarization phase (angle) at that position.
  • This all-sky polarization pattern has the polarization direction in a concentric direction centered on the sun in the simplest model, but actually has four points with unique polarization characteristics. It has been. This is described in detail in Non-Patent Document 4.
  • the polarization of the blue sky changes according to the position of the sun in the sky. For this reason, when the position of the sun in the sky is obtained based on information such as the shooting date and time, the shooting position (longitude, latitude), the polarization phase pattern of the sky at that time is determined.
  • the polarization phase at an arbitrary position in the sky can be obtained by calculation if the shooting date / time and position are given, but a storage device that stores a map (all-sky polarization map) associating the position on the sky with the polarization phase. It can also be stored in
  • FIG. 1E is a diagram showing an example of the positional relationship between the camera viewing direction (z-axis direction) and the sun.
  • a rectangular range (image area) of the captured scene image is schematically shown at the tip of the camera viewing direction (z-axis direction).
  • the arrow written in this rectangular range indicates the polarization direction (polarization phase direction) of the blue sky region in that direction. Since the polarization phase of the blue sky at a certain date and time varies depending on the position in the sky, when the camera direction changes, the polarization phase direction of the captured blue sky region also changes.
  • the sky polarization information is acquired from a database or by calculation, while the polarization state of the blue sky region included in the shooting scene is detected, and compared with the sky polarization information, The direction and the relationship between the sun position and the camera can be obtained. According to another aspect, it is also possible to obtain the direction of the blue sky region by calculation without using a database, and thereby estimate the camera direction (image pickup device direction).
  • FIG. 1F shows a configuration of the image input apparatus according to the present embodiment.
  • This image input device includes a blue sky polarization phase image acquisition unit 100, a camera orientation estimation unit 101, and an output unit 102.
  • the blue sky polarization phase image acquisition unit 100 includes a scene image / scene polarization image acquisition unit 100a, a roll horizontality correction unit 100b, and a blue sky polarization image processing unit 100c, and outputs a blue sky polarization phase image ⁇ sky.
  • the “polarized image” means an image in which each of a plurality of pixels constituting the image displays polarization information of the pixel.
  • the polarization information includes the polarization degree and the polarization phase (phase angle). Therefore, the “polarized image” means a “polarization degree image” in which the polarization degree of each pixel is displayed two-dimensionally, and a “polarization degree image” in which the polarization phase of each pixel is two-dimensionally displayed unless otherwise specifically limited. This is a generic term for “polarization phase image”.
  • the degree of polarization and the magnitude (numerical value) of the polarization phase of each pixel can be expressed by the brightness or hue of the pixel.
  • the degree of polarization and the magnitude of the polarization phase are expressed by the level of brightness.
  • Rotation 201 around an axis (here, x axis) extending to the side of the camera is yaw.
  • the rotation 202 around the axis extending in the vertical direction of the camera (here, the y axis) is the pitch.
  • a rotation 203 around an axis (here, z-axis) extending in the front-rear direction of the camera is a roll.
  • the scene image / scene polarized image acquisition unit 100 a and the level for measuring the roll direction inclination are measured. 2 may be provided in the camera of FIG. 2, and the roll level correction unit 100b, the blue sky polarization image processing unit 100c, the camera orientation estimation unit 101, and the output unit 102 may be provided outside the camera.
  • the camera includes an imaging unit that functions as the scene image / scene polarized image acquisition unit 100a, the content of the scene image / scene polarized image that is captured changes depending on the orientation of the camera.
  • the series of processing for estimating the camera direction is preferably executed inside the camera, but it is not necessarily executed inside the camera.
  • an apparatus that includes an “imaging unit” that acquires a luminance image and a polarization image and that allows the user to change the imaging direction is referred to as a “camera”, regardless of whether or not it is built in the camera.
  • a device that estimates the camera orientation is referred to as a “camera orientation detection device” or an “imaging device orientation detection device”.
  • An apparatus including both the “imaging unit” and the “imaging device orientation detection device (camera orientation detection device)” is referred to as an “image input device”. From the “imaging unit” to the “imaging device orientation detection device (camera orientation detection device)”, data of the scene image and the scene polarization image is sent. This can be done through the information transmission medium.
  • An apparatus provided with such an “imaging apparatus orientation detection apparatus” is not limited to an imaging apparatus such as a camera.
  • a mobile device including a notebook computer
  • a mobile device such as a mobile phone may be provided with an “imaging device” and an “imaging device orientation detection device”.
  • a moving body such as an automobile or a motorcycle may be provided with an “imaging device” and an “imaging device orientation detection device”.
  • the orientation of the mobile device or the moving body does not need to match the orientation of the imaging device included in these devices. Since the orientation of the mobile device or the moving body and the orientation of the imaging device are in a predetermined relationship, if the orientation of the imaging device is detected, the orientation of the mobile device or the mobile body can be obtained from the detected orientation of the imaging device. it can.
  • the “camera” in the present specification is not limited to a so-called general camera that is usually taken by a person with a hand.
  • An imaging device provided in a moving body such as an automobile is also included in the “camera”.
  • the configuration of the scene image / scene polarized image acquisition unit 100a of the present embodiment will be described with reference to FIG.
  • the scene image and the scene polarization image are preferably acquired at the same time, but may be acquired at intervals up to several seconds.
  • Patent Literature 3 discloses a technique for simultaneously acquiring a monochrome image and a polarization image.
  • a patterned polarizer having a plurality of different polarization main axes (transmission axes) is spatially arranged on an image sensor in order to simultaneously acquire a luminance image and a partially polarized image of a subject.
  • a photonic crystal or a structural birefringent wave plate array is used as the patterned polarizer.
  • these techniques cannot obtain a color image and a polarized image at the same time.
  • the scene image / scene polarization image acquisition unit 100a in FIG. 3 acquires color image information for the subject in real time and simultaneously acquires polarization image information, and acquires two types of polarization image information (polarization degree image ⁇ ). And a polarization phase image ⁇ ).
  • the color polarization acquisition unit 301 can acquire both color moving image information and polarization image information in real time.
  • Signals indicating color moving image information and polarization information image information are output from the color polarization acquisition unit 301 and provided to the color information processing unit 302 and the polarization information processing unit 303, respectively.
  • the color information processing unit 302 and the polarization information processing unit 303 perform various processes on the signal, and output a color image C, a polarization degree image ⁇ , and a polarization phase image ⁇ .
  • FIG. 4 is a schematic diagram showing a basic configuration of the color polarization acquisition unit 301.
  • the color filter 401 and the patterned polarizer 402 are disposed so as to overlap the front surface of the image sensor pixel 403.
  • Incident light passes through the color filter 401 and the patterned polarizer 402 to reach the image sensor, and the luminance is observed by the image sensor pixel 403.
  • FIG. 5A is a diagram of a part of the imaging surface of the color polarization acquisition unit 301 viewed from directly above the optical axis direction.
  • FIG. 5A shows only 16 pixels (4 ⁇ 4) on the imaging surface for simplicity.
  • the four rectangular areas 501 to 504 shown in the figure indicate the corresponding portions of the Bayer type color mosaic filter installed on the four pixel cells, respectively.
  • a rectangular area 501 is a B (blue) filter area and covers the pixel cells B1 to B4.
  • B (blue) patterned polarizers having different polarization main axes are in close contact with the pixel cells B1 to B4.
  • the “polarization main axis” is an axis parallel to the polarization plane (transmission polarization plane) of light transmitted through the polarizer.
  • polarizer units microwavepolarizers
  • transmission polarization planes of different angles in the same color pixel are arranged adjacent to each other. More specifically, four types of polarizer units having different transmission polarization plane directions are arranged in pixels of the same color of R (red), G (green), and B (blue).
  • One polarizer unit corresponds to four finely polarized pixels.
  • a code such as G1 is given to each polarization pixel.
  • FIG. 5B shows the polarization main axes assigned to the four finely polarized pixels with which the patterned polarizer for B (blue) is in close contact.
  • the straight line described in each finely polarized pixel schematically shows the polarization main axis direction of the minute polarizing plate.
  • a position indicated by reference numeral “505” indicates a virtual pixel position in which four pixels in the rectangular area 501 in the imaging system are collectively displayed.
  • the patterned polarizers of the rectangular regions 502 to 504 are also divided into portions having four different polarization main axes as shown in FIG.
  • each color pixel includes a plurality of finely polarized pixels having different polarization principal axes, and the color mosaic arrangement itself is arbitrary.
  • each finely polarized pixel is referred to as a “polarized pixel”.
  • 6A to 6C are graphs schematically showing the wavelength characteristics of B (blue), G (green), and R (red) polarized pixels, respectively.
  • the vertical axis of each graph is the intensity of transmitted light, and the horizontal axis is the wavelength.
  • the polarization pixels for B, G, and R have polarization characteristics that transmit TM waves (Transverse Magnetic Wave) and reflect (do not transmit) TE waves (TransverseTrElectric Wave) in each wavelength band of B, G, and R. Have.
  • the TM wave is a wave whose magnetic field component is transverse to the incident surface
  • the TE wave is a wave whose electric field component is transverse to the incident surface.
  • FIG. 6A shows the polarization characteristics 602 and 603 of the B-polarized image and the transmission characteristics 601 of the B color filter.
  • Polarization characteristics 602 and 603 indicate the transmittance of the TM wave and the TE wave, respectively.
  • FIG. 6B shows the polarization characteristics 605 and 606 of the G-polarized image and the transmission characteristics 604 of the G color filter.
  • Polarization characteristics 605 and 606 indicate the transmittance of the TM wave and the TE wave, respectively.
  • FIG. 6C shows polarization characteristics 608 and 609 of the R-polarized image and transmission characteristics 607 of the R color filter.
  • Polarization characteristics 608 and 609 indicate the transmittances of the TM wave and the TE wave, respectively.
  • 6A to 6C can be realized by using, for example, a photonic crystal described in Patent Document 3.
  • a photonic crystal In the case of a photonic crystal, light having an electric field vector oscillation plane parallel to a groove formed on the surface thereof is TE wave, and light having an electric field vector oscillation plane is TM wave.
  • An important point in the present embodiment is to use a patterned polarizer that exhibits polarization separation characteristics in each of the B, G, and R transmission wavelength bands, as shown in FIGS.
  • FIG. 7 shows a case where the wavelength is shifted between the transmission range of the G color filter and the polarization separation range determined by the polarization characteristics 6101 and 6102. According to the polarizer exhibiting such characteristics, the intended operation of the present invention cannot be performed.
  • the luminance dynamic range and the number of bits of the image sensor be as large as possible (for example, 16 bits) in order to reliably acquire a polarization component included in a particularly bright specular reflection portion of the subject and a polarization component included in the shadow region of the subject. .
  • the luminance information acquired for each polarization pixel by the configuration shown in FIG. 5 is processed by the polarization information processing unit 303 in FIG. Hereinafter, this process will be described.
  • the observation luminance when the rotation angle ⁇ of the polarization main axis is ⁇ i is Ii.
  • i is an integer from 1 to N, and “N” is the number of samples.
  • FIG. 8 shows luminances 701 to 704 corresponding to the 4-pixel samples ( ⁇ i, Ii).
  • the relationship between the polarization principal axis angle ⁇ i and the luminance 701 to 704 is expressed by a sine function curve.
  • a sine function curve In FIG. 8, four points of luminance 701 to 704 are described so as to be positioned on one sine function curve.
  • the sine function curve is determined based on more observation brightness, a part of the observation brightness may slightly deviate from the sine function curve, but there is no problem even in that case.
  • polarization information in this specification means amplitude modulation degree and phase information in a sinusoidal curve indicating the dependence of luminance on the polarization principal axis angle.
  • the reflected light luminance I with respect to the principal axis angle ⁇ of the patterned polarizer is set as follows using the internal four pixel luminance values for each of the same color regions 501 to 504 shown in FIG. Approximate.
  • A, B, and C are constants, and represent the amplitude, phase, and average value of the polarization luminance fluctuation curve, respectively.
  • B takes a negative value.
  • (Equation 1) can be expanded as follows. However, A and B are shown by the following (Formula 3) and (Formula 4), respectively. If A, B, and C that minimize (Equation 5) below are obtained, the relationship between the luminance I and the polarization principal axis angle ⁇ can be approximated by the sine function of (Equation 1).
  • the three parameters A, B, and C of the sine function approximation are determined for one color.
  • a polarization degree image showing the polarization degree ⁇ and a polarization phase image showing the polarization phase ⁇ are obtained.
  • the degree of polarization ⁇ represents the degree to which the light of the corresponding pixel is polarized
  • the polarization phase ⁇ represents the principal axis angle of the partial polarization of the light of the corresponding pixel.
  • the principal axis angle of polarized light is the same between 0 and 180 ° ( ⁇ ).
  • the values ⁇ and ⁇ (0 ⁇ ⁇ ⁇ ⁇ ) are calculated by the following (formula 6) and (formula 7), respectively.
  • the patterned polarizer of this embodiment may be a photonic crystal, a film-type polarizing element, a wire grid type, or a polarizing element based on other principles.
  • the color information processing unit 302 illustrated in FIG. 3 calculates color luminance using information output from the color polarization acquisition unit 301.
  • the luminance of the light transmitted through the polarizer is different from the original luminance of the light before entering the polarizer.
  • a value obtained by averaging the observed luminances of all polarized polarization main axes corresponds to the original luminance of light before entering the polarizer.
  • the observation luminance at the pixel of the angle polarization pixel R1 is expressed as IR1
  • the color luminance can be calculated based on the following (Equation 8).
  • a normal color mosaic image can be generated by obtaining the luminance in each polarization pixel.
  • a color image C is generated by converting each pixel into a color image having RGB pixel values based on the mosaic image. Such conversion is realized by using a known interpolation technique such as a Bayer mosaic interpolation method.
  • each luminance and polarization information of each pixel in each of the color image C, the polarization degree image ⁇ , and the polarization phase image ⁇ are obtained using the four polarization pixels shown in FIG. Therefore, it can be considered that each luminance and polarization information represents a representative value at the virtual pixel point 505 located at the center of the four polarization pixels shown in FIG. Accordingly, the resolution of the color image and the polarization image is reduced to 1/2 ⁇ 1/2 of the resolution of the original color single-plate image sensor. For this reason, it is desirable that the number of pixels of the image sensor is as large as possible.
  • FIG. 9 is an image with a scene of a distant building as a subject.
  • the polarization degree image ⁇ in FIG. 9A represents the intensity of polarization by the brightness of a pixel. The higher the brightness of a pixel (white), the higher the polarization degree of the pixel.
  • the polarization phase image ⁇ in FIG. 9B represents the angle of the polarization phase by brightness.
  • the polarization phase is expressed by assigning values from 0 to 180 degrees to the brightness. Note that since the phase angle has periodicity, the phase angles of white and black on the polarization phase image are actually continuous.
  • FIG. 9C is a normal RGB color luminance image. However, in this drawing, a hue is not expressed, and only a luminance of each pixel is described as a monochrome luminance image expressed by brightness.
  • FIG. 9D is a schematic diagram corresponding to the image of FIG. Although it is difficult to understand in the photograph, 801 is the sky, 802 is the cloud, 803 is the building, 804 is planted, and 805 is a part of the camera stand.
  • scene shooting is corrected so that the horizontal line is horizontal in the screen.
  • the tilt correction of the photographed scene image / scene polarization image is performed by the roll horizontality correction unit 100b (FIG. 1F).
  • the inclination around the camera optical axis is corrected. That is, the inclination is corrected by rotating the direction 203 around the direction 203 by ⁇ r so that the x-axis in FIG. 2 is horizontal with the ground.
  • a tilted image is obtained as schematically shown in FIG.
  • a vertical line 9011 from the ground and a horizontal line 902 from the ground are defined as shown in FIG.
  • the camera x-axis in FIG. 2 can be regarded as equivalent to the x-axis in FIG.
  • the horizontal line 902, that is, the inclination of the camera in the x-axis direction from the ground is ⁇ r. Therefore, first, this inclination ⁇ r is detected by a level installed in the camera.
  • the level to be mounted may be any level as long as it can be mounted inside the camera as disclosed in, for example, Japanese Patent Application Laid-Open No. 2007-240832.
  • the polarization phase correction of the polarization phase image is performed using the inclination ⁇ r obtained from the level.
  • the corrected polarization phase direction ⁇ new can be obtained by correcting ⁇ obtained by Equation 7 using Equation 9 below.
  • FIG. 10B shows an image after tilt correction.
  • the vertical 9011 from the ground in FIG. 10A before correction is rotated by ⁇ r to a new vertical 9012 orthogonal to the horizontal line 902 of the image parallel to the X ′ axis in FIG. 10B.
  • the coordinates (Xr, Yr) of the pixel 903 in FIG. 10A are converted into coordinates (Xr ′, Yr ′) represented by the following Expression 10 as a result of rotating the image by the angle ⁇ r.
  • a pixel having coordinates (Xr ′, Yr ′) is described as a pixel 904 in FIG.
  • this correction may be performed after the cloud region is removed, for example, since it is only necessary to know the polarization phase angle of the sky region with respect to the horizon.
  • the entire sky polarization map may be converted into camera coordinates in the subsequent calculation by the camera direction estimation unit.
  • the blue sky polarization image processing unit 100c receives the polarization degree image ⁇ , the polarization phase image ⁇ , and the color image C and outputs a blue sky polarization phase image ⁇ SKY.
  • the blue sky polarization phase image ⁇ SKY is used for estimating the camera direction and the sun direction from the scene.
  • the polarization degree binarization unit 1001 binarizes the polarization degree image ⁇ with a threshold value T ⁇ .
  • the luminance conversion unit 1002 converts the color image C into a luminance image Y.
  • the luminance binarization units 1003 and 1004 binarize the converted luminance image Y using threshold values TC1 and TC2.
  • the image calculation unit 1005 performs an AND (logical product) operation on the polarization image ⁇ ′ binarized by the polarization degree binarization unit 1001 and the luminance image C1 ′ binarized by the luminance binarization unit 1003. Then, the mask image A ′ is output.
  • the hue similarity conversion unit 1006 performs HSV conversion on the color image C, and outputs a hue similarity image h representing the hue similarity with the sky blue hue.
  • the hue similarity binarization unit 1007 performs threshold processing on the hue similarity image h with the threshold value TH, and outputs an image h ′ in which only the sky hue region is extracted.
  • the image calculation unit 1008 performs a logical AND operation on the luminance C2 ′ binarized by the luminance binarization unit 1004 and the specific hue binarized by the hue similarity binarization unit 1007.
  • the output selection unit 1009 includes a binarized luminance / polarization degree image C1 ′, a first blue sky region mask A ′ generated from ⁇ ′, and a binarized luminance / hue similarity image C2 ′, Which of the second blue sky region masks B ′ generated from h ′ is to be used is determined based on the output ⁇ d of the polarization degree determination unit 1010.
  • the image calculation unit 1011 performs a logical AND operation on the adopted blue sky region mask Msky and the polarization phase image ⁇ to generate a blue sky polarization phase image ⁇ sky.
  • a blue sky region detection method there is a method of searching for a flat region from a color image whose hue on the image is similar to blue.
  • a blue sky including a cloudy sky is stochastically obtained from color information and texture information.
  • color information is used, (i) when the hue information of the color gradually changes from blue to magenta, red, such as sunset sky, or (ii) when the building on the ground is blue or white, There is a problem that it becomes impossible to distinguish from the sky or clouds.
  • the sky can be detected using only monochrome luminance information without explicitly using color information that changes variously due to physical factors in the sky.
  • an area having the highest luminance in the scene image may be assumed to be empty. According to experiments, when sky detection based on such assumptions was performed, good results were obtained to some extent in the case of cloudy sky or sunset sky. However, when the weather was fine, the brightness of mirror reflection of buildings on the ground was often higher than the brightness of the sky, and good results were not obtained. In the case of fine weather, rather than the specular reflection of sunlight, the artifact (building) was subjected to the blue sky all-around lighting, causing specular reflection stronger than expected on its smooth surface. It is thought that it was.
  • the blue sky region is detected using the degree of polarization of the scene in addition to the luminance.
  • This utilizes the fact that the degree of polarization of the sky in fine daylight is very high near the horizon.
  • the polarization state of the sky in the whole sky is recorded every hour for 12 hours from morning (sunrise) to evening (sunset). According to this document, except for the east-west direction in the morning and evening. Most of the time, the degree of polarization of the sky is strong near the horizon. According to experiments, the degree of polarization of this sky is often stronger than the degree of polarization of distant views such as mountains on the ground and artifacts such as buildings, and can therefore be an effective sky detection means.
  • the roofs and glass of buildings on the ground are also very strongly polarized.
  • a mask using both the polarization degree and the threshold value for luminance may be generated and the area to be removed may be detected.
  • the degree of polarization near the horizon is low in the east-west direction, which is the path of the sun, and in addition, the west sky in the morning and the east sky in the evening have low brightness. In many cases, this technique cannot be applied. In this case, the color hue and brightness may be used for detection. Details of this case will be described later.
  • the operation of the blue sky polarization image processing unit 100c having the configuration of FIG. 11A will be described with reference to FIG. 12 showing an actual scene image.
  • the actual scene image has a circular imaging range, but this is due to lens vignetting in the camera device at the time of the experiment, and may be considered as a rectangular image.
  • the blue sky polarization image processing unit 100c can be realized by a minimum configuration 1012 surrounded by a broken line shown in FIG. 11A depending on conditions. First, the operation of the minimum configuration 1012 will be described with reference to FIGS.
  • FIG. 12A shows a polarization degree image ⁇ of a scene image.
  • FIG. 12B is a diagram schematically showing the content of the polarization degree image ⁇ of FIG.
  • the scene image includes a sky region 1101, a building region 1102, a cloud region 1103, a ground region 1104, and a camera stand 1105.
  • the result of processing the polarization degree image ⁇ by the polarization degree binarization unit 1001 is an image ( ⁇ ′) in FIG.
  • the binarization threshold T ⁇ 0.14.
  • the binarization threshold value T ⁇ is determined from the polarization degree histogram. In this scene, the sky area 1101 and the landscapes 1102 and 1104 such as buildings on the ground are divided into a high polarization area and a low polarization area to form a bimodal distribution. An intermediate value between two peaks in the polarization degree histogram is defined as a threshold value T ⁇ .
  • the binarization threshold value T ⁇ is a threshold value for determining the degree of polarization, and satisfies the relationship of 0 ⁇ T ⁇ ⁇ 1.
  • the cloud region 1103 on the right side of the building is also removed when the degree of polarization is low. Only the lower black camera mount 1105 is strongly polarized and cannot be removed and remains.
  • FIG. 12D shows a luminance image Y obtained by processing the color image C of the scene image by the luminance conversion unit 1002.
  • the brightness of the sky region 1101 and the brightness of the building 1102 are almost equal, and separation by brightness is difficult. Even in such a case, by setting the thresholds TC1 and TC2 appropriately, Has been removed.
  • the threshold values TC1 and TC2 in this embodiment are normalized so that the magnitudes of 0 ⁇ TC1 ⁇ 1 and 0 ⁇ TC2 ⁇ 1 in order to evaluate the luminance value.
  • the luminance value of 0 to 255 is normalized to a numerical value of 0 to 1 and compared with the threshold values TC1 and TC2.
  • the luminance value of 0 to 65535 is normalized to a numerical value of 0 to 1, and then compared with the threshold values TC1 and TC2.
  • FIG. 13B is a schematic diagram of the same scene image as FIG. FIG. 13C shows a mask image A ′ as in FIG.
  • the blue sky polarization phase image ⁇ sky of FIG. 13D is obtained by the above processing.
  • the polarization phase may not be disturbed even in the cloud region, particularly when the cloud is thin.
  • the blue sky region may include a cloud. Whether or not the polarization phase is disturbed by the cloud is a measure of the degree of decrease in the degree of polarization in the cloud region. According to the method of the present embodiment that determines the blue sky region based on the polarization, there is an advantage that only the cloud region having a low degree of polarization can be automatically removed.
  • FIGS. 14A to 14F show a scene polarization degree image ⁇ , a schematic diagram of a scene image, a binarized scene polarization degree image ⁇ ′, a scene luminance image Y, and a binarized scene luminance image C2 ′, respectively. It is. As shown in FIG. 14B, this scene image includes an empty area 1201, a building area 1202, a ground area 1203, and a camera stand 1204.
  • the polarization degree determination unit 1010 shown in FIG. 11A is used in such a case.
  • the average degree of polarization is obtained based on the polarization degree histogram of the scene polarization degree image ⁇ .
  • T ⁇ 1 0.1
  • this is not adopted, and the color hue and luminance are used. Switch to the method you used.
  • the process will be described with reference to FIGS. 11A and 15.
  • the hue similarity conversion unit 1006 converts the color image C into a hue similarity image by obtaining an error of the hue angle indicating the difference between the hue angle of blue, which is a sky hue, and the hue angle of the color image C. Is done.
  • the reason why the color of the sky is blue is that processing using this color image is used only when the degree of polarization of the sky is low and the brightness is low, either in the morning west sky or in the evening east sky. Therefore, it is based on the assumption that the sky color can be regarded as blue.
  • Hsky 254 °
  • an input scene hue angle is Htest.
  • RGB_to_H Hue, Saturation, Lightness space hue H conversion formula
  • the hue angle is a cycle of 360 degrees
  • the hue similarity ⁇ H is It is expressed by the formula.
  • the hue similarity image h is subjected to threshold processing by the hue similarity binarization unit 1007, whereby a blue sky region candidate mask image h ′ is obtained.
  • FIG. 15A shows a hue error image converted by the hue similarity conversion unit from the same scene image as that of FIG.
  • FIG. 15 (b) shows a schematic diagram of the scene image of FIG. 15 (a).
  • FIG. This is a mask image B ′ as a result of a logical product operation of the hue binarization result h ′ shown in FIG. 15A and the luminance binarization result C2 ′ shown in FIG.
  • this mask image B ′ is adopted instead of the mask image A ′ from the polarization degree.
  • the image operation unit 1011 performs a logical product operation on the mask image B ′ and the polarization phase image ⁇ to obtain a blue sky polarization phase image ⁇ sky.
  • the mask may be switched according to the shooting date and time. For example, after 4 pm, sunset is defined as evening, and when it is not evening, the blue sky region is determined with only the minimum configuration 1012, and switching using the entire configuration in FIG. 11A is possible in the evening.
  • the output selection unit 1009 uses the first blue sky region mask generated from the binarized luminance / polarization degree images C1 ′ and ⁇ ′. Based on the output ⁇ d of the polarization degree determination unit 1010, which one of A ′ and the second blue sky region mask B ′ generated from the binarized luminance / hue similarity images C2 ′ and h ′ is to be adopted. To decide.
  • the blue sky polarization image processing unit 100c in FIG. 11B selects which mask is to be created before the first blue sky region mask A ′ and the second blue sky region mask B ′.
  • the unit 1014 determines based on the output ⁇ d of the polarization degree determination unit 1010. For example, when ⁇ d output from the polarization degree determination unit 1010 does not exceed the threshold value, the selection unit 1014 in FIG. 11B selects creation of the second blue sky region mask B ′ instead of the first blue sky region mask A ′. To do.
  • the blue sky polarization image processing unit 100c in FIG. 11B does not create the first blue sky region mask A ', but creates only the second blue sky region mask B'. Then, only the second blue sky region mask B ′ is input to the image calculation unit 1011. For this reason, it is only necessary to create the selected mask, and processing for creating a mask that is not used can be omitted.
  • a selection unit 1014 determines which mask is to be created before the first blue sky region mask A ′ and the second blue sky region mask B ′ are created. Will be determined. However, in the blue sky polarization image processing unit 100c of FIG. 11C, the selection of the mask is determined based on the shooting date / time information output by the date / time information acquisition unit 1016, not based on the output ⁇ d of the polarization degree determination unit 1010. When the time indicates evening (for example, after 4 pm and until sunset), the selection unit 1014 in FIG. 11C creates the second blue sky region mask B ′ instead of the first blue sky region mask A ′. select. As a result, only the second blue sky region mask B ′ is input to the image calculation unit 1011.
  • FIG. 16 shows a configuration of the camera direction estimation unit 101.
  • FIG. 16A shows a configuration for executing the search mode.
  • This configuration includes a sun position acquisition unit 1301, an all-sky polarization phase map acquisition unit 1302, a blue sky region direction estimation unit 1303, and an angle of view acquisition unit 1304. It has.
  • FIG. 16B shows a configuration for executing the calculation mode, and this configuration includes a sun position acquisition unit 1301, an angle of view acquisition unit 1304, and a blue sky region direction calculation unit 1305.
  • the input is the same blue sky polarization phase image ⁇ , and the configuration of the solar position acquisition unit 1301 is also common.
  • the camera direction estimation unit 101 may include both of the configurations illustrated in FIGS. 16A and 16B, or may include only one of them. Further, which mode is used can be selected by the photographer or may be automatically determined inside the camera. Details of each mode will be described later.
  • the camera direction estimation unit 101 determines in which direction the captured polarization phase pattern is in the whole sky. Therefore, first, the sky polarization state will be described.
  • the sun's light that falls from the sky has the property of electromagnetic waves.
  • an electromagnetic wave changes during propagation, when there is a change in the medium, a structural change in the propagation path, or when an object suddenly appears, a secondary electromagnetic wave is emitted in the changing region. This is scattering.
  • this scatterer which is a structure that generates re-radiation, is sufficiently larger than the wavelength of the radio wave, the phenomenon of the scatterer surface can be treated locally as plane wave reflection / incidence.
  • the scattering that occurs in such a case is “geometric optical scattering”.
  • the electromagnetic field on the scatterer surface can be approximated by a static magnetic field.
  • the scattering that occurs in such a case is “Rayleigh scattering”.
  • the scattering characteristic of Rayleigh scattering shows the same characteristic as the directivity of a minute dipole regardless of the shape of the scatterer.
  • the blue sky in the daytime is because blue with a short wavelength is strongly scattered and reaches our eyes.
  • the evening sky is red because the blue component dissipates as the distance from the sun, which is the light source, increases, and the red color remaining as transmitted light reaches our eyes.
  • the light undergoes Rayleigh scattering, the light has a property of being polarized due to the positional relationship with the sun as a light source. This is the reason why an empty polarization pattern is created and changes from moment to moment.
  • the polarization phase characteristics depend on the positional relationship between the sun, the observation point, and the viewpoint, and when the polarization of the sky is observed from the ground, the polarization component in the tangential direction of the circle centered on the sun is strongly observed. Will come to be.
  • Non-Patent Document 3 As a result of actual measurement, there are three singular points with unique polarization characteristics other than the sun.
  • Non-Patent Document 4 succeeds in obtaining a sky polarization pattern close to reality using a theoretical model that takes them into consideration.
  • a cloud is a collection of droplets such as water droplets. If it is a thin cloud, it is transparent, but when it gets darker, it turns white and the other side is invisible. This is because multiple scattering occurs between cloud particles. Multiple scattering is a repetition of scattering in which light scattered by a scatterer is incident on another scatterer and causes another scatterer. In particular, when a large number of scatterers are densely distributed, the light that has been scattered and dispersed overlaps with each other, and similarly, the light polarized by scattering also overlaps and loses its polarization characteristics. Of course, the polarization characteristic does not completely disappear, and the polarization characteristic may remain depending on the thickness and amount of the cloud. Therefore, in this method, the cloud region is not removed at the initial stage, but only the region with a low degree of polarization is removed, and the method is applied only to the region where the sky polarization can be used.
  • the sky polarization pattern depends on the position of the sun (the altitude and direction of the sun: hereinafter, sometimes simply referred to as the “sun position”). Therefore, first, it is necessary to acquire information indicating the solar position by the solar position acquisition unit 1301 (hereinafter, it may be simply referred to as “acquire the solar position”).
  • the sun position varies depending on the date, time, and position (latitude and longitude) looking up at the whole sky, for example, the altitude of the sun in the whole sky using a clock, GPS, etc. And can be obtained by calculating the direction.
  • the solar altitude / azimuth calculation method in this case will be described.
  • the angle variable is set as ⁇ 0, and the number of days elapsed since the new year's day is used and defined as follows. If the solar declination of the day is set as ⁇ , it can be obtained as follows using ⁇ 0. If the latitude ⁇ , the longitude ⁇ , the equation of time Eq, the Japan standard time JST, and the standard meridian longitude JSK are set, the solar hour angle t can be obtained by the following procedure. From the above, the solar azimuth ⁇ s and the altitude hs can be obtained by the following equations. The above calculation is based on the approximate calculation formula of Rissho Univ. Nakagawa Laboratory.
  • This method of obtaining is merely an example, and there are various other methods of obtaining the solar position.
  • it can be obtained by a calculation formula described in documents such as “Calculation of sunrise / sunset” Nagasawa Kou (Jinjinshokan).
  • it may be obtained by a method using a science chronology.
  • the whole sky polarization phase pattern on the photographing point at the time of photographing is obtained by the whole sky polarization phase map obtaining unit 1302.
  • data in which the polarization phase pattern at each solar altitude / azimuth is recorded by actual observation can be created and accumulated to be used as a database. If a panoramic polarization phase map corresponding to the solar altitude and direction at the time of photographing is obtained from the database thus created, the panoramic polarization pattern can be obtained. If there is no data equal to the solar altitude and direction at the time of shooting, it is sufficient to supplement by using a plurality of close ones.
  • Non-Patent Document 1 Non-Patent Document 2
  • Non-Patent Document 4 Non-Patent Document 4.
  • FIG. 17 shows a schematic diagram of the entire sky polarization phase pattern obtained by calculation based on the above-described theoretical model, and a conceptual diagram of matching with the blue sky polarization phase pattern.
  • the large circle in the center of FIG. 17A is an example of an all-sky polarization diagram around 9 am.
  • the phase pattern is drawn with a dotted line for easy understanding, but in reality, each point on the map has a phase, and this figure visualizes a part of the phase plane.
  • the entire sky polarization pattern is a concentric pattern centered on the sun 1401. More specifically, it is known that a Babinet point 1402 known as a singular point, an Arago point 1403, and the like influence. A point 1404 just below the zenith is the camera position. A line extending perpendicularly from the zenith to the horizon, that is, a perpendicular to the horizon (Local Meridian) is defined. The dotted lines indicate the inclination of the polarization phase with respect to the Local Meridian to which the light from each point of the whole sky map viewed from the camera position belongs. How to read the phase diagram will be described in detail below.
  • the direction of the phase is defined so that the direction along the Local Meridian is 0 ° and positive in the clockwise direction, as shown in the figure showing the polarization phase ⁇ pix at the position 1405.
  • the respective polarization phase directions are indicated by dotted arrows.
  • the magnitude of this phase is determined with a local meridian passing through one point on the sky ahead of the camera's line of sight as a reference line. It is assumed that how the phase lines on the map intersect with the reference line gives the direction (phase angle) of the polarization phase.
  • the phase angle at the position 1405 near the horizon is about ⁇ 20 ° with respect to Local Meridian.
  • the phase angle at the position 1406 on the solar path is ⁇ 90 ° with respect to Local Meridian. This is known to occur at all points along the solar path.
  • the phase angle at position 1407 is about 40 ° with respect to Local Meridian.
  • the phase angle at the position 1408 near the sun is approximately 0 ° with respect to Local Meridian.
  • FIGS. 17B and 17C are schematic diagrams 1409 and 1410 of the polarization phase images to be photographed.
  • the arrows in the drawing only schematically show the direction of the polarization phase for explanation, and do not actually appear on the photograph.
  • each pixel has a value indicating the polarization phase. From the arrangement of the polarization phases of a plurality of pixels, it can be seen which part of the sky was photographed.
  • a blue sky polarization phase image 1409 shown in FIG. 17B and a blue sky polarization phase image 1410 shown in FIG. 17C are obtained at a certain time. They appear to be the same scene but have different sky polarization phase patterns.
  • the blue sky polarization phase image 1409 has a polarization axis in the direction of the 11 o'clock direction of polarization in the sky region as a whole.
  • the blue sky polarization phase image 1410 the polarization in the sky region has a polarization axis in the direction of 2 o'clock as a whole.
  • the blue sky polarization phase image 1409 is taken in the north direction having the deflection phase at position 1405. I understand that.
  • the blue sky polarization phase image 1410 is an image of the south direction having the deflection phase at the position 1407. In this way, even two images that look the same in the scene image can be identified as scenes with different line-of-sight directions due to the different polarization phases of the sky regions included in the image.
  • FIG. 17A the polarization phase pattern is shown on two-dimensional coordinates for the sake of simplicity.
  • the search for the actual phase polarization pattern is 3 It is desirable to carry out on the dimensional earth coordinates.
  • FIG. 18 is a conceptual diagram showing the relationship between the sun and the camera orientation in the earth coordinate system.
  • the azimuth is set as ⁇ 1 and the elevation angle is set as ⁇ 2.
  • the direction is north in the x-axis + direction, south in the-direction, west in the y-axis + direction, and east in the-direction.
  • the coordinates do not necessarily have to be taken in this way, and any coordinates may be used so that the correspondence between the direction and the celestial sphere can be understood.
  • the azimuth of the camera is 0 degrees on the east side and is an angle rotated around the north.
  • the elevation angle of the camera is an angle viewed upward from the horizon.
  • FIG. 18A the sun 1501 is at the coordinate Ps.
  • a point 1502 on the celestial sphere 1505 corresponding to a certain point in the blue sky polarization phase image is set at the coordinate Pv.
  • Reference numeral 1503 denotes a polarization phase ⁇ pix at Pv.
  • the position of the camera 1504 is at the coordinates Pc (0, 0, 0).
  • the zenith angle of Ps is ⁇ 2, and the zenith angle of Pv is ⁇ 2.
  • FIG. 18B is a view of the xy plane of FIG. 18A as viewed from above the z axis.
  • the azimuth angle of Ps is ⁇ 1, and the azimuth angle of Pv is ⁇ 1.
  • each point located at the coordinates Ps and Pv can be expressed as follows using ⁇ 1 to ⁇ 2.
  • the pixel position of the photographed image is replaced with an angle from the camera center in order to take correspondence between the pixel position of the photographed image and the position on the celestial sphere.
  • FIG. 19 shows a schematic diagram of the positional relationship between the camera and the captured image. Components common to those in FIG. 18 are given the same reference numerals.
  • the pixel position 1601 to be processed is Pg (pgx, pgy). Further, it is assumed that the image center 1602 corresponds to Pv1502 in FIG. 18, and its coordinates are set as Pgc (cx, cy).
  • the x-direction field angle of the camera is ⁇ px
  • the y-direction field angle is ⁇ py.
  • This angle of view is acquired by the angle of view acquisition unit 1304 in FIG. Since the angle of view is determined by the focal length of the lens and the chip size, it may be given in advance as data in the memory inside the camera. Here, it is acquired and used. The angle of view is used to determine the range of the blue sky region.
  • angles between the straight line connecting the camera 1504 and the Pg 1601 and the straight line connecting the camera 1504 and the Pgc 1602 are ⁇ px ′ in the wx direction and ⁇ py ′ in the wy direction. Since the image has already been corrected for horizontality, ⁇ py ′ contributes only to ⁇ 2 in the camera elevation angle direction. At this time, these angles ⁇ px ′ and ⁇ py ′ can be expressed by the following equations. At this time, the celestial sphere position Pgv corresponding to Pg is expressed by the following equation.
  • the polarization phase can be known, so that the radius of the celestial sphere may be set to 1 in the future. From the above, the position of the polarization phase corresponding to each pixel on the celestial sphere is obtained.
  • FIG. 20 shows an overhead view of the camera 1504, the image area 2000, and the celestial sphere 1505.
  • a line connecting the image center 1602 from the camera 1504 reaches a point 1502 on the celestial sphere 1505.
  • Components common to those in FIGS. 18 and 19 are denoted by the same reference numerals.
  • the range of view angles 1603 and 1604 is equal to the shooting range.
  • the conventional pattern matching method may be applied for camera orientation estimation. Since the polarization phase is one cycle from 0 ° to 180 °, it is preferable to subtract 180 from the phase of 180 ° to 360 ° and fall within the range of 0 ° to 180 °.
  • SSD Sud of Squared Difference
  • the camera orientation is virtually determined, it can be seen where the above-mentioned camera center pixel position Pgc is on the all-sky polarization map.
  • a difference between the polarization phase at each pixel position of the blue sky polarization image and the polarization phase at the position corresponding to each pixel position on the all-sky polarization map is obtained, and a square error is calculated.
  • the square error is calculated while changing the virtually determined camera direction, and the camera direction that minimizes the error is determined.
  • the polarization phase at the point Pgv 1607 on the all-sky polarization pattern is ⁇ pgv.
  • the polarization phase at a point Pg1601 on the actual image is ⁇ pg
  • the square error is Err.
  • the square error Err is expressed by the following equation.
  • the point Pv1502 on the all-sky polarization pattern corresponding to the image center Pgc 1606 is moved so that the square error Err is minimized.
  • the sun position is acquired by the sun position acquisition unit 1301.
  • a theoretical all-sky polarization pattern is obtained by a mathematical expression.
  • the azimuth angle of the camera can be obtained by calculating using the obtained pattern and the sun position.
  • Non-Patent Document 1 when the expression of Non-Patent Document 1 is used, the following expression is established, assuming that the polarization phase at a certain pixel in the blue sky polarization image is ⁇ pg.
  • ⁇ 1 and ⁇ 2 can be calculated using Equation 22 from ⁇ pg, ⁇ 1, and ⁇ 2 corresponding to each pixel in the blue sky polarization phase image.
  • Equation 22 it is sufficient to calculate at least three points.
  • noise exists in the polarization phase image, and therefore it is preferable to use as many points as possible.
  • a method of applying dynamic programming repeatedly may be used.
  • the mathematical formula used in the calculation mode is not limited to the formula 22.
  • the camera orientation can be acquired in the same manner using other sky polarization equations.
  • the output unit 102 in FIG. 1F outputs the azimuth and elevation angle of the camera acquired by the above method as data in a format required in the subsequent stage. That is, information indicating ⁇ 1 and ⁇ 2 in FIG. 19 is output in an output form corresponding to the case.
  • FIG. 21 is a block diagram showing a configuration of a camera orientation detection apparatus according to the second embodiment of the present invention.
  • the same components as those shown in FIG. 1F are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • the first difference between the first embodiment and the present embodiment is that the apparatus of the first embodiment includes the “blue sky polarization phase image acquisition unit 100” (FIG. 1F), whereas the first embodiment is different from the first embodiment.
  • the apparatus is provided with a “blue sky polarized image acquisition unit 1700” (FIG. 21).
  • blue sky polarization image means both a blue sky polarization phase image and a blue sky polarization degree image. That is, in this embodiment, not only a blue sky polarization phase image but also a blue sky polarization degree image is acquired.
  • a second difference between the first embodiment and the present embodiment is that the apparatus of the present embodiment has a “camera direction estimation unit 1701” that executes processing different from the “camera direction estimation unit 101” of the first embodiment. It is in preparation.
  • FIG. 22A shows a configuration diagram of the blue sky polarization image processing unit 100c in the blue sky polarization image acquisition unit 1700. Components that are the same as those shown in FIG. 11A are given the same reference numerals, and detailed descriptions thereof are omitted.
  • the output selection unit 1009 employs either the first mask image A ′ or the second mask image B ′.
  • the adopted mask image (“mask image” C ′ ”) and an AND with the polarization degree image ⁇ is calculated by the image calculation unit 1801 to calculate the blue sky polarization degree image ⁇ sky and output it together with the blue sky polarization phase image ⁇ sky.
  • FIG. 23A is the polarization phase image ⁇ of the scene image
  • the image of FIG. 23B is the polarization degree image ⁇ of the scene image.
  • the sky region 1101, the building region 1102, the cloud region 1103, the ground region 1104, and the camera stand 1105 are included in the image. These symbols are the same as those assigned to the corresponding regions in FIG.
  • the image in FIG. 23D is a mask A ′ generated by the minimum configuration 1012.
  • the result of AND operation with the polarization phase image ⁇ by the image calculation unit 1011 is the blue sky polarization phase image ⁇ sky of FIG. 23E
  • the result of AND operation with the polarization degree image ⁇ by the image calculation unit 1801 is shown in FIG. It is a blue sky polarization degree image ⁇ sky of (f). It can be seen that both have a characteristic pattern of the sky.
  • the sky polarization degree pattern can be obtained by calculation from the position of the sun, and can be used for estimation of the camera orientation.
  • the blue sky polarized image processing unit 100c in FIG. 22A can be modified as shown in FIGS. 22B and 22C. That is, in the configuration example of FIG. 22B, the selection unit 1014 determines which mask should be created before the first blue sky region mask A ′ and the second blue sky region mask B ′ are created. It is determined based on the output ⁇ d of 1010. In the configuration example of FIG. 22C, the selection unit 1014 determines which mask should be created in the shooting date / time information before the first blue sky region mask A ′ and the second blue sky region mask B ′ are created. Determine based on.
  • FIGS. FIG. 24 shows the configuration of the search mode
  • FIG. 27 shows the configuration of the calculation mode.
  • the same reference numerals are given to components common to the components in FIG. 16, and detailed description thereof will be omitted here.
  • the difference between the corresponding configuration of the first embodiment and the configuration of the present embodiment is that it has a blue sky polarization image, that is, a blue sky polarization degree image ⁇ sky as an input in addition to a blue sky polarization phase image ⁇ sky.
  • the yaw level acquisition unit 1901 acquires the angle in the yaw direction of the camera, that is, the elevation angle.
  • the all-sky polarization map candidate area acquisition unit 1903 cuts out only the part that becomes the candidate area from the all-sky polarization map area corresponding to the acquired blue sky polarization image based on the angle of view and the elevation angle of the camera.
  • the blue sky region direction estimation unit 1303 functions in the same manner as the blue sky region direction estimation unit 1303 in the first embodiment.
  • the reliability determination unit 1904 determines the reliability of the acquired camera orientation. Details of each part will be described below.
  • the yaw level acquisition unit 1901 acquires the elevation angle of the camera.
  • the search area of the whole sky polarization map in the subsequent stage is limited.
  • the same level as the roll level correction unit 100b of the blue sky polarization image acquisition unit 1700 may be installed on the same plane so that the elevation angle can be acquired.
  • the mounting level may be anything as long as it can be mounted inside the camera as described in, for example, patent literature.
  • the obtained elevation angle corresponds to ⁇ 2.
  • the blue sky region direction estimation unit 1303 can easily obtain the orientation of the camera simply by changing only the orientation angle ⁇ 1 of the camera.
  • Figure 25 shows a conceptual diagram. Similarly to FIG. 17, the sun 1401 and the camera position 1404 are shown in a diagram showing the polarization phase of the sky. In the schematic diagram 1409 of the captured polarization image, the sky polarization phase is schematically shown by arrows. Note that the procedure for limiting the search area is the same for the all-sky polarization degree map, and thus the illustration is omitted.
  • the search range is included in the all-sky polarization map by the all-sky polarization map candidate region acquisition unit 1903.
  • a search in which the elevation angle and the angle of view are fixed within this area 2001 and only the camera orientation is a variable may be performed in the same manner as the method described in the first embodiment. For this reason, high-speed search can be expected.
  • Matching is performed by appropriately changing the values before and after the obtained field angle and within a suitable range of values before and after the elevation angle. Of course, it can also be used.
  • FIG. 26A a mode for determining the reliability based on the solar altitude will be described.
  • the configuration of FIG. 26A is characterized in that a solar position acquisition unit 1301 and a solar altitude determination unit 1302 are provided.
  • the solar altitude determination unit 1302 determines “no reliability” if the altitude of the sun obtained from the solar position acquisition unit 1301 is equal to or higher than a predetermined altitude, and performs processing such as processing stop and error display. This is because when the sun approaches the zenith, the polarization maps become almost equal in the east, west, south, and north directions, and the reliability of the determination decreases.
  • FIG. 26B shows the polarization phase pattern of the sky when the sun 2101 is located at the zenith.
  • the polarization phase from the Local Meridian is 90 ° in any direction. With this, the camera orientation cannot be obtained.
  • the camera orientation acquisition is stopped, an error is displayed to the user, and the process ends. For example, if the solar altitude is within 5 degrees of the zenith angle, the determination is impossible.
  • the apparatus includes both the yaw direction horizontality acquisition unit 1901 shown in FIG. 24, the all-sky polarization map candidate region 1903, and the solar position acquisition unit 1301 and solar altitude determination unit 1302 shown in FIG. 26A.
  • the reliability determination unit 1904 determines the reliability of the estimation result and presents it to the user.
  • the reliability since the information on the solar altitude is obtained, the reliability can be evaluated by this, but information other than the solar altitude can be used for the evaluation of the reliability. For example, when a plurality of candidate areas are acquired, the reliability may be lowered if the number of candidate areas is large. Alternatively, the reliability may be lowered when a region having a low degree of polarization is selected.
  • the user needs to take some measures against this information. For example, in the case where a plurality of camera orientations are presented, there is a means of selecting a camera closest to the actual shooting direction / shooting position / sun position from among them. Alternatively, there is a means of changing the shooting direction by a recommended function of the camera, which will be described later, or a means of postponing the shooting time until the time suggested by the display unit of the camera if the shooting situation permits. .
  • FIG. 16B A difference from FIG. 16B is that a partial blue sky region direction calculation unit 1304 is provided, and the determination result of the degree of horizontality and solar altitude in the yaw direction is added as information input to the partial blue sky region direction calculation unit 1304. Is a point. These are used as constraint conditions in the calculation, and the blue sky region direction is obtained by calculation in the same manner as in the first embodiment. For example, if the output result of the solar altitude determination unit 1902 is “calculation is impossible because the altitude is too high”, the subsequent calculation is stopped, and the reliability determination unit 1904 determines “no reliability”. Similarly, the user is notified on the display or the like that the determination is impossible.
  • the reliability determination unit 1904 finally determines the reliability of the estimation result and notifies the user. When the reliability is low, the user is required to take some means as described above.
  • FIG. 28 is a diagram showing a configuration of a camera orientation detection apparatus according to the third embodiment of the present invention. 28, the same reference numerals are given to the same components as those in FIG. 21, and the detailed description thereof is omitted here.
  • the characteristic point of this embodiment is the configuration and function of the output unit 2201.
  • the output unit 2210 includes a part that calculates the sun direction in the camera coordinates, and creates and outputs data including information indicating the sun direction and information indicating the camera direction in a prescribed format.
  • the output unit 2201 will be described.
  • the configuration of the output unit 2201 is shown in FIG. Based on the azimuth and elevation angle of the camera, the coordinate conversion unit 2301 calculates the sun position in the camera coordinates. Then, the image format creation unit 2302 creates an image Im having a format including the camera direction and the sun direction. Hereinafter, the flow will be described.
  • CamVect (xcm, ycm, zcm) is obtained on the celestial sphere as the camera orientation.
  • the sun is assumed to be Ps (xs, ys, zs) on the celestial sphere.
  • CamVect it is necessary to make the camera optical axis direction coincide with the z-axis. At this time, a 3 ⁇ 3 rotation matrix R1 is considered.
  • the value of the roll direction horizontality acquired by the blue sky polarized image acquisition unit is used to return to the actual camera coordinate state. . This can be done by preparing a rotation matrix R2 that reversely calculates Equation 10.
  • the sun SUNcm (xscm, yscm, zscm) on the camera coordinates is obtained as follows using R1 and R2.
  • the present invention can be used not only for processing inside the camera but also for post-processing by a computer using, for example, a photographed image outside the camera. Therefore, a unique format for extracting information on the camera direction and the sun direction to the outside is required.
  • the image format 2401 is the shooting time / time and latitude / longitude data 2402 for the captured image Im. -Camera orientation (azimuth / elevation angle) information on celestial coordinates 2403-2404 ⁇ Sun position information on camera coordinates 2405 ⁇ Blue sky area division result data 2406 Blue sky region polarization phase image 2407 ⁇ Digital camera image data 2408 Etc. at the same time.
  • other common image formats may have information at the same time.
  • the minimum required information differs depending on the application. However, the minimum information includes the longitude and latitude of the shooting location and the camera orientation (orientation). An image in this format is output from the image input device.
  • the camera orientation 2403 can be known, so it can be seen whether the Arc de Triomphe or Champs Elysee was taken against the world map. If this is used, it can be used, for example, for classification of images to be captured by an individual stored in a PC. Alternatively, the image information on the web can be used for shooting target classification.
  • an approximate camera viewpoint direction can be recognized. If the camera optical axis direction is known, for example, it can be used as very effective information when performing image composition between images classified for each subject on an individual or on the web, and use in the CG / CV field Can provide useful information.
  • the sun direction coordinates 2404 Since the sun direction coordinates 2404 have been derived, the positional relationship of the sun with respect to the camera is known. For example, if the camera is facing the sun, it is predicted that the camera is backlit. Therefore, it is possible to perform backlight correction or “recommend backlight correction” to the user. In this case, if the display unit performs processing such as when the camera approaches the direction that the camera recommends, the camera will focus when the camera approaches that direction, and when the camera moves away from the camera, the user will naturally recommend it. It is also possible to make a framing proposal that can point the camera in the direction. It is possible to calculate the sun position on the PC from the date and time, latitude / longitude data 2402, and camera orientation / elevation angle data 2403 and 2405. Therefore, the sun direction 2404 is not necessarily derived in the format. There is no need.
  • the format holds the blue sky region division result data 2406, it can be used to convert the color of the blue sky region of the photograph taken in the daytime into the evening sky color or present it as a conversion candidate.
  • another conversion such as making it a little darker
  • other parts other than the blue sky area it becomes possible to convert a more natural scene image, which is useful information in image processing software. Can provide.
  • the image input device (camera etc.) provided with the camera orientation detection device of the present invention
  • the polarization pattern of the entire sky is used. No special lens is required to get.
  • the camera orientation detection method obtains a polarization image and a color image in step S2500 by the camera, and the polarization phase of the blue sky region included in the color image based on the polarization image and the color image.
  • the camera orientation detection method of the present invention for executing such steps is not limited to being applied to an apparatus having the above-described configuration, and can be implemented even when applied to an apparatus having another configuration. .
  • the above embodiment is related to an imaging device including an “imaging device direction detection unit”, but the present embodiment is related to a moving object (typically, an automobile) including an “imaging device direction detection unit”. is doing. That is, the moving body in the present embodiment includes an imaging device having an imaging unit that acquires a polarization image including a polarization phase image and a luminance image, and the imaging device orientation detection device described above. Further, the moving body includes a moving body direction estimation unit that determines the direction of the moving body from the detected direction of the imaging apparatus in accordance with the relationship between the direction of the moving body and the direction of the imaging apparatus.
  • the position of the vehicle is determined by GPS, and on the assumption that the vehicle is moving forward or backward, based on the position change when the vehicle moves, Find the direction (direction).
  • the GPS position data does not change not only when the vehicle stops but also when the direction changes at approximately the same position, such as at an intersection. Therefore, the azimuth of the moving body is estimated from past azimuth data and information such as the number of rotations of the tire during traveling.
  • the current actual direction may not be correctly indicated depending on the stop time of the moving body, the road surface condition, and the driving situation up to the stop. For example, when the car stops due to spinning, the direction of rotation of the car cannot be calculated from the number of rotations of the tire, so it is impossible to estimate which direction the car has stopped.
  • FIG. 32A is a diagram illustrating a configuration of a moving body orientation detection device included in the moving body according to the present embodiment.
  • the moving body direction detection device includes a moving body direction estimation unit 2600 that calculates the moving body direction and a moving body direction output unit 2601 that outputs the moving body direction. is there.
  • a database 260 that provides information that defines the relationship between the camera orientation and the moving object orientation is connected to the moving object orientation estimating unit 2600.
  • the database 2600 may be included in the mobile body, or may be appropriately connected to the database 2600 installed outside the mobile body by wire or wirelessly.
  • FIG. 33 is a flowchart showing the operation of the moving body orientation detection device provided in the moving body in the present embodiment.
  • the camera orientation estimation unit 101 executes camera orientation estimation step S2702 to estimate the orientation of the imaging device (imaging device orientation).
  • the moving body direction estimation unit 2600 executes the moving body direction estimation step S2703 to estimate the direction of the moving body.
  • the relationship between the orientation of the imaging device and the orientation of the moving body will be described. As will be described later with reference to FIG. 35, the relationship between the orientation of the imaging device and the orientation of the moving body changes depending on the mounting position of the camera (imaging unit). For this reason, the orientation of the imaging device does not necessarily match the orientation of the moving body. For this reason, for example, it is necessary to determine the orientation of the moving body from the orientation of the imaging device in accordance with the mounting position of the imaging unit on the moving body (referred to simply as “camera position”).
  • data (table) having a structure as shown in FIG. 32B is stored in the database 260.
  • the coordinates of the moving body direction can be calculated. For example, when the imaging device is installed at the rear of an automobile, the orientation for the moving object is obtained by rotating the orientation for the camera by 180 degrees.
  • the relationship between the camera direction and the moving body direction is defined not only by the camera position but also by the relationship between the camera line-of-sight direction and the moving body direction. For this reason, it is preferable that the data stored in the database 260 has information indicating a more accurate relationship between the camera orientation and the moving body orientation.
  • the moving body direction output unit 2601 executes the moving body direction output step S2704 to perform processing so that the moving body direction information can be presented to the user with a display, voice, or the like.
  • a situation is shown in which a car 2801 enters the intersection 2800 and stops.
  • a speed difference such as GPS
  • the selected road is different from the road that was intended to pass, it is necessary to go back to the correct road from the intersection, which is complicated.
  • the present invention it is possible to present the direction of the vehicle to the user without traveling a certain distance by simply acquiring the blue sky polarization image outside the vehicle shown in the image region 2802 of FIG.
  • the presentation method may use a display 2803 or an audio warning 2804.
  • the direction of the car can be displayed on the map in the form of an arrow 2805 so that the user can easily understand the direction of the own car. effective.
  • the scene image / scene polarization image acquisition unit 100a, the blue sky polarization image processing unit 100c, and the camera orientation estimation unit 101 illustrated in FIG. 32A perform the same operations as the processing units with the same numbers illustrated in FIG. Description is omitted.
  • the roll level correction unit 100b may be operated in the same manner as in FIG. 1F, but may be another operation described below.
  • the imaging unit is fixed while driving on or in the car. Therefore, once the roll level with respect to the ground is stored at the time of installation, correction may be performed using the level at the time of installation. Since it is not necessary to extract the horizontal line every time, there is an effect that processing can be performed at higher speed.
  • FIG. 35 shows a typical installation example of a polarization imaging device (imaging device) 2900 on a moving body.
  • FIG. 35 shows mobile bodies (automobiles) 2901 to 2904 according to this embodiment.
  • the moving body 2901 is installed at a position on the front bonnet or a position on the rear bonnet like the polarization imaging element 2905. In this way, a blue sky polarization phase image can be acquired from a relatively high position that does not interfere with driving.
  • the polarization image sensor 2906 or the polarization image sensor 2907 may be installed at a position lower than the hood, for example, near the lower part of the vehicle body. By doing so, the influence on the appearance can be reduced. Further, it may be installed obliquely like a polarization imaging device 2907.
  • a blue sky polarized image can be stably acquired from a higher position.
  • polarization imaging elements 2905 to 2908 described above are referred to as polarization imaging elements 2900 because they are the same polarization imaging elements that differ only in the installation location.
  • the user may determine the installation position of the polarization imaging device 2900 at any time at any time before boarding. For example, if the imaging device and the device including the blue sky polarization image processing unit can be connected by a cable or the like, as shown by the moving body 2904, the user can select the position of the imaging unit from a wide range. This is convenient because it can be used in accordance with the convenience of each user. If the imaging unit is in a position where a blue sky polarization phase image outside the vehicle can be acquired and is not directed directly above the vehicle body (the possibility of including the sun in the image is very high) May be installed. Therefore, other than the example of arrangement shown here, it may be installed at a position that satisfies the above installation conditions.
  • a message may be issued to the mobile unit 3000 from the apparatus of this embodiment. For example, as shown in the display 3001, “cannot be used because of low reliability” is displayed, or the user is notified by an audio warning 3002 that the apparatus of the present invention is not usable. There is. By doing in this way, possibility that a user will receive wrong information can be reduced.
  • a navigation system of a portable device obtains the position of a person who moves by GPS, and on the assumption that the person is moving forward or backward, based on the position change when the person moves, Is looking for which direction (direction).
  • the orientation detection device in the present embodiment can estimate the orientation of the portable device held by the person even when the person is not walking.
  • FIG. 37 is a diagram illustrating a configuration example of the portable device orientation detection device according to the present embodiment.
  • the configuration of FIG. 37 is different from the configuration of the other embodiments in that it includes a mobile device orientation estimation unit 3100 that determines the mobile device orientation and a mobile device orientation output unit 3101 that outputs the mobile device orientation.
  • FIG. 38 is a flowchart illustrating the operation of the mobile device orientation detection device provided in the moving body according to the present embodiment.
  • the image processing step S3201 is executed in the blue sky polarized image processing unit 100c. In this way, a blue sky polarization image is acquired.
  • the camera orientation estimation unit 101 executes the camera orientation estimation step S3202 to estimate the orientation of the image sensor.
  • the mobile device orientation estimation unit 3100 executes the mobile device orientation estimation step S3203 to estimate the orientation of the mobile device.
  • the mobile device orientation can be determined from the camera orientation based on the relationship between the camera orientation and the mobile device orientation.
  • the portable device orientation output step S 3204 performs processing so that the orientation information of the portable device can be presented to the user with a display, voice, or the like.
  • FIG. 39 illustrates an example of usage status.
  • a situation is shown in which a person 3301 has reached the branch 3300 and stopped.
  • the speed difference such as GPS
  • the orientation of the mobile device is presented to the user only by acquiring a blue sky polarized image outside the vehicle shown in the image region 3302 of FIG. I can do it.
  • the presentation method may use a display 3303 or an audio warning 3304.
  • the orientation of the portable device is displayed on the map with an arrow 3305 or the like, so that the user can easily understand his / her orientation. .
  • the scene image / scene polarization image acquisition unit 100a, the blue sky polarization image processing unit 100c, and the camera orientation estimation unit 101 illustrated in FIG. 37 perform the same operations as the processing units of the same number illustrated in FIG. Description is omitted.
  • the roll levelness of the image sensor with respect to the ground is an element indicating the gripping state of the mobile device.
  • both the image sensor and the display are fixedly mounted on a portable device.
  • the state of the user looking at the display also generally stands or sits vertically on the ground. Therefore, if the level of the image sensor with respect to the ground is known, it is equal to the level of the display with respect to the user. Therefore, if the roll horizontality is input not only to the blue sky polarization phase but also input to the output unit and corrected to perform display according to the horizontality, the user can easily turn the roll. There is an effect of becoming recognizable.
  • FIG. 40 shows a representative example of installation examples of the polarization imaging device 3400 on a portable device.
  • FIG. 40 shows mobile devices (mobile phones) 3401 to 3403 according to this embodiment.
  • a camera with a mobile phone such as the polarization imaging device 3400 in the portable device 3401, uses a polarization imaging device capable of capturing color images and polarization images at the same time, without causing inconvenience to the user.
  • a blue sky polarization phase image can be acquired.
  • the device of the present embodiment displays, for example, the polarization phase shown in FIG.
  • An image converted into an image may be output.
  • an image obtained by extracting only the sky may be created, or the image may be used for image conversion such that only the empty area is replaced with another texture.
  • the polarization image sensor 3404 is installed near the place where the highest altitude is located, so that the blue sky polarized image can be stably displayed from a higher position. May be available.
  • the user may be able to determine the installation position of the element at any time.
  • the mobile device 3403 where it can be used to obtain a blue sky polarization phase image and in a direction that does not face directly above (the possibility of including the sun in the image is very high) A person may install it. This is convenient because each user can easily adjust the acquisition position of the blue sky region.
  • the present embodiment of the present invention includes everything installed at a position that satisfies the previous installation conditions.
  • a message may be issued to the portable device 3500 from the apparatus of the present invention.
  • the message “cannot be used due to low reliability” is displayed, or a voice warning 3502 informs the user that the apparatus of the present invention cannot be used. There is. By doing in this way, possibility that a user will receive wrong information can be reduced.
  • FIG. 42 is a diagram illustrating a configuration of an imaging device orientation detection device according to the sixth embodiment of the present invention. 42 differs from the configuration in the other embodiments in that it includes a scene image / scene polarization image acquisition unit 3600a that acquires a scene image and a blue sky polarization image processing unit 3600c that determines the polarization state of the blue sky region. It is in. Since the configuration other than this is the same as the configuration of the first embodiment, the description thereof is omitted here.
  • the image acquisition unit 3600 of FIG. 42 includes a scene image / scene polarization image acquisition unit 3600a and a level for measuring the tilt in the roll direction, and includes a roll level correction unit 100b, a blue sky polarization image processing unit 3600c, and a camera orientation.
  • the estimation unit 101 and the output unit 102 may be provided outside the camera.
  • FIG. 43 shows the configuration of the scene image / scene polarized image acquisition unit 3600a.
  • the camera includes an imaging unit that functions as a scene image / scene polarized image acquisition unit 3600a, the content of the scene image / scene polarized image captured varies depending on the orientation of the camera.
  • the series of processing for estimating the camera direction is preferably executed inside the camera, but it is not necessarily executed inside the camera.
  • FIG. 43 shows the configuration of the scene image / scene polarized image acquisition unit 3600a of this embodiment.
  • the scene image and the scene polarization image are preferably acquired at the same time, but may be acquired at intervals up to several seconds.
  • the scene image / scene polarization image acquisition unit 3600a in FIG. 43 acquires the luminance image information for the subject in real time and simultaneously acquires the polarization image information to obtain two types of polarization image information (the polarization degree image ⁇ and the polarization phase image ⁇ ). ) Is output.
  • the polarization acquisition unit 3701 can acquire both luminance moving image information and polarization image information in real time. Signals indicating luminance moving image information and polarization information image information are output from the polarization acquisition unit 3701 and provided to the luminance information processing unit 3702 and the polarization information processing unit 3703, respectively.
  • the luminance information processing unit 3702 and the polarization information processing unit 3703 perform various processes on the signal, and output a luminance image C, a polarization degree image ⁇ , and a polarization phase image ⁇ .
  • the polarization acquisition unit 3701 acquires a monochrome image and a polarization image at the same time.
  • the technique disclosed in Patent Document 3 can be used.
  • a patterned polarizer having a plurality of different polarization main axes (transmission axes) is spatially arranged on an image sensor for the purpose of simultaneously obtaining a luminance image and a partially polarized image of a subject.
  • a photonic crystal or a structural birefringent wave plate array is used as the patterned polarizer.
  • FIG. 44 shows an example of such a polarization luminance imaging device.
  • a narrow band color filter 3800 and a patterned polarizer 3801 are placed on the front surface of the image sensor pixel 3802.
  • Incident light passes through the narrowband color filter 3800 and the patterned polarizer 3801 and reaches the image sensor, and monochrome luminance is observed by the image sensor pixel 3802. In this way, both luminance image information and polarization image information can be acquired simultaneously.
  • the narrow band color filter 3800 it is desirable to use a filter having a transmission band of, for example, 500 to 550 (nm) so as to select a wavelength band in which the patterned polarizer operates.
  • FIG. 45 is a diagram of a part of the imaging surface of the polarization acquisition unit 3701 viewed from directly above the optical axis direction. For simplicity, only four finely polarized pixels (2 ⁇ 2) that are in close contact with each other on the imaging surface are shown.
  • the stripe written on each finely polarized pixel schematically shows the polarization main axis direction of the minute polarizing plate.
  • the luminance dynamic range and the number of bits of the image sensor are as large as possible (for example, 16 bits) in order to reliably acquire the polarization component included in the particularly specular reflection portion of the subject and the polarization component included in the shadow region of the subject. Is desirable.
  • the luminance information acquired for each polarization pixel by the configuration shown in FIG. 45 is processed by the polarization information processing unit 3703 in FIG. This process is the same as the process described with reference to FIG.
  • the three parameters A, B, and C of the sine function approximation are determined by the above processing.
  • a polarization degree image showing the polarization degree ⁇ and a polarization phase image showing the polarization phase ⁇ are obtained.
  • the degree of polarization ⁇ represents the degree to which the light of the corresponding pixel is polarized
  • the polarization phase ⁇ represents the principal axis angle of the partial polarization of the light of the corresponding pixel.
  • the principal axis angle of polarized light is the same between 0 and 180 ° ( ⁇ ).
  • the values ⁇ and ⁇ (0 ⁇ ⁇ ⁇ ⁇ ) are calculated by (Expression 6) and (Expression 7), respectively, as in the first embodiment.
  • the patterned polarizer of this embodiment may be a photonic crystal, a film-type polarizing element, a wire grid type, or a polarizing element based on other principles.
  • the luminance of the light transmitted through the polarizer is different from the original luminance of the light before entering the polarizer.
  • a value obtained by averaging the observed luminances of all polarized polarization main axes corresponds to the original luminance of light before entering the polarizer.
  • a normal luminance image can be generated by obtaining the luminance in each polarization pixel.
  • each luminance and polarization information of each pixel in each of the luminance image C, the polarization degree image ⁇ , and the polarization phase image ⁇ are obtained using the four polarization pixels shown in FIG. Therefore, it can be considered that each luminance and polarization information represents a representative value at a virtual pixel point 3900 located at the center of the four polarization pixels shown in FIG. Therefore, the resolution of the luminance image and the polarization image is reduced to 1/2 ⁇ 1/2 of the resolution of the original image sensor. For this reason, it is desirable that the number of pixels of the image sensor is as large as possible.
  • the blue sky polarization image processing unit 3600c receives the polarization degree image ⁇ , the polarization phase image ⁇ , and the luminance image Y, and outputs a blue sky polarization phase image ⁇ SKY.
  • the blue sky polarization phase image ⁇ SKY is used for estimating the camera direction and the sun direction from the scene.
  • the polarization degree binarization unit 1001 binarizes the polarization degree image ⁇ with a threshold value T ⁇ .
  • the luminance binarization unit 1003 binarizes the luminance image Y using the threshold value TC1.
  • the image calculation unit 1005 performs an AND (logical product) operation on the polarization image ⁇ ′ binarized by the polarization degree binarization unit 1001 and the luminance image C1 ′ binarized by the luminance binarization unit 1003. Then, the mask image A ′ is output.
  • the image calculation unit 1011 performs a logical AND operation on the adopted blue sky region mask Msky and the polarization phase image ⁇ to generate a blue sky polarization phase image ⁇ sky.
  • the binarization threshold value T ⁇ is determined from a histogram created from the polarization degree of each pixel in the image, and an intermediate value of two peaks of the polarization degree in the polarization degree histogram may be set as the threshold value T ⁇ .
  • the binarization threshold value T ⁇ is a threshold value for determining the degree of polarization, and satisfies the relationship of 0 ⁇ T ⁇ ⁇ 1.
  • the blue sky polarization phase image ⁇ sky is obtained by the above processing.
  • the polarization phase may not be disturbed even in the cloud region, particularly when the cloud is thin.
  • the blue sky region may include a cloud. Whether or not the polarization phase is disturbed by the cloud is a measure of the degree of decrease in the degree of polarization in the cloud region. According to the method of the present embodiment that determines the blue sky region based on the polarization, there is an advantage that only the cloud region having a low degree of polarization can be automatically removed.
  • an output selection unit 4001 and a polarization degree determination unit 1010 shown in FIG. 46B may be used.
  • the output selection unit 4001 determines whether to adopt the first blue sky region mask A ′ generated from the binarized luminance image C1 ′ and the polarization degree image ⁇ ′ based on the output ⁇ d of the polarization degree determination unit 1010. To decide.
  • the output selection unit 4001 and the polarization degree determination unit 1010 may be used to switch according to the shooting date and time instead of switching whether or not the blue sky region can be extracted. For example, after 4 pm, sunset is defined as evening. When it is not evening, the blue sky region is determined with the configuration of FIG. 46A, and in the evening, whether the extraction is possible is determined using the configuration of FIG. 46B. It is also possible.
  • the output selection unit 4001 makes the determination.
  • the selection unit 4101 determines whether the mask should be created in the output ⁇ d of the polarization degree determination unit 1010 before the blue sky region mask A ′ is created. Judgment based on. For example, when ⁇ d output from the degree of polarization determination unit 1010 does not exceed the threshold value, the selection unit 4101 in FIG. 46C selects the processing stop without creating the blue sky region mask A ′. As a result, the blue sky polarization image processing unit 3600c in FIG. 46C does not create the first blue sky region mask A 'and stops the processing. The user may perform out-of-service display or the like. For this reason, it is sufficient to create a mask only when the degree of polarization is sufficiently high, and processing for creating a mask that is not used can be omitted.
  • the selection unit 4201 determines whether a mask should be created before the first blue sky region mask A 'is created. However, in the blue sky polarization image processing unit 3600c in FIG. 46D, selection of whether or not to create a mask is determined based on the shooting date and time information output by the date and time information acquisition unit 1016, not based on the output ⁇ d of the polarization degree determination unit 1010. . When the time indicates evening (for example, after 4 pm and until sunset), the selection unit 4201 in FIG. 46D determines that the first blue sky region mask A ′ cannot be created. As a result, the mask A 'is not created and the processing is stopped. Similarly to FIG. 46C, since an unused mask is not created, there is an effect that the processing becomes more efficient.
  • the orientation of the imaging device is estimated. Note that the operations of the camera direction estimation unit 101 and the output unit 102 illustrated in FIG. 42 are the same as those in the other embodiments, and thus detailed description thereof is omitted here.
  • the camera orientation detection method includes step S4300 of acquiring a polarization image and a luminance image by the camera, and polarization of the blue sky region included in the luminance image based on the polarization image and the luminance image.
  • a step S4301 for generating a blue sky polarization phase image indicating the phase, a step S4302 for estimating the camera direction based on the blue sky polarization phase image, and a step S4303 for outputting information indicating the camera direction are included.
  • the camera orientation detection method of the present invention for executing such steps is not limited to being applied to an apparatus having the above-described configuration, and can be implemented even when applied to an apparatus having another configuration. .
  • the camera orientation detection method in the present embodiment is particularly the case shown in the examples of FIGS. 46B, 46C, and 46D, that is, based on the output result from the polarization degree determination unit 1010, the output selection unit 4001. In the case where it is determined whether or not the process can be continued, the camera direction estimation unit 101 does not necessarily have to operate when the process cannot be continued.
  • this apparatus is provided with a path for sending, for example, an instruction “cannot continue processing” from the blue sky polarization image processing unit 3600c to the output unit 102 and displaying it to the user. Also good.
  • the method for realizing the present apparatus may output the processing continuation permission information directly from the step S4301 for generating the blue sky polarization phase image to the output step.
  • the image input device of the present invention can acquire light source information between a camera and the sun in a general environment scene by using a sky polarization phenomenon in a completely passive manner, various digital still cameras, digital movie cameras, Applicable to surveillance cameras. Further, it is considered that the present invention can be used as a practical input device even when information amount is given by computer graphics processing to image luminance information that is considered to be insufficient in future miniaturization of cameras.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

 偏光画像とカラー画像を同時に取得できる偏光カメラを利用するものであって、空の一部分の偏光情報である青空偏光画像を、青空偏光画像取得部100で取得する。そして、撮影時の太陽位置を取得する太陽位置取得部1301からの情報を用い、前述の青空偏光画像が、全天においてどの方角・領域の偏光パターンであるかを、カメラ向き推定部101で求める。最後に、カメラ(撮像装置)が地球上でどちらの方角に向いているのかを出力する。これによって、センサを別に備えることなく、また全天・太陽を捉えることなく、カメラの方位、およびカメラと太陽の相対的位置関係を取得する。

Description

撮像装置向き検出装置および当該装置を備える移動体
 本発明は撮影に際して撮像装置と太陽との相対的な位置関係を取得できる撮像装置向き検出装置に関する。また、本発明は、撮像装置向き検出装置を備える撮像装置や移動体にも関している。
 近年のデジタルカメラの普及に伴い、デジタルカメラによって取得された画像に対して行う画像処理の重要度が高まってきている。このような画像処理は、例えば、(i)従来、カメラ撮影時の失敗の主な原因を占めていた逆光の補正、(ii)デジタルズームとして知られる画像の高解像度化、(iii)人の顔などを認識し、フォーカスを自動的にあわせるといった認識処理、(iv)現実の画像に、Computer-Graphicsで仮想的に作成された画像を重畳表示する拡張現実など、実に様々である。
 これらの画像処理は、画像撮像の際に撮像素子に記録された、被写体の「見え」を基に処理が行われている。この物体の「見え」は、光源からの光が被写体表面で反射され、その反射光を撮像素子が受光することで得られる。そのため、光源情報は画像処理において非常に重要である。つまり、光源情報を取得して、撮像や画像処理に利用することは非常に効果的である。例えば、敢えて半逆光状態に被写体を置くことで、自然な立体感を与えるテクニックなどがよく用いられている。しかし、その撮影の成否は状況によるところが大きく、結果、撮影者の勘や経験に頼ったものになってしまう。
 もし光源情報がわかれば、前記テクニックを真似て撮影者にうまく撮影できるよう、例えばカメラの処理によって撮影方向を指示することができる。また、光源情報に基づいて自動的な露出補正を行うことも可能である。特許文献1では、カメラ上部にセンサをつけて光源検出を行い、撮影者に撮影方向の指示を行う手法が提案されている。特許文献1の技術では、光源方向を知るためのセンサとして、光電変換素子に魚眼レンズを付けたものを用いている。全天から集光された光の強度がセンサ上で最大となる位置を求め、光源方向を決定している。しかし、この場合、窓に反射した太陽などが高い位置に見える場合には、現実の太陽の方向以外の方向にも強い光源が存在することになり、太陽方向検出に失敗する可能性がある。
 特許文献2においては、太陽位置をより正確に反映した情報を取得するために、全天の偏光状態を利用するという手法が提案されている。本文献に開示されている技術によれば、特許文献1と同様に光源検出部をカメラ上部に設置する。この光源検出部は、偏光フィルタを備えた全天観測センサにより、全天の偏光撮影を行う。偏光フィルタを回転させて撮影した複数の画像から、全天の偏光特性を取得し、そこから太陽方向の判定を行う。空の偏光については、非特許文献1でも取り上げられており、前述の特許文献1、2と同様に、広範な空領域を撮影可能な魚眼カメラを用い、空の偏光状態を観測している。また、具体的な手法は述べられていないものの、偏光状態から太陽方向が求まる可能性に言及している。
 特許文献3は、偏光主軸が異なる複数の偏光画像を取得するためのパターン化偏光子を開示している。
 空の偏光パターンについては、非特許文献2、非特許文献3、および非特許文献4にも記載されている。
特開平8-160507号公報 特開2004-117478号公報 特開2007-86720号公報
"Polarization Analysis of the Skylight Caused by Rayleigh Scattering and Sun Orientation Estimation using Fisheye -Lens Camera"、Daisuke Miyazaki et al、電子情報通信学会パターン認識・メディア理解研究会、 Vol.108, No.198, pp.25-32, 2008 "How the clear-sky angle of polarization pattern continues underneathclouds: Full-sky measurements and implications for animal orientation"、 Istvan Pomozi et al, The Journal of Experimental Biology 204、 2933-2942(2001) 「光と電波」 徳丸仁著 森北出版 2000年3月21日発行 "Polarization singularities in the clear sky" M.V.Berry、 et al 、 New Journal of Physics 6 (2004) 162
 しかしながら、上記従来技術によれば、撮像素子以外に、カメラ上部に全天観測センサを必要とするため、サイズ面で不利と言わざるを得ない。また、把持する撮影者にとって持ちにくさ、不便を与えうる。
 更に、光源情報の取得のため、カメラ上部のセンサで全天の画像を取得する必要がある。例えば、縦長の写真を撮影するために、カメラを90度、右側へ傾けて撮影した場合や、或いは、屋根のある屋外環境下でシーンを撮影する場合などの実際に使用する際のことを考えてみる。この場合、カメラ上部のセンサが光源情報を捉えることは不可能である。すなわち、撮影場所・撮影姿勢の自由度の高いカメラ撮影において、センサが正しく全天を捉えられない場合も多く存在する。
 また、前述のセンサによる全天撮影時には、殆どの場合でその撮影範囲に太陽を含む。しかし、太陽光は大変強いため、例えば、入射する光の成分を減少させる機構が必要となってくる。すなわち太陽を含むようなカメラ撮影・光電変換素子への入力は簡易なものではない。
 以上のように、これらの従来技術には多くの制約が存在し、ユーザビリティが重視されるカメラ撮影においては、より自由度の高い太陽・カメラ向き検出技術が望ましい。
 本発明は、以上のような問題点を考慮して行われたものであり、全天観測センサを備えることなく、シーン画像中の部分的な空の状態から、撮像装置と太陽の相対位置関係や、撮像装置の向きを検出できる装置を提供することを目的とする。
 また、本発明の他の目的は、そのような撮像装置を備える移動体(携帯端末、携帯電話、自動車などを含む)であって、当該移動体の向きを検出する機能を有するものを提供することにある。
 本発明の撮像装置向き検出装置は、偏光位相画像を含む偏光画像、および輝度画像を撮影によって取得する撮像部を備えた撮像装置の向きを検出する撮像装置向き検出装置であって、前記偏光画像および輝度画像に基づいて、前記輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成する画像処理部と、前記撮像部の向きによって決まる撮像装置向きを前記青空偏光位相画像に基づいて推定する向き推定部と、前記向き推定部で推定された撮像装置向きを示す情報を出力する出力部とを備える。
 好ましい実施形態において、撮影時における太陽の位置に関する情報を取得する太陽位置取得部を備え、前記向き推定部は、前記情報を用いて撮像装置向きの推定を行う。
 好ましい実施形態において、前記太陽の位置に関する情報に基づいて、撮影時における空の偏光状態を示す全天偏光マップを取得する全天偏光マップ取得部を備え、前記向き推定部は、前記青空偏光位相画像および前記全天偏光マップに基づいて、前記撮像装置向きを推定する。
 好ましい実施形態において、前記全天偏光マップ取得部は、全天偏光マップを含むデータベースから撮影時における空の偏光状態を示す全天偏光マップを取得する。
 好ましい実施形態において、前記データベースを格納する記憶装置を備える。
 好ましい実施形態において、前記データベースを格納する外部の記憶装置にアクセスする通信装置を備える。
 好ましい実施形態において、前記全天偏光マップ取得部は、撮影時における空の偏光状態を示す全天偏光マップを計算によって生成する。
 好ましい実施形態において、前記向き推定部は、前記青空領域の偏光位相から前記青空領域の方向を計算し、前記撮像装置の向きを推定する。
 好ましい実施形態において、撮影時における空の偏光状態を示す全天偏光マップを取得する全天偏光マップ取得部を備え、前記向き推定部は、サーチモードおよび計算モードの少なくとも一方で動作し、前記サーチモードでは、前記青空偏光位相画像および前記全天偏光マップに基づいて、前記青空領域の方向を探索し、前記計算モードでは、前記青空領域の偏光位相から前記青空領域の方向を計算する。
 好ましい実施形態において、前記撮像装置の傾きを補正する水平度補正部を備える。
 好ましい実施形態において、前記撮像装置の傾きは、ロール方向の傾きを含む。
 好ましい実施形態において、前記撮像装置は、水準器を備えており、前記水準器によって水平度を取得し、取得した水平度に基づいて撮像装置の傾きを補正する。
 好ましい実施形態において、撮像範囲の画角を取得し、取得した画角に基づいて青空領域の範囲を決定する画角取得部を有する。
 好ましい実施形態において、前記撮像部は、偏光主軸角度が異なる複数の偏光子を備え、前記複数の偏光子を透過してくる光に応じて前記偏光画像を取得する。
 好ましい実施形態において、前記偏光画像は、前記偏光位相画像に加えて偏光度画像を含む。
 好ましい実施形態において、前記画像処理部は、空の偏光度が基準値以上の場合、偏光度を利用して前記青空領域を切り出し、前記偏光度が前記基準値よりも低い場合、色相を利用して前記青空領域を切り出し、前記青空偏光位相画像を出力する。
 好ましい実施形態において、推定結果の信頼度を判定し、使用者に情報を提示する信頼度判定部を備える。
 好ましい実施形態において、撮影時における太陽の位置に関する情報から得られる太陽の高度に応じて推定の可否を判定する太陽高度判定部を備えている。
 好ましい実施形態において、太陽の高度および方位、ならびに撮像装置向きに基づいて、座標変換を行ってカメラ座標での太陽位置を取得する。
 本発明の撮像装置(カメラ)は、偏光位相画像を含む偏光画像、および輝度画像を取得する撮像部を有する撮像装置と、上記いずれかの撮像装置向き検出装置とを備える。
 本発明の移動体は、上記いずれかの撮像装置向き検出装置を備える移動体であって、偏光位相画像を含む偏光画像、および輝度画像を取得する撮像部を有する撮像装置と、前記移動体の向きと前記撮像装置向きとの関係に応じて、検出された前記撮像装置向きから前記移動体の向きを決定する移動体向き推定部とを備えている。
 本発明の携帯機器は、上記いずれかの撮像装置向き検出装置を備える携帯機器であって、偏光位相画像を含む偏光画像、および輝度画像を取得する撮像部を有する撮像装置と、前記携帯機器の向きと前記撮像装置向きとの関係に応じて、検出された前記撮像装置向きから前記携帯機器の向きを決定する携帯機器向き推定部とを備えている。
 本発明の画像入力装置は、偏光位相画像を含む偏光画像、および輝度画像を撮影によって取得する撮像部と、前記偏光画像および輝度画像に基づいて、前記輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成する画像処理部と、前記撮像部の向きによって決まる撮像装置向きを前記青空偏光位相画像に基づいて推定する向き推定部と、前記撮像部によって撮像された画像のデータ、および前記向き推定部で推定された撮像装置向きを示す情報を出力する出力部とを備える。
 本発明の画像フォーマットは、画像データと、撮影時の日時を示すデータと、撮影場所の経度緯度を示すデータと、撮像装置向きを示すデータとを保持する。
 本発明の撮像装置向き検出方法は、撮像装置によって偏光画像および輝度画像を取得するステップと、前記偏光画像および輝度画像に基づいて、前記輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成するステップと、撮像装置向きを前記青空偏光位相画像に基づいて推定するステップと、撮像装置向きを示す情報を出力するステップとを含む。
 本発明のプログラムは、撮影時の撮像装置向きを天空の偏光パターンを利用して検出する撮像装置向き検出装置のためのプログラムであって、撮像装置によって偏光画像および輝度画像を取得するステップと、前記偏光画像および輝度画像に基づいて、前記輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成するステップと、撮像装置向きを前記青空偏光位相画像に基づいて推定するステップと、撮像装置向きを示す情報を出力するステップとをコンピュータに実行させる。
 本発明によれば、様々な撮影場所・撮影姿勢での屋外シーンの撮影において、全天観測センサを備えることなく、空の部分的な偏光情報を用いて、撮像装置や移動体の向きを取得できる。
屋外でカメラが視線方向(z軸方向)の風景写真をとる様子を示す図である。 撮影されたシーン画像の例を示す模式図である。 全天の偏光位相パターンの例を示す図である。 全天の偏光位相パターンの他の例を示す図である。 カメラ視線方向(z軸方向)と太陽位置との関係の一例を示す図である。 本発明の第1の実施形態における画像入力装置の構成を示すブロック図である。 本発明の説明に用いられる、カメラまわりの回転方向を示した概念図である。 シーン画像・シーン偏光画像取得部の構成を示すブロック図である。 カラー偏光取得部301の基本的な構成を示す模式図である。 (a)および(b)は、偏光画像撮影部の撮像面の一部を上から見た模式図である。 (a)、(b)、(c)は、それぞれ、B、G、R偏光画素の波長特性を模式的に示すグラフである。 Gのカラーフィルタの透過域と偏光分離域を示すグラフである。 異なる偏光主軸を有する偏光子を透過した光の輝度を示すグラフである。 (a)、(b)、(c)は、それぞれ、シーン画像・シーン偏光画像取得部で撮影される偏光度画像、偏光位相画像、カラー画像(輝度画像)であり、(d)は、カラー画像の模式図である。 (a)および(b)は、シーン画像のロール水平度補正について示す模式図である。 青空偏光画像処理部の構成を示すブロック図である。 青空偏光画像処理部の他の構成を示すブロック図である。 青空偏光画像処理部の更に他の構成を示すブロック図である。 (a)~(f)は、本手法を実際に昼の東空シーン画像に適用した場合の処理結果を示す図である。 (a)~(d)は、図12の画像についての最終的な処理結果を示す図である。 (a)~(f)は、本手法を実際に夕方の東空シーン画像に適用した場合の処理結果(失敗)を示す図である。 (a)~(d)は、本手法において色相類似度を利用して夕方の東空シーン画像に適用した場合の処理結果を示す図である。 (a)および(b)は、カメラ向き取得部の構成を示すブロック図である。 (a)~(c)は、全天偏光マップおよび青空偏光位相画像の関係を示す概念図である。 (a)および(b)は、天球座標系を示す模式図である。 撮影画像とカメラの関係を示す模式図である。 カメラと、画像座標系と、天球座標系の関係を示す模式図である。 本発明の第2の実施形態における画像入力装置の構成を示すブロック図である。 第2の実施形態における青空偏光画像処理部を示した模式図である。 第2の実施形態における青空偏光画像処理部の他の構成を示すブロック図である。 第2の実施形態における青空偏光画像処理部の更に他の構成を示すブロック図である。 (a)~(f)は、本手法を実際に昼の東空シーン画像に適用した場合の処理結果を示す図である。 本発明の第2の実施形態におけるカメラ向き取得部の第1のモードの構成を示すブロック図である。 全天偏光マップ候補領域取得部により得られる探索候補領域を示した概念図である。 本発明の第2の実施形態におけるカメラ向き取得部の第1のモードの他の構成を示すブロック図である。 全天偏光画像の探索の信頼度が下がる場合の全天の偏光マップを示した概念図である。 本発明の第2の実施形態におけるカメラ向き取得部の第2のモードの構成を示すブロック図である。 本発明の第3の実施形態における画像入力装置の構成を示すブロック図である。 本発明の第3の実施形態における出力部の構成を示すブロック図である。 画像フォーマットを示す模式図である。 本発明によるカメラ向き検出方法の一例を示すフローチャートである。 本発明の第4の実施形態における移動体向き検出装置の構成を示すブロック図である。 本発明の第4の実施形態におけるデータベース260に蓄積されているデータ構造の一例を示す図である。 本発明の第4の実施形態における移動体向き検出方法の一例を示すフローチャートである。 本発明の第4の実施形態における移動体向き検出装置の一使用例を示す図である。 本発明の第4の実施形態における移動体向き検出装置の設置例を示す図である。 本発明の第4の実施形態における移動体向き検出装置の圏外表示の一例を示す図である。 本発明の第5の実施形態における携帯機器向き検出装置の構成を示すブロック図である。 本発明の第5の実施形態における携帯機器向き検出方法の一例を示すフローチャートである。 本発明の第5の実施形態における携帯機器向き検出装置の一使用例を示す図である。 本発明の第5の実施形態における携帯機器向き検出装置の設置例を示す図である。 本発明の第5の実施形態における携帯機器向き検出装置の圏外表示の一例を示す図である。 本発明の第6の実施形態におけるカメラ向き検出装置の構成を示す図である。 本発明の第6の実施形態におけるシーン画像・シーン偏光画像取得部の構成を示すブロック図である。 本発明の第6の実施形態における偏光取得部の基本的な構成を示す模式図である。 本発明の第6の実施形態における偏光画像撮影部の撮像面の一部を上から見た模式図である。 本発明の第6の実施形態における青空偏光画像処理部の構成を示すブロック図である。 本発明の第6の実施形態における青空偏光画像処理部の他の構成を示すブロック図である。 本発明の第6の実施形態における青空偏光画像処理部の更に他の構成を示すブロック図である。 本発明の第6の実施形態における青空偏光画像処理部の更に他の構成を示すブロック図である。 本発明の第6の実施形態における撮像装置向き(カメラ向き)検出方法の一例を示すフローチャートである。 (a)および(b)は、それぞれ、本発明の第6の実施形態における撮像装置向き(カメラ向き)検出方法の別の例を示すブロック図およびフローチャートである。
 本発明は、青空が偏光していることに着目し、その偏光のパターンを利用すれば、シーン画像に含まれる青空領域の偏光情報に基づいて、撮像装置の向きを推定することができるという知見に基づいて完成された。
 図1Aに示すように、屋外で撮像装置(簡単のため、「カメラ」と称する)10が視線方向(z軸方向)の風景写真をとる場合を考える。ここでは、図1Bに示すように、撮影したシーン画像内に青空の一部(青空領域)が含まれていることを前提とする。図1Bに示すシーン画像内の青空領域には、斜めの斜線が付されているが、この斜線は、青空の偏光位相を模式的に示しているものとする。ここで、偏光位相とは、偏光主軸方向を示す角度(位相角度)であり、カメラ視線方向(z軸方向)の回りの回転角度によって規定される。
 偏光位相の方向(位相角度)は、人間の視覚によって直接的に視認されるものではなく、通常の画像(輝度画像)には表れない情報である。しかし、カメラ10の前に偏光フィルタを配置し、図1Aに示すカメラ視線方向(z軸方向)の回りに偏光フィルタを回転させると、特定の回転角度において、青空から出た光(偏光)が偏光フィルタを最も高い透過率で透過することができる。このときの偏光フィルタの透過軸方向(角度)が、カメラ視線方向(z軸)の先に位置する青空領域の偏光方向(位相角度)に相当している。
 図1Cおよび図1Dは、全天の偏光位相パターンの例を示す図であり、半球状の全天が有する偏光位相のパターンがそれぞれの円内に示されている。この円の中心が天頂、外周が地平に相当する。図1C、図1Dでは、多数の曲線が記載されており、各曲線の任意の位置における接線方向がその位置における偏光位相(角度)の向きを示している。この全天の偏光パターンは、最も簡易なモデルでは太陽を中心とした同心円方向に偏光方向を有するというものであるが、実際には特異な偏光特性を持つ点を4つ有することが実測により知られている。これについては非特許文献4に詳しい説明がある。
 後に詳しく説明するように、青空の偏光は、天空における太陽の位置に応じて変化する。このため、撮影日時、撮影位置(経度、緯度)などの情報に基づいて天空における太陽の位置が求められると、その時刻における天空の偏光位相パターンが定まる。天空の任意の位置における偏光位相は、撮影日時・位置が与えられれば計算によって求めることもできるが、天空上の位置と偏光位相とを対応付けたマップ(全天偏光マップ)をデータベースとして記憶装置に格納しておくこともできる。
 図1Eは、カメラ視線方向(z軸方向)と太陽との位置関係の例を示す図である。カメラ視線方向(z軸方向)の先には、撮影されるシーン画像の矩形範囲(画像エリア)が模式的に示されている。この矩形範囲に記載された矢印は、その方向における青空領域の偏光方向(偏光位相の向き)を示している。ある日時における青空の偏光位相は、天空における位置によって異なるため、カメラの向きが変わると、撮影される青空領域の偏光位相の向きも変化する。
 本発明の好ましい態様によれば、天空の偏光情報をデータベースから、或いは計算によって取得する一方、撮影シーンに含まれる青空領域の偏光状態を検出するため、天空の偏光情報と対比することにより、撮影方向や、太陽位置とカメラの関係を求めることができる。また、他の態様によれば、データベースを利用することなく、計算によって青空領域の方向を求め、それによってカメラ向き(撮像装置向き)を推定することも可能である。
 以下、図面を参照しながら、本発明の実施形態を説明する。
 (実施形態1)
 図1Fは、本実施形態に係る画像入力装置の構成を示している。この画像入力装置は、青空偏光位相画像取得部100、カメラ向き推定部101、出力部102を備えている。青空偏光位相画像取得部100は、シーン画像・シーン偏光画像取得部100a、ロール水平度補正部100b、青空偏光画像処理部100cを有し、青空偏光位相画像φskyを出力する。
 本明細書において、「偏光画像」とは、画像を構成する複数の画素の各々が、その画素の偏光情報を表示する画像を意味するものとする。偏光情報は、偏光度および偏光位相(位相角度)を含む。したがって、「偏光画像」とは、特別に限定しない限り、個々の画素の偏光度を二次元的に表示した「偏光度画像」、および、個々の画素の偏光位相を二次元的に表示した「偏光位相画像」を総称したものである。
 なお、各画素の偏光度および偏光位相の大きさ(数値)は、その画素における明度または色相によって表現され得る。本願の図面では、明度の高低によって偏光度や偏光位相の大きさを表現している。
 次に、本実施形態による画像入力装置の詳細な構成および動作を説明する。
 まず、図2を参照して本明細書で用いるカメラの回転方向に関する用語を説明する。
 カメラの側方へ伸びる軸(ここではx軸)まわりの回転201がヨーである。また、カメラの上下方向へ伸びる軸(ここではy軸)まわりの回転202が、ピッチである。最後に、カメラの前後方向へ伸びる軸(ここではz軸)まわりの回転203が、ロールである。
 なお、図1Fに示す構成要素のうちの全ての構成要素が図2に示すカメラに収められていることが好ましいが、例えばシーン画像・シーン偏光画像取得部100aとロール方向の傾きを計測する水準器とが図2のカメラ内に備えられ、ロール水平度補正部100b、青空偏光画像処理部100c、カメラ向き推定部101、および出力部102がカメラの外部に設けられていても良い。
 カメラは、シーン画像・シーン偏光画像取得部100aとして機能する撮像部を備えるため、カメラの向きに応じて撮影されるシーン画像・シーン偏光画像の内容が変化する。
 カメラ向きを推定するための一連の処理は、カメラの内部で実行されることが好ましいが、必ずしもカメラの内部で実行される必要はない。
 本明細書では、輝度画像と偏光画像を取得する「撮像部」を備え、ユーザが撮像方向を変化させることのできる装置を「カメラ」と称し、そのカメラに内蔵されるか否かにかかわらず、カメラ向き(撮像装置向き)を推定する装置を「カメラ向き検出装置」または「撮像装置向き検出装置」と称する。また、このような「撮像部」と「撮像装置向き検出装置(カメラ向き検出装置)」の両方を備える装置を「画像入力装置」と称することとする。「撮像部」から「撮像装置向き検出装置(カメラ向き検出装置)」には、シーン画像およびシーン偏光画像のデータが送られるが、このデータの送受信は、リムーバブルメモリ、通信線、インターネットなどの各種の情報伝達媒体を通じて行うことができる。
 このような「撮像装置向き検出装置」を備える装置は、カメラなどの撮像装置に限定されない。例えば、携帯端末(ノートパソコンを含む)、携帯電話などの携帯機器に「撮像装置」および「撮像装置向き検出装置」が備えられていても良い。また、自動車や二輪車などの移動体に「撮像装置」と「撮像装置向き検出装置」が備えられていても良い。
 携帯機器や移動体の向きは、これらの装置が備える撮像装置の向きに一致している必要は無い。携帯機器や移動体の向きと撮像装置の向きとは、所定の関係にあるため、撮像装置向きが検出されれば、この検出された撮像装置向きから携帯機器や移動体の向きを求めることができる。
 なお、本明細書における「カメラ」とは、通常、人が手に持って撮影する形態のいわゆる一般的なカメラに限らない。自動車などの移動体に備え付けられる撮像装置も、「カメラ」に含まれるものとする。
 次に、図3を参照して、本実施形態のシーン画像・シーン偏光画像取得部100aの構成を説明する。屋外においては、シーン画像およびシーン偏光画像の両方を取得することが必要である。風による雲の動きなども存在するため、偏光画像もリアルタイムに取得することが好ましい。なお、シーン画像とシーン偏光画像は同時に取得することが好ましいが、数秒程度までの間隔で取得しても構わない。
 従来技術では、偏光画像取得に際して、偏光板を回転させて複数画像を撮影するものが一般的であるが、屋外では非実用的であった。従来のモノクロ画像と偏光画像とを同時取得する技術が例えば特許文献3に開示されている。この技術では、輝度画像と被写体の部分偏光の画像とを同時に取得するため、複数の異なる偏光主軸(透過軸)を有するパターン化偏光子を撮像素子に空間的に配置する。パターン化偏光子としては、フォトニック結晶や構造複屈折波長板アレイが利用されている。しかしながら、これらの技術ではカラー画像と偏光画像とが同時に取得できなかった。
 これに対して、図3のシーン画像・シーン偏光画像取得部100aは、被写体に対してリアルタイムにカラー画像情報を取得すると同時に偏光画像情報を取得し、2種類の偏光画像情報(偏光度画像ρ及び偏光位相画像φ)を出力する構成となっている。
 図3のシーン画像・シーン偏光画像取得部100aでは、レンズ300aおよび絞り300bを通った入射光が、カラー偏光取得部301に入射する。この入射光から、カラー偏光取得部301はカラー動画像情報および偏光画像情報の両方をリアルタイムに取得することができる。カラー偏光取得部301からは、カラー動画像情報および偏光情報画像情報を示す信号が出力され、それぞれ、カラー情報処理部302および偏光情報処理部303に与えられる。カラー情報処理部302および偏光情報処理部303は、上記信号に対して各種の処理を施し、カラー画像C、偏光度画像ρ、偏光位相画像φを出力する。
 図4は、カラー偏光取得部301の基本的な構成を示す模式図である。図示されている例では、カラーフィルタ401およびパターン化偏光子402が、撮像素子画素403の前面に重ねて設置されている。入射光は、カラーフィルタ401およびパターン化偏光子402を透過して撮像素子に到達し、撮像素子画素403によって輝度が観測される。このように本実施形態によれば、カラーモザイク型の単板カラー撮像素子を用いてカラー画像情報および偏光画像情報の両方を同時に取得することができる。
 図5(a)は、カラー偏光取得部301における撮像面の一部を光軸方向の真上から見た図である。図5(a)には、簡単のため、撮像面のうち、16個の画素(4×4)のみが図示されている。図示されている4つの矩形領域501から504は、それぞれ、4個の画素セル上に設置されたベイヤ型カラーモザイクフィルタの対応部分を示している。矩形領域501は、B(ブルー)フィルタ領域であり、画素セルB1からB4をカバーしている。画素セルB1からB4には、それぞれ異なる偏光主軸を有するB(ブルー)用パターン化偏光子が密着している。ここで、「偏光主軸」とは、偏光子を透過する光の偏波面(透過偏波面)に平行な軸である。本実施形態では、同一色の画素内において異なる角度の透過偏波面を有する偏光子単位(微小偏光板)が隣接して配置されている。より詳細には、透過偏波面の方向が相互に異なる4種類の偏光子単位がR(レッド)、G(グリーン)、B(ブルー)の各同一色の画素内に配置されている。1つの偏光子単位は、4つの微細偏光画素に対応している。図5(a)では、個々の偏光画素に対して、G1などの符号が与えられている。
 図5(b)は、B(ブルー)用パターン化偏光子が密着する4つの微細偏光画素に割り当てられる偏光主軸を示している。図5(b)において、各微細偏光画素に記載された直線は、微小偏光板の偏光主軸方向を模式的に示している。図5(b)の例では、4つの微細偏光画素が、それぞれ、角度Ψi=0°、45°、90°、135°の偏光主軸を有している。
 矩形領域502、504の画素には、それぞれ、4個のG(グリーン)用パターン化偏光子が密着し、矩形領域503の画素には、4個のR(レッド)用パターン化偏光子が密着している。図中、参照符号「505」で示される位置は、本撮像系における矩形領域501における4画素を一括した仮想的な画素位置を示している。各矩形領域502~504のパターン化偏光子も、図5(b)に示すように異なる4つの偏光主軸を有する部分に分割されている。
 このように本実施形態では、各カラー画素に対して、異なる偏光主軸を有する複数の微細偏光画素が包含される点に特徴を有しており、カラーモザイク配列自体は任意である。以下の説明では、個々の微細偏光画素を「偏光画素」と称することとする。
 図6(a)から(c)は、それぞれ、B(ブルー)、G(グリーン)、R(レッド)偏光画素の波長特性を模式的に示すグラフである。各グラフの縦軸は透過光の強度、横軸は波長である。B、G、R用の偏光画素は、B、G、Rの各波長帯域においてTM波(Transverse Magnetic Wave)を透過し、TE波(Transverse Electric Wave)を反射(透過せず)する偏光特性を有している。TM波は、磁場成分が入射面に対して横向きの波であり、TE波は、電場成分が入射面に対して横向きの波である。
 図6(a)には、B偏光画像の偏光特性602、603と、B用カラーフィルタの透過特性601とが示されている。偏光特性602、603は、それぞれ、TM波およびTE波の透過率を示している。
 図6(b)には、G偏光画像の偏光特性605、606と、G用のカラーフィルタの透過特性604とが示されている。偏光特性605、606は、それぞれ、TM波およびTE波の透過率を示している。
 図6(c)には、R偏光画像の偏光特性608、609と、R用カラーフィルタの透過特性607とが示されている。偏光特性608、609は、それぞれ、TM波およびTE波の透過率を示している。
 図6(a)から(c)に示すような特性は、例えば特許文献3に記載されたフォトニック結晶を用いて実現することができる。フォトニック結晶の場合、その表面に形成された溝に平行な電場ベクトル振動面を持つ光がTE波、垂直な電場ベクトル振動面を持つ光がTM波となる。
 本実施形態で重要な点は、図6(a)から(c)に示すように、B、G、Rの透過波長帯域の各々において偏光分離特性を示すパターン化偏光子を用いることにある。
 図7は、Gのカラーフィルタの透過域と、偏光特性6101、6102によって定まる偏光分離域との間で波長がずれている場合を示している。このような特性を示す偏光子によれば、本発明の目的とする動作を行うことはできない。
 モノクロ輝度と偏光フィルタとを使用する場合には、偏光分離特性を示す波長域の最適化は不要であったが、カラーの画素ごとに偏光情報を取得する場合は、カラーの分離特性と偏光の分離特性と整合させる必要がある。
 本明細書では、偏光画素における偏光主軸の方位を表示する4つの数字「1、2、3、4」と、カラーを区別するため3つの符号「R、G、B」の組合せ(例えば「R1」や「G1」など)を用いて、偏光画素の特性を示すこととする。偏光画素R1および偏光画素G1は、数字が同じであるため、偏光主軸の方向は一致しているが、RGB符号が異なるため、透過する光の波長帯域が異なる偏光画素に相当している。本実施形態では、このような偏光画素の配列を、図4に示すカラーフィルタ401およびパターン化偏光子402の組合せによって実現している。
 被写体の特に明るい鏡面反射部分に含まれる偏光成分や、被写体の影領域に含まれる偏光成分などを確実に取得するため、撮像素子の輝度ダイナミックレンジとビット数はなるべく大きいこと(例えば16bit)が望ましい。
 図5に示す構成によって偏光画素毎に取得された輝度の情報は、図3の偏光情報処理部303で処理される。以下、この処理を説明する。
 図8は、方向が異なる偏光主軸(Ψi=0°、45°、90°、135°)を有する4種類の偏光子を透過した光の輝度701~704を示している。ここで、偏光主軸の回転角ψがψiの時における観測輝度をIiとする。但し、「i」は、1以上N以下の整数、「N」はサンプル数とする、図8に示す例では、N=4であるため、i=1、2、3、4となる。図8には、4画素のサンプル(ψi、Ii)に対応する輝度701~704が示されている。
 偏光主軸の角度Ψiと輝度701~704との関係は、正弦関数カーブによって表現される。図8では、輝度701~704の4点が1本の正弦関数カーブ上に位置するように記載されている。より多くの観測輝度に基づいて正弦関数カーブを決定した場合、観測輝度の一部が正弦関数カーブ上から僅かに外れる場合もあり得るが、その場合でも問題はない。
 なお、本明細書における「偏光情報」とは、輝度の偏光主軸角度に対する依存性を示す正弦関数カーブにおける振幅変調度および位相情報を意味するものとする。
 実際の処理では、図5(a)に示す同一カラー領域501~504ごとに内部の4個の画素輝度値をサンプルとして、パターン化偏光子の主軸角ψに対する反射光輝度Iを以下のように近似する。
Figure JPOXMLDOC01-appb-M000001
ここで図8に示すようにA、B、Cは定数であり、それぞれ、偏光輝度の変動カーブの振幅、位相、平均値を表現している。図8の例においては、Bは負の値をとる。(式1)は、以下のように展開できる。
Figure JPOXMLDOC01-appb-M000002
ただし、AおよびBは、それぞれ、以下の(式3)および(式4)で示される。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
以下の(式5)を最小にするA、B、Cを求めれば、輝度Iと偏光主軸角Ψとの関係を(式1)の正弦関数によって近似できる。
Figure JPOXMLDOC01-appb-M000005
 以上の処理で1つのカラーについて正弦関数近似のA、B、Cの3パラメータが確定する。こうして、偏光度ρを示す偏光度画像と偏光位相φを示す偏光位相画像が求められる。偏光度ρは、該当画素の光が偏光している程度を表し、偏光位相φは、該当画素の光の部分偏光の主軸角度を表している。なお、偏光の主軸角度は0と180°(π)は同一である。値ρおよびφ(0≦φ≦π)は、それぞれ、以下の(式6)および(式7)によって算出される。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 なお、本実施形態のパターン化偏光子は、フォトニック結晶、フィルム型の偏光素子、ワイヤーグリッド型、その他の原理による偏光素子であってもよい。
 図3に示すカラー情報処理部302は、カラー偏光取得部301から出力される情報を用いて、カラー輝度を計算する。偏光子を透過した光の輝度は、偏光子に入射する前の光が有する本来の輝度とは異なる。非偏光照明の場合、理論的には、偏光のすべての偏光主軸における観測輝度を平均化した値が偏光子に入射する前の光が有する本来の輝度に相当する。角度偏光画素R1の画素における観測輝度をIR1と表現すると、以下の(式8)に基づいて、カラー輝度を算出することができる。
Figure JPOXMLDOC01-appb-M000008
 各偏光画素における輝度を得ることにより、通常のカラーモザイク画像を生成できる。モザイク画像に基づいて各画素でRGB画素値を有するカラー画像へ変換することにより、カラー画像Cが生成される。このような変換は、例えばベイヤーモザイクの補間方法などの公知の補間技術を用いて実現される。
 カラー画像C、偏光度画像ρ、偏光位相画像φの各々における各画素の輝度および偏光情報は、図5(b)に示す4つの偏光画素を用いて得られる。そのため、個々の輝度および偏光情報は、図5(b)に示す4つの偏光画素の中心に位置する仮想画素点505における値の代表を示していると考えることができる。従って、カラー画像および偏光画像の解像度は本来のカラー単板撮像素子の有する解像度の縦1/2×横1/2に低下する。このため撮像素子画素数はできるだけ大きいことが望ましい。
 実際の偏光度画像ρ、偏光位相画像φ、カラー画像Cの例を図9に示す。図9は、遠方の建物のシーンを被写体とする画像である。図9(a)の偏光度画像ρは、偏光の強度を画素の明度によって表現しており、画素の明度が高い(白い)ほど、その画素の偏光度が高い。図9(b)の偏光位相画像φは、偏光位相の角度を明度によって表現している。偏光位相は0から180度までの値を明度に割り当てて表現している。位相角度には周期性があるため、偏光位相画像上の白と黒の位相角度は、実際には連続していることに注意する。図9(c)のカラー画像Cは、通常のRGBカラーの輝度画像である。ただし、この図面では、色相が表現されず、個々の画素の輝度のみが明度によって表現されたモノクロの輝度画像として記載されている。図9(d)は、図9(c)の画像に対応する模式図である。写真では分かりづらいが、801が空、802が雲、803が建物、804が植え込み、805がカメラ台の一部となっている。
 また、図10に示すように、以降の処理の前提として、シーンの撮影は水平線が画面内でも水平となるよう補正する。撮影したシーン画像・シーン偏光画像の傾き補正は、ロール水平度補正部100b(図1F)で行う。ここで補正するのは、カメラ光軸まわりの傾きである。すなわち、図2のx軸が、地面と水平になるように、方向203の回りにθrだけ回転させることにより傾きを補正する。
 以下、図10を参照して水平度補正の一例を説明する。
 まず、撮影した画像例として図10(a)に模式的に示すように傾斜した画像が得られたものとする。地面からの垂線9011、地面の水平線902を図10(a)に示すように規定する。このとき、画像が歪みのない理想的な画像(或いは、そのように補正された画像)とすると、図2のカメラx軸を図10(a)のx軸と等価とみなすことができ、画像の水平な線902、すなわち地面からのカメラx軸方向の傾きは、θrとなる。したがって、まず、この傾きθrを、カメラ内部に設置された水準器で検出する。搭載する水準器は、例えば特開2007-240832号公報に開示されているような、カメラ内部に搭載可能な水準器であれば何でもよい。
 次に、水準器から得られた傾きθrを使い、偏光位相画像の偏光位相補正を行う。具体的には、式7で得られたφを、以下の式9で補正することより、補正された偏光位相方向φnewを得ることができる。
Figure JPOXMLDOC01-appb-M000009
 また可能であれば、後段処理のため、シーン画像・シーン偏光画像についても傾き補正(水平度補正)を行う。シーン画像・シーン偏光画像の傾き補正は必須ではなく、傾いた画像のまま後段処理を行うことも可能であるが、説明の簡略化のため、ここでは傾き補正を実施する。図10(b)は、傾き補正後の画像である。補正前の図10(a)における地面からの垂線9011は、図10(b)では、X’軸に平行となった画像の水平な線902と直交する新しい垂線9012までθr回転している。
 図10(a)における画素903の座標(Xr、Yr)は、角度θrだけ画像を回転させた結果、以下の式10で表される座標(Xr’、Yr’)に変換される。座標(Xr’、Yr’)の画素は、図10(b)において画素904として記載されている。
Figure JPOXMLDOC01-appb-M000010
この変換を画像内の全画素に適用することで、ロール方向に傾いて撮影された画像を、傾きが除去された画像に修正することができる(傾き補正)。
 なお、この補正は、水平線に対する空領域の偏光位相角が分かればよいため、例えば、雲領域を除去した後に行ってもよい。また、本補正を行わない場合は、以降のカメラ向き推定部での計算において、全天偏光マップを全てカメラ座標に座標変換すればよい。
 次に、図11Aを参照しながら、青空偏光画像処理部100cの構成を説明する。
 青空偏光画像処理部100cは、偏光度画像ρ、偏光位相画像φ、およびカラー画像Cを入力として、青空偏光位相画像φSKYを出力する。青空偏光位相画像φSKYは、シーンの中からカメラ向き、太陽向きを推定するために用いられる。
 青空偏光画像処理部100cにおいて、偏光度2値化部1001は、偏光度画像ρをしきい値Tρで2値化する。輝度変換部1002は、カラー画像Cを輝度画像Yに変換する。輝度2値化部1003、1004は、変換された輝度画像Yに対して、しきい値TC1、およびTC2を用いて2値化処理する。画像演算部1005は、偏光度2値化部1001で2値化された偏光画像ρ’と、輝度2値化部1003で2値化された輝度画像C1’とのAND(論理積)演算をし、マスク画像A’を出力する。
 色相類似度変換部1006は、カラー画像CをHSV変換し、空色の色相との色相類似度を表現した色相類似度画像hを出力する。色相類似度2値化部1007は、色相類似度画像hをしきい値THでしきい値処理して、空色相領域のみを抽出した画像h’を出力する。画像演算部1008は、輝度2値化部1004で2値化された輝度C2’、色相類似度2値化部1007で2値化処理された特定色相との論理積演算を行う。
 出力選択部1009は、2値化された輝度・偏光度画像C1’、ρ’から生成された第1の青空領域マスクA’、および、2値化された輝度・色相類似度画像C2’、h’から生成された第2の青空領域マスクB’のいずれを採用するかを、偏光度判定部1010の出力ρdに基づいて決定する。
 画像演算部1011は、採用された青空領域マスクMskyと偏光位相画像φとの論理積演算を実施して、青空偏光位相画像φskyを生成する。
 従来の青空領域検出手法として、カラー画像から、画像上での色相が青に類似し、かつ平坦な領域を探すというものがある。この手法では、曇り空を含む青空に対し、カラー情報とテクスチャ情報から確率的に求める。しかし、カラー情報を利用するため、(i)夕焼け空のようにカラーの色相情報がブルーからマゼンタ、レッドまで次第に移り変わる場合、あるいは(ii)地上の建物が青色、白色の場合に、特に実際の空または雲と識別が不可能になるという課題がある。
 このため、天空の物理的要因で様々に変化するカラー情報を明示的に使わずに、モノクロ輝度情報のみで空を検出できることが望ましい。このような検出を行うには、例えばシーン画像で最も輝度が高い領域が空であると仮定すればよい。実験によると、このような仮定に基づく空検出を行うと、曇天や夕焼け空の場合には、ある程度良好な結果が得られた。しかし、晴天の時は、空の輝度以上に、地上の建物が鏡面反射した輝度の方が高くなってしまう場合が多く、良好な結果が得られなかった。晴天の場合、太陽光の正反射が原因というよりは、人工物(建物)が青空の全周照明を受けることで、その滑らかな表面に予想以上に強い鏡面反射が生じてしまったことが原因であったと考えられる。
 そこで、本実施形態では、輝度に加えてシーンの偏光度を用いて青空領域を検出する。これは晴天昼における空の偏光度が、水平線近傍で非常に高いということを利用するものである。非特許文献2では、全天の空の偏光状態を朝(日の出)から夕方(日の入り)まで12時間にわたり1時間ごとに記録しているが、この文献によると、朝と夕方の東西方向を除いてほとんどの時間で地平線近傍では空の偏光度が強い。実験によると、この空の偏光度は、多くの場合に地上の山などの遠景、建物などの人工物の偏光度よりもさらに強いため、有効な空検出手段になりえる。ただし、地上の建物の屋根やガラス等も非常に強く偏光する。この建物などに起因する偏光を除くためには、上記の偏光度と輝度のしきい値を併用したマスクを生成し、除去すべき領域を検出すればよい。
 ただし、先ほど述べたように朝と夕方は太陽の通り道となる東西方向で地平線近傍の偏光度が低くなるうえに、特に朝の西方向の空、及び夕方における東方向の空は輝度も低いことが多いため、本手法が適用できないケースが生じることがある。この場合はカラー色相と輝度を用いて検出すればよい。このケースについての詳細は後述する。
 以下、実際のシーン画像を示す図12を参照しながら、図11Aの構成を備える青空偏光画像処理部100cの動作を説明する。なお、以下の説明において、実際のシーン画像は撮像範囲が円領域となっているが、これは実験時のカメラ装置におけるレンズのケラレによるものであり本質的には矩形画像で考えてよい。
 青空偏光画像処理部100cは、条件によっては、図11Aに示す破線で囲んだ最小構成1012によって実現できる。まず、図12、図13を参照しつつ、最小構成1012の動作を説明する。
 図12(a)は、シーン画像の偏光度画像ρである。図12(b)は、図12(a)の偏光度画像ρの内容を模式的に示す図である。図12(b)に示すように、シーン画像は、空領域1101、建物領域1102、雲領域1103、地面領域1104、カメラ台1105を含む。
 偏光度画像ρに対して、偏光度2値化部1001で処理を行った結果が図12(c)の画像(ρ’)である。ここで、2値化閾値Tρ=0.14としている。2値化閾値Tρは、偏光度ヒストグラムから決定する。このシーンでは、空領域1101および地上の建物などの風景1102、1104が、偏光度の高い領域および低い領域にわかれて、双峰性分布を作っている。偏光度ヒストグラムにおける2つのピークの中間値を閾値Tρとする。ここで、2値化閾値Tρは、偏光度の高低を判定するための閾値であり、0<Tρ<1の関係を満たす。
 図において、建物の右側の雲領域1103も偏光度が低い場合には除去される。下部の黒色のカメラ架台1105だけは強く偏光していて除去できず残存してしまう。
 図12(d)は、シーン画像のカラー画像Cを輝度変換部1002で処理した輝度画像Yである。輝度変換した輝度画像を、輝度2値化部1003で2値化処理(TC1=0.4)した結果が、図12(e)の画像(C1’)となる。このシーンでは、空領域1101の輝度と建物1102の輝度とがほぼ等しく、輝度での分離が困難であるが、このような場合でも閾値TC1、TC2を適当に設定することにより、カメラ架台など暗部は除去できている。本実施形態における閾値TC1、TC2は、輝度値を評価するため、0<TC1<1、0<TC2<1の大きさとなるように、正規化されたものである。例えば、輝度値が8ビットで表現される場合、ここでは、0~255の輝度値を0~1の数値に規格化して閾値TC1、TC2と比較する。輝度値が16ビットで表現される場合は、0~65535の輝度値を0~1の数値に規格化したうえで、閾値TC1、TC2と比較している。
 以上の2種のマスク画像ρ’、C1’を画像演算部1005において論理積演算処理すると、図12(f)に示すように、一部偏光度の低い雲領域を除去した青空領域のみを分離したマスク画像A’を得ることができる。このマスク画像A’を出力選択部1009で選択し、画像演算部1011において、図13(a)の偏光位相画像φと論理積演算処理する。図13(b)は、図12(b)と同じシーン画像の模式図である。図13(c)は、図12(f)と同様にマスク画像A’を示す。
 以上の処理によって、図13(d)の青空偏光位相画像φskyが得られる。
 ここで注意すべきは、青空領域を決定する際、原則的には雲領域を除去することが望ましい、ということである。後段のカメラ向き検出において、青空偏光位相画像φskyと全天偏光マップとの間で対応する点を探索する必要がある。当然ながら、全天偏光マップには、雲の存在が考慮されていない。ため、雲の存在によって偏光位相が乱された青空偏光位相画像φskyを利用してしまうと、推定誤りが起こる可能性がある。
 なお、特に雲が薄い場合、雲領域でも偏光位相が乱されないことがある。このような場合は、青空領域が雲を含んでいても良い。雲によって偏光位相が乱されるかどうかは、雲領域の偏光度の低下度合いが目安になる。偏光に基づいて青空領域を決定する本実施形態の方法によれば、偏光度の低い雲領域のみを自動的に除去できる、という利点がある。
 次に、夕方の東空を撮影したシーンを示す図14を用いて、最小構成1012では処理できない場合について説明する。
 図14(a)から(f)は、それぞれ、シーン偏光度画像ρ、シーン画像の模式図、2値化したシーン偏光度画像ρ’、シーン輝度画像Y、2値化したシーン輝度画像C2’である。図14(b)に示すように、このシーン画像は、空領域1201、建物領域1202、地面領域1203、カメラ台1204を含む。
 図12(a)~(f)を参照しながら説明した処理と同様な処理を行った結果、最終的に、図14(f)に示すようなマスク画像A’が得られる。明らかに青空領域の検出に失敗している。その理由は、図14(a)のシーン偏光画像ρにおける青空領域の偏光度が低く、また輝度も低いためである。
 そこで、本実施形態では、このような場合に、図11Aに示す偏光度判定部1010を利用する。シーン偏光度画像ρの偏光度ヒストグラムに基づいて平均偏光度を求め、平均偏光度が所定閾値(Tρ1=0.1)より低い場合には、これを採用せずに、カラー色相と輝度を用いた方法に切り替える。以下、その処理を図11Aと図15を参照して説明する。
 まず、色相類似度変換部1006において、空の色相である青の色相角とカラー画像Cの色相角との差異を示す色相角度の誤差を求めることにより、カラー画像Cが色相類似度画像に変換される。ここで空の色相を青色としたのは、このカラー画像を使う処理が使われるのは空の偏光度が低く輝度も低い場合に限られ、それは朝方の西空、および夕方の東空のいずれかであるから、空の色は青色とみなしてよいという仮定に基づく。
 典型的な空の青色の色相角(0°~360°)をHsky(=254°)とし、入力されるシーンの色相角をHtestとする。よく知られたRGB空間からHSV(色相、彩度、明度)空間の色相Hへの変換式(RGB_to_H)を用い、さらに色相角が360度周期であることを考慮すると、色相類似度ΔHは以下の式で表現される。
Figure JPOXMLDOC01-appb-M000011
この色相類似度画像hを、色相類似度2値化部1007で閾値処理することにより、青空領域の候補のマスク画像h’が求められる。図15(a)は、図14のシーン画像と同じシーン画像から色相類似度変換部で変換された色相誤差画像を表している。
 図15(b)は、図15(a)のシーン画像の模式図を示す。図15(c)は、輝度2値化部1004において、閾値(TC2=0.29)処理を行った輝度の2値化結果であり、図15(d)は、画像演算部1008において、図15(a)で示す色相2値化結果h’と図15(c)で示す輝度の2値化結果C2’とを論理積演算した結果のマスク画像B’である。
 図11Aの出力選択部1009において、偏光度判定部1010から出力されるρdが閾値を超えない場合に、偏光度からのマスク画像A’の代わりにこのマスク画像B’が採用される。この場合、画像演算部1011でマスク画像B’と偏光位相画像φと論理積演算を行って、青空偏光位相画像φskyが得られる。
 なお、先に述べた通り、最小構成1012のみで実施できるかどうかは、大きくは時刻に依存する。したがって、偏光度判定部1010を利用して、青空領域を抽出するためのマスクを切り替える代わりに、撮影日時によってマスクを切り替えるようにしてもよい。例えば午後4時以降、日没までを夕方として定義し、夕方でない場合は最小構成1012のみで青空領域の決定を実施し、夕方は図11Aの全構成を用いた切替も可能である。
 次に、図11B、図11Cを参照して、青空偏光画像処理部100cの他の構成例を説明する。
 図11Aに示された青空偏光画像処理部100cでは、前述したように、出力選択部1009が、2値化された輝度・偏光度画像C1’、ρ’から生成された第1の青空領域マスクA’、および、2値化された輝度・色相類似度画像C2’、h’から生成された第2の青空領域マスクB’のいずれを採用するかを偏光度判定部1010の出力ρdに基づいて決定する。
 これに対して、図11Bの青空偏光画像処理部100cでは、第1の青空領域マスクA’および第2の青空領域マスクB’を作成する前の段階で、いずれのマスクを作成すべきかを選択部1014が偏光度判定部1010の出力ρdに基づいて決定する。例えば、偏光度判定部1010から出力されるρdが閾値を超えない場合、図11Bの選択部1014は、第1の青空領域マスクA’ではなく、第2の青空領域マスクB’の作成を選択する。その結果、図11Bの青空偏光画像処理部100cは、第1の青空領域マスクA’を作成せず、第2の青空領域マスクB’のみを作成する。そして、画像演算部1011には、第2の青空領域マスクB’だけが入力されることになる。このため、選択されたマスクのみを作成すればよく、使用しないマスクを作成するための処理を省くことができる。
 図11Cの青空偏光画像処理部100cでも、同様に、第1の青空領域マスクA’および第2の青空領域マスクB’を作成する前の段階で、いずれのマスクを作成すべきかを選択部1014が決定する。ただし、図11Cの青空偏光画像処理部100cでは、マスクの選択を、偏光度判定部1010の出力ρdに基づいてではなく、日時情報取得部1016が出力する撮影日時情報に基づいて決定する。時刻が夕方(例えば午後4時以降、日没まで)を示しているとき、図11Cの選択部1014は、第1の青空領域マスクA’ではなく、第2の青空領域マスクB’の作成を選択する。その結果、画像演算部1011には、第2の青空領域マスクB’だけが入力されることになる。
 次に、カメラ向き推定部101で、カメラ方向を求める。図16に、カメラ向き推定部101の構成を示す。
 図16(a)は、サーチモードを実行する構成を示しており、この構成は、太陽位置取得部1301、全天偏光位相マップ取得部1302、青空領域方向推定部1303、および画角取得部1304を備えている。
 図16(b)は、計算モードを実行する構成を示しており、この構成は、太陽位置取得部1301、画角取得部1304、および青空領域方向計算部1305を備えている。
 これらの構成は、どちらも入力は同じ青空偏光位相画像φであり、太陽位置取得部1301の構成も共通である。カメラ向き推定部101は、図16(a)および(b)に示す構成の両方を備えていてもよいし、一方だけを備えていてもよい。また、どのモードを使用するかについては、撮影者が選択することも可能であるし、カメラ内部で自動的に決定してもよい。各モードの詳細については後述する。
 カメラ向き推定部101は、撮影された偏光位相パターンが、全天においてどの方向にあるかを求める。したがって、はじめに、空の偏光状態について説明する。
 空から降り注ぐ太陽の光は、電磁波の性質を有する。電磁波は伝播時、媒質の変化や、伝播路の構造的な変化があった場合、或いは急に物体が現れるような場合に、その変化する領域で二次的な電磁波を放射する。これが散乱である。
 再放射を生じる構造である、この散乱体が、電波の波長に比べて十分大きい場合、散乱体表面の現象を局所的に平面波反射・入射として扱うことができる。このような場合に生じる散乱が「幾何光学散乱」である。
 一方、散乱体が波長に比べて十分に小さいとき、散乱体表面の電磁界は静磁界で近似できる。このような場合に生じる散乱が「レイリー散乱」である。レイリー散乱の散乱特性は、散乱体の形状によらず、微小ダイポールの指向性と同じ特性を示す。
 なお、散乱体が波長と同程度の大きさ、つまり幾何光学散乱とレイリー散乱の中間にあたる場合は、分極の際に散乱体の表面や内部に過渡電流が流れる。この過渡現象が共振を生じ、特殊な散乱現象を示す。これが「ミー散乱」である。
 大気中には太陽光の波長の約千分の一程度の小さい分子が媒質として存在しているため、太陽光はレイリー散乱される。レイリー散乱では、分子散乱の際、波長の4乗に反比例する散乱係数で散乱するため、波長の短い光ほど強く散乱されるといえる。
 空の色について考えてみると、昼間の空が青いのは、波長の短い青色が強く散乱されて我々の眼に届くためである。一方、夕空が赤いのは、光源である太陽と我々の距離が長くなるために青色成分は消散し、透過光として残った赤色が我々の眼に届くからである。光は、レイリー散乱する際、光源である太陽との位置関係によって、偏波する性質を持つ。これが、空の偏光パターンが作られ、そして時事刻々と移り変わる要因である。
 ある平面波が球状散乱体に入射する場合を考える。散乱体が光の波長に比べて十分小さい場合には、散乱体内部の電気分極が瞬間的に定まり、十分遠方の散乱界については、散乱体の分極電荷ダイポールモーメントを備えた微小ダイポールとして近似できる。これは特に散乱角がπ/2のときに、完全偏波となる。このとき、太陽と、青空上の観測点と、視点を結ぶ散乱面に垂直な方向の偏光位相が得られる。それ以外の場合は、太陽と観測点と視点との位置関係に偏波位相特性は依存し、空の偏光を地上より観察すると、太陽を中心とした円の接線方向への偏光成分が強く観測されるようになる。
 非特許文献3によると、実測の結果、太陽以外に特異な偏光特性を持つ特異点が3点存在するという。非特許文献4では、それらを考慮した理論モデルを用い、現実に近い空の偏光パターンを得ることに成功している。
 なお、雲が存在する領域では偏光特性が異なる。雲は水滴などの雲粒の集まりであり、薄い雲であれば透けるが、濃くなると真っ白になって向う側は見えない。これは、雲の粒子間で多重散乱が起きているためである。ある散乱体で散乱された光が、今度は別の散乱体へ入射し、別の散乱を起こす、という散乱の繰り返しが多重散乱である。特に散乱体が数多く密に分布しているときには、散乱分光された光が重なり合うため白くなり、同様に、散乱によって偏光された光も重なり合って偏光特性を消失する。もちろん、完全に偏光特性を消失するわけではなく、雲の厚さや量によっては、偏光特性が残る場合もある。そのため、本手法では、初期の段階で雲領域を除去することはせず、偏光度の低い領域のみの除去を行い、空の偏光が利用できる領域のみに手法を適用する。
 続いて、カメラ向き推定部101の内容について、まず図16(a)に示すサーチモードの説明を行う。
 空の偏光パターンは、先に述べたとおり、太陽の位置(太陽の高度および方位:以下、単に「太陽位置」と称する場合がある)に依存する。したがって、まず太陽位置取得部1301にて太陽位置を示す情報を取得する(以下、単に「太陽位置を取得する」と述べる場合がある)必要がある。
 太陽位置は、全天を見上げる日付・時刻・位置(緯度経度)により多様に変化するため、例えば、一般的にカメラに内蔵されている時計、およびGPS等を利用して全天における太陽の高度と方位を計算することで得ることができる。この場合の太陽高度・方位の計算方法について説明する。
 角度変数をθ0と置き、当該年元旦からの経過日数dnを用い以下のように定義する。
Figure JPOXMLDOC01-appb-M000012
当該日の太陽赤緯をδと置くと、θ0を用いて以下のように求められる。
Figure JPOXMLDOC01-appb-M000013
また、緯度φ、経度λ、均時差Eq、日本標準時間JST、標準子午線経度JSKとおくと、太陽の時角tは以下の手順で求められる。
Figure JPOXMLDOC01-appb-M000014
Figure JPOXMLDOC01-appb-M000015
以上より、太陽方位θs、高度hsを以下の式で求めることができる。
Figure JPOXMLDOC01-appb-M000016
Figure JPOXMLDOC01-appb-M000017
以上の計算は、立正大中川研究室の近似計算式による。
 なお、この求め方はあくまで一例であり、太陽位置の求め方としては他にも様々なものが存在する。例えば、「日の出・日の入りの計算」長沢 工(地人書館)などの文献に記載されている計算式で求めることも可能である。或いは、理科年表を利用した方法などで求めてもよい。
 次に、撮影時における撮影地点上の全天の偏光位相パターンを、全天偏光位相マップ取得部1302によって取得する。例えば、非特許文献3のように、各太陽高度・方位における偏光位相パターンを実観測によって記録したデータを作成し、それらを蓄積してデータベースとすることができる。そうして作成したデータベースから、撮影時の太陽高度・方位に対応する全天偏光位相マップを取得すれば、全天の偏光パターンがわかる。なお、撮影時の太陽高度、方位に等しいデータがない場合は、近いものを複数用いて補完するなどすればよい。
 また、非特許文献1、非特許文献2、或いは非特許文献4で利用されている数式を用い、太陽高度・方位から全天の偏光位相マップを理論計算により求めることも可能である。
 図17に、前述の理論モデルに基づいた計算によって得られる全天の偏光位相パターンの概略図、および、青空偏光位相パターンとのマッチングの概念図を示す。図17(a)の中心の大きな円は、午前9時頃の全天偏光図の例である。位相パターンは、分かりやすくするために点線で描かれているが、実際は、マップ上の各点が、位相を持っており、この図はその位相面の一部を可視化したものである。
 ここに示すように、全天の偏光パターンは、太陽1401を中心にした同心円状のパターンとなっている。より詳細には、特異点として知られるBabinet点1402や、Arago点1403などが影響することが知られている。天頂直下の点1404は、カメラ位置である。天頂から地平線に垂直に伸ばした線、すなわち地平線の垂線(Local Meridian)を定義する。カメラ位置から見た全天図の各点からの光が、それぞれが属するLocal Meridianに対し、どういった傾きの偏光位相を持つかを点線で示している。位相図の見方については、以下で詳しく説明する。なお、位相の方向は、位置1405における偏光位相φpixを示す図に併記している通り、Local Meridianに沿った方向を0°、時計回りに正となるよう定義する。位置1405~1408の図では、それぞれの偏光位相方向を点線矢印によって表している。この位相の大きさは、カメラの視線方向の先にある天空上の1点を通るLocal Meridianを基準線として決定される。基準線に対し、マップ上の位相線が、どのように交わっているかが、偏光位相の方向(位相角度)を与えるものとする。地平線付近の位置1405における位相角度は、Local Meridianに対して約-20°である。太陽経路上の位置1406における位相角度は、Local Meridianに対し、±90°である。これは、太陽経路上の全ての点でこうなることが知られている。位置1407における位相角度は、Local Meridianに対し、約40°である。太陽付近の位置1408における位相角度は、Local Meridianに対し、ほぼ0°である。
 このように、カメラの方位によって、取得されるLocal Meridianに対する偏光位相は異なることがわかる。
 図17(b)、(c)に、撮影される偏光位相画像の模式図1409、1410を示す。図中の矢印は、説明のために偏光位相の方向を模式的に示しているだけであり、実際には写真上に現れない。
 シーン画像・シーン偏光画像撮影部100aの説明に際して述べたように、各画素が偏光位相を示す値をもっている。複数の画素の偏光位相の並びから、天空のどの部分を撮影したものかがわかる。
 以下、撮影方向を決定する方法の好ましい例を説明する。
 まず、ある時刻において、図17(b)に示す青空偏光位相画像1409、および、図17(c)に示す青空偏光位相画像1410が得られたとする。これらは同じシーンに見えるが、空の偏光位相パターンが異なる。青空偏光位相画像1409は、空領域の偏光が、全体的に11時の方向に偏光軸を持っている。一方、青空偏光位相画像1410では、空領域の偏光が、全体的に2時の方向に偏光軸を持っている。これら2枚の青空偏光位相画像1409、1410を、図17(a)に示す天空の偏光パターンと比較することにより、例えば青空偏光位相画像1409は位置1405の偏向位相を有する北の方向を撮影したということがわかる。また同様に、青空偏光位相画像1410は、位置1407の偏向位相を有する南の方向を撮影したものであることが分かる。このように、シーン画像では同じように見えた2枚の画像であっても、画像に含まれる空領域の偏光位相が異なることにより、視線方向が違うシーンであると識別できる。
 偏光位相パターンは、図17(a)では、簡単のため2次元座標上で示されているが、実際の位相偏光パターンの探索は、図18(a)、(b)に示すように、3次元地球座標上で行うことが望ましい。図18は、地球座標系での太陽、およびカメラ向きの関係を表した概念図である。求めるカメラ向きについて、方位をθ1、仰角をθ2と置いている。x軸+方向に北、-方向に南、y軸+方向に西、-方向に東の方角をとっている。なお、座標は必ずしもこのようにとる必要はなく、方角と天球の対応が分かるように座標を取ればどのようでもよい。図18の場合、カメラの方位は東側を0度にとり、北周りに回転させた角度となる。カメラの仰角は、地平線から垂直に上方へ仰ぎ見た角度となる。これらが、求めるカメラ向きとなる。
 図18(a)において、太陽1501は座標Psにある。青空偏光位相画像中のある1点に対応する、天球1505上の点1502は、座標Pvにとられている。参照符号1503はPvにおける偏光位相φpixである。カメラ1504の位置は、座標Pc(0、0、0)にある。Psの天頂角がφ2、Pvの天頂角がθ2である。図18(b)は、図18(a)のx-y平面をz軸上より見下ろした図である。Psの方位角がφ1、Pvの方位角がθ1である。
 ここで、天球1505の半径をrとすると、座標Ps、Pvに位置する各点は、φ1~θ2を用いて、以下のように表すことができる。
Figure JPOXMLDOC01-appb-M000018
ここで、撮影画像の画素位置と、天球上の位置の対応をとるため、撮影画像の画素位置を、カメラ中心からの角度に置き換える。
 図19に、カメラと撮影画像の位置関係の概略図を示す。図18と共通する構成要素には同じ参照符号を付与している。
 処理対象の画素位置1601をPg(pgx、pgy)とする。また、図18のPv1502に画像中心1602が対応するとし、その座標をPgc(cx、cy)とおく。また、カメラのx方向画角をθpx、y方向画角をθpyとする。この画角は、図16の画角取得部1304によって取得する。画角については、レンズの焦点距離とチップサイズで決まるため、カメラ内部のメモリにデータとして予め与えておけばよい。ここでは、それを取得して用いる。画角は、青空領域の範囲を決定するために用いられる。
 カメラ1504とPg1601とを結ぶ直線と、カメラ1504とPgc1602とを結ぶ直線との間の角度を、wx方向にθpx’、wy方向にθpy’とする。なお、既に画像には水平度の補正が施されているため、θpy’はカメラ仰角方向のθ2にのみ寄与する。このとき、これらの角度θpx’、θpy’は、以下の式で表すことができる。
Figure JPOXMLDOC01-appb-M000019
このとき、Pgに対応する天球位置Pgvは、以下の式で表される。
Figure JPOXMLDOC01-appb-M000020
なお、視点から太陽、および視点から観測点へのベクトルが分かれば、偏光位相は分かるため、今後は、天球の半径r=1としてよい。以上より、各画素に対応する偏光位相の天球上での位置を求める。
 図20に、カメラ1504、画像エリア2000、天球1505の俯瞰図を示す。カメラ1504から画像中心1602を結んだ線は、天球1505上で、点1502に到達している。なお、図18、図19と共通の構成要素には、同じ参照符号を付している。画角1603、1604の範囲が、撮影範囲に等しい。
 カメラ向きの推定には、従来のパターンマッチング手法を適用してよい。偏光位相は0°~180°を1周期とするため、180°~360°の位相については、その位相から180を引き、0°~180°の範囲に収めるとよい。
 最も簡易なパターンマッチングの手法として、SSD(Sum of Squared Difference)を利用できる。カメラ向きを仮想的に決定すると、先述のカメラ中心画素位置Pgcが、全天偏光マップ上でどこにあたるかが分かる。その際に、青空偏光画像の各画素位置における偏光位相と、全天偏光マップ上において前記各画素位置に対応する位置の偏光位相との差を求め、2乗誤差を計算する。仮想的に決定したカメラ向きを変化させながら2乗誤差を計算し、その誤差を最小化するカメラ向きを決定する。具体的には、先ほどの全天偏光パターン上の点Pgv1607での偏光位相をφpgvとする。また、実画像上の点Pg1601での偏光位相をφpg、2乗誤差をErrとおく。このとき、2乗誤差Errは、以下の式で表される。
Figure JPOXMLDOC01-appb-M000021
 2乗誤差Errが最小になる部分が最も位相がマッチした場合であるので、この2乗誤差Errを最小にするように、画像中心Pgc1606に対応する全天偏光パターン上の点Pv1502を動かす。
 このようなマッチングについては、“領域ベースマッチングのための2次元同時サブピクセル推定法” 清水雅夫、 奥富正敏(電子情報通信学会論文誌 D-II、 Vol.J87-D-II、 No.2、 pp.554-564、 February、 2004)に詳しい説明がある。実際には、θ1、θ2を変化させることになるが、前期文献記載の推定法を利用すれば、サブピクセル精度でPv1502を求めることができる。結果をそのときカメラが見ている方位とし、以上によって得られるカメラ方位θ1、θ2を、カメラ向き出力部へ出力する。
 次に図16(b)に示す計算モードについて説明する。
 サーチモードと同様に、太陽位置を太陽位置取得部1301にて取得する。ここで、前述のとおり、非特許文献1、或いは非特許文献3では、数式で理論的な全天偏光パターンを求めている。逆にこれを利用して、得られたパターンと、太陽位置を用いて計算を行うことにより、カメラの方位角を取得することができる。
 例えば、非特許文献1の式を利用すると、青空偏光画像中のある画素での偏光位相をφpgとして、以下の式が成立する。
Figure JPOXMLDOC01-appb-M000022
 計算モードで求めたいものは、図19の画素中心Pgcに対応する天球上の位置Pv(θ1、θ2)を規定する2つの変数θ1、θ2である(図18(a)参照)。ここで、青空偏光位相画像の画素(青空領域の画素)は、殆どの場合、複数存在する。これらの画角が既知であることから、各画素Pgの位置を、Pgv(θ1+θpx’、θ2+θpy’)とおくことができる。なお、θpx’、θpy’は、画角とピクセル位置より、式19によって求められる。
 以上より、青空偏光位相画像中のそれぞれの画素に対応するφpg、φ1、φ2から、式22を用いてθ1、θ2を計算できる。θ1、θ2を求めるには、最低3つの点について計算すればよいが、実際は偏光位相画像中のノイズの存在などが考えられるため、できるだけ多くの点を利用することが好ましい。例えば、動的計画法を繰り返して適用する手法を用いればよい。
 以上により求まったカメラの向きについて、最後に、ロール平行度の補正部でθr°補正したカメラ座標z軸周りの傾きを、元通りに回転させる。これは、式10を逆算すればよい。
 なお、計算モードで使用する数式は、前記式22に限ったものではない。他の空の偏光を求める式を利用しても、同様にカメラ向きが取得できる。
 次に、図1Fの出力部102について説明する。出力部102は、上記の方法によって取得されたカメラの方位と仰角とを、後段で必要な形式のデータとして出力する。すなわち、図19のθ1とθ2を示す情報を、場合に応じた出力形態にて出力する。
 (実施形態2)
 図21は、本発明の第2の実施形態に係るカメラ向き検出装置の構成を示すブロック図である。図21において、図1Fに示す構成要素と共通の構成要素には同一の符号を付しており、ここではその詳細な説明を省略する。
 実施形態1と本実施形態との間で異なる第1の点は、実施形態1の装置が「青空偏光位相画像取得部100」を備えていた(図1F)のに対して、本実施形態の装置が「青空偏光画像取得部1700」を備えていることにある(図21)。本明細書において「青空偏光画像」は、青空偏光位相画像および青空偏光度画像の両方を意味する。すなわち、本実施形態では、青空偏光位相画像だけでなく、青空偏光度画像を取得する。実施形態1と本実施形態との間で異なる第2の点は、本実施形態の装置が実施形態1の「カメラ向き推定部101」とは異なる処理を実行する「カメラ向き推定部1701」を備えていることにある。
 以下、本実施形態における青空偏光画像取得部1700およびカメラ向き推定部1701の構成と動作を説明する。
 図22Aに青空偏光画像取得部1700における青空偏光画像処理部100cの構成図を示す。図11Aに示す構成要素と共通の構成要素については同一の符号を付しており、その詳細な説明を省略する。
 図22Aにおいて、図11Aと異なる部分は、出力として青空偏光位相画像φskyだけでなく、青空偏光度画像ρskyも出力されるという点である。本実施形態でも、出力選択部1009において、第1のマスク画像A’或いは第2のマスク画像B’のどちらかが採用されるが、本実施形態では、その採用されたマスク画像(「マスク画像C’」と称する)と、偏光度画像ρとのANDを画像演算部1801でとることで、青空偏光度画像ρskyを計算し、青空偏光位相画像φskyとともに出力する。
 以下、実際に撮影された図23のシーン画像を用いて説明する。
 図23(a)の画像はシーン画像の偏光位相画像φ、図23(b)の画像はシーン画像の偏光度画像ρである。図23(c)の模式図に示すように、空領域1101、建物領域1102、雲領域1103、地面領域1104、カメラ台1105を画像内に含む。なお、これらの符号は、図12の対応する各領域に付されていた符号と同一である。
 図23(d)の画像は、最小構成1012によって生成されたマスクA’である。画像演算部1011で、偏光位相画像φと論理積演算した結果が図23(e)の青空偏光位相画像φskyであり、画像演算部1801にて偏光度画像ρと論理積演算した結果が図23(f)の青空偏光度画像ρskyである。ともに、空の特徴的なパターンを有していることがわかる。空の偏光度パターンも、偏光位相パターンと同様に、太陽の位置から計算によって求めることができるため、カメラ向きの推定に利用できる。
 なお、図11Aの青空偏光画像処理部100cの変形例(図11B、図11C)と同様に、図22Aの青空偏光画像処理部100cについても、図22B、図22Cに示す変形が可能である。すなわち、図22Bの構成例では、第1の青空領域マスクA’および第2の青空領域マスクB’を作成する前の段階で、いずれのマスクを作成すべきかを選択部1014が偏光度判定部1010の出力ρdに基づいて決定する。また、図22Cの構成例では、第1の青空領域マスクA’および第2の青空領域マスクB’を作成する前の段階で、いずれのマスクを作成すべきかを選択部1014が撮影日時情報に基づいて決定する。
 次に、図21のカメラ向き推定部1701の構成を図24および図27に示す。図24はサーチモードの構成、図27は計算モードの構成を示している。どちらも、図16の構成要素と共通の構成要素には同一の符号を付しており、ここではその詳細な説明を省略する。実施形態1における対応する構成と本実施形態の構成との相違点は、青空偏光画像、すなわち、青空偏光位相画像φskyに加えて青空偏光度画像ρskyを入力として持つ点にある。
 まず、図24を参照する。
 ヨー水平度取得部1901は、カメラのヨー方向の角度、すなわち仰角を取得する。全天偏光マップ候補領域取得部1903は、取得した青空偏光画像に対応する全天偏光マップ領域を、カメラの画角と仰角を元に、候補領域になる部分だけを切り出す。青空領域方向推定部1303は、実施形態1における青空領域方向推定部1303と同様の働きをする。信頼度判定部1904は、取得されたカメラ向きの信頼度を判定する。以下、各部の詳細を説明する。
 ヨー水平度取得部1901は、カメラの仰角を取得する。これによって、後段の全天偏光マップの探索領域を制限する。方法としては、例えば、青空偏光画像取得部1700のロール水平度補正部100bが有する水準器と同じものを、仰角が取得できるよう同一平面に設置すればよい。前述したとおり、搭載する水準器は、たとえば特許文献に記載されているような、カメラ内部に搭載可能なものであれば何でもよい。求まった仰角がθ2に相当する。これにより、青空領域方向推定部1303では、カメラの方位角θ1のみを変化させるだけで、カメラの方位を簡易に求めることが可能である。
 図25に概念図を示す。図17と同様に、天空の偏光位相を示す図の中に太陽1401およびカメラ位置1404が示されている。撮影された偏光画像の模式図1409には、空の偏光位相が矢印で模式的に示されている。なお、全天の偏光度マップについても、本探索領域制限の手順については同じであるため、図を省略する。
 カメラの画角と仰角が既知であれば、撮影されたシーン画像内の青空領域と全天偏光マップのマッチングを行うとき、全天偏光マップ候補領域取得部1903により探索範囲を全天偏光マップ内の帯状領域2001(θ2:固定)に制限することができる。この領域2001の内部で、仰角・画角を固定し、カメラ方位のみを変数としたサーチを実施形態1について説明した方法と同様にして行えばよい。このため、サーチの高速化が期待できる。
 ここでは2次元の図を参照しながら説明を行っているが、図18に示すような3次元座標上でのマッチングを行う際にも、θ2を固定して、θ1のみ変化させたマッチングを行えばよい。
 なお、計測ズレなどの可能性もあるため、必ずしも画角と仰角を固定する必要はなく、取得した画角の前後、および仰角の前後の適当な範囲の数値に対して、適宜変化させてマッチングに用いることももちろん可能である。
 次に、図26Aを参照して、太陽高度によって信頼度を判定する形態を説明する。図26Aの構成は、太陽位置取得部1301と太陽高度判定部1302を備えている点に特徴を有している。
 太陽高度判定部1302は、太陽位置取得部1301から得た太陽の高度について、定めた高度以上であれば「信頼度なし」と判定し、処理停止、エラー表示、などの処理を行う。これは、太陽が天頂に近くなった場合、偏光マップが東西南北でほぼ等しくなってしまい、判定の信頼度が低下するからである。
 図26Bに、太陽2101が天頂に位置するときの天空の偏光位相パターンを示す。太陽2101が、完全に天頂に位置してしまった結果、どの方位を向いても、Local Meredianからの偏光位相が90°になってしまっている。これでは、カメラ向きを求めることができない。
 実際に太陽がどの程度天頂近くを通るかは、緯度経度と季節により異なるため、太陽の南中高度が天頂からある閾値以内の範囲にあった場合は、カメラ向きの判定が不可能とする。この場合、カメラ向き取得を停止し、使用者にエラー表示を行ったうえで終了する。例えば、太陽高度が天頂角5度以内であった場合は、判定不可能とする、などとする。
 好ましい実施形態では、図24に示すヨー方向水平度取得部1901と、全天偏光マップ候補領域1903、および図26Aに示す太陽位置取得部1301および太陽高度判定部1302とをともに備えている。
 図24、図26Aの構成例によれば、最後に、信頼度判定部1904にて、推定結果の信頼度を判定し、使用者に提示する。図26Aの構成例では、太陽高度の情報が得られるため、これによって信頼度を評価することができるが、信頼度の評価に太陽高度以外の情報を用いることができる。例えば、複数の候補領域が取得された場合に、候補領域数が多ければ、信頼度を低下させるようにしてもよい。或いは、偏光度が低い領域が選択された場合に、信頼度を低下させるようにしてもよい。
 信頼度が低い場合は、使用者がこの情報に対し何らかの手段を講じる必要がある。例えば、複数のカメラ向きが提示されている場合には、それらの中から、実際の撮影方向・撮影位置・太陽位置に一番近いものを選択する、という手段がある。或いは、撮影方向を、後述するカメラのオススメ機能により変更するという手段、また、撮影状況が許す場合には、撮影時間を、カメラの表示部で提案される時間まで延期する、という手段などがある。
 次に、図27を参照して計算モードを説明する。
 図27において、図16(b)と共通する部分には同じ符号を付している。図16(b)と異なる点は、部分青空領域方向計算部1304を備え、部分青空領域方向計算部1304に入力される情報として、ヨー方向の水平度および太陽高度の判定結果が加えられている点である。これらを計算の際の制約条件とし、実施形態1と同様に、計算により青空領域方向を求める。例えば、太陽高度判定部1902の出力結果が、「高度が高すぎるため、計算不可」となれば、その後の計算をストップし、信頼度判定部1904で「信頼度なし」と判断された場合と同様に、利用者に、判定不可である旨をディスプレイなどで通知する。
 また、ヨー方向の水平度が既知となる、或いは手がかりとできることで、式22での計算を行う際、θ1のみ求めればよくなるため、簡略かつ信頼度の高い推定を行えるようになる。サーチモード同様に、最後に信頼度判定部1904にて推定結果の信頼度を判定し、使用者に通知する。信頼度が低い場合には、使用者は先に述べた説明同様に、何らかの手段を講じることが求められる。
(実施形態3)
 図28は、本発明の第3の実施形態に係るカメラ向き検出装置の構成を示す図である。図28において、図21の構成要素と共通の構成要素には同一の符号を付しており、ここでは、その詳細な説明を省略する。
 本実施形態に特徴的な点は、出力部2201の構成と機能にある。出力部2210は、カメラ座標における太陽の方向を計算し、太陽の方向を示す情報とカメラ向きを示す情報を含むデータを規定のフォーマット形式にして作成・出力するという部分を備えている。以下、出力部2201について説明する。
 出力部2201の構成を図29に示す。カメラの方位・仰角を元に、座標変換部2301にて、カメラ座標での太陽位置が計算される。そして画像フォーマット作成部2302にて、カメラの向き・太陽方向などを含んだフォーマットの画像Imが作成される。以下、その流れを説明する。
 カメラ向きとして、天球上でCamVect(xcm、ycm、zcm)が得られたとする。太陽は、天球上でPs(xs、ys、zs)であるとする。まず、CamVectについて、カメラ光軸方向をz軸に一致させる必要がある。このとき、3×3の回転行列R1を考える。
 以下の式26を満たすR1を太陽の座標Psに用いれば、カメラ光軸がz軸方向へ向けた際の太陽位置が求まる。
Figure JPOXMLDOC01-appb-M000023
 また、この時点でのカメラ座標は、ロール水平度が補正された状態のままであるため、青空偏光画像取得部で取得したロール方向水平度の値を用いて、実際のカメラ座標の状態に戻す。これは、式10を逆算する回転行列R2を用意すればよい。
 これより、天球座標上の太陽Ps(xs、ys、zs)に対して、R1、R2を用いてカメラ座標上の太陽SUNcm(xscm、yscm、zscm)が以下のように求まる。
Figure JPOXMLDOC01-appb-M000024
 次に、画像フォーマット作成部2302について説明する。本発明は、カメラ内部での処理以外にも、カメラ外部で、例えば撮影した画像を用いてコンピュータで後処理を施す際にも利用できる。したがって、カメラ向きや太陽方向の情報を、外部に取り出す独自フォーマットが必要となる。
 画像フォーマット2401の例を図30に示す。画像フォーマット2401は、撮影した画像Imに対し、撮影時の
・時刻、緯度経度データ 2402
・天球座標上でのカメラ向き(方位・仰角)情報 2403・2404
・カメラ座標上での太陽位置情報 2405
・青空領域分割結果データ 2406
・青空領域偏光位相画像 2407
・デジカメ画像データ 2408
などを同時に有することを特徴とする。もちろん、その他一般的な画像フォーマットが有するような情報を同時に有していてもよい。
 アプリケーションによって、最低限必須となる情報は異なるが、特に最低限の情報として、撮影場所の経度緯度、およびカメラ向き(方位)を備えている。本フォーマットの画像が、本画像入力装置から出力される。
 以上の情報を有することで、カメラ内部だけでなく、カメラ外部のコンピュータ上などでも、
i)撮影位置とカメラ向きから、撮影対象・撮影物体の認識、ラベリング
ii)カメラ位置と太陽位置から、逆光補正・色補正などの画像補正
iii)青空領域の色変換
iv)画像の真贋判断
等の処理を行うことが可能である。これらの4つの適用例について、以下で説明する。
 まずi)について説明する。例えば、パリの凱旋門前などの観光地で、ある写真を撮ったとする。このとき、GPSをカメラが備えていれば、「凱旋門の近くで撮った写真」であることは分かるが、それだけでは、凱旋門を撮ったものなのか、それとも、凱旋門を背にシャンゼリゼ通りを取ったものかは、分からない。
 本手法を利用すれば、カメラの方位2403がわかるため、世界地図と照らし合わせて、凱旋門とシャンゼリゼ、どちらを撮ったのかが分かる。これを利用すれば、例えば個人がPCに保存している画像の撮影対象分類に利用できる。或いは、web上にある画像情報の、撮影対象分類にも利用できる情報となる。
 さらに、カメラの仰角2405の情報を利用することで、おおよそのカメラ視点方向が認識できる。カメラ光軸方向がわかれば、例えば、個人或いはweb上の、撮影対象ごとに分類された画像間で、画像合成を行う際に非常に有効な情報として利用でき、CG・CV分野での利用について有効な情報を提供できる。
 次にii)について説明する。太陽方向座標2404が導出済みであるため、カメラに対する太陽の位置関係が分かる。例えば、カメラが太陽の方向を向いていれば逆光であると予測されるため、逆光補正を行う、或いは、利用者に「逆光補正をオススメ」することができる。この場合、カメラが「オススメ」する向きに対して、その向きにカメラが近づくとピントが合い、逆に離れるとピントがボケる、等の処理を表示部で行えば、利用者が自然にオススメ向きへカメラを向けられるようなフレーミング提案を行うこともできる。なお、日付と時間、緯度経度データ2402と、カメラ向き・仰角データ2403・2405から、PC上で太陽位置の計算を行うことも可能であるため、必ずしも太陽方向2404がフォーマット上で導出済みである必要はない。
 次にiii)について説明する。フォーマットが青空領域分割結果データ2406を保持するため、これを利用して、昼間撮影した写真の青空領域の色を夕空の色に変換する、或いは変換候補として提示するなどすることができる。また、同時に、青空領域以外の部分は、別の変換を施す(少し暗くするなど)、或いは施せるようにすることで、より自然なシーン画像の変換が可能となり、画像処理ソフトウェアにおいて、有効な情報を提供できる。
 最後にiv)について説明する。青空領域偏光画像2407を有するため、ある画像のデジカメ画像データ2401・時刻データ2402が画像変換・ヘッダ書き換えにより明け方のように変換されていた場合も、本手法で利用した明け方の偏光マップと照らし合わせることで、それが加工されたデータであるかどうかが分かり、画像の真贋判断に利用できる。
 あくまでこの4つは代表的な適用例であり、本フォーマットで実施可能な後段処理はこれに限らない。
 以上説明してきたように、本発明のカメラ向き検出装置を備える画像入力装置(カメラなど)によれば、シーン画像内の青空領域の偏光情報からカメラ向きを推定するため、天空全体の偏光パターンを取得するための特別なレンズは必要ない。
 なお、本発明によるカメラ向き検出方法は、図31に示すように、カメラによって偏光画像およびカラー画像を取得するステップS2500と、偏光画像およびカラー画像に基づいてカラー画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成するステップS2502と、カメラ向きを青空偏光位相画像に基づいて推定するステップS2504と、カメラ向きを示す情報を出力するステップS2506とを含む。このようなステップを実行する本発明のカメラ向き検出方法は、上述した構成を有する装置に適用される場合に限定されず、他の構成を有する装置に適用されても実施することが可能である。また、上記のステップをコンピュータに実行させるプログラムを用意し、このプログラムによってカメラなどの画像入力装置に内蔵されるコンピュータの動作を制御すれば、プログラムの改変によって画像入力装置の動作を改善することが容易になる。
(実施形態4)
 以下、本発明の第4の実施形態を説明する。
 上記の実施形態は、「撮像装置向き検出部」を備える撮像装置に関連しているが、本実施形態は、「撮像装置向き検出部」を備える移動体(典型的には、自動車)に関連している。すなわち、本実施形態における移動体は、偏光位相画像を含む偏光画像、および輝度画像を取得する撮像部を有する撮像装置と、上記の撮像装置向き検出装置とを備えている。更に、この移動体は、移動体の向きと撮像装置向きとの関係に応じて、検出された撮像装置向きから移動体の向きを決定する移動体向き推定部を備えている。
 一般的に、カーナビゲーションシステムでは、GPSにより車の位置を求め、車が前進、或いは後進しているという前提のもと、車が移動した際の位置変化に基づいて、車の前面がどちらを向いているか(方位)を求める。
 しかし、移動体の停止時には、位置変化が起こらない。したがって、方位の取得には、過去のデータに基づいた推定を行う必要が発生する。停止時だけでなく、交差点のように、ほぼ同じ位置で向きの変更が起こるような場合も、GPSの位置データは変化しない。そのため、過去の方位データと、走行時のタイヤの回転数等の情報から、移動体の方位を推定している。
 これらの方法では、過去の状況を元に推定しているため、移動体の停止時間や、路面状況・停止までの走行状況によっては、現在の実際の方位を正しく示さない場合がある。例えば、車がスピンして停止した場合などは、タイヤの回転数から車の回転方向を算出することが出来ないため、車がどちらの方位を向いて停止したのか推定することができない。
 これに対して、より直接的に方位を求める方法としては、オーソドックスな方位磁針の利用が考えられるが、方位磁針は磁気の影響を受けやすいことが知られている。すなわち、方位磁針の近くに磁力が発生しているものが存在すれば、簡単に方位が狂ってしまう。車のように、金属である移動体に搭載した場合、移動体の磁化により方位磁針が狂う可能性がある。また、地磁気が検出できないといわれる場所は多くあるが、そのような場所でも利用できないという問題がある。
 図32Aは、本実施形態における移動体が備える移動体向き検出装置の構成を示す図である。上記各実施形態の構成と異なる部分は、移動体向き検出装置が、移動体向きを求める移動体向き推定部2600と、移動体向きを出力する移動体向き出力部2601とを備えている点である。更に、本実施形態では、カメラ向きと移動体向きとの関係を規定する情報を提供するデータベース260が、移動体向き推定部2600と接続される。このデータベース2600は、移動体が備えていても良いし、移動体の外部に設置されたデータベース2600と有線または無線によって適宜接続されても良い。
 次に、図33を参照しながら、本実施形態における移動体向きの検出動作を説明する。図33は、本実施形態における移動体が備える移動体向き検出装置の動作を示すフローチャートである。図32Aに示すシーン画像・シーン偏光画像取得部(画像撮像部)100aにおいて画像撮像ステップS2700を実行した後、青空偏光画像処理部100cにおいて画像処理ステップS2701を実行する。こうして、青空偏光画像を取得する。
 続いてカメラ向き推定部101においてカメラ向き推定ステップS2702を実行することにより撮像素子の向き(撮像装置向き)を推定する。推定した撮像装置向きを示す情報に基づいて、移動体向き推定部2600で移動体向き推定ステップS2703を実行することにより、移動体の向きを推定する。
 ここで、撮像装置向きと移動体向きとの関係を説明する。後に図35を参照して説明するように、撮像装置向きと移動体向きとの関係は、カメラ(撮像部)の取り付け位置によって変化する。そのため、撮像装置向きは、必ずしも移動体向きに一致していない。このため、例えば移動体における撮像部の取り付け位置(簡単に「カメラ位置」と称する。)に応じて、撮像装置向きから移動体向きを求める必要がある。
 本実施形態では、図32Bに示すような構造を有するデータ(テーブル)がデータベース260内に蓄積されている。データベース260内のデータを参照し、移動体上のカメラ位置(前、後、右、左)に応じて、カメラ向きを示す座標を変換すれば、移動体向きの座標を算出することができる。例えば、撮像装置が自動車の後部に設置されている場合、移動体向きの方位は、カメラ向きの方位を180度回転させたものとなる。
 厳密には、カメラ向きと移動体向きとの関係は、カメラ位置のみならず、カメラの視線方向と移動体向きとの関係によって規定される。このため、データベース260に蓄積されるデータは、カメラ向きと移動体向きとのより正確な関係を示す情報を有していることが好ましい。
 最後に移動体向き出力部2601において、移動体向き出力ステップS2704を実行することによって、移動体の向き情報を、利用者にディスプレイや音声等で提示できるよう処理する。
 図34を参照して、本実施形態における移動体(車2801)の動作の例を説明する。
 ここでは、交差点2800に車2801が進入し、停止したという状況を示している。GPS等の速度差分を利用する手法では、現在の車の向きを知るため、交差点から繋がるいずれかの道を選んで、一定距離走行する必要がある。その際、選んだ道が、通過するつもりであった道と異なった場合、改めて交差点から正しい道へ進みなおす必要があり煩雑である。これに対し、本発明を用いると、図34の画像領域2802に示す、車外の青空偏光画像を取得するだけで、一定距離走行することなく、車の向きを利用者に提示することができる。
 なお、提示の方法は、図34に示すように、ディスプレイ2803を利用しても、音声警告2804であってもかまわない。特にディスプレイ2803に、現在地付近の地図表示がなされている場合は、車の向きを、地図上に矢印2805のような形式で表示することで、利用者が自車の向きを容易に理解できるという効果がある。
 以下、本実施形態をさらに詳しく説明する。
 図32Aを参照する。図32Aに示すシーン画像・シーン偏光画像取得部100a、青空偏光画像処理部100c、及びカメラ向き推定部101は、図1Fに示す、同じ番号の処理部とそれぞれ同一の動作を行うため、ここでは説明を省略する。ロール水平度補正部100bについては、図1Fと同様の動作でもよいが、以下に説明する別の動作でもよい。
 撮像部は、車上または車中に走行中は固定される。したがって、設置時に地面に対するロール水平度を一度記憶しておけば、その後は設置時の水平度を用いて補正を行えばよい。毎回水平線の抽出を行わなくてよいため、より高速に処理が行えるという効果がある。
 続いて、移動体向き推定部2600について説明する。
 図35に、移動体上における偏光撮像素子(撮像装置)2900の代表的な設置例を示す。図35には、本実施形態に係る移動体(自動車)2901~2904が図示されている。
 移動体2901では、偏光撮像素子2905のように、前面ボンネット上の位置、或いは後ろボンネット上の位置に設置する。こうすることで、運転の邪魔にならない、比較的高い位置から、青空偏光位相画像を取得できる。
 移動体2902のように、ボンネットより低い位置、例えば車体下部近くに偏光撮像素子2906または偏光撮像素子2907を設置してもよい。こうすることで、外観に与える影響を少なくすることができる。また、偏光撮像素子2907のように、斜め向きに設置してもよい。
 移動体2903における偏光撮像素子2908のように、運転席の直前の窓、或いは同乗者席の窓等に設置すれば、より高い位置から安定して青空偏光画像を取得できる。
 なお、上記の偏光撮像素子2905~2908は、設置場所のみ異なる同じ偏光撮像素子であるため、偏光撮像素子2900と称する。
 永久的に固定位置に設置するのではなく、乗車前のタイミングで、いつでも好きな時に利用者が偏光撮像素子2900の設置位置を決めてもよい。例えばケーブル等で撮像装置と、青空偏光画像処理部を含む装置を接続できるようにすれば、移動体2904に示すように、撮像部の位置をユーザが広い範囲から選択することができる。このようにすると、各利用者の都合に合わせた利用の仕方が出来るため、便利である。撮像部は、車外の青空偏光位相画像を取得できる位置で、なおかつ、車体の直上(画像に太陽を含む可能性が非常に高くなる)を向かない方向であれば、どこにどの向きで利用者が設置してもよい。したがって、ここに図示した配置例以外にも、先ほどの設置条件を満たす位置に設置されればよい。
 なお、屋外が雨や曇であることが分かった場合、或いは、時間帯や位置の関係上、カメラ向き推定の精度が著しく落ちる場合は、図36に示すように、そのような状況下にある移動体3000に、本実施形態の装置からメッセージを発するとよい。例えば、ディスプレイ3001に示すように、「信頼度が低いため、利用不可能」と表示する、或いは、音声警告3002にて、本発明の装置が利用不可能である旨を利用者に伝えるといったことがある。このようにすることで、間違った情報を利用者が受け取る可能性を低減できる。
(実施形態5)
 以下、本発明の第5の実施形態を説明する。
 一般的に、ポータブル機器が有するナビゲーションシステムでは、GPSにより移動する人物の位置を求め、人物が前進、或いは後進しているという前提のもと、人物が移動した際の位置変化に基づいて、人物がどちらを向いているか(方位)を求めている。
 しかし、人物が停止した際には、その位置変化が起こらないという問題がある。そのため、方位の取得には、過去のデータに基づいた推定を行う必要がある。ただし、特に人物の歩行速度は車に比べて遅いため、過去の方位データから人物の向きを精度よく推定することは難しい。特に一度立ち止まって周囲を見渡してしまうと、その人物がどちらを向いているのか、目の前の道路が、地図上でどの道路にあたるのかといった情報を提供することは非常に困難である。
 本実施形態における向き検出装置では、人物が歩行していない状態でも、人物が把持している携帯機器の向きを推定できる。
 図37は、本実施形態における携帯機器向き検出装置の構成例を示す図である。図37の構成において、他の実施形態の構成と異なる部分は、携帯機器向きを求める携帯機器向き推定部3100と、携帯機器向きを出力する携帯機器向き出力部3101を備えている点である。
 次に、図38を参照しながら、本実施形態における携帯機器向きの検出動作を説明する。図38は、本実施形態における移動体が備える携帯機器向き検出装置の動作を示すフローチャートである。図32Aに示すシーン画像・シーン偏光画像取得部100aにおいて画像撮像ステップS3200を実行した後、青空偏光画像処理部100cにおいて画像処理ステップS3201を実行する。こうして、青空偏光画像を取得する。
 続いてカメラ向き推定部101においてカメラ向き推定ステップS3202を実行することにより撮像素子の向きを推定する。推定した向きの情報に基づいて、携帯機器向き推定部3100で携帯機器向き推定ステップS3203を実行することにより、携帯機器の向きを推定する。
 本実施形態でも、図32A、図32Bを参照して説明したデータベースを用いることにより、カメラ向きと携帯機器向きとの関係に基づいてカメラ向きから携帯機器向きを決定することができる。
 最後に携帯機器向き出力部3101において、携帯機器向き出力ステップS3204によって、携帯機器の向き情報を、利用者にディスプレイや音声等で提示できるよう処理する。
 図39に、利用状況の例を図示する。ここでは、分岐3300に人物3301がたどり着き、停止したという状況を示している。GPS等の速度差分を利用する手法では、現在の人物の向きを知るためには、分岐から繋がるいずれかの道を選んで、一定距離歩行する必要がある。その際、選んだ道が、通過するつもりであった道と異なった場合、改めて分岐から正しい道へ進みなおす必要があり、煩雑である。これに対し、本発明を用いると、図39の画像領域3302に示す、車外の青空偏光画像を取得するだけで、長距離の無駄な歩行を伴うことなく、携帯機器の向きを利用者に提示することが出来る。なお、提示の方法は、図39に示すように、ディスプレイ3303を利用しても、音声警告3304であってもかまわない。特にディスプレイ3303に、現在地付近の地図表示がなされている場合は、携帯機器の向きを、地図上に矢印3305等で表示することで、利用者が自らの向きを容易に理解できるという効果がある。
 以下で、本実施形態をさらに詳しく説明する。
 図37に示すシーン画像・シーン偏光画像取得部100a、青空偏光画像処理部100c、及びカメラ向き推定部101は、図1Fに示す、同じ番号の処理部とそれぞれ同一の動作を行うため、ここでは説明を省略する。
 なお、ロール水平度補正部100bについては、図1Fと同様の動作でもよいが、さらに以下に説明する別の動作を追加してもよい。
 地面に対する撮像素子のロール水平度は、すなわち携帯機器の把持状態を示す要素となる。一般的には、撮像素子もディスプレイも、ともに携帯機器に固定されて搭載される。ディスプレイを見ている利用者の状態も、一般的には地面に垂直に立つか座るかである。したがって、撮像素子の地面に対する水平度が判れば、それは利用者に対するディスプレイの水平度と等しくなる。したがって、ロール水平度は、青空偏光位相の処理だけでなく、出力部にも入力し、水平度に応じた表示を行うように補正する、という処理を追加すれば、利用者が容易に向きを認識可能になるという効果がある。
 続いて、携帯機器向き推定部3100について説明する。
 まず、図40に、携帯機器上における偏光撮像素子3400の設置例のうちの代表的なものを示す。図40には、本実施形態に係る携帯機器(携帯電話)3401~3403が図示されている。
 携帯機器3401における、偏光撮像素子3400のように、携帯電話付設のカメラを、カラー画像・偏光画像が同時に撮影できる偏光撮像素子を用いたものとすることで、利用者に不便を感じさせることなく、青空偏光位相画像を取得できる。
 なお、この場合、本実施形態の装置は、カメラ向き検出装置として動作することに加え、例えば任意の携帯電話付設カメラ撮影画像に対して、例えば図13(a)に示した、偏光位相を表した画像に変換したものを出力してもよい。また、図13(d)に示すような、空のみ抜き出した画像を作成したり、空の領域のみ別のテクスチャに置き換えるといった画像変換に用いても良い。 また、携帯機器3402の偏光撮像素子3404のように、ディスプレイを確認する際に、最も高度が高い位置にくる場所近くに偏光撮像素子3404を設置することで、より高い位置から安定に青空偏光画像の取得が行える可能性がある。
 また、永久的に固定位置に設置するのではなく、ケーブルで接続可能な外部パーツとして、いつでも好きな時に利用者が素子の設置位置を決められるようにしてもよい。携帯機器3403に示すように、青空偏光位相画像を取得できるような位置で、なおかつ、直上(画像に太陽を含む可能性が非常に高くなる)を向かない方向であれば、どこにどの向きで利用者が設置してもよい。このようにすると、各利用者は簡易に青空領域の取得位置の調整が行えるため、便利である。
 ここに図示した以外にも、先ほどの設置条件を満たす位置に設置されたものについては、全て本発明の本実施形態が含むものとする。
 なお、屋外が雨や曇であることが分かった場合、或いは、時間帯や位置の関係上、カメラ向き推定の精度が著しく落ちる場合は、図41に示すように、そのような状況下にある携帯機器3500に、本発明の装置からメッセージを発するとよい。例えば、ディスプレイ3501に示すように、「信頼度が低いため、利用不可能」と表示する、或いは、音声警告3502にて、本発明の装置が利用不可能である旨を利用者に伝えるといったことがある。このようにすることで、間違った情報を利用者が受け取る可能性を低減できる。
(実施形態6)
 本発明の第6の実施形態について以下で説明する。
 以上で述べた本発明の実施形態は、カラー偏光画像撮像部を備えることを特徴としていたが、本発明による撮像装置向きの検出には、必ずしもカラー画像を取得する必要はない。例えばモノクロの輝度画像によっても撮像装置向きを決定することができる。 図42は、本発明の第6の実施形態における撮像装置向き検出装置の構成を示す図である。図42の構成において、他の実施形態における構成と異なる部分は、シーンの画像を取得するシーン画像・シーン偏光画像取得部3600a、及び青空領域の偏光状態を求める青空偏光画像処理部3600cを備える点にある。これ以外の構成については、実施形態1の構成と同様であるため、ここでは説明を省略する。
 本実施形態の撮像装置向き検出装置は、全ての構成要素が図43に示すカメラに収められていることが好ましい。しかし、例えばシーン画像・シーン偏光画像取得部3600aとロール方向の傾きを計測する水準器とを図42の画像取得部3600が備え、ロール水平度補正部100b、青空偏光画像処理部3600c、カメラ向き推定部101、および出力部102がカメラの外部に設けられていても良い。
 図43に、シーン画像・シーン偏光画像取得部3600aの構成を示す。
 カメラは、シーン画像・シーン偏光画像取得部3600aとして機能する撮像部を備えるため、カメラの向きに応じて撮影されるシーン画像・シーン偏光画像の内容が変化する。
 カメラ向きを推定するための一連の処理は、カメラの内部で実行されることが好ましいが、必ずしもカメラの内部で実行される必要はない。
 図43に、本実施形態のシーン画像・シーン偏光画像取得部3600aの構成を示す。屋外においては、シーン画像およびシーン偏光画像の両方を取得することが必要である。風による雲の動きなども存在するため、偏光画像もリアルタイムに取得することが好ましい。なお、シーン画像とシーン偏光画像は同時に取得することが好ましいが、数秒程度までの間隔で取得しても構わない。
 図43のシーン画像・シーン偏光画像取得部3600aは、被写体に対してリアルタイムに輝度画像情報を取得すると同時に偏光画像情報を取得し、2種類の偏光画像情報(偏光度画像ρ及び偏光位相画像φ)を出力する構成となっている。
 図43のシーン画像・シーン偏光画像取得部3600aでは、レンズ3700aおよび絞り3700bを通った入射光が、偏光取得部3701に入射する。この入射光から、偏光取得部3701は輝度動画像情報および偏光画像情報の両方をリアルタイムに取得することができる。偏光取得部3701からは、輝度動画像情報および偏光情報画像情報を示す信号が出力され、それぞれ、輝度情報処理部3702および偏光情報処理部3703に与えられる。輝度情報処理部3702および偏光情報処理部3703は、上記信号に対して各種の処理を施し、輝度画像C、偏光度画像ρ、偏光位相画像φを出力する。
 偏光取得部3701では、モノクロ画像と偏光画像とを同時に取得する。このためには、例えば特許文献3に開示されている技術を利用することができる。この技術では、輝度画像と被写体の部分偏光の画像とを同時に取得することを目的とし、複数の異なる偏光主軸(透過軸)を有するパターン化偏光子を撮像素子に空間的に配置する。パターン化偏光子としては、フォトニック結晶や構造複屈折波長板アレイが利用されている。図44は、このような偏光輝度撮像素子の一例を示す。狭帯域カラーフィルタ3800、およびパターン化偏光子3801が、撮像素子画素3802の前面に重ねて設置されている。入射光は狭帯域カラーフィルタ3800、パターン化偏光子3801を透過して撮像素子に到達し、撮像素子画素3802によってモノクロ輝度が観測される。このようにすれば、輝度画像情報および偏光画像情報の両方を同時に取得することができる。なお、狭帯域カラーフィルタ3800は、パターン化偏光子の動作する波長帯を選択するように、例えば、500-550(nm)の透過域を有するものを利用することが望ましい。
 図45は、偏光取得部3701における撮像面の一部を光軸方向の真上から見た図である。簡単のため、撮像面のうち、密着する4つの微細偏光画素(2×2)のみが図示されている。各微細偏光画素の上に記されているストライプは、微小偏光板の偏光主軸方向を模式的に示している。図45の例では、4つの微細偏光画素が、それぞれ、角度Ψi=0°、45°、90°、135°の偏光主軸を有している。
 なお、被写体の特に明るい鏡面反射部分に含まれる偏光成分や、被写体の影領域に含まれる偏光成分などを確実に取得するため、撮像素子の輝度ダイナミックレンジとビット数はなるべく大きいこと(例えば16bit)が望ましい。
 図45に示す構成によって偏光画素毎に取得された輝度の情報は、図43の偏光情報処理部3703で処理される。この処理は、図8を参照して説明した処理と同一である。
 以上の処理で正弦関数近似のA、B、Cの3パラメータが確定する。こうして、偏光度ρを示す偏光度画像と偏光位相φを示す偏光位相画像が求められる。偏光度ρは、該当画素の光が偏光している程度を表し、偏光位相φは、該当画素の光の部分偏光の主軸角度を表している。なお、偏光の主軸角度は0と180°(π)は同一である。値ρおよびφ(0≦φ≦π)は、それぞれ、実施形態1同様に、(式6)および(式7)によって算出される。
 なお、本実施形態のパターン化偏光子は、フォトニック結晶、フィルム型の偏光素子、ワイヤーグリッド型、その他の原理による偏光素子であってもよい。
 図43に示す輝度情報処理部3702は、偏光取得部3701から出力される情報を用いて、輝度を計算する。偏光子を透過した光の輝度は、偏光子に入射する前の光が有する本来の輝度とは異なる。非偏光照明の場合、理論的には、偏光のすべての偏光主軸における観測輝度を平均化した値が偏光子に入射する前の光が有する本来の輝度に相当する。角度偏光画素P1の画素における観測輝度をI1と表現すると、(式8)同様の観測輝度平均化を行うことで、輝度を算出することができる。
 各偏光画素における輝度を得ることにより、通常の輝度画像を生成できる。
 輝度画像C、偏光度画像ρ、偏光位相画像φの各々における各画素の輝度および偏光情報は、図45に示す4つの偏光画素を用いて得られる。そのため、個々の輝度および偏光情報は、図45に示す4つの偏光画素の中心に位置する仮想画素点3900における値の代表を示していると考えることができる。従って、輝度画像および偏光画像の解像度は本来の撮像素子の有する解像度の縦1/2×横1/2に低下する。このため撮像素子画素数はできるだけ大きいことが望ましい。
 図42に示すロール水平度補正部100bによる撮影したシーン画像・シーン偏光画像の傾き補正については実施形態1と同じであるため説明を省略する。
 続いて、図46Aを参照しながら、青空偏光画像処理部3600cの構成を説明する。
 青空偏光画像処理部3600cは、偏光度画像ρ、偏光位相画像φ、および輝度画像Yを入力として、青空偏光位相画像φSKYを出力する。青空偏光位相画像φSKYは、シーンの中からカメラ向き、太陽向きを推定するために用いられる。
 青空偏光画像処理部3600cにおいて、偏光度2値化部1001は、偏光度画像ρをしきい値Tρで2値化する。輝度2値化部1003は、輝度画像Yに対して、しきい値TC1を用いて2値化処理する。画像演算部1005は、偏光度2値化部1001で2値化された偏光画像ρ’と、輝度2値化部1003で2値化された輝度画像C1’とのAND(論理積)演算をし、マスク画像A’を出力する。
 画像演算部1011は、採用された青空領域マスクMskyと偏光位相画像φとの論理積演算を実施して、青空偏光位相画像φskyを生成する。
 なお、2値化閾値Tρは、画像中の各画素の偏光度から作成したヒストグラムから決定し、偏光度ヒストグラムにおける偏光度の2つのピークの中間値を閾値Tρとするとよい。ここで、2値化閾値Tρは、偏光度の高低を判定するための閾値であり、0<Tρ<1の関係を満たす。
 以上の2種のマスク画像ρ’、C1’を画像演算部1005において論理積演算処理すると、一部偏光度の低い雲領域を除去した青空領域のみを分離したマスク画像A’を得ることができる。このマスク画像A’を画像演算部1011において、偏光位相画像φと論理積演算処理する。
 以上の処理によって、青空偏光位相画像φskyが得られる。
 ここで注意すべきは、青空領域を決定する際、原則的には雲領域を除去することが望ましい、ということである。後段のカメラ向き検出において、青空偏光位相画像φskyと全天偏光マップとの間で対応する点を探索する必要がある。当然ながら、全天偏光マップには、雲の存在が考慮されていない。ため、雲の存在によって偏光位相が乱された青空偏光位相画像φskyを利用してしまうと、推定誤りが起こる可能性がある。
 なお、特に雲が薄い場合、雲領域でも偏光位相が乱されないことがある。このような場合は、青空領域が雲を含んでいても良い。雲によって偏光位相が乱されるかどうかは、雲領域の偏光度の低下度合いが目安になる。偏光に基づいて青空領域を決定する本実施形態の方法によれば、偏光度の低い雲領域のみを自動的に除去できる、という利点がある。
 なお、画像上に現れる空領域の偏光度が低い場合、以上に述べた青空領域抽出が失敗してしまうこともある。これを防ぐため、図46Bに示す出力選択部4001、偏光度判定部1010を利用してもよい。出力選択部4001は、2値化された輝度画像C1’、偏光度画像ρ’から生成された第1の青空領域マスクA’を採用するかどうかを、偏光度判定部1010の出力ρdに基づいて決定する。
 具体的には、偏光度判定部1010でシーン偏光度画像ρの偏光度ヒストグラムに基づいて平均偏光度を求める。続いて、図46Bの出力選択部4001において、偏光度判定部1010から出力される平均偏光度ρdが閾値を超えない場合、偏光度からの青空偏光位相画像φsky抽出は信頼度が低くなるため、処理を停止するものとする。所定閾値は、たとえばTρ1=0.1より低い場合に、圏外表示に切り替えるとすればよい。
 なお、先に述べた通り、図46Aの構成で実施できるかどうかは、大きくは時刻に依存する。したがって、出力選択部4001、偏光度判定部1010を利用して、青空領域の抽出可否を切り替える代わりに、撮影日時によって切り替えるようにしてもよい。例えば午後4時以降、日没までを夕方として定義し、夕方でない場合は図46Aの構成で青空領域の決定を実施し、夕方は図46Bの構成を用いて抽出可否を判断するようにするということも可能である。
 次に、図46C、図46Dを参照して、青空偏光画像処理部3600cの他の構成例を説明する。
 図46Bに示された青空偏光画像処理部3600cでは、前述したように、2値化された輝度・偏光度画像C1’、ρ’から生成された青空領域マスクA’を採用するかを偏光度判定部1010の出力ρdに基づき、出力選択部4001で判定した。
 これに対して、図46Cの青空偏光画像処理部100cでは、青空領域マスクA’を作成する前の段階で、マスクを作成すべきかどうかを選択部4101において、偏光度判定部1010の出力ρdに基づき判定する。例えば、偏光度判定部1010から出力されるρdが閾値を超えない場合、図46Cの選択部4101は、青空領域マスクA’を作成せずに処理停止を選択する。その結果、図46Cの青空偏光画像処理部3600cは、第1の青空領域マスクA’を作成せず、処理を停止する。利用者には、圏外表示等を行っても良い。このため、偏光度が十分高い場合のみマスクを作成すればよく、使用されないマスクを作成するための処理を省くことができる。
 図46Dの青空偏光画像処理部3600cでも、同様に、第1の青空領域マスクA’を作成する前の段階で、マスクを作成すべきかを選択部4201が決定する。ただし、図46Dの青空偏光画像処理部3600cでは、マスク作成可否の選択を、偏光度判定部1010の出力ρdに基づいてではなく、日時情報取得部1016が出力する撮影日時情報に基づいて決定する。時刻が夕方(例えば午後4時以降、日没まで)を示しているとき、図46Dの選択部4201は、第1の青空領域マスクA’を作成不可と判定する。その結果、マスクA’は作成されず、処理を停止する。図46C同様に、使用されないマスクは作成されないため、より処理が効率化されるという効果がある。
 以上の手順で作成された青空偏光位相画像、或いは青空偏光画像を用いて、撮像装置向きの推定を行う。なお、図42に示したカメラ向き推定部101、及び出力部102の動作については、他の実施形態と同じであるため、ここでは詳細な説明を省略する。
 なお、本実施形態におけるカメラ向き検出方法は、図47に示すように、カメラによって偏光画像および輝度画像を取得するステップS4300と、偏光画像および輝度画像に基づいて輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成するステップS4301と、カメラ向きを青空偏光位相画像に基づいて推定するステップS4302と、カメラ向きを示す情報を出力するステップS4303とを含む。このようなステップを実行する本発明のカメラ向き検出方法は、上述した構成を有する装置に適用される場合に限定されず、他の構成を有する装置に適用されても実施することが可能である。また、上記のステップをコンピュータに実行させるプログラムを用意し、このプログラムによってカメラなどの画像入力装置に内蔵されるコンピュータの動作を制御すれば、プログラムの改変によって画像入力装置の動作を改善することが容易になる。
 なお、本実施形態におけるカメラ向き検出方法は、特に図46B、図46C、図46Dでの例で示したような場合、すなわち、偏光度判定部1010からの出力結果を元に、出力選択部4001において処理継続の可否を判定するようなケースでは、処理継続不可の場合にカメラ向き推定部101が必ずしも動作する必要性はない。
 従って、図48(a)に示すように、青空偏光画像処理部3600cから出力部102へ、例えば「処理続行不可」の指示を送りユーザへの表示をするようなパスを本装置が備えていてもよい。同様に、図48(b)に示すように、本装置を実現する方法が、青空偏光位相画像を生成するステップS4301から直接、出力ステップへ処理継続可否情報を出力してもよい。前記の構成、或いはフローを採用することによって、カメラ向き推定部において無駄な処理が発生することを防ぐことが出来るという効果がある。
 本発明の画像入力装置は、空の偏光現象を利用することにより、完全にパッシブな方法で一般の環境シーンにおけるカメラ-太陽間の光源情報を取得できるため、各種デジタルスチルカメラ、デジタルムービーカメラ、監視カメラなどに適用可能である。そして、今後のカメラの小型化に際して不足すると思われる画像輝度情報に対して、コンピュータグラフィックス処理によって情報量の付与を行う場合についても、実用的な入力装置として利用できると考えられる。
10 カメラ
100 青空偏光位相画像取得部
100a シーン画像・シーン偏光画像取得部
100b ロール水平度補正部
100c 青空偏光画像処理部
101  カメラ向き推定部
102  出力部
1301 太陽位置取得部
1302 全天偏光位相マップ取得部
1303 青空領域方向推定部
1304 画角取得部
1305 青空領域方向計算部
1901 ピッチ方向水平度取得部
1902 太陽高度判定部
1904 信頼度判定部
2301 座標変換部
2401 画像フォーマット

Claims (26)

  1.  偏光位相画像を含む偏光画像、および輝度画像を撮影によって取得する撮像部を備えた撮像装置の向きを検出する撮像装置向き検出装置であって、
     前記偏光画像および輝度画像に基づいて、前記輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成する画像処理部と、
     前記撮像部の向きによって決まる撮像装置向きを前記青空偏光位相画像に基づいて推定する向き推定部と、
     前記向き推定部で推定された撮像装置向きを示す情報を出力する出力部と
    を備える撮像装置向き検出装置。
  2.  撮影時における太陽の位置に関する情報を取得する太陽位置取得部を備え、
     前記向き推定部は、前記情報を用いて撮像装置向きの推定を行う、請求項1に記載の撮像装置向き検出装置。
  3.  前記太陽の位置に関する情報に基づいて、撮影時における空の偏光状態を示す全天偏光マップを取得する全天偏光マップ取得部を備え、
     前記向き推定部は、前記青空偏光位相画像および前記全天偏光マップに基づいて、前記撮像装置向きを推定する請求項2に記載の撮像装置向き検出装置。
  4.  前記全天偏光マップ取得部は、全天偏光マップを含むデータベースから撮影時における空の偏光状態を示す全天偏光マップを取得する、請求項3に記載の撮像装置向き検出装置。
  5.  前記データベースを格納する記憶装置を備える請求項4に記載の撮像装置向き検出装置。
  6.  前記データベースを格納する外部の記憶装置にアクセスする通信装置を備える請求項4に記載の撮像装置向き検出装置。
  7.  前記全天偏光マップ取得部は、撮影時における空の偏光状態を示す全天偏光マップを計算によって生成する請求項3に記載の撮像装置向き検出装置。
  8.  前記向き推定部は、前記青空領域の偏光位相から前記青空領域の方向を計算し、前記撮像装置の向きを推定する請求項1に記載の撮像装置向き検出装置。
  9.  撮影時における空の偏光状態を示す全天偏光マップを取得する全天偏光マップ取得部を備え、
     前記向き推定部は、サーチモードおよび計算モードの少なくとも一方で動作し、
     前記サーチモードでは、前記青空偏光位相画像および前記全天偏光マップに基づいて、前記青空領域の方向を探索し、前記計算モードでは、前記青空領域の偏光位相から前記青空領域の方向を計算する、請求項1に記載の撮像装置向き検出装置。
  10.  前記撮像装置の傾きを補正する水平度補正部を備える請求項1に記載の撮像装置向き検出装置。
  11.  前記撮像装置の傾きは、ロール方向の傾きを含む請求項10に記載の撮像装置向き検出装置。
  12.  前記撮像装置は、水準器を備えており、
     前記水準器によって水平度を取得し、取得した水平度に基づいて撮像装置の傾きを補正する請求項11に記載の撮像装置向き検出装置。
  13.  撮像範囲の画角を取得し、取得した画角に基づいて青空領域の範囲を決定する画角取得部を有する請求項1に記載の撮像装置向き検出装置。
  14.  前記撮像部は、偏光主軸角度が異なる複数の偏光子を備え、
     前記複数の偏光子を透過してくる光に応じて前記偏光画像を取得する、請求項1に記載の撮像装置向き検出装置。
  15.  前記偏光画像は、前記偏光位相画像に加えて偏光度画像を含む、請求項1に記載の撮像装置向き検出装置。
  16.  前記画像処理部は、空の偏光度が基準値以上の場合、偏光度を利用して前記青空領域を切り出し、前記偏光度が前記基準値よりも低い場合、色相を利用して前記青空領域を切り出し、前記青空偏光位相画像を出力する請求項1に記載の撮像装置向き検出装置。
  17.  推定結果の信頼度を判定し、使用者に情報を提示する信頼度判定部を備える請求項2に記載の撮像装置向き検出装置。
  18.  撮影時における太陽の位置に関する情報から得られる太陽の高度に応じて推定の可否を判定する太陽高度判定部を備えた請求項17記載の撮像装置向き検出装置。
  19.  太陽の高度および方位、ならびに撮像装置向きに基づいて、座標変換を行ってカメラ座標での太陽位置を取得する請求項2に記載の撮像装置向き検出装置。
  20.  偏光位相画像を含む偏光画像、および輝度画像を取得する撮像部を有する撮像装置と、
     請求項1に記載の撮像装置向き検出装置と、
    を備える撮像装置。
  21.  請求項1に記載の撮像装置向き検出装置を備える移動体であって、
     偏光位相画像を含む偏光画像、および輝度画像を取得する撮像部を有する撮像装置と、
     前記移動体の向きと前記撮像装置向きとの関係に応じて、検出された前記撮像装置向きから前記移動体の向きを決定する移動体向き推定部と、
    を備えている、移動体。
  22.  請求項1に記載の撮像装置向き検出装置を備える携帯機器であって、
     偏光位相画像を含む偏光画像、および輝度画像を取得する撮像部を有する撮像装置と、
     前記携帯機器の向きと前記撮像装置向きとの関係に応じて、検出された前記撮像装置向きから前記携帯機器の向きを決定する携帯機器向き推定部と、
    を備えている、携帯機器。
  23.  偏光位相画像を含む偏光画像、および輝度画像を撮影によって取得する撮像部と、
     前記偏光画像および輝度画像に基づいて、前記輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成する画像処理部と、
     前記撮像部の向きによって決まる撮像装置向きを前記青空偏光位相画像に基づいて推定する向き推定部と、
     前記撮像部によって撮像された画像のデータ、および前記向き推定部で推定された撮像装置向きを示す情報を出力する出力部と
    を備える画像入力装置。
  24.  画像データと、
     撮影時の日時を示すデータと、
     撮影場所の経度緯度を示すデータと、
     撮像装置向きを示すデータと保持する画像フォーマット。
  25.  撮像装置によって偏光画像および輝度画像を取得するステップと、
     前記偏光画像および輝度画像に基づいて、前記輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成するステップと、
     撮像装置向きを前記青空偏光位相画像に基づいて推定するステップと、
     撮像装置向きを示す情報を出力するステップと
    を含む撮像装置向き検出方法。
  26.  撮影時の撮像装置向きを天空の偏光パターンを利用して検出する撮像装置向き検出装置のためのプログラムであって、
     撮像装置によって偏光画像および輝度画像を取得するステップと、
     前記偏光画像および輝度画像に基づいて、前記輝度画像に含まれる青空領域の偏光位相を示す青空偏光位相画像を生成するステップと、
     撮像装置向きを前記青空偏光位相画像に基づいて推定するステップと、
     撮像装置向きを示す情報を出力するステップと
    をコンピュータに実行させるプログラム。
PCT/JP2009/007034 2009-01-06 2009-12-18 撮像装置向き検出装置および当該装置を備える移動体 WO2010079557A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US12/935,321 US8390696B2 (en) 2009-01-06 2009-12-18 Apparatus for detecting direction of image pickup device and moving body comprising same
CN2009801306543A CN102177719B (zh) 2009-01-06 2009-12-18 摄像装置朝向检测装置和具备该装置的移动体
EP09837447.3A EP2375755B8 (en) 2009-01-06 2009-12-18 Apparatus for detecting direction of image pickup device and moving body comprising same
JP2010545634A JP5357902B2 (ja) 2009-01-06 2009-12-18 撮像装置向き検出装置および当該装置を備える移動体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-001074 2009-01-06
JP2009001074 2009-01-06

Publications (1)

Publication Number Publication Date
WO2010079557A1 true WO2010079557A1 (ja) 2010-07-15

Family

ID=42316336

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/007034 WO2010079557A1 (ja) 2009-01-06 2009-12-18 撮像装置向き検出装置および当該装置を備える移動体

Country Status (5)

Country Link
US (1) US8390696B2 (ja)
EP (1) EP2375755B8 (ja)
JP (1) JP5357902B2 (ja)
CN (1) CN102177719B (ja)
WO (1) WO2010079557A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191267A (ja) * 2011-03-08 2012-10-04 Ricoh Co Ltd 物体の像を取得する装置、物体の像を取得する方法、プログラム、及び記録媒体
JP2012189826A (ja) * 2011-03-10 2012-10-04 Ricoh Co Ltd 物体の像を取得する装置、物体の像を取得する方法、プログラム、及び記録媒体
WO2016008203A1 (zh) * 2014-07-15 2016-01-21 中兴通讯股份有限公司 自动获取拍摄参数的方法及装置
JP2018061124A (ja) * 2016-10-04 2018-04-12 株式会社ソニー・インタラクティブエンタテインメント 撮影装置、情報処理システム、情報処理装置、および偏光画像処理方法
WO2020241130A1 (ja) 2019-05-29 2020-12-03 古野電気株式会社 情報処理システム、方法、及びプログラム
CN115014311A (zh) * 2022-08-08 2022-09-06 中国人民解放军国防科技大学 一种基于大气偏振信息剔除天空遮挡的光罗盘定向方法
WO2023171470A1 (ja) 2022-03-11 2023-09-14 パナソニックIpマネジメント株式会社 光検出装置、光検出システム、およびフィルタアレイ

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2447672B (en) 2007-03-21 2011-12-14 Ford Global Tech Llc Vehicle manoeuvring aids
US9124804B2 (en) * 2010-03-22 2015-09-01 Microsoft Technology Licensing, Llc Using accelerometer information for determining orientation of pictures and video images
JP5761601B2 (ja) * 2010-07-01 2015-08-12 株式会社リコー 物体識別装置
JP5063749B2 (ja) * 2010-07-12 2012-10-31 キヤノン株式会社 撮影制御システム、撮像装置の制御装置及びその制御方法、並びにプログラム
EP2498583B1 (fr) * 2011-03-07 2017-05-03 Zedel Lampe LED dotée d' un dispositif de sécurité
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9683848B2 (en) 2011-04-19 2017-06-20 Ford Global Technologies, Llc System for determining hitch angle
US9926008B2 (en) 2011-04-19 2018-03-27 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9723274B2 (en) 2011-04-19 2017-08-01 Ford Global Technologies, Llc System and method for adjusting an image capture setting
US9555832B2 (en) 2011-04-19 2017-01-31 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9374562B2 (en) 2011-04-19 2016-06-21 Ford Global Technologies, Llc System and method for calculating a horizontal camera to target distance
US10196088B2 (en) 2011-04-19 2019-02-05 Ford Global Technologies, Llc Target monitoring system and method
US8970691B2 (en) * 2011-08-26 2015-03-03 Microsoft Technology Licensing, Llc Removal of rayleigh scattering from images
HUP1100482A2 (en) * 2011-09-05 2013-04-29 Eotvos Lorand Tudomanyegyetem Method for cloud base height measuring and device for polarization measuring
US8923567B2 (en) 2011-12-19 2014-12-30 General Electric Company Apparatus and method for predicting solar irradiance variation
US8750566B2 (en) 2012-02-23 2014-06-10 General Electric Company Apparatus and method for spatially relating views of sky images acquired at spaced apart locations
US9562764B2 (en) 2012-07-23 2017-02-07 Trimble Inc. Use of a sky polarization sensor for absolute orientation determination in position determining systems
US9445011B2 (en) * 2012-10-22 2016-09-13 GM Global Technology Operations LLC Dynamic rearview mirror adaptive dimming overlay through scene brightness estimation
CN103942523B (zh) * 2013-01-18 2017-11-03 华为终端有限公司 一种日照场景识别方法及装置
CN103197685A (zh) * 2013-04-11 2013-07-10 南京信息工程大学 一种太阳能自动跟踪系统
US20150042793A1 (en) * 2013-08-10 2015-02-12 Trex Enterprises Corporation Celestial Compass with sky polarization
EP3060880A4 (en) * 2013-10-22 2017-07-05 Polaris Sensor Technologies, Inc. Sky polarization and sun sensor system and method
US9464887B2 (en) 2013-11-21 2016-10-11 Ford Global Technologies, Llc Illuminated hitch angle detection component
US9464886B2 (en) 2013-11-21 2016-10-11 Ford Global Technologies, Llc Luminescent hitch angle detection component
JP6332281B2 (ja) * 2013-12-17 2018-05-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9296421B2 (en) 2014-03-06 2016-03-29 Ford Global Technologies, Llc Vehicle target identification using human gesture recognition
KR20150106719A (ko) * 2014-03-12 2015-09-22 삼성전자주식회사 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
CN104125400B (zh) * 2014-07-15 2018-03-30 中兴通讯股份有限公司 一种提示用户的方法及电子设备
US10175358B2 (en) 2014-08-04 2019-01-08 Elbit Systems Of America, Llc Systems and methods for northfinding
CN106537409B (zh) * 2014-08-18 2020-02-14 谷歌有限责任公司 确定影像的罗盘定位
US10112537B2 (en) 2014-09-03 2018-10-30 Ford Global Technologies, Llc Trailer angle detection target fade warning
US9607242B2 (en) 2015-01-16 2017-03-28 Ford Global Technologies, Llc Target monitoring system with lens cleaning device
CN104994271B (zh) * 2015-05-28 2016-06-29 北京航天控制仪器研究所 一种索道摄像机系统及其控制及视频信号传输方法
US9836060B2 (en) 2015-10-28 2017-12-05 Ford Global Technologies, Llc Trailer backup assist system with target management
US9792522B2 (en) * 2015-12-01 2017-10-17 Bloomsky, Inc. Weather information extraction using sequential images
CN106441310B (zh) * 2016-11-30 2019-06-04 北京航空航天大学 一种基于cmos的太阳方位角计算方法
US10976239B1 (en) * 2017-03-14 2021-04-13 Hart Scientific Consulting International Llc Systems and methods for determining polarization properties with high temporal bandwidth
CN106973236B (zh) * 2017-05-24 2020-09-15 湖南盘子女人坊文化科技股份有限公司 一种拍摄控制方法及装置
US10710585B2 (en) 2017-09-01 2020-07-14 Ford Global Technologies, Llc Trailer backup assist system with predictive hitch angle functionality
CN108387206B (zh) * 2018-01-23 2020-03-17 北京航空航天大学 一种基于地平线与偏振光的载体三维姿态获取方法
CN108225335B (zh) * 2018-01-23 2020-06-19 中国人民解放军国防科技大学 一种用于多目偏振视觉的航向角求解方法
US11543485B2 (en) 2018-05-22 2023-01-03 Samsung Electronics Co., Ltd. Determining location or orientation based on environment information
DE102018132590A1 (de) 2018-12-18 2020-06-18 Valeo Schalter Und Sensoren Gmbh Determination of an attitude of a vehicle based on sky polarization by acelestial light source
CN110887475B (zh) * 2019-12-09 2021-12-10 北京航空航天大学 一种基于偏振北极点及偏振太阳矢量的静基座粗对准方法
CN113362392B (zh) * 2020-03-05 2024-04-23 杭州海康威视数字技术股份有限公司 可视域生成方法、装置、计算设备及存储介质
CN111724440B (zh) * 2020-05-27 2024-02-02 杭州数梦工场科技有限公司 监控设备的方位信息确定方法、装置及电子设备
US11995836B2 (en) 2020-07-07 2024-05-28 Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company System and method for performing sky-segmentation
DE102021201987A1 (de) * 2021-03-02 2022-09-08 Carl Zeiss Microscopy Gmbh Verfahren, Computerprogrammprodukt und Mikroskopiesystem zur Darstellung von polarisierenden Proben
US11935263B1 (en) * 2021-04-20 2024-03-19 Apple Inc. Global reference direction detection for orienting three-dimensional models

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160507A (ja) 1994-12-07 1996-06-21 Canon Inc カメラ
JPH1188820A (ja) * 1998-04-16 1999-03-30 Toshiba Corp 方位情報を記録可能な画像記録装置
JP2004048427A (ja) * 2002-07-12 2004-02-12 Koncheruto:Kk 撮影位置および方位付のデジタルカメラ又は画像付携帯電話システム
JP2004117478A (ja) 2002-09-24 2004-04-15 Fuji Photo Film Co Ltd カメラ
JP2007086720A (ja) 2005-08-23 2007-04-05 Photonic Lattice Inc 偏光イメージング装置
JP2007240832A (ja) 2006-03-08 2007-09-20 Citizen Holdings Co Ltd 自動合焦点装置
JP2008016918A (ja) * 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理システムおよび画像処理方法
WO2008149489A1 (ja) * 2007-05-31 2008-12-11 Panasonic Corporation 画像処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5028138A (en) * 1989-05-23 1991-07-02 Wolff Lawrence B Method of and apparatus for obtaining object data by machine vision form polarization information
US5052799A (en) * 1989-07-17 1991-10-01 Thurman Sasser Object orienting systems and systems and processes relating thereto
US5424535A (en) * 1993-04-29 1995-06-13 The Boeing Company Optical angle sensor using polarization techniques
JP3935499B2 (ja) * 2004-07-26 2007-06-20 松下電器産業株式会社 画像処理方法、画像処理装置および画像処理プログラム
CN1910623B (zh) * 2005-01-19 2011-04-20 松下电器产业株式会社 图像变换方法、纹理映射方法、图像变换装置和服务器客户机系统
CN101044507B (zh) * 2005-09-01 2010-08-18 松下电器产业株式会社 图像处理方法以及图像处理装置
JP2009544228A (ja) * 2006-07-18 2009-12-10 ザ・トラスティーズ・オブ・ザ・ユニバーシティ・オブ・ペンシルバニア 偏光を使用した、重複キャストシャドウ成分の分離およびコントラスト強調、ならびに陰影内の標的検出
JP2008026353A (ja) 2006-07-18 2008-02-07 Nikon Corp 偏光方向検出装置とこれを有する撮像装置
WO2008026518A1 (fr) * 2006-08-31 2008-03-06 Panasonic Corporation Dispositif, procédé et programme de traitement d'image
CN101542232B (zh) * 2007-08-07 2011-10-19 松下电器产业株式会社 法线信息生成装置以及法线信息生成方法
CN101542233B (zh) * 2007-08-07 2011-12-28 松下电器产业株式会社 图像处理装置以及图像处理方法
CN100523820C (zh) * 2007-11-01 2009-08-05 大连理工大学 一种运动方向角度偏振敏感检测方法和传感器装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160507A (ja) 1994-12-07 1996-06-21 Canon Inc カメラ
JPH1188820A (ja) * 1998-04-16 1999-03-30 Toshiba Corp 方位情報を記録可能な画像記録装置
JP2004048427A (ja) * 2002-07-12 2004-02-12 Koncheruto:Kk 撮影位置および方位付のデジタルカメラ又は画像付携帯電話システム
JP2004117478A (ja) 2002-09-24 2004-04-15 Fuji Photo Film Co Ltd カメラ
JP2007086720A (ja) 2005-08-23 2007-04-05 Photonic Lattice Inc 偏光イメージング装置
JP2007240832A (ja) 2006-03-08 2007-09-20 Citizen Holdings Co Ltd 自動合焦点装置
JP2008016918A (ja) * 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理システムおよび画像処理方法
WO2008149489A1 (ja) * 2007-05-31 2008-12-11 Panasonic Corporation 画像処理装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
DAISUKE MIYAZAKI ET AL.: "Polarization Analysis of the Skylight Caused by Rayleigh Scattering and Sun Orientation Estimation Using Fisheye-Lens Camera", PATTERN RECOGNITION AND MEDIA UNDERSTANDING SOCIETY OF THE INSTITUTE OF ELECTRONICS, INFORMATION, AND COMMUNICATION ENGINEERS IN JAPAN, vol. 108, no. 198, 2008, pages 25 - 32
HITOSHI TOKUMARU: "Light and Radio Waves", MORIKITA PUBLISHING, CO., LTD., article "March 21, 2000"
ISTVAN POMOZI ET AL.: "How the Clear-Sky Angle of Polarization Pattern Continues Underneath Clouds: Full-Sky Measurements and Implications for Animal Orientation", THE JOURNAL OF EXPERIMENTAL BIOLOGY, vol. 204, 2001, pages 2933 - 2942
M. V. BERRY ET AL.: "Polarization Singularities in the Clear Sky", NEW JOURNAL OF PHYSICS, vol. 6, 2004, pages 162
MASAO SHIMIZU; MASATOSHI OKUTOMI: "Two-Dimensional Simultaneous Sub-pixel Estimation for Area-Based Matching", TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS (OF JAPAN) D-II, vol. 2, February 2004 (2004-02-01), pages 554 - 564
See also references of EP2375755A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191267A (ja) * 2011-03-08 2012-10-04 Ricoh Co Ltd 物体の像を取得する装置、物体の像を取得する方法、プログラム、及び記録媒体
JP2012189826A (ja) * 2011-03-10 2012-10-04 Ricoh Co Ltd 物体の像を取得する装置、物体の像を取得する方法、プログラム、及び記録媒体
WO2016008203A1 (zh) * 2014-07-15 2016-01-21 中兴通讯股份有限公司 自动获取拍摄参数的方法及装置
JP2018061124A (ja) * 2016-10-04 2018-04-12 株式会社ソニー・インタラクティブエンタテインメント 撮影装置、情報処理システム、情報処理装置、および偏光画像処理方法
US10805528B2 (en) 2016-10-04 2020-10-13 Sony Interactive Entertainment Inc. Image capturing apparatus, information processing system, information processing apparatus, and polarized-image processing method
WO2020241130A1 (ja) 2019-05-29 2020-12-03 古野電気株式会社 情報処理システム、方法、及びプログラム
JP7419364B2 (ja) 2019-05-29 2024-01-22 古野電気株式会社 情報処理システム、方法、及びプログラム
US12100179B2 (en) 2019-05-29 2024-09-24 Furuno Electric Co., Ltd. Information processing system, method, and program
WO2023171470A1 (ja) 2022-03-11 2023-09-14 パナソニックIpマネジメント株式会社 光検出装置、光検出システム、およびフィルタアレイ
CN115014311A (zh) * 2022-08-08 2022-09-06 中国人民解放军国防科技大学 一种基于大气偏振信息剔除天空遮挡的光罗盘定向方法
CN115014311B (zh) * 2022-08-08 2022-11-01 中国人民解放军国防科技大学 一种基于大气偏振信息剔除天空遮挡的光罗盘定向方法

Also Published As

Publication number Publication date
CN102177719B (zh) 2013-08-28
EP2375755B1 (en) 2013-08-07
US20110018990A1 (en) 2011-01-27
US8390696B2 (en) 2013-03-05
JPWO2010079557A1 (ja) 2012-06-21
CN102177719A (zh) 2011-09-07
JP5357902B2 (ja) 2013-12-04
EP2375755A1 (en) 2011-10-12
EP2375755A4 (en) 2012-10-24
EP2375755B8 (en) 2013-10-09

Similar Documents

Publication Publication Date Title
JP5357902B2 (ja) 撮像装置向き検出装置および当該装置を備える移動体
CA3157194C (en) Systems and methods for augmentation of sensor systems and imaging systems with polarization
US8654179B2 (en) Image processing device and pseudo-3D image creation device
TWI287402B (en) Panoramic vision system and method
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
US9019341B2 (en) Method for obtaining a composite image using rotationally symmetrical wide-angle lenses, imaging system for same, and CMOS image sensor for image-processing using hardware
CN101809993B (zh) 利用旋转对称广角透镜获得全景图像的方法及其设备
CN104243959B (zh) 基于偏振定向和组合定位的智能复合眼镜
US9488471B2 (en) Methods and systems for navigation and terrain change detection
EA008402B1 (ru) Размещаемая на транспортном средстве система сбора и обработки данных
JP2008016918A (ja) 画像処理装置、画像処理システムおよび画像処理方法
CN112857356A (zh) 无人机水体环境调查和航线生成方法
CN113805829B (zh) 导航界面的显示方法、装置、终端、存储介质及程序产品
JP2008230561A (ja) 撮像制御装置および測光領域調整方法
JP2005331320A (ja) 天空率および日照時間算出システム、および、算出プログラム
CN117146780B (zh) 成像方法、终端设备及介质
Serres et al. Passive Polarized Vision for Autonomous Vehicles: A Review
JP2011160345A (ja) 日照確認装置
CN115222807A (zh) 数据处理方法、设备及存储介质
KR20090062015A (ko) 실시간 멀티밴드 카메라 시스템
Mazurek et al. Utilisation of the light polarization to increase the working range of the video vehicle tracking systems

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980130654.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09837447

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12935321

Country of ref document: US

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2010545634

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2009837447

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE