WO2017217241A1 - 画像生成装置および画像生成方法 - Google Patents

画像生成装置および画像生成方法 Download PDF

Info

Publication number
WO2017217241A1
WO2017217241A1 PCT/JP2017/020396 JP2017020396W WO2017217241A1 WO 2017217241 A1 WO2017217241 A1 WO 2017217241A1 JP 2017020396 W JP2017020396 W JP 2017020396W WO 2017217241 A1 WO2017217241 A1 WO 2017217241A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pair
image generation
parallax
viewpoint
Prior art date
Application number
PCT/JP2017/020396
Other languages
English (en)
French (fr)
Inventor
夏紀 加納
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/307,046 priority Critical patent/US20190230334A1/en
Priority to JP2018523643A priority patent/JP6881450B2/ja
Publication of WO2017217241A1 publication Critical patent/WO2017217241A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Definitions

  • the present disclosure relates to an image generation device and an image generation method, and more particularly, to an image generation device and an image generation method capable of generating a highly accurate parallax image.
  • an image processing technique for example, a technique for generating a single panoramic image using a photographed image obtained by photographing a wide range while moving a viewpoint with a monocular camera, or a photographed with a compound eye camera.
  • a technique for restoring three-dimensional information using a photographed image for example, a technique for generating a single panoramic image using a photographed image obtained by photographing a wide range while moving a viewpoint with a monocular camera, or a photographed with a compound eye camera.
  • the present disclosure has been made in view of such a situation, and is capable of generating a highly accurate parallax image.
  • the image generation method according to one aspect of the present disclosure corresponds to the image generation apparatus according to one aspect of the present disclosure.
  • the parallax image representing the parallax between the two viewpoint pairs is generated.
  • the image generation apparatus can be realized by causing a computer to execute a program.
  • a program to be executed by a computer can be provided by being transmitted via a transmission medium or by being recorded on a recording medium.
  • a highly accurate parallax image can be generated.
  • FIG. 2 is a block diagram illustrating a configuration example of the display device in FIG. 1. It is a figure which shows the range of the pixel value of the HDR spherical image of each display viewpoint. It is a figure which shows the range of the pixel value of a display image. 13 is a flowchart for explaining display processing of the display device in FIG. 12. It is a block diagram which shows the structural example of the image process part in 2nd Embodiment of the image display system to which this indication is applied. It is a figure which shows the example of a mask. It is a block diagram which shows the structural example of the hardware of a computer.
  • FIG. 1 is a block diagram illustrating a configuration example of a first embodiment of an image display system to which the present disclosure is applied.
  • the imaging device 11 of the image display system 10 is configured such that camera modules that capture multiple exposed pair images of each pair of two viewpoints are arranged to spread 360 degrees horizontally and 180 degrees vertically. Consists of.
  • an image with the same exposure is referred to as an identical exposure pair image
  • an image with the same viewpoint is referred to as an identical viewpoint image, and it is necessary to particularly distinguish each image of the multiple exposure pair image. If there is no image, the image is simply called an image.
  • the imaging device 11 calibrates each image of the multi-exposure pair image of each pair of two viewpoints captured by each camera module.
  • the imaging device 11 includes a plurality of exposed pair images of each pair of two viewpoints, and camera parameters including positions, postures, focal lengths, aberrations, and the like of a camera that captures the images, which are estimated by calibration of each image.
  • the image is supplied to the image generation device 12.
  • the exposure values (EV) of the multiple exposure pair images are +1.0 and -1.0.
  • the camera module 30 of the imaging device 11 in FIG. 2 has two cameras arranged in the horizontal direction, the camera 31-1 and the camera 31-2 that captures images of two viewpoints arranged in the horizontal direction at an exposure value +1.0.
  • the camera 32-1 and the camera 32-2 capture a pair of images with an exposure value of ⁇ 1.0.
  • the camera 31-1 and the camera 32-1, and the camera 31-2 and the camera 31-2 are arranged side by side in the vertical direction.
  • FIG. 3 is a diagram illustrating a second configuration example of the camera module of the photographing apparatus 11 of FIG.
  • the exposure values of the multiple exposure pair images are +1.0 and ⁇ 1.0, but the camera module 50 of the imaging device 11 of FIG. Only the camera 51-1 and the camera 51-2 are provided. That is, the camera module 50 is provided for each viewpoint, and includes a camera 51-1 and a camera 51-2 (imaging device) arranged in 2 (horizontal direction) ⁇ 1 (vertical direction). In the following, when it is not necessary to distinguish the camera 51-1 and the camera 51-2 from each other, they are collectively referred to as the camera 51.
  • the camera module 50 is suitable for shooting a still image or a time-lapse image as a multi-exposure pair image because it cannot simultaneously capture a multi-exposure pair image.
  • the number of cameras 51 constituting the camera module 50 does not change depending on the type of exposure value of the multiple exposure pair image. For example, even when there are five types of exposure values of the multiple exposure pair images, ie, +2.0, ⁇ 1.0, 0.0, +1.0, and +2.0, the number of cameras 51 is two. Similarly to the case of FIG. 2, the two-viewpoint pair cameras 51 do not necessarily have to be arranged in parallel.
  • FIG. 4 is a diagram illustrating a configuration example of the image generation apparatus 12 of FIG.
  • an image acquisition unit 71 includes an image acquisition unit 71, a parameter acquisition unit 72, an image processing unit 73, an HDR image generation unit 74, a storage unit 75, a reception unit 76, and a transmission unit 77.
  • the image acquisition unit 71 of the image generation device 12 acquires the multiple exposure pair images of each pair of two viewpoints supplied from the imaging device 11 and supplies them to the image processing unit 73.
  • the parameter acquisition unit 72 acquires camera parameters of each image supplied from the imaging device 11 and supplies the camera parameters to the image processing unit 73.
  • the HDR image generation unit 74 uses the parallax image of each two viewpoints pair supplied from the image processing unit 73 and the same exposure pair image of the optimal exposure value among each of the multiple exposure pair images to perform three-dimensional reconstruction. To generate an HDR spherical image of each display viewpoint.
  • the HDR image generation unit 74 supplies the HDR omnidirectional image of each display viewpoint to the storage unit 75 and stores it.
  • the HDR image generation unit 74 reads out the HDR celestial sphere image of the display viewpoint indicated by the display viewpoint information supplied from the receiving unit 76 from the storage unit 75 and supplies it to the transmission unit 77.
  • the storage unit 75 stores the HDR celestial sphere of each display viewpoint supplied from the HDR image generation unit 74.
  • the receiving unit 76 receives the display viewpoint information transmitted from the display device 13 of FIG. 1 and supplies it to the HDR image generating unit 74.
  • the transmission unit 77 converts the number of bits of the HDR omnidirectional image supplied from the HDR image generation unit 74 into the number of bits for transmission, and transmission data including the HDR omnidirectional image having the number of bits for transmission and restoration data. Is generated.
  • the restoration data is metadata used when returning the HDR omnidirectional image having the number of bits for transmission to the HDR omnidirectional image having the number of bits before conversion.
  • the HDR image generation unit 74 transmits the transmission data to the display device 13 of FIG.
  • FIG. 5 is a block diagram illustrating a configuration example of the image processing unit 73 in FIG.
  • 5 includes a correction unit 90, a whiteout region detection unit 91, a blackout region detection unit 92, and a parallax image generation unit 93.
  • the correction unit 90 corrects the image based on the aberration among the camera parameters of each image of the multiple exposure pair image.
  • the correction unit 90 supplies the same exposure pair image having an exposure value of 0 or more among the corrected multiple exposure pair images to the overexposure region detection unit 91 and the parallax image generation unit 93 as a + EV pair image. Further, the correction unit 90 supplies the same exposure pair image having a negative exposure value EV among the corrected multiple exposure pair images to the whiteout region detection unit 91 and the parallax image generation unit 93 as a -EV pair image. To do.
  • the whiteout area detection unit 91 detects a whiteout area of each image of the + EV pair image supplied from the correction unit 90. Specifically, the whiteout area detection unit 91 divides each image into blocks of a predetermined size, and generates a histogram of pixel values of each block. Then, based on the histogram of each block, the whiteout area detection unit 91 detects a block having a larger pixel value than the whiteout area determination threshold as a whiteout area. The whiteout area detection unit 91 generates a whiteout mask that masks the whiteout area for each image, and supplies the whiteout mask to the parallax image generation unit 93.
  • the parallax image generation unit 93 uses a plurality of exposed pair images in which a whiteout area or a blackout area is excluded by, for example, a plane sweep (Plane Sweep) method. Parallax is detected and a parallax image is generated.
  • Plane Sweep Plane Sweep
  • the parallax image generation unit 93 corresponds to each parallax that is a candidate within a predetermined range, with respect to a certain reference viewpoint, the same exposed pair image in which a whiteout area or a blackout area is excluded. Projective transformation to the position d in the depth direction to be performed, and an image of the reference viewpoint when the subject exists at each position d is generated.
  • the parallax image generation unit 93 performs block matching between the images of the reference viewpoint for each position d by the following equation (1), and calculates the matching cost of each block.
  • the candidate parallax range is determined based on the camera position and orientation and the focal length in the camera parameters.
  • the block is composed of one or more pixels.
  • the matching cost Sub_Cost (x, y, d) is an absolute error between the block I 0 (x, y, d) and the block I 1 (x, y, d). Note that the matching cost Sub_Cost (x, y, d) is not calculated when an exclusion region is included in one of the block I 0 (x, y, d) and the block I 1 (x, y, d).
  • the matching cost Sub_Cost (x, y, d) may be a square error between the block I 0 (x, y, d) and the block I 1 (x, y, d).
  • Cost (x, y, d) is an average value of the matching costs Sub_Cost (x, y, d), and N is the number of calculated matching costs Sub_Cost (x, y, d).
  • the parallax image generation unit 93 detects the position d when the average value Cost (x, y, d) is the smallest for each block as the parallax, and generates a parallax image of the reference viewpoint.
  • the parallax image generation unit 93 supplies the parallax image of the reference viewpoint of each pair of two viewpoints to the HDR image generation unit 74 of FIG.
  • FIG. 6 is a diagram illustrating an example of a whiteout mask and a blackout mask.
  • the subject is a person, a tree, and the sun, and the person exists in front of the sun.
  • the sun is blown out.
  • the ⁇ EV pair image is captured with the appropriate exposure value for the sun, the person is blacked out.
  • the whiteout area detection unit 91 detects the sun area in the + EV pair image as a whiteout area. Therefore, the whiteout area detection unit 91 sets the sun area in each image of the + EV pair image as an exclusion area (black area in the figure) and sets the area other than the sun as an effective area (white area in the figure). A binary whiteout mask is generated.
  • the blackout area detection unit 92 detects a person area in the -EV pair image as a blackout area. Therefore, the blackout area detection unit 92 sets the person area in each image of the -EV pair image as the exclusion area (black area in the figure) and the area other than the person as the effective area (white area in the figure). A binary blackout mask is generated.
  • the block of the position (x, y) of the images of the two reference viewpoints generated from the + EV pair image and the two reference viewpoints generated from the -EV pair image is as shown by a solid line in A of FIG. That is, the average value Cost (x, y, d) is an average value of the matching cost Sub_Cost (x, y, d) generated from each of the + EV pair image and the ⁇ EV pair image.
  • the + EV pair image and the -EV pair image in FIG. 8 are the same as those in FIG. In the example of FIG. 8, the multiple exposure pair image is composed of one + EV pair image and one -EV pair image.
  • the parallax image generation unit 93 can accurately detect the parallax of a block that is at least one whiteout region of the + EV pair image using only the -EV pair image. Furthermore, the parallax image generation unit 93 can accurately detect the parallax of a block that is at least one blackened area of the ⁇ EV pair image using only the + EV pair image. As a result, as shown in FIG. 8A, it is possible to generate a parallax image whose accuracy does not deteriorate even in a whiteout region or a blackout region.
  • FIG. 9 is a diagram for explaining transmission data.
  • the horizontal axis represents the position of the display viewpoint
  • the vertical axis represents holding bits that are used bits of the HDR spherical image at each display viewpoint held in the storage unit 75 or transmission data.
  • the number of bits for holding the HDR image of the display viewpoint is generally the number of bits for transmission.
  • the transmission bit of the HDR spherical image of the display viewpoint V3 in which the holding bits are in the range from 192 bits to 256 bits is from 6 bits as shown in FIG. 9B.
  • the range is up to 8 bits.
  • the transmission unit 77 subtracts the minimum value of the pixel value from each pixel value of the HDR omnidirectional image of the display viewpoint having the number of bits for holding, and the number of bits of the difference obtained as a result is transmitted.
  • the number of bits for holding the HDR spherical image of the display viewpoint is converted to the number of bits for transmission.
  • the transmission unit 77 converts not the pixel value itself of the HDR spherical image but the bit number of the difference from the minimum pixel value into the bit number for transmission. Therefore, if the number of bits held in the HDR celestial sphere image is smaller than the number of bits held, the reduction in gradation due to transmission is suppressed compared to the case where the number of bits of the HDR celestial sphere image itself is converted. Can do.
  • FIG. 10 is a flowchart for explaining HDR celestial sphere image generation processing of the image generation apparatus 12 of FIG.
  • the HDR omnidirectional image generation processing is started when, for example, a plurality of exposed pair images of two viewpoints and camera parameters of each image are supplied from the imaging device 11 of FIG.
  • step S11 of FIG. 10 the image acquisition unit 71 of the image generation device 12 acquires a multiple exposure pair image of each pair of two viewpoints supplied from the imaging device 11.
  • the image acquisition unit 71 supplies the acquired multi-exposure pair image to the image processing unit 73 and also supplies it to the HDR image generation unit 74 via the image processing unit 73.
  • step S ⁇ b> 12 the parameter acquisition unit 72 acquires camera parameters of each image supplied from the imaging device 11 and supplies them to the image processing unit 73.
  • step S ⁇ b> 13 the correction unit 90 of the image processing unit 73 determines each image of the multiple-exposure pair image supplied from the image acquisition unit 71 based on the aberration among the camera parameters of each image supplied from the parameter acquisition unit 72. Correct.
  • the correction unit 90 supplies the + EV pair image of the corrected multiple exposure pair images to the whiteout region detection unit 91 and the parallax image generation unit 93, and converts the -EV pair image into the whiteout region detection unit 91 and the parallax image. This is supplied to the generation unit 93.
  • step S24 the parallax image generation unit 93 increments the integration number N by 1, and advances the process to step S25.
  • step S21 when it is determined in step S21 that the block at the position (x, y) of the image of at least one reference viewpoint is an excluded area, the processes in steps S22 to S24 are skipped, and the process proceeds to step S25. That is, in this case, the matching cost Sub_Cost (x, y, d) is not calculated, and the matching cost Sub_Cost (x, y, d) is not integrated.
  • step S27 the parallax image generation unit 93 divides the integrated value of the matching cost Sub_Cost (x, y, d) by the integrated number N, and calculates the average value Cost (x, y) of the matching cost Sub_Cost (x, y, d). , d).
  • the image generation device 12 can generate a high-accuracy HDR omnidirectional image using a high-precision parallax image.
  • step S52 the transmission unit 112 transmits the display viewpoint information supplied from the designation unit 111 to the image generation device 12 in FIG.
  • step S53 the reception unit 113 determines whether transmission data has been transmitted from the image generation device 12 according to the display viewpoint information. If it is determined in step S53 that transmission data has not yet been transmitted, the reception unit 113 waits until transmission data is transmitted.
  • step S57 the display image generation unit 114 supplies the HDR omnidirectional image whose pixel value has been changed to the display unit 115 as a display image, and causes the display unit 115 to display the display image. Then, the process ends.
  • the configuration of the image processing unit 130 in FIG. 16 is that a region detection unit 131 is provided instead of the whiteout region detection unit 91 and the blackout region detection unit 92, and a parallax image generation unit 132 is used instead of the parallax image generation unit 93. Is different from the configuration of the image processing unit 73 in FIG.
  • the image processing unit 130 generates a multi-value mask instead of the binary whiteout mask or blackout mask.
  • the parallax image generation unit 132 applies the same exposure pair image in which the weight is set for each block with respect to a certain reference viewpoint to the depth direction corresponding to each parallax that is a candidate within a predetermined range. Projective transformation is performed to the position d, and an image of the reference viewpoint when the subject exists at each position d is generated. Then, the parallax image generation unit 132 obtains the matching cost Sub_Cost (x, y, d) of each block by the above-described equation (1) for each position d, similarly to the parallax image generation unit 93 of FIG. However, the matching cost Sub_Cost (x, y, d) is calculated for all blocks.
  • the parallax image generation unit 132 detects the position d when the average value Cost (x, y, d) ′ is the smallest for each block as the parallax, and generates a parallax image of the reference viewpoint.
  • the parallax image generation unit 132 supplies the parallax image of the reference viewpoint of each pair of two viewpoints to the HDR image generation unit 74 of FIG.
  • the image processing unit 130 generates a multi-value mask based on the degree of the excluded area of each image. Therefore, based on the degree of the excluded area of each image, the degree of influence of the image on the parallax image can be set more finely. As a result, a highly accurate parallax image can be generated.
  • both the whiteout area and the blackout area are excluded areas, but either one may be an excluded area.
  • An input / output interface 205 is further connected to the bus 204.
  • An input unit 206, an output unit 207, a storage unit 208, a communication unit 209, and a drive 210 are connected to the input / output interface 205.
  • the program executed by the computer 200 can be provided by being recorded in, for example, a removable medium 211 such as a package medium.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 208 via the input / output interface 205 by attaching the removable medium 211 to the drive 210.
  • the program can be received by the communication unit 209 via a wired or wireless transmission medium and installed in the storage unit 208.
  • the program can be installed in the ROM 202 or the storage unit 208 in advance.
  • the two-viewpoint pair is obtained by using an area excluding an excluded area, which is at least one of a whiteout area and a blackout area, in a multiple-exposure pair image photographed at a plurality of exposure values for each pair of two viewpoints.
  • An image generation apparatus comprising: a parallax image generation unit that generates a parallax image representing a parallax of (2) A high dynamic range image generation unit that generates a high dynamic range image of a predetermined viewpoint using the parallax image generated by the parallax image generation unit and the multiple exposure pair image; A value obtained by subtracting the minimum value of the pixel value from each pixel value of the high dynamic range image generated by the high dynamic range image generation unit, and converting the resulting number of bits into a predetermined number of bits,
  • the image generation apparatus further including: a transmission unit configured to transmit each pixel value of the high dynamic range image.
  • the image generation device according to any one of (1) to (4), wherein the multiple exposure pair images are photographed by a photographing device provided for each viewpoint and for each exposure value.
  • the multiple-exposure pair images are taken by a photographing device provided for each viewpoint,
  • the image generation device according to any one of (1) to (4), wherein the imaging devices for each pair of two viewpoints are configured to capture the multiple exposure pair images by sequentially changing exposure values. .
  • the image generation apparatus according to any one of (1) to (6), further including: an area detection unit that detects the exclusion area of the multiple exposure pair image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

本開示は、高精度の視差画像を生成することができるようにする画像生成装置および画像生成方法に関する。 視差画像生成部は、2視点のペアごとに複数の露出値で撮影された複数露出ペア画像内の、白飛び領域または黒潰れ領域の少なくとも一方の領域である除外領域を除外した領域を用いて、2視点のペアの視差を表す視差画像を生成する。本開示は、例えば、HDR全天球画像を生成する画像生成装置等に適用することができる。

Description

画像生成装置および画像生成方法
 本開示は、画像生成装置および画像生成方法に関し、特に、高精度の視差画像を生成することができるようにした画像生成装置および画像生成方法に関する。
 近年、複数視点の画像を入力とした画像処理技術の研究が進んでいる。このような画像処理技術としては、例えば、単眼カメラで視点を動かしながら広い範囲を撮影することにより得られた撮影画像を用いて1枚のパノラマ画像を生成する技術や、複眼カメラで撮影された撮影画像を用いて3次元情報の復元を行う技術などがある。
 また、1台の複眼カメラで複数の露出値で撮影された複数視点の撮影画像から、視差を用いて所定の視点のHDR(High Dynamic Range)画像を生成する技術もある(例えば、特許文献1参照)。特許文献1に記載されている技術では、複数の露出値で撮影が行われるが、視差は、同一の露出値で撮影された複数視点の撮影画像を用いたマッチングにより検出される。
特開2015-207862公報
 従って、視差の検出に用いられる撮影画像の露出値が適切ではなく、撮影画像に白飛び領域や黒潰れ領域が発生する場合、マッチング精度が劣化し、高精度で視差を検出することができない。
 本開示は、このような状況に鑑みてなされたものであり、高精度の視差画像を生成することができるようにするものである。
 本開示の一側面の画像生成装置は、2視点のペアごとに複数の露出値で撮影された複数露出ペア画像内の、白飛び領域または黒潰れ領域の少なくとも一方の領域である除外領域を除外した領域を用いて、前記2視点のペアの視差を表す視差画像を生成する視差画像生成部を備える画像生成装置である。
 本開示の一側面の画像生成方法は、本開示の一側面の画像生成装置に対応する。
 本開示の一側面においては、2視点のペアごとに複数の露出値で撮影された複数露出ペア画像内の、白飛び領域または黒潰れ領域の少なくとも一方の領域である除外領域を除外した領域を用いて、前記2視点のペアの視差を表す視差画像が生成される。
 なお、本開示の一側面の画像生成装置は、コンピュータにプログラムを実行させることにより実現することができる。
 また、本開示の一の側面の画像生成装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
 本開示の一側面によれば、高精度の視差画像を生成することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した画像表示システムの第1実施の形態の構成例を示すブロック図である。 図1の撮影装置のカメラモジュールの第1の構成例を示す図である。 図1の撮影装置のカメラモジュールの第2の構成例を示す図である。 図1の画像生成装置の構成例を示す図である。 図4の画像処理部の構成例を示すブロック図である。 白飛びマスクと黒潰れマスクの例を示す図である。 平均値Cost(x,y,d)の例を示す図である。 第1実施の形態における効果を説明する図である。 伝送データを説明する図である。 図1の画像生成装置のHDR全天球画像生成処理を説明するフローチャートである。 図10の視差画像生成処理を説明するフローチャートである。 図1の表示装置の構成例を示すブロック図である。 各表示視点のHDR全天球画像の画素値の範囲を示す図である。 表示画像の画素値の範囲を示す図である。 図12の表示装置の表示処理を説明するフローチャートである。 本開示を適用した画像表示システムの第2実施の形態における画像処理部の構成例を示すブロック図である。 マスクの例を示す図である。 コンピュータのハードウエアの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.第1実施の形態:画像表示システム(図1乃至図15)
 2.第2実施の形態:画像表示システム(図16および図17)
 3.第3実施の形態:コンピュータ(図18)
 <第1実施の形態>
 (画像表示システムの第1実施の形態の構成例)
 図1は、本開示を適用した画像表示システムの第1実施の形態の構成例を示すブロック図である。
 画像表示システム10は、撮影装置11、画像生成装置12、表示装置13により構成される。画像表示システム10は、2視点のペアごとに複数の露出値で撮影された静止画像である複数露出ペア画像を用いて、ハイダイナミックレンジの全天球画像(以下、HDR全天球画像という)を生成し、表示する。
 具体的には、画像表示システム10の撮影装置11は、各2視点のペアの複数露出ペア画像を撮影するカメラモジュールが、水平方向に360度、垂直方向に180度広がるように配置されることにより構成される。以下では、複数露出ペア画像のうちの、露出が同一である画像を同一露出ペア画像といい、視点が同一である画像を同一視点画像といい、複数露出ペア画像の各画像を特に区別する必要がない場合、その画像を単に画像という。
 撮影装置11は、各カメラモジュールにより撮影された各2視点のペアの複数露出ペア画像の各画像に対してキャリブレーションを行う。撮影装置11は、各2視点のペアの複数露出ペア画像と、各画像のキャリブレーションにより推定された、その画像を撮影するカメラの位置や姿勢、焦点距離、収差などを含むカメラパラメータとを、画像生成装置12に供給する。
 画像生成装置12は、撮影装置11から供給される複数露出ペア画像の各画像の白飛び領域および黒潰れ領域等のマッチング精度が劣化する領域を、視差の検出に用いない除外領域として検出する。画像生成装置12は、2視点のペアごとに、複数露出ペア画像の除外領域以外の領域を用いて、2視点のペアの視差を表す視差画像(被写体の奥行き方向の位置を表す奥行き情報)を生成する。このとき、画像生成装置12は、必要に応じて、カメラパラメータを参照する。
 画像生成装置12は、各2視点のペアの視差画像と各複数露出ペア画像のうちの最適な露出値の同一露出ペア画像とを用いて3次元再構成を行うことにより、水平方向に360度、垂直方向に180度広がる各表示視点のHDR画像をHDR全天球画像として生成し、記憶する。画像生成装置12は、表示装置13から送信されてくる、表示対象とするHDR全天球画像の表示視点を示す表示視点情報に基づいて、その表示視点のHDR全天球画像を読み出す。画像生成装置12は、読み出されたHDR全天球画像に基づいて、そのHDR全天球画像の伝送データを生成し、表示装置13に送信する。
 表示装置13は、画像生成装置12から送信されてくる伝送データに基づいてHDR全天球画像を表示する。また、表示装置13は、視聴者からの入力などに応じて、表示対象とするHDR全天球画像の表示視点を決定し、表示視点情報を画像生成装置12に送信する。
 (カメラモジュールの第1の構成例)
 図2は、図1の撮影装置11のカメラモジュールの第1の構成例を示す図である。
 図2の例では、複数露出ペア画像の露出値(EV)が+1.0と-1.0である。従って、図2の撮影装置11のカメラモジュール30は、水平方向に並ぶ2視点のペアの画像を露出値+1.0で撮影するカメラ31-1およびカメラ31-2と、水平方向に並ぶ2視点のペアの画像を露出値-1.0で撮影するカメラ32-1およびカメラ32-2とにより構成される。また、図2の例では、カメラ31-1とカメラ32-1、カメラ31-2とカメラ31-2は、それぞれ、垂直方向に並んで配置される。
 即ち、カメラモジュール30は、視点ごと、かつ、露出値ごとに設けられ、2(水平方向)×2(垂直方向)で配列されたカメラ31-1、カメラ31-2、カメラ32-1、およびカメラ32-2(撮影装置)により構成される。なお、以下では、カメラ31-1、カメラ31-2、カメラ32-1、およびカメラ32-2を特に区別する必要がない場合、それらをまとめてカメラ31(32)という。
 以上のように、図2のカメラモジュール30では、カメラ31(32)が、視点ごと、かつ、露出値ごとに設けられるため、複数露出ペア画像の全てを同時に撮影することが可能である。従って、カメラモジュール30は、複数露出ペア画像として、静止画像だけでなく、一定間隔で連写するタイムラプス画像や動画像を撮影する場合にも適している。
 なお、図2の例では、複数露出ペア画像の露出値の種類が2種類であるため、カメラモジュール30を構成するカメラ31(32)の数は4台であったが、カメラ31(32)の数は露出値の種類数によって異なる。例えば、複数露出ペア画像の露出値の種類が+2.0,-1.0,0.0,+1.0,+2.0の5種類である場合、カメラ31(32)の数は、10台である。複数露出ペア画像の露出値の種類が多いほど、HDR全天球画像のダイナミックレンジを高めることができる。
 また、2視点のペアのカメラ31(32)どうしは、必ずしも平行に配置される必要はない。但し、2視点のペアのカメラ31(32)どうしが平行に配置される方が、各視点の画像間で重複する領域が広くなる。後述するように、視差は、2視点のペアの複数露出ペア画像を用いたブロックマッチングにより検出されるため、2視点のペアのカメラ31(32)どうしが平行に配置される方が、高精度で視差検出可能な範囲が広くなる。
 (カメラモジュールの第2の構成例)
 図3は、図1の撮影装置11のカメラモジュールの第2の構成例を示す図である。
 図3の例では、図2の場合と同様に、複数露出ペア画像の露出値が+1.0と-1.0であるが、図3の撮影装置11のカメラモジュール50には、水平方向に並ぶ2つのカメラ51-1とカメラ51-2のみが設けられる。即ち、カメラモジュール50は、視点ごとに設けられ、2(水平方向)×1(垂直方向)で配列されたカメラ51-1とカメラ51-2(撮影装置)により構成される。なお、以下では、カメラ51-1とカメラ51-2を特に区別する必要がない場合、それらをまとめてカメラ51という。
 図30のカメラモジュール50では、各カメラ51は、露出値を+1.0と-1.0に順に変更して撮影を行う(AE(Automatic Exposure)ブラケット撮影を行う)ことにより、露出値が+1.0と-1.0である複数露出ペア画像を撮影し、この複数露出ペア画像の撮影時刻を同時刻とする。即ち、複数露出ペア画像のうちの、露出値が+1.0である同一露出ペア画像の撮影時刻と、露出値が-1.0である同一露出ペア画像の撮影時刻は実際には連続する異なる時刻であるが、同一の時刻とされる。
 カメラモジュール50は、複数露出ペア画像を同時に撮影することができないため、複数露出ペア画像として静止画像やタイムラプス画像を撮影する場合に適している。
 なお、図30のカメラモジュール50では、カメラ51が視点ごとに設けられるため、複数露出ペア画像の露出値の種類によってカメラモジュール50を構成するカメラ51の数は変化しない。例えば、複数露出ペア画像の露出値の種類が+2.0,-1.0,0.0,+1.0,+2.0の5種類である場合であっても、カメラ51の数は2台である。また、図2の場合と同様に、2視点のペアのカメラ51どうしは、必ずしも平行に配置される必要はない。
 (画像生成装置の構成例)
 図4は、図1の画像生成装置12の構成例を示す図である。
 図4の画像生成装置12は、画像取得部71、パラメータ取得部72、画像処理部73、HDR画像生成部74、記憶部75、受け取り部76、および伝送部77により構成される。
 画像生成装置12の画像取得部71は、撮影装置11から供給される各2視点のペアの複数露出ペア画像を取得し、画像処理部73に供給する。パラメータ取得部72は、撮影装置11から供給される各画像のカメラパラメータを取得し、画像処理部73に供給する。
 画像処理部73は、パラメータ取得部72から供給される各画像のカメラパラメータのうちの収差に基づいて、画像取得部71から供給される複数露出ペア画像の各画像を補正する。画像処理部73は、補正後の各画像の白飛び領域および黒潰れ領域を除外領域として検出する。画像処理部73は、2視点のペアごとに、カメラパラメータのうちのカメラの位置および姿勢並びに焦点距離と、補正後の複数露出ペア画像の除外領域以外の領域とを用いて、2視点のペアの視差画像を生成する。画像処理部73は、各2視点のペアの視差画像と各複数露出ペア画像をHDR画像生成部74に供給する。
 HDR画像生成部74は、画像処理部73から供給される、各2視点のペアの視差画像と各複数露出ペア画像のうちの最適な露出値の同一露出ペア画像とを用いて3次元再構成を行うことにより、各表示視点のHDR全天球画像を生成する。HDR画像生成部74は、各表示視点のHDR全天球画像を記憶部75に供給し、記憶させる。
 また、HDR画像生成部74は、受け取り部76から供給される表示視点情報が示す表示視点のHDR全天球画像を記憶部75から読み出し、伝送部77に供給する。
 記憶部75は、HDR画像生成部74から供給される各表示視点のHDR全天球を記憶する。受け取り部76は、図1の表示装置13から送信されてくる表示視点情報を受け取り、HDR画像生成部74に供給する。
 伝送部77は、HDR画像生成部74から供給されるHDR全天球像のビット数を伝送用のビット数に変換し、伝送用のビット数のHDR全天球画像と復元データを含む伝送データを生成する。復元データとは、伝送用のビット数のHDR全天球画像を変換前のビット数のHDR全天球画像に戻す際に用いられるメタデータである。HDR画像生成部74は、伝送データを図1の表示装置13に伝送する。
 (画像処理部の構成例)
 図5は、図4の画像処理部73の構成例を示すブロック図である。
 図5の画像処理部73は、補正部90、白飛び領域検出部91、黒潰れ領域検出部92、および視差画像生成部93により構成される。
 図4の画像取得部71から入力される各2視点のペアの複数露出ペア画像は、補正部90に入力されるとともに、図4のHDR画像生成部74に出力される。また、パラメータ取得部72から入力される各画像のカメラパラメータは、補正部90と視差画像生成部93に供給される。
 補正部90は、複数露出ペア画像の各画像のカメラパラメータのうちの収差に基づいて、その画像を補正する。補正部90は、補正後の複数露出ペア画像のうちの、露出値が0以上である同一露出ペア画像を、+EVペア画像として白飛び領域検出部91と視差画像生成部93に供給する。また、補正部90は、補正後の複数露出ペア画像のうちの、露出値EVが負である同一露出ペア画像を、-EVペア画像として白飛び領域検出部91と視差画像生成部93に供給する。
 白飛び領域検出部91は、補正部90から供給される+EVペア画像の各画像の白飛び領域を検出する。具体的には、白飛び領域検出部91は、各画像を所定のサイズのブロックに分割し、各ブロックの画素値のヒストグラムを生成する。そして、白飛び領域検出部91は、各ブロックのヒストグラムに基づいて、白飛び領域判定用の閾値より大きい画素値が多いブロックを白飛び領域として検出する。白飛び領域検出部91は、画像ごとに、白飛び領域をマスクする白飛びマスクを生成し、視差画像生成部93に供給する。
 黒潰れ領域検出部92は、補正部90から供給される-EVペア画像の各画像の黒潰れ領域を検出する。具体的には、黒潰れ領域検出部92は、各画像を所定のサイズのブロックに分割し、各ブロックの画素値のヒストグラムを生成する。そして、黒潰れ領域検出部92は、各ブロックのヒストグラムに基づいて、黒潰れ領域判定用の閾値より小さい画素値が多いブロックを黒潰れ領域として検出する。黒潰れ領域検出部92は、画像ごとに、黒潰れ領域をマスクする黒潰れマスクを生成し、視差画像生成部93に供給する。
 視差画像生成部93は、補正部90から供給される+EVペア画像の各画像に対して、その画像の白飛びマスクを用いることにより、各画像の白飛び領域を除外領域とする。また、視差画像生成部93は、補正部90から供給される-EVペア画像の各画像に対して、その画像の黒潰れマスクを用いることにより、各画像の黒潰れ領域を除外領域とする。
 視差画像生成部93は、2視点のペアごとに、例えばプレーンスイープ(Plane Sweep)法により、白飛び領域または黒潰れ領域が除外領域とされた複数露出ペア画像を用いて、2視点のペアの視差を検出し、視差画像を生成する。
 具体的には、視差画像生成部93は、ある基準視点に対して、白飛び領域または黒潰れ領域が除外領域とされた同一露出ペア画像を、所定の範囲内の候補となる各視差に対応する奥行き方向の位置dに射影変換し、被写体が各位置dに存在する場合の基準視点の画像を生成する。
 そして、視差画像生成部93は、位置dごとに、以下の式(1)により、基準視点の画像どうしのブロックマッチングを行い、各ブロックのマッチングコストを算出する。なお、候補となる視差の範囲は、カメラパラメータのうちのカメラの位置および姿勢並びに焦点距離に基づいて決定される。また、ブロックは、1以上の画素からなる。
Figure JPOXMLDOC01-appb-M000001
 なお、Sub_Cost(x,y,d)は、被写体が位置dに存在する場合の基準視点の画像内の位置(x,y)のブロックのマッチングコストである。I0(x,y,d)は、2視点のペアのうちの一方に対応する、被写体が位置dに存在する場合の基準視点の画像内の位置(x,y)のブロック(の各画素値)である。また、I1(x,y,d)は、2視点のペアのうちの他方に対応する、被写体が位置dに存在する場合の基準視点の画像内の位置(x,y)のブロック(の各画素値)である。
 式(1)によれば、マッチングコストSub_Cost(x,y,d)は、ブロックI0(x,y,d)とブロックI1(x,y,d)の絶対誤差である。なお、マッチングコストSub_Cost(x,y,d)は、ブロックI0(x,y,d)とブロックI1(x,y,d)のいずれか一方に除外領域が含まれる場合算出されない。また、マッチングコストSub_Cost(x,y,d)は、ブロックI0(x,y,d)とブロックI1(x,y,d)の二乗誤差などであってもよい。
 視差画像生成部93は、2視点のペアごとに、以下の式(2)により、算出された全ての露出値のマッチングコストSub_Cost(x,y,d)を平均化する。
Figure JPOXMLDOC01-appb-M000002
 Cost(x,y,d)は、マッチングコストSub_Cost(x,y,d)の平均値であり、Nは、算出されたマッチングコストSub_Cost(x,y,d)の数である。
 視差画像生成部93は、ブロックごとに平均値Cost(x,y,d)が最も小さい場合の位置dを視差として検出し、基準視点の視差画像を生成する。視差画像生成部93は、各2視点のペアの基準視点の視差画像を、図4のHDR画像生成部74に供給する。
 (白飛びマスクと黒潰れマスクの例)
 図6は、白飛びマスクと黒潰れマスクの例を示す図である。
 図6の例では、被写体が、人物、木、太陽であり、人物は、太陽の手前に存在する。そして、人物に適切な露出値で+EVペア画像が撮影されると太陽が白飛びし、太陽に適切な露出値で-EVペア画像が撮影されると人物が黒潰れする。
 この場合、白飛び領域検出部91は、+EVペア画像内の太陽の領域を白飛び領域として検出する。従って、白飛び領域検出部91は、+EVペア画像の各画像内の太陽の領域を除外領域(図中黒色の領域)とし、太陽以外の領域を有効領域(図中白色の領域)とする2値の白飛びマスクを生成する。
 また、黒潰れ領域検出部92は、-EVペア画像内の人物の領域を黒潰れ領域として検出する。従って、黒潰れ領域検出部92は、-EVペア画像の各画像内の人物の領域を除外領域(図中黒色の領域)とし、人物以外の領域を有効領域(図中白色の領域)とする2値の黒潰れマスクを生成する。
 (平均値Cost(x,y,d)の例)
 図7は、平均値Cost(x,y,d)の例を示す図である。
 図7のグラフにおいて、横軸は奥行き方向の位置dを表し、縦軸はマッチングコストの平均値Cost(x,y,d)を表す。また、図7の例では、複数露出ペア画像が1つの+EVペア画像と1つの-EVペア画像により構成される。
 この場合、図7のAに示すように、+EVペア画像から生成された2つの基準視点の画像の位置(x,y)のブロックと、-EVペア画像から生成された2つの基準視点の画像の位置(x,y)のブロックの全てが除外領域ではない場合、平均値Cost(x,y,d)は、図7のA中実線で示すようになる。即ち、平均値Cost(x,y,d)は、+EVペア画像と-EVペア画像のそれぞれから生成されたマッチングコストSub_Cost(x,y,d)の平均値である。
 これに対して、図7のBに示すように、+EVペア画像から生成された2つの基準視点の画像の位置(x,y)のブロックの少なくとも一方が白飛び領域である場合、+EVペア画像からマッチングコストSub_Cost(x,y,d)は生成されない。従って、平均値Cost(x,y,d)は、図7のB中実線で示す、-EVペア画像から生成されたマッチングコストSub_Cost(x,y,d)になる。
 また、図7のCに示すように、-EVペア画像から生成された2つの基準視点の画像の位置(x,y)のブロックの少なくとも一方が黒潰れ領域である場合、-EVペア画像からマッチングコストSub_Cost(x,y,d)は生成されない。従って、平均値Cost(x,y,d)は、図7のC中実線で示す、+EVペア画像から生成されたマッチングコストSub_Cost(x,y,d)になる。
 以上のように、平均値Cost(x,y,d)は、白飛び領域または黒潰れ領域以外の領域のマッチングコストSub_Cost(x,y,d)を用いて生成される。
 従って、視差画像生成部93は、+EVペア画像と-EVペア画像の両方の除外領域以外の領域であるブロックの視差を、+EVペア画像と-EVペア画像の両方を用いて精度良く検出することができる。また、視差画像生成部93は、+EVペア画像の少なくとも一方の白飛び領域であるブロックの視差を-EVペア画像のみを用いて精度良く検出することができる。さらに、視差画像生成部93は、-EVペア画像の少なくとも一方の黒潰れ領域であるブロックの視差を+EVペア画像のみを用いて精度良く検出することができる。
 (効果の説明)
 図8は、第1実施の形態における効果を説明する図である。
 図8の+EVペア画像と-EVペア画像は、図6と同一である。また、図8の例では、複数露出ペア画像が1つの+EVペア画像と1つの-EVペア画像により構成される。
 図8のAに示すように、視差画像生成部93は、+EVペア画像と-EVペア画像の除外領域以外の領域を用いて視差画像を生成する。従って、視差画像生成部93は、+EVペア画像と-EVペア画像の両方の除外領域以外の領域であるブロックの視差を、+EVペア画像と-EVペア画像の両方を用いて精度良く検出することができる。
 また、視差画像生成部93は、+EVペア画像の少なくとも一方の白飛び領域であるブロックの視差を-EVペア画像のみを用いて精度良く検出することができる。さらに、視差画像生成部93は、-EVペア画像の少なくとも一方の黒潰れ領域であるブロックの視差を+EVペア画像のみを用いて精度良く検出することができる。その結果、図8のAに示すように、白飛び領域や黒潰れ領域においても精度が劣化しない視差画像を生成することができる。
 これに対して、図8のBの左側に示すように、+EVペア画像のみから視差画像が生成される場合、基準視点の画像内の白飛び領域である太陽の領域のマッチングの精度が劣化するため、太陽の領域の視差画像の精度が劣化する。また、図8のBの右側に示すように、-EVペア画像のみから視差画像が生成される場合、基準視点の画像内の黒潰れ領域である人物の領域のマッチングの精度が劣化するため、人物の領域の視差画像の精度が劣化する。
 (伝送データの説明)
 図9は、伝送データを説明する図である。
 図9のグラフにおいて、横軸は、表示視点の位置を表し、縦軸は、記憶部75に保持されている各表示視点のHDR全天球画像の使用ビットである保持ビット、または、伝送データに含まれる各表示視点のHDR全天球画像の使用ビットでる伝送ビットを表す。
 また、図9の例では、記憶部75に保持されている各表示視点のHDR全天球画像の保持用のビット数は256ビットであり、伝送データに含まれる各表示視点のHDR全天球画像の伝送用のビット数は8ビットである。
 表示視点のHDR全天球画像の保持用のビット数を伝送用のビット数に変換する場合、一般的には、表示視点のHDR全天球画像の保持用のビット数が、伝送用のビット数/保持用のビット数倍(図9の例では8/256(=1/32)倍)される。
 これにより、例えば、図9のAに示すように、保持ビットが0ビットから256ビットまでの範囲である表示視点V1のHDR全天球画像の伝送ビットは、図9のBに示すように、0ビットから8ビットまでの範囲になる。また、図9のAに示すように、保持ビットが0ビットから64ビットまでの範囲である表示視点V2のHDR全天球画像の伝送ビットは、図9のBに示すように、0ビットから2ビットまでの範囲になる。
 さらに、図9のAに示すように、保持ビットが192ビットから256ビットまでの範囲である表示視点V3のHDR全天球画像の伝送ビットは、図9のBに示すように、6ビットから8ビットまでの範囲になる。
 これに対して、伝送部77は、保持用のビット数の表示視点のHDR全天球画像の各画素値から画素値の最小値を減算し、その結果得られる差分のビット数を伝送用のビット数に変換することにより、表示視点のHDR全天球画像の保持用のビット数を伝送用のビット数に変換する。
 例えば、伝送部77は、図9のAに示すように、保持ビットが0ビットから256ビットまでの範囲である表示視点V1のHDR全天球画像の各画素値から画素値の最小値である0を減算する。そして、伝送部77は、図9のCに示すように、その結果得られる256ビットの差分のビット数を8/256(=1/32)倍して8ビットにした値を、伝送用のビット数の表示視点V1のHDR全天球画像の画素値とする。
 また、伝送部77は、図9のAに示すように、保持ビットが0ビットから64ビットまでの範囲である表示視点V2のHDR全天球画像の各画素値から画素値の最小値である0を減算する。そして、伝送部77は、図9のCに示すように、その結果得られる64ビットの差分のビット数を64/256(=1/8)倍して8ビットにした値を、伝送用のビット数の表示視点V2のHDR全天球画像の画素値とする。
 さらに、伝送部77は、図9のAに示すように、保持ビットが192ビットから256ビットまでの範囲である表示視点V3のHDR全天球画像の各画素値から画素値の最小値である2192-1を減算する。そして、伝送部77は、図9のCに示すように、その結果得られる64ビットの差分のビット数を64/256(=1/8)倍して8ビットにした値を、伝送用のビット数の表示視点V3のHDR全天球画像の画素値とする。
 以上のように、伝送部77は、HDR全天球画像の画素値そのものではなく、画素値の最小値との差分のビット数を伝送用のビット数に変換する。従って、HDR全天球画像の保持ビットが保持用のビット数より小さい場合、HDR全天球画像の画素値そのもののビット数を変換する場合に比べて、伝送による階調の減少を抑制することができる。即ち、表示視点V2や表示視点V3では、HDR全天球画像の画素値そのもののビット数を変換する場合階調は1/32倍になるが、画素値の最小値との差分のビット数を伝送用のビット数に変換する場合、階調は1/8倍になる。
 また、以上のようにして生成された8ビットのHDR全天球画像のビット数を元の256ビットに戻すためには、ビット数変換前のHDR全天球画像の画素値の範囲が必要である。従って、伝送部77は、8ビットのHDR全天球画像とともに、ビット数変換前のHDR全天球画像の画素値の範囲を復元データとして含めて伝送データを生成し、表示装置13に伝送する。
 なお、復元データは、ビット数変換前のHDR全天球画像の画素値の範囲を示す情報であれば、範囲そのものでなくてもよい。例えば、保持用のビット数を何分割したときの下から何分割目(例えば、表示視点V2の場合4分割したときの下から1分割目)であることを示す情報であってもよい。また、HDR全天球画像の画素値から減算される画素値の最小値は、そのHDR全天球画像を含む所定の範囲の表示視点のHDR全天球画像の画素値の最小値であってもよい。この場合、復元データは、所定の範囲の表示視点のHDR全天球画像の伝送ごとに伝送されてもよい。
 (画像生成装置の処理の説明)
 図10は、図1の画像生成装置12のHDR全天球画像生成処理を説明するフローチャートである。このHDR全天球画像生成処理は、例えば、図1の撮影装置11から各2視点のペアの複数露出ペア画像と各画像のカメラパラメータが供給されたとき、開始される。
 図10のステップS11において、画像生成装置12の画像取得部71は、撮影装置11から供給される各2視点のペアの複数露出ペア画像を取得する。画像取得部71は、取得された複数露出ペア画像を画像処理部73に供給するとともに、画像処理部73を介してHDR画像生成部74に供給する。ステップS12において、パラメータ取得部72は、撮影装置11から供給される各画像のカメラパラメータを取得し、画像処理部73に供給する。
 ステップS13において、画像処理部73の補正部90は、パラメータ取得部72から供給される各画像のカメラパラメータのうちの収差に基づいて、画像取得部71から供給される複数露出ペア画像の各画像を補正する。補正部90は、補正後の複数露出ペア画像のうちの+EVペア画像を白飛び領域検出部91と視差画像生成部93に供給し、-EVペア画像を白飛び領域検出部91と視差画像生成部93に供給する。
 ステップS14において、白飛び領域検出部91は、補正部90から供給される+EVペア画像の各画像の白飛び領域を検出して白飛びマスクを生成し、視差画像生成部93に供給する。ステップS15において、黒潰れ領域検出部92は、補正部90から供給される-EVペア画像の各画像の黒潰れ領域を検出して黒潰れマスクを生成し、視差画像生成部93に供給する。
 ステップS16において、視差画像生成部93は、補正部90から供給される+EVペア画像の各画像に対して、その画像の白飛びマスクを用いることにより、各画像の白飛び領域を除外領域とする。ステップS17において、視差画像生成部93は、補正部90から供給される-EVペア画像の各画像に対して、その画像の黒潰れマスクを用いることにより、各画像の黒潰れ領域を除外領域とする。
 ステップS18において、視差画像生成部93は、各2視点のペアの基準視点の視差画像を生成する視差画像生成処理を行う。この視差画像生成処理の詳細は、後述する図11を参照して説明する。
 ステップS19において、HDR画像生成部74は、画像処理部73から供給される、各2視点のペアの基準視点の視差画像と各複数露出ペア画像のうちの最適な露出値の同一露出ペア画像とを用いて3次元再構成を行うことにより、各表示視点のHDR全天球画像を生成する。HDR画像生成部74は、各表示視点のHDR全天球画像を記憶部75に供給し、記憶させる。
 図11は、図10のステップS18の視差画像生成処理を説明するフローチャートである。
 図11のステップS20において、視差画像生成部93は、まだ処理対象として設定されていない2視点のペアを処理対象とし、マッチングコストSub_Cost(x,y,d)の積算数Nを0に設定する。また、視差画像生成部93は、奥行き方向の位置dを、候補とする視差の範囲に対応する位置dの範囲の最小値dminに設定し、基準視点の画像上のブロックの位置(x,y)を、まだ設定されていない位置に設定する。さらに、視差画像生成部93は、露出値の種類が、処理対象の2視点のペアの複数露出ペア画像の露出値の種類のうちの何番目の種類であるかを示すeを1に設定する。
 ステップS21において、視差画像生成部93は、ある基準視点に対して、処理対象の2視点のペアのe番目の露出値の同一露出ペア画像の各画像を奥行き方向の位置dに射影変換して得られる基準視点の画像の位置(x,y)のブロックの少なくとも一方が除外領域であるかどうかを判定する。
 ステップS21で両方の基準視点の画像の位置(x,y)のブロックが除外領域ではないと判定された場合、処理はステップS22に進む。ステップS22において、視差画像生成部93は、上述した式(1)により、基準視点の画像の位置(x,y)のブロックからマッチングコストSub_Cost(x,y,d)を算出する。
 ステップS23において、視差画像生成部93は、ステップS21で算出されたマッチングコストSub_Cost(x,y,d)を、保持しているマッチングコストSub_Cost(x,y,d)の積算値に積算し、その結果得られる積算値を保持する。なお、マッチングコストSub_Cost(x,y,d)の積算値がまだ保持されていない場合には、ステップS21で算出されたマッチングコストSub_Cost(x,y,d)をそのまま保持する。
 ステップS24において、視差画像生成部93は、積算数Nを1だけインクリメントし、処理をステップS25に進める。
 一方、ステップS21で少なくとも一方の基準視点の画像の位置(x,y)のブロックが除外領域であると判定された場合、ステップS22乃至S24の処理はスキップされ、処理はステップS25に進む。即ち、この場合、マッチングコストSub_Cost(x,y,d)は算出されず、マッチングコストSub_Cost(x,y,d)の積算は行われない。
 ステップS25において、eが、処理対象の2視点のペアの複数露出ペア画像の露出値の種類数E以上であるかどうかを判定する。ステップS25でeが種類数E以上ではないと判定された場合、ステップS26において、視差画像生成部93は、eを1だけインクリメントする。そして、処理はステップS21に戻り、eが種類数E以上となるまで、ステップS21乃至S26の処理が繰り返される。
 一方、ステップS26でeが種類数E以上であると判定された場合、即ち、両方の基準視点の画像の位置(x,y)のブロックが除外領域とならない全ての露出値のマッチングコストSub_Cost(x,y,d)が積算された場合、処理はステップS27に進む。
 ステップS27において、視差画像生成部93は、マッチングコストSub_Cost(x,y,d)の積算値を積算数Nで除算し、マッチングコストSub_Cost(x,y,d)の平均値Cost(x,y,d)を算出する。
 ステップS28において、視差画像生成部93は、奥行き方向の位置dが、候補とする視差の範囲に対応する位置dの範囲の最大値dmax以上であるかどうかを判定する。ステップS28で位置dが最大値dmax以上ではないと判定された場合、処理はステップS29に進む。
 ステップS29において、視差画像生成部93は、奥行き方向の位置dを1だけインクリメントし、処理をステップS21に戻す。そして、奥行き方向の位置dが最大値dmaxになるまで、ステップS21乃至S29の処理が繰り返される。
 一方、ステップS28で位置dが最大値dmax以上であると判定された場合、処理はステップS30に進む。ステップS30において、視差画像生成部93は、各位置dの位置(x,y)のブロックの平均値Cost(x,y,d)のうちの、平均値Cost(x,y,d)が最小となる位置dを、位置(x,y)の視差として検出する。
 ステップS31において、視差画像生成部93は、基準視点の画像内の全てのブロックの位置を位置(x,y)に設定したかどうかを判定する。ステップS31でまだ基準視点の画像内の全てのブロックの位置を位置(x,y)に設定していないと判定された場合、処理はステップS20に戻る。そして、基準視点の画像内の全てのブロックの位置を位置(x,y)に設定するまで、ステップS20乃至S31の処理が繰り返される。
 ステップS31で基準視点の画像内の全てのブロックの位置を位置(x,y)に設定したと判定された場合、処理はステップS32に進む。
 ステップS32において、視差画像生成部93は、全ての2視点のペアの視差画像を生成したかどうかを判定する。ステップS32で全ての2視点のペアの視差画像を生成していないと判定された場合、処理はステップS20に戻り、全ての2視点のペアの視差画像が生成されるまで、ステップS20乃至S32の処理が繰り返される。
 一方、ステップS32で全ての2視点のペアの視差画像を生成したと判定された場合、処理は図10のステップS18に戻り、ステップS19に進む。
 以上のように、画像生成装置12は、複数露出ペア画像の除外領域を除外した領域を用いて視差画像を生成する。従って、画像生成装置12は、+EVペア画像と-EVペア画像の除外領域以外の領域では、+EVペア画像と-EVペア画像の両方を用いて視差画像を生成することができる。よって、+EVペア画像と-EVペア画像のいずれか一方を用いて視差画像を生成する場合に比べて、視差画像の精度を向上させることができる。
 また、画像生成装置12は、+EVペア画像の少なくとも一方の白飛び領域では、-EVペア画像のみを用いて高精度の視差画像を生成することができる。さらに、画像生成装置12は、-EVペア画像の少なくとも一方の黒潰れ領域では、+EVペア画像のみを用いて高精度の視差画像を生成することができる。第1実施の形態のように、撮影装置11が、水平方向に360度、垂直方向に180度広がる視点の画像を撮影する場合、いずれかの視点の画像が光源を含むため、白飛び領域などにおいても高精度の視差画像を生成可能にすることは、特に有用である。
 さらに、画像生成装置12は、高精度の視差画像を用いて高精度のHDR全天球画像を生成することができる。
 (表示装置の構成例)
 図12は、図1の表示装置13の構成例を示すブロック図である。
 撮影装置11の表示装置13は、指定部111、伝送部112、受け取り部113、表示画像生成部114、および表示部115により構成される。
 表示装置13の指定部111は、視聴者による表示視点の変更の指令(最初の表示視点の指定も含む)を受け付け、その表示視点の表示視点情報を生成する。指定部111は、表示視点情報を伝送部112と表示画像生成部114に供給する。伝送部112は、指定部111から供給される表示視点情報を図1の画像生成装置12に送信する。受け取り部113は、図1の画像生成装置12から送信されてくる伝送データを受け取り、表示画像生成部114に供給する。
 表示画像生成部114は、受け取り部113から供給される伝送データに含まれる復元データに基づいて、HDR全天球画像の伝送用のビット数を保持用のビット数に変換する。表示画像生成部114は、指定部111から供給される表示視点情報が示す変更後の表示視点のビット数変換後のHDR全天球画像の画素値の範囲が、変更前の表示視点のビット数変換後のHDR全天球画像の画素値の範囲から段階的に移行するように、変更後の表示視点のビット数変換後のHDR全天球画像の画素値を変更する。表示画像生成部114は、画素値が変更されたHDR全天球画像を表示画像として表示部115に供給する。
 表示部115は、表示画像生成部114から供給される表示画像を表示する。
 なお、図12の例では、表示部115が表示可能な画像のビット数が保持用のビット数であるため、表示画像生成部114は、HDR全天球画像の伝送用のビット数を保持用のビット数に変換したが、表示部115が表示可能な画像のビット数が伝送用のビット数である場合、表示画像生成部114は、変換を行わない。
 (表示画像の説明)
 図13は、表示画像生成部114によるビット数変換後の各表示視点のHDR全天球画像の画素値の範囲を示す図であり、図14は、図13が画素値の範囲を示す各表示視点のHDR全天球画像から生成された表示画像の画素値の範囲を示す図である。
 図13の上段は、下段のグラフの横軸が表す各表示視点のビット数変換後のHDR全天球画像を示している。図13の下段は、ビット数変換後の各表示視点のHDR全天球画像の画素値の範囲を示すグラフである。図13の下段のグラフにおいて、横軸は表示視点を表し、縦軸は各表示視点のHDR全天球画像の画素値を表す。また、図14のグラフにおいて、横軸は表示時刻を表し、縦軸は、各表示時刻の表示画像の画素値を表す。
 図13の例では、ビット数変換後の表示視点V11のHDR全天球画像の画素値の最小値と最大値の範囲は、範囲D1である。また、ビット数変換後の表示視点V12のHDR全天球画像の画素値の最小値と最大値の範囲は、範囲D2である。
 この場合、図14に示すように、表示時刻t2において、表示視点情報が示す表示視点が表示視点V11から表示視点V12に変更されるとき、表示時刻t2の表示画像は、ビット数変換後の表示視点V12のHDR全天球画像から生成されるが、画素値の最小値と最大値の範囲は、ビット数変換後の表示視点V11のHDR全天球画像の範囲D1にされる。そして、表示時刻t2から表示時刻t3までの間に、表示画像の画素値の最小値と最大値の範囲は、ビット数変換後の表示視点V11のHDR全天球画像の範囲D1から、ビット数変換後の表示視点V12のHDR全天球画像の範囲D2へ段階的に移行される。
 従って、表示時刻t2において、表示画像の画素値の最小値と最大値の範囲が、範囲D1から範囲D2に急激に変化する場合に比べて、視聴者は、眼を徐々に範囲D2に順応させることができる。表示画像が全天球画像である場合、表示視点によって画素値の最小値と最大値の範囲が大きく異なる場合があるため、このことは特に有用である。
 表示画像の画素値の最小値と最大値の範囲の移行時間は、視聴者により設定されてもよいし、予め設定されていてもよい。また、表示視点の変更前と変更後で画素値の範囲の変更が大きい場合にのみ、表示画像の画素値の範囲を段階的に移行させるようにしてもよい。
 (表示装置の処理の説明)
 図15は、図12の表示装置13の表示処理を説明するフローチャートである。この表示処理は、例えば、視聴者により表示視点の変更の指令が行われたとき、開始される。
 図15のステップS51において、表示装置13の指定部111は、視聴者による表示視点の変更の指令を受け付け、その表示視点の表示視点情報を生成する。指定部111は、表示視点情報を伝送部112と表示画像生成部114に供給する。
 ステップS52において、伝送部112は、指定部111から供給される表示視点情報を図1の画像生成装置12に送信する。ステップS53において、受け取り部113は、表示視点情報に応じて画像生成装置12から伝送データが送信されてきたかどうかを判定する。ステップS53でまだ伝送データが送信されてきていないと判定された場合、受け取り部113は、伝送データが送信されてくるまで待機する。
 一方、ステップS53で伝送データが送信されてきたと判定された場合、受け取り部113は、送信されてきた伝送データを受け取り、表示画像生成部114に供給する。ステップS55において、表示画像生成部114は、受け取り部113から供給される伝送データに含まれる復元データに基づいて、HDR全天球画像の伝送用のビット数を保持用のビット数に変換する。
 ステップS56において、表示画像生成部114は、指定部111から供給される表示視点情報が示す変更後の表示視点のビット数変換後のHDR全天球画像の画素値の範囲が、変更前の表示視点のHDR全天球画像の画素値の範囲から段階的に移行するように、変更後の表示視点のビット数変換後のHDR全天球画像の画素値を変更する。
 ステップS57において、表示画像生成部114は、画素値が変更されたHDR全天球画像を表示画像として表示部115に供給し、表示画像を表示部115に表示させる。そして、処理は終了する。
 <第2実施の形態>
 (画像表示システムの第2実施の形態における画像処理部の構成例)
 本開示を適用した画像表示システムの第2実施の形態の構成は、画像処理部を除いて、図1の画像表示システム10の構成と同様である。従って、以下では、画像処理部についてのみ説明する。
 図16は、本開示を適用した画像表示システムの第2実施の形態における画像処理部の構成例を示すブロック図である。
 図16に示す構成のうち、図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図16の画像処理部130の構成は、白飛び領域検出部91と黒潰れ領域検出部92の代わりに領域検出部131が設けられる点、および視差画像生成部93の代わりに視差画像生成部132が設けられる点が、図5の画像処理部73の構成と異なる。画像処理部130は、2値の白飛びマスクまたは黒潰れマスクの代わりに、多値のマスクを生成する。
 具体的には、画像処理部130の領域検出部131には、補正部90から+EVペア画像と-EVペア画像の両方が供給される。領域検出部131は、+EVペア画像と-EVペア画像の各画像の各ブロックの除外領域の度合を表す値を算出する。
 より詳細には、領域検出部131は、画像を所定のサイズのブロックに分割し、各ブロックの画素値のヒストグラムを生成する。そして、領域検出部131は、ブロックごとに、ヒストグラムに基づいて、例えば、白飛び領域判定用の閾値より大きい画素値、または、黒潰れ領域判定用の閾値より小さい画素値が多いほど大きくなるように、除外領域の度合を表す値を算出する。領域検出部131は、各ブロックの除外領域の度合を表す値をマスク値とするマスクを生成する。マスク値は、0から1までの範囲の多値であり、除外領域の度合が大きいほど大きい。
 視差画像生成部132は、領域検出部131から供給される+EVペア画像と-EVペア画像の各画像に対して、その画像のマスクを用いることにより、以下の式(3)により各画像の各ブロックに対して重みweightを設定する。
Figure JPOXMLDOC01-appb-M000003
 M(x,y)は、画像内の位置(x,y)のブロックのマスク値である。式(3)によれば、重みは、必ず、1より大きい値となる。
 視差画像生成部132は、2視点のペアごとに、例えばプレーンスイープ法により、複数露出ペア画像の各ブロックを、そのブロックに対して設定された重みで用いて、2視点のペアの視差を検出し、視差画像を生成する。
 具体的には、視差画像生成部132は、ある基準視点に対して、各ブロックに対して重みが設定された同一露出ペア画像を、所定の範囲内の候補となる各視差に対応する奥行き方向の位置dに射影変換し、被写体が各位置dに存在する場合の基準視点の画像を生成する。そして、視差画像生成部132は、図5の視差画像生成部93と同様に、位置dごとに、上述した式(1)により、各ブロックのマッチングコストSub_Cost(x,y,d)を得る。但し、マッチングコストSub_Cost(x,y,d)は、全てのブロックについて算出される。
 視差画像生成部132は、2視点のペアごとに、以下の式(3)により、算出された全ての露出値のマッチングコストSub_Cost(x,y,d)を重み付け加算し、重み付け加算値の平均値Cost(x,y,d)´を求める。
Figure JPOXMLDOC01-appb-M000004
 Lは、複数露出ペア画像の露出値の種類数である。また、weight´は、マッチングコストSub_Cost(x,y,d)の算出に用いられたブロックI0(x,y,d)とブロックI1(x,y,d)の射影変換前のブロックの重みに基づいて決定される重みである。
 視差画像生成部132は、ブロックごとに平均値Cost(x,y,d)´が最も小さい場合の位置dを視差として検出し、基準視点の視差画像を生成する。視差画像生成部132は、各2視点のペアの基準視点の視差画像を、図4のHDR画像生成部74に供給する。
 (マスクの例)
 図17は、図16の領域検出部131により生成されるマスクの例を示す図である。
 図17の例では、被写体が、人物、木、太陽であり、人物は、太陽の手前に存在する。そして、太陽に適切な露出値で-EVペア画像が撮影されると人物が黒潰れする。この場合、例えば、-EVペア画像のうちの1つの画像内の人物の内側の領域、人物の外側の領域、木の領域、その他の領域の除外領域の度合は、順に小さくなる。従って、領域検出部131は、-EVペア画像のうちの1つの画像内の人物の内側の領域、人物の外側の領域、木の領域、その他の領域のマスク値が順に小さくなるマスクを生成する。なお、図17では、マスク値を色の濃淡で表しており、色が濃いほどマスク値は大きい。
 図16の画像処理部130のHDR全天球画像生成処理は、白飛びマスクと黒潰れマスクがマスクに代わる点、および、視差画像生成処理を除いて、図10のHDR全天球画像生成処理と同一である。
 また、画像処理部130の視差画像生成処理は、除外領域であるかどうかの判定が行われない点、および、平均値Cost(x,y,d)の代わりに平均値Cost(x,y,d)´が算出される点を除いて、図11の視差画像処理と同一である。
 以上のように、画像処理部130は、各画像の除外領域の度合に基づいて多値のマスクを生成する。従って、各画像の除外領域の度合に基づいて、その画像の視差画像への影響度合をより細かく設定することができる。その結果、高精度の視差画像を生成することができる。
 なお、第1および第2実施の形態では、白飛び領域と黒潰れ領域の両方を除外領域としたが、いずれか一方を除外領域とするようにしてもよい。
 また、第1および第2実施の形態では、カメラモジュールが水平方向に360度、垂直方向に180度広がるように配置されるようにしたが、水平方向にのみ360度広がるように(円周状に並べて)配置されるようにしてもよい。この場合、視差画像と複数露出ペア画像を用いて、水平方向に360度広がる全天周画像が生成される。
 さらに、第1および第2実施の形態では、各表示視点のHDR全天球画像が予め記憶されず、表示視点情報が受け取られたときに、その表示視点情報が示す表示視点のHDR全天球画像のみが生成されるようにしてもよい。
 また、複数露出ペア画像は動画像であってもよい。各同一露出ペア画像に対応する2視点のペアの位置は異なっていてもよい。
 さらに、第1および第2実施の形態では、表示装置13が表示画像を生成したが、画像生成装置12が表示画像を生成し、表示装置13に送信するようにしてもよい。
 <第3実施の形態>
 (本開示を適用したコンピュータの説明)
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
 バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
 入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
 以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ200では、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
 なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本開示は、以下のような構成もとることができる。
 (1)
 2視点のペアごとに複数の露出値で撮影された複数露出ペア画像内の、白飛び領域または黒潰れ領域の少なくとも一方の領域である除外領域を除外した領域を用いて、前記2視点のペアの視差を表す視差画像を生成する視差画像生成部
 を備える画像生成装置。
 (2)
 前記視差画像生成部により生成された前記視差画像と前記複数露出ペア画像とを用いて、所定の視点のハイダイナミックレンジ画像を生成するハイダイナミックレンジ画像生成部と、
 前記ハイダイナミックレンジ画像生成部により生成された前記ハイダイナミックレンジ画像の各画素値から前記画素値の最小値を減算し、その結果得られる差分のビット数を所定のビット数に変換した値を、前記ハイダイナミックレンジ画像の各画素値として伝送する伝送部と
 をさらに備える
 前記(1)に記載の画像生成装置。
 (3)
 前記伝送部は、前記ハイダイナミックレンジ画像生成部により生成された前記ハイダイナミックレンジ画像の画素値の範囲を示す情報を伝送する
 ように構成された
 前記(2)に記載の画像生成装置。
 (4)
 前記視差画像生成部により生成された前記視差画像と前記複数露出ペア画像とを用いて、所定の視点のハイダイナミックレンジ画像を生成するハイダイナミックレンジ画像生成部
 をさらに備え、
 前記ハイダイナミックレンジ画像生成部により生成された前記ハイダイナミックレンジ画像を表示する表示装置は、表示する前記ハイダイナミックレンジ画像の視点を変更する場合、変更後の視点の前記ハイダイナミックレンジ画像の画素値の範囲を、変更前の視点の前記ハイダイナミックレンジ画像の画素値の範囲から段階的に移行する
 ように構成された
 前記(1)に記載の画像生成装置。
 (5)
 前記複数露出ペア画像は、前記視点ごと、かつ、露出値ごとに設けられた撮影装置により撮影される
 ように構成された
 前記(1)乃至(4)のいずれかに記載の画像生成装置。
 (6)
 前記複数露出ペア画像は、前記視点ごとに設けられた撮影装置により撮影され、
 各2視点のペアの前記撮影装置は、露出値を順に変更することにより、前記複数露出ペア画像を撮影する
 ように構成された
 前記(1)乃至(4)のいずれかに記載の画像生成装置。
 (7)
 前記複数露出ペア画像の前記除外領域を検出する領域検出部
 をさらに備える
 前記(1)乃至(6)のいずれかに記載の画像生成装置。
 (8)
 前記視差画像生成部は、前記複数露出ペア画像の各領域を、その領域が除外領域である度合に応じた重みで用いて、前記視差画像を生成する
 ように構成された
 前記(1)乃至(7)のいずれかに記載の画像生成装置。
 (9)
 画像生成装置が、
 2視点のペアごとに複数の露出値で撮影された複数露出ペア画像内の、白飛び領域または黒潰れ領域の少なくとも一方の領域である除外領域を除外した領域を用いて、前記2視点のペアの視差を表す視差画像を生成する視差画像生成ステップと
 を含む画像生成方法。
 12 画像生成装置, 13 表示装置, 31-1,31-2,32-1,32-2,51-1,51-2 カメラ, 74 HDR画像生成部, 77 伝送部, 91 白飛び領域検出部, 92 黒潰れ領域検出部, 93 視差画像生成部, 131 領域検出部, 132 視差画像生成部

Claims (9)

  1.  2視点のペアごとに複数の露出値で撮影された複数露出ペア画像内の、白飛び領域または黒潰れ領域の少なくとも一方の領域である除外領域を除外した領域を用いて、前記2視点のペアの視差を表す視差画像を生成する視差画像生成部
     を備える画像生成装置。
  2.  前記視差画像生成部により生成された前記視差画像と前記複数露出ペア画像とを用いて、所定の視点のハイダイナミックレンジ画像を生成するハイダイナミックレンジ画像生成部と、
     前記ハイダイナミックレンジ画像生成部により生成された前記ハイダイナミックレンジ画像の各画素値から前記画素値の最小値を減算し、その結果得られる差分のビット数を所定のビット数に変換した値を、前記ハイダイナミックレンジ画像の各画素値として伝送する伝送部と
     をさらに備える
     請求項1に記載の画像生成装置。
  3.  前記伝送部は、前記ハイダイナミックレンジ画像生成部により生成された前記ハイダイナミックレンジ画像の画素値の範囲を示す情報を伝送する
     ように構成された
     請求項2に記載の画像生成装置。
  4.  前記視差画像生成部により生成された前記視差画像と前記複数露出ペア画像とを用いて、所定の視点のハイダイナミックレンジ画像を生成するハイダイナミックレンジ画像生成部
     をさらに備え、
     前記ハイダイナミックレンジ画像生成部により生成された前記ハイダイナミックレンジ画像を表示する表示装置は、表示する前記ハイダイナミックレンジ画像の視点を変更する場合、変更後の視点の前記ハイダイナミックレンジ画像の画素値の範囲を、変更前の視点の前記ハイダイナミックレンジ画像の画素値の範囲から段階的に移行する
     ように構成された
     請求項1に記載の画像生成装置。
  5.  前記複数露出ペア画像は、前記視点ごと、かつ、露出値ごとに設けられた撮影装置により撮影される
     ように構成された
     請求項1に記載の画像生成装置。
  6.  前記複数露出ペア画像は、前記視点ごとに設けられた撮影装置により撮影され、
     各2視点のペアの前記撮影装置は、露出値を順に変更することにより、前記複数露出ペア画像を撮影する
     ように構成された
     請求項1に記載の画像生成装置。
  7.  前記複数露出ペア画像の前記除外領域を検出する領域検出部
     をさらに備える
     請求項1に記載の画像生成装置。
  8.  前記視差画像生成部は、前記複数露出ペア画像の各領域を、その領域が除外領域である度合に応じた重みで用いて、前記視差画像を生成する
     ように構成された
     請求項1に記載の画像生成装置。
  9.  画像生成装置が、
     2視点のペアごとに複数の露出値で撮影された複数露出ペア画像内の、白飛び領域または黒潰れ領域の少なくとも一方の領域である除外領域を除外した領域を用いて、前記2視点のペアの視差を表す視差画像を生成する視差画像生成ステップと
     を含む画像生成方法。
PCT/JP2017/020396 2016-06-15 2017-06-01 画像生成装置および画像生成方法 WO2017217241A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/307,046 US20190230334A1 (en) 2016-06-15 2017-06-01 Image producing apparatus and image producing method
JP2018523643A JP6881450B2 (ja) 2016-06-15 2017-06-01 画像生成装置および画像生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016118578 2016-06-15
JP2016-118578 2016-06-15

Publications (1)

Publication Number Publication Date
WO2017217241A1 true WO2017217241A1 (ja) 2017-12-21

Family

ID=60664471

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020396 WO2017217241A1 (ja) 2016-06-15 2017-06-01 画像生成装置および画像生成方法

Country Status (3)

Country Link
US (1) US20190230334A1 (ja)
JP (1) JP6881450B2 (ja)
WO (1) WO2017217241A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042727A (ja) * 2018-09-13 2020-03-19 キヤノン株式会社 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
JP2020197989A (ja) * 2019-06-04 2020-12-10 キヤノン株式会社 画像処理システム、情報処理装置、画像処理方法、およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037778A1 (ja) * 2016-08-26 2018-03-01 オリンパス株式会社 計測処理装置
US11257237B2 (en) 2019-08-29 2022-02-22 Microsoft Technology Licensing, Llc Optimized exposure control for improved depth mapping
WO2021120107A1 (en) * 2019-12-19 2021-06-24 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method of generating captured image and electrical device
CN117897724A (zh) * 2021-09-18 2024-04-16 上海西门子医疗器械有限公司 X射线图像的显示方法、系统、x射线机及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006214735A (ja) * 2005-02-01 2006-08-17 Viewplus Inc 複合ステレオビジョン装置
JP2008113070A (ja) * 2006-10-27 2008-05-15 Sony Corp 撮像装置および撮像方法
JP2011254170A (ja) * 2010-05-31 2011-12-15 Panasonic Corp 撮像装置および撮像方法
JP2016008847A (ja) * 2014-06-23 2016-01-18 株式会社日本自動車部品総合研究所 測距補正装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018617A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 撮像装置
JP6555863B2 (ja) * 2013-12-25 2019-08-07 キヤノン株式会社 撮像装置及び撮像装置の制御方法
US9598011B2 (en) * 2014-01-09 2017-03-21 Northrop Grumman Systems Corporation Artificial vision system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006214735A (ja) * 2005-02-01 2006-08-17 Viewplus Inc 複合ステレオビジョン装置
JP2008113070A (ja) * 2006-10-27 2008-05-15 Sony Corp 撮像装置および撮像方法
JP2011254170A (ja) * 2010-05-31 2011-12-15 Panasonic Corp 撮像装置および撮像方法
JP2016008847A (ja) * 2014-06-23 2016-01-18 株式会社日本自動車部品総合研究所 測距補正装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042727A (ja) * 2018-09-13 2020-03-19 キヤノン株式会社 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
JP7241492B2 (ja) 2018-09-13 2023-03-17 キヤノン株式会社 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
JP2020197989A (ja) * 2019-06-04 2020-12-10 キヤノン株式会社 画像処理システム、情報処理装置、画像処理方法、およびプログラム
JP7391542B2 (ja) 2019-06-04 2023-12-05 キヤノン株式会社 画像処理システム、画像処理方法、およびプログラム
US11838674B2 (en) 2019-06-04 2023-12-05 Canon Kabushiki Kaisha Image processing system, image processing method and storage medium

Also Published As

Publication number Publication date
JP6881450B2 (ja) 2021-06-02
JPWO2017217241A1 (ja) 2019-04-11
US20190230334A1 (en) 2019-07-25

Similar Documents

Publication Publication Date Title
WO2017217241A1 (ja) 画像生成装置および画像生成方法
US8508619B2 (en) High dynamic range image generating apparatus and method
JP6116272B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
US8817121B2 (en) Image apparatus and imaging method
EP2988488B1 (en) Image processing apparatus, image processing apparatus control method, image pickup apparatus, and image pickup apparatus control method
JP2022501982A (ja) ニューラルネットワークを使用した写真の露出不足補正
US9699387B2 (en) Image processing device for processing pupil-divided images obtained through different pupil regions of an imaging optical system, control method thereof, and program
KR20090087638A (ko) 컬러 영상과 깊이 영상을 매칭하는 방법 및 장치
US20190204073A1 (en) Distance information processing apparatus, imaging apparatus, distance information processing method and program
TW201312472A (zh) 用於提供一影像之估計之信號雜訊比平均值之方法及攝影機
WO2011132416A1 (ja) 撮像装置及び画像復元方法
KR101667798B1 (ko) 영상 처리 장치 및 이의 영상 처리 방법
JP2018195079A (ja) 画像処理装置および画像処理方法
JP2017011327A (ja) 画像処理装置、画像処理方法及びプログラム
JP6867645B2 (ja) 画像処理装置、方法、及びプログラム
KR101519622B1 (ko) 영상 정합 장치 및 영상 정합 방법
JPWO2018216500A1 (ja) 画像処理装置および方法
JP2013128212A (ja) 画像処理装置および撮像装置並びにその方法
US11967096B2 (en) Methods and apparatuses of depth estimation from focus information
JP2017229025A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017085337A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2017050662A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2017068513A (ja) 画像処理装置及びその方法、プログラム、記憶媒体
JP6554009B2 (ja) 画像処理装置、その制御方法、プログラム及び記録媒体
CN112565588B (zh) 图像处理设备、图像处理方法和存储介质

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018523643

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17813143

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17813143

Country of ref document: EP

Kind code of ref document: A1