WO2012095914A1 - 立体画像処理装置、立体画像処理方法およびプログラム - Google Patents

立体画像処理装置、立体画像処理方法およびプログラム Download PDF

Info

Publication number
WO2012095914A1
WO2012095914A1 PCT/JP2011/006202 JP2011006202W WO2012095914A1 WO 2012095914 A1 WO2012095914 A1 WO 2012095914A1 JP 2011006202 W JP2011006202 W JP 2011006202W WO 2012095914 A1 WO2012095914 A1 WO 2012095914A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewpoint
signal
image
value
image signal
Prior art date
Application number
PCT/JP2011/006202
Other languages
English (en)
French (fr)
Inventor
山下 春生
井東 武志
弘道 小野
桑原 康浩
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012552540A priority Critical patent/JP5909704B2/ja
Publication of WO2012095914A1 publication Critical patent/WO2012095914A1/ja
Priority to US13/929,798 priority patent/US9064331B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Definitions

  • the present invention relates to a technique for improving the quality of a stereoscopic image (three-dimensional stereoscopic image), a camera (imaging device) that performs stereoscopic imaging, a display device that displays a stereoscopic image (stereoscopic image), and a stereoscopic image (stereoscopic image).
  • the present invention relates to a technology that can be applied to a wide range of devices that handle stereoscopic images (stereoscopic images), such as image processing apparatuses that process images.
  • a stereoscopic display device In order to reproduce a stereoscopic image by displaying the stereoscopic image (the image for the left eye and the image for the right eye) on a display device (hereinafter referred to as “stereoscopic display device”) that can be independently projected to the left and right eyes.
  • a stereoscopic imaging device that captures a stereoscopic image (a left-eye image and a right-eye image) in the presence of binocular parallax is known.
  • a stereoscopic image (left-eye image and right-eye image) acquired in a state where a distant view (distant subject) or a foreground (subject subject) has a large parallax, It becomes an image that exceeds the image limit and is difficult to stereoscopically view, or an image that causes a person who is viewing the stereoscopic image to feel tired (a tired image).
  • SB adjustment parallax adjustment or stereo base adjustment
  • the parallax adjustment is a technique used mainly when the distant view (distant subject) exceeds the fusion limit, and stereoscopically adjusts the disparity so that the distance to the distant view (distant subject) is compressed nonlinearly. It is possible to obtain a stereoscopic image (stereoscopic image that is easy to view stereoscopically) that is easy to see when stereoscopically viewing a distant view (distant subject) that is difficult to see.
  • the stereo base adjustment is performed by, for example, reducing the stereo base (base line length) by reducing the distance between two cameras (the left-eye image capturing camera and the right-eye image capturing camera). ), A technique to be executed, and the dynamic range of parallax can be reduced by performing stereo base adjustment.
  • stereoscopic imaging is performed to obtain a stereoscopic image in which the whole from the foreground (the subject in the foreground) to the far background (the subject in the background) falls within the fusion zone. Can do.
  • the stereoscopic image displayed on the display device having a small size is an easily viewable stereoscopic image.
  • stereoscopic imaging by taking full advantage of the above-described imaging techniques (parallax adjustment, stereo base adjustment), a stereoscopic image that is a sufficiently easy-to-view image (stereoscopic image that can be easily viewed stereoscopically) is captured when stereoscopic display is performed in a predetermined display environment. (For example, refer to Patent Document 1).
  • the parallax is reduced from the original value by reducing the desired parallax in consideration of the fusion limit of stereoscopic vision (so that the subject that is the subject of stereoscopic imaging falls within the fusion zone of stereoscopic vision).
  • a stereoscopic image that is easy to view (a stereoscopic image that is easy to view stereoscopically) is acquired, which is not desirable from the viewpoint of the naturalness of the stereoscopic effect and perspective in the stereoscopic image. Therefore, a stereoscopic image acquired by the above-described conventional technique (a technique based on parallax adjustment or stereo base adjustment) has a problem regarding the quality of the stereoscopic image.
  • the perspective is generally reduced in the acquired stereoscopic image (the farthest from the nearest point (the position of the subject imaged at the closest position when the stereoscopic image is displayed)). Since the distance to the point (the position of the subject imaged at the farthest position when a stereoscopic image is displayed) is reduced), a phenomenon occurs in which the stereoscopic effect of each subject is reduced. Therefore, when the above-described conventional technology is used, in any case, the acquired stereoscopic image tends to be a low-quality image with poor stereoscopic effect and perspective.
  • the present invention provides a three-dimensional image processing apparatus, a three-dimensional image processing method, and a program capable of obtaining a high-quality three-dimensional image by giving a natural three-dimensional image to an image with a small three-dimensional image taken with a small amount of parallax It aims at realizing.
  • a first invention is a stereoscopic image processing device that performs image correction processing on a first viewpoint image and a second viewpoint image included in a stereoscopic image by a two-lens method or a multi-viewpoint method, and a depth acquisition unit And an image correction unit.
  • the depth acquisition unit acquires a subject distance that is distance information in a three-dimensional space for the subject included in the first viewpoint image and the second viewpoint image.
  • the image correction unit is an image correction unit that performs a shadow enhancement process for performing gradation conversion of a target pixel as a processing target for each of the first viewpoint image and the second viewpoint image, and the subject of the target pixel Based on the distance, the process enhancement degree of the shadow enhancement process is adjusted.
  • this stereoscopic image processing apparatus it is possible to adjust the processing enhancement degree of the shadow enhancement processing based on the subject distance of the target pixel.
  • this stereoscopic image processing apparatus (1) shadows can be emphasized for subjects in the foreground with a high probability that the difference in brightness is caused by shadows, and (2) the difference in brightness is caused by shadows. It is possible to appropriately prevent the shadows from being emphasized more than necessary for a distant subject with a low probability of occurrence.
  • a high-quality stereoscopic image can be obtained by imparting a natural stereoscopic effect to an image with a poor stereoscopic effect captured with a small amount of parallax.
  • the “distance information in the three-dimensional space” is, for example, the first viewpoint (for example, when acquiring the left-eye image) when it is assumed that the first viewpoint image or the second viewpoint image is stereoscopically shot.
  • a left eye viewpoint) or a second viewpoint for example, a right eye viewpoint when a right eye image is acquired in a three-dimensional space and a pixel on the first viewpoint image.
  • the depth acquisition unit may acquire distance information in a three-dimensional space about the subject included in the first viewpoint image and the second viewpoint image from the outside.
  • the 2nd invention is 1st invention, Comprising:
  • the image correction part WHEREIN The pixel value of the attention pixel which is a process target with respect to each of the image for 1st viewpoints, and the image for 2nd viewpoints, and the said attention pixel of the said attention pixel
  • the shadow enhancement processing is performed by performing the local shadow enhancement processing that performs gradation conversion of the pixel of interest, and the subject distance of the pixel of interest
  • the processing enhancement degree of the shadow enhancement processing is adjusted based on Accordingly, in this stereoscopic image processing apparatus, the “shading enhancement processing” is set as “local shadow enhancement processing”, and the processing enhancement degree of the shadow enhancement processing can be adjusted based on the subject distance of the target pixel.
  • the “local shadow enhancement process” refers to a process of locally adjusting a shadow or the like according to the image feature amount of the target pixel and its surrounding pixels. As an example of “local shadow enhancement processing”, there is
  • the “local contrast conversion process” is based on the relationship between the pixel value “A” of the target pixel and the representative pixel value “B” of the surrounding pixels (for example, the average value or the weighted average value of the pixel values of the surrounding pixels). This refers to processing for adjusting the contrast (local contrast) of a local region on an image.
  • the third invention is the first or second invention, wherein the image correction unit has a process enhancement degree of the shadow enhancement process for a pixel with a small subject distance and a process enhancement degree of the shadow enhancement process for a pixel with a large subject distance. Adjust to be larger than As a result, in this stereoscopic image processing apparatus, it is possible to execute a shadow enhancement process with a higher process enhancement degree for a pixel with a short subject distance, and (1) there is a high probability that a difference in brightness is caused by the shadow. It is possible to emphasize shadows on subjects in the foreground, and (2) it is appropriate that shadows are emphasized more than necessary for subjects in the foreground where the difference in brightness is low due to shadows. Can be prevented. Therefore, in this stereoscopic image processing apparatus, a high-quality stereoscopic image can be obtained by imparting a natural stereoscopic effect to an image with a poor stereoscopic effect captured with a small amount of parallax.
  • the image correction part is, (1) As the subject distance of the target pixel is smaller, a shadow enhancement process with a higher process enhancement degree of the shadow enhancement process is performed on the target pixel. (2) As the subject distance of the target pixel is larger, the shadow enhancement process with a smaller process enhancement degree of the shadow enhancement process is performed on the target pixel.
  • (1) shadows can be emphasized for subjects in the foreground with a high probability that a difference in brightness is caused by shadows, and (2) the difference in brightness is caused by shadows. It is possible to appropriately prevent the shadows from being emphasized more than necessary for a distant subject with a low probability of occurrence. Therefore, in this stereoscopic image processing apparatus, a high-quality stereoscopic image can be obtained by imparting a natural stereoscopic effect to an image with a poor stereoscopic effect captured with a small amount of parallax.
  • the image correction part is, (1) As the difference between the subject distance of the target pixel and the subject distance of the peripheral pixels of the target pixel is smaller, a shadow enhancement process with a higher processing enhancement degree is performed on the target pixel. (2) As the difference between the subject distance of the target pixel and the subject distances of the peripheral pixels of the target pixel increases, a shadow enhancement process with a lower processing enhancement degree is performed on the target pixel.
  • this stereoscopic image processing apparatus it is possible to perform strong shadow enhancement processing in an image region in which the difference between the subject distance of the target pixel and the subject distances of the peripheral pixels of the target pixel is small. That is, in this stereoscopic image processing apparatus, it is possible to appropriately perform the shadow enhancement process without being affected by the image area that is the vicinity image area of the target pixel and has a large difference in subject distance.
  • 3D image. 6th invention is 1st or 2nd invention, Comprising: An image correction part correct
  • 3D image. 7th invention is 2nd invention, Comprising: An image correction part is provided with the image correction part for 1st viewpoint images, and the image correction part for 2nd viewpoint images.
  • the first viewpoint image correction unit includes a first viewpoint local gradation conversion unit, a first viewpoint intensity generation unit, and a first viewpoint synthesis unit.
  • the second viewpoint image correction unit includes a second viewpoint local gradation conversion unit, a second viewpoint intensity generation unit, and a second viewpoint synthesis unit.
  • the first viewpoint local gradation conversion unit performs local shadow enhancement processing on the first viewpoint image signal IS_R to obtain a first viewpoint converted image signal OS_R.
  • the first viewpoint intensity generation unit generates the processing enhancement degree of the local shadow enhancement process based on the depth value that is the subject distance of the pixel corresponding to the first viewpoint image signal IS_R acquired by the depth acquisition unit. .
  • the first viewpoint synthesizing unit synthesizes the first viewpoint image signal IS_R and the first viewpoint converted image signal OS_R based on the processing enhancement degree generated by the first viewpoint intensity generating unit, thereby generating the first viewpoint.
  • the viewpoint output image signal Rout is acquired.
  • the degree of synthesis of the first viewpoint converted image signal OS_R increases as the subject distance of the pixel corresponding to the first viewpoint image signal IS_R decreases. Then, the first viewpoint image signal IS_R and the first viewpoint converted image signal OS_R are synthesized. (2) The larger the subject distance of the pixel corresponding to the first viewpoint image signal IS_R, the larger the first viewpoint converted image.
  • the first viewpoint image signal IS_R and the first viewpoint converted image signal OS_R are synthesized such that the degree of synthesis of the signal OS_R is reduced.
  • the second viewpoint local gradation conversion unit performs local shadow enhancement processing on the second viewpoint image IS_L to obtain a second viewpoint converted image OS_L.
  • the second viewpoint intensity generation unit generates the processing enhancement degree of the local shadow enhancement process based on the depth value that is the subject distance of the pixel corresponding to the second viewpoint image IS_L acquired by the depth acquisition unit.
  • the second viewpoint synthesizing unit synthesizes the second viewpoint image signal IS_L and the second viewpoint converted image signal OS_L based on the processing enhancement degree generated by the second viewpoint intensity generating unit, thereby generating the second viewpoint.
  • the viewpoint output image signal Lout is acquired. (1)
  • the degree of synthesis of the second viewpoint converted image signal OS_L increases as the subject distance of the pixel corresponding to the second viewpoint image signal IS_L decreases.
  • the second viewpoint image signal IS_L and the second viewpoint converted image signal OS_L are combined.
  • the second viewpoint image signal IS_L and the second viewpoint converted image signal OS_L are synthesized so that the degree of synthesis of the signal OS_L is reduced.
  • the eighth invention is any one of the first to seventh inventions, wherein the shadow enhancement processing is contrast enhancement processing.
  • contrast can be enhanced for a subject in the foreground with a high probability that a difference in brightness is caused by a shadow, and (2) a difference in brightness is caused by a shadow. It is possible to appropriately prevent the contrast from being emphasized more than necessary for a distant subject with a low probability of occurrence.
  • a ninth invention is any one of the first to seventh inventions, and the shadow enhancement processing is local contrast enhancement processing by visual processing.
  • the shadow enhancement processing is local contrast enhancement processing by visual processing.
  • a tenth aspect of the invention is any one of the first to seventh aspects of the invention, and the shadow enhancement process is a process for darkening a shadow.
  • the shadow enhancement process is a process for darkening a shadow.
  • the eleventh aspect of the present invention is the tenth aspect of the present invention, wherein the first viewpoint local gradation conversion unit includes: a first viewpoint ambient brightness detection unit; and a first viewpoint second dynamic gradation correction unit.
  • the second viewpoint local gradation conversion section includes a second viewpoint ambient brightness detection section and a second viewpoint second dynamic gradation correction section.
  • the first viewpoint ambient brightness detection unit detects a representative brightness value of a target pixel corresponding to the first viewpoint image signal IS_R and pixels around the target pixel, and outputs the detected representative brightness value as a signal.
  • the first viewpoint ambient brightness signal US_R is output as a value.
  • the first viewpoint second dynamic gradation correction unit performs dynamic gradation correction processing based on the first viewpoint image signal IS_R and the first viewpoint ambient brightness signal US_R, thereby correcting the first viewpoint.
  • An image signal OS_R is acquired.
  • dynamic gradation correction processing (1) When (the value of the first viewpoint image signal IS_R) ⁇ (the value of the first viewpoint ambient lightness signal US_R), the first viewpoint image within the predetermined input range of the first viewpoint image signal IS_R.
  • gradation conversion is performed by gradation conversion characteristics in which the value of the corrected first viewpoint image signal OS_R decreases as the value of the first viewpoint ambient brightness signal US_R increases.
  • the corrected first viewpoint image signal OS_R is acquired, (2) When (value of the first viewpoint image signal IS_R)> (value of the first viewpoint ambient brightness signal US_R), the first viewpoint image signal IS_R is set as the corrected first viewpoint image signal OS_R. Thus, the corrected first viewpoint image signal OS_R is acquired.
  • the ambient lightness detection unit for the second viewpoint detects lightness values of the target pixel corresponding to the second viewpoint image signal IS_L and pixels around the target pixel, and uses the detected brightness value as a signal value.
  • the second viewpoint ambient brightness signal US_L is output.
  • the second viewpoint second dynamic gradation correction unit performs dynamic gradation correction processing based on the second viewpoint image signal IS_L and the second viewpoint ambient brightness signal US_L, thereby correcting the second viewpoint.
  • An image signal OS_L is acquired.
  • dynamic gradation correction processing (1) When (the value of the second viewpoint image signal IS_L) ⁇ (the value of the second viewpoint ambient brightness signal US_L), the second viewpoint image within the predetermined input range of the second viewpoint image signal IS_L.
  • gradation conversion is performed by gradation conversion characteristics in which the value of the corrected second viewpoint image signal OS_L decreases as the value of the second viewpoint ambient brightness signal US_L increases.
  • the corrected second viewpoint image signal OS_L is acquired, (2)
  • the second viewpoint image signal IS_L is set as the corrected second viewpoint image signal OS_L.
  • the corrected second viewpoint image signal OS_L is acquired.
  • the first viewpoint second dynamic gradation correction unit performs local processing only when (value of the first viewpoint image signal IS_R) ⁇ (value of the first viewpoint ambient brightness signal US_R).
  • a process of enhancing contrast is executed (the process for the second viewpoint image is the same as the process for the first viewpoint image). That is, in this stereoscopic image processing apparatus, the process of enhancing the local contrast is executed for the pixels darker than the surroundings, so that the shadow component of the image can be selectively enhanced.
  • this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • a twelfth aspect of the invention is the tenth aspect of the invention, wherein the first viewpoint local gradation conversion unit includes: a first viewpoint second ambient lightness detection unit; and a first viewpoint dynamic gradation correction unit.
  • the second viewpoint local gradation conversion section includes a second viewpoint second ambient lightness detection section and a second viewpoint dynamic gradation correction section.
  • the second ambient brightness detection unit for the first viewpoint detects the representative brightness value of the target pixel that is a pixel corresponding to the first viewpoint image signal IS_R and pixels around the target pixel, and the detected representative brightness value Is obtained as a signal value, and the first viewpoint offset value ⁇ US_R, which becomes a larger value as the change in the first viewpoint image signal IS_R becomes more severe in a predetermined image region, is obtained.
  • the first viewpoint corrected ambient brightness signal US_R ′ is obtained by adding the first viewpoint offset value ⁇ US_R to the first viewpoint ambient brightness signal US_R.
  • the first viewpoint dynamic gradation correction unit performs dynamic gradation correction processing based on the first viewpoint image signal IS_R and the first viewpoint corrected ambient lightness signal US_R ′, thereby correcting the first viewpoint.
  • An image signal OS_R is acquired.
  • the dynamic gradation correction process when the value of the first viewpoint image signal IS_R is fixed to a predetermined value in the predetermined input range of the first viewpoint image signal IS_R, the first viewpoint corrected ambient lightness signal is obtained.
  • the corrected first viewpoint image signal OS_R is obtained by performing the gradation conversion process with the gradation conversion characteristic in which the value of the corrected first viewpoint image signal OS_R decreases as the value of US_R ′ increases.
  • the second ambient second brightness detection unit detects a brightness value between a target pixel corresponding to the second viewpoint image signal IS_L and pixels around the target pixel, and outputs the detected brightness value as a signal.
  • the second viewpoint ambient lightness signal US_L is acquired, and the second viewpoint offset value ⁇ US_L, which becomes a larger value as the change in the second viewpoint image signal IS_L becomes more severe in a predetermined image region, is obtained.
  • the second viewpoint corrected ambient brightness signal US_L ′ is obtained by adding the second viewpoint offset value ⁇ US_L to the two viewpoint ambient brightness signal US_L.
  • the second viewpoint dynamic gradation correction unit performs dynamic gradation correction processing based on the second viewpoint image signal IS_L and the second viewpoint corrected ambient lightness signal US_L ′, thereby correcting the second viewpoint.
  • An image signal OS_L is acquired.
  • the dynamic gradation correction processing is performed when the second viewpoint image signal IS_L is fixed to a predetermined value in a predetermined input range of the second viewpoint image signal IS_L, and the second viewpoint correction ambient lightness signal is set.
  • the corrected second viewpoint image signal OS_L is obtained by performing the gradation conversion process with the gradation conversion characteristic in which the value of the corrected second viewpoint image signal OS_L decreases as the value of US_L ′ increases.
  • the first eye viewpoint second ambient lightness detection unit calculates the right eye offset value ⁇ US_R that becomes a larger value as the change in the first viewpoint image signal IS_R becomes more severe.
  • the offset value ⁇ US_R for use is added to obtain the first viewpoint corrected ambient brightness signal US_R ′.
  • gradation conversion processing is executed using the first viewpoint corrected ambient lightness signal US_R ′ instead of the ambient lightness signal US_R, for example, with the gradation conversion characteristics shown in FIG. The As a result, in this stereoscopic image processing apparatus, a stronger local contrast enhancement process is executed for pixels darker than the periphery.
  • this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • the process for the second viewpoint is the same as the process for the first viewpoint.
  • the larger the change in the first viewpoint image signal IS_R, the larger the value means, for example, that the change in the signal value of the first viewpoint image signal IS_R in a predetermined range is relative to the average value in the predetermined range. For example, when the variance value or standard deviation value of the signal value of the first viewpoint image signal IS_R within a predetermined range is large, “change in the first viewpoint image signal IS_R” is determined. Is intense. "
  • the thirteenth invention is the tenth invention, wherein the first viewpoint local gradation conversion section includes a first viewpoint second ambient lightness detection section, and a first viewpoint coefficient calculation processing section,
  • the second viewpoint local gradation conversion unit includes a second viewpoint second ambient lightness detection unit and a second viewpoint coefficient calculation processing unit.
  • the first viewpoint second ambient lightness detection unit detects a lightness value between a target pixel corresponding to the first viewpoint image signal IS_R and a pixel around the target pixel, and outputs the detected lightness value as a signal.
  • the first viewpoint ambient brightness signal US_R is acquired, and the first viewpoint offset value ⁇ US_R, which becomes a larger value as the change in the first viewpoint image signal IS_R becomes more severe in a predetermined image region, is obtained.
  • the first viewpoint corrected ambient brightness signal US_R ′ is obtained by adding the first viewpoint offset value ⁇ US_R to the one viewpoint ambient brightness signal US_R.
  • the first viewpoint coefficient calculation processing unit decreases the value as the difference ((IS_R) ⁇ (US_R ′)) between the first viewpoint image signal IS_R and the first viewpoint corrected ambient lightness signal US_R ′ increases. Is determined, and the determined coefficient k is used.
  • OS_R IS_R + k ⁇ ((IS_R) ⁇ (US_R ′))
  • the corrected first viewpoint image signal OS_R is acquired.
  • the second ambient second brightness detection unit detects a representative brightness value between a target pixel corresponding to the second viewpoint image signal IS_L and a pixel around the target pixel, and detects the detected representative brightness value.
  • the second viewpoint ambient brightness signal US_L is obtained, and the second viewpoint offset value ⁇ US_L, which becomes a larger value as the change in the second viewpoint image signal IS_L becomes more severe in a predetermined image area, is obtained.
  • the second viewpoint corrected ambient brightness signal US_L ′ is obtained by adding the second viewpoint offset value ⁇ US_L to the second viewpoint ambient brightness signal US_L.
  • the first viewpoint coefficient calculation processing unit has a value of a difference ((IS_R) ⁇ (US_R ′)) between the first viewpoint image signal IS_R and the first viewpoint corrected ambient lightness signal US_R ′.
  • the larger the value the smaller the coefficient k is determined.
  • OS_R IS_R + k ⁇ ((IS_R) ⁇ (US_R ′))
  • OS_R IS_R + k ⁇ ((IS_R) ⁇ (US_R ′))
  • this stereoscopic image processing apparatus the processing is executed so that the unsharp masking enhancement degree is increased for the pixels in the darker part of the periphery, so that the shadow component of the image can be selectively enhanced.
  • this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • the coefficient k that decreases as the difference ((IS_R) ⁇ (US_R ′)) increases is determined ”(the same applies to the difference ((IS_L) ⁇ (US_L ′))).
  • the relationship between the coefficient k and the difference value ((IS_R) ⁇ (US_R ′)) includes not only a monotonous case but also a case where the relationship changes stepwise (for example, the dotted line in FIG. 19).
  • the 14th invention is 10th invention, Comprising:
  • the 1st viewpoint local gradation conversion part is provided with the 1st viewpoint 2nd ambient lightness detection part, and the 1st viewpoint coefficient arithmetic processing part
  • the second viewpoint local gradation conversion unit includes a second viewpoint second ambient lightness detection unit and a second viewpoint coefficient calculation processing unit.
  • the second ambient brightness detection unit for the first viewpoint detects the representative brightness value of the target pixel that is a pixel corresponding to the first viewpoint image signal IS_R and pixels around the target pixel, and the detected representative brightness value Is obtained as a signal value, and the first viewpoint offset value ⁇ US_R, which becomes a larger value as the change in the first viewpoint image signal IS_R becomes more severe in a predetermined image region, is obtained.
  • the first viewpoint corrected ambient brightness signal US_R ′ is obtained by adding the first viewpoint offset value ⁇ US_R to the first viewpoint ambient brightness signal US_R.
  • the first viewpoint coefficient calculation processing unit reduces the value as the difference ((IS_R) ⁇ (US_R ′)) between the first viewpoint image signal IS_R and the first viewpoint corrected ambient lightness signal US_R ′ increases.
  • the coefficient p (p: 0 ⁇ p ⁇ 1) is set, (K + p) ⁇ (IS_R ⁇ US_R ′)
  • the signal LPF ((k + p) ⁇ (IS_R ⁇ US_R ′)) is acquired by performing the band limiting process on the signal acquired by the above, and the acquired signal LPF ((k + p) ⁇ (IS_R ⁇ US_R ′))
  • OS_R IS_R ⁇ p ⁇ (IS_R ⁇ US_R ′) + LPF ((k + p) ⁇ (IS_R ⁇ US_R ′))
  • OS_R IS_R ⁇ p ⁇ (IS_R ⁇ US_R ′) + LPF ((k + p) ⁇ (IS_R ⁇ US
  • the second ambient second brightness detection unit detects a brightness value between a target pixel corresponding to the second viewpoint image signal IS_L and pixels around the target pixel, and outputs the detected brightness value as a signal.
  • the second viewpoint ambient lightness signal US_L is acquired, and the second viewpoint offset value ⁇ US_L, which becomes a larger value as the change in the second viewpoint image signal IS_L becomes more severe in a predetermined image region, is obtained.
  • the second viewpoint corrected ambient brightness signal US_L ′ is obtained by adding the second viewpoint offset value ⁇ US_L to the two viewpoint ambient brightness signal US_L.
  • the second viewpoint coefficient calculation processing unit decreases the value as the difference ((IS_L) ⁇ (US_L ′)) between the second viewpoint image signal IS_L and the second viewpoint corrected ambient lightness signal US_L ′ increases.
  • the coefficient p (p: 0 ⁇ p ⁇ 1) is set, (K + p) ⁇ (IS_L ⁇ US_L ′)
  • OS_L IS_L ⁇ p ⁇ (IS_L ⁇ US_L ′) + LPF ((k + p) ⁇ (IS_L
  • the first viewpoint coefficient calculation processing unit OS_R IS_R ⁇ p ⁇ (IS_R ⁇ US_R ′) + LPF ((k + p) ⁇ (IS_R ⁇ US_R ′))
  • the corrected first viewpoint image signal OS_R is acquired by a process corresponding to.
  • the process for the second viewpoint is the same as the process for the first viewpoint.
  • this stereoscopic image processing apparatus it is possible to selectively emphasize the shadow portion while appropriately blurring the shadow portion.
  • this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • the image correction part is provided with the image correction part for 1st viewpoint images, and the image correction part for 2nd viewpoint images.
  • the first viewpoint image correction unit includes a first viewpoint depth ambient lightness detection unit and a first viewpoint dynamic gradation correction unit.
  • the second viewpoint image correction unit includes a second viewpoint depth ambient lightness detection unit and a second viewpoint dynamic gradation correction unit.
  • the first viewpoint depth ambient brightness detection unit obtains the difference between the subject distance of the target pixel that is the pixel corresponding to the first viewpoint image signal IS_R acquired by the depth acquisition unit and the subject distance of the peripheral pixel of the target pixel.
  • the first viewpoint dynamic gradation correction unit performs local shadow enhancement processing that performs gradation conversion of the target pixel based on the relationship between the first viewpoint image signal IS_R and the first viewpoint ambient brightness signal US_R.
  • the first viewpoint output image signal Rout is obtained.
  • the second viewpoint depth ambient brightness detection unit obtains the difference between the subject distance of the target pixel that is the pixel corresponding to the second viewpoint image signal IS_L acquired by the depth acquisition unit and the subject distance of the peripheral pixel of the target pixel.
  • the second viewpoint dynamic gradation correction unit performs local shadow enhancement processing that performs gradation conversion of the pixel of interest based on the relationship between the second viewpoint image signal IS_L and the second viewpoint ambient brightness signal US_L.
  • the second viewpoint output image signal Lout is obtained.
  • the shadow enhancement processing is one of (1) contrast enhancement processing, (2) local contrast enhancement processing by visual processing, and (3) processing for darkening shadows.
  • This stereoscopic image processing apparatus it is possible to perform strong shadow enhancement processing in an image region in which the difference between the subject distance of the target pixel and the subject distances of the peripheral pixels of the target pixel is small. That is, in this stereoscopic image processing apparatus, it is possible to appropriately perform the shadow enhancement process without being affected by the image area that is the vicinity image area of the target pixel and has a large difference in subject distance.
  • this stereoscopic image processing apparatus for example, it is appropriate that, on a stereoscopic image, shadow enhancement is performed on the image area that forms the main subject due to the influence of the brightness of the background having different distances (subject distance). Can be avoided.
  • this stereoscopic image processing apparatus it is possible to realize shadow enhancement centered on the difference in brightness due to the shadow, and as a result, natural shadow enhancement is realized in the stereoscopic image acquired by this stereoscopic image processing apparatus. 3D image.
  • the sixteenth invention is the second invention, and the image correction unit includes a first viewpoint image correction unit and a second viewpoint image correction unit.
  • the first viewpoint image correction unit includes a first viewpoint depth ambient lightness detection unit and a first viewpoint second dynamic gradation correction unit.
  • the second viewpoint image correction unit includes a second viewpoint depth ambient lightness detection unit and a second viewpoint second dynamic gradation correction unit.
  • the first viewpoint depth ambient brightness detection unit obtains the difference between the subject distance of the target pixel, which is the pixel corresponding to the first viewpoint image signal IS_R, acquired by the depth acquisition unit, and the subject distance of the peripheral pixels of the target pixel.
  • the weighted average value is calculated by increasing the weight as the difference from the subject distance of the surrounding pixels is smaller.
  • the first viewpoint second dynamic gradation correction unit performs dynamic gradation correction processing based on the first viewpoint image signal IS_R and the first viewpoint ambient brightness signal US_R, thereby correcting the first viewpoint.
  • An image signal OS_R is acquired.
  • dynamic gradation correction processing (1) When (the value of the first viewpoint image signal IS_R) ⁇ (the value of the first viewpoint ambient lightness signal US_R), the first viewpoint image within the predetermined input range of the first viewpoint image signal IS_R.
  • gradation conversion is performed by gradation conversion characteristics in which the value of the corrected first viewpoint image signal OS_R decreases as the value of the first viewpoint ambient brightness signal US_R increases.
  • the corrected first viewpoint image signal OS_R is acquired, (2) When (value of the first viewpoint image signal IS_R)> (value of the first viewpoint ambient brightness signal US_R), the first viewpoint image signal IS_R is set as the corrected first viewpoint image signal OS_R. Thus, the corrected first viewpoint image signal OS_R is acquired.
  • the second viewpoint depth ambient brightness detection unit obtains the difference between the subject distance of the target pixel that is the pixel corresponding to the second viewpoint image signal IS_L acquired by the depth acquisition unit and the subject distance of the peripheral pixel of the target pixel.
  • the second viewpoint second dynamic gradation correction unit performs dynamic gradation correction processing based on the second viewpoint image signal IS_L and the second viewpoint ambient brightness signal US_L, thereby correcting the second viewpoint.
  • An image signal OS_L is acquired.
  • the first viewpoint second dynamic gradation correction unit performs local processing only when (value of the first viewpoint image signal IS_R) ⁇ (value of the first viewpoint ambient brightness signal US_R).
  • a process of enhancing contrast is executed (the process for the second viewpoint image is the same as the process for the first viewpoint image). That is, in this stereoscopic image processing apparatus, the process of enhancing the local contrast is executed for the pixels darker than the surroundings, so that the shadow component of the image can be selectively enhanced.
  • this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • the first viewpoint depth ambient brightness detection unit obtains the first weighted average value based on the difference between the subject distance of the target pixel and the subject distance of the peripheral pixels of the target pixel. Processing using the viewpoint ambient brightness signal US_R is executed.
  • the seventeenth invention is the second invention, wherein the image correction unit includes a first viewpoint image correction unit and a second viewpoint image correction unit.
  • the first viewpoint image correction unit includes a first viewpoint second depth ambient lightness detection unit and a first viewpoint dynamic gradation correction unit.
  • the second viewpoint image correction unit includes a second viewpoint second depth ambient lightness detection unit and a second viewpoint dynamic gradation correction unit.
  • the second depth ambient brightness detection unit for the first viewpoint is (1)
  • the weighting is increased as the difference between the subject distance of the target pixel that is the pixel corresponding to the first viewpoint image signal IS_R acquired by the depth acquisition unit and the subject distance of the peripheral pixels of the target pixel is smaller.
  • the first viewpoint ambient brightness signal US_R is acquired, (2) In a predetermined image region, the first viewpoint offset value ⁇ US_R, which becomes a larger value as the change in the first viewpoint image signal IS_R becomes more severe, is acquired, and the first viewpoint ambient brightness signal US_R is included in the first viewpoint.
  • the offset value ⁇ US_R is added for use, a first viewpoint corrected ambient lightness signal US_R ′ is acquired.
  • the first viewpoint dynamic gradation correction unit performs dynamic gradation correction processing based on the first viewpoint image signal IS_R and the first viewpoint corrected ambient lightness signal US_R ′, thereby correcting the first viewpoint.
  • An image signal OS_R is acquired.
  • the dynamic gradation correction process when the value of the first viewpoint image signal IS_R is fixed to a predetermined value in the predetermined input range of the first viewpoint image signal IS_R, the first viewpoint corrected ambient lightness signal is obtained.
  • the corrected first viewpoint image signal OS_R is obtained by performing the gradation conversion process with the gradation conversion characteristic in which the value of the corrected first viewpoint image signal OS_R decreases as the value of US_R ′ increases.
  • the second depth ambient brightness detection unit for the second viewpoint is (1)
  • the weighting is increased as the difference between the subject distance of the target pixel that is the pixel corresponding to the second viewpoint image signal IS_L acquired by the depth acquisition unit and the subject distance of the peripheral pixels of the target pixel is smaller.
  • the second viewpoint ambient brightness signal US_L is acquired, (2)
  • the second viewpoint offset value ⁇ US_L which becomes a larger value as the change in the second viewpoint image signal IS_L becomes more severe, is acquired, and the second viewpoint viewpoint brightness value US_L is obtained.
  • a corrected ambient lightness signal US_L ′ for the second viewpoint is acquired.
  • the second viewpoint dynamic gradation correction unit performs dynamic gradation correction processing based on the second viewpoint image signal IS_L and the second viewpoint corrected ambient lightness signal US_L ′, thereby correcting the second viewpoint.
  • An image signal OS_L is acquired.
  • the dynamic gradation correction processing is performed when the second viewpoint image signal IS_L is fixed to a predetermined value in a predetermined input range of the second viewpoint image signal IS_L, and the second viewpoint correction ambient lightness signal is set.
  • the corrected second viewpoint image signal OS_L is obtained by performing the gradation conversion process with the gradation conversion characteristic in which the value of the corrected second viewpoint image signal OS_L decreases as the value of US_L ′ increases.
  • the first viewpoint second depth ambient brightness detection unit calculates the right eye offset value ⁇ US_R, which becomes a larger value as the change in the first viewpoint image signal IS_R becomes more severe.
  • the viewpoint offset value ⁇ US_R is added to obtain the first viewpoint corrected ambient lightness signal US_R ′.
  • gradation conversion processing is executed using the first viewpoint corrected ambient lightness signal US_R ′ instead of the ambient lightness signal US_R, for example, with the gradation conversion characteristics shown in FIG. The As a result, in this stereoscopic image processing apparatus, a stronger local contrast enhancement process is executed for pixels darker than the periphery.
  • this stereoscopic image processing apparatus the process of enhancing the local contrast is executed for the pixels darker than the surroundings, so that the shadow component of the image can be selectively enhanced.
  • this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • the process for the second viewpoint is the same as the process for the first viewpoint.
  • the first viewpoint second depth ambient lightness detection unit acquires the weighted average value based on the difference between the subject distance of the target pixel and the subject distance of the peripheral pixel of the target pixel. Processing using the first viewpoint ambient lightness signal US_R is executed.
  • An eighteenth aspect of the invention is the second aspect of the invention, wherein the image correction unit includes a first viewpoint image correction unit and a second viewpoint image correction unit.
  • the first viewpoint image correction unit includes a first viewpoint second depth ambient lightness detection unit and a first viewpoint coefficient calculation processing unit.
  • the second viewpoint image correction unit includes a second viewpoint second depth ambient lightness detection unit and a second viewpoint coefficient calculation processing unit.
  • the second depth ambient brightness detection unit for the first viewpoint is (1)
  • the weighting is increased as the difference between the subject distance of the target pixel that is the pixel corresponding to the first viewpoint image signal IS_R acquired by the depth acquisition unit and the subject distance of the peripheral pixels of the target pixel is smaller.
  • the first viewpoint ambient brightness signal US_R is acquired, (2) In a predetermined image region, the first viewpoint offset value ⁇ US_R, which becomes a larger value as the change in the first viewpoint image signal IS_R becomes more severe, is acquired, and the first viewpoint ambient brightness signal US_R is included in the first viewpoint.
  • the offset value ⁇ US_R is added for use, a first viewpoint corrected ambient lightness signal US_R ′ is acquired.
  • the second depth ambient brightness detection unit for the second viewpoint is (1) The weighting is increased as the difference between the subject distance of the target pixel that is the pixel corresponding to the second viewpoint image signal IS_L acquired by the depth acquisition unit and the subject distance of the peripheral pixels of the target pixel is smaller.
  • the second viewpoint ambient brightness signal US_L is acquired, (2) In a predetermined image area, the second viewpoint offset value ⁇ US_L, which becomes a larger value as the change in the second viewpoint image signal IS_L becomes more severe, is acquired, and the second viewpoint viewpoint brightness value US_L is obtained.
  • the offset value ⁇ US_L for use a corrected ambient lightness signal US_L ′ for the second viewpoint is acquired.
  • the first viewpoint coefficient calculation processing unit has a value of a difference ((IS_R) ⁇ (US_R ′)) between the first viewpoint image signal IS_R and the first viewpoint corrected ambient lightness signal US_R ′. The larger the value, the smaller the coefficient k is determined.
  • OS_R IS_R + k ⁇ ((IS_R) ⁇ (US_R ′))
  • OS_R IS_R + k ⁇ ((IS_R) ⁇ (US_R ′))
  • the first viewpoint second depth ambient lightness detection unit acquires the weighted average value based on the difference between the subject distance of the target pixel and the subject distance of the peripheral pixel of the target pixel. Processing using the first viewpoint ambient lightness signal US_R is executed.
  • the image correction part is provided with the image correction part for 1st viewpoint images, and the image correction part for 2nd viewpoint images.
  • the first viewpoint image correction unit includes a first viewpoint second depth ambient lightness detection unit and a first viewpoint coefficient calculation processing unit.
  • the second viewpoint image correction unit includes a second viewpoint second depth ambient lightness detection unit and a second viewpoint coefficient calculation processing unit.
  • the second depth ambient brightness detection unit for the first viewpoint is (1)
  • the weighting is increased as the difference between the subject distance of the target pixel that is the pixel corresponding to the first viewpoint image signal IS_R acquired by the depth acquisition unit and the subject distance of the peripheral pixels of the target pixel is smaller.
  • the first viewpoint ambient brightness signal US_R is acquired, (2)
  • the first viewpoint offset value ⁇ US_R which becomes a larger value as the change in the first viewpoint image signal IS_R becomes more severe, is acquired, and the first viewpoint ambient brightness signal US_R is included in the first viewpoint.
  • a first viewpoint corrected ambient lightness signal US_R ′ is acquired.
  • the first viewpoint coefficient calculation processing unit reduces the value as the difference ((IS_R) ⁇ (US_R ′)) between the first viewpoint image signal IS_R and the first viewpoint corrected ambient lightness signal US_R ′ increases.
  • the second depth ambient brightness detection unit for the second viewpoint is (1)
  • the weighting is increased as the difference between the subject distance of the target pixel that is the pixel corresponding to the second viewpoint image signal IS_L acquired by the depth acquisition unit and the subject distance of the peripheral pixels of the target pixel is smaller.
  • the second viewpoint ambient brightness signal US_L is acquired, (2)
  • the second viewpoint offset value ⁇ US_L which becomes a larger value as the change in the second viewpoint image signal IS_L becomes more severe, is acquired, and the second viewpoint viewpoint brightness value US_L is obtained.
  • a corrected ambient lightness signal US_L ′ for the second viewpoint is acquired.
  • the second viewpoint coefficient calculation processing unit decreases the value as the difference ((IS_L) ⁇ (US_L ′)) between the second viewpoint image signal IS_L and the second viewpoint corrected ambient lightness signal US_L ′ increases.
  • the first viewpoint coefficient calculation processing unit OS_R IS_R ⁇ p ⁇ (IS_R ⁇ US_R ′) + LPF ((k + p) ⁇ (IS_R ⁇ US_R ′))
  • the corrected first viewpoint image signal OS_R is acquired by a process corresponding to.
  • the process for the second viewpoint is the same as the process for the first viewpoint.
  • this stereoscopic image processing apparatus it is possible to selectively emphasize the shadow portion while appropriately blurring the shadow portion.
  • this stereoscopic image processing apparatus can acquire a stereoscopic image that realizes a more natural stereoscopic effect and perspective.
  • the first viewpoint second depth ambient lightness detection unit acquires the weighted average value based on the difference between the subject distance of the target pixel and the subject distance of the peripheral pixel of the target pixel. Processing using the first viewpoint ambient lightness signal US_R is executed.
  • a twentieth invention is a stereoscopic imaging device including the stereoscopic image processing device according to any one of the first to nineteenth inventions. Thereby, a stereoscopic imaging device including the stereoscopic image processing device according to any one of the first to nineteenth inventions can be realized.
  • a twenty-first invention is a stereoscopic image processing method for performing image correction processing on a stereoscopic image composed of a first viewpoint image and a second viewpoint image included in a stereoscopic image by a two-lens method or a multi-viewpoint method, A depth acquisition step; and an image correction step.
  • the depth acquisition step a subject distance that is distance information in a three-dimensional space for the subject included in the first viewpoint image and the second viewpoint image is acquired.
  • the image correction step shadow enhancement processing is performed on each of the first viewpoint image and the second viewpoint image to perform gradation conversion of the target pixel to be processed, and the shadow is determined based on the subject distance of the target pixel. Adjust the enhancement level of the enhancement process. Thereby, it is possible to realize a stereoscopic image processing method having the same effect as that of the first invention.
  • a stereoscopic image processing method for performing image correction processing on a stereoscopic image composed of a first viewpoint image and a second viewpoint image included in a stereoscopic image by a binocular system or a multi-viewpoint system is executed by a computer. It is a program to let you.
  • the stereoscopic image processing method includes a depth acquisition step and an image correction step. In the depth acquisition step, a subject distance that is distance information in a three-dimensional space for the subject included in the first viewpoint image and the second viewpoint image is acquired.
  • shadow enhancement processing is performed on each of the first viewpoint image and the second viewpoint image to perform gradation conversion of the target pixel to be processed, and the shadow is determined based on the subject distance of the target pixel. Adjust the enhancement level of the enhancement process. As a result, it is possible to realize a program that causes a computer to execute a stereoscopic image processing method having the same effects as those of the first invention.
  • the present invention it is possible to obtain a high-quality stereoscopic image by imparting a natural stereoscopic effect to an image with poor stereoscopic effect taken with a small amount of parallax.
  • FIG. 1 is a schematic configuration diagram of a stereoscopic imaging apparatus according to a first embodiment.
  • the processing result of the image correction part in 1st Embodiment. The block diagram of the image correction part in 2nd Embodiment.
  • FIG. 1 The figure which shows the relationship (characteristic) between the coefficient k and a difference signal (IS_L-US_L).
  • FIG. 1 Luminance value IS_L (waveform Is) of the L image signal, ambient lightness signal US_L (waveform Us), and corrected luminance value obtained by performing the local gradation conversion process (contrast enhancement process)
  • FIG. 6 is a signal waveform diagram (one example) of OS_L (waveform Os ′). The figure which shows the relationship (characteristic) of the coefficient k and a difference signal (IS_L-US_L ').
  • the block diagram of the local gradation conversion part of the 1st modification of 6th Embodiment The block diagram of the local gradation conversion part in 7th Embodiment.
  • the block diagram of the local gradation conversion part of the 1st modification of 7th Embodiment The block diagram of the local gradation conversion part in 8th Embodiment.
  • the block diagram of the local gradation conversion part of the 1st modification of 9th Embodiment The block diagram of the local gradation conversion part of the 1st modification of 9th Embodiment.
  • FIG. 1 shows a schematic diagram of a stereoscopic imaging apparatus 1000 according to the first embodiment. As shown in FIG. 1
  • the stereoscopic imaging apparatus 1000 collects subject light from a first viewpoint and acquires a first image signal (for example, a right-eye image signal (R image signal)); A second imaging unit 101L that collects subject light from the second viewpoint and acquires a second image signal (for example, a left-eye image signal (L image signal)), and a first image signal (for example, an R image signal). And an image input unit 102 for converting the second image signal (for example, the L image signal) into a digital signal.
  • a first image signal for example, a right-eye image signal (R image signal)
  • a second imaging unit 101L that collects subject light from the second viewpoint and acquires a second image signal (for example, a left-eye image signal (L image signal)
  • a first image signal for example, an R image signal
  • an image input unit 102 for converting the second image signal (for example, the L image signal) into a digital signal.
  • the stereoscopic imaging apparatus 1000 calculates subject distance information from the first image signal (for example, R image signal) and the second image signal (for example, L image signal) converted into digital signals, respectively.
  • Depth acquisition unit 103 that outputs the depth information (for example, R depth information) and the second depth information (for example, L depth information), the first depth information (for example, R depth information), and the second depth information (for example, L
  • an image correction unit 104 that performs image correction processing on a first image signal (for example, an R image signal) and a second image signal (for example, an L image signal) using depth information.
  • the first imaging unit 101R captures the right eye image (video) and the second imaging unit 101L captures the left eye image (video).
  • the first imaging unit 101R is installed at a first viewpoint, and an optical system that collects subject light and a first image signal (right-eye image signal (R image signal) by photoelectric conversion from the collected subject light. ). Then, the first imaging unit 101R outputs the acquired first image signal (R image signal) to the image input unit 102.
  • the second imaging unit 101L is installed at a second viewpoint, which is a position different from the first viewpoint, and an optical system that collects subject light and a second image signal (left) by photoelectric conversion from the collected subject light.
  • the second imaging unit 101L outputs the acquired second image signal (L image signal) to the image input unit 102.
  • the image input unit 102 receives the first image signal (R image signal) acquired by the first imaging unit 101R, performs A / D conversion on the input first image signal, and performs A / D conversion.
  • the first image signal (R image signal) is output to the depth acquisition unit 103 and the image correction unit 104.
  • the image input unit 102 also receives the second image signal (L image signal) acquired by the second imaging unit 101L, performs A / D conversion on the input second image signal, and performs A / D conversion.
  • the D-converted second image signal (L image signal) is output to the depth acquisition unit 103 and the image correction unit 104.
  • the depth acquisition unit 103 receives the first image signal (R image signal) and the second image signal (L image signal) output from the image input unit 102.
  • the depth acquisition unit 103 receives the first image (R image) formed from the first image signal (R image signal) and the second image (L image) formed from the second image signal (L image signal).
  • First depth information (R depth information) that is depth information for one image (R image) and second depth information (L depth information) that is depth information for a second image (L image) are acquired.
  • the depth acquisition unit 103 outputs the acquired first depth information (R depth information) and second depth information (L depth information) to the image correction unit 104.
  • the image correction unit 104 includes an L image correction unit 104L and an R image correction unit 104R.
  • the image correction unit 104 includes a first image signal (R image signal) and a second image signal (L image signal) output from the image input unit 102, and first depth information (R depth) output from the depth acquisition unit 103. Information) and second depth information (L depth information).
  • the image correction unit 104 performs correction processing on the first image signal (R image signal) based on the first depth information (R depth information), and outputs the first image signal (R image signal) after the correction processing. . Further, the image correction unit 104 performs correction processing on the second image signal (L image signal) based on the second depth information (L depth information), and uses the corrected first image signal (R image signal). Output.
  • the L image correction unit 104L includes a local gradation conversion unit 111L, an intensity generation unit 112L, and a synthesis unit 113L.
  • the local gradation conversion unit 111 ⁇ / b> L includes an ambient brightness detection unit 121 and a dynamic gradation correction unit 122.
  • the ambient lightness detection unit 121 receives an L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102, and receives attention corresponding to the luminance value IS_L of the L image signal.
  • a representative brightness value for example, an average luminance value of all the pixels included in the surrounding area
  • the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image region of the target pixel to the dynamic gradation correction unit 122 as the ambient brightness signal US_L.
  • the dynamic gradation correction unit 122 has an L image signal that can form the L image output from the image input unit 102 (the luminance value IS_L of the L image signal), and the ambient lightness output from the ambient lightness detection unit 121.
  • the signal US_L is input.
  • the dynamic gradation correction unit 122 performs gradation conversion processing on the luminance value IS_L of the L image signal with gradation conversion characteristics determined based on the value of the ambient lightness signal US_L.
  • the gradation conversion characteristics of the dynamic gradation correction unit 122 are, for example, as shown in FIG.
  • the gradation conversion characteristics of the dynamic gradation correction unit 122 will be described with reference to FIG. In FIG.
  • the horizontal axis represents the value of the IS signal as the input signal (the luminance value IS_L of the L image signal or the luminance value IS_R of the R image signal), and the vertical axis represents the value of the OS signal (L A luminance value OS_L after gradation conversion of the image signal or a luminance value OS_R after gradation conversion of the R image signal is taken, and a gradation conversion characteristic curve K1 determined by the value of the ambient lightness signal US_L (or US_L) This is a graph of ⁇ K8.
  • the value of the IS signal, the value of the OS signal, and the value US (US_L or US_R) of the ambient lightness signal are normalized to a range of [0: 1].
  • the gradation conversion characteristic curve Kn (n: integer from 1 to 8) indicates gradation conversion characteristics when the ambient lightness signal value US (US_L or US_R) is “n / 8” (n: integer from 1 to 8).
  • the gradation conversion characteristic curve groups K1 to K8 are a group of curves, and the value US of the ambient lightness signal increases when the IS value is fixed to a predetermined value (for example, fixed to the value A in FIG. 4). Accordingly, the output value OS is set so as to monotonously decrease.
  • a predetermined number of gradation conversion characteristic curve groups are set (for example, a predetermined number of data specifying the gradation conversion characteristic curve group is stored in the LUT), and A gradation conversion characteristic curve other than the preset gradation conversion characteristic curve group may be realized by performing an interpolation process, an interpolation process, or the like.
  • the dynamic gradation correction unit 122 performs the IS signal (the luminance value IS_L of the L image signal or the luminance value IS_R of the R image signal) with the gradation conversion characteristics as illustrated in FIG.
  • the OS signal (the luminance value OS_L after gradation conversion of the L image signal or the luminance value OS_R after gradation conversion of the R image signal) is acquired by performing dynamic gradation correction processing.
  • the dynamic gradation correction unit 122 converts the OS signal (the luminance value OS_L after the gradation conversion of the L image signal or the luminance value OS_R after the gradation conversion of the R image signal) into the synthesis unit 113L (R image signal). In this case, the data is output to the synthesis unit 113R).
  • the intensity generation unit 112L receives the second depth information (L depth information) output from the depth acquisition unit 103, and performs local gradation conversion processing (spatial visual processing) based on the second depth information (L depth information).
  • the first intensity signal M1_L for determining the intensity of the first intensity signal M1_L is generated (a method for generating the first intensity signal M1_L will be described later). Then, the intensity generation unit 112L outputs the generated first intensity signal M1_L to the synthesis unit 113L.
  • the synthesizing unit 113L includes an L image signal that can form the L image output from the image input unit 102 (the luminance value IS_L of the L image signal), the OS_L signal output from the local gradation conversion unit 111L, and the intensity
  • the first intensity signal M1_L output from the generation unit 112L is used as an input.
  • the combining unit 113L combines the IS_L signal and the OS_L signal based on the first intensity signal M1_L. Thereby, the synthesizing unit 113L acquires the L image signal Lout that has been subjected to the local gradation conversion processing (spatial visual processing) with the intensity determined by the first intensity signal M1_L. Then, the combining unit 113L outputs the acquired L image signal Lout.
  • the L image correction unit 104L is configured.
  • the image correction unit for R image 104R has the same configuration as the image correction unit for L image 104L, and only the point that the input signals are the R image signal and the R depth information is for the L image. This is different from the image correction unit 104L.
  • FIG. 5 is a diagram of the positional relationship between the scene of the subject including the background and the two image capturing units (the first image capturing unit 101R and the second image capturing unit 101L) of the stereoscopic image capturing apparatus 1000 as viewed from above.
  • the subject 201 is a background wall
  • the subject 202 is a main subject like a person
  • the subject 203 is a secondary subject like a pillar.
  • the main subject 202 and the subordinate subject 203 are both substantially elliptical objects having a predetermined width when viewed from above.
  • the operation of the stereoscopic imaging apparatus 1000 will be described by taking as an example the case where the stereoscopic imaging apparatus 1000 captures the subject scene shown in FIG.
  • the first imaging unit 101R and the second imaging unit 101L have a base line length (stereo base length) (in FIG. 5) so that the stereoscopic imaging apparatus 1000 can acquire a stereoscopic image (left eye image and right eye image). They are spaced apart by a distance SB1).
  • the convergence angle is set so that the optical axes intersect at a distance (a dotted line L1 in the drawing) where the subordinate subject 203 exists.
  • a subject at a distance indicated by a dotted line has no parallax in the images taken by the second imaging unit 101L and the first imaging unit 101R, and a display screen (virtual screen) (not shown).
  • a display screen virtual screen
  • the main subject 202 in front of the dotted line L1 is localized in front of the display screen because of the parallax in the protruding direction.
  • the portion of the background 201 where the subject distance is smaller than D1 (a part on the left side of the background 201) is localized in front of the display screen, and the portion of the background 201 where the subject distance is larger than D1 (the portion on the right side of the background 201) is , Pan behind the display screen.
  • the image input unit 102 is input to the image input unit 102 and converted into a digital signal by the image input unit 102. Then, the first image signal (R image signal) and the second image signal (L image signal) converted into digital signals are output to the depth acquisition unit 103 and the image correction unit 104, respectively.
  • the first image (R image) formed from the first image signal (R image signal) and the second image (L image) formed from the second image signal (L image signal) The first depth information (R depth information) that is the depth information for one image (R image) and the second depth information (L depth information) that is the depth information for the second image (L image) are, for example, parallax matching. It is acquired by.
  • a method of obtaining the first depth information (R depth information) and the second depth information (L depth information) by parallax matching will be described with reference to FIG. FIG.
  • FIG. 6 is a diagram schematically illustrating a stereoscopic image when the stereoscopic imaging apparatus 1000 stereoscopically captures a shooting scene in which a triangular object is disposed in the back and a circular object is disposed in front.
  • FIG. 6A is a diagram schematically showing an L image (left eye image)
  • FIG. 6B is a diagram schematically showing an R image (right eye image).
  • FIG. 6C is a diagram in which the R image and the L image are superimposed and displayed as one image.
  • the acquisition method of the first depth information (R depth information) and the second depth information (L depth information) by parallax matching is realized, for example, by executing the following processes (1) to (3).
  • the depth acquisition unit 103 uses the L image (the left eye image) and the R image (the right eye image), for example, the subject corresponding to the point AL on the L image in FIG. It is detected that A (the vertex of the triangle in FIG. 6) corresponds to the point AR on the R image in FIG. 6 (b).
  • a deviation amount (parallax) Diff (A) between the two detected points AL and AR is calculated.
  • the parallax has a positive or negative sign depending on the shift direction. For example, when the point on the R image is shifted to the left with respect to the point on the L image, it is positive, and the opposite case is negative.
  • the parallax for the subject A is ⁇ ( ⁇ 0)
  • the AR point on the R image is shifted to the right from the AL point on the L image.
  • the parallax for A is calculated as “ ⁇ ”.
  • the parallax for the subject B is ⁇ ( ⁇ 0)
  • the BR point on the R image is shifted to the left from the BL point on the L image. Therefore, the parallax for the subject B is calculated as “+ ⁇ ”.
  • the depth acquisition unit 103 performs the processes (1) and (2) for all points (all pixels) on the image, and acquires a parallax image having the calculated shift amount (parallax) as a pixel value. To do. Then, the parallax image acquired using the parallax calculated for each pixel of the L image as the pixel value is L depth information (L depth information image (distance image for left eye image)), and the parallax calculated for each pixel of the R image is Let the parallax image acquired as a pixel value be R depth information (R depth information image (right-eye image distance image)).
  • the “distance image” is a mapping of a value correlated to the distance between the actual position (position in the three-dimensional space) of the subject corresponding to each pixel and the position of the stereoscopic imaging apparatus 1000 to each pixel. It is the image that was made.
  • the acquisition method of the 1st depth information (R depth information) by the said parallax matching and 2nd depth information (L depth information) is an example, and is not limited to this.
  • the parallax sign may be reversed from the above.
  • the depth acquisition unit 103 may acquire the left-eye image distance image and the right-eye image distance image and acquire the L depth information and the R depth information by another method.
  • the L depth information and R depth information acquired as described above are each output to the image correction unit 104.
  • natural enhancement of a stereoscopic effect in a stereoscopic image will be described by taking a case where the subject scene of FIG.
  • the positional description of FIG. 5 is as described above.
  • the main subject 202 is a bright color
  • the sub-subject 203 is a dark color.
  • both the main subject 202 and the subordinate subject 203 have a light / dark change with a small amplitude.
  • the background 201 is like a curved wall with the left hand in the front and the right hand in the rear as viewed from the stereoscopic imaging apparatus 1000, and has intermediate brightness between the main subject 202 and the subordinate subject 203. It is assumed that it has a slightly larger light-dark change.
  • FIG. 7 shows the relationship between the horizontal position and luminance of the stereoscopic images (L image and R image) captured by the second imaging unit 101L and the first imaging unit 101R, and the stereoscopic image (L image and R image). It is a figure which shows the relationship between the position of a horizontal direction, and depth information. Specifically, FIG. 7A2 is a diagram showing the relationship between the horizontal position and the luminance in the L image, and FIG. 7B2 shows the relationship between the horizontal position and the luminance in the R image.
  • FIG. The stereoscopic image having the luminance distribution in FIG. 7 corresponds to an output image of a conventional stereoscopic imaging device.
  • FIG. 7A1 illustrates the L depth information acquired by the depth acquisition unit 103 using the stereoscopic images (L image and R image) captured by the second imaging unit 101L and the first imaging unit 101R and the horizontal direction. It is a figure which shows a positional relationship.
  • FIG. 7B1 shows the horizontal position of the R depth information acquired by the depth acquisition unit 103 using the stereoscopic images (L image and R image) captured by the second imaging unit 101L and the first imaging unit 101R. It is a figure which shows a relationship.
  • FIGS. 7A1 and 7A2 the horizontal axis represents the position in the horizontal direction, and the vertical axis represents the depth value.
  • the depth value takes a larger value as the distance is closer (the subject distance is smaller), and takes a value closer to “0” as the distance is farther (the subject distance is larger).
  • FIGS. 7A1 to 7B2 are shown in a state where the horizontal positions are matched.
  • the background 201, the main subject 202, and the subordinate subject 203 will be described as having bright and dark striped patterns drawn on a smooth surface without irregularities, but this is limited to such subjects. It may be an arbitrary subject having irregularities.
  • the main subject 202 is bright and the slave subject 203 is dark, the present invention is not limited to this, and the brightness of these subjects may be arbitrary.
  • the first imaging unit 101R and the second imaging unit 101L of the stereoscopic imaging device 1000 have the convergence angle set so that the parallax is eliminated at the subject distance of the slave subject 203, that is, the subject distance D1 shown in FIG. . Therefore, when a stereoscopic image obtained by stereoscopic shooting of the shooting scene of FIG. 5 is displayed on a display device (stereoscopic image display device), the subordinate subject 203 is displayed on a display screen (not shown) (on the display screen surface of the stereoscopic image display device). ) And the main subject 202 is positioned in front of the display screen surface (on the display screen surface of the stereoscopic image display device).
  • the subject scene of FIG. 5 is viewed from the second imaging unit 101L (left eye viewpoint). Since the left half of the slave subject 203 is hidden behind the shadow of the main subject 202, the position of the main subject 202 (fine shading in FIG. 7 (shaded portion indicated by 202 in FIG. 7)) and the position of the slave subject 203 ( The rough shading (shaded portion indicated by 203 in FIG. 7) in FIG. 7 is continuous, and the background 201 is not visible between the main subject 202 and the subordinate subject 203.
  • the subject scene of FIG. 5 is viewed from the first imaging unit 101R (right eye viewpoint).
  • the position of the main subject 202 and the position of the subordinate subject 203 are separated from each other, and the background 201 can be seen between the main subject 202 and the subordinate subject 203.
  • the cause of the lack of stereoscopic effect and perspective of a stereoscopic image obtained by stereoscopic shooting will be considered.
  • the camera interval (the interval between the first imaging unit 101R and the second imaging unit 101L) is narrowed (the stereo base (baseline length) is shortened), and both eyes It is necessary to shoot with a reduced parallax, which often causes a lack of stereoscopic effect.
  • a shadow is emphasized for a stereoscopic image that lacks stereoscopic effect due to the above factors, it may be recognized that the stereoscopic effect is increased.
  • “shading” is a concept including a change in the brightness of a subject that occurs when illumination illuminated from a certain direction illuminates the subject.
  • FIG. 8 is a diagram illustrating an image quality correction example in which the above-described local contrast enhancement processing is performed on each of the L image and the R image acquired by stereoscopic shooting of the subject scene of FIG. Specifically, FIG.
  • FIG. 8A is a diagram illustrating the relationship between the horizontal position and the luminance in the L image after image quality correction.
  • FIG. 8B is a diagram showing the relationship between the horizontal position and the luminance in the R image after image quality correction.
  • FIG. 8C is a diagram in which the ambient lightness signal US_L is further superimposed on the display shown in FIG.
  • the luminance difference in a predetermined portion in the main subject 202 becomes large, and the shadow of the main subject 202 is increased.
  • the difference between the luminance value at the horizontal position P1 and the luminance value at the horizontal position P2 before executing the local contrast enhancement process is ⁇ 1, and the luminance value at the horizontal position P1 and the horizontal position P2 after the local contrast enhancement process are executed. If the difference from the luminance value of ⁇ 2> ⁇ 1 Thus, it can be seen that the shadow of the main subject 202 is emphasized.
  • the inside of the object of the main subject 202 (the region inside the contour portion of the main subject 202) is perceived to have large unevenness. Therefore, it is expected that the three-dimensional appearance will be improved.
  • the entire image is uniformly processed regardless of the subject distance. Therefore, the contrast of the portion A in FIG. 8 (the portion surrounded by the alternate long and short dash line) is unnaturally emphasized. As a result, it is considered that the process executed to enhance the shadow on the stereoscopic image is an unnatural process that does not appear to emphasize the shadow, contrary to the intention.
  • Contrast enhancement is also applied to the area between objects.
  • the process of enhancing the contrast is performed on the boundary region between the objects having different distances. For example, the process of enhancing the contrast is performed in a portion B (a portion surrounded by a two-dot chain line) (a boundary region between the main subject 202 and the background 201) in FIG. Therefore, the color difference between objects that are not originally shaded is emphasized.
  • the process executed for enhancing the shadow on the stereoscopic image is an unnatural process that does not appear to emphasize the shadow, contrary to the intention.
  • the main subject 202 is adjacent to another dark subject 203 and the background 201, the brightness at the end of the main subject 202 is processed as a result of processing to enhance the contrast effect by local contrast enhancement processing.
  • the shadow representing the roundness in the subject the portion representing the roundness of the subject object at the end of the main subject 202 (from the inside of the subject object to the outside at the end of the main subject 202) It is thought that the phenomenon in which the shading) of the portion where the brightness is smoothly decreased becomes flat and the stereoscopic effect is impaired.
  • the stereoscopic imaging apparatus 1000 solves the problem caused by the cause (1) and realizes natural stereoscopic effect enhancement processing in a stereoscopic image.
  • the L image information correction unit 104L uses the L depth information for the L image
  • the R image information correction unit 104R uses the R depth information for the R image.
  • the L image image correction unit 104L will be mainly described below.
  • ⁇ Operation of Strength Generation Unit 112 >> First, the operation of the intensity generation unit 112L of the L image correction unit 104L will be described.
  • FIG. 7A1 is a diagram illustrating the relationship between the pixel position in the L image and the depth value (distance information). It is assumed that the depth value takes a smaller value as it is farther (the subject distance is larger), and takes a larger value as the distance is closer (the subject distance is smaller). Accordingly, the depth value of the subordinate subject 203 is smaller than the depth value of the main subject 202 and takes a value larger than the depth value of the background 201 of the right hand.
  • the intensity generation unit 112L illustrated in FIG. 2 as illustrated in FIG.
  • the first intensity signal M1_L is generated by input / output conversion using a linear or nonlinear continuous function with respect to the input L depth information.
  • the input / output conversion characteristic of (L depth information D (x, y)) ⁇ (first intensity signal M1_L) in the intensity generation unit 112L is, for example, as shown in FIG. 9, L depth information D (x, It is assumed that the value (0 ⁇ M1_L ⁇ 1) of the first intensity signal M1_L as an output increases monotonously with respect to y).
  • (L depth in the intensity generation unit 112L is set so that shadow enhancement processing (for example, local gradation conversion processing) is more strongly applied as the subject distance indicated by the L depth information D (x, y) is smaller (close-up scene).
  • the input / output conversion characteristics of information D (x, y)) ⁇ (first intensity signal M1_L) may be set.
  • the first intensity signal M1 (L image first intensity signal M1_L) generated by the intensity generator 112L is output to the synthesizer 113L.
  • the processing of the intensity generation unit 112R for the R depth information is the same as the processing of the intensity generation unit 112L for the L depth information.
  • Operation of Local Tone Converter 111 >> Next, the operation of the local gradation conversion unit 111L of the L image correction unit 104L will be described.
  • the operation of the local gradation conversion unit 111R of the R image correction unit 104R is the same as that of the local gradation conversion unit 111L.
  • the local gradation conversion unit 111L local gradation conversion processing by spatial visual processing is executed on the input L image signal (corresponding to a target pixel on the L image). Specifically, as shown in FIG. 3, the ambient brightness detection unit 121 of the local gradation conversion unit 111 ⁇ / b> L uses the representative brightness value of the peripheral image region of the target pixel (for example, the brightness average value (luminance average value of the peripheral image region). )) Is calculated, and the calculated representative brightness value is output to the dynamic gradation correction unit 122 as the ambient brightness signal US_L.
  • the representative brightness value of the peripheral image region of the target pixel for example, the brightness average value (luminance average value of the peripheral image region).
  • FIG. 10 shows a range in which the ambient brightness detection unit 121 extracts the brightness around the pixel of interest at coordinates (x, y) (x is an x coordinate on the image and y is a y coordinate on the image). It is a figure for demonstrating.
  • the local gradation converting unit 111L In order for the local gradation converting unit 111L to enhance the local contrast with characteristics that match the visual characteristics, when the size of the image to be processed is XGA (1024 ⁇ 768), for example, It is preferable to set the brightness of the peripheral pixel area to an area having a size of 80 pixels ⁇ 80 pixels or more).
  • the range of 2n + 1 pixels (n is a natural number) in the horizontal direction and 2m + 1 pixels (m is a natural number) in the vertical direction is the lightness extraction range.
  • the weight of the surrounding lightness information decreases as the distance from the target pixel becomes larger like a Gaussian filter.
  • FIG. 11 is a graph showing an example of a weighting coefficient A (i, j) for extracting surrounding brightness values.
  • i and j indicate the distance from the pixel of interest.
  • the ambient lightness Us can be calculated by the following (Formula 1).
  • Is (x + i, y + i) is the pixel value of the pixel at the coordinates (x + i, y + i) (corresponding to the luminance value of the input signal IS_L (or IS_R)).
  • the ambient lightness Us (x, y) for the target pixel is obtained by executing a process corresponding to the above (Equation 1) for the target pixel (pixel of coordinates (x, y)). Calculated. This is performed for all the pixels forming the image.
  • the ambient lightness detection unit 121 generates the ambient lightness signal US_L (or US_R) by performing the above processing, and outputs the generated ambient lightness signal US_L (or US_R) to the dynamic gradation correction unit 122.
  • the dynamic gradation correction unit gradation conversion characteristics to be performed on the input L image signal (the target pixel on the L image) are determined based on the ambient lightness signal US_L output from the ambient lightness detection unit 121. Is done. Specifically, according to the value of the ambient lightness signal US_L, a gradation conversion characteristic curve for performing gradation conversion on the target pixel is selected from the gradation conversion characteristic curves K1 to K8 shown in FIG.
  • the L image signal after gradation conversion is acquired as OS_L. Then, the acquired L image signal OS_L after gradation conversion is output to the synthesis unit 113L.
  • the synthesizing unit 113L the L image signal OS_L after gradation conversion output from the local gradation conversion unit 111L and the L image signal IS_L output from the image input unit 102 (L image for which gradation conversion processing has not been executed). Signal) is synthesized according to the value of the L image first intensity signal M1_L.
  • the synthesis unit 113L (1) As the subject distance is farther and the depth value is smaller, the L image signal IS_L is synthesized so that the weight becomes larger. (2) Compositing is performed so that the weight of the L image signal OS_L after gradation conversion increases as the subject distance is closer and the depth value is larger.
  • the input / output conversion characteristic of (L depth information D (x, y)) ⁇ (first intensity signal M1_L) in the intensity generation unit 112L is, for example, as shown in FIG. 9, L depth information D (x, It is assumed that the value (0 ⁇ M1_L ⁇ 1) of the first intensity signal M1_L as an output increases monotonously with respect to y).
  • the value of the first intensity signal M1_L (0 ⁇ M1_L ⁇ 1) is used as the internal division ratio.
  • Lout M1_L ⁇ OS_L + (1 ⁇ M1_L) ⁇ IS_L
  • the L output image signal Lout is synthesized.
  • the L image signal IS_L and the L image signal OS_L after the gradation conversion are combined as the first intensity signal M1_L by combining the internal division ratio.
  • the L image signal IS_L is synthesized so that the weight becomes larger.
  • Compositing is performed so that the weight of the L image signal OS_L after gradation conversion increases as the subject distance is closer and the depth value is larger (the value of the first intensity signal M1_L is closer to “1”).
  • the image correction unit 104 (1) has a strong resistance to image signals with respect to the finely shaded area (area corresponding to the main subject 202) shown in FIG.
  • the local gradation conversion process is executed, and (2) the local gradation conversion process is executed only weakly for the right-hand part of the background 201 (the part where the subject distance is large (far)), or no local gradation conversion process is performed at all. Not executed.
  • the image correction unit 104 causes the above-described intermediate level intensity (main subject) to be obtained for the rough shading region (the region corresponding to the subordinate subject 203) in FIG.
  • the local gradation conversion processing is executed weakly at an intermediate level intensity between the intensity corresponding to the area 202 and the intensity of the right hand part of the background 201 (the part where the subject distance is large (distant)). Accordingly, in the stereoscopic imaging apparatus 1000, by executing the processing as described above, (1) local contrast enhancement is performed on a subject in the foreground where the local shading change is largely due to shading. The amount of local contrast can be increased. (2) For a distant subject whose degree of shading is due to shading, the amount of local contrast enhancement can be reduced.
  • FIG. 8 processing result by the prior art
  • FIG. 12 processing result by the stereoscopic imaging device of the present embodiment
  • the region A in FIG. is suppressed as compared with the region A in FIG. That is, in the stereoscopic imaging apparatus 1000, contrast can be enhanced for a subject in the foreground that has a high probability that a difference in brightness is caused by a shadow, and a far-sighted subject that has a low probability that a difference in brightness is caused by a shadow. Contrast is not emphasized more than necessary for the subject.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus 1000 is a stereoscopic image that is perceived as if only the shadow is naturally emphasized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus 1000 is a stereoscopic image in which natural stereoscopic effect enhancement is realized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus 1000 improves the clearness of the near view with respect to the distant view, the difference in contrast between the distant view and the close view becomes large.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus 1000 is a stereoscopic image in which improvement in perspective is realized at the same time.
  • the purpose is to solve the cause of the contrast enhancement.
  • this problem is solved by solving the problem caused by the cause (1) described in the first embodiment (the cause caused by contrast enhancement for a distant view in the same manner as a close view). In the embodiment, the description is omitted.
  • the stereoscopic imaging device includes the first imaging unit 101R, the second imaging unit 101L, the image input unit 102, and the depth acquisition unit 103, similar to the stereoscopic imaging device 1000 according to the first embodiment. Since the functional unit is the same as that of the first embodiment shown in FIG. 1, the description thereof is omitted.
  • the stereoscopic imaging apparatus according to the second embodiment has a configuration in which the image correction unit 104 of the stereoscopic imaging apparatus 1000 according to the first embodiment is replaced with an image correction unit 504 illustrated in FIG. This is the only difference between the stereoscopic imaging device of the second embodiment and the stereoscopic imaging device 1000 of the first embodiment.
  • the stereoscopic imaging apparatus of the second embodiment is the same as the stereoscopic imaging apparatus 1000 of the first embodiment, and thus detailed description thereof is omitted.
  • the image correction unit 504 includes a second L image image correction unit 504 ⁇ / b> L and a second R image image correction unit 504 ⁇ / b> R.
  • the image correction unit 504L performs a correction process on the second image signal (L image signal) based on the second depth information (L depth information), and outputs the second image signal (L image signal) after the correction process.
  • the second R image correction unit 504R performs a correction process on the first image signal (R image signal) based on the first depth information (R depth information), and the first image signal (R) after the correction process.
  • Image signal In the stereoscopic imaging apparatus according to the present embodiment, it is preferable that both the first depth information (R depth information) and the second depth information (L depth information) are obtained as described above. Since it is also possible to obtain the other indirectly from only one, two depth information items are not necessarily required. Note that the L image processing and the R image processing are the same processing, and therefore only the L image processing will be described below.
  • the second L image correction unit 504L includes a second local gradation conversion unit 511L.
  • the second local gradation conversion unit 511 ⁇ / b> L includes a depth ambient lightness detection unit 521 and a dynamic gradation correction unit 122.
  • the dynamic gradation correction unit 122 is the same as that of the first embodiment.
  • the depth ambient brightness detection unit 521 receives the L image signal (IS_L) as an input, and representative brightness values (for example, all pixels included in the surrounding area) around the pixel of interest (processing target pixel on the L image). The average brightness value) is calculated, but the point that the depth information of the L image is referred to in the calculation of the representative brightness value is different from the ambient brightness detection unit 121 in the first embodiment.
  • the depth surrounding lightness detection unit 521 performs weighting as shown in FIG. 11 and sums up the pixel values around the pixel of interest, (1) the difference between the depth value of the surrounding pixels and the depth value of the pixel of interest is small When the distance between the subject corresponding to the surrounding pixels and the subject corresponding to the target pixel is short, a large weighting factor is taken, and (2) the difference between the depth value of the surrounding pixel and the depth value of the target pixel is large When the distance between the subject corresponding to the surrounding pixels and the subject corresponding to the target pixel is long, the representative brightness value is calculated by taking a small weighting factor.
  • the representative brightness value for example, weighted average value
  • FIG. 14 is a graph showing an example of a function for calculating the weighting factor.
  • the horizontal axis indicates the difference k between the depth value of the surrounding pixels and the depth value of the target pixel.
  • the vertical axis represents the weighting factor value F (k) for pixels around the target pixel.
  • the depth ambient lightness detection unit 521 performs a process corresponding to the following expression using the function F for calculating the weight coefficient value, thereby representing the peripheral image region of the pixel of interest (pixel of coordinates (x, y)). Calculate brightness value.
  • the depth ambient lightness detection unit 521 outputs the value Us (x, y) calculated by (the above equation) to the dynamic gradation correction unit 122 as the ambient lightness signal US_L.
  • FIG. 15 is a flowchart for explaining processing corresponding to the above (Equation 2) in the depth ambient lightness detection unit 521.
  • the representative lightness value Us (x, y) of (Formula 2) is calculated with the filter range of FIG. 10 (region of y ⁇ m ⁇ y ⁇ y + m, x ⁇ n ⁇ x ⁇ x + n) as the peripheral image region.
  • step S102 In S ⁇ b> 102, the depth ambient lightness detection unit 521 determines the depth value D (x, y) of the target pixel (pixel of coordinates (x, y)) (depth value D (x, y) acquired by the depth acquisition unit 103). To get.
  • the depth ambient lightness detection unit 521 acquires the depth value D (x + i, y + j) of the pixel at the coordinates (x + i, y + j).
  • the depth ambient lightness detection unit 521 calculates F (D (x + i, y + j) ⁇ D (x, y)) using, for example, the function F (k) illustrated in FIG.
  • S107 In S107, the depth ambient lightness detection unit 521 accumulates Bunsi corresponding to each term of the numerator of (Formula 2).
  • the depth ambient brightness detection unit 521 Bunshi + A (i, j) ⁇ F (D (x + i, y + j) ⁇ D (x, y)) ⁇ Is (x + i, y + j)
  • Bunsi integration processing corresponding to each term of the numerator in (Expression 2) is performed.
  • S108 the depth ambient lightness detection unit 521 accumulates Bunbo corresponding to the terms of the denominator of (Formula 2).
  • the depth ambient brightness detection unit 521 Bunbo + A (i, j) ⁇ F (D (x + i, y + j) ⁇ D (x, y))
  • Bunbo integration processing corresponding to each term of the denominator of (Formula 2) is performed.
  • S109, S110 In S108, the depth ambient lightness detection unit 521 increments the value of i (adds “1”), and in S109, determines whether the value of i is n or less.
  • the process returns to S103 and repeats the processes of S103 to S108. If the value of i is not less than or equal to n, the process proceeds to S111.
  • S111, S112 In S111, the depth ambient lightness detection unit 521 increments the value of j (adds “1”), and in S112, determines whether or not the value of j is less than or equal to m. If the value of j is less than or equal to m, the process returns to S103 and repeats the processes of S103 to S110. If the value of j is not less than or equal to m, the process proceeds to S113.
  • the depth ambient lightness detection unit 521 can execute the process corresponding to (Expression 2). Then, the depth ambient brightness detection unit 521 outputs the value Us (x, y) calculated by the above processing to the dynamic gradation correction unit 122 as the ambient brightness signal US_L.
  • the ambient brightness signal US_L output from the depth ambient brightness detection unit 521 is qualitatively considered to be an average value of luminance in a subject having a depth value close to the depth value of the target pixel.
  • the value of the ambient brightness signal US_L output by the depth ambient brightness detection unit 521 is an area where the subject distance is substantially equal to the point in the three-dimensional space corresponding to the target pixel, and on the L image (R image), It is considered that the value is close to the average value of pixel values (luminance values) of pixels (peripheral pixels) corresponding to a region existing around the target pixel. Therefore, in the stereoscopic imaging device of the present embodiment, even when backgrounds having different depth values (backgrounds having different subject distances) are dark, the ambient lightness signal US_L is unlikely to include the darkness of the background (the relevant Less susceptible to background darkness).
  • the contrast enhancement process is not performed so as to increase the contrast between the brightness of the main subject and the darkness of the background, and the main subject is appropriately unnecessarily brightened. Can be prevented. Note that, in the stereoscopic imaging device according to the present embodiment, for example, even when the background is bright with respect to the main subject, it is not easily affected by the background as described above.
  • FIG. 16 (a3) is a diagram in which the ambient lightness signal US_L is displayed superimposed on FIG. 16 (a2), but the ambient lightness signal US_L in FIG.
  • the signal has an appropriate value, unlike the signal US_L.
  • contrast enhancement is performed on the stereoscopic image on the image area that forms the main subject 202 due to the influence of the contrast of the backgrounds having different distances (subject distances). It can be avoided appropriately.
  • the stereoscopic imaging device of the present embodiment it is possible to realize shadow emphasis centered on the difference in brightness due to the shadow, and as a result, the stereoscopic image acquired by the stereoscopic imaging device of the present embodiment is a natural shadow. A stereoscopic image in which enhancement is realized.
  • the local gradation converter 111 (111L, 111R) having the configuration of the first embodiment shown in FIG. 2 is replaced with the second local gradation converter 511 (511L, 511R) of the second embodiment. Just do it.
  • L depth information and R depth information are input to the second local gradation conversion unit 511 (511L, 511R) after replacement.
  • the stereoscopic imaging apparatus according to the present embodiment includes a configuration that realizes both the solving means (solution) shown in the first embodiment and the solving means (solution) shown in the second embodiment.
  • the stereoscopic imaging apparatus according to the present embodiment uses the local gradation conversion unit 111 (111L, 111R) having the configuration of the first embodiment shown in FIG. 2 as the second local gradation conversion unit 511 (511L) according to the second embodiment. 511R), and L depth information and R depth information are input to the second local gradation conversion unit 511 (511L, 511R) after the replacement.
  • FIG. 17 shows a processing result by the stereoscopic imaging apparatus of the third embodiment.
  • the stereoscopic imaging apparatus of the third embodiment (1) not only can appropriately suppress local contrast enhancement in a distant region (for example, region A) in which the ratio of shading to light and dark is small.
  • region A a distant region in which the ratio of shading to light and dark is small.
  • region B Even in a region having a large depth difference (region B or the like), it is possible to appropriately suppress the enhancement of the light / dark difference accompanying the depth difference.
  • the stereoscopic imaging device of the third embodiment it is possible to selectively (appropriately) emphasize the light / dark difference caused by the shadow without enhancing the light / dark difference not caused by the shadow. Shadow enhancement can be realized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus according to the third embodiment is a stereoscopic image in which a very natural stereoscopic effect is realized.
  • a technique for realizing stereoscopic image processing that darkens shadows will be described. Since the technique of the above-described embodiment is a technique that emphasizes contrast between light and dark, shadows are also emphasized, but brightness other than shadows is also emphasized. In order to naturally enhance the stereoscopic effect / perspective in a stereoscopic image (in order to achieve a natural stereoscopic effect / perspective), the inventors of the present application are effective to emphasize only the shaded portion. I found out. In order to enhance the stereoscopic effect, it is desirable to emphasize the natural shadow as much as possible.
  • the method for enhancing the local contrast described in the above-described embodiment is a method for enhancing the contrast between light and dark, it is certain that shadows are also enhanced, but portions other than the shadows are also enhanced.
  • the technique of enhancing the local contrast since the intensity of local light is emphasized, not only the shadow enhancement but also the brightness is enhanced.
  • elements that are not related to the shadow such as a change in the color of the object surface and a change in light and darkness (change in reflectance) are also emphasized. For this reason, a stereoscopic image acquired by a technique for enhancing local contrast does not appear to emphasize shadows when viewed by humans, but tends to appear only as if the entire scene is clear rather than an increase in stereoscopic effect.
  • a stereoscopic image that achieves a more natural stereoscopic effect / perspective is obtained by selectively enhancing a shadow portion (by performing a stereoscopic image process that darkens the shadow).
  • a stereoscopic image processing technique that can be performed will be described.
  • a stereoscopic image processing apparatus (such as a digital camera or a video camera) will be described below as an example of a stereoscopic image processing apparatus.
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the fourth embodiment is the same as the configuration of the stereoscopic imaging device 1000 of the first embodiment.
  • the stereoscopic imaging device of the fourth embodiment has a configuration in which the local gradation conversion units 111L and 111R of the image correction unit 104 in the stereoscopic imaging device 1000 of the first embodiment are replaced with local gradation conversion units 111AL and 111AR.
  • the stereoscopic imaging device of the fourth embodiment is different from the stereoscopic imaging device 1000 of the first embodiment.
  • the stereoscopic imaging device of the fourth embodiment is the same as the stereoscopic imaging device of the first embodiment.
  • the local gradation conversion unit 111AL includes an ambient lightness detection unit 121, a subtracter 1601, a coefficient determination unit 1602, a multiplier 1603, and an adder 1604.
  • the ambient brightness detection unit 121 is the same as the ambient brightness detection unit 121 of the above-described embodiment.
  • the ambient lightness detection unit 121 receives an L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102, and receives attention corresponding to the luminance value IS_L of the L image signal.
  • a representative brightness value for example, an average luminance value of all the pixels included in the surrounding area
  • the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image region of the target pixel to the subtracter 1601 as the ambient brightness signal US_L.
  • the subtracter 1601 receives the luminance value IS_L of the L image signal and the ambient brightness signal US_L as inputs, (IS_L)-(US_L)
  • the difference signal ((IS_L) ⁇ (US_L)) obtained by the subtraction process is output to the coefficient determination unit 1602 and the multiplier 1603.
  • Multiplier 1603 receives difference signal ((IS_L) ⁇ (US_L)) output from ambient lightness detection unit 121 and coefficient k output from coefficient determination unit 1602, and k ⁇ ((IS_L)-(US_L))
  • the multiplication signal (k ⁇ ((IS_L) ⁇ (US_L))) obtained by the multiplication process is output to the adder 1604.
  • the coefficient k is set to a large value k1 (> k2). Enhance the degree of unsharp masking, (2) When the brightness (luminance value) of the processing target pixel is brighter than the brightness around the processing target pixel (for example, the average luminance value), the value of the coefficient k is set to a small value k2 ( ⁇ k1). , Decrease the emphasis level of unsharp masking. Thereby, in the three-dimensional image processing apparatus of this embodiment, the image processing which makes a shadow dark is realizable.
  • the coefficient k is large. Since the value is set to the value k1 (> k2), the amount by which the change ((IS_L) ⁇ (US_L)) of the image area including the processing target pixel is added increases. For this reason, the emphasis degree of unsharp masking becomes strong. As a result, the shadow portion of the stereoscopic image is emphasized (stereoscopic image processing is executed so that the shadow becomes dark).
  • the process is executed using the corrected luminance value OS_L in which the shadow portion is emphasized. Therefore, the shadow portion of the stereoscopic image is emphasized. Will be done.
  • the coefficient k is small. Since the value k2 ( ⁇ k1) is set, the added amount of the change ((IS_L) ⁇ (US_L)) of the image area including the processing target pixel is reduced. For this reason, the emphasis degree of unsharp masking becomes weak (the effect of unsharp masking becomes weak). As a result, a portion other than the shadow of the stereoscopic image (for example, a bright portion) is not emphasized so much.
  • the effect of unsharp masking can be set to “none” by setting the value of the coefficient k to “0”. That is, in this case, the unsharp masking process is executed only when the brightness (luminance value) of the processing target pixel is darker than the brightness around the processing target pixel (for example, the average luminance value), In the stereoscopic image processing apparatus according to the present embodiment, only the process in the direction of darkening the pixel value of the processing target pixel is executed (the process of enhancing the shadow portion is executed). In the above processing, the coefficient determination unit 1602 determines the coefficient k based on the characteristic C1701 shown in FIG. 19, but the present invention is not limited to this.
  • the coefficient determination unit 1602 displays the characteristic shown in FIG.
  • the coefficient k may be determined by C1702 (the coefficient k may be changed continuously with respect to the change in the value of the difference signal (IS_L-US_L)).
  • the coefficient determination unit 1602 determines the coefficient k based on the characteristic C1702 shown in FIG. 19, the coefficient k continuously changes with respect to the change in the value of the difference signal (IS_L-US_L).
  • the stereoscopic image processing apparatus can acquire a more natural stereoscopic image.
  • the stereoscopic image processing apparatus As described above, in the stereoscopic image processing apparatus according to the present embodiment, it is possible to realize image processing for increasing shadows. As a result, the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment becomes a stereoscopic image in which the shadow portion is selectively emphasized. As a result, the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective. Further, in the stereoscopic image processing apparatus according to the present embodiment, processing based on the depth value is executed as in the stereoscopic image processing apparatus according to the first embodiment. Therefore, an object (subject) having a different subject distance is displayed on the stereoscopic image. Even when objects (subjects) with a large contrast difference are close to each other, improper contrast enhancement is affected by the influence of the image area (an image area with a large contrast difference) that the object is close to. Can be appropriately avoided.
  • the stereoscopic imaging apparatus of this modification has a configuration in which the local gradation conversion units 111AL and 111AR in the stereoscopic imaging apparatus of the fourth embodiment are replaced with local gradation conversion units 111BL and 111BR shown in FIG. More specifically, the stereoscopic imaging device according to the present modification includes the ambient brightness detection unit 121 of the local gradation conversion units 111AL and 111AR in the stereoscopic imaging device of the fourth embodiment, and the second ambient brightness detection unit illustrated in FIG. The configuration is replaced with 1801. Other than that, the stereoscopic imaging device of the present modification is the same as the stereoscopic imaging device of the fourth embodiment. Therefore, hereinafter, the configurations and processing contents of the local gradation conversion units 111BL and 111BR in the stereoscopic imaging apparatus of the present modification will be described.
  • the processing for the R image is the same as the processing for the L image, and therefore the processing of the L image will be mainly described.
  • the same parts as those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
  • ⁇ 4.2: Local gradation converter 111BL> As illustrated in FIG. 20, the local gradation conversion unit 111BL includes a second ambient lightness detection unit 1801, a subtracter 1601, a coefficient determination unit 1602, a multiplier 1603, and an adder 1604.
  • the subtracter 1601, the coefficient determination unit 1602, the multiplier 1603, and the adder 1604 are the same as those in the fourth embodiment.
  • the second ambient brightness detection unit 1801 includes an ambient brightness detection unit 121, an offset calculation unit 1802, and an adder 1803.
  • the ambient brightness detection unit 121 illustrated in FIG. 20 is the same as the ambient brightness detection unit 121 illustrated in FIG.
  • the offset calculation unit 1802 receives the brightness value IS_L of the L image signal and the ambient brightness signal US_L output from the ambient brightness detection unit 121, and calculates the offset value ⁇ US_L from the brightness value IS_L of the L image signal and the ambient brightness signal US_L. . Then, offset calculation section 1802 outputs calculated offset value ⁇ US_L to adder 1803.
  • the offset calculation unit 1802 calculates the offset value ⁇ US_L as follows, for example.
  • Offset calculation section 1802 calculates the average value of the absolute value of difference between luminance value IS_L of the L image signal and ambient lightness signal US_L, where the number of samples is N (N is a natural number). . Then, the offset calculation unit 1802 sets the calculated average value as the offset value ⁇ US_L. That is, the offset calculation unit 1802 calculates the offset value ⁇ US_L by a process corresponding to the following (Equation 3) (the number of samples is N (N: natural number)). In order to facilitate use in subsequent signal processing, the offset value ⁇ US_L may be obtained by adjusting the range of the offset value by the coefficient c1 as in the following (Formula 3).
  • (B) Dispersion Value Offset calculation section 1802 calculates the dispersion value of luminance value IS_L of the L image signal and ambient lightness signal US_L, where the number of samples is N (N is a natural number). Then, the offset calculation unit 1802 sets the calculated variance value as the offset value ⁇ US_L. That is, the offset calculation unit 1802 calculates the offset value ⁇ US_L by a process corresponding to the following (Formula 4) (the number of samples is N (N: natural number)). In order to facilitate the use in subsequent signal processing, the offset value ⁇ US_L may be obtained by adjusting the range of the offset value by the coefficient c2 as in the following (Formula 4).
  • the offset calculation unit 1802 calculates the standard deviation value between the luminance value IS_L of the L image signal and the ambient lightness signal US_L, where N is the number of samples (N is a natural number). Then, the offset calculation unit 1802 sets the calculated standard deviation value as the offset value ⁇ US_L. That is, the offset calculation unit 1802 calculates the offset value ⁇ US_L by a process corresponding to the following (Formula 5) (the number of samples is N (N: natural number)). In order to facilitate the use in subsequent signal processing, the offset value ⁇ US_L may be obtained by adjusting the range of the offset value by the coefficient c3 as shown in the following (Formula 5).
  • the sample targets (N sample targets) of the arithmetic processing according to the above (Formula 3) to (Formula 5) be N pixels existing in the vicinity of the process target pixel in the image region.
  • the adder 1803 receives the ambient lightness signal US_L output from the ambient lightness detection unit 121 and the offset value ⁇ US_L output from the offset calculation unit 1802, and adds the ambient lightness signal US_L and the offset value ⁇ US_L. Then, the adder 1803 outputs the addition result (US_L + ⁇ US_L) to the subtracter 1601 as the corrected ambient lightness signal US_L ′.
  • the corrected ambient lightness signal US_L ′ obtained in this way is (1) In a portion (image region) where the luminance value IS_L of the L image signal is little changed, the value is similar to that of the ambient lightness signal US_L. (2) In a portion (image region) where the luminance value IS_L of the L image signal is largely changed (image region), the value is larger than the ambient lightness signal US_L (a large signal value).
  • the corrected ambient lightness signal US_L ′ becomes the waveform Us ′.
  • the corrected ambient lightness signal US_L ′ (waveform Us ′) is (1) In a portion (image region) where the luminance value IS_L (waveform Is) of the L image signal is little changed, the value is similar to that of the ambient lightness signal US_L (waveform Us).
  • the effect of unsharp masking can be set to “none” by setting the value of the coefficient k to “0”. That is, in this case, the unsharp masking process is executed only when the brightness (luminance value) of the pixel to be processed is darker than the brightness determined by the corrected ambient brightness signal US_L ′. In the image processing apparatus, only the process in the direction of darkening the pixel value of the processing target pixel is executed (the process of enhancing the shadow portion is executed).
  • the coefficient determination unit 1602 determines the coefficient k based on the characteristic C2001 shown in FIG. 22, but the present invention is not limited to this.
  • the coefficient determination unit 1602 displays the characteristic shown in FIG.
  • the coefficient k may be determined by C2002 (the coefficient k may be continuously changed with respect to the change of the value of the difference signal (IS_L ⁇ US_L ′)).
  • the coefficient k continuously changes with respect to the change in the value of the difference signal (IS_L ⁇ US_L ′).
  • this stereoscopic image processing apparatus it is possible to acquire a more natural stereoscopic image.
  • the corrected luminance value Os_L acquired by the stereoscopic image processing apparatus according to the present modification will be described with reference to FIG.
  • FIG. 21A shows the luminance value IS_L (waveform Is) of the L image signal, the ambient lightness signal US_L (waveform Us), and the corrected luminance acquired by performing local gradation conversion processing (contrast enhancement processing).
  • the value OS_L (waveform Os) is shown.
  • FIG. 21B shows the correction obtained by performing the luminance value IS_L (waveform Is) of the L image signal, the corrected ambient lightness signal US_L ′ (waveform Us ′), and the local gradation conversion processing (contrast enhancement processing).
  • the subsequent luminance value OS_L (waveform Os ′) is shown. That is, FIG. 21B shows an example of a signal waveform by the stereoscopic image processing apparatus of the present modification. As can be seen from FIG.
  • the signal value of the corrected ambient lightness signal US_L ′ (waveform Us ′) is large in the portion where the luminance value IS_L (waveform Is) of the L image signal is large. Therefore, the unsharp masking processing is enhanced with respect to the luminance value IS_L (waveform Is) of the L image signal having a signal value lower than the signal value of the corrected ambient lightness signal US_L ′.
  • FIG. 21B in a portion where the change in the luminance value IS_L (waveform Is) of the L image signal is large, a process in the direction of darkening (a process of decreasing the gradation value) is executed. .
  • the stereoscopic image processing apparatus As described above, in the stereoscopic image processing apparatus according to the present modification, by using the corrected ambient lightness signal US_L ′, it is possible to realize image processing that effectively darkens the shadow in the detail portion of the object. As a result, the stereoscopic image acquired by the stereoscopic imaging device (stereoscopic image processing apparatus) of the present modification becomes a stereoscopic image in which the shadow portion is selectively emphasized. As a result, the stereoscopic image acquired by the stereoscopic imaging apparatus (stereoscopic image processing apparatus) of the present modification is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • the processing based on the depth value is executed as in the stereoscopic image processing apparatus of the first embodiment. Therefore, an object (subject) having a different subject distance on the stereoscopic image is executed. Even when objects (subjects) with a large difference in brightness are close to each other, improper contrast enhancement is affected by the image area (an image area with a large difference in brightness) affected by the object. Can be appropriately avoided.
  • the stereoscopic imaging device of this modification has a configuration in which the second ambient brightness detection unit 1801 of the stereoscopic imaging device of the first modification of the fourth embodiment is replaced with a third ambient brightness detection unit 2101 shown in FIG.
  • the stereoscopic imaging device of the present modification is the same as the stereoscopic imaging device of the first modification of the fourth embodiment. Therefore, hereinafter, the configuration and processing contents of the third ambient lightness detection unit 2101 in the stereoscopic imaging apparatus of the present modification will be described.
  • the processing for the R image is the same as the processing for the L image as in the above-described embodiment, and therefore the processing of the L image will be mainly described.
  • the third ambient lightness detection unit 2101 does not use the ambient lightness signal US_L, and the corrected surroundings that have a large signal value in a portion where the luminance value IS_L of the L image signal changes greatly
  • the brightness signal US_L ′ is acquired.
  • the third ambient lightness detection unit 2101 includes a first low-pass filter 2102, a max filter 2103, and a second low-pass filter 2104.
  • the first low-pass filter 2102 receives the luminance value IS_L of the L image signal, and performs filter processing (low-pass filter processing) for removing fine noise components (high-frequency noise components) from the input luminance value IS_L of the L image signal. Execute. Then, the first low-pass filter 2102 outputs the L image signal after the filter processing to the max filter 2103.
  • the max filter 2103 receives the output of the first low-pass filter 2102 and executes max filter processing. Specifically, the Max filter 2103 has N pixels (N is a natural number) existing near the processing target pixel and the processing target pixel with respect to the output of the first low-pass filter 2102 (L image signal after the low-pass filter processing). ) Of the peripheral pixels (sample points) of () are detected. Then, the maximum filter 2103 outputs the detected maximum value to the second low-pass filter 2104. The second low-pass filter 2104 receives the output from the max filter 2103 and performs low-pass filter processing on the input signal. The low pass filter process in the second low pass filter 2104 is a process for removing unnecessary high frequency components in the output of the max filter 2103. Then, the second low-pass filter 2104 outputs the signal after the low-pass filter processing as a corrected ambient lightness signal US_L ′.
  • a predetermined filter range (a processing target pixel and its surrounding pixels is determined from a signal (output signal of the first low-pass filter 2102) after removing a fine noise component.
  • the maximum value in the filter range is taken, and a signal having the maximum value as the signal value (the output signal of the max filter 2103) is acquired.
  • the third ambient lightness detection unit 2101 acquires the corrected ambient lightness signal US_L ′ by removing unnecessary high frequency components from the output signal of the max filter 2103.
  • the third ambient lightness detection unit 2101 uses only the brightness value IS_L of the L image signal without using the ambient lightness signal US_L, and uses a large signal value in a portion where the change in the brightness value IS_L of the L image signal is large.
  • the corrected ambient brightness signal US_L ′ can be acquired.
  • the stereoscopic imaging apparatus of this modification by using the corrected ambient lightness signal US_L ′ acquired by the third ambient lightness detection unit 2101, the detail portion of the object, etc., as in the first modification of the fourth embodiment.
  • the stereoscopic image acquired by the stereoscopic imaging device (stereoscopic image processing apparatus) of the present modification becomes a stereoscopic image in which the shadow portion is selectively emphasized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus (stereoscopic image processing apparatus) of the present modification is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • the processing based on the depth value is executed as in the stereoscopic image processing apparatus of the first embodiment. Therefore, an object (subject) having a different subject distance on the stereoscopic image is executed. Even when objects (subjects) with a large difference in brightness are close to each other, improper contrast enhancement is affected by the image area (an image area with a large difference in brightness) affected by the object. Can be appropriately avoided.
  • a fifth embodiment will be described.
  • a technique for realizing stereoscopic image processing that darkens shadows will be described.
  • a stereoscopic image processing apparatus (such as a digital camera or a video camera) will be described below as an example of a stereoscopic image processing apparatus.
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the fifth embodiment is the same as the configuration of the stereoscopic imaging device 1000 of the first embodiment.
  • the local gradation conversion units 111L and 111R of the image correction unit 104 in the stereoscopic imaging device 1000 of the first embodiment are replaced with local gradation conversion units 111CL and 111CR shown in FIG. It has a configuration.
  • the stereoscopic imaging device of the fifth embodiment is different from the stereoscopic imaging device 1000 of the first embodiment.
  • the stereoscopic imaging device of the fifth embodiment is the same as the stereoscopic imaging device of the first embodiment. Therefore, hereinafter, the configuration and processing contents of the local gradation conversion units 111CL and 111CR in the stereoscopic imaging apparatus of the present embodiment will be described.
  • the processing for the R image is the same as the processing for the L image, and therefore the processing of the L image will be mainly described.
  • symbol is attached
  • the local gradation conversion unit 111CL includes an ambient lightness detection unit 121 and a second dynamic gradation correction unit 122A.
  • the ambient brightness detection unit 121 is the same as the ambient brightness detection unit 121 of the above-described embodiment.
  • the ambient lightness detection unit 121 receives an L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102, and receives attention corresponding to the luminance value IS_L of the L image signal.
  • a representative brightness value (for example, an average luminance value of all the pixels included in the surrounding area) around the pixel (the processing target pixel on the L image) (a surrounding image area of the target pixel on the L image) is calculated. . Then, the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image area of the target pixel as the ambient brightness signal US_L to the second dynamic gradation correction unit 122A.
  • the second dynamic gradation correction unit 122A outputs the L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102 and the ambient lightness detection unit 121.
  • the ambient lightness signal US_L is input.
  • the second dynamic gradation correction unit 122A performs gradation conversion processing on the luminance value IS_L of the L image signal with gradation conversion characteristics determined based on the value of the ambient lightness signal US_L.
  • the gradation conversion characteristics of the second dynamic gradation correction unit 122A are, for example, as shown in FIG.
  • the gradation conversion characteristics of FIG. 25 are the same as the gradation conversion characteristics of FIG.
  • the input value IS is greater than the value US of the ambient lightness signal
  • the input value IS is directly used as the output value OS.
  • the horizontal axis represents the value of the IS signal that is the input signal (the luminance value IS_L of the L image signal or the luminance value IS_R of the R image signal)
  • the vertical axis represents the OS that is the output signal.
  • the signal value (the luminance value OS_L after the gradation conversion of the L image signal or the luminance value OS_R after the gradation conversion of the R image signal) is taken and is determined by the value of the ambient lightness signal US_L (or US_L).
  • the gradation conversion characteristic of FIG. 25 is determined by the curve shown by the solid line portion. That is, only when the value of the IS signal is less than or equal to the value US of the ambient lightness signal, the gradation conversion characteristic is determined by the gradation conversion characteristic curve Kn (n: an integer from 1 to 8). When the value of the IS signal is larger than the value US of the ambient lightness signal, the value of the IS signal that is the input value is directly used as the output value OS without gradation conversion.
  • the second dynamic gradation correction unit 122A performs gradation conversion according to the gradation conversion characteristics shown in FIG.
  • the second dynamic gradation correction unit 122A has the IS signal (the luminance value IS_L of the L image signal or the luminance value IS_R of the R image signal) based on the gradation conversion characteristics as shown in FIG.
  • the OS signal (the luminance value OS_L after the gradation conversion of the L image signal or the luminance value OS_R after the gradation conversion of the R image signal) is obtained by performing dynamic gradation correction processing on.
  • the second dynamic gradation correction unit 122A then combines the OS signal (the luminance value OS_L after gradation conversion of the L image signal or the luminance value OS_R after gradation conversion of the R image signal) with the synthesis unit 113L (R In the case of an image signal, it is output to the combining unit 113R).
  • the gradation conversion characteristics used in the gradation conversion processing by the second dynamic gradation correction unit 122A are not limited to the gradation conversion characteristics shown in FIG. 25, and the gradation that can darken the shadow. Other gradation conversion characteristics may be used as long as they are conversion characteristics.
  • the gradation conversion processing by the second dynamic gradation correction unit 122A is performed by gradation conversion characteristics that lower the degree of enhancement of local contrast. May be.
  • the tone conversion processing by the second dynamic tone correction unit 122A is performed by the tone conversion characteristics determined by the curve in which the slopes of the dotted line portions of the tone conversion characteristics curves K1 to K8 in FIG. 25 are reduced. May be.
  • the second dynamic gradation correction unit 122A executes the gradation conversion process by the gradation conversion characteristics illustrated in FIG. Only when the value of the IS signal is less than or equal to the value US of the ambient lightness signal, that is, when the pixel to be processed is darker than the surroundings, the local contrast is enhanced. As a result, the stereoscopic imaging apparatus (stereoscopic image processing apparatus) according to the present embodiment can realize gradation conversion that deepens shadows. As a result, the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment becomes a stereoscopic image in which the shadow portion is selectively emphasized.
  • the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • processing based on the depth value is executed as in the stereoscopic image processing apparatus according to the first embodiment. Therefore, an object (subject) having a different subject distance is displayed on the stereoscopic image. Even when objects (subjects) with a large contrast difference are close to each other, improper contrast enhancement is affected by the influence of the image area (an image area with a large contrast difference) that the object is close to. Can be appropriately avoided.
  • the stereoscopic imaging device of this modification has a configuration in which the local gradation conversion units 111CL and 111CR in the stereoscopic imaging device of the fifth embodiment are replaced with local gradation conversion units 111DL and 111DR shown in FIG.
  • the local gradation conversion units 111DL and 111DR include a second ambient lightness detection unit 1801 and a dynamic gradation correction unit 122.
  • the second ambient lightness detection unit 1801 is the same as that described in the above embodiment (shown in FIG. 20).
  • the dynamic gradation correction unit 122 is the same as that described in the above embodiment, and performs gradation conversion using the gradation conversion characteristics shown in FIG.
  • the dynamic gradation correction unit 122 performs gradation conversion processing using the corrected ambient lightness signal US_L ′ output from the second ambient lightness detection unit 1801. Therefore, it is possible to perform gradation conversion that darkens the shadow. That is, the signal value of the corrected ambient lightness signal US_L ′ increases in a portion where the luminance value IS_L of the L image signal changes greatly. Therefore, the gradation conversion process using the ambient lightness signal US_L is performed by executing the gradation conversion process using the corrected ambient lightness signal US_L ′ by the dynamic gradation correction unit 122 of the stereoscopic imaging apparatus of the present modification.
  • the pixel value (luminance value) of the processing target pixel whose luminance value IS_L of the L image signal is “4/8” is an output value determined by point A in FIG.
  • the gradation is converted to OS_L.
  • the gradation conversion process performed by the stereoscopic imaging apparatus according to the present modification has a gradation so that the output value is lower (darker) than the gradation conversion process performed by the stereoscopic imaging apparatus according to the first embodiment. Converted. Therefore, in the gradation conversion process by the stereoscopic imaging device of the present modification, it is possible to enhance the shadow (enhance the shadow) more than in the gradation conversion process by the stereoscopic imaging device of the first embodiment.
  • the gradation conversion process is executed by the dynamic gradation correction unit 122 using the corrected ambient lightness signal US_L ′, and thus the luminance value IS_L of the L image signal is In a portion where the change is large, a process in the direction of darkening (a process of lowering the gradation value) is executed.
  • a process in the direction of darkening a process of lowering the gradation value
  • the stereoscopic image acquired by the stereoscopic imaging device (stereoscopic image processing apparatus) of the present modification becomes a stereoscopic image in which the shadow portion is selectively emphasized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus (stereoscopic image processing apparatus) of the present modification is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • the processing based on the depth value is executed as in the stereoscopic image processing apparatus of the first embodiment. Therefore, an object (subject) having a different subject distance on the stereoscopic image is executed. Even when objects (subjects) with a large difference in brightness are close to each other, improper contrast enhancement is affected by the image area (an image area with a large difference in brightness) affected by the object. Can be appropriately avoided.
  • the corrected ambient brightness signal US_L ′ is generated using the third ambient brightness detection unit 2101 shown in FIG. 21 instead of the second ambient brightness detection unit 1801. May be.
  • the light source is often not a perfect parallel light source.
  • the shadow becomes wider as the distance to the shadow increases.
  • the shadow is blurred.
  • the shadow is blurred from the shape of the unevenness of the real object, and human vision is thought to feel such a change in light and darkness as a shadow.
  • a stereoscopic image processing apparatus (such as a digital camera or a video camera) will be described below as an example of a stereoscopic image processing apparatus.
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the sixth embodiment is the same as the configuration of the stereoscopic imaging device of the fourth embodiment.
  • the stereoscopic imaging device of the sixth embodiment has a configuration in which the local gradation conversion units 111AL and 111AR in the stereoscopic imaging device of the fourth embodiment are replaced with local gradation conversion units 111EL and 111ER shown in FIG.
  • the stereoscopic imaging device of the sixth embodiment is different from the stereoscopic imaging device of the fourth embodiment.
  • the stereoscopic imaging device of the sixth embodiment is the same as the stereoscopic imaging device of the fourth embodiment. Therefore, hereinafter, the configuration and processing contents of the local gradation conversion units 111EL and 111ER in the stereoscopic imaging apparatus of the present embodiment will be described.
  • the processing for the R image is the same as the processing for the L image as in the above-described embodiment, and therefore the processing of the L image will be mainly described.
  • ⁇ 6.1: Local Tone Converter 111EL> As shown in FIG. 27, the local gradation converting unit 111EL has a configuration in which a band limiting unit 2501 is further added between the multiplier 1603 and the adder 1604 in the local gradation converting unit 111BL shown in FIG. ing. Except for this point, the local gradation conversion unit 111EL is the same as the local gradation conversion unit 111BL shown in FIG.
  • Band limiting section 2501 receives the output from multiplier 1603 as input, performs band limiting processing on the input signal (multiplied signal (k ⁇ ((IS_L) ⁇ (US_L ′)))), and performs band limiting.
  • the processed signal (LPF (k ⁇ ((IS_L) ⁇ (US_L ′)))) is output to the adder 1604.
  • LPF () is a function indicating a band limiting process, for example, a function for outputting a signal value acquired by a low-pass filter process or the like.
  • the band limiting process in the band limiting unit 2501 may be a process for reducing the high frequency component of the multiplication signal (k ⁇ ((IS_L) ⁇ (US_L ′))) that is an input signal to the band limiting unit 2501.
  • LPF processing may be used as band limiting processing in the band limiting unit 2501.
  • the band limiting process in the band limiting unit 2501 preferably sets the cutoff frequency of the band limitation to a frequency that is one digit higher than the signal band of the ambient lightness signal US_L. For example, if the size of the target image is 1024 pixels in the vertical direction and 768 pixels in the horizontal direction, it is preferable to generate the ambient lightness signal US_L from an area having 80 pixels or more in the vertical and horizontal directions. It is preferable to set the band limiting cutoff frequency of the band limiting process in the band limiting unit 2501 to a frequency one digit or more higher than the band limiting cutoff frequency of the process to be acquired (for example, LPF processing).
  • the adder 1604 adds the band-limited signal (LPF (k ⁇ ((IS_L) ⁇ (US_L ′))))))) output from the band limiting unit 2501 and the luminance value IS_L of the L image signal. .
  • OS_L IS_L + LPF (k ⁇ ((IS_L) ⁇ (US_L ′)))
  • the process corresponding to is executed.
  • ((IS_L) ⁇ (US_L ′)) corresponds to the shadow component
  • (k ⁇ ((IS_L) ⁇ (US_L ′))) is considered to correspond to the additional component of the shadow.
  • k ⁇ ((IS_L) ⁇ (US_L ′)))) corresponds to a shadow component to be added blurred (band-limited).
  • the corrected L image signal (corrected luminance value) OS_L output from the local gradation conversion unit 111EL of the present embodiment is a signal in which the shadow is emphasized while the shadow is blurred.
  • the stereoscopic image processing apparatus according to the present embodiment it is possible to realize image processing that blurs shadows and darkens shadows (enhances shadows).
  • the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment becomes a stereoscopic image in which the shadow portion is selectively emphasized while the shadow portion is blurred.
  • the stereoscopic image acquired by the stereoscopic image processing apparatus of the present embodiment is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • processing based on the depth value is executed as in the stereoscopic image processing apparatus according to the first embodiment. Therefore, an object (subject) having a different subject distance is displayed on the stereoscopic image. Even when objects (subjects) with a large contrast difference are close to each other, improper contrast enhancement is affected by the influence of the image area (an image area with a large contrast difference) that the object is close to. Can be appropriately avoided.
  • this embodiment may be combined with the other embodiments described above. Thereby, also in the stereoscopic image processing techniques of the other embodiments described above, it is possible to realize stereoscopic image processing that darkens the shadow portion and darkens the shadow (emphasizes the shadow).
  • the second ambient lightness detection unit 1801 may be replaced with the third ambient lightness detection unit 2101 shown in FIG. In this case, the same effect as that of the stereoscopic image processing apparatus of the present embodiment can be obtained.
  • the stereoscopic imaging apparatus of this modification has a configuration in which the local gradation conversion units 111EL and 111ER in the stereoscopic imaging apparatus of the sixth embodiment are replaced with local gradation conversion units 111FL and 111FR shown in FIG.
  • the stereoscopic imaging device of the present modification is the same as the stereoscopic imaging device of the sixth embodiment. Therefore, hereinafter, the configurations and processing contents of the local gradation conversion units 111FL and 111FR in the stereoscopic imaging apparatus of the present modification will be described.
  • the processing for the R image is the same as the processing for the L image, and therefore the processing of the L image will be mainly described.
  • the local gradation conversion unit 111FL includes a second ambient lightness detection unit 1801, a subtracter 1601, a coefficient determination unit 1602, a multiplier 1603, and an adder 1604. Further, as shown in FIG. 28, local gradation converting unit 111FL includes multiplier 2601, adder 2602, band limiting unit 2501, subtractor 2603, and adder 1604.
  • the local gradation converter 111FL OS_L IS_L ⁇ p ⁇ (IS_L ⁇ US_L ′) + LPF ((k + p) ⁇ (IS_L ⁇ US_L ′)) (A0) (P: 0 ⁇ p ⁇ 1) Is executed.
  • OS_L US_L ′ + (k + 1) ⁇ (IS_L ⁇ US_L ′) (A1)
  • the second term on the right side of the mathematical formula (A1) represents (shadow component originally present in the original image) + (shadow component to be added).
  • OS_L US_L ′ + LPF ((k + 1) ⁇ (IS_L ⁇ US_L ′)) (A2)
  • the mathematical expression (A0) is the same as the mathematical expression (A2), and the process of blurring the shadow component to be added and the existing shadow component is executed. That is, the local gradation conversion unit 111FL executes a process corresponding to the mathematical expression (A0), thereby executing a blurring method between the mathematical expression (A2) and the mathematical expression (A3) (corresponding to the sixth embodiment). Can be realized.
  • p that determines the degree of blurring is set by a control unit (not shown) or the like.
  • p is set to 0 ⁇ p ⁇ 0.5 because good shadow enhancement is realized.
  • the stereoscopic image processing apparatus can realize image processing that blurs shadows and darkens shadows (enhances shadows). Furthermore, in the stereoscopic image processing apparatus according to the present modification, the degree of blurring can be adjusted. Thereby, the stereoscopic image acquired by the stereoscopic image processing apparatus according to the present modification is a stereoscopic image in which the shadow portion is selectively emphasized while appropriately blurring the shadow portion. As a result, the stereoscopic image acquired by the stereoscopic image processing apparatus according to the present modification is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • the processing based on the depth value is executed as in the stereoscopic image processing apparatus of the first embodiment. Therefore, an object (subject) having a different subject distance on the stereoscopic image is executed. Even when objects (subjects) with a large difference in brightness are close to each other, improper contrast enhancement is affected by the image area (an image area with a large difference in brightness) affected by the object. Can be appropriately avoided.
  • this embodiment may be combined with the other embodiments described above. Thereby, also in the stereoscopic image processing techniques of the other embodiments described above, it is possible to realize stereoscopic image processing that darkens the shadow portion and darkens the shadow (emphasizes the shadow).
  • the second ambient lightness detection unit 1801 may be replaced with the third ambient lightness detection unit 2101 shown in FIG. In this case, the same effect as that of the stereoscopic image processing apparatus of the present embodiment can be obtained. Further, in the local gradation conversion unit 111FL of the present embodiment, the second ambient brightness detection unit 1801 may be replaced with the ambient brightness detection unit 121.
  • a seventh embodiment Similar to the fourth to sixth embodiments, in this embodiment, a technique for realizing stereoscopic image processing for increasing shadows will be described.
  • a stereoscopic image processing apparatus (such as a digital camera or a video camera) will be described below as an example of a stereoscopic image processing apparatus.
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the seventh embodiment is the same as the configuration of the stereoscopic imaging device of the second embodiment.
  • the stereoscopic imaging device of the seventh embodiment has a configuration in which the second local gradation conversion units 511L and 511R of the image correction unit 504 in the stereoscopic imaging device of the second embodiment are replaced with local gradation conversion units 111AAL and 111AAR.
  • the stereoscopic imaging device of the seventh embodiment is different from the stereoscopic imaging device of the second embodiment.
  • the stereoscopic imaging device of the seventh embodiment is the same as the stereoscopic imaging device of the second embodiment. Therefore, hereinafter, configurations and processing contents of the local gradation conversion units 111AAL and 111AAR in the stereoscopic imaging apparatus of the present embodiment will be described.
  • the local gradation converting unit 111AAL includes a depth ambient lightness detecting unit 521, a subtracter 1601, a coefficient determining unit 1602, a multiplier 1603, and an adder 1604.
  • the local gradation conversion unit 111AAL has a configuration in which the ambient lightness detection unit 121 is replaced with a depth ambient lightness detection unit 521 in the local gradation conversion unit 111AL of FIG.
  • the depth ambient brightness detection unit 521 is the same as the depth ambient brightness detection unit 521 of the above-described embodiment.
  • the depth ambient lightness detection unit 521 inputs the L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102 and the L depth value output from the depth acquisition unit 103. And a representative brightness value (for example, in the surrounding region) of the region around the target pixel (processing target pixel on the L image) corresponding to the luminance value IS_L of the L image signal (the peripheral image region of the target pixel on the L image) The average luminance value of all the included pixels) is calculated by (Formula 2), as in the second embodiment. Then, the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image region of the target pixel to the subtracter 1601 as the ambient brightness signal US_L.
  • the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image region of the target pixel to the subtracter 1601 as the ambient brightness signal US_L.
  • the subsequent processing is the same as in the fourth embodiment.
  • the process is executed by the ambient lightness signal US_L in which the influence of pixels having different distances (subject distances) is suppressed. Therefore, in the stereoscopic image processing apparatus according to the present embodiment, even when objects (subjects) having different subject distances and objects having a large contrast difference are close to each other on the stereoscopic image, Properly avoiding improper contrast enhancement under the influence of an image area close to the object (image area with a large contrast), and realizing image processing that darkens the shadow Can do.
  • the stereoscopic image acquired by the stereoscopic imaging device of the present embodiment is a stereoscopic image in which natural shadow enhancement is realized.
  • ⁇ First Modification (Seventh Embodiment) >> Next, a first modification of the present embodiment will be described.
  • the stereoscopic imaging apparatus of this modification has a configuration in which the local gradation conversion units 111AAL and 111AAR in the stereoscopic imaging apparatus of the seventh embodiment are replaced with local gradation conversion units 111BBL and 111BBR shown in FIG. More specifically, the stereoscopic imaging apparatus according to the present modification includes the depth ambient brightness detection unit 521 of the local gradation conversion units 111AAL and 111AAR in the stereoscopic imaging apparatus according to the seventh embodiment, and the second depth ambient brightness shown in FIG. The detection unit 1801A is replaced. Other than that, the stereoscopic imaging device of the present modification is the same as the stereoscopic imaging device of the seventh embodiment. Therefore, hereinafter, configurations and processing contents of the local gradation conversion units 111BBL and 111BBR in the stereoscopic imaging apparatus of the present modification will be described.
  • the processing for the R image is the same as the processing for the L image as in the above-described embodiment, and therefore the processing of the L image will be mainly described.
  • the same parts as those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the local gradation conversion unit 111BBL includes a second depth ambient lightness detection unit 1801A, a subtracter 1601, a coefficient determination unit 1602, a multiplier 1603, and an adder 1604.
  • the subtracter 1601, the coefficient determination unit 1602, the multiplier 1603, and the adder 1604 are the same as those in the seventh embodiment.
  • the second depth ambient brightness detection unit 1801A includes a depth ambient brightness detection unit 521, an offset calculation unit 1802, and an adder 1803.
  • the second depth ambient brightness detection unit 1801A has a configuration in which the ambient brightness detection unit 121 is replaced with the depth ambient brightness detection unit 521 in the second ambient brightness detection unit 1801 shown in FIG.
  • the depth ambient brightness detection unit 521 is the same as the depth ambient brightness detection unit 521 of the above-described embodiment.
  • the depth ambient lightness detection unit 521 inputs the L image signal (the luminance value IS_L of the L image signal) that can form the L image output from the image input unit 102 and the L depth value output from the depth acquisition unit 103.
  • the average luminance value of all the included pixels is calculated by (Formula 2), as in the second embodiment.
  • the ambient brightness detection unit 121 outputs the calculated representative brightness value of the peripheral image region of the target pixel to the subtracter 1601 as the ambient brightness signal US_L.
  • the subsequent processing is the same as that of the first modification of the fourth embodiment.
  • processing is executed using the ambient lightness signal US_L in which the influence of pixels having different distances (subject distances) is suppressed. Therefore, in the stereoscopic image processing apparatus according to the present modification, even if objects (subjects) having different subject distances and objects having a large difference in brightness (subjects) are close to each other on the stereoscopic image, Properly avoid improper contrast enhancement under the influence of an image area close to an object (an image area with a large contrast between light and dark), and realize image processing that deepens shadows Can do. As a result, the stereoscopic image acquired by the stereoscopic imaging apparatus of the present modification is a stereoscopic image in which natural shadow enhancement is realized. [Eighth Embodiment] Next, an eighth embodiment will be described.
  • a technique for realizing stereoscopic image processing that darkens shadows will be described.
  • a stereoscopic image processing apparatus (such as a digital camera or a video camera) will be described below as an example of a stereoscopic image processing apparatus.
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the eighth embodiment is the same as the configuration of the stereoscopic imaging device of the second embodiment.
  • the stereoscopic imaging device of the eighth embodiment replaces the second local gradation conversion units 511L and 511R of the image correction unit 104 in the stereoscopic imaging device of the second embodiment with the local gradation conversion units 111CCL and 111CCR shown in FIG. It has a substituted configuration.
  • the stereoscopic imaging device of the eighth embodiment is different from the stereoscopic imaging device of the second embodiment.
  • the stereoscopic imaging device of the eighth embodiment is the same as the stereoscopic imaging device of the second embodiment.
  • the local gradation conversion unit 111CCL includes a depth ambient lightness detection unit 521 and a second dynamic gradation correction unit 122A.
  • the depth ambient brightness detection unit 521 is the same as the depth ambient brightness detection unit 521 of the above-described embodiment.
  • the second dynamic gradation correction unit 122A is the same as the second dynamic gradation correction unit 122A described above.
  • the depth ambient brightness detection unit 521 performs processing using the ambient brightness signal US_L in which the influence of pixels having different distances (subject distances) is suppressed. Therefore, in the stereoscopic image processing apparatus according to the present embodiment, even when objects (subjects) having different subject distances and objects having a large contrast difference are close to each other on the stereoscopic image, Properly avoiding improper contrast enhancement under the influence of an image area close to the object (image area with a large contrast), and realizing image processing that darkens the shadow Can do. As a result, the stereoscopic image acquired by the stereoscopic imaging device of the present embodiment is a stereoscopic image in which natural shadow enhancement is realized.
  • the stereoscopic imaging apparatus of this modification has a configuration in which the local gradation conversion units 111CCL and 111CCR in the stereoscopic imaging apparatus of the eighth embodiment are replaced with local gradation conversion units 111DDL and 111DDR shown in FIG.
  • the local gradation conversion units 111DDL and 111DDR include a second depth ambient lightness detection unit 1801A and a dynamic gradation correction unit 122.
  • the second depth ambient lightness detection unit 1801A is the same as that described in the above embodiment (shown in FIG. 30).
  • the second depth ambient lightness detection unit 1801A performs processing using the corrected ambient lightness signal US_L ′ in which the influence of pixels having different distances (subject distances) is suppressed. Therefore, in the stereoscopic image processing apparatus according to the present modification, even if objects (subjects) having different subject distances and objects having a large difference in brightness (subjects) are close to each other on the stereoscopic image, Properly avoid improper contrast enhancement under the influence of an image area close to an object (an image area with a large contrast between light and dark), and realize image processing that deepens shadows Can do. As a result, the stereoscopic image acquired by the stereoscopic imaging apparatus of the present modification is a stereoscopic image in which natural shadow enhancement is realized.
  • a ninth embodiment will be described.
  • the ninth embodiment as in the sixth embodiment, by reducing the high-frequency component of the shadow component to be added, the stereoscopic effect that enhances the visual natural shadow and realizes a more natural stereoscopic effect / perspective
  • a stereoscopic image processing technique capable of acquiring an image will be described.
  • a stereoscopic image processing apparatus such as a digital camera or a video camera
  • a stereoscopic image processing apparatus such as a digital camera or a video camera
  • the stereoscopic image processing apparatus is not limited to the binocular stereoscopic imaging apparatus, and the stereoscopic image processing apparatus may be, for example, a multi-viewpoint stereoscopic imaging apparatus.
  • the configuration of the stereoscopic imaging device of the ninth embodiment is the same as the configuration of the stereoscopic imaging device of the first modification of the seventh embodiment.
  • the stereoscopic imaging device of the ninth embodiment is configured by replacing the local gradation conversion units 111BBL and 111BBR in the stereoscopic imaging device of the first modification of the seventh embodiment with local gradation conversion units 111EEL and 111EER shown in FIG. Have In this regard, the stereoscopic imaging device of the ninth embodiment is different from the stereoscopic imaging device of the seventh embodiment. In other respects, the stereoscopic imaging device of the ninth embodiment is the same as the stereoscopic imaging device of the seventh embodiment. Therefore, hereinafter, the configurations and processing contents of the local gradation conversion units 111EEL and 111EER in the stereoscopic imaging apparatus of the present embodiment will be described.
  • local gradation converting section 111EEL has a configuration in which band limiting section 2501 is further added between multiplier 1603 and adder 1604 in local gradation converting section 111BBL shown in FIG. ing. Except for this point, the local gradation conversion unit 111EEL is the same as the local gradation conversion unit 111BBL shown in FIG.
  • the band limiting unit 2501 is the same as the band limiting unit 2501 illustrated in FIG.
  • the second depth ambient lightness detection unit 1801A performs processing using the corrected ambient lightness signal US_L ′ in which the influence of pixels having different distances (subject distances) is suppressed. Therefore, in the stereoscopic image processing apparatus according to the present embodiment, even when objects (subjects) having different subject distances and objects having a large contrast difference are close to each other on the stereoscopic image, Properly avoiding improper contrast enhancement under the influence of an image area close to the object (image area with a large contrast), and realizing image processing that darkens the shadow Can do. As a result, the stereoscopic image acquired by the stereoscopic imaging device of the present embodiment is a stereoscopic image in which natural shadow enhancement is realized.
  • the stereoscopic imaging apparatus of this modification has a configuration in which the local gradation conversion units 111EEL and 111EER in the stereoscopic imaging apparatus of the ninth embodiment are replaced with local gradation conversion units 111FFL and 111FFR shown in FIG.
  • the stereoscopic imaging device of the present modification is the same as the stereoscopic imaging device of the ninth embodiment. Therefore, hereinafter, the configurations and processing contents of the local gradation conversion units 111FFL and 111FFR in the stereoscopic imaging apparatus of the present modification will be described.
  • the processing for the R image is the same as the processing for the L image as in the above-described embodiment, and therefore the processing of the L image will be mainly described.
  • the local gradation converting unit 111FFL includes a second depth ambient lightness detecting unit 1801A, a subtracter 1601, a coefficient determining unit 1602, a multiplier 1603, and an adder 1604. Further, as shown in FIG. 34, the local gradation conversion unit 111FFL includes a multiplier 2601, an adder 2602, a band limiting unit 2501, a subtracter 2603, and an adder 1604.
  • the subtractor 1601, the coefficient determination unit 1602, the multiplier 1603, the adder 1604, the multiplier 2601, the adder 2602, the band limiting unit 2501, and the subtractor 2603 of the local gradation conversion unit 111FFL are the same as those in the sixth embodiment. This is the same as that of the local gradation converting unit 111FL (111FR).
  • the stereoscopic image processing apparatus In the stereoscopic image processing apparatus according to the present modification, it is possible to realize image processing that blurs the shadow and darkens the shadow (emphasizes the shadow). Furthermore, in the stereoscopic image processing apparatus according to the present modification, the degree of blurring can be adjusted. Thereby, the stereoscopic image acquired by the stereoscopic image processing apparatus according to the present modification is a stereoscopic image in which the shadow portion is selectively emphasized while appropriately blurring the shadow portion. As a result, the stereoscopic image acquired by the stereoscopic image processing apparatus according to the present modification is a stereoscopic image that reproduces a more natural stereoscopic effect / perspective.
  • the second depth ambient brightness detection unit 1801A executes the process using the corrected ambient brightness signal US_L ′ in which the influence of pixels having different distances (subject distances) is suppressed. Therefore, in the stereoscopic image processing apparatus according to the present modification, even if objects (subjects) having different subject distances and objects having a large difference in brightness (subjects) are close to each other on the stereoscopic image, Properly avoid improper contrast enhancement under the influence of an image area close to an object (an image area with a large contrast between light and dark), and realize image processing that deepens shadows Can do. As a result, the stereoscopic image acquired by the stereoscopic imaging apparatus of the present modification is a stereoscopic image in which natural shadow enhancement is realized.
  • this embodiment may be combined with the other embodiments described above. Thereby, also in the stereoscopic image processing techniques of the other embodiments described above, it is possible to realize stereoscopic image processing that darkens the shadow portion and darkens the shadow (emphasizes the shadow). Further, in the local gradation conversion unit 111FL of the present embodiment, the second ambient lightness detection unit 1801 may be replaced with the third ambient lightness detection unit 2101 shown in FIG. In this case, the same effect as that of the stereoscopic image processing apparatus of the present embodiment can be obtained. Further, in the local gradation conversion unit 111FL of the present embodiment, the second ambient brightness detection unit 1801 may be replaced with the ambient brightness detection unit 121. [Other Embodiments] In addition, you may make it implement
  • a stereoscopic image processing apparatus is realized by combining any of the fourth to sixth embodiments and any of the seventh to ninth embodiments by a method similar to the method described in the third embodiment. Also good.
  • the configuration in which the R image and the L image are input to the image input unit 102 has been described.
  • the present invention is not limited to this.
  • N images It is also possible to select an R image and an L image from N images (N is a natural number equal to or greater than 2) and input the selected R image (signal) and L image (signal) to the image input unit 102.
  • the R image and the L image are not necessarily acquired internally.
  • the R image and the L image may be input from the outside to the stereoscopic image processing apparatus.
  • the R depth information and the L depth information are not necessarily acquired internally.
  • R depth information and L depth information may be input to the stereoscopic image processing apparatus from the outside.
  • the depth acquisition unit 103 can be omitted in the stereoscopic image processing apparatus. That is, the stereoscopic image processing apparatus may include only the image correction unit 104.
  • a 2D video image including depth information may be input, and the processing described in the above embodiment may be executed using the depth information.
  • an R image and an L image are generated from a 2D video including depth information, and the generated R image and L image and the depth information included in the 2D video are input to the image correction unit 104 of the stereoscopic image processing apparatus.
  • the processing described in the above embodiment may be executed.
  • the shadow enhancement processing described in the above embodiment is performed on the 2D video to obtain a 2D video with a darker shade. You may do it.
  • processing by one system in the stereoscopic image processing apparatus processing corresponding to L image processing or R image processing
  • the stereoscopic image processing apparatus may be configured only by a processing system corresponding to any one of the L image processing and the R image processing.
  • an image obtained by converting 2D video into 3D video (2D-3D converted video) is input, and further, in the 2D-3D conversion processing, the estimated depth information is used in the above embodiment.
  • the R image and the L image acquired by the 2D-3D conversion process, and the depth information acquired by the estimation process are input to the image correction unit 104 of the stereoscopic image processing apparatus. You may make it perform the process demonstrated by.
  • each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or the whole.
  • LSI semiconductor device
  • IC system LSI
  • super LSI super LSI
  • ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied as a possibility.
  • Each processing of the above embodiment may be realized by hardware, or may be realized by software (including a case where the processing is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware. Needless to say, when the stereoscopic imaging apparatus according to the above-described embodiment is realized by hardware, it is necessary to perform timing adjustment for performing each process. In the above embodiment, for convenience of explanation, details of timing adjustment of various signals generated in actual hardware design are omitted. Moreover, the execution order of the processing method in the said embodiment is not necessarily restricted to description of the said embodiment, The execution order can be changed in the range which does not deviate from the summary of invention.
  • the present invention is not limited to this, and for example, the left eye image and the right eye image may be alternately acquired in a time-division manner with one image sensor, or one image sensor.
  • the image pickup device surface may be divided into two to obtain a left eye image and a right eye image.
  • examples of the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blue-ray Disc), and a semiconductor memory. .
  • the computer program is not limited to the one recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.
  • a stereoscopic display device a television, an information portable terminal, a personal computer, a digital still camera, a movie, an information recording / reproducing device, a video recording / reproducing device, etc. mounted with the depth acquisition unit 103 and the image correcting unit 104 described in the above embodiment are provided. It may be realized. In this case, the R image and the L image may be input from the outside to the device.
  • the specific configuration of the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the scope of the invention.
  • the stereoscopic image processing apparatus, the stereoscopic image processing method, and the program according to the present invention can acquire a high-quality stereoscopic image by imparting a natural stereoscopic effect to an image with poor stereoscopic effect taken with a small amount of parallax. Therefore, the present invention is useful in the video related industry and can be implemented in this field.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

少ない視差で撮影した立体画像では、被写体の立体感・遠近感が乏しく、立体画像の品位が低い。第1視点用画像および第2視点用画像からなる立体画像に対して画像補正処理を行う立体撮像装置(1000)は、デプス取得部と、画像補正部と、を備える。デプス取得部(103)は、第1視点用画像上の画素である第1画素と、第1画素に対応する第2視点用画像上の画素である第2画素との位置関係に基づいて、撮影点から、第1画素および第2画素に対応する3次元空間内の点までの距離である被写体距離を取得する。画像補正部(104)は、第1視点用画像および第2視点用画像のそれぞれに対して、処理対象である注目画素の階調変換を行う陰影強調処理を行う。そして、画像補正部(104)は、注目画素の被写体距離に基づいて、陰影強調処理の処理強調度を調整する。

Description

立体画像処理装置、立体画像処理方法およびプログラム
 本発明は、立体画像(3次元立体画像)の品位を高める技術に関するものであり、立体撮像を行うカメラ(撮像装置)、立体画像(立体映像)を表示するディスプレイ装置、立体画像(立体映像)を処理する画像処理装置など、立体画像(立体映像)を扱う幅広い機器に応用できる技術に関する。
 立体画像(左眼用画像および右眼用画像)を、独立して左右の目に投影できる表示装置(以下、「立体表示装置」という。)に表示することにより、立体画像を再現させるために、両眼視差が存在する状態で立体画像(左眼用画像および右眼用画像)を撮像する立体撮像装置が知られている。
 立体撮像において、遠景(遠景の被写体)や近景(近景の被写体)が大きな視差を持つ状態で取得された立体画像(左眼用画像および右眼用画像)は、人間が立体視する際の融像限界を超え立体視が困難な画像になる、あるいは、当該立体画像を見ている人間に疲労感を生じさせる画像(疲れる画像)になる。このような不良な立体画像の生成を避けるために、視差調整やステレオベース調整(以下、「SB調整」という。)を行うことで、良好な立体画像を得る技術があり、このような技術は、映画などの本格的な立体撮影において広く用いられている。
 視差調整は、主に遠景(遠景の被写体)が融像限界を超える場合に用いられる技術で、遠景(遠景の被写体)までの距離を非線形に圧縮するように視差調整することで、立体視する際に見にくかった遠景(遠景の被写体)を近づけ、立体視する際に見やすい立体画像(立体視が容易な立体画像)を取得することができる。
 また、ステレオベース調整は、例えば、2台のカメラ(左眼用画像撮像用のカメラおよび右眼用画像撮像用のカメラ)の間隔を近づけることにより(ステレオベース(基線長)を小さくすることにより)、実行される技術であり、ステレオベース調整を行うことで、視差のダイナミックレンジを小さくすることができる。このため、上記のようにステレオベース調整を行った後、立体撮像を行うことで、近景(近景の被写体)から遠景(遠景の被写体)までの全体が融像域内に入る立体画像を取得することができる。
 また、立体画像を小さなサイズのディスプレイ装置に表示した場合も、立体画像(左眼用画像および右眼用画像)の視差が小さくなるため、遠景が圧縮される。したがって、この場合、小さなサイズのディスプレイ装置に表示される立体画像は、見やすい立体画像となる。
 立体撮像において、上記撮影技術(視差調整、ステレオベース調整)を駆使することにより、所定の表示環境において立体表示させたとき、十分見やすい画像(立体視しやすい立体画像)となる立体画像を撮影することができる(例えば、特許文献1参照)。
特許第3157384号
 しかしながら、上記従来技術では、立体視の融像限界を考慮して、望ましい視差を減らすことにより(立体撮像の対象である被写体が立体視の融像域内に入るように、視差を本来の値から減少させることにより)、見やすい立体画像(立体視しやすい立体画像)を取得している訳であるから、立体画像における立体感・遠近感の自然さの観点では望ましいものではない。したがって、上記従来技術(視差調整、ステレオベース調整による技術)により取得される立体画像は、立体画像の品位について問題がある。
 視差調整による技術では、見やすい(立体視しやすい)立体画像を取得することはできるが、遠景までの距離(撮像装置の位置から遠景被写体までの距離)が非線形に圧縮されることになるので、視差調整を行った立体画像では、奥行きが平板になる現象(遠景の被写体の厚み感が減少し、当該遠景の被写体が平板状の立体像として知覚される現象)が発生する。
 また、SB調整による技術では、取得される立体画像において、全体的に遠近感が少なくなるため(最近点(立体映像を表示したときに最も近い位置に結像される被写体の位置)から最遠点(立体映像を表示したときに最も遠い位置に結像される被写体の位置)までの距離が小さくなるため)、個々の被写体の立体感が低下する現象が発生する。
 したがって、上記従来技術を用いた場合、何れの場合も、取得される立体画像は、立体感・遠近感の乏しい品位の低い画像になりがちである。
 本発明は、上記問題点に鑑み、少ない視差により撮影された立体感の乏しい画像に自然な立体感を付与することにより高品位な立体画像が得られる立体画像処理装置、立体画像処理方法およびプログラムを実現することを目的とする。
 第1の発明は、2眼方式または多視点方式による立体画像に含まれる第1視点用画像および第2視点用画像に対して画像補正処理を行う立体画像処理装置であって、デプス取得部と、画像補正部と、を備える。
 デプス取得部は、第1視点用画像および第2視点用画像に含まれる被写体についての3次元空間での距離情報である被写体距離を取得する。
 画像補正部は、第1視点用画像および第2視点用画像のそれぞれに対して、処理対象である注目画素の階調変換を行う陰影強調処理を行う画像補正部であって、注目画素の被写体距離に基づいて、陰影強調処理の処理強調度を調整する。
 この立体画像処理装置では、注目画素の被写体距離に基づいて、陰影強調処理の処理強調度を調整することができる。その結果、この立体画像処理装置では、(1)明暗の差が陰影により生じている確率の高い近景の被写体に対して、陰影を強調することができるとともに、(2)明暗の差が陰影により生じている確率の低い遠景の被写体に対しては、陰影を必要以上に強調されることを適切に防止することができる。
 したがって、この立体画像処理装置では、少ない視差により撮影された立体感の乏しい画像に自然な立体感を付与することにより高品位な立体画像が得られる。
 なお、「3次元空間での距離情報」とは、例えば、第1視点用画像または第2視点用画像を立体撮影したと仮定したときの第1視点(例えば、左眼用画像を取得するときの左眼視点)または第2視点(例えば、右眼用画像を取得するときの右眼視点)に相当する3次元空間内の点(撮影点)と、第1視点用画像上の画素である第1画素と、第1画素に対応する第2視点用画像上の画素である第2画素に対応する3次元空間(第1視点用画像または第2視点用画像を立体撮影したと仮定したときの撮影空間)内の点までの距離のことをいう。
 また、デプス取得部は、第1視点用画像および第2視点用画像に含まれる被写体についての3次元空間での距離情報を、外部から取得するものであってもよい。
 第2の発明は、第1の発明であって、画像補正部は、第1視点用画像および第2視点用画像のそれぞれに対して、処理対象である注目画素の画素値と当該注目画素の周辺画素の画素値の画像特徴量を示す代表画素値との関係に基づいて、注目画素の階調変換を行う局所陰影強調処理を行うことで陰影強調処理を実行するとともに、注目画素の被写体距離に基づいて、陰影強調処理の処理強調度を調整する。
 これにより、この立体画像処理装置では、「陰影強調処理」を、「局所陰影強調処理」として、注目画素の被写体距離に基づいて、陰影強調処理の処理強調度を調整することができる。
 なお、「局所陰影強調処理」とは、注目画素とその周辺画素の画像特徴量に応じて陰影等を局所的に調整する処理のことをいう。「局所陰影強調処理」の一例として、「局所コントラスト変換処理」がある。
 「局所コントラスト変換処理」とは、注目画素の画素値「A」とその周辺画素の代表画素値「B」(例えば、周辺画素の画素値の平均値や重み付け平均値)との関係に基づいて、画像上の局所領域のコントラスト(局所コントラスト)を調整する処理のことをいう。例えば、局所コントラスト変換処理の基本階調変換特性(A=Bのときの階調変換特性)が関数F1(A)で決定され、局所コントラスト変換強度が関数F2(A/B)(なお、A=Bのとき、F2(A/B)=1となる。)で決定される場合、「局所コントラスト変換処理」の変換後の画素値Cは、
  C=F1(A)×F2(A/B)
で算出される。一例を挙げると、
  F1(A)=A^γ
  F2(A/B)=(A/B)^α
であり、この場合において、α+γ=1のとき、局所コントラスト変換処理の変換の前後において、局所コントラストが維持され、α+γ>1のとき、局所コントラストが強調されることになる。
 第3の発明は、第1または第2の発明であって、画像補正部は、被写体距離が小さい画素に対する陰影強調処理の処理強調度が、被写体距離が大きい画素に対する陰影強調処理の処理強調度よりも大きくなるように調整する。
 これにより、この立体画像処理装置では、被写体距離が小さい画素に対してより処理強調度が大きい陰影強調処理を実行することができるので、(1)明暗の差が陰影により生じている確率の高い近景の被写体に対して、陰影を強調することができるとともに、(2)明暗の差が陰影により生じている確率の低い遠景の被写体に対しては、陰影を必要以上に強調されることを適切に防止することができる。
 したがって、この立体画像処理装置では、少ない視差により撮影された立体感の乏しい画像に自然な立体感を付与することにより高品位な立体画像が得られる。
 第4の発明は、第3の発明であって、画像補正部は、
(1)注目画素の被写体距離が小さい程、注目画素に対して、陰影強調処理の処理強調度が大きい陰影強調処理を行い、
(2)注目画素の被写体距離が大きい程、注目画素に対して、陰影強調処理の処理強調度が小さい陰影強調処理を行う。
 これにより、この立体画像処理装置では、(1)明暗の差が陰影により生じている確率の高い近景の被写体に対して、陰影を強調することができるとともに、(2)明暗の差が陰影により生じている確率の低い遠景の被写体に対しては、陰影を必要以上に強調されることを適切に防止することができる。
 したがって、この立体画像処理装置では、少ない視差により撮影された立体感の乏しい画像に自然な立体感を付与することにより高品位な立体画像が得られる。
 第5の発明は、第1または第2の発明であって、画像補正部は、
(1)注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、注目画素に対して、処理強調度が大きい陰影強調処理を行い、
(2)注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が大きい程、注目画素に対して、処理強調度が小さい陰影強調処理を行う。
 これにより、この立体画像処理装置では、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい画像領域において、強く陰影強調処理を行うことができる。つまり、この立体画像処理装置では、注目画素の近傍画像領域であり、かつ、被写体距離の差が大きい画像領域の影響を受けることなく、適切に、陰影強調処理を行うことができる。
 したがって、この立体画像処理装置では、例えば、立体画像上において、主被写体を形成する画像領域に対して、距離(被写体距離)の異なる背景の明暗の影響を受けて陰影強調がなされることを適切に回避することができる。そして、この立体画像処理装置では、本当に陰影による明暗差を中心とした陰影の強調が実現できることになり、その結果、この立体画像処理装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 第6の発明は、第1または第2の発明であって、画像補正部は、注目画素の周辺画素の平均的な明るさに対する明暗対比を強調するように注目画素を補正することによりコントラストを強調するものであって、周辺画素の平均的な明るさは、注目画素とのデプスの差が小さい画素の明るさの平均をとることにより算出される。
 したがって、この立体画像処理装置では、例えば、立体画像上において、主被写体を形成する画像領域に対して、距離(被写体距離)の異なる背景の明暗の影響を受けて陰影強調がなされることを適切に回避することができる。そして、この立体画像処理装置では、本当に陰影による明暗差を中心とした陰影の強調が実現できることになり、その結果、この立体画像処理装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 第7の発明は、第2の発明であって、画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備える。
 第1視点画像用画像補正部は、第1視点用局所階調変換部と、第1視点用強度生成部と、第1視点用合成部と、を備える。
 第2第視点画像用画像補正部は、第2視点用局所階調変換部と、第2視点用強度生成部と、第2視点用合成部と、を備える。
 第1視点用局所階調変換部は、第1視点用画像信号IS_Rに対して局所陰影強調処理を行い、第1視点用変換画像信号OS_Rを取得する。
 第1視点用強度生成部は、デプス取得部により取得された、第1視点用画像信号IS_Rに対応する画素の被写体距離であるデプス値に基づいて、局所陰影強調処理の処理強調度を生成する。
 第1視点用合成部は、第1視点用強度生成部が生成した処理強調度に基づいて、第1視点画像信号IS_Rと、第1視点用変換画像信号OS_Rとを合成することで、第1視点用出力画像信号Routを取得するものであって、(1)第1視点用画像信号IS_Rに対応する画素の被写体距離が小さい程、第1視点用変換画像信号OS_Rの合成度合いが大きくなるように、第1視点画像信号IS_Rと、第1視点用変換画像信号OS_Rとを合成し、(2)第1視点用画像信号IS_Rに対応する画素の被写体距離が大きい程、第1視点用変換画像信号OS_Rの合成度合いが小さくなるように、第1視点画像信号IS_Rと、第1視点用変換画像信号OS_Rとを合成する。
 第2視点用局所階調変換部は、第2視点用画像IS_Lに対して局所陰影強調処理を行い、第2視点用変換画像OS_Lを取得する。
 第2視点用強度生成部は、デプス取得部により取得された、第2視点用画像IS_Lに対応する画素の被写体距離であるデプス値に基づいて、局所陰影強調処理の処理強調度を生成する。
 第2視点用合成部は、第2視点用強度生成部が生成した処理強調度に基づいて、第2視点画像信号IS_Lと、第2視点用変換画像信号OS_Lとを合成することで、第2視点用出力画像信号Loutを取得するものであって、(1)第2視点用画像信号IS_Lに対応する画素の被写体距離が小さい程、第2視点用変換画像信号OS_Lの合成度合いが大きくなるように、第2視点画像信号IS_Lと、第2視点用変換画像信号OS_Lとを合成し、(2)第2視点用画像信号IS_Lに対応する画素の被写体距離が大きい程、第2視点用変換画像信号OS_Lの合成度合いが小さくなるように、第2視点画像信号IS_Lと、第2視点用変換画像信号OS_Lとを合成する。
 これにより、この立体画像処理装置では、(1)明暗の差が陰影により生じている確率の高い近景の被写体に対して、陰影を強調することができるとともに、(2)明暗の差が陰影により生じている確率の低い遠景の被写体に対しては、陰影を必要以上に強調されることを適切に防止することができる。
 したがって、この立体画像処理装置では、少ない視差により撮影された立体感の乏しい画像に自然な立体感を付与することにより高品位な立体画像が得られる。
 第8の発明は、第1から第7のいずれかの発明であって、陰影強調処理は、コントラスト強調処理である。
 これにより、この立体画像処理装置では、(1)明暗の差が陰影により生じている確率の高い近景の被写体に対して、コントラストを強調することができるとともに、(2)明暗の差が陰影により生じている確率の低い遠景の被写体に対しては、コントラストを必要以上に強調されることを適切に防止することができる。
 したがって、この立体画像処理装置では、少ない視差により撮影された立体感の乏しい画像に自然な立体感を付与することにより高品位な立体画像が得られる。
 第9の発明は、第1から第7のいずれかの発明であって、陰影強調処理は、視覚処理による局所コントラスト強調処理である。
 これにより、この立体画像処理装置では、(1)明暗の差が陰影により生じている確率の高い近景の被写体に対して、局所コントラストを強調することができるとともに、(2)明暗の差が陰影により生じている確率の低い遠景の被写体に対しては、局所コントラストを必要以上に強調されることを適切に防止することができる。
 したがって、この立体画像処理装置では、少ない視差により撮影された立体感の乏しい画像に自然な立体感を付与することにより高品位な立体画像が得られる。
 第10の発明は、第1から第7のいずれかの発明であって、陰影強調処理は、陰影を濃くする処理である。
 これにより、この立体画像処理装置では、(1)明暗の差が陰影により生じている確率の高い近景の被写体に対して、陰影を濃くすることができるとともに、(2)明暗の差が陰影により生じている確率の低い遠景の被写体に対しては、陰影が必要以上に濃くなることを適切に防止することができる。つまり、この立体画像処理装置では、陰影を濃くする処理を行うので、陰影部分を選択的に強調することができる(陰影を濃くする立体画像処理を行うことができる)。
 したがって、この立体画像処理装置では、少ない視差により撮影された立体感の乏しい画像に自然な立体感を付与することにより高品位な立体画像が得られる。
 第11の発明は、第10の発明であって、第1視点用局所階調変換部は、第1視点用周囲明度検出部と、第1視点用第2動的階調補正部と、を備え、第2視点用局所階調変換部は、第2視点用周囲明度検出部と、第2視点用第2動的階調補正部と、を備える。
 第1視点用周囲明度検出部は、第1視点用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とする第1視点用周囲明度信号US_Rを出力する。
 第1視点用第2動的階調補正部は、第1視点用画像信号IS_Rおよび第1視点用周囲明度信号US_Rに基づいて、動的階調補正処理を行うことで、補正第1視点用画像信号OS_Rを取得する。そして、動的階調補正処理は、
(1)(第1視点用画像信号IS_Rの値)≦(第1視点用周囲明度信号US_Rの値)である場合、第1視点用画像信号IS_Rの所定の入力範囲において、第1視点用画像信号IS_Rの値を所定の値に固定したとき、第1視点用周囲明度信号US_Rの値が増加するに従い、補正第1視点用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、補正第1視点用画像信号OS_Rを取得し、
(2)(第1視点用画像信号IS_Rの値)>(第1視点用周囲明度信号US_Rの値)である場合、第1視点用画像信号IS_Rを、補正第1視点用画像信号OS_Rとすることで、補正第1視点用画像信号OS_Rを取得する。
 第2視点用周囲明度検出部は、第2視点用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とする第2視点用周囲明度信号US_Lを出力する。
 第2視点用第2動的階調補正部は、第2視点用画像信号IS_Lおよび第2視点用周囲明度信号US_Lに基づいて、動的階調補正処理を行うことで、補正第2視点用画像信号OS_Lを取得する。そして、動的階調補正処理は、
(1)(第2視点用画像信号IS_Lの値)≦(第2視点用周囲明度信号US_Lの値)である場合、第2視点用画像信号IS_Lの所定の入力範囲において、第2視点用画像信号IS_Lの値を所定の値に固定したとき、第2視点用周囲明度信号US_Lの値が増加するに従い、補正第2視点用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、補正第2視点用画像信号OS_Lを取得し、
(2)(第2視点用画像信号IS_Lの値)>(第2視点用周囲明度信号US_Lの値)である場合、第2視点用画像信号IS_Lを、補正第2視点用画像信号OS_Lとすることで、補正第2視点用画像信号OS_Lを取得する。
 この立体画像処理装置では、第1視点用第2動的階調補正部により、(第1視点用画像信号IS_Rの値)≦(第1視点用周囲明度信号US_Rの値)の場合のみ、局所コントラストを強調する処理が実行される(第2視点用画像に対する処理も第1視点用画像に対する処理と同様)。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、局所コントラストを強調する処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 第12の発明は、第10の発明であって、第1視点用局所階調変換部は、第1視点用第2周囲明度検出部と、第1視点用動的階調補正部と、を備え、第2視点用局所階調変換部は、第2視点用第2周囲明度検出部と、第2視点用動的階調補正部と、を備える。
 第1視点用第2周囲明度検出部は、第1視点用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とする第1視点用周囲明度信号US_Rを取得し、所定の画像領域において、第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、第1視点用周囲明度信号US_Rに、第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する。
 第1視点用動的階調補正部は、第1視点用画像信号IS_Rおよび第1視点用補正周囲明度信号US_R’に基づいて、動的階調補正処理を行うことで、補正第1視点用画像信号OS_Rを取得する。そして、動的階調補正処理は、第1視点用画像信号IS_Rの所定の入力範囲において、第1視点用画像信号IS_Rの値を所定の値に固定したとき、第1視点用補正周囲明度信号US_R’の値が増加するに従い、補正第1視点用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、補正第1視点用画像信号OS_Rを取得する。
 第2視点用第2周囲明度検出部は、第2視点用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とする第2視点用周囲明度信号US_Lを取得し、所定の画像領域において、第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、第2視点用周囲明度信号US_Lに、第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する。
 第2視点用動的階調補正部は、第2視点用画像信号IS_Lおよび第2視点用補正周囲明度信号US_L’に基づいて、動的階調補正処理を行うことで、補正第2視点用画像信号OS_Lを取得する。そして、動的階調補正処理は、第2視点用画像信号IS_Lの所定の入力範囲において、第2視点用画像信号IS_Lの値を所定の値に固定したとき、第2視点用補正周囲明度信号US_L’の値が増加するに従い、補正第2視点用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、補正第2視点用画像信号OS_Lを取得する。
 この立体画像処理装置では、第1視点用第2周囲明度検出部により、第1視点用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rが算出され、当該第1視点用オフセット値ΔUS_Rが加算されて第1視点用補正周囲明度信号US_R’が取得される。そして、この立体画像処理装置では、周囲明度信号US_Rの代わりに、第1視点用補正周囲明度信号US_R’を用いて、例えば、図4に示した階調変換特性により階調変換処理が実行される。その結果、この立体画像処理装置では、周辺より暗い画素について、より強い局所コントラスト強調処理が実行される。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、局所コントラストを強調する処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。(第2視点用の処理についても第1視点用の処理と同様。)
 なお、「第1視点用画像信号IS_Rの変化が激しい程、大きな値となる」とは、例えば、所定範囲の第1視点用画像信号IS_Rの信号値の変化が当該所定範囲の平均値に対してどの程度ばらついているか等により判断されるもので、例えば、所定範囲の第1視点用画像信号IS_Rの信号値の分散値や標準偏差値が大きいとき、「第1視点用画像信号IS_Rの変化が激しい」ということである。
 第13の発明は、第10の発明であって、第1視点用局所階調変換部は、第1視点用第2周囲明度検出部と、第1視点用係数演算処理部と、を備え、第2視点用局所階調変換部は、第2視点用第2周囲明度検出部と、第2視点用係数演算処理部と、を備える。
 第1視点用第2周囲明度検出部は、第1視点用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とする第1視点用周囲明度信号US_Rを取得し、所定の画像領域において、第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、第1視点用周囲明度信号US_Rに、第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する。
 第1視点用係数演算処理部は、第1視点用画像信号IS_Rと第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_R=IS_R+k×((IS_R)-(US_R’))
により、補正第1視点用画像信号OS_Rを取得する。
 第2視点用第2周囲明度検出部は、第2視点用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とする第2視点用周囲明度信号US_Lを取得し、所定の画像領域において、第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、第2視点用周囲明度信号US_Lに、第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する。
 第2視点用係数演算処理部は、第2視点用画像信号IS_Lと第2視点用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_L=IS_L+k×((IS_L)-(US_L’))
により、補正第2視点用画像信号OS_Lを取得する。
 この立体画像処理装置では、第1視点用係数演算処理部が、第1視点用画像信号IS_Rと第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_R=IS_R+k×((IS_R)-(US_R’))
により、補正第1視点用画像信号OS_Rを取得する。したがって、この立体画像処理装置では、周辺より暗い画素について、より強い局所コントラスト強調処理が実行される(第2視点用の処理についても同様)。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、アンシャープマスキングの強調度合いが強くなるように処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 なお、「差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し」(差分((IS_L)-(US_L’))についても同様。)とは、例えば、図19に示した実線により係数kが決定される場合だけでなく、図19に示した点線により係数kが決定される場合を含む。つまり、係数kと差分値((IS_R)-(US_R’))との関係は単調である場合だけでなく、段階的に変化する場合(例えば、図19の点線の場合)も含む。
 第14の発明は、第10の発明であって、第1視点用局所階調変換部は、第1視点用第2周囲明度検出部と、第1視点用係数演算処理部と、を備え、第2視点用局所階調変換部は、第2視点用第2周囲明度検出部と、第2視点用係数演算処理部と、を備える。
 第1視点用第2周囲明度検出部は、第1視点用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とする第1視点用周囲明度信号US_Rを取得し、所定の画像領域において、第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、第1視点用周囲明度信号US_Rに、第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する。
 第1視点用係数演算処理部は、第1視点用画像信号IS_Rと第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、係数p(p:0≦p≦1)を設定し、
  (k+p)×(IS_R-US_R’)
により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_R-US_R’))を取得し、取得した信号LPF((k+p)×(IS_R-US_R’))を用いて、
  OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))
により、補正第1視点用画像信号OS_Rを取得する。
 第2視点用第2周囲明度検出部は、第2視点用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とする第2視点用周囲明度信号US_Lを取得し、所定の画像領域において、第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、第2視点用周囲明度信号US_Lに、第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する。
 第2視点用係数演算処理部は、第2視点用画像信号IS_Lと第2視点用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、係数p(p:0≦p≦1)を設定し、
  (k+p)×(IS_L-US_L’)
により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_L-US_L’))を取得し、取得した信号LPF((k+p)×(IS_L-US_L’))を用いて、
  OS_L=IS_L-p×(IS_L-US_L’)+LPF((k+p)×(IS_L-US_L’))
により、補正第2視点用画像信号OS_Lを取得する。
 この立体画像処理装置では、第1視点用係数演算処理部が、
  OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))
に相当する処理により、補正第1視点用画像信号OS_Rを取得する。これにより、この立体画像処理装置では、原画像に含まれる陰影成分および付加する陰影成分のぼかし具合(帯域制限処理の程度)を、係数pを用いて、調整することができる。(第2視点用の処理についても第1視点用の処理と同様。)したがって、この立体画像処理装置では、陰影部分を適切にぼかしつつ、陰影部分を選択的に強調することができる。その結果、その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 第15の発明は、第2の発明であって、画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備える。
 第1視点画像用画像補正部は、第1視点用デプス周囲明度検出部と、第1視点用動的階調補正部と、を備える。
 第2視点画像用画像補正部は、第2視点用デプス周囲明度検出部と、第2視点用動的階調補正部と、を備える。
 第1視点用デプス周囲明度検出部は、デプス取得部により取得された、第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値を算出することで、当該注目画素の第1視点用周囲明度信号US_Rを取得するものであって、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして重み付け平均値を算出する。
 第1視点用動的階調補正部は、第1視点用画像信号IS_Rと第1視点用周囲明度信号US_Rとの関係に基づいて、注目画素の階調変換を行う局所陰影強調処理を行うことで、第1視点用出力画像信号Routを取得する。
 第2視点用デプス周囲明度検出部は、デプス取得部により取得された、第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値を算出することで、当該注目画素の第2視点用周囲明度信号US_Lを取得するものであって、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして重み付け平均値を算出する。
 第2視点用動的階調補正部は、第2視点用画像信号IS_Lと第2視点用周囲明度信号US_Lとの関係に基づいて、注目画素の階調変換を行う局所陰影強調処理を行うことで、第2視点用出力画像信号Loutを取得する。
 そして、陰影強調処理は、(1)コントラスト強調処理、(2)視覚処理による局所コントラスト強調処理、および、(3)陰影を濃くする処理のいずれか1つの処理である。
 これにより、この立体画像処理装置では、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい画像領域において、強く陰影強調処理を行うことができる。つまり、この立体画像処理装置では、注目画素の近傍画像領域であり、かつ、被写体距離の差が大きい画像領域の影響を受けることなく、適切に、陰影強調処理を行うことができる。
 したがって、この立体画像処理装置では、例えば、立体画像上において、主被写体を形成する画像領域に対して、距離(被写体距離)の異なる背景の明暗の影響を受けて陰影強調がなされることを適切に回避することができる。そして、この立体画像処理装置では、本当に陰影による明暗差を中心とした陰影の強調が実現できることになり、その結果、この立体画像処理装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 第16の発明は、第2の発明であって、画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備える。
 第1視点画像用画像補正部は、第1視点用デプス周囲明度検出部と、第1視点用第2動的階調補正部と、を備える。第2視点画像用画像補正部は、第2視点用デプス周囲明度検出部と、第2視点用第2動的階調補正部と、を備える。
 第1視点用デプス周囲明度検出部は、デプス取得部により取得された、第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値を算出することで、当該注目画素の第1視点用周囲明度信号US_Rを取得する第1視点用デプス周囲明度検出部であって、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして重み付け平均値を算出する。
 第1視点用第2動的階調補正部は、第1視点用画像信号IS_Rおよび第1視点用周囲明度信号US_Rに基づいて、動的階調補正処理を行うことで、補正第1視点用画像信号OS_Rを取得する。そして、動的階調補正処理は、
(1)(第1視点用画像信号IS_Rの値)≦(第1視点用周囲明度信号US_Rの値)である場合、第1視点用画像信号IS_Rの所定の入力範囲において、第1視点用画像信号IS_Rの値を所定の値に固定したとき、第1視点用周囲明度信号US_Rの値が増加するに従い、補正第1視点用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、補正第1視点用画像信号OS_Rを取得し、
(2)(第1視点用画像信号IS_Rの値)>(第1視点用周囲明度信号US_Rの値)である場合、第1視点用画像信号IS_Rを、補正第1視点用画像信号OS_Rとすることで、補正第1視点用画像信号OS_Rを取得する。
 第2視点用デプス周囲明度検出部は、デプス取得部により取得された、第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値を算出することで、当該注目画素の第2視点用周囲明度信号US_Lを取得するものであって、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして重み付け平均値を算出する。
 第2視点用第2動的階調補正部は、第2視点用画像信号IS_Lおよび第2視点用周囲明度信号US_Lに基づいて、動的階調補正処理を行うことで、補正第2視点用画像信号OS_Lを取得する。そして、動的階調補正処理は、
(1)(第2視点用画像信号IS_Lの値)≦(第2視点用周囲明度信号US_Lの値)である場合、第2視点用画像信号IS_Lの所定の入力範囲において、第2視点用画像信号IS_Lの値を所定の値に固定したとき、第2視点用周囲明度信号US_Lの値が増加するに従い、補正第2視点用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、補正第2視点用画像信号OS_Lを取得し、
(2)(第2視点用画像信号IS_Lの値)>(第2視点用周囲明度信号US_Lの値)である場合、第2視点用画像信号IS_Lを、補正第2視点用画像信号OS_Lとすることで、補正第2視点用画像信号OS_Lを取得する。
 この立体画像処理装置では、第1視点用第2動的階調補正部により、(第1視点用画像信号IS_Rの値)≦(第1視点用周囲明度信号US_Rの値)の場合のみ、局所コントラストを強調する処理が実行される(第2視点用画像に対する処理も第1視点用画像に対する処理と同様)。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、局所コントラストを強調する処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 なお、この立体画像処理装置では、第1視点用デプス周囲明度検出部により、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値により取得された第1視点用周囲明度信号US_Rを用いた処理が実行される。その結果、この立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切な陰影強調がなされることを適切に回避することができる。
 第17の発明は、第2の発明であって、画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備える。
 第1視点画像用画像補正部は、第1視点用第2デプス周囲明度検出部と、第1視点用動的階調補正部と、を備える。第2視点画像用画像補正部は、第2視点用第2デプス周囲明度検出部と、第2視点用動的階調補正部と、を備える。
 第1視点用第2デプス周囲明度検出部は、
(1)デプス取得部により取得された、第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と周辺画素の画素値との重み付け平均値を算出することで、第1視点用周囲明度信号US_Rを取得し、
(2)所定の画像領域において、第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、第1視点用周囲明度信号US_Rに、第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する。
 第1視点用動的階調補正部は、第1視点用画像信号IS_Rおよび第1視点用補正周囲明度信号US_R’に基づいて、動的階調補正処理を行うことで、補正第1視点用画像信号OS_Rを取得する。そして、動的階調補正処理は、第1視点用画像信号IS_Rの所定の入力範囲において、第1視点用画像信号IS_Rの値を所定の値に固定したとき、第1視点用補正周囲明度信号US_R’の値が増加するに従い、補正第1視点用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、補正第1視点用画像信号OS_Rを取得する。
 第2視点用第2デプス周囲明度検出部は、
(1)デプス取得部により取得された、第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と周辺画素の画素値との重み付け平均値を算出することで、第2視点用周囲明度信号US_Lを取得し、
(2)所定の画像領域において、第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、第2視点用周囲明度信号US_Lに、第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する。
 第2視点用動的階調補正部は、第2視点用画像信号IS_Lおよび第2視点用補正周囲明度信号US_L’に基づいて、動的階調補正処理を行うことで、補正第2視点用画像信号OS_Lを取得する。そして、動的階調補正処理は、第2視点用画像信号IS_Lの所定の入力範囲において、第2視点用画像信号IS_Lの値を所定の値に固定したとき、第2視点用補正周囲明度信号US_L’の値が増加するに従い、補正第2視点用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、補正第2視点用画像信号OS_Lを取得する。
 この立体画像処理装置では、第1視点用第2デプス周囲明度検出部により、第1視点用画像信号IS_Rの変化が激しい程、大きな値となる右眼用オフセット値ΔUS_Rが算出され、当該第1視点用オフセット値ΔUS_Rが加算されて第1視点用補正周囲明度信号US_R’が取得される。そして、この立体画像処理装置では、周囲明度信号US_Rの代わりに、第1視点用補正周囲明度信号US_R’を用いて、例えば、図4に示した階調変換特性により階調変換処理が実行される。その結果、この立体画像処理装置では、周辺より暗い画素について、より強い局所コントラスト強調処理が実行される。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、局所コントラストを強調する処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。(第2視点用の処理についても第1視点用の処理と同様。)
 なお、この立体画像処理装置では、第1視点用第2デプス周囲明度検出部により、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値により取得された第1視点用周囲明度信号US_Rを用いた処理が実行される。その結果、この立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切な陰影強調がなされることを適切に回避することができる。
 第18の発明は、第2の発明であって、画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備える。
 第1視点画像用画像補正部は、第1視点用第2デプス周囲明度検出部と、第1視点用係数演算処理部と、を備える。第2視点画像用画像補正部は、第2視点用第2デプス周囲明度検出部と、第2視点用係数演算処理部と、を備える。
 第1視点用第2デプス周囲明度検出部は、
(1)デプス取得部により取得された、第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と周辺画素の画素値との重み付け平均値を算出することで、第1視点用周囲明度信号US_Rを取得し、
(2)所定の画像領域において、第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、第1視点用周囲明度信号US_Rに、第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する。
 第1視点用係数演算処理部は、第1視点用画像信号IS_Rと第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_R=IS_R+k×((IS_R)-(US_R’))
により、補正第1視点用画像信号OS_Rを取得する。
 第2視点用第2デプス周囲明度検出部は、
(1)デプス取得部により取得された、第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と周辺画素の画素値との重み付け平均値を算出することで、第2視点用周囲明度信号US_Lを取得し、
(2)所定の画像領域において、第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、第2視点用周囲明度信号US_Lに、第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する。
 第2視点用係数演算処理部は、第2視点用画像信号IS_Lと第2視点用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_L=IS_L+k×((IS_L)-(US_L’))
により、補正第2視点用画像信号OS_Lを取得する。
 この立体画像処理装置では、第1視点用係数演算処理部が、第1視点用画像信号IS_Rと第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、決定した係数kを用いて、
  OS_R=IS_R+k×((IS_R)-(US_R’))
により、補正第1視点用画像信号OS_Rを取得する。したがって、この立体画像処理装置では、周辺より暗い画素について、より強い局所コントラスト強調処理が実行される(第2視点用の処理についても同様)。すなわち、この立体画像処理装置では、周辺より暗い部分の画素について、アンシャープマスキングの強調度合いが強くなるように処理が実行されるので、画像の陰影成分を選択的に強調することができる。その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 なお、この立体画像処理装置では、第1視点用第2デプス周囲明度検出部により、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値により取得された第1視点用周囲明度信号US_Rを用いた処理が実行される。その結果、この立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切な陰影強調がなされることを適切に回避することができる。
 第19の発明は、第2の発明であって、画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備える。
 第1視点画像用画像補正部は、第1視点用第2デプス周囲明度検出部と、第1視点用係数演算処理部と、を備える。第2視点画像用画像補正部は、第2視点用第2デプス周囲明度検出部と、第2視点用係数演算処理部と、を備える。
 第1視点用第2デプス周囲明度検出部は、
(1)デプス取得部により取得された、第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と周辺画素の画素値との重み付け平均値を算出することで、第1視点用周囲明度信号US_Rを取得し、
(2)所定の画像領域において、第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、第1視点用周囲明度信号US_Rに、第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する。
 第1視点用係数演算処理部は、第1視点用画像信号IS_Rと第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、係数p(p:0≦p≦1)を設定し、
  (k+p)×(IS_R-US_R’)
により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_R-US_R’))を取得し、取得した信号LPF((k+p)×(IS_R-US_R’))を用いて、
  OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))。
により、補正第1視点用画像信号OS_Rを取得する。
 第2視点用第2デプス周囲明度検出部は、
(1)デプス取得部により取得された、第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と周辺画素の画素値との重み付け平均値を算出することで、第2視点用周囲明度信号US_Lを取得し、
(2)所定の画像領域において、第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、第2視点用周囲明度信号US_Lに、第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する。
 第2視点用係数演算処理部は、第2視点用画像信号IS_Lと第2視点用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、係数p(p:0≦p≦1)を設定し、
  (k+p)×(IS_L-US_L’)
により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_L-US_L’))を取得し、取得した信号LPF((k+p)×(IS_L-US_L’))を用いて、
  OS_L=IS_L-p×(IS_L-US_L’)+LPF((k+p)×(IS_L-US_L’))。
により、補正第2視点用画像信号OS_Lを取得する。
 この立体画像処理装置では、第1視点用係数演算処理部が、
  OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))
に相当する処理により、補正第1視点用画像信号OS_Rを取得する。これにより、この立体画像処理装置では、原画像に含まれる陰影成分および付加する陰影成分のぼかし具合(帯域制限処理の程度)を、係数pを用いて、調整することができる。(第2視点用の処理についても第1視点用の処理と同様。)したがって、この立体画像処理装置では、陰影部分を適切にぼかしつつ、陰影部分を選択的に強調することができる。その結果、その結果、この立体画像処理装置では、より自然な立体感・遠近感を実現する立体画像を取得することができる。
 なお、この立体画像処理装置では、第1視点用第2デプス周囲明度検出部により、注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値により取得された第1視点用周囲明度信号US_Rを用いた処理が実行される。その結果、この立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切な陰影強調がなされることを適切に回避することができる。
 第20の発明は、第1から第19のいずれかの発明である立体画像処理装置を含む立体撮像装置である。
 これにより、第1から第19のいずれかの発明である立体画像処理装置を含む立体撮像装置を実現することができる。
 第21の発明は、2眼方式または多視点方式による立体画像に含まれる第1視点用画像および第2視点用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法であって、デプス取得ステップと、画像補正ステップと、を備える。
 デプス取得ステップは、第1視点用画像および第2視点用画像に含まれる被写体についての3次元空間での距離情報である被写体距離を取得する。
 画像補正ステップは、第1視点用画像および第2視点用画像のそれぞれに対して、処理対象である注目画素の階調変換を行う陰影強調処理を行い、注目画素の被写体距離に基づいて、陰影強調処理の処理強調度を調整する。
 これにより、第1の発明と同様の効果を奏する立体画像処理方法を実現することができる。
 第22の発明は、2眼方式または多視点方式による立体画像に含まれる第1視点用画像および第2視点用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法をコンピュータで実行させるプログラムである。立体画像処理方法は、デプス取得ステップと、画像補正ステップと、を備える。
 デプス取得ステップは、第1視点用画像および第2視点用画像に含まれる被写体についての3次元空間での距離情報である被写体距離を取得する。
 画像補正ステップは、第1視点用画像および第2視点用画像のそれぞれに対して、処理対象である注目画素の階調変換を行う陰影強調処理を行い、注目画素の被写体距離に基づいて、陰影強調処理の処理強調度を調整する。
 これにより、第1の発明と同様の効果を奏する立体画像処理方法をコンピュータにより実行させるプログラムを実現することができる。
 本発明によれば、少ない視差により撮影された立体感に乏しい画像に自然な立体感を付与することにより高品位な立体画像を取得することができる。
第1実施形態の立体撮像装置の概略構成図。 第1実施形態における画像補正部の構成図。 第1実施形態における局所階調変換部の構成図。 第1実施形態における動的階調補正部の変換特性のグラフ。 撮影環境と被写体との関係を説明するための図。 視差マッチングによるデプス情報の取得方法を説明するための図。 従来における画像補正部の処理結果。 局所コントラスト強調処理を行った画質補正例。 第1実施形態における強度生成部の説明図。 第1実施形態における周囲明度検出部のフィルタ範囲。 第1実施形態における周囲明度検出部のフィルタ特性。 第1実施形態における画像補正部の処理結果。 第2実施形態における画像補正部の構成図。 第2実施形態におけるデプス周囲明度検出部の重み係数を示すグラフ。 第2実施形態における周囲明度検出部のフローチャート。 第2実施形態における画像補正部の処理結果。 第3実施形態における画像補正部の処理結果。 第4実施形態における局所階調変換部の構成図。 係数kと差分信号(IS_L-US_L)との関係(特性)を示す図。 第4実施形態の第1変形例の局所階調変換部の構成図。 (a)L画像信号の輝度値IS_L(波形Is)、周囲明度信号US_L(波形Us)、および、局所階調変換処理(コントラスト強調処理)を行うことで取得した補正後の輝度値OS_L(波形Os)の信号波形図(一例)。(b)L画像信号の輝度値IS_L(波形Is)、補正周囲明度信号US_L’(波形Us’)、および、局所階調変換処理(コントラスト強調処理)を行うことで取得した補正後の輝度値OS_L(波形Os’)の信号波形図(一例)。 係数kと差分信号(IS_L-US_L’)との関係(特性)を示す図。 第4実施形態の第2変形例の局所階調変換部の構成図。 第5実施形態における局所階調変換部の構成図。 第5実施形態の第2動的階調補正部の階調変換特性を示すグラフ。 第5実施形態の第1変形例の局所階調変換部の構成図。 第6実施形態における局所階調変換部の構成図。 第6実施形態の第1変形例の局所階調変換部の構成図。 第7実施形態における局所階調変換部の構成図。 第7実施形態の第1変形例の局所階調変換部の構成図。 第8実施形態における局所階調変換部の構成図。 第8実施形態の第1変形例の局所階調変換部の構成図。 第9実施形態における局所階調変換部の構成図。 第9実施形態の第1変形例の局所階調変換部の構成図。
 以下、本発明の立体画像処理装置および立体画像処理方法の実施形態について、図面を参照しながら説明する。
 [第1実施形態]
 第1実施形態では、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。
 <1.1:立体撮像装置の構成>
 図1に、第1実施形態に係る立体撮像装置1000の概略図を示す。
 立体撮像装置1000は、図1に示すように、第1視点から被写体光を集光し第1画像信号(例えば、右眼用画像信号(R画像信号))を取得する第1撮像部101Rと、第2視点から被写体光を集光し第2画像信号(例えば、左眼用画像信号(L画像信号))を取得する第2撮像部101Lと、第1画像信号(例えば、R画像信号)および第2画像信号(例えば、L画像信号)を、それぞれ、デジタル信号に変換する画像入力部102と、を備える。
 また、立体撮像装置1000は、デジタル信号に変換された第1画像信号(例えば、R画像信号)および第2画像信号(例えば、L画像信号)から、それぞれ、被写体距離情報を算出し、第1デプス情報(例えば、Rデプス情報)および第2デプス情報(例えば、Lデプス情報)として出力するデプス取得部103と、第1デプス情報(例えば、Rデプス情報)および第2デプス情報(例えば、Lデプス情報)を用いて、第1画像信号(例えば、R画像信号)および第2画像信号(例えば、L画像信号)に画像補正処理を行う画像補正部104と、を備える。
 なお、説明便宜のため、第1撮像部101Rにより右眼用画像(映像)が撮像され、第2撮像部101Lにより左眼用画像(映像)が撮像されるものとして、以下、説明する。
 第1撮像部101Rは、第1視点に設置されており、被写体光を集光する光学系と、集光した被写体光から光電変換により第1画像信号(右眼用画像信号(R画像信号))を取得する撮像素子と、を備える。そして、第1撮像部101Rは、取得した第1画像信号(R画像信号)を画像入力部102に出力する。
 第2撮像部101Lは、第1視点とは異なる位置である第2視点に設置されており、被写体光を集光する光学系と、集光した被写体光から光電変換により第2画像信号(左眼用画像信号(L画像信号))を取得する撮像素子と、を備える。そして、第2撮像部101Lは、取得した第2画像信号(L画像信号)を画像入力部102に出力する。
 画像入力部102は、第1撮像部101Rにより取得された第1画像信号(R画像信号)を入力とし、入力された第1画像信号に対して、A/D変換を行い、A/D変換した第1画像信号(R画像信号)をデプス取得部103および画像補正部104に出力する。
 また、画像入力部102は、第2撮像部101Lにより取得された第2画像信号(L画像信号)を入力とし、入力された第2画像信号に対して、A/D変換を行い、A/D変換した第2画像信号(L画像信号)をデプス取得部103および画像補正部104に出力する。
 デプス取得部103は、画像入力部102から出力される第1画像信号(R画像信号)および第2画像信号(L画像信号)を入力とする。デプス取得部103は、第1画像信号(R画像信号)により形成される第1画像(R画像)および第2画像信号(L画像信号)から形成される第2画像(L画像)から、第1画像(R画像)用のデプス情報である第1デプス情報(Rデプス情報)および第2画像(L画像)用のデプス情報である第2デプス情報(Lデプス情報)を取得する。そして、デプス取得部103は、取得した第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)を画像補正部104に出力する。
 なお、デプス情報の取得は、例えば、視差マッチングにより取得することが好ましい。
 画像補正部104は、図2に示すように、L画像用画像補正部104Lと、R画像用画像補正部104Rとを備える。画像補正部104は、画像入力部102から出力される第1画像信号(R画像信号)および第2画像信号(L画像信号)と、デプス取得部103から出力される第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)と、を入力とする。画像補正部104は、第1デプス情報(Rデプス情報)に基づいて、第1画像信号(R画像信号)に補正処理を行い、補正処理後の第1画像信号(R画像信号)を出力する。また、画像補正部104は、第2デプス情報(Lデプス情報)に基づいて、第2画像信号(L画像信号)に補正処理を行い、補正処理後の第1画像信号(R画像信号)を出力する。
 なお、デプス情報は上記のように第1デプス情報(Rデプス情報)と第2デプス情報(Lデプス情報)が得られると好適であるが、いずれか一方のみから間接的に他方を得ることも可能であるため、必ずしもふたつのデプス情報が必要なわけではない。
 L画像用画像補正部104Lは、図2に示すように、局所階調変換部111Lと、強度生成部112Lと、合成部113Lとを備える。
 局所階調変換部111Lは、図3に示すように、周囲明度検出部121と、動的階調補正部122とを備える。
 周囲明度検出部121は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)を入力とし、L画像信号の輝度値IS_Lに相当する注目画素(L画像上の処理対象画素)の周囲の領域(L画像上の注目画素の周辺画像領域)の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を算出する。そして、周囲明度検出部121は、算出した注目画素の周辺画像領域の代表明度値を、周囲明度信号US_Lとして、動的階調補正部122に出力する。
 動的階調補正部122は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)と、周囲明度検出部121から出力された周囲明度信号US_Lとを入力とする。動的階調補正部122は、周囲明度信号US_Lの値に基づいて決定される階調変換特性により、L画像信号の輝度値IS_Lに対して、階調変換処理を行う。動的階調補正部122の階調変換特性は、例えば、図4に示すようなものである。
 ここで、動的階調補正部122の階調変換特性について、図4を用いて、説明する。
 図4は、横軸に入力信号であるIS信号の値(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)をとり、縦軸に出力信号であるOS信号の値(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)をとり、周囲明度信号US_L(またはUS_L)の値により決定される階調変換特性曲線K1~K8をグラフにしたものである。
 なお、図4のグラフでは、IS信号の値、OS信号の値、および、周囲明度信号の値US(US_LまたはUS_R)は、[0:1]の範囲に正規化している。
 階調変換特性曲線Kn(n:1~8の整数)は、周囲明度信号の値US(US_LまたはUS_R)が「n/8」(n:1~8の整数)のときの階調変換特性曲線群であり、この階調変換特性曲線群K1~K8は、ISの値を所定の値に固定した場合(例えば、図4の値Aに固定した場合)、周囲明度信号の値USが増加するにつれ、出力値OSが単調減少するように設定される。なお、階調変換特性曲線群の数は、図4では、8本であるが、この数に限定されることがないのは言うまでもない。また、動的階調補正部122において、階調変換特性曲線群を所定数だけ設定しておき(例えば、LUTに階調変換特性曲線群を特定するデータを所定数だけ保存しておき)、補間処理、内挿処理等を行うことで、予め設定されている階調変換特性曲線群以外の階調変換特性曲線を実現するようにしてもよい。(例えば、図4の場合、US=3/16のときの階調変換特性曲線を、US=1/8のときの階調変換特性曲線K1と、US=2/8のときの階調変換特性曲線K2とを用いて、補間処理、内挿処理等を行うことで、導いてもよい。)
 図4の階調変換特性に基づいて、入力信号であるIS信号の値(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)に対して、階調変換を行うことで、階調変換後の画像において、局所コントラストを強調しつつ、画像全体の明るさを一定に保つことができる。(ISの値とUSの値とが同一の場合、図4で示した黒丸の点に対応する階調変換処理が実行されるため、ISの値とOSの値は一致する。その結果、画像全体の明るさは、階調変換前後で一定に保たれる。)
 以上説明したように、動的階調補正部122は、図4に示すような階調変換特性により、IS信号(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)に対して動的階調補正処理を行うことで、OS信号(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)を取得する。そして、動的階調補正部122は、OS信号(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)を合成部113L(R画像信号の場合は、合成部113R)に出力する。
 強度生成部112Lは、デプス取得部103から出力される第2デプス情報(Lデプス情報)を入力とし、第2デプス情報(Lデプス情報)に基づいて、局所階調変換処理(空間視覚処理)の強度を決定する第1強度信号M1_Lを生成する(第1強度信号M1_Lの生成方法については後述)。そして、強度生成部112Lは、生成した第1強度信号M1_Lを合成部113Lに出力する。
 合成部113Lは、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)と、局所階調変換部111Lから出力されたOS_L信号と、強度生成部112Lから出力された第1強度信号M1_Lと、を入力とする。合成部113Lは、第1強度信号M1_Lに基づいて、IS_L信号とOS_L信号とを合成する。これにより、合成部113Lは、第1強度信号M1_Lにより決定される強度により局所階調変換処理(空間視覚処理)が施されたL画像信号Loutを取得する。そして、合成部113Lは、取得したL画像信号Loutを出力する。
 以上のようにして、L画像用画像補正部104Lが構成される。
 なお、R画像用画像補正部104Rは、L画像用画像補正部104Lと同様の構成を有しており、入力される信号が、R画像信号およびRデプス情報である点だけが、L画像用画像補正部104Lとは相違する。
 <1.2:立体撮像装置の動作>
 以上のように構成された立体撮像装置1000の動作について、以下、説明する。
 図5は、背景を含む被写体のシーンと、立体撮像装置1000の2つの撮像部(第1撮像部101Rおよび第2撮像部101L)との位置関係を上から見た図である。
 被写体201は背景の壁、被写体202は人物の様な主被写体、被写体203は柱の様な従被写体であるものとする。主被写体202および従被写体203は、図5に示すように、いずれも、上から見たときに所定の幅を有する略楕円形のオブジェクトであるものとする。
 以下では、立体撮像装置1000により、図5に示す被写体シーンを撮像する場合を例として、立体撮像装置1000の動作について、説明する。
 第1撮像部101Rおよび第2撮像部101Lは、立体撮像装置1000において、立体画像(左眼用画像および右眼用画像)を取得できるように、基線長(ステレオベース長)分(図5の距離SB1)だけ離して配置されている。
 ここでは説明を簡単にするため、従被写体203が存在する距離(図中の点線L1)で光軸が交差するように輻輳角が設定されているものとする。即ち、点線に示す距離の被写体(図5に示す被写体距離D1の被写体)は、第2撮像部101Lと第1撮像部101Rが撮影する画像には視差が付かず、図示しない表示スクリーン(仮想スクリーン)上に定位する。つまり、図5の被写体シーンを立体撮像装置1000により立体撮影して取得された立体画像を表示装置により立体表示させた場合、被写体距離D1の被写体は、表示装置の表示スクリーン上に定位する。
 点線L1より手前にある主被写体202は、飛び出し方向の視差が付くため表示スクリーンの前方に定位する。そして、背景201の被写体距離がD1より小さい部分(背景201の左側の一部)は、表示スクリーンの前方に定位し、背景201の被写体距離がD1より大きい部分(背景201の右側の部分)は、表示スクリーンの後方に定位する。
 図5の被写体シーンを立体撮像装置1000で撮像した場合、第1撮像部101Rから出力された第1画像信号(R画像信号)および第2撮像部101Lから出力された第2画像信号(L画像信号)は、それぞれ、画像入力部102に入力され、画像入力部102によりデジタル信号に変換される。そして、デジタル信号に変換された第1画像信号(R画像信号)および第2画像信号(L画像信号)は、それぞれ、デプス取得部103および画像補正部104に出力される。
 デプス取得部103では、第1画像信号(R画像信号)により形成される第1画像(R画像)および第2画像信号(L画像信号)から形成される第2画像(L画像)から、第1画像(R画像)用のデプス情報である第1デプス情報(Rデプス情報)および第2画像(L画像)用のデプス情報である第2デプス情報(Lデプス情報)が、例えば、視差マッチングにより、取得される。
 ここで、視差マッチングによる第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)の取得方法について、図6を用いて説明する。
 図6は、三角形のオブジェクトが奥に配置されており、円形のオブジェクトが手前に配置されている撮影シーンを立体撮像装置1000で立体撮影したときの立体画像を模式的に示す図である。図6(a)は、L画像(左眼用画像)を模式的に示した図であり、図6(b)は、R画像(右眼用画像)を模式的に示した図であり、図6(c)は、R画像およびL画像を1つの画像として重ねて表示させた図である。
 視差マッチングによる第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)の取得方法は、例えば、以下の(1)~(3)の処理を実行することで、実現される。
(1)まず、デプス取得部103は、L画像(左眼用画像)およびR画像(右眼用画像)を用いて、例えば、図6(a)のL画像上の点ALに対応する被写体A(図6の三角形の頂点)が、図6(b)のR画像上の点ARに対応していることを検出する。
(2)そして、検出した2つの点ALおよび点ARのずれ量(視差)Diff(A)を算出する。
 なお、視差は、ずれ方向により、正負の符号を有するものとする。例えば、R画像上の点が、L画像上の点に対して左方向にずれている場合をプラスとし、逆の場合をマイナスとする。
 例えば、図6の場合、被写体Aについての視差の絶対値がα(≧0)であるとすると、R画像上のAR点が、L画像上のAL点より右方向にずれているので、被写体Aについての視差を「-α」として算出する。そして、被写体B(図6の円の中心点)についての視差の絶対値がβ(≧0)であるとすると、R画像上のBR点が、L画像上のBL点より左方向にずれているので、被写体Bについての視差を「+β」として算出する。
(3)デプス取得部103は、(1)、(2)の処理を、画像上の全ての点(全ての画素)について行い、算出したずれ量(視差)を画素値とする視差画像を取得する。そして、L画像の各画素に算出した視差を画素値として取得した視差画像を、Lデプス情報(Lデプス情報画像(左眼画像用距離画像))とし、R画像の各画素に算出した視差を画素値として取得した視差画像を、Rデプス情報(Rデプス情報画像(右眼画像用距離画像))とする。
 例えば、Lデプス情報(Lデプス情報画像(左眼画像用距離画像))では、図6(a)のL画像のAL点に相当する画素の値が、被写体Aの視差である-αとなり、Rデプス情報(Rデプス情報画像(右眼画像用距離画像))では、図6(b)のR画像のAR点に相当する画素の値が、被写体Aの視差である-αとなる。
 なお、「距離画像」とは、各画素に、当該各画素に相当する被写体の実際の位置(3次元空間内の位置)と立体撮像装置1000の位置との距離に相関性のある値をマッピングした画像のことである。
 なお、上記視差マッチングによる第1デプス情報(Rデプス情報)および第2デプス情報(Lデプス情報)の取得方法は、一例であり、これに限定されるものではない。例えば、上記と視差の符号の取り方を逆にしても構わない。また、デプス取得部103は、他の方法により、左眼画像用距離画像および右眼画像用距離画像を取得し、Lデプス情報およびRデプス情報を取得するものであってもよい。
 以上のようにして取得されたLデプス情報およびRデプス情報は、それぞれ、画像補正部104に出力される。
 ≪自然な立体感強調について≫
 ここで、立体画像における自然な立体感の強調について、図5の被写体シーンを立体撮影する場合を例に、説明する。
 図5の位置的な説明は前述の通りである。
 さらに、主被写体202は明るい色であり、従被写体203は暗い色であるとする。また主被写体202および従被写体203は、どちらも小振幅の明暗変化を有しているものとする。背景201は、立体撮像装置1000から見て、左手が前方、右手が後方にあるような湾曲した壁のようなものであり、主被写体202と従被写体203との中間的な明るさであり、少し大きめの明暗変化を有しているものとする。
 図7は、第2撮像部101Lおよび第1撮像部101Rが撮影した立体画像(L画像およびR画像)の水平方向の位置と輝度との関係、および、立体画像(L画像およびR画像)の水平方向の位置とデプス情報との関係を示す図である。
 具体的には、図7(a2)は、L画像における水平方向の位置と輝度との関係を示す図であり、図7(b2)は、R画像における水平方向の位置と輝度との関係を示す図である。図7の輝度分布を持つ立体画像は、従来の立体撮像装置の出力画像に相当する。
 また、図7(a1)は、第2撮像部101Lおよび第1撮像部101Rが撮影した立体画像(L画像およびR画像)を用いてデプス取得部103が取得したLデプス情報と水平方向との位置関係を示す図である。図7(b1)は、第2撮像部101Lおよび第1撮像部101Rが撮影した立体画像(L画像およびR画像)を用いてデプス取得部103が取得したRデプス情報とを水平方向との位置関係を示す図である。
 なお、図7(a1)、(a2)において、横軸は水平方向の位置であり、縦軸はデプス値を示している。ここでは、デプス値は、近景である程(被写体距離が小さい程)、大きな値をとり、遠景である程(被写体距離が大きい程)、「0」に近い値をとるものとしている。
 また、図7(a1)~(b2)は、水平方向の位置を一致させた状態で図示されている。
 なお、説明を簡単にするため、背景201、主被写体202、および、従被写体203は、凹凸が無い滑らかな表面に明暗の縞模様が描かれたものとして説明するが、このような被写体に限定されず、凹凸を有する任意の被写体であってもよい。また、主被写体202が明るく、従被写体203が暗いものとして説明するが、これに限定されることはなく、これらの被写体の明るさも任意でよい。
 立体撮像装置1000の第1撮像部101Rおよび第2撮像部101Lは、従被写体203の被写体距離、つまり、図5示す被写体距離D1で、視差が無くなるように輻輳角が設定されているものとする。したがって、図5の撮影シーンを立体撮影して取得した立体画像を、ディスプレイ装置(立体画像表示装置)に表示すると、従被写体203が図示しないディスプレイスクリーン面上(立体画像表示装置の表示スクリーン面上)に定位され、主被写体202がディスプレイスクリーン面(立体画像表示装置の表示スクリーン面上)より手前に定位する。
 図7(a1)、(a2)に示すL画像の水平位置におけるデプス値と輝度との関係から分かるように、第2撮像部101L(左眼用視点)から図5の被写体シーンを見た場合、従被写体203の左半分は主被写体202の影に隠れているため、主被写体202の位置(図7の細かい網掛け(図7の202で示す網掛け部分))と従被写体203の位置(図7の粗い網掛け(図7の203で示す網掛け部分))とは連続し、主被写体202と従被写体203との間に背景201は見えていない。
 一方、図7(b1)、(b2)に示すR画像の水平位置におけるデプス値と輝度との関係から分かるように、第1撮像部101R(右眼用視点)から図5の被写体シーンを見た場合、主被写体202の位置と従被写体203の位置とは離れており、主被写体202と従被写体203との間に背景201が見える。
 ここで、立体撮影して取得される立体画像の立体感・遠近感が不足する原因について考える。
 図5の環境で立体撮影して取得される立体画像の立体感・遠近感が不足する場合として、例えば、以下の場合が挙げられる。
(1)第1撮像部101Rと第2撮像部101Lの間隔が短い状態で立体撮影して、立体撮影画像を取得した場合。
(2)被写体202、203、201の配置に対して、第1撮像部101Rおよび第2撮像部101Lの位置が遠い状態(被写体距離が大きい状態)で立体撮影して、立体撮影画像を取得した場合。
(3)立体画像を表示させる表示ディスプレイのサイズが小さい場合。
 特に、近景から遠景までを見やすく立体撮影するためには、カメラ間隔(第1撮像部101Rと第2撮像部101Lの間隔)を狭くし(ステレオベース(基線長)を短くして)、両眼視差を小さくして撮影する必要があり、それが立体感不足の要因になることが多い。
 上記のような要因により立体感が不足した立体画像に対して、陰影を強調すると立体感が増した様に認識されることがある。ここで、「陰影」とは、ある方向から照射される照明が被写体を照らす際に発生する被写体の明るさの変化のことを含む概念である。そして、例えば、被写体表面の角度により被写体の明るさが変化すると、被写体に陰影が生じる。これにより、人間は、被写体の形状や被写体の表面の凹凸を認識することができる。
 したがって、この陰影(明るさの変化)を強調すると被写体の奥行の形状や凹凸の深さが増加したように感じさせることが出来ると考えられる。
 陰影の強調(陰影強調処理)には、公知な種々の手法が存在するが、ここでは、視覚の明暗対比特性を画像処理的に強調することにより、自然なコントラスト強調が可能な局所コントラスト強調処理(例えば、国際公開公報W02005/027043号や国際公開公報WO2007/043460号に開示されている局所コントラスト強調処理(空間視覚処理))を用いるものを例にとって、陰影強調処理について、説明する。局所コントラスト強調処理を用いた陰影強調処理は、例えば、図3に示した局所階調変換部111L(111R)を用いて実現できる。
 図8は、図5の被写体シーンを立体撮影して取得されたL画像とR画像のそれぞれに対して、前述の局所コントラスト強調処理を行った画質補正例を示す図である。
 具体的には、図8(a)は、画質補正後のL画像における水平方向の位置と輝度との関係を示す図である。図8(b)は、画質補正後のR画像における水平方向の位置と輝度との関係を示す図である。図8(c)は、図8(b)に、さらに、周囲明度信号US_Lを重ねて表示させた図である。
 L画像およびR画像に対して局所コントラスト強調処理を実行した結果、例えば、主被写体202内(図8の細かい網掛け部202内)の所定の箇所の輝度差は大きくなり、主被写体202の陰影が強調されている。例えば、局所コントラスト強調処理を実行する前の水平位置P1の輝度値と水平位置P2の輝度値との差をΔ1とし、局所コントラスト強調処理を実行した後の水平位置P1の輝度値と水平位置P2の輝度値との差をΔ2とすると、
  Δ2>Δ1
となり、主被写体202の陰影が強調されていることが分かる。
 このように、L画像およびR画像に対して局所コントラスト強調処理を実行することで、主被写体202のオブジェクトの内部(主被写体202の輪郭部分より内側の領域)については、凹凸が大きいように知覚されるため、見た目の立体感が改善されると予想される。
 しかし、実際に局所コントラスト強調を行った画像を観察すると、確かに陰影が強調されているが、陰影以外の明暗差も同じく強調されている。そのため、局所コントラスト強調処理を行った立体画像(L画像およびR画像)は、画面全体にコントラストが強調されたメリハリのある画像にはなっているが、このことが必ずしも立体感・遠近感を増加させることにはならず、局所コントラスト強調処理を行った立体画像(L画像およびR画像)が立体感・遠近感を増加したようには見えない場合も多い。
 その原因として、以下の(1)、(2)の原因が考えられる。
(1)遠景に対しても近景と同じようにコントラスト強調がなされている。
 陰影による立体感の知覚(人間の知覚)は、本来、近くの被写体に対しては強く働き、遠くの被写体に対してはあまり働かない。このことを考慮せずに、上記局所コントラスト強調処理による陰影強調処理では、被写体距離に関係なく画像全体に対して均一に処理がなされている。そのため、図8中のAの部分(一点鎖線で囲こまれた部分)のコントラストが不自然に強調されている。その結果、立体画像に対して陰影を強調するために実行された処理が、その意図に反して、陰影の強調に見えない不自然な処理になったものと考えられる。
(2)オブジェクト間の領域に対してもコントラスト強調がなされている。
 陰影は、被写体オブジェクトの膨らみや凹凸を表現するものであるにもかかわらず、上記局所コントラスト強調処理による陰影強調処理では、距離の異なるオブジェクト間の境界領域に輝度差があると、明暗対比効果を強めるように、当該距離の異なるオブジェクト間の境界領域に対して、コントラストを強調する処理がなされてしまう。例えば、図8中のBの部分(二点鎖線で囲まれた部分)(主被写体202と背景201との間の境界領域)において、コントラストを強調する処理がなされている。
 そのため、本来陰影ではないオブジェクト間の色の違いが強調される。その結果、立体画像に対して陰影を強調するために実行された処理が、その意図に反して、陰影の強調に見えずに不自然な処理になったものと考えられる。図8では、主被写体202が暗い別の被写体203や背景201に隣接しているため、局所コントラスト強調処理により、明暗対比効果が強められるように処理がなされた結果、主被写体202の端の輝度が上昇し、被写体内の丸みを表現していた陰影(主被写体202の端の部分の被写体オブジェクトの丸みを表現していた部分(主被写体202の端の部分において、被写体オブジェクトの内側から外側に向かってなめらかに輝度が低下している部分)の陰影)が平坦になり立体感を損なう現象を発生させたと考えられる。
 本実施形態の立体撮像装置1000は、上記原因(1)により発生する課題を解決し、立体画像における自然な立体感の強調処理を実現するものである。
 (1.2.1:画像補正部104の動作)
 次に、画像補正部104の動作について、説明する。
 なお、L画像に対しては、Lデプス情報を用いて、L画像用画像補正部104Lにより処理が実行され、R画像に対しては、Rデプス情報を用いて、R画像用画像補正部104Rにより処理が実行されるが、その処理内容は同一であるため、以下では、主として、L画像用画像補正部104Lについて、説明する。
 ≪強度生成部112の動作≫
 まず、L画像用画像補正部104Lの強度生成部112Lの動作について、説明する。
 なお、R画像用画像補正部104Rの強度生成部112Rの動作についても、強度生成部112Lと同様である。
 図7(a1)は、L画像における画素位置とデプス値(距離情報)との関係を示す図である。デプス値は、遠方であるほど(被写体距離が大きい程)小さい値を取り、近景である程(被写体距離が小さい程)、大きい値を取るものとする。
 したがって、従被写体203のデプス値は、主被写体202のデプス値より小さく、右手の背景201のデプス値よりも大きい値をとる。
 図2に示す強度生成部112Lでは、図9に示すように、入力されたLデプス情報に対して、線形または非線形な連続関数を用いた入出力変換により、第1強度信号M1_Lが生成される。強度生成部112Lにおける(Lデプス情報D(x,y))-(第1強度信号M1_L)の入出力変換特性は、例えば、図9に示すように、入力であるLデプス情報D(x,y)に対して出力である第1強度信号M1_Lの値(0≦M1_L≦1)が単調増加する特性とする。つまり、Lデプス情報D(x,y)が示す被写体距離が小さい(近景である)程、陰影強調処理(例えば、局所階調変換処理)が強くかかるように、強度生成部112Lにおける(Lデプス情報D(x,y))-(第1強度信号M1_L)の入出力変換特性を設定すればよい。
 強度生成部112Lにより生成された第1強度信号M1(L画像用第1強度信号M1_L)は、合成部113Lに出力される。
 なお、Rデプス情報についての強度生成部112Rの処理も、Lデプス情報についての強度生成部112Lの処理と同様である。
 ≪局所階調変換部111の動作≫
 次に、L画像用画像補正部104Lの局所階調変換部111Lの動作について、説明する。
 なお、R画像用画像補正部104Rの局所階調変換部111Rの動作についても、局所階調変換部111Lと同様である。
 局所階調変換部111Lでは、入力されたL画像信号(L画像上の注目画素に相当)に対して、空間視覚処理による局所階調変換処理が実行される。具体的には、図3に示すように、局所階調変換部111Lの周囲明度検出部121により、注目画素の周辺画像領域の代表明度値(例えば、周辺画像領域の明度平均値(輝度平均値))が算出され、算出された代表明度値が、周囲明度信号US_Lとして、動的階調補正部122に出力される。
 ここで、周囲明度検出部121による周囲明度信号US_Lの取得方法について、図面を用いて説明する。
 図10は、周囲明度検出部121が、座標(x,y)(xは画像上のx座標であり、yは画像上のy座標である。)の着目画素の周囲の明度を抽出する範囲を説明するための図である。
 局所階調変換部111Lが視覚特性にマッチした特性で局所コントラストを強調するためには、画像中のかなり広い領域(例えば、処理対象とする画像の大きさがXGA(1024×768)である場合、周辺画素の領域を80画素×80画素以上の大きさの領域に設定するのが好ましい。)の明度を抽出する必要がある。ここでは、横方向に2n+1画素(nは自然数)、縦方向に2m+1画素(mは自然数)の範囲を明度抽出範囲としている。また、周囲の明度の影響は、注目画素からの距離が大きくなる程小さくなることを鑑みると、周囲明度情報は、ガウシアンフィルタのように着目画素から遠ざかるにしたがって重みが少なくなるのが好ましい。
 図11は、周囲の明度値を抽出する重み係数A(i,j)の一例を示すグラフである。ここで、iおよびjは、着目画素からの距離を示している。
 上記重み係数を用いると、周囲明度Usは、次の(数式1)で算出できる。
Figure JPOXMLDOC01-appb-M000001
 なお、上記(数式1)において、Is(x+i,y+i)は、座標(x+i,y+i)の画素の画素値(入力信号IS_L(あるいはIS_R)の輝度値に相当)である。
 周囲明度検出部121では、注目画素(座標(x,y)の画素)について、上記(数式1)に相当する処理を実行することで、当該注目画素についての周囲明度Us(x,y)が算出される。そして、これを、画像を形成する全画素について行う。
 周囲明度検出部121は、上記処理を行うことで、周囲明度信号US_L(あるいはUS_R)を生成し、生成した周囲明度信号US_L(あるいはUS_R)を動的階調補正部122に出力する。
 動的階調補正部では、周囲明度検出部121から出力された周囲明度信号US_Lに基づいて、入力されたL画像信号(L画像上の注目画素)に対して実行する階調変換特性が決定される。具体的には、周囲明度信号US_Lの値に従って、注目画素に階調変換を行うための階調変換特性曲線を、図4に示した階調変換特性曲線K1~K8の中から選択、あるいは、階調変換特性曲線K1~K8から補間処理等により導出することで、決定する。そして、動的階調補正部により決定された階調変換特性曲線による階調変換を注目画素に対して行うことで、階調変換後のL画像信号がOS_Lとして取得される。そして、取得された階調変換後のL画像信号OS_Lは、合成部113Lに出力される。
 ≪合成部113の動作≫
 合成部113Lでは、局所階調変換部111Lから出力された階調変換後のL画像信号OS_Lと、画像入力部102から出力されたL画像信号IS_L(階調変換処理が実行されていないL画像信号)とが、L画像用第1強度信号M1_Lの値に応じて合成される。
 合成部113Lでは、
(1)被写体距離が遠く、デプス値が小さい程、L画像信号IS_Lの重みが大きくなるように合成され、
(2)被写体距離が近く、デプス値が大きい程、階調変換後のL画像信号OS_Lの重みが大きくなるように合成される。
 合成部113Lでの合成の手法には、線形な内分を用いるのが簡便であるが、より複雑な非線形な手法を用いることも可能である。
 ここで、線形な内分処理による合成部113Lでの合成の手法について、説明する。
 強度生成部112Lにおける(Lデプス情報D(x,y))-(第1強度信号M1_L)の入出力変換特性は、例えば、図9に示すように、入力であるLデプス情報D(x,y)に対して出力である第1強度信号M1_Lの値(0≦M1_L≦1)が単調増加する特性とする。
 そして、合成部113Lでは、第1強度信号M1_Lの値(0≦M1_L≦1)を内分比として、
  Lout=M1_L×OS_L+(1-M1_L)×IS_L
により、L出力画像信号Loutを合成する。
 つまり、上記のように、L画像信号IS_Lと、階調変換後のL画像信号OS_Lとを、内分比を第1強度信号M1_Lとして合成することで、
(1)被写体距離が遠く、デプス値が小さい程(第1強度信号M1_Lの値が「0」に近い程)、L画像信号IS_Lの重みが大きくなるように合成され、
(2)被写体距離が近く、デプス値が大きい程(第1強度信号M1_Lの値が「1」に近い程)、階調変換後のL画像信号OS_Lの重みが大きくなるように合成される。
 合成部113Lが、上記のように動作することにより、画像補正部104では、(1)図12に示す細かな網がけ領域(主被写体202に相当する領域)については、画像信号に対して強く局所階調変換処理が実行され、(2)背景201の右手の部分(被写体距離が大きい(遠い)部分)については弱くしか局所階調変換処理が実行されない、もしくは、全く局所階調変換処理が実行されない。
 さらに、合成部113Lが、上記のように動作することにより、画像補正部104では、図12の粗い網がけ領域(従被写体203に相当する領域)については、上記の中間レベルの強度(主被写体202に相当する領域に対する強度と、背景201の右手の部分(被写体距離が大きい(遠い)部分)に対する強度との中間レベルの強度)で、弱めに局所階調変換処理が実行される。
 したがって、立体撮像装置1000では、上記のように処理を実行することで、(1)画像の局所的な濃淡変化が陰影によるものである度合いが大きい近景の被写体に対しては、局所コントラストの強調量を大きくすることができ、(2)濃淡変化が陰影によるものである度合いが小さい遠景の被写体に対しては、局所コントラストの強調量を小さくすることができる。
 図8(従来技術による処理結果)と図12(本実施形態の立体撮像装置による処理結果)とを比較することで分かるように、遠方に位置する図中の領域Aについて、図12の領域Aでは、図8の領域Aと比較して、不要な局所コントラスト強調が抑えられていることが分かる。
 つまり、立体撮像装置1000では、明暗の差が陰影により生じている確率の高い近景の被写体に対して、コントラストを強調することができるとともに、明暗の差が陰影により生じている確率の低い遠景の被写体に対しては、コントラストを必要以上に強調することがない。
 したがって、立体撮像装置1000により取得される立体画像は、陰影だけが自然に強調されたように知覚される立体画像となる。その結果、立体撮像装置1000により取得される立体画像は、自然な立体感の強調が実現された立体画像となる。
 さらに、立体撮像装置1000により取得される立体画像は、遠景に対して近景のくっきり感が向上するため、遠景と近景のコントラスト感の違いが大きくなる。その結果、立体撮像装置1000により取得される立体画像は、遠近感の向上も同時に実現された立体画像となる。
 [第2実施形態]
 次に、第2実施形態について、説明する。
 第2実施形態は、前述の第1実施形態の中で説明した、局所コントラスト強調を行っただけでは立体感・遠近感が増加したようには見えない原因(2)(オブジェクト間の領域に対してもコントラスト強調がなされることによる原因)を解決することを目的としている。説明を簡単にするため、第1実施形態で説明した原因(1)(遠景に対しても近景と同じようにコントラスト強調がなされることによる原因)により発生する課題を解決することについては、本実施形態では、説明を省略する。
 第2実施形態における立体撮像装置は、第1実施形態の立体撮像装置1000と同様、第1撮像部101R、第2撮像部101L、画像入力部102、およびデプス取得部103を備えており、これらの機能部については、図1に示す第1実施形態のものと同様であるため、説明を省略する。
 第2実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000の画像補正部104を、図13に示す画像補正部504に置換した構成である。そして、この点のみが、第2実施形態の立体撮像装置と第1実施形態の立体撮像装置1000との相違点である。
 それ以外については、第2実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000と同様であるので、詳細な説明は省略する。
 画像補正部504は、図13に示すように、第2のL画像用画像補正部504Lと、第2のR画像用画像補正部504Rとを備える。
 画像補正部504Lは、第2デプス情報(Lデプス情報)に基づいて、第2画像信号(L画像信号)に補正処理を行い、補正処理後の第2画像信号(L画像信号)を出力する。
 第2のR画像用画像補正部504Rは、第1デプス情報(Rデプス情報)に基づいて、第1画像信号(R画像信号)に補正処理を行い、補正処理後の第1画像信号(R画像信号)を出力する。
 なお、本実施形態の立体撮像装置において、デプス情報は上記のように第1デプス情報(Rデプス情報)と第2デプス情報(Lデプス情報)の両方が得られると好適であるが、いずれか一方のみから間接的に他方を得ることも可能であるため、必ずしもふたつのデプス情報が必要なわけではない。
 なお、L画像用の処理と、R画像用の処理とは、同様の処理であるため、以下では、L画像用の処理についてのみ説明する。
 第2のL画像用画像補正部504Lは、図13に示すように、第2の局所階調変換部511Lを備える。
 第2の局所階調変換部511Lは、図13に示すように、デプス周囲明度検出部521と、動的階調補正部122とを備える。
 動的階調補正部122は、第1実施形態のものと同じである。
 デプス周囲明度検出部521は、L画像信号(IS_L)を入力とし、注目画素(L画像上の処理対象画素)の周囲の領域の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を算出するものであるが、上記代表明度値の算出においてL画像のデプス情報を参照するところが、第1実施形態における周囲明度検出部121と異なる点である。
 デプス周囲明度検出部521は、着目画素の周囲の画素値を図11に示すような重み付けを行い積算する際、(1)周囲の画素のデプス値と着目画素のデプス値との差が小さい場合(周囲の画素に対応する被写体と着目画素対応する被写体との距離が近い場合)、大きな重み係数を取り、(2)周囲の画素のデプス値と着目画素のデプス値との差画が大きい場合(周囲の画素に対応する被写体と着目画素対応する被写体との距離が遠い場合)、小さな重み係数を取るようにして、代表明度値の算出を行う。
 デプス周囲明度検出部521において、上記のように処理することで、定性的には、注目画素とデプスが離れている画素(着目画素のデプス値との差が大きいデプス値を有する画素)は、代表明度値(例えば、重み付け平均値)に含まれにくくなる。このため、注目画素の周囲の領域の代表明度値(ここでは平均輝度値)は、図10のフィルタ範囲の中でデプス値の離れている画素を除いた(デプス値の離れている画素の影響を小さくした)値(平均値(重み付け平均値))となる。
 図14は、上記重み係数を算出するための関数の一例を示すグラフである。図14において、横軸は、周囲の画素のデプス値と着目画素のデプス値との差kを示している。縦軸は、注目画素の周囲の画素に対する重み係数の値F(k)を示している。
 デプス周囲明度検出部521は、上記重み係数値を算出する関数Fを用いて、次式に相当する処理を行うことで、注目画素(座標(x,y)の画素)の周辺画像領域の代表明度値を算出する。
Figure JPOXMLDOC01-appb-M000002
 そして、デプス周囲明度検出部521は、(上式)により算出した値Us(x,y)を、周囲明度信号US_Lとして、動的階調補正部122に出力する。
 ここで、デプス周囲明度検出部521における上記(数式2)に相当する処理について、図15を用いて、説明する。
 図15は、デプス周囲明度検出部521における上記(数式2)に相当する処理を説明するフローチャートである。以下では、図10のフィルタ範囲(y-m≦y≦y+m、x-n≦x≦x+nの領域)を周辺画像領域として、(数式2)の代表明度値Us(x,y)を算出する場合について、図15のフローチャートを用いて、説明する。
(S101):
 S101において、デプス周囲明度検出部521は、初期値を設定する。具体的には、(数式2)の分子の各項に相当するBunsi、(数式2)の分子の各項に相当するBunboに「0」を設定する。また、j=-m、i=-n(m、n:自然数)に設定する。
(S102):
 S102において、デプス周囲明度検出部521は、注目画素(座標(x,y)の画素)のデプス値D(x,y)(デプス取得部103により取得されたデプス値D(x,y))を取得する。
(S103):
 S103において、デプス周囲明度検出部521は、例えば、図11に示した特性を示す関数A(i,j)により、A(i,j)の値を取得する。
(S104):
 S104において、デプス周囲明度検出部521は、座標(x+i,y+j)の画素の入力画像信号の値(L画像の場合、信号IS_Lの座標(x+i,y+j)の画素に相当する信号値)を取得する。
(S105):
 S105において、デプス周囲明度検出部521は、座標(x+i,y+j)の画素のデプス値D(x+i,y+j)を取得する。
(S106):
 S106において、デプス周囲明度検出部521は、例えば、図14に示した関数F(k)を用いて、F(D(x+i,y+j)-D(x,y))を算出する。
(S107):
 S107において、デプス周囲明度検出部521は、(数式2)の分子の各項に相当するBunsiを積算する。具体的には、デプス周囲明度検出部521は、
  Bunshi=Bunshi+A(i,j)・F(D(x+i,y+j)-D(x,y))・Is(x+i,y+j)
により、(数式2)の分子の各項に相当するBunsiの積算処理を行う。
(S108):
 S108において、デプス周囲明度検出部521は、(数式2)の分母の各項に相当するBunboを積算する。具体的には、デプス周囲明度検出部521は、
  Bunbo=Bunbo+A(i,j)・F(D(x+i,y+j)-D(x,y))
により、(数式2)の分母の各項に相当するBunboの積算処理を行う。
(S109、S110):
 S108において、デプス周囲明度検出部521は、iの値をインクリメントし(「1」加算し)、S109において、iの値がn以下であるか否かを判定する。
 iの値がn以下である場合、S103に戻り、S103~S108の処理を繰り返す。
 iの値がn以下ではない場合、S111へ処理を進める。
(S111、S112):
 S111において、デプス周囲明度検出部521は、jの値をインクリメントし(「1」加算し)、S112において、jの値がm以下であるか否かを判定する。
 jの値がm以下である場合、S103に戻り、S103~S110の処理を繰り返す。
 jの値がm以下ではない場合、S113へ処理を進める。
(S113):
 S113において、デプス周囲明度検出部521は、
  Us(x,y)=Bunshi/Bunbo
により、代表明度値Us(x,y)を算出する。
 以上により、デプス周囲明度検出部521は、(数式2)に相当する処理を実行することができる。そして、デプス周囲明度検出部521は、上記処理により算出した値Us(x,y)を、周囲明度信号US_Lとして、動的階調補正部122に出力する。
 このデプス周囲明度検出部521が出力する周囲明度信号US_Lは、定性的には、注目画素のデプス値と近いデプス値を持つ被写体の中での輝度の平均値になると考えられる。つまり、デプス周囲明度検出部521が出力する周囲明度信号US_Lの値は、注目画素に対応する3次元空間内の点と被写体距離がほぼ等しい領域であって、L画像(R画像)上において、当該注目画素の周辺に存在する領域に相当する画素(周辺画素)の画素値(輝度値)の平均値に近い値となると考えられる。
 したがって、本実施形態の立体撮像装置では、デプス値の異なる背景(被写体距離が異なる背景)が暗かった場合であっても、周囲明度信号US_Lには、当該背景の暗さは含まれにくい(当該背景の暗さによる影響を受けにくい)。その結果、本実施形態の立体撮像装置では、主被写体の明るさと背景の暗さとの明暗対比を強めるようにコントラスト強調処理がなされることはなく、主被写体が不必要に明るくなることを適切に防止することができる。なお、本実施形態の立体撮像装置では、例えば、主被写体に対して、背景が明るい場合でも、上記と同様に、背景の影響を受けにくい。
 ここで、図8(従来技術による処理結果)と図16と(本実施形態の立体撮像装置による処理結果)とを比較することで分かるように、デプス差が大きいBの領域について、図16の領域Bでは、図8の領域Bと比較して、デプス差を伴う明暗差の強調が抑えられていることがわかる。
(図16(a3)は、図16(a2)に、周囲明度信号US_Lを重ねて表示させた図であるが、図16(a3)の周囲明度信号US_Lは、図8(c)の周囲明度信号US_Lと異なり、領域Bにおいて、適切な値の信号となっていることが分かる。)
 つまり、本実施形態の立体撮像装置では、立体画像上において、主被写体202を形成する画像領域に対して、距離(被写体距離)の異なる背景の明暗の影響を受けてコントラスト強調がなされることを適切に回避することができる。そして、本実施形態の立体撮像装置では、本当に陰影による明暗差を中心とした陰影の強調が実現できることになり、その結果、本実施形態の立体撮像装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 [第3実施形態]
 第1実施形態では、局所コントラストの強調が自然な陰影の強調に繋がらない原因(1)(遠景に対しても近景と同じようにコントラスト強調がなされることによる原因)により発生する課題についての解決手段(解決方法)について説明した。
 また、第2実施形態では、局所コントラストの強調が自然な陰影の強調に繋がらない原因(2)(オブジェクト間の領域に対してもコントラスト強調がなされることによる原因)により発生する課題についての解決手段(解決方法)について説明した。
 自然な陰影の強調により立体感の自然な強調を行うためには、立体撮像装置が、第1実施形態で示した解決手段(解決方法)と第2実施形態で示した解決手段(解決方法)の両方を実現する構成を備えることが最良であることは明らかである。
 また、そのためには、図2に示す第1実施形態の構成の局所階調変換部111(111L、111R)を第2実施形態における第2の局所階調変換部511(511L、511R)に置き換えるだけでよい。なお、この場合、置換後の第2の局所階調変換部511(511L、511R)には、Lデプス情報およびRデプス情報を入力させる。
 本実施形態の立体撮像装置は、第1実施形態で示した解決手段(解決方法)と第2実施形態で示した解決手段(解決方法)の両方を実現する構成を備える。そして、本実施形態の立体撮像装置は、図2に示す第1実施形態の構成の局所階調変換部111(111L、111R)を第2実施形態における第2の局所階調変換部511(511L、511R)に置換し、置換後の第2の局所階調変換部511(511L、511R)には、Lデプス情報およびRデプス情報が入力される構成である。
 図17は、第3実施形態の立体撮像装置による処理結果である。
 図17から分かるように、第3実施形態の立体撮像装置では、(1)明暗に対する陰影の占める割合が少ない遠方の領域(例えば領域Aなど)の局所コントラスト強調を適切に抑えることができるだけでなく、(2)大きなデプス差を有する領域(領域Bなど)においても、デプス差を伴う明暗差の強調が適切に抑えることができる。
 これにより、第3実施形態の立体撮像装置では、陰影に起因しない明暗差は強調しないで、陰影に起因する明暗差を選択的に(適切に)強調することが可能になるため、極めて自然な陰影強調を実現することができる。その結果、第3実施形態の立体撮像装置により取得される立体画像は、極めて自然な立体感の強調が実現された立体画像となる。
 [第4実施形態]
 次に、第4実施形態について、説明する。
 本実施形態では、陰影を濃くする立体画像処理を実現する技術について、説明する。
 前述の実施形態の技術では、明暗対比を強調する技術であるので、陰影も強調されるが、陰影以外の明るさも強調されてしまう。
 本願発明者らは、立体画像において、立体感・遠近感を自然に強調するためには(自然な立体感・遠近感を実現するためには)、陰影部分のみを強調することが効果的であることを見出した。
 立体感を高めるためには、できるだけ自然な陰影を強調するのが望ましい。立体感(凹凸)の高さを拡大して感じるためには、オブジェクト表面の凹凸により生じる陰影の量だけを強調するのが、自然で効果が大きい。
 前述の実施形態で説明した局所コントラストを強調する手法は、明暗対比を強調する手法であるから、陰影も強調されるのは確かであるが、陰影以外の部分も強調されてしまう。例えば、局所コントラストを強調する手法では、局所的な光の強弱が強調されるため、影の強調だけで無く、明るさも強調されてしまう。また、局所コントラストを強調する手法では、オブジェクト表面の色の変化や明暗の変化(反射率の変化)など、陰影とは関係の無い要素も強調される。そのため、局所コントラストを強調する手法により取得された立体画像は、人間が見ると陰影の強調に見えず、立体感の増加と言うより単にシーン全体をくっきりさせた様にしか見えない傾向がある。
 そこで、本実施形態では、上記に鑑み、陰影部分を選択的に強調することで(陰影を濃くする立体画像処理を行うことで)、より自然な立体感・遠近感を実現する立体画像を取得することができる立体画像処理技術について、説明する。
 なお、第4実施形態でも上述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第4実施形態の立体撮像装置の構成は、第1実施形態の立体撮像装置1000の構成と同様である。
 第4実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000における画像補正部104の局所階調変換部111Lおよび111Rを、局所階調変換部111ALおよび111ARに置換した構成を有する。この点において、第4実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000と相違する。その他の点については、第4実施形態の立体撮像装置は、第1実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111ALおよび111ARの構成および処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 <4.1:局所階調変換部111AL>
 局所階調変換部111ALは、図18に示すように、周囲明度検出部121と、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。
 周囲明度検出部121は、上述の実施形態の周囲明度検出部121と同様のものである。周囲明度検出部121は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)を入力とし、L画像信号の輝度値IS_Lに相当する注目画素(L画像上の処理対象画素)の周囲の領域(L画像上の注目画素の周辺画像領域)の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を算出する。そして、周囲明度検出部121は、算出した注目画素の周辺画像領域の代表明度値を、周囲明度信号US_Lとして、減算器1601に出力する。
 減算器1601は、L画像信号の輝度値IS_Lおよび周囲明度信号US_Lを入力とし、
  (IS_L)-(US_L)
に相当する減算処理を行い、減算処理により取得した差分信号((IS_L)-(US_L))を係数決定部1602および乗算器1603に出力する。
 係数決定部1602は、差分信号((IS_L)-(US_L))を入力とし、当該差分信号の値に従い、以下の処理を行う。
(1)差分信号((IS_L)-(US_L))の信号値が負である場合(IS_L<US_Lの場合)、k=k1に設定し、設定した係数k(=k1)を乗算器1603に出力する。
(2)差分信号((IS_L)-(US_L))の信号値が負ではない場合(IS_L≧US_Lの場合)、k=k2(ただし、k2<k1)に設定し、設定した係数k(=k2)を乗算器1603に出力する。
 乗算器1603は、周囲明度検出部121から出力される差分信号((IS_L)-(US_L))および係数決定部1602から出力される係数kを入力とし、
  k×((IS_L)-(US_L))
に相当する乗算処理を行い、当該乗算処理により取得された乗算信号(k×((IS_L)-(US_L)))を加算器1604に出力する。
 加算器1604は、L画像信号の輝度値IS_Lおよび乗算器1603から出力される乗算信号(k×((IS_L)-(US_L)))を入力とし、両者を加算することで、補正後の輝度値Os_Lを取得する。すなわち、加算器1604は、
  OS_L=IS_L+k×((IS_L)-(US_L))
に相当する処理を行い、補正後の輝度値OS_Lを取得する。
 以上の通り、局所階調変換部111ALでは、
(1)差分信号((IS_L)-(US_L))の信号値が負である場合(IS_L<US_Lの場合)、
  OS_L=IS_L+k1×((IS_L)-(US_L))
に相当する処理が実行され、補正後の輝度値OS_Lが取得される。
(2)差分信号((IS_L)-(US_L))の信号値が負ではない場合(IS_L≧US_Lの場合)、
  OS_L=IS_L+k2×((IS_L)-(US_L))
  (ただし、k2<k1)
に相当する処理が実行され、補正後の輝度値Os_Lが取得される。
 つまり、上記処理では、
(1)処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より暗い場合、係数kの値を大きな値k1(>k2)に設定し、アンシャープマスキングの強調度合いを強くし、
(2)処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より明るい場合、係数kの値を小さな値k2(<k1)に設定し、アンシャープマスキングの強調度合いを弱くする。
 これにより、本実施形態の立体画像処理装置において、陰影を濃くする画像処理を実現することができる。
 つまり、本実施形態の立体画像処理装置において、処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より暗い場合、係数kの値が大きな値k1(>k2)に設定されるので、処理対象画素が含まれる画像領域の変化分((IS_L)-(US_L))の加算される量が多くなる。このため、アンシャープマスキングの強調度合いが強くなる。その結果、立体画像の陰影部分が強調されることになる(陰影が濃くなるように立体画像処理が実行されることになる)。(本実施形態の立体画像処理装置のL画像補正部104Lにおいて、陰影部分が強調された補正後の輝度値OS_Lを用いて、処理が実行されることになるため、立体画像の陰影部分が強調されることになる。)
 一方、本実施形態の立体画像処理装置において、処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より明るい場合、係数kの値が小さい値k2(<k1)に設定されるので、処理対象画素が含まれる画像領域の変化分((IS_L)-(US_L))の加算される量が少なくなる。このため、アンシャープマスキングの強調度合いが弱くなる(アンシャープマスキングの効果が弱くなる)。その結果、立体画像の陰影以外の部分(例えば、明るい部分)があまり強調されない。
 なお、上記処理の(2)の場合において、係数kの値を「0」に設定することで、アンシャープマスキングの効果を「なし」にすることができる。すなわち、この場合、処理対象画素の明るさ(輝度値)が、当該処理対象画素の周辺の明るさ(例えば、平均輝度値)より暗い場合のみ、アンシャープマスキング処理が実行されることになり、本実施形態の立体画像処理装置において、処理対象画素の画素値を暗くする方向の処理のみが実行されることになる(陰影部分を強調する処理が実行されることになる)。
 なお、上記処理において、係数決定部1602では、図19に示す特性C1701により、係数kが決定されるが、これに限定されることはなく、例えば、係数決定部1602は、図19に示す特性C1702により、係数kを決定するようにしてもよい(差分信号の値(IS_L-US_L)の変化に対して、連続的に係数kを変化させるようにしてもよい)。係数決定部1602が、図19に示す特性C1702により、係数kを決定する場合、差分信号の値(IS_L-US_L)の変化に対して、係数kが連続的に変化するため、本実施形態の立体画像処理装置において、より自然な画質の立体画像を取得することができる。
 以上の通り、本実施形態の立体画像処理装置では、陰影を濃くする画像処理を実現することができる。これにより、本実施形態の立体画像処理装置により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 また、本実施形態の立体画像処理装置では、第1実施形態の立体画像処理装置と同様、デプス値に基づいた処理が実行されるため、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができる。
 ≪第1変形例(第4実施形態)≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第4実施形態の立体撮像装置における局所階調変換部111ALおよび111ARを、図20に示す局所階調変換部111BLおよび111BRに、置換した構成を有する。より具体的には、本変形例の立体撮像装置は、第4実施形態の立体撮像装置における局所階調変換部111ALおよび111ARの周囲明度検出部121を、図20に示す第2周囲明度検出部1801に置換した構成を有する。
 それ以外については、本変形例の立体撮像装置は、第4実施形態の立体撮像装置と同様である。
 したがって、以下では、本変形例の立体撮像装置における局所階調変換部111BLおよび111BRの構成および処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 <4.2:局所階調変換部111BL>
 図20に示すように、局所階調変換部111BLは、第2周囲明度検出部1801と、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。
 減算器1601と、係数決定部1602と、乗算器1603と、加算器1604とについては、第4実施形態のものと同様のものである。
 第2周囲明度検出部1801は、図20に示すように、周囲明度検出部121と、オフセット算出部1802と、加算器1803と、を備える。
 図20に示す周囲明度検出部121は、図18に示す周囲明度検出部121と同様のものである。
 オフセット算出部1802は、L画像信号の輝度値IS_Lおよび周囲明度検出部121から出力される周囲明度信号US_Lを入力とし、L画像信号の輝度値IS_Lおよび周囲明度信号US_Lからオフセット値ΔUS_Lを算出する。そして、オフセット算出部1802は、算出したオフセット値ΔUS_Lを加算器1803に出力する。
 オフセット算出部1802は、オフセット値ΔUS_Lを、例えば、以下のようにして、算出する。
(A)差分絶対値の平均値
 オフセット算出部1802は、サンプル数をN(Nは自然数)として、L画像信号の輝度値IS_Lと、周囲明度信号US_Lとの差分絶対値の平均値を算出する。そして、オフセット算出部1802は、算出した当該平均値をオフセット値ΔUS_Lとする。すなわち、オフセット算出部1802は、下記(数式3)に相当する処理(サンプル数はN(N:自然数))により、オフセット値ΔUS_Lを算出する。なお、後段の信号処理で使用しやすくするために、下記(数式3)のように、係数c1により、オフセット値のレンジを調整し、オフセット値ΔUS_Lを求めるようにしてもよい。また、下記(数式3)では、L画像用の処理およびR画像用の処理を区別せずに、一般的な数式と表現している。つまり、L画像用の処理の場合、下記(数式3)において、ΔUS=ΔUS_L、IS=IS_L、US=US_Lであり、R画像用の処理の場合、下記(数式3)において、ΔUS=ΔUS_R、IS=IS_R、US=US_Rである(下記(数式4)、(数式5)についても同様)。
Figure JPOXMLDOC01-appb-M000003
(B)分散値
 オフセット算出部1802は、サンプル数をN(Nは自然数)として、L画像信号の輝度値IS_Lと、周囲明度信号US_Lとの分散値を算出する。そして、オフセット算出部1802は、算出した当該分散値をオフセット値ΔUS_Lとする。すなわち、オフセット算出部1802は、下記(数式4)に相当する処理(サンプル数はN(N:自然数))により、オフセット値ΔUS_Lを算出する。なお、後段の信号処理で使用しやすくするために、下記(数式4)のように、係数c2により、オフセット値のレンジを調整し、オフセット値ΔUS_Lを求めるようにしてもよい。
Figure JPOXMLDOC01-appb-M000004
(C)標準偏差値
 オフセット算出部1802は、サンプル数をN(Nは自然数)として、L画像信号の輝度値IS_Lと、周囲明度信号US_Lとの標準偏差値を算出する。そして、オフセット算出部1802は、算出した当該標準偏差値をオフセット値ΔUS_Lとする。すなわち、オフセット算出部1802は、下記(数式5)に相当する処理(サンプル数はN(N:自然数))により、オフセット値ΔUS_Lを算出する。なお、後段の信号処理で使用しやすくするために、下記(数式5)のように、係数c3により、オフセット値のレンジを調整し、オフセット値ΔUS_Lを求めるようにしてもよい。
Figure JPOXMLDOC01-appb-M000005
 なお、上記(数式3)~(数式5)による演算処理のサンプル対象(N個のサンプルの対象)は、画像領域において、処理対象画素の近傍に存在するN個の画素とすることが好ましい。
 加算器1803は、周囲明度検出部121から出力される周囲明度信号US_Lおよびオフセット算出部1802から出力されるオフセット値ΔUS_Lを入力とし、周囲明度信号US_Lおよびオフセット値ΔUS_Lを加算する。そして、加算器1803は、加算結果(US_L+ΔUS_L)を補正周囲明度信号US_L’として、減算器1601に出力する。
 このようにして取得された補正周囲明度信号US_L’は、
(1)L画像信号の輝度値IS_Lの変化の少ない部分(画像領域)では、周囲明度信号US_Lと同様の値となるが、
(2)L画像信号の輝度値IS_Lの変化の大きい部分(画像領域)では、周囲明度信号US_Lよりも大きな値(大きな値の信号値)となる。
 例えば、図21(b)に示すように、L画像信号の輝度値IS_Lが図21(b)の波形Isであった場合、補正周囲明度信号US_L’は、波形Us’となる。図21(b)から分かるように、補正周囲明度信号US_L’(波形Us’)は、
(1)L画像信号の輝度値IS_L(波形Is)の変化の少ない部分(画像領域)では、周囲明度信号US_L(波形Us)と同様の値となるが、
(2)L画像信号の輝度値IS_L(波形Is)の変化の大きい部分(画像領域)では、周囲明度信号US_L(波形Us)よりも大きな値(大きな値の信号値)となることが分かる。
 そして、本変形例の立体撮像装置では、第4実施形態での処理と同様の処理を、補正周囲明度信号US_L’を用いて行う。
 つまり、本変形例の局所階調変換部111BLでは、
(1)差分信号((IS_L)-(US_L’))の信号値が負である場合(IS_L<US_L’の場合)、
  OS_L=IS_L+k1×((IS_L)-(US_L’))
に相当する処理が実行され、補正後の輝度値OS_Lが取得される。
(2)差分信号((IS_L)-(US_L’))の信号値が負ではない場合(IS_L≧US_L’の場合)、
  OS_L=IS_L+k2×((IS_L)-(US_L’))
  (ただし、k2<k1)
に相当する処理が実行され、補正後の輝度値Os_Lが取得される。
 つまり、上記処理では、
(1)処理対象画素の明るさ(輝度値)が、補正周囲明度信号US_L’で決定される明るさより暗い場合、係数kの値を大きな値k1(>k2)に設定し、アンシャープマスキングの強調度合いを強くし、
(2)処理対象画素の明るさ(輝度値)が、補正周囲明度信号US_L’で決定される明るさより明るい場合、係数kの値を小さな値k2(<k1)に設定し、アンシャープマスキングの強調度合いを弱くする。
 これにより、本変形例の立体画像処理装置において、陰影を濃くする画像処理を実現することができる。
 なお、上記処理の(2)の場合において、係数kの値を「0」に設定することで、アンシャープマスキングの効果を「なし」にすることができる。すなわち、この場合、処理対象画素の明るさ(輝度値)が、補正周囲明度信号US_L’で決定される明るさより暗い場合のみ、アンシャープマスキング処理が実行されることになり、本変形例の立体画像処理装置において、処理対象画素の画素値を暗くする方向の処理のみが実行されることになる(陰影部分を強調する処理が実行されることになる)。
 なお、上記処理において、係数決定部1602では、図22に示す特性C2001により、係数kが決定されるが、これに限定されることはなく、例えば、係数決定部1602は、図22に示す特性C2002により、係数kを決定するようにしてもよい(差分信号の値(IS_L-US_L’)の変化に対して、連続的に係数kを変化させるようにしてもよい)。係数決定部1602が、図22に示す特性C2002により、係数kを決定する場合、差分信号の値(IS_L-US_L’)の変化に対して、係数kが連続的に変化するため、本変形例の立体画像処理装置において、より自然な画質の立体画像を取得することができる。
 ここで、本変形例の立体画像処理装置により取得される補正後の輝度値Os_Lについて、図21を用いて、説明する。
 図21(a)は、L画像信号の輝度値IS_L(波形Is)と、周囲明度信号US_L(波形Us)と、局所階調変換処理(コントラスト強調処理)を行うことで取得した補正後の輝度値OS_L(波形Os)を示している。
 図21(b)は、L画像信号の輝度値IS_L(波形Is)と、補正周囲明度信号US_L’(波形Us’)と、局所階調変換処理(コントラスト強調処理)を行うことで取得した補正後の輝度値OS_L(波形Os’)を示している。つまり、図21(b)は、本変形例の立体画像処理装置による信号波形の一例を示している。
 図21から分かるように、本変形例の立体画像処理装置では、L画像信号の輝度値IS_L(波形Is)の変化の大きい部分において、補正周囲明度信号US_L’(波形Us’)の信号値が大きくなるので、補正周囲明度信号US_L’の信号値より低い信号値を持つL画像信号の輝度値IS_L(波形Is)に対して、アンシャープマスキング処理の強調度合いが大きくなる。その結果、図21(b)に示すように、L画像信号の輝度値IS_L(波形Is)の変化の大きい部分において、暗くなる方向への処理(階調値を低くする処理)が実行される。これにより、本変形例の立体画像処理装置では、例えば、オブジェクトのディテール部分における陰影部分を効果的に強調することができる(当該ディテール部分の陰影を効果的に濃くすることができる)。
 以上の通り、本変形例の立体画像処理装置では、補正周囲明度信号US_L’を用いることで、オブジェクトのディテール部分等において、効果的に陰影を濃くする画像処理を実現することができる。これにより、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 また、本変形例の立体画像処理装置では、第1実施形態の立体画像処理装置と同様、デプス値に基づいた処理が実行されるため、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができる。
 ≪第2変形例(第4実施形態)≫
 次に、本実施形態の第2変形例について、説明する。
 本変形例の立体撮像装置は、第4実施形態の第1変形例の立体撮像装置の第2周囲明度検出部1801を、図23に示す第3周囲明度検出部2101に置換した構成を有する。
 それ以外については、本変形例の立体撮像装置は、第4実施形態の第1変形例の立体撮像装置と同様である。
 したがって、以下では、本変形例の立体撮像装置における第3周囲明度検出部2101の構成および処理内容について、説明する。
 なお、前述の実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 <4.3:第3周囲明度検出部2101>
 第3周囲明度検出部2101では、第2周囲明度検出部1801とは異なり、周囲明度信号US_Lを用いることなく、L画像信号の輝度値IS_Lの変化の大きい部分において、大きな信号値となる補正周囲明度信号US_L’を取得する。
 図23に示すように、第3周囲明度検出部2101は、第1ローパスフィルタ2102と、マックスフィルタ2103と、第2ローパスフィルタ2104と、を備える。
 第1ローパスフィルタ2102は、L画像信号の輝度値IS_Lを入力とし、入力されたL画像信号の輝度値IS_Lから、細かいノイズ成分(高周波ノイズ成分)を除くためのフィルタ処理(ローパスフィルタ処理)を実行する。そして、第1ローパスフィルタ2102は、当該フィルタ処理後のL画像信号をマックスフィルタ2103に出力する。
 マックスフィルタ2103は、第1ローパスフィルタ2102の出力を入力とし、マックスフィルタ処理を実行する。具体的には、マックスフィルタ2103は、第1ローパスフィルタ2102の出力(ローパスフィルタ処理後のL画像信号)に対して、処理対象画素および当該処理対象画素の近傍に存在するN個(Nは自然数)の周辺画素(サンプル点)について、その画素値が最大のものを検出する。そして、マックスフィルタ2103は、検出した当該最大値を第2ローパスフィルタ2104に出力する。
 第2ローパスフィルタ2104は、マックスフィルタ2103からの出力を入力とし、入力された信号に対して、ローパスフィルタ処理を行う。第2ローパスフィルタ2104でのローパスフィルタ処理は、マックスフィルタ2103の出力において不要な高周波成分を除くための処理である。そして、第2ローパスフィルタ2104は、ローパスフィルタ処理後の信号を、補正周囲明度信号US_L’として出力する。
 上記のように、第3周囲明度検出部2101では、細かいノイズ成分を除去した後の信号(第1ローパスフィルタ2102の出力信号)から所定のフィルタ範囲(処理対象画素およびその周辺画素により決定されるフィルタ範囲)における最大値をとり、当該最大値を信号値とする信号(マックスフィルタ2103の出力信号)を取得する。さらに、第3周囲明度検出部2101では、マックスフィルタ2103の出力信号から不要な高周波成分を除去することで、補正周囲明度信号US_L’を取得する。
 したがって、第3周囲明度検出部2101では、周囲明度信号US_Lを用いることなく、L画像信号の輝度値IS_Lだけを用いて、L画像信号の輝度値IS_Lの変化の大きい部分において、大きな信号値となる補正周囲明度信号US_L’を取得することができる。
 そして、本変形例の立体撮像装置において、第3周囲明度検出部2101により取得された補正周囲明度信号US_L’を用いることで、第4実施形態の第1変形例と同様、オブジェクトのディテール部分等において、効果的に陰影を濃くする画像処理を実現することができる。これにより、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 また、本変形例の立体画像処理装置では、第1実施形態の立体画像処理装置と同様、デプス値に基づいた処理が実行されるため、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができる。
 [第5実施形態]
 次に、第5実施形態について、説明する。
 本実施形態においても、陰影を濃くする立体画像処理を実現する技術について、説明する。
 なお、第5実施形態でも上述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第5実施形態の立体撮像装置の構成は、第1実施形態の立体撮像装置1000の構成と同様である。
 第5実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000における画像補正部104の局所階調変換部111Lおよび111Rを、図24に示す局所階調変換部111CLおよび111CRに置換した構成を有する。この点において、第5実施形態の立体撮像装置は、第1実施形態の立体撮像装置1000と相違する。その他の点については、第5実施形態の立体撮像装置は、第1実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111CLおよび111CRの構成および処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 なお、上述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 <5.1:局所階調変換部111CL>
 局所階調変換部111CLは、図24に示すように、周囲明度検出部121と、第2動的階調補正部122Aと、を備える。
 周囲明度検出部121は、上述の実施形態の周囲明度検出部121と同様のものである。周囲明度検出部121は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)を入力とし、L画像信号の輝度値IS_Lに相当する注目画素(L画像上の処理対象画素)の周囲の領域(L画像上の注目画素の周辺画像領域)の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を算出する。そして、周囲明度検出部121は、算出した注目画素の周辺画像領域の代表明度値を、周囲明度信号US_Lとして、第2動的階調補正部122Aに出力する。
 第2動的階調補正部122Aは、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)と、周囲明度検出部121から出力された周囲明度信号US_Lとを入力とする。第2動的階調補正部122Aは、周囲明度信号US_Lの値に基づいて決定される階調変換特性により、L画像信号の輝度値IS_Lに対して、階調変換処理を行う。第2動的階調補正部122Aの階調変換特性は、例えば、図25に示すようなものである。
 図25の階調変換特性は、図4の階調変換特性と同様のものであるが、入力値ISが周囲明度信号の値USより大きくなった場合、入力値ISをそのまま出力値OSとする点において、図4の階調変換特性と異なる。
 図25は、図4と同様、横軸に入力信号であるIS信号の値(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)をとり、縦軸に出力信号であるOS信号の値(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)をとり、周囲明度信号US_L(またはUS_L)の値により決定される階調変換特性曲線K1~K8をグラフにしたものである。
 ただし、図4の階調変換特性とは異なり、図25の階調変換特性は、実線部により示した曲線により決定されるものである。つまり、IS信号の値が周囲明度信号の値US以下の場合のみ、階調変換特性曲線Kn(n:1~8の整数)により階調変換特性が決定される。そして、IS信号の値が周囲明度信号の値USより大きい場合は、階調変換することなく、そのまま、入力値であるIS信号の値が、出力値OSとなる。
 第2動的階調補正部122Aにより、図25に示す階調変換特性により、階調変換することで、IS信号の値が周囲明度信号の値US以下の場合のみ、つまり、処理対象の画素が周辺より暗い場合のみ、局所コントラストが強調される。これにより、陰影を濃くする階調変換を実現することができる。
 以上説明したように、第2動的階調補正部122Aは、図25に示すような階調変換特性により、IS信号(L画像信号の輝度値IS_L、または、R画像信号の輝度値IS_R)に対して動的階調補正処理を行うことで、OS信号(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)を取得する。そして、第2動的階調補正部122Aは、OS信号(L画像信号の階調変換後の輝度値OS_L、または、R画像信号の階調変換後の輝度値OS_R)を合成部113L(R画像信号の場合は、合成部113R)に出力する。
 なお、第2動的階調補正部122Aによる階調変換処理に用いられる階調変換特性は、図25に示す階調変換特性に限定されるものではなく、陰影を濃くすることができる階調変換特性であれば、他の階調変換特性であってもよい。例えば、入力値ISが周囲明度信号の値USより大きくなった場合、局所コントラストの強調度合いを低くする階調変換特性により、第2動的階調補正部122Aによる階調変換処理を行うようにしてもよい。例えば、図25の階調変換特性曲線K1~K8の点線部分の傾きを小さくした曲線により決定される階調変換特性により、第2動的階調補正部122Aによる階調変換処理を行うようにしてもよい。このような階調変換特性による階調変換処理を行うことで、周辺の明るさより明るい画素の局所コントラストの強調度合いを低く抑えつつ、陰影を濃くする階調変換を実現することができる。
 以上の通り、本実施形態の立体撮像装置(立体画像処理装置)では、例えば、図25に示す階調変換特性により、第2動的階調補正部122Aが階調変換処理を実行するので、IS信号の値が周囲明度信号の値US以下の場合のみ、つまり、処理対象の画素が周辺より暗い場合のみ、局所コントラストが強調される。その結果、本実施形態の立体撮像装置(立体画像処理装置)では、陰影を濃くする階調変換を実現することができる。これにより、本実施形態の立体画像処理装置により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 また、本実施形態の立体画像処理装置では、第1実施形態の立体画像処理装置と同様、デプス値に基づいた処理が実行されるため、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができる。
 ≪第1変形例(第5実施形態)≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第5実施形態の立体撮像装置における局所階調変換部111CLおよび111CRを、図26に示す局所階調変換部111DLおよび111DRに、置換した構成を有する。
 図26に示すように、局所階調変換部111DLおよび111DRは、第2周囲明度検出部1801と、動的階調補正部122と、を備える。
 第2周囲明度検出部1801は、前述の実施形態で説明したもの(図20に示したもの)と同じものである。
 動的階調補正部122は、前述の実施形態で説明したものと同じものであり、図4に示した階調変換特性により階調変換を実行する。
 本変形例の立体撮像装置では、第2周囲明度検出部1801から出力される補正周囲明度信号US_L’を用いて、動的階調補正部122により、階調変換処理が実行される。そのため、陰影を濃くする階調変換を行うことができる。
 つまり、補正周囲明度信号US_L’は、L画像信号の輝度値IS_Lの変化の大きい部分において、その信号値が大きくなる。したがって、本変形例の立体撮像装置の動的階調補正部122により、補正周囲明度信号US_L’を用いた階調変換処理を実行することで、周囲明度信号US_Lを用いた階調変換処理を実行する場合に比べて、陰影を濃くする階調変換処理を実行することができる。
 これについて、一例を挙げ、図4を用いて説明する。
 例えば、L画像信号の輝度値IS_Lが「4/8」で、周囲明度信号US_Lの値が「5/8」で、補正周囲明度信号US_L’の値が「7/8」の場合(L画像信号の輝度値IS_Lの変化の大きい部分に相当)、本変形例の立体撮像装置では、L画像信号の輝度値IS_Lが「4/8」である処理対象画素の画素値(輝度値)は、図4のB点により決定される出力値OS_Lに階調変換される。一方、第1実施形態の立体撮像装置では、L画像信号の輝度値IS_Lが「4/8」である処理対象画素の画素値(輝度値)は、図4のA点により決定される出力値OS_Lに階調変換される。
 つまり、上記の場合、本変形例の立体撮像装置による階調変換処理では、第1実施形態の立体撮像装置による階調変換処理に比べて、出力値がより低く(暗く)なるように階調変換される。したがって、本変形例の立体撮像装置による階調変換処理では、第1実施形態の立体撮像装置による階調変換処理に比べて、より陰影を強調する(陰影を濃くする)ことができる。
 以上の通り、本変形例の立体撮像装置では、補正周囲明度信号US_L’を用いて、動的階調補正部122により、階調変換処理が実行されるので、L画像信号の輝度値IS_Lの変化の大きい部分において、暗くなる方向への処理(階調値を低くする処理)が実行される。これにより、本変形例の立体画像処理装置では、例えば、オブジェクトのディテール部分における陰影部分を効果的に強調することができる(当該ディテール部分の陰影を効果的に濃くすることができる)。
 これにより、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、陰影部分を選択的に強調した立体画像となる。その結果、本変形例の立体撮像装置(立体画像処理装置)により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 また、本変形例の立体画像処理装置では、第1実施形態の立体画像処理装置と同様、デプス値に基づいた処理が実行されるため、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができる。
 なお、本変形例を前述の実施形態と組み合わせてもよい。これにより、前述の実施形態の立体画像処理技術においても、本変形例の効果を奏する立体画像処理を実現することができる。
 また、本変形例の立体画像処理装置において、第2周囲明度検出部1801の代わりに、図21に示した第3周囲明度検出部2101を用いて、補正周囲明度信号US_L’を生成するようにしてもよい。
 [第6実施形態]
 次に、第6実施形態について、説明する。
 通常、多くのシーンでは、光源が完全な平行光源でない場合が多い。例えば、点光源の場合には、影までの距離が離れるほど影が広がりぼけてくる。また、複数光源があるシーンでも、やはり影はぼやけてくる。このように、陰影は、実物体の凹凸の形状よりぼけることが普通であり、人間の視覚は、そのような明暗変化を陰影として感じるものと考えられる。
 そこで、陰影をより陰影らしく強調するには、陰影成分をぼかすことが有効であると考えられる。本願発明者らは、実際に、評価実験によって、その効果を確認した。
 第6実施形態では、付加する陰影成分の高域成分を低減することにより、視覚的により自然な陰影強調を行い、より自然な立体感・遠近感を実現する立体画像を取得することができる立体画像処理技術について、説明する。
 なお、第6実施形態でも前述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第6実施形態の立体撮像装置の構成は、第4実施形態の立体撮像装置の構成と同様である。
 第6実施形態の立体撮像装置は、第4実施形態の立体撮像装置における局所階調変換部111ALおよび111ARを、図27に示す局所階調変換部111ELおよび111ERに置換した構成を有する。この点において、第6実施形態の立体撮像装置は、第4実施形態の立体撮像装置と相違する。その他の点については、第6実施形態の立体撮像装置は、第4実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111ELおよび111ERの構成および処理内容について、説明する。
 なお、前述の実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 <6.1:局所階調変換部111EL>
 図27に示すように、局所階調変換部111ELは、図20に示す局所階調変換部111BLにおいて、乗算器1603と加算器1604の間に、帯域制限部2501をさらに追加した構成を有している。この点以外については、局所階調変換部111ELは、図20に示す局所階調変換部111BLと同様である。
 帯域制限部2501は、乗算器1603からの出力を入力とし、当該入力された信号(乗算信号(k×((IS_L)-(US_L‘))))に対して帯域制限処理を行い、帯域制限処理後の信号(LPF(k×((IS_L)-(US_L‘))))を、加算器1604に出力する。
 なお、LPF()は、帯域制限処理を示す関数であり、例えば、ローパスフィルタ処理等により取得された信号値を出力する関数である。
 帯域制限部2501での帯域制限処理は、帯域制限部2501への入力信号である乗算信号(k×((IS_L)-(US_L‘)))の高周波成分を低減する処理であれば良い。例えば、帯域制限部2501での帯域制限処理として、LPF処理を用いるようにしてもよい。
 なお、帯域制限部2501での帯域制限処理は、帯域制限のカットオフ周波数を、周囲明度信号US_Lの信号帯域と比較して、1桁以上高い周波数に設定することが好ましい。例えば、対象とする画像の大きさが縦1024画素および横768画素であれば、縦横がそれぞれ80画素以上の領域から周囲明度信号US_Lを生成することが好ましいが、この場合の周囲明度信号US_Lを取得する処理(例えば、LPF処理)の帯域制限のカットオフ周波数に対して、帯域制限部2501での帯域制限処理の帯域制限のカットオフ周波数を1桁以上高い周波数に設定することが好ましい。
 加算器1604では、帯域制限部2501から出力される帯域制限処理後の信号(LPF(k×((IS_L)-(US_L‘))))と、L画像信号の輝度値IS_Lとが加算される。
 つまり、本実施形態の局所階調変換部111ELでは、
  OS_L=IS_L+LPF(k×((IS_L)-(US_L‘)))
に相当する処理が実行される。
 上式において、((IS_L)-(US_L‘))は、陰影成分に相当し、(k×((IS_L)-(US_L‘)))が陰影の付加成分に相当すると考えられるので、LPF(k×((IS_L)-(US_L‘)))は、付加する陰影成分をぼかした(帯域制限した)ものに相当する。
 従って、本実施形態の局所階調変換部111ELから出力される補正後のL画像信号(補正後の輝度値)OS_Lは、陰影をぼかしつつ、かつ、陰影を強調した信号となる。
 以上の通り、本実施形態の立体画像処理装置では、陰影をぼかしつつ、かつ、陰影を濃くする(陰影を強調する)画像処理を実現することができる。これにより、本実施形態の立体画像処理装置により取得された立体画像は、陰影部分をぼかしつつ、陰影部分を選択的に強調した立体画像となる。その結果、本実施形態の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 また、本実施形態の立体画像処理装置では、第1実施形態の立体画像処理装置と同様、デプス値に基づいた処理が実行されるため、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができる。
 なお、本実施形態を前述の他の実施形態と組み合わせてもよい。これにより、前述の他の実施形態の立体画像処理技術においても、陰影部分をぼかしつつ、陰影を濃くする(陰影を強調する)立体画像処理を実現することができる。
 また、本実施形態の局所階調変換部111ELにおいて、第2周囲明度検出部1801を、図23に示した第3周囲明度検出部2101に置換してもよい。この場合も、本実施形態の立体画像処理装置と同様の効果を奏することができる。
 ≪第1変形例(第6実施形態)≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第6実施形態の立体撮像装置における局所階調変換部111ELおよび111ERを、図28に示す局所階調変換部111FLおよび111FRに、置換した構成を有する。
 それ以外については、本変形例の立体撮像装置は、第6実施形態の立体撮像装置と同様である。
 したがって、以下では、本変形例の立体撮像装置における局所階調変換部111FLおよび111FRの構成および処理内容について、説明する。
 なお、第1実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 図28に示すように、局所階調変換部111FLは、第2周囲明度検出部1801と、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。
 さらに、局所階調変換部111FLは、図28に示すように、乗算器2601と、加算器2602と、帯域制限部2501と、減算器2603と、加算器1604と、を備える。
 局所階調変換部111FLは、
  OS_L=IS_L-p×(IS_L-US_L’)+LPF((k+p)×(IS_L-US_L’))    (A0)
  (p:0≦p≦1)
に相当する処理を実行するものである。
 ここで、局所階調変換部111FLにおいて、上式に相当する処理を実行させる理由について、説明する。
 まず、下記数式(A1)の処理について、考える。
  OS_L=US_L’+(k+1)×(IS_L-US_L’)    (A1)
 数式(A1)の右辺第2項は、(もともと原画に存在していた陰影成分)+(付加する陰影成分)を表していると考えられる。
 そして、数式(A1)の右辺第2項に対して帯域制限処理(関数LPF()による処理に相当)を行うと、付加する陰影成分およびもともと原画に存在していた陰影成分をぼかすことができる。
 すなわち、
  OS_L=US_L’+LPF((k+1)×(IS_L-US_L’))   (A2)
に相当する処理を実行することで、付加する陰影成分およびもともと原画に存在していた陰影成分をぼかすことができる。
 一方、第6実施形態での処理(付加する陰影成分のみをぼかす処理)は、
  OS_L=IS_L+LPF(k×((IS_L)-(US_L‘)))   (A3)
に相当する。
 上記数式(A2)に相当する処理では、陰影らしさを強く表現できる一方、実際の陰影以外もぼかすという副作用が生じる。
 そこで、数式(A2)と数式(A3)(第6実施形態に相当)との間のぼかし方が設定できる処理が好ましい。
 これを実現するのが、上記数式(A0)に相当する処理である。
 上記数式(A0)において、p=0とすると、数式(A0)は、数式(A3)(第6実施形態に相当)と同一となり、付加する陰影成分のみをぼかす処理が実行される。
 一方、p=1とすると、数式(A0)は、数式(A2)と同一となり、付加する陰影成分および存在していた陰影成分をぼかす処理が実行される。
 つまり、局所階調変換部111FLにより、数式(A0)に相当する処理を実行することで、数式(A2)と数式(A3)(第6実施形態に相当)との間のぼかし方が実行される処理を実現することができる。
 なお、ぼかし方の程度を決定するpは、不図示の制御部等により設定される。
 また、pは、0≦p<0.5に設定すると、良好な陰影強調が実現されるので、好ましい。
 以上の通り、本変形例の立体画像処理装置では、陰影をぼかしつつ、かつ、陰影を濃くする(陰影を強調する)画像処理を実現することができる。さらに、本変形例の立体画像処理装置では、陰影をぼかす程度を調整することができる。これにより、本変形例の立体画像処理装置により取得された立体画像は、陰影部分を適切にぼかしつつ、陰影部分を選択的に強調した立体画像となる。その結果、本変形例の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 また、本変形例の立体画像処理装置では、第1実施形態の立体画像処理装置と同様、デプス値に基づいた処理が実行されるため、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができる。
 なお、本実施形態を前述の他の実施形態と組み合わせてもよい。これにより、前述の他の実施形態の立体画像処理技術においても、陰影部分を適切にぼかしつつ、陰影を濃くする(陰影を強調する)立体画像処理を実現することができる。
 また、本実施形態の局所階調変換部111FLにおいて、第2周囲明度検出部1801を、図23に示した第3周囲明度検出部2101に置換してもよい。この場合も、本実施形態の立体画像処理装置と同様の効果を奏することができる。また、本実施形態の局所階調変換部111FLにおいて、第2周囲明度検出部1801を、周囲明度検出部121に置換してもよい。
 [第7実施形態]
 次に、第7実施形態について、説明する。
 第4~第6実施形態と同様に、本実施形態では、陰影を濃くする立体画像処理を実現する技術について、説明する。
 なお、第7実施形態でも上述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第7実施形態の立体撮像装置の構成は、第2実施形態の立体撮像装置の構成と同様である。
 第7実施形態の立体撮像装置は、第2実施形態の立体撮像装置における画像補正部504の第2の局所階調変換部511Lおよび511Rを、局所階調変換部111AALおよび111AARに置換した構成を有する。この点において、第7実施形態の立体撮像装置は、第2実施形態の立体撮像装置と相違する。その他の点については、第7実施形態の立体撮像装置は、第2実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111AALおよび111AARの構成および処理内容について、説明する。
 なお、第2実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 <7.1:局所階調変換部111AAL>
 局所階調変換部111AALは、図29に示すように、デプス周囲明度検出部521と、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。局所階調変換部111AALは、図29に示すように、図18の局所階調変換部111ALにおいて、周囲明度検出部121をデプス周囲明度検出部521に置換した構成を有している。
 デプス周囲明度検出部521は、上述の実施形態のデプス周囲明度検出部521と同様のものである。デプス周囲明度検出部521は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)およびデプス取得部103から出力されたLデプス値を入力とし、L画像信号の輝度値IS_Lに相当する注目画素(L画像上の処理対象画素)の周囲の領域(L画像上の注目画素の周辺画像領域)の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を、第2実施形態と同様、(数式2)により算出する。そして、周囲明度検出部121は、算出した注目画素の周辺画像領域の代表明度値を、周囲明度信号US_Lとして、減算器1601に出力する。
 以降の処理については、第4実施形態と同様である。
 このように、本実施形態の立体画像処理装置では、距離(被写体距離)の異なる画素の影響を抑制した周囲明度信号US_Lにより処理が実行される。したがって、本実施形態の立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができるとともに、陰影を濃くする画像処理を実現することができる。その結果、本実施形態の立体撮像装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 ≪第1変形例(第7実施形態)≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第7実施形態の立体撮像装置における局所階調変換部111AALおよび111AARを、図30に示す局所階調変換部111BBLおよび111BBRに、置換した構成を有する。より具体的には、本変形例の立体撮像装置は、第7実施形態の立体撮像装置における局所階調変換部111AALおよび111AARのデプス周囲明度検出部521を、図30に示す第2デプス周囲明度検出部1801Aに置換した構成を有する。
 それ以外については、本変形例の立体撮像装置は、第7実施形態の立体撮像装置と同様である。
 したがって、以下では、本変形例の立体撮像装置における局所階調変換部111BBLおよび111BBRの構成および処理内容について、説明する。
 なお、前述の実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 <7.2:局所階調変換部111BL>
 図30に示すように、局所階調変換部111BBLは、第2デプス周囲明度検出部1801Aと、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。
 減算器1601と、係数決定部1602と、乗算器1603と、加算器1604とについては、第7実施形態のものと同様のものである。
 第2デプス周囲明度検出部1801Aは、図30に示すように、デプス周囲明度検出部521と、オフセット算出部1802と、加算器1803と、を備える。つまり、第2デプス周囲明度検出部1801Aは、図20に示す第2周囲明度検出部1801において、周囲明度検出部121をデプス周囲明度検出部521に置換した構成を有する。
 デプス周囲明度検出部521は、上述の実施形態のデプス周囲明度検出部521と同様のものである。デプス周囲明度検出部521は、画像入力部102から出力されたL画像を形成することができるL画像信号(L画像信号の輝度値IS_L)およびデプス取得部103から出力されたLデプス値を入力とし、L画像信号の輝度値IS_Lに相当する注目画素(L画像上の処理対象画素)の周囲の領域(L画像上の注目画素の周辺画像領域)の代表明度値(例えば、当該周囲領域に含まれるすべての画素の平均輝度値)を、第2実施形態と同様、(数式2)により算出する。そして、周囲明度検出部121は、算出した注目画素の周辺画像領域の代表明度値を、周囲明度信号US_Lとして、減算器1601に出力する。
 以降の処理については、第4実施形態の第1変形例と同様である。
 このように、本変形例の立体画像処理装置では、距離(被写体距離)の異なる画素の影響を抑制した周囲明度信号US_Lにより処理が実行される。したがって、本変形例の立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができるとともに、陰影を濃くする画像処理を実現することができる。その結果、本変形例の立体撮像装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 [第8実施形態]
 次に、第8実施形態について、説明する。
 本実施形態においても、陰影を濃くする立体画像処理を実現する技術について、説明する。
 なお、第8実施形態でも上述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第8実施形態の立体撮像装置の構成は、第2実施形態の立体撮像装置の構成と同様である。
 第8実施形態の立体撮像装置は、第2実施形態の立体撮像装置における画像補正部104の第2の局所階調変換部511Lおよび511Rを、図31に示す局所階調変換部111CCLおよび111CCRに置換した構成を有する。この点において、第8実施形態の立体撮像装置は、第2実施形態の立体撮像装置と相違する。その他の点については、第8実施形態の立体撮像装置は、第2実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111CCLおよび111CCRの構成および処理内容について、説明する。
 なお、第2実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 なお、上述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 <8.1:局所階調変換部111CCL>
 局所階調変換部111CCLは、図31に示すように、デプス周囲明度検出部521と、第2動的階調補正部122Aと、を備える。
 デプス周囲明度検出部521は、上述の実施形態のデプス周囲明度検出部521と同様のものである。
 第2動的階調補正部122Aは、上述の第2動的階調補正部122Aと同様のものである。
 本実施形態の立体画像処理装置では、デプス周囲明度検出部521により、距離(被写体距離)の異なる画素の影響を抑制した周囲明度信号US_Lにより処理が実行される。したがって、本実施形態の立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができるとともに、陰影を濃くする画像処理を実現することができる。その結果、本実施形態の立体撮像装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 ≪第1変形例(第8実施形態)≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第8実施形態の立体撮像装置における局所階調変換部111CCLおよび111CCRを、図32に示す局所階調変換部111DDLおよび111DDRに、置換した構成を有する。
 図32に示すように、局所階調変換部111DDLおよび111DDRは、第2デプス周囲明度検出部1801Aと、動的階調補正部122と、を備える。
 第2デプス周囲明度検出部1801Aは、前述の実施形態で説明したもの(図30に示したもの)と同じものである。
 本変形例の立体画像処理装置では、第2デプス周囲明度検出部1801Aにより、距離(被写体距離)の異なる画素の影響を抑制した補正周囲明度信号US_L’により処理が実行される。したがって、本変形例の立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができるとともに、陰影を濃くする画像処理を実現することができる。その結果、本変形例の立体撮像装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 [第9実施形態]
 次に、第9実施形態について、説明する。
 第9実施形態では、第6実施形態と同様に、付加する陰影成分の高域成分を低減することにより、視覚的により自然な陰影強調を行い、より自然な立体感・遠近感を実現する立体画像を取得することができる立体画像処理技術について、説明する。
 なお、第9実施形態でも前述の実施形態と同様に、立体画像処理装置として、2眼方式の立体撮像装置(デジタルカメラやビデオカメラなど)を例に、以下、説明する。なお、立体画像処理装置として、2眼方式の立体撮像装置に限定されることはなく、立体画像処理装置は、例えば、多視点方式の立体撮像装置であってもよい。
 第9実施形態の立体撮像装置の構成は、第7実施形態の第1変形例の立体撮像装置の構成と同様である。
 第9実施形態の立体撮像装置は、第7実施形態の第1変形例の立体撮像装置における局所階調変換部111BBLおよび111BBRを、図33に示す局所階調変換部111EELおよび111EERに置換した構成を有する。この点において、第9実施形態の立体撮像装置は、第7実施形態の立体撮像装置と相違する。その他の点については、第9実施形態の立体撮像装置は、第7実施形態の立体撮像装置と同様である。
 したがって、以下では、本実施形態の立体撮像装置における局所階調変換部111EELおよび111EERの構成および処理内容について、説明する。
 なお、前述の実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 <9.1:局所階調変換部111EEL>
 図33に示すように、局所階調変換部111EELは、図30に示す局所階調変換部111BBLにおいて、乗算器1603と加算器1604の間に、帯域制限部2501をさらに追加した構成を有している。この点以外については、局所階調変換部111EELは、図30に示す局所階調変換部111BBLと同様である。
 また、帯域制限部2501は、図27に示した帯域制限部2501と同様のものである。
 本実施形態の立体画像処理装置では、第2デプス周囲明度検出部1801Aにより、距離(被写体距離)の異なる画素の影響を抑制した補正周囲明度信号US_L’により処理が実行される。したがって、本実施形態の立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができるとともに、陰影を濃くする画像処理を実現することができる。その結果、本実施形態の立体撮像装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 ≪第1変形例(第9実施形態)≫
 次に、本実施形態の第1変形例について、説明する。
 本変形例の立体撮像装置は、第9実施形態の立体撮像装置における局所階調変換部111EELおよび111EERを、図34に示す局所階調変換部111FFLおよび111FFRに、置換した構成を有する。
 それ以外については、本変形例の立体撮像装置は、第9実施形態の立体撮像装置と同様である。
 したがって、以下では、本変形例の立体撮像装置における局所階調変換部111FFLおよび111FFRの構成および処理内容について、説明する。
 なお、前述の実施形態と同様、R画像に対する処理は、L画像に対する処理と同様であるため、主として、L画像の処理について、説明する。
 また、前述の実施形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。
 図34に示すように、局所階調変換部111FFLは、第2デプス周囲明度検出部1801Aと、減算器1601と、係数決定部1602と、乗算器1603と、加算器1604と、を備える。
 さらに、局所階調変換部111FFLは、図34に示すように、乗算器2601と、加算器2602と、帯域制限部2501と、減算器2603と、加算器1604と、を備える。
 なお、局所階調変換部111FFLの減算器1601、係数決定部1602、乗算器1603、加算器1604、乗算器2601、加算器2602、帯域制限部2501、および減算器2603は、第6実施形態の局所階調変換部111FL(111FR)のものと同様である。
 本変形例の立体画像処理装置では、陰影をぼかしつつ、かつ、陰影を濃くする(陰影を強調する)画像処理を実現することができる。さらに、本変形例の立体画像処理装置では、陰影をぼかす程度を調整することができる。これにより、本変形例の立体画像処理装置により取得された立体画像は、陰影部分を適切にぼかしつつ、陰影部分を選択的に強調した立体画像となる。その結果、本変形例の立体画像処理装置により取得された立体画像は、より自然な立体感・遠近感を再現する立体画像となる。
 また、本変形例の立体画像処理装置では、第2デプス周囲明度検出部1801Aにより、距離(被写体距離)の異なる画素の影響を抑制した補正周囲明度信号US_L’により処理が実行される。したがって、本変形例の立体画像処理装置では、立体画像上において、被写体距離が異なるオブジェクト(被写体)であって、明暗差が大きいオブジェクト(被写体)同士が近接している場合であっても、当該オブジェクトが近接している画像領域(明暗差の大きい画像領域)の影響を受けて不適切なコントラスト強調がなされることを適切に回避することができるとともに、陰影を濃くする画像処理を実現することができる。その結果、本変形例の立体撮像装置により取得される立体画像は、自然な陰影強調が実現された立体画像となる。
 なお、本実施形態を前述の他の実施形態と組み合わせてもよい。これにより、前述の他の実施形態の立体画像処理技術においても、陰影部分を適切にぼかしつつ、陰影を濃くする(陰影を強調する)立体画像処理を実現することができる。
 また、本実施形態の局所階調変換部111FLにおいて、第2周囲明度検出部1801を、図23に示した第3周囲明度検出部2101に置換してもよい。この場合も、本実施形態の立体画像処理装置と同様の効果を奏することができる。また、本実施形態の局所階調変換部111FLにおいて、第2周囲明度検出部1801を、周囲明度検出部121に置換してもよい。
 [他の実施形態]
 なお、上記実施形態の組み合わせることで、立体画像処理装置を実現するようにしてもよい。
 例えば、第3実施形態で説明した手法と同様の手法により、第4~6実施形態のいずれかと、第7~9実施形態のいずれかを組み合わせることで、立体画像処理装置を実現するようにしてもよい。
 また、上記実施形態において、画像入力部102には、R画像およびL画像が入力される構成について説明したが、これに限定されることはなく、例えば、多視点方式により取得されたN枚(Nは2以上の自然数)の画像から、R画像およびL画像を選択し、選択したR画像(信号)およびL画像(信号)を、画像入力部102に入力するようにしてもよい。
 また、立体画像処理装置において、R画像およびL画像は、必ずしも内部で取得されなくてもよい。例えば、R画像およびL画像は、外部から立体画像処理装置に入力されるものであってもよい。
 さらに、立体画像処理装置において、Rデプス情報およびLデプス情報も、必ずしも内部で取得されなくてもよい。例えば、Rデプス情報およびLデプス情報は、外部から立体画像処理装置に入力されるものであってもよい。この場合、立体画像処理装置において、デプス取得部103を省略することができる。つまり、立体画像処理装置が、画像補正部104のみを備えるものであってもよい。
 また、立体画像処理装置において、デプス情報を含む2D映像を入力し、当該デプス情報により、上記実施形態で説明した処理を実行するようにしてもよい。例えば、デプス情報を含む2D映像から、R画像およびL画像を生成し、生成したR画像およびL画像、および、2D映像に含まれていたデプス情報を立体画像処理装置の画像補正部104に入力し、立体画像処理装置において、上記実施形態で説明した処理を実行するようにしてもよい。
 さらに、立体画像処理装置において、デプス情報を含む2D映像が入力された場合、当該2D映像に対して、上記実施形態で説明した陰影強調処理を行うことで、陰影を濃くした2D映像を取得するようにしてもよい。この場合、例えば、立体画像処理装置における1系統による処理(L画像用処理またはR画像用処理に相当する処理)を行うようにしてもよい。そして、この場合、立体画像処理装置は、L画像用処理およびR画像用処理のいずれか1つに相当する処理系統のみにより構成されるものであってもよい。
 また、立体画像処理装置において、2D映像を3D映像に変換した映像(2D-3D変換映像)を入力し、さらに、2D-3D変換処理において、推定されたデプス情報を用いて、上記実施形態で説明した処理を実行するようにしてもよい。例えば、2D-3D変換処理により取得されたR画像およびL画像、および、推定処理により取得されたデプス情報を立体画像処理装置の画像補正部104に入力し、立体画像処理装置において、上記実施形態で説明した処理を実行するようにしてもよい。
 また、上記実施形態で説明した立体撮像装置において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
 なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
 さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
 また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施形態に係る立体撮像装置をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
 また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
 また、上記実施形態では、2つの撮像部により、ステレオ画像(左眼用画像および右眼用画像)を取得(撮像)している場合について説明した。しかし、これに限定されることはなく、例えば、1つの撮像素子により、左眼用画像と右眼用画像とを時分割で交互に取得するようにしてもよいし、また、1つの撮像素子の撮像素子面を2分割して、左眼用画像と右眼用画像とを取得するようにしてもよい。
 前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blue-ray Disc)、半導体メモリを挙げることができる。
 上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
 また、上記実施形態で説明したデプス取得部103および画像補正部104を搭載した立体表示装置、テレビ、情報携帯端末、パーソナルコンピュータ、デジタルスチルカメラ、ムービー、情報記録再生装置、映像記録再生装置等を実現するようにしてもよい。なお、この場合、R画像およびL画像は、上記装置に対して、外部から入力させるものであってもよい。
 なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
 本発明に係る立体画像処理装置、立体画像処理方法およびプログラムでは、少ない視差により撮影された立体感に乏しい画像に自然な立体感を付与することにより高品位な立体画像を取得することができる。したがって、本発明は、映像関連産業において有用であり、当該分野において実施することができる。
1000 立体撮像装置
101R 第1撮像部
101L 第2撮像部
102 画像入力部
103 デプス取得部
104、504 画像補正部
111L、111R、111AL、111AR、111BL、111BR、111CL、111CR、111DL、111DR、111EL、111ER、111FL、111FR、111AAL、111AAR、111BBL、111BBR、111CCL、111CCR、111DDL、111DDR、111EEL、111EER、111FFL、111FFR 局所階調変換部
112L、112R 強度生成部
113L、113R 合成部
121 周囲明度検出部
122 動的階調補正部
122A 第2動的階調補正部
504L 第2のL画像用画像補正部
504R 第2のR画像用画像補正部
511L、511R 第2の局所階調変換部
521 デプス周囲明度検出部
1602 係数決定部
1801 第2周囲明度検出部
1801A 第2デプス周囲明度検出部

Claims (22)

  1.  2眼方式または多視点方式による立体画像に含まれる第1視点用画像および第2視点用画像に対して画像補正処理を行う立体画像処理装置であって、
     前記第1視点用画像および前記第2視点用画像に含まれる被写体についての3次元空間での距離情報である被写体距離を取得するデプス取得部と、
     前記第1視点用画像および前記第2視点用画像のそれぞれに対して、処理対象である注目画素の階調変換を行う陰影強調処理を行う画像補正部であって、前記注目画素の被写体距離に基づいて、前記陰影強調処理の処理強調度を調整する画像補正部と、
    を備える立体画像処理装置。
  2.  前記画像補正部は、
     前記第1視点用画像および前記第2視点用画像のそれぞれに対して、処理対象である注目画素の画素値と当該注目画素の周辺画素の画素値の画像特徴量を示す代表画素値との関係に基づいて、前記注目画素の階調変換を行う局所陰影強調処理を行うことで前記陰影強調処理を実行するとともに、前記注目画素の被写体距離に基づいて、前記陰影強調処理の処理強調度を調整する、
     請求項1に記載の立体画像処理装置。
  3.  前記画像補正部は、被写体距離が小さい画素に対する前記陰影強調処理の処理強調度が、被写体距離が大きい画素に対する前記陰影強調処理の処理強調度よりも大きくなるように調整する、
     請求項1または2に記載の立体画像処理装置。
  4.  前記画像補正部は、
    (1)前記注目画素の被写体距離が小さい程、前記注目画素に対して、前記陰影強調処理の処理強調度が大きい前記陰影強調処理を行い、
    (2)前記注目画素の被写体距離が大きい程、前記注目画素に対して、前記陰影強調処理の処理強調度が小さい前記陰影強調処理を行う、
     請求項3に記載の立体画像処理装置。
  5.  前記画像補正部は、
    (1)前記注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、前記注目画素に対して、前記処理強調度が大きい前記陰影強調処理を行い、
    (2)前記注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が大きい程、前記注目画素に対して、前記処理強調度が小さい前記陰影強調処理を行う、
     請求項1または2に記載の立体画像処理装置。
  6.  前記画像補正部は、
     前記注目画素の周辺画素の平均的な明るさに対する明暗対比を強調するように前記注目画素を補正することによりコントラストを強調するものであって、
     前記周辺画素の平均的な明るさは、前記注目画素とのデプスの差が小さい画素の明るさの平均をとることにより算出される、
     請求項1または2に記載の立体画像処理装置。
  7.  前記画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備え、
     前記第1視点画像用画像補正部は、
     前記第1視点用画像信号IS_Rに対して前記局所陰影強調処理を行い、第1視点用変換画像信号OS_Rを取得する第1視点用局所階調変換部と、
     前記デプス取得部により取得された、前記第1視点用画像信号IS_Rに対応する画素の被写体距離であるデプス値に基づいて、前記局所陰影強調処理の処理強調度を生成する第1視点用強度生成部と、
     前記第1視点用強度生成部が生成した前記処理強調度に基づいて、前記第1視点画像信号IS_Rと、前記第1視点用変換画像信号OS_Rとを合成することで、第1視点用出力画像信号Routを取得する合成部であって、(1)前記第1視点用画像信号IS_Rに対応する画素の被写体距離が小さい程、前記第1視点用変換画像信号OS_Rの合成度合いが大きくなるように、前記第1視点画像信号IS_Rと、前記第1視点用変換画像信号OS_Rとを合成し、(2)前記第1視点用画像信号IS_Rに対応する画素の被写体距離が大きい程、前記第1視点用変換画像信号OS_Rの合成度合いが小さくなるように、前記第1視点画像信号IS_Rと、前記第1視点用変換画像信号OS_Rとを合成する第1視点用合成部と、
    を備え、
     前記第2視点画像用画像補正部は、
     前記第2視点用画像IS_Lに対して前記局所陰影強調処理を行い、第2視点用変換画像OS_Lを取得する第2視点用局所階調変換部と、
     前記デプス取得部により取得された、前記第2視点用画像IS_Lに対応する画素の被写体距離であるデプス値に基づいて、前記局所陰影強調処理の処理強調度を生成する第2視点用強度生成部と、
     前記第2視点用強度生成部が生成した前記処理強調度に基づいて、前記第2視点画像信号IS_Lと、前記第2視点用変換画像信号OS_Lとを合成することで、第2視点用出力画像信号Loutを取得する合成部であって、(1)前記第2視点用画像信号IS_Lに対応する画素の被写体距離が小さい程、前記第2視点用変換画像信号OS_Lの合成度合いが大きくなるように、前記第2視点画像信号IS_Lと、前記第2視点用変換画像信号OS_Lとを合成し、(2)前記第2視点用画像信号IS_Lに対応する画素の被写体距離が大きい程、前記第2視点用変換画像信号OS_Lの合成度合いが小さくなるように、前記第2視点画像信号IS_Lと、前記第2視点用変換画像信号OS_Lとを合成する第2視点用合成部と、
    を備える、
     請求項2に記載の立体画像処理装置。
  8.  前記陰影強調処理は、コントラスト強調処理である、
     請求項1から7のいずれかに記載の立体画像処理装置。
  9.  前記陰影強調処理は、視覚処理による局所コントラスト強調処理である、
     請求項1から7のいずれかに記載の立体画像処理装置。
  10.  前記陰影強調処理は、陰影を濃くする処理である、
     請求項1から7のいずれかに記載の立体画像処理装置。
  11.  前記第1視点用局所階調変換部は、
     前記第1視点用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とする第1視点用周囲明度信号US_Rを出力する第1視点用周囲明度検出部と、
     前記第1視点用画像信号IS_Rおよび前記第1視点用周囲明度信号US_Rに基づいて、動的階調補正処理を行うことで、前記補正第1視点用画像信号OS_Rを取得する第1視点用第2動的階調補正部であって、前記動的階調補正処理は、
    (1)(前記第1視点用画像信号IS_Rの値)≦(前記第1視点用周囲明度信号US_Rの値)である場合、前記第1視点用画像信号IS_Rの所定の入力範囲において、前記第1視点用画像信号IS_Rの値を所定の値に固定したとき、前記第1視点用周囲明度信号US_Rの値が増加するに従い、前記補正第1視点用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正第1視点用画像信号OS_Rを取得し、
    (2)(前記第1視点用画像信号IS_Rの値)>(前記第1視点用周囲明度信号US_Rの値)である場合、前記第1視点用画像信号IS_Rを、前記補正第1視点用画像信号OS_Rとすることで、前記補正第1視点用画像信号OS_Rを取得する、
    第1視点用第2動的階調補正部と、
    を備え、
     前記第2視点用局所階調変換部は、
     前記第2視点用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とする第2視点用周囲明度信号US_Lを出力する第2視点用周囲明度検出部と、
     前記第2視点用画像信号IS_Lおよび前記第2視点用周囲明度信号US_Lに基づいて、動的階調補正処理を行うことで、前記補正第2視点用画像信号OS_Lを取得する第2視点用第2動的階調補正部であって、前記動的階調補正処理は、
    (1)(前記第2視点用画像信号IS_Lの値)≦(前記第2視点用周囲明度信号US_Lの値)である場合、前記第2視点用画像信号IS_Lの所定の入力範囲において、前記第2視点用画像信号IS_Lの値を所定の値に固定したとき、前記第2視点用周囲明度信号US_Lの値が増加するに従い、前記補正第2視点用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正第2視点用画像信号OS_Lを取得し、
    (2)(前記第2視点用画像信号IS_Lの値)>(前記第2視点用周囲明度信号US_Lの値)である場合、前記第2視点用画像信号IS_Lを、前記補正第2視点用画像信号OS_Lとすることで、前記補正第2視点用画像信号OS_Lを取得する、
    第2視点用第2動的階調補正部と、
    を備える
     請求項10に記載の立体画像処理装置。
  12.  前記第1視点用局所階調変換部は、
     前記第1視点用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とする第1視点用周囲明度信号US_Rを取得し、所定の画像領域において、前記第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、前記第1視点用周囲明度信号US_Rに、前記第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する第1視点用第2周囲明度検出部と、
     前記第1視点用画像信号IS_Rおよび前記第1視点用補正周囲明度信号US_R’に基づいて、動的階調補正処理を行うことで、前記補正第1視点用画像信号OS_Rを取得する第1視点用動的階調補正部であって、前記動的階調補正処理は、前記第1視点用画像信号IS_Rの所定の入力範囲において、前記第1視点用画像信号IS_Rの値を所定の値に固定したとき、前記第1視点用補正周囲明度信号US_R’の値が増加するに従い、前記補正第1視点用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正第1視点用画像信号OS_Rを取得する第1視点用動的階調補正部と、
    を備え、
     前記第2視点用局所階調変換部は、
     前記第2視点用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とする第2視点用周囲明度信号US_Lを取得し、所定の画像領域において、前記第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、前記第2視点用周囲明度信号US_Lに、前記第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する第2視点用第2周囲明度検出部と、
     前記第2視点用画像信号IS_Lおよび前記第2視点用補正周囲明度信号US_L’に基づいて、動的階調補正処理を行うことで、前記補正第2視点用画像信号OS_Lを取得する第2視点用動的階調補正部であって、前記動的階調補正処理は、前記第2視点用画像信号IS_Lの所定の入力範囲において、前記第2視点用画像信号IS_Lの値を所定の値に固定したとき、前記第2視点用補正周囲明度信号US_L’の値が増加するに従い、前記補正第2視点用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正第2視点用画像信号OS_Lを取得する第2視点用動的階調補正部と、
    を備える、
     請求項10に記載の立体画像処理装置。
  13.  前記第1視点用局所階調変換部は、
     前記第1視点用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とする第1視点用周囲明度信号US_Rを取得し、所定の画像領域において、前記第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、前記第1視点用周囲明度信号US_Rに、前記第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する第1視点用第2周囲明度検出部と、
     前記第1視点用画像信号IS_Rと前記第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、
     決定した前記係数kを用いて、
      OS_R=IS_R+k×((IS_R)-(US_R’))
    により、前記補正第1視点用画像信号OS_Rを取得する第1視点用係数演算処理部と、
    を備え、
     前記第2視点用局所階調変換部は、
     前記第2視点用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とする第2視点用周囲明度信号US_Lを取得し、所定の画像領域において、前記第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、前記第2視点用周囲明度信号US_Lに、前記第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する第2視点用第2周囲明度検出部と、
     前記第2視点用画像信号IS_Lと前記第2視点用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、
     決定した前記係数kを用いて、
      OS_L=IS_L+k×((IS_L)-(US_L’))
    により、前記補正第2視点用画像信号OS_Lを取得する第2視点用係数演算処理部と、
    を備える、
     請求項10に記載の立体画像処理装置。
  14.  前記第1視点用局所階調変換部は、
     前記第1視点用画像信号IS_Rに相当する画素である注目画素と、当該注目画素の周辺の画素との代表明度値を検出し、検出した代表明度値を信号値とする第1視点用周囲明度信号US_Rを取得し、所定の画像領域において、前記第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、前記第1視点用周囲明度信号US_Rに、前記第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する第1視点用第2周囲明度検出部と、
     前記第1視点用画像信号IS_Rと前記第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、
     係数p(p:0≦p≦1)を設定し、
      (k+p)×(IS_R-US_R’)
    により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_R-US_R’))を取得し、取得した前記信号LPF((k+p)×(IS_R-US_R’))を用いて、
      OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))
    により、前記補正第1視点用画像信号OS_Rを取得する第1視点用係数演算処理部と、
    を備え、
     前記第2視点用局所階調変換部は、
     前記第2視点用画像信号IS_Lに相当する画素である注目画素と、当該注目画素の周辺の画素との明度値を検出し、検出した明度値を信号値とする第2視点用周囲明度信号US_Lを取得し、所定の画像領域において、前記第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、前記第2視点用周囲明度信号US_Lに、前記第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する第2視点用第2周囲明度検出部と、
     前記第2視点用画像信号IS_Lと前記第2視点用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、
     係数p(p:0≦p≦1)を設定し、
      (k+p)×(IS_L-US_L’)
    により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_L-US_L’))を取得し、取得した前記信号LPF((k+p)×(IS_L-US_L’))を用いて、
      OS_L=IS_L-p×(IS_L-US_L’)+LPF((k+p)×(IS_L-US_L’))
    により、前記補正第2視点用画像信号OS_Lを取得する第2視点用係数演算処理部と、
    を備える、
     請求項10に記載の立体画像処理装置。
  15.  前記画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備え、
     前記第1視点画像用画像補正部は、
     前記デプス取得部により取得された、前記第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値を算出することで、当該注目画素の第1視点用周囲明度信号US_Rを取得する周囲明度検出部であって、前記注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして前記重み付け平均値を算出する第1視点用デプス周囲明度検出部と、
     前記第1視点用画像信号IS_Rと前記第1視点用周囲明度信号US_Rとの関係に基づいて、前記注目画素の階調変換を行う局所陰影強調処理を行うことで、第1視点用出力画像信号Routを取得する第1視点用動的階調補正部と、
    を備え、
     前記第2視点画像用画像補正部は、
     前記デプス取得部により取得された、前記第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値を算出することで、当該注目画素の第2視点用周囲明度信号US_Lを取得する周囲明度検出部であって、前記注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして前記重み付け平均値を算出する第2視点用デプス周囲明度検出部と、
     前記第2視点用画像信号IS_Lと前記第2視点用周囲明度信号US_Lとの関係に基づいて、前記注目画素の階調変換を行う局所陰影強調処理を行うことで、第2視点用出力画像信号Loutを取得する第2視点用動的階調補正部と、
    を備え、
     前記陰影強調処理は、(1)コントラスト強調処理、(2)視覚処理による局所コントラスト強調処理、および、(3)陰影を濃くする処理のいずれか1つの処理である、
     請求項2に記載の立体画像処理装置。
  16.  前記画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備え、
     前記第1視点画像用画像補正部は、
     前記デプス取得部により取得された、前記第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値を算出することで、当該注目画素の第1視点用周囲明度信号US_Rを取得する第1視点用デプス周囲明度検出部であって、前記注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして前記重み付け平均値を算出する第1視点用デプス周囲明度検出部と、
     前記第1視点用画像信号IS_Rおよび前記第1視点用周囲明度信号US_Rに基づいて、動的階調補正処理を行うことで、前記補正第1視点用画像信号OS_Rを取得する第1視点用第2動的階調補正部であって、前記動的階調補正処理は、
    (1)(前記第1視点用画像信号IS_Rの値)≦(前記第1視点用周囲明度信号US_Rの値)である場合、前記第1視点用画像信号IS_Rの所定の入力範囲において、前記第1視点用画像信号IS_Rの値を所定の値に固定したとき、前記第1視点用周囲明度信号US_Rの値が増加するに従い、前記補正第1視点用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正第1視点用画像信号OS_Rを取得し、
    (2)(前記第1視点用画像信号IS_Rの値)>(前記第1視点用周囲明度信号US_Rの値)である場合、前記第1視点用画像信号IS_Rを、前記補正第1視点用画像信号OS_Rとすることで、前記補正第1視点用画像信号OS_Rを取得する、
    第1視点用第2動的階調補正部と、
    を備え、
     前記第2視点画像用画像補正部は、
     前記デプス取得部により取得された、前記第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差に基づいた重み付け平均値を算出することで、当該注目画素の第2視点用周囲明度信号US_Lを取得する第2視点用デプス周囲明度検出部であって、前記注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして前記重み付け平均値を算出する第2視点用デプス周囲明度検出部と、
     前記第2視点用画像信号IS_Lおよび前記第2視点用周囲明度信号US_Lに基づいて、動的階調補正処理を行うことで、前記補正第2視点用画像信号OS_Lを取得する第2視点用第2動的階調補正部であって、前記動的階調補正処理は、
    (1)(前記第2視点用画像信号IS_Lの値)≦(前記第2視点用周囲明度信号US_Lの値)である場合、前記第2視点用画像信号IS_Lの所定の入力範囲において、前記第2視点用画像信号IS_Lの値を所定の値に固定したとき、前記第2視点用周囲明度信号US_Lの値が増加するに従い、前記補正第2視点用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正第2視点用画像信号OS_Lを取得し、
    (2)(前記第2視点用画像信号IS_Lの値)>(前記第2視点用周囲明度信号US_Lの値)である場合、前記第2視点用画像信号IS_Lを、前記補正第2視点用画像信号OS_Lとすることで、前記補正第2視点用画像信号OS_Lを取得する、
    第2視点用第2動的階調補正部と、
    を備える、
     請求項2に記載の立体画像処理装置。
  17.  前記画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備え、
     前記第1視点画像用画像補正部は、
    (1)前記デプス取得部により取得された、前記第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と前記周辺画素の画素値との重み付け平均値を算出することで、第1視点用周囲明度信号US_Rを取得し、
    (2)所定の画像領域において、前記第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、前記第1視点用周囲明度信号US_Rに、前記第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する第1視点用第2デプス周囲明度検出部と、
     前記第1視点用画像信号IS_Rおよび前記第1視点用補正周囲明度信号US_R’に基づいて、動的階調補正処理を行うことで、前記補正第1視点用画像信号OS_Rを取得する第1視点用動的階調補正部であって、前記動的階調補正処理は、前記第1視点用画像信号IS_Rの所定の入力範囲において、前記第1視点用画像信号IS_Rの値を所定の値に固定したとき、前記第1視点用補正周囲明度信号US_R’の値が増加するに従い、前記補正第1視点用画像信号OS_Rの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正第1視点用画像信号OS_Rを取得する第1視点用動的階調補正部と、
    を備え、
     前記第2視点画像用画像補正部は、
    (1)前記デプス取得部により取得された、前記第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と前記周辺画素の画素値との重み付け平均値を算出することで、第2視点用周囲明度信号US_Lを取得し、
    (2)所定の画像領域において、前記第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、前記第2視点用周囲明度信号US_Lに、前記第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する第2視点用第2デプス周囲明度検出部と、
     前記第2視点用画像信号IS_Lおよび前記第2視点用補正周囲明度信号US_L’に基づいて、動的階調補正処理を行うことで、前記補正第2視点用画像信号OS_Lを取得する第2視点用動的階調補正部であって、前記動的階調補正処理は、前記第2視点用画像信号IS_Lの所定の入力範囲において、前記第2視点用画像信号IS_Lの値を所定の値に固定したとき、前記第2視点用補正周囲明度信号US_L’の値が増加するに従い、前記補正第2視点用画像信号OS_Lの値が減少する階調変換特性により、階調変換処理を行うことで、前記補正第2視点用画像信号OS_Lを取得する第2視点用動的階調補正部と、
    を備える、
     請求項2に記載の立体画像処理装置。
  18.  前記画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備え、
     前記第1視点画像用画像補正部は、
    (1)前記デプス取得部により取得された、前記第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と前記周辺画素の画素値との重み付け平均値を算出することで、第1視点用周囲明度信号US_Rを取得し、
    (2)所定の画像領域において、前記第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、前記第1視点用周囲明度信号US_Rに、前記第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する第1視点用第2デプス周囲明度検出部と、
     前記第1視点用画像信号IS_Rと前記第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、
     決定した前記係数kを用いて、
      OS_R=IS_R+k×((IS_R)-(US_R’))
    により、前記補正第1視点用画像信号OS_Rを取得する第1視点用係数演算処理部と、
    を備え、
     前記第2視点画像用画像補正部は、
    (1)前記デプス取得部により取得された、前記第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と前記周辺画素の画素値との重み付け平均値を算出することで、第2視点用周囲明度信号US_Lを取得し、
    (2)所定の画像領域において、前記第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、前記第2視点用周囲明度信号US_Lに、前記第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する第2視点用第2デプス周囲明度検出部と、
     前記第2視点用画像信号IS_Lと前記第2視点用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、
     決定した前記係数kを用いて、
      OS_L=IS_L+k×((IS_L)-(US_L’))
    により、前記補正第2視点用画像信号OS_Lを取得する第2視点用係数演算処理部と、
    を備える、
     請求項2に記載の立体画像処理装置。
  19.  前記画像補正部は、第1視点画像用画像補正部と、第2視点画像用画像補正部と、を備え、
     前記第1視点画像用画像補正部は、
    (1)前記デプス取得部により取得された、前記第1視点用画像信号IS_Rに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と前記周辺画素の画素値との重み付け平均値を算出することで、第1視点用周囲明度信号US_Rを取得し、
    (2)所定の画像領域において、前記第1視点用画像信号IS_Rの変化が激しい程、大きな値となる第1視点用オフセット値ΔUS_Rを取得し、前記第1視点用周囲明度信号US_Rに、前記第1視点用オフセット値ΔUS_Rを加算することで、第1視点用補正周囲明度信号US_R’を取得する第1視点用第2デプス周囲明度検出部と、
     前記第1視点用画像信号IS_Rと前記第1視点用補正周囲明度信号US_R’の差分((IS_R)-(US_R’))の値が大きくなる程、小さな値となる係数kを決定し、
     係数p(p:0≦p≦1)を設定し、
      (k+p)×(IS_R-US_R’)
    により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_R-US_R’))を取得し、取得した前記信号LPF((k+p)×(IS_R-US_R’))を用いて、
      OS_R=IS_R-p×(IS_R-US_R’)+LPF((k+p)×(IS_R-US_R’))
    により、前記補正第1視点用画像信号OS_Rを取得する第1視点用係数演算処理部と、
    を備え、
     前記第2視点画像用画像補正部は、
    (1)前記デプス取得部により取得された、前記第2視点用画像信号IS_Lに対応する画素である注目画素の被写体距離と当該注目画素の周辺画素の被写体距離との差が小さい程、重み付けを大きくして、当該注目画素の画素値と前記周辺画素の画素値との重み付け平均値を算出することで、第2視点用周囲明度信号US_Lを取得し、
    (2)所定の画像領域において、前記第2視点用画像信号IS_Lの変化が激しい程、大きな値となる第2視点用オフセット値ΔUS_Lを取得し、前記第2視点用周囲明度信号US_Lに、前記第2視点用オフセット値ΔUS_Lを加算することで、第2視点用補正周囲明度信号US_L’を取得する第2視点用第2デプス周囲明度検出部と、
     前記第2視点用画像信号IS_Lと前記第2視点用補正周囲明度信号US_L’の差分((IS_L)-(US_L’))の値が大きくなる程、小さな値となる係数kを決定し、
     係数p(p:0≦p≦1)を設定し、
      (k+p)×(IS_L-US_L’)
    により取得した信号に対して、帯域制限処理を行うことで、信号LPF((k+p)×(IS_L-US_L’))を取得し、取得した前記信号LPF((k+p)×(IS_L-US_L’))を用いて、
      OS_L=IS_L-p×(IS_L-US_L’)+LPF((k+p)×(IS_L-US_L’))
    により、前記補正第2視点用画像信号OS_Lを取得する第2視点用係数演算処理部と、
    を備える、
     請求項2に記載の立体画像処理装置。
  20.  請求項1から19のいずれかに記載の立体画像処理装置を含む、立体撮像装置。
  21.  2眼方式または多視点方式による立体画像に含まれる第1視点用画像および第2視点用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法であって、
     前記第1視点用画像および前記第2視点用画像に含まれる被写体についての3次元空間での距離情報である被写体距離を取得するデプス取得ステップと、
     前記第1視点用画像および前記第2視点用画像のそれぞれに対して、処理対象である注目画素の階調変換を行う陰影強調処理を行う画像補正ステップであって、前記注目画素の被写体距離に基づいて、前記陰影強調処理の処理強調度を調整する画像補正ステップと、
    を備える立体画像処理方法。
  22.  2眼方式または多視点方式による立体画像に含まれる第1視点用画像および第2視点用画像からなる立体画像に対して画像補正処理を行う立体画像処理方法をコンピュータで実行させるプログラムであって、
     前記第1視点用画像および前記第2視点用画像に含まれる被写体についての3次元空間での距離情報である被写体距離を取得するデプス取得ステップと、
     前記第1視点用画像および前記第2視点用画像のそれぞれに対して、処理対象である注目画素の階調変換を行う陰影強調処理を行う画像補正ステップであって、前記注目画素の被写体距離に基づいて、前記陰影強調処理の処理強調度を調整する画像補正ステップと、
    を備える立体画像処理方法をコンピュータで実行させるプログラム。
PCT/JP2011/006202 2011-01-13 2011-11-07 立体画像処理装置、立体画像処理方法およびプログラム WO2012095914A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012552540A JP5909704B2 (ja) 2011-01-13 2011-11-07 立体画像処理装置、立体画像処理方法およびプログラム
US13/929,798 US9064331B2 (en) 2011-01-13 2013-06-28 Three-dimensional image processing apparatus, three-dimensional image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011005295 2011-01-13
JP2011-005295 2011-01-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/929,798 Continuation-In-Part US9064331B2 (en) 2011-01-13 2013-06-28 Three-dimensional image processing apparatus, three-dimensional image processing method, and program

Publications (1)

Publication Number Publication Date
WO2012095914A1 true WO2012095914A1 (ja) 2012-07-19

Family

ID=46506845

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/006202 WO2012095914A1 (ja) 2011-01-13 2011-11-07 立体画像処理装置、立体画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US9064331B2 (ja)
JP (1) JP5909704B2 (ja)
WO (1) WO2012095914A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201500A (ja) * 2012-03-23 2013-10-03 Samsung Techwin Co Ltd 画像処理装置および画像処理方法
KR20150077167A (ko) * 2013-12-27 2015-07-07 엘지디스플레이 주식회사 3차원영상 표시장치 및 그 구동방법
KR20180042030A (ko) * 2016-10-17 2018-04-25 삼성전자주식회사 외부 디스플레이 장치의 화면 보정 장치 및 방법

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5303692B1 (ja) * 2011-11-28 2013-10-02 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
WO2014041860A1 (ja) * 2012-09-14 2014-03-20 ソニー株式会社 画像処理装置、画像処理方法、および、プログラム
JP6242098B2 (ja) * 2013-07-16 2017-12-06 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器
JP6263461B2 (ja) * 2014-09-26 2018-01-17 日立オートモティブシステムズ株式会社 撮像装置
JP6529360B2 (ja) * 2015-06-26 2019-06-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6562770B2 (ja) * 2015-08-24 2019-08-21 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
JP6986683B2 (ja) * 2018-01-05 2021-12-22 パナソニックIpマネジメント株式会社 視差値算出装置、視差値算出方法及びプログラム
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
JP7278096B2 (ja) * 2019-02-20 2023-05-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
US11711544B2 (en) 2019-07-02 2023-07-25 Apple Inc. Point cloud compression with supplemental information messages
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11625866B2 (en) 2020-01-09 2023-04-11 Apple Inc. Geometry encoding using octrees and predictive trees
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051811A (ja) * 1996-08-07 1998-02-20 Sanyo Electric Co Ltd 立体感調整方法および立体感調整装置
JP2002329198A (ja) * 2001-04-27 2002-11-15 Olympus Optical Co Ltd 画像質感強調装置、画像質感強調方法および画像質感強調プログラム
JP2005026800A (ja) * 2003-06-30 2005-01-27 Konica Minolta Photo Imaging Inc 画像処理方法、撮像装置、画像処理装置及び画像記録装置
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3157384B2 (ja) 1994-06-20 2001-04-16 三洋電機株式会社 立体映像装置
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
WO1998004087A1 (fr) * 1996-07-18 1998-01-29 Sanyo Electric Co., Ltd. Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels
KR101700362B1 (ko) * 2010-08-16 2017-01-31 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
WO2012032778A1 (ja) * 2010-09-08 2012-03-15 パナソニック株式会社 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム
JP5647740B2 (ja) * 2011-10-31 2015-01-07 富士フイルム株式会社 視差調節装置及び方法、撮影装置、再生表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051811A (ja) * 1996-08-07 1998-02-20 Sanyo Electric Co Ltd 立体感調整方法および立体感調整装置
JP2002329198A (ja) * 2001-04-27 2002-11-15 Olympus Optical Co Ltd 画像質感強調装置、画像質感強調方法および画像質感強調プログラム
JP2005026800A (ja) * 2003-06-30 2005-01-27 Konica Minolta Photo Imaging Inc 画像処理方法、撮像装置、画像処理装置及び画像記録装置
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201500A (ja) * 2012-03-23 2013-10-03 Samsung Techwin Co Ltd 画像処理装置および画像処理方法
KR20150077167A (ko) * 2013-12-27 2015-07-07 엘지디스플레이 주식회사 3차원영상 표시장치 및 그 구동방법
KR102142480B1 (ko) * 2013-12-27 2020-08-07 엘지디스플레이 주식회사 3차원영상 표시장치 및 그 구동방법
KR20180042030A (ko) * 2016-10-17 2018-04-25 삼성전자주식회사 외부 디스플레이 장치의 화면 보정 장치 및 방법
KR102524559B1 (ko) * 2016-10-17 2023-04-24 삼성전자주식회사 외부 디스플레이 장치의 화면 보정 장치 및 방법

Also Published As

Publication number Publication date
US9064331B2 (en) 2015-06-23
JPWO2012095914A1 (ja) 2014-06-09
JP5909704B2 (ja) 2016-04-27
US20130294683A1 (en) 2013-11-07

Similar Documents

Publication Publication Date Title
JP5909704B2 (ja) 立体画像処理装置、立体画像処理方法およびプログラム
JP5395273B2 (ja) 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム
US9445072B2 (en) Synthesizing views based on image domain warping
JP5509487B2 (ja) 立体視画像のブラー強化
EP2323416A2 (en) Stereoscopic editing for video production, post-production and display adaptation
JP5303692B1 (ja) 立体画像処理装置及び立体画像処理方法
US20110228051A1 (en) Stereoscopic Viewing Comfort Through Gaze Estimation
JP2013172190A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2011087100A (ja) 擬似立体画像作成装置及び擬似立体画像表示システム
JP5820985B2 (ja) 立体画像処理装置および立体画像処理方法
TWI678098B (zh) 三維影像之視差的處理
Jung A modified model of the just noticeable depth difference and its application to depth sensation enhancement
JP5861114B2 (ja) 画像処理装置、及び画像処理方法
JP2013172214A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5488482B2 (ja) 奥行き推定データ生成装置、奥行き推定データ生成プログラム及び擬似立体画像表示装置
JP2014022867A (ja) 画像処理装置および方法、並びにプログラム
JP2014003486A (ja) 画像処理装置、画像撮像装置、画像表示装置、画像処理方法及びプログラム
KR101608804B1 (ko) 품질 향상을 위한 변이 지도의 경계 왜곡 보정 기반 가상시점 영상 생성 방법
JP2012084961A (ja) 奥行き信号生成装置、擬似立体画像信号生成装置、奥行き信号生成方法、擬似立体画像信号生成方法、奥行き信号生成プログラム、擬似立体画像信号生成プログラム
TW201033936A (en) Method of synthesizing stereoscopic video
Han et al. 3D perception enhancement using depth map based color processing
Xu Capturing and post-processing of stereoscopic 3D content for improved quality of experience
US20130076733A1 (en) Image processing apparatus, image processing method, and image processing program
TW201621372A (zh) 區塊式數位重對焦系統及其方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11855789

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012552540

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11855789

Country of ref document: EP

Kind code of ref document: A1