WO2013094635A1 - 画像処理装置、撮像装置および表示装置 - Google Patents

画像処理装置、撮像装置および表示装置 Download PDF

Info

Publication number
WO2013094635A1
WO2013094635A1 PCT/JP2012/082909 JP2012082909W WO2013094635A1 WO 2013094635 A1 WO2013094635 A1 WO 2013094635A1 JP 2012082909 W JP2012082909 W JP 2012082909W WO 2013094635 A1 WO2013094635 A1 WO 2013094635A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
depth information
intensity
depth
Prior art date
Application number
PCT/JP2012/082909
Other languages
English (en)
French (fr)
Inventor
徳井 圭
繁光 水嶋
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011277591A external-priority patent/JP5881005B2/ja
Priority claimed from JP2011282026A external-priority patent/JP2013132018A/ja
Priority claimed from JP2011281945A external-priority patent/JP5916199B2/ja
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US14/365,123 priority Critical patent/US9646383B2/en
Publication of WO2013094635A1 publication Critical patent/WO2013094635A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/86Camera processing pipelines; Components thereof for processing colour signals for controlling the colour saturation of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present invention relates to an image processing device, an imaging device, and a display device.
  • the present application includes Japanese Patent Application No. 2011-277591 filed in Japan on December 19, 2011, Japanese Patent Application No. 2011-281945 filed in Japan on December 22, 2011, and December 22, 2011. The priority is claimed on the basis of Japanese Patent Application No. 2011-282026 filed in Japan, and the contents thereof are incorporated herein.
  • the following contents are known as the first background art.
  • Various image processing techniques have been developed to enhance sharpness and sharpness when taking still images and moving images with a camera or displaying them on a monitor.
  • contour enhancement processing that increases sharpness and saturation enhancement processing that increases sharpness can be cited as conventional image processing.
  • the depth sense level can be freely adjusted by controlling the gain of depth sense correction based on the depth data and the depth level.
  • Depth data acquisition methods include an active method and a passive method.
  • TOF Time Of Flight
  • As a passive system there is a stereo camera that calculates parallax by matching stereo images.
  • Patent Document 1 discloses that an image processing apparatus can adjust the degree of depth by controlling the correction gain of the feeling of depth based on the depth data and the degree of depth.
  • Depth data acquisition methods include an active method and a passive method.
  • an active method for example, there is TOF (Time Of Flight) for calculating a distance to an object from infrared reflected light irradiated on the object.
  • TOF Time Of Flight
  • a passive method for example, there is a method of calculating parallax by matching a stereo image captured by a stereo camera.
  • Patent Document 1 there is a second problem that when depth data is acquired using an active method or a passive method, the accuracy and resolution of the depth in a distant view is degraded.
  • the accuracy and resolution depend on the irradiation intensity of infrared rays, so that the distance is all infinite in a distant view where infrared reflected light cannot be detected. That is, the depth resolution is lost in a distant view where infrared reflected light cannot be detected, and the depth cannot be represented accurately.
  • the conventional image processing apparatus cannot perform image processing according to the depth in such a distant view, and the user cannot feel the depth sufficiently.
  • FIG. 33 is a diagram showing the relationship between depth data and contour correction gain in Patent Document 1.
  • Japanese Patent Laid-Open No. 2004-228688 discloses a depth sensation correction for a change in depth data in an area where the depth data is smaller than the first depth value Z30 and an area where the depth data is larger than the second depth value Z31. It is disclosed that the gain of is constant.
  • the present invention has been made in view of the first problem, and an object thereof is to provide an image processing apparatus, an imaging apparatus, and a display apparatus that can generate an image with improved sense of depth even in a distant view. .
  • the present invention has been made in view of the second problem, and an object thereof is to provide an image processing apparatus, an imaging apparatus, and a display apparatus that allow a user to feel a sense of depth. .
  • the present invention has been made in view of the third problem, and an object of the present invention is to provide an image processing apparatus, an imaging apparatus, and a display apparatus that can generate an image that allows the user to feel the depth. It is to provide.
  • a first aspect of the present invention includes an image processing intensity determination unit that determines the intensity of image processing, and an image processing unit that performs image processing on image information according to the intensity determined by the image processing intensity determination unit And the image processing intensity determination unit is configured to perform processing on the target pixel based on a depth value indicating a depth corresponding to the target pixel included in the image information and a vertical position of the target pixel in the image information.
  • An image processing apparatus that determines the intensity of image processing.
  • the image processing intensity determination unit determines the intensity based on the vertical position when the value of the depth value corresponding to the pixel of interest is saturated. May be.
  • the image processing intensity determination unit further includes a vanishing point calculation unit that calculates a position of the vanishing point from the image information.
  • the image processing intensity in the target pixel may be determined based on the distance from the vanishing point position calculated by the calculation unit.
  • the image processing intensity determination unit further includes a depth information analysis unit that extracts information related to the frequency distribution of the depth information based on the depth information corresponding to the image information.
  • the image processing intensity at each pixel of the image information may be determined based on the information extracted by the depth information analysis unit and the depth information.
  • an imaging unit that captures an image of a subject and generates an image
  • an image processing intensity determination unit that determines the intensity of image processing, and the intensity determined by the image processing intensity determination unit
  • An image processing unit that performs image processing on the image information generated by the imaging unit, and the image processing intensity determination unit includes a depth value indicating a depth corresponding to a target pixel included in the image information;
  • An image pickup apparatus that determines an intensity of image processing for the target pixel based on a vertical position of the target pixel in the image information.
  • a third aspect of the present invention is an image processing intensity determination unit that determines the intensity of image processing, and an image processing unit that performs image processing on image information according to the intensity determined by the image processing intensity determination unit And an image display unit that displays an image subjected to image processing by the image processing unit, wherein the image processing intensity determination unit includes a depth value indicating a depth corresponding to a target pixel included in the image information, and The display device is characterized in that the intensity of image processing for the target pixel is determined based on a vertical position of the target pixel in the image information.
  • an image with improved sense of depth can be generated even in a distant view, and the first problem can be solved.
  • the user can feel a sense of depth, and the second problem can be solved.
  • an image that allows the user to feel the depth can be generated, and the third problem can be solved.
  • FIG. 1 is a schematic block diagram illustrating a configuration of an image processing apparatus 1100 according to a first embodiment of the present invention. It is a graph which shows the example of a relationship between the depth value in the same embodiment, and intensity parameter alpha1. It is a graph which shows the example of a relationship between the pixel position in the same embodiment, and intensity parameter (beta) 1. It is a figure which shows the example of the image information input in the same embodiment. It is a figure which shows the example of the depth information input in the same embodiment. It is a schematic block diagram which shows the structure of the image imaging device 1300 in the 2nd Embodiment of this invention. It is a figure which shows the relationship between the distance Z and parallax Di in the embodiment.
  • FIG. 14 is a flowchart illustrating an example of processing of an image processing apparatus according to a fourth embodiment. It is a schematic block diagram of the imaging device in 5th Embodiment. It is the figure which showed the relationship between the distance Z and the parallax d. It is a schematic block diagram of the display apparatus in 6th Embodiment. It is a schematic block diagram of the image processing apparatus in 7th Embodiment. It is a schematic block diagram of the depth information analysis part in 7th Embodiment. It is the figure which showed an example of the frequency distribution of depth information. It is a figure which shows an example of the relationship between image processing strength D3 and depth information D3.
  • FIG. 14 is a flowchart illustrating an example of processing of an image processing apparatus according to a seventh embodiment. It is a figure which shows an example of the setting of the image processing intensity with respect to depth information in the case of performing image processing intensity with respect to the subject located behind the main subject. It is a figure which shows an example of the setting of the image processing intensity with respect to depth information in the case of performing image processing intensity with respect to the subject located behind the main subject.
  • FIG. 1 is a schematic block diagram showing a configuration of an image processing apparatus 1100 according to the first embodiment of the present invention.
  • the image processing apparatus 1100 receives image information G1i as an input image and depth information D1 corresponding to the image information G1i.
  • the image processing apparatus 1100 performs image processing on the image information G1i based on the depth information D1, and outputs the processing result as output image information G1o.
  • the image information G1i may be data or a signal representing a moving image such as a video signal, or may be data or a signal representing a still image such as a JPEG (Joint Picture Experts Group) file.
  • JPEG Joint Picture Experts Group
  • the depth information D1 corresponding to the image information G1i is information representing the depth value of each pixel in the image information G1i.
  • the pixel depth value is a value representing the distance from the viewpoint of the subject represented by the pixel.
  • the pixel depth value is a value representing the distance from the camera (viewpoint) to the subject represented by the pixel.
  • the depth information D1 in the present embodiment has one depth value for each pixel constituting the image information G1i, that is, the resolution is the same between them.
  • the resolution of the image information G1i and the resolution of the depth information D1 do not have to be the same, and it is sufficient that the depth value of each pixel of the image information G1i is obtained by interpolation processing or the like. As will be described later, in the present embodiment, the depth value increases as the distance increases.
  • the image processing apparatus 1100 includes an image processing intensity determination unit 1101 and an image processing unit 1102. Based on the depth value indicating the depth corresponding to the pixel of interest included in the image information G1i and the vertical position of the pixel of interest in the image information G1i, the image processing intensity determination unit 1101 determines the image processing intensity ( The image processing intensity S1) is determined. The image processing intensity determination unit 1101 transmits the determined image processing intensity S1 to the image processing unit 1102. The image processing unit 1102 performs image processing for improving the sense of depth on the image information G1i input to the image processing apparatus 1100 according to the image processing intensity S1 determined by the image processing intensity determination unit 1101, and the result of the image processing Is output as output image information G1o.
  • the image processing intensity determination unit 1101 determines the image processing intensity ( The image processing intensity S1) is determined.
  • the image processing intensity determination unit 1101 transmits the determined image processing intensity S1 to the image processing unit 1102.
  • the image processing unit 1102 performs image processing for improving the sense of depth on the image information
  • the image processing intensity determination unit 1101 sets each pixel included in the image information G1i as a pixel of interest, and determines the image processing intensity S1 for each pixel according to the characteristics illustrated in FIGS.
  • the depth information in the present embodiment, when the depth value increases, the distance to the subject in the image information increases. That is, when the depth value is 8 bits, the gradation value 0 is the subject in the foreground and the gradation value 255 is the subject in the far distance.
  • FIG. 2 is a graph showing an example of the relationship between the depth value and the intensity parameter ⁇ 1.
  • the intensity parameter ⁇ 1 when the depth value is the minimum value (gradation value 0), the intensity parameter ⁇ 1 is the minimum value ⁇ 11, and when the depth value is the maximum value (gradation value 255), the intensity parameter ⁇ 1 is The maximum value is ⁇ 12.
  • the intensity parameter ⁇ 1 has a characteristic of increasing as the depth value increases (as the distance from the viewpoint increases). Considering the continuity of the subject, the relationship between the depth value and the intensity parameter ⁇ 1 is preferably a monotonically increasing relationship. The specific relationship between the intensity parameter ⁇ 1 and the image processing intensity S1 will be described later. As the intensity parameter ⁇ 1 increases, the image processing intensity S1 becomes a value indicating a stronger image processing intensity.
  • the intensity parameter ⁇ 1 when the depth value is 255, the intensity parameter ⁇ 1 is maximized, and when the depth value is 0, the intensity parameter ⁇ 1 is minimized.
  • the image information G1i may be set as appropriate. For example, when the range of depth values included in the depth information for one input image is 20 to 100, the intensity parameter ⁇ 1 is minimized when the depth value is 20, and the value of the depth information is 100. Is set so that the intensity parameter ⁇ 1 is maximized. This is preferable because a value suitable for the image information G1i can be assigned as the image processing intensity S1.
  • the maximum value and the minimum value are detected within a predetermined number of frames in the past without detecting the maximum value and the minimum value of the depth value for each frame. It may be.
  • FIG. 3 is a graph showing an example of the relationship between the pixel position and the intensity parameter ⁇ 1.
  • the vertical position in the image information G1i (hereinafter referred to as the vertical position), that is, the number of pixels from the upper end of the image information G1i is used as the pixel position. That is, FIG. 3 shows that the image processing intensity changes depending on the vertical position of the pixel in the image information.
  • the intensity parameter ⁇ 1 is smaller as the number of pixels from the upper end is larger. Therefore, the lower the vertical position is in the image information G1i, the smaller the image processing intensity is. In other words, the higher the vertical position is in the upper part of the image information G1i, the stronger the image processing intensity.
  • a monotonous decrease relationship is preferable.
  • the vertical position indicates the position in the image represented by the image information G1i of the target pixel for image processing. For example, when the resolution of the image is horizontal 1920 and vertical 1080, the vertical position is at the 0th line at the top and the 1079th line is at the bottom.
  • the direction in which the vertical direction of the image is may be a predetermined direction in the case of a video signal or the like, and is specified in the file in the case of a JPEG file or the like. It is good also as a direction according to the length and width direction.
  • the image processing intensity determination unit 1101 sets the image processing intensity S1 calculated by the above-described method, and when the depth value is the maximum value, FIG.
  • the intensity parameter ⁇ 1 is set as the image processing intensity S1 using the characteristics. For example, when a region where the depth value is the maximum value, that is, a region where the depth value is saturated is present in the depth information D1, the positional relationship in the depth direction of a plurality of distant subjects in the region is determined. Can not do it. Therefore, when the depth value is the maximum value, the image processing intensity S1 can be determined according to the vertical position using the characteristics shown in FIG.
  • the corresponding area of the image information G1i is a distant view when there is a distance to the subject to the extent that the depth value is saturated at the maximum value. This is because the upper part of image information in a distant view is often empty, and another subject is often present in the lower part of image information.
  • the image area 1073 that is the subject A1 (sky) and the image area 1071 that is the subject B1 (mountain) have the same depth value, but the actual position in the depth direction is In contrast, the subject A1 (sky) is farther away. That is, the upper part of the image information (subject A1 (sky)) is farther than the lower part of the image information (subject B1 (mountain)).
  • the depth value when the depth value is equal to or greater than the threshold value, it is possible to improve the feeling of depth by determining the image processing intensity using the characteristics shown in FIG. That is, by setting the image processing intensity according to not only the depth information but also the vertical position, it is possible to perform image processing that gives a sense of depth to a subject whose depth information is saturated.
  • the intensity parameter ⁇ 1 may be set to the image processing intensity S by applying the characteristics of FIG. 11 to a depth value that can be determined as a distant view, that is, a pixel whose depth value is larger than a predetermined threshold.
  • an image with improved depth feeling can be generated even in a distant view by considering the position of the vanishing point calculated from the image information.
  • the image processing intensity determination unit 1101 stores in advance an LUT (Look Up Table) from which an image processing intensity S1 can be obtained for a combination of a depth value and a vertical position, and the image processing intensity is referred to the LUT. S1 may be determined. In addition, an LUT that obtains an intensity parameter ⁇ 1 with respect to a depth value and an LUT that obtains an intensity parameter ⁇ 1 with respect to a vertical position are stored, and the image processing intensity is switched by switching the LUT to be referred to according to the depth value. S1 may be determined.
  • LUT Look Up Table
  • the image processing intensity determination unit 1101 may adaptively determine the relationship between the depth value and the intensity parameter ⁇ 1 in accordance with the range of depth values included in the depth information D1 as follows. First, the intensity parameter ⁇ 1 corresponding to the maximum value in the depth information D1 is set to a predetermined value ⁇ 12. Next, the intensity parameter ⁇ 1 corresponding to the minimum value in the depth information D1 is set to a predetermined value ⁇ 11 ( ⁇ 11 ⁇ 12). And the depth value between them is calculated by linearly interpolating ⁇ 11 and ⁇ 12.
  • the image processing intensity determination unit 1101 adaptively determines the relationship between the vertical position and the intensity parameter ⁇ 1 according to the range of the vertical position of the region where the depth value is the maximum value as follows. It may be. First, the intensity parameter ⁇ 1 corresponding to the maximum value of the vertical position in the region where the depth value is the maximum value is set to a predetermined value ⁇ 12. Next, the intensity parameter ⁇ 1 corresponding to the minimum value of the vertical position in the region where the depth value is the maximum value is set to ⁇ 11 ( ⁇ 11 ⁇ 12) determined in advance. When the vertical position is between them, ⁇ 11 and ⁇ 12 are calculated by linear interpolation. It is desirable that ⁇ 11 is equal to or larger than ⁇ 12. Thereby, it is possible to prevent the image processing intensity in the area where the depth value is the maximum value from becoming smaller than the image processing intensity in the area where the depth value is not the maximum value.
  • the image processing intensity determination unit 1101 may calculate the image processing intensity S1 by ⁇ 12 ⁇ ⁇ 1 or ⁇ 12 + ⁇ 1 when the depth value is the maximum value. At this time, when the image processing intensity S1 is maximized, ⁇ 12 ⁇ ⁇ 12 or ⁇ 12 + ⁇ 12. Thereby, even when the depth information is a large value that is saturated, the pixel processing intensity can be easily calculated in consideration of the vertical position, which is preferable.
  • ⁇ 12 ⁇ ⁇ 1 it is desirable that ⁇ 1 is always 1 or more in FIG.
  • ⁇ 12 + ⁇ 1 it is desirable that ⁇ 1 is always 0 or more in FIG.
  • the image processing unit 1102 performs image processing for improving the feeling of depth on the image information G1i in accordance with the image processing intensity S1 determined by the image processing intensity determining unit 1101.
  • contour enhancement For example, if the image processing is contour emphasis, the contour emphasis processing is performed so as to emphasize the contour more strongly as the value of the image processing strength S1 is larger.
  • the contour enhancement process is a process of converting the brightness value so that, for example, the difference in brightness value (brightness, brightness, etc.) between adjacent pixels becomes larger. At this time, as the difference in brightness value is larger, the contour is more strongly emphasized. These can be realized by a spatial filter in consideration of neighboring pixels in the vicinity of 4 or 8 neighborhoods.
  • the contrast correction processing is performed so that the greater the value of the image processing strength S1, the stronger the contrast.
  • the contrast correction processing is, for example, correction so that the brightness value becomes larger if the brightness value (luminance, brightness, R (red) value, G (green) value, B (blue) value, etc.) is large. If the brightness value is small, the brightness value is corrected to be smaller. At this time, the larger the correction amount, the stronger the contrast correction process.
  • the saturation correction process is performed such that the greater the value of the image processing strength S1, the stronger the saturation.
  • the saturation correction process is a process of changing the saturation value to be larger. At this time, the greater the amount to be changed, the stronger the saturation correction process.
  • the image G11 in FIG. 4 is an image example when a subject C1, which is a person in front, is photographed with a subject B1 being a mountain and a subject A1 being a sky in the background.
  • a subject C1 which is a person in front
  • a subject B1 being a mountain
  • a subject A1 being a sky in the background.
  • the contour of a distant subject becomes unclear due to light scattering or the like
  • the subject C1 which is a close-up view, has been clearly photographed, increasing the contour emphasis strength makes the noise noticeable and the image quality deteriorates. Therefore, by performing the contour enhancement processing as in the present embodiment, it is possible to generate an image with a clear contour while suppressing deterioration in image quality.
  • the generated image has a clear sense of distance, and the sense of depth is improved by making it easy to sense a sense of distance from the near view.
  • the contrast decreases due to light scattering. Therefore, it is preferable to perform contrast correction that enhances the contrast with a tone curve that enhances the contrast as the distance to the subject increases.
  • the subject C1 in the foreground is photographed with sufficient contrast and sufficient gradation, and the transient contrast correction causes a decrease in the number of gradations, resulting in deterioration of image quality. Therefore, by performing the contrast correction processing as in the present embodiment, it is possible to generate an image with improved contrast while suppressing deterioration in image quality.
  • the generated image has a clear sense of distance, and the sense of depth is improved by making it easy to sense a sense of distance from the near view.
  • the higher saturation of the image is preferred due to the memory color and vividness, and it feels like the real thing.
  • the skin of a person needs to be a skin color, and transient saturation enhancement causes a sense of discomfort, resulting in image quality degradation. Therefore, by performing the saturation correction processing as in the present embodiment, it is possible to generate an image in which the saturation is increased without causing a sense of incongruity while suppressing deterioration in image quality.
  • the generated image becomes a vivid image with high saturation, and since the distant view becomes clear, it is easy to feel a sense of distance from the near view, thereby improving the sense of depth.
  • the depth feeling is improved even in a distant view by changing the image processing intensity according to the depth information and the vertical position of the target pixel of the image processing.
  • a high-quality image can be generated.
  • FIG. 6 is a schematic block diagram illustrating a configuration of an image capturing device 1300 according to the second embodiment of the present invention.
  • the image capturing device 1300 includes an image sensor 1200, an image sensor 1201, an image processing device 1100a, an image display unit 1203, and an image storage unit 1204.
  • the image processing apparatus 1100a includes a parallax calculation unit 1202, an image processing intensity determination unit 1101, and an image processing unit 1102.
  • the same reference numerals (1101, 1102) are assigned to portions corresponding to the respective portions in FIG. 1, and description thereof is omitted.
  • the image sensors 1200 and 1201 are configured by a lens module, a CCD, a CMOS imager, and the like, and are arranged in parallel to each other. That is, an image that is captured and generated by the image sensor 1201 is an image that has a different viewpoint from an image that is captured by the image sensor 1200 and that is a still picture. Images generated by the image pickup devices 1200 and 1201 are transmitted to the parallax calculation unit 1202. Of these images, an image generated by the image sensor 1200 is transmitted to the image processing unit 1102.
  • the parallax calculation unit 1202 calculates the parallax corresponding to the image generated by the imaging element 1200 based on the image generated by the imaging element 1200 and the image generated by the imaging element 1201, and sets the value based on the parallax as the depth value. To do. Note that the parallax calculation unit 1202 is a deviation amount of the subject between two images, and can be calculated by block matching or the like.
  • f a focal length of the image sensors 1200 and 1201
  • B is a baseline length which is a distance between the two image sensors 1200 and 1201.
  • the parallax calculation unit 1202 since there is a correlation between the distance Z and the parallax Di, the parallax calculation unit 1202 generates depth information using a value obtained by converting the parallax Di in each pixel as a depth value, and determines the image processing intensity. To the unit 1101.
  • the parallax calculation unit 1202 converts the parallax so that the relationship with the distance is linear.
  • the parallax calculation unit 1202 may convert the parallax Di into the distance Z using the above-described relational expression between the distance Z and the parallax Di, and may use this as the depth value, or the reciprocal of the parallax Di may be converted into the depth It may be a value. This is preferable because the image processing intensity corresponding to the distance can be applied even if the focal length and the base line length are unknown or indefinite.
  • the parallax conversion need not have a completely linear relationship with the distance, and the effect can be obtained if the conversion is close to that.
  • the image display unit 1203 displays an image obtained as a result of processing by the image processing unit 1102.
  • the image storage unit 1204 stores an image obtained as a result of processing by the image processing unit 1102.
  • the depth feeling is improved even in a distant view by changing the image processing intensity according to the depth information and the vertical position of the target pixel of the image processing.
  • High-quality images can be taken.
  • the image imaging apparatus 1300 including two imaging elements has been described.
  • the same effect can be obtained by a method of calculating parallax from a plurality of images with different viewpoints even without two imaging elements. Is obtained. For example, a plurality of images may be generated and their parallaxes may be calculated by moving from the first shooting point in the left-right direction and performing the second shooting. Further, a depth information calculation unit 1205 described later may be provided instead of the parallax calculation unit 1202.
  • the parallax calculation unit 1202 in this embodiment calculates a value indicating the distance by converting the parallax, and transmits this to the image processing intensity determination unit 1101 as depth information, but transmits the parallax as depth information. You may do it.
  • the image processing intensity determination unit 1101 determines the image processing intensity according to the parallax and the vertical position, but determines the image processing intensity so that the image processing intensity decreases as the parallax decreases. For example, if the parallax is 0, the image processing intensity according to the vertical position is set according to the characteristics of FIG.
  • FIG. 8 is a schematic block diagram showing the configuration of the image display device 1301 according to the third embodiment of the present invention.
  • the image display device 1301 includes an image processing device 1100b and an image display unit 1203.
  • the image processing apparatus 1100b includes a depth information calculation unit 1205, an image processing intensity determination unit 1101, and an image processing unit 1102.
  • the same reference numerals (1101, 1102, 1203) are assigned to portions corresponding to the respective portions in FIG.
  • the depth information calculation unit 1205 estimates the depth value corresponding to each pixel of the input image information G1i based on the image information G1i, and transmits the depth information formed from the estimation result to the image processing intensity determination unit 1101.
  • Various conventional estimation methods can be used for estimating the depth value. For example, there is a method of generating a three-dimensional image from a two-dimensional image by color information, vanishing point analysis, object extraction, or the like.
  • the image processing intensity determination unit 1101 determines the image processing intensity S1 using the transmitted depth information.
  • the depth feeling is improved even in a distant view by changing the image processing intensity according to the depth information and the vertical position of the target pixel of the image processing.
  • a high-quality image can be displayed.
  • the image display apparatus 1301 including the depth information calculation unit 1205 has been described.
  • the parallax is calculated from the stereoscopic video and the depth information is calculated. You may make it utilize as. That is, the parallax calculation unit 1202 of the second embodiment may be provided.
  • depth information is input together with image information, it may be directly input to the image processing intensity determination unit 1101.
  • FIG. 9 is a schematic block diagram of an image processing apparatus 2100 according to the fourth embodiment.
  • the image processing apparatus 2100 includes an image processing intensity determination unit 2101, an image processing unit 2102, and a vanishing point calculation unit 2103.
  • the image processing device 2100 receives image information G2i that is an input image and depth information D2 corresponding to the image information G2i.
  • the image processing apparatus 2100 performs image processing on the image information G2i based on the depth information D2, and outputs the processing result as output image information G2o.
  • the image information G2i may be data or a signal representing a moving image such as a video signal, or may be data or a signal representing a still image such as a JPEG (JointoPicture Experts Group) file.
  • the image processing apparatus 2100 includes a vanishing point calculation unit 2103, and the vanishing point calculation unit 2103 calculates a vanishing point from the image information G2i.
  • the vanishing point is a point where lines intersect when drawing what is actually a parallel line in perspective, but not parallel.
  • the vanishing point calculation unit 2103 outputs the calculated vanishing point coordinates (hereinafter referred to as vanishing point coordinates) to the image processing intensity determination unit 2101.
  • the image processing intensity determination unit 2101 determines the image processing intensity S2 for the target pixel in consideration of the distance between the target pixel to be image processed and the vanishing point position calculated by the vanishing point calculation unit 2103.
  • the image processing unit 2102 performs image processing on the image information in accordance with the image processing intensity S2 determined by the image processing intensity determining unit 2101. Specifically, the image processing unit 2102 performs image processing for improving the sense of depth by the image processing intensity S2 determined by the image processing intensity determining unit 2101.
  • the image processing is preferably, for example, contour enhancement, contrast correction, or saturation correction. Then, the image processing unit 2102 outputs the image-processed image as output image information G2o to the outside of the own apparatus.
  • each block of the image processing intensity determination unit 2101, the image processing unit 2102, and the vanishing point calculation unit 2103 is hardware such as an FPGA (Field-Programmable Gate Array) or a microcomputer (not shown) included in the image processing apparatus 2100. You may comprise by the software processed by.
  • FPGA Field-Programmable Gate Array
  • microcomputer not shown
  • FIG. 10 is a schematic diagram of a captured image showing an example of vanishing point calculation.
  • the captured image is an example of an image indicated by the image information G2i.
  • the vanishing point V is a point where a straight line extending the lower contour of the subject A2 and a straight line extending the upper contour of the subject A2 intersect.
  • the vanishing point calculation unit 2103 calculates the vanishing point of the image information G2i from the image information G2i. For example, as shown in FIG. 10, the vanishing point calculation unit 2103 detects a straight line from the input image information G2i using a known Hough transform. In the example of FIG. 10, the vanishing point calculation unit 2103 calculates a straight line from the lower and upper contours of the subject A2. Then, the vanishing point calculation unit 2103 calculates a point where the two detected straight lines intersect as a vanishing point.
  • the vanishing point calculation unit 2103 may use the depth information D2 for calculating the vanishing point. For example, when the vanishing point is calculated from a straight line detected by the Hough transform, when the vanishing point is calculated, if a plurality of vanishing points are calculated, the vanishing point calculating unit 2103 has depth information indicating that it is farthest using the depth information D2. The point that has been turned into a vanishing point. Thereby, the vanishing point calculation unit 2103 can calculate the vanishing point that is the most distant view.
  • the depth information D2 in the present embodiment increases the distance to the subject in the image information G2i as the value of the depth information D2 increases. That is, when the 8-bit depth information D2 is input, the gradation value 0 is the most distant subject and the gradation value 255 is the most distant subject.
  • FIG. 11 is a diagram showing an example of the relationship between the image processing intensity S2 and the value of the depth information D2.
  • the vertical axis represents the image processing intensity S2
  • the horizontal axis represents the depth information D2.
  • the image processing intensity S2 when the value of the depth information D2 is 0, the image processing intensity S2 is ⁇ 21, and when the value of the depth information D2 is D21, the image processing intensity S2 is ⁇ 22.
  • the value of the depth information D2 and the image processing intensity S2 are in a linear relationship, and the image processing intensity S2 increases as the value of the depth information D2 increases.
  • the image processing intensity S2 preferably has a monotonically increasing relationship with the value of the depth information D2.
  • the image processing intensity S2 is maximized when the depth information D2 is the maximum value, and the image processing intensity S2 is minimized when the depth information D2 is the minimum value.
  • the present invention is not limited to this, and may be set as appropriate according to input information. For example, if the depth information D2 value range for one input image is 20 to 100, the image processing strength determination unit 2101 sets the image processing strength S2 when the depth information D2 value is 20. It may be set so that the image processing intensity S2 is minimized when the depth information D2 value is 100. Thereby, the image processing intensity determination unit 2101 can assign a value suitable for the image information G2i to the image processing intensity S2.
  • the present invention is not limited to this, and the value may not be linear, and the value of the depth information D2 increases. It is only necessary that the image processing intensity S2 has a tendency to increase along with.
  • FIG. 12 is a diagram showing an example of the relationship between the intensity parameter ⁇ and the distance between the vanishing point and the target pixel on which image processing is performed.
  • the vertical axis is the intensity parameter ⁇
  • the horizontal axis is the distance between the vanishing point and the target pixel for image processing (distance from the vanishing point).
  • the intensity parameter ⁇ is ⁇ 2
  • the intensity parameter ⁇ is ⁇ 1
  • the intensity parameter ⁇ and the distance from the vanishing point have a linear relationship
  • the intensity parameter ⁇ has a characteristic that becomes larger as the distance from the vanishing point is smaller.
  • the distance from the vanishing point is the smallest when the target pixel is the vanishing point.
  • the intensity parameter ⁇ preferably has a monotonically decreasing relationship with the distance from the vanishing point.
  • the distance between the vanishing point and the target pixel may be an inter-pixel distance or a city distance.
  • the vanishing point coordinates are (100, 100)
  • the coordinates of the target pixel are (200, 200)
  • the distance from the vanishing point is calculated as the city distance
  • the distance from the vanishing point is 200.
  • the inter-pixel distance is ⁇ 2 ⁇ 100.
  • FIG. 12 shows an example in which the intensity parameter ⁇ decreases linearly and monotonously according to the distance from the vanishing point.
  • the present invention is not limited to this, and a non-linear relationship may be used. That is, the image processing intensity S2 only needs to tend to decrease as the distance from the vanishing point increases.
  • the image processing intensity determination unit 2101 sets the image processing intensity S2 calculated by the above-described method, and when the depth value is the maximum value, FIG.
  • the intensity parameter ⁇ is set as the image processing intensity S2 using the characteristics. For example, when a region where the depth value is the maximum value, that is, a region where the depth value is saturated is present in the depth information D2, the positional relationship in the depth direction of a plurality of distant subjects in the region is determined. Can not do it. Therefore, when the depth value is the maximum value, the image processing intensity S can be determined according to the distance from the vanishing point using the characteristics shown in FIG. This is because the vanishing point is estimated to be the farthest in a distant view.
  • FIG. 14 shows the depth information D2 corresponding to FIG. 10 as a diagram.
  • the depth information value is the same value in the distant view, but the actual distance to the subject is different. That is, the pixel near the vanishing point is a distant view.
  • the sense of depth can be improved by determining the image processing intensity using the characteristics shown in FIG.
  • the image processing intensity according to the distance to the vanishing point as well as the depth information, it is possible to perform image processing that gives a sense of depth even to a subject whose depth information has been saturated. become.
  • the image processing intensity determination unit 2101 determines the image processing intensity S2 based on the characteristics shown in FIGS.
  • FIG. 13 is a schematic block diagram illustrating the configuration of the image processing intensity determination unit 2101.
  • the image processing intensity determination unit 2101 includes a determination unit 2111, a distance calculation unit 2112, and an intensity calculation unit 2113.
  • the determination unit 2111 receives depth information D2 input from the outside.
  • the determination unit 2111 determines whether the value of the depth information D2 in the target pixel exceeds a predetermined threshold value.
  • a predetermined threshold value it means that the value of the depth information D2 is saturated.
  • the determination unit 2111 outputs the determination result to the distance calculation unit 2112.
  • the determination unit 2111 When the value of the depth information D2 in the target pixel is equal to or less than a predetermined threshold, the determination unit 2111 outputs the determination result together with the depth information D2 to the intensity calculation unit 2113. For example, when the input depth information D2 is 8 bits, when the threshold is 254, it is determined that the depth information D2 is saturated when the threshold is 255, and when the threshold is 253, the depth information D2 is 255 and 254. It is determined that it is saturated.
  • the distance calculation unit 2112 calculates the distance between the target pixel on which image processing is performed and the vanishing point. calculate.
  • the distance calculation unit 2112 outputs the calculated distance to the intensity calculation unit 2113.
  • the intensity calculation unit 2113 determines the image processing intensity S2 based on the distance input from the distance calculation unit 2112. Specifically, when the value of the depth information D2 in the target pixel is saturated, the intensity calculation unit 2113 decreases the image processing intensity as the distance between the target pixel and the vanishing point increases. The intensity calculation unit 2113 calculates the image processing intensity S2 by applying the distance input from the distance calculation unit 2112 to the characteristics shown in FIG. 12, for example. In other words, when the value of the depth information D2 is greater than a predetermined threshold, the image processing intensity determination unit 2101 increases the image processing intensity S2 as the distance between the target pixel and the vanishing point decreases.
  • the image processing intensity determination unit 2101 determines the image processing intensity S2 according to the distance from the vanishing point, for example, when the value of the depth information D2 is the maximum value, using the characteristics of FIG. This is because the vanishing point is estimated to be the most distant view, and the closer to the vanishing point, the more distant view is estimated.
  • the intensity calculation unit 2113 performs image processing based on the value of the depth information D2.
  • the processing intensity S2 is determined. Specifically, the intensity calculation unit 2113 calculates the image processing intensity S2 by applying the depth information D2 input from the determination unit 2111 to the characteristics of FIG. That is, when the value of the depth information D2 is equal to or less than a predetermined threshold, the image processing intensity determination unit 2101 increases the image processing intensity S2 as the value of the depth information D2 increases.
  • the intensity calculation unit 2113 determines whether or not the image processing intensity S2 has been calculated for all the pixels in the frame.
  • the intensity calculating unit 2113 When the image processing intensity S2 is not calculated for all the pixels in the frame, the intensity calculating unit 2113 generates a request signal for requesting that the next pixel of the target pixel (for example, the adjacent pixel) be a new target pixel.
  • the data is output to the determination unit 2111. Thereby, the determination part 2111 will determine whether the depth information D2 corresponding to a new object pixel exceeds the predetermined threshold, if this request signal is received.
  • the intensity calculating unit 2113 outputs the image processing intensity S ⁇ b> 2 at each pixel to the image processing unit 2102.
  • the image processing intensity determination unit 2101 holds in advance the constant ⁇ 21 and constant ⁇ 22 in FIG. 11 and the constant ⁇ 21 and constant ⁇ 22 in FIG. Then, the image processing intensity determination unit 2101 performs the following processing when the value of the depth information D2 is equal to or less than a predetermined threshold.
  • the image processing intensity determination unit 2101 sets the image processing intensity S2 to be a constant ⁇ 22 at the maximum value of the depth information D2, and sets the image processing intensity S2 to be a constant ⁇ 21 at the minimum value of the depth information D2.
  • the image processing intensity determination unit 2101 can maximize the image processing intensity S2 at the maximum value of the depth information D2, and minimize the image processing intensity S2 at the minimum value of the depth information D2.
  • the image processing intensity determination unit 2101 calculates the image processing intensity S2 by linearly interpolating the constant ⁇ 21 and the constant ⁇ 22.
  • the image processing intensity determination unit 2101 performs the following processing.
  • the image processing intensity determination unit 2101 sets the image processing intensity S2 to a constant ⁇ 22 at the minimum value of the distance from the vanishing point at which the image processing intensity S2 is maximum, and the distance from the vanishing point at which the image processing intensity S2 is minimum. Is set so that the image processing intensity S2 becomes a constant ⁇ 21.
  • the image processing intensity determination unit 2101 calculates the image processing intensity S2 by linearly interpolating the constant ⁇ 21 and the constant ⁇ 22.
  • the image processing intensity determination unit 2101 may calculate the image processing intensity S2 as ⁇ 22 ⁇ ⁇ 2 or ⁇ 22 + ⁇ 2 when ⁇ 2 is a variable determined according to the distance from the vanishing point. At this time, when the image processing intensity S2 is the largest, ⁇ 22 ⁇ ⁇ 22 or ⁇ 22 + ⁇ 22.
  • the image processing intensity determination unit 2101 easily calculates the pixel processing intensity in consideration of the distance from the vanishing point. be able to. That is, the image processing intensity determination unit 2101 may increase the image processing intensity S2 as the depth information D2 indicates the depth, and increase the image processing intensity S2 as the distance between the target pixel and the vanishing point decreases.
  • the image processing intensity determination unit 2101 may read the value of the depth information D2 and the image processing intensity S2 corresponding to the distance from the vanishing point with reference to the LUT.
  • FIG. 13 illustrates a method of calculating the distance from the vanishing point after performing the determination based on the threshold value. Since the distance is calculated only when it is determined that the pixel is saturated, the amount of processing can be reduced, and processing has been performed by software. In the case of processing by hardware, it can be realized by calculating the distance from the vanishing point for all the pixels and selecting by the depth information.
  • FIG. 14 is a diagram illustrating the value of the depth information D2 in each pixel of the image information in FIG.
  • the subject C2 and the subject D2 in the distant view in FIG. 10 have the same depth information D2 value even at different positions, as shown in FIG. For this reason, when the image processing intensity S2 is determined based only on the value of the depth information D2 even though the subject D2 close to the vanishing point is farther than the subject C2, the image processing for the subject C2 and the subject D2 is performed. Strength S2 will become the same.
  • the image processing intensity determination unit 2101 performs image processing in the order of the subjects D2, C2, and A2, for example. Reduce strength. Accordingly, the image processing intensity determination unit 2101 can make the image processing intensity S2 of the subject D2 larger than the image processing intensity S2 of the subject C2. That is, the image processing intensity determination unit 2101 changes the image processing intensity S2 based on the distance between the target pixel to be subjected to image processing and the vanishing point even in the region where the depth information D2 is saturated.
  • the image processing intensity S2 can be set according to the distance.
  • the image processing intensity determination unit 2101 uses not only the depth information D2 but also the image processing intensity S2 corresponding to the distance between the target pixel and the vanishing point, so that the depth information D2 is saturated.
  • image processing can be performed so as to produce a sense of depth, an image with an improved sense of depth can be generated.
  • the image processing intensity determination unit 2101 determines the image processing intensity S2 according to the distance between the target pixel and the vanishing point when the depth information D2 is saturated.
  • the image processing intensity S2 corresponding to the distance between the target pixel and the vanishing point may be determined. Thereby, the image processing intensity determination unit 2101 can obtain the same effect as the above-described effect.
  • the image processing intensity determination unit 2101 determines the image processing intensity S2 corresponding to the distance between the target pixel and the vanishing point for the pixels whose depth information D2 value is in a specific range. As a result, the image processing intensity determination unit 2101 can determine the image processing intensity S2 according to the distance between the target pixel and the vanishing point for the image area of the distant view, thereby improving the sense of depth of the distant view. An image can be generated.
  • the main subjects are the subject B2 arranged in the foreground, and the subjects C2 and D2 arranged in the background in the background. Since the contour of a distant subject becomes unclear due to light scattering or the like, it is preferable that the processing in the image processing unit 2102 increase the strength of contour enhancement as the distance to the subject increases. In addition, since the subject B2, which is a close-up view, is clearly captured, increasing the edge emphasis intensity causes noticeable noise and deteriorates the image quality.
  • the image processing unit 2102 emphasizes the contour of the image information G2i based on the image processing intensity S2 determined by the image processing intensity determining unit 2101. Specifically, the image processing unit 2102 performs the contour enhancement process so as to enhance the contour of the image information G2i as the image processing strength S2 is increased.
  • the outline emphasis process is a process of converting the brightness value so that, for example, the difference in brightness value between adjacent pixels becomes larger. At this time, as the difference in brightness value is larger, the contour is more strongly emphasized. These can be realized by a spatial filter in consideration of neighboring pixels in the vicinity of 4 or 8 neighborhoods.
  • ⁇ 2 and ⁇ 2 are parameters calculated from the depth information and the distance from the vanishing point.
  • the image processing unit 2102 can generate a clear image.
  • the image processing apparatus 2100 can improve the sense of depth of the image by clarifying the distant view of the image so that the user who viewed the image can easily feel the sense of distance from the near view. As a result, the image processing apparatus 2100 can make the user feel a sense of depth.
  • the processing in the image processing unit 2102 is preferably processing for performing contrast correction that enhances contrast using a tone curve or the like.
  • the subject C2 in the foreground is photographed with sufficient contrast and sufficient gradation, and the transient contrast correction causes a decrease in the number of gradations, resulting in deterioration of image quality. Therefore, the image processing unit 2102 may perform contrast correction processing so that the contrast of the image information G2i increases as the image processing strength S2 increases.
  • the contrast correction process is, for example, a process of correcting the brightness value to be larger if the brightness value is large, and correcting to decrease the brightness value if the brightness value is small. is there. At this time, the larger the correction amount, the stronger the contrast correction process.
  • the image processing unit 2102 can generate an image with improved contrast.
  • the image processing apparatus 2100 can improve the sense of depth of the image by clarifying the distant view of the image so that the user who viewed the image can easily feel the sense of distance from the near view. As a result, the image processing apparatus 2100 can make the user feel a sense of depth.
  • the image processing unit 2102 may perform saturation correction on the image information G2i based on the image processing intensity S2 determined by the image processing intensity determination unit 2101 for saturation correction. Specifically, the image processing unit 2102 may perform saturation correction processing so that the saturation is increased as the image processing strength S2 is increased.
  • the saturation correction processing can be realized by multiplying or adding the saturation in the HSV space, or linearly transforming the input pixel value by a matrix.
  • the image processing unit 2102 can change the saturation based on the depth information D2 and the distance from the vanishing point. As a result, the image processing unit 2102 can generate an image with enhanced saturation without a sense of incongruity by enhancing the saturation of the distant view of the image.
  • the image processing apparatus 2100 increases the saturation of the distant view of the image and makes the distant view clear, thereby making it easier for the user who viewed the image to feel a sense of distance from the close view. Can be improved. As a result, the image processing apparatus 2100 can make the user feel a sense of depth.
  • FIG. 15 is an example when the vanishing point is outside the image information G2i. In the figure, it is shown that the vanishing point is outside the captured image.
  • the image processing apparatus 2100 allows the vanishing point coordinates to be outside the image information G2i such as (2500, 500). By doing so, the image processing apparatus 2100 can apply the same processing even when the vanishing point is outside the image information G2i.
  • the image processing intensity determination unit 2101 may determine the image processing intensity S2 based on the vertical positional relationship between the target pixel and the vanishing point in the image information G2i. For example, the image processing intensity determination unit 2101 may increase the image processing intensity S2 as it is above the vanishing point, and decrease the image processing intensity S2 as it is below the vanishing point.
  • the image processing intensity determination unit 2101 determines the image processing intensity S2 based on the positional relationship between the target pixel, the target pixel, and the vanishing point in the vertical direction in addition to the distance between the target pixel and the vanishing point. For example, when the target pixel is above the vanishing point, the image processing intensity determination unit 2101 multiplies by ⁇ ( ⁇ > 1) as compared with the case where the distance from the vanishing point is the same and is below the vanishing point. . Also, ⁇ may be a function corresponding to the distance from the vanishing point.
  • the image processing apparatus 2100 can consider the positional relationship of the subject more, and therefore performs image processing with the image processing intensity S2 corresponding to the positional relationship of the subject, so that the distant view of the image can be made clear. And the depth of the image can be improved. As a result, the user can feel a sense of depth.
  • FIG. 16 is a flowchart illustrating an example of processing of the image processing apparatus 2100 according to the fourth embodiment.
  • the vanishing point calculation unit 2103 calculates vanishing point coordinates based on the image information G2i (step S2101).
  • the determination unit 2111 determines whether the depth information D2 corresponding to the target pixel exceeds a predetermined threshold (step S2102).
  • step S2102 When the depth information D2 corresponding to the target pixel exceeds a predetermined threshold (step S2102: YES), the distance calculation unit 2112 calculates the distance between the target pixel and the vanishing point (step S2103). Next, the intensity calculation unit 2113 calculates the image processing intensity S2 based on the distance between the target pixel and the vanishing point (step S2104).
  • step S2102 when the depth information D2 corresponding to the target pixel is equal to or smaller than a predetermined threshold in step S2102, the intensity calculation unit 2113 calculates the image processing intensity S2 based on the depth information D2 (step S2102). S2105), the process proceeds to step S2106.
  • step S2106 the intensity calculation unit 2113 determines whether the image processing intensity S2 has been calculated for all pixels in the frame (step S2106). When the image processing intensity S2 is not calculated for all the pixels in the frame (NO in step S2106), the intensity calculating unit 2113 requests the determining unit 2111 to determine the next pixel of the target pixel (step S2107). Then, the process proceeds to step S2102.
  • step S2106 when the image processing intensity S2 is calculated for all the pixels in the frame in step S2106 (YES in step S2106), the image processing unit 2102 applies the image information G2i for the pixel according to the image processing intensity S2 for each pixel. Then, image processing is performed (step S2108). Above, the process of this flowchart is complete
  • the image processing apparatus 2100 of the present embodiment determines the image processing intensity S2 based on the depth information D2 and the distance between the target pixel and the vanishing point. As a result, the image processing apparatus 2100 performs image processing on the image with the determined image processing intensity S2, so that the distant view of the image can be sharpened and the sense of depth of the image can be improved. As a result, the user can feel a sense of depth.
  • FIG. 17 is a schematic block diagram of an imaging apparatus 2301 according to the fifth embodiment.
  • the imaging device 2301 includes an imaging unit 2200, an imaging unit 2201, an image processing device 2100a, an image display unit 2203, and an image storage unit 2204.
  • the configuration of the image processing apparatus 2100a in FIG. 17 is obtained by adding a parallax calculation unit 2202 to the configuration of the image processing apparatus 2100 in the fourth embodiment in FIG.
  • the two imaging devices of the imaging unit 2200 and the imaging unit 2201 are arranged in parallel to each other.
  • the imaging units 2200 and 2201 include a lens module and an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the imaging unit 2200 images the subject and outputs first image information obtained by the imaging to the parallax calculation unit 2202.
  • the imaging unit 2201 images a subject and outputs second image information obtained by the imaging to the parallax calculation unit 2202.
  • the parallax calculation unit 2202 calculates parallax corresponding to each pixel of the input image based on the input image and an image having a different viewpoint from the input image, and determines the depth information D2 based on the calculated parallax.
  • the parallax is the amount of subject displacement between two images.
  • the parallax calculation unit 2202 uses the first image information input from the imaging unit 2200 and the second image information input from the imaging unit 2201 to perform block matching on the first image information. A parallax value corresponding to each pixel is calculated.
  • f is a focal length of the imaging unit
  • B is a baseline length which is a distance between the two imaging units.
  • the image processing device 2100a calculates depth information D2 based on the parallax d.
  • FIG. 18 is a diagram showing the relationship between the distance Z and the parallax d.
  • the distance Z and the parallax d are in an inversely proportional relationship and not a linear relationship. Therefore, the parallax calculation unit 2202 converts the parallax d so that the relationship with the distance is linear, and uses the converted value as the depth information D2. Specifically, for example, the parallax calculation unit 2202 calculates the reciprocal (1 / d) of the calculated parallax d, and sets the reciprocal of the calculated parallax d as the depth information D2. Then, the parallax calculation unit 2202 outputs the calculated depth information D2 to the image processing intensity determination unit 2101.
  • the image processing apparatus 2100a is suitable because the image processing intensity S2 corresponding to the distance can be applied.
  • the parallax conversion need not be in a completely linear relationship with the distance, but may be a conversion close to that.
  • the parallax calculation unit 2202 may use the calculated parallax d as it is as the depth information D2.
  • the depth information D2 is smaller as the distance to the subject is farther and larger as the distance is shorter.
  • the image processing intensity determination unit 2101 may increase the image processing intensity S2 as the value of the depth information D2 decreases. Accordingly, the image processing intensity determination unit 2101 can increase the image processing intensity S2 as the depth information D2 indicates the depth.
  • the image processing intensity determination unit 2101 determines the image processing intensity S2 based on the depth information D2 input from the parallax calculation unit 2202 and the vanishing point coordinates input from the vanishing point calculation unit 2103.
  • the image processing unit 2102 performs image processing with the image processing intensity S2 determined by the image processing intensity determining unit 2101.
  • the image processing unit 2102 displays output image information obtained by the image processing on the image display unit 2203 or stores it in the image storage unit 2204.
  • the imaging device 2301 of the present embodiment by determining the image processing intensity S2 at the target pixel based on the depth information D2 and the distance between the target pixel of the image processing and the vanishing point, It is possible to generate a high-quality image with improved depth.
  • the imaging apparatus 2301 having two imaging units has been described.
  • the same effect can be obtained by a method of calculating parallax information from a plurality of images. For example, the horizontal direction from the first shooting position can be obtained. This can be realized by moving to and performing the second shooting. Further, a depth information calculation unit to be described later may be provided instead of the parallax calculation unit 2202.
  • FIG. 19 is a schematic block diagram of a display device 2302 in the sixth embodiment.
  • the display device 2302 includes an image processing device 2100b and an image display unit 2203.
  • the configuration of the image processing apparatus 2100b in FIG. 19 is obtained by adding a depth information calculation unit 2205 to the configuration of the image processing apparatus 2100 in the fourth embodiment in FIG.
  • Depth information calculation unit 2205 estimates depth information D2 from image information G2i input from the outside of the display device.
  • various conventional estimation methods can be used for the estimation of the depth information D2.
  • the depth information calculation unit 2205 generates the depth information D2 by generating a 3D image from the 2D image by color information, vanishing point analysis, region division, object extraction, and the like.
  • the depth information calculation unit 2205 outputs the estimated depth information D2 to the image processing intensity determination unit 2101.
  • the image processing unit 2102 has the same function as the image processing unit 2102 of the fourth embodiment, but differs in the following points.
  • the image processing unit 2102 causes the image display unit 2203 to display the image after image processing.
  • the display device 2302 of this embodiment determines the image processing intensity S2 at the target pixel based on the depth information D2 and the distance between the target pixel and the vanishing point of the image processing. Accordingly, the display device 2302 can display a high-quality image with improved sense of depth.
  • the display device 2302 including the depth information calculation unit 2205 has been described.
  • image information having information such as a stereoscopic video is input, the parallax is calculated from the stereoscopic video and the parallax is calculated.
  • the depth information D2 may be calculated based on the image information, and the image processing intensity may be determined based on the calculated depth information D2. Even in that case, the display device 2302 can obtain the same effect as described above.
  • the display device 2302 may input the depth information D2 directly to the image processing intensity determination unit 2101.
  • the image processing apparatus (2100, 2100a, or 2100b) of each embodiment determined the image processing intensity S2 based on the distance between the target pixel and the vanishing point and the depth information D2, it is not limited to this. .
  • the image processing device (2100, 2100a, or 2100b) performs image processing intensity on the target pixel according to the distance between the target pixel and the vanishing point for the target pixel located above a predetermined position in the image. S2 may be determined.
  • the image processing apparatus (2100, 2100a, or 2100b) extracts a background image region as a background such as the sea, sky, or mountain by feature amount extraction, and the target pixel and vanishing point are extracted from the background image region.
  • the image processing intensity S2 may be determined according to the distance.
  • a system including a plurality of apparatuses may process each process of the image processing apparatus (2100, 2100a, or 2100b) of each embodiment in a distributed manner by the plurality of apparatuses. Further, a program for executing each process of the image processing apparatus (2100, 2100a, or 2100b) of the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system.
  • the above-described various processes related to the image processing apparatus (2100, 2100a, or 2100b) may be performed by executing them.
  • FIG. 20 is a schematic block diagram of an image processing device 3100 according to the seventh embodiment.
  • the image processing apparatus 3100 includes an image processing intensity determination unit 3101, an image processing unit 3102, and a depth information analysis unit 3103.
  • the image processing device 3100 receives image information G3i as an input image and depth information D3 corresponding to the image information G3i.
  • the image information is a value such as a gradation value of a pixel constituting the image.
  • the depth information is information indicating the depth corresponding to the image information, and in the present embodiment, it is assumed that the distance to the subject in the image information increases as the depth information value increases. That is, when 8-bit depth information is input, the gradation value 0 is the subject in the foreground and the gradation value 255 is the subject in the farthest background. Then, the image processing device 3100 performs image processing on the image information G3i based on the depth information D3, and outputs the processing result as output image information G3o.
  • the image information G3i may be data or a signal representing a moving image such as a video signal, or may be data or a signal representing a still image such as a JPEG (Joint Picture Experts Group) file.
  • the depth information analysis unit 3103 extracts information on the frequency distribution of the depth information D3 based on the depth information D3 corresponding to the image information. Specifically, for example, the depth information analysis unit 3103 obtains the first depth information and the second depth information according to a predetermined rule based on the frequency distribution of the depth information D3 for one piece of input image information. calculate. Here, the first depth information and the second depth information are different values of the depth information D3. Then, the depth information analysis unit 3103 outputs information on the frequency distribution of the extracted depth information D3 (for example, first depth information and second depth information) to the image processing intensity determination unit 3101. Details of the processing of the depth information analysis unit 3103 will be described later.
  • the image processing intensity determination unit 3101 determines the image processing intensity S3 in each pixel of the image information based on the information extracted by the depth information analysis unit 3103 and the depth information D3 input from the outside of the image processing apparatus 3100.
  • the image processing intensity determination unit 3101 outputs the determined image processing intensity S3 to the image processing unit 3102.
  • the image processing unit 3102 performs image processing on the image information of the pixel according to the image processing intensity at each pixel determined by the image processing intensity determination unit 3101.
  • the image processing is preferably edge enhancement, contrast correction, or saturation correction.
  • the image processing unit 3102 outputs an image generated by performing image processing to the outside of the own apparatus as output image information G3o.
  • each block of the image processing intensity determination unit 3101, the image processing unit 3102, and the depth information analysis unit 3103 is hardware such as an FPGA (Field-Programmable Gate Array) or a microcomputer (not shown) included in the image processing apparatus 3100. You may comprise by the software processed by these.
  • FIG. 21 is a schematic block diagram of the depth information analysis unit 3103 in the seventh embodiment.
  • the depth information analysis unit 3103 includes a frequency distribution calculation unit 3111, a first depth information calculation unit 3112, and a second depth information calculation unit 3113.
  • the frequency distribution calculation unit 3111 calculates the frequency distribution of the depth information D3 input from the outside of the image processing apparatus 3100, and uses the calculated frequency distribution as the first depth information calculation unit 3112 and the second depth information calculation unit 3113. Output to.
  • the first depth information calculation unit 3112 uses, as the first depth information, the value of the depth information D3min that minimizes the depth information D3 in the frequency distribution greater than or equal to the threshold ⁇ 3 in the frequency distribution input from the frequency distribution calculation unit 3111. calculate. Then, the first depth information calculation unit 3112 outputs the calculated first depth information to the image processing intensity determination unit 3101.
  • the second depth information calculation unit 3113 uses, as the second depth information, the value of the depth information D3max in which the depth information D3 is maximum in the frequency distribution that is input from the frequency distribution calculation unit 3111 within the range of the frequency ⁇ 3 or more. calculate. Then, the second depth information calculation unit 3113 outputs the calculated second depth information to the image processing intensity determination unit 3101.
  • FIG. 22 is a diagram illustrating an example of a frequency distribution of depth information.
  • the horizontal axis represents depth information and the vertical axis represents frequency.
  • depth information D3obj having the maximum frequency is shown.
  • the minimum value of the depth information D3 (hereinafter referred to as the range minimum value) D3min in the range where the frequency is greater than or equal to the threshold ⁇ 3, and the maximum value (hereinafter referred to as the depth information D3) in the range where the frequency is greater than or equal to the threshold ⁇ 3.
  • D3max (referred to as the maximum value of the range).
  • the depth information analysis unit 3103 calculates first depth information and second depth information using a frequency distribution (histogram) of the depth information D3 as shown in FIG.
  • a frequency distribution histogram
  • the maximum value and the minimum value are calculated by a normal method, even if the frequency is smaller than a predetermined threshold value ⁇ 3, the maximum value and the minimum value are calculated, and noise exists in the depth information. May cause miscalculation.
  • the depth information analysis unit 3103 calculates, as the first depth information, the minimum depth information D3 in a range in which the frequency of the depth information is equal to or greater than a predetermined threshold in one depth information frequency distribution. . Further, the depth information analysis unit 3103 calculates the maximum depth information D3 as the second depth information in a range in which the frequency of the depth information D3 is equal to or more than a predetermined threshold in one depth information distribution. The depth information analysis unit 3103 outputs the calculated first depth information and second depth information to the image processing intensity determination unit 3101. Thereby, the depth information analysis unit 3103 can calculate the first depth information and the second depth information stably.
  • the depth information analysis unit 3103 can also estimate that the main subject is present at the maximum frequency value. For example, the depth information (mode value) D3obj having the highest frequency value among the maximum values is included in the depth information analysis unit 3103. Presume that the main subject exists.
  • the depth information analysis unit 3103 divides the image information G3i into arbitrary regions (for example, a region divided into four parts in the vertical direction and four parts in the horizontal direction for a total of 16 parts), creates a histogram for each region, and determines the position of the subject. It may be estimated. In this case, for example, in the case of a subject that is biased to a specific area, the subject does not appear as a maximum value in the histogram of the entire depth information, but the subject has a maximum value in the histogram of the area in the divided area. It may appear. Thereby, the depth information analysis unit 3103 can estimate the depth information of each subject in the image information G3i. The depth information analysis unit 3103 outputs the analysis result of the depth information calculated in this way to the image processing intensity determination unit 3101.
  • FIG. 23 is a diagram illustrating an example of the relationship between the image processing intensity S3 and the depth information D3.
  • the horizontal axis is the depth information D3
  • the vertical axis is the image processing intensity S3.
  • the figure shows a characteristic that the image processing intensity S3 increases linearly as the value of the depth information D3 increases.
  • the image processing intensity S3 preferably has a monotonically increasing relationship with the depth information D3.
  • the image processing intensity determination unit 3101 determines the image processing intensity using the first depth information and the second depth information calculated by the depth information analysis unit 3103.
  • the image processing intensity determination unit 3101 changes the image processing intensity in a desired range between the first depth information and the second depth information.
  • FIG. 24 is a diagram illustrating an example of setting the image processing intensity for the depth information.
  • the horizontal axis is the depth information D3
  • the vertical axis is the image processing intensity S3.
  • the image processing intensity S3 is ⁇ 31 at the minimum range value D3min
  • the image processing intensity S3 is ⁇ 32 at the maximum range value D3max.
  • the image processing intensity S3 increases linearly as the depth information value increases in the range from the range minimum value D3min to the range maximum value D3max.
  • the image processing intensity S3 is constant at ⁇ 31
  • the image processing intensity S3 is constant at ⁇ 32.
  • the image processing intensity determination unit 3101 determines the image processing intensity based on characteristics as shown in FIG. 24, for example. Specifically, when performing image processing by changing the image processing intensity S3 from ⁇ 31 to ⁇ 32, the image processing intensity determining unit 3101 sets ⁇ 31 at the minimum range value D3min and ⁇ 32 at the maximum range value D3max. The image processing intensity S3 of the depth information D3 between them is set continuously. Thereby, the image processing intensity determination unit 3101 sets the correspondence between the depth information D3 and the image processing intensity S3. Then, the image processing intensity determining unit 3101 calculates the image processing intensity S3 at each pixel by applying the depth information D3 at each pixel to the correspondence relationship between the set depth information D3 and the image processing intensity S3.
  • the range minimum value D3min is the first depth information
  • the range maximum value D3max is the second depth information.
  • the image processing intensity determination unit 3101 has the largest image processing intensity S3 in the second depth information, and the smallest image processing intensity in the first depth information. The first depth information and the second depth The image processing intensity is determined so that the image processing intensity S3 increases as the depth information D3 increases between the information.
  • FIG. FIG. 25 is a diagram illustrating an example of image information G3i input to the image processing device 3100 according to the seventh embodiment. In the figure, an image region 3072 of a subject B3 existing in the foreground and an image region 3071 of a subject A3 located farther than the subject B3 are shown.
  • FIG. 26 is a diagram illustrating an example of depth information D3 corresponding to FIG.
  • the depth information is represented by a gray scale from white to black, and the depth information is smaller as the color becomes white.
  • depth information (depth information of the subject A3) 3081 corresponding to the image area of the subject A3 and depth information (depth information of the subject B3) 3082 corresponding to the image region of the subject B3 are shown. It is indicated that the depth information D3 of the subject B3 is smaller than the depth information 3081 of the subject A3. This means that the subject B3 is positioned in front of the subject A3.
  • the main subject is the subject B3 arranged in the foreground, the subject A3 arranged in the distant background, etc. It is. Since the contour of a distant subject becomes unclear due to light scattering or the like, it is preferable that the processing in the image processing unit 3102 increases the strength of contour enhancement as the distance to the subject increases. In addition, since the subject B3 which is a close-up view is captured clearly, if the strength of the edge enhancement is increased, the noise is noticeable and the image quality is deteriorated.
  • the image processing unit 3102 emphasizes the contour of the image information G3i, for example, based on the image processing strength S3 determined by the image processing strength determination unit 3101. Specifically, the image processing unit 3102 performs contour enhancement processing so that the contour of the image information G3i is strongly enhanced as the image processing strength S3 is increased.
  • the contour enhancement process is a process of converting the brightness value so that, for example, the difference in brightness value between adjacent pixels becomes larger. At this time, as the difference in brightness value is larger, the contour is more strongly emphasized. These can be realized by a spatial filter in consideration of neighboring pixels in the vicinity of 4 or 8 neighborhoods.
  • S3 is the image processing intensity calculated by the image processing intensity determination unit 3101.
  • the image processing unit 3102 can further enhance the contour of the image information G3i as the image processing intensity S3 increases, and can generate a clear image.
  • the image processing apparatus 3100 can improve the sense of depth of the image by clarifying the distant view of the image so that the user who viewed the image can easily feel the sense of distance from the foreground. As a result, the image processing apparatus 3100 can make the user feel the depth.
  • the image processing apparatus 3100 sets and sets the range of the depth information D3 for changing the image processing intensity S3 based on the frequency distribution of the depth information D3 (particularly by setting a threshold value for the frequency distribution of the depth information D3). Since the image processing intensity can be changed within the range of the depth information D3, the depth feeling of the image can be emphasized appropriately.
  • the processing in the image processing unit 3102 may perform contrast correction that enhances contrast using a tone curve or the like.
  • the subject C3 in the foreground is photographed with sufficient contrast and sufficient gradation, and the transient contrast correction causes a decrease in the number of gradations, thereby degrading the image quality. Therefore, the image processing unit 3102 may perform contrast correction processing so that the contrast of the image information G3i increases as the image processing strength S3 increases.
  • the contrast correction process is, for example, a process of correcting the brightness value to be larger if the brightness value is large, and correcting to decrease the brightness value if the brightness value is small. is there. At this time, the larger the correction amount, the stronger the contrast correction process.
  • the contrast correction process is, for example, a process of correcting the brightness value to be larger if the brightness value is large, and correcting the brightness value to be smaller if the brightness value is small. At this time, the larger the correction amount, the stronger the contrast correction process.
  • the image processing unit 3102 can generate an image with improved contrast.
  • the image processing apparatus 3100 can improve the sense of depth of the image by clearing the distant view of the image.
  • the image processing apparatus 3100 can make the user who sees the image feel a sense of distance from the foreground, thereby allowing the user to feel the depth.
  • the image processing unit 3102 may perform saturation correction on the image information G3i based on the image processing strength S3 determined by the image processing strength determination unit 3101.
  • the saturation correction processing can be realized by multiplying or adding the saturation in the HSV space, or linearly transforming the input pixel value by a matrix. Accordingly, the image processing unit 3102 can change the saturation based on the depth information D3. As a result, the image processing unit 3102 can generate an image with enhanced saturation without a sense of incongruity by enhancing the saturation of the distant view of the image.
  • the image processing apparatus 3100 can enhance the sense of depth of the image by increasing the saturation of the distant view of the image and making the distant view clear so that the sense of distance from the near view can be easily felt. Can do. As a result, the image processing apparatus 3100 can make the user feel the depth for the user who viewed the image.
  • FIG. 27 is a flowchart illustrating an example of processing of the image processing apparatus 3100 according to the seventh embodiment.
  • the depth information analysis unit 3103 calculates a range minimum value D3min from the image information G3i (step S3101).
  • the depth information analysis unit 3103 calculates a range maximum value D3max from the image information G3i (step S3102).
  • the image processing intensity determination unit 3101 sets the correspondence between the depth information D3 and the image processing intensity S3 based on the range minimum value D3min and the range maximum value D3max (step S3103).
  • the image processing intensity determination unit 3101 calculates the image processing intensity S3 at each pixel by applying the depth information D3 at each pixel to the set correspondence (step S3104).
  • the image processing unit 3102 performs image processing on the image information G3i of the pixel based on the image processing strength S3 of each pixel determined by the image processing strength determination unit 3101. Above, the process of this flowchart is complete
  • the image processing intensity determination unit 3101 can determine the image processing intensity S3 according to the depth information D3 within the range of the depth information D3 of the image information G3i. Since the image processing unit 3102 performs image processing with the image processing intensity S3 corresponding to the depth information D3 for all image regions included in the image information, the distant view can be sharpened. As a result, the image processing apparatus 3100 can make the user who sees the image feel a sense of distance from the foreground, thereby allowing the user to feel the depth.
  • the image processing intensity determination unit 3101 may determine the image processing intensity S3 using the depth information D3 of the foreground main subject.
  • the image information G3i is an image centered on the main subject, and image processing that emphasizes the main subject can be performed by performing image processing on the difference in depth information D3 from the main subject.
  • FIG. 28 is a diagram illustrating an example of setting the image processing intensity with respect to depth information when performing image processing intensity on a subject located deeper than the main subject.
  • the horizontal axis is the depth information D3
  • the vertical axis is the image processing intensity S3.
  • D3min is the range minimum value
  • D3max is the range maximum value.
  • the depth information D3obj of the main subject indicates that the image processing intensity S3 is ⁇ 31
  • the image processing intensity S3 is ⁇ 32 at the maximum range value D3max.
  • the depth information analysis unit 3103 extracts the depth information D3obj of the main subject and the maximum depth information D3max from the frequency distribution of the depth information D3, and uses the extracted depth information D3obj of the main subject and the maximum depth information D3max as the image processing intensity.
  • the data is output to the determination unit 3101.
  • the image processing intensity determination unit 3101 performs image processing by changing the image processing intensity S3 from ⁇ 31 to ⁇ 32
  • the depth information D3 becomes ⁇ 31 when the depth information D3obj of the main subject is the depth information D3obj, and the range maximum value D3max ⁇ 32 is set, and the image processing intensity S3 corresponding to the depth information D3 therebetween is set continuously.
  • the depth information analysis unit 3103 extracts the depth information D3 corresponding to the first depth information and the second depth information from the frequency distribution of the depth information D3.
  • the second depth information is the range maximum value.
  • the first depth information is the depth information of the main subject.
  • the image processing strength determination unit 3101 has the largest image processing strength in the second depth information, the smallest image processing strength in the first depth information, and the larger the depth information, the larger the image processing strength. The image processing intensity is determined.
  • the image processing intensity determination unit 3101 assigns an image processing intensity corresponding to the depth information D3obj of the main subject of the image information.
  • the image processing unit 3102 can perform image processing with an image processing intensity corresponding to the depth information on the image area of the subject located deeper than the main subject, thereby making the user feel the depth. Can do.
  • the depth information analysis unit 3103 may acquire the depth information D3obj of the main subject by combining face recognition techniques. For example, when a face is detected by face recognition, depth information D3 corresponding to the detected face area is set as depth information D3obj of the main subject. At this time, the depth information analysis unit 3103 sets the depth information D3 corresponding to the detected face area as an average value of the predetermined area. Accordingly, the depth information analysis unit 3103 can reduce the influence of noise and the like included in the depth information D3 by taking the average value.
  • the image processing intensity determination unit 3101 may increase the image processing intensity S3 toward the range maximum value D3max, starting from the depth information D3 between the depth information D3obj of the main subject and the maximum value D3max of the depth information.
  • main subjects such as people and animals have thickness. Therefore, the depth information D3obj of the main subject calculated by the depth information analysis unit 3103 is any depth information D3 of the depth information D3 corresponding to each pixel included in the image area of the main subject.
  • the image processing intensity determination unit 3101 starts with depth information D3 that is larger than the calculated depth information D3obj of the main subject by a predetermined value.
  • the image processing intensity S3 may be increased toward the maximum range value D3max.
  • the image processing intensity determination unit 3101 may determine the image processing intensity S3 using the relationship between the depth information S3 and the image processing intensity S3 as shown in FIG.
  • FIG. 29 is a diagram illustrating an example of setting the image processing intensity with respect to the depth information when the image processing intensity is performed on a subject located behind the main subject.
  • the horizontal axis is the depth information D3
  • the vertical axis is the image processing intensity S3.
  • D3min is a range minimum value
  • D3max is a range maximum value
  • D30 is depth information (hereinafter, intermediate depth information) located between the depth information D3obj of the main subject and the maximum value D3max of the depth information. Called).
  • the intermediate depth information D30 indicates that the image processing intensity S3 is ⁇ 31
  • the range maximum value D3max indicates that the image processing intensity S3 is ⁇ 32.
  • the range from the intermediate depth information D30 to the maximum range value D3max there is shown a characteristic that the image processing intensity S3 increases linearly as the value of the depth information D3 increases.
  • the depth information analysis unit 3103 calculates the range maximum value D3max and the intermediate depth information D30. Specifically, for example, the depth information analysis unit 3103 calculates the intermediate depth information D30 by adding a predetermined value to the depth information D3obj of the main subject. Then, the depth information analysis unit 3103 outputs the calculated range maximum value D3max and the intermediate depth information D30 to the image processing intensity determination unit 3101.
  • the depth information analysis unit 3103 multiplies the depth information D3obj of the main subject by a predetermined value, sets the average value of the depth information D3obj of the main subject and the range maximum value D3max, or the depth information D3obj of the main subject and the range.
  • the intermediate depth information D30 may be calculated by setting the maximum value D3max to a value mixed at a predetermined ratio.
  • the image processing intensity determination unit 3101 sets ⁇ 31 as the intermediate depth information D30 and ⁇ 32 as the range maximum value D3max, and the depth information therebetween
  • the image processing intensity S3 for D3 is set continuously.
  • the depth information analysis unit 3103 extracts the depth information D3 corresponding to the first depth information and the second depth information from the frequency distribution of the depth information D3.
  • the second depth information is the range maximum value D3max
  • the first depth information is the intermediate depth information D30.
  • the image processing strength determination unit 3101 has the largest image processing strength S3 in the second depth information, the smallest image processing strength S3 in the first depth information, and the first depth information and the second depth.
  • the image processing strength S3 is determined so that the image processing strength S3 increases as the depth information D3 increases in the information range.
  • the image processing unit 3102 can perform image processing with an image processing intensity S3 corresponding to the depth information D3 on an image region corresponding to a subject located behind the main subject. You can feel it.
  • the image processing intensity determination unit 3101 has the characteristics shown in FIG. 23, the characteristics shown in FIG. 24 (characteristics of the present embodiment), the characteristics shown in FIG. 28 (characteristics of the first modification), and the characteristics shown in FIG. (Characteristic) may be selected depending on the scene.
  • the image processing strength determination unit 3101 may determine the image processing strength S3 using the characteristics of FIG. 23 when there is no subject in the foreground or when there is no person as the subject.
  • the image processing intensity determination unit 3101 may use the characteristics shown in FIG. 29 when a near-ground subject or person exists as a subject.
  • the image processing intensity determination unit 3101 uniformly determines the image processing intensity S3 in advance regardless of the depth information D3 when the parallax range is partially biased (for example, in the case of an image of only a near view and only a distant view). It may be a different value. As a result, the image processing apparatus 3100 switches the determination method of the image processing intensity S3 according to the scene, and can perform appropriate image processing according to the scene.
  • the above-described embodiment of the image processing apparatus 3100 has been described with respect to the image processing of the image information G3i corresponding to one image, but it can also be applied to a moving image, and the same effect can be obtained.
  • the image processing intensity determination unit 3101 considers the calculation result of the depth information analysis unit 3103 with respect to the result of the temporally previous frame with respect to the analysis target frame.
  • the maximum range value is D3max1
  • the minimum range value is D3min1
  • the depth information of the main subject is D3obj1.
  • the maximum range value is D3max0
  • the minimum range value is D3min0
  • the depth information of the main subject is D3obj0. This is the case.
  • the depth information analyzing unit 3103 sets (D3max1 + D3max0) / 2 as the maximum range value to be finally output and (D3min1 + D3min0) / 2 as the minimum range value to be finally output. (D3obj1 + D3obj0) / 2 is calculated as depth information. Then, the depth information analysis unit 3103 outputs the calculated parameters to the image processing intensity determination unit 3101. As a result, the image processing intensity determining unit 3101 can reduce the variation between the frames of each parameter due to the noise included in the depth information D3, and can reduce the flicker of the image indicated by the output image information G3o.
  • each parameter is not limited to the average value, and the depth information analysis unit 3103 may be a median value or may be calculated by a different calculation method for each parameter. Specifically, for example, the depth information analysis unit 3103 calculates the range minimum value to be finally output as an average value of the range minimum values in the immediately preceding frame and the target frame, and the depth information of the main subject to be finally output is You may calculate with the median of the depth information of the main subject in the immediately preceding frame and the target frame.
  • the frame that takes the average of each parameter of the target frame is not limited to the immediately preceding frame, but may be a frame that is a plurality of frames before, a frame that is after the target frame, or a frame that is different from the target frame.
  • the depth information analysis part 3103 took the average in two frames, it is not restricted to this, You may take an average in three or more frames.
  • the delay of image processing can be reduced by using the analysis results of the target frame for the last few frames.
  • the depth information analysis unit 3103 calculates information related to the frequency distribution of depth information in the target frame and information related to the frequency distribution of at least one depth information in a frame before the target frame.
  • the information on the frequency distribution is information calculated from the frequency distribution, and is, for example, the range minimum value, the range maximum value, the depth information of the main subject, or the intermediate depth information.
  • the image processing intensity determination unit 3101 may determine the image processing intensity at each pixel of the image information based on the frequency distribution of the plurality of depth information calculated by the depth information analysis unit 3103.
  • the depth information analysis unit 3103 may determine that the scene has changed when the average brightness, contour strength, color distribution, or the like of the image information has changed significantly. In this case, the depth information analysis unit 3103 may calculate each parameter using only the calculation result of the target frame without using the calculation result of the previous frame. As a result, the image processing apparatus 3100 does not refer to the parameter of the previous frame when the scene changes, so that the image corresponding to the depth information D3 of the current scene is not affected by the parameter of the previous scene. Image processing can be performed with the processing intensity S3.
  • the image processing apparatus 3100 of the present embodiment extracts the first depth information that is a starting point for changing the image processing intensity from the frequency distribution of the depth information D3.
  • the image processing apparatus 3100 determines the image processing intensity S3 in each pixel so that the image processing intensity S3 increases from the extracted first depth information toward the maximum range value.
  • the image processing apparatus 3100 performs predetermined image processing on the pixel with the image processing intensity S3 determined for each pixel.
  • the image processing apparatus 3100 can change the image processing intensity S3 within the range of the appropriate depth information D3, thereby clearing the image area of the distant view, and generating a high-quality image with improved sense of depth. can do.
  • the image processing apparatus 3100 can generate an image that allows the user to feel the depth.
  • an image with improved sense of depth can be generated even in a distant view by considering the pixel position where image processing is performed.
  • FIG. 30 is a schematic block diagram of an imaging apparatus 3301 according to the eighth embodiment.
  • the imaging device 3301 includes an imaging unit 3200, an imaging unit 3201, an image processing device 3100a, an image display unit 3203, and an image storage unit 3204.
  • the configuration of the image processing device 3100a in FIG. 30 is obtained by adding a parallax calculation unit 3202 to the configuration of the image processing device 3100 in the seventh embodiment in FIG.
  • the two imaging devices of the imaging unit 3200 and the imaging unit 3201 are arranged in parallel to each other.
  • the imaging units 3200 and 3201 include a lens module and an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the imaging unit 3200 images a subject and outputs first image information obtained by the imaging to the parallax calculation unit 3202.
  • the imaging unit 3201 images a subject and outputs second image information obtained by the imaging to the parallax calculation unit 3202.
  • the parallax calculation unit 3202 calculates parallax corresponding to each pixel of the input image based on the input image and an image having a different viewpoint from the input image, and determines depth information D3 based on the calculated parallax.
  • the parallax is the amount of subject displacement between two images.
  • the parallax calculation unit 3202 uses the first image information input from the imaging unit 3200 and the second image information input from the imaging unit 3201 to perform block matching on the first image information. A parallax value corresponding to each pixel is calculated.
  • f is a focal length of the imaging unit 3200 and the imaging unit 3201
  • B is a baseline length which is a distance between the imaging unit 3200 and the imaging unit 3201.
  • the image processing device 3100a calculates depth information D3 based on the parallax d.
  • FIG. 31 is a diagram showing the relationship between the distance Z and the parallax d.
  • the distance Z and the parallax d are in an inversely proportional relationship and not a linear relationship. Therefore, the parallax calculation unit 3202 converts the parallax d so that the relationship with the distance is linear, and uses the converted value as the depth information D3. Specifically, for example, the parallax calculation unit 3202 calculates the reciprocal (1 / d) of the calculated parallax d, and sets the reciprocal of the calculated parallax d as the depth information D3. Then, the parallax calculation unit 3202 outputs the calculated depth information D3 to the image processing intensity determination unit 3101.
  • the parallax conversion need not be in a completely linear relationship with the distance, but may be a conversion close to that.
  • the parallax calculation unit 3202 may use the calculated parallax d as it is as the depth information D3.
  • the depth information D3 is smaller as the distance to the subject is longer, and is larger as the distance is shorter.
  • the image processing intensity determination unit 3101 may increase the image processing intensity S3 as the value of the depth information D3 decreases. Accordingly, the image processing intensity determination unit 3101 can increase the image processing intensity S3 as the depth information D3 indicates the depth.
  • the image processing intensity determination unit 3101 determines the image processing intensity S3 based on the depth information D3 input from the parallax calculation unit 3202.
  • the image processing unit 3102 performs image processing on the first image information input from the imaging unit 3200 with the image processing intensity S3 determined by the image processing intensity determining unit 3101.
  • the image processing unit 3102 displays output image information G3o obtained by image processing on the image display unit 3203 or stores it in the image storage unit 3204.
  • the imaging device 3301 of the present embodiment extracts the first depth information that is a starting point for changing the image processing intensity S3 from the frequency distribution of the depth information D3. Then, the imaging device 3301 determines the image processing intensity S3 in each pixel so that the image processing intensity increases from the extracted first depth information toward the range maximum value D3max. As a result, the imaging apparatus 3301 can change the image processing intensity S3 within the range of the appropriate depth information D3, thereby clearing the image area of the distant view and generating a high-quality image with an improved sense of depth. be able to. Thus, the imaging device 3301 can generate an image that allows the user to feel the depth.
  • the image processing apparatus 3100 sets and sets the range of the depth information D3 for changing the image processing intensity S3 based on the frequency distribution of the depth information D3 (particularly by setting a threshold value for the frequency distribution of the depth information D3). Since the image processing intensity can be changed within the range of the depth information D3, the depth feeling of the image can be emphasized appropriately.
  • the imaging apparatus 3301 having two imaging units has been described.
  • a similar effect can be obtained by a method of calculating parallax information from a plurality of images.
  • the horizontal direction from the first shooting position can be obtained. This can be realized by moving to and performing the second shooting.
  • a depth information calculation unit described later may be provided instead of the parallax calculation unit 3202.
  • FIG. 32 is a schematic block diagram of a display device 3302 in the ninth embodiment.
  • the display device 3302 includes an image processing device 3100 b and an image display unit 3203.
  • the configuration of the image processing device 3100b in FIG. 32 is obtained by adding a depth information calculation unit 3205 to the configuration of the image processing device 3100 in the seventh embodiment in FIG.
  • the depth information calculation unit 3205 estimates the depth information D3 from the image information G3i input from the outside of the own device.
  • various conventional estimation methods can be used for the estimation of the depth information D3.
  • the depth information calculation unit 3205 generates depth information D3 by generating a three-dimensional image from the two-dimensional image by color information, vanishing point analysis, region division, object extraction, and the like.
  • the depth information calculation unit 3205 outputs the estimated depth information D3 to the image processing intensity determination unit 3101.
  • the image processing unit 3102 has the same function as the image processing unit 3102 of the seventh embodiment, but differs in the following points.
  • the image processing unit 3102 causes the image display unit 3203 to display an output image obtained by image processing.
  • the display device 3302 can change the image processing intensity S3 within the range of the appropriate depth information D3, thereby clearing the image area of the distant view and generating a high-quality image with improved depth. be able to.
  • the display device 3302 can display an image that allows the user to feel the depth.
  • the display device 3302 including the depth information calculation unit 3205 has been described.
  • image information having information such as a stereoscopic video is input, the parallax is calculated from the stereoscopic video, and the parallax is calculated.
  • the depth information D3 may be calculated based on the image information, and the image processing intensity S3 may be determined based on the calculated depth information D3. Even in that case, the display device 3302 can obtain the same effect as described above.
  • the display device 3302 may input the depth information D3 directly to the image processing intensity determination unit 3101.
  • a program for realizing any one or a part of the functions of the image processing apparatus 3100 in FIG. 20, the image processing apparatus 3100a in FIG. 30, and the image processing apparatus 3100b in FIG. 32 is recorded on a computer-readable recording medium.
  • the program recorded on the recording medium may be realized by being read into a computer system and executed, or may be realized by dedicated hardware.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer-readable recording medium” means a storage device such as a flexible disk, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case is also used to hold a program for a certain period of time.
  • the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
  • the present invention can be applied to an image processing device, an imaging device, a display device, and the like that generate an image with improved sense of depth even in a distant view.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 画像処理装置は、画像処理の強度を決定する画像処理強度決定部と、画像処理強度決定部が決定した強度に従い、画像情報に対して画像処理を行う画像処理部と、を備える。画像処理強度決定部は、画像情報に含まれる注目画素に対応する奥行きを示す奥行き値と、注目画素の画像情報中における縦位置とに基づき、注目画素に対する画像処理の強度を決定する。

Description

画像処理装置、撮像装置および表示装置
 本発明は、画像処理装置、撮像装置および表示装置に関する。
 本願は、2011年12月19日に、日本に出願された特願2011-277591号と、2011年12月22日に、日本に出願された特願2011-281945号と、2011年12月22日に、日本に出願された特願2011-282026号とに基づき優先権を主張し、その内容をここに援用する。
 第1の背景技術として、以下の内容が知られている。静止画や動画をカメラで撮影したり、モニタに表示したりする際に、先鋭感や鮮明感を高めるために様々な画像処理技術が開発されている。例えば、先鋭感を増加させる輪郭強調処理や、鮮明感を増加させる彩度強調処理などが従来の画像処理として挙げられる。さらに、奥行き感を調整する画像処理として奥行きデータを使用した方法が有り、例えば、特許文献1がある。特許文献1では、奥行きデータと奥行き程度により、奥行き感補正のゲインを制御することにより、自由に奥行き感程度を調整できるようにしている。奥行きデータの取得方法としては、アクティブ方式とパッシブ方式とがある。アクティブ方式としては、赤外線を照射して、その反射光から距離を算出するTOF(Time Of Flight)などがある。パッシブ方式としては、ステレオ画像でマッチングをすることにより視差を算出するステレオカメラなどがある。
 しかしながら、特許文献1の方法においては、アクティブ方式およびパッシブ方式を利用して奥行きデータを取得した場合、遠景での精度および分解能が低下してしまうため、遠景における調整を奥行きに応じて行うことができず、奥行き感をえることができないことがあるという第1の問題がある。アクティブ方式では、赤外線の照射強度に依存した精度および分解能となり、赤外線の反射光が検出できない遠景では距離が全て無限遠となり、精度および分解能が低下してしまう。また、パッシブ方式では、平行に配置された2つのカメラから視差を算出するが、視差と距離との関係は反比例であるので、遠景の視差は全て0となってしまい、精度および分解能が低下してしまう。
 また、第2の背景技術として、以下の内容が知られている。静止画又は動画をカメラで撮影したり、モニタに表示したりする際に、静止画又は動画の先鋭感又は鮮明感を高めるために、様々な画像処理技術が開発されている。例えば、先鋭感を増加させる輪郭強調処理、鮮明感を増加させる彩度強調処理、又は奥行きデータを使用して奥行き感を調整する画像処理が知られている。
 特許文献1において、画像処理装置が奥行きデータと奥行き程度により、奥行き感の補正ゲインを制御することにより、奥行き感の程度を調整できることが開示されている。奥行きデータの取得方式としては、アクティブ方式とパッシブ方式とがある。アクティブ方式としては、例えば、対象物に照射した赤外線の反射光から、対象物までの距離を算出するTOF(Time Of Flight)がある。パッシブ方式としては、例えば、ステレオカメラで撮像されたステレオ画像でマッチングをとることにより視差を算出する方式がある。
 しかしながら、特許文献1では、アクティブ方式又はパッシブ方式を利用して奥行きデータを取得した場合、遠景における奥行きの精度および分解能が低下してしまう第2の問題がある。例えば、アクティブ方式では、赤外線の照射強度に依存した精度および分解能となるので、赤外線の反射光が検出できない遠景では距離が全て無限遠となってしまう。すなわち、赤外線の反射光が検出できない遠景において奥行きの分解能がなくなり、奥行きを正確に表すことができなかった。
 一方、パッシブ方式では、平行に配置された2つのカメラから視差を奥行きデータの一例として算出するとき、視差と距離との関係は反比例であり、遠景の視差は全て0となってしまう。すなわち、遠景において奥行きの分解能がなくなり、奥行きを正確に表すことができなかった。その結果、従来の画像処理装置は、そのような遠景において奥行きに応じた画像処理を施すことができず、ユーザは十分に奥行きを感じることができなかった。
 また、第3の背景技術として、以下の内容が知られている。静止画又は動画をカメラで撮影したり、静止画又は動画をモニタに表示したりする際に、先鋭感又は鮮明感を高めるために様々な画像処理技術が開発されている。例えば、先鋭感を増加させる輪郭強調処理や、鮮明感を増加させる彩度強調処理などが従来の画像処理として挙げられる。さらに、奥行き感を調整する画像処理として奥行きデータを使用した方式が有る。例えば、特許文献1では、奥行きデータと奥行き程度により、奥行き感補正のゲインを制御することにより、自由に奥行き感程度を調整できることが開示されている。
 ここで、奥行きデータに従って奥行き感を調整する画像処理を行う場合、奥行きデータと画像処理のパラメータを適切に設定する必要がある。図33は、特許文献1における奥行きデータと輪郭補正ゲインとの関係を示す図である。同図に示すように、特許文献1には、奥行きデータが第1の奥行き値Z30より小さい領域および奥行きデータが第2の奥行き値Z31より大きい領域において、奥行きデータの変化に対して奥行き感補正のゲインを一定とすることが開示されている。
 しかしながら、画像によっては第1の奥行き値Z30より小さい奥行きデータのみの場合、または第2の奥行き値Z31より大きい奥行きデータのみの場合なども存在する。その場合、特許文献1の画像処理装置は、適切な画像処理パラメータを設定することができないので、画像に対して奥行き感を調整できず、ユーザが奥行きを感じることができないという第3の問題があった。
特開2008-33897号公報
 本発明は、第1の問題に鑑みてなされたもので、その目的は、遠景においても奥行き感を向上した画像を生成することができる画像処理装置、撮像装置および表示装置を提供することにある。
 また、本発明は、第2の問題に鑑みてなされたものであり、その目的は、ユーザに奥行き感を感じさせることを可能とする画像処理装置、撮像装置および表示装置を提供することにある。
 また、本発明は、第3の問題に鑑みてなされたものであり、その目的は、ユーザが奥行きを感じることができる画像を生成することを可能とする画像処理装置、撮像装置および表示装置を提供することにある。
(1) 本発明の第1の態様は、画像処理の強度を決定する画像処理強度決定部と、前記画像処理強度決定部が決定した強度に従い、画像情報に対して画像処理を行う画像処理部と、を備え、前記画像処理強度決定部は、前記画像情報に含まれる注目画素に対応する奥行きを示す奥行き値と、前記注目画素の前記画像情報中における縦位置とに基づき、前記注目画素に対する画像処理の強度を決定することを特徴とする画像処理装置である。
(2) 本発明の第1の態様において、前記画像処理強度決定部は、前記注目画素に対応する前記奥行き値の値が飽和しているときに、前記縦位置に基づき、前記強度を決定しても良い。
(3) 本発明の第1の態様において、画像情報から消失点の位置を算出する消失点算出部を更に備え、前記画像処理強度決定部は、画像処理の対象となる対象画素と前記消失点算出部が算出した消失点の位置との距離に基づいて、前記対象画素における画像処理強度を決定しても良い。
(4) 本発明の第1の態様において、画像情報に対応する奥行き情報に基づいて、該奥行き情報の頻度分布に関する情報を抽出する奥行き情報解析部を更に備え、前記画像処理強度決定部は、前記奥行き情報解析部が抽出した情報と前記奥行き情報とに基づいて、前記画像情報の各画素における画像処理強度を決定しても良い。
(5) 本発明の第2の態様は、被写体を撮像して画像を生成する撮像部と、画像処理の強度を決定する画像処理強度決定部と、前記画像処理強度決定部が決定した強度に従い、前記撮像部が生成した画像情報に対して画像処理を行う画像処理部と、を備え、前記画像処理強度決定部は、前記画像情報に含まれる注目画素に対応する奥行きを示す奥行き値と、前記注目画素の前記画像情報中における縦位置とに基づき、前記注目画素に対する画像処理の強度を決定することを特徴とする撮像装置である。
(6) 本発明の第3の態様は、画像処理の強度を決定する画像処理強度決定部と、前記画像処理強度決定部が決定した強度に従い、画像情報に対して画像処理を行う画像処理部と、前記画像処理部により画像処理された画像を表示する画像表示部と、を備え、前記画像処理強度決定部は、前記画像情報に含まれる注目画素に対応する奥行きを示す奥行き値と、前記注目画素の前記画像情報中における縦位置とに基づき、前記注目画素に対する画像処理の強度を決定することを特徴とする表示装置である。
 本発明によれば、遠景においても奥行き感を向上した画像を生成することができ、上記第1の問題を解決することができる。
 また、本発明によれば、ユーザに奥行き感を感じさせることができ、上記第2の問題を解決することができる。
 また、本発明によれば、ユーザが奥行きを感じることができる画像を生成することができ、上記第3の問題を解決することができる。
本発明の第1の実施形態における画像処理装置1100の構成を示す概略ブロック図である。 同実施形態における奥行き値と、強度パラメータα1との関係例を示すグラフである。 同実施形態における画素位置と、強度パラメータβ1との関係例を示すグラフである。 同実施形態における入力される画像情報の例を示す図である。 同実施形態における入力される奥行き情報の例を示す図である。 本発明の第2の実施形態における画像撮像装置1300の構成を示す概略ブロック図である。 同実施形態における距離Zと視差Diとの関係を示す図である。 本発明の第3の実施形態における画像表示装置1301の構成を示す概略ブロック図である。 第4の実施形態における画像処理装置の概略ブロック図である。 消失点算出の例を示す撮像画像の模式図である。 画像処理強度S2と奥行き情報D2の値との関係の一例を示した図である。 画像処理強度S2と、消失点と画像処理を行う対象画素との間の距離との関係の一例を示した図である。 第4の実施形態における画像処理強度決定部の構成を示す概略ブロック図である。 図10の画像情報の各画素における奥行き情報の値を表した図である。 消失点が画像情報の外側にある場合の一例である。 第4の実施形態における画像処理装置の処理の一例を示すフローチャートである。 第5の実施形態における撮像装置の概略ブロック図である。 距離Zと視差dとの関係を示した図である。 第6の実施形態における表示装置の概略ブロック図である。 第7の実施形態における画像処理装置の概略ブロック図である。 第7の実施形態における奥行き情報解析部の概略ブロック図である。 奥行き情報の頻度分布の一例を示した図である。 画像処理強度D3と奥行き情報D3との関係の一例を示す図である。 奥行き情報に対する画像処理強度の設定の一例を示す図である。 第7の実施形態における画像処理装置に入力される画像情報G3iの例を示す図である。 図24に対応した奥行き情報D3の例を示す図である。 第7の実施形態における画像処理装置の処理の一例を示すフローチャートである。 主要被写体以上に奥に位置する被写体に対して画像処理強度を行う場合における、奥行き情報に対する画像処理強度の設定の一例を示す図である。 主要被写体より奥に位置する被写体に対して画像処理強度を行う場合における、奥行き情報に対する画像処理強度の設定の一例を示す図である。 第8の実施形態における撮像装置の概略ブロック図である。 距離Zと視差dとの関係を示した図である。 第9の実施形態における表示装置の概略ブロック図である。 特許文献1における奥行きデータと輪郭補正ゲインとの関係を示す図である。
 以下、図面を使って本発明の実施の形態を詳細に説明する。なお、後述する図2、3、7などでは、値の関係が把握しやすいように誇張して記載しており、実際のものとは異なる場合がある。
[第1の実施形態]
 図1は、本発明の第1の実施形態における画像処理装置1100の構成を示す概略ブロック図である。画像処理装置1100には、入力画像である画像情報G1iと、画像情報G1iに対応した奥行き情報D1が入力される。画像処理装置1100は、奥行き情報D1に基づき、画像情報G1iに対して画像処理を行い、処理結果を出力画像情報G1oとして出力する。ここで、画像情報G1iは、ビデオ信号など、動画像を表すデータや信号であってもよいし、JPEG(Joint Picture Experts Group)ファイルなど、静止画を表すデータや信号であってもよい。
 また、画像情報G1iに対応した奥行き情報D1とは、画像情報G1iにおける各画素の奥行き値を表す情報である。また、画素の奥行き値とは、該画素が表す被写体の視点からの距離を表す値である。例えば、カメラが被写体を撮影して生成した画像であれば、画素の奥行き値は、該画素が表す被写体までの、カメラ(視点)からの距離を表す値である。本実施形態における奥行き情報D1は、画像情報G1iを構成する画素毎に一つの奥行き値を持つ、すなわち解像度は、これらの間で同一である。なお、画像情報G1iの解像度と、奥行き情報D1の解像度は同一でなくてもよく、補間処理などにより、画像情報G1iの各画素の奥行き値が得られればよい。なお、後述するように、本実施形態では、奥行き値は、距離が大きいほど大きい値である。
 図1に示すように、画像処理装置1100は、画像処理強度決定部1101、画像処理部1102を含んで構成される。画像処理強度決定部1101は、画像情報G1iに含まれる注目画素に対応する奥行きを示す奥行き値と、その注目画素の画像情報G1i中における縦位置とに基づき、その注目画素に対する画像処理の強度(画像処理強度S1)を決定する。画像処理強度決定部1101は、決定した画像処理強度S1を画像処理部1102に伝達する。画像処理部1102は、画像処理強度決定部1101で決定された画像処理強度S1に従い、画像処理装置1100に入力された画像情報G1iに対して奥行き感が向上する画像処理を行い、画像処理の結果を出力画像情報G1oとして出力する。
 画像処理強度決定部1101は、画像情報G1iに含まれる各画素を注目画素とし、各画素について、図2および図3に例示する特性に従い、画像処理強度S1を決定する。ここで、本実施形態における奥行き情報は、奥行き値の値が大きくなると、画像情報内の被写体までの距離が大きい。すなわち、奥行き値が8ビットの場合には、階調値0が最も近景の被写体であり、階調値255が最も遠景の被写体である。
 図2は、奥行き値と、強度パラメータα1との関係例を示すグラフである。図2の示すグラフでは、奥行き値が最小値(階調値0)のときに、強度パラメータα1が最小値α11となり、奥行き値が最大値(階調値255)のときに、強度パラメータα1が最大値α12となっている。そして、奥行き値が大きくなるにつれて(視点からの距離が大きくなるにつれて)、強度パラメータα1が大きくなる特性を有している。被写体の連続性を考慮すると、奥行き値と強度パラメータα1との関係は、単調増加の関係が好適である。なお、強度パラメータα1と画像処理強度S1との具体的な関係は、後述するが、強度パラメータα1が大きいほど、画像処理強度S1は強い画像処理強度を示す値となる。
 なお、図2の例では、奥行き値が255であるときに、強度パラメータα1が最も大きくなるようにし、奥行き値が0であるときに、強度パラメータα1が最も小さくなるようにしているが、入力される画像情報G1iにより適宜設定するようにしてもよい。例えば、入力された1つの画像に対する奥行き情報に含まれる奥行き値の範囲が、20から100であった場合には、奥行き値が20のときに強度パラメータα1が最小となり、奥行き情報の値が100のときに強度パラメータα1が最大となるように設定する。これにより、画像処理強度S1として、画像情報G1iに適した値を割り当てることができるため好適である。なお、画像情報G1iが動画像であるときは、フレーム毎に、奥行き値の最大値、最小値を検出せずに、過去の所定の数のフレーム内で、最大値、最小値を検出するようにしてもよい。
 図3は、画素位置と、強度パラメータβ1との関係例を示すグラフである。図3では、画素位置として、画像情報G1i内での縦方向の位置(以降、縦位置という)、すなわち画像情報G1iの上端からの画素数を用いている。すなわち、図3は、その画素の画像情報内での縦位置によって、画像処理強度が変化することを示している。さらに、図3では、上端からの画素数が大きいほど、強度パラメータβ1は小さい値となっているので、縦位置が画像情報G1iの下部であるほど、画像処理強度が小さくなっている。言い換えると、縦位置が画像情報G1iの上部であるほど、画像処理強度が強くなっている。ここで、被写体の連続性を考慮すると単調減少の関係が好適である。
 縦位置は、画像処理を行う注目画素の画像情報G1iが表す画像内での位置を示している。例えば、画像の解像度が横1920、縦1080である場合、最も縦位置が上部であるのは0ライン目で、最も下部にあるのが1079ライン目である。なお、画像の縦方向がいずれの方向であるかは、例えば、ビデオ信号などであれば、予め決められた方向としてもよいし、JPEGファイルなどであれば、該ファイル内にて指定されている縦横方向に応じた方向としてもよい。
 画像処理強度決定部1101は、奥行き値が最大値(8ビットであれば255)未満のときは、前述の方法で算出した画像処理強度S1とし、奥行き値が最大値のときは、図3の特性を用いて強度パラメータβ1を画像処理強度S1とする。例えば、奥行き値が最大値となっている領域、すなわち奥行き値が飽和してしまっている領域が奥行き情報D1内に存在したとき、その領域における遠景の複数の被写体の奥行き方向の位置関係は判別することができない。そこで、奥行き値が最大値のときは、図3の特性を使用して縦位置に応じて画像処理強度S1を決定することができる。これは、奥行き値が最大値で飽和する程度に被写体までの距離がある場合には、画像情報G1iの該当領域が遠景であると推定できる。そして、遠景における画像情報上部は空であることが多く、画像情報下部には他の被写体が存在することが多いためである。
 例えば、図4および図5に示すように、被写体A1(空)である画像領域1073と被写体B1(山)である画像領域1071とでは奥行き値は同じであるが、実際の奥行き方向の位置は異なり、被写体A1(空)の方が遠くにある。すなわち、画像情報上部(被写体A1(空))の方が、画像情報下部(被写体B1(山))より遠景である。
 したがって、上述のように、奥行き値が閾値以上のときは、図3の特性を用いて画像処理強度を決定することにより、奥行き感を向上させることがきる。すなわち、奥行き情報だけでなく、縦位置に応じた画像処理強度にすることで、奥行き情報が飽和してしまっている被写体に対しても、奥行き感がでるような画像処理ができるようになる。
 また、図11の特性を奥行き値が飽和してしまっているときにのみ利用したが、奥行き値が特定の範囲に適用しても同様の効果が得られる。例えば、遠景と判断できる奥行き値、すなわち奥行き値が予め決められた閾値よりも大きい画素にたいして、図11の特性を適用して、強度パラメータβ1を画像処理強度Sとするようにしてもよい。
 さらに、画像処理強度Sを決定するときに、画像情報から算出される消失点の位置を考慮することで、遠景においても奥行き感を向上した画像を生成できるようになる。
 また、画像処理強度決定部1101は、奥行き値と縦位置との組合せに対して画像処理強度S1が得られるLUT(Look Up Table)を予め記憶しており、該LUTを参照して画像処理強度S1を決定するようにしてもよい。また、奥行き値に対して強度パラメータα1が得られるLUTと、縦位置に対して強度パラメータβ1が得られるLUTとを記憶しており、奥行き値に応じて、参照するLUTを切り替えて画像処理強度S1を決定するようにしてもよい。
 また、画像処理強度決定部1101は、以下のようにして、奥行き情報D1に含まれる奥行き値の範囲に応じて、奥行き値と強度パラメータα1の関係を適応的に決めるようにしてもよい。まず、奥行き情報D1内の最大値に対応する強度パラメータα1を、予め決められた値α12とする。次に、奥行き情報D1内の最小値に対応する強度パラメータα1を、予め決められた値α11(α11<α12)とする。そして、その間の奥行き値に対しては、α11とα12を線形的に補間することで算出する。
 また、画像処理強度決定部1101は、以下のようにして、奥行き値が最大値となっている領域の縦位置の範囲に応じて、縦位置と強度パラメータβ1との関係を適応的に決めるようにしてもよい。まず、奥行き値が最大値となっている領域における縦位置の最大値に対応する強度パラメータβ1を、予め決められた値β12とする。次に、奥行き値が最大値となっている領域における縦位置の最小値に対応する強度パラメータβ1を、予め決められたβ11(β11<β12)となるようにする。その間の縦位置のときは、β11とβ12を線形的に補間することで算出する。
 なお、β11は、α12と等しいか、より大きい値としておくことが望ましい。これにより、奥行き値が最大値となっている領域における画像処理強度が、奥行き値が最大値となっていない領域における画像処理強度よりも小さくなることを防ぐことができる。
 また、画像処理強度決定部1101は、奥行き値が最大値であった場合には画像処理強度S1をα12×β1またはα12+β1により算出するようにしてもよい。このとき、画像処理強度S1が最も大きくなるときはα12×β12またはα12+β12となる。これにより、奥行き情報が飽和してしまっているような大きな値のときであっても、容易に縦位置を考慮した画素処理強度の算出が可能となるため好適である。なお、α12×β1とする場合は、図3においてβ1は、常に1以上であることが望ましい。また、α12+β1とする場合は、図3においてβ1は、常に0以上であることが望ましい。
 画像処理部1102は、画像処理強度決定部1101により決定された画像処理強度S1に従い、奥行き感を向上させる画像処理を、画像情報G1iに対して行う。画像処理は輪郭強調、コントラスト補正、彩度補正が好適である。例えば、画像処理が輪郭強調であれば、画像処理強度S1の値が大きいほど、輪郭を強く強調するように輪郭強調処理を行う。輪郭強調処理とは、例えば、隣接する画素との明るさ値(輝度、明度など)の差が、より大きくなるように明るさ値を変換する処理である。このとき、明るさ値の差が大きいほど、輪郭が強く強調される。これらは、4近傍や8近傍の周辺画素を考慮した空間フィルタにより実現することができる。
 また、画像処理が、コントラスト補正であれば、画像処理強度S1の値が大きいほど、コントラストが強くなるようにコントラスト補正処理を行う。コントラスト補正処理とは、例えば、明るさ値(輝度、明度、R(赤)値、G(緑)値、B(青)値など)が大きければ、明るさ値がより大きくなるように補正し、明るさ値が小さければ、明るさ値がより小さくなるように補正する処理である。このとき、補正する量がより大きいほど、より強いコントラスト補正処理となる。これらは、入力される値に対して補正する値を定義したLUTにより実現することができる。
 また、画像処理が、彩度補正であれば、画像処理強度S1の値が大きいほど、彩度が強くなるように彩度補正処理を行う。彩度補正処理とは、彩度の値をより大きくなるように変更する処理である。このとき、変更する量がより大きいほど、より強い彩度補正処理となる。これらは、HSV(Hue Saturation Value;色相、彩度、明度)空間での彩度を乗算または加算したり、入力される画素値を行列により線形変換したりすることにより実現することができる。
 図4の画像G11は、手前にいる人物である被写体C1を、背景に山である被写体B1と空である被写体A1とを配置して撮影した場合の画像例である。このような場合、遠景の被写体は光の散乱などにより輪郭が不鮮明になるため、被写体までの距離が大きくなるほど輪郭強調の強度を大きくするのが好適である。また、近景である被写体C1は鮮明に撮影されているため、輪郭強調の強度を大きくするとノイズ感が目立ち画質が劣化してしまう。したがって、輪郭強調処理を本実施形態のように行うことで、画質の劣化を抑えつつ輪郭が鮮明な画像を生成することができる。生成された画像は、遠景が鮮明になったことにより、近景との距離感を感じやすくなることで奥行き感が向上する。
 また、光の散乱などによりコントラストも低下してしまう。そこで、被写体までの距離が大きくなるほど、よりコントラストを強調するトーンカーブなどによりコントラストを強調するコントラスト補正をすると好適である。また、近景である被写体C1は十分なコントラストで十分な階調により撮影されており、過渡のコントラスト補正は階調数の減少が発生して画質が劣化してしまう。したがって、コントラスト補正処理を本実施形態のように行うことで、画質の劣化を抑えつつコントラスト感が向上した画像を生成することができる。生成された画像は、遠景が鮮明になったことにより、近景との距離感を感じやすくなることで奥行き感が向上する。
 また、記憶色や鮮やかさにより画像の彩度は高い方が好まれ、実物のように感じる。しかしながら、人物の肌などは肌色である必要があり、過渡の彩度強調は違和感が発生するため画質劣化となってしまう。そこで、彩度補正処理を本実施形態のように行うことで、画質の劣化を抑えつつ違和感が無く彩度が高められた画像を生成することができる。生成された画像は、彩度が高く鮮やかな画像となり、遠景が鮮明になったことにより、近景との距離感を感じやすくなることで奥行き感が向上する。
 以上に説明したように、本実施形態の画像処理装置1100によれば、奥行き情報と画像処理の注目画素の縦位置にしたがって、画像処理強度を変化させることにより、遠景においても奥行き感を向上した高画質な画像を生成することができる。
[第2の実施形態]
 図6は、本発明の第2の実施形態における画像撮像装置1300の構成を示す概略ブロック図である。画像撮像装置1300は、撮像素子1200、撮像素子1201、画像処理装置1100a、画像表示部1203、画像記憶部1204を含んで構成される。画像処理装置1100aは、視差算出部1202、画像処理強度決定部1101、画像処理部1102を含んで構成される。なお、同図において、図1の各部に対応する部分には同一の符号(1101、1102)を付し、説明を省略する。
 撮像素子1200および1201は、レンズモジュールとCCDやCMOSイメージャなどで構成され、互いに平行に配置されている。すなわち、撮像素子1201が撮影して生成する画像は、撮像素子1200が撮影して静止絵する画像とは視点の異なる画像である。撮像素子1200および1201が撮影して生成した画像は、視差算出部1202に伝達される。また、これらの画像のうち、撮像素子1200が生成した画像は、画像処理部1102に伝達される。
 視差算出部1202は、撮像素子1200が生成した画像と、撮像素子1201が生成した画像とに基づき、撮像素子1200が生成した画像に対応する視差を算出し、該視差に基づく値を奥行き値とする。なお、視差算出部1202は、視差は2つの画像間の被写体のずれ量であり、ブロックマッチングなどにより算出することができる。撮影された被写体までの距離Zと視差Diの関係式は、Di=f×B/Zである。ここで、fは撮像素子1200、1201の焦点距離であり、Bは2つの撮像素子1200、1201間の距離である基線長である。このように、距離Zと視差Diとの間には相関があるので、視差算出部1202は、各画素における視差Diを変換した値を奥行き値とする奥行き情報を生成して、画像処理強度決定部1101に伝達する。
 なお、距離Zと視差Diとは図7のような関係であり、線形的な関係ではない。そこで、視差算出部1202は、距離との関係が線形となるように視差を変換する。具体的には、視差算出部1202は、上述の距離Zと視差Diの関係式を用いて、視差Diを距離Zに変換して、これを奥行き値としてもよいし、視差Diの逆数を奥行き値としてもよい。このようにすることで、焦点距離や基線長が不明あるは不定であっても、距離に応じた画像処理強度を適用することができるため好適である。視差の変換は、距離と完全に線形の関係にする必要はなく、それに近い変換であればその効果を得ることができる。
 画像表示部1203は、画像処理部1102による処理結果の画像を表示する。また、画像記憶部1204は、画像処理部1102による処理結果の画像を記憶する。
 以上に説明したように、本実施形態の画像撮像装置1300によれば、奥行き情報と画像処理の注目画素の縦位置にしたがって、画像処理強度を変化させることにより、遠景においても奥行き感を向上した高画質な画像を撮影することができる。
 なお、本実施形態では、撮像素子を2つ備えた画像撮像装置1300について説明したが、撮像素子を2つ備えていなくても、複数の視点の異なる画像から視差を算出する方法でも同様の効果が得られる。例えば、1回目の撮影点から左右方向へ移動して2回目の撮影を行うことで、複数の画像を生成、これらの視差を算出するようにしてもよい。また、視差算出部1202に代えて後述する奥行き情報算出部1205を備えるようにしても良い。
 また、本実施形態における視差算出部1202は、視差を変換して距離を示す値を算出し、これを奥行き情報として画像処理強度決定部1101に伝達しているが、奥行き情報として視差を伝達するようにしてもよい。この場合、画像処理強度決定部1101は、視差と、縦位置とに応じて、画像処理強度を決定するが、視差が小さいほど画像処理強度が小さくなるように、画像処理強度を決定する。例えば、視差が0であれば、図3の特性に従い、縦位置に応じた画像処理強度とする。
[第3の実施形態]
 図8は、本発明の第3の実施形態における画像表示装置1301の構成を示す概略ブロック図である。画像表示装置1301は、画像処理装置1100b、画像表示部1203を含んで構成される。画像処理装置1100bは、奥行き情報算出部1205、画像処理強度決定部1101、画像処理部1102を含んで構成される。なお、同図において、図6の各部に対応する部分には同一の符号(1101、1102、1203)を付し、説明を省略する。
 奥行き情報算出部1205は、入力される画像情報G1iの各画素に対応する奥行き値を、画像情報G1iに基づき推定し、推定結果からなる奥行き情報を画像処理強度決定部1101に伝達する。奥行き値の推定には、従来の様々な推定方法が使用できる。例えば、色情報、消失点解析、オブジェクト抽出などにより2次元画像から3次元画像を生成する方法が挙げられる。
 画像処理強度決定部1101は、伝達された奥行き情報を用いて画像処理強度S1を決定する。
 以上に説明したように、本実施形態の画像表示装置1301によれば、奥行き情報と画像処理の注目画素の縦位置にしたがって、画像処理強度を変化させることにより、遠景においても奥行き感を向上した高画質な画像を表示することができる。
 本実施形態では、奥行き情報算出部1205を備えた画像表示装置1301について説明したが、立体映像などの情報をもった画像情報が入力された場合には、立体映像から視差を算出して奥行き情報として利用するようにしてもよい。すなわち、第2の実施形態の視差算出部1202を備えるようにしてもよい。また、画像情報とともに奥行き情報が入力される場合には、直接画像処理強度決定部1101へ入力するようにしても良い。
[第4の実施形態]
 以下、本発明の実施形態について、図面を参照して詳細に説明する。なお、各図における表現は理解しやすいように誇張して記載しており、実際のものとは異なる場合がある。
図9は、第4の実施形態における画像処理装置2100の概略ブロック図である。画像処理装置2100は、画像処理強度決定部2101と、画像処理部2102と、消失点算出部2103とを備える。
 画像処理装置2100には、入力画像である画像情報G2iと、画像情報G2iに対応した奥行き情報D2が入力される。画像処理装置2100は、奥行き情報D2に基づき、画像情報G2iに対して画像処理を行い、処理結果を出力画像情報G2oとして出力する。ここで、画像情報G2iは、ビデオ信号など、動画像を表すデータや信号であってもよいし、JPEG(Joint Picture Experts Group)ファイルなど、静止画を表すデータや信号であってもよい。
 図9に示すように、画像処理装置2100が消失点算出部2103を備え、消失点算出部2103は、画像情報G2iから消失点を算出する。ここで、消失点とは、遠近法において実際のものでは平行線になっているものを平行でなく描く際に、その線が交わる点である。消失点算出部2103は、算出した消失点の座標(以下、消失点座標と称す)を画像処理強度決定部2101へ出力する。
 画像処理強度決定部2101は、画像処理の対象となる対象画素と消失点算出部2103が算出した消失点の位置との距離を考慮して、上記対象画素における画像処理強度S2を決定する。
 画像処理部2102は、画像処理強度決定部2101が決定した画像処理強度S2にしたがって、上記画像情報に対して画像処理を行う。具体的には、画像処理部2102は、画像処理強度決定部2101が決定した画像処理強度S2によって奥行き感を向上させる画像処理を行う。ここで、画像処理は、例えば、輪郭強調、コントラスト補正又は彩度補正が好適である。
 そして、画像処理部2102は、画像処理後の画像を出力画像情報G2oとして自装置の外部へ出力する。
 なお、画像処理強度決定部2101、画像処理部2102及び消失点算出部2103各ブロックはFPGA(Field-Programmable Gate Array)などのハードウェア、又は画像処理装置2100に内在するマイコン(図示せず)などにより処理されるソフトウェアにより構成してもよい。
 図10は、消失点の算出の例を示す撮像画像の模式図である。ここで、撮像画像は、画像情報G2iが示す画像の一例である。同図の撮像画像の模式図において、被写体A2が表されている。同図において、被写体A2の下側の輪郭を伸ばした直線と、被写体A2の上側の輪郭を伸ばした直線とが交わる点が消失点Vである。
 消失点算出部2103は、画像情報G2iから画像情報G2iの消失点を算出する。例えば、消失点算出部2103は、図10に示すように、入力される画像情報G2iから公知のハフ変換を利用して直線を検出する。図10の例において、消失点算出部2103は被写体A2の下側及び上側の輪郭から直線を算出する。そして、消失点算出部2103は、検出した二つの直線が交わる点を消失点として算出する。
 更に、消失点算出部2103は、消失点の算出に奥行き情報D2を利用するようにしてもよい。例えば、消失点算出部2103は、ハフ変換により検出した直線から消失点を算出したときに、複数の消失点が算出された場合、奥行き情報D2を利用して最も遠いことを示す奥行き情報を有している点を消失点にする。これにより、消失点算出部2103は、最も遠景となる消失点を算出することができる。
 <画像処理強度決定の詳細>
 ここで、本実施形態における奥行き情報D2は、一例として、奥行き情報D2の値が大きくなると画像情報G2i内の被写体までの距離が大きい。すなわち、8ビットの奥行き情報D2が入力される場合には、階調値0が最も近景の被写体であり、階調値255が最も遠景の被写体である。
 図11は、画像処理強度S2と奥行き情報D2の値との関係の一例を示した図である。同図において、縦軸は画像処理強度S2で、横軸は奥行き情報D2である。同図において奥行き情報D2の値が0のとき画像処理強度S2がα21であり、奥行き情報D2の値がD21のとき画像処理強度S2がα22である。同図の例において、奥行き情報D2の値と画像処理強度S2とは、線形の関係にあり、奥行き情報D2の値が大きくなるに連れて画像処理強度S2が大きくなる関係にある。被写体の連続性を考慮すると、画像処理強度S2は、奥行き情報D2の値に対して単調増加の関係が好適である。
 なお、同図では、奥行き情報D2が最大値であるときに、画像処理強度S2が最も大きくなるようにし、奥行き情報D2が最小値であるときに、画像処理強度S2が最も小さくなるようにしているが、これに限らず、入力される情報により適宜設定してもよい。例えば、画像処理強度決定部2101は、入力された1つの画像に対する奥行き情報D2の値の範囲が20から100であった場合には、奥行き情報D2の値が20のときに画像処理強度S2が最大となり、奥行き情報D2の値が100のときに画像処理強度S2が最小となるように設定してもよい。これにより、画像処理強度決定部2101は、画像情報G2iに適した値を画像処理強度S2に割り当てることができる。
 なお、同図では、画像処理強度S2が奥行き情報D2の値に応じて、線形に増加する例を示したが、これに限らず、線形でなくてもよく、奥行き情報D2の値が増加するに連れて画像処理強度S2が増加する傾向にあればよい。
 図12は、強度パラメータφと、消失点と画像処理を行う対象画素との間の距離との関係の一例を示した図である。同図において、縦軸が強度パラメータφで、横軸が消失点と画像処理を行う対象画素との間の距離(消失点からの距離)である。同図において消失点からの距離が0のとき強度パラメータφがφ2であり、消失点からの距離がL21のとき強度パラメータφがφ1である。同図の例において、強度パラメータφと消失点からの距離とは線形の関係にあり、強度パラメータφは、消失点からの距離が小さいほど大きくなる特性を有している。また、消失点からの距離は、対象画素が消失点である場合が最も小さくなる。ここで、被写体の連続性を考慮すると、強度パラメータφは消失点からの距離に対して単調減少の関係が好適である。
 なお、消失点と対象画素との距離は画素間距離でも市街地距離でもよい。例えば、消失点座標が(100、100)で対象画素の座標が(200、200)であり、市街地距離で消失点からの距離を算出する場合、消失点からの距離は200である。一方、その例において、画素間距離は、√2×100である。
 図12では、強度パラメータφが消失点からの距離に応じて、線形に単調減少する例を示したが、これに限らず、非線形の関係であっても良い。すなわち、消失点からの距離が大きくなるに連れて画像処理強度S2が減少する傾向にあればよい。
 画像処理強度決定部2101は、奥行き値が最大値(8ビットであれば255)未満のときは、前述の方法で算出した画像処理強度S2とし、奥行き値が最大値のときは、図12の特性を用いて強度パラメータφを画像処理強度S2とする。例えば、奥行き値が最大値となっている領域、すなわち奥行き値が飽和してしまっている領域が奥行き情報D2内に存在したとき、その領域における遠景の複数の被写体の奥行き方向の位置関係は判別することができない。そこで、奥行き値が最大値のときは、図12の特性を使用して消失点からの距離に応じて画像処理強度Sを決定することができる。これは、遠景において消失点が最も遠いと推定されるからである。
 図14は図10に対応する奥行き情報D2を図として表わしたものである。このとき、遠景において奥行き情報値は同じ値となっているが、実際の被写体までの距離は異なっている。つまり、消失点に近い画素がより遠景である。
 したがって、上述のように、奥行き値が閾値以上のときは、図12の特性を用いて画像処理強度を決定することにより、奥行き感を向上させることができる。すなわち、奥行き情報だけでなく、消失点までの距離に応じた画像処理強度にすることで、奥行き情報が飽和してしまっている被写体に対しても、奥行き感がでるような画像処理ができるようになる。
 一例として、画像処理強度決定部2101は、図11および図12の特性に基づいて、画像処理強度S2を決定する。
 図13は、画像処理強度決定部2101の構成を示す概略ブロック図である。画像処理強度決定部2101は、判定部2111と、距離算出部2112と、強度算出部2113とを備える。
判定部2111は、外部から入力された奥行き情報D2を受け取る。判定部2111は、対象画素における奥行き情報D2の値が予め決められた閾値を超えるか否か判定する。ここで、奥行き情報D2の値が予め決められた閾値を超える場合、奥行き情報D2の値が飽和していることを意味する。判定部2111は、対象画素における奥行き情報D2の値が予め決められた閾値を超える場合、その判定結果を距離算出部2112に出力する。判定部2111は、対象画素における奥行き情報D2の値が予め決められた閾値以下である場合、判定結果を奥行き情報D2とともに強度算出部2113に出力する。
例えば、入力される奥行き情報D2が8ビットであった場合、閾値が254のときは奥行き情報D2が255のとき飽和していると判断し、閾値が253のときは奥行き情報D2が255および254のとき飽和していると判断する。
距離算出部2112は、判定部2111から入力された判定結果が対象画素における奥行き情報D2の値が予め決められた閾値を超えることを示す場合、画像処理を行う対象画素と消失点との距離を算出する。距離算出部2112は、算出した距離を強度算出部2113に出力する。
 強度算出部2113は、距離算出部2112から入力された距離に基づいて、画像処理強度S2を決定する。具体的には、強度算出部2113は、対象画素における奥行き情報D2の値が飽和している場合、対象画素と消失点との距離が大きくなるほど、画像処理強度を小さくする。強度算出部2113は、例えば、距離算出部2112から入力された距離を図12の特性に適用することにより、画像処理強度S2を算出する。
 すなわち、画像処理強度決定部2101は、奥行き情報D2の値が予め決められた閾値より大きい場合、対象画素と消失点との距離が小さくなるほど画像処理強度S2を大きくする。
 例えば、画像情報G2i内に奥行き情報D2の最大値を有する領域が存在する場合、その領域における遠景の複数の被写体の奥行き方向の位置関係は判別することができない。そこで、画像処理強度決定部2101は、図12の特性を使用して、例えば、奥行き情報D2の値が最大値のときに、消失点からの距離に応じた画像処理強度S2に決定する。これは、消失点が最も遠景であると推定されるためであり、消失点に近い程、遠景であると推定されるからである。
 一方、強度算出部2113は、判定部2111から入力された判定結果が対象画素における奥行き情報D2の値が予め決められた閾値以下であることを示す場合、奥行き情報D2の値に基づいて、画像処理強度S2を決定する。具体的には、強度算出部2113は、例えば、判定部2111から入力された奥行き情報D2を図11の特性に適用することにより、画像処理強度S2を算出する。
 すなわち、画像処理強度決定部2101は、奥行き情報D2の値が予め決められた閾値以下の場合、奥行き情報D2の値が大きくなるほど画像処理強度S2を大きくする。
 そして、強度算出部2113は、フレーム内の全ての画素について画像処理強度S2を算出したか否か判定する。フレーム内の全ての画素について画像処理強度S2を算出していない場合、強度算出部2113は、対象画素の次の画素(例えば、隣の画素)を新たな対象画素にするよう要求する要求信号を判定部2111に出力する。これにより、判定部2111は、この要求信号を受け取ると、新たな対象画素に対応する奥行き情報D2が予め決められた閾値を超えるか否か判定する。一方、フレーム内の全ての画素について画像処理強度S2を算出した場合、強度算出部2113は、各画素における画像処理強度S2を画像処理部2102に出力する。
 以下に、画像処理強度決定部2101の処理の一例を説明する。画像処理強度決定部2101は、図11における定数α21及び定数α22、図12における定数β21及び定数β22を予め保持する。そして、画像処理強度決定部2101は、奥行き情報D2の値が予め決められた閾値以下の場合、以下の処理を行う。画像処理強度決定部2101は、奥行き情報D2の最大値において画像処理強度S2が定数α22となるようにし、奥行き情報D2の最小値において画像処理強度S2が定数α21となるようにする。
 これにより、画像処理強度決定部2101は、奥行き情報D2の最大値において画像処理強度S2が最大とし、奥行き情報D2の最小値において画像処理強度S2が最小とすることができる。画像処理強度決定部2101は、奥行き情報D2の値がその間のときは、定数α21と定数α22を線形的に補間することで画像処理強度S2を算出する。
 一方、画像処理強度決定部2101は、奥行き情報D2の値が予め決められた閾値以上の場合、以下の処理を行う。画像処理強度決定部2101は、画像処理強度S2が最大となる消失点からの距離の最小値において画像処理強度S2が定数β22となるようにし、画像処理強度S2が最小となる消失点からの距離の最大値において画像処理強度S2が定数β21となるようにする。画像処理強度決定部2101は、消失点からの距離がその間のときは、定数β21と定数β22を線形的に補間することで画像処理強度S2を算出する。
 なお、例えば、画像処理強度決定部2101は、β2を消失点からの距離に応じて決まる変数だとすると、画像処理強度S2をα22×β2またはα22+β2と算出してもよい。このとき、最も画像処理強度S2が大きくなるときはα22×β22またはα22+β22となる。
 以上により、奥行き情報D2の値が飽和してしまっているような大きな値のときであっても、画像処理強度決定部2101は、容易に消失点からの距離を考慮した画素処理強度を算出することができる。
 すなわち、画像処理強度決定部2101は、奥行き情報D2が奥を示すほど画像処理強度S2を大きくし、対象画素と消失点との距離が小さくなるほど画像処理強度S2を大きくしてもよい。
 なお、画像処理装置2100は、図11および図12から画像処理強度S2を算出する場合、奥行き情報D2の値及び消失点からの距離に関連付けられた画像処理強度S2のLUT(Look Up Table)を保持するようにしてもよい。その場合、画像処理強度決定部2101を、そのLUTを参照して、奥行き情報D2の値及び消失点からの距離に対応する画像処理強度S2を読み出してもよい。
 また、図13では閾値による判定を行ってから消失点からの距離算出をする方法を説明した。これは飽和している画素と判定したときのみ距離を算出するため、処理量を削減でき、ソフトウェアでの処理にてきしている。ハードウェアでの処理の場合には、全画素に対して消失点からの距離を算出し、奥行き情報によって選択するようにすることで実現できる。
 図10と図14を用いて、画像処理強度決定部2101の処理について説明する。図14は、図10の画像情報の各画素における奥行き情報D2の値を表した図である。同図において、奥行き情報D2の値が大きいほど、すなわち被写体が奥に位置するほど画素の色が黒くなっており、奥行き情報D2の値が小さいほど、すなわち被写体が手前にあるほど画素の色が白くなっている。
 例えば、図10における遠景にある被写体C2および被写体D2では、図14に示すように、異なる位置にあっても奥行き情報D2の値が同じとなってしまう。そのため、消失点に近い被写体D2が被写体C2よりも遠方にあるにも関わらず、奥行き情報D2の値だけに基づいて画像処理強度S2が決定される場合には、被写体C2と被写体D2に対する画像処理強度S2が同じになってしまう。
 図10の例では、被写体D2、C2、A2の順で、消失点からの距離が遠くなっているので、画像処理強度決定部2101は、例えば、被写体D2、C2、A2の順で、画像処理強度を小さくする。これにより、画像処理強度決定部2101は、被写体D2の画像処理強度S2を被写体C2の画像処理強度S2よりも大きくすることができる。すなわち、画像処理強度決定部2101は、奥行き情報D2が飽和した領域であっても、画像処理を行う対象画素と消失点との距離に基づいて、画像処理強度S2を変化させるので、被写体までの距離に応じた画像処理強度S2を設定することができる。
 すなわち、画像処理強度決定部2101は、奥行き情報D2だけでなく、対象画素と消失点との距離に応じた画像処理強度S2にすることで、奥行き情報D2が飽和してしまっている被写体に対しても、奥行き感が生じるように画像処理ができるようになるため、奥行き感を向上させた画像を生成することができる。
 上述した例では、画像処理強度決定部2101は、奥行き情報D2が飽和してしまっているときに、対象画素と消失点との距離に応じた画像処理強度S2を決定したが、奥行き情報D2の値が予め決められた特定の範囲にある場合(例えば、予め決められた閾値より大きい場合)に、対象画素と消失点との距離に応じた画像処理強度S2を決定してもよい。これにより、画像処理強度決定部2101は、上述した効果を同様の効果を得ることができる。
 例えば、奥行き情報D2の値が、予め決められた特定の範囲にある場合に、その奥行き情報D2をとる画素が、遠景に該当する場合を想定する。その場合、画像処理強度決定部2101は、奥行き情報D2の値が特定の範囲にある画素に対して、対象画素と消失点との距離に応じた画像処理強度S2を決定する。これにより、画像処理強度決定部2101は、遠景の画像領域に対して、対象画素と消失点との距離に応じた画像処理強度S2を決定することができるので、遠景の奥行き感を向上させた画像を生成することができる。
 図10のようなシーンを撮影した場合、主要な被写体は近景に配置される被写体B2であり、背景が遠景に配置される被写体C2および被写体D2である。遠景の被写体は光の散乱などにより輪郭が不鮮明になるため、画像処理部2102における処理は、被写体までの距離が大きくなるほど輪郭強調の強度を大きくする処理が好適である。また、近景である被写体B2は鮮明に撮影されているため、輪郭強調の強度を大きくするとノイズ感が目立ち画質が劣化してしまう。
 そこで、画像処理部2102は、画像処理強度決定部2101が決定した画像処理強度S2に基づいて、画像情報G2iの輪郭を強調する。具体的には、画像処理部2102は、画像処理強度S2が大きいほど、画像情報G2iの輪郭を強調するように輪郭強調処理を行う。ここで、輪郭強調処理とは、例えば、隣接する画素との明るさ値の差が、より大きくなるように明るさ値を変換する処理である。このとき、明るさ値の差が大きいほど、輪郭が強く強調される。これらは、4近傍や8近傍の周辺画素を考慮した空間フィルタにより実現することができる。例えば、対象画素の画素値がP20、周辺画素の画素値がP21、P22、P23、P24である4近傍を考慮する場合、画像処理後の画素値P2は、P2=P20+(P20×4-P21-P22‐P23‐P24)×α2(またはβ2)として算出することができる。ここで、α2およびβ2は奥行き情報および消失点からの距離により算出されるパラメータである。
 これにより、画像処理部2102は、鮮明な画像を生成することができる。画像処理装置2100は、画像の遠景を鮮明にすることにより、その画像を見たユーザが近景との距離感を感じやすくすることで、画像の奥行き感を向上させることができる。その結果、画像処理装置2100は、ユーザに奥行き感を感じさせることができる。
 さらに、遠景では、光の散乱などによりコントラストも低下してしまう。そこで、画像処理部2102における処理は、トーンカーブなどによりコントラストを強調するコントラスト補正をする処理が好適である。近景である被写体C2は十分なコントラストで十分な階調により撮影されており、過渡のコントラスト補正は階調数の減少が発生して画質が劣化してしまう。
 そこで、画像処理部2102は、画像処理強度S2が大きいほど、画像情報G2iのコントラストが強くなるようにコントラスト補正処理を行ってもよい。ここで、コントラスト補正処理とは、例えば、明るさ値が大きければ、明るさ値がより大きくなるように補正し、明るさ値が小さければ、明るさ値がより小さくなるように補正する処理である。このとき、補正する量がより大きいほど、より強いコントラスト補正処理となる。これらは、入力される値に対する補正した値を定義したLUTにより実現することができる。
 これにより、画像処理部2102は、コントラスト感が向上した画像を生成することができる。その結果、画像処理装置2100は、画像の遠景を鮮明にすることにより、その画像を見たユーザが近景との距離感を感じやすくやすくすることで、画像の奥行き感を向上させることができる。その結果、画像処理装置2100は、ユーザに奥行き感を感じさせることができる。
 また、記憶色や鮮やかさにより画像の彩度は高い方が好まれ、実物のように感じる。しかしながら、人物の肌などは肌色である必要があり、過渡の彩度強調は違和感が発生するため画質劣化となってしまう。そこで、画像処理部2102は、彩度補正を画像処理強度決定部2101が決定した画像処理強度S2に基づいて、画像情報G2iに対して彩度補正を行ってもよい。具体的には、画像処理部2102は、画像処理強度S2が大きいほど、彩度を大きくするよう彩度補正処理してもよい。ここで、彩度補正処理は、HSV空間での彩度を乗算または加算したり、入力される画素値を行列による線形変換したりすることにより実現することができる。これにより、画像処理部2102は、奥行き情報D2と消失点からの距離とに基づいて彩度を変化させることができる。その結果、画像処理部2102は、画像の遠景の彩度を強調することで、違和感無く彩度が高められた画像を生成することができる。
 これにより、画像処理装置2100は、画像の遠景の彩度を高くして、遠景が鮮明にすることにより、その画像を見たユーザが近景との距離感を感じやすくさせるので、画像の奥行き感を向上させることができる。その結果、画像処理装置2100は、ユーザに奥行き感を感じさせることができる。
 また、消失点座標が画像情報G2iの外側に有る場合にも同様に扱うことができる。図15は、消失点が画像情報G2iの外側にある場合の一例である。同図において、消失点が撮像画像の外側にあることが示されている。
 例えば、解像度が1920×1080画像情報G2iで消失点が画像情報G2iの外側で有る場合、画像処理装置2100は、消失点座標を(2500、500)のように画像情報G2iの外側の値を許容するようにしておくことで、画像処理装置2100は、消失点が画像情報G2iの外側でも同様の処理を適用することができる。
 さらに、画像情報G2i内において、消失点より上方では被写体E2のように空などの被写体が存在することが多く、消失点より下方では被写体F2のように地面や山などの被写体が存在することが多い。これは、消失点の上方の被写体が消失点の下方の被写体よりも遠方にあることが多いことを示している。したがって、画像処理強度決定部2101は、画像情報G2i内における対象画素と消失点の垂直方向の位置関係に基づいて、画像処理強度S2を決定してよい。例えば、画像処理強度決定部2101は、消失点より上方になるほど画像処理強度S2を大きくし、消失点より下方になるほど画像処理強度S2を小さくしてもよい。
 つまり、画像処理強度決定部2101は、対象画素と消失点との距離に加えて、対象画素と対象画素と消失点の垂直方向の位置関係に基づいて、画像処理強度S2を決定する。例えば、画像処理強度決定部2101は、対象画素が消失点より上方に有る場合、消失点からの距離が同一で、かつ、消失点より下方に有るときに比べてε倍(ε>1)する。また、εを消失点からの距離に応じた関数にしても良い。これにより、画像処理装置2100は、より被写体の位置関係を考慮することができるため、その被写体の位置関係に応じた画像処理強度S2で画像処理を行うので、画像の遠景を鮮明にすることができ、画像の奥行き感を向上させることができる。その結果、ユーザに奥行き感を感じさせることができる。
 図16は、第4の実施形態における画像処理装置2100の処理の一例を示すフローチャートである。まず、消失点算出部2103は、画像情報G2iに基づいて、消失点座標を算出する(ステップS2101)。次に、判定部2111は、対象画素に対応する奥行き情報D2が予め決められた閾値を超えるか否か判定する(ステップS2102)。
 対象画素に対応する奥行き情報D2が予め決められた閾値を超える場合(ステップS2102 YES)、距離算出部2112は、対象画素と消失点との距離を算出する(ステップS2103)。次に、強度算出部2113は、対象画素と消失点との距離に基づいて、画像処理強度S2を算出する(ステップS2104)。
 一方、ステップS2102において、対象画素に対応する奥行き情報D2が予め決められた閾値以下の場合(ステップS2102 NO)、強度算出部2113は、奥行き情報D2に基づいて画像処理強度S2を算出し(ステップS2105)、ステップS2106に遷移する。
 次に、ステップS2106において、強度算出部2113は、フレーム内の全ての画素について画像処理強度S2を算出したか否か判定する(ステップS2106)。フレーム内の全ての画素について画像処理強度S2を算出していない場合(ステップS2106 NO)、強度算出部2113は、判定部2111に対し対象画素の次の画素を判定するよう要求し(ステップS2107)、ステップS2102に遷移する。
 一方、ステップS2106において、フレーム内の全ての画素について画像処理強度S2を算出した場合(ステップS2106 YES)、画像処理部2102は、各画素における画像処理強度S2に従って、その画素における画像情報G2iに対して画像処理を行う(ステップS2108)。以上で、本フローチャートの処理を終了する。
 以上に説明したように、本実施形態の画像処理装置2100は、奥行き情報D2及び対象画素と消失点との距離に基づいて、画像処理強度S2を決定する。これにより、画像処理装置2100は、決定した画像処理強度S2で画像に対して画像処理を行うので、画像の遠景を鮮明にすることができ、画像の奥行き感を向上させることができる。その結果、ユーザに奥行き感を感じさせることができる。
 [第5の実施形態]
 図17は、第5の実施形態における撮像装置2301の概略ブロック図である。なお、図9と共通する要素には同一の符号を付し、その具体的な説明を省略する。撮像装置2301は、撮像部2200と、撮像部2201と、画像処理装置2100aと、画像表示部2203と、画像記憶部2204とを備える。図17の画像処理装置2100aの構成は、図9の第4の実施形態の画像処理装置2100の構成に対して、視差算出部2202が追加されたものになっている。
 撮像部2200および撮像部2201の2つの撮像装置は、互いに平行に配置されている。
撮像部2200および2201はレンズモジュールとCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサなどで構成される。
 撮像部2200は被写体を撮像し、撮像することにより得られた第1画像情報を視差算出部2202に出力する。
 同様に、撮像部2201は被写体を撮像し、撮像することにより得られた第2画像情報を視差算出部2202に出力する。
 視差算出部2202は、入力画像と、入力画像とは視点の異なる画像とに基づき、入力画像の各画素に対応する視差を算出し、算出した視差に基づいて奥行き情報D2を決定する。
ここで、視差は2つの画像間の被写体のずれ量である。具体的には、例えば、視差算出部2202は、撮像部2200から入力された第1画像情報と撮像部2201から入力された第2画像情報とを用いて、ブロックマッチングにより、第1画像情報の各画素に対応する視差値を算出する。
 ここで、撮影された被写体までの距離Zと視差dの関係はd=f×B/Zで表される。
fは撮像部の焦点距離であり、Bは2つの撮像部間の距離である基線長である。上述の距離Zと視差dの関係式から、距離Zと視差dとには相関がある。本実施形態において、画像処理装置2100aは、視差dに基づいて奥行き情報D2を算出する。
 図18は、距離Zと視差dとの関係を示した図である。同図に示すように、距離Zと視差dとは反比例の関係にあり、線形的な関係ではない。そこで、視差算出部2202は、距離との関係が線形となるように視差dを変換し、変換後の値を奥行き情報D2として利用する。具体的には、例えば、視差算出部2202は、算出した視差dの逆数(1/d)を算出し、算出した視差dの逆数を奥行き情報D2とする。そして、視差算出部2202は、算出した奥行き情報D2を、画像処理強度決定部2101に出力する。
 これにより、画像処理装置2100aは、距離に応じた画像処理強度S2を適用することができるため好適である。なお、視差の変換は、距離と完全に線形の関係にする必要はなく、それに近い変換であればよい。
 また、視差算出部2202は、算出した視差dをそのまま奥行き情報D2としてもよい。その場合、奥行き情報D2は被写体までの距離が遠いほど小さく、距離が近いほど大きくなる。そのため、画像処理強度決定部2101は、奥行き情報D2の値が小さくなるほど画像処理強度S2を大きくすればよい。これにより、画像処理強度決定部2101は、奥行き情報D2が奥を示すほど画像処理強度S2を大きくすることができる。
 画像処理強度決定部2101は、視差算出部2202から入力された奥行き情報D2と消失点算出部2103から入力された消失点座標とに基づいて、画像処理強度S2を決定する。画像処理部2102は、画像処理強度決定部2101が決定した画像処理強度S2で画像処理を行う。画像処理部2102は画像処理により得られた出力画像情報を、画像表示部2203に表示させたり、画像記憶部2204に記憶させたりする。
 以上に説明したように、本実施形態の撮像装置2301によれば、奥行き情報D2及び画像処理の対象画素と消失点との距離に基づいて、対象画素における画像処理強度S2を決定することにより、奥行き感を向上した高画質な画像を生成することができる。
 なお、本実施形態では、撮像部を2つ備えた撮像装置2301について説明したが、複数の画像から視差情報を算出する方法でも同様の効果が得られ、例えば、1回目の撮影位置から左右方向へ移動して2回目の撮影を行うことで実現できる。また、視差算出部2202に代えて後述する奥行き情報算出部を備えるようにしてもよい。
[第6の実施形態]
 図19は、第6の実施形態における表示装置2302の概略ブロック図である。なお、図9と共通する要素には同一の符号を付し、その具体的な説明を省略する。表示装置2302は、画像処理装置2100bと、画像表示部2203とを備える。図19の画像処理装置2100bの構成は、図9の第4の実施形態の画像処理装置2100の構成に対して、奥行き情報算出部2205が追加されたものになっている。
 奥行き情報算出部2205は、表示装置の外部から入力される画像情報G2iから奥行き情報D2を推定する。ここで、奥行き情報D2の推定には、従来の様々な推定方式が使用できる。例えば、奥行き情報算出部2205は、色情報、消失点解析、領域分割、オブジェクト抽出などにより2次元画像から3次元画像を生成することにより、奥行き情報D2を生成する。奥行き情報算出部2205は、推定した奥行き情報D2を画像処理強度決定部2101に出力する。
 画像処理部2102は、第4の実施形態の画像処理部2102と同様の機能を有するが、以下の点が異なる。画像処理部2102は、画像処理後の画像を画像表示部2203に表示させる。
 以上に説明したように、本実施形態の表示装置2302は、奥行き情報D2及び画像処理の対象画素と消失点との距離に基づいて、対象画素における画像処理強度S2を決定する。これにより、表示装置2302は、奥行き感を向上した高画質な画像を表示することができる。
 なお、本実施形態では、奥行き情報算出部2205を備えた表示装置2302について説明したが、立体映像などの情報をもった画像情報が入力された場合には、立体映像から視差を算出し、視差に基づいて奥行き情報D2を算出し、算出した奥行き情報D2に基づいて画像処理強度を決定してもよい。その場合にも表示装置2302は、上記と同様の効果が得られる。また、表示装置2302に画像情報とともに奥行き情報D2が入力される場合には、表示装置2302は、奥行き情報D2を直接画像処理強度決定部2101へ入力するようにしてもよい。
 また、各実施形態の画像処理装置(2100、2100a又は2100b)は、対象画素と消失点との距離及び奥行き情報D2に基づいて、画像処理強度S2を決定したが、これに限ったものではない。
 画像処理装置(2100、2100a又は2100b)は、画像中で予め決められた位置より上に位置する対象画素に対して、その対象画素と消失点との距離に応じて、対象画素における画像処理強度S2を決定してもよい。また、画像処理装置(2100、2100a又は2100b)は、特徴量抽出により、海、空または山などの背景となる背景画像領域を抽出し、背景画像領域に対して、対象画素と消失点との距離に応じて、画像処理強度S2を決定してもよい。
 なお、複数の装置を備えるシステムが、各実施形態の画像処理装置(2100、2100a又は2100b)の各処理を、それらの複数の装置で分散して処理してもよい。
 また、本実施形態の画像処理装置(2100、2100a又は2100b)の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、画像処理装置(2100、2100a又は2100b)に係る上述した種々の処理を行ってもよい。
[第7の実施形態]
 以下、本発明の実施形態について、図面を参照して詳細に説明する。なお、各図における表現は理解しやすいように誇張して記載しており、実際のものとは異なる場合がある。
図20は、第7の実施形態における画像処理装置3100の概略ブロック図である。画像処理装置3100は、画像処理強度決定部3101と、画像処理部3102と、奥行き情報解析部3103とを備える。
 画像処理装置3100には、入力画像である画像情報G3iと、画像情報G3iに対応した奥行き情報D3が入力される。ここで、画像情報は、画像を構成する画素の階調値などの値である。また、奥行き情報は、画像情報に対応した奥行きを示す情報であり、本実施形態では、奥行き情報の値が大きくなると画像情報内の被写体までの距離が大きいとする。すなわち、8ビットの奥行き情報が入力される場合には、階調値0が最も近景の被写体であり、階調値255が最も遠景の被写体である。
 そして、画像処理装置3100は、奥行き情報D3に基づき、画像情報G3iに対して画像処理を行い、処理結果を出力画像情報G3oとして出力する。
 なお、画像情報G3iは、ビデオ信号など、動画像を表すデータや信号であってもよいし、JPEG(Joint Picture Experts Group)ファイルなど、静止画を表すデータや信号であってもよい。
 奥行き情報解析部3103は、画像情報に対応する奥行き情報D3に基づいて、該奥行き情報D3の頻度分布に関する情報を抽出する。具体的には、例えば、奥行き情報解析部3103は、入力される一つの画像情報に対する奥行き情報D3の頻度分布に基づいて、予め決められた規則によって第一の奥行き情報及び第二の奥行き情報を算出する。ここで、第一の奥行き情報及び第二の奥行き情報は、それぞれ異なる奥行き情報D3の値である。そして、奥行き情報解析部3103は、抽出した奥行き情報D3の頻度分布に関する情報(例えば、第一の奥行き情報及び第二の奥行き情報)を画像処理強度決定部3101に出力する。奥行き情報解析部3103の処理の詳細は後述する。
 画像処理強度決定部3101は、奥行き情報解析部3103が抽出した情報と画像処理装置3100の外部から入力された奥行き情報D3とに基づいて、画像情報の各画素における画像処理強度S3を決定する。画像処理強度決定部3101は、決定した画像処理強度S3を画像処理部3102に出力する。
 画像処理部3102は、画像処理強度決定部3101が決定した各画素における画像処理強度にしたがって、該画素の画像情報に対して画像処理を行う。ここで、画像処理は輪郭強調、コントラスト補正又は彩度補正が好適である。画像処理部3102は、画像処理を行うことにより生成した画像を出力画像情報G3oとして自装置の外部へ出力する。
 なお、画像処理強度決定部3101、画像処理部3102及び奥行き情報解析部3103の各ブロックはFPGA(Field-Programmable Gate Array)などのハードウェア、又は画像処理装置3100に内在するマイコン(図示せず)などにより処理されるソフトウェアにより構成してもよい。
 <奥行き情報解析部3103の処理の詳細>
 続いて、奥行き情報解析部3103の処理の詳細について説明する。
 図21は、第7の実施形態における奥行き情報解析部3103の概略ブロック図である。奥行き情報解析部3103は、頻度分布算出部3111と、第一の奥行き情報算出部3112と、第二の奥行き情報算出部3113とを備える。
 頻度分布算出部3111は、画像処理装置3100の外部から入力された奥行き情報D3の頻度分布を算出し、算出した頻度分布を第一の奥行き情報算出部3112と第二の奥行き情報算出部3113とに出力する。
 第一の奥行き情報算出部3112は、頻度分布算出部3111から入力された頻度分布において、頻度が閾値α3以上の範囲で奥行き情報D3が最小となる奥行き情報D3minの値を第一の奥行き情報として算出する。そして、第一の奥行き情報算出部3112は、算出した第一の奥行き情報を画像処理強度決定部3101に出力する。
 第二の奥行き情報算出部3113は、頻度分布算出部3111から入力された頻度分布において、頻度が閾値α3以上の範囲で奥行き情報D3が最大となる奥行き情報D3maxの値を第二の奥行き情報として算出する。そして、第二の奥行き情報算出部3113は、算出した第二の奥行き情報を画像処理強度決定部3101に出力する。
 続いて、図22を用いて、奥行き情報解析部3103の処理について説明する。図22は、奥行き情報の頻度分布の一例を示した図である。同図において、横軸が奥行き情報、縦軸が頻度である。同図において、頻度が最大となる奥行き情報D3objが示されている。また、同図において、閾値α3以上の頻度を取る範囲における奥行き情報D3の最小値(以下、範囲最小値という)D3minと、閾値α3以上の頻度を取る範囲における奥行き情報D3の最大値(以下、範囲最大値という)D3maxとが示されている。
 例えば、奥行き情報解析部3103は、図22に示すように、奥行き情報D3の頻度分布(ヒストグラム)を利用して第一の奥行き情報と第二の奥行き情報を算出する。ここで、通常の方式で最大値および最小値を算出すると、頻度が予め決められた閾値α3より小さい場合であっても最大値および最小値として算出されてしまい、奥行き情報にノイズが存在する場合などは誤算出が発生する可能性がある。
 本実施形態において、奥行き情報解析部3103は、一つの奥行き情報の頻度分布において、奥行き情報の頻度が予め決められた閾値以上である範囲で最小の奥行き情報D3を第一の奥行き情報として算出する。また、奥行き情報解析部3103は、一つの奥行き情報の分布において、奥行き情報D3の頻度が予め決められた閾値以上である範囲で最大の奥行き情報D3を第二の奥行き情報として算出する。奥行き情報解析部3103は、算出した第一の奥行き情報と第二の奥行き情報を画像処理強度決定部3101に出力する。
 これにより、奥行き情報解析部3103は、安定して第一の奥行き情報及び第二の奥行き情報を算出することができる。
 また、奥行き情報解析部3103は、頻度の極大値には主要な被写体が存在すると推定することも可能で、例えば、極大値のうち最も頻度の値が大きい奥行き情報(最頻値)D3objには主要な被写体が存在すると推定する。
 さらに、奥行き情報解析部3103は、画像情報G3iを任意の領域(例えば、縦4分割、横4分割で合計16分割の領域)に分割して領域ごとにヒストグラムを作成して、被写体の位置を推定してもよい。その場合、例えば、特定領域に偏って存在する被写体の場合、その被写体は奥行き情報全体のヒストグラムでは極大値として表れないが、その被写体は、分割された領域において、その領域のヒストグラムでは極大値として表れる場合がある。これにより、奥行き情報解析部3103は、画像情報G3i内の各被写体の奥行き情報を推定することができる。
 奥行き情報解析部3103は、このようにして算出された奥行き情報の解析結果を、画像処理強度決定部3101に出力する。
 <画像処理強度決定部3101の処理の詳細>
 図23は、画像処理強度S3と奥行き情報D3との関係の一例を示した図である。同図において、横軸が奥行き情報D3で、縦軸が画像処理強度S3である。同図において奥行き情報D3の値が大きくなるに従って、線形に画像処理強度S3が大きくなる特性が示されている。被写体の連続性を考慮すると、画像処理強度S3は奥行き情報D3に対して単調増加の関係が好適である。
 図23では、奥行き情報D3が取り得る範囲の最大値(例えば255)にあるときに、画像処理強度が最も大きくなるようにし、奥行き情報D3が取り得る範囲の最小値(例えば0)にあるときに、画像処理強度S3が最も小さくなるようにしている。
 しかし、実際に入力される画像情報は図22に示したように、奥行き情報の階調値の取り得る範囲のうち、一部の範囲に分布している。そのため、画像処理による効果が十分に得られない可能性がある。
 そこで、画像処理強度決定部3101は、奥行き情報解析部3103が算出した第一の奥行き情報と第二の奥行き情報を利用して画像処理強度を決定する。画像処理強度決定部3101は、第一の奥行き情報と第二の奥行き情報との間の所望の範囲で、画像処理強度を変化させる。
 図24は、奥行き情報に対する画像処理強度の設定の一例を示す図である。同図において、横軸が奥行き情報D3で、縦軸が画像処理強度S3である。同図において、範囲最小値D3minで画像処理強度S3がβ31であり、範囲最大値D3maxで画像処理強度S3がβ32であることが示されている。また、同図において、範囲最小値D3minから範囲最大値D3maxまでの範囲で、奥行き情報の値が大きくなるに従って、線形に画像処理強度S3が大きくなる特性が示されている。
 なお、奥行き情報D3がD3min以下では、画像処理強度S3はβ31で一定とし、奥行き情報D3がD3max以下では、画像処理強度S3はβ32で一定とする。
 画像処理強度決定部3101は、例えば、図24に示すような特性により画像処理強度を決定する。具体的には、画像処理強度決定部3101は、画像処理強度S3をβ31からβ32で変化させて画像処理を行う場合、範囲最小値D3minでβ31となり範囲最大値D3maxでβ32となるように設定し、その間の奥行き情報D3の画像処理強度S3を連続的に設定する。これにより、画像処理強度決定部3101は、奥行き情報D3と画像処理強度S3の対応関係を設定する。そして、画像処理強度決定部3101は、設定した奥行き情報D3と画像処理強度S3の対応関係に、各画素における奥行き情報D3を適用することにより、各画素における画像処理強度S3を算出する。
 ここで、本実施形態の例では、範囲最小値D3minを第一の奥行き情報とし、範囲最大値D3maxを第二の奥行き情報とする。その場合、画像処理強度決定部3101は、第二の奥行き情報において画像処理強度S3が最も大きくなり、第一の奥行き情報において画像処理強度が最も小さくなり、第一の奥行き情報と第二の奥行き情報の間で奥行き情報D3が大きくなるほど画像処理強度S3が大きくなるように画像処理強度を決定する。
 <画像処理部3102の処理の詳細>
 図25と図26を用いて、画像処理装置3100に入力される画像情報G3iと奥行き情報D3を説明する。図25は、第7の実施形態における画像処理装置3100に入力される画像情報G3iの例を示す図である。同図において、近景に存在する被写体B3の画像領域3072と、被写体B3よりも遠方に位置する被写体A3の画像領域3071とが示されている。
 図26は、図25に対応した奥行き情報D3の例を示す図である。同図の各画素において、奥行き情報が白から黒までのグレースケールで表されており、白色になるほど奥行き情報が小さい。同図において、被写体A3の画像領域に相当する奥行き情報(被写体A3の奥行き情報)3081と、被写体B3の画像領域に相当する奥行き情報(被写体B3の奥行き情報)3082とが示されている。被写体B3の奥行き情報3082が被写体A3の奥行き情報3081よりも奥行き情報D3が小さいことが示されている。これは、被写体B3が被写体A3よりも手前に位置することを意味する。
 図25のようなシーンが画像情報として入力され、対応する奥行き情報が図26として入力される場合、主要な被写体は近景に配置される被写体B3であり、背景が遠景に配置される被写体A3などである。遠景の被写体は光の散乱などにより輪郭が不鮮明になるため、画像処理部3102における処理は、被写体までの距離が大きくなるほど輪郭強調の強度を大きくするのが好適である。また、近景である被写体B3は鮮明に撮影されているため、輪郭強調の強度を大きくするとノイズ感が目立ち画質が劣化してしまう。
 そこで、画像処理部3102は、画像処理強度決定部3101が決定した画像処理強度S3に基づいて、例えば、画像情報G3iの輪郭を強調する。具体的には、画像処理部3102は、画像処理強度S3が大きいほど、画像情報G3iの輪郭を強く強調するように輪郭強調処理を行う。輪郭強調処理とは、例えば、隣接する画素との明るさ値の差が、より大きくなるように明るさ値を変換する処理である。このとき、明るさ値の差が大きいほど、輪郭が強く強調される。これらは、4近傍や8近傍の周辺画素を考慮した空間フィルタにより実現することができる。例えば、対象画素の画素値がP30、周辺画素の画素値がP31、P32、P33、P34である4近傍を考慮する場合、画像処理後の画素値P3は、P3=P30+(P30×4-P31-P32‐P33‐P34)×S3として算出することができる。ここで、S3は画像処理強度決定部3101により算出される画像処理強度である。
 これにより、画像処理部3102は、画像処理強度S3が大きくなるほど、画像情報G3iの輪郭をより強調することができ、鮮明な画像を生成することができる。その結果、画像処理装置3100は、画像の遠景を鮮明にすることにより、その画像を見たユーザが近景との距離感を感じやすくすることで、画像の奥行き感を向上させることができる。その結果、画像処理装置3100は、ユーザに奥行きを感じさせることができる。
 しかも、画像処理装置3100は、奥行き情報D3の頻度分布に基づいて(特に奥行き情報D3の頻度分布に閾値を設定することで)画像処理強度S3を変更する奥行き情報D3の範囲を設定し、設定した奥行き情報D3の範囲で画像処理強度が変化させることができるので、適切に画像の奥行き感を強調することができる。
 さらに、遠景では、光の散乱などによりコントラストも低下してしまう。そこで、画像処理部3102における処理は、トーンカーブなどによりコントラストを強調するコントラスト補正をしてもよい。近景である被写体C3は十分なコントラストで十分な階調により撮影されており、過渡のコントラスト補正は階調数の減少が発生して画質が劣化してしまう。
 そこで、画像処理部3102は、画像処理強度S3が大きいほど、画像情報G3iのコントラストが強くなるようにコントラスト補正処理を行ってもよい。ここで、コントラスト補正処理とは、例えば、明るさ値が大きければ、明るさ値がより大きくなるように補正し、明るさ値が小さければ、明るさ値がより小さくなるように補正する処理である。このとき、補正する量がより大きいほど、より強いコントラスト補正処理となる。これらは、入力される値に対する補正した値を定義したLUTにより実現することができる。
 コントラスト補正処理とは、例えば、明るさ値が大きければ、明るさ値がより大きくなるように補正し、明るさ値が小さければ、明るさ値がより小さくなるように補正する処理である。このとき、補正する量がより大きいほど、より強いコントラスト補正処理となる。これらは、入力される値に対する補正した値を定義したLUTにより実現することができる。
 これにより、画像処理部3102は、コントラスト感が向上した画像を生成することができる。その結果、画像処理装置3100は、画像の遠景を鮮明にすることにより、画像の奥行き感を向上させることができる。その結果、画像処理装置3100は、その画像を見たユーザに対し近景との距離感を感じやすくさせることができるので、ユーザに奥行きを感じさせることができる。
 また、記憶色や鮮やかさにより画像の彩度は高い方が好まれ、実物のように感じる。しかしながら、人物の肌などは肌色である必要があり、過渡の彩度強調は違和感が発生するため画質劣化となってしまう。そこで、画像処理部3102は、画像処理強度決定部3101が決定した画像処理強度S3に基づいて、画像情報G3iに対して彩度補正を行ってもよい。
ここで、彩度補正処理は、HSV空間での彩度を乗算または加算したり、入力される画素値を行列による線形変換したりすることにより実現することができる。これにより、画像処理部3102は、奥行き情報D3に基づいて彩度を変化させることができる。その結果、画像処理部3102は、画像の遠景の彩度を強調することで、違和感無く彩度が高められた画像を生成することができる。
 これにより、画像処理装置3100は、画像の遠景の彩度を高くして、遠景を鮮明にすることにより、近景との距離感を感じやすくさせることができるので、画像の奥行き感を向上させることができる。その結果、画像処理装置3100は、その画像を見たユーザに対しユーザに奥行きを感じさせることができる。
 図27は、第7の実施形態における画像処理装置3100の処理の一例を示すフローチャートである。まず、奥行き情報解析部3103は、画像情報G3iから範囲最小値D3minを算出する(ステップS3101)。次に、奥行き情報解析部3103は、画像情報G3iから範囲最大値D3maxを算出する(ステップS3102)。次に、画像処理強度決定部3101は、範囲最小値D3minと範囲最大値D3maxに基づいて、奥行き情報D3と画像処理強度S3との対応関係を設定する(ステップS3103)。
 次に、画像処理強度決定部3101は、設定した対応関係に、各画素における奥行き情報D3を適用することにより、各画素における画像処理強度S3を算出する(ステップS3104)。次に、画像処理部3102は、画像処理強度決定部3101が決定した各画素における画像処理強度S3に基づいて、その画素の画像情報G3iに対して画像処理を行う。以上で、本フローチャートの処理を終了する。
 以上により、画像処理強度決定部3101は、画像情報G3iの奥行き情報D3の範囲で奥行き情報D3に応じて画像処理強度S3を決定することができる。画像処理部3102は、画像情報に含まれる全ての画像領域に対して、奥行き情報D3に応じた画像処理強度S3で画像処理を行うので、遠景を鮮明にすることができる。その結果、画像処理装置3100は、その画像を見たユーザに対し近景との距離感を感じやすくさせることができるので、ユーザに奥行きを感じさせることができる。
 <変形例1>
 さらに、画像処理強度決定部3101は、前景の主要被写体の奥行き情報D3を利用して画像処理強度S3を決定してもよい。ここで、画像情報G3iは主要被写体を中心とした画像であり、主要被写体からの奥行き情報D3の違いに対して画像処理をすることにより、主要被写体が強調される画像処理を行うことができる。
 図28は、主要被写体以上に奥に位置する被写体に対して画像処理強度を行う場合における、奥行き情報に対する画像処理強度の設定の一例を示す図である。同図において、横軸が奥行き情報D3で、縦軸が画像処理強度S3である。また、同図において、D3minは範囲最小値であり、D3maxは範囲最大値である。同図において、主要被写体の奥行き情報D3objで画像処理強度S3がβ31であり、範囲最大値D3maxで画像処理強度S3がβ32であることが示されている。また、同図において、主要被写体の奥行き情報D3objから範囲最大値D3maxまでの範囲で、奥行き情報の値が大きくなるに従って、線形に画像処理強度S3が大きくなる特性が示されている。
 奥行き情報解析部3103は、奥行き情報D3の頻度分布から主要被写体の奥行き情報D3objと奥行き情報の最大値D3maxを抽出し、抽出した主要被写体の奥行き情報D3objと奥行き情報の最大値D3maxを画像処理強度決定部3101に出力する。
 画像処理強度決定部3101は、画像処理強度S3をβ31からβ32で変化させて画像処理を行う場合、画像処理強度S3は、奥行き情報D3が主要被写体の奥行き情報D3objでβ31となり範囲最大値D3maxでβ32となるように設定し、その間の奥行き情報D3に対応する画像処理強度S3を連続的に設定する。
 すなわち、奥行き情報解析部3103は、奥行き情報D3の頻度分布から第一の奥行き情報および第二の奥行き情報に対応する奥行き情報D3を抽出する。ここで、本変形例1では、第二の奥行き情報が範囲最大値である。また、例えば、第一の奥行き情報が主要被写体の奥行き情報である。そして、画像処理強度決定部3101は、第二の奥行き情報において画像処理強度が最も大きくなり、第一の奥行き情報において画像処理強度が最も小さくなり、奥行き情報が大きくなると画像処理強度が大きくなるように画像処理強度を決定する。
 これにより、画像処理強度決定部3101は、画像情報の主要被写体の奥行き情報D3objに応じた画像処理強度を割り当てる。これにより、画像処理部3102は、主要被写体以上に奥に位置する被写体の画像領域に対して、奥行き情報に応じた画像処理強度で画像処理を行うことができるので、ユーザに奥行きを感じさせることができる。
 ここで、奥行き情報解析部3103は、主要被写体が人物である場合には、顔認識技術を組み合わせることにより、主要被写体の奥行き情報D3objを取得するようにしてもよい。例えば、顔認識により顔を検出したときに、検出した顔の領域に対応した奥行き情報D3を主要被写体の奥行き情報D3objとする。このとき、奥行き情報解析部3103は、検出した顔の領域に対応した奥行き情報D3を所定の領域の平均値とする。これにより、奥行き情報解析部3103は、平均値を取ることより、奥行き情報D3に含まれるノイズなどの影響を低減することができる。
 <変形例2>
 さらに、画像処理強度決定部3101は、主要被写体の奥行き情報D3objと奥行き情報の最大値D3maxの間の奥行き情報D3を起点として範囲最大値D3maxに向かって画像処理強度S3を大きくしてもよい。ここで、人物や動物などの主要被写体は厚みを持っている。そのため、奥行き情報解析部3103で算出された主要被写体の奥行き情報D3objは、主要被写体の画像領域に含まれる各画素に対応する奥行き情報D3のうちのいずれかの奥行き情報D3である。
 したがって、主要被写体より奥に位置する被写体から画像処理を開始するためには、画像処理強度決定部3101は、算出された主要被写体の奥行き情報D3objより予め決められた値だけ大きい奥行き情報D3を起点として範囲最大値D3maxに向かって画像処理強度S3を大きくしてもよい。その際、例えば、画像処理強度決定部3101は、図29のような奥行き情報S3と画像処理強度S3の関係を使用して、画像処理強度S3を決定してもよい。
 図29は、主要被写体より奥に位置する被写体に対して画像処理強度を行う場合における、奥行き情報に対する画像処理強度の設定の一例を示す図である。同図において、横軸が奥行き情報D3で、縦軸が画像処理強度S3である。また、同図において、D3minは範囲最小値であり、D3maxは範囲最大値であり、D30は主要被写体の奥行き情報D3objと奥行き情報の最大値D3maxの間に位置する奥行き情報(以下、中間奥行き情報と称する)である。同図において、中間奥行き情報D30で画像処理強度S3がβ31であり、範囲最大値D3maxで画像処理強度S3がβ32であることが示されている。また、同図において、中間奥行き情報D30から範囲最大値D3maxまでの範囲で、奥行き情報D3の値が大きくなるに従って、線形に画像処理強度S3が大きくなる特性が示されている。
 奥行き情報解析部3103は、範囲最大値D3maxと中間奥行き情報D30とを算出する。
具体的には、例えば、奥行き情報解析部3103は、主要被写体の奥行き情報D3objに所定値だけ加算することにより中間奥行き情報D30を算出する。そして、奥行き情報解析部3103は、算出した範囲最大値D3maxと中間奥行き情報D30とを画像処理強度決定部3101に出力する。
 なお、奥行き情報解析部3103は、主要被写体の奥行き情報D3objに所定値だけ乗算すること、主要被写体の奥行き情報D3objと範囲最大値D3maxの平均値とすること、または主要被写体の奥行き情報D3objと範囲最大値D3maxと予め決められた割合で混合した値とすること等により中間奥行き情報D30を算出してもよい。
 画像処理強度決定部3101は、画像処理強度S3をβ31からβ32で変化させて画像処理を行う場合、中間奥行き情報D30でβ31となり範囲最大値D3maxでβ32となるように設定し、その間の奥行き情報D3に対する画像処理強度S3を連続的に設定する。
 すなわち、奥行き情報解析部3103は、奥行き情報D3の頻度分布から第一の奥行き情報および第二の奥行き情報に対応する奥行き情報D3を抽出する。ここで、本変形例2では、第二の奥行き情報が範囲最大値D3maxであり、第一の奥行き情報が中間奥行き情報D30である。そして、画像処理強度決定部3101は、第二の奥行き情報において画像処理強度S3が最も大きくなり、第一の奥行き情報において画像処理強度S3が最も小さくなり、第一の奥行き情報と第二の奥行き情報の範囲で奥行き情報D3が大きくなると画像処理強度S3が大きくなるように画像処理強度S3を決定する。
 これにより、画像処理部3102は、主要被写体より奥に位置する被写体に対応する画像領域に対して、奥行き情報D3に応じた画像処理強度S3で画像処理を行うことができるので、ユーザに奥行きを感じさせることができる。
 なお、画像処理強度決定部3101は、上述した図23の特性、図24の特性(本実施形態の特性)、図28の特性(変形例1の特性)及び図29の特性(変形例2の特性)をシーンによって選択するようにしても良い。例えば、画像処理強度決定部3101は、近景の被写体が存在しない場合又は被写体として人物が存在しない場合などは、図23の特性を利用して画像処理強度S3を決定してもよい。また、画像処理強度決定部3101は、近景の被写体や人物が被写体として存在する場合には、図29の特性を利用してもよい。さらに、画像処理強度決定部3101は、視差範囲が一部に偏っている場合(例えば、近景のみ、遠景のみの画像の場合)、画像処理強度S3を奥行き情報D3によらず一律に予め決められた値にしてもよい。これにより、画像処理装置3100は、シーンに応じて画像処理強度S3の決定方式を切り替えるので、シーンに応じた適切な画像処理を行うことができる。
 ここで、上述の画像処理装置3100の実施例は、1枚の画像に相当する画像情報G3iの画像処理について説明したが動画についても適用することができ、同様の効果を得ることができる。動画での処理においては、画像処理強度決定部3101は、奥行き情報解析部3103の算出結果を、解析対象フレームに対して時間的に前のフレームの結果も考慮する。
 例えば、奥行き情報解析部3103が、ある対象フレームで奥行き情報D3を解析した結果、範囲最大値がD3max1で、範囲最小値がD3min1で、主要被写体の奥行き情報がD3obj1であった場合で、更に次の場合について説明する。次の場合とは、奥行き情報解析部3103がその対象フレームの直前のフレームで奥行き情報D3を解析した結果、範囲最大値がD3max0で、範囲最小値がD3min0で、主要被写体の奥行き情報がD3obj0であった場合である。
 その場合、奥行き情報解析部3103は、最終的に出力する範囲最大値として(D3max1+D3max0)/2を、最終的に出力する範囲最小値として(D3min1+D3min0)/2を、最終的に出力する主要被写体の奥行き情報として(D3obj1+D3obj0)/2を算出する。そして、奥行き情報解析部3103は、算出した上記各パラメータを画像処理強度決定部3101に出力する。これにより、画像処理強度決定部3101は、奥行き情報D3に含まれるノイズによる各パラメータのフレーム間の変動を低減することができ、出力画像情報G3oが示す画像のちらつきを低減することができる。
 なお、各パラメータの算出は平均値に限らず、奥行き情報解析部3103は、中央値でもよく、各パラメータで別々の算出方式で算出してもよい。具体的には、例えば、奥行き情報解析部3103は、最終的に出力する範囲最小値を直前フレームと対象フレームにおける範囲最小値の平均値で算出し、最終的に出力する主要被写体の奥行き情報は直前フレームと対象フレームにおける主要被写体の奥行き情報の中央値で算出してもよい。
 また、対象フレームの各パラメータと平均をとるフレームは直前フレームに限らず、複数フレームだけ前のフレームでもよいし、対象フレームより後のフレームでもよく、対象フレームとは異なるフレームであればよい。また、奥行き情報解析部3103は、二つのフレームで平均をとったが、これに限らず、三つ以上のフレームで平均をとってもよい。さらに、フレーム間で画像のシーンが大きく変わらない場合は、直前までの数フレームを、対象フレームの解析結果とすることで、画像処理の遅延を低減することができる。
 すなわち、奥行き情報解析部3103は、対象フレームにおける奥行き情報の頻度分布に関する情報と、該対象フレームより前のフレームにおける少なくとも一つ以上の奥行き情報の頻度分布に関する情報を算出する。ここで、頻度分布に関する情報とは、頻度分布から算出される情報であり、例えば、範囲最小値、範囲最大値又は主要被写体の奥行き情報または中間奥行き情報である。そして、画像処理強度決定部3101は、奥行き情報解析部3103が算出した複数の奥行き情報の頻度分布に基づいて、画像情報の各画素における画像処理強度を決定すればよい。
 なお、奥行き情報解析部3103は、画像情報の平均輝度、輪郭強度又は色彩分布などが大きく変化した場合には、シーンが変化したと判定してもよい。その場合、奥行き情報解析部3103は、前のフレームの計算結果を用いずに、対象フレームの計算結果だけを利用して各パラメータを算出してもよい。これにより、画像処理装置3100は、シーンが変化した際には、前のフレームのパラメータを参照しないので、前のシーンのパラメータによる影響を受けずに、現在のシーンの奥行き情報D3に応じた画像処理強度S3で画像処理を行うことができる。
 以上に説明したように、本実施形態の画像処理装置3100は、奥行き情報D3の頻度分布から画像処理強度を変化させる起点となる第一の奥行き情報を抽出する。画像処理装置3100は、抽出した第一の奥行き情報から範囲最大値に向かって画像処理強度S3を大きくするように、各画素における画像処理強度S3を決定する。そして、画像処理装置3100は、画素毎に決定した画像処理強度S3で、当該画素に対して予め決められた画像処理を行う。
これにより、画像処理装置3100は、適切な奥行き情報D3の範囲で画像処理強度S3を変化させることで、遠景の画像領域を鮮明にすることができ、奥行き感を向上した高画質な画像を生成することができる。このことから、画像処理装置3100は、ユーザが奥行きを感じることができる画像を生成することができる。
 さらに、画像処理強度S3を決定するときに、画像処理を行う画素位置を考慮することで、遠景においても奥行き感を向上した画像を生成できるようになる。
[第8の実施形態]
 図30は、第8の実施形態における撮像装置3301の概略ブロック図である。なお、図20と共通する要素には同一の符号を付し、その具体的な説明を省略する。撮像装置3301は、撮像部3200と、撮像部3201と、画像処理装置3100aと、画像表示部3203と、画像記憶部3204とを備える。また、図30の画像処理装置3100aの構成は、図20の第7の実施形態の画像処理装置3100の構成に対して、視差算出部3202が追加されたものになっている。
 撮像部3200および撮像部3201の2つの撮像装置は、互いに平行に配置されている。
撮像部3200および3201はレンズモジュールとCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサなどで構成される。
 撮像部3200は被写体を撮像し、撮像することにより得られた第1画像情報を視差算出部3202に出力する。同様に、撮像部3201は被写体を撮像し、撮像することにより得られた第2画像情報を視差算出部3202に出力する。
 視差算出部3202は、入力画像と、入力画像とは視点の異なる画像とに基づき、入力画像の各画素に対応する視差を算出し、算出した視差に基づいて奥行き情報D3を決定する。
ここで、視差は2つの画像間の被写体のずれ量である。具体的には、例えば、視差算出部3202は、撮像部3200から入力された第1画像情報と撮像部3201から入力された第2画像情報とを用いて、ブロックマッチングにより、第1画像情報の各画素に対応する視差値を算出する。
 ここで、撮影された被写体までの距離Zと視差dの関係はd=f×B/Zで表される。
fは撮像部3200及び撮像部3201の焦点距離であり、Bは撮像部3200と撮像部3201との間の距離である基線長である。上述の距離Zと視差dの関係式から、距離Zと視差dとには相関がある。本実施形態において、画像処理装置3100aは、視差dに基づいて奥行き情報D3を算出する。
 図31は、距離Zと視差dとの関係を示した図である。同図に示すように、距離Zと視差dとは反比例の関係にあり、線形的な関係ではない。そこで、視差算出部3202は、距離との関係が線形となるように視差dを変換し、変換後の値を奥行き情報D3として利用する。具体的には、例えば、視差算出部3202は、算出した視差dの逆数(1/d)を算出し、算出した視差dの逆数を奥行き情報D3とする。そして、視差算出部3202は、算出した奥行き情報D3を、画像処理強度決定部3101に出力する。
 なお、視差の変換は、距離と完全に線形の関係にする必要はなく、それに近い変換であればよい。
 また、視差算出部3202は、算出した視差dをそのまま奥行き情報D3としてもよい。その場合、奥行き情報D3は被写体までの距離が遠いほど小さく、距離が近いほど大きくなる。そのため、画像処理強度決定部3101は、奥行き情報D3の値が小さくなるほど画像処理強度S3を大きくすればよい。これにより、画像処理強度決定部3101は、奥行き情報D3が奥を示すほど画像処理強度S3を大きくすることができる。
 画像処理強度決定部3101は、視差算出部3202から入力された奥行き情報D3に基づいて、画像処理強度S3を決定する。画像処理部3102は、画像処理強度決定部3101が決定した画像処理強度S3で撮像部3200から入力された第一画像情報に対して画像処理を行う。画像処理部3102は画像処理により得られた出力画像情報G3oを、画像表示部3203に表示させたり、画像記憶部3204に記憶させたりする。
 以上に説明したように、本実施形態の撮像装置3301は、奥行き情報D3の頻度分布から画像処理強度S3を変化させる起点となる第一の奥行き情報を抽出する。そして、撮像装置3301は、抽出した第一の奥行き情報から範囲最大値D3maxに向かって画像処理強度を大きくするように、各画素における画像処理強度S3を決定する。これにより、撮像装置3301は、適切な奥行き情報D3の範囲で画像処理強度S3を変化させることで、遠景の画像領域を鮮明にすることができ、奥行き感を向上した高画質な画像を生成することができる。
このことから、撮像装置3301は、ユーザが奥行きを感じることができる画像を生成することができる。
 しかも、画像処理装置3100は、奥行き情報D3の頻度分布に基づいて(特に奥行き情報D3の頻度分布に閾値を設定することで)画像処理強度S3を変更する奥行き情報D3の範囲を設定し、設定した奥行き情報D3の範囲で画像処理強度が変化させることができるので、適切に画像の奥行き感を強調することができる。
 なお、本実施形態では、撮像部を2つ備えた撮像装置3301について説明したが、複数の画像から視差情報を算出する方式でも同様の効果が得られ、例えば、1回目の撮影位置から左右方向へ移動して2回目の撮影を行うことで実現できる。また、視差算出部3202に代えて後述する奥行き情報算出部を備えるようにしてもよい。
[第9の実施形態]
 図32は、第9の実施形態における表示装置3302の概略ブロック図である。なお、図20と共通する要素には同一の符号を付し、その具体的な説明を省略する。表示装置3302は、画像処理装置3100bと、画像表示部3203とを備える。図32の画像処理装置3100bの構成は、図20の第7の実施形態の画像処理装置3100の構成に対して、奥行き情報算出部3205が追加されたものになっている。
 奥行き情報算出部3205は、自装置の外部から入力される画像情報G3iから奥行き情報D3を推定する。ここで、奥行き情報D3の推定には、従来の様々な推定方式が使用できる。
例えば、奥行き情報算出部3205は、色情報、消失点解析、領域分割、オブジェクト抽出などにより2次元画像から3次元画像を生成することにより、奥行き情報D3を生成する。
奥行き情報算出部3205は、推定した奥行き情報D3を画像処理強度決定部3101に出力する。
 画像処理部3102は、第7の実施形態の画像処理部3102と同様の機能を有するが、以下の点が異なる。画像処理部3102は、画像処理により得られた出力画像を画像表示部3203に表示させる。
 これにより、表示装置3302は、適切な奥行き情報D3の範囲で画像処理強度S3を変化させることで、遠景の画像領域を鮮明にすることができ、奥行き感を向上した高画質な画像を生成することができる。このことから、表示装置3302は、ユーザが奥行きを感じることができる画像を表示することができる。
 なお、本実施形態では、奥行き情報算出部3205を備えた表示装置3302について説明したが、立体映像などの情報をもった画像情報が入力された場合には、立体映像から視差を算出し、視差に基づいて奥行き情報D3を算出し、算出した奥行き情報D3に基づいて画像処理強度S3を決定してもよい。その場合にも表示装置3302は、上記と同様の効果が得られる。また、表示装置3302に画像情報とともに奥行き情報D3が入力される場合には、表示装置3302は、奥行き情報D3を直接、画像処理強度決定部3101へ入力するようにしてもよい。
 なお、図1における画像処理装置1100、図6における画像処理装置1100a、図8における画像処理装置1100b、図9における画像処理装置2100、図17における画像処理装置2100a、図19における画像処理装置2100b、図20における画像処理装置3100、図30における画像処理装置3100a、図32における画像処理装置3100bのいずれかの機能あるいはその一部機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより実現するようにしてもよいし、専用のハードウェアにより実現するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
 以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 本発明は、遠景においても奥行き感を向上した画像を生成する画像処理装置、撮像装置および表示装置などに適用することができる。
 1100、1100a、1100b  画像処理装置
 1101  画像処理強度決定部
 1102  画像処理部
 1200、1201  撮像素子
 1202  視差算出部
 1203  画像表示部
 1204  画像記憶部
 1205  奥行き情報算出部
 1300  画像撮像装置
 1301  画像表示装置
 2100、2100a、2100b  画像処理装置
 2101  画像処理強度決定部
 2102  画像処理部
 2103  消失点算出部
 2111  判定部
 2112  距離算出部
 2113  強度算出部
 2200、2201  撮像部
 2202  視差算出部
 2203  画像表示部
 2204  画像記憶部
 2205  奥行き情報算出部
 3100、3100a、3100b  画像処理装置
 3101  画像処理強度決定部
 3102  画像処理部
 3103  奥行き情報解析部
 3111  頻度分布算出部
 3112  第一の奥行き情報算出部
 3113  第二の奥行き情報算出部
 3200、3201  撮像部
 3202  視差算出部
 3203  画像表示部
 3204  画像記憶部
 3205  奥行き情報算出部

Claims (6)

  1.  画像処理の強度を決定する画像処理強度決定部と、
     前記画像処理強度決定部が決定した強度に従い、画像情報に対して画像処理を行う画像処理部と、
     を備え、
     前記画像処理強度決定部は、前記画像情報に含まれる注目画素に対応する奥行きを示す奥行き値と、前記注目画素の前記画像情報中における縦位置とに基づき、前記注目画素に対する画像処理の強度を決定すること
     を特徴とする画像処理装置。
  2.  前記画像処理強度決定部は、前記注目画素に対応する前記奥行き値の値が飽和しているときに、前記縦位置に基づき、前記強度を決定することを特徴とする請求項1に記載の画像処理装置。
  3.  画像情報から消失点の位置を算出する消失点算出部を更に備え、
     前記画像処理強度決定部は、画像処理の対象となる対象画素と前記消失点算出部が算出した消失点の位置との距離に基づいて、前記対象画素における画像処理強度を決定することを特徴とする請求項1に記載の画像処理装置。
  4.  画像情報に対応する奥行き情報に基づいて、該奥行き情報の頻度分布に関する情報を抽出する奥行き情報解析部を更に備え、
     前記画像処理強度決定部は、前記奥行き情報解析部が抽出した情報と前記奥行き情報とに基づいて、前記画像情報の各画素における画像処理強度を決定することを特徴とする請求項1に記載の画像処理装置。
  5.  被写体を撮像して画像を生成する撮像部と、
     画像処理の強度を決定する画像処理強度決定部と、
     前記画像処理強度決定部が決定した強度に従い、前記撮像部が生成した画像情報に対して画像処理を行う画像処理部と、
     を備え、
     前記画像処理強度決定部は、前記画像情報に含まれる注目画素に対応する奥行きを示す奥行き値と、前記注目画素の前記画像情報中における縦位置とに基づき、前記注目画素に対する画像処理の強度を決定すること
     を特徴とする撮像装置。
  6.  画像処理の強度を決定する画像処理強度決定部と、
     前記画像処理強度決定部が決定した強度に従い、画像情報に対して画像処理を行う画像処理部と、
     前記画像処理部により画像処理された画像を表示する画像表示部と、
     を備え、
     前記画像処理強度決定部は、前記画像情報に含まれる注目画素に対応する奥行きを示す奥行き値と、前記注目画素の前記画像情報中における縦位置とに基づき、前記注目画素に対する画像処理の強度を決定すること
     を特徴とする表示装置。
PCT/JP2012/082909 2011-12-19 2012-12-19 画像処理装置、撮像装置および表示装置 WO2013094635A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/365,123 US9646383B2 (en) 2011-12-19 2012-12-19 Image processing apparatus, image capturing apparatus, and display apparatus

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2011277591A JP5881005B2 (ja) 2011-12-19 2011-12-19 画像処理装置、画像撮像装置、画像表示装置、画像処理方法およびプログラム
JP2011-277591 2011-12-19
JP2011-282026 2011-12-22
JP2011282026A JP2013132018A (ja) 2011-12-22 2011-12-22 画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラム
JP2011-281945 2011-12-22
JP2011281945A JP5916199B2 (ja) 2011-12-22 2011-12-22 画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2013094635A1 true WO2013094635A1 (ja) 2013-06-27

Family

ID=48668519

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/082909 WO2013094635A1 (ja) 2011-12-19 2012-12-19 画像処理装置、撮像装置および表示装置

Country Status (2)

Country Link
US (1) US9646383B2 (ja)
WO (1) WO2013094635A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107493432A (zh) * 2017-08-31 2017-12-19 广东欧珀移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9071740B1 (en) 2011-10-28 2015-06-30 Google Inc. Modular camera system
US9537968B1 (en) 2012-01-06 2017-01-03 Google Inc. Communication of socket protocol based data over a storage protocol based interface
US9197686B1 (en) 2012-01-06 2015-11-24 Google Inc. Backfill of video stream
US9948852B2 (en) 2013-03-15 2018-04-17 Intuitive Surgical Operations, Inc. Intelligent manual adjustment of an image control element
JP6091318B2 (ja) * 2013-04-26 2017-03-08 キヤノン株式会社 測距装置およびその制御方法
JP6292790B2 (ja) * 2013-08-08 2018-03-14 キヤノン株式会社 距離検出装置、撮像装置および距離検出方法
US9928598B2 (en) * 2014-10-31 2018-03-27 Canon Kabushiki Kaisha Depth measurement apparatus, imaging apparatus and depth measurement method that calculate depth information of a target pixel using a color plane of which a correlation value is at most a threshold
US9544485B2 (en) 2015-05-27 2017-01-10 Google Inc. Multi-mode LED illumination system
US9626849B2 (en) 2015-06-12 2017-04-18 Google Inc. Using scene information from a security camera to reduce false security alerts
US9386230B1 (en) 2015-06-12 2016-07-05 Google Inc. Day and night detection based on one or more of illuminant detection, lux level detection, and tiling
US9554063B2 (en) 2015-06-12 2017-01-24 Google Inc. Using infrared images of a monitored scene to identify windows
US9235899B1 (en) 2015-06-12 2016-01-12 Google Inc. Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination
US9489745B1 (en) 2015-06-12 2016-11-08 Google Inc. Using depth maps of a scene to identify movement of a video camera
US9613423B2 (en) * 2015-06-12 2017-04-04 Google Inc. Using a depth map of a monitored scene to identify floors, walls, and ceilings
US9886620B2 (en) 2015-06-12 2018-02-06 Google Llc Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera
US9454820B1 (en) 2015-06-12 2016-09-27 Google Inc. Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination
JP6552325B2 (ja) * 2015-08-07 2019-07-31 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
EP3404927A4 (en) * 2016-01-13 2018-11-21 Sony Corporation Information processing device and information processing method
US10180615B2 (en) 2016-10-31 2019-01-15 Google Llc Electrochromic filtering in a camera
JP2018169517A (ja) * 2017-03-30 2018-11-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置、撮像モジュールおよび撮像装置の制御方法
US10657666B2 (en) * 2017-12-22 2020-05-19 Symbol Technologies, Llc Systems and methods for determining commercial trailer fullness
DE102018103092A1 (de) * 2018-02-12 2019-08-14 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Fokuseinstellungs-Anzeigeeinheit

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10145604A (ja) * 1996-09-10 1998-05-29 Dainippon Screen Mfg Co Ltd 画像のシャープネス処理方法及びその装置並びにプログラムを記録した記憶媒体
JPH11239364A (ja) * 1996-08-07 1999-08-31 Sanyo Electric Co Ltd 立体感調整方法及び立体感調整装置
JP2008033897A (ja) * 2006-06-29 2008-02-14 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
JP2009038794A (ja) * 2007-07-06 2009-02-19 Panasonic Corp 画像処理装置、画像処理方法、画像処理システム、プログラム、記録媒体および集積回路

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200508A (ja) 1996-01-16 1997-07-31 Olympus Optical Co Ltd 画像処理装置
US6115078A (en) * 1996-09-10 2000-09-05 Dainippon Screen Mfg. Co., Ltd. Image sharpness processing method and apparatus, and a storage medium storing a program
JP4170194B2 (ja) 2003-10-28 2008-10-22 富士フイルム株式会社 撮影装置
JP2007299144A (ja) 2006-04-28 2007-11-15 Mitsubishi Heavy Ind Ltd ロゴ判別装置および方法ならびにプログラム
US8009903B2 (en) 2006-06-29 2011-08-30 Panasonic Corporation Image processor, image processing method, storage medium, and integrated circuit that can adjust a degree of depth feeling of a displayed high-quality image
JP2008021163A (ja) 2006-07-13 2008-01-31 Matsushita Electric Ind Co Ltd 画像処理装置
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
JP5437781B2 (ja) 2009-12-09 2014-03-12 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP5242667B2 (ja) * 2010-12-22 2013-07-24 株式会社東芝 マップ変換方法、マップ変換装置及びマップ変換プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239364A (ja) * 1996-08-07 1999-08-31 Sanyo Electric Co Ltd 立体感調整方法及び立体感調整装置
JPH10145604A (ja) * 1996-09-10 1998-05-29 Dainippon Screen Mfg Co Ltd 画像のシャープネス処理方法及びその装置並びにプログラムを記録した記憶媒体
JP2008033897A (ja) * 2006-06-29 2008-02-14 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
JP2009038794A (ja) * 2007-07-06 2009-02-19 Panasonic Corp 画像処理装置、画像処理方法、画像処理システム、プログラム、記録媒体および集積回路

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107493432A (zh) * 2017-08-31 2017-12-19 广东欧珀移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质

Also Published As

Publication number Publication date
US20140333726A1 (en) 2014-11-13
US9646383B2 (en) 2017-05-09

Similar Documents

Publication Publication Date Title
WO2013094635A1 (ja) 画像処理装置、撮像装置および表示装置
TWI602152B (zh) 影像擷取裝置及其影像處理方法
JP6027034B2 (ja) 立体映像エラー改善方法及び装置
US8885922B2 (en) Image processing apparatus, image processing method, and program
TWI476731B (zh) 影像處理裝置、影像處理方法、及程式
US8441520B2 (en) Primary and auxiliary image capture devcies for image processing and related methods
US9064331B2 (en) Three-dimensional image processing apparatus, three-dimensional image processing method, and program
US8488868B2 (en) Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
WO2015184978A1 (zh) 摄像机控制方法、装置及摄像机
WO2017159312A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
RU2423018C2 (ru) Способ и система для преобразования стереоконтента
TW201029443A (en) Method and device for generating a depth map
KR20130137000A (ko) 화상 처리 장치 및 화상 처리 방법, 및 프로그램
JP5238767B2 (ja) 視差画像生成方法及び装置
JP2012249038A (ja) 画像信号処理装置、画像信号処理方法
JP6441552B2 (ja) 画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラム
WO2012133286A1 (ja) 立体画像生成装置及び立体画像生成方法
JP6624785B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP5881005B2 (ja) 画像処理装置、画像撮像装置、画像表示装置、画像処理方法およびプログラム
US20130050420A1 (en) Method and apparatus for performing image processing according to disparity information
JP5845780B2 (ja) 立体画像生成装置及び立体画像生成方法
JP2014003486A (ja) 画像処理装置、画像撮像装置、画像表示装置、画像処理方法及びプログラム
JP4764516B1 (ja) 多視点画像符号化装置
JP5916199B2 (ja) 画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラム
JP2013132018A (ja) 画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12860254

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14365123

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12860254

Country of ref document: EP

Kind code of ref document: A1