WO2019146418A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2019146418A1
WO2019146418A1 PCT/JP2019/000562 JP2019000562W WO2019146418A1 WO 2019146418 A1 WO2019146418 A1 WO 2019146418A1 JP 2019000562 W JP2019000562 W JP 2019000562W WO 2019146418 A1 WO2019146418 A1 WO 2019146418A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
hysteresis
black
white
unit
Prior art date
Application number
PCT/JP2019/000562
Other languages
English (en)
French (fr)
Inventor
渡部 剛史
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/962,451 priority Critical patent/US11089211B2/en
Publication of WO2019146418A1 publication Critical patent/WO2019146418A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a program. More specifically, the present invention relates to an image processing apparatus that combines two images captured by a plurality of imaging units to generate a high quality image, an image processing method, and a program.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2015-197745 discloses a configuration in which a color image and a black and white image are combined, and high-quality images are generated using color information of the color image and luminance information of the black and white image. It is done.
  • Patent Document 1 discloses a configuration in which a color image and a black and white image are combined to generate a high quality image.
  • the composite image generation process described in Patent Document 1 does not have a configuration in which either the color image or the black and white image is set as the reference image according to the photographing situation to perform image combination.
  • one of the color image and the black and white image is used as a reference image (main image) so as to generate a higher quality synthesized image according to the shooting conditions.
  • a reference image main image
  • main image main image
  • the reference image due to a change in the imaging condition. If this image switching frequently occurs, a viewpoint movement based on the parallax of the two images occurs, causing the user who observes the images to feel discomfort.
  • the present disclosure aims to provide an image processing apparatus, an image processing method, and a program that perform switching control of two reference images to eliminate or reduce the discomfort of the image observing user.
  • the first aspect of the present disclosure is It has an image processing unit that generates a composite image by executing composition processing of a color image and a black and white image captured from different viewpoints,
  • the image processing unit (A) A color image reference composite image in which a black and white image is registered at the image position of a color image, or (B) A black and white image reference composite image in which a color image is aligned at the image position of the black and white image, It is a structure which switches and produces
  • the present invention is an image processing apparatus that performs control of setting a hysteresis as the reference image switching threshold and changing the hysteresis according to a situation.
  • a second aspect of the present disclosure is: An image processing unit configured to execute composition processing of the first image and the second image captured from different viewpoints to generate a composite image;
  • the image processing unit (A) A first image reference composite image in which the second image is aligned with the image position of the first image, or (B) a second image reference composite image in which the first image is aligned with the image position of the second image; It is a structure which switches and produces
  • the present invention is an image processing apparatus that performs control of setting a hysteresis as the reference image switching threshold and changing the hysteresis according to a situation.
  • the third aspect of the present disclosure is: An image processing method to be executed in the image processing apparatus;
  • the image processing apparatus executes synthesis processing of a color image and a black and white image captured from different viewpoints.
  • the reference image determination unit of the image processing apparatus Execute a reference image determination process to determine which of the color image and the black and white image is to be used as the reference image,
  • a fourth aspect of the present disclosure is: An image processing method to be executed in the image processing apparatus;
  • the image processing apparatus executes composition processing of the first image and the second image captured from different viewpoints, (A) A first image reference composite image in which the second image is aligned with the image position of the first image, or (B) a second image reference composite image in which the first image is aligned with the image position of the second image; It is a structure which switches and produces
  • the reference image determination unit of the image processing apparatus Execute a reference image determination process to determine which one of the first image and the second image is to be used as a reference image;
  • a fifth aspect of the present disclosure is: A program that causes an image processing apparatus to execute image processing,
  • the image processing apparatus executes synthesis processing of a color image and a black and white image captured from different viewpoints.
  • the program is stored in a reference image determination unit of the image processing apparatus.
  • the program is for setting a hysteresis to the reference image switching threshold value and performing control to change the hysteresis according to the situation.
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or communication medium that provides various program codes in a computer-readable format to an information processing apparatus or computer system capable of executing the program code.
  • a storage medium or communication medium that provides various program codes in a computer-readable format to an information processing apparatus or computer system capable of executing the program code.
  • a system is a logical set composition of a plurality of devices, and the device of each composition is not limited to what exists in the same case.
  • an apparatus and method are implemented that perform switching between a color image reference composite image and a black and white image reference composite image at an optimal timing that makes it difficult for an observer to notice.
  • a color image reference composite image obtained by inputting a color image and a black and white image captured from different viewpoints and (a) aligning the black and white image to the image position of the color image, or (b) black and white image
  • a black and white image reference composite image in which a color image is registered at the image position of, and these two types of composite images are switched and generated based on a predetermined reference image switching threshold.
  • the hysteresis is set, the hysteresis is changed according to the situation, and the reference image switching can be performed at the optimum timing at which the observer hardly notices.
  • an apparatus and method are implemented that perform switching between the color image reference composite image and the black and white image reference composite image at an optimal timing at which the observer is less likely to notice.
  • the effects described in the present specification are merely examples and are not limited, and additional effects may be present.
  • FIG. 1 is a diagram illustrating an exemplary configuration of an image processing apparatus according to the present disclosure.
  • FIG. 1 illustrates an information processing terminal (smart phone) having a camera function, and is an example of an image processing apparatus according to the present disclosure.
  • the image processing apparatus according to the present disclosure is not limited to such an information processing terminal (smartphone), but also includes an imaging apparatus such as a camera or a PC such as a PC that performs image processing by inputting a camera captured image.
  • FIG. 1A shows the front side of the image processing apparatus 10, and the display unit 11 and the operation unit 12 are provided on the front side.
  • FIG. 1B shows the back side of the image processing apparatus 10, and a plurality of imaging units, that is, a color image pickup unit 21 and a black and white image pickup unit 22 are provided on the back side.
  • FIG. 2 shows an example of the configuration of the image processing apparatus.
  • the image processing apparatus 100 includes a color image capturing unit 111, a black and white image capturing unit 112, an image processing unit 120, and a display unit 131 and a storage unit 132 as an output unit 130 of a processed image of the image processing unit 120.
  • a sensor unit 141, the operation unit 142, the control unit 150, and the communication unit 160 are included.
  • the color image capturing unit 111 and the black and white image capturing unit 112 are provided on the same side of the image processing apparatus 100 as shown in FIG. 1B.
  • the color image capturing unit 111 and the black and white image capturing unit 112 are configured using an imaging element such as a complementary metal oxide semiconductor (CMOS) image sensor, and perform photoelectric conversion of light captured by a lens (not shown).
  • CMOS complementary metal oxide semiconductor
  • the image data of the captured image is generated and output to the image processing unit 120.
  • the color image capturing unit 111 and the black and white image capturing unit 112 have characteristic differences.
  • FIG. 3 exemplifies the pixel array of the imaging unit.
  • FIG. 3A shows the pixel array of the black and white image capturing unit 112.
  • all pixels are configured by W (white) pixels that output electrical signals based on incident light amounts of all wavelength regions of visible light. Accordingly, the black and white image capturing unit 112 generates image data of the black and white image.
  • FIG. 3B shows the pixel array of the color image pickup unit 111.
  • the color image capturing unit 111 is configured using, for example, a color filter in which a red (R) pixel, a blue (B) pixel, and a green (G) pixel are arranged in a Bayer pattern.
  • a color filter in which a red (R) pixel, a blue (B) pixel, and a green (G) pixel are arranged in a Bayer pattern.
  • two pixels at diagonal positions in the 2 ⁇ 2 pixel unit are green (G) pixels, and the remaining pixels are red (R) pixels and blue (B) pixels. That is, the color image pickup unit 111 is configured of color pixels each pixel of which outputs an electric signal based on the amount of incident light of any one color component of red, blue and green. Therefore, the color image pickup unit 111 generates image data of a color image in which each pixel shows any of three primary color (RGB) components.
  • RGB primary color
  • the image processing unit 120 generates a composite image using captured images acquired by the color image capturing unit 111 and the black and white image capturing unit 112. That is, the image processing unit 120 performs image processing using captured images acquired by the color image capturing unit 111 and the black and white image capturing unit 112, and is individually acquired by the color image capturing unit 111 and the black and white image capturing unit 112. A composite image in which the captured image has a high image quality is generated, and is output to the display unit 131 or the storage unit 132 in the output unit 130. The details of the configuration and operation of the image processing unit 120 will be described later.
  • the sensor unit 141 is configured using a gyro sensor or the like, and detects a shake generated in the image processing apparatus 100.
  • the sensor unit 141 outputs information on the detected shake to the control unit 150.
  • the communication unit 160 communicates with devices on a network such as a LAN (Local Area Network) or the Internet.
  • a network such as a LAN (Local Area Network) or the Internet.
  • the display unit 131 displays a captured image based on the image data supplied from the image processing unit 120, and displays a menu screen, various application screens and the like based on an information signal from the control unit 150.
  • the display surface of the display unit 131 has a touch panel configuration, and is configured to be able to use a GUI function.
  • the operation unit 142 is configured by using an operation switch or the like, generates an operation signal according to a user operation, and outputs the operation signal to the control unit 150.
  • the storage unit 132 stores information generated by the image processing apparatus 100, for example, image data supplied from the image processing unit 120, and various information used to execute communication and applications by the image processing apparatus 100.
  • the control unit 150 is configured of a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM) (not shown), and the like.
  • the control unit 150 executes the program stored in the ROM or the RAM, and causes the image processing apparatus 100 to perform an operation according to the user operation on the touch panel and the operation unit 142 that constitute the display unit 131. Control.
  • the image processing apparatus 100 is not limited to the configuration shown in FIG. 2 and, for example, an encoding processing unit for encoding image data and storing it in the storage unit 132, a resolution conversion unit for matching the image data with the resolution of the display unit, etc. May be provided.
  • the image processing unit 120 illustrated in FIG. 2 performs an image combining process using the black and white image acquired by the black and white image imaging unit 112 and the color image acquired by the color image imaging unit 111.
  • FIG. 4 is a diagram for explaining the image quality obtained by image combining processing using a black and white image as a reference image. For example, after a color image is aligned at the image position of the black and white image with the black and white image as a reference, image synthesis is performed to generate a synthesized image, the characteristics of the lens and sensor used in the black and white image imaging unit 112 Brightness can be faithfully reproduced.
  • FIG. 5 is a diagram for explaining the image quality obtained by the image combining process using a color image as a reference image.
  • a black and white image is aligned at the image position of a color image with a color image as a reference and then image synthesis is performed to generate a synthesized image
  • color deviation may occur in the synthesized image because the color image is used as a reference.
  • the brightness can be faithfully reproduced according to the characteristics of the lens and sensor used in the black and white image capturing unit 112.
  • the occlusion area increases in the near view as compared to the distant view.
  • the occlusion area is, for example, an area in which only one image is captured and an image not captured in the other image due to an obstacle or the like close to the imaging unit.
  • FIG. 6 shows an occlusion area based on the black and white image acquired by the black and white image capturing unit 112.
  • an occlusion occurs due to parallax
  • the pixel corresponding to the target pixel in one captured image may not be able to calculate the disparity vector because the pixel corresponding to the target pixel in one captured image exceeds the search range for disparity detection. Therefore, the quality of the combined image obtained by the image combining process may deteriorate more than that of the color image acquired by the color image capturing unit 111.
  • the monochrome image capturing unit 112 has higher sensitivity than the color image capturing unit 111 using a color filter, pixel saturation tends to occur compared to the color image capturing unit 111 when the luminance of the subject is high.
  • the number of saturated pixels in the black and white image increases, in the composite image, the deteriorated color image with the image quality in which the high luminance part of the subject is saturated more than the color image acquired by the color image capturing unit 111 turn into.
  • the image processing unit 120 performs image combination determination as to whether or not deterioration of the image quality caused by the parallax or the saturation of the pixels occurs based on the captured image.
  • the image processing unit 120 generates one of the following two types of composite images according to the result of the image composition determination.
  • a composite image using the color image acquired by the color image capturing unit 111 as a reference image A composite image using the black and white image acquired by the black and white image capturing unit 112 as a reference image.
  • FIG. 7 is a view showing a detailed configuration example of the image processing unit 120.
  • the image processing unit 120 includes pre-processing units 121 and 122, a parallax and occlusion detection unit 123, a reference image determination unit 124, and an image combining unit 125.
  • the preprocessing units 121 and 122 perform image correction processing such as lens distortion correction, defective pixel correction, and white balance adjustment on image data of captured images acquired by the color image capturing unit 111 and the black and white image capturing unit 112.
  • image correction processing such as lens distortion correction, defective pixel correction, and white balance adjustment on image data of captured images acquired by the color image capturing unit 111 and the black and white image capturing unit 112.
  • the image data after correction is output to the parallax & occlusion detection unit 123, the reference image determination unit 124, and the image combining unit 125.
  • the parallax and occlusion detection unit 123 performs parallax detection and occlusion detection based on the black and white image data and the color image data supplied from the preprocessing units 121 and 122. Since the monochrome image capturing unit 112 and the color image capturing unit 111 perform imaging from different viewpoint positions as shown in (b) of FIG. 1, the captured images acquired by the monochrome image capturing unit 112 and the color image capturing unit 111 are It becomes an image with parallax.
  • the disparity & occlusion detection unit 123 detects disparity information in units of pixels and occlusion area by corresponding point detection processing such as block matching.
  • the detection information is output to the reference image determination unit 124.
  • the reference image determination unit 124 receives monochrome image data and color image data supplied from the pre-processing units 121 and 122, and further, disparity information in pixel units or image area units of the two image data detected by the disparity & occlusion detection unit 123. And the occlusion area detection information. The reference image determination unit 124 determines which of the color image and the black and white image is to be set as the reference image based on the information.
  • the reference image is an image serving as a reference when generating a composite image.
  • the image combining unit 125 When a color image is set as a reference image, the image combining unit 125 performs pixel value correction based on luminance information obtained from the black and white image based on the color image data supplied from the pre-processing unit 121 to generate a combined image. Do. On the other hand, when the black and white image is set as the reference image, the image combining unit 125 performs pixel value correction based on color information obtained from the color image based on the black and white image data supplied from the pre-processing unit 122 Generate
  • the reference image determination unit 124 A composite image generated by using a black and white image as a reference image; A composite image generated using a color image as a reference image, It is determined which of these two types of composite images can be a high quality image, and the one capable of generating a high quality composite image is selected.
  • the reference image determination unit 124 determines which one of the color image and the black and white image is to be set as the reference image based on the parallax information of the two image data detected by the parallax & occlusion detection unit 123 and the occlusion area detection information. decide.
  • An example of the reference image determination process will be described with reference to FIG.
  • the graph shown in FIG. 8 is a graph in which the horizontal axis represents the occlusion area and the vertical axis represents the parallax.
  • the occlusion area on the horizontal axis corresponds to the occupancy rate (%) of the color image captured by the color image capturing unit 111, the black and white image captured by the black and white image capturing unit 112, and the occlusion area included in the image region of these two images.
  • the parallax on the vertical axis is the parallax (for example, the number of pixels) of these two images, the color image photographed by the color image pickup unit 111, the black and white image photographed by the black and white image pickup unit 112.
  • the reference image determining unit 124 first calculates the occlusion area occupancy rate and the parallax in units of divided areas into which the image is divided. This process will be described with reference to FIG. FIG. 9 shows a color image photographed by the color image pickup unit 111 or a black and white image photographed image photographed by the black and white image pickup unit 112.
  • the reference image determination unit 124 selects one of the two images and sets a plurality of divided areas in the selected image. It is a division area divided by a dotted line shown in FIG.
  • the reference image is made a color image. If 50% or more is included in the black and white image reference area, the reference image is set as the black and white image.
  • the reference image determination unit 124 determines a reference image by such processing.
  • a large weight may be set to a divided area in the central area of the image, and the occlusion image occupancy rate and parallax (average value) of the central area may be reflected more largely to determine the reference image.
  • the weight of the divided area in which the face area is detected may be increased to determine the reference image.
  • the occupancy area occupancy rate is less than the threshold Thx and the parallax is less than the parallax threshold Thy, a black and white image is used as a reference image.
  • a black and white image is used as a reference image.
  • the occlusion area occupancy rate is equal to or higher than the threshold Thx or the parallax is equal to or higher than the parallax threshold Thy
  • a color image is used as a reference image.
  • the reference image determination unit 124 determines a reference image by such processing.
  • a high quality image can be generated by applying faithful luminance information of the black and white image to the entire image with the black and white image as a reference image. That is, when the occupancy area occupancy rate is small and the parallax is small, the area where color information can not be obtained from the color image is small due to the occlusion, and the problem of color shift due to parallax is also small.
  • a high quality black and white image reference composite image is generated in which faithful luminance information is applied to the entire image.
  • a color image reference composite image is generated using a color image as a reference image. Also in the color image reference composite image, composite image generation processing in which the luminance information of the black and white image is applied is performed.
  • the reference image determination processing described with reference to FIGS. 8 and 9 is an example, and the reference image determination unit 124 uses the other image feature amounts, A composite image generated by using a black and white image as a reference image; A composite image generated using a color image as a reference image, It is possible to determine which of these two types of composite images has high image quality, and to select one capable of generating a high-quality composite image.
  • the reference image information determined by the reference image determining unit 124 is input to the image combining unit 125.
  • the image combining unit 125 inputs the black and white image data and the color image data supplied from the preprocessing units 121 and 122, and further, the standard image information determined by the standard image determining unit 124.
  • the image combining unit 125 If the reference image determined by the reference image determination unit 124 is a color image, pixel value correction is performed based on the luminance information obtained from the black and white image based on the color image data supplied from the pre-processing unit 121 to obtain a composite image. Generate In this case, after the black and white image is aligned with the image position of the color image, the image combination is performed to generate a combined image.
  • the reference image determined by the reference image determination unit 124 is a black and white image
  • pixel value correction based on color information obtained from the color image is performed based on the black and white image data supplied from the pre-processing unit 122 Generate an image.
  • image synthesis is performed to generate a synthesized image.
  • FIG. 10 This problem occurs when the image to be captured is a moving image.
  • the composite image which is the final output image is (A) Color image reference composite image based on color image (b) Black and white image reference composite image based on black and white image One of these two types is generated.
  • the reference image determining unit 124 determines which one of the two images (color image, black and white image) is a reference image based on the occlusion area and the parallax.
  • the occlusion area and the parallax of the two images (color image, black and white image) change sequentially. Therefore, for example, as shown in FIG. 10, during shooting of a moving image, there is a possibility that the region P, Q with the occlusion area threshold value Thx or the parallax threshold value Thy intervenes sharply. That is, there is a possibility of going back and forth between the color image reference area and the black and white image reference area.
  • the color image reference composite image and the black and white image reference composite image are different images with positional deviation. If two images with this positional deviation are frequently switched in a short time, the user who observes the images recognizes the shaking of the images and causes discomfort.
  • the configuration and processing of the image processing apparatus of the present disclosure that solves this problem will be described below.
  • the reference image determination unit 124 of the image processing apparatus 100 includes a hysteresis calculation unit 151, a storage unit 152, and a reference image selection unit 153.
  • the hysteresis calculation unit 151 includes an in-screen motion vector calculation unit 201, a camera motion detection unit (such as a gyro sensor) 202, a zoom change ratio detection unit 203, an illuminance change ratio detection unit (such as an illuminance sensor) 204, and an ISO sensitivity change ratio acquisition unit
  • the detection information of the scene determination unit 206, the white balance change rate acquisition unit 207, and the face detection unit 208 is acquired.
  • the in-screen motion vector calculation unit 201 camera motion detection unit (gyro sensor etc.) 202, zoom change rate detection unit 203, illuminance change rate detection unit (illuminance sensor etc.) 204, ISO sensitivity change rate acquisition unit 205, scene judgment
  • the unit 206, the white balance change rate acquisition unit 207, the face detection unit 208, and these components are components of the image processing apparatus 100.
  • Each of these configurations may be configured in the reference image determination unit 124 or the hysteresis calculation unit 151, or may be configured externally.
  • some of these components may be configured in the hysteresis calculation unit 151.
  • the hysteresis calculation unit 151 itself generates and acquires detection information.
  • the in-screen motion vector calculation unit 201 is provided in the hysteresis calculation unit 151, a process of inputting a color image and a black and white image to the hysteresis calculation unit 151 and analyzing these images to obtain a motion vector Is possible.
  • the hysteresis calculation unit 151 acquires detection information of the in-screen motion vector calculation unit 201 to the face detection unit 208, and calculates hysteresis based on the detection information.
  • the hysteresis will be described with reference to FIG.
  • FIG. 13 In the example of reference image switching processing at the time of state transition to which (1) hysteresis is applied shown in the lower part of FIG. 13, an enlarged view of the vicinity of the threshold value of the reference image decision graph based on occlusion area and parallax shown in the upper part is shown. . It corresponds to the vicinity of the occlusion area threshold (Thx) or the parallax threshold (Thy).
  • the reference image determination unit 124 of the disclosed image processing apparatus 100 does not switch the reference image at the threshold value (Thx or Thy), and continues to the current reference image (black and white image) up to the position P apart from the threshold value. Keep the When the position P is exceeded, the reference image is switched from the black and white image to the color image.
  • the present disclosure does not switch the reference image at the threshold value (Thx or Thy), and reaches the current reference image (color image) up to the position Q separated from the threshold value. Maintain. When the position Q is exceeded, the reference image is switched from the color image to the black and white image. That is, the switching of the reference image is not performed with the threshold value as the boundary, but a predetermined hysteresis is set to execute the position removal that exceeds the threshold value.
  • the reference image determination unit 124 of the image processing apparatus 100 of the present disclosure determines the magnitude (hysteresis amount) of this hysteresis based on the detection information of the in-screen motion vector calculation unit 201 to the face detection unit 208 shown in FIG. Control to change.
  • the magnitude of the hysteresis (hysteresis amount) 2 L, but this hysteresis amount is changed based on the detection information from the in-screen motion vector calculation unit 201 to the face detection unit 208.
  • FIG. 14 (1) shows an example of reference image switching processing at the time of state transition to which the reference hysteresis is applied, but the reference image determination unit 124 uses the in-screen motion vector calculation unit 201 to the face detection unit 208.
  • the amount of hysteresis is increased as shown in FIG.
  • FIG. 14 (2) shows an example of reference image switching processing at the time of state transition to which the extended hysteresis is applied. In this case, switching of the reference image is less likely to occur than in the reference image switching process at the time of state transition to which the reference hysteresis is applied.
  • the reference image determination unit 124 also performs control to reduce the hysteresis amount as shown in FIG. 15 (2) based on the detection information from the in-screen motion vector calculation unit 201 to the face detection unit 208.
  • FIG. 15 (2) shows an example of reference image switching processing at the time of state transition to which the reduction hysteresis is applied. In this case, switching of the reference image is more likely to occur than in the reference image switching processing at the time of state transition to which the reference hysteresis is applied.
  • the reference image determining unit 124 includes a hysteresis calculating unit 151, a storage unit 152, and a reference image selecting unit 153.
  • the reference image determination unit 124 (A) A color image reference composite image in which a black and white image is registered at the image position of a color image, or (B) A black and white image reference composite image in which a color image is aligned at the image position of the black and white image, It is determined which of these two (a) and (b) composite images is to be generated. That is, switching of the reference image is performed based on a reference image switching threshold value defined in advance.
  • the reference image determination unit 124 sets the hysteresis described with reference to FIGS. 13 to 15 as the reference image switching threshold value, and further performs control to change the set hysteresis according to the situation.
  • the hysteresis calculation unit 151 of the reference image determination unit 124 includes an in-screen motion vector calculation unit 201, a camera motion detection unit (such as a gyro sensor) 202, a zoom change ratio detection unit 203, an illuminance change ratio detection unit (such as an illuminance sensor) 204,
  • the magnitude of the hysteresis is changed based on the detection information from the ISO sensitivity change rate acquisition unit 205, the scene determination unit 206, the white balance change rate acquisition unit 207, and the face detection unit 208. That is, control is performed to change the hysteresis amount.
  • the following data is stored in the storage unit 152 in the reference image determination unit 124 illustrated in FIG. 12.
  • Occlusion area threshold (Thx), disparity threshold (Thy), (2) Reference hysteresis ( default hysteresis), (3) Calculated hysteresis calculated based on detection information (hysteresis control parameter) of each of the in-screen motion vector calculating unit 201 to the face detecting unit 208, (4) A threshold (a hysteresis control parameter corresponding threshold) set corresponding to detection information of each of the in-screen motion vector calculation unit 201 to the face detection unit 208. (5) Adjustment values corresponding to detection information (hysteresis control parameters) of the in-screen motion vector calculation unit 201 to the face detection unit 208,
  • the reference image selection unit 153 performs switching control of the reference image by applying the hysteresis calculated by the hysteresis calculation unit 151.
  • the hysteresis calculation unit 151 includes the in-screen motion vector calculation unit 201, a camera motion detection unit (for example, a gyro sensor) 202, a zoom change ratio detection unit 203, and an illuminance change ratio detection unit (for example, an illuminance sensor) 204.
  • the detection information of the ISO sensitivity change rate acquisition unit 205, the scene determination unit 206, the white balance change rate acquisition unit 207, and the face detection unit 208 is acquired.
  • the in-screen motion vector calculation unit 201 is a motion vector of each pixel or image area based on at least one of a color image photographed by the color image pickup unit 111 or a black and white image photographed by the black and white image pickup unit 112. Calculate For example, the average value of the calculated motion vectors is input to the hysteresis calculation unit 151. Note that the in-screen motion vector calculation unit 201 calculates, for example, a calculation value in which the weight is set large for the motion vector at the center of the image or a calculation value in which the weight is set large for the motion vector in the face detection area. You may enter
  • the camera motion detection unit (gyro sensor or the like) 202 acquires, for example, a detection value of a gyro sensor provided in a camera (image processing apparatus 100), that is, motion information of the camera and outputs the acquired value to the hysteresis calculation unit 151.
  • the zoom change rate detection unit 203 acquires the change rate of the zoom setting of the camera (image processing apparatus 100). That is, change rate information on zoom setting is acquired and output to the hysteresis calculation unit 151.
  • the illumination change rate detection unit (illumination sensor or the like) 204 acquires illumination change rate information based on a detection value of the illumination sensor provided in the camera (image processing apparatus 100) and outputs the information to the hysteresis calculation unit 151.
  • the ISO sensitivity change ratio acquisition unit 205 acquires ISO sensitivity change ratio information of the camera (image processing apparatus 100) and outputs the acquired information to the hysteresis calculation unit 151.
  • the scene determination unit 206 determines the scene switching state of each frame of the moving image based on at least one of the color image captured by the color image capturing unit 111 or the black and white image captured by the black and white image capturing unit 112 Do. Specifically, for example, an inter-frame image change rate (scene change determination index value) according to a predetermined rule is calculated and output to the hysteresis calculation unit 151.
  • the white balance change ratio acquisition unit 207 acquires the change ratio of the white balance setting value applied to the captured image from the image processing unit or the storage unit and outputs the acquired change ratio to the hysteresis calculation unit 151.
  • the face detection unit 208 executes face detection based on at least one of a color image photographed by the color image pickup unit 111 or a black and white image photographed by the black and white image pickup unit 112, for example, a face is detected in the image. Information on whether or not it has been used or occupancy rate information of the face area included in the image is calculated and output to the hysteresis calculation unit 151.
  • the process according to this flow can be executed according to a program stored in the storage unit, and can be performed as a program execution process by a processor such as a CPU having a program execution function, for example.
  • a processor such as a CPU having a program execution function
  • Step S11 First, in step S11, the reference image determination unit 124 executes a hysteresis calculation process based on input information.
  • the hysteresis calculation unit 151 includes an in-screen motion vector calculation unit 201, a camera motion detection unit (such as a gyro sensor) 202, a zoom change ratio detection unit 203, an illuminance change ratio detection unit (such as an illuminance sensor) 204, and an ISO sensitivity change ratio acquisition unit A hysteresis is calculated based on detection information from the scene determination unit 206, the white balance change rate acquisition unit 207, and the face detection unit 208.
  • Steps S12 to S13 the reference image determining unit 124 applies the hysteresis calculated in step S11 to determine whether or not the switching process of the reference image is necessary.
  • This process is executed by the reference image selection unit 153 of the reference image determination unit 124.
  • the reference image selecting unit 153 applies the hysteresis calculated in step S11 to determine whether or not the switching process of the reference image is necessary.
  • the reference image selection unit 153 includes monochrome image data and color image data supplied from the pre-processing units 121 and 122, and parallax information in pixel units of two image data detected by the parallax and occlusion detection unit 123, and an occlusion area. Enter detection information.
  • the reference image determining unit 124 applies the information and the hysteresis calculated in step S11 to determine whether or not the switching process of the reference image is necessary.
  • hysteresis amount has a magnitude set as the hysteresis calculation result in step S11.
  • step S13 If it is determined in step S13 that the switching process of the reference image is necessary, the process proceeds to step S14. On the other hand, when it is determined in step S13 that the switching process of the reference image is unnecessary, the process proceeds to step S15.
  • Step S14 If it is determined in step S13 that the switching process of the reference image is necessary, the process proceeds to step S14.
  • step S14 the reference image selection unit 153 executes switching processing of the reference image.
  • Step S15 In step S13, when the switching process of the reference image is executed, or when it is determined that the switching process of the reference image is unnecessary in step S13, the process proceeds to step SS15.
  • step S15 the reference image determination unit 124 of the image processing apparatus 100 determines whether or not the image capturing process is being performed, and if it is being performed, the process from step S11 is repeated. If the image capturing process has ended, the process ends. Note that the reference image determination unit 124 of the image processing apparatus 100 performs control to repeatedly execute this flow and change the hysteresis, for example, continuously during shooting of a moving image.
  • step S11 a specific example of the hysteresis calculation process executed in step S11, that is, the hysteresis calculation process performed by the reference image determination unit 124 based on the input information will be described with reference to the flows shown in FIGS.
  • Steps S101a to h The processes of steps S101a to h shown in FIGS. 17 and 18 are processes in which the hysteresis calculation unit 151 acquires each piece of detection information (hysteresis control parameter). These processes can be performed in parallel or sequentially.
  • the hysteresis calculation unit 151 includes an in-screen motion vector calculation unit 201, a camera motion detection unit (such as a gyro sensor) 202, a zoom change ratio detection unit 203, an illuminance change ratio detection unit (such as an illuminance sensor) 204, and an ISO sensitivity change ratio acquisition unit
  • the detection information from the scene determination unit 206, the white balance change rate acquisition unit 207, and the face detection unit 208 is acquired.
  • step S101a the motion vector amount a calculated by the in-screen motion vector calculation unit 201 is acquired.
  • the in-screen motion vector calculation unit 201 calculates each pixel or image based on at least one of the color image captured by the color image capturing unit 111 or the black and white image captured by the black and white image capturing unit 112. Calculate a motion vector in area units. For example, the average value of the calculated motion vectors is input to the hysteresis calculation unit 151 as the motion vector amount a.
  • the in-screen motion vector calculation unit 201 inputs to the hysteresis calculation unit 151, for example, a calculation value in which the weight is set large for the motion vector in the central part of the image or a calculation value in which the weight is set large for the motion vector in the face detection area. May be
  • step S101 b the camera movement amount b detected by the camera movement detection unit (gyro sensor or the like) 202 is acquired.
  • the camera motion detection unit (gyro sensor or the like) 202 acquires, for example, the detection value of the gyro sensor provided in the camera (the image processing apparatus 100), that is, the motion information of the camera, Output.
  • step S101 c the zoom change rate c detected by the zoom change rate detection unit 203 is acquired.
  • the zoom change ratio detection unit 203 acquires zoom change ratio information from the zoom setting value provided in the camera (image processing apparatus 100) and outputs the zoom change ratio information to the hysteresis calculation unit 151.
  • step S101 d the illuminance d detected by the illuminance change rate detection unit (such as illuminance sensor) 204 is acquired.
  • the illuminance change rate detection unit (illuminance sensor etc.) 204 acquires illuminance change rate information from the detection value of the illuminance sensor provided in the camera (image processing apparatus 100) and outputs it to the hysteresis calculation unit 151. .
  • step S101 e the ISO sensitivity change ratio e acquired by the ISO sensitivity change ratio acquisition unit 205 is acquired.
  • the ISO sensitivity change rate acquiring unit 205 acquires the ISO sensitivity change rate information recorded in the memory of the camera (image processing apparatus 100) and outputs the acquired information to the hysteresis calculation unit 151.
  • the scene change determination index value f is acquired from the scene determination unit 206.
  • the scene determination unit 206 sets the scene of each frame of the moving image based on at least one of the color image photographed by the color image pickup unit 111 or the black and white image photographed by the black and white image pickup unit 112. Determine the switching status of. Specifically, for example, an inter-frame image change rate (scene change determination index value) according to a predetermined rule is calculated and output to the hysteresis calculation unit 151.
  • the scene change determination index value f is an index value that increases as the scene change rate increases.
  • step S101 g the white balance change rate acquisition unit 207 acquires the white balance change rate g.
  • the white balance change ratio acquisition unit 207 acquires the white balance change ratio to be applied to the captured image from the image processing unit or the storage unit, and outputs the acquired ratio to the hysteresis calculation unit 151.
  • step S101 h the in-image face area occupancy h is acquired from the face detection unit 208.
  • the face detection unit 208 executes face detection based on at least one of the color image captured by the color image capturing unit 111 or the black and white image captured by the black and white image capturing unit 112. Information on whether or not a face is detected inside, or occupancy rate information of a face area included in the image is calculated and output to the hysteresis calculation unit 151.
  • hysteresis adjustment values A to H based on the comparison result are calculated.
  • the values of the hysteresis adjustment values A to H are values defined in advance and stored in the storage unit 152. Also, these values are values that can be changed by the user.
  • step S102a The motion vector amount a calculated by the in-screen motion vector calculation unit 201 is compared with the threshold value Tha. a> Tha If the above equation holds,
  • step S103a The hysteresis adjustment value A is calculated (obtained from the storage unit 152).
  • the hysteresis adjustment value A is a value of 0 or less. That is, when the motion vector amount a is larger than the threshold value Tha, the adjustment value A (A ⁇ 0) for reducing the hysteresis is calculated.
  • the adjustment value A corresponding to the motion vector amount is set so as not to change the hysteresis amount.
  • step S102b The camera movement amount b detected by the camera movement detection unit (gyro sensor or the like) 202 is compared with the threshold value Thb. b> Thb If the above equation holds, In step S103b, The hysteresis adjustment value B is calculated (obtained from the storage unit 152). The hysteresis adjustment value B is a value of 0 or less. That is, when the camera movement amount b is larger than the threshold value Thb, the adjustment value B (B ⁇ 0) to reduce the hysteresis is calculated.
  • the camera movement amount corresponding adjustment value B is set so as not to change the hysteresis amount.
  • step S102c The zoom change rate c detected by the zoom change rate acquisition unit 203 is compared with the threshold value Thc. c> Thc If the above equation holds,
  • step S103c The hysteresis adjustment value C is calculated (obtained from the storage unit 152).
  • the hysteresis adjustment value C is a value of 0 or less. That is, when the zoom change rate c is larger than the threshold value Thc, the adjustment value C (C ⁇ 0) for reducing the hysteresis is calculated.
  • the zoom change rate corresponding adjustment value C is set so as not to change the hysteresis amount.
  • step S102d The illuminance change rate d detected by the illuminance change rate detection unit (illuminance sensor etc.) 204 is compared with the threshold value Thd. d> Thd If the above equation holds, In step S103d, The hysteresis adjustment value D is calculated (obtained from the storage unit 152). The hysteresis adjustment value D is a value of 0 or less. That is, when the illuminance change rate d is larger than the threshold value Thd, the adjustment value D (D ⁇ 0) to reduce the hysteresis is calculated.
  • the illuminance change rate d is larger than the threshold value Thd, the hysteresis is reduced, and in other cases, the illuminance change rate corresponding adjustment value D is calculated so as not to change the hysteresis amount.
  • step S102e The ISO sensitivity change rate e acquired by the ISO sensitivity change rate acquisition unit 205 is compared with the threshold value The. e> The If the above equation holds,
  • step S103e The hysteresis adjustment value E is calculated (obtained from the storage unit 152).
  • the hysteresis adjustment value E is a value of 0 or less. That is, when the ISO sensitivity change rate e is larger than the threshold value The, the adjustment value E (E ⁇ 0) for reducing the hysteresis is calculated.
  • the adjustment value E corresponding to the ISO sensitivity change rate is set so as not to change the hysteresis amount.
  • step S102f The scene change determination index value f input from the scene determination unit 206 is compared with the threshold value Thf. f> Thf If the above equation holds,
  • step S103f The hysteresis adjustment value F is calculated (obtained from the storage unit 152).
  • the hysteresis adjustment value F is a value of 0 or less. That is, when the scene change determination index value f is larger than the threshold value Thf, the adjustment value F (F ⁇ 0) for reducing the hysteresis is calculated.
  • the scene change determination index value f is larger than the threshold value Thf, the hysteresis is reduced, and in other cases, the scene change determination index value corresponding adjustment value F is set so as not to change the hysteresis amount.
  • step S102g The white balance change rate g input from the white balance change rate acquisition unit 207 is compared with the threshold value Thg. g> Thg If the above equation holds,
  • step S103g The hysteresis adjustment value G is calculated (obtained from the storage unit 152).
  • the hysteresis adjustment value G is a value of 0 or less. That is, when the white balance change rate g is larger than the threshold value Thg, the adjustment value G (G ⁇ 0) to reduce the hysteresis is calculated.
  • the white balance change rate g is larger than the threshold value Thg, the hysteresis is reduced, and in the other cases, the adjustment value G corresponding to the white balance change rate is calculated so as not to change the hysteresis amount.
  • step S102h The in-image face area occupancy h input from the face detection unit 208 is compared with the threshold value Thh. h> Thh If the above equation holds,
  • step S103h The hysteresis adjustment value H is calculated (obtained from the storage unit 152).
  • the hysteresis adjustment value H is a value of 0 or more. That is, when the in-image face area occupancy rate h is larger than the threshold value Thh, the adjustment value H (H> 0) to increase the hysteresis is calculated.
  • the in-image face area occupancy h is larger than the threshold value Thh, the hysteresis is increased, and in other cases, the in-image face area occupancy corresponding adjustment value H is set with the hysteresis amount not changed.
  • This process is an image that is easily noticed when the face area occupancy ratio in the image is large, and the shake of the image accompanying the switching of the reference image is noticeable, so the hysteresis is increased to reduce the occurrence of the reference image switching.
  • the in-image face area occupancy rate is small, it is an image that is difficult to pay attention to, and the image is hardly noticeable due to the switching of the reference image, so the hysteresis is reduced and the occurrence of reference image switching is not suppressed excessively It corresponds to the processing for
  • Step S104 When the processes of steps S103a to Sh are completed and the calculation of the hysteresis adjustment values A to H is completed, the hysteresis calculation unit 151 calculates a hysteresis total adjustment value in step S104.
  • the hysteresis total adjustment value is an added value of the hysteresis adjustment values A to H. That is, Motion vector amount corresponding adjustment value A, Camera movement amount corresponding adjustment value B, Zoom change rate corresponding adjustment value C, Illuminance change rate corresponding adjustment value D, ISO sensitivity change rate corresponding adjustment value E, Scene change judgment index value corresponding adjustment value F, White balance change rate corresponding adjustment value G, Adjustment value H for face area occupancy in image
  • the above-mentioned hysteresis total adjustment value is calculated.
  • a to G are values less than or equal to 0 and are adjustment values acting in the direction to make the hysteresis smaller
  • H is an adjustment value acting on the value in which the hysteresis is larger than 0 and only to make the hysteresis larger.
  • Step S105 Next, at step S105, the hysteresis calculation unit 151 The hysteresis to be finally applied, ie, (Reference hysteresis) + (Hysteresis total adjustment value) It is confirmed whether this calculated hysteresis is 0 or more.
  • the reference hysteresis is a default setting hysteresis which does not adjust the hysteresis. This value is stored in the storage unit 152.
  • step S106 If it is determined that the calculated hysteresis is 0 or more, the process proceeds to step S106.
  • Hysteresis (reference hysteresis) + (A + B + C + D + E + F + G + H) Calculate The hysteresis calculated here is output to the reference image selection unit 153 of the reference image determination unit 124 shown in FIG. Note that A to G ⁇ 0 and H ⁇ 0.
  • Hysteresis (reference hysteresis) + (A + B + C + D + E + F + G + H)
  • the hysteresis calculated according to the above equation is applied to execute switching processing of the reference image.
  • This reference image switching process is, for example, the process described above with reference to FIGS. 13 to 15.
  • the image processing apparatus changes the hysteresis applied to the switching process of the reference image according to the following adjustment values.
  • Motion vector amount corresponding adjustment value A Motion vector amount corresponding adjustment value A
  • Camera movement amount corresponding adjustment value B Zoom change rate corresponding adjustment value C
  • Illuminance change rate corresponding adjustment value D Illuminance change rate corresponding adjustment value D
  • ISO sensitivity change rate corresponding adjustment value E Scene change judgment index value corresponding adjustment value F
  • White balance change rate corresponding adjustment value G Adjustment value H for face area occupancy in image
  • hysteresis control parameters there are the following parameters, for example, as hysteresis control parameters.
  • In-screen motion vector amount (2) Camera movement amount, (3) Zoom change rate, (4) Illuminance change rate, (5) ISO sensitivity change rate, (6) Scene change judgment index value, (7) White balance change rate, (8) Face area occupancy rate in image, (9) Reference image change suppression mode setting value (ON / OFF)
  • the parameters (1) to (8) correspond to the in-screen motion vector calculation unit 201, camera motion detection unit (gyro sensor etc.) 202, zoom change rate detection unit 203, and illuminance change shown in the configuration diagram of FIG. 17 corresponds to detection information from a rate detection unit (illuminance sensor etc.) 204, an ISO sensitivity change rate acquisition unit 205, a scene determination unit 206, a white balance change rate acquisition unit 207, and a face detection unit 208. It is a parameter applied to the process described with reference to the flow.
  • the parameter (9) reference image change suppression mode setting value (ON / OFF) is a user setting parameter, for example, a parameter that can be set via the operation unit.
  • the reference image change suppression mode set value When the user sets the reference image change suppression mode set value to ON, the hysteresis can be reduced.
  • the in-screen motion vector amount is the motion vector amount a calculated by the in-screen motion vector calculation unit 201, and the motion vector amount a detected from a color image or a black and white image is larger than the threshold value Tha Is a hysteresis control parameter that reduces the hysteresis and does not change the amount of hysteresis otherwise.
  • the camera movement amount is the camera movement amount b detected by the camera movement detection unit (gyro sensor etc.) 202 of the camera that has captured a color image or black and white image, and if it is larger than the threshold Thb This is a hysteresis control parameter which is made smaller and in other cases does not change the hysteresis amount.
  • the zoom change rate is the zoom change rate c detected by the zoom change rate acquisition unit 203, and the hysteresis is used when the zoom change rate c of a camera that has captured a color image or black and white image is larger than the threshold Thc. Is a hysteresis control parameter which does not change the hysteresis amount otherwise.
  • the illumination change rate is the illumination change rate d detected by the illumination change rate detection unit (illumination sensor etc.) 204, and the illumination change rate d at the time of shooting a color image or black and white image is larger than the threshold Thd.
  • the hysteresis control parameter is used to reduce the hysteresis and otherwise change the amount of hysteresis.
  • the ISO sensitivity change rate is the ISO sensitivity change rate e acquired by the ISO sensitivity change rate acquisition unit 205, and the ISO sensitivity change rate e at the time of shooting a color image or black and white image is larger than the threshold value
  • the Is a hysteresis control parameter that reduces the hysteresis and does not change the amount of hysteresis otherwise.
  • the scene change determination index value is the scene change determination index value f calculated by the scene determination unit 206, and the hysteresis is used when the scene change determination index value f of a color image or black and white image is larger than the threshold Thf. Is a hysteresis control parameter which does not change the hysteresis amount otherwise.
  • the scene change determination index value f is an index value that increases as the scene change rate increases.
  • the white balance change rate is the white balance change rate g input from the white balance change rate acquisition unit 207. If the white balance change rate g of the color image is larger than the threshold Thg, the hysteresis is reduced. Otherwise, it is a hysteresis control parameter that does not change the hysteresis amount.
  • the in-image face area occupancy rate is the in-image face area occupancy rate h input from the face detection unit 208, and the in-image face area occupancy rate h of a color image or a black and white image is larger than the threshold value Thh.
  • the hysteresis control parameter is used to increase the hysteresis, and not change the amount of hysteresis otherwise.
  • the image processing apparatus of the present disclosure adjusts the hysteresis applied to the switching process of the reference image using various hysteresis control parameters. By this adjustment processing, it is possible to reduce reference image switching at an image frame position where the observer can easily notice the image shake.
  • the reference threshold is the occlusion area threshold Thx or the parallax threshold Thy described above with reference to FIG. 8 and is stored in the storage unit 152.
  • the user can change these setting values via, for example, the operation unit or the touch panel.
  • the reference hysteresis is the predefined default hysteresis described above with reference to FIGS. 13 to 15, and is stored in the storage unit 152.
  • the user can change the set value of the reference hysteresis via the operation unit or the touch panel.
  • Hysteresis Control Parameter Corresponding Hysteresis Adjustment Values The following adjustment values are described above with reference to the flowcharts of FIGS. Motion vector amount corresponding adjustment value A, Camera movement amount corresponding adjustment value B, Zoom change rate corresponding adjustment value C, Illuminance change rate corresponding adjustment value D, ISO sensitivity change rate corresponding adjustment value E, Scene change judgment index value corresponding adjustment value F, White balance change rate corresponding adjustment value G, Adjustment value H for face area occupancy in image
  • the adjustment values A to H are stored in the storage unit 152. The user can change the set values of the adjustment values A to H through the operation unit or the touch panel.
  • the hysteresis control parameter corresponding threshold values are the threshold values Tha to Thh described above with reference to the flowcharts of FIGS. 17 to 19, and are stored in the storage unit 152. The user can change these setting values via the operation unit or the touch panel.
  • a detection range of an in-image motion vector As an example of setting by the user of the application range corresponding to each hysteresis control parameter, there is, for example, setting of a detection range of an in-image motion vector. Specifically, it is possible to perform processing such as setting the motion vector detection range to the entire screen, only to the center of the screen, only to the face area detection range, or setting weights to the respective areas. The user can change the application range corresponding to each hysteresis control parameter via the operation unit or the touch panel.
  • the following settings can be applied.
  • the processing of the present disclosure can also be applied to the generation of composite images.
  • the following configuration is possible as a hysteresis control configuration corresponding to switching of the reference image.
  • the hysteresis is increased only for a prescribed time defined in advance, and switching of the reference image is suppressed.
  • the reference image may be switched.
  • the prescribed time is a time that can be set by the user.
  • the reference image determination unit 124 (1) Composite image with color image as reference image (2) Composite image with black and white image as reference image Although the switching control of these two composite images has been described, for example, the following processing may be performed.
  • the reference image determination unit 124 (1) Composite image with color image as reference image (2) Composite image with black and white image as reference image (3) Color image which does not execute composition processing (4) Black and white image which does not execute composition processing
  • any of these four types of images may be output based on detection information of the in-screen motion vector calculation unit 201 to the face detection unit 208, image quality information, or user settings.
  • the technology disclosed in the present specification can have the following configurations.
  • (1) It has an image processing unit that generates a composite image by executing composition processing of a color image and a black and white image captured from different viewpoints,
  • the image processing unit (A) A color image reference composite image in which a black and white image is registered at the image position of a color image, or (B) A black and white image reference composite image in which a color image is aligned at the image position of the black and white image, It is a structure which switches and produces
  • the reference image determination unit An image processing apparatus that performs control to set a hysteresis as the reference image switching threshold value and change the hysteresis according to a situation
  • the reference image switching threshold is The image processing apparatus according to (1), wherein the threshold is determined based on the image quality of the color image reference combined image and the black and white image reference combined image.
  • the reference image switching threshold is The image processing apparatus according to (1) or (2), which is a threshold value determined based on at least one of a parallax of a color image and a black and white image and / or an occlusion area.
  • the image processing unit The image processing apparatus according to any one of (1) to (3), which performs analysis processing in units of divided areas of each of a color image and a black and white image when determining the reference image.
  • the reference image determination unit A hysteresis calculation unit that performs control to change the hysteresis according to the situation;
  • the image processing apparatus according to any one of (1) to (4), further including: a reference image selection unit that executes switching of the reference image by applying the hysteresis calculated by the hysteresis calculation unit.
  • the reference image determination unit The image processing apparatus according to any one of (1) to (5), which performs control to reduce the hysteresis when the amount of motion vector detected from the color image and the black and white image is larger than a prescribed threshold value. .
  • the reference image determination unit The image processing apparatus according to any one of (1) to (6), performing control to reduce the hysteresis when the amount of movement of the camera capturing the color image and the black and white image is larger than a specified threshold value.
  • the reference image determination unit The image processing according to any one of (1) to (7), wherein control is performed to reduce the hysteresis when the zoom change rate of a camera that has captured the color image and the black and white image is larger than a specified threshold. apparatus.
  • the reference image determination unit The image processing apparatus according to any one of (1) to (8), which performs control to reduce the hysteresis when the rate of change in illuminance at the time of shooting the color image and the black and white image is larger than a specified threshold.
  • the reference image determination unit The image processing apparatus according to any one of (1) to (9), which performs control to reduce the hysteresis when the ISO sensitivity change rate at the time of photographing the color image and the black and white image is larger than a specified threshold. .
  • the reference image determination unit The image processing apparatus according to any one of (1) to (10), performing control to reduce the hysteresis when the scene change determination index value of the color image and the black and white image is larger than a prescribed threshold value.
  • the reference image determination unit The image processing apparatus according to any one of (1) to (11), performing control to reduce the hysteresis when the white balance change rate of the color image is larger than a specified threshold value.
  • the reference image determination unit The image processing apparatus according to any one of (1) to (12), performing control to increase the hysteresis when the face area occupancy rate of the color image or the black and white image is larger than a prescribed threshold value.
  • the reference image determination unit The image processing apparatus according to any one of (1) to (13), wherein change control of the hysteresis is continuously performed during execution of shooting of a moving image.
  • the image processing unit has a process of synthesizing the first image and the second image captured from different viewpoints to generate a synthesized image
  • the image processing unit (A) A first image reference composite image in which the second image is aligned with the image position of the first image, or (B) a second image reference composite image in which the first image is aligned with the image position of the second image; It is a structure which switches and produces
  • the image processing apparatus executes synthesis processing of a color image and a black and white image captured from different viewpoints.
  • the reference image determination unit of the image processing apparatus Execute a reference image determination process to determine which of the color image and the black and white image is to be used as the reference image,
  • the image processing method which performs control which sets a hysteresis to the said reference
  • An image processing method executed by an image processing apparatus executes composition processing of the first image and the second image captured from different viewpoints, (A) A first image reference composite image in which the second image is aligned with the image position of the first image, or (B) a second image reference composite image in which the first image is aligned with the image position of the second image; It is a structure which switches and produces
  • the reference image determination unit of the image processing apparatus Execute a reference image determination process to determine which one of the first image and the second image is to be used as a reference image;
  • the reference image determination unit The image processing method which performs control which sets a hysteresis to the said reference
  • a program that causes an image processing apparatus to execute image processing The image processing apparatus executes synthesis processing of a color image and a black and white image captured from different viewpoints.
  • the program is stored in a reference image determination unit of the image processing apparatus.
  • a program that sets a hysteresis to the reference image switching threshold value and performs control to change the hysteresis according to a situation.
  • the series of processes described in the specification can be performed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in memory in a computer built into dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It is possible to install and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be installed from a recording medium to a computer, or can be installed in a recording medium such as a built-in hard disk by receiving a program via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • a system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to those in the same housing.
  • an apparatus and method are implemented that perform switching between a color image reference composite image and a black and white image reference composite image at an optimal timing that makes it difficult for an observer to notice .
  • a color image reference composite image obtained by inputting a color image and a black and white image captured from different viewpoints and (a) aligning the black and white image to the image position of the color image, or (b) black and white image
  • a black and white image reference composite image in which a color image is registered at the image position of, and these two types of composite images are switched and generated based on a predetermined reference image switching threshold.
  • the hysteresis is set, the hysteresis is changed according to the situation, and the reference image switching can be performed at the optimum timing at which the observer hardly notices.
  • an apparatus and method are implemented that perform switching between the color image reference composite image and the black and white image reference composite image at an optimal timing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

カラー画像基準合成画像と白黒画像基準合成画像の切り替えを観察者が気づきにくい最適タイミングで実行する装置、方法を実現する。異なる視点から撮影されたカラー画像と白黒画像を入力し、(a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、(b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、これら2種類の合成画像を予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成において、基準画像切り替えしきい値にヒステリシスを設定し、ヒステリシスを状況に応じて変更し、基準画像切り替えを観察者が気づきにくい最適タイミングで実行可能とする。

Description

画像処理装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、複数の撮像部で撮影された2つの画像を合成して高品質画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。
 画質の異なる複数の画像を合成することで高品質な画像を生成することが知られている。
 例えば特許文献1(特開2015-197745号公報)には、カラー画像と白黒画像を合成して、カラー画像の色彩情報と、白黒画像の輝度情報を用いて高品質画像を生成する構成が開示されている。
特開2015-197745号公報
 上記特許文献1には、カラー画像と白黒画像を合成して高品質画像を生成する構成が開示されている。
 しかし、この特許文献1に記載の合成画像生成処理は、撮影状況に応じてカラー画像と白黒画像のいずれかを基準画像に設定して画像合成を行う構成ではない。
 これに対して本開示の処理においては、例えば、撮影状況に応じてより高画質な合成画像を生成するように、カラー画像と白黒画像の一方の画像を基準画像(メイン画像)として合成画像を生成する。ただし、このような構成とすると、例えば撮影画像が動画である場合、撮影条件の変化により基準画像を切り替える必要が発生する。この画像切り替えが頻繁に発生すると2つの画像の視差に基づく視点移動が起こり、画像の観察ユーザに違和感を生じさせる。
 本開示は、2つの基準画像の切り替え制御を行い、画像観察ユーザの違和感を解消、または低減する画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する画像処理部を有し、
 前記画像処理部は、
 (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
 (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、さらに、
 カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行する基準画像決定部を有し、
 前記基準画像決定部は、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理装置にある。
 さらに、本開示の第2の側面は、
 異なる視点から撮影された第1画像と第2画像の合成処理を実行して合成画像を生成する画像処理部を有し、
 前記画像処理部は、
 (a)前記第1画像の画像位置に前記第2画像を位置合わせした第1画像基準合成画像、または、
 (b)前記第2画像の画像位置に前記第1画像を位置合わせした第2画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、さらに、
 前記第1画像と前記第2画像のいずれを基準画像とするかを決定する基準画像決定処理を実行する基準画像決定部を有し、
 前記基準画像決定部は、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理装置にある。
 さらに、本開示の第3の側面は、
 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して、
 (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
 (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
 前記画像処理装置の基準画像決定部が、
 カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行し、
 前記基準画像決定部は、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理方法にある。
 さらに、本開示の第4の側面は、
 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、異なる視点から撮影された第1画像と第2画像の合成処理を実行して、
 (a)第1画像の画像位置に第2画像を位置合わせした第1画像基準合成画像、または、
 (b)第2画像の画像位置に第1画像を位置合わせした第2画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
 前記画像処理装置の基準画像決定部が、
 第1画像と第2画像のいずれを基準画像とするかを決定する基準画像決定処理を実行し、
 前記基準画像決定部は、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理方法にある。
 さらに、本開示の第5の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して、
 (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
 (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
 前記プログラムは、前記画像処理装置の基準画像決定部に、
 カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行させ、
 前記基準画像決定処理において、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行わせるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、カラー画像基準合成画像と白黒画像基準合成画像の切り替えを観察者が気づきにくい最適タイミングで実行する装置、方法が実現される。
 具体的には、例えば、異なる視点から撮影されたカラー画像と白黒画像を入力し、(a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、(b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、これら2種類の合成画像を予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成において、基準画像切り替えしきい値にヒステリシスを設定し、ヒステリシスを状況に応じて変更し、基準画像切り替えを観察者が気づきにくい最適タイミングで実行可能とする。
 本構成により、カラー画像基準合成画像と白黒画像基準合成画像の切り替えを観察者が気づきにくい最適タイミングで実行する装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
画像処理装置の外観構成例について説明する図である。 画像処理装置の構成例について説明する図である。 撮像素子の構成例について説明する図である。 白黒画像の画質について説明する図である。 カラー画像の画質について説明する図である。 オクルージョンについて説明する図である。 画像処理部の構成例について説明する図である。 基準画像決定処理の一例について説明する図である。 基準画像決定処理の一例について説明する図である。 基準画像切り替えに基づく問題点について説明する図である。 基準画像切り替えに基づく問題点について説明する図である。 基準画像決定部の構成と処理について説明する図である。 ヒステリシスを適用した基準画像切り替え処理について説明する図である。 ヒステリシスを適用した基準画像切り替え処理について説明する図である。 ヒステリシスを適用した基準画像切り替え処理について説明する図である。 基準画像決定部の実行する処理のシーケンスについて説明するフローチャートを示す図である。 基準画像決定部の実行する処理のシーケンスについて説明するフローチャートを示す図である。 基準画像決定部の実行する処理のシーケンスについて説明するフローチャートを示す図である。 基準画像決定部の実行する処理のシーケンスについて説明するフローチャートを示す図である。 ヒステリシス制御パラメータについて説明する図である。 ユーザ設定可能なパラメータについて説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.画像処理装置の構成例について
 2.画像処理部の実行する合成画像の生成処理について
 3.基準画像決定部の実行する基準画像の決定処理について
 4.基準画像決定部の実行する処理のシーケンスについて
 5.ユーザ設定可能なパラメータについて
 6.その他の実施例について
 7.本開示の構成のまとめ
  [1.画像処理装置の構成例について]
 図1は、本開示の画像処理装置の一構成例を示す図である。図1は、カメラ機能を備えた情報処理端末(スマホ)であり、本開示の画像処理装置の一例である。
 なお、本開示の画像処理装置は、このような情報処理端末(スマホ)に限らず、例えばカメラ等の撮像装置、あるいはカメラ撮影画像を入力して画像処理を行うPC等の装置も含まれる。
 図1(a)は画像処理装置10の表側を示しており、表示部11および操作部12が表側に設けられている。図1(b)は画像処理装置10の裏側を示しており、複数の撮像部、すなわちカラー画像撮像部21、白黒画像撮像部22が裏側に設けられている。
 図2は、画像処理装置の構成例を示している。
 画像処理装置100は、撮像部110を構成するカラー画像撮像部111、白黒画像撮像部112、画像処理部120、さらに、画像処理部120の処理画像の出力部130として表示部131、記憶部132を有する。
 さらに、センサ部141、操作部142、制御部150、通信部160を有している。
 カラー画像撮像部111、白黒画像撮像部112は、図1(b)に示すように画像処理装置100の同一面側に設けられている。カラー画像撮像部111、白黒画像撮像部112は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を用いて構成されており、レンズ(図示せず)により取り込まれた光の光電変換を行い、撮像画の画像データを生成して画像処理部120へ出力する。また、カラー画像撮像部111、白黒画像撮像部112は特性差を有している。
 図3は、撮像部の画素配列を例示している。図3(a)は、白黒画像撮像部112の画素配列を示している。白黒画像撮像部112は、全画素が、可視光の全波長領域の入射光量に基づく電気信号を出力するW(ホワイト)画素によって構成される。したがって、白黒画像撮像部112は、白黒画像の画像データを生成する。
 図3(b)は、カラー画像撮像部111の画素配列を示している。カラー画像撮像部111は、例えば赤色(R)画素と青色(B)画素と緑色(G)画素をベイヤ配列としたカラーフィルタを用いて構成されている。ベイヤ配列では2×2画素の画素単位において対角位置の2つの画素が緑色(G)画素で、残りの画素が赤色(R)画素と青色(B)画素とされている。すなわち、カラー画像撮像部111は、各画素が赤色と青色と緑色のいずれか1つの色成分の入射光量に基づく電気信号を出力する色画素によって構成されている。したがって、カラー画像撮像部111は、各画素が三原色(RGB)成分のいずれかを示すカラー画像の画像データを生成する。
 画像処理部120は、カラー画像撮像部111、白黒画像撮像部112で取得された撮像画を用いて、合成画像を生成する。すなわち、画像処理部120は、カラー画像撮像部111、白黒画像撮像部112で取得された撮像画を用いて画像処理を行い、カラー画像撮像部111や、白黒画像撮像部112で個々に取得される撮像画を高画質化した合成画像を生成して、出力部130内の表示部131や記憶部132へ出力する。なお、画像処理部120の構成および動作の詳細については後述する。
 センサ部141はジャイロセンサなどを用いて構成されており、画像処理装置100に生じた揺れを検出する。センサ部141は、検出した揺れの情報を制御部150へ出力する。
 通信部160は、LAN(Local Area Network)やインターネットなどのネットワーク上の機器と通信を行う。
 表示部131は、画像処理部120から供給された画像データに基づき撮像画の表示、制御部150からの情報信号に基づきメニュー画面や各種アプリケーション画面等の表示を行う。なお、表示部131の表示面はタッチパネル構成を有し、GUI機能利用できるように構成されている。
 操作部142は操作スイッチ等を用いて構成されており、ユーザ操作に応じた操作信号を生成して制御部150へ出力する。
 記憶部132は、画像処理装置100で生成された情報例えば画像処理部120から供給された画像データや、画像処理装置100で通信やアプリケーションを実行するために用いられる各種情報を記憶する。
 制御部150は、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)(図示せず)などで構成されている。制御部150は、ROMまたはRAMに記憶されたプログラムを実行して、表示部131を構成するタッチパネルや操作部142に対するユーザ操作に応じた動作が画像処理装置100で行われるように各部の動作を制御する。
 なお、画像処理装置100は、図2に示す構成に限られず、例えば画像データを符号化して記憶部132に記憶するための符号化処理部、画像データを表示部の解像度に合わせる解像度変換部等が設けられてもよい。
  [2.画像処理部の実行する合成画像の生成処理について]
 次に、画像処理部120の実行する合成画像の生成処理について説明する。
 図2に示す画像処理部120は、白黒画像撮像部112で取得された白黒画像とカラー画像撮像部111で取得されたカラー画像を用いて画像合成処理を行う。
 図4は、白黒画像を基準画像とした画像合成処理によって得られる画質を説明するための図である。例えば、白黒画像を基準として、白黒画像の画像位置にカラー画像を位置合わせした後、画像合成を行って合成画像を生成すると、白黒画像撮像部112で用いられているレンズおよびセンサの特性に応じて輝度を忠実に再現することができる。
 一方、図5は、カラー画像を基準画像とした画像合成処理によって得られる画質を説明するための図である。例えば、カラー画像を基準として、カラー画像の画像位置に白黒画像を位置合わせした後、画像合成を行って合成画像を生成すると、カラー画像を基準としていることから合成画像では色ずれを生じることがなく、白黒画像撮像部112で用いられているレンズおよびセンサの特性に応じて輝度を忠実に再現することができる。
 しかし、白黒画像撮像部112とカラー画像撮像部111では視点が異なることから、遠景に比べて近景では色ずれを生じるリスクが高くなる。また、遠景に比べて近景ではオクルージョン領域が増加する。
 オクルージョン領域は、例えば撮像部に近い障害物等によって、一方の画像にのみ撮影され、他方の画像に撮影されない領域である。
 図6は、白黒画像撮像部112で取得される白黒画像を基準としたときのオクルージョン領域を示している。視差によってオクルージョンが生じると、カラー画像撮像部111で取得されたカラー画像ではオクルージョン領域に対応する画像データがない。このため画像合成処理によって生成された合成画像ではオクルージョン領域で色情報が欠落した画像となる。さらに、遠景に比べて近景の画素では一方の撮像画における注目画素に対応する画素が視差検出の探索範囲を超えて、視差ベクトルを算出できないおそれもある。したがって、画像合成処理によって得られる合成画像は、カラー画像撮像部111で取得されたカラー画像よりも画質が劣化する場合がある。
 また、白黒画像撮像部112はカラーフィルタを用いたカラー画像撮像部111に比べて感度が高いことから、被写体の輝度が高くなると、カラー画像撮像部111に比べて画素の飽和を生じやすい。このように白黒画像において飽和した画素が多くなると、合成画像では、カラー画像撮像部111で取得されたカラー画像に比べて被写体の高輝度部分がより多く飽和している画質の劣化したカラー画像となってしまう。
 このため、画像処理部120は、撮像画に基づき視差や画素の飽和に起因する画質の劣化を生じるか否かの画像合成判定を行う。画像処理部120は、画像合成判定結果に応じて、以下の2種類の合成画像のいずれか一方を生成する。
 カラー画像撮像部111で取得されたカラー画像を基準画像とした合成画像、
 白黒画像撮像部112で取得された白黒画像を基準画像とした合成画像。
 図7は、画像処理部120の詳細構成例を示す図である。
 画像処理部120は、前処理部121,122、視差&オクルージョン検出部123、基準画像決定部124、画像合成部125を有している。
 前処理部121,122は、カラー画像撮像部111、白黒画像撮像部112の取得した撮像画の画像データに対して、レンズ歪補正や欠陥画素補正、ホワイトバランス調整等の画像補正処理を行う。補正後の画像データは、視差&オクルージョン検出部123と、基準画像決定部124、画像合成部125へ出力する。
 視差&オクルージョン検出部123は、前処理部121,122から供給された白黒画像データとカラー画像データに基づいて視差検出とオクルージョン検出を行う。
 白黒画像撮像部112とカラー画像撮像部111は、図1の(b)に示すように異なる視点位置から撮像を行うため、白黒画像撮像部112とカラー画像撮像部111で取得された撮像画は視差を持つ画像となる。
 視差&オクルージョン検出部123は、ブロックマッチングなどの対応点検出処理によって、画素単位の視差情報と、オクルージョン領域検出を行う。この検出情報は、基準画像決定部124に出力される。
 基準画像決定部124は、前処理部121,122から供給された白黒画像データとカラー画像データ、さらに、視差&オクルージョン検出部123の検出した2つの画像データの画素単位または画像領域単位の視差情報と、オクルージョン領域検出情報を入力する。
 基準画像決定部124は、これらの情報に基づいて、カラー画像、白黒画像、どちらの画像を基準画像に設定するかを決定する。
 基準画像は、合成画像を生成する際の基準となる画像である。
 カラー画像を基準画像に設定した場合、画像合成部125では、前処理部121から供給されたカラー画像データをベースとして、白黒画像から得られる輝度情報に基づく画素値補正を行い、合成画像を生成する。
 一方、白黒画像を基準画像に設定した場合、画像合成部125では、前処理部122から供給された白黒画像データをベースとして、カラー画像から得られる色情報に基づく画素値補正を行い、合成画像を生成する。
 基準画像決定部124は、
 白黒画像を基準画像として生成した合成画像と、
 カラー画像を基準画像として生成した合成画像、
 これら2種類のいずれの合成画像が高画質な画像となり得るかを判定し、高画質合成画像を生成可能な方を選択する。
 以下、この判定処理の一つの具体例について説明する。
 基準画像決定部124は、視差&オクルージョン検出部123の検出した2つの画像データの視差情報と、オクルージョン領域検出情報に基づいて、カラー画像、白黒画像、どちらの画像を基準画像に設定するかを決定する。
 この基準画像決定処理の一例について、図8を参照して説明する。
 図8に示すグラフは、横軸にオクルージョン面積、縦軸に視差を設定したグラフである。
 横軸のオクルージョン面積は、カラー画像撮像部111の撮影したカラー画像と、白黒画像撮像部112の撮影した白黒画像、これら2つの画像の画像領域に含まれるオクルージョン領域の占有率(%)に相当する。
 縦軸の視差は、カラー画像撮像部111の撮影したカラー画像と、白黒画像撮像部112の撮影した白黒画像、これら2つの画像の視差(例えば画素数)である。
 基準画像決定部124は、これらのオクルージョン領域占有率と視差を、まず、画像を分割した分割領域単位で算出する。
 図9を参照してこの処理について説明する。
 図9はカラー画像撮像部111の撮影したカラー画像、または白黒画像撮像部112の撮影した白黒画像撮影画像である。
 基準画像決定部124は、2つの画像のいずれか一方の画像を選択し、選択画像に複数の分割領域を設定する。図9に示す点線で区分けされた分割領域である。
 基準画像決定部124は、各分割領域単位のオクルージョン領域占有率と視差(平均値)を算出する。
 例えば、図9に示す例では、8×5=40個の分割領域が設定されており、40個のオクルージョン領域占有率と視差(平均値)を算出する。
 この40個のオクルージョン領域占有率と視差(平均値)を、図8に示すグラフ上に配置する。
 すなわち、
 オクルージョン領域占有率=x、
 視差(平均値)=y、
 としたときの座標(x,y)を図8に示すグラフ上に配置する。
 この処理によって、例えば、50%以上がカラー画像基準領域に含まれていれば、基準画像をカラー画像とする。
 また、50%以上が白黒画像基準領域に含まれていれば、基準画像を白黒画像とする。
 基準画像決定部124は、このような処理によって、基準画像を決定する。
 なお、上述した処理例は一例であり、その他の処理も可能である。
 例えば画像の中央領域にある分割領域に大きな重みを設定して、中央領域のオクルージョン領域占有率と視差(平均値)をより大きく反映させて基準画像を決定する処理を行ってもよい。
 あるいは、顔領域が検出された分割領域の重みを高くして基準画像を決定する処理を行ってもよい。
 図8に示すグラフから理解されるように、
 オクルージョン面積占有率がしきい値Thx未満で、視差が視差しきい値Thy未満の場合は、白黒画像を基準画像とする。
 一方、オクルージョン面積占有率がしきい値Thx以上、あるいは視差が視差しきい値Thy以上の場合は、カラー画像を基準画像とする。
 基準画像決定部124は、このような処理によって、基準画像を決定する。
 オクルージョン面積占有率が小さく、かつ視差が小さい場合、白黒画像を基準画像として白黒画像の忠実な輝度情報を画像全体に適用することで、高画質な画像を生成することができる。
 すなわち、オクルージョン面積占有率が小さく、かつ視差が小さい場合は、オクルージョンによってカラー画像から色情報が取得できない領域が小さく、また視差による色ずれの問題も少ないため、白黒画像を基準画像として白黒画像の忠実な輝度情報を画像全体に適用した高画質な白黒画像基準合成画像を生成する。
 一方、オクルージョン面積占有率が大きい場合、または視差が大きい場合は、オクルージョンによってカラー画像から色情報が取得できない領域が大きいか、あるいは視差による色ずれの問題が発生する領域が大きくなる可能性があり、これらの問題を低減させるためカラー画像を基準画像としたカラー画像基準合成画像を生成する。
 なお、カラー画像基準合成画像においても白黒画像の輝度情報を適用した合成画像生成処理を行う。
 なお、この図8、図9を参照して説明した基準画像決定処理は一例であり、基準画像決定部124は、その他の画像特徴量を用いて、
 白黒画像を基準画像として生成した合成画像と、
 カラー画像を基準画像として生成した合成画像、
 これら2種類のいずれの合成画像が高画質であるかを判定し、高画質合成画像を生成可能な方を選択する構成とすることが可能である。
 基準画像決定部124の決定した基準画像情報は、画像合成部125に入力される。
 画像合成部125は、前処理部121,122から供給された白黒画像データとカラー画像データ、さらに、基準画像決定部124の決定した基準画像情報を入力する。
 画像合成部125は、
 基準画像決定部124の決定した基準画像がカラー画像である場合、前処理部121から供給されたカラー画像データをベースとして、白黒画像から得られる輝度情報に基づく画素値補正を行い、合成画像を生成する。
 この場合、カラー画像の画像位置に白黒画像を位置合わせしたのち画像合成を行って合成画像を生成する。
 一方、基準画像決定部124の決定した基準画像が白黒画像である場合、前処理部122から供給された白黒画像データをベースとして、カラー画像から得られる色情報に基づく画素値補正を行い、合成画像を生成する。
 この場合、白黒画像の画像位置にカラー画像を位置合わせしたのち画像合成を行って合成画像を生成する。
 しかし、このような合成画像生成処理を行うと、以下の問題が発生する。
 この問題点について図10、図11を参照して説明する。
 この問題は、撮影す画像が動画である場合に発生する。
 上述したように、最終的な出力画像である合成画像は、
 (a)カラー画像を基準としたカラー画像基準合成画像
 (b)白黒画像を基準とした白黒画像基準合成画像、
 これらの2種類のいずれかが生成される。
 どちらの画像が生成されるかは、基準画像決定部124の決定情報に基づくものとなる。
 先に図8を参照して説明したように、基準画像決定部124は、例えば2つの画像(カラー画像、白黒画像)のオクルージョン領域と視差に基づいて、どちらの画像を基準画像として決定する。
 しかし、動画の撮影時には、2つの画像(カラー画像、白黒画像)のオクルージョン領域と視差は、逐次変化する。
 従って、例えば、図10に示すように、動画の撮影中に、オクルージョン面積しきい値Thx、あるいは視差しきい値Thyを挟んだ領域P,Q内で激しく変動する可能性がある。
 すなわち、カラー画像基準領域と、白黒画像基準領域との間を行ったり来たりする可能性がある。
 このような事態が発生すると、図10下部の(a)動画像フレームシーケンスの一例に示すように、各フレームで基準画像が入れ替わる現象が発生する。
 先に図1を参照して説明したように、カラー画像撮像部と、白黒画像撮像部は異なる位置に設定されており、撮影画像は位置ずれのある画像となる。
 図11に示すように、カラー画像基準合成画像と、白黒画像基準合成画像は、位置ずれのある異なる画像になる。
 この位置ずれのある2つの画像を短時間で頻繁に切り替えると画像を観察するユーザは、画像の揺れを認識し違和感を生じる。
 以下、この問題を解決する本開示の画像処理装置の構成と処理について説明する。
  [3.基準画像決定部の実行する基準画像の決定処理について]
 以下、本開示の画像処理装置の実行する基準画像の決定処理について説明する。
 図12以下を参照して、本開示の画像処理装置100の基準画像決定部124の構成と処理について説明する。
 図12に示すように、本開示の画像処理装置100の基準画像決定部124は、ヒステリシス算出部151、記憶部152、基準画像選択部153を有する。
 ヒステリシス算出部151は、画面内動きベクトル算出部201、カメラ動き検出部(ジャイロセンサ等)202、ズーム変化率検出部203、照度変化率検出部(照度センサ等)204、ISO感度変化率取得部205、シーン判定部206、ホワイトバランス変化率取得部207、顔検出部208の検出情報を取得する。
 なお、画面内動きベクトル算出部201、カメラ動き検出部(ジャイロセンサ等)202、ズーム変化率検出部203、照度変化率検出部(照度センサ等)204、ISO感度変化率取得部205、シーン判定部206、ホワイトバランス変化率取得部207、顔検出部208、これらの構成は、画像処理装置100の構成要素である。これらの各構成は、基準画像決定部124、またはヒステリシス算出部151内に構成してもよく、また、外部に構成してもよい。
 例えば、これらの構成要素の一部をヒステリシス算出部151内に構成してもよい。この場合は、ヒステリシス算出部151自身が検出情報の生成、取得を行うことになる。例えば、画面内動きベクトル算出部201をヒステリシス算出部151内に設けた場合、ヒステリシス算出部151にカラー画像と白黒画像を入力して、これらの画像解析を行って動きベクトルの取得を行うといった処理が可能である。
 ヒステリシス算出部151は、画面内動きベクトル算出部201~顔検出部208の検出情報を取得し、これらの検出情報に基づいてヒステリシスを算出する。
 ヒステリシスについて、図13を参照して説明する。
 図13下部に示す(1)ヒステリシスを適用した状態遷移時の基準画像切り換え処理例には、上部に示すオクルージョン面積と視差とに基づく基準画像決定グラフのしきい値近傍の拡大図を示している。
 オクルージョン面積しきい値(Thx)、または視差しきい値(Thy)の近傍に相当する。
 動画撮影中に図13(1)に示す状態遷移Aが発生した場合、すなわち、白黒画像基準領域から、しきい値を超えてカラー画像基準領域に状態(オクルージョンまたは視差)が変化した場合、本開示の画像処理装置100の基準画像決定部124は、しきい値(Thx、またはThy)で基準画像を切り替えることなく、しきい値から離間した位置Pに至るまで、現在の基準画像(白黒画像)を維持する。位置Pを超えると基準画像を白黒画像からカラー画像に切り替える。
 同様に、図13(1)に示す状態遷移Bが発生した場合、すなわち、カラー画像基準領域から、しきい値を超えて白黒画像基準領域に状態(オクルージョンまたは視差)が変化した場合、本開示の画像処理装置100の基準画像決定部124は、しきい値(Thx、またはThy)で基準画像を切り替えることなく、しきい値から離間した位置Qに至るまで、現在の基準画像(カラー画像)を維持する。位置Qを超えると基準画像をカラー画像から白黒画像に切り替える。
 すなわち、基準画像の切り替えをしきい値を境界にして実行するのではなく、所定のヒステリシスを設定して、しきい値を超えた位置デ実行する。
 このようなヒステリシスを設定することで、先に図10、図11を参照して説明したような基準画像の頻繁な切り換えによる画像の揺れを防止することができる。
 なお、本開示の画像処理装置100の基準画像決定部124は、このヒステリシスの大きさ(ヒステリシス量)を、図12に示す画面内動きベクトル算出部201~顔検出部208の検出情報に基づいて変更する制御を行う。
 図13(1)に示す例ではヒステリシスの大きさ(ヒステリシス量)=2Lであるが、このヒステリシス量を画面内動きベクトル算出部201~顔検出部208からの検出情報に基づいて変更する。
 例えば、図14(1)には、基準ヒステリシスを適用した状態遷移時の基準画像切り替え処理例を示しているが、基準画像決定部124は、画面内動きベクトル算出部201~顔検出部208からの検出情報に基づいて、図14(2)に示すように、ヒステリシス量を大きくする。
 図14(2)には、拡張ヒステリシスを適用した状態遷移時の基準画像切り替え処理例を示している。この場合、基準ヒステリシスを適用した状態遷移時の基準画像切り替え処理より、基準画像の切り替えが発生しにくくなる。
 また、基準画像決定部124は、画面内動きベクトル算出部201~顔検出部208からの検出情報に基づいて、図15(2)に示すように、ヒステリシス量を小さくする制御も行う。
 図15(2)には、縮小ヒステリシスを適用した状態遷移時の基準画像切り替え処理例を示している。この場合、基準ヒステリシスを適用した状態遷移時の基準画像切り替え処理より、基準画像の切り替えが発生しやすくなる。
 図12を参照して説明したように、基準画像決定部124は、ヒステリシス算出部151、記憶部152、基準画像選択部153を有する。
 基準画像決定部124は、
 (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
 (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
 これら(a),(b)2種類の合成画像のいずれを生成するかを決定する。
 すなわち、予め規定された基準画像切り替えしきい値に基づいて基準画像の切り替えを行う。
 基準画像決定部124は、基準画像切り替えしきい値に、図13~図15を参照して説明したヒステリシスを設定し、さらに、設定するヒステリシスを状況に応じて変更する制御を行う。
 基準画像決定部124のヒステリシス算出部151は、画面内動きベクトル算出部201、カメラ動き検出部(ジャイロセンサ等)202、ズーム変化率検出部203、照度変化率検出部(照度センサ等)204、ISO感度変化率取得部205、シーン判定部206、ホワイトバランス変化率取得部207、顔検出部208からの検出情報に基づいてヒステリシスの大きさを変更する。すなわちヒステリシス量を変更する制御を行う。
 なお、具体的には、予め規定された大きさ(図13(1)に示すP~Q=2L)の基準ヒステリシスに対する調整値を、画面内動きベクトル算出部201~顔検出部208各々の検出情報に基づいて算出し、算出した調整値を適用して、最終的に適用するヒステリシスを算出する。
 すなわち、
 ヒステリシス=基準ヒステリシス+調整値
 として、最終的な適用ヒステリシス(量)を算出する。
 具体的な処理シーケンスについては後述する。
 図12に示す基準画像決定部124内の記憶部152には、例えば、以下のデータが格納される。
 (1)オクルージョン面積しきい値(Thx)、視差しきい値(Thy)、
 (2)基準ヒステリシス(=デフォルトヒステリシス)、
 (3)画面内動きベクトル算出部201~顔検出部208各々の検出情報(ヒステリシス制御パラメータ)に基づいて算出した算出ヒステリシス、
 (4)画面内動きベクトル算出部201~顔検出部208各々の検出情報に対応して設定されるしきい値(ヒステリシス制御パラメータ対応しきい値)、
 (5)画面内動きベクトル算出部201~顔検出部208各々の検出情報(ヒステリシス制御パラメータ)に対応する調整値、
 基準画像選択部153は、ヒステリシス算出部151の算出したヒステリシスを適用して基準画像の切り替え制御を実行する。
 先に説明したように、ヒステリシス算出部151は、画面内動きベクトル算出部201、カメラ動き検出部(ジャイロセンサ等)202、ズーム変化率検出部203、照度変化率検出部(照度センサ等)204、ISO感度変化率取得部205、シーン判定部206、ホワイトバランス変化率取得部207、顔検出部208の検出情報を取得する。
 画面内動きベクトル算出部201は、カラー画像撮像部111の撮影したカラー画像、または白黒画像撮像部112の撮影した白黒画像の少なくともいずれかの画像に基づいて、各画素または画像領域単位の動きベクトルを算出する。
 例えば算出した動きベクトルの平均値がヒステリシス算出部151に入力される。
 なお、画面内動きベクトル算出部201は、例えば画像中央部の動きベクトルに重みを大きく設定した算出値、あるいは顔検出領域の動きベクトルに重みを大きく設定した算出値を算出してヒステリシス算出部151に入力してもよい。
 カメラ動き検出部(ジャイロセンサ等)202は、例えば、カメラ(画像処理装置100)に備えられたジャイロセンサの検出値、すなわちカメラの動き情報を取得してヒステリシス算出部151に出力する。
 ズーム変化率検出部203は、カメラ(画像処理装置100)のズーム設定の変化率を取得する。すなわち、ズーム設定の変化率情報を取得してヒステリシス算出部151に出力する。
 照度変化率検出部(照度センサ等)204は、カメラ(画像処理装置100)に備えられた照度センサの検出値に基づく照度変化率情報を取得してヒステリシス算出部151に出力する。
 ISO感度変化率取得部205は、カメラ(画像処理装置100)のISO感度変化率情報を取得してヒステリシス算出部151に出力する。
 シーン判定部206は、カラー画像撮像部111の撮影したカラー画像、または白黒画像撮像部112の撮影した白黒画像の少なくともいずれかの画像に基づいて、動画像の各フレームのシーンの切り換え状況を判別する。具体的には、例えば予め規定したルールに従ったフレーム間画像変化率(シーン変化判定指標値)を算出してヒステリシス算出部151に出力する。
 ホワイトバランス変化率取得部207は、撮影画像に適用されるホワイトバランス設定値の変化率を画像処理部または記憶部から取得してヒステリシス算出部151に出力する。
 顔検出部208は、カラー画像撮像部111の撮影したカラー画像、または白黒画像撮像部112の撮影した白黒画像の少なくともいずれかの画像に基づく顔検出を実行し、例えば、画像内に顔が検出されたか否かの情報、あるいは、画像内に含まれる顔領域の占有率情報を算出してヒステリシス算出部151に出力する。
  [4.基準画像決定部の実行する処理のシーケンスについて]
 次に、本開示の画像処理装置100の基準画像決定部124の実行する処理のシーケンスについて、図16に示すフローチャートを参照して説明する。
 なお、このフローに従った処理は、記憶部に格納されたプログラムに従って実行することが可能であり、例えばプログラム実行機能を有するCPU等のプロセッサによるプログラム実行処理として行うことができる。
 以下、図16のフローチャートに示す各ステップの処理について説明する。
  (ステップS11)
 まず、基準画像決定部124は、ステップS11において入力情報に基づくヒステリシス算出処理を実行する。
 この処理は基準画像決定部124のヒステリシス算出部151において実行される。
 ヒステリシス算出部151は、画面内動きベクトル算出部201、カメラ動き検出部(ジャイロセンサ等)202、ズーム変化率検出部203、照度変化率検出部(照度センサ等)204、ISO感度変化率取得部205、シーン判定部206、ホワイトバランス変化率取得部207、顔検出部208からの検出情報に基づいてヒステリシスを算出する。
 この具体的な算出処理シーケンスについては、後段で図17に示すフローを参照して説明する。
  (ステップS12~S13)
 次に、基準画像決定部124は、ステップS12~S13において、ステップS11で算出したヒステリシスを適用して、基準画像の切り替え処理が必要か否かを判定する。
 この処理は基準画像決定部124の基準画像選択部153において実行される。
 基準画像選択部153は、ステップS11で算出したヒステリシスを適用して、基準画像の切り替え処理が必要か否かを判定する。
 基準画像選択部153は、前処理部121,122から供給された白黒画像データとカラー画像データ、さらに、視差&オクルージョン検出部123の検出した2つの画像データの画素単位の視差情報と、オクルージョン領域検出情報を入力する。
 基準画像決定部124は、これらの情報と、ステップS11で算出したヒステリシスを適用して、基準画像の切り替え処理が必要か否かを判定する。
 すなわち、例えば先に図13(1)を参照して説明した状態遷移Aや状態遷移B等において、状態(視差、オクルージョン領域)が、ヒステリシス境界点P,Qを横切ったか否かを判定し、基準画像の切り替え処理が必要か否かを判定する。
 なお、ヒステリシス量は、ステップS11におけるヒステリシス算出結果として設定された大きさを持つ。
 ステップS13において、基準画像の切り替え処理が必要と判定した場合はステップS14に進む。
 一方、ステップS13において、基準画像の切り替え処理が不要と判定した場合はステップS15に進む。
  (ステップS14)
 ステップS13において、基準画像の切り替え処理が必要と判定した場合はステップS14に進む。
 ステップS14において、基準画像選択部153は、基準画像の切り替え処理を実行する。
  (ステップS15)
 ステップS13において、基準画像の切り替え処理が実行された場合、または、ステップS13において、基準画像の切り替え処理が不要と判定した場合、ステップSS15に進む。
 ステップS15において、画像処理装置100の基準画像決定部124は、画像撮影処理が実行中か否かを判定し、実行中であれば、ステップS11以下の処理を繰り返す。
 画像撮影処理が終了した場合は、処理を終了する。
 なお、画像処理装置100の基準画像決定部124は、例えば動画像の撮影実行中に継続してこのフローを繰り返し実行してヒステリシスを変更する制御を行う。
 次に、ステップS11において実行するヒステリシス算出処理、すなわち、基準画像決定部124が入力情報に基づいて行うヒステリシス算出処理の具体例について、図17~図19に示すフローを参照して説明する。
  (ステップS101a~h)
 図17、図18に示すステップS101a~hの処理は、ヒステリシス算出部151が各検出情報(ヒステリシス制御パラメータ)を取得する処理である。これらの処理は、並列またはシーケンシャルに実行することが可能である。
 ヒステリシス算出部151は、画面内動きベクトル算出部201、カメラ動き検出部(ジャイロセンサ等)202、ズーム変化率検出部203、照度変化率検出部(照度センサ等)204、ISO感度変化率取得部205、シーン判定部206、ホワイトバランス変化率取得部207、顔検出部208からの検出情報を取得する。
 ステップS101aにおいて、画面内動きベクトル算出部201の算出した動きベクトル量aを取得する。
 前述したように、画面内動きベクトル算出部201は、カラー画像撮像部111の撮影したカラー画像、または白黒画像撮像部112の撮影した白黒画像の少なくともいずれかの画像に基づいて、各画素または画像領域単位の動きベクトルを算出する。
 例えば算出した動きベクトルの平均値が、動きベクトル量aとしてヒステリシス算出部151に入力される。
 なお、画面内動きベクトル算出部201は、例えば画像中央部の動きベクトルに重みを大きく設定した算出値、あるいは顔検出領域の動きベクトルに重みを大きく設定した算出値をヒステリシス算出部151に入力してもよい。
 ステップS101bにおいて、カメラ動き検出部(ジャイロセンサ等)202の検出したカメラ動き量bを取得する。
 前述したように、カメラ動き検出部(ジャイロセンサ等)202は、例えば、カメラ(画像処理装置100)に備えられたジャイロセンサの検出値、すなわちカメラの動き情報を取得してヒステリシス算出部151に出力する。
 ステップS101cにおいて、ズーム変化率検出部203の検出したズーム変化率cを取得する。
 前述したように、ズーム変化率検出部203は、カメラ(画像処理装置100)に備えられたズーム設定値からズーム変化率情報を取得してヒステリシス算出部151に出力する。
 ステップS101dにおいて、照度変化率検出部(照度センサ等)204の検出した照度dを取得する。
 前述したように、照度変化率検出部(照度センサ等)204は、カメラ(画像処理装置100)に備えられた照度センサの検出値から照度変化率情報を取得してヒステリシス算出部151に出力する。
 ステップS101eにおいて、ISO感度変化率取得部205の取得したISO感度変化率eを取得する。
 前述したように、ISO感度変化率取得部205は、カメラ(画像処理装置100)のメモリに記録されたISO感度の変化率情報を取得してヒステリシス算出部151に出力する。
 ステップS101fにおいて、シーン判定部206からシーン変化判定指標値fを取得する。
 前述したように、シーン判定部206は、カラー画像撮像部111の撮影したカラー画像、または白黒画像撮像部112の撮影した白黒画像の少なくともいずれかの画像に基づいて、動画像の各フレームのシーンの切り換え状況を判別する。具体的には、例えば予め規定したルールに従ったフレーム間画像変化率(シーン変化判定指標値)を算出してヒステリシス算出部151に出力する。
 なお、シーン変化判定指標値fは、シーン変化率が大きいほど大きな値となる指標値である。
 ステップS101gにおいて、ホワイトバランス変化率取得部207から、ホワイトバランス変化率gを取得する。
 前述したように、ホワイトバランス変化率取得部207は、撮影画像に適用されるホワイトバランス変化率を画像処理部または記憶部から取得してヒステリシス算出部151に出力する。
 ステップS101hにおいて、顔検出部208から、画像内顔領域占有率hを取得する。
 前述したように、顔検出部208は、カラー画像撮像部111の撮影したカラー画像、または白黒画像撮像部112の撮影した白黒画像の少なくともいずれかの画像に基づく顔検出を実行し、例えば、画像内に顔が検出されたか否かの情報、あるいは、画像内に含まれる顔領域の占有率情報を算出してヒステリシス算出部151に出力する。
  (ステップS102a~h、ステップS103a~h)
 次に、基準画像決定部124のヒステリシス算出部151は、ステップS101a~hにおいて入力した入力情報a~h(ヒステリシス制御パラメータ)の各々について、予め設定されたしきい値(Tha~Thh=ヒステリシス制御パラメータ対応しきい値)との比較処理を実行する。
 なお、これらのしきい値(Tha~Thh)は、記憶部152に格納されている。
 次に、ステップS103a~hにおいて、比較結果に基づくヒステリシス調整値A~Hを算出する。
 ヒステリシス調整値A~Hの各々の値は、予め規定された値であり記憶部152に格納されている。また、これらの値は、ユーザによって変更可能な値である。
 以下、各入力情報a~h(ヒステリシス制御パラメータ)に対応する処理について、順次、説明する。
 ステップS102aでは、
 画面内動きベクトル算出部201の算出した動きベクトル量aと、しきい値Thaを比較する。
 a>Tha
 上記式が成立した場合、
 ステップS103aにおいて、
 ヒステリシス調整値Aを算出(記憶部152から取得)する。
 なお、ヒステリシス調整値Aは、0以下の値である。
 すなわち、動きベクトル量aがしきい値Thaより大である場合、ヒステリシスを小さくする調整値A(A<0)を算出する。
 一方、ステップS102aにおいて、
 a>Tha
 上記式が成立しない場合は、ステップS103aの調整値A算出処理は省略され、ステップS104に進む。
 この場合、調整値A=0となる。
 すなわち、動きベクトル量aがしきい値Thaより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させない設定とした動きベクトル量対応調整値Aを算出する。
 この処理は、画像内の動きが大きい場合は、基準画像の切り替えに伴う画像の揺れが目立ちにくいため、ヒステリシスを小さくして基準画像切り替えの発生を過度に抑制せず、一方、画像内の動きが小さい場合は、基準画像の切り替えに伴う画像の揺れが目立ちやすいため、ヒステリシスを小さくせず、基準画像切り替えの発生を低減することを可能とするための処理に相当する。
 ステップS102bでは、
 カメラ動き検出部(ジャイロセンサ等)202の検出したカメラ動き量bと、しきい値Thbを比較する。
 b>Thb
 上記式が成立した場合、
 ステップS103bにおいて、
 ヒステリシス調整値Bを算出(記憶部152から取得)する。
 なお、ヒステリシス調整値Bは、0以下の値である。
 すなわち、カメラ動き量bがしきい値Thbより大である場合、ヒステリシスを小さくする調整値B(B<0)を算出する。
 一方、ステップS102bにおいて、
 b>Thb
 上記式が成立しない場合は、ステップS103bの調整値B算出処理は省略され、ステップS104に進む。
 この場合、調整値B=0となる。
 すなわち、カメラ動き量bがしきい値Thbより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させない設定としたカメラ動き量対応調整値Bを算出する。
 この処理は、カメラ動き量が大きい場合は、基準画像の切り替えに伴う画像の揺れが目立ちにくいため、ヒステリシスを小さくして基準画像切り替えの発生を過度に抑制せず、一方、カメラ動き量が小さい場合は、基準画像の切り替えに伴う画像の揺れが目立ちやすいため、ヒステリシスを小さくせず、基準画像切り替えの発生を低減することを可能とするための処理に相当する。
 ステップS102cでは、
 ズーム変化率取得部203の検出したズーム変化率cと、しきい値Thcを比較する。
 c>Thc
 上記式が成立した場合、
 ステップS103cにおいて、
 ヒステリシス調整値Cを算出(記憶部152から取得)する。
 なお、ヒステリシス調整値Cは、0以下の値である。
 すなわち、ズーム変化率cがしきい値Thcより大である場合、ヒステリシスを小さくする調整値C(C<0)を算出する。
 一方、ステップS102cにおいて、
 c>Thc
 上記式が成立しない場合は、ステップS103cの調整値C算出処理は省略され、ステップS104に進む。
 この場合、調整値C=0となる。
 すなわち、ズーム変化率cがしきい値Thcより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させない設定としたズーム変化率対応調整値Cを算出する。
 この処理は、ズーム変化率が大きい場合は、基準画像の切り替えに伴う画像の揺れが目立ちにくいため、ヒステリシスを小さくして基準画像切り替えの発生を過度に抑制せず、一方、ズーム変化率が小さい場合は、基準画像の切り替えに伴う画像の揺れが目立ちやすいため、ヒステリシスを小さくせず、基準画像切り替えの発生を低減することを可能とするための処理に相当する。
 ステップS102dでは、
 照度変化率検出部(照度センサ等)204の検出した照度変化率dと、しきい値Thdを比較する。
 d>Thd
 上記式が成立した場合、
 ステップS103dにおいて、
 ヒステリシス調整値Dを算出(記憶部152から取得)する。
 なお、ヒステリシス調整値Dは、0以下の値である。
 すなわち、照度変化率dがしきい値Thdより大である場合、ヒステリシスを小さくする調整値D(D<0)を算出する。
 一方、ステップS102dにおいて、
 d>Thd
 上記式が成立しない場合は、ステップS103dの調整値D算出処理は省略され、ステップS104に進む。
 この場合、調整値D=0となる。
 すなわち、照度変化率dがしきい値Thdより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させない設定とした照度変化率対応調整値Dを算出する。
 この処理は、照度の変化率が大きい場合は、基準画像の切り替えに伴う画像の揺れが目立ちにくいため、ヒステリシスを小さくして基準画像切り替えの発生を過度に抑制せず、一方、照度の変化率が小さい場合は、基準画像の切り替えに伴う画像の揺れが目立ちやすいため、ヒステリシスを小さくせず、基準画像切り替えの発生を低減することを可能とするための処理に相当する。
 ステップS102eでは、
 ISO感度変化率取得部205の取得したISO感度変化率eと、しきい値Theを比較する。
 e>The
 上記式が成立した場合、
 ステップS103eにおいて、
 ヒステリシス調整値Eを算出(記憶部152から取得)する。
 なお、ヒステリシス調整値Eは、0以下の値である。
 すなわち、ISO感度変化率eがしきい値Theより大である場合、ヒステリシスを小さくする調整値E(E<0)を算出する。
 一方、ステップS102eにおいて、
 e>The
 上記式が成立しない場合は、ステップS103eの調整値E算出処理は省略され、ステップS104に進む。
 この場合、調整値E=0となる。
 すなわち、ISO感度変化率eがしきい値Theより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させない設定としたISO感度変化率対応調整値Eを算出する。
 この処理は、ISO感度の変化率が大きい場合は、基準画像の切り替えに伴う画像の揺れが目立ちにくいため、ヒステリシスを小さくして基準画像切り替えの発生を過度に抑制せず、一方、ISO感度の変化率が小さい場合は、基準画像の切り替えに伴う画像の揺れが目立ちやすいため、ヒステリシスを小さくせず、基準画像切り替えの発生を低減することを可能とするための処理に相当する。
 ステップS102fでは、
 シーン判定部206から入力したシーン変化判定指標値fと、しきい値Thfを比較する。
 f>Thf
 上記式が成立した場合、
 ステップS103fにおいて、
 ヒステリシス調整値Fを算出(記憶部152から取得)する。
 なお、ヒステリシス調整値Fは、0以下の値である。
 すなわち、シーン変化判定指標値fがしきい値Thfより大である場合、ヒステリシスを小さくする調整値F(F<0)を算出する。
 一方、ステップS102fにおいて、
 f>Thf
 上記式が成立しない場合は、ステップS103fの調整値F算出処理は省略され、ステップS104に進む。
 この場合、調整値F=0となる。
 すなわち、シーン変化判定指標値fがしきい値Thfより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させない設定としたシーン変化判定指標値対応調整値Fを算出する。
 この処理は、シーン変化が大きい場合は、基準画像の切り替えに伴う画像の揺れが目立ちにくいため、ヒステリシスを小さくして基準画像切り替えの発生を過度に抑制せず、一方、シーン変化が小さい場合は、基準画像の切り替えに伴う画像の揺れが目立ちやすいため、ヒステリシスを小さくせず、基準画像切り替えの発生を低減することを可能とするための処理に相当する。
 ステップS102gでは、
 ホワイトバランス変化率取得部207から入力したホワイトバランス変化率gと、しきい値Thgを比較する。
 g>Thg
 上記式が成立した場合、
 ステップS103gにおいて、
 ヒステリシス調整値Gを算出(記憶部152から取得)する。
 なお、ヒステリシス調整値Gは、0以下の値である。
 すなわち、ホワイトバランス変化率gがしきい値Thgより大である場合、ヒステリシスを小さくする調整値G(G<0)を算出する。
 一方、ステップS102gにおいて、
 g>Thg
 上記式が成立しない場合は、ステップS103gの調整値G算出処理は省略され、ステップS104に進む。
 この場合、調整値G=0となる。
 すなわち、ホワイトバランス変化率gがしきい値Thgより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させない設定としたホワイトバランス変化率対応調整値Gを算出する。
 この処理は、ホワイトバランス変化率が大きい場合は、基準画像の切り替えに伴う画像の揺れが目立ちにくいため、ヒステリシスを小さくして基準画像切り替えの発生を過度に抑制せず、一方、ホワイトバランス変化率が小さい場合は、基準画像の切り替えに伴う画像の揺れが目立ちやすいため、ヒステリシスを小さくせず、基準画像切り替えの発生を低減することを可能とするための処理に相当する。
 ステップS102hでは、
 顔検出部208から入力した画像内顔領域占有率hと、しきい値Thhを比較する。
 h>Thh
 上記式が成立した場合、
 ステップS103hにおいて、
 ヒステリシス調整値Hを算出(記憶部152から取得)する。
 なお、ヒステリシス調整値Hは、0以上の値である。
 すなわち、画像内顔領域占有率hがしきい値Thhより大である場合、ヒステリシスを大きくする調整値H(H>0)を算出する。
 一方、ステップS102hにおいて、
 h>Thh
 上記式が成立しない場合は、ステップS103hの調整値H算出処理は省略され、ステップS104に進む。
 この場合、調整値H=0となる。
 すなわち、画像内顔領域占有率hがしきい値Thhより大である場合はヒステリシスを大きくし、それ以外の場合はヒステリシス量を変化させない設定とした画像内顔領域占有率対応調整値Hを算出する。
 この処理は、画像内顔領域占有率が大きい場合は、注目されやすい画像であり、基準画像の切り替えに伴う画像の揺れが目立ちやすいため、ヒステリシスを大きくして、基準画像切り替えの発生を低減し、一方、画像内顔領域占有率が小さい場合は、注目されにくい画像であり、基準画像の切り替えに伴う画像の揺れが目立ちにくいため、ヒステリシスを小さくして基準画像切り替えの発生を過度に抑制しないための処理に相当する。
  (ステップS104)
 ステップS103a~hの処理が完了し、ヒステリシス調整値A~Hの算出が完了すると、ヒステリシス算出部151は、ステップS104において、ヒステリシス総合調整値を算出する。
 ヒステリシス総合調整値は、ヒステリシス調整値A~Hの加算値である。すなわち、
 動きベクトル量対応調整値A、
 カメラ動き量対応調整値B、
 ズーム変化率対応調整値C、
 照度変化率対応調整値D、
 ISO感度変化率対応調整値E、
 シーン変化判定指標値対応調整値F、
 ホワイトバランス変化率対応調整値G、
 画像内顔領域占有率対応調整値H、
 これらのヒステリシス調整値A~Hの加算値、すなわち、
 ヒステリシス総合調整値=A+B+C+D+E+F+G+H
 上記のヒステリシス総合調整値を算出する。
 なお、前述したように、
 A~Gは、0以下の値であり、ヒステリシスを小さくする方向に作用する調整値であり、Hのみが、0以上の値であり、ヒステリシスを大きくする方向に作用する調整値である。
  (ステップS105)
 次に、ヒステリシス算出部151は、ステップS105において、
 最終的に適用予定のヒステリシス、すなわち、
 (基準ヒステリシス)+(ヒステリシス総合調整値)
 この算出ヒステリシスが0以上であるか否かを確認する。
 基準ヒステリシスとは、ヒステリシスの調整を行わないデフォルト設定のヒステリシスである。この値は記憶部152に格納されている。
 (基準ヒステリシス)+(ヒステリシス総合調整値)
 この算出ヒステリシスが0未満になると、算出ヒステリシスの適用が不可能となる。
 この場合、ステップS107に進み、ヒステリシス=0として処理を行うことになる。
 (基準ヒステリシス)+(ヒステリシス総合調整値)
 この算出ヒステリシスが0以上であることが翰林された場合はステップS106に進む。
  (ステップS106)
 ステップS106において、ヒステリシス算出部151は、最終的に適用するヒステリシス、すなわち、
 ヒステリシス=(基準ヒステリシス)+(ヒステリシス総合調整値)
 このヒステリシスを算出する。
 すなわち、
 ヒステリシス=(基準ヒステリシス)+(A+B+C+D+E+F+G+H)
 を算出する。
 ここで算出したヒステリシスが、図12に示す基準画像決定部124の基準画像選択部153に出力される。
 なお、A~G≦0、H≧0である。
 基準画像選択部153は、ヒステリシス算出部151が算出したヒステリシス、すなわち、
 ヒステリシス=(基準ヒステリシス)+(A+B+C+D+E+F+G+H)
 上記式に従って算出されるヒステリシスを適用して、基準画像の切り替え処理を実行する。
 この基準画像切り替え処理は、例えば、先に図13~図15を参照して説明した処理である。
 このように本開示の画像処理装置は、基準画像の切り替え処理に適用するヒステリシスを、以下の各調整値によって変更する。
 動きベクトル量対応調整値A、
 カメラ動き量対応調整値B、
 ズーム変化率対応調整値C、
 照度変化率対応調整値D、
 ISO感度変化率対応調整値E、
 シーン変化判定指標値対応調整値F、
 ホワイトバランス変化率対応調整値G、
 画像内顔領域占有率対応調整値H、
 これらの各調整値のヒステリシス調整例について、図20を参照してまとて説明する。図20に示すように、ヒステリシス制御パラメータとしては、例えば以下のパラメータがある。
 (1)画面内動きベクトル量、
 (2)カメラ動き量、
 (3)ズーム変化率、
 (4)照度変化率、
 (5)ISO感度変化率、
 (6)シーン変化判定指標値、
 (7)ホワイトバランス変化率、
 (8)画像内顔領域占有率、
 (9)基準画像変更抑制モード設定値(ON/OFF)
 上記パラメータ中(1)~(8)の各パラメータは、図12の構成図に示す画面内動きベクトル算出部201、カメラ動き検出部(ジャイロセンサ等)202、ズーム変化率検出部203、照度変化率検出部(照度センサ等)204、ISO感度変化率取得部205、シーン判定部206、ホワイトバランス変化率取得部207、顔検出部208からの検出情報に相当し、図17~図19に示すフローを参照して説明した処理に適用されるパラメータである。
 パラメータ(9)基準画像変更抑制モード設定値(ON/OFF)は、ユーザ設定パラメータであり、例えば操作部を介して設定可能なパラメータである。
 ユーザが、基準画像変更抑制モード設定値をONに設定すると、ヒステリシスを低減することができる。
 その他のパラメータについて説明する。
 (1)画面内動きベクトル量は、画面内動きベクトル算出部201の算出する動きベクトル量aであり、カラー画像や白黒画像から検出される動きベクトル量aがしきい値Thaより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させないヒステリシス制御パラメータである。
 (2)カメラ動き量は、カラー画像や白黒画像を撮影したカメラのカメラ動き検出部(ジャイロセンサ等)202の検出するカメラ動き量bであり、しきい値Thbより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させないヒステリシス制御パラメータである。
 (3)ズーム変化率は、ズーム変化率取得部203の検出するズーム変化率cであり、カラー画像や白黒画像を撮影したカメラのズーム変化率cがしきい値Thcより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させないヒステリシス制御パラメータである。
 (4)照度変化率は、照度変化率検出部(照度センサ等)204の検出する照度変化率dであり、カラー画像や白黒画像撮影時の照度変化率dがしきい値Thdより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させないヒステリシス制御パラメータである。
 (5)ISO感度変化率は、ISO感度変化率取得部205の取得するISO感度変化率eであり、カラー画像や白黒画像撮影時のISO感度変化率eがしきい値Theより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させないヒステリシス制御パラメータである。
 (6)シーン変化判定指標値は、シーン判定部206の算出するシーン変化判定指標値fであり、カラー画像や白黒画像のシーン変化判定指標値fがしきい値Thfより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させないヒステリシス制御パラメータである。
 なお、シーン変化判定指標値fは、シーン変化率が大きいほど大きな値となる指標値である。
 (7)ホワイトバランス変化率は、ホワイトバランス変化率取得部207から入力するホワイトバランス変化率gであり、カラー画像のホワイトバランス変化率gがしきい値Thgより大である場合はヒステリシスを小さくし、それ以外の場合はヒステリシス量を変化させないヒステリシス制御パラメータである。
 (8)画像内顔領域占有率は、顔検出部208から入力する画像内顔領域占有率hであり、カラー画像や白黒画像の画像内顔領域占有率hがしきい値Thhより大である場合はヒステリシスを大きくし、それ以外の場合はヒステリシス量を変化させないヒステリシス制御パラメータである。
 このように、本開示の画像処理装置は、基準画像の切り替え処理に適用するヒステリシスを様々なヒステリシス制御パラメータを利用して調整を行う。
 この調整処理によって、観察者に画像揺れを気づかれやすい画像フレーム位置での基準画像切り替えを低減することが可能となる。
  [5.ユーザ設定可能なパラメータについて]
 次に、図21以下参照して、ユーザ設定可能なパラメータについて説明する。
 図21に示すように、ユーザ設定可能なパラメータとしては以下のパラメータがある。
 (1)基準しきい値
 (2)基準ヒステリシス
 (3)各ヒステリシス制御パラメータ対応ヒステリシス調整値
 (4)各ヒステリシス制御パラメータ対応しきい値
 (5)各ヒステリシス制御パラメータ対応適用範囲
 (1)基準しきい値は、先に図8を参照して説明したオクルージョン面積しきい値Thxや、視差しきい値Thyであり、記憶部152に格納されている。
 ユーザは、例えば操作部やタッチパネルを介してこれらの設定値を変更することができる。
 (2)基準ヒステリシスは、先に図13~図15を参照して説明した予め規定されたデフォルトのヒステリシスであり、記憶部152に格納されている。
 ユーザは操作部やタッチパネルを介してこの基準ヒステリシスの設定値を変更することができる。
 (3)各ヒステリシス制御パラメータ対応ヒステリシス調整値は、先に図17~図19のフローチャートを参照して説明した以下の調整値である。
 動きベクトル量対応調整値A、
 カメラ動き量対応調整値B、
 ズーム変化率対応調整値C、
 照度変化率対応調整値D、
 ISO感度変化率対応調整値E、
 シーン変化判定指標値対応調整値F、
 ホワイトバランス変化率対応調整値G、
 画像内顔領域占有率対応調整値H、
 これらの調整値A~Hは、記憶部152に格納されている。
 ユーザは操作部やタッチパネルを介してこの調整値A~Hの設定値を変更することができる。
 また、例えばこれらの調整値A~Hは固定値とせず、所定の関数によって算出する設定とすることもできる。
 例えば、動きベクトル量対応調整値Aの算出に関数fを用い、動きベクトル量aを関数fに入力して、
 動きベクトル量対応調整値A=f(a)として算出する設定としてもよい。
 ユーザは、図22に示す操作部300を介して関数を設定するこの調整値A~Hの算出関数を設定することができる。
 (4)各ヒステリシス制御パラメータ対応しきい値は、先に図17~図19のフローチャートを参照して説明したしきい値Tha~Thhであり、記憶部152に格納されている。
 ユーザは操作部やタッチパネルを介してこれらの設定値を変更することができる。
 (5)各ヒステリシス制御パラメータ対応適用範囲のユーザによる設定例としては、例えば、画像内動きベクトルの検出範囲の設定がある。具体的には、動きベクトル検出範囲を画面全体にするか、画面中央のみにするか、顔領域検出範囲のみとするか、あるいはそれぞれの領域に重みを設定する等の処理を行うことができる。
 ユーザは操作部やタッチパネルを介して各ヒステリシス制御パラメータ対応適用範囲を変更することができる。
  [6.その他の実施例について]
 上述した実施例では、カラー画像と白黒画像の組み合わせによる合成画像の生成処理例について説明したが、本開示の処理は、この2種類の画像の組み合わせに限らず、その他の種類の画像の組み合わせにおいても適用可能である。
 例えば、以下のような設定でも適用できる。
 (1)2つのカラー画像撮像部で撮影した2つのカラー画像を合成して1つの合成カラー画像を生成する構成
 (2)2つの白黒画像撮像部で撮影した2つの白黒画像を合成して1つの合成白黒画像を生成する構成
 (3)カラーまたは白黒画像と、赤外光撮影画像を合成した合成画像の生成
 (4)カラーまたは白黒画像と、距離画像を合成した合成画像の生成
 これらの様々な合成画像の生成においても、本開示の処理が適用できる。
 さらに、基準画像の切り替え対応のヒステリシス制御構成として、以下のような構成も可能である。
 ユーザ操作(操作部の押下等)により、予め規定した規定時間のみ、ヒステリシスを増加させ、基準画像の切り替えを抑制する。
 ただし、この場合、合成画像の画質劣化が著しいと判定された場合、基準画像の切り替えを行う構成としてもよい。
 また、規定時間経過後は、元のヒステリシス設定に戻る設定とする。
 また、規定時間は、ユーザ設定可能な時間とする。
 また、上述した実施例では、基準画像決定部124は、
 (1)カラー画像を基準画像とした合成画像、
 (2)白黒画像を基準画像とした合成画像、
 これらの2つの合成画像の切り替え制御を行う構成として説明したが、例えば以下のような処理を行う構成としてもよい。
 基準画像決定部124は、
 (1)カラー画像を基準画像とした合成画像、
 (2)白黒画像を基準画像とした合成画像、
 (3)合成処理を実行しないカラー画像、
 (4)合成処理を実行しない白黒画像、
 例えばこれらの4種類の画像のいずれかを、画面内動きベクトル算出部201~顔検出部208の検出情報や、画質情報、あるいはユーザ設定に基づいて出力する構成としてもよい。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する画像処理部を有し、
 前記画像処理部は、
 (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
 (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、さらに、
 カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行する基準画像決定部を有し、
 前記基準画像決定部は、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理装置。
 (2) 前記基準画像切り替えしきい値は、
 前記カラー画像基準合成画像と、前記白黒画像基準合成画像の画質に基づいて決定されるしきい値である(1)に記載の画像処理装置。
 (3) 前記基準画像切り替えしきい値は、
 カラー画像と白黒画像の視差、またはオクルージョン面積の少なくともいずれかに基づいて決定されるしきい値である(1)または(2)に記載の画像処理装置。
 (4) 前記画像処理部は、
 基準画像を決定する際に、カラー画像と白黒画像の各画像の分割領域単位の解析処理を実行する(1)~(3)いずれかに記載の画像処理装置。
 (5) 前記基準画像決定部は、
 ヒステリシスを状況に応じて変更する制御を行うヒステリシス算出部と、
 前記ヒステリシス算出部の算出したヒステリシスを適用して基準画像の切り替えを実行する基準画像選択部を有する(1)~(4)いずれかに記載の画像処理装置。
 (6) 前記基準画像決定部は、
 前記カラー画像と前記白黒画像から検出される動きベクトル量が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う(1)~(5)いずれかに記載の画像処理装置。
 (7) 前記基準画像決定部は、
 前記カラー画像と前記白黒画像を撮影したカメラの動き量が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う(1)~(6)いずれかに記載の画像処理装置。
 (8) 前記基準画像決定部は、
 前記カラー画像と前記白黒画像を撮影したカメラのズーム変化率が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う(1)~(7)いずれかに記載の画像処理装置。
 (9) 前記基準画像決定部は、
 前記カラー画像と前記白黒画像撮影時の照度変化率が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う(1)~(8)いずれかに記載の画像処理装置。
 (10) 前記基準画像決定部は、
 前記カラー画像と前記白黒画像撮影時のISO感度変化率が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う(1)~(9)いずれかに記載の画像処理装置。
 (11) 前記基準画像決定部は、
 前記カラー画像と前記白黒画像のシーン変化判定指標値が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う(1)~(10)いずれかに記載の画像処理装置。
 (12) 前記基準画像決定部は、
 前記カラー画像のホワイトバランス変化率が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う(1)~(11)いずれかに記載の画像処理装置。
 (13) 前記基準画像決定部は、
 前記カラー画像または前記白黒画像の顔領域占有率が、規定しきい値より大である場合に、前記ヒステリシスを大きくする制御を行う(1)~(12)いずれかに記載の画像処理装置。
 (14) 前記基準画像決定部は、
 動画像の撮影実行中に継続して前記ヒステリシスの変更制御を行う(1)~(13)いずれかに記載の画像処理装置。
 (15) 異なる視点から撮影された第1画像と第2画像の合成処理を実行して合成画像を生成する画像処理部を有し、
 前記画像処理部は、
 (a)前記第1画像の画像位置に前記第2画像を位置合わせした第1画像基準合成画像、または、
 (b)前記第2画像の画像位置に前記第1画像を位置合わせした第2画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、さらに、
 前記第1画像と前記第2画像のいずれを基準画像とするかを決定する基準画像決定処理を実行する基準画像決定部を有し、
 前記基準画像決定部は、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理装置。
 (16) 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して、
 (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
 (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
 前記画像処理装置の基準画像決定部が、
 カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行し、
 前記基準画像決定部は、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理方法。
 (17) 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、異なる視点から撮影された第1画像と第2画像の合成処理を実行して、
 (a)第1画像の画像位置に第2画像を位置合わせした第1画像基準合成画像、または、
 (b)第2画像の画像位置に第1画像を位置合わせした第2画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
 前記画像処理装置の基準画像決定部が、
 第1画像と第2画像のいずれを基準画像とするかを決定する基準画像決定処理を実行し、
 前記基準画像決定部は、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理方法。
 (18) 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して、
 (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
 (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
 上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
 前記プログラムは、前記画像処理装置の基準画像決定部に、
 カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行させ、
 前記基準画像決定処理において、
 前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行わせるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、カラー画像基準合成画像と白黒画像基準合成画像の切り替えを観察者が気づきにくい最適タイミングで実行する装置、方法が実現される。
 具体的には、例えば、異なる視点から撮影されたカラー画像と白黒画像を入力し、(a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、(b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、これら2種類の合成画像を予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成において、基準画像切り替えしきい値にヒステリシスを設定し、ヒステリシスを状況に応じて変更し、基準画像切り替えを観察者が気づきにくい最適タイミングで実行可能とする。
 本構成により、カラー画像基準合成画像と白黒画像基準合成画像の切り替えを観察者が気づきにくい最適タイミングで実行する装置、方法が実現される。
  10 画像処理装置
  11 表示部
  12 操作部
  21 カラー画像撮像部
  22 白黒画像撮像部
 100 画像処理装置
 110 撮像部
 111 カラー画像撮像部
 112 白黒画像撮像部
 120 画像処理部
 121,122 前処理部
 123 視差&オクルージョン検出部
 124 基準画像決定部
 125 画像合成部
 130 出力部
 131 表示部
 132 記憶部
 141 センサ部
 142 操作部
 150 制御部
 160 通信部
 201 画面内動きベクトル算出部
 202 カメラ動き検出部(ジャイロセンサ等)
 203 ズーム変化率検出部
 204 照度変化率検出部(照度センサ等)
 205 ISO感度変化率取得部
 206 シーン判定部
 207 ホワイトバランス変化率取得部
 208 顔検出部

Claims (18)

  1.  異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して合成画像を生成する画像処理部を有し、
     前記画像処理部は、
     (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
     (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
     上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、さらに、
     カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行する基準画像決定部を有し、
     前記基準画像決定部は、
     前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理装置。
  2.  前記基準画像切り替えしきい値は、
     前記カラー画像基準合成画像と、前記白黒画像基準合成画像の画質に基づいて決定されるしきい値である請求項1に記載の画像処理装置。
  3.  前記基準画像切り替えしきい値は、
     カラー画像と白黒画像の視差、またはオクルージョン面積の少なくともいずれかに基づいて決定されるしきい値である請求項1に記載の画像処理装置。
  4.  前記画像処理部は、
     基準画像を決定する際に、カラー画像と白黒画像の各画像の分割領域単位の解析処理を実行する請求項1に記載の画像処理装置。
  5.  前記基準画像決定部は、
     ヒステリシスを状況に応じて変更する制御を行うヒステリシス算出部と、
     前記ヒステリシス算出部の算出したヒステリシスを適用して基準画像の切り替えを実行する基準画像選択部を有する請求項1に記載の画像処理装置。
  6.  前記基準画像決定部は、
     前記カラー画像と前記白黒画像から検出される動きベクトル量が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う請求項1に記載の画像処理装置。
  7.  前記基準画像決定部は、
     前記カラー画像と前記白黒画像を撮影したカメラの動き量が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う請求項1に記載の画像処理装置。
  8.  前記基準画像決定部は、
     前記カラー画像と前記白黒画像を撮影したカメラのズーム変化率が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う請求項1に記載の画像処理装置。
  9.  前記基準画像決定部は、
     前記カラー画像と前記白黒画像撮影時の照度変化率が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う請求項1に記載の画像処理装置。
  10.  前記基準画像決定部は、
     前記カラー画像と前記白黒画像撮影時のISO感度変化率が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う請求項1に記載の画像処理装置。
  11.  前記基準画像決定部は、
     前記カラー画像と前記白黒画像のシーン変化判定指標値が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う請求項1に記載の画像処理装置。
  12.  前記基準画像決定部は、
     前記カラー画像のホワイトバランス変化率が、規定しきい値より大である場合に、前記ヒステリシスを小さくする制御を行う請求項1に記載の画像処理装置。
  13.  前記基準画像決定部は、
     前記カラー画像または前記白黒画像の顔領域占有率が、規定しきい値より大である場合に、前記ヒステリシスを大きくする制御を行う請求項1に記載の画像処理装置。
  14.  前記基準画像決定部は、
     動画像の撮影実行中に継続して前記ヒステリシスの変更制御を行う請求項1に記載の画像処理装置。
  15.  異なる視点から撮影された第1画像と第2画像の合成処理を実行して合成画像を生成する画像処理部を有し、
     前記画像処理部は、
     (a)前記第1画像の画像位置に前記第2画像を位置合わせした第1画像基準合成画像、または、
     (b)前記第2画像の画像位置に前記第1画像を位置合わせした第2画像基準合成画像、
     上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、さらに、
     前記第1画像と前記第2画像のいずれを基準画像とするかを決定する基準画像決定処理を実行する基準画像決定部を有し、
     前記基準画像決定部は、
     前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理装置。
  16.  画像処理装置において実行する画像処理方法であり、
     前記画像処理装置は、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して、
     (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
     (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
     上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
     前記画像処理装置の基準画像決定部が、
     カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行し、
     前記基準画像決定部は、
     前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理方法。
  17.  画像処理装置において実行する画像処理方法であり、
     前記画像処理装置は、異なる視点から撮影された第1画像と第2画像の合成処理を実行して、
     (a)第1画像の画像位置に第2画像を位置合わせした第1画像基準合成画像、または、
     (b)第2画像の画像位置に第1画像を位置合わせした第2画像基準合成画像、
     上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
     前記画像処理装置の基準画像決定部が、
     第1画像と第2画像のいずれを基準画像とするかを決定する基準画像決定処理を実行し、
     前記基準画像決定部は、
     前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行う画像処理方法。
  18.  画像処理装置において画像処理を実行させるプログラムであり、
     前記画像処理装置は、異なる視点から撮影されたカラー画像と白黒画像の合成処理を実行して、
     (a)カラー画像の画像位置に白黒画像を位置合わせしたカラー画像基準合成画像、または、
     (b)白黒画像の画像位置にカラー画像を位置合わせした白黒画像基準合成画像、
     上記(a),(b)2種類の合成画像を、予め規定された基準画像切り替えしきい値に基づいて切り替えて生成する構成であり、
     前記プログラムは、前記画像処理装置の基準画像決定部に、
     カラー画像と白黒画像のいずれを基準画像とするかを決定する基準画像決定処理を実行させ、
     前記基準画像決定処理において、
     前記基準画像切り替えしきい値にヒステリシスを設定し、前記ヒステリシスを状況に応じて変更する制御を行わせるプログラム。
PCT/JP2019/000562 2018-01-25 2019-01-10 画像処理装置、および画像処理方法、並びにプログラム WO2019146418A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/962,451 US11089211B2 (en) 2018-01-25 2019-01-10 Image processing apparatus, image processing method, and program for switching between two types of composite images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-010641 2018-01-25
JP2018010641A JP2019129446A (ja) 2018-01-25 2018-01-25 画像処理装置、および画像処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2019146418A1 true WO2019146418A1 (ja) 2019-08-01

Family

ID=67396106

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000562 WO2019146418A1 (ja) 2018-01-25 2019-01-10 画像処理装置、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US11089211B2 (ja)
JP (1) JP2019129446A (ja)
WO (1) WO2019146418A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3734961A4 (en) 2018-02-07 2021-06-09 Sony Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING SYSTEM
JP7164190B2 (ja) * 2019-07-11 2022-11-01 株式会社ユニバーサルエンターテインメント 遊技機
CN113963321B (zh) 2021-10-27 2023-08-04 阿波罗智联(北京)科技有限公司 图像处理方法、装置、电子设备和介质
WO2023079941A1 (ja) * 2021-11-08 2023-05-11 ソニーグループ株式会社 情報処理装置および情報処理方法
CN115460386B (zh) * 2022-08-31 2024-05-17 武汉精立电子技术有限公司 一种利用黑白相机获取彩色图像的方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
JP2015197745A (ja) * 2014-03-31 2015-11-09 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
WO2017208536A1 (ja) * 2016-06-02 2017-12-07 ソニー株式会社 画像処理装置と画像処理方法および学習装置と学習方法
WO2018016151A1 (ja) * 2016-07-22 2018-01-25 ソニー株式会社 画像処理装置と画像処理方法
WO2018016150A1 (ja) * 2016-07-22 2018-01-25 ソニー株式会社 画像処理装置と画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3736372A (en) * 1972-02-18 1973-05-29 P Vanderwel Electrical circuit
JP2002159014A (ja) * 2000-11-21 2002-05-31 Hitachi Ltd 画像生成装置および生成方法
KR101926487B1 (ko) * 2012-10-12 2018-12-07 한화테크윈 주식회사 감시 시스템의 제어 방법, 및 이 방법을 채용한 감시 시스템
US9026939B2 (en) 2013-06-13 2015-05-05 Google Inc. Automatically switching between input modes for a user interface
CN105491285B (zh) * 2015-12-03 2019-02-15 浙江宇视科技有限公司 一种pir摄像机工作模式切换方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
JP2015197745A (ja) * 2014-03-31 2015-11-09 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
WO2017208536A1 (ja) * 2016-06-02 2017-12-07 ソニー株式会社 画像処理装置と画像処理方法および学習装置と学習方法
WO2018016151A1 (ja) * 2016-07-22 2018-01-25 ソニー株式会社 画像処理装置と画像処理方法
WO2018016150A1 (ja) * 2016-07-22 2018-01-25 ソニー株式会社 画像処理装置と画像処理方法

Also Published As

Publication number Publication date
US11089211B2 (en) 2021-08-10
JP2019129446A (ja) 2019-08-01
US20210067689A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
WO2019146418A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6343200B2 (ja) 撮像装置およびその制御方法ならびにプログラム
US8111300B2 (en) System and method to selectively combine video frame image data
JP5983616B2 (ja) 撮像装置、撮像方法及びプログラム
JP7285791B2 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
JP5690396B2 (ja) 撮像装置およびシェーディング補正方法
US10992854B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
JP6223059B2 (ja) 撮像装置、その制御方法およびプログラム
WO2012002071A1 (ja) 撮像装置、画像処理装置および画像処理方法
EP3304892A1 (en) Dynamic frame skip for auto white balance
JP7052811B2 (ja) 画像処理装置、画像処理方法及び画像処理システム
WO2019146419A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
EP4199528A1 (en) Image processing apparatus, image capture apparatus, and image processing method
JP2010093336A (ja) 撮像装置および補間処理方法
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
JP2022174568A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2014145974A (ja) 撮像機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19744129

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19744129

Country of ref document: EP

Kind code of ref document: A1