WO2017169039A1 - 画像処理装置、撮像装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、撮像装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2017169039A1
WO2017169039A1 PCT/JP2017/002582 JP2017002582W WO2017169039A1 WO 2017169039 A1 WO2017169039 A1 WO 2017169039A1 JP 2017002582 W JP2017002582 W JP 2017002582W WO 2017169039 A1 WO2017169039 A1 WO 2017169039A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
correction
light image
unit
infrared light
Prior art date
Application number
PCT/JP2017/002582
Other languages
English (en)
French (fr)
Inventor
友希 鴇崎
神尾 和憲
イーウェン ズー
隆浩 永野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018508455A priority Critical patent/JP6711396B2/ja
Priority to US16/087,157 priority patent/US10853926B2/en
Publication of WO2017169039A1 publication Critical patent/WO2017169039A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4061Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by injecting details from different spectral ranges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Definitions

  • the present disclosure relates to an image processing device, an imaging device, an image processing method, and a program.
  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program that perform image processing of a visible light image and an infrared light image.
  • an infrared light camera has a problem that the resolution is lower than that of a visible light camera that performs imaging with visible light.
  • an image processing device an imaging device, and an image processing device that realize high image quality of a captured image of an infrared light camera.
  • An object is to provide an image processing method and a program.
  • Another object of the present disclosure is to provide an image processing device, an imaging device, an image processing method, and a program that perform high image quality processing on both a visible light image and an infrared light image. To do.
  • the first aspect of the present disclosure is: A feature amount calculation unit that inputs an infrared light image and a visible light image and extracts a feature amount from at least one of the images;
  • the image processing apparatus includes an image correction unit that performs a pixel value correction process on the infrared light image based on a reference region and a correction parameter determined according to the feature amount.
  • the second aspect of the present disclosure is: An infrared light image capturing unit for performing an infrared light image capturing process; A visible light image capturing unit that performs a visible light image capturing process, An image processing unit that inputs the infrared light image and the visible light image and executes pixel value correction processing of at least one of the images,
  • the image processing unit A feature amount calculation unit that inputs an infrared light image and a visible light image and extracts a feature amount from at least one of the images;
  • the imaging apparatus includes an image correction unit that performs a pixel value correction process on the infrared light image based on a reference region determined according to the feature amount and a correction parameter.
  • the third aspect of the present disclosure is: A feature amount calculation unit that inputs an infrared light image and extracts a feature amount;
  • the image processing apparatus includes an image correction unit that performs a pixel value correction process on the infrared light image based on a reference region and a correction parameter determined according to the feature amount.
  • the fourth aspect of the present disclosure is: An image processing method executed in an image processing apparatus, A feature amount calculating unit that inputs an infrared light image and a visible light image and extracts a feature amount from at least one of the images; and
  • the image correction unit executes an image correction step of executing a pixel value correction process on the infrared light image based on a reference region and a correction parameter determined according to the feature amount.
  • the fifth aspect of the present disclosure is: A program for executing image processing in an image processing apparatus; An infrared light image and a visible light image are input to the feature amount calculation unit, and a feature amount is extracted from at least one of the images, There is a program for causing the image correction unit to execute a pixel value correction process on the infrared light image based on a reference region and a correction parameter determined according to the feature amount.
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for performing high-quality processing of an infrared light image are realized. Specifically, an infrared light image and a visible light image are input, and a feature amount calculation unit that extracts a feature amount from at least one of the images and an infrared light image are determined according to the feature amount. An image correction unit that executes pixel value correction processing based on the reference region and the correction parameter is provided.
  • the image processing apparatus further includes a tap selection unit that determines a reference area to be used for pixel value correction based on a feature value, and a correction parameter calculation unit that determines a correction parameter to be used for pixel value correction based on the feature value,
  • the correction unit executes a pixel value correction process using the tap determined by the tap selection unit and the correction parameter determined by the correction parameter calculation unit.
  • the image processing apparatus inputs a visible light image and an infrared light image, and executes image processing to which these images are applied.
  • the visible light image 10 is an image having a wavelength in the range of about 0.4 ⁇ m to 0.7 ⁇ m, and is a color image such as an RGB image captured by a general camera.
  • the infrared image has a wavelength of. It is an image consisting of long wavelength light of 0.7 ⁇ m or more.
  • An infrared image capturing camera that captures an infrared light image can capture, for example, a person who generates heat in the dark or the like, and is used for a surveillance camera or the like.
  • Near-infrared light having a wavelength of about 0.7-1 ⁇ m, Mid-infrared wavelength of about 3-5 ⁇ m, Far-infrared with a wavelength of about 8-14 ⁇ m, It is divided in this way.
  • an image processing example using an infrared light image 20 that mainly captures far infrared rays having a wavelength of about 8 to 14 ⁇ m will be described.
  • the process of the present disclosure is not limited to the far-infrared light image but can be applied to a process using other infrared light images.
  • FIG. 2 is a diagram illustrating an example of a pixel array on the imaging element that captures the visible light image 10 and the infrared light image 20.
  • the visible light image in FIG. 2A shows an example of a Bayer array composed of RGB pixels. This Bayer array is used for image sensors of many visible light photographing cameras. Each pixel of the image sensor outputs an electrical signal corresponding to the light amount of each R, G, or B wavelength light.
  • the far-infrared light image of FIG. 2 (2) images far-infrared light (FIR: Far IneraRed) wavelength light at all pixel positions.
  • FIR Far IneraRed
  • the infrared light image pickup device generally has a lower resolution than the visible light image pickup device. This is because infrared light, particularly far-infrared light, has long wavelength light, and it is difficult to use an image sensor having a high-density pixel array.
  • the image processing apparatus performs image processing on a low-resolution infrared light image to generate a high-resolution far-infrared light image.
  • the image processing unit 30 of the image processing apparatus inputs (A) a high-resolution visible light image and a low-resolution far-infrared light image as captured images of the imaging unit.
  • the image processing unit 30 uses these two input images to execute a high-quality image processing of a low-resolution far-infrared light image, and achieves a high-quality image as shown in FIG.
  • a high-quality image of at least one of the visible light image and the high-resolution far-infrared light image is generated and output.
  • FIG. 4 is a block diagram illustrating a configuration of an imaging apparatus that is an example of the image processing apparatus 100 of the present disclosure.
  • the image processing device of the present disclosure is not limited to the imaging device, and includes, for example, an information processing device such as a PC that inputs a captured image of the imaging device and executes image processing.
  • an information processing device such as a PC that inputs a captured image of the imaging device and executes image processing.
  • a configuration and processing of an imaging apparatus will be described as an example of the image processing apparatus 100 of the present disclosure.
  • Image processing other than the imaging processing described in the following embodiments can be executed not only in the imaging apparatus but also in an information processing apparatus such as a PC.
  • An image processing apparatus 100 as an imaging apparatus illustrated in FIG. 4 includes a control unit 101, a storage unit 102, a codec 103, an input unit 104, an output unit 105, an imaging unit 106, and an image processing unit 120.
  • the imaging unit 106 includes an infrared light image capturing unit 107 that captures a far-infrared light image and a visible light image capturing unit 108 that captures a normal visible light image.
  • the infrared light image capturing unit 107 includes a first image sensor 111 for capturing a far infrared light image.
  • the first image sensor 111 is, for example, an image sensor made up of pixels that receive far-infrared light described above with reference to FIG. 2B. From each pixel, the first image sensor 111 corresponds to the amount of incident far-infrared light. Outputs electrical signals.
  • the visible light image capturing unit 108 includes a second image sensor 112 for capturing an image of a visible light image.
  • the second image sensor 112 is an image sensor that has RGB pixels having the Bayer array described above with reference to FIG. 2A and outputs a signal corresponding to input light of each RGB color for each pixel. is there.
  • the infrared light image capturing unit 107 and the visible light image capturing unit 108 are two image capturing units set at a predetermined distance from each other, and each captured image is an image from a different viewpoint.
  • the corresponding subject image of two images from different viewpoints that is, the pixel at the same position, is not photographed with the same subject image, and subject displacement corresponding to the parallax occurs.
  • the infrared light image capturing unit 107 and the visible light image capturing unit 108 capture a total of two still images, one each.
  • the shooting frame of each imaging unit is a continuous image frame taken by each imaging unit. Note that the control of the photographing timing is performed by the control unit 101.
  • the control unit 101 controls various processes executed in the imaging apparatus 100, such as image capturing, signal processing for captured images, image recording processing, and display processing.
  • the control unit 101 includes, for example, a CPU that executes processing according to various processing programs stored in the storage unit 102, and functions as a data processing unit that executes the program.
  • the storage unit 102 includes a captured image storage unit, a processing program executed by the control unit 101, a storage unit for various parameters, and a RAM and a ROM that function as a work area for data processing.
  • the codec 103 performs encoding and decoding processing such as compression and decompression processing of a captured image.
  • the input unit 104 is a user operation unit, for example, and inputs control information such as shooting start and end, various mode settings, and the like.
  • the output unit 105 includes a display unit, a speaker, and the like, and is used for displaying captured images and through images, outputting sound, and the like.
  • the image processing unit 120 inputs two images input from the imaging unit 106, applies these two images, and executes an image quality enhancement process for the input image. Specifically, for example, a corrected infrared light image 191 with high image quality is generated.
  • the image quality enhancement processing target is only the infrared light image, and the image quality enhancement processing for the visible light image is not executed.
  • the visible light image 192 corresponds to a captured visible light image. Note that it is possible to perform high image quality processing on a visible light image, and this embodiment will be described later.
  • the image processing unit 120 displays the infrared light image 201 captured by the infrared light image capturing unit 107 and the visible light image 202 captured by the visible light image capturing unit 108, and these two types of images. Using these two types of images, a corrected infrared light image 205 subjected to image quality enhancement processing is generated and output.
  • the image processing unit 120 inputs the infrared light image 201 captured by the infrared light image capturing unit 107 to the scaler 121, and executes a scaling process for adjusting the size of the infrared light image 201 to the size of the visible light image 202. .
  • the size of the first image sensor 111 of the infrared light image capturing unit 107 is smaller than the size of the second image sensor of the visible light image capturing unit 108.
  • the scaler 121 executes a scaling process that matches the size of the infrared light image 201 with the size of the visible light image 202.
  • the infrared light image 201 and the visible light image 202 having the same size are input to the parallax amount detection & motion detection unit 122 and the image alignment unit 123.
  • the parallax amount detection & motion detection unit 122 detects the parallax amount of the infrared light image 201 and the visible light image 202 and the motion amount between the two images.
  • the infrared light image capturing unit 107 and the visible light image capturing unit 108 are two image capturing units that are set at predetermined intervals and separated from each other, and each captured image (infrared light image 201, visible light image 202). Is an image from a different viewpoint. The same subject image is not photographed in the corresponding pixels of the two images from different viewpoints, that is, the infrared light image 201 and the visible light image 202, that is, the pixels at the same position, and subject displacement corresponding to the parallax occurs. .
  • the parallax amount detection & motion detection unit 122 detects the parallax amount of the infrared light image 201 and the visible light image 202, and the motion amount between the two images, that is, the parallax information and the motion information, for example, A motion vector (MV: Motion Vector) is input to the image alignment unit 123.
  • MV Motion Vector
  • the image alignment unit 123 performs alignment processing of the infrared light image 201 and the visible light image 202 that have been adjusted in size using the parallax information input from the parallax amount detection & motion detection unit 122 and the motion information. To do. That is, alignment processing of two images is executed so that the same subject is located at the same position of each image.
  • the subject position of the visible light image 202 is not moved, and the subject position of the infrared light image 201 is adjusted to the subject position of the visible light image 202.
  • which image is used as the reference image is not limited, and a configuration in which any image is used as the reference image is also possible.
  • the image alignment unit 123 outputs the two images after alignment, that is, the post-alignment infrared light image 203 and the post-alignment visible light image 204 shown in FIG. Further, the post-alignment infrared light image 203 is input to the image correction unit 127 via the tap selection unit 125.
  • the feature amount calculation unit 124 receives the post-alignment infrared light image 203 and the post-positioning visible light image 204, extracts the feature amount of the image from these images, and extracts the extracted feature amount data from the tap selection unit 125. And output to the correction parameter calculator 126.
  • FIG. 6 illustrates examples of the following three types of image feature amounts that can be extracted from at least one of the two images by the feature amount calculation unit 124.
  • “(1) Luminance distribution information” is distribution information of the luminance value of each pixel in the image.
  • a graph luminance distribution graph in which the horizontal axis represents the pixel position and the vertical axis represents the luminance value is shown.
  • the left side of the graph has a low luminance value
  • the right side has a high luminance value.
  • Such a luminance distribution is a luminance distribution corresponding to an edge region such as a boundary of a subject.
  • Such luminance distribution information is an image feature amount that can be acquired from only one image of the post-positioning infrared light image 203 or the post-positioning visible light image 204.
  • PSDF point spread function
  • this is a function that indicates the degree of spread around the pixel value at a certain pixel position, that is, the amount of blur.
  • This point spread function is also an image feature amount that can be acquired from only one image of the post-positioning infrared light image 203 or the post-positioning visible light image 204.
  • Noise information is information indicating noise included in an image.
  • the image captured by the camera contains a certain amount of noise.
  • a graph noise distribution graph in which the pixel position is set on the horizontal axis and the pixel value is set on the vertical axis is shown.
  • the pixel value is a value obtained by adding a predetermined amount of noise to the original color and luminance of the subject.
  • noise information is also an image feature quantity that can be acquired from only one image of the post-positioning infrared light image 203 or the post-positioning visible light image 204.
  • These three image feature amounts shown in FIG. 6 are examples of feature amount data that the feature amount calculation unit 124 acquires from at least one of the post-positioning infrared light image 203 and the post-positioning visible light image 204. is there.
  • the feature quantity calculation unit 124 acquires at least one of the three image feature quantities shown in FIG. 6 from at least one of the post-alignment infrared light image 203 and the post-position visible light image 204. .
  • the image correction unit 127 executes image correction processing as image quality enhancement processing for the post-alignment infrared light image 203 based on the acquired feature amount, and generates and outputs a corrected infrared light image 205 with improved image quality. To do.
  • the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127 illustrated in FIG. 5 improve the image quality of the post-alignment infrared light image 203 based on the image feature amount calculated by the feature amount calculation unit 124.
  • the tap setting process, the correction parameter calculation process, and the image correction process applied to the image correction process are executed.
  • PSF Point Spread Function
  • Noise information A specific processing example of image correction processing in which these image feature amounts are individually applied, that is, processing for improving the image quality of an infrared light image will be sequentially described.
  • FIG. 7 is a diagram illustrating a configuration similar to the configuration of the image processing unit 120 described with reference to FIG.
  • the feature amount extraction unit 124 extracts luminance distribution information as an image feature amount
  • the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127 are based on the luminance distribution information extracted by the feature amount extraction unit 124. Then, tap setting processing, correction parameter calculation processing, and image correction processing applied to image correction processing for improving the image quality of the infrared light image 203 after alignment are executed.
  • FIG. 7 illustrates processing executed by the feature amount extraction unit 124, the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127, respectively.
  • the feature amount extraction unit 124 acquires luminance distribution information as an image feature amount from the post-positioning infrared light image 203 and the post-positioning visible light image 204 in step S ⁇ b> 101.
  • the luminance distribution information is distribution information of the luminance value of each pixel in the image as described above with reference to FIG. For example, it is constituted by pixel-corresponding luminance information corresponding to a luminance distribution graph as shown in FIGS.
  • the luminance distribution information extracted from the post-positioning infrared light image 203 and the post-positioning visible light image 204 by the feature amount extraction unit 124 is input to the tap selection unit 125 and the correction parameter calculation unit 126.
  • step S ⁇ b> 102 the tap selection unit 125 uses the feature amount extraction unit 124 based on the brightness distribution information extracted from the post-positioning infrared light image 203 and the post-positioning visible light image 204, and the reference pixels to be applied to the correction process.
  • An area selection process that is, a tap selection process is executed.
  • the correction parameter calculation unit 126 is applied to the correction process based on the luminance distribution information extracted from the post-positioning infrared light image 203 and the post-positioning visible light image 204 by the feature amount extraction unit 124 in step S103.
  • the correction parameter to be calculated is calculated. For example, a multiplication coefficient to be applied to reference pixels around the correction target pixel is calculated.
  • FIG. 8 shows the following figures.
  • A1 Example of luminance distribution of image before correction
  • a2 Example of tap setting and correction parameter (multiplication coefficient K i )
  • b Example of luminance distribution of image after correction
  • the luminance distribution example of the image before correction shows the luminance distribution example of the visible light image and the luminance distribution example of the infrared light image.
  • the visible light image is an image photographed by the second imaging element 112 having a high-density pixel configuration arranged in the visible light image capturing unit 108, and is a high-resolution image. The distribution is reflected.
  • the infrared light image is an image photographed by the first imaging element 111 having a low density pixel configuration arranged in the infrared light image capturing unit 107, and is a low resolution image further enlarged by the scaler 121. Therefore, the luminance distribution is a gentle distribution without accurately reflecting the subject luminance. That is, the infrared light image becomes a blurred low-resolution image.
  • the tap selection unit 125 performs tap selection for performing image correction with the resolution level improved by correcting the low-resolution infrared light image. Specifically, the pixel range of the reference pixel applied to the correction process of the pixel value of the pixel to be corrected is set. The tap selection unit 125 determines a reference area used for pixel value correction in the image correction unit 127 based on the feature amount input from the feature amount extraction unit 124. Specifically, for example, a wider reference pixel region (tap region) is set as the difference between the luminance distribution information extracted from the post-alignment infrared light image 203 and the post-alignment visible light image 204 increases.
  • the correction parameter calculation unit 126 calculates a correction parameter to be applied to the correction process of the pixel value of the pixel to be corrected. Specifically, to calculate a multiplication coefficient K i for multiplying the pixel values of the reference pixels.
  • the correction parameter calculation unit 126 determines a correction parameter used for pixel value correction in the image correction unit 127 based on the feature amount input from the feature amount extraction unit 124. Specifically, for example, in accordance with the state of deviation of the luminance distribution information extracted from the post-positioning infrared light image 203 and the post-positioning visible light image 204, correction parameters effective for eliminating the deviation are set. decide.
  • the tap selection unit 125 selects a pixel position to be referred to in order to calculate a correction pixel value of the correction target pixel as a tap position.
  • a pixel position set to 1 or ⁇ 1 is a tap.
  • Correction parameter calculation unit 126 calculates a multiplication factor K i for multiplying the pixel values of the tap position. It is ⁇ 1 or 1 shown in FIG.
  • the selection tap information set by the tap selection unit 125 that is, the reference pixel position information
  • the correction parameter calculated by the correction parameter calculation unit 126 that is, the multiplication coefficient K i for the pixel value at each reference pixel position are input to the image correction unit 127. Is done.
  • the image correction unit 127 calculates a correction pixel value of the correction target pixel based on these input values. Specifically, the correction pixel value T of the correction target pixel is calculated by applying the following correction pixel value calculation formula (Formula 1) shown in Step S104 of FIG. The corrected pixel value T is calculated according to the following (Equation 1).
  • T correction pixel value of correction target pixel
  • T i pixel value of reference pixel i: pixel identifier of reference pixel
  • K i multiplication coefficient corresponding to reference pixel i
  • i is an identifier of a pixel.
  • K i is a multiplication coefficient for the pixel value T i set at each pixel position i.
  • the pixel value of the correction target pixel is calculated according to the above (Equation 1).
  • tap setting and the setting of the correction parameter (multiplication coefficient) shown in FIG. 8A2 are examples, and the tap and the correction parameter are changed to various settings according to the feature amount.
  • the image correction unit 127 sequentially calculates correction pixel values of all the constituent pixels of the post-alignment infrared light image 203 in accordance with the above (Equation 1), and generates and outputs the calculated corrected infrared light image 205. To do.
  • the luminance distribution of the corrected infrared light image 205 has a shape closer to the luminance distribution of the visible light image as compared to the luminance distribution of the infrared light image before correction shown in FIG. In other words, the distribution is improved in resolution.
  • the image quality of the low-resolution infrared light image is improved, that is, the resolution is reduced.
  • the raised corrected infrared light image 205 can be generated and output.
  • FIG. 9 is a diagram illustrating a configuration similar to the configuration of the image processing unit 120 described with reference to FIG. 5, as in FIG. 7.
  • PSF point spread function
  • PSFs point spread functions
  • FIG. 9 shows processes executed by the feature amount extraction unit 124, the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127, respectively.
  • PSF point spread function
  • the point spread function (PSF) is acquired using the infrared light image 203 after alignment.
  • the point spread function (PSF) information extracted from the post-alignment infrared light image 203 by the feature amount extraction unit 124 is input to the tap selection unit 125 and the correction parameter calculation unit 126.
  • PSF point spread function
  • the tap selection unit 125 performs reference pixel region selection processing to be applied to the correction processing based on the point spread function (PSF) information extracted from the post-alignment infrared light image 203 by the feature amount extraction unit 124, that is, Perform tap selection processing.
  • PSF point spread function
  • a wider reference pixel region is set as the blur amount of the post-alignment infrared light image 203 is larger (wider).
  • the correction parameter calculation unit 126 calculates a correction parameter to be applied to the correction process based on the point spread function (PSF) information extracted from the post-alignment infrared light image 203 by the feature amount extraction unit 124 in step S123. To do. Specifically, a coefficient constituting an inverse filter that is a filter for eliminating blur, that is, a multiplication coefficient to be applied to reference pixels around the correction target pixel is calculated.
  • PSF point spread function
  • FIG. 10 shows the following figures.
  • A1 Example of pixel value distribution of image before correction
  • a2 Example of tap setting and correction parameter (multiplication coefficient K i )
  • b Example of pixel value distribution of image after correction
  • the pixel value distribution example of the image before correction is a pixel value distribution example of the infrared light image that is the correction target image.
  • the infrared light image is an image photographed by the first imaging element 111 having a low-density pixel configuration disposed in the infrared light image capturing unit 107, and further enlarged by the scaler 121. Since it is a resolution image, the pixel value distribution is a distribution that smoothly reflects subject luminance. That is, the infrared light image is a blurred image.
  • the tap selection unit 125 performs tap selection for performing image correction for correcting such a blurry infrared light image to obtain a clear image with less blur. Specifically, the pixel range of the reference pixel applied to the correction process of the pixel value of the pixel to be corrected is set. The tap selection unit 125 determines a reference area used for pixel value correction in the image correction unit 127 based on the feature amount input from the feature amount extraction unit 124. Specifically, for example, a wider reference pixel region (tap region) is set as the blur amount of the post-alignment infrared light image 203 is larger (wider).
  • the correction parameter calculation unit 126 calculates a correction parameter to be applied to the correction process of the pixel value of the pixel to be corrected.
  • the coefficients constituting the inverse filter is a filter for blurring resolved, i.e., calculates the multiplication coefficients K i to be applied to the reference pixels surrounding the pixel to be corrected.
  • the correction parameter calculation unit 126 determines a correction parameter used for pixel value correction in the image correction unit 127 based on the feature amount input from the feature amount extraction unit 124. Specifically, for example, an effective correction parameter is determined in order to eliminate the blur of the post-alignment infrared light image 203.
  • the “(a2) tap setting and an example of the correction parameter (multiplication coefficient K i )” in FIG. 10 refers to the surrounding reference used to correct the pixel value of the correction target pixel with the pixel to be corrected as the center. It represents the value of the multiplication coefficient K i for the position and the reference pixels of the pixel.
  • 3 ⁇ 3 9 pixels centered on the correction target pixel are shown.
  • 0, ⁇ 1, and 9 shown in the nine pixel positions are multiplication coefficients K i that are correction parameters calculated by the correction parameter calculation unit 126.
  • i is a pixel position identifier indicating a pixel position.
  • the tap selection unit 125 selects a pixel position to be referred to in order to calculate a correction pixel value of the correction target pixel as a tap position.
  • a pixel position set to ⁇ 1 or 9 is a tap.
  • Correction parameter calculation unit 126 calculates a multiplication factor K i for multiplying the pixel values of the tap position. It is ⁇ 1 and 9 shown in FIG.
  • the selection tap information set by the tap selection unit 125 that is, the reference pixel position information
  • the correction parameter calculated by the correction parameter calculation unit 126 that is, the multiplication coefficient K i for the pixel value at each reference pixel position are input to the image correction unit 127. Is done.
  • the image correction unit 127 calculates a correction pixel value of the correction target pixel based on these input values. Specifically, the correction pixel value T of the correction target pixel is calculated by applying the following correction pixel value calculation formula (formula 2) shown in step S124 of FIG. The corrected pixel value T is calculated according to the following (Equation 2).
  • T correction pixel value of correction target pixel
  • T i pixel value of reference pixel i: pixel identifier of reference pixel
  • K i multiplication coefficient corresponding to reference pixel i
  • i is an identifier of a pixel.
  • K i is a multiplication coefficient for the pixel value T i set at each pixel position i.
  • the pixel value of the correction target pixel is calculated according to the above (Equation 2).
  • tap setting and the setting of the correction parameter (multiplication coefficient) shown in FIG. 10A2 are examples, and the tap and the correction parameter are changed to various settings according to the feature amount.
  • the image correction unit 127 sequentially calculates the correction pixel values of all the constituent pixels of the post-alignment infrared light image 203 according to the above (Equation 2), and generates and outputs the calculated corrected infrared light image 205. To do.
  • FIG. 10 An example of the pixel value distribution of the corrected infrared light image 205 is shown in FIG. Compared with the pixel value distribution of the infrared light image before correction shown in FIG. 10 (a1), the pixel value distribution of the corrected infrared light image 205 has a sharper gradient of the pixel value change and the blur is eliminated. It becomes an image.
  • FIGS. 10A1 and 10A2 are setting examples of tap setting and correction parameter (multiplication coefficient K i ) when the blur spread is relatively small.
  • the tap setting and the setting of the correction parameter (multiplication coefficient K i ) are changed according to the PSF acquired as the feature amount, that is, the blur mode.
  • FIG. 11 shows an example of setting tap settings and correction parameters (multiplication coefficient K i ) when the blur spread is relatively large.
  • the pixel region to be used as the reference determination is set to be larger, and the correction pixel is based on the pixel values of a wider range of reference pixels. Processing to determine the value is performed.
  • the reference pixel region selection process applied to the correction process that is, the tap selection process is executed, and the correction parameter (multiplication coefficient) is calculated.
  • the feature amount extraction unit 124 extracts noise information as an image feature amount from the visible light image 204 after alignment, and outputs the noise information to the tap selection unit 125 and the correction parameter calculation unit 126.
  • the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127 increase the post-alignment infrared light image 203 based on the noise information extracted from the post-alignment visible light image 204 by the feature amount extraction unit 124.
  • a tap setting process, a correction parameter calculation process, and an image correction process applied to the image correction process for improving the image quality are executed.
  • FIG. 12 illustrates processes executed by the feature amount extraction unit 124, the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127, respectively.
  • the feature amount extraction unit 124 acquires noise information as an image feature amount from the visible light image 204 after alignment in step S141.
  • the noise information is information indicating noise included in the image as described above with reference to FIG.
  • the image captured by the camera contains a certain amount of noise.
  • the pixel value set in the image includes a predetermined amount of noise, and the pixel value is a predetermined amount of noise in the original subject color and brightness.
  • the value obtained by adding There are various types of noise such as high frequency noise and low frequency noise.
  • noise information is acquired using the visible light image 204 after alignment.
  • the noise information extracted from the post-alignment visible light image 204 by the feature amount extraction unit 124 is input to the tap selection unit 125 and the correction parameter calculation unit 126.
  • the tap selection unit 125 performs reference pixel region selection processing to be applied to correction processing, that is, tap selection processing, based on the noise information extracted from the post-alignment visible light image 204 by the feature amount extraction unit 124. .
  • reference pixel region selection processing to be applied to correction processing, that is, tap selection processing, based on the noise information extracted from the post-alignment visible light image 204 by the feature amount extraction unit 124.
  • a wider reference pixel region is set as the noise included in the post-alignment visible light image 204 increases in low-frequency component noise.
  • the correction parameter calculation unit 126 calculates a correction parameter to be applied to the correction process based on the noise information extracted from the post-positioning visible light image 204 by the feature amount extraction unit 124 in step S143. Specifically, a multiplication coefficient to be applied to reference pixels around the correction target pixel is calculated.
  • FIG. 13 shows the following figures.
  • A1 Example of pixel value distribution of image before correction
  • a2 Example of tap setting and correction parameter (multiplication coefficient K i )
  • b Example of pixel value distribution of image after correction
  • the pixel value distribution example of the image before correction is a pixel value distribution example of the infrared light image that is the correction target image.
  • the infrared light image is an image photographed by the first imaging element 111 having a low-density pixel configuration disposed in the infrared light image capturing unit 107, and further enlarged by the scaler 121. It is a resolution image, and an image containing more noise than a visible light image which is a high resolution image.
  • the tap selection unit 125 performs tap selection for performing image correction by correcting such a noisy infrared light image to obtain an image with less noise. Specifically, the pixel range of the reference pixel applied to the correction process of the pixel value of the pixel to be corrected is set. The tap selection unit 125 determines a reference area used for pixel value correction in the image correction unit 127 based on the feature amount input from the feature amount extraction unit 124. Specifically, for example, a wider reference pixel region (tap region) is set as the low-frequency component noise increases in the noise of the visible light image 204 after alignment.
  • the correction parameter calculation unit 126 calculates a correction parameter to be applied to the correction process of the pixel value of the pixel to be corrected. Specifically, a coefficient constituting a filter for reducing noise, that is, a multiplication coefficient K i applied to reference pixels around the correction target pixel is calculated.
  • the correction parameter calculation unit 126 determines a correction parameter used for pixel value correction in the image correction unit 127 based on the feature amount input from the feature amount extraction unit 124. Specifically, for example, a correction parameter effective for noise reduction is determined according to a noise component included in the visible light image 204 after alignment.
  • the tap selection unit 125 selects a pixel position to be referred to in order to calculate a correction pixel value of the correction target pixel as a tap position.
  • a tap position In the example shown in the figure, all nine pixel positions set to 1/9 are taps.
  • Correction parameter calculation unit 126 calculates a multiplication factor K i for multiplying the pixel values of the tap position. It is 1/9 shown in FIG.
  • the selection tap information set by the tap selection unit 125 that is, the reference pixel position information
  • the correction parameter calculated by the correction parameter calculation unit 126 that is, the multiplication coefficient K i for the pixel value at each reference pixel position are input to the image correction unit 127. Is done.
  • the image correction unit 127 calculates a correction pixel value of the correction target pixel based on these input values. Specifically, the correction pixel value T of the correction target pixel is calculated by applying the following correction pixel value calculation formula (formula 3) shown in step S144 of FIG. The corrected pixel value T is calculated according to the following (Equation 3).
  • T correction pixel value of correction target pixel
  • T i pixel value of reference pixel i: pixel identifier of reference pixel
  • K i multiplication coefficient corresponding to reference pixel i
  • i is an identifier of a pixel.
  • K i is a multiplication coefficient for the pixel value T i set at each pixel position i.
  • the pixel value of the correction target pixel is calculated according to the above (Equation 3).
  • tap setting and the setting of the correction parameter (multiplication coefficient) shown in FIG. 13A2 are examples, and the tap and the correction parameter are changed to various settings according to the feature amount.
  • the image correction unit 127 sequentially calculates the correction pixel values of all the constituent pixels of the post-alignment infrared light image 203 according to the above (Equation 3), and generates and outputs the calculated corrected infrared light image 205. To do.
  • the pixel value distribution of the corrected infrared light image 205 is an image in which noise included in the pixel value is reduced as compared with the pixel value distribution of the infrared light image before correction illustrated in FIG.
  • the noise information that is a feature amount indicating the noise mode of the infrared light image
  • the image quality of the noisy infrared light image is improved, that is, the noise. It is possible to generate and output a corrected infrared light image 205 with a reduced amount.
  • tap setting and correction when most of the noise included in the infrared light image is high-frequency component noise and relatively low-frequency component noise is small. It is an example of setting a parameter (multiplication coefficient K i ).
  • FIG. 14 is a setting example of tap setting and correction parameter (multiplication coefficient K i ) when there is more low-frequency component noise than in the example of FIG.
  • the pixel region to be used for reference determination is set to be larger, and based on the pixel values of a wider range of reference pixels. Processing for determining a corrected pixel value is performed.
  • the reference pixel region selection process to be applied to the correction process that is, the tap selection process is executed, and the correction parameter (multiplication coefficient) is calculated to perform the correction process.
  • PSF Point Spread Function
  • Noise Information has been described as an example of image correction processing in which these image feature amounts are individually applied, that is, processing for improving the image quality of an infrared light image.
  • image correction is performed using any two or three of the above feature amounts (1) to (3). It is good also as composition which performs.
  • the image processing apparatus described with reference to FIGS. 5 to 14 is an image processing apparatus that executes an image quality enhancement process for only an infrared light image.
  • FIG. 15 and the subsequent drawings the configuration and processing of an image processing apparatus that executes high image quality processing for a visible light image as well as an infrared light image will be described.
  • FIG. 15 is a diagram illustrating a configuration example of the image processing apparatus according to the present embodiment.
  • the configuration shown in FIG. 15 is substantially the same as the configuration shown in FIG. The difference is that the visible light image 204 after alignment output from the image alignment unit 123 is input to the image correction unit 127, and the image correction unit 127 performs image quality enhancement processing on the visible light image 204 after alignment. The correction is made and the corrected visible light image 206 is output.
  • the other configurations are the same as those described with reference to FIG. 5 and the subsequent drawings, and the infrared light image is subjected to the same high image quality processing as described above with reference to FIGS.
  • the corrected infrared light image 205 is output.
  • the image correction unit 127 performs the same image quality improvement processing as described with reference to FIGS. 5 to 14 for the infrared light image, and also improves the image quality for the visible light image. In this configuration, image correction processing as processing is executed.
  • the image correction unit 127 includes an infrared light image correction unit 131 and a visible light image correction unit 132.
  • the infrared light image correction unit 131 executes image correction processing based on tap settings and correction parameter settings similar to those described above with reference to FIGS. 5 to 14, and a corrected infrared light image with improved image quality is obtained. 205 is generated and output.
  • the corrected infrared light image 205 is further input to the visible light image correction unit 132.
  • the visible light image correction unit 132 performs a superimposition process of the corrected infrared light image 205 on the aligned visible light image 204. Specifically, for example, a blending process of pixel values at corresponding positions (same coordinate positions) between the visible light image 204 after alignment and the corrected infrared light image 205, specifically, for example, a high level of the corrected infrared light image 205 A process of adding the band component to the visible light image 204 after alignment is executed to generate and output a corrected visible light image 206.
  • the corrected infrared light image 205 is an image that has been improved in image quality by the processing described above with reference to FIGS. 5 to 14, and the pixel values set in this improved image are converted into visible light after alignment. By blending with the original pixel values of the image 204, a corrected image of the visible light image is generated. By this processing, a corrected visible light image 206 with high image quality is generated and output.
  • FIG. 17 is a diagram illustrating the configuration of the image processing apparatus according to the present embodiment.
  • the configuration shown in FIG. 17 is substantially the same as the configuration shown in FIG. The difference is that an image reduction unit 151 is added and an image enlargement process is executed in the image correction unit 127.
  • the other configurations are the same as those described with reference to FIGS. 5 to 14, and the infrared image is subjected to the same high image quality processing as described with reference to FIGS.
  • the corrected infrared light image 205 is output.
  • the visible light image 202 captured by the visible light image capturing unit 108 is reduced by the image reducing unit 151. Further, the scaler 121 executes a process of reducing the infrared light image 201 captured by the infrared light image capturing unit 107 to the same size as the visible light size reduced by the image reducing unit 151.
  • Subsequent processing that is, the parallax amount detection & motion detection unit 122, the image registration unit 123, the feature amount calculation unit 124, the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127 use this reduced image. Execute the process.
  • the image correction unit 127 executes an enlargement process for enlarging the high-quality infrared light image generated based on the reduced image to the original image size or the same image size as the original visible light image size,
  • the enlarged infrared light image is output as a corrected infrared light image 205.
  • the parallax amount detection & motion detection unit 122, the image alignment unit 123, the feature amount calculation unit 124, the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127 perform processing using a reduced image.
  • the processing amount is reduced, and resources such as a memory and a data processing unit necessary for processing time and processing can be reduced. Therefore, it is possible to perform reliable processing at high speed even in a mobile terminal having a data processing function and a small amount of memory.
  • FIG. 18 is a diagram illustrating a configuration of the image processing apparatus according to the present exemplary embodiment.
  • the configuration shown in FIG. 18 is substantially the same as the configuration shown in FIG. A different point is that a pseudo infrared light image generation unit 161 is added.
  • the other configurations are the same as those described with reference to FIGS. 5 to 14, and the infrared image is subjected to the same high image quality processing as described with reference to FIGS.
  • the corrected infrared light image 205 is output.
  • the visible light image 202 captured by the visible light image capturing unit 108 is input to the pseudo infrared light image generation unit 161, and the pseudo infrared light image generation unit 161 converts the visible light image 202 into the visible light image 202. Generate a pseudo-infrared light image based on it.
  • the visible light image 202 is, for example, an image having a pixel array according to the Bayer array composed of RGB pixels described above with reference to FIG.
  • the pseudo infrared light image generation unit 161 executes demosaic processing based on the RGB array image to set G pixel values for all pixels. Further, a pseudo infrared light pixel value (IR) is calculated based on the G pixel value. For example, an infrared light pixel value (IR i ) of each pixel i constituting the image is calculated according to the following formula.
  • IR i a ⁇ G i
  • the pseudo infrared light image generation unit 161 may generate the pseudo infrared light image 161 based on the visible light image 202 by applying other methods. Good.
  • i is a pixel identifier
  • IR i is the pseudo infrared light pixel value of pixel i of the pseudo infrared light image
  • a is a predetermined coefficient
  • G i is the pixel value of the pixel i of the image generated by the demosaic process of the visible light image.
  • the pseudo infrared light image generated based on the visible light image 202 by the pseudo infrared light image generation unit 161 is captured by the infrared light image capturing unit 107 and adjusted to the same size as the visible light image 202 by the scaler 121. Along with the infrared light image, it is input to the parallax amount detection & motion detection unit 122.
  • the parallax amount detection & motion detection unit 122 compares these two input images and detects the parallax amount between the images and the motion amount.
  • the parallax amount detection & motion detection unit 122 is configured to detect a parallax amount between images using two images of the same quality, an infrared light image and a pseudo infrared light image, and a motion amount. More accurate detection processing is possible.
  • the subsequent processing of the image alignment unit 123, the feature amount calculation unit 124, the tap selection unit 125, the correction parameter calculation unit 126, and the image correction unit 127 is the same as the configuration described above with reference to FIGS.
  • the infrared light image is subjected to the same high image quality processing as described with reference to FIGS. 5 to 14, and the corrected infrared light image 205 is output.
  • FIG. 19 is a diagram illustrating the configuration of the image processing apparatus according to the present embodiment.
  • the configuration shown in FIG. 19 is substantially the same as the configuration shown in FIG. The difference is that a subtracter 171 and an adder 172 are added.
  • the post-alignment infrared light image 203 after performing the alignment process in the image alignment unit 123 is input to the subtractor 171.
  • the subtractor 171 generates a difference image of the post-positioning corrected infrared light image 211 from the post-positioning infrared light image 203.
  • each pixel position of the corrected infrared light image 205 generated based on the previous image frame is adjusted to the same pixel position as that of the infrared light image 203 after alignment. It is an image after the alignment process.
  • the difference image output from the subtractor 171 is output to the feature amount calculation unit 124 and further output to the image correction unit 127 via the tap selection unit 125. Processing in the feature amount calculation unit 124, the tap selection unit 125, and the image correction unit 127 is performed on the difference image.
  • the difference image output from the image correction unit 127 is input to the adder 172, and the adder 1272 performs addition processing between the corrected difference image and the corrected infrared light image after alignment, and the result is corrected.
  • An infrared light image 205 is output.
  • the corrected infrared light image 205 is also fed back to the image alignment unit 123 and applied to the processing of the next image frame.
  • correction processing is performed in advance, and the preceding image frame that has been made a high-quality image is used in feedback in the correction processing for the next correction target image.
  • FIG. 20 is a diagram illustrating the configuration of the image processing apparatus according to the present embodiment.
  • the image processing apparatus illustrated in FIG. 20 does not include the visible light image capturing unit 108 unlike the image processing apparatus illustrated in FIG. 5 described above. Only the infrared light image capturing unit 107 is included, and image processing using only the infrared light image 201 is executed.
  • the image processing unit 120 inputs the infrared light image 201 captured by the infrared light image capturing unit 107 to the image correction unit 184 via the feature amount calculation unit 181 and the tap selection unit 182.
  • the feature amount calculation unit 181 extracts an image feature amount from the infrared light image 201, and outputs the extracted feature amount data to the tap selection unit 182 and the correction parameter calculation unit 183.
  • the feature amount calculation 181 acquires at least one of these three image feature amounts.
  • the image correction unit 184 performs image correction processing as image quality enhancement processing on the infrared light image 201 based on the acquired feature amount, and generates and outputs a corrected infrared light image 205 with improved image quality.
  • the tap selection unit 182, the correction parameter calculation unit 183, and the image correction unit 184 illustrated in FIG. 20 perform image correction for improving the image quality of the infrared light image 201 based on the image feature amount calculated by the feature amount calculation unit 181.
  • a tap setting process, a correction parameter calculation process, and an image correction process to be applied to the process are executed. These processes have the same configuration as the processes described above with reference to FIGS.
  • the image correction unit 184 calculates the correction pixel value T of the correction target pixel by applying the following correction pixel value calculation formula (Formula 4) shown in FIG.
  • the corrected pixel value T is calculated according to the following (Equation 4).
  • T correction pixel value of correction target pixel
  • T i pixel value of reference pixel i: pixel identifier of reference pixel
  • K i multiplication coefficient corresponding to reference pixel i
  • the present embodiment has a configuration using only an infrared light image, and can be applied to, for example, a monocular imaging apparatus.
  • FIG. 21 is a flowchart illustrating a processing sequence executed in the image processing unit of the image processing apparatus described with reference to FIGS.
  • the processing according to the flow shown in FIG. 21 is executed under the control of a control unit having a program execution function, for example, according to a program stored in the storage unit of the image processing apparatus.
  • a control unit having a program execution function for example, according to a program stored in the storage unit of the image processing apparatus.
  • Steps S301a and 301b are image photographing processing. For example, images are captured by the infrared light image capturing unit 107 and the visible light image capturing unit 108 shown in FIG.
  • Step S301a is a photographing process of the visible light image 202 in the visible light image capturing unit 108 shown in FIG.
  • Step S301b is an imaging process of the infrared light image 201 in the infrared light image capturing unit 107.
  • Step S302 is processing executed by the scaler 121 shown in FIG.
  • the scaler 121 receives the infrared light image 201 captured by the infrared light image capturing unit 107 in step S ⁇ b> 301 b, and executes a scaling process for adjusting the size of the infrared light image 201 to the size of the visible light image 202. To do.
  • the infrared light image 201 and the visible light image 202 having the same size are input to the parallax amount detection & motion detection unit 122 and the image alignment unit 123.
  • Step S303 is processing executed by the parallax amount detection & motion detection unit 122 shown in FIG.
  • the parallax amount detection & motion detection unit 122 detects the parallax amount of the infrared light image 201 and the visible light image 202 and the motion amount between the two images.
  • the infrared light image capturing unit 107 and the visible light image capturing unit 108 are two image capturing units that are set at predetermined intervals and separated from each other, and each captured image (infrared light image 201, visible light image 202). Is an image from a different viewpoint. The same subject image is not photographed in the corresponding pixels of the two images from different viewpoints, that is, the infrared light image 201 and the visible light image 202, that is, the pixels at the same position, and subject displacement corresponding to the parallax occurs. .
  • the parallax amount detection & motion detection unit 122 detects the parallax amount of the infrared light image 201 and the visible light image 202, and the motion amount between the two images, that is, the parallax information and the motion information, for example, A motion vector (MV) is input to the image alignment unit 123.
  • a motion vector (MV) is input to the image alignment unit 123.
  • Step S304 The process of step S304 is a process executed by the image alignment unit 123 shown in FIG.
  • the image alignment unit 123 performs alignment processing of the infrared light image 201 and the visible light image 202 that have been adjusted in size using the parallax information input from the parallax amount detection & motion detection unit 122 and the motion information. To do. That is, two alignment images in which the same subject is photographed at the same position of each image are generated.
  • the image alignment unit 123 outputs the two images after alignment, that is, the post-alignment infrared light image 203 and the post-alignment visible light image 204 shown in FIG. Further, the post-alignment infrared light image 203 is input to the image correction unit 127 via the tap selection unit 125.
  • Step S305 The process of step S305 is a process executed by the feature amount calculation unit 124 illustrated in FIG.
  • the feature amount calculation unit 124 receives the post-alignment infrared light image 203 and the post-positioning visible light image 204, extracts the feature amount of the image from these images, and extracts the extracted feature amount data from the tap selection unit 125. And output to the correction parameter calculator 126.
  • the following three types of feature amounts are acquired by the feature amount calculation unit 124 from the post-alignment infrared light image 203 and the post-positional visible light image 204. At least one of the image feature quantities.
  • Luminance distribution information is distribution information of the luminance value of each pixel in the image.
  • PSF point spread function
  • Noise information is information indicating noise included in an image.
  • the feature amount calculation unit 124 acquires at least one of the three image feature amounts shown in FIG. 6 from the post-positioning infrared light image 203 and the post-positioning visible light image 204.
  • Step S306 The process of step S306 is a process executed by the tap selection unit 125 shown in FIG. Based on the image feature amount calculated by the feature amount calculation unit 124, the tap selection unit 125 executes a tap setting process applied to an image correction process for improving the image quality of the post-alignment infrared light image 203. Specifically, the processing described above with reference to FIGS. 5 to 14 is executed.
  • Step S307 The process of step S307 is a process executed by the correction parameter calculation unit 126 shown in FIG.
  • the correction parameter calculation unit 126 executes a correction parameter calculation process applied to an image correction process for improving the image quality of the post-alignment infrared light image 203 based on the image feature amount calculated by the feature amount calculation unit 124. .
  • the processing described above with reference to FIGS. 5 to 14 is executed to calculate a multiplication coefficient K i to be applied to the filter.
  • Step S308 The process in step S308 is a process executed by the image correction unit 127 shown in FIG.
  • the image correcting unit 127 executes image correction processing for improving the image quality of the post-alignment infrared light image 203 based on the image feature amount calculated by the feature amount calculating unit 124. Specifically, the processing described above with reference to FIGS. 5 to 14 is executed.
  • PSF Point Spread Function
  • FIG. 22 is a diagram illustrating a hardware configuration example of an image processing apparatus that executes the processing of the present disclosure.
  • a CPU (Central Processing Unit) 501 functions as a control unit or a data processing unit that executes various processes according to a program stored in a ROM (Read Only Memory) 502 or a storage unit 508. For example, processing according to the sequence described in the above-described embodiment is executed.
  • a RAM (Random Access Memory) 503 stores programs executed by the CPU 501 and data.
  • the CPU 501, ROM 502, and RAM 503 are connected to each other by a bus 504.
  • the CPU 501 is connected to an input / output interface 505 via a bus 504.
  • the input / output interface 505 inputs an image captured by the imaging unit 521, and includes various switches that can be input by a user, a keyboard, a mouse, a microphone, and the like.
  • An output unit 507 that outputs data to the unit 506, the display unit 522, a speaker, and the like is connected.
  • the CPU 501 executes various processes in response to a command input from the input unit 506 and outputs a processing result to the output unit 507, for example.
  • the storage unit 508 connected to the input / output interface 505 includes, for example, a hard disk and stores programs executed by the CPU 501 and various data.
  • a communication unit 509 functions as a transmission / reception unit for Wi-Fi communication, Bluetooth (BT) communication, and other data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • BT Bluetooth
  • the drive 510 connected to the input / output interface 505 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and executes data recording or reading.
  • a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • a feature amount calculation unit that inputs an infrared light image and a visible light image and extracts a feature amount from at least one of the images;
  • An image processing apparatus having an image correction unit that performs a pixel value correction process on the infrared light image based on a reference region and a correction parameter determined according to the feature amount.
  • the image processing apparatus further includes: A tap selection unit that determines a reference area to be used for pixel value correction in the image correction unit based on the feature amount; A correction parameter calculation unit that determines a correction parameter used for pixel value correction in the image correction unit based on the feature amount; The image correction unit The image processing apparatus according to (1), wherein a pixel value correction process is performed by applying the tap determined by the tap selection unit and the correction parameter determined by the correction parameter calculation unit.
  • the feature quantity calculation unit From the infrared light image or at least one of the visible light image, (A) Luminance distribution information (b) Blur mode information (c) Noise information The image processing apparatus according to (1) or (2), wherein any one of the feature quantities (a) to (c) is extracted.
  • the feature amount calculation unit includes: Obtaining luminance distribution information from the infrared light image and the visible light image;
  • the image correction unit The image processing device according to any one of (1) to (3), wherein a pixel value correction process of the infrared light image is executed so as to eliminate a deviation in luminance distribution between the infrared light image and the visible light image .
  • the image processing apparatus further includes: A tap selection unit that determines a reference area to be used for pixel value correction in the image correction unit based on the feature amount; A correction parameter calculation unit that determines a correction parameter used for pixel value correction in the image correction unit based on the feature amount;
  • the tap selection unit sets a wider reference pixel region (tap region) as the deviation of the luminance distribution between the infrared light image and the visible light image is larger,
  • the correction parameter calculation unit determines a correction parameter for eliminating a deviation in luminance distribution between the infrared light image and the visible light image,
  • the image correction unit The image processing apparatus according to (4), wherein a pixel value correction process is performed by applying the tap determined by the tap selection unit and the correction parameter determined by the correction parameter calculation unit.
  • the feature amount calculation unit includes: Obtain blur mode information from the infrared light image, The image correction unit The image processing apparatus according to any one of (1) to (5), wherein a pixel value correction process of the infrared light image is executed so as to reduce blur of the infrared light image.
  • the image processing apparatus further includes: A tap selection unit that determines a reference area to be used for pixel value correction in the image correction unit based on the feature amount; A correction parameter calculation unit that determines a correction parameter used for pixel value correction in the image correction unit based on the feature amount; The tap selection unit sets a wider reference pixel region (tap region) as the blur range of the infrared light image is larger, The correction parameter calculation unit determines a correction parameter for eliminating blur of the infrared light image, The image correction unit The image processing apparatus according to (6), wherein a pixel value correction process is performed by applying the tap determined by the tap selection unit and the correction parameter determined by the correction parameter calculation unit.
  • the feature amount calculation unit includes: Obtaining noise information from the visible light image;
  • the image correction unit The image processing apparatus according to any one of (1) to (7), wherein a pixel value correction process of the infrared light image is executed so as to reduce noise of the infrared light image.
  • the image processing apparatus further includes: A tap selection unit that determines a reference area to be used for pixel value correction in the image correction unit based on the feature amount; A correction parameter calculation unit that determines a correction parameter used for pixel value correction in the image correction unit based on the feature amount; The tap selection unit sets a wider reference pixel region (tap region) as the low-frequency component noise increases in the noise of the visible light image, The correction parameter calculation unit determines a correction parameter according to a noise component included in the visible light image, The image correction unit The image processing apparatus according to (8), wherein a pixel value correction process is performed by applying the tap determined by the tap selection unit and the correction parameter determined by the correction parameter calculation unit.
  • the image correction unit The image processing apparatus according to any one of (1) to (9), wherein an image correction process of the visible light image is executed by applying a corrected infrared light image acquired as a pixel value correction result of the infrared light image.
  • An infrared light image capturing unit that performs an infrared light image capturing process;
  • a visible light image capturing unit that performs a visible light image capturing process,
  • An image processing unit that inputs the infrared light image and the visible light image and executes pixel value correction processing of at least one of the images,
  • the image processing unit A feature amount calculation unit that inputs an infrared light image and a visible light image and extracts a feature amount from at least one of the images;
  • An imaging apparatus having an image correction unit that executes a pixel value correction process on the infrared light image based on a reference region determined according to the feature amount and a correction parameter.
  • the image processing unit further includes: A tap selection unit that determines a reference area to be used for pixel value correction in the image correction unit based on the feature amount; A correction parameter calculation unit that determines a correction parameter used for pixel value correction in the image correction unit based on the feature amount; The image correction unit The imaging apparatus according to (11), wherein a pixel value correction process is performed by applying the tap determined by the tap selection unit and the correction parameter determined by the correction parameter calculation unit.
  • the feature amount calculation unit includes: From the infrared light image or at least one of the visible light image, (A) Luminance distribution information (b) Blur mode information (c) Noise information The imaging device according to (11) or (12), wherein any one of the feature values (a) to (3c) is extracted.
  • a feature amount calculation unit that inputs an infrared light image and extracts a feature amount;
  • An image processing apparatus having an image correction unit that performs a pixel value correction process on the infrared light image based on a reference region and a correction parameter determined according to the feature amount.
  • the image processing apparatus further includes: A tap selection unit that determines a reference area to be used for pixel value correction in the image correction unit based on the feature amount; A correction parameter calculation unit that determines a correction parameter used for pixel value correction in the image correction unit based on the feature amount; The image correction unit The image processing apparatus according to (14), wherein a pixel value correction process is performed by applying the tap determined by the tap selection unit and the correction parameter determined by the correction parameter calculation unit.
  • the feature amount calculation unit includes: From the infrared light image, (A) Luminance distribution information (b) Blur mode information (c) Noise information The image processing apparatus according to (14) or (15), wherein the feature amount of any one of (a) to (c) is extracted.
  • An image processing method executed in the image processing apparatus A feature amount calculating unit that inputs an infrared light image and a visible light image and extracts a feature amount from at least one of the images; and An image processing method in which an image correction unit executes an image correction step of executing pixel value correction processing on the infrared light image based on a reference region and a correction parameter determined according to the feature amount.
  • a program for executing image processing in an image processing apparatus An infrared light image and a visible light image are input to the feature amount calculation unit, and a feature amount is extracted from at least one of the images, A program that causes an image correction unit to perform a pixel value correction process on the infrared light image based on a reference region and a correction parameter determined according to the feature amount.
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • an apparatus and a method for executing an image quality enhancement process for an infrared light image are realized. Specifically, an infrared light image and a visible light image are input, and a feature amount calculation unit that extracts a feature amount from at least one of the images and an infrared light image are determined according to the feature amount. An image correction unit that executes pixel value correction processing based on the reference region and the correction parameter is provided.
  • the image processing apparatus further includes a tap selection unit that determines a reference area to be used for pixel value correction based on a feature value, and a correction parameter calculation unit that determines a correction parameter to be used for pixel value correction based on the feature value,
  • the correction unit executes a pixel value correction process using the tap determined by the tap selection unit and the correction parameter determined by the correction parameter calculation unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

赤外光画像の高画質化処理を実行する装置、方法を提供する。赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、赤外光画像に対して、特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する。さらに、画素値補正に利用する参照領域を、特徴量に基づいて決定するタップ選択部と、画素値補正に利用する補正パラメータを、特徴量に基づいて決定する補正パラメータ算出部を有し、画像補正部は、タップ選択部の決定したタップと、補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する。

Description

画像処理装置、撮像装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。特に、可視光画像と赤外光画像の画像処理を行なう画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。
 昨今、可視光の画像撮影を行う可視光カメラとともに、可視光による画像撮影が困難な夜間等においても人物等を撮影可能な赤外光カメラを組み合わせたシステムが多く利用されている。
 このような2つのカメラを用いた撮像装置について、例えば特許文献1(特開2011-211387号公報)に開示されている。
 しかし、一般的に赤外光カメラは、可視光での撮影を行う可視光カメラに比較して解像度が低下してしまうという問題がある。
特開2011-211387号公報
 本開示は、例えば、上記の問題点に鑑みてなされたものであり、本開示の一実施例においては、赤外光カメラの撮影画像の高画質化を実現する画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 また、本開示の一実施例においては、可視光画像と赤外光画像の双方について、高画質化処理を行なう画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、
 前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する画像処理装置にある。
 さらに、本開示の第2の側面は、
 赤外光画像の撮像処理を行なう赤外光画像撮像部と、
 可視光画像の撮像処理らを行う可視光画像撮像部と、
 前記赤外光画像と可視光画像を入力し、少なくともいずれかの画像の画素値補正処理を実行する画像処理部を有し、
 前記画像処理部は、
 赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、
 前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する撮像装置にある。
 さらに、本開示の第3の側面は、
 赤外光画像を入力し、特徴量を抽出する特徴量算出部と、
 前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する画像処理装置にある。
 さらに、本開示の第4の側面は、
 画像処理装置において実行する画像処理方法であり、
 特徴量算出部が、赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出ステップと、
 画像補正部が、前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正ステップを実行する画像処理方法にある。
 さらに、本開示の第5の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 特徴量算出部に、赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出させ、
 画像補正部に、前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、赤外光画像の高画質化処理を実行する装置、方法が実現される。
 具体的には、赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、赤外光画像に対して、特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する。さらに、画素値補正に利用する参照領域を、特徴量に基づいて決定するタップ選択部と、画素値補正に利用する補正パラメータを、特徴量に基づいて決定する補正パラメータ算出部を有し、画像補正部は、タップ選択部の決定したタップと、補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する。
 これらの処理により、赤外光画像の高画質化処理を実行する装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
撮影画像の種類と光の波長との対応関係について説明する図である。 可視光画像と赤外光画像の画素配列の例について説明する図である。 本開示の画像処理装置の実行する処理について説明する図である。 画像処理装置の構成例について説明する図である。 画像処理部の構成と処理について説明する図である。 特徴量の種類と具体例について説明する図である。 特徴量として輝度分布情報を用いた場合の画像補正処理を実行する画像処理部の構成と処理について説明する図である。 特徴量として輝度分布情報を用いた場合の画像補正処理の一例について説明する図である。 特徴量としてぼけ態様を示すPSF情報を用いた場合の画像補正処理を実行する画像処理部の構成と処理について説明する図である。 特徴量としてぼけ態様を示すPSF情報を用いた場合の画像補正処理の一例について説明する図である。 特徴量としてぼけ態様を示すPSF情報を用いた場合の画像補正処理の一例について説明する図である。 特徴量としてノイズ情報を用いた場合の画像補正処理を実行する画像処理部の構成と処理について説明する図である。 特徴量としてノイズ情報を用いた場合の画像補正処理の一例について説明する図である。 特徴量としてノイズ情報を用いた場合の画像補正処理の一例について説明する図である。 画像処理部の構成と処理について説明する図である。 画像補正部の構成と処理について説明する図である。 画像処理装置の構成と処理について説明する図である。 画像処理装置の構成と処理について説明する図である。 画像処理装置の構成と処理について説明する図である。 画像処理装置の構成と処理について説明する図である。 画像処理装置の実行する画像処理シーケンスについて説明するフローチャートを示す図である。 画像処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、撮像装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
 1.本開示の画像処理装置の構成と処理について
 2.赤外光画像の高画質化処理を実行する画像処理装置について
 2-1.画像特徴量として輝度分布情報を用いた画像補正処理により、高画質画像を生成する処理例について
 2-2.画像特徴量として点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)を用いた画像補正処理により、高画質画像を生成する処理例について
 2-3.画像特徴量としてノイズ情報を用いた画像補正処理により、高画質画像を生成する処理例について
 3.可視光画像の高画質化処理を行なう構成例について
 4.画像処理装置のその他の実施例について
 4-1.撮影画像に対する縮小画像を生成し、縮小画像に対する画像処理を実行する実施例
 4-2.可視光画像に基づく擬似赤外光画像を生成し、撮影された赤外光画像と擬似赤外光画像を用いて視差量、動き情報を算出する実施例
 4-3.画像補正部の生成した補正赤外光画像をフィードバックして再利用する実施例
 4-4.可視光画像を利用せず、赤外光画像のみを利用した実施例
 5.画像処理装置の実行する処理のシーケンスについて
 6.画像処理装置のハードウェア構成例について
 7.本開示の構成のまとめ
  [1.本開示の画像処理装置の構成と処理について]
 図1以下を参照して本開示の画像処理装置の構成と処理について説明する。
 まず、図1以下を参照して本開示の画像処理装置が処理対象とする画像について説明する。
 本開示の画像処理装置は、可視光画像と、赤外光画像を入力し、これらの画像を適用した画像処理を実行する。
 図1に示すように、可視光画像10は、波長が約0.4μm~0.7μmの範囲の画像であり、一般的なカメラで撮影されるRGB画像等のカラー画像である。
 赤外光画像は、波長が.0.7μm以上の長波長光からなる画像である。赤外光画像を撮影する赤外光画像撮影カメラは、例えば暗闇等において熱を発生する人物等を撮影することが可能であり、監視カメラ等に利用される。
 なお、赤外線は、図1に示すように、
 波長が約0.7~1μmの近赤外線、
 波長が約3~5μmの中赤外線、
 波長が約8~14μmの遠赤外線、
 このように区分される。
 以下に説明する実施例では、主に波長が約8~14μmの遠赤外線を撮影する赤外光画像20を利用した画像処理例について説明する。
 ただし、本開示の処理は、遠赤外光画像に限らず、その他の赤外光画像を利用した処理にも適用可能である。
 図2は、可視光画像10、および赤外光画像20を撮影する撮像素子上の画素配列の例を示す図である。
 図2(1)の可視光画像は、RGB各画素からなるベイヤ配列の例を示している。このベイヤ配列は、多くの可視光撮影カメラの撮像素子に利用されている。
 撮像素子の各画素は、RまたはGまたはB各波長光の光量に応じた電気信号を出力する。
 一方、図2(2)の遠赤外光画像は、全ての画素位置において遠赤外光(FIR:Far IneraRed)の波長光を撮影する。
 ただし、図2(1),(2)に示すように、一般的に赤外光画像撮像素子は、可視光画像撮像素子に比較して、解像度が低くなる。これは赤外光、特に遠赤外光は波長光が長く、高密度の画素配列を持つ撮像素子が利用しにくい等の理由である。
 本開示の画像処理装置の実行する1つの処理例について図3を参照して説明する。本開示の画像処理装置は、例えば、低解像度の赤外光画像に対する画像処理を実行して、高解像度の遠赤外光画像を生成する。
 図3に示すように、本開示の画像処理装置の画像処理部30は、(A)撮像部の撮影画像として、高解像度の可視光画像と低解像度の遠赤外光画像を入力する。
 画像処理部30は、これらの2つの入力画像を利用して、低解像度の遠赤外光画像の高画質化処理を実行し、(B)に示すような高画質化画像、すなわち、高解像度の可視光画像、高解像度の遠赤外光画像の少なくとも一方の高画質化画像を生成して出力する。
 以下、このような画像処理を実行する画像処理装置の具体的な構成と処理について説明する。
  [2.赤外光画像の高画質化処理を実行する画像処理装置について]
 図4は、本開示の画像処理装置100の一例である撮像装置の構成を示すブロック図である。
 なお、本開示の画像処理装置には、撮像装置に限らず、例えば撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置も含まれる。
 以下では、本開示の画像処理装置100の一例として、撮像装置の構成と処理について説明する。
 以下の実施例において説明する撮影処理以外の画像処理は、撮像装置に限らず、PC等の情報処理装置において実行可能である。
 図4に示す撮像装置としての画像処理装置100は、制御部101、記憶部102、コーデック103、入力部104、出力部105、撮像部106、画像処理部120を有する。
 撮像部106は、遠赤外光画像を撮影する赤外光画像撮像部107と、通常の可視光画像の撮影を行う可視光画像撮像部108を有する。
 赤外光画像撮像部107は、遠赤外光画像の画像撮影を行うための第1撮像素子111を有する。第1撮像素子111は、例えば先に図2(2)を参照して説明した遠赤外光を入射する画素からなる撮像素子であり、各画素から、遠赤外光の入射光量に応じた電気信号を出力する。
 一方、可視光画像撮像部108は、可視光画像の画像撮影を行うための第2撮像素子112を有する。第2撮像素子112は、例えば、先に図2(1)を参照して説明したベイヤ配列からなるRGB画素を有し、各画素単位でRGB各色の入力光対応の信号を出力する撮像素子である。
 赤外光画像撮像部107と、可視光画像撮像部108は、所定間隔、離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。
 異なる視点からの2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 赤外光画像撮像部107と、可視光画像撮像部108は、撮影画像が静止画である場合は、各々が1枚ずつ、計2枚の静止画を撮影する。動画を撮影する場合は、各撮像部の撮影フレームは、各撮像部が連続した画像フレームを撮影する。
 なお、これらの撮影タイミングの制御は制御部101によって行われる。
 制御部101は、画像の撮影、撮影画像に対する信号処理、画像の記録処理、表示処理等、撮像装置100において実行する各種の処理を制御する。制御部101は、例えば記憶部102に格納された様々な処理プログラムに従った処理を実行するCPU等を備え、プログラムを実行するデータ処理部として機能する。
 記憶部102は、撮影画像の格納部、さらに、制御部101において実行する処理プログラムや、各種パラメータの記憶部、さらにデータ処理時のワークエリアとして機能するRAM、ROM等によって構成される。
 コーデック103は、撮影画像の圧縮、伸長処理等の符号化、復号処理を実行する。
 入力部104は、例えばユーザ操作部であり、撮影開始、終了、様々なモード設定等の制御情報を入力する。
 出力部105は表示部、スピーカ等によって構成され、撮影画像、スルー画等の表示、音声出力等に利用される。
 画像処理部120は、撮像部106から入力する2枚の画像を入力し、これら2枚の画像を適用して、入力画像の高画質化処理を実行する。
 具体的には、例えば、高画質化した補正赤外光画像191を生成する。なお、本実施例では、高画質化処理対象は、赤外光画像のみであり、可視光画像についての高画質化処理は実行しない。可視光画像192は撮影された可視光画像に相当する。
 なお、可視光画像に対する高画質化処理を行なうことも可能であり、この実施例については後段で説明する。
 図5以下を参照して画像処理部120の構成と処理について説明する。
 本実施例において、画像処理部120は、赤外光画像撮像部107において撮影された赤外光画像201と、可視光画像撮像部108において撮影された可視光画像202、これら2種類の画像を入力し、これら2種類の画像を利用して、高画質化処理を施した補正赤外光画像205を生成して出力する。
 画像処理部120の実行する処理について説明する。
 画像処理部120は、赤外光画像撮像部107において撮影された赤外光画像201をスケーラ121に入力し、赤外光画像201のサイズを可視光画像202のサイズに合わせるスケーリング処理を実行する。
 これは、赤外光画像撮像部107の第1撮像素子111のサイズと、可視光画像撮像部108の第2撮像素子の大きさの差異を解消するための画像サイズの調整処理である。
 多くの場合、赤外光画像撮像部107の第1撮像素子111のサイズは、可視光画像撮像部108の第2撮像素子のサイズより小さい。
 スケーラ121は、赤外光画像201のサイズを可視光画像202のサイズに合わせるスケーリング処理を実行する。
 サイズが一致した赤外光画像201と、可視光画像202は、視差量検出&動き検出部122、および画像位置合わせ部123に入力される。
 視差量検出&動き検出部122は、赤外光画像201と、可視光画像202の視差量と、2つの画像間の動き量を検出する。
 赤外光画像撮像部107と、可視光画像撮像部108は、所定間隔、離れた位置に設定される2つの撮像部であり、それぞれの撮影画像(赤外光画像201、可視光画像202)は異なる視点からの画像となる。
 異なる視点からの2つの画像、すなわち赤外光画像201と、可視光画像202との対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 また、これらの2つの画像が完全に同一タイミングで撮影された画像でなく、被写体に動く被写体が含まれる場合には、それぞれの画像に撮影される同一被写体の位置が異なる。すなわち被写体の動き量が存在する。
 視差量検出&動き検出部122は、赤外光画像201と、可視光画像202の視差量と、2つの画像間の動き量を検出し、これらの情報、すなわち視差情報と、動き情報、例えば動きベクトル(MV:Motion Vector)を画像位置合わせ部123に入力する。
 画像位置合わせ部123は、視差量検出&動き検出部122から入力する視差情報と、動き情報を利用し、サイズ調整を行った赤外光画像201と、可視光画像202の位置合わせ処理を実行する。
 すなわち、各画像の同一位置に同一の被写体が位置するように2枚の画像の位置合わせ処理を実行する。
 なお、具体的には、例えば可視光画像202を基準位置として、可視光画像202の被写体位置は移動せず、赤外光画像201の被写体位置を可視光画像202の被写体位置に合わせる処理を行なう。
 ただし、どちらの画像を基準画像として用いるかは限定されるものではなく、いずれの画像を基準画像とする構成も可能である。
 画像位置合わせ部123は、位置合わせ後の2つの画像、すなわち、図5に示す位置合わせ後赤外光画像203と、位置合わせ後可視光画像204を特徴量算出部124に出力する。
 さらに、位置合わせ後赤外光画像203については、タップ選択部125を介して画像補正部127に入力する。
 特徴量算出部124は、位置合わせ後赤外光画像203と、位置合わせ後可視光画像204を入力し、これらの画像から画像の特徴量を抽出し、抽出した特徴量データをタップ選択部125と、補正パラメータ算出部126に出力する。
 特徴量算出部124が、位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から取得する特徴量データの例について、図6を参照して説明する。
 図6には、特徴量算出部124が、2つの画像の少なくともいずれかから抽出可能な以下の3種類の画像特徴量の例を示している。
 (1)輝度分布情報
 (2)点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)
 (3)ノイズ情報
 「(1)輝度分布情報」は、画像中の各画素の輝度値の分布情報である。図6(1)(b)の具体例には、横軸に画素位置、縦軸に輝度値を設定したグラフ(輝度分布グラフ)を示している。
 図に示す例は、グラフの左側が低輝度値であり、右側が高輝度値となっている。このような輝度分布は、例えば被写体の境界等のエッジ領域に相当する輝度分布である。
 なお、このような輝度分布情報は、位置合わせ後赤外光画像203、または位置合わせ後可視光画像204の一方の画像のみから取得可能な画像特徴量である。
 「(2)点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)」は、画像のぼけ量を示す関数である点広がり関数(PSF)である。
 図6(2)(b)の具体例に示すように、ある画素位置の画素値の周囲に対するひろがり度合い、すなわちぼけ量を示す関数である。
 なお、この点広がり関数も、位置合わせ後赤外光画像203、または位置合わせ後可視光画像204の一方の画像のみから取得可能な画像特徴量である。
 「(3)ノイズ情報」は、画像に含まれるノイズを示す情報である。カメラによる撮影画像には、ある程度のノイズが含まれている。
 図6(3)(b)の具体例には、横軸に画素位置、縦軸に画素値を設定したグラフ(ノイズ分布グラフ)を示している。
 このグラフに示すように、画素値は、本来の被写体の色や輝度に所定量のノイズを加算した値となる。なお、ノイズには高周波ノイズ、低周波ノイズ等、様々なタイプのノイズがある。
 なお、このノイズ情報も、位置合わせ後赤外光画像203、または位置合わせ後可視光画像204の一方の画像のみから取得可能な画像特徴量である。
 図6に示すこれら3つの画像特徴量は、特徴量算出部124が、位置合わせ後赤外光画像203、または位置合わせ後可視光画像204の少なくとも一方の画像から取得する特徴量データの例である。
 特徴量算出部124は、位置合わせ後赤外光画像203、または位置合わせ後可視光画像204の少なくとも一方の画像から、図6に示す3つの画像特徴量の少なくともいずれかの特徴量を取得する。
 画像補正部127は、取得特徴量に基づいて、位置合わせ後赤外光画像203に対する高画質化処理としての画像補正処理を実行し、画質を改善した補正赤外光画像205を生成して出力する。
 図5に示すタップ選択部125、補正パラメータ算出部126、画像補正部127は、特徴量算出部124の算出した画像特徴量に基づいて、位置合わせ後赤外光画像203を高画質化するための画像補正処理に適用するタップ設定処理と、補正パラメータ算出処理と、画像補正処理を実行する。
 以下、図6に示3つの特徴量、すなわち、
 (1)輝度分布情報
 (2)点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)
 (3)ノイズ情報
 これらの画像特徴量を個別に適用した画像補正処理、すなわち、赤外光画像の高画質化処理の具体的処理例について、順次、説明する。
  [2-1.画像特徴量として輝度分布情報を用いた画像補正処理により、高画質画像を生成する処理例について]
 まず、画像特徴量として輝度分布情報を取得し、取得した輝度分布情報を用いた画像補正処理により、赤外光画像の高画質化処理を行なう処理例について説明する。
 図7は、図5を参照して説明した画像処理部120の構成と同様の構成を示す図である。
 特徴量抽出部124は、画像特徴量として輝度分布情報を抽出し、タップ選択部125、補正パラメータ算出部126、および画像補正部127は、特徴量抽出部124が抽出した輝度分布情報に基づいて、位置合わせ後赤外光画像203を高画質化するための画像補正処理に適用するタップ設定処理と、補正パラメータ算出処理と、画像補正処理を実行する。
 図7には、特徴量抽出部124、タップ選択部125、補正パラメータ算出部126、および画像補正部127の実行する処理をそれぞれ示している。
 特徴量抽出部124は、図7に示すように、ステップS101において、位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から画像特徴量としての輝度分布情報を取得する。
 輝度分布情報は、先に図6(1)を参照して説明したように、画像中の各画素の輝度値の分布情報である。例えば、図6(1)(b)に示すような輝度分布グラフに相当する画素対応の輝度情報によって構成される。
 特徴量抽出部124が位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から抽出した輝度分布情報は、タップ選択部125と、補正パラメータ算出部126に入力される。
 タップ選択部125は、ステップS102において、特徴量抽出部124が位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から抽出した輝度分布情報に基づいて、補正処理に適用する参照画素領域選択処理、すなわちタップ選択処理を実行する。
 また、補正パラメータ算出部126は、ステップS103において、特徴量抽出部124が位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から抽出した輝度分布情報に基づいて、補正処理に適用する補正パラメータを算出する。例えば、補正対象画素の周囲の参照画素に対して適用する乗算係数を算出する。
 このタップ選択部125におけるタップ選択処理と、補正パラメータ算出部126における補正パラメータの算出処理例について、図8を参照して説明する。
 図8には、以下の各図を示している。
 (a1)補正前の画像の輝度分布例
 (a2)タップ設定と、補正パラメータ(乗算係数K)の例
 (b)補正後の画像の輝度分布例
 (a1)補正前の画像の輝度分布例には、可視光画像の輝度分布例と、赤外光画像の輝度分布例を示している。可視光画像は、可視光画像撮像部108に配置された高密度画素構成の第2撮像素子112によって撮影された画像であり、高解像度画像であるため、輝度分布が、被写体輝度をより正確に反映した分布となる。
 一方、赤外光画像は、赤外光画像撮像部107に配置された低密度画素構成の第1撮像素子111によって撮影された画像であり、さらにスケーラ121によって拡大処理がなされた低解像度画像であるため、輝度分布は、被写体輝度を正確に反映せずなだらかな分布となる。すなわち、赤外光画像は、ぼやけた低解像度の画像となる。
 タップ選択部125は、このような低解像度の赤外光画像を補正して解像度レベルを向上させた画像補正を行うためのタップ選択を行う。具体的には補正対象となる画素の画素値の補正処理に適用する参照画素の画素範囲を設定する。
 タップ選択部125は、画像補正部127における画素値補正に利用する参照領域を、特徴量抽出部124から入力する特徴量に基づいて決定する。
 具体的には、例えば、位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から抽出した輝度分布情報のずれが大きいほど広範囲の参照画素領域(タップ領域)を設定する。
 また、補正パラメータ算出部126は、補正対象となる画素の画素値の補正処理に適用する補正パラメータを算出する。具体的には、参照画素の画素値に乗算する乗算係数Kを算出する。
 補正パラメータ算出部126は、画像補正部127における画素値補正に利用する補正パラメータを、特徴量抽出部124から入力する特徴量に基づいて決定する。
 具体的には、例えば、位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から抽出した輝度分布情報のずれの状態に応じて、ずれを解消するために効果的な補正パラメータを決定する。
 図8の「(a2)タップ設定と、補正パラメータ(乗算係数K)の例」には、補正対象となる画素を中心として、その補正対象画素の画素値を補正するために用いる周囲の参照画素の位置と各参照画素に対する乗算係数Kの値を示している。
 図に示す例では、補正対象画素を中心とする3×3=9画素を示している。9個の画素位置に示す0,1,-1は、補正パラメータ算出部126の算出した補正パラメータである乗算係数Kである。なお、iは画素位置を示す画素位置識別子である。
 タップ選択部125は、補正対象画素の補正画素値を算出するために参照する画素位置をタップ位置として選択する。図に示す例では、1または-1の設定された画素位置がタップとなる。
 補正パラメータ算出部126はタップ位置の画素値に乗算する乗算係数Kを算出する。図8(a2)に示す-1や1である。
 タップ選択部125の設定した選択タップ情報、すなわち参照画素位置情報と、補正パラメータ算出部126の算出した補正パラメータ、すなわち各参照画素位置の画素値に対する乗算係数Kは、画像補正部127に入力される。
 画像補正部127は、これらの入力値に基づいて、補正対象画素の補正画素値を算出する。具体的には、図7のステップS104に示す以下の補正画素値算出式(式1)を適用して補正対象画素の補正画素値Tを算出する。
 以下の(式1)に従って、補正画素値Tを算出する。
Figure JPOXMLDOC01-appb-M000001
 なお、上記(式1)において、各記号は以下の意味を持つ。
 T:補正対象画素の補正画素値
 T:参照画素の画素値
 i:参照画素の画素識別子
 K:参照画素i対応の乗算係数
 補正対象画素は、例えば図8(a2)に示す3×3=9画素の中心位置の画素である。
 参照画素は、3×3=9画素の各画素であり、Tはこれらの各画素の画素値である。iは画素の識別子である。9個の画素を参照する場合、n=8に設定され、i=0~8の各画素の画素値を用いて、補正画素値Tが算出される。
 Kは、各画素位置iに設定される画素値Tに対する乗算係数である。
 上記(式1)に従って補正対象画素の画素値を算出する。
 なお、図8(a2)に示すタップ設定、補正パラメータ(乗算係数)の設定は一例であり、タップや、補正パラメータは、特徴量に応じて様々な設定に変更される。
 画像補正部127は、上記(式1)に従って位置合わせ後赤外光画像203の構成画素全ての補正画素値を順次、算出し、算出した構成される補正赤外光画像205を生成して出力する。
 補正赤外光画像205の輝度分布例を図8(b)に示す。
 補正赤外光画像205の輝度分布は、図8(a1)に示す補正前の赤外光画像の輝度分布に比較して、可視光画像の輝度分布に近づいた形状となる。なわち解像度が向上した分布となる。
 これは、解像度の高い可視光画像の特徴量、すなわち輝度分布を解像度の低い赤外光画像の画素値に反映させる画素値補正を行った結果である。
 このように、解像度の高い可視光画像の特徴量である輝度分布情報を用いて、赤外光画像の画素値を補正することで、低解像度の赤外光画像の高画質化、すなわち解像度を上昇させた補正赤外光画像205を生成して出力することが可能となる。
  [2-2.画像特徴量として点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)を用いた画像補正処理により、高画質画像を生成する処理例について]
 次に、画像特徴量として点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す態様を示す関数)情報を取得し、取得した点広がり関数(PSF)情報を用いた画像補正処理により、赤外光画像の高画質化処理を行なう処理例について説明する。
 図9は、図7と同様、図5を参照して説明した画像処理部120の構成と同様の構成を示す図である。
 特徴量抽出部124は、位置合わせ後赤外光画像203から、画像特徴量として点広がり関数(PSF)(=ぼけ態様を示す態様を示す関数)を抽出し、タップ選択部125、補正パラメータ算出部126に出力する。
 タップ選択部125、補正パラメータ算出部126、および画像補正部127は、特徴量抽出部124が位置合わせ後赤外光画像203から抽出した点広がり関数(PSF)(=ぼけ態様を示す態様を示す関数)に基づいて、位置合わせ後赤外光画像203を高画質化するための画像補正処理に適用するタップ設定処理と、補正パラメータ算出処理と、画像補正処理を実行する。
 図9には、特徴量抽出部124、タップ選択部125、補正パラメータ算出部126、および画像補正部127の実行する処理をそれぞれ示している。
 特徴量抽出部124は、図9に示すように、ステップS121において、位置合わせ後赤外光画像203から画像特徴量としての点広がり関数(PSF)(=ぼけ態様を示す態様を示す関数)を取得する。
 点広がり関数(PSF)(=ぼけ態様を示す関数)は、先に図6(2)を参照して説明したように、画像のぼけ量を示す関数である。
 図6(2)(b)の具体例に示すように、ある画素位置の画素値の周囲に対するひろがり度合い、すなわちぼけ量を示す関数である。
 なお、ここでは、位置合わせ後赤外光画像203を用いて点広がり関数(PSF)を取得している。
 特徴量抽出部124が位置合わせ後赤外光画像203から抽出した点広がり関数(PSF)情報は、タップ選択部125と、補正パラメータ算出部126に入力される。
 タップ選択部125は、ステップS122において、特徴量抽出部124が位置合わせ後赤外光画像203から抽出した点広がり関数(PSF)情報に基づいて、補正処理に適用する参照画素領域選択処理、すなわちタップ選択処理を実行する。
 具体的には、例えば、位置合わせ後赤外光画像203のぼけ量が大きい(広い)ほど広範囲の参照画素領域(タップ領域)を設定する。
 また、補正パラメータ算出部126は、ステップS123において、特徴量抽出部124が位置合わせ後赤外光画像203から抽出した点広がり関数(PSF)情報に基づいて、補正処理に適用する補正パラメータを算出する。
 具体的には、ぼけ解消のためのフィルタである逆フィルタを構成する係数、すなわち、補正対象画素の周囲の参照画素に対して適用する乗算係数を算出する。
 このタップ選択部125におけるタップ選択処理と、補正パラメータ算出部126における補正パラメータの算出処理例について、図10、図11を参照して説明する。
 図10には、以下の各図を示している。
 (a1)補正前の画像の画素値分布例
 (a2)タップ設定と、補正パラメータ(乗算係数K)の例
 (b)補正後の画像の画素値分布例
 (a1)補正前の画像の画素値分布例は、補正対象画像である赤外光画像の画素値分布例である。
 前述したように、赤外光画像は、赤外光画像撮像部107に配置された低密度画素構成の第1撮像素子111によって撮影された画像であり、さらにスケーラ121によって拡大処理がなされた低解像度画像であるため、画素値分布が、被写体輝度をなめらかに反映した分布となる。すなわち、赤外光画像は、ぼけの大きな画像となる。
 タップ選択部125は、このようなぼけの大きな赤外光画像を補正してぼけの少ないクリアな画像とする画像補正を行うためのタップ選択を行う。具体的には補正対象となる画素の画素値の補正処理に適用する参照画素の画素範囲を設定する。
 タップ選択部125は、画像補正部127における画素値補正に利用する参照領域を、特徴量抽出部124から入力する特徴量に基づいて決定する。
 具体的には、例えば、位置合わせ後赤外光画像203のぼけ量が大きい(広い)ほど広範囲の参照画素領域(タップ領域)を設定する。
 また、補正パラメータ算出部126は、補正対象となる画素の画素値の補正処理に適用する補正パラメータを算出する。具体的には、ぼけ解消のためのフィルタである逆フィルタを構成する係数、すなわち、補正対象画素の周囲の参照画素に対して適用する乗算係数Kを算出する。
 補正パラメータ算出部126は、画像補正部127における画素値補正に利用する補正パラメータを、特徴量抽出部124から入力する特徴量に基づいて決定する。
 具体的には、例えば、位置合わせ後赤外光画像203のぼけを解消するために効果的な補正パラメータを決定する。
 図10の「(a2)タップ設定と、補正パラメータ(乗算係数K)の例」には、補正対象となる画素を中心として、その補正対象画素の画素値を補正するために用いる周囲の参照画素の位置と各参照画素に対する乗算係数Kの値を示している。
 図に示す例では、補正対象画素を中心とする3×3=9画素を示している。9個の画素位置に示す0,-1,9は、補正パラメータ算出部126の算出した補正パラメータである乗算係数Kである。なお、iは画素位置を示す画素位置識別子である。
 タップ選択部125は、補正対象画素の補正画素値を算出するために参照する画素位置をタップ位置として選択する。図に示す例では、-1または9の設定された画素位置がタップとなる。
 補正パラメータ算出部126はタップ位置の画素値に乗算する乗算係数Kを算出する。図10(a2)に示す-1や9である。
 タップ選択部125の設定した選択タップ情報、すなわち参照画素位置情報と、補正パラメータ算出部126の算出した補正パラメータ、すなわち各参照画素位置の画素値に対する乗算係数Kは、画像補正部127に入力される。
 画像補正部127は、これらの入力値に基づいて、補正対象画素の補正画素値を算出する。具体的には、図9のステップS124に示す以下の補正画素値算出式(式2)を適用して補正対象画素の補正画素値Tを算出する。
 以下の(式2)に従って、補正画素値Tを算出する。
Figure JPOXMLDOC01-appb-M000002
 なお、上記(式2)において、各記号は以下の意味を持つ。
 T:補正対象画素の補正画素値
 T:参照画素の画素値
 i:参照画素の画素識別子
 K:参照画素i対応の乗算係数
 補正対象画素は、例えば図10(a2)に示す3×3=9画素の中心位置の画素である。
 参照画素は、3×3=9画素の各画素であり、Tはこれらの各画素の画素値である。iは画素の識別子である。9個の画素を参照する場合、n=8に設定され、i=0~8の各画素の画素値を用いて、補正画素値Tが算出される。
 Kは、各画素位置iに設定される画素値Tに対する乗算係数である。
 上記(式2)に従って補正対象画素の画素値を算出する。
 なお、図10(a2)に示すタップ設定、補正パラメータ(乗算係数)の設定は一例であり、タップや、補正パラメータは、特徴量に応じて様々な設定に変更される。
 画像補正部127は、上記(式2)に従って位置合わせ後赤外光画像203の構成画素全ての補正画素値を順次、算出し、算出した構成される補正赤外光画像205を生成して出力する。
 補正赤外光画像205の画素値分布例を図10(b)に示す。
 補正赤外光画像205の画素値分布は、図10(a1)に示す補正前の赤外光画像の画素値分布に比較して、画素値変化の勾配が急になり、ぼけが解消された画像となる。
 これは、ぼけ解消フィルタとして係数を設定した逆フィルタを適用した画素値補正を行った結果である。
 このように、赤外光画像のぼけ態様を示す特徴量であるPSF情報を用いて、赤外光画像の画素値を補正することで、ぼけの多い赤外光画像の高画質化、すなわちぼけ量を減少させた補正赤外光画像205を生成して出力することが可能となる。
 なお、図10(a1),(a2)に示す例は、比較的ぼけの広がりが小さい場合のタップ設定と補正パラメータ(乗算係数K)の設定例である。
 タップ設定や、補正パラメータ(乗算係数K)の設定は、特徴量として取得するPSF、すなわちぼけ態様に応じて変更される。
 図11に、比較的ぼけの広がりが大きい場合のタップ設定と補正パラメータ(乗算係数K)の設定例を示す。
 図11(a1)、(a2)に示すように、ぼけ量が大きい場合、参照判定とする画素領域を、より大きくするようなタップ設定とし、より広範囲の参照画素の画素値に基づいて補正画素値を決定する処理を行なう。
 このように特徴量算出部124の算出する点広がり関数(PSF)情報に基づいて、補正処理に適用する参照画素領域選択処理、すなわちタップ選択処理を実行し、また補正パラメータ(乗算係数)を算出して補正処理を行なうことで、ぼけ態様に応じた最適な画素値補正が可能となり、ぼけを減少させた高品質な補正赤外光画像を生成することが可能となる。
  [2-3.画像特徴量としてノイズ情報を用いた画像補正処理により、高画質画像を生成する処理例について]
 次に、画像特徴量としてノイズ情報を取得し、取得したノイズ情報を用いた画像補正処理により、赤外光画像の高画質化処理を行なう処理例について説明する。
 図12は、図7、図9と同様、図5を参照して説明した画像処理部120の構成と同様の構成を示す図である。
 特徴量抽出部124は、位置合わせ後可視光画像204から、画像特徴量としてノイズ情報を抽出し、タップ選択部125、補正パラメータ算出部126に出力する。
 タップ選択部125、補正パラメータ算出部126、および画像補正部127は、特徴量抽出部124が位置合わせ後可視光画像204から抽出したノイズ情報に基づいて、位置合わせ後赤外光画像203を高画質化するための画像補正処理に適用するタップ設定処理と、補正パラメータ算出処理と、画像補正処理を実行する。
 図12には、特徴量抽出部124、タップ選択部125、補正パラメータ算出部126、および画像補正部127の実行する処理をそれぞれ示している。
 特徴量抽出部124は、図12に示すように、ステップS141において、位置合わせ後可視光画像204から画像特徴量としてのノイズ情報を取得する。
 ノイズ情報は、先に図6(3)を参照して説明したように、画像に含まれるノイズを示す情報である。カメラによる撮影画像には、ある程度のノイズが含まれている。
 図6(3)(b)の具体例に示すように、画像に設定される画素値には、所定量のノイズが含まれ、画素値は、本来の被写体の色や輝度に所定量のノイズを加算した値となる。なお、ノイズには高周波ノイズ、低周波ノイズ等、様々なタイプのノイズがある。
 なお、ここでは、位置合わせ後可視光画像204を用いてノイズ情報を取得している。
 特徴量抽出部124が位置合わせ後可視光画像204から抽出したノイズ情報は、タップ選択部125と、補正パラメータ算出部126に入力される。
 タップ選択部125は、ステップS142において、特徴量抽出部124が位置合わせ後可視光画像204から抽出したノイズ情報に基づいて、補正処理に適用する参照画素領域選択処理、すなわちタップ選択処理を実行する。
 具体的には、例えば、位置合わせ後可視光画像204に含まれるノイズに低域成分ノイズが多いほど広範囲の参照画素領域(タップ領域)を設定する。
 また、補正パラメータ算出部126は、ステップS143において、特徴量抽出部124が位置合わせ後可視光画像204から抽出したノイズ情報に基づいて、補正処理に適用する補正パラメータを算出する。
 具体的には、補正対象画素の周囲の参照画素に対して適用する乗算係数を算出する。
 このタップ選択部125におけるタップ選択処理と、補正パラメータ算出部126における補正パラメータの算出処理例について、図13、図14を参照して説明する。
 図13には、以下の各図を示している。
 (a1)補正前の画像の画素値分布例
 (a2)タップ設定と、補正パラメータ(乗算係数K)の例
 (b)補正後の画像の画素値分布例
 (a1)補正前の画像の画素値分布例は、補正対象画像である赤外光画像の画素値分布例である。
 前述したように、赤外光画像は、赤外光画像撮像部107に配置された低密度画素構成の第1撮像素子111によって撮影された画像であり、さらにスケーラ121によって拡大処理がなされた低解像度画像であり、高解像度画像であるね可視光画像に比較して、より多くのノイズが含まれた画像となる。
 タップ選択部125は、このようなノイズの多い赤外光画像を補正してノイズの少ない画像とする画像補正を行うためのタップ選択を行う。具体的には補正対象となる画素の画素値の補正処理に適用する参照画素の画素範囲を設定する。
 タップ選択部125は、画像補正部127における画素値補正に利用する参照領域を、特徴量抽出部124から入力する特徴量に基づいて決定する。
 具体的には、例えば、位置合わせ後可視光画像204のノイズに低域成分ノイズが多いほど広範囲の参照画素領域(タップ領域)を設定する。
 また、補正パラメータ算出部126は、補正対象となる画素の画素値の補正処理に適用する補正パラメータを算出する。具体的には、ノイズを減少させるフィルタを構成する係数、すなわち、補正対象画素の周囲の参照画素に対して適用する乗算係数Kを算出する。
 補正パラメータ算出部126は、画像補正部127における画素値補正に利用する補正パラメータを、特徴量抽出部124から入力する特徴量に基づいて決定する。
 具体的には、例えば、位置合わせ後可視光画像204に含まれるノイズ成分に応じてノイズ低減に効果的な補正パラメータを決定する。
 図13の「(a2)タップ設定と、補正パラメータ(乗算係数K)の例」には、補正対象となる画素を中心として、その補正対象画素の画素値を補正するために用いる周囲の参照画素の位置と各参照画素に対する乗算係数Kの値を示している。
 図に示す例では、補正対象画素を中心とする3×3=9画素を示している。9個の画素位置に示す1/9は、補正パラメータ算出部126の算出した補正パラメータである乗算係数Kである。なお、iは画素位置を示す画素位置識別子である。
 なお、この係数設定は平滑化フィルタの係数設定に相当する。
 タップ選択部125は、補正対象画素の補正画素値を算出するために参照する画素位置をタップ位置として選択する。図に示す例では、1/9の設定された9個の全画素位置がタップとなる。
 補正パラメータ算出部126はタップ位置の画素値に乗算する乗算係数Kを算出する。図13(a2)に示す1/9である。
 タップ選択部125の設定した選択タップ情報、すなわち参照画素位置情報と、補正パラメータ算出部126の算出した補正パラメータ、すなわち各参照画素位置の画素値に対する乗算係数Kは、画像補正部127に入力される。
 画像補正部127は、これらの入力値に基づいて、補正対象画素の補正画素値を算出する。具体的には、図12のステップS144に示す以下の補正画素値算出式(式3)を適用して補正対象画素の補正画素値Tを算出する。
 以下の(式3)に従って、補正画素値Tを算出する。
Figure JPOXMLDOC01-appb-M000003
 なお、上記(式3)において、各記号は以下の意味を持つ。
 T:補正対象画素の補正画素値
 T:参照画素の画素値
 i:参照画素の画素識別子
 K:参照画素i対応の乗算係数
 補正対象画素は、例えば図13(a2)に示す3×3=9画素の中心位置の画素である。
 参照画素は、3×3=9画素の各画素であり、Tはこれらの各画素の画素値である。iは画素の識別子である。9個の画素を参照する場合、n=8に設定され、i=0~8の各画素の画素値を用いて、補正画素値Tが算出される。
 Kは、各画素位置iに設定される画素値Tに対する乗算係数である。
 上記(式3)に従って補正対象画素の画素値を算出する。
 なお、図13(a2)に示すタップ設定、補正パラメータ(乗算係数)の設定は一例であり、タップや、補正パラメータは、特徴量に応じて様々な設定に変更される。
 画像補正部127は、上記(式3)に従って位置合わせ後赤外光画像203の構成画素全ての補正画素値を順次、算出し、算出した構成される補正赤外光画像205を生成して出力する。
 補正赤外光画像205の画素値分布例を図13(b)に示す。
 補正赤外光画像205の画素値分布は、図13(a1)に示す補正前の赤外光画像の画素値分布に比較して、画素値に含まれるノイズが減少した画像となる。
 これは、ノイズ解消フィルタとして係数を設定した例えば平滑化フィルタを適用した画素値補正を行った結果である。
 このように、赤外光画像のノイズ態様を示す特徴量であるノイズ情報を用いて、赤外光画像の画素値を補正することで、ノイズの多い赤外光画像の高画質化、すなわちノイズ量を減少させた補正赤外光画像205を生成して出力することが可能となる。
 なお、図13(a1),(a2)に示す例は、赤外光画像中に含まれるノイズの多くが高域成分ノイズであり、比較的、低域成分ノイズが少ない場合のタップ設定と補正パラメータ(乗算係数K)の設定例である。
 タップ設定や、補正パラメータ(乗算係数K)の設定は、特徴量として取得するノイズ情報に応じて変更される。
 図14は、図13の例より、低域成分ノイズが多い場合のタップ設定と補正パラメータ(乗算係数K)の設定例である。
 図14(a1)、(a2)に示すように、低域成分ノイズが多い場合、参照判定とする画素領域を、より大きくするようなタップ設定とし、より広範囲の参照画素の画素値に基づいて補正画素値を決定する処理を行なう。
 このように特徴量算出部124の算出するノイズ情報に基づいて、補正処理に適用する参照画素領域選択処理、すなわちタップ選択処理を実行し、また補正パラメータ(乗算係数)を算出して補正処理を行なうことで、ノイズ態様に応じた最適な画素値補正が可能となり、ノイズを減少させた高品質な補正赤外光画像を生成することが可能となる。
 なお、上述した各画像処理装置の実施例では、図6に示3つの特徴量、すなわち、
 (1)輝度分布情報
 (2)点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)
 (3)ノイズ情報
 これらの画像特徴量を個別に適用した画像補正処理、すなわち、赤外光画像の高画質化処理を行なう処理例として説明した。
 このように1種類の特徴量を用いて画像補正を行うことも可能であるが、上記の特徴量(1)~(3)の任意の2つ、または3つを組み合わせて利用して画像補正を行う構成としてもよい。
  [3.可視光画像の高画質化処理を行なう構成例について]
 図5~図14を参照して説明した画像処理装置は、赤外光画像のみの高画質化処理を実行する画像処理装置である。
 次に、図15以下を参照して、赤外光画像に併せて可視光画像についても高画質化処理を実行する画像処理装置の構成と処理について説明する。
 図15は、本実施例に係る画像処理装置の構成例を示す図である。図15に示す構成は、先に説明した図5とほぼ同様の構成である。異なる点は、画像位置合わせ部123から出力される位置合わせ後可視光画像204が、画像補正部127に入力され、画像補正部127において位置合わせ後可視光画像204に対する高画質化処理としての画像補正がなされ、補正可視光画像206を出力する点である。
 その他の構成については図5以下を参照して説明した構成と同様の構成であり、赤外光画像については、先に図5~図14を参照して説明したと同様の高画質化処理が施されて補正赤外光画像205が出力される。
 すなわち、本実施例は、画像補正部127において、赤外光画像については、図5~図14を参照して説明したと同様の高画質化処理を実行し、可視光画像についても高画質化処理としての画像補正処理を実行する構成である。
 画像補正部127の構成と処理について、図16を参照して説明する。
 図16に示すように画像補正部127は、赤外光画像補正部131と、可視光画像補正部132を有する。
 赤外光画像補正部131は、先に図5~図14を参照して説明したと同様のタップ設定、補正パラメータ設定に基づく画像補正処理を実行し、高画質化された補正赤外光画像205を生成して出力する。
 本実施例では、この補正赤外光画像205は、さらに、可視光画像補正部132に入力される。
 可視光画像補正部132は、位置合わせ後可視光画像204に対して、補正赤外光画像205の重畳処理を実行する。具体的には、例えば位置合わせ後可視光画像204と、補正赤外光画像205の対応位置(同一座標位置)の画素値のブレンド処理、具体的には、例えば補正赤外光画像205の高域成分を、位置合わせ後可視光画像204に足し込む処理を実行して、補正可視光画像206を生成して出力する。
 補正赤外光画像205は、先に図5~図14を参照して説明した処理によって高画質化された画像であり、この高画質化画像に設定された画素値を、位置合わせ後可視光画像204の元の画素値とブレンドすることで、可視光画像の補正画像を生成する。
 この処理によって、高画質化された補正可視光画像206を生成し、出力する。
  [4.画像処理装置のその他の実施例について]
 次に、図17以下を参照して画像処理装置のその他の実施例について説明する。
 以下の各実施例について、順次、説明する。
 (1)撮影画像に対する縮小画像を生成し、縮小画像に対する画像処理を実行する実施例
 (2)可視光画像に基づく擬似赤外光画像を生成し、撮影された赤外光画像と擬似赤外光画像を用いて視差量、動き情報を算出する実施例
 (3)画像補正部の生成した補正赤外光画像をフィードバックして再利用する実施例
 (4)可視光画像を利用せず、赤外光画像のみを利用した実施例
  [4-1.撮影画像に対する縮小画像を生成し、縮小画像に対する画像処理を実行する実施例]
 まず、図17を参照して撮影画像に対する縮小画像を生成し、縮小画像に対する画像処理を実行する実施例について説明する。
 図17は、本実施例の画像処理装置の構成を示す図である。
 図17に示す構成は、先に説明した図5とほぼ同様の構成である。異なる点は、画像縮小部151が追加された点と、画像補正部127において、画像拡大処理を実行する点である。
 その他の構成については図5~図14を参照して説明した構成と同様の構成であり、赤外光画像については、図5~図14を参照して説明したと同様の高画質化処理が施されて補正赤外光画像205が出力される。
 図17に示す画像処理装置では、可視光画像撮像部108の撮影した可視光画像202を画像縮小部151において縮小する。
 さらに、スケーラ121は、赤外光画像撮影部107において撮影された赤外光画像201を、画像縮小部151において縮小された可視光サイズと同じサイズに縮小する処理を実行する。
 その後の処理、すなわち、視差量検出&動き検出部122、画像位置合わせ部123、特徴量算出部124、タップ選択部125、補正パラメータ算出部126、画像補正部127では、この縮小画像を用いて処理を実行する。
 最後に画像補正部127は、縮小画像に基づいて生成した高画質化赤外光画像を元の画像サイズ、または元の可視光画像サイズと同様の画像サイズに拡大する拡大処理を実行して、拡大後の赤外光画像を補正赤外光画像205として出力する。
 この実施例では、視差量検出&動き検出部122、画像位置合わせ部123、特徴量算出部124、タップ選択部125、補正パラメータ算出部126、画像補正部127では、縮小画像を用いた処理を実行することになり、処理量が削減され、処理時間や処理に必要なメモリやデータ処理部等のリソースがを削減することが可能となる。
 従って、データ処理機能やメモリ量の少ないモバイル端末等においても高速に確実な処理を行なうことが可能となる。
  [4-2.可視光画像に基づく擬似赤外光画像を生成し、撮影された赤外光画像と擬似赤外光画像を用いて視差量、動き情報を算出する実施例]
 次に、図18を参照して、可視光画像に基づく擬似赤外光画像を生成し、撮影された赤外光画像と擬似赤外光画像を用いて視差量、動き情報を算出する実施例について説明する。
 図18は、本実施例の画像処理装置の構成を示す図である。
 図18に示す構成は、先に説明した図5とほぼ同様の構成である。異なる点は、擬似赤外光画像生成部161が追加された点である。
 その他の構成については図5~図14を参照して説明した構成と同様の構成であり、赤外光画像については、図5~図14を参照して説明したと同様の高画質化処理が施されて補正赤外光画像205が出力される。
 図18に示す画像処理装置では、可視光画像撮像部108の撮影した可視光画像202を擬似赤外光画像生成部161に入力し、擬似赤外光画像生成部161において、可視光画像202に基づく擬似赤外光画像を生成する。
 可視光画像202は、例えば先に図2(1)を参照して説明したRGB各画素から構成されるベイヤ配列に従った画素配列を持つ画像である。
 擬似赤外光画像生成部161は、まず、このRGB配列画像に基づくデモザイク処理を実行して、全画素にG画素値を設定する。さらに、このG画素値に基づいて、擬似的な赤外光画素値(IR)を算出する。
 例えば、以下の式に従って画像を構成する各画素iの赤外光画素値(IR)を算出する。
 IR=a×G
 なお、上記のG画素値を用いた例は一例であり、擬似赤外光画像生成部161は、その他の方法を適用して可視光画像202に基づく擬似赤外光画像161を生成してもよい。
 上記式において、
 iは、画素の識別子、
 IRは、擬似赤外光画像の画素iの擬似赤外光画素値、
 aは、予め既定した係数、
 Gは、可視光画像のデモザイク処理によって生成した画像の画素iの画素値である。
 擬似赤外光画像生成部161が、可視光画像202に基づいて生成した擬似赤外光画像は、赤外光画像撮像部107において撮影されスケーラ121で可視光画像202と同一サイズに調整された赤外光画像とともに、視差量検出&動き検出部122に入力される。
 視差量検出&動き検出部122は、これらの2つの入力画像を比較して、画像間の視差量と、動き量を検出する。
 この実施例では、視差量検出&動き検出部122は、赤外光画像と擬似赤外光画像の2つの同質の画像を利用した画像間の視差量と、動き量を検出する構成であり、より精度の高い検出処理が可能となる。
 その後の画像位置合わせ部123、特徴量算出部124、タップ選択部125、補正パラメータ算出部126、画像補正部127の処理は、先に図5~図14を参照して説明した構成と同様の構成であり、赤外光画像については、図5~図14を参照して説明したと同様の高画質化処理が施されて補正赤外光画像205が出力される。
  [4-3.画像補正部の生成した補正赤外光画像をフィードバックして再利用する実施例]
 次に、図19を参照して、.画像補正部の生成した補正赤外光画像をフィードバックして再利用する実施例について説明する。
 図19は、本実施例の画像処理装置の構成を示す図である。
 図19に示す構成は、先に説明した図5とほぼ同様の構成である。異なる点は、減算器171と、加算器172を追加した点である。
 図19に示す画像処理装置では、画像位置合わせ部123において位置合わせ処理を行なった後の位置合わせ後赤外光画像203が減算器171に入力される。
 減算器171では、位置合わせ後赤外光画像203から、位置合わせ後補正赤外光画像211の差分画像が生成される。
 位置合わせ後補正赤外光画像211は、1つ前の画像フレームに基づいて生成された補正赤外光画像205の各画素位置を、位置合わせ後赤外光画像203と同一画素位置に調整した位置合わせ処理後の画像である。
 減算器171から出力される差分画像は、特徴量算出部124に出力され、さらにタップ選択部125を介して画像補正部127に出力される。
 特徴量算出部124や、タップ選択部125、画像補正部127における処理は差分画像に対して実行される。
 画像補正部127の出力する差分画像は、加算器172に入力され、加算器1272において、補正済みの差分画像と位置合わせ後補正赤外光画像との加算処理が実行され、その結果が、補正赤外光画像205として出力される。
 なお、補正赤外光画像205は、画像位置合わせ部123にもフィードバック入力され、次の画像フレームの処理に適用される。
 この実施例では、先行して補正処理がなされ、高画質化画像とした先行画像フレームを次の補正対象画像の補正処理においてフィードバック利用する構成としている。
 この構成により、先行補正結果を参照して、次の画像フレームの補正処理を行なうことが可能となり、補正精度を向上させることができる。
  [4-4.可視光画像を利用せず、赤外光画像のみを利用した実施例]
 次に、図20を参照して、可視光画像を利用せず、赤外光画像のみを利用した実施例について説明する。
 図20は、本実施例の画像処理装置の構成を示す図である。
 図20に示す画像処理装置は、先に説明した図5に示す画像処理装置とは異なり、可視光画像撮像部108を有していない。
 赤外光画像撮像部107のみを有し、赤外光画像201のみを利用した画像処理を実行する。
 画像処理部120の実行する処理について説明する。
 画像処理部120は、赤外光画像撮像部107において撮影された赤外光画像201を特徴量算出部181と、タップ選択部182を介して画像補正部184に入力する。
 特徴量算出部181は、赤外光画像201から画像の特徴量を抽出し、抽出した特徴量データをタップ選択部182と、補正パラメータ算出部183に出力する。
 特徴量算出部181が、赤外光画像201から取得する特徴量データは、例えば先に図6を参照して説明した特徴量であり、以下の3種類の画像特徴量の少なくともいずれかを含む。
 (1)輝度分布情報
 (2)点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)
 (3)ノイズ情報
 特徴量算出181は、これら3つの画像特徴量の少なくともいずれかを取得する。画像補正部184は、取得した特徴量に基づいて、赤外光画像201に対する高画質化処理としての画像補正処理を実行し、画質を改善した補正赤外光画像205を生成して出力する。
 図20に示すタップ選択部182、補正パラメータ算出部183、画像補正部184は、特徴量算出部181の算出した画像特徴量に基づいて、赤外光画像201を高画質化するための画像補正処理に適用するタップ設定処理と、補正パラメータ算出処理と、画像補正処理を実行する。
 これらの処理は、先に図5~図14を参照して説明した処理と同様の構成である。
 例えば、画像補正部184は、図20に示す以下の補正画素値算出式(式4)を適用して補正対象画素の補正画素値Tを算出する。
 以下の(式4)に従って、補正画素値Tを算出する。
Figure JPOXMLDOC01-appb-M000004
 なお、上記(式4)において、各記号は以下の意味を持つ。
 T:補正対象画素の補正画素値
 T:参照画素の画素値
 i:参照画素の画素識別子
 K:参照画素i対応の乗算係数
 本実施例は、赤外光画像のみを利用した構成であり、例えば単眼型の撮像装置において適用可能な構成となる。
  [5.画像処理装置の実行する処理のシーケンスについて]
 次に、本開示の画像処理装置の実行する処理シーケンスについて説明する。
 図21は、図5~図14を参照して説明した画像処理装置の画像処理部において実行する処理シーケンスを説明するフローチャートである。
 図21に示すフローに従った処理は、例えば画像処理装置の記憶部に格納されたプログラムに従ってプログラム実行機能を有する制御部の制御の下に実行される。
 以下、図21に示すフローの各ステップの処理について、順次、説明する。
  (ステップS301a,301b)
 ステップS301a,301bは、画像撮影処理である。
 例えば図5に示す赤外光画像撮像部107と、可視光画像撮像部108において画像が撮影される。
 ステップS301aは、図5に示す可視光画像撮像部108における可視光画像202の撮影処理である。
 ステップS301bは、赤外光画像撮像部107における赤外光画像201の撮影処理である。
  (ステップS302)
 ステップS302は、図5に示すスケーラ121の実行する処理である。
 スケーラ121は、ステップS302において、ステップS301bで赤外光画像撮像部107が撮影した赤外光画像201を入力し、赤外光画像201のサイズを可視光画像202のサイズに合わせるスケーリング処理を実行する。
 サイズが一致した赤外光画像201と、可視光画像202は、視差量検出&動き検出部122、および画像位置合わせ部123に入力される。
  (ステップS303)
 ステップS303は、図5に示す視差量検出&動き検出部122の実行する処理である。
 視差量検出&動き検出部122は、赤外光画像201と、可視光画像202の視差量と、2つの画像間の動き量を検出する。
 赤外光画像撮像部107と、可視光画像撮像部108は、所定間隔、離れた位置に設定される2つの撮像部であり、それぞれの撮影画像(赤外光画像201、可視光画像202)は異なる視点からの画像となる。
 異なる視点からの2つの画像、すなわち赤外光画像201と、可視光画像202との対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 また、これらの2つの画像が完全に同一タイミングで撮影された画像でなく、被写体に動く被写体が含まれる場合には、それぞれの画像に撮影される同一被写体の位置が異なる。
 視差量検出&動き検出部122は、赤外光画像201と、可視光画像202の視差量と、2つの画像間の動き量を検出し、これらの情報、すなわち視差情報と、動き情報、例えば動きベクトル(MV:Motion Vector)を画像位置合わせ部123に入力する。
  (ステップS304)
 ステップS304の処理は、図5に示す画像位置合わせ部123の実行する処理である。
 画像位置合わせ部123は、視差量検出&動き検出部122から入力する視差情報と、動き情報を利用し、サイズ調整を行った赤外光画像201と、可視光画像202の位置合わせ処理を実行する。
 すなわち、各画像の同一位置に同一の被写体が撮影された2枚の位置合わせ画像を生成する。
 画像位置合わせ部123は、位置合わせ後の2つの画像、すなわち、図5に示す位置合わせ後赤外光画像203と、位置合わせ後可視光画像204を特徴量算出部124に出力する。
 さらに、位置合わせ後赤外光画像203については、タップ選択部125を介して画像補正部127に入力する。
  (ステップS305)
 ステップS305の処理は、図5に示す特徴量算出部124の実行する処理である。
 特徴量算出部124は、位置合わせ後赤外光画像203と、位置合わせ後可視光画像204を入力し、これらの画像から画像の特徴量を抽出し、抽出した特徴量データをタップ選択部125と、補正パラメータ算出部126に出力する。
 特徴量算出部124が、位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から取得する特徴量は、先に図6を参照して説明したように、例えば、以下の3種類の画像特徴量の少なくともいずれかである。
 (1)輝度分布情報
 (2)点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)
 (3)ノイズ情報
 「(1)輝度分布情報」は、画像中の各画素の輝度値の分布情報である。
 「(2)点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)」は、画像のぼけ量を示す関数である点広がり関数(PSF)である。
 「(3)ノイズ情報」は、画像に含まれるノイズを示す情報である。
 特徴量算出部124は、位置合わせ後赤外光画像203と、位置合わせ後可視光画像204から、図6に示す3つの画像特徴量の少なくともいずれかを取得する。
  (ステップS306)
 ステップS306の処理は、図5に示すタップ選択部125の実行する処理である。
 タップ選択部125は、特徴量算出部124の算出した画像特徴量に基づいて、位置合わせ後赤外光画像203を高画質化するための画像補正処理に適用するタップ設定処理を実行する。
 具体的には、先に図5~図14を参照して説明した処理を実行する。
  (ステップS307)
 ステップS307の処理は、図5に示す補正パラメータ算出部126の実行する処理である。
 補正パラメータ算出部126は、特徴量算出部124の算出した画像特徴量に基づいて、位置合わせ後赤外光画像203を高画質化するための画像補正処理に適用する補正パラメータ算出処理を実行する。
 具体的には、先に図5~図14を参照して説明した処理を実行し、フィルタに適用する乗算係数Kの算出等を行う。
  (ステップS308)
 ステップS308の処理は、図5に示す画像補正部127の実行する処理である。
 画像補正部127は、特徴量算出部124の算出した画像特徴量に基づいて、位置合わせ後赤外光画像203を高画質化するための画像補正処理を実行する。
 具体的には、先に図5~図14を参照して説明した処理を実行する。
 なお、前述したように、画像補正処理は、図6に示3つの特徴量、すなわち、
 (1)輝度分布情報
 (2)点広がり関数(PSF:Point Spread Function)(=ぼけ態様を示す関数)
 (3)ノイズ情報
 これらの画像特徴量を個別に適用した画像補正処理として実行してもよいが、上記の特徴量(1)~(3)の任意の2つ、または3つを組み合わせて利用して画像補正を行う構成としてもよい。
  [6.画像処理装置のハードウェア構成例について]
  次に、図22を参照して画像処理装置のハードウェア構成例について説明する。
 図22は、本開示の処理を実行する画像処理装置のハードウェア構成例を示す図である。
 CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、または記憶部508に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータなどが記憶される。これらのCPU501、ROM502、およびRAM503は、バス504により相互に接続されている。
 CPU501はバス504を介して入出力インタフェース505に接続され、入出力インタフェース505には、撮像部521の撮影画像の入力を行うとともに、ユーザ入力可能な各種スイッチ、キーボード、マウス、マイクロホンなどよりなる入力部506、表示部522やスピーカなどに対するデータ出力を実行する出力部507が接続されている。CPU501は、入力部506から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部507に出力する。
 入出力インタフェース505に接続されている記憶部508は、例えばハードディスク等からなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、Wi-Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア511を駆動し、データの記録あるいは読み取りを実行する。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、
 前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する画像処理装置。
 (2)前記画像処理装置は、さらに、
 前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
 前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
 前記画像補正部は、
 前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する(1)に記載の画像処理装置。
 (3) 前記特徴量算出部は、
 前記赤外光画像、または前記可視光画像の少なくともいずれかの画像から、
 (a)輝度分布情報
 (b)ぼけ態様情報
 (c)ノイズ情報
 上記(a)~(c)のいずれかの特徴量を抽出する(1)または(2)に記載の画像処理装置。
 (4) 前記特徴量算出部は、
 前記赤外光画像と、前記可視光画像から輝度分布情報を取得し、
 前記画像補正部は、
 前記赤外光画像と、前記可視光画像の輝度分布のずれを解消するように、前記赤外光画像の画素値補正処理を実行する(1)~(3)いずれかに記載の画像処理装置。
 (5) 前記画像処理装置は、さらに、
 前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
 前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
 前記タップ選択部は、前記赤外光画像と、前記可視光画像の輝度分布のずれが大きいほど広範囲の参照画素領域(タップ領域)を設定し、
 前記補正パラメータ算出部は、前記赤外光画像と、前記可視光画像の輝度分布のずれを解消するための補正パラメータを決定し、
 前記画像補正部は、
 前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する(4)に記載の画像処理装置。
 (6) 前記特徴量算出部は、
 前記赤外光画像からぼけ態様情報を取得し、
 前記画像補正部は、
 前記赤外光画像のぼけを減少させるように、前記赤外光画像の画素値補正処理を実行する(1)~(5)いずれかに記載の画像処理装置。
 (7) 前記画像処理装置は、さらに、
 前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
 前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
 前記タップ選択部は、前記赤外光画像のぼけ範囲が大きいほど広範囲の参照画素領域(タップ領域)を設定し、
 前記補正パラメータ算出部は、前記赤外光画像のぼけを解消するための補正パラメータを決定し、
 前記画像補正部は、
 前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する(6)に記載の画像処理装置。
 (8) 前記特徴量算出部は、
 前記可視光画像からノイズ情報を取得し、
 前記画像補正部は、
 前記赤外光画像のノイズを減少させるように、前記赤外光画像の画素値補正処理を実行する(1)~(7)いずれかに記載の画像処理装置。
 (9) 前記画像処理装置は、さらに、
 前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
 前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
 前記タップ選択部は、前記可視光画像のノイズに低域成分ノイズが多いほど広範囲の参照画素領域(タップ領域)を設定し、
 前記補正パラメータ算出部は、前記可視光画像に含まれるノイズ成分に応じた補正パラメータを決定し、
 前記画像補正部は、
 前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する(8)に記載の画像処理装置。
 (10) 前記画像補正部は、
 前記赤外光画像の画素値補正結果として取得した補正赤外光画像を適用して、前記可視光画像の画像補正処理を実行する(1)~(9)いずれかに記載の画像処理装置。
 (11) 赤外光画像の撮像処理を行なう赤外光画像撮像部と、
 可視光画像の撮像処理らを行う可視光画像撮像部と、
 前記赤外光画像と可視光画像を入力し、少なくともいずれかの画像の画素値補正処理を実行する画像処理部を有し、
 前記画像処理部は、
 赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、
 前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する撮像装置。
 (12) 前記画像処理部は、さらに、
 前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
 前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
 前記画像補正部は、
 前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する(11)に記載の撮像装置。
 (13) 前記特徴量算出部は、
 前記赤外光画像、または前記可視光画像の少なくともいずれかの画像から、
 (a)輝度分布情報
 (b)ぼけ態様情報
 (c)ノイズ情報
 上記(a)~(3cのいずれかの特徴量を抽出する(11)または(12)に記載の撮像装置。
 (14) 赤外光画像を入力し、特徴量を抽出する特徴量算出部と、
 前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する画像処理装置。
 (15) 前記画像処理装置は、さらに、
 前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
 前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
 前記画像補正部は、
 前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する(14)に記載の画像処理装置。
 (16) 前記特徴量算出部は、
 前記赤外光画像から、
 (a)輝度分布情報
 (b)ぼけ態様情報
 (c)ノイズ情報
 上記(a)~(c)のいずれかの特徴量を抽出する(14)または(15)に記載の画像処理装置。
 (17) 画像処理装置において実行する画像処理方法であり、
 特徴量算出部が、赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出ステップと、
 画像補正部が、前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正ステップを実行する画像処理方法。
 (18) 画像処理装置において画像処理を実行させるプログラムであり、
 特徴量算出部に、赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出させ、
 画像補正部に、前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、赤外光画像の高画質化処理を実行する装置、方法が実現される。
 具体的には、赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、赤外光画像に対して、特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する。さらに、画素値補正に利用する参照領域を、特徴量に基づいて決定するタップ選択部と、画素値補正に利用する補正パラメータを、特徴量に基づいて決定する補正パラメータ算出部を有し、画像補正部は、タップ選択部の決定したタップと、補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する。
 これらの処理により、赤外光画像の高画質化処理を実行する装置、方法が実現される。
  10 可視光画像
  20 赤外光画像
 100 画像処理装置
 101 制御部
 102 記憶部
 103 コーデック
 104 入力部
 105 出力部
 106 撮像部
 107 赤外光画像撮像部
 108 可視光画像撮像部
 111 第1撮像素子
 112 第2撮像素子
 113 赤外光(IR)照射部
 120 画像処理部
 121 スケーラ
 122 視差量検出&動き量検出部
 123 画像位置合わせ部
 124 特徴量算出部
 125 タップ選択部
 126 補正パラメータ算出部
 127 画像補正部
 131 赤外光画像補正部
 132 可視光画像補正部
 151 画像縮小部
 161 擬似赤外光画像生成部
 171 減算器
 172 加算器
 181 特徴量算出部
 182 タップ選択部
 183 補正パラメータ算出部
 184 画像補正部
 191 補正赤外光画像
 192 可視光画像
 501 CPU
 502 ROM
 503 RAM
 504 バス
 505 入出力インタフェース
 506 入力部
 507 出力部
 508 記憶部
 509 通信部
 510 ドライブ
 511 リムーバブルメディア
 521 撮像部
 522 表示部

Claims (18)

  1.  赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、
     前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する画像処理装置。
  2.  前記画像処理装置は、さらに、
     前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
     前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
     前記画像補正部は、
     前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する請求項1に記載の画像処理装置。
  3.  前記特徴量算出部は、
     前記赤外光画像、または前記可視光画像の少なくともいずれかの画像から、
     (a)輝度分布情報
     (b)ぼけ態様情報
     (c)ノイズ情報
     上記(a)~(c)のいずれかの特徴量を抽出する請求項1に記載の画像処理装置。
  4.  前記特徴量算出部は、
     前記赤外光画像と、前記可視光画像から輝度分布情報を取得し、
     前記画像補正部は、
     前記赤外光画像と、前記可視光画像の輝度分布のずれを解消するように、前記赤外光画像の画素値補正処理を実行する請求項1に記載の画像処理装置。
  5.  前記画像処理装置は、さらに、
     前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
     前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
     前記タップ選択部は、前記赤外光画像と、前記可視光画像の輝度分布のずれが大きいほど広範囲の参照画素領域(タップ領域)を設定し、
     前記補正パラメータ算出部は、前記赤外光画像と、前記可視光画像の輝度分布のずれを解消するための補正パラメータを決定し、
     前記画像補正部は、
     前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する請求項4に記載の画像処理装置。
  6.  前記特徴量算出部は、
     前記赤外光画像からぼけ態様情報を取得し、
     前記画像補正部は、
     前記赤外光画像のぼけを減少させるように、前記赤外光画像の画素値補正処理を実行する請求項1に記載の画像処理装置。
  7.  前記画像処理装置は、さらに、
     前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
     前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
     前記タップ選択部は、前記赤外光画像のぼけ範囲が大きいほど広範囲の参照画素領域(タップ領域)を設定し、
     前記補正パラメータ算出部は、前記赤外光画像のぼけを解消するための補正パラメータを決定し、
     前記画像補正部は、
     前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する請求項6に記載の画像処理装置。
  8.  前記特徴量算出部は、
     前記可視光画像からノイズ情報を取得し、
     前記画像補正部は、
     前記赤外光画像のノイズを減少させるように、前記赤外光画像の画素値補正処理を実行する請求項1に記載の画像処理装置。
  9.  前記画像処理装置は、さらに、
     前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
     前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
     前記タップ選択部は、前記可視光画像のノイズに低域成分ノイズが多いほど広範囲の参照画素領域(タップ領域)を設定し、
     前記補正パラメータ算出部は、前記可視光画像に含まれるノイズ成分に応じた補正パラメータを決定し、
     前記画像補正部は、
     前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する請求項8に記載の画像処理装置。
  10.  前記画像補正部は、
     前記赤外光画像の画素値補正結果として取得した補正赤外光画像を適用して、前記可視光画像の画像補正処理を実行する請求項1に記載の画像処理装置。
  11.  赤外光画像の撮像処理を行なう赤外光画像撮像部と、
     可視光画像の撮像処理らを行う可視光画像撮像部と、
     前記赤外光画像と可視光画像を入力し、少なくともいずれかの画像の画素値補正処理を実行する画像処理部を有し、
     前記画像処理部は、
     赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出部と、
     前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する撮像装置。
  12.  前記画像処理部は、さらに、
     前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
     前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
     前記画像補正部は、
     前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する請求項11に記載の撮像装置。
  13.  前記特徴量算出部は、
     前記赤外光画像、または前記可視光画像の少なくともいずれかの画像から、
     (a)輝度分布情報
     (b)ぼけ態様情報
     (c)ノイズ情報
     上記(a)~(c)のいずれかの特徴量を抽出する請求項11に記載の撮像装置。
  14.  赤外光画像を入力し、特徴量を抽出する特徴量算出部と、
     前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正部を有する画像処理装置。
  15.  前記画像処理装置は、さらに、
     前記画像補正部における画素値補正に利用する参照領域を、前記特徴量に基づいて決定するタップ選択部と、
     前記画像補正部における画素値補正に利用する補正パラメータを、前記特徴量に基づいて決定する補正パラメータ算出部を有し、
     前記画像補正部は、
     前記タップ選択部の決定したタップと、前記補正パラメータ算出部の決定した補正パラメータを適用した画素値補正処理を実行する請求項14に記載の画像処理装置。
  16.  前記特徴量算出部は、
     前記赤外光画像から、
     (a)輝度分布情報
     (b)ぼけ態様情報
     (c)ノイズ情報
     上記(a)~(c)のいずれかの特徴量を抽出する請求項14に記載の画像処理装置。
  17.  画像処理装置において実行する画像処理方法であり、
     特徴量算出部が、赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出する特徴量算出ステップと、
     画像補正部が、前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行する画像補正ステップを実行する画像処理方法。
  18.  画像処理装置において画像処理を実行させるプログラムであり、
     特徴量算出部に、赤外光画像と可視光画像を入力し、少なくともいずれかの画像から特徴量を抽出させ、
     画像補正部に、前記赤外光画像に対して、前記特徴量に応じて決定される参照領域と補正パラメータに基づいて画素値補正処理を実行させるプログラム。
PCT/JP2017/002582 2016-03-29 2017-01-25 画像処理装置、撮像装置、および画像処理方法、並びにプログラム WO2017169039A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018508455A JP6711396B2 (ja) 2016-03-29 2017-01-25 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US16/087,157 US10853926B2 (en) 2016-03-29 2017-01-25 Image processing device, imaging device, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-065532 2016-03-29
JP2016065532 2016-03-29

Publications (1)

Publication Number Publication Date
WO2017169039A1 true WO2017169039A1 (ja) 2017-10-05

Family

ID=59963743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/002582 WO2017169039A1 (ja) 2016-03-29 2017-01-25 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10853926B2 (ja)
JP (1) JP6711396B2 (ja)
WO (1) WO2017169039A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110246108A (zh) * 2018-11-21 2019-09-17 浙江大华技术股份有限公司 一种图像处理方法、装置及计算机可读存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018198406A (ja) * 2017-05-24 2018-12-13 ルネサスエレクトロニクス株式会社 監視カメラシステムおよび画像処理装置
US10785422B2 (en) * 2018-05-29 2020-09-22 Microsoft Technology Licensing, Llc Face recognition using depth and multi-spectral camera
CN113168669B (zh) * 2018-09-18 2024-03-29 浙江宇视科技有限公司 图像处理方法、装置、电子设备及可读存储介质
KR20210043933A (ko) * 2019-10-14 2021-04-22 엘지이노텍 주식회사 이미지 처리 장치 및 이미지 처리 방법
US11727540B2 (en) 2020-12-31 2023-08-15 Samsung Electronics Co., Ltd. Image sharpening
EP4044108A1 (en) * 2021-02-10 2022-08-17 Melexis Technologies NV Method of digitally processing an image and method of digitally processing a plurality of pixels

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002237969A (ja) * 2001-02-09 2002-08-23 Hitachi Ltd 車載カメラおよび画像処理システム
JP2003259362A (ja) * 2002-03-06 2003-09-12 Mitsubishi Heavy Ind Ltd 画像処理装置及び画像処理方法
JP2006140818A (ja) * 2004-11-12 2006-06-01 Noritsu Koki Co Ltd 画像ノイズ除去方法
JP2009071789A (ja) * 2007-09-18 2009-04-02 Denso Corp 車両周辺監視システム
JP2010033527A (ja) * 2008-06-26 2010-02-12 Noritsu Koki Co Ltd 写真画像処理方法、写真画像処理プログラム、及び写真画像処理装置
WO2014050190A1 (ja) * 2012-09-26 2014-04-03 富士フイルム株式会社 画像処理装置、撮像装置、コンピュータ及びプログラム
JP2014197727A (ja) * 2013-03-29 2014-10-16 マツダ株式会社 車両用撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3952301B2 (ja) * 2003-08-29 2007-08-01 ノーリツ鋼機株式会社 画像処理装置、方法、及びプログラム
JP4244018B2 (ja) * 2004-03-25 2009-03-25 ノーリツ鋼機株式会社 欠陥画素修正方法、プログラム及びその方法を実施する欠陥画素修正システム
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
US8085989B2 (en) * 2008-10-23 2011-12-27 Glory Ltd. Method and apparatus for determining authenticity
JP5514605B2 (ja) 2010-03-29 2014-06-04 株式会社日立情報通信エンジニアリング 撮像装置および監視装置
US20130300875A1 (en) * 2010-04-23 2013-11-14 Flir Systems Ab Correction of image distortion in ir imaging
TWI523914B (zh) 2013-01-09 2016-03-01 Daicel Corp Hardened resin composition and hardened product thereof
WO2015157058A1 (en) * 2014-04-07 2015-10-15 Bae Systems Information & Electronic Systems Integration Inc. Contrast based image fusion

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002237969A (ja) * 2001-02-09 2002-08-23 Hitachi Ltd 車載カメラおよび画像処理システム
JP2003259362A (ja) * 2002-03-06 2003-09-12 Mitsubishi Heavy Ind Ltd 画像処理装置及び画像処理方法
JP2006140818A (ja) * 2004-11-12 2006-06-01 Noritsu Koki Co Ltd 画像ノイズ除去方法
JP2009071789A (ja) * 2007-09-18 2009-04-02 Denso Corp 車両周辺監視システム
JP2010033527A (ja) * 2008-06-26 2010-02-12 Noritsu Koki Co Ltd 写真画像処理方法、写真画像処理プログラム、及び写真画像処理装置
WO2014050190A1 (ja) * 2012-09-26 2014-04-03 富士フイルム株式会社 画像処理装置、撮像装置、コンピュータ及びプログラム
JP2014197727A (ja) * 2013-03-29 2014-10-16 マツダ株式会社 車両用撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110246108A (zh) * 2018-11-21 2019-09-17 浙江大华技术股份有限公司 一种图像处理方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
US20190102870A1 (en) 2019-04-04
US10853926B2 (en) 2020-12-01
JP6711396B2 (ja) 2020-06-17
JPWO2017169039A1 (ja) 2019-02-14

Similar Documents

Publication Publication Date Title
WO2017169039A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US8023000B2 (en) Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
EP2987134B1 (en) Generation of ghost-free high dynamic range images
US8860848B2 (en) Image processing apparatus and method
US11188777B2 (en) Image processing method, image processing apparatus, learnt model manufacturing method, and image processing system
US20120188394A1 (en) Image processing methods and apparatuses to enhance an out-of-focus effect
JP5453573B2 (ja) 撮像装置、撮像方法およびプログラム
JP2012239103A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2009207118A (ja) 撮像装置及びぶれ補正方法
JP6720881B2 (ja) 画像処理装置及び画像処理方法
JP6071419B2 (ja) 画像処理装置及び画像処理方法
CN113632134B (zh) 用于生成高动态范围图像的方法、计算机可读存储介质和hdr相机
JP2010045534A (ja) 固体撮像装置
JP2022179514A (ja) 制御装置、撮像装置、制御方法およびプログラム
JP5212046B2 (ja) デジタルカメラおよび画像処理装置並びに画像処理プログラム
US10715723B2 (en) Image processing apparatus, image acquisition system, image processing method, and image processing program
JP5843599B2 (ja) 画像処理装置および撮像装置並びにその方法
JP2008099260A (ja) 画像処理装置、電子カメラ、および画像処理プログラム
JP2010098663A (ja) 撮像装置
US20200294198A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP7183015B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5561389B2 (ja) 画像処理プログラム、画像処理装置、電子カメラ、および画像処理方法
JP2014110624A (ja) 画像処理装置、画像処理方法及びプログラム
JP5676972B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び記憶媒体
JP2009088933A (ja) 画像記録装置、画像補正装置及び撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018508455

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17773589

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17773589

Country of ref document: EP

Kind code of ref document: A1