WO2013118364A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2013118364A1
WO2013118364A1 PCT/JP2012/079622 JP2012079622W WO2013118364A1 WO 2013118364 A1 WO2013118364 A1 WO 2013118364A1 JP 2012079622 W JP2012079622 W JP 2012079622W WO 2013118364 A1 WO2013118364 A1 WO 2013118364A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
unit
images
layer
Prior art date
Application number
PCT/JP2012/079622
Other languages
English (en)
French (fr)
Inventor
吉村 真一
笠井 政範
大介 川添
真 吉村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP12868308.3A priority Critical patent/EP2814238A1/en
Priority to CN201280068849.1A priority patent/CN104106259B/zh
Priority to CA 2854280 priority patent/CA2854280A1/en
Priority to RU2014131903A priority patent/RU2014131903A/ru
Priority to US14/373,995 priority patent/US9240065B2/en
Publication of WO2013118364A1 publication Critical patent/WO2013118364A1/ja

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects

Definitions

  • the present disclosure relates to an image processing apparatus and an image processing method.
  • the number of pixels of a captured image obtained by an imaging device tends to increase and the pixel size tends to decrease. While the details of the subject can be expressed by increasing the number of pixels, the image quality deterioration becomes conspicuous because noise increases when the pixel size is small. Such image quality degradation can be effectively corrected by noise removal by a spatial filter. However, when the number of pixels of the image increases, the number of pixels processed by the spatial filter also increases, so that the hardware scale and cost for realizing the spatial filter increase.
  • the present disclosure proposes a new and improved image processing apparatus and image processing method capable of obtaining a high-definition image while suppressing the processing load.
  • an image processing unit that performs image processing on each of a plurality of images with different resolutions for the same subject, and an image that combines image processing results by the image processing unit for each of the plurality of images
  • An image processing apparatus including a combining unit is provided.
  • an image including performing image processing on each of a plurality of images having different resolutions for the same subject and combining the image processing results for each of the plurality of images.
  • a processing method is provided.
  • a high-definition image can be obtained while suppressing the processing load.
  • FIG. 2 is a block diagram illustrating a configuration of a hierarchical image processing unit of the image processing apparatus according to the first embodiment. It is explanatory drawing which showed the specific example of the image process in each hierarchy. It is explanatory drawing which showed the specific example of the image process in each hierarchy. It is explanatory drawing which showed the specific example of the image process in each hierarchy. It is explanatory drawing which showed the specific example of the process timing in each hierarchy. It is explanatory drawing which showed the specific example of the process timing in each hierarchy. It is explanatory drawing which showed the specific example of the process timing in each hierarchy. It is explanatory drawing which showed the specific example of the process timing in each hierarchy. 3 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration only the same reference numerals are given.
  • the image processing apparatus 10 includes: A. An image processing unit (212, 222,... 232) that performs image processing on each of a plurality of images with different resolutions for the same subject; B. An image synthesis unit (214, 224) that synthesizes image processing results by the image processing unit for each of the plurality of images.
  • FIG. 1 is an explanatory diagram illustrating a configuration of an image processing apparatus 10 according to an embodiment of the present disclosure.
  • the image processing apparatus 10 includes an imaging unit 12, a storage unit 14, a hierarchical image processing unit 20, and a display unit 30.
  • the imaging unit 12 converts light emitted from the subject into an electrical image signal.
  • the imaging unit 12 controls an imaging optical system such as a photographing lens and a zoom lens that collects light, an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and exposure.
  • an imaging optical system such as a photographing lens and a zoom lens that collects light
  • an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor)
  • Exposure physical shutter and electronic shutter
  • the storage unit 14 stores a program for operating the image processing apparatus 10, an image obtained by the imaging unit 12, an image obtained by the hierarchical image processing unit 20, and the like.
  • Such a storage unit 14 may be a storage medium such as a non-volatile memory, a magnetic disk, an optical disk, and an MO (Magneto Optical) disk.
  • the non-volatile memory include flash memory, SD card, micro SD card, USB memory, EEPROM (Electrically Erasable Programmable Read-Only Memory), and EPROM (Erasable Programmable ROM).
  • the magnetic disk include a hard disk and a disk type magnetic disk.
  • Examples of the optical disc include a CD (Compact Disc), a DVD (Digital Versatile Disc), and a BD (Blu-Ray Disc (registered trademark)).
  • the hierarchical image processing unit 20 performs image processing on an image input from the imaging unit 12 or the storage unit 14. As will be described in detail later, the hierarchical image processing unit 20 performs image processing on each of a plurality of images with different resolutions for the same subject, and synthesizes the image processing results for each of the plurality of images. With this configuration, it is possible to reduce the hardware scale and cost compared to the case where image processing is performed only on an image having a high resolution, and image processing is performed only on an image having a low resolution. It is possible to obtain a high-definition image as compared with the case where it is performed.
  • the display unit 30 displays an image obtained by the image processing of the hierarchical image processing unit 20, for example.
  • a display unit 30 may be a liquid crystal display (LCD) device or an OLED (Organic Light Emitting Diode) device.
  • the image processing apparatus 10 includes the imaging unit 12 as the imaging function. However, the image processing apparatus 10 may not include the imaging function.
  • the image processing apparatus 10 is an information processing apparatus such as a PC (Personal Computer), a home video processing apparatus (DVD recorder, VCR, etc.), a PDA (Personal Digital Assistant), a home game machine, and a home appliance. Also good.
  • the image processing device 10 is a portable information processing device such as an imaging device, a smartphone, a mobile phone, a PHS (Personal Handyphone System), a portable music playback device, a portable video processing device, or a portable game device. Also good.
  • processing with a reduced image is effective.
  • the image processing apparatus 10 according to each embodiment has been created by focusing on the above circumstances.
  • the image processing apparatus 10 according to each embodiment can reduce the hardware scale and cost as compared with a case where image processing is performed only on an image having a high resolution, and an image having a low resolution. It is possible to obtain a high-definition image as compared with the case where image processing is performed only for the image processing.
  • the image processing apparatus 10 according to each embodiment will be described in detail sequentially.
  • FIG. 2 is a block diagram showing the configuration of the hierarchical image processing unit 20-1 of the image processing apparatus 10 according to the first embodiment.
  • the hierarchical image processing unit 20-1 includes the image reduction units 202 and 203, the first hierarchical processing unit 210 to the Kth hierarchical processing unit 230, and the processing result transmission units 228 and 238. Prepare.
  • the image reduction unit 202 reduces the number of pixels of the input original image, and generates a reduced image of the second layer having the next largest number of pixels after the original image. Note that the image reduction unit 202 may reduce the number of pixels of the original image by thinning out the pixels, or may reduce the number of pixels of the original image by averaging a plurality of pixels.
  • the image reduction unit 203 reduces the number of pixels of the input reduced image of the (K-1) th layer and generates a reduced image of the Kth layer having the smallest number of pixels.
  • one or more image reduction units may be provided between the image reduction unit 202 and the image reduction unit 203. Each image reduction unit may reduce the input image at the same reduction rate. With this configuration, each image reduction unit can be realized by the same hardware, and thus manufacturing costs can be suppressed.
  • the processing result transmission unit 228 transmits the parameter information obtained by the second layer processing unit 220 to the upper first layer processing unit 210 that uses the parameter information in image processing.
  • the parameter information is a histogram indicating the luminance distribution obtained by the overall luminance calculation, and gradation conversion may be performed using the histogram in the upper layer.
  • the processing result transmission unit 238 transmits the parameter information obtained by the K-th layer processing unit 230 to the upper K-1th layer processing unit that uses the parameter information during image processing.
  • a process result transmission part may be provided between each hierarchy process part.
  • the Kth hierarchical processing unit 230 includes an image processing unit 232 and an upscale unit 236.
  • the image processing unit 232 performs image processing on the reduced image of the Kth hierarchy input from the image reducing unit 203.
  • the upscale unit 236 upscales (enlarges) the image resulting from the processing by the image processing unit 232 to the (K-1) th layer. Note that upscaling may be inserting a pixel having the same pixel value as an adjacent pixel between pixels, or inserting a pixel having a pixel value of a weighted average result of neighboring pixels. Good.
  • the second layer processing unit 220 includes an image processing unit 222, an image composition unit 224, and an upscale unit 226.
  • the image processing unit 222 performs image processing on the reduced image of the second hierarchy input from the image reducing unit 202.
  • the image synthesis unit 224 synthesizes the processing result image from the image processing unit 222 and the processing result image in the third hierarchy input from the third hierarchy processing unit.
  • the image composition may be a weighted average of each pixel constituting two images.
  • the first layer processing unit 210 includes an image processing unit 212 and an image composition unit 214.
  • the image processing unit 212 performs image processing on the input original image.
  • the image composition unit 214 synthesizes the processing result image from the image processing unit 212 and the processing result image in the third layer input from the second layer processing unit 220. Then, the image synthesis unit 214 outputs the synthesized result image as an output image to the display unit 30 or the storage unit 14.
  • FIG. 2 although the example which upscales the image processing result in each hierarchy one layer was demonstrated, this embodiment is not limited to this example. For example, it is possible to directly upscale the image processing results of each layer to the first layer (same resolution as the original image). However, when the image processing result is upscaled one layer at a time as described with reference to FIG. 2, the same upscale unit (226, 236) can be arranged in each layer, thus simplifying the manufacturing process and manufacturing. Cost reduction can be realized.
  • the hierarchical image processing unit 20-1 performs image processing in a plurality of layers having different resolutions, and synthesizes the image processing results in the respective layers. Furthermore, the hierarchical image processing unit 20-1 according to the present embodiment can perform various image processing in each hierarchy. Hereinafter, a specific example of image processing performed in each layer will be described.
  • edge preserving NR noise reduction
  • NLmeansNR are examples of luminance NR
  • chroma NR is color noise.
  • Correction processing defect correction is processing for correcting defective pixels
  • tone conversion is processing for adjusting the relationship between input and output
  • flicker detection is processing for detecting flicker in a frame
  • flicker correction is processing for detecting detected flicker.
  • the camera shake correction is a process for correcting the influence of camera shake during imaging
  • the overall brightness calculation is a brightness distribution calculation process
  • the GMV (Global Motion Vector) detection is a motion vector for each frame. It is a detection process.
  • the image processing units (212, 222,... 232) of each layer may perform the same image processing.
  • the image processing units (212, 222,... 232) of each layer may perform the same edge preservation type NR as shown in FIG.
  • the image processing units (212, 222,... 232) in each layer may perform different NRs. More specifically, the image processing units (212, 222,... 232) of each layer may perform NR suitable for the resolution of each layer. For example, luminance noise such as screen roughness is dominated by high frequency components, and color noise is dominated by low frequency components.
  • luminance NR such as edge-preserving NR or NLmeansNR may be performed on the upper layer side
  • chroma NR may be performed on the lower layer side. That is, as shown in FIG. 4, the image processing unit 212 in the first layer performs edge preserving NR, the image processing unit 222 in the second layer performs NLmeansNR, and the image processing unit 232 in the Kth layer performs chroma NR. You may go. With this configuration, it is possible to reduce the processing load for performing the chroma NR while appropriately correcting the luminance noise and the color noise.
  • the image processing units (212, 222, ... 232) of each layer may perform different image processing. More specifically, the image processing units (212, 222,... 232) of each layer may perform image processing suitable for the resolution of each layer. For example, global brightness calculation, flicker detection, GMV detection, chroma NR, gradation conversion, flicker correction, camera shake correction, and the like can be executed at a low resolution, but defect correction is difficult to execute properly unless the resolution is high.
  • the image processing unit 212 in the first layer performs defect correction
  • the image processing unit 222 in the second layer performs luminance NR
  • the image processing unit 232 in the Kth layer calculates global luminance.
  • Flicker detection, GMV detection, chroma NR, gradation conversion, flicker correction, and camera shake correction may be performed.
  • the image processing units (212, 222,... 232) of each layer can perform image processing of various patterns.
  • the timing at which the image processing units (212, 222,... 232) of each layer perform image processing is not particularly limited.
  • an example of the timing at which the image processing units (212, 222,... 232) of each layer perform image processing will be described.
  • FIG. 6 is an explanatory diagram showing a first timing example of image processing in each layer.
  • the hierarchical image processing unit 20-1 may start image processing in order from the upper hierarchy. That is, first, the image processing unit 212 in the first layer starts image processing (Processing 1 and Processing 2), and then the image processing unit 222 in the second layer starts image processing (Processing A and Processing B), Thereafter, the image processing unit 232 in the third hierarchy may start image processing (processing A, processing B, and processing C).
  • FIG. 6 shows an example in which the end timing of image processing for each layer is aligned, the image processing for each layer may end at a different timing.
  • FIG. 7 is an explanatory diagram showing a second timing example of image processing in each layer.
  • the hierarchical image processing unit 20-1 may start image processing for each layer at the same time. That is, the image processing unit 212 in the first layer starts image processing (Processing 1 and Processing 2), and at the same time, the image processing unit 222 in the second layer starts image processing (Processing A, Processing B and Processing C), Thereafter, the image processing unit 232 in the third hierarchy may start image processing (processing A, processing B, processing C, processing D, and processing E).
  • FIG. 7 shows an example in which the end timing of image processing for each layer is aligned, the image processing for each layer may end at a different timing.
  • FIG. 8 is an explanatory diagram showing a third timing example of image processing in each layer.
  • the hierarchy image processing unit 20-1 may start image processing in order from the lower hierarchy. That is, first, the image processing unit 232 in the third hierarchy starts image processing (Process A, Process B, Process C, Process D, and Process E), and then the image processor 222 in the second hierarchy performs image processing (Processing).
  • the image processing unit 212 in the first hierarchy may start image processing (processing 1).
  • FIG. 8 shows an example in which the end timing of image processing for each layer is aligned, the image processing for each layer may end at a different timing.
  • FIG. 9 is a flowchart showing the operation of the image processing apparatus 10 according to the first embodiment.
  • the image reducing units 202 and 203 generate reduced images having different resolutions in the K layer ( S320).
  • the image processing unit of each layer performs image processing corresponding to the resolution on the input reduced image (S330). After that, the upscaling unit of each layer upscales the image processing result to a higher resolution, and the image combining unit of each layer combines the image processing result in the same layer and the image processing result upscaled in the lower layer. (S340), and the synthesis result is output (S350).
  • the parameter information for image processing in the upper layer is obtained by the image processing unit in each layer, the parameter information is transmitted to the upper layer by the processing result transmission unit (228,..., 238). .
  • Second Embodiment >> Heretofore, the first embodiment of the present disclosure has been described. Subsequently, a second embodiment of the present disclosure will be described. In the first embodiment, an example in which a plurality of images with different resolutions are acquired by reducing the original image has been described. However, in the second embodiment, a plurality of images with different resolutions at the stage of imaging by the imaging unit 12. Can be obtained. Details will be described below.
  • FIG. 10 is a block diagram showing a configuration of the hierarchical image processing unit 20-2 of the image processing apparatus 10 according to the second embodiment.
  • the hierarchical image processing unit 20-2 includes a first hierarchical processing unit 210 to a Kth hierarchical processing unit 230, and processing result transmission units 228 and 238.
  • the processing result transmission units 228 and 238 are arranged between two consecutive hierarchies, and the parameter information obtained by the lower-level image processing unit is used as the upper-side image. Transmit to the processing unit.
  • the first layer processing unit 210 includes an image processing unit 212 and an image composition unit 214.
  • the processing contents of the image processing unit 212 and the image synthesizing unit 214 are as described in the first embodiment, but the first embodiment is that an image acquired by the imaging unit 12 is input to the image processing unit 212. Different from form. Specifically, the imaging unit 12 acquires a plurality of hierarchical images by imaging at different exposure timings and different resolutions, and the first hierarchical image with the highest resolution is stored in the first hierarchical image processing unit 212. Entered.
  • the second layer processing unit 220 includes an image processing unit 222, an image composition unit 224, and an upscale unit 226. Similar to the first layer, the second layer image having the second highest resolution is input to the image processing unit 222 in the second layer.
  • the Kth hierarchical processing unit 230 includes an image processing unit 232 and an upscale unit 236.
  • the K-th layer image having the lowest resolution is input to the K-th layer image processing unit 232.
  • FIG. 11 is an explanatory diagram showing an example of the exposure timing and the processing timing of each layer in the imaging unit 12.
  • the imaging unit 12 sequentially exposes the vertical lines of the imaging device between t1 and t3, and outputs a signal of the 1/4 vertical line between t2 and t3 in the third layer image. Output as.
  • the image processing unit 232 in the third hierarchy starts image processing at t3 when an image in the third hierarchy is obtained.
  • the imaging unit 12 sequentially exposes the vertical lines of the imaging element between t2 and t5, and outputs a signal of 1/2 vertical line as an image of the second layer between t3 and t5. Then, the image processing unit 222 in the second hierarchy starts image processing at t5 when an image in the second hierarchy is obtained.
  • the imaging unit 12 sequentially exposes the vertical lines of the imaging element between t4 and t9, and outputs signals of all the vertical lines as images of the first layer between t5 and t9. Then, the image processor 212 of the first layer starts image processing at t9 when an image of the first layer is obtained.
  • FIG. 11 shows an example in which the imaging unit 12 performs a rolling shutter operation in which vertical lines are sequentially exposed
  • the imaging unit 12 may perform a global shutter operation in which all vertical lines are exposed simultaneously.
  • the imaging unit 12 performs exposure for acquiring a third layer image from t1 to t2, performs exposure for acquiring a second layer image from t2 to t3, and performs first exposure from t4 to t5.
  • the same processing timing as that in FIG. 11 can be realized by performing exposure for acquiring a hierarchical image.
  • FIG. 12 is an explanatory diagram showing another example of the exposure timing and the processing timing of each layer in the imaging unit 12.
  • the imaging unit 12 sequentially exposes the vertical lines of the imaging device between t1 and t6, and outputs signals of all the vertical lines as images of the first layer between t2 and t6. To do. Then, the image processing unit 212 of the first layer starts image processing at t6 when an image of the first layer is obtained.
  • the imaging unit 12 sequentially exposes the vertical lines of the imaging element between t5 and t8, and outputs a signal of 1/2 vertical line as an image of the second layer between t6 and t8. Then, the image processor 222 of the second hierarchy starts image processing at t8 when an image of the second hierarchy is obtained.
  • the imaging unit 12 sequentially exposes the vertical lines of the imaging device between t7 and t9, and outputs a signal of the 1/4 vertical line as an image of the third layer between t8 and t9. Then, the image processing unit 232 of the third hierarchy starts image processing at t9 when an image of the third hierarchy is obtained.
  • FIG. 12 shows an example in which the imaging unit 12 performs a rolling shutter operation in which vertical lines are sequentially exposed
  • the imaging unit 12 may perform a global shutter operation in which all vertical lines are exposed simultaneously.
  • the imaging unit 12 performs exposure for acquiring a first layer image from t1 to t2, performs exposure for acquiring a second layer image from t5 to t6, and performs third exposure from t7 to t8.
  • the same processing timing as that in FIG. 12 can be realized by performing exposure for acquiring a hierarchical image.
  • FIG. 13 is a flowchart showing the operation of the image processing apparatus 10 according to the second embodiment.
  • the imaging unit 12 acquires a plurality of hierarchical images by imaging at different exposure timings and different resolutions (S420).
  • the first hierarchical image acquired by the imaging unit 12 is input to the first hierarchical processing unit 210
  • the second hierarchical image is input to the second hierarchical processing unit 220
  • the Kth hierarchical image is input to the Kth hierarchical processing unit 230. Is done.
  • the image processing unit of each layer performs image processing corresponding to the resolution on the input layer image (S430). After that, the upscaling unit at each layer upscales the image processing result to a higher resolution, and the image composition unit at each layer combines the image processing result at the same layer and the image processing result upscaled at the lower layer. (S440), and the synthesis result is output (S450).
  • the parameter information for image processing in the upper layer is obtained by the image processing unit in each layer, the parameter information is transmitted to the upper layer by the processing result transmission unit (228,..., 238). .
  • image processing is performed in a plurality of layers having different resolutions, and the image processing results in the respective layers are combined. For this reason, it is possible to reduce the hardware scale and cost compared to the case where image processing is performed only on an image having high resolution, and image processing is performed only on an image having low resolution. Compared to the case, it is possible to obtain a high-definition image.
  • the first embodiment of the present disclosure it is possible to acquire a plurality of images having different resolutions by reducing one original image. Further, according to the second embodiment of the present disclosure, it is possible to acquire a plurality of images having different resolutions at the stage of imaging by the imaging unit 12.
  • each step in the processing of the image processing apparatus 10 of the present specification does not necessarily have to be processed in time series in the order described as a flowchart.
  • each step in the processing of the image processing apparatus 10 may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • FIGS. 1, 2, and 10 it is possible to create a computer program for causing hardware such as a CPU, ROM, and RAM incorporated in the image processing apparatus 10 to perform the same functions as the components of the image processing apparatus 10 described above.
  • a storage medium storing the computer program is also provided.
  • at least a part of the blocks shown in the block diagrams of FIGS. 1, 2, and 10 can be configured by hardware.
  • An image processing unit that performs image processing on each of a plurality of images having different resolutions for the same subject;
  • An image synthesis unit that synthesizes image processing results by the image processing unit for each of the plurality of images;
  • An image processing apparatus comprising: (2) The image processing apparatus according to (1), wherein the image processing unit performs the same type of image processing on each of the plurality of images.
  • the image processing apparatus further includes an upscaling unit that upscales an image processing result by the image processing unit with respect to an image on a low resolution side to a resolution of an image on a high resolution side
  • the image composition unit includes an image processing result by the image processing unit for the high resolution side image, and an image processing result by the image processing unit for the low resolution side image upscaled by the upscaling unit;
  • the image processing apparatus according to any one of (1) to (3), wherein: (5)
  • the image processing device according to any one of (1) to (4), further including an image conversion unit that performs image conversion to obtain a plurality of images having different resolutions from an input image. .
  • the image processing apparatus according to any one of (1) to (4), further including an imaging unit that obtains the plurality of images by imaging at different exposure timings and different resolutions.
  • the image processing apparatus according to (6) or (7), wherein the imaging unit acquires the plurality of images in order from an image on a high resolution side.
  • the image processing device according to (6) or (7), wherein the imaging unit acquires the plurality of images in order from an image on a low resolution side.
  • the image processing unit performs at least luminance noise reduction and chroma noise reduction as image processing, The image processing apparatus according to (3), wherein the luminance noise reduction is performed on an image on a higher resolution side than an image on which the chroma noise reduction is performed.
  • the image processing unit further performs defect correction as image processing, The image processing apparatus according to (10), wherein the defect correction is performed on an image on a higher resolution side than an image on which the luminance noise reduction is performed.
  • (12) Performing image processing on each of a plurality of images having different resolutions for the same subject; Combining image processing results for each of the plurality of images; Including an image processing method.

Abstract

【課題】処理負荷を抑制しつつ高精細な画像を取得する。 【解決手段】同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行う画像処理部と、前記複数の画像の各々についての前記画像処理部による画像処理結果を合成する画像合成部と、を備える画像処理装置。

Description

画像処理装置および画像処理方法
 本開示は、画像処理装置および画像処理方法に関する。
 近日、イメージセンサの多画素化により、撮像装置により得られる撮像画像の画素数が増加し、画素サイズが小さくなる傾向にある。画素数の増加により被写体のより細部を表現できる一方で、画素サイズが小さいとノイズが増えるので画質劣化が目立つようになる。このような画質劣化は、空間フィルタによるノイズ除去により効果的に補正することが可能である。ただし、画像の画素数が増加すると、空間フィルタで処理する画素数も増加するので、空間フィルタを実現するためのハードウェア規模およびコストが増大してしまう。
 このような観点から、オリジナル画像の画素数を減らして縮小画像を生成し、縮小画像に対して画像処理を行うことが考えられる(例えば、特許文献1参照。)。これにより、ハードウェア規模の増大や処理時間の長期化を抑制することができる。
米国特許出願公開第7889949号明細書
 しかし、オリジナル画像の高周波成分が失われた縮小画像に対して画像処理を行うのみでは、高精細な処理結果画像を得ることが困難であった。
 そこで、本開示では、処理負荷を抑制しつつ高精細な画像を得ることが可能な、新規かつ改良された画像処理装置および画像処理方法を提案する。
 本開示によれば、同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行う画像処理部と、前記複数の画像の各々についての前記画像処理部による画像処理結果を合成する画像合成部と、を備える画像処理装置が提供される。
 また、本開示によれば、同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行うことと、前記複数の画像の各々についての画像処理結果を合成することと、を含む画像処理方法が提供される。
 以上説明したように本開示によれば、処理負荷を抑制しつつ高精細な画像を得ることができる。
本開示の実施形態による画像処理装置の構成を示した説明図である。 第1の実施形態による画像処理装置の階層画像処理部の構成を示したブロック図である。 各階層での画像処理の具体例を示した説明図である。 各階層での画像処理の具体例を示した説明図である。 各階層での画像処理の具体例を示した説明図である。 各階層での処理タイミングの具体例を示した説明図である。 各階層での処理タイミングの具体例を示した説明図である。 各階層での処理タイミングの具体例を示した説明図である。 第1の実施形態による画像処理装置の動作を示したフローチャートである。 第2の実施形態による画像処理装置の階層画像処理部の構成を示したブロック図である。 撮像部における露光タイミングと各階層の処理タイミングの一例を示した説明図である。 撮像部における露光タイミングと各階層の処理タイミングの他の例を示した説明図である。 第2の実施形態による画像処理装置の動作を示したフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.画像処理装置の概略
  2.第1の実施形態
   2-1.第1の実施形態による画像処理装置の構成
   2-2.第1の実施形態による画像処理装置の動作
  3.第2の実施形態
  4.むすび
  <<1.画像処理装置の概略>>
 本開示による技術は、一例として「2.第1の実施形態」~「3.第2の実施形態」において詳細に説明するように、多様な形態で実施され得る。また、各実施形態による画像処理装置10は、
A.同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行う画像処理部(212、222、・・・232)と、
B.前記複数の画像の各々についての前記画像処理部による画像処理結果を合成する画像合成部(214、224)と、を備える。
 以下では、まず、このような各実施形態において共通する画像処理装置10の基本構成について図1を参照して説明する。
 図1は、本開示の実施形態による画像処理装置10の構成を示した説明図である。図1に示したように、本開示の実施形態による画像処理装置10は、撮像部12と、記憶部14と、階層画像処理部20と、表示部30と、を備える。
 撮像部12は、被写体から発せられる光を電気的な画像信号に変換する。具体的には、撮像部12は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および露光を制御するシャッタ(物理シャッタおよび電子シャッタ)などを含む。シャッタによる露光時、撮像光学系は、被写体から発せられる光を集光して撮像素子に被写体像を形成し、撮像素子は、形成された被写体像を電気的な画像信号に変換する。
 記憶部14は、画像処理装置10が動作するためのプログラムや、撮像部12により得られた画像、または階層画像処理部20により得られた画像などを記憶する。
 このような記憶部14は、不揮発性メモリ、磁気ディスク、光ディスク、およびMO(Magneto Optical)ディスクなどの記憶媒体であってもよい。不揮発性メモリとしては、例えば、フラッシュメモリ、SDカード、マイクロSDカード、USBメモリ、EEPROM(Electrically Erasable Programmable Read-Only Memory)、EPROM(Erasable Programmable ROM)があげられる。また、磁気ディスクとしては、ハードディスクおよび円盤型磁性体ディスクなどがあげられる。また、光ディスクとしては、CD(Compact Disc)、DVD(Digital Versatile Disc)およびBD(Blu-Ray Disc(登録商標))などがあげられる。
 階層画像処理部20は、撮像部12または記憶部14から入力される画像に対して画像処理を行う。詳細については後述するが、階層画像処理部20は、同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行い、複数の画像の各々についての画像処理結果を合成する。かかる構成により、高解像度を有する画像に対してのみ画像処理を行う場合と比較してハードウェア規模およびコストを抑制することが可能であり、かつ、低解像度を有する画像に対してのみ画像処理を行う場合と比較して高精細な画像を得ることが可能である。
 表示部30は、例えば階層画像処理部20の画像処理により得られる画像を表示する。このような表示部30は、液晶ディスプレイ(LCD)装置、またはOLED(Organic Light Emitting Diode)装置であってもよい。
 なお、上記では画像処理装置10が撮像機能として撮像部12を備える例を示しているが、画像処理装置10は撮像機能を備えなくてもよい。また、画像処理装置10は、PC(Personal Computer)、家庭用映像処理装置(DVDレコーダ、ビデオデッキなど)、PDA(Personal Digital Assistants)、家庭用ゲーム機器、家電機器などの情報処理装置であってもよい。また、画像処理装置10は、撮像装置、スマートフォン、携帯電話、PHS(Personal Handyphone System)、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器などの携帯型の情報処理装置であってもよい。
  (背景)
 ここで、本開示の実施形態の背景を説明する。近日、イメージセンサ(撮像素子)の多画素化により、撮像装置により得られる撮像画像の画素数が増加し、画素サイズが小さくなる傾向にある。画素数の増加により被写体のより細部を表現できる一方で、画素サイズが小さいとノイズが増えるので画質劣化が目立つようになる。このような画質劣化は、空間フィルタによるノイズ除去により効果的に補正することが可能である。ただし、画像の画素数が増加すると、空間フィルタで処理する画素数も増加するので、空間フィルタを実現するためのハードウェア規模およびコストが増大してしまう。
 このような観点から、オリジナル画像の画素数を減らして縮小画像を生成し、縮小画像に対して画像処理を行うことが考えられる。これにより、ハードウェア規模の増大や処理時間の長期化を抑制することができる。
 例えば、オリジナル画像の画素数がM×Nであり、このオリジナル画像を2k-1(k=1、2、3、・・・)に縮小して縮小画像を生成した場合を考える。k=3の場合、縮小画像の画素数は(M/4)×(N/4)であるので、この縮小画像の1画素は、オリジナル画像の16画素に相当する。
 したがって、この縮小画像のある1画素に対して3×3の空間フィルタ処理を施すことは、オリジナル画像の12×12=144画素の範囲に空間フィルタ処理を施すことと等価である。このように、処理負荷の観点からは縮小画像での処理が効果的である。
 しかし、オリジナル画像の高周波成分が失われた縮小画像に対して画像処理を行うのみでは、高精細な処理結果画像を得ることが困難であった。
 そこで、上記事情を一着眼点にして各実施形態による画像処理装置10を創作するに至った。各実施形態による画像処理装置10は、高解像度を有する画像に対してのみ画像処理を行う場合と比較してハードウェア規模およびコストを抑制することが可能であり、かつ、低解像度を有する画像に対してのみ画像処理を行う場合と比較して高精細な画像を得ることが可能である。以下、このような各実施形態による画像処理装置10について順次詳細に説明する。
  <<2.第1の実施形態>>
   <2-1.第1の実施形態による画像処理装置の構成>
 図2は、第1の実施形態による画像処理装置10の階層画像処理部20-1の構成を示したブロック図である。図2に示したように、階層画像処理部20-1は、画像縮小部202および203と、第1階層処理部210~第K階層処理部230と、処理結果伝送部228および238と、を備える。
 画像縮小部202は、入力されるオリジナル画像の画素数を減らし、オリジナル画像の次に画素数が多い第2階層の縮小画像を生成する。なお、画像縮小部202は、画素を間引いてオリジナル画像の画素数を減らしてもよいし、複数の画素を平均化することによりオリジナル画像の画素数を減らしてもよい。
 同様に、画像縮小部203は、入力される第K-1階層の縮小画像の画素数を減らし、最も画素数が少ない第K階層の縮小画像を生成する。なお、図2においては記載を省略しているが、画像縮小部202と画像縮小部203の間に1または2以上の画像縮小部が設けられてもよい。なお、各画像縮小部は、入力される画像を同一の縮小率で縮小してもよい。かかる構成により、各画像縮小部を同一のハードウェアで実現できるので、製造コストを抑制することが可能である。
 処理結果伝送部228は、第2階層処理部220で得られたパラメータ情報を、画像処理に際して当該パラメータ情報を用いる上位の第1階層処理部210に伝送する。例えば、パラメータ情報は、大局輝度算出により得られる輝度分布を示すヒストグラムであり、上位階層では、当該ヒストグラムを用いて階調変換を行ってもよい。
 同様に、処理結果伝送部238は、第K階層処理部230で得られたパラメータ情報を、画像処理に際して当該パラメータ情報を用いる上位の第K-1階層処理部に伝送する。なお、図2においては記載を省略しているが、各階層処理部の間に処理結果伝送部が設けられてもよい。
 第K階層処理部230は、画像処理部232およびアップスケール部236を有する。画像処理部232は、画像縮小部203から入力される第K階層の縮小画像に対して画像処理を行う。アップスケール部236は、画像処理部232による処理結果の画像を第K-1階層にアップスケール(拡大)する。なお、アップスケールは、画素間に隣接画素と同一の画素値を有する画素を挿入することであってもよいし、周辺画素の重み付け平均結果の画素値を有する画素を挿入することであってもよい。
 第2階層処理部220は、画像処理部222、画像合成部224およびアップスケール部226を有する。画像処理部222は、画像縮小部202から入力される第2階層の縮小画像に対して画像処理を行う。画像合成部224は、画像処理部222による処理結果の画像と、第3階層処理部から入力される第3階層での処理結果の画像とを合成する。なお、画像合成は、2つの画像を構成する各画素の重み付け平均であってもよい。
 第1階層処理部210は、画像処理部212、および画像合成部214を有する。画像処理部212は、入力されるオリジナル画像に対して画像処理を行う。画像合成部214は、画像処理部212による処理結果の画像と、第2階層処理部220から入力される第3階層での処理結果の画像とを合成する。そして、画像合成部214は、合成結果の画像を出力画像として表示部30や記憶部14などに出力する。
 なお、図2においては、各階層での画像処理結果を1階層ずつアップスケールする例を説明したが、本実施形態はかかる例に限定されない。例えば、各階層の画像処理結果を直接第1階層(オリジナル画像と同一の解像度)にアップスケールすることも可能である。ただし、図2で説明したように画像処理結果を1階層ずつアップスケールする場合、各階層に同一のアップスケール部(226、236)を配置することができるので、製造プロセスの簡易化、および製造コストの抑制を実現できる。
 以上説明したように、本実施形態による階層画像処理部20-1は、解像度の異なる複数の階層で画像処理を行い、各階層での画像処理結果を合成する。さらに、本実施形態による階層画像処理部20-1は、各階層で多様な画像処理を行うことが可能である。以下、各階層で行う画像処理の具体例を説明する。
 なお、以下の説明中の各画像処理は一般的な処理であるので詳細な説明を省略するが、エッジ保存型NR(ノイズリダクション)およびNLmeansNRは輝度NRの一例であり、クロマNRは色ノイズの補正処理であり、欠陥補正は欠陥画素の補正処理であり、階調変換は入力と出力の関係の調整処理であり、フリッカ検出はフレームのちらつきの検出処理であり、フリッカ補正は検出されたフリッカの補正処理であり、手ブレ補正は撮像時の手ブレによる影響を補正する処理であり、大局輝度算出は輝度分布の算出処理であり、GMV(Global Motion Vector)検出はフレーム単位の動きベクトルの検出処理である。
 (画像処理の具体例)
 -第1の処理例
 第1の処理例として、各階層の画像処理部(212、222、・・・232)は、同一の画像処理を行ってもよい。例えば、各階層の画像処理部(212、222、・・・232)は、図3に示したように同一のエッジ保存型NRを行ってもよい。
 -第2の処理例
 第2の処理例として、各階層の画像処理部(212、222、・・・232)は、異なるNRを行ってもよい。より詳細には、各階層の画像処理部(212、222、・・・232)は、各階層の解像度に適したNRを行ってもよい。例えば、画面のざらつきのような輝度ノイズは高周波成分が支配的であり、色ノイズは低周波成分が支配的である。
 そこで、上位階層側でエッジ保存型NRやNLmeansNRのような輝度NRを行い、低階層側でクロマNRを行ってもよい。すなわち、図4に示すように、第1階層の画像処理部212がエッジ保存型NRを行い、第2階層の画像処理部222がNLmeansNRを行い、第K階層の画像処理部232がクロマNRを行ってもよい。かかる構成により、輝度ノイズおよび色ノイズを適確に補正しつつ、クロマNRを行うための処理負荷を軽減することが可能である。
 -第3の処理例
 第2の処理例として、各階層の画像処理部(212、222、・・・232)は、異なる画像処理を行ってもよい。より詳細には、各階層の画像処理部(212、222、・・・232)は、各階層の解像度に適した画像処理を行ってもよい。例えば、大局輝度算出、フリッカ検出、GMV検出、クロマNR、階調変換、フリッカ補正、および手ブレ補正などは低解像度で実行できるが、欠陥補正は高解像度でないと適切な実行が困難である。
 そこで、図5に示すように、第1階層の画像処理部212が欠陥補正を行い、第2階層の画像処理部222が輝度NRを行い、第K階層の画像処理部232が大局輝度算出、フリッカ検出、GMV検出、クロマNR、階調変換、フリッカ補正、および手ブレ補正を行ってもよい。かかる構成により、全体の処理負荷を抑制しつつ出力画像の高画質化を実現することができる。
  (各階層の処理タイミング)
 以上説明したように、各階層の画像処理部(212、222、・・・232)は、多様なパターンの画像処理を行うことが可能である。ここで、各階層の画像処理部(212、222、・・・232)が画像処理を行うタイミングは特に限定されない。以下、各階層の画像処理部(212、222、・・・232)が画像処理を行うタイミングの一例を説明する。
 図6は、各階層での画像処理の第1のタイミング例を示した説明図である。階層画像処理部20-1は、図6に示したように、上位階層から順に画像処理を開始してもよい。すなわち、最初に第1階層の画像処理部212が画像処理(処理1および処理2)を開始し、次いで、第2階層の画像処理部222が画像処理(処理イおよび処理ロ)を開始し、その後、第3階層の画像処理部232が画像処理(処理A、処理Bおよび処理C)を開始してもよい。なお、図6においては各階層の画像処理の終了タイミングが揃う例を示しているが、各階層の画像処理は異なるタイミングで終了してもよい。
 図7は、各階層での画像処理の第2のタイミング例を示した説明図である。階層画像処理部20-1は、図7に示したように、各階層の画像処理を同時に開始してもよい。すなわち、第1階層の画像処理部212が画像処理(処理1、処理2)を開始すると同時に、第2階層の画像処理部222が画像処理(処理イ、処理ロおよび処理ハ)を開始し、その後、第3階層の画像処理部232が画像処理(処理A、処理B、処理C、処理Dおよび処理E)を開始してもよい。なお、図7においては各階層の画像処理の終了タイミングが揃う例を示しているが、各階層の画像処理は異なるタイミングで終了してもよい。
 図8は、各階層での画像処理の第3のタイミング例を示した説明図である。階層画像処理部20-1は、図8に示したように、下位階層から順に画像処理を開始してもよい。すなわち、最初に第3階層の画像処理部232が画像処理(処理A、処理B、処理C、処理Dおよび処理E)を開始し、次いで、第2階層の画像処理部222が画像処理(処理イおよび処理ロ)を開始し、その後、第1階層の画像処理部212が画像処理(処理1)を開始してもよい。なお、図8においては各階層の画像処理の終了タイミングが揃う例を示しているが、各階層の画像処理は異なるタイミングで終了してもよい。
   <2-2.第1の実施形態による画像処理装置の動作>
 以上、本開示の第1の実施形態による画像処理装置10の構成を説明した。続いて、本開示の第1の実施形態による画像処理装置10の動作を説明する。
 図9は、第1の実施形態による画像処理装置10の動作を示したフローチャートである。図9に示したように、まず、階層画像処理部20-1にオリジナル画像が入力されると(S310)、画像縮小部202および203などが、K階層の解像度の異なる縮小画像を生成する(S320)。
 そして、各階層の画像処理部が、入力される縮小画像に解像度に応じた画像処理を施す(S330)。その後、各階層のアップスケール部が画像処理結果を上位の解像度にアップスケールし、各階層の画像合成部が、同一階層での画像処理結果と、下位でアップスケールされた画像処理結果とを合成し(S340)、合成結果を出力する(S350)。なお、各階層の画像処理部により上位階層での画像処理のためのパラメータ情報が得られた場合、当該パラメータ情報は処理結果伝送部(228、・・・、238)により上位階層に伝送される。
  <<3.第2の実施形態>>
 以上、本開示の第1の実施形態を説明した。続いて、本開示の第2の実施形態を説明する。第1の実施形態では、オリジナル画像を縮小することにより解像度の異なる複数の画像を取得する例を説明したが、第2の実施形態では、撮像部12による撮像の段階で解像度の異なる複数の画像を取得することができる。以下、詳細に説明する。
   <3-1.第2の実施形態による画像処理装置の構成>
 図10は、第2の実施形態による画像処理装置10の階層画像処理部20-2の構成を示したブロック図である。図10に示したように、階層画像処理部20-2は、第1階層処理部210~第K階層処理部230と、処理結果伝送部228および238と、を備える。
 処理結果伝送部228および238は、第1の実施形態において説明したように、連続する2階層の間に配置され、下位側の階層の画像処理部で得られたパラメータ情報を、上位側の画像処理部に伝送する。
 第1階層処理部210は、画像処理部212、および画像合成部214を有する。画像処理部212、および画像合成部214の処理内容は第1の実施形態で説明した通りであるが、撮像部12により取得された画像が画像処理部212に入力される点で第1の実施形態と異なる。具体的には、撮像部12は、異なる露光タイミングおよび異なる解像度で撮像を行うことにより複数の階層画像を取得し、第1階層の画像処理部212には、最も解像度の高い第1階層画像が入力される。
 第2階層処理部220は、画像処理部222、画像合成部224およびアップスケール部226を有する。第1階層と同様に、第2階層の画像処理部222には、解像度が2番目に高い第2階層画像が入力される。
 また、第K階層処理部230は、画像処理部232およびアップスケール部236を有する。第K階層の画像処理部232には、解像度が最も低い第K階層画像が入力される。
  (露光タイミングと処理タイミングの関係)
 ここで、解像度の異なる複数の画像を取得するための撮像部12における露光タイミングと、各階層の処理タイミングについて図11および図12を参照して説明する。
 図11は、撮像部12における露光タイミングと各階層の処理タイミングの一例を示した説明図である。図11に示した例では、撮像部12は、t1~t3の間で撮像素子の垂直ラインを順次に露光し、t2~t3の間に1/4の垂直ラインの信号を第3階層の画像として出力する。そして、第3階層の画像処理部232は、第3階層の画像が得られるt3において画像処理を開始する。
 また、撮像部12は、t2~t5の間で撮像素子の垂直ラインを順次に露光し、t3~t5の間に1/2の垂直ラインの信号を第2階層の画像として出力する。そして、第2階層の画像処理部222は、第2階層の画像が得られるt5において画像処理を開始する。
 同様に、撮像部12は、t4~t9の間で撮像素子の垂直ラインを順次に露光し、t5~t9の間に全ての垂直ラインの信号を第1階層の画像として出力する。そして、第1階層の画像処理部212は、第1階層の画像が得られるt9において画像処理を開始する。
 なお、図11においては、撮像部12が垂直ラインを順次に露光するローリングシャッタ動作を行う例を示しているが、撮像部12は全ての垂直ラインを同時に露光するグルーバルシャッタ動作を行ってもよい。この場合、撮像部12は、t1~t2で第3階層の画像を取得するための露光を行い、t2~t3で第2階層の画像を取得するための露光を行い、t4~t5で第1階層の画像を取得するための露光を行うことにより、図11と同一の処理タイミングを実現可能である。
 図12は、撮像部12における露光タイミングと各階層の処理タイミングの他の例を示した説明図である。図12に示した例では、撮像部12は、t1~t6の間で撮像素子の垂直ラインを順次に露光し、t2~t6の間に全ての垂直ラインの信号を第1階層の画像として出力する。そして、第1階層の画像処理部212は、第1階層の画像が得られるt6において画像処理を開始する。
 また、撮像部12は、t5~t8の間で撮像素子の垂直ラインを順次に露光し、t6~t8の間に1/2の垂直ラインの信号を第2階層の画像として出力する。そして、第2階層の画像処理部222は、第2階層の画像が得られるt8において画像処理を開始する。
 同様に、撮像部12は、t7~t9の間で撮像素子の垂直ラインを順次に露光し、t8~t9の間に1/4の垂直ラインの信号を第3階層の画像として出力する。そして、第3階層の画像処理部232は、第3階層の画像が得られるt9において画像処理を開始する。
 なお、図12においては、撮像部12が垂直ラインを順次に露光するローリングシャッタ動作を行う例を示しているが、撮像部12は全ての垂直ラインを同時に露光するグルーバルシャッタ動作を行ってもよい。この場合、撮像部12は、t1~t2で第1階層の画像を取得するための露光を行い、t5~t6で第2階層の画像を取得するための露光を行い、t7~t8で第3階層の画像を取得するための露光を行うことにより、図12と同一の処理タイミングを実現可能である。
   <3-2.第2の実施形態による画像処理装置の動作>
 以上、本開示の第2の実施形態による画像処理装置10の構成を説明した。続いて、本開示の第2の実施形態による画像処理装置10の動作を説明する。
 図13は、第2の実施形態による画像処理装置10の動作を示したフローチャートである。図13に示したように、まず、撮像部12が異なる露光タイミングおよび異なる解像度で撮像を行うことにより複数の階層画像を取得する(S420)。撮像部12により取得された第1階層画像は第1階層処理部210に入力され、第2階層画像は第2階層処理部220に入力され、第K階層画像は第K階層処理部230に入力される。
 そして、各階層の画像処理部は、入力される階層画像に解像度に応じた画像処理を施す(S430)。その後、各階層のアップスケール部が画像処理結果を上位の解像度にアップスケールし、各階層の画像合成部が、同一階層での画像処理結果と、下位でアップスケールされた画像処理結果とを合成し(S440)、合成結果を出力する(S450)。なお、各階層の画像処理部により上位階層での画像処理のためのパラメータ情報が得られた場合、当該パラメータ情報は処理結果伝送部(228、・・・、238)により上位階層に伝送される。
  <<4.むすび>>
 以上説明したように、本開示の実施形態によれば、解像度の異なる複数の階層で画像処理を行い、各階層での画像処理結果を合成する。このため、高解像度を有する画像に対してのみ画像処理を行う場合と比較してハードウェア規模およびコストを抑制することが可能であり、かつ、低解像度を有する画像に対してのみ画像処理を行う場合と比較して高精細な画像を得ることが可能である。
 また、本開示の第1の実施形態によれば、1つのオリジナル画像を縮小することにより解像度の異なる複数の画像を取得することが可能である。また、本開示の第2の実施形態によれば、撮像部12による撮像の段階で解像度の異なる複数の画像を取得することが可能である。
 なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、本明細書の画像処理装置10の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、画像処理装置10処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、画像処理装置10に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した画像処理装置10の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。また、図1、図2および図10のブロック図で示した少なくとも一部のブロックをハードウェアで構成することも可能である。
 また、以下のような構成も本開示の技術的範囲に属する。
(1)
 同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行う画像処理部と、
 前記複数の画像の各々についての前記画像処理部による画像処理結果を合成する画像合成部と、
を備える、画像処理装置。
(2)
 前記画像処理部は、前記複数の画像の各々に対して同一種別の画像処理を行う、前記(1)に記載の画像処理装置。
(3)
 前記画像処理部は、前記複数の画像の各々に対して異なる種別の画像処理を行う、前記(1)に記載の画像処理装置。
(4)
 前記画像処理装置は、低解像度側の画像についての前記画像処理部による画像処理結果を高解像度側の画像の解像度にアップスケールするアップスケール部をさらに備え、
 前記画像合成部は、前記高解像度側の画像についての前記画像処理部による画像処理結果と、前記アップスケール部によりアップスケールされた前記低解像度側の画像についての前記画像処理部による画像処理結果とを合成する、前記(1)~(3)のいずれか一項に記載の画像処理装置。
(5)
 前記画像処理装置は、入力画像から前記解像度が異なる複数の画像を得るための画像変換を行う画像変換部をさらに備える、前記(1)~(4)のいずれか一項に記載の画像処理装置。
(6)
 前記画像処理装置は、異なる露光タイミングおよび異なる解像度で撮像を行うことにより前記複数の画像を得る撮像部をさらに備える、前記(1)~(4)のいずれか一項に記載の画像処理装置。
(7)
 前記画像処理部は、前記複数の画像の画像処理を、前記撮像部の撮像により得られた順序で開始する、前記(6)に記載の画像処理装置。
(8)
 前記撮像部は、前記複数の画像を高解像度側の画像から順に取得する、前記(6)または(7)に記載の画像処理装置。
(9)
 前記撮像部は、前記複数の画像を低解像度側の画像から順に取得する、前記(6)または(7)に記載の画像処理装置。
(10)
 前記画像処理部は、少なくとも輝度ノイズリダクション、およびクロマノイズリダクションを画像処理として行い、
 前記輝度ノイズリダクションを、前記クロマノイズリダクションを行う画像よりも高解像度側の画像に対して行う、前記(3)に記載の画像処理装置。
(11)
 前記画像処理部は、さらに欠陥補正を画像処理として行い、
 前記欠陥補正を、前記輝度ノイズリダクションを行う画像よりも高解像度側の画像に対して行う、前記(10)に記載の画像処理装置。
(12)
 同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行うことと、
 前記複数の画像の各々についての画像処理結果を合成することと、
を含む、画像処理方法。
10 画像処理装置
12 撮像部
14 記憶部
20 階層画像処理部
30 表示部
202、203 画像縮小部
210 第1階層処理部
212 画像処理部
214 画像合成部
220 第2階層処理部
222 画像処理部
224 画像合成部
226 アップスケール部
228 処理結果伝送部
230 第K階層処理部
232 画像処理部
236 アップスケール部
238 処理結果伝送部

Claims (12)

  1.  同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行う画像処理部と、
     前記複数の画像の各々についての前記画像処理部による画像処理結果を合成する画像合成部と、
    を備える、画像処理装置。
  2.  前記画像処理部は、前記複数の画像の各々に対して同一種別の画像処理を行う、請求項1に記載の画像処理装置。
  3.  前記画像処理部は、前記複数の画像の各々に対して異なる種別の画像処理を行う、請求項1に記載の画像処理装置。
  4.  前記画像処理装置は、低解像度側の画像についての前記画像処理部による画像処理結果を高解像度側の画像の解像度にアップスケールするアップスケール部をさらに備え、
     前記画像合成部は、前記高解像度側の画像についての前記画像処理部による画像処理結果と、前記アップスケール部によりアップスケールされた前記低解像度側の画像についての前記画像処理部による画像処理結果とを合成する、請求項1に記載の画像処理装置。
  5.  前記画像処理装置は、入力画像から前記解像度が異なる複数の画像を得るための画像変換を行う画像変換部をさらに備える、請求項1に記載の画像処理装置。
  6.  前記画像処理装置は、異なる露光タイミングおよび異なる解像度で撮像を行うことにより前記複数の画像を得る撮像部をさらに備える、請求項1に記載の画像処理装置。
  7.  前記画像処理部は、前記複数の画像の画像処理を、前記撮像部の撮像により得られた順序で開始する、請求項6に記載の画像処理装置。
  8.  前記撮像部は、前記複数の画像を高解像度側の画像から順に取得する、請求項6または7に記載の画像処理装置。
  9.  前記撮像部は、前記複数の画像を低解像度側の画像から順に取得する、請求項6または7に記載の画像処理装置。
  10.  前記画像処理部は、少なくとも輝度ノイズリダクション、およびクロマノイズリダクションを画像処理として行い、
     前記輝度ノイズリダクションを、前記クロマノイズリダクションを行う画像よりも高解像度側の画像に対して行う、請求項3に記載の画像処理装置。
  11.  前記画像処理部は、さらに欠陥補正を画像処理として行い、
     前記欠陥補正を、前記輝度ノイズリダクションを行う画像よりも高解像度側の画像に対して行う、請求項10に記載の画像処理装置。
  12.  同一被写体についての解像度が異なる複数の画像の各々に対して画像処理を行うことと、
     前記複数の画像の各々についての画像処理結果を合成することと、
    を含む、画像処理方法。
     
PCT/JP2012/079622 2012-02-09 2012-11-15 画像処理装置および画像処理方法 WO2013118364A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP12868308.3A EP2814238A1 (en) 2012-02-09 2012-11-15 Image processing device and image processing method
CN201280068849.1A CN104106259B (zh) 2012-02-09 2012-11-15 图像处理设备和图像处理方法
CA 2854280 CA2854280A1 (en) 2012-02-09 2012-11-15 Image processing apparatus and image processing method
RU2014131903A RU2014131903A (ru) 2012-02-09 2012-11-15 Устройство обработки изображения и способ обработки изображения
US14/373,995 US9240065B2 (en) 2012-02-09 2012-11-15 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-025904 2012-02-09
JP2012025904 2012-02-09

Publications (1)

Publication Number Publication Date
WO2013118364A1 true WO2013118364A1 (ja) 2013-08-15

Family

ID=48947151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/079622 WO2013118364A1 (ja) 2012-02-09 2012-11-15 画像処理装置および画像処理方法

Country Status (7)

Country Link
US (1) US9240065B2 (ja)
EP (1) EP2814238A1 (ja)
JP (1) JPWO2013118364A1 (ja)
CN (1) CN104106259B (ja)
CA (1) CA2854280A1 (ja)
RU (1) RU2014131903A (ja)
WO (1) WO2013118364A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015111237A1 (ja) * 2014-01-24 2015-07-30 株式会社東芝 画像処理システム、画像処理方法及び画像処理プログラム
WO2018061508A1 (ja) * 2016-09-28 2018-04-05 ソニー株式会社 撮像素子、画像処理装置、および画像処理方法、並びにプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5982751B2 (ja) 2011-08-04 2016-08-31 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN108429883A (zh) * 2018-05-30 2018-08-21 Oppo(重庆)智能科技有限公司 拍摄装置、电子设备及图像获取方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006310999A (ja) * 2005-04-27 2006-11-09 Sony Corp 画像処理装置および方法、並びにプログラム
JP2007243917A (ja) * 2006-02-10 2007-09-20 Nikon Corp 撮像装置および画像処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4305598B2 (ja) 2000-06-05 2009-07-29 富士フイルム株式会社 カメラの絞り制御方法及び装置、並びにカメラ
US7460178B2 (en) * 2004-05-14 2008-12-02 Sony Corporation Image processing apparatus and image processing method
JP2005326690A (ja) * 2004-05-14 2005-11-24 Sony Corp 画像処理装置及び画像処理方法
US8477210B2 (en) * 2008-11-21 2013-07-02 Mitsubishi Electric Corporation Image processing device and image processing method
US8687859B2 (en) * 2009-10-14 2014-04-01 Carestream Health, Inc. Method for identifying a tooth region

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006310999A (ja) * 2005-04-27 2006-11-09 Sony Corp 画像処理装置および方法、並びにプログラム
JP2007243917A (ja) * 2006-02-10 2007-09-20 Nikon Corp 撮像装置および画像処理プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015111237A1 (ja) * 2014-01-24 2015-07-30 株式会社東芝 画像処理システム、画像処理方法及び画像処理プログラム
JP2015138519A (ja) * 2014-01-24 2015-07-30 株式会社東芝 画像処理システム、画像処理方法及び画像処理プログラム
WO2018061508A1 (ja) * 2016-09-28 2018-04-05 ソニー株式会社 撮像素子、画像処理装置、および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
CN104106259A (zh) 2014-10-15
RU2014131903A (ru) 2016-02-20
US9240065B2 (en) 2016-01-19
EP2814238A1 (en) 2014-12-17
JPWO2013118364A1 (ja) 2015-05-11
US20140341483A1 (en) 2014-11-20
CA2854280A1 (en) 2013-08-15
CN104106259B (zh) 2018-01-30

Similar Documents

Publication Publication Date Title
JP5694293B2 (ja) ビデオフレームの画像データを選択的に合成するためのシステムおよび方法
US8363123B2 (en) Image pickup apparatus, color noise reduction method, and color noise reduction program
JP5746296B2 (ja) ハイダイナミックレンジ動画撮影方法
US9392236B2 (en) Image processing method, image signal processor, and image processing system including the same
US20080260291A1 (en) Image downscaling by binning
JP5513978B2 (ja) 撮像装置、集積回路および画像処理方法
JP6086663B2 (ja) 画像処理装置、内視鏡装置及び孤立点ノイズ補正方法
JP2011146806A (ja) 画質評価装置、端末装置、画質評価システム、画質評価方法及びプログラム
US20080075354A1 (en) Removing singlet and couplet defects from images
CN103856720A (zh) 图像处理设备和方法
WO2013118364A1 (ja) 画像処理装置および画像処理方法
JP2017188760A (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
JP2012142827A (ja) 画像処理装置および画像処理方法
JP2014119997A (ja) 画像処理装置およびその制御方法
JP2015144339A (ja) 画像処理装置、画像処理方法およびプログラム
JP2013016896A (ja) 撮像装置、画像合成方法、及びコンピュータプログラム
US9277120B2 (en) Image capturing apparatus provided with a peaking function, control method therefor, and storage medium
JP2006049950A (ja) 動画像変換装置、動画像復元装置、および方法、並びにコンピュータ・プログラム
JP2015231052A (ja) 撮像装置および方法、並びにプログラム
JP2011124694A (ja) 画像処理装置と画像処理方式および撮像装置
JP5748513B2 (ja) 撮像装置
JP5919086B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2018067868A (ja) 撮像装置
JP6173027B2 (ja) 画像処理装置および画像処理方法
JP2010273147A (ja) 撮像信号特定状態検出装置、撮像装置、撮像信号特定状態検出方法、プログラムおよび集積回路

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12868308

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012868308

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2854280

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2013557368

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14373995

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014131903

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE