JP2017073613A - Image processing apparatus, imaging device, image processing method, program - Google Patents

Image processing apparatus, imaging device, image processing method, program Download PDF

Info

Publication number
JP2017073613A
JP2017073613A JP2015197906A JP2015197906A JP2017073613A JP 2017073613 A JP2017073613 A JP 2017073613A JP 2015197906 A JP2015197906 A JP 2015197906A JP 2015197906 A JP2015197906 A JP 2015197906A JP 2017073613 A JP2017073613 A JP 2017073613A
Authority
JP
Japan
Prior art keywords
image
filter
image processing
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015197906A
Other languages
Japanese (ja)
Other versions
JP6570406B2 (en
Inventor
宏典 海田
Hironori Kaida
宏典 海田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015197906A priority Critical patent/JP6570406B2/en
Publication of JP2017073613A publication Critical patent/JP2017073613A/en
Application granted granted Critical
Publication of JP6570406B2 publication Critical patent/JP6570406B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve image processing which includes filtering for improving the impact of bit rounding relying upon the feature of a subject.SOLUTION: An imaging device, to which an inventive image processing apparatus is applied, acquires the image data of a subject by an imaging unit 105, and performs various imaging processing, including the filtering, for the image data. A reference image determination unit 203 determines a reference image, when performing the filtering, by using the image of the subject. A filtering unit 204 acquires the reference pixel determination results 214, and performs filtering of an input image 211 by using a filter range assigned with a predetermined filter coefficient group. A synthesis unit 205 synthesizes multiple filtering results of bit shift operation or division carried out with multiple set values, with a synthesis ratio according to the number of reference pixels.SELECTED DRAWING: Figure 2

Description

本発明は、画像データのフィルタ処理を行う画像処理装置に関し、特に被写体の距離分布に関連する情報をマップデータとして取得する技術に関するものである。   The present invention relates to an image processing apparatus that performs filter processing of image data, and more particularly to a technique for acquiring information related to a distance distribution of a subject as map data.

撮像光学系の異なる瞳領域を通過した光束をそれぞれ受光して得られる瞳分割画像や、2眼での撮影により取得されたステレオペア画像の相関演算によって、距離マップを得る技術がある。特許文献1では、被写体の輪郭に対応する距離値を、撮影画像を用いて正しい輪郭に合わせる処理が開示されている。   There is a technique for obtaining a distance map by correlation calculation of pupil-divided images obtained by receiving light beams that have passed through different pupil regions of the imaging optical system and stereo pair images obtained by photographing with two eyes. Japanese Patent Application Laid-Open No. 2004-228561 discloses a process for matching a distance value corresponding to the contour of a subject to a correct contour using a captured image.

特開2014−150521号公報JP 2014-150521 A

特許文献1に開示された従来技術では、距離マップの整形処理時に被写体の特徴が似ている領域のみを参照画素としてフィルタ処理が行われる。つまりフィルタ処理で参照する画素数は、被写体の特徴に依存して変わる。整形した距離マップ信号を所定のビット数に抑えるためには、ビットシフトや除算などを行う必要がある。被写体の特徴によって、加算される信号値の数が異なるため、ビット丸めが大きい領域と小さい領域が点在してしまい、フィルタ処理後の画質が低下する可能性がある。
本発明の目的は、被写体の特徴に依存したビット丸めの影響を改善するフィルタ処理を含む画像処理を実現することである。
In the prior art disclosed in Patent Document 1, the filtering process is performed using only regions having similar subject characteristics during the distance map shaping process as reference pixels. That is, the number of pixels to be referred to in the filter process varies depending on the characteristics of the subject. In order to suppress the shaped distance map signal to a predetermined number of bits, it is necessary to perform bit shift or division. Since the number of signal values to be added differs depending on the characteristics of the subject, areas with large bit rounding and areas with small bit rounding may be scattered, and image quality after filtering may be degraded.
An object of the present invention is to realize image processing including filter processing for improving the influence of bit rounding depending on the characteristics of a subject.

本発明の一実施形態に係る画像処理装置は、被写体の画像を取得する取得手段と、前記取得手段により取得された前記画像に対して、フィルタ係数群が割り当てられたフィルタ範囲を用いてフィルタ処理を行うフィルタ手段と、前記フィルタ処理を行う際の参照画素を決定する決定手段と、前記フィルタ手段の出力に対してビットシフト演算または除算を行う演算手段と、前記演算手段が異なる設定量でそれぞれ演算を行った複数の前記フィルタ処理の結果を、前記決定手段により決定された参照画素の数に対応する合成比率で合成する合成手段を備える。   An image processing apparatus according to an embodiment of the present invention performs filtering using an acquisition unit that acquires an image of a subject, and a filter range in which a filter coefficient group is assigned to the image acquired by the acquisition unit. Filter means for determining, a determination means for determining a reference pixel when performing the filter processing, an arithmetic means for performing bit shift calculation or division on the output of the filter means, and the arithmetic means at different set amounts, respectively Combining means for synthesizing the results of the plurality of filtering processes that have undergone the calculation at a combining ratio corresponding to the number of reference pixels determined by the determining means is provided.

本発明によれば、被写体の特徴に依存したビット丸めの影響を改善するフィルタ処理を含む画像処理を実現できる。   According to the present invention, it is possible to realize image processing including filter processing that improves the influence of bit rounding depending on the characteristics of a subject.

本発明の実施形態に係るデジタルカメラの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the digital camera which concerns on embodiment of this invention. 本発明の第1実施形態に係る画像処理部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image process part which concerns on 1st Embodiment of this invention. 第1実施形態に係る処理のフローチャートである。It is a flowchart of the process which concerns on 1st Embodiment. 本発明の実施形態に係る距離マップ整形部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the distance map shaping part which concerns on embodiment of this invention. 本発明の実施形態に係る距離マップ合成処理を説明するための図である。It is a figure for demonstrating the distance map synthetic | combination process which concerns on embodiment of this invention. 本発明の第2実施形態に係る画像処理部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image process part which concerns on 2nd Embodiment of this invention. 第2実施形態に係る処理を示すフローチャートである。It is a flowchart which shows the process which concerns on 2nd Embodiment. 第2実施形態に係るフィルタ係数の分割について説明するための図である。It is a figure for demonstrating the division | segmentation of the filter coefficient which concerns on 2nd Embodiment. 第2実施形態に係る分割フィルタを距離画像に適用する際の対応関係の説明図である。It is explanatory drawing of the correspondence at the time of applying the division | segmentation filter which concerns on 2nd Embodiment to a distance image. 第2実施形態に係る分割フィルタ処理機能を示すブロック図である。It is a block diagram which shows the division | segmentation filter processing function which concerns on 2nd Embodiment.

以下、本発明の好適な実施形態について図面を参照して詳細に説明する。各実施形態では、本発明の画像処理装置の適用例としてデジタルカメラを説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings. In each embodiment, a digital camera will be described as an application example of the image processing apparatus of the present invention.

[第1実施形態]
図1は本発明の実施形態に係るデジタルカメラ100の機能構成を例示するブロック図である。図1の各構成部は、バス111を介して相互に信号を送受可能である。
システム制御部101はCPU(中央演算処理装置)を備える。システム制御部101は、デジタルカメラ100の各構成部の動作や処理を制御するプログラムをROM(リード・オンリ・メモリ)102から読み出し、RAM(ランダム・アクセス・メモリ)103に展開して実行する。ROM102は、データの書き換えが可能な不揮発性メモリであり、デジタルカメラ100の動作や処理を制御するプログラムの他に、各構成部の動作に必要なパラメータ等を記憶する。例えば、焦点検出等に必要な射出瞳距離等の情報がROM102に記憶されている。RAM103は、データの書き換えが可能な揮発性メモリであり、デジタルカメラ100の処理において出力されたデータの一時的な記憶領域として用いられる。
[First embodiment]
FIG. 1 is a block diagram illustrating the functional configuration of a digital camera 100 according to an embodiment of the invention. 1 can transmit and receive signals to and from each other via a bus 111.
The system control unit 101 includes a CPU (Central Processing Unit). The system control unit 101 reads a program for controlling the operation and processing of each component of the digital camera 100 from a ROM (Read Only Memory) 102, expands it in a RAM (Random Access Memory) 103, and executes it. The ROM 102 is a non-volatile memory in which data can be rewritten, and stores parameters necessary for the operation of each component in addition to a program for controlling the operation and processing of the digital camera 100. For example, information such as an exit pupil distance necessary for focus detection and the like is stored in the ROM 102. The RAM 103 is a volatile memory capable of rewriting data, and is used as a temporary storage area for data output in the processing of the digital camera 100.

撮像光学系104は、被写体からの光を撮像部105に結像する。撮像光学系104はレンズや絞りを備え、絞りは撮像光学系104の開口径を調節する。撮像部105は、CCD(電荷結合素子)センサやCMOS(相補型金属酸化膜半導体)センサ等の撮像素子を備える。撮像素子は、撮像光学系104により結像された光学像を光電変換し、得られたアナログ画像信号をA(アナログ)/D(デジタル)変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号に対してA/D変換処理を行い、デジタル画像データをRAM103に出力して記憶させる。   The imaging optical system 104 forms an image of light from the subject on the imaging unit 105. The imaging optical system 104 includes a lens and a diaphragm, and the diaphragm adjusts the aperture diameter of the imaging optical system 104. The imaging unit 105 includes an imaging element such as a CCD (charge coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor. The imaging element photoelectrically converts the optical image formed by the imaging optical system 104 and outputs the obtained analog image signal to the A (analog) / D (digital) conversion unit 106. The A / D converter 106 performs A / D conversion processing on the input analog image signal, and outputs the digital image data to the RAM 103 for storage.

画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、縮小/拡大、フィルタリング等の処理を行う。記録媒体108は着脱可能なメモリカード等であり、RAM103に記憶されている画像処理部107で処理された画像やA/D変換部106によりA/D変換された画像等のデータが、記録画像データとして記録される。表示部109はLCD(液晶表示ディスプレイ)等の表示デバイスを備える。表示部109は撮像部105により取得された撮像データに基づいて被写体像をスルー表示する等、様々な情報を表示する。   The image processing unit 107 performs processes such as white balance adjustment, color interpolation, reduction / enlargement, and filtering on the image data stored in the RAM 103. The recording medium 108 is a removable memory card or the like, and data such as an image processed by the image processing unit 107 and an image A / D converted by the A / D conversion unit 106 stored in the RAM 103 are recorded images. Recorded as data. The display unit 109 includes a display device such as an LCD (Liquid Crystal Display). The display unit 109 displays various information such as through display of the subject image based on the imaging data acquired by the imaging unit 105.

距離マップ取得部110は所定の検出方法で被写体の距離情報を取得する距離センサモジュールである。例えば距離マップ取得部110は、「Time of Flight(TOF)」法等で被写体の距離分布に関連する情報を取得する。TOF法では、光源からの出射光が対象物で反射し、検出部が受光するまでの時間と光速度に基づいて被写体までの距離情報が取得される。距離マップ取得部110は、所定の解像度の距離マップデータをデジタルデータとしてRAM103に出力して記憶させる。   The distance map acquisition unit 110 is a distance sensor module that acquires object distance information by a predetermined detection method. For example, the distance map acquisition unit 110 acquires information related to the distance distribution of the subject by the “Time of Flight (TOF)” method or the like. In the TOF method, the light emitted from the light source is reflected by the object, and the distance information to the subject is acquired based on the time and light speed until the detection unit receives the light. The distance map acquisition unit 110 outputs distance map data having a predetermined resolution to the RAM 103 as digital data and stores it.

図2は、図1の画像処理部107の構成を説明するための図である。
図2(A)に示す現像部201は、撮影画像入力210として入力されるA/D変換後のデジタル画像データに対して、ホワイトバランス調整や色補間等から成る現像処理を行い、現像画像212を生成する。この現像画像212は距離マップ整形部200に入力され、距離マップの整形用画像として用いられる。
FIG. 2 is a diagram for explaining the configuration of the image processing unit 107 in FIG.
The developing unit 201 illustrated in FIG. 2A performs development processing including white balance adjustment and color interpolation on the digital image data after A / D conversion input as the captured image input 210, and develops the image 212. Is generated. The developed image 212 is input to the distance map shaping unit 200 and used as a distance map shaping image.

図2(B)に示すように距離マップ整形部200は、画素値比較部202、参照画素判定部203、フィルタ処理部204、合成部205から構成される。
画素値比較部202は、距離マップ画像211の着目画素位置と周辺画素位置に対応する現像画像212(以下、整形用画像という)の画素値を比較し、比較結果213を出力する。参照画素判定部203は、比較結果213を所定の閾値で判定し、参照画素位置とするか否かを示す参照画素判定結果214を出力する。例えば参照画素判定結果214は2値のデータであり、比較結果213が閾値以下であるか否かに応じて「1」または「0」のいずれかの値をとる。画素位置に対応する判定値「1」は参照画素として決定されたことを意味し、判定値「0」は参照画素として決定されなかったことを意味する。
As shown in FIG. 2B, the distance map shaping unit 200 includes a pixel value comparison unit 202, a reference pixel determination unit 203, a filter processing unit 204, and a synthesis unit 205.
The pixel value comparison unit 202 compares the pixel values of the developed image 212 (hereinafter referred to as a shaping image) corresponding to the target pixel position of the distance map image 211 and the peripheral pixel position, and outputs a comparison result 213. The reference pixel determination unit 203 determines the comparison result 213 with a predetermined threshold value, and outputs a reference pixel determination result 214 indicating whether or not the reference pixel position is set. For example, the reference pixel determination result 214 is binary data, and takes a value of “1” or “0” depending on whether the comparison result 213 is equal to or less than a threshold value. The determination value “1” corresponding to the pixel position means that it has been determined as a reference pixel, and the determination value “0” means that it has not been determined as a reference pixel.

フィルタ処理部204は、参照画素判定結果214に基づき、距離マップ画像211に対するバイラテラルフィルタ処理を行う。フィルタ処理部204は、フィルタ処理時にビットシフト演算を行い、ビットシフト量が異なる複数のフィルタ処理結果215を出力する。合成部205は、ビットシフト量が異なるフィルタ処理結果215を合成し、合成後の出力を合成距離マップ画像216として出力する。
基本的な整形処理では、着目画素位置pのフィルタ処理結果(Jpと記す)が、以下の式(1)で表される。
Jp=(1/Kp)ΣI1q・f(|p−q|)・g(|I2p−I2q|) ・・・(1)
The filter processing unit 204 performs bilateral filter processing on the distance map image 211 based on the reference pixel determination result 214. The filter processing unit 204 performs a bit shift operation at the time of filter processing, and outputs a plurality of filter processing results 215 having different bit shift amounts. The combining unit 205 combines the filter processing results 215 having different bit shift amounts, and outputs the combined output as a combined distance map image 216.
In the basic shaping process, the filter processing result (denoted as Jp) at the target pixel position p is expressed by the following equation (1).
Jp = (1 / Kp) ΣI1q · f (| p−q |) · g (| I2p−I2q |) (1)

式(1)中の各記号の意味は以下のとおりである。
q :周辺画素位置
Ω :着目画素位置pを中心とする積算対象領域
Σ :q∈Ω範囲の積算
I1q:周辺画素位置qにおける距離マップ信号値
f(|p−q|):着目画素位置pを中心とするガウシアン関数
I2p :着目画素位置pでの整形用画像の画素値
I2q :周辺画素位置qでの整形用画像の画素値
g(|I2p−I2q|):整形用画像の画素値I2pを中心とするガウシアン関数
Kp :正規化係数であり、f・g重みの積算値。
The meaning of each symbol in Formula (1) is as follows.
q: peripheral pixel position Ω: integration target area centered on the target pixel position p Σ: integration in the q∈Ω range I1q: distance map signal value at the peripheral pixel position q f (| p−q |): target pixel position p Gaussian function centered at I2p: pixel value of the shaping image at the target pixel position p I2q: pixel value of the shaping image at the peripheral pixel position q g (| I2p−I2q |): pixel value I2p of the shaping image Gaussian function centered on Kp: normalization coefficient, integrated value of f · g weights.

着目画素位置pのI2pと周辺画素位置qのI2qとの差が小さいとき、つまり整形用画像において着目画素と周辺画素の画素値が近いときに、その周辺画素のf・g重みは大きくなる。本実施形態では回路規模を顧みて、関数f、gはガウシアン関数ではなく、所定の画素範囲の重み付け係数を均一にする関数とする。したがって|p−q|、|I2p−I2q|が所定の範囲のときの画素値(画素情報)を単純に加算する関数に置き換えることができる。例えば、関数fおよびgは下記式で表される。
f=α(|p−q|< th1)、f=0(|p−q|>= th1)・・・(2)
g=β(|I2p−I2q|< th2)、g=0(|I2p−I2q|>= th2)・・・(3)
式(2)のαと、式(3)のβはそれぞれ定数を表し、式(2)のth1と、式(3)のth2はそれぞれ閾値を表す。本実施形態では、α=1、β=1とする。
When the difference between I2p at the target pixel position p and I2q at the peripheral pixel position q is small, that is, when the pixel values of the target pixel and the peripheral pixel are close in the shaping image, the f · g weight of the peripheral pixel increases. In the present embodiment, taking into account the circuit scale, the functions f and g are not Gaussian functions but functions that make the weighting coefficients in a predetermined pixel range uniform. Accordingly, a function that simply adds pixel values (pixel information) when | p−q | and | I2p−I2q | For example, the functions f and g are expressed by the following equations.
f = α (| pq | <th1), f = 0 (| pq |> = th1) (2)
g = β (| I2p−I2q | <th2), g = 0 (| I2p−I2q |> = th2) (3)
Α in Equation (2) and β in Equation (3) each represent a constant, and th1 in Equation (2) and th2 in Equation (3) each represent a threshold value. In this embodiment, α = 1 and β = 1.

次に、図3のフローチャートを参照してデジタルカメラ100の全体処理について説明する。図3の処理は、システム制御部101のCPUが制御プログラムをメモリから読み出して実行することにより実現される。例えばデジタルカメラ100にて撮影の指示がなされた際に処理が開始される。   Next, the overall processing of the digital camera 100 will be described with reference to the flowchart of FIG. The processing in FIG. 3 is realized by the CPU of the system control unit 101 reading out the control program from the memory and executing it. For example, the processing is started when an instruction to shoot is given by the digital camera 100.

図3のS301で撮像部105は撮像を行い、距離マップの整形用画像を取得する。次にS302で距離マップ取得部110は、整形用画像に対応する距離マップ画像を取得する。S303でフィルタ処理部204は、S302で取得された距離マップ画像に対し、整形用画像の画素情報を用いて式(1)のフィルタ処理を実行し、距離マップ画像の整形処理が行われる。フィルタ処理後の出力結果に関しては、フィルタのタップ数(参照画素範囲)が大きくなるほど、フィルタ処理後の出力値を格納するビット数が膨大になってしまう。そのため、出力信号が格納し得るビット数に収まるように、式(1)のフィルタ処理結果の分子に対して、所定の設定量でのビットシフト演算または除算が行われる。例えば、ビットシフト演算の場合に第1の設定量を「ビットシフト量A」と記す。   In S301 of FIG. 3, the imaging unit 105 performs imaging and acquires a distance map shaping image. Next, in S302, the distance map acquisition unit 110 acquires a distance map image corresponding to the shaping image. In S303, the filter processing unit 204 performs the filtering process of Expression (1) on the distance map image acquired in S302 using the pixel information of the shaping image, and the shaping process of the distance map image is performed. Regarding the output result after the filter processing, the number of bits for storing the output value after the filter processing becomes enormous as the number of filter taps (reference pixel range) increases. Therefore, a bit shift operation or division by a predetermined set amount is performed on the numerator of the filter processing result of Expression (1) so that the output signal fits in the storable bit number. For example, in the case of bit shift calculation, the first set amount is described as “bit shift amount A”.

S304では、S303と同様に距離マップ画像の整形処理が行われる。ただし、S304の整形処理では、ビットシフト量Aよりも小さなビットシフト量Bを設定して整形処理が行われる。ビットシフト量Bはビットシフト演算における第2の設定量である。次のS305で合成部205は、S303およびS304の各出力である整形処理後の距離マップ画像の合成処理を行う。合成処理では、S304の整形処理時の参照画素数を記録するマップ(参照画素数マップ)を用いて、2つの整形処理後の距離マップ画像を合成する割合(合成比率)が決定される。
以上のように、複数のビットシフト量を設定して整形処理を施した距離マップを合成する処理が実行される。
In S304, a distance map image shaping process is performed as in S303. However, in the shaping process of S304, the shaping process is performed by setting a bit shift amount B smaller than the bit shift amount A. The bit shift amount B is a second set amount in the bit shift calculation. In next step S305, the synthesizing unit 205 performs a synthesizing process of the distance map image after the shaping process, which is each output of S303 and S304. In the combining process, a ratio (compositing ratio) for combining two distance map images after the shaping process is determined using a map (reference pixel number map) that records the number of reference pixels at the time of the shaping process in S304.
As described above, the process of synthesizing the distance map that has been subjected to the shaping process by setting a plurality of bit shift amounts is executed.

次に、本実施形態で重要となる各処理を説明する。まず、整形処理について説明する。図4は、図2の距離マップ整形部200の動作を説明するための図である。図4(A−1)および(B−1)では、紙面内において左右方向をx方向とし、右方向を+x方向と定義する。また紙面内においてx方向に直交する上下方向をy方向とし、上方向を+y方向と定義する。   Next, each process important in the present embodiment will be described. First, the shaping process will be described. FIG. 4 is a diagram for explaining the operation of the distance map shaping unit 200 of FIG. 4A-1 and 4B-1, the left-right direction is defined as the x direction and the right direction is defined as the + x direction in the drawing. In the drawing, the vertical direction perpendicular to the x direction is defined as the y direction, and the upward direction is defined as the + y direction.

図4(A−1)は整形用画像401を例示し、被写体は画面右の人物と背景である。図4(A−2)は、図4(A−1)にて一点鎖線402に示す位置での断面における画素値プロファイル403を表わしている。横軸はx座標を表し、縦軸は画素値を表す。画素値プロファイル403の形状は、x座標の増加方向においてxsの位置で大きく変化(低下)するステップ形状である。画素値プロファイル403は人物の輪郭部でシャープなエッジを保っている。   FIG. 4A-1 illustrates the shaping image 401, and the subject is a person on the right side of the screen and a background. FIG. 4A-2 illustrates a pixel value profile 403 in a cross section at the position indicated by the alternate long and short dash line 402 in FIG. The horizontal axis represents the x coordinate, and the vertical axis represents the pixel value. The shape of the pixel value profile 403 is a step shape that greatly changes (decreases) at the position of xs in the increasing direction of the x coordinate. The pixel value profile 403 maintains a sharp edge at the contour of the person.

図4(B−1)は距離マップ404を例示する。図4(B−1)において点線で示す部分は、図4(A−1)に示した整形用画像401における人物の輪郭を表している。図4(B−2)は、図4(A−2)にて一点鎖線405で示す位置(図4(A−1)に一点鎖線402で示す位置に対応する)での断面における距離値プロファイル406を実線で表わしている。横軸はx座標を表し、縦軸は距離値を表す。距離値については、カメラの位置から遠くにある背景の距離値が小さく、近くに位置する人物の距離値が大きいものとする。図4(B−1)の場合、距離マップの人物の輪郭が、正解である整形用画像の人物の輪郭(点線参照)より外側にはみ出している。図4(B−2)に実線で示す距離値プロファイル406の形状は、x座標の増加方向においてxsよりも小さいxaの位置で大きく変化(増加)するステップ形状である。   FIG. 4B-1 illustrates the distance map 404. A portion indicated by a dotted line in FIG. 4B-1 represents an outline of a person in the shaping image 401 illustrated in FIG. 4B-2 is a distance value profile in a cross section at the position indicated by the alternate long and short dash line 405 in FIG. 4A-2 (corresponding to the position indicated by the alternate long and short dash line 402 in FIG. 4A-1). 406 is represented by a solid line. The horizontal axis represents the x coordinate, and the vertical axis represents the distance value. As for the distance value, it is assumed that the distance value of the background far from the camera position is small and the distance value of the person located nearby is large. In the case of FIG. 4 (B-1), the outline of the person in the distance map protrudes outside the outline of the person in the shaping image that is the correct answer (see the dotted line). The shape of the distance value profile 406 indicated by a solid line in FIG. 4B-2 is a step shape that greatly changes (increases) at a position xa smaller than xs in the increasing direction of the x coordinate.

式(1)における着目画素位置pを、黒点408、410、412、414でそれぞれ示す。線分409、411、413、415は式(1)のg値が大きい領域、つまり平滑化の範囲を示している。整形用画像の画素値プロファイル403は、人物の輪郭に対応する位置xsで急峻に変化している。このため、人物の輪郭近傍の着目画素位置を示す黒点410および412の位置では、平滑化の範囲がそれぞれ線分411および413のようになり、正解である整形用画像の人物輪郭に沿うようになる。その結果、式(1)に示すフィルタ結果Jpの値をプロットすると点線で示すグラフ線407となる。グラフ線407の形状は、x座標の増加方向においてxsの位置で大きく変化(増加)するステップ形状である。つまり、距離マップの整形処理によって、距離マップの人物輪郭が正しい輪郭(整形用画像の人物輪郭)に合うことになる。   The target pixel position p in Expression (1) is indicated by black points 408, 410, 412, and 414, respectively. Line segments 409, 411, 413, and 415 indicate regions where the g value of Equation (1) is large, that is, the smoothing range. The pixel value profile 403 of the shaping image changes sharply at a position xs corresponding to the contour of the person. For this reason, at the positions of the black dots 410 and 412 indicating the pixel positions of interest in the vicinity of the contour of the person, the smoothing ranges become line segments 411 and 413, respectively, so as to follow the person contour of the correct shaping image. Become. As a result, when the value of the filter result Jp shown in Expression (1) is plotted, a graph line 407 indicated by a dotted line is obtained. The shape of the graph line 407 is a step shape that greatly changes (increases) at the position of xs in the increasing direction of the x coordinate. That is, by the distance map shaping process, the person contour of the distance map matches the correct contour (the person contour of the shaping image).

次に、図3のS303、S304に示す整形処理に用いるビットシフト量AおよびBについて説明する。本実施形態では、式(1)に対して、式(2)、(3)を設定している。さらに、距離マップ画像の着目画素位置pと参照画素位置における距離重み、距離マップ画像の画素値による重みを一定値α、βとする(例えばα=β=1)。また、距離情報を画像データとして保持する距離マップ画像では、被写体のコントラスト、被写体の明るさ、被写体のオクルージョンや、カメラの撮影時の設定によって距離情報の分解能が低下する場合や、正しい距離情報を取得できない場合がある。そこで距離情報が正しく出力されているかどうかの信頼度(以下、h(q)と記す)を新たに設定し、式(1)に追加するパラメータとする。これにより、正しい距離情報を保持する参照画素位置の距離情報を用いた整形処理を行うことができる。   Next, the bit shift amounts A and B used for the shaping process shown in S303 and S304 of FIG. 3 will be described. In the present embodiment, equations (2) and (3) are set for equation (1). Further, distance weights at the target pixel position p and the reference pixel position of the distance map image and weights based on the pixel values of the distance map image are set to constant values α and β (for example, α = β = 1). In the distance map image that holds the distance information as image data, if the resolution of the distance information decreases due to the contrast of the subject, the brightness of the subject, the occlusion of the subject, or the settings when shooting with the camera, the correct distance information is displayed. You may not be able to get it. Therefore, the reliability (hereinafter referred to as h (q)) as to whether the distance information is correctly output is newly set as a parameter to be added to the equation (1). Thereby, the shaping process using the distance information of the reference pixel position holding the correct distance information can be performed.

第1および第2の画像を用いて距離情報を取得するDFD(Depth From Defocus)法における信頼度について説明する。第1の画像は、被写体に合焦しているフォーカス画像であり、第2の画像は、フォーカス画像とは被写体像の暈け方が異なるデフォーカス画像である。DFD法では、フォーカス画像の暈け量とデフォーカス画像の暈け量を用いて距離情報が算出される。そのため、フォーカス画像とデフォーカス画像とで被写体像の暈けの違いが検出できない領域では正しい距離情報を算出できない。つまり、このような領域は、距離情報の信頼度が低い領域となる。信頼度は、暈けの違いの検出しやすさを表す指標であり、対象領域における画素の輝度値や彩度値、色相、対象領域の周波数特性などに基づいて判断することができる。具体的には、以下の領域が信頼度の低い領域であると判断される。
例1:領域内の画素が持つ輝度値の平均値が、所定の範囲から外れている場合。
例2:領域内の画素が持つ輝度値の変化量が所定の閾値より大きい場合。
例3:領域内の空間周波数が所定の閾値より低い場合。
The reliability in the DFD (Depth From Defocus) method for acquiring distance information using the first and second images will be described. The first image is a focus image that is focused on the subject, and the second image is a defocus image that differs from the focus image in how the subject image is blurred. In the DFD method, distance information is calculated using the blur amount of the focus image and the blur amount of the defocus image. For this reason, correct distance information cannot be calculated in a region where the difference in blur between the subject images cannot be detected between the focus image and the defocus image. That is, such a region is a region with low reliability of distance information. The reliability is an index representing the ease of detecting a difference in blur, and can be determined based on the luminance value, saturation value, hue, frequency characteristic of the target region, and the like in the target region. Specifically, the following areas are determined to be areas with low reliability.
Example 1: When the average value of the luminance values of the pixels in the area is out of the predetermined range.
Example 2: When the amount of change in luminance value of pixels in the area is greater than a predetermined threshold.
Example 3: When the spatial frequency in the region is lower than a predetermined threshold.

信頼度h(q)を決定するための評価基準には複数の基準を採用することができる。例示した以外の評価基準を用いてもよい。いずれにしても評価値を所定値(閾値)と比較することで信頼度h(q)の値を算出することができる。本実施形態の信頼度h(q)は、回路規模を顧みて信頼度における評価基準に対して「1」または「0」の二値で表現されるものとする。「1」は信頼できる距離情報であることを意味し、「0」は信頼できない距離情報であることを意味する。   A plurality of criteria can be adopted as the evaluation criteria for determining the reliability h (q). Evaluation criteria other than those exemplified may be used. In any case, the value of the reliability h (q) can be calculated by comparing the evaluation value with a predetermined value (threshold value). The reliability h (q) of the present embodiment is expressed as a binary value of “1” or “0” with respect to the evaluation criterion in reliability considering the circuit scale. “1” means reliable distance information, and “0” means unreliable distance information.

以上を考慮して、式(1)〜(3)は下記式(4)〜(6)に置換することができる。
*p= ΣI1q・f(|p−q|)・g(|I2p−I2q|)・h(q)
/Σf(|p−q|)・g(|I2p−I2q|) ・・・(4)
f=1(|p−q|< th1)、f=0(|p−q|>= th1)・・・(5)
g=1(|I2p−I2q|< th2)、g=0(|I2p−I2q|>= th2)・・・(6)
In consideration of the above, the formulas (1) to (3) can be replaced with the following formulas (4) to (6).
J * p = ΣI1q · f (| pq |) · g (| I2p−I2q |) · h (q)
/ Σf (| p−q |) · g (| I2p−I2q |) (4)
f = 1 (| pq | <th1), f = 0 (| pq |> = th1) (5)
g = 1 (| I2p−I2q | <th2), g = 0 (| I2p−I2q |> = th2) (6)

従って、J*pの分子は、Jpの分子にh(g)を乗算した式で表され、J*pの分母は、参照画素数の合計値に相当する。J*pの分子のビット数としては、入力画素の最大値・参照最大画素数の積の信号値を格納するために充分なビット数が必要となる。しかしながら、小型の装置の場合には、J*pの分子のビット数は限られる。つまり、限られたビット数でJ*pの演算処理を実現するためにビットシフト演算を行い、出力ビット数を制限する処理が行われる。ビットシフト演算を加味すると式(4)は下記式(7)のようになる。
**p=Σ{I1q・f(|p−q|)・g(|I2p−I2q|)>>ビットシフト量}
/{Σf{(|p−q|)・g(|I2p−I2q|)} >> ビットシフト量}・・(7)
Thus, molecules of J * p is represented by the formula obtained by multiplying the h (g) in the molecule of Jp, the denominator of J * p corresponds to the sum of the number of reference pixels. As the number of bits of the numerator of J * p, a sufficient number of bits is required to store the signal value of the product of the maximum value of input pixels and the maximum number of reference pixels. However, in the case of a small device, the number of bits of the numerator of J * p is limited. In other words, a bit shift operation is performed in order to realize the J * p operation processing with a limited number of bits, and processing for limiting the number of output bits is performed. Taking the bit shift operation into account, Equation (4) becomes Equation (7) below.
J ** p = Σ {I1q · f (| pq |) · g (| I2p−I2q |) >> bit shift amount}
/ {Σf {(| p−q |) · g (| I2p−I2q |)} >> bit shift amount} ·· (7)

ビットシフト量の計算を具体的に説明すると、例えば、フィルタのタップ数を63×63とし、距離マップ画像の入力信号値を8ビットとする。J**pの分子については14ビットを最大ビット数とする。つまり、6ビット分の右ビットシフトを行い、出力画素値を14ビットに抑える処理が行われる。「ビットシフト量A=入力信号ビット数(8ビット)+フィルタ最大参照画素数のビット数(63×63≒12ビット)− 出力信号ビット数(14ビット)=6ビット」によって、ビットシフト量Aが決まる。図3のS303のビットシフト量Aが設定される。 The calculation of the bit shift amount will be specifically described. For example, the number of taps of the filter is 63 × 63, and the input signal value of the distance map image is 8 bits. For the numerator of J ** p, the maximum number of bits is 14 bits. That is, a right bit shift for 6 bits is performed, and a process of suppressing the output pixel value to 14 bits is performed. “Bit shift amount A = number of input signal bits (8 bits) + bit number of maximum filter reference pixel number (63 × 63≈12 bits) −number of output signal bits (14 bits) = 6 bits” Is decided. The bit shift amount A in S303 of FIG. 3 is set.

逆に、ビットシフト量Aを用いて式(7)の整形処理を行った場合、参照画素数によっては、ビット丸めの影響が大きくなる可能性がある。例えば、参照画素が2画素しかない場合には、J**pの分子は、9ビット(入力信号ビット数(8ビット)+参照画素数のビット数(2画素=1ビット))で収まる信号値になる。9ビット=入力信号ビット数(8ビット)+参照画素数のビット数(2画素=1ビット)であるが、ビットシフト量Aを6ビットとした場合、分子の信号値は3ビットに信号に丸められてしまい、演算精度に影響を及ぼす可能性がある。そのため、参照画素数が所定の閾値よりも少ない場合には、ビット丸めの影響を小さくするために、ビットシフト量Aとは異なるビットシフト量Bが設定される。ビット丸めの影響を小さくするため、例えば、図3のS304のビットシフト量Bは2ビットに設定される。 On the contrary, when the shaping process of Expression (7) is performed using the bit shift amount A, the influence of bit rounding may be increased depending on the number of reference pixels. For example, when there are only two reference pixels, the numerator of J ** p is a signal that fits in 9 bits (input signal bit number (8 bits) + reference pixel bit number (2 pixels = 1 bit)). Value. 9 bits = number of input signal bits (8 bits) + number of bits of reference pixels (2 pixels = 1 bit), but when the bit shift amount A is 6 bits, the signal value of the numerator is converted to 3 bits. It may be rounded and affect the calculation accuracy. Therefore, when the number of reference pixels is less than a predetermined threshold, a bit shift amount B different from the bit shift amount A is set in order to reduce the influence of bit rounding. In order to reduce the influence of bit rounding, for example, the bit shift amount B in S304 of FIG. 3 is set to 2 bits.

次に、図5を参照して図3のS305の合成処理を説明する。図3のS303とS304においてそれぞれ異なるビットシフト量A,Bを用いて整形処理された距離マップを合成する処理が実行される。図5は、このときのビットシフト量B(図3:S304参照)での整形処理結果の合成割合を表している。横軸は、ある着目画素に対して式(7)のフィルタ処理を行ったときの、ビットシフト量Bでの整形処理時の参照画素数を示す。また、縦軸は、図3のS304での整形処理後の距離マップの合成割合を示している。合成後の距離マップは以下の式で表される。
合成後距離マップ=(1−c)・整形後距離マップ(ビットシフト量A)+ c・整形後距離マップ(ビットシフト量B) ・・・(8)
Next, the composition processing in S305 of FIG. 3 will be described with reference to FIG. In S303 and S304 in FIG. 3, a process of combining distance maps shaped using different bit shift amounts A and B is executed. FIG. 5 shows the composition ratio of the shaping processing result with the bit shift amount B (see FIG. 3: S304) at this time. The horizontal axis indicates the number of reference pixels at the time of the shaping process with the bit shift amount B when the filter process of Expression (7) is performed on a certain target pixel. In addition, the vertical axis indicates the composition ratio of the distance map after the shaping process in S304 of FIG. The combined distance map is expressed by the following formula.
Post-combination distance map = (1-c) · Post-shaping distance map (bit shift amount A) + c · Post-shaping distance map (bit shift amount B) (8)

式(8)中に示すcは、ビットシフト量Bを用いた整形処理後の距離マップの合成比率を表す。c値は、ビットシフト量Bでのフィルタ処理時における参照画素マップから算出される。   In the equation (8), “c” represents a composition ratio of the distance map after the shaping process using the bit shift amount B. The c value is calculated from the reference pixel map at the time of filter processing with the bit shift amount B.

図5に示すように、参照画素数が少ない領域501では合成比率の値が相対的に大きく設定され、ビット丸めの影響が小さいビットシフト量Aでの整形処理後の距離マップが出力される。他方、参照画素数が多い領域503では合成比率の値が相対的に小さく設定され、出力ビット数に抑えるためにビットシフト量Bでの整形処理後の距離マップが出力される。また、領域502は、2つの整形処理後の距離マップがブレンドされている領域であり、参照画素数の増加につれて合成比率の値が次第に小さくなる特性となっている。   As shown in FIG. 5, in the region 501 where the number of reference pixels is small, the value of the synthesis ratio is set to be relatively large, and a distance map after shaping processing with a bit shift amount A that is less affected by bit rounding is output. On the other hand, in the region 503 where the number of reference pixels is large, the value of the combination ratio is set to be relatively small, and a distance map after shaping processing with the bit shift amount B is output to suppress the number of output bits. An area 502 is an area where two distance maps after shaping processing are blended, and has a characteristic that the value of the composition ratio gradually decreases as the number of reference pixels increases.

領域502については、少なくともビットシフト量Bでの出力ビット数を超えない参照画素数(飽和画素数511)で設定する必要がある。すなわち領域502にて飽和画素数511を超えてしまった場合には、出力ビット数に達してしまうため、正しい距離マップを出力できなくなる可能性がある。飽和画素数511は、下記式(9)で計算できる。
飽和画素数=2^(ビットシフト量A − ビットシフト量B) -1・・・(9)
「^」は累乗を表す記号である。
本実施形態によれば、フィルタ処理時に参照画素数が少ない場合でも、ビット丸めの影響を改善し、良好な高解像度の距離マップを取得することができる。
The region 502 needs to be set with a reference pixel number (saturation pixel number 511) that does not exceed at least the number of output bits with the bit shift amount B. In other words, when the number of saturated pixels 511 is exceeded in the region 502, the number of output bits is reached, so that a correct distance map may not be output. The number of saturated pixels 511 can be calculated by the following equation (9).
Number of saturated pixels = 2 ^ (bit shift amount A−bit shift amount B) −1 (9)
“^” Is a symbol representing a power.
According to the present embodiment, even when the number of reference pixels is small at the time of filter processing, it is possible to improve the influence of bit rounding and obtain a good high-resolution distance map.

[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態では、低解像度の距離マップ画像の整形処理に用いるフィルタ処理を分割して行う。整形処理のフィルタタップ数(1度にフィルタをかける範囲)が大きくなると、フィルタ処理を行う参照領域に対応する画素データをメモリに格納する必要が生じる。フィルタタップ数が大きくなるほど、画像処理装置の回路規模が大きくなる。そこで本実施形態では、フィルタタップ数を分割し、フィルタ処理結果を統合することによって、回路規模の増加を抑えた整形処理を行う。
第1実施形態の場合と同じ構成要素である、図1のシステム制御部101、ROM102、RAM103、撮像光学系104、撮像部105、A/D変換部106、記録媒体108、表示部109については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, the filtering process used for the shaping process of the low-resolution distance map image is divided. When the number of filter taps in the shaping process (the range in which the filter is applied at a time) increases, it becomes necessary to store pixel data corresponding to the reference area for performing the filter process in the memory. As the number of filter taps increases, the circuit scale of the image processing apparatus increases. Therefore, in this embodiment, the shaping process is performed by suppressing the increase in circuit scale by dividing the number of filter taps and integrating the filter processing results.
Regarding the system control unit 101, the ROM 102, the RAM 103, the imaging optical system 104, the imaging unit 105, the A / D conversion unit 106, the recording medium 108, and the display unit 109 of FIG. 1, which are the same components as in the first embodiment. Description is omitted.

図1の画像処理部601は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、様々な画像処理を適用する。図6を参照して画像処理部601の構成を説明する。なお、現像部201、画素値比較部202、参照画素判定部203、合成部205と、撮影画像入力210、距離マップ画像211、現像画像212、比較結果213、参照画素判定結果214は第1実施形態にて図2で説明したとおりである。以下では相違点を中心に説明する。   The image processing unit 601 in FIG. 1 applies white balance adjustment, color interpolation, and various image processing to the image data stored in the RAM 103. The configuration of the image processing unit 601 will be described with reference to FIG. The developing unit 201, the pixel value comparing unit 202, the reference pixel determining unit 203, the synthesizing unit 205, the captured image input 210, the distance map image 211, the developed image 212, the comparison result 213, and the reference pixel determining result 214 are the first implementation. The form is as described in FIG. Below, it demonstrates centering around difference.

距離マップ整形部700は、分割フィルタ処理部701、フィルタ結果加算部702を備える。分割フィルタ処理部701は、整形処理で用いるフィルタタップ数を分割し、分割したフィルタタップで距離マップ画像211に畳み込み処理を行う。分割フィルタ処理部701は、複数の分割フィルタ処理結果711を出力する。このとき、異なるビットシフト量で分割フィルタ処理が実行される。フィルタ結果加算部702は、複数の分割フィルタ処理結果711を取得して合成し、分割フィルタ合成結果712を出力する。このとき、同じビットシフト量の分割フィルタ処理結果711同士を合成する処理が行われ、それぞれビットシフト量が異なる分割フィルタ合成結果が取得される。   The distance map shaping unit 700 includes a divided filter processing unit 701 and a filter result adding unit 702. The division filter processing unit 701 divides the number of filter taps used in the shaping process, and performs a convolution process on the distance map image 211 with the divided filter taps. The division filter processing unit 701 outputs a plurality of division filter processing results 711. At this time, the division filter processing is executed with different bit shift amounts. The filter result adding unit 702 acquires and synthesizes a plurality of divided filter processing results 711 and outputs a divided filter synthesis result 712. At this time, a process of combining the divided filter processing results 711 having the same bit shift amount is performed, and divided filter combined results having different bit shift amounts are obtained.

図7のフローチャートを参照して、本実施形態のデジタルカメラの全体処理について説明する。図7に示す処理は、システム制御部101の制御によって実現される。なお、図7のS301、S302の処理は、図3の各ステップと同じであるため、それらの説明を省略する。   With reference to the flowchart of FIG. 7, the overall processing of the digital camera of this embodiment will be described. The processing shown in FIG. 7 is realized by the control of the system control unit 101. Note that the processing of S301 and S302 in FIG. 7 is the same as each step in FIG.

S801にて、S302で取得した距離マップ画像に対し、整形用画像の画像データを用いて式(4)のフィルタ処理が実行され、距離マップ画像の整形処理が行われる。整形処理で用いるフィルタ係数については所定のタップ数になるように分割される。分割後のそれぞれのフィルタ係数を用いて処理が実行される。フィルタ係数と距離マップ画像の畳み込み処理を行う際、ビットシフト演算も同時に行われる(ビットシフト量をビットシフト量Aとする)。同時に各参照画素数マップが生成される。参照画素数マップとは、式(4)を分割フィルタで行ったときに参照した画素数をカウントしたデータからなるマップデータである。   In S801, the distance map image acquired in S302 is subjected to the filtering process of Expression (4) using the image data of the shaping image, and the shaping process of the distance map image is performed. The filter coefficient used in the shaping process is divided so as to have a predetermined number of taps. Processing is performed using each filter coefficient after division. When the convolution processing of the filter coefficient and the distance map image is performed, a bit shift operation is also performed at the same time (the bit shift amount is set as the bit shift amount A). At the same time, each reference pixel number map is generated. The reference pixel number map is map data including data obtained by counting the number of pixels referred to when Expression (4) is performed by the division filter.

S802で分割フィルタ処理部701は、式(4)のフィルタ処理に関し、フィルタタップ数を分割して実行する。このときのビットシフト量をビットシフト量Bとする。「ビットシフト量A > ビットシフト量B」の関係を満たすものとする。S803でフィルタ結果加算部702は、S801、S802のそれぞれで距離マップ画像の分割フィルタ処理を行った結果を合成する。合成結果はビットシフト量の異なる整形後の距離マップ画像である。またフィルタ結果加算部702は、ビットシフト量Bの各参照画素数マップを同様に合成し、積算参照画素数マップとして算出する。   In step S <b> 802, the divided filter processing unit 701 divides and executes the number of filter taps regarding the filter processing of Expression (4). The bit shift amount at this time is defined as a bit shift amount B. It is assumed that the relationship of “bit shift amount A> bit shift amount B” is satisfied. In step S803, the filter result addition unit 702 combines the results obtained by performing the division filter processing of the distance map image in steps S801 and S802. The composite result is a distance map image after shaping with different bit shift amounts. In addition, the filter result adding unit 702 similarly synthesizes the reference pixel number maps of the bit shift amount B, and calculates as an integrated reference pixel number map.

S804で合成部205は、S803で生成した積算参照画素数マップに応じて飽和参照画素数を決定し、飽和参照画素数以下となる範囲での合成比率を算出する閾値処理を行う。そして合成部205は積算参照画素数マップに応じてビットシフト量の異なる整形後の距離マップ画像を合成し、最終的な整形後の距離マップ画像を出力する。   In step S804, the synthesis unit 205 determines a saturation reference pixel number according to the integrated reference pixel number map generated in step S803, and performs threshold processing for calculating a synthesis ratio in a range that is equal to or less than the saturation reference pixel number. Then, the combining unit 205 combines the shaped distance map images with different bit shift amounts according to the integrated reference pixel number map, and outputs the final shaped distance map image.

以下、本実施形態で重要となる各処理について説明する。まず、図7のS801、S802で行うフィルタの分割処理について説明する。図8は、距離マップ画像に適用する2次元フィルタ処理に関するフィルタ係数の説明図である。フィルタの形状は正方形であり、フィルタタップ数は、(54タップ)×(54タップ)である。全体のフィルタ係数を分割したフィルタをf1、f2、…、f36で示す。各フィルタは、(9タップ)×(9タップ)であり、縦方向に6ブロック、横方向に6ブロックで配列することにより、(54タップ)×(54タップ)の全体のフィルタ係数が実現される。   Hereinafter, each process important in the present embodiment will be described. First, the filter dividing process performed in S801 and S802 of FIG. 7 will be described. FIG. 8 is an explanatory diagram of filter coefficients related to the two-dimensional filter processing applied to the distance map image. The shape of the filter is a square, and the number of filter taps is (54 taps) × (54 taps). Filters obtained by dividing the entire filter coefficient are denoted by f1, f2,..., F36. Each filter is (9 taps) × (9 taps). By arranging 6 blocks in the vertical direction and 6 blocks in the horizontal direction, an overall filter coefficient of (54 taps) × (54 taps) is realized. The

図9は、図8の2次元フィルタを距離マップ画像に適用する様子を説明するための図である。取得された距離マップ画像1001において、領域1002は(54タップ)×(54タップ)の2次元フィルタを適用した後の出力画像の領域である。   FIG. 9 is a diagram for explaining a state in which the two-dimensional filter of FIG. 8 is applied to the distance map image. In the acquired distance map image 1001, a region 1002 is a region of an output image after applying a (54 tap) × (54 tap) two-dimensional filter.

図10は、画像処理部601の構成を説明するための図である。図10(A)の2次元フィルタ回路1101は、(9タップ)×(9タップ)の2次元フィルタ処理を施す回路である。2次元フィルタ回路1101への入力は、2次元フィルタ係数入力1103と、画像入力1104であり、出力は2次元フィルタ出力1105である。2次元フィルタ回路1101は位置ずらし部1101aと2次元コンボリューション処理部1101bを有する。2次元フィルタ回路1101は、画像入力1104から取得される入力画像の所望の領域を読み出し、2次元コンボリューション処理を施す。つまり、位置ずらし部1101aは画像入力1104からの画像データに対して位置ずらし処理を実行し、処理後の画像データを2次元コンボリューション処理部1101bに出力する。2次元コンボリューション処理部1101bは、2次元フィルタ係数入力1103からの係数値のデータを取得して、入力画像に係る特定領域内のデータに対して2次元コンボリューション処理を行う。   FIG. 10 is a diagram for explaining the configuration of the image processing unit 601. A two-dimensional filter circuit 1101 in FIG. 10A is a circuit that performs a two-dimensional filter process of (9 taps) × (9 taps). The input to the two-dimensional filter circuit 1101 is a two-dimensional filter coefficient input 1103 and an image input 1104, and the output is a two-dimensional filter output 1105. The two-dimensional filter circuit 1101 includes a position shifting unit 1101a and a two-dimensional convolution processing unit 1101b. The two-dimensional filter circuit 1101 reads a desired area of the input image acquired from the image input 1104 and performs a two-dimensional convolution process. That is, the position shifting unit 1101a executes position shifting processing on the image data from the image input 1104, and outputs the processed image data to the two-dimensional convolution processing unit 1101b. The two-dimensional convolution processing unit 1101b acquires coefficient value data from the two-dimensional filter coefficient input 1103, and performs two-dimensional convolution processing on the data in the specific area related to the input image.

まず2次元フィルタ回路1101は、図8のフィルタ係数f1を入力画像に適用する。その際、入力画像の領域1003(図9)を部分的に読み出してフィルタ処理を適用することで、中間画像1が生成される。同様に図8のフィルタ係数f2で領域1004をフィルタ処理することで中間画像2が生成される。このときのフィルタ処理では式(7)がそれぞれの中間画像に対して適用される。同時に、正規化処理を行うための、それぞれの中間画像に対する参照画素数マップも出力される。以下、同様にして図9のフィルタ係数f3〜f36についてもフィルタ処理が行われる。   First, the two-dimensional filter circuit 1101 applies the filter coefficient f1 of FIG. 8 to the input image. At this time, the intermediate image 1 is generated by partially reading out the region 1003 (FIG. 9) of the input image and applying the filtering process. Similarly, the intermediate image 2 is generated by filtering the region 1004 with the filter coefficient f2 of FIG. In the filter processing at this time, Expression (7) is applied to each intermediate image. At the same time, a reference pixel number map for each intermediate image for normalization processing is also output. Thereafter, the filter processing is similarly performed for the filter coefficients f3 to f36 in FIG.

フィルタ係数f1〜f36のそれぞれの分割フィルタ処理時には、同じビットシフト量を適用する。ビットシフト量の決定方法については、例えば、それぞれの中間画像を後の処理で加算した時に出力の最大ビット数を超えないビットシフト量Aが設定される。具体的には、「ビットシフト量A=入力信号ビット数(8ビット)+フィルタ最大参照画素数のビット数(9×9≒7ビット)+中間画像の数(6×6≒6ビット)− 出力信号ビット数(14ビット) =7ビット」である。また、ビット丸めの影響を防ぐためにビットシフト量Aよりも小さいビットシフト量Bが設定される。   The same bit shift amount is applied during the division filter processing of the filter coefficients f1 to f36. As a method for determining the bit shift amount, for example, a bit shift amount A that does not exceed the maximum number of output bits when the intermediate images are added in the subsequent processing is set. Specifically, “bit shift amount A = number of input signal bits (8 bits) + bit number of maximum filter reference pixel number (9 × 9≈7 bits) + number of intermediate images (6 × 6≈6 bits) − The number of output signal bits (14 bits) = 7 bits ”. Further, a bit shift amount B smaller than the bit shift amount A is set to prevent the influence of bit rounding.

図10(B)を参照して、図7のS803の処理について説明する。画像加算回路1106には、画像入力1107、1108から中間画像1、中間画像2がそれぞれ入力される。画像加算回路1106は積算画像2を生成し、画像出力1109として出力する。同様にして画像加算回路1106は中間画像3〜36までを積算し、全ての中間画像を積算する。このとき、図7のS802で出力された参照画素数マップのそれぞれの中間画像についても積算が行われ、積算参照画素数マップが算出される。   With reference to FIG. 10B, the processing of S803 in FIG. 7 will be described. The image addition circuit 1106 receives the intermediate image 1 and the intermediate image 2 from the image inputs 1107 and 1108, respectively. The image addition circuit 1106 generates the accumulated image 2 and outputs it as an image output 1109. Similarly, the image addition circuit 1106 accumulates the intermediate images 3 to 36 and accumulates all the intermediate images. At this time, integration is also performed for each intermediate image of the reference pixel number map output in S802 of FIG. 7, and an integrated reference pixel number map is calculated.

本実施形態によれば、所定のフィルタ係数群を割り当てられたフィルタ範囲を、より小さい範囲(サブフィルタ範囲)に分割し、分割フィルタ処理の結果を統合することにより、回路規模の増加を抑えた整形処理を実現できる。   According to the present embodiment, the filter range to which the predetermined filter coefficient group is assigned is divided into smaller ranges (sub-filter ranges), and the results of the divided filter processing are integrated, thereby suppressing an increase in circuit scale. A shaping process can be realized.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
[変形実施形態]
第1実施形態、第2実施形態ではフィルタの形状を正方形としたが、円柱の形状に適用してもよい。その際のビットシフト量Aに関して、正方形の場合の参照画素数を最大のフィルタ参照画素数に設定する。フィルタ係数を一律に1とせずに距離ごとに重み付け係数を変更する場合でも、ビットシフト量Aを求める場合には一律の係数として設定される。
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
[Modified Embodiment]
In the first embodiment and the second embodiment, the filter has a square shape, but may be applied to a cylindrical shape. Regarding the bit shift amount A at that time, the number of reference pixels in the case of a square is set to the maximum number of filter reference pixels. Even when the weighting coefficient is changed for each distance without uniformly setting the filter coefficient to 1, when the bit shift amount A is obtained, it is set as a uniform coefficient.

また、第1実施形態、第2実施形態では、ビットシフト量A,Bによる各整形後の距離マップ画像に対して、ビットシフト量Bで整形フィルタ処理を行った参照画素数に応じて合成処理が実行された。これに限らず、ビットシフト量Aの参照画素数に応じて合成処理を実行してもよい。   In the first embodiment and the second embodiment, the synthesis process is performed according to the number of reference pixels subjected to the shaping filter processing with the bit shift amount B for the distance map images after shaping with the bit shift amounts A and B. Was executed. However, the synthesis process may be executed according to the number of reference pixels of the bit shift amount A.

第1実施形態、第2実施形態では、距離マップ画像の整形処理を例示して説明したが、一般的な画像に対するフィルタ処理として実施することが可能である。その場合には、距離情報の信頼度であるh(q)を除いた式でフィルタ処理が実行される。つまり、下記式(10)に示すように、被写体の画像における着目画素と周辺画素との信号値の差によって、フィルタ処理で参照する画素位置を決定する処理が行われる。
*p= ΣI1q・f(|p−q|)・g(|I2p−I2q|)
/Σf(|p−q|)・g(|I2p−I2q|)・・・(10)
In the first embodiment and the second embodiment, the shaping process of the distance map image has been described as an example, but it can be implemented as a filter process for a general image. In that case, the filtering process is executed by an expression excluding h (q) which is the reliability of the distance information. That is, as shown in the following equation (10), a process of determining a pixel position to be referred to in the filter process is performed based on a difference in signal value between a target pixel and a peripheral pixel in the subject image.
J * p = ΣI1q · f (| pq |) · g (| I2p−I2q |)
/ Σf (| p−q |) · g (| I2p−I2q |) (10)

第1実施形態、第2実施形態では、整形処理に用いるビット深度変更の方法としてビットシフト量を設定し、ビットシフト演算を行うことで出力ビット数に抑える処理を行った。ビットシフトに代えて除算処理を行うことも可能である。除算処理を用いることで飽和画素数をより正確に算出することができ、整形後の距離マップの合成比率を算出する時に精度を高めることができる。ビットシフト量Aとビットシフト量Bの代わりに除算量Aと除算量Bを用いて、飽和画素数は、例えば下記式により計算可能である。
除算量A=入力信号最大値×フィルタ最大参照画素数×フィルタ分割数(中間画像の数)− 出力信号最大値 ・・・(11)
飽和画素数=除算量A / 除算量B ・・・(12)
各フィルタ処理時には除算量A,除算量Bによる除算処理が実行される。除算量Bについては参照画素数が少ない場合の影響が小さくなる値に設定される。
In the first and second embodiments, the bit shift amount is set as a method of changing the bit depth used for the shaping process, and the process of suppressing the number of output bits by performing the bit shift operation is performed. It is also possible to perform division processing instead of bit shift. By using the division process, the number of saturated pixels can be calculated more accurately, and the accuracy can be increased when calculating the composite ratio of the distance map after shaping. Using the division amount A and the division amount B instead of the bit shift amount A and the bit shift amount B, the number of saturated pixels can be calculated by the following equation, for example.
Division amount A = maximum input signal value × number of maximum filter reference pixels × number of filter divisions (number of intermediate images) −maximum output signal value (11)
Number of saturated pixels = divided amount A / divided amount B (12)
During each filter process, a division process using the division amount A and the division amount B is executed. The division amount B is set to a value that is less affected when the number of reference pixels is small.

本発明は、被写体の距離分布に関する情報としてデフォーカスマップデータを算出して使用する実施形態や、デフォーカス量を被写体距離(被写体の奥行き方向の距離)に換算した距離マップデータを使用する実施形態での適用が可能である。つまり、被写体の距離分布に関連するデータが示す情報(距離情報)は、画像内における被写体の距離値を直接的に表し、または距離値に対応する情報を間接的に表している。   The present invention uses an embodiment in which defocus map data is calculated and used as information related to the distance distribution of the subject, and an embodiment in which distance map data in which the defocus amount is converted into the subject distance (distance in the depth direction of the subject) is used. Can be applied. That is, information (distance information) indicated by data related to the distance distribution of the subject directly represents the distance value of the subject in the image or indirectly represents information corresponding to the distance value.

また視差測距方式への適用例では、異なる撮像条件で取得された視差画像に基づいて距離情報を算出する処理が実行される。具体的には、撮像部105の撮像素子は瞳分割型の撮像素子であり、二次元アレイ状に規則的な配列で配置された複数の画素部を有する。1つの画素部はマイクロレンズと、複数の光電変換部とから構成される。撮像光学系104の異なる瞳領域を通過する一対の光束を光学像としてそれぞれ結像させて、対をなす画像データを複数の光電変換部から出力することができる。対をなす画像間の相関演算によってデフォーカス量が算出され、デフォーカス量の分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップが生成される。この場合、距離マップ取得部110はデフォーカスマップデータ、またはデフォーカス量から変換される被写体距離の距離マップデータを取得する。   Further, in the application example to the parallax ranging method, a process of calculating distance information based on parallax images acquired under different imaging conditions is executed. Specifically, the imaging device of the imaging unit 105 is a pupil division type imaging device, and has a plurality of pixel units arranged in a regular array in a two-dimensional array. One pixel unit includes a microlens and a plurality of photoelectric conversion units. A pair of light beams passing through different pupil regions of the imaging optical system 104 can be formed as optical images, respectively, and a pair of image data can be output from a plurality of photoelectric conversion units. The defocus amount is calculated by the correlation calculation between the paired images, and a defocus map representing the distribution of the defocus amount (distribution on the two-dimensional plane of the captured image) is generated. In this case, the distance map acquisition unit 110 acquires defocus map data or distance map data of the subject distance converted from the defocus amount.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:デジタルカメラ
101:システム制御部
104:撮像光学系
105:撮像部
107,601:画像処理部
108:記録媒体
110:距離マップ取得部
200,700:距離マップ整形部
DESCRIPTION OF SYMBOLS 100: Digital camera 101: System control part 104: Imaging optical system 105: Imaging part 107,601: Image processing part 108: Recording medium 110: Distance map acquisition part 200,700: Distance map shaping part

Claims (14)

被写体の画像を取得する取得手段と、
前記取得手段により取得された前記画像に対して、フィルタ係数群が割り当てられたフィルタ範囲を用いてフィルタ処理を行うフィルタ手段と、
前記フィルタ処理を行う際の参照画素を決定する決定手段と、
前記フィルタ手段の出力に対してビットシフト演算または除算を行う演算手段と、
前記演算手段が異なる設定量でそれぞれ演算を行った複数の前記フィルタ処理の結果を、前記決定手段により決定された参照画素の数に対応する合成比率で合成する合成手段を備えることを特徴とする画像処理装置。
An acquisition means for acquiring an image of a subject;
Filter means for performing filter processing on the image acquired by the acquisition means using a filter range to which a filter coefficient group is assigned;
Determining means for determining a reference pixel when performing the filtering process;
Arithmetic means for performing bit shift operation or division on the output of the filter means;
The image processing apparatus includes a combining unit that combines a plurality of the filter processing results calculated by the calculating unit with different set amounts at a combining ratio corresponding to the number of reference pixels determined by the determining unit. Image processing device.
前記フィルタ手段は、前記フィルタ範囲を複数に分割してフィルタ処理をそれぞれ実行することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter unit divides the filter range into a plurality of parts and executes a filter process. 前記決定手段は、前記画像の着目画素位置と周辺画素位置における画素情報を取得して比較することにより前記参照画素を決定することを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit determines the reference pixel by acquiring and comparing pixel information at a target pixel position and a peripheral pixel position of the image. 被写体の距離分布に関連するデータの整形処理を行う整形手段を備え、
前記整形手段を構成する前記フィルタ手段は、前記データに対するフィルタ処理を行うことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
A shaping means for shaping data related to the distance distribution of the subject is provided,
The image processing apparatus according to any one of claims 1 to 3, wherein the filter unit included in the shaping unit performs a filter process on the data.
前記被写体の距離分布に関連するデータの信頼度を算出する算出手段を備え、
前記決定手段は、前記被写体の画像、および前記算出手段により算出された前記信頼度を用いて前記参照画素を決定することを特徴とする請求項4に記載の画像処理装置。
Calculating means for calculating reliability of data related to the distance distribution of the subject;
The image processing apparatus according to claim 4, wherein the determination unit determines the reference pixel using the image of the subject and the reliability calculated by the calculation unit.
前記演算手段は、第1の設定量、および前記第1の設定量よりも小さい第2の設定量をそれぞれ用いてビットシフト演算を行うことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。   6. The calculation unit according to claim 1, wherein the arithmetic unit performs a bit shift operation using a first set amount and a second set amount smaller than the first set amount. An image processing apparatus according to 1. 前記合成手段は、前記第2の設定量を用いて演算されたフィルタ処理の結果に対する前記合成比率を決定することを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the synthesizing unit determines the synthesis ratio with respect to a result of the filter process calculated using the second set amount. 前記合成比率は、前記参照画素の数が少ない場合に相対的に大きく、前記参照画素の数が多い場合に相対的に小さいことを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the combination ratio is relatively large when the number of the reference pixels is small and relatively small when the number of the reference pixels is large. 前記参照画素の数を表すマップデータを生成する生成手段をさらに備え、
前記合成手段は前記マップデータを取得して飽和参照画素数および前記合成比率を決定することを特徴とする請求項7または8に記載の画像処理装置。
A generator for generating map data representing the number of the reference pixels;
The image processing apparatus according to claim 7 or 8, wherein the synthesizing unit acquires the map data and determines a saturation reference pixel number and the synthesis ratio.
前記合成比率は、前記第2の設定量でのフィルタ処理にて参照される前記参照画素の数が前記飽和参照画素数を超える場合よりも、当該参照画素の数が前記飽和参照画素数を超えない場合の方が大きいことを特徴とする請求項9に記載の画像処理装置。   The combination ratio is such that the number of reference pixels exceeds the number of saturated reference pixels, compared to the case where the number of reference pixels referenced in the filtering process with the second set amount exceeds the number of saturated reference pixels. The image processing apparatus according to claim 9, wherein the image processing apparatus is larger when there is no image. 請求項1から10のいずれか1項に記載の画像処理装置と、
被写体を撮像する撮像手段を備えることを特徴とする撮像装置。
The image processing apparatus according to any one of claims 1 to 10,
An image pickup apparatus comprising image pickup means for picking up an image of a subject.
前記取得手段は、暈け方が異なる複数の画像を前記撮像手段から取得することを特徴とする請求項11に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the acquisition unit acquires a plurality of images having different ways of blurring from the imaging unit. 被写体の画像を取得して画像処理する画像処理装置にて実行される画像処理方法であって、
フィルタ手段によりフィルタ処理を行う際の参照画素を決定するステップと、
前記画像に対して、フィルタ係数群が割り当てられたフィルタ範囲を用いて前記フィルタ手段がフィルタ処理を行うステップと、
前記フィルタ手段の出力に対して演算手段がビットシフト演算または除算を行うステップと、
前記演算手段が異なる設定量でそれぞれ演算を行った複数の前記フィルタ処理の結果を、決定された前記参照画素の数に対応する合成比率で合成するステップを有することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus that acquires an image of a subject and performs image processing,
Determining a reference pixel when performing filtering by the filter means;
The filter means performing a filtering process on the image using a filter range to which a filter coefficient group is assigned;
A step of performing a bit shift operation or division on the output of the filter means;
An image processing method comprising: combining a plurality of the filter processing results respectively calculated by the calculation means with different set amounts at a combination ratio corresponding to the determined number of reference pixels.
請求項13に記載の各ステップを画像処理装置のコンピュータに実行させるためのプログラム。
A program for causing a computer of an image processing apparatus to execute each step according to claim 13.
JP2015197906A 2015-10-05 2015-10-05 Image processing apparatus, imaging apparatus, image processing method, and program Expired - Fee Related JP6570406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015197906A JP6570406B2 (en) 2015-10-05 2015-10-05 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015197906A JP6570406B2 (en) 2015-10-05 2015-10-05 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2017073613A true JP2017073613A (en) 2017-04-13
JP6570406B2 JP6570406B2 (en) 2019-09-04

Family

ID=58538421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015197906A Expired - Fee Related JP6570406B2 (en) 2015-10-05 2015-10-05 Image processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6570406B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005958A (en) * 1999-06-17 2001-01-12 Matsushita Electric Ind Co Ltd Device and method for reducing noise, and recording medium therefor
JP2004145615A (en) * 2002-10-24 2004-05-20 Mega Chips Corp Image processor and image processing method
JP2012044266A (en) * 2010-08-12 2012-03-01 Canon Inc Image processing apparatus and image processing method
JP2012048367A (en) * 2010-08-25 2012-03-08 Dainippon Printing Co Ltd Jaggy reduction processing device and jaggy reduction processing method
JP2013239119A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing device, image processing method, image processing program and imaging device
JP2013242658A (en) * 2012-05-18 2013-12-05 Canon Inc Image processing apparatus, imaging device, image processing method, and image processing program
US20150116464A1 (en) * 2013-10-29 2015-04-30 Canon Kabushiki Kaisha Image processing apparatus and image capturing apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005958A (en) * 1999-06-17 2001-01-12 Matsushita Electric Ind Co Ltd Device and method for reducing noise, and recording medium therefor
US6757014B1 (en) * 1999-06-17 2004-06-29 Matsushita Electric Industrial Co., Ltd. Video signal noise reduction apparatus, a method of reducing a noise in a video signal, and a recording medium storing a program of the method
JP2004145615A (en) * 2002-10-24 2004-05-20 Mega Chips Corp Image processor and image processing method
JP2012044266A (en) * 2010-08-12 2012-03-01 Canon Inc Image processing apparatus and image processing method
JP2012048367A (en) * 2010-08-25 2012-03-08 Dainippon Printing Co Ltd Jaggy reduction processing device and jaggy reduction processing method
JP2013239119A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing device, image processing method, image processing program and imaging device
JP2013242658A (en) * 2012-05-18 2013-12-05 Canon Inc Image processing apparatus, imaging device, image processing method, and image processing program
US20150116464A1 (en) * 2013-10-29 2015-04-30 Canon Kabushiki Kaisha Image processing apparatus and image capturing apparatus
JP2015088833A (en) * 2013-10-29 2015-05-07 キヤノン株式会社 Image processing device, imaging device, and image processing method

Also Published As

Publication number Publication date
JP6570406B2 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
US10997696B2 (en) Image processing method, apparatus and device
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
US11195257B2 (en) Image processing method, image processing apparatus, imaging apparatus, lens apparatus, storage medium, and image processing system
CN109255810B (en) Image processing apparatus and image processing method
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US11282176B2 (en) Image refocusing
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
US10204400B2 (en) Image processing apparatus, imaging apparatus, image processing method, and recording medium
US10326951B2 (en) Image processing apparatus, image processing method, image capturing apparatus and image processing program
JP6570406B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2017163412A (en) Image processing system, its control method, imaging apparatus, and program
US9924157B2 (en) Image processing device, image pickup apparatus, image processing method, and storage medium
JP6639155B2 (en) Image processing apparatus and image processing method
JP6381212B2 (en) Imaging apparatus and control method thereof
JP2024100117A (en) Image processing device, imaging apparatus, image processing method, and program
JP2018200722A (en) Image processing apparatus and control method therefor, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190806

R151 Written notification of patent or utility model registration

Ref document number: 6570406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees