JP2017073613A - Image processing apparatus, imaging device, image processing method, program - Google Patents
Image processing apparatus, imaging device, image processing method, program Download PDFInfo
- Publication number
- JP2017073613A JP2017073613A JP2015197906A JP2015197906A JP2017073613A JP 2017073613 A JP2017073613 A JP 2017073613A JP 2015197906 A JP2015197906 A JP 2015197906A JP 2015197906 A JP2015197906 A JP 2015197906A JP 2017073613 A JP2017073613 A JP 2017073613A
- Authority
- JP
- Japan
- Prior art keywords
- image
- filter
- image processing
- unit
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 28
- 238000003672 processing method Methods 0.000 title claims 3
- 238000001914 filtration Methods 0.000 claims abstract description 21
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 11
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 11
- 238000007493 shaping process Methods 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 46
- 230000002093 peripheral effect Effects 0.000 claims description 9
- 229920006395 saturated elastomer Polymers 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像データのフィルタ処理を行う画像処理装置に関し、特に被写体の距離分布に関連する情報をマップデータとして取得する技術に関するものである。 The present invention relates to an image processing apparatus that performs filter processing of image data, and more particularly to a technique for acquiring information related to a distance distribution of a subject as map data.
撮像光学系の異なる瞳領域を通過した光束をそれぞれ受光して得られる瞳分割画像や、2眼での撮影により取得されたステレオペア画像の相関演算によって、距離マップを得る技術がある。特許文献1では、被写体の輪郭に対応する距離値を、撮影画像を用いて正しい輪郭に合わせる処理が開示されている。 There is a technique for obtaining a distance map by correlation calculation of pupil-divided images obtained by receiving light beams that have passed through different pupil regions of the imaging optical system and stereo pair images obtained by photographing with two eyes. Japanese Patent Application Laid-Open No. 2004-228561 discloses a process for matching a distance value corresponding to the contour of a subject to a correct contour using a captured image.
特許文献1に開示された従来技術では、距離マップの整形処理時に被写体の特徴が似ている領域のみを参照画素としてフィルタ処理が行われる。つまりフィルタ処理で参照する画素数は、被写体の特徴に依存して変わる。整形した距離マップ信号を所定のビット数に抑えるためには、ビットシフトや除算などを行う必要がある。被写体の特徴によって、加算される信号値の数が異なるため、ビット丸めが大きい領域と小さい領域が点在してしまい、フィルタ処理後の画質が低下する可能性がある。
本発明の目的は、被写体の特徴に依存したビット丸めの影響を改善するフィルタ処理を含む画像処理を実現することである。
In the prior art disclosed in
An object of the present invention is to realize image processing including filter processing for improving the influence of bit rounding depending on the characteristics of a subject.
本発明の一実施形態に係る画像処理装置は、被写体の画像を取得する取得手段と、前記取得手段により取得された前記画像に対して、フィルタ係数群が割り当てられたフィルタ範囲を用いてフィルタ処理を行うフィルタ手段と、前記フィルタ処理を行う際の参照画素を決定する決定手段と、前記フィルタ手段の出力に対してビットシフト演算または除算を行う演算手段と、前記演算手段が異なる設定量でそれぞれ演算を行った複数の前記フィルタ処理の結果を、前記決定手段により決定された参照画素の数に対応する合成比率で合成する合成手段を備える。 An image processing apparatus according to an embodiment of the present invention performs filtering using an acquisition unit that acquires an image of a subject, and a filter range in which a filter coefficient group is assigned to the image acquired by the acquisition unit. Filter means for determining, a determination means for determining a reference pixel when performing the filter processing, an arithmetic means for performing bit shift calculation or division on the output of the filter means, and the arithmetic means at different set amounts, respectively Combining means for synthesizing the results of the plurality of filtering processes that have undergone the calculation at a combining ratio corresponding to the number of reference pixels determined by the determining means is provided.
本発明によれば、被写体の特徴に依存したビット丸めの影響を改善するフィルタ処理を含む画像処理を実現できる。 According to the present invention, it is possible to realize image processing including filter processing that improves the influence of bit rounding depending on the characteristics of a subject.
以下、本発明の好適な実施形態について図面を参照して詳細に説明する。各実施形態では、本発明の画像処理装置の適用例としてデジタルカメラを説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings. In each embodiment, a digital camera will be described as an application example of the image processing apparatus of the present invention.
[第1実施形態]
図1は本発明の実施形態に係るデジタルカメラ100の機能構成を例示するブロック図である。図1の各構成部は、バス111を介して相互に信号を送受可能である。
システム制御部101はCPU(中央演算処理装置)を備える。システム制御部101は、デジタルカメラ100の各構成部の動作や処理を制御するプログラムをROM(リード・オンリ・メモリ)102から読み出し、RAM(ランダム・アクセス・メモリ)103に展開して実行する。ROM102は、データの書き換えが可能な不揮発性メモリであり、デジタルカメラ100の動作や処理を制御するプログラムの他に、各構成部の動作に必要なパラメータ等を記憶する。例えば、焦点検出等に必要な射出瞳距離等の情報がROM102に記憶されている。RAM103は、データの書き換えが可能な揮発性メモリであり、デジタルカメラ100の処理において出力されたデータの一時的な記憶領域として用いられる。
[First embodiment]
FIG. 1 is a block diagram illustrating the functional configuration of a
The
撮像光学系104は、被写体からの光を撮像部105に結像する。撮像光学系104はレンズや絞りを備え、絞りは撮像光学系104の開口径を調節する。撮像部105は、CCD(電荷結合素子)センサやCMOS(相補型金属酸化膜半導体)センサ等の撮像素子を備える。撮像素子は、撮像光学系104により結像された光学像を光電変換し、得られたアナログ画像信号をA(アナログ)/D(デジタル)変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号に対してA/D変換処理を行い、デジタル画像データをRAM103に出力して記憶させる。
The imaging
画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、縮小/拡大、フィルタリング等の処理を行う。記録媒体108は着脱可能なメモリカード等であり、RAM103に記憶されている画像処理部107で処理された画像やA/D変換部106によりA/D変換された画像等のデータが、記録画像データとして記録される。表示部109はLCD(液晶表示ディスプレイ)等の表示デバイスを備える。表示部109は撮像部105により取得された撮像データに基づいて被写体像をスルー表示する等、様々な情報を表示する。
The image processing unit 107 performs processes such as white balance adjustment, color interpolation, reduction / enlargement, and filtering on the image data stored in the
距離マップ取得部110は所定の検出方法で被写体の距離情報を取得する距離センサモジュールである。例えば距離マップ取得部110は、「Time of Flight(TOF)」法等で被写体の距離分布に関連する情報を取得する。TOF法では、光源からの出射光が対象物で反射し、検出部が受光するまでの時間と光速度に基づいて被写体までの距離情報が取得される。距離マップ取得部110は、所定の解像度の距離マップデータをデジタルデータとしてRAM103に出力して記憶させる。
The distance
図2は、図1の画像処理部107の構成を説明するための図である。
図2(A)に示す現像部201は、撮影画像入力210として入力されるA/D変換後のデジタル画像データに対して、ホワイトバランス調整や色補間等から成る現像処理を行い、現像画像212を生成する。この現像画像212は距離マップ整形部200に入力され、距離マップの整形用画像として用いられる。
FIG. 2 is a diagram for explaining the configuration of the image processing unit 107 in FIG.
The developing
図2(B)に示すように距離マップ整形部200は、画素値比較部202、参照画素判定部203、フィルタ処理部204、合成部205から構成される。
画素値比較部202は、距離マップ画像211の着目画素位置と周辺画素位置に対応する現像画像212(以下、整形用画像という)の画素値を比較し、比較結果213を出力する。参照画素判定部203は、比較結果213を所定の閾値で判定し、参照画素位置とするか否かを示す参照画素判定結果214を出力する。例えば参照画素判定結果214は2値のデータであり、比較結果213が閾値以下であるか否かに応じて「1」または「0」のいずれかの値をとる。画素位置に対応する判定値「1」は参照画素として決定されたことを意味し、判定値「0」は参照画素として決定されなかったことを意味する。
As shown in FIG. 2B, the distance
The pixel
フィルタ処理部204は、参照画素判定結果214に基づき、距離マップ画像211に対するバイラテラルフィルタ処理を行う。フィルタ処理部204は、フィルタ処理時にビットシフト演算を行い、ビットシフト量が異なる複数のフィルタ処理結果215を出力する。合成部205は、ビットシフト量が異なるフィルタ処理結果215を合成し、合成後の出力を合成距離マップ画像216として出力する。
基本的な整形処理では、着目画素位置pのフィルタ処理結果(Jpと記す)が、以下の式(1)で表される。
Jp=(1/Kp)ΣI1q・f(|p−q|)・g(|I2p−I2q|) ・・・(1)
The
In the basic shaping process, the filter processing result (denoted as Jp) at the target pixel position p is expressed by the following equation (1).
Jp = (1 / Kp) ΣI1q · f (| p−q |) · g (| I2p−I2q |) (1)
式(1)中の各記号の意味は以下のとおりである。
q :周辺画素位置
Ω :着目画素位置pを中心とする積算対象領域
Σ :q∈Ω範囲の積算
I1q:周辺画素位置qにおける距離マップ信号値
f(|p−q|):着目画素位置pを中心とするガウシアン関数
I2p :着目画素位置pでの整形用画像の画素値
I2q :周辺画素位置qでの整形用画像の画素値
g(|I2p−I2q|):整形用画像の画素値I2pを中心とするガウシアン関数
Kp :正規化係数であり、f・g重みの積算値。
The meaning of each symbol in Formula (1) is as follows.
q: peripheral pixel position Ω: integration target area centered on the target pixel position p Σ: integration in the q∈Ω range I1q: distance map signal value at the peripheral pixel position q f (| p−q |): target pixel position p Gaussian function centered at I2p: pixel value of the shaping image at the target pixel position p I2q: pixel value of the shaping image at the peripheral pixel position q g (| I2p−I2q |): pixel value I2p of the shaping image Gaussian function centered on Kp: normalization coefficient, integrated value of f · g weights.
着目画素位置pのI2pと周辺画素位置qのI2qとの差が小さいとき、つまり整形用画像において着目画素と周辺画素の画素値が近いときに、その周辺画素のf・g重みは大きくなる。本実施形態では回路規模を顧みて、関数f、gはガウシアン関数ではなく、所定の画素範囲の重み付け係数を均一にする関数とする。したがって|p−q|、|I2p−I2q|が所定の範囲のときの画素値(画素情報)を単純に加算する関数に置き換えることができる。例えば、関数fおよびgは下記式で表される。
f=α(|p−q|< th1)、f=0(|p−q|>= th1)・・・(2)
g=β(|I2p−I2q|< th2)、g=0(|I2p−I2q|>= th2)・・・(3)
式(2)のαと、式(3)のβはそれぞれ定数を表し、式(2)のth1と、式(3)のth2はそれぞれ閾値を表す。本実施形態では、α=1、β=1とする。
When the difference between I2p at the target pixel position p and I2q at the peripheral pixel position q is small, that is, when the pixel values of the target pixel and the peripheral pixel are close in the shaping image, the f · g weight of the peripheral pixel increases. In the present embodiment, taking into account the circuit scale, the functions f and g are not Gaussian functions but functions that make the weighting coefficients in a predetermined pixel range uniform. Accordingly, a function that simply adds pixel values (pixel information) when | p−q | and | I2p−I2q | For example, the functions f and g are expressed by the following equations.
f = α (| pq | <th1), f = 0 (| pq |> = th1) (2)
g = β (| I2p−I2q | <th2), g = 0 (| I2p−I2q |> = th2) (3)
Α in Equation (2) and β in Equation (3) each represent a constant, and th1 in Equation (2) and th2 in Equation (3) each represent a threshold value. In this embodiment, α = 1 and β = 1.
次に、図3のフローチャートを参照してデジタルカメラ100の全体処理について説明する。図3の処理は、システム制御部101のCPUが制御プログラムをメモリから読み出して実行することにより実現される。例えばデジタルカメラ100にて撮影の指示がなされた際に処理が開始される。
Next, the overall processing of the
図3のS301で撮像部105は撮像を行い、距離マップの整形用画像を取得する。次にS302で距離マップ取得部110は、整形用画像に対応する距離マップ画像を取得する。S303でフィルタ処理部204は、S302で取得された距離マップ画像に対し、整形用画像の画素情報を用いて式(1)のフィルタ処理を実行し、距離マップ画像の整形処理が行われる。フィルタ処理後の出力結果に関しては、フィルタのタップ数(参照画素範囲)が大きくなるほど、フィルタ処理後の出力値を格納するビット数が膨大になってしまう。そのため、出力信号が格納し得るビット数に収まるように、式(1)のフィルタ処理結果の分子に対して、所定の設定量でのビットシフト演算または除算が行われる。例えば、ビットシフト演算の場合に第1の設定量を「ビットシフト量A」と記す。
In S301 of FIG. 3, the
S304では、S303と同様に距離マップ画像の整形処理が行われる。ただし、S304の整形処理では、ビットシフト量Aよりも小さなビットシフト量Bを設定して整形処理が行われる。ビットシフト量Bはビットシフト演算における第2の設定量である。次のS305で合成部205は、S303およびS304の各出力である整形処理後の距離マップ画像の合成処理を行う。合成処理では、S304の整形処理時の参照画素数を記録するマップ(参照画素数マップ)を用いて、2つの整形処理後の距離マップ画像を合成する割合(合成比率)が決定される。
以上のように、複数のビットシフト量を設定して整形処理を施した距離マップを合成する処理が実行される。
In S304, a distance map image shaping process is performed as in S303. However, in the shaping process of S304, the shaping process is performed by setting a bit shift amount B smaller than the bit shift amount A. The bit shift amount B is a second set amount in the bit shift calculation. In next step S305, the synthesizing
As described above, the process of synthesizing the distance map that has been subjected to the shaping process by setting a plurality of bit shift amounts is executed.
次に、本実施形態で重要となる各処理を説明する。まず、整形処理について説明する。図4は、図2の距離マップ整形部200の動作を説明するための図である。図4(A−1)および(B−1)では、紙面内において左右方向をx方向とし、右方向を+x方向と定義する。また紙面内においてx方向に直交する上下方向をy方向とし、上方向を+y方向と定義する。
Next, each process important in the present embodiment will be described. First, the shaping process will be described. FIG. 4 is a diagram for explaining the operation of the distance
図4(A−1)は整形用画像401を例示し、被写体は画面右の人物と背景である。図4(A−2)は、図4(A−1)にて一点鎖線402に示す位置での断面における画素値プロファイル403を表わしている。横軸はx座標を表し、縦軸は画素値を表す。画素値プロファイル403の形状は、x座標の増加方向においてxsの位置で大きく変化(低下)するステップ形状である。画素値プロファイル403は人物の輪郭部でシャープなエッジを保っている。
FIG. 4A-1 illustrates the shaping
図4(B−1)は距離マップ404を例示する。図4(B−1)において点線で示す部分は、図4(A−1)に示した整形用画像401における人物の輪郭を表している。図4(B−2)は、図4(A−2)にて一点鎖線405で示す位置(図4(A−1)に一点鎖線402で示す位置に対応する)での断面における距離値プロファイル406を実線で表わしている。横軸はx座標を表し、縦軸は距離値を表す。距離値については、カメラの位置から遠くにある背景の距離値が小さく、近くに位置する人物の距離値が大きいものとする。図4(B−1)の場合、距離マップの人物の輪郭が、正解である整形用画像の人物の輪郭(点線参照)より外側にはみ出している。図4(B−2)に実線で示す距離値プロファイル406の形状は、x座標の増加方向においてxsよりも小さいxaの位置で大きく変化(増加)するステップ形状である。
FIG. 4B-1 illustrates the
式(1)における着目画素位置pを、黒点408、410、412、414でそれぞれ示す。線分409、411、413、415は式(1)のg値が大きい領域、つまり平滑化の範囲を示している。整形用画像の画素値プロファイル403は、人物の輪郭に対応する位置xsで急峻に変化している。このため、人物の輪郭近傍の着目画素位置を示す黒点410および412の位置では、平滑化の範囲がそれぞれ線分411および413のようになり、正解である整形用画像の人物輪郭に沿うようになる。その結果、式(1)に示すフィルタ結果Jpの値をプロットすると点線で示すグラフ線407となる。グラフ線407の形状は、x座標の増加方向においてxsの位置で大きく変化(増加)するステップ形状である。つまり、距離マップの整形処理によって、距離マップの人物輪郭が正しい輪郭(整形用画像の人物輪郭)に合うことになる。
The target pixel position p in Expression (1) is indicated by
次に、図3のS303、S304に示す整形処理に用いるビットシフト量AおよびBについて説明する。本実施形態では、式(1)に対して、式(2)、(3)を設定している。さらに、距離マップ画像の着目画素位置pと参照画素位置における距離重み、距離マップ画像の画素値による重みを一定値α、βとする(例えばα=β=1)。また、距離情報を画像データとして保持する距離マップ画像では、被写体のコントラスト、被写体の明るさ、被写体のオクルージョンや、カメラの撮影時の設定によって距離情報の分解能が低下する場合や、正しい距離情報を取得できない場合がある。そこで距離情報が正しく出力されているかどうかの信頼度(以下、h(q)と記す)を新たに設定し、式(1)に追加するパラメータとする。これにより、正しい距離情報を保持する参照画素位置の距離情報を用いた整形処理を行うことができる。 Next, the bit shift amounts A and B used for the shaping process shown in S303 and S304 of FIG. 3 will be described. In the present embodiment, equations (2) and (3) are set for equation (1). Further, distance weights at the target pixel position p and the reference pixel position of the distance map image and weights based on the pixel values of the distance map image are set to constant values α and β (for example, α = β = 1). In the distance map image that holds the distance information as image data, if the resolution of the distance information decreases due to the contrast of the subject, the brightness of the subject, the occlusion of the subject, or the settings when shooting with the camera, the correct distance information is displayed. You may not be able to get it. Therefore, the reliability (hereinafter referred to as h (q)) as to whether the distance information is correctly output is newly set as a parameter to be added to the equation (1). Thereby, the shaping process using the distance information of the reference pixel position holding the correct distance information can be performed.
第1および第2の画像を用いて距離情報を取得するDFD(Depth From Defocus)法における信頼度について説明する。第1の画像は、被写体に合焦しているフォーカス画像であり、第2の画像は、フォーカス画像とは被写体像の暈け方が異なるデフォーカス画像である。DFD法では、フォーカス画像の暈け量とデフォーカス画像の暈け量を用いて距離情報が算出される。そのため、フォーカス画像とデフォーカス画像とで被写体像の暈けの違いが検出できない領域では正しい距離情報を算出できない。つまり、このような領域は、距離情報の信頼度が低い領域となる。信頼度は、暈けの違いの検出しやすさを表す指標であり、対象領域における画素の輝度値や彩度値、色相、対象領域の周波数特性などに基づいて判断することができる。具体的には、以下の領域が信頼度の低い領域であると判断される。
例1:領域内の画素が持つ輝度値の平均値が、所定の範囲から外れている場合。
例2:領域内の画素が持つ輝度値の変化量が所定の閾値より大きい場合。
例3:領域内の空間周波数が所定の閾値より低い場合。
The reliability in the DFD (Depth From Defocus) method for acquiring distance information using the first and second images will be described. The first image is a focus image that is focused on the subject, and the second image is a defocus image that differs from the focus image in how the subject image is blurred. In the DFD method, distance information is calculated using the blur amount of the focus image and the blur amount of the defocus image. For this reason, correct distance information cannot be calculated in a region where the difference in blur between the subject images cannot be detected between the focus image and the defocus image. That is, such a region is a region with low reliability of distance information. The reliability is an index representing the ease of detecting a difference in blur, and can be determined based on the luminance value, saturation value, hue, frequency characteristic of the target region, and the like in the target region. Specifically, the following areas are determined to be areas with low reliability.
Example 1: When the average value of the luminance values of the pixels in the area is out of the predetermined range.
Example 2: When the amount of change in luminance value of pixels in the area is greater than a predetermined threshold.
Example 3: When the spatial frequency in the region is lower than a predetermined threshold.
信頼度h(q)を決定するための評価基準には複数の基準を採用することができる。例示した以外の評価基準を用いてもよい。いずれにしても評価値を所定値(閾値)と比較することで信頼度h(q)の値を算出することができる。本実施形態の信頼度h(q)は、回路規模を顧みて信頼度における評価基準に対して「1」または「0」の二値で表現されるものとする。「1」は信頼できる距離情報であることを意味し、「0」は信頼できない距離情報であることを意味する。 A plurality of criteria can be adopted as the evaluation criteria for determining the reliability h (q). Evaluation criteria other than those exemplified may be used. In any case, the value of the reliability h (q) can be calculated by comparing the evaluation value with a predetermined value (threshold value). The reliability h (q) of the present embodiment is expressed as a binary value of “1” or “0” with respect to the evaluation criterion in reliability considering the circuit scale. “1” means reliable distance information, and “0” means unreliable distance information.
以上を考慮して、式(1)〜(3)は下記式(4)〜(6)に置換することができる。
J*p= ΣI1q・f(|p−q|)・g(|I2p−I2q|)・h(q)
/Σf(|p−q|)・g(|I2p−I2q|) ・・・(4)
f=1(|p−q|< th1)、f=0(|p−q|>= th1)・・・(5)
g=1(|I2p−I2q|< th2)、g=0(|I2p−I2q|>= th2)・・・(6)
In consideration of the above, the formulas (1) to (3) can be replaced with the following formulas (4) to (6).
J * p = ΣI1q · f (| pq |) · g (| I2p−I2q |) · h (q)
/ Σf (| p−q |) · g (| I2p−I2q |) (4)
f = 1 (| pq | <th1), f = 0 (| pq |> = th1) (5)
g = 1 (| I2p−I2q | <th2), g = 0 (| I2p−I2q |> = th2) (6)
従って、J*pの分子は、Jpの分子にh(g)を乗算した式で表され、J*pの分母は、参照画素数の合計値に相当する。J*pの分子のビット数としては、入力画素の最大値・参照最大画素数の積の信号値を格納するために充分なビット数が必要となる。しかしながら、小型の装置の場合には、J*pの分子のビット数は限られる。つまり、限られたビット数でJ*pの演算処理を実現するためにビットシフト演算を行い、出力ビット数を制限する処理が行われる。ビットシフト演算を加味すると式(4)は下記式(7)のようになる。
J**p=Σ{I1q・f(|p−q|)・g(|I2p−I2q|)>>ビットシフト量}
/{Σf{(|p−q|)・g(|I2p−I2q|)} >> ビットシフト量}・・(7)
Thus, molecules of J * p is represented by the formula obtained by multiplying the h (g) in the molecule of Jp, the denominator of J * p corresponds to the sum of the number of reference pixels. As the number of bits of the numerator of J * p, a sufficient number of bits is required to store the signal value of the product of the maximum value of input pixels and the maximum number of reference pixels. However, in the case of a small device, the number of bits of the numerator of J * p is limited. In other words, a bit shift operation is performed in order to realize the J * p operation processing with a limited number of bits, and processing for limiting the number of output bits is performed. Taking the bit shift operation into account, Equation (4) becomes Equation (7) below.
J ** p = Σ {I1q · f (| pq |) · g (| I2p−I2q |) >> bit shift amount}
/ {Σf {(| p−q |) · g (| I2p−I2q |)} >> bit shift amount} ·· (7)
ビットシフト量の計算を具体的に説明すると、例えば、フィルタのタップ数を63×63とし、距離マップ画像の入力信号値を8ビットとする。J**pの分子については14ビットを最大ビット数とする。つまり、6ビット分の右ビットシフトを行い、出力画素値を14ビットに抑える処理が行われる。「ビットシフト量A=入力信号ビット数(8ビット)+フィルタ最大参照画素数のビット数(63×63≒12ビット)− 出力信号ビット数(14ビット)=6ビット」によって、ビットシフト量Aが決まる。図3のS303のビットシフト量Aが設定される。 The calculation of the bit shift amount will be specifically described. For example, the number of taps of the filter is 63 × 63, and the input signal value of the distance map image is 8 bits. For the numerator of J ** p, the maximum number of bits is 14 bits. That is, a right bit shift for 6 bits is performed, and a process of suppressing the output pixel value to 14 bits is performed. “Bit shift amount A = number of input signal bits (8 bits) + bit number of maximum filter reference pixel number (63 × 63≈12 bits) −number of output signal bits (14 bits) = 6 bits” Is decided. The bit shift amount A in S303 of FIG. 3 is set.
逆に、ビットシフト量Aを用いて式(7)の整形処理を行った場合、参照画素数によっては、ビット丸めの影響が大きくなる可能性がある。例えば、参照画素が2画素しかない場合には、J**pの分子は、9ビット(入力信号ビット数(8ビット)+参照画素数のビット数(2画素=1ビット))で収まる信号値になる。9ビット=入力信号ビット数(8ビット)+参照画素数のビット数(2画素=1ビット)であるが、ビットシフト量Aを6ビットとした場合、分子の信号値は3ビットに信号に丸められてしまい、演算精度に影響を及ぼす可能性がある。そのため、参照画素数が所定の閾値よりも少ない場合には、ビット丸めの影響を小さくするために、ビットシフト量Aとは異なるビットシフト量Bが設定される。ビット丸めの影響を小さくするため、例えば、図3のS304のビットシフト量Bは2ビットに設定される。 On the contrary, when the shaping process of Expression (7) is performed using the bit shift amount A, the influence of bit rounding may be increased depending on the number of reference pixels. For example, when there are only two reference pixels, the numerator of J ** p is a signal that fits in 9 bits (input signal bit number (8 bits) + reference pixel bit number (2 pixels = 1 bit)). Value. 9 bits = number of input signal bits (8 bits) + number of bits of reference pixels (2 pixels = 1 bit), but when the bit shift amount A is 6 bits, the signal value of the numerator is converted to 3 bits. It may be rounded and affect the calculation accuracy. Therefore, when the number of reference pixels is less than a predetermined threshold, a bit shift amount B different from the bit shift amount A is set in order to reduce the influence of bit rounding. In order to reduce the influence of bit rounding, for example, the bit shift amount B in S304 of FIG. 3 is set to 2 bits.
次に、図5を参照して図3のS305の合成処理を説明する。図3のS303とS304においてそれぞれ異なるビットシフト量A,Bを用いて整形処理された距離マップを合成する処理が実行される。図5は、このときのビットシフト量B(図3:S304参照)での整形処理結果の合成割合を表している。横軸は、ある着目画素に対して式(7)のフィルタ処理を行ったときの、ビットシフト量Bでの整形処理時の参照画素数を示す。また、縦軸は、図3のS304での整形処理後の距離マップの合成割合を示している。合成後の距離マップは以下の式で表される。
合成後距離マップ=(1−c)・整形後距離マップ(ビットシフト量A)+ c・整形後距離マップ(ビットシフト量B) ・・・(8)
Next, the composition processing in S305 of FIG. 3 will be described with reference to FIG. In S303 and S304 in FIG. 3, a process of combining distance maps shaped using different bit shift amounts A and B is executed. FIG. 5 shows the composition ratio of the shaping processing result with the bit shift amount B (see FIG. 3: S304) at this time. The horizontal axis indicates the number of reference pixels at the time of the shaping process with the bit shift amount B when the filter process of Expression (7) is performed on a certain target pixel. In addition, the vertical axis indicates the composition ratio of the distance map after the shaping process in S304 of FIG. The combined distance map is expressed by the following formula.
Post-combination distance map = (1-c) · Post-shaping distance map (bit shift amount A) + c · Post-shaping distance map (bit shift amount B) (8)
式(8)中に示すcは、ビットシフト量Bを用いた整形処理後の距離マップの合成比率を表す。c値は、ビットシフト量Bでのフィルタ処理時における参照画素マップから算出される。 In the equation (8), “c” represents a composition ratio of the distance map after the shaping process using the bit shift amount B. The c value is calculated from the reference pixel map at the time of filter processing with the bit shift amount B.
図5に示すように、参照画素数が少ない領域501では合成比率の値が相対的に大きく設定され、ビット丸めの影響が小さいビットシフト量Aでの整形処理後の距離マップが出力される。他方、参照画素数が多い領域503では合成比率の値が相対的に小さく設定され、出力ビット数に抑えるためにビットシフト量Bでの整形処理後の距離マップが出力される。また、領域502は、2つの整形処理後の距離マップがブレンドされている領域であり、参照画素数の増加につれて合成比率の値が次第に小さくなる特性となっている。
As shown in FIG. 5, in the
領域502については、少なくともビットシフト量Bでの出力ビット数を超えない参照画素数(飽和画素数511)で設定する必要がある。すなわち領域502にて飽和画素数511を超えてしまった場合には、出力ビット数に達してしまうため、正しい距離マップを出力できなくなる可能性がある。飽和画素数511は、下記式(9)で計算できる。
飽和画素数=2^(ビットシフト量A − ビットシフト量B) -1・・・(9)
「^」は累乗を表す記号である。
本実施形態によれば、フィルタ処理時に参照画素数が少ない場合でも、ビット丸めの影響を改善し、良好な高解像度の距離マップを取得することができる。
The
Number of saturated pixels = 2 ^ (bit shift amount A−bit shift amount B) −1 (9)
“^” Is a symbol representing a power.
According to the present embodiment, even when the number of reference pixels is small at the time of filter processing, it is possible to improve the influence of bit rounding and obtain a good high-resolution distance map.
[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態では、低解像度の距離マップ画像の整形処理に用いるフィルタ処理を分割して行う。整形処理のフィルタタップ数(1度にフィルタをかける範囲)が大きくなると、フィルタ処理を行う参照領域に対応する画素データをメモリに格納する必要が生じる。フィルタタップ数が大きくなるほど、画像処理装置の回路規模が大きくなる。そこで本実施形態では、フィルタタップ数を分割し、フィルタ処理結果を統合することによって、回路規模の増加を抑えた整形処理を行う。
第1実施形態の場合と同じ構成要素である、図1のシステム制御部101、ROM102、RAM103、撮像光学系104、撮像部105、A/D変換部106、記録媒体108、表示部109については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, the filtering process used for the shaping process of the low-resolution distance map image is divided. When the number of filter taps in the shaping process (the range in which the filter is applied at a time) increases, it becomes necessary to store pixel data corresponding to the reference area for performing the filter process in the memory. As the number of filter taps increases, the circuit scale of the image processing apparatus increases. Therefore, in this embodiment, the shaping process is performed by suppressing the increase in circuit scale by dividing the number of filter taps and integrating the filter processing results.
Regarding the
図1の画像処理部601は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、様々な画像処理を適用する。図6を参照して画像処理部601の構成を説明する。なお、現像部201、画素値比較部202、参照画素判定部203、合成部205と、撮影画像入力210、距離マップ画像211、現像画像212、比較結果213、参照画素判定結果214は第1実施形態にて図2で説明したとおりである。以下では相違点を中心に説明する。
The image processing unit 601 in FIG. 1 applies white balance adjustment, color interpolation, and various image processing to the image data stored in the
距離マップ整形部700は、分割フィルタ処理部701、フィルタ結果加算部702を備える。分割フィルタ処理部701は、整形処理で用いるフィルタタップ数を分割し、分割したフィルタタップで距離マップ画像211に畳み込み処理を行う。分割フィルタ処理部701は、複数の分割フィルタ処理結果711を出力する。このとき、異なるビットシフト量で分割フィルタ処理が実行される。フィルタ結果加算部702は、複数の分割フィルタ処理結果711を取得して合成し、分割フィルタ合成結果712を出力する。このとき、同じビットシフト量の分割フィルタ処理結果711同士を合成する処理が行われ、それぞれビットシフト量が異なる分割フィルタ合成結果が取得される。
The distance
図7のフローチャートを参照して、本実施形態のデジタルカメラの全体処理について説明する。図7に示す処理は、システム制御部101の制御によって実現される。なお、図7のS301、S302の処理は、図3の各ステップと同じであるため、それらの説明を省略する。
With reference to the flowchart of FIG. 7, the overall processing of the digital camera of this embodiment will be described. The processing shown in FIG. 7 is realized by the control of the
S801にて、S302で取得した距離マップ画像に対し、整形用画像の画像データを用いて式(4)のフィルタ処理が実行され、距離マップ画像の整形処理が行われる。整形処理で用いるフィルタ係数については所定のタップ数になるように分割される。分割後のそれぞれのフィルタ係数を用いて処理が実行される。フィルタ係数と距離マップ画像の畳み込み処理を行う際、ビットシフト演算も同時に行われる(ビットシフト量をビットシフト量Aとする)。同時に各参照画素数マップが生成される。参照画素数マップとは、式(4)を分割フィルタで行ったときに参照した画素数をカウントしたデータからなるマップデータである。 In S801, the distance map image acquired in S302 is subjected to the filtering process of Expression (4) using the image data of the shaping image, and the shaping process of the distance map image is performed. The filter coefficient used in the shaping process is divided so as to have a predetermined number of taps. Processing is performed using each filter coefficient after division. When the convolution processing of the filter coefficient and the distance map image is performed, a bit shift operation is also performed at the same time (the bit shift amount is set as the bit shift amount A). At the same time, each reference pixel number map is generated. The reference pixel number map is map data including data obtained by counting the number of pixels referred to when Expression (4) is performed by the division filter.
S802で分割フィルタ処理部701は、式(4)のフィルタ処理に関し、フィルタタップ数を分割して実行する。このときのビットシフト量をビットシフト量Bとする。「ビットシフト量A > ビットシフト量B」の関係を満たすものとする。S803でフィルタ結果加算部702は、S801、S802のそれぞれで距離マップ画像の分割フィルタ処理を行った結果を合成する。合成結果はビットシフト量の異なる整形後の距離マップ画像である。またフィルタ結果加算部702は、ビットシフト量Bの各参照画素数マップを同様に合成し、積算参照画素数マップとして算出する。
In step S <b> 802, the divided
S804で合成部205は、S803で生成した積算参照画素数マップに応じて飽和参照画素数を決定し、飽和参照画素数以下となる範囲での合成比率を算出する閾値処理を行う。そして合成部205は積算参照画素数マップに応じてビットシフト量の異なる整形後の距離マップ画像を合成し、最終的な整形後の距離マップ画像を出力する。
In step S804, the
以下、本実施形態で重要となる各処理について説明する。まず、図7のS801、S802で行うフィルタの分割処理について説明する。図8は、距離マップ画像に適用する2次元フィルタ処理に関するフィルタ係数の説明図である。フィルタの形状は正方形であり、フィルタタップ数は、(54タップ)×(54タップ)である。全体のフィルタ係数を分割したフィルタをf1、f2、…、f36で示す。各フィルタは、(9タップ)×(9タップ)であり、縦方向に6ブロック、横方向に6ブロックで配列することにより、(54タップ)×(54タップ)の全体のフィルタ係数が実現される。 Hereinafter, each process important in the present embodiment will be described. First, the filter dividing process performed in S801 and S802 of FIG. 7 will be described. FIG. 8 is an explanatory diagram of filter coefficients related to the two-dimensional filter processing applied to the distance map image. The shape of the filter is a square, and the number of filter taps is (54 taps) × (54 taps). Filters obtained by dividing the entire filter coefficient are denoted by f1, f2,..., F36. Each filter is (9 taps) × (9 taps). By arranging 6 blocks in the vertical direction and 6 blocks in the horizontal direction, an overall filter coefficient of (54 taps) × (54 taps) is realized. The
図9は、図8の2次元フィルタを距離マップ画像に適用する様子を説明するための図である。取得された距離マップ画像1001において、領域1002は(54タップ)×(54タップ)の2次元フィルタを適用した後の出力画像の領域である。
FIG. 9 is a diagram for explaining a state in which the two-dimensional filter of FIG. 8 is applied to the distance map image. In the acquired
図10は、画像処理部601の構成を説明するための図である。図10(A)の2次元フィルタ回路1101は、(9タップ)×(9タップ)の2次元フィルタ処理を施す回路である。2次元フィルタ回路1101への入力は、2次元フィルタ係数入力1103と、画像入力1104であり、出力は2次元フィルタ出力1105である。2次元フィルタ回路1101は位置ずらし部1101aと2次元コンボリューション処理部1101bを有する。2次元フィルタ回路1101は、画像入力1104から取得される入力画像の所望の領域を読み出し、2次元コンボリューション処理を施す。つまり、位置ずらし部1101aは画像入力1104からの画像データに対して位置ずらし処理を実行し、処理後の画像データを2次元コンボリューション処理部1101bに出力する。2次元コンボリューション処理部1101bは、2次元フィルタ係数入力1103からの係数値のデータを取得して、入力画像に係る特定領域内のデータに対して2次元コンボリューション処理を行う。
FIG. 10 is a diagram for explaining the configuration of the image processing unit 601. A two-
まず2次元フィルタ回路1101は、図8のフィルタ係数f1を入力画像に適用する。その際、入力画像の領域1003(図9)を部分的に読み出してフィルタ処理を適用することで、中間画像1が生成される。同様に図8のフィルタ係数f2で領域1004をフィルタ処理することで中間画像2が生成される。このときのフィルタ処理では式(7)がそれぞれの中間画像に対して適用される。同時に、正規化処理を行うための、それぞれの中間画像に対する参照画素数マップも出力される。以下、同様にして図9のフィルタ係数f3〜f36についてもフィルタ処理が行われる。
First, the two-
フィルタ係数f1〜f36のそれぞれの分割フィルタ処理時には、同じビットシフト量を適用する。ビットシフト量の決定方法については、例えば、それぞれの中間画像を後の処理で加算した時に出力の最大ビット数を超えないビットシフト量Aが設定される。具体的には、「ビットシフト量A=入力信号ビット数(8ビット)+フィルタ最大参照画素数のビット数(9×9≒7ビット)+中間画像の数(6×6≒6ビット)− 出力信号ビット数(14ビット) =7ビット」である。また、ビット丸めの影響を防ぐためにビットシフト量Aよりも小さいビットシフト量Bが設定される。 The same bit shift amount is applied during the division filter processing of the filter coefficients f1 to f36. As a method for determining the bit shift amount, for example, a bit shift amount A that does not exceed the maximum number of output bits when the intermediate images are added in the subsequent processing is set. Specifically, “bit shift amount A = number of input signal bits (8 bits) + bit number of maximum filter reference pixel number (9 × 9≈7 bits) + number of intermediate images (6 × 6≈6 bits) − The number of output signal bits (14 bits) = 7 bits ”. Further, a bit shift amount B smaller than the bit shift amount A is set to prevent the influence of bit rounding.
図10(B)を参照して、図7のS803の処理について説明する。画像加算回路1106には、画像入力1107、1108から中間画像1、中間画像2がそれぞれ入力される。画像加算回路1106は積算画像2を生成し、画像出力1109として出力する。同様にして画像加算回路1106は中間画像3〜36までを積算し、全ての中間画像を積算する。このとき、図7のS802で出力された参照画素数マップのそれぞれの中間画像についても積算が行われ、積算参照画素数マップが算出される。
With reference to FIG. 10B, the processing of S803 in FIG. 7 will be described. The
本実施形態によれば、所定のフィルタ係数群を割り当てられたフィルタ範囲を、より小さい範囲(サブフィルタ範囲)に分割し、分割フィルタ処理の結果を統合することにより、回路規模の増加を抑えた整形処理を実現できる。 According to the present embodiment, the filter range to which the predetermined filter coefficient group is assigned is divided into smaller ranges (sub-filter ranges), and the results of the divided filter processing are integrated, thereby suppressing an increase in circuit scale. A shaping process can be realized.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
[変形実施形態]
第1実施形態、第2実施形態ではフィルタの形状を正方形としたが、円柱の形状に適用してもよい。その際のビットシフト量Aに関して、正方形の場合の参照画素数を最大のフィルタ参照画素数に設定する。フィルタ係数を一律に1とせずに距離ごとに重み付け係数を変更する場合でも、ビットシフト量Aを求める場合には一律の係数として設定される。
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
[Modified Embodiment]
In the first embodiment and the second embodiment, the filter has a square shape, but may be applied to a cylindrical shape. Regarding the bit shift amount A at that time, the number of reference pixels in the case of a square is set to the maximum number of filter reference pixels. Even when the weighting coefficient is changed for each distance without uniformly setting the filter coefficient to 1, when the bit shift amount A is obtained, it is set as a uniform coefficient.
また、第1実施形態、第2実施形態では、ビットシフト量A,Bによる各整形後の距離マップ画像に対して、ビットシフト量Bで整形フィルタ処理を行った参照画素数に応じて合成処理が実行された。これに限らず、ビットシフト量Aの参照画素数に応じて合成処理を実行してもよい。 In the first embodiment and the second embodiment, the synthesis process is performed according to the number of reference pixels subjected to the shaping filter processing with the bit shift amount B for the distance map images after shaping with the bit shift amounts A and B. Was executed. However, the synthesis process may be executed according to the number of reference pixels of the bit shift amount A.
第1実施形態、第2実施形態では、距離マップ画像の整形処理を例示して説明したが、一般的な画像に対するフィルタ処理として実施することが可能である。その場合には、距離情報の信頼度であるh(q)を除いた式でフィルタ処理が実行される。つまり、下記式(10)に示すように、被写体の画像における着目画素と周辺画素との信号値の差によって、フィルタ処理で参照する画素位置を決定する処理が行われる。
J*p= ΣI1q・f(|p−q|)・g(|I2p−I2q|)
/Σf(|p−q|)・g(|I2p−I2q|)・・・(10)
In the first embodiment and the second embodiment, the shaping process of the distance map image has been described as an example, but it can be implemented as a filter process for a general image. In that case, the filtering process is executed by an expression excluding h (q) which is the reliability of the distance information. That is, as shown in the following equation (10), a process of determining a pixel position to be referred to in the filter process is performed based on a difference in signal value between a target pixel and a peripheral pixel in the subject image.
J * p = ΣI1q · f (| pq |) · g (| I2p−I2q |)
/ Σf (| p−q |) · g (| I2p−I2q |) (10)
第1実施形態、第2実施形態では、整形処理に用いるビット深度変更の方法としてビットシフト量を設定し、ビットシフト演算を行うことで出力ビット数に抑える処理を行った。ビットシフトに代えて除算処理を行うことも可能である。除算処理を用いることで飽和画素数をより正確に算出することができ、整形後の距離マップの合成比率を算出する時に精度を高めることができる。ビットシフト量Aとビットシフト量Bの代わりに除算量Aと除算量Bを用いて、飽和画素数は、例えば下記式により計算可能である。
除算量A=入力信号最大値×フィルタ最大参照画素数×フィルタ分割数(中間画像の数)− 出力信号最大値 ・・・(11)
飽和画素数=除算量A / 除算量B ・・・(12)
各フィルタ処理時には除算量A,除算量Bによる除算処理が実行される。除算量Bについては参照画素数が少ない場合の影響が小さくなる値に設定される。
In the first and second embodiments, the bit shift amount is set as a method of changing the bit depth used for the shaping process, and the process of suppressing the number of output bits by performing the bit shift operation is performed. It is also possible to perform division processing instead of bit shift. By using the division process, the number of saturated pixels can be calculated more accurately, and the accuracy can be increased when calculating the composite ratio of the distance map after shaping. Using the division amount A and the division amount B instead of the bit shift amount A and the bit shift amount B, the number of saturated pixels can be calculated by the following equation, for example.
Division amount A = maximum input signal value × number of maximum filter reference pixels × number of filter divisions (number of intermediate images) −maximum output signal value (11)
Number of saturated pixels = divided amount A / divided amount B (12)
During each filter process, a division process using the division amount A and the division amount B is executed. The division amount B is set to a value that is less affected when the number of reference pixels is small.
本発明は、被写体の距離分布に関する情報としてデフォーカスマップデータを算出して使用する実施形態や、デフォーカス量を被写体距離(被写体の奥行き方向の距離)に換算した距離マップデータを使用する実施形態での適用が可能である。つまり、被写体の距離分布に関連するデータが示す情報(距離情報)は、画像内における被写体の距離値を直接的に表し、または距離値に対応する情報を間接的に表している。 The present invention uses an embodiment in which defocus map data is calculated and used as information related to the distance distribution of the subject, and an embodiment in which distance map data in which the defocus amount is converted into the subject distance (distance in the depth direction of the subject) is used. Can be applied. That is, information (distance information) indicated by data related to the distance distribution of the subject directly represents the distance value of the subject in the image or indirectly represents information corresponding to the distance value.
また視差測距方式への適用例では、異なる撮像条件で取得された視差画像に基づいて距離情報を算出する処理が実行される。具体的には、撮像部105の撮像素子は瞳分割型の撮像素子であり、二次元アレイ状に規則的な配列で配置された複数の画素部を有する。1つの画素部はマイクロレンズと、複数の光電変換部とから構成される。撮像光学系104の異なる瞳領域を通過する一対の光束を光学像としてそれぞれ結像させて、対をなす画像データを複数の光電変換部から出力することができる。対をなす画像間の相関演算によってデフォーカス量が算出され、デフォーカス量の分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップが生成される。この場合、距離マップ取得部110はデフォーカスマップデータ、またはデフォーカス量から変換される被写体距離の距離マップデータを取得する。
Further, in the application example to the parallax ranging method, a process of calculating distance information based on parallax images acquired under different imaging conditions is executed. Specifically, the imaging device of the
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:デジタルカメラ
101:システム制御部
104:撮像光学系
105:撮像部
107,601:画像処理部
108:記録媒体
110:距離マップ取得部
200,700:距離マップ整形部
DESCRIPTION OF SYMBOLS 100: Digital camera 101: System control part 104: Imaging optical system 105: Imaging part 107,601: Image processing part 108: Recording medium 110: Distance map acquisition part 200,700: Distance map shaping part
Claims (14)
前記取得手段により取得された前記画像に対して、フィルタ係数群が割り当てられたフィルタ範囲を用いてフィルタ処理を行うフィルタ手段と、
前記フィルタ処理を行う際の参照画素を決定する決定手段と、
前記フィルタ手段の出力に対してビットシフト演算または除算を行う演算手段と、
前記演算手段が異なる設定量でそれぞれ演算を行った複数の前記フィルタ処理の結果を、前記決定手段により決定された参照画素の数に対応する合成比率で合成する合成手段を備えることを特徴とする画像処理装置。 An acquisition means for acquiring an image of a subject;
Filter means for performing filter processing on the image acquired by the acquisition means using a filter range to which a filter coefficient group is assigned;
Determining means for determining a reference pixel when performing the filtering process;
Arithmetic means for performing bit shift operation or division on the output of the filter means;
The image processing apparatus includes a combining unit that combines a plurality of the filter processing results calculated by the calculating unit with different set amounts at a combining ratio corresponding to the number of reference pixels determined by the determining unit. Image processing device.
前記整形手段を構成する前記フィルタ手段は、前記データに対するフィルタ処理を行うことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 A shaping means for shaping data related to the distance distribution of the subject is provided,
The image processing apparatus according to any one of claims 1 to 3, wherein the filter unit included in the shaping unit performs a filter process on the data.
前記決定手段は、前記被写体の画像、および前記算出手段により算出された前記信頼度を用いて前記参照画素を決定することを特徴とする請求項4に記載の画像処理装置。 Calculating means for calculating reliability of data related to the distance distribution of the subject;
The image processing apparatus according to claim 4, wherein the determination unit determines the reference pixel using the image of the subject and the reliability calculated by the calculation unit.
前記合成手段は前記マップデータを取得して飽和参照画素数および前記合成比率を決定することを特徴とする請求項7または8に記載の画像処理装置。 A generator for generating map data representing the number of the reference pixels;
The image processing apparatus according to claim 7 or 8, wherein the synthesizing unit acquires the map data and determines a saturation reference pixel number and the synthesis ratio.
被写体を撮像する撮像手段を備えることを特徴とする撮像装置。 The image processing apparatus according to any one of claims 1 to 10,
An image pickup apparatus comprising image pickup means for picking up an image of a subject.
フィルタ手段によりフィルタ処理を行う際の参照画素を決定するステップと、
前記画像に対して、フィルタ係数群が割り当てられたフィルタ範囲を用いて前記フィルタ手段がフィルタ処理を行うステップと、
前記フィルタ手段の出力に対して演算手段がビットシフト演算または除算を行うステップと、
前記演算手段が異なる設定量でそれぞれ演算を行った複数の前記フィルタ処理の結果を、決定された前記参照画素の数に対応する合成比率で合成するステップを有することを特徴とする画像処理方法。 An image processing method executed by an image processing apparatus that acquires an image of a subject and performs image processing,
Determining a reference pixel when performing filtering by the filter means;
The filter means performing a filtering process on the image using a filter range to which a filter coefficient group is assigned;
A step of performing a bit shift operation or division on the output of the filter means;
An image processing method comprising: combining a plurality of the filter processing results respectively calculated by the calculation means with different set amounts at a combination ratio corresponding to the determined number of reference pixels.
A program for causing a computer of an image processing apparatus to execute each step according to claim 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015197906A JP6570406B2 (en) | 2015-10-05 | 2015-10-05 | Image processing apparatus, imaging apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015197906A JP6570406B2 (en) | 2015-10-05 | 2015-10-05 | Image processing apparatus, imaging apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017073613A true JP2017073613A (en) | 2017-04-13 |
JP6570406B2 JP6570406B2 (en) | 2019-09-04 |
Family
ID=58538421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015197906A Expired - Fee Related JP6570406B2 (en) | 2015-10-05 | 2015-10-05 | Image processing apparatus, imaging apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6570406B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005958A (en) * | 1999-06-17 | 2001-01-12 | Matsushita Electric Ind Co Ltd | Device and method for reducing noise, and recording medium therefor |
JP2004145615A (en) * | 2002-10-24 | 2004-05-20 | Mega Chips Corp | Image processor and image processing method |
JP2012044266A (en) * | 2010-08-12 | 2012-03-01 | Canon Inc | Image processing apparatus and image processing method |
JP2012048367A (en) * | 2010-08-25 | 2012-03-08 | Dainippon Printing Co Ltd | Jaggy reduction processing device and jaggy reduction processing method |
JP2013239119A (en) * | 2012-05-17 | 2013-11-28 | Canon Inc | Image processing device, image processing method, image processing program and imaging device |
JP2013242658A (en) * | 2012-05-18 | 2013-12-05 | Canon Inc | Image processing apparatus, imaging device, image processing method, and image processing program |
US20150116464A1 (en) * | 2013-10-29 | 2015-04-30 | Canon Kabushiki Kaisha | Image processing apparatus and image capturing apparatus |
-
2015
- 2015-10-05 JP JP2015197906A patent/JP6570406B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005958A (en) * | 1999-06-17 | 2001-01-12 | Matsushita Electric Ind Co Ltd | Device and method for reducing noise, and recording medium therefor |
US6757014B1 (en) * | 1999-06-17 | 2004-06-29 | Matsushita Electric Industrial Co., Ltd. | Video signal noise reduction apparatus, a method of reducing a noise in a video signal, and a recording medium storing a program of the method |
JP2004145615A (en) * | 2002-10-24 | 2004-05-20 | Mega Chips Corp | Image processor and image processing method |
JP2012044266A (en) * | 2010-08-12 | 2012-03-01 | Canon Inc | Image processing apparatus and image processing method |
JP2012048367A (en) * | 2010-08-25 | 2012-03-08 | Dainippon Printing Co Ltd | Jaggy reduction processing device and jaggy reduction processing method |
JP2013239119A (en) * | 2012-05-17 | 2013-11-28 | Canon Inc | Image processing device, image processing method, image processing program and imaging device |
JP2013242658A (en) * | 2012-05-18 | 2013-12-05 | Canon Inc | Image processing apparatus, imaging device, image processing method, and image processing program |
US20150116464A1 (en) * | 2013-10-29 | 2015-04-30 | Canon Kabushiki Kaisha | Image processing apparatus and image capturing apparatus |
JP2015088833A (en) * | 2013-10-29 | 2015-05-07 | キヤノン株式会社 | Image processing device, imaging device, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6570406B2 (en) | 2019-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10997696B2 (en) | Image processing method, apparatus and device | |
US9998650B2 (en) | Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map | |
US11195257B2 (en) | Image processing method, image processing apparatus, imaging apparatus, lens apparatus, storage medium, and image processing system | |
CN109255810B (en) | Image processing apparatus and image processing method | |
US9992478B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images | |
JP5968073B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
US9332195B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US11282176B2 (en) | Image refocusing | |
US9538074B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP6395429B2 (en) | Image processing apparatus, control method thereof, and storage medium | |
US10204400B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and recording medium | |
US10326951B2 (en) | Image processing apparatus, image processing method, image capturing apparatus and image processing program | |
JP6570406B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2017163412A (en) | Image processing system, its control method, imaging apparatus, and program | |
US9924157B2 (en) | Image processing device, image pickup apparatus, image processing method, and storage medium | |
JP6639155B2 (en) | Image processing apparatus and image processing method | |
JP6381212B2 (en) | Imaging apparatus and control method thereof | |
JP2024100117A (en) | Image processing device, imaging apparatus, image processing method, and program | |
JP2018200722A (en) | Image processing apparatus and control method therefor, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190806 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6570406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |