JP6752059B2 - 画像処理装置及び画像処理方法、プログラム並びに記憶媒体 - Google Patents

画像処理装置及び画像処理方法、プログラム並びに記憶媒体 Download PDF

Info

Publication number
JP6752059B2
JP6752059B2 JP2016110224A JP2016110224A JP6752059B2 JP 6752059 B2 JP6752059 B2 JP 6752059B2 JP 2016110224 A JP2016110224 A JP 2016110224A JP 2016110224 A JP2016110224 A JP 2016110224A JP 6752059 B2 JP6752059 B2 JP 6752059B2
Authority
JP
Japan
Prior art keywords
image
area
pixel
depth map
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016110224A
Other languages
English (en)
Other versions
JP2017216631A5 (ja
JP2017216631A (ja
Inventor
彰太 山口
彰太 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016110224A priority Critical patent/JP6752059B2/ja
Publication of JP2017216631A publication Critical patent/JP2017216631A/ja
Publication of JP2017216631A5 publication Critical patent/JP2017216631A5/ja
Application granted granted Critical
Publication of JP6752059B2 publication Critical patent/JP6752059B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画像における被写体の深さに対応する情報に基づく画像処理技術に関する。
従来より、画像における被写体の深度情報を用いた画像処理技術が提案されている。例えば、被写界深度が深い画像に対し、主被写体から離れている被写体に電子的なぼけを付与する背景ぼかし処理や、ピント位置をずらして連続撮影された複数画像に対し、合焦している領域同士を合成することで、任意の被写体全体に対して合焦しているような合成画像を得る深度合成処理などが挙げられる。
上記画像処理には、画角内の各画素に対する深度情報をマップデータ(以下、深度マップ)として取得しておく必要がある。深度マップを取得する技術は複数存在するが、代表的な手法として右目画像と左目画像から各画像の視差情報を算出し、視差情報を深度情報に換算する視差方式がある。しかしながら、視差方式では、図17に示すように遠近競合による誤差が存在し、画像処理結果に影響を及ぼす可能性がある。
ここで、図17を参照して、前述の遠近競合による課題ついて説明する。図17(a)に示すように、相関演算により視差量を算出する場合は、右目画像において被写体Aを着目位置とした場合、着目位置周辺の矩形で示したテンプレート領域に対して、左目画像の矩形のテンプレート領域の各位置で相関演算を行い、得られた評価値が最小になる位置を視差量として算出する。ここで、相関演算とは、テンプレートを用いたパターンマッチング方式である。
ところが、図17(b)に示すように、必ずしも相関演算による最小値が着目する被写体(被写体A)の深度に対応した視差を示すとは限らず、着目する被写体に隣接する他の被写体(被写体B)の深度に対応した視差で最小となる場合がある。このため、被写体周辺部において、着目する被写体の深度情報を正確に算出できなくなる。このような課題は特に、被写体Bのテクスチャが被写体Aよりも多い場合に顕著となる。このような遠近競合の課題を解決するため、特許文献1には、遠近競合となる領域を別途算出し、当該領域ではあえて深度マップの解像度を落とすことで、遠近競合の影響を低減する技術が提案されている。
国際公開第2013/038833号公報
しかしながら、上記特許文献1では、深度マップの解像度を落としてしまうので、その後の画像処理で所望の解像度による処理が行えなくなってしまう。
本発明は、上記課題に鑑みてなされ、その目的は、深度マップの解像度を保ちつつ、遠近競合の影響を低減できる画像処理技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の画像処理装置は、画像と、該画像における被写体の深さに対応する深度情報の分布に関する深度マップを取得する取得手段と、前記画像における被写体領域を指定する指定手段と、前記画像を前記指定された被写体領域とその他の領域に分割する領域分割処理を実行する領域分割手段と、前記分割された領域における深度情報の信頼度に基づいて、前記深度マップを整形する深度マップ整形手段と、を有し、前記深度マップ整形手段は、着目画素が被写体領域に属する場合は前記領域分割処理の結果と前記信頼度を用いて深度マップを整形し、着目画素が被写体領域に属さない場合は前記領域分割処理の結果と前記着目画素の信号と前記取得手段が取得した画像の信号とを比較した結果と前記信頼度に基づいて深度マップを整形する。
また、本発明の画像処理装置は、画像を取得する取得手段と、前記画像における被写体領域を指定する指定手段と、前記画像を前記指定された被写体領域とその他の領域に分割する領域分割処理を実行する領域分割手段と、前記領域分割処理により分割された前記被写体領域とその他の領域との境界にある境界画素周辺に所定量以上の長さのエッジ部分が存在するか否かを判定することで、前記領域分割処理の結果の信頼度を判定する判定手段と、前記信頼度に基づいて、前記画像における被写体の深さに対応する深度情報の分布に関する深度マップを取得するマップ取得手段と、を有し、前記判定手段は、前記境界画素周辺に所定量以上の長さのエッジ部分が存在すれば、境界としての信頼度が高い画素と判定し、前記境界画素周辺に所定量以上の長さのエッジ部分が存在しない場合は、境界として信頼度が低い画素と判定する。
本発明によれば、深度マップの解像度を保ちつつ、遠近競合の影響を低減した画像処理を行うことが可能となる。
本実施形態の装置構成を示すブロック図(a)および画像処理部の機能ブロック図(b)。 深度マップ算出処理を示すフローチャート。 実施形態1の領域分割処理を示すフローチャート。 画像処理の選択画面(a)、被写体領域の初期値入力画面(b)、初期値が入力された画面(c)および領域分割処理結果の表示画面(d)を例示する図。 深度マップ整形部の機能ブロックおよびRAMとの関係を説明する図。 遠近競合信頼度マップ算出処理を示すフローチャート。 主被写体領域内の画素と他の領域までの距離算出方法を説明する図。 主被写体領域内の画素と他の領域までの距離と遠近競合信頼度の関係を示す図。 深度マップ整形処理を示すフローチャート。 主被写体領域に所属する画素に対するフィルタリング整形処理を説明する図(a)および背景領域に所属する画素に対するフィルタリング整形処理を説明する図(b)。 背景ぼかし処理の説明図。 実施形態2の画像処理部の機能ブロック図。 実施形態2の領域分割処理を示すフローチャート。 実施形態2の領域分割処理における信頼性評価処理を示すフローチャート。 実施形態2の深度マップ算出処理を示すフローチャート。 深度マップ算出処理における視差画像の相関演算処理を説明する図。 遠近競合による課題を説明する図。
以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。
[実施形態1]
実施形態1では、ステレオ撮影された画像データから深度マップを算出し、後処理でユーザ指示に基づく領域分割処理を実行し、分割領域を参照しながら深度マップを整形することで、遠近競合の影響が低減された深度マップを生成する。
<装置構成>
まず、図1(a)を参照して、本実施形態の画像処技術を実現するデジタルカメラ等の撮像装置100の構成および機能について説明する。
図1(a)において、システム制御部101は、CPUやMPU等の演算処理装置を備え、撮像装置100の全体を統括して制御する。システム制御部101は、後述するROM102に格納された動作プログラムを読み出し、後述のRAM103に展開して実行することにより撮像装置100が備える各ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
本実施形態ではステレオ撮影を想定しているため、光学系および撮像部を複数(例えば、2つ)備える。第1光学系104および第2光学系106は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、左右に隣接して配置される。それぞれの被写体像は第1撮像部105および第2撮像部107に結像する。第1撮像部105および第2撮像部107は、例えばCCDやCMOS等のイメージセンサを含み、光学系により撮像部に結像された光学像を光電変換し、得られた一対のアナログ画像信号を順次A/D変換部108に出力する。A/D変換部108は、入力されたアナログ画像信号にデジタル画像信号に変換し、得られた一対のデジタル画像データをRAM103に出力する。
画像処理部109は、RAM103に記録された左右一対の画像データに対して、ホワイトバランス調整、色補間、ガンマ処理、電子ズーム処理など、様々な画像処理を適用する。また、画像処理部109は、後述の深度マップ算出処理、ユーザ指示に基づく領域分割処理、深度マップ整形処理、および深度マップを用いた後画像処理などの画像処理を行う。本処理については後に詳細な説明を行う。
表示部110は、LCDや有機ELなどの表示デバイスであり、RAM103および後述の記録部111に記録した画像やユーザ操作による指示を受け付けるためのGUI(グラフィカルユーザインターフェース)画面などを表示する。記録部111は着脱可能なメモリカード等であり、画像処理部109で処理された画像が、RAM103を介し、記録画像として記録される。
<画像処理部109>
次に、図1(b)を参照して、本実施形態の画像処理部109について詳細に説明を行う。
図1(b)に示すように、画像処理部109は、深度マップ算出部200、領域分割処理部300、深度マップ整形部400、背景ぼかし処理部500を備える。ここで、深度マップを用いた後の画像処理としては、背景ぼかし処理を行うものとする。次に、各処理ブロックにおける処理の内容について、詳細な説明を行う。
(深度マップ算出部200)
ここで、図2を用いて、システム制御部101による制御に従って、画像処理部109の深度マップ算出部200が実行する処理を説明する。
S201では、RAM103に読み出した左右一対の画像データを入力する。S202では、右目画像の着目画素に対する左目画像のずれ量を算出する。ずれ量の算出手法は、前述の相関演算により行う。なお、以下、上記左右一対の視差画像のうち右目画像を主画像とし、左目画像を副画像とする。従って、表示部110に表示する画像や、入力画像という文言は、全て右目画像を示すものとする。S203では、S202で算出したずれ量を深度情報に変換する。ずれ量と深度の変換係数は、レンズやイメージセンサなどの撮像条件から一意に定まる。着目画素位置の座標を(x、y)、算出したずれ量をm(x、y)ピクセルとした場合、着目画素位置における深度情報d(x、y)は、変換係数kを用いて以下の式1のように表現できる。
d(x、y)=k÷m(x、y)・・・(1)
ただし、m=0の場合、dは無限遠
S204では、右目画像に対する全画素に対して、深度情報を算出したか否かを判定し、算出していない場合は、S205において着目画素位置を更新し、S202以降の処理を同様に繰り返す。また、深度情報を算出した場合は、S206において算出した深度マップをRAM103に保存し、深度マップ算出部200における処理を終了する。
以上の深度マップ算出処理によって、撮像部で取得した左右一対の画像データに対応した深度マップを取得することができる。
(領域分割処理部300)
次に、領域分割処理部300について詳細な説明を行う前に、本処理の発動条件について説明を行う。
入力画像および深度マップの取得後、撮像装置100はユーザに対し、所望の画像処理の選択を促す。図4(a)は、ユーザに対し表示部110を介して、撮影画像に対する画像処理を促すUI画面を例示している。画像表示ウィンドウ401aには、撮影した画像を表示し、メッセージウィンドウ402aには、所望の画像処理の選択を促すメッセージを表示する。画像処理選択ウィンドウ403aには、画像処理の候補を一覧表示する。ユーザは、撮像装置100に設けられた十字キーを用いたり、表示部110を直接タッチすることで、所望の画像処理を選択可能である。
ユーザが図4(a)のUI画面からいずれかの画像処理を選択すると、当該選択された画像処理が深度マップを必要とする処理であるか否かを判定し、必要である場合は領域分割処理部300が発動する。図4(a)の例では、「背景をぼかす」が選択された場合に、領域分割処理部300が発動するものとする。
図3は、システム制御部101による制御に従って、画像処理部109の領域分割処理部300が実行する処理を示している。
S301では、初期値の入力を受け付ける。ここで、初期値は、主被写体と背景を示す領域情報であり、UI画面を介してユーザ操作を受け付けるものとする。
図4(b)は、表示部110に表示される初期値入力画面を例示している。画像表示ウィンドウ401bには、撮影した画像を表示し、メッセージウィンドウ402bには、主被写体と背景の初期値入力を促すメッセージを表示する。ユーザは、表示されたペンアイコン403bを操作し、初期値を入力する。図4(c)は、初期値入力画面に対する初期値入力例を示し、実線で示した402cが主被写体を示す初期値であり、破線で示した401cが背景を示す初期値である。
S302では、初期値に基づく領域成長処理を実施する。本実施形態においては、本処理は広く知られているWatershed法を行うものとする。Watershed法とは、初期値の近接画素に対し、差分値が小さい画素から領域を確定させていく領域成長処理である。
S303では、表示部110に対し、領域分割結果の表示を行う。図4(d)は、領域分割結果表示の一例である。上記領域成長処理の結果、画像表示ウィンドウ401dには、主被写体側と判定された領域が白で表示され、背景側と判定された領域がグレーで表示されている。メッセージウィンドウ402dには、ユーザに対し領域分割処理の終了を促す表示を行う。図4(d)の例では、領域分割失敗部分403dが存在するので、ユーザは分割処理を終了せず、ペンツール404dでさらに背景側の指定を領域403dに追加する。上記追加入力がS305の処理であり、S306では、追加入力を新たに初期値に加え、再度S302の領域成長処理を実行する。本処理を繰り返し、ユーザが領域分割を終了すると判定した場合は、S307において、領域分割結果をRAM103に保存し、領域分割処理部300における処理を終了する。
以上の領域分割処理によって入力画像に対して主被写体と背景に分割した領域分割結果を取得することができる。
(深度マップ整形部400)
次に、図5および図6を参照して、深度マップ整形部400について詳細な説明を行う。図5は、深度マップ整形部400の処理ブロックとRAM103を示している。図5に示すように、深度マップ整形部400は、遠近競合信頼度マップ算出部501と整形処理部502を備え、RAM103から深度マップと対応する入力画像、領域分割結果が入力される。以下、各処理ブロックについて詳細な説明を行う。
遠近競合信頼度マップ算出部501には、領域分割処理部300で得た領域分割結果が入力される。前述の通り、遠近競合により正確に深度マップが推定できない課題は、原理的には深度が切り替わる境界付近で発生する。その中で、ユーザが主被写体と背景とを切り分けた処理を所望する場合は、主被写体と背景の境界付近に着目する必要がある。遠近競合信頼度は、遠近競合による深度マップの信頼度を示し、境界付近で信頼度が低く、境界から遠くなるほど信頼度は高くなる。
図6は、システム制御部101による制御に従って、深度マップ整形部400の遠近競合信頼度マップ算出部501が実行する処理を示している。
S601では、着目画素を設定する。S602では、着目画素の所属領域を取得する。ここでは、上記領域分割結果における着目画素位置が主被写体と背景のどちらであるかを判定する。S603では、所属領域と異なる領域への最短距離min_distを算出する。
図7は、min_dist算出を説明する図である。図7の例では、着目画素位置は主被写体側である。具体的な算出方法は図7に示すように、着目画素位置を中心に辺の長さLの正方向を配置し、正方形内部において、背景領域に所属する画素への距離をそれぞれ算出し、その最小値をmin_distとする。正方形内部の全画素にわたって着目画素と同一属性の場合は、min_distには正方形の対角線長の1/2の値を設定する。また、正方形の辺の長さLは、深度マップ算出時の相関演算におけるテンプレート領域から設定する。理由は、前述した遠近競合の原理的に、テンプレート領域のサイズが大きいほど、遠近競合が生じる可能性がある領域のサイズが大きくなるからである。
S604では、min_distから遠近競合信頼度を算出する。図8は、min_distと遠近競合信頼度Confの関係を示すグラフである。図8から分かるように、min_distが小さいほどConfは小さく、min_distが大きいほどConfは大きくなる。これは、主被写体と背景の境界面から近いほど、遠近競合が発生する可能性が高いので信頼度は低く、反対に遠いほど、遠近競合が発生する可能性が低いので信頼度は高くなることを意味している。上述した特性に従い、min_distから遠近競合信頼度Confを算出する。なお、図8のTH1,TH2,Conf_min,Conf_maxは調整パラメータであるが、特にTh1,TH2は前述のLと同様、深度マップ算出時の相関演算におけるテンプレート領域のサイズに応じて設定するのが望ましい。
S605では、全画素に対して遠近競合信頼度Confを算出したか否かを判定し、算出していない場合は、S606において着目画素位置を更新し、S602以降の処理を繰り返す。一方、算出した場合は、S607において作成した遠近競合信頼度マップをRAM103に保存し、本処理を終了する。
次に、整形処理部502について詳細な説明を行う。図5に示すように、整形処理部502には、整形前の深度マップ、入力画像、領域分割結果、および遠近競合信頼度マップ算出部501で算出した遠近競合信頼度マップが入力される。
図9は、システム制御部101による制御に従って、深度マップ整形部400の整形処理部502が実行する処理を示している。
S901で、着目画素を設定する。S902で、領域分割結果を参照しながら、着目画素が主被写体領域に属するか否かを判定し、属する場合はS903、属しない場合はS904へ進む。
S903では、主被写体領域に所属する画素に対するフィルタリング整形処理を行う。本処理では、領域分割結果、および遠近競合信頼度を用いる。図10(a)は、フィルタリング範囲を7pixelとした時の、本フィルタリング整形処理の動作を説明する図である。着目画素位置は(i,j)である。図10(a)に示すように、フィルタリングに使用するフィルタカーネルは、着目画素位置と同じ属性の領域のみ、遠近競合信頼度をそのまま使用し、異なる属性の領域では0を使用する。図10(a)の例では、着目画素位置の属性がF(主被写体領域)のため、同じ属性Fの位置では遠近競合信頼度を出力し、異属性B(背景領域)の領域ではフィルタカーネルとして0を出力する。
座標(i,j)における整形前の深度マップの値をDepth[i][j]、フィルタカーネルの値をFil[i][j]とした時、整形後の深度マップの値DR[i][j]は以下の式2で算出される。
DR[i][j]={ΣΣ(Depth[i][j]×Fil[i][j])}/{ΣΣFil[i][j]・・・(2)
上記式2において、分子分母それぞれにある2つの加算記号は、いずれも所定サイズのフィルタ内部について、垂直方向および水平方向の和をとることを意味する。本処理では、着目画素位置と同じ属性の遠近競合信頼度を直接フィルタカーネルとして使用するため、同じ主被写体の領域のみがフィルタリングの対象となり、かつ、異なる物体の境界付近の重み係数を小さくすることができるので、境界付近で発生している可能性が高い遠近競合による誤推定の影響を低減しつつ、整形処理を行うことができる。
S904では、背景領域に所属する画素に対するフィルタリング整形処理を行う。図10(b)は、フィルタリング範囲を7pixelとした時の、本フィルタリング整形処理の動作を説明する図である。着目画素位置は(i,j)である。図10(b)に示すように、フィルタリングに使用するフィルタカーネルは、着目画素位置と同じ属性の領域かつ、着目画素位置と入力画像信号の差異が小さい領域のみ、遠近競合信頼度をそのまま使用し、その他の領域では0を使用する。ここで、入力画像信号の差異が小さいとは、以下の式3で計算されるDiff[x][y]が所定の閾値以下である場合とする。
Diff[x][y]=|R[x][y]−R[i][j]|+|G[x][y]−G[i][j]|+|B[x][y]−B[i][j]|・・・(3)
ここで、(x,y)は所定サイズのフィルタ内部における任意の座標であり、R,G,Bはそれぞれ画像信号の信号値である。図10(b)の例では、着目画素位置の属性がBのため、同じ属性Bの位置で、かつ画像信号差分が小さい位置では遠近競合信頼度を出力し、その他の領域ではフィルタカーネルとして0を出力する。整形後の深度マップDR[i][j]の算出方法は、式2と同様である。
S904は、S903と比較して、入力画像信号を用いる点が異なる。その理由は以下の通りである。
主被写体領域は意味のある1つの物体である場合が多いため、その内部の深度分布は略一様か、滑らかな分布になっている場合が多く、主被写体領域内の全ての座標で平滑化した方がよいと考えられる。一方、背景領域には複数の深度が異なる物体が含まれることが多く、それらを平滑化してしまうと、正しい深度分布とはならない。よって、異なる物体間は区別して平滑化を行う必要があり、その判断材料として色信号の類似度を用いる。
S905では、全画素についてフィルタリング処理を行ったか否かを判定し、フィルタリング処理を行っていない場合は、S906において、着目画素を更新し、S902以降の処理を繰り返し行う。一方、フィルタリング処理を行った場合には、S907において、整形前の深度マップに対し、本処理で得られた整形後の深度マップをRAM103に上書き保存する。
以上の深度マップ整形処理によって、遠近競合の影響を低減し、主被写体の輪郭に沿った形に整形された深度マップを取得することができる。
<背景ぼかし処理部500>
次に、図11を参照して、背景ぼかし処理部500について詳細な説明行う。図11(a)に示す入力画像に対し、図11(b)は整形後の深度マップを示す。深度マップの見方としては、明るいほど撮像装置100からの距離が近く、暗いほど撮像装置からの距離が遠いことを示す。
処理の概要としては、主被写体の距離からの相対距離に応じて、距離が遠くなるほどぼかし量を大きくするような処理を施す。具体的には、入力画像をぼかすぼかしフィルタの参照範囲をコントロールする。ここで、ぼかしフィルタは、例えば特開2009−218708号公報に開示されているような、既知の円柱型のフィルタであるものとする。図11の例では、主被写体の背後にある三角形の物体ではぼかし量が小さくなり、その背後の領域ではぼかし量を大きくするような処理を行う。最後に、ぼかし処理後の入力画像を記録部111に保存する。
以上の背景ぼかし処理によって入力画像において主被写体からの距離に応じたぼけを付与したぼかし画像を取得することができる。
なお、本実施形態では、背景ぼかし処理に先立って入力画像の領域分割結果をUI画面に表示したが、整形前の深度マップを用いて自動で背景ぼかし処理を行い、処理後の画像を表示してユーザが修正を所望した場合にのみ、領域分割処理を行うようにしてもよい。
また、本実施形態では背景ぼかし処理に先立って入力画像の領域分割処理をUI画面にて行ったが、領域分割結果を直接表示するのではなく、領域分割処理の各ステップにおいて、背景ぼかし処理を施した画像を表示部に表示し、ユーザが最終画像を確認しながら領域分割処理を行うという実施形態も考えられる。
[実施形態2]
実施形態2では、ステレオ撮影により得られた画像を記録し、後処理でユーザ指示に基づく領域分割処理を実行し、分割領域を参照しながら深度マップを算出することで、遠近競合の影響が低減された深度マップを取得する。実施形態1との違いは、後処理で深度マップを整形するのではなく、深度マップ取得時に直接領域分割結果を参照する点である。
本実施形態は、画像処理部109の動作が実施形態1と異なる。図12は、本実施形態において画像処理部109が具備する主要な処理ブロックを示している。図12に示すように、画像処理部109は、領域分割処理部600、深度マップ算出部700、背景ぼかし処理部800を備える。実施形態1との違いは、本実施形態では先に領域分割処理部600が動作する点であり、また、深度マップ整形部は備えていない。
また、実施形態1の画像処理部109での処理と異なるのは、領域分割処理部600と深度マップ算出部700の処理である。以下、実施形態の2の領域分割処理部600と深度マップ算出部700が実行する処理について詳細な説明を行う。
(領域分割処理部600)
図13は、システム制御部101による制御に従って、本実施形態の画像処理部109の領域分割処理部600が実行する処理を示している。なお、図13におけるS1301〜S1305、S1310は、図3のS301〜S305、S307と同様であり、実施形態1の図3と異なる処理は、S1307における領域分割結果の信頼性評価とS1309における警告表示である。本処理は、領域分割結果が後処理を行う際に十分信頼できるか否かを判定する。理想的には、領域分割結果は主被写体と背景のエッジ部分に沿うはずであり、具体的な処理は領域分割結果がエッジ部分に沿っているか否かで判定する。
ここで、図14を用いて、S1307の詳細な処理を説明する。
S1401では、入力画像におけるエッジ抽出処理を行う。本エッジ抽出処理は、既知のバンドパスフィルタを用いるものとする。S1402では、着目画素を設定する。S1403では、着目画素が境界画素か否かを判定する。判定方法は、領域分割結果における着目画素周辺の所定領域では、領域の属性が変化するか否かを判定し、変化している場合は境界画素、変化していない場合は境界画素ではないと判定する。判定の結果、境界画素と判定された場合はS1404に進み、着目画素が信頼度の高い境界画素か否かの判定を行う。一方、境界画素ではないと判定された場合は信頼度算出の対象外となり、S1407に進む。
S1404では、境界画素周辺に所定量以上のエッジ部分が存在するか否かを判定する。エッジ部分の判定は、S1401で抽出されたエッジ情報を利用する。前述の考察より、境界画素周辺に所定量以上のエッジ部分が存在すれば、エッジ部分に沿った境界である可能性が高く、境界としての信頼度が高い画素と判定し、S1405で境界画素数と信頼画素数をそれぞれインクリメントする。一方、境界周辺に所定量以上のエッジ部分が存在しない場合は、境界として信頼度が低い画素と判定し、S1406で境界画素数のみインクリメントする。
S1407では、上述した処理を全画素について行ったか否かを判定し、未処理の画素がある場合は、S1408で着目画素を更新し、S1403以降の処理を繰り返し行う。一方、全画素に行った場合は、次のS1409に進む。
S1409で、境界画素数に対する信頼画素数の割合を算出し、算出した割合が所定値以上か否かを判定する。算出した割合が高いほど、信頼できる境界画素数が多く、領域分割結果として信頼性が高いと考えられるため、算出した割合が所定値以上の場合は、S1410に進み、領域分割結果が信頼できるとして、本処理を完了する。一方、所定値未満の場合は、S1411に進み、領域分割結果が信頼できないとして、本処理を終了する。
図13に戻り、S1308での処理の結果、領域分割結果が信頼できないと判定された場合は、S1309で警告を発してユーザに注意を促し、追加入力を受け付けるためS1305に戻る。一方、領域分割結果が信頼できると判定された場合は、S1310で領域分割結果をRAM103に保存し、領域分割処理を終了する。
以上の領域分割処理によって信頼性の高い領域分割結果を取得することができる。また、S1307以降の信頼性評価処理は本実施形態にて説明したが、実施形態1における領域分割処理部300で同様の処理を行ってもよい。
また、本実施形態では、領域分割結果の信頼性が低い場合は、ユーザに警告を出すようにしたが、例えば、ユーザに警告を出さず、信頼性の低い領域に関しては、領域分割結果ではなく、周辺のエッジ情報を用いて後段の整形処理を行うようにしてもよい。
(深度マップ算出部700)
図15は、システム制御部101による制御に従って、本実施形態の画像処理部109の深度マップ算出部700が実行する処理を示している。なお、図15におけるS1503〜S1506は、図2のS203〜S206と同様であり、実施形態1の図2と異なる処理は、S1501において右目画像、左目画像に加え、領域分割結果をRAM103から入力している点と、S1502において右目画像と左目画像のずれ量を算出する際に領域分割結果を参照している点である。
図16は、S1502での相関演算によるずれ量算出処理を説明する図である。図16に示すように、相関演算のテンプレート領域に対し、対応する領域の領域分割結果を参照し、着目画素とは異なる領域に所属する画素をマスクしたマスクテンプレートを作成する。このマスクテンプレートを用いて、サーチ領域内の各位置で順次相関係数を算出する。相関係数算出時は、マスクされている領域は算出対象から除外する。
上述した処理を行うことで、着目画素位置とは異なる領域のテクスチャ(図16の例ではC,Dのテクスチャ)の影響で、深度の推定処理を誤ることがなくなるため、遠近競合の影響を排除した深度マップを得ることができる。
なお、本発明は、画像における被写体の深さに対応する情報としてさまざまな実施形態での適用が可能である。つまり、被写体の深さに対応するデータが示す情報(深さ情報)は、画像内における撮像装置から被写体までの被写体距離を直接的に表すか、または画像内の被写体の被写体距離や深さの相対関係を表す情報であればよい。
具体的には、図17(b)でも述べたように、相関演算により右目画像と左目画像の各画素位置での像ずれ量が算出され、像ずれ量の分布を表す像ずれマップが算出される。あるいはさらに像ずれ量がデフォーカス量に換算され、デフォーカス量の分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップが生成される。このデフォーカス量を光学系やイメージセンサの条件に基づいて被写体距離に換算すると、被写体距離の分布を表す深度マップデータが得られる。
以上のように、本実施形態の画像処理部109は、像ずれマップデータ、デフォーカスマップデータ、あるいはデフォーカス量から変換される被写体距離の深度マップデータを取得すればよい。なお、各マップデータの各データはブロック単位で持っていてもよいし、画素単位でもっていてもよい。このとき、通常の画像データのように最小単位ごとに8bit程度のbit数を割り当て、距離画像として画像処理や表示、記録などを画像処理と同様に行う形態をとってもよい。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101…システム制御部、109…画像処理部、110…表示部、111…記録部

Claims (19)

  1. 画像と、該画像における被写体の深さに対応する深度情報の分布に関する深度マップを取得する取得手段と、
    前記画像における被写体領域を指定する指定手段と、
    前記画像を前記指定された被写体領域とその他の領域に分割する領域分割処理を実行する領域分割手段と、
    前記分割された領域における深度情報の信頼度に基づいて、前記深度マップを整形する深度マップ整形手段と、を有し、
    前記深度マップ整形手段は、着目画素が被写体領域に属する場合は前記領域分割処理の結果と前記信頼度を用いて深度マップを整形し、着目画素が被写体領域に属さない場合は前記領域分割処理の結果と前記着目画素の信号と前記取得手段が取得した画像の信号とを比較した結果と前記信頼度に基づいて深度マップを整形することを特徴とする画像処理装置。
  2. 画像を取得する取得手段と、
    前記画像における被写体領域を指定する指定手段と、
    前記画像を前記指定された被写体領域とその他の領域に分割する領域分割処理を実行する領域分割手段と、
    前記領域分割処理により分割された前記被写体領域とその他の領域との境界にある境界画素周辺に所定量以上の長さのエッジ部分が存在するか否かを判定することで、前記領域分割処理の結果の信頼度を判定する判定手段と、
    記信頼度に基づいて、前記画像における被写体の深さに対応する深度情報の分布に関する深度マップを取得するマップ取得手段と、を有し、
    前記判定手段は、前記境界画素周辺に所定量以上の長さのエッジ部分が存在すれば、境界としての信頼度が高い画素と判定し、前記境界画素周辺に所定量以上の長さのエッジ部分が存在しない場合は、境界として信頼度が低い画素と判定することを特徴とする画像処理装置。
  3. 前記深度マップ整形手段は、前記被写体領域に属する画素位置の該被写体領域とその他の領域との境界までの前記画像上の距離に基づいて前記被写体領域における深度情報の信頼度の分布を示す信頼度マップを求める信頼度マップ算出手段を有し、
    前記被写体領域の画素位置が前記境界に近いほど前記信頼度が低くなり、前記境界から遠いほど前記信頼度は高くなることを特徴とする請求項1に記載の画像処理装置。
  4. 前記深度マップ整形手段は、前記着目画素の信号と前記取得手段が取得した画像の信号との差異が所定の閾値以下の場合に前記信頼度を用いることを特徴とする請求項1または3に記載の画像処理装置。
  5. 前記領域分割手段は、前記被写体領域とその他の領域との境界画素周辺でエッジ抽出処理を行い、
    前記判定手段は、前記境界画素周辺に所定量以上の長さのエッジ部分が存在しない場合は、前記境界としての信頼度が低いと判定し、前記領域分割処理のやり直しが必要であることを警告することを特徴とする請求項2に記載の画像処理装置。
  6. 前記領域分割手段は、前記被写体領域とその他の領域との境界画素周辺でエッジ抽出処理を行い、
    前記マップ取得手段は、前記境界画素周辺に所定量以上の長さのエッジ部分が存在しない場合に、前記エッジ抽出処理により抽出されたエッジ情報を用いて前記深度マップを取得することを特徴とする請求項に記載の画像処理装置。
  7. 前記深度マップ整形手段は、前記深度マップを整形する処理において、前記被写体領域とその他の領域の境界からの前記画像上の距離が遠くなるほど前記被写体領域における深度情報を平滑化する際の重みを大きくしてフィルタリングを行うことを特徴とする請求項1、3、4のいずれか1項に記載の画像処理装置。
  8. 前記境界からの前記画像上の距離と平滑化における重みの関係は、前記深度マップを取得するために複数の画像の相関演算を行う際に用いるテンプレート領域の範囲に基づいて決められることを特徴とする請求項7に記載の画像処理装置。
  9. 前記深度マップ整形手段は、前記被写体領域と分割されたその他の領域では色信号の類似度を参照して平滑化を行うか否かを決めることを特徴とする請求項7または8に記載の画像処理装置。
  10. 前記深度マップ整形手段により整形された深度マップは、整形される前の深度マップに上書きされて保存されることを特徴とする請求項1、3、4、7、8、9のいずれか1項に記載の画像処理装置。
  11. 前記深度マップは、視差の異なる複数の画像の相関演算に基づいて取得されることを特徴とする請求項1ないし10のいずれか1項に記載の画像処理装置。
  12. 前記相関演算は、前記相関演算に用いるテンプレート領域を前記被写体領域とその他の領域との境界でマスクすることにより行われることを特徴とする請求項11に記載の画像処理装置。
  13. 前記指定手段は、前記画像に対する所定の画像処理の指示を受けた場合にユーザによる前記被写体領域の指定を受け付けることを特徴とする請求項1ないし12のいずれか1項に記載の画像処理装置。
  14. 前記指定手段は、前記画像に所定の画像処理が自動で実施された結果に基づいて修正の指示を受けた場合に、ユーザによる前記被写体領域の指定を受け付けることを特徴とする請求項1ないし12のいずれか1項に記載の画像処理装置。
  15. 前記画像に前記所定の画像処理を施した結果を表示する表示手段をさらに有し、
    前記指定手段は、前記表示手段により前記所定の画像処理を施した画像を表示しつつ、ユーザによる前記被写体領域の指定を受け付けることを特徴とする請求項13または14に記載の画像処理装置。
  16. 取得手段が、画像と、該画像における被写体の深さに対応する深度情報の分布に関する深度マップを取得するステップと、
    指定手段が、前記画像における被写体領域を指定するステップと、
    領域分割手段が、前記画像を前記指定された被写体領域とその他の領域に分割する領域分割処理を実行するステップと、
    深度マップ整形手段が、前記分割された領域における深度情報の信頼度に基づいて、前記深度マップを整形するステップと、を有し、
    前記深度マップを整形するステップでは、着目画素が被写体領域に属する場合は前記領域分割処理の結果と前記信頼度を用いて深度マップを整形し、着目画素が被写体領域に属さない場合は前記領域分割処理の結果と前記着目画素の信号と前記取得手段が取得した画像の信号とを比較した結果と前記信頼度に基づいて深度マップを整形することを特徴とする画像処理方法。
  17. 取得手段が、画像を取得するステップと、
    指定手段が、前記画像における被写体領域を指定するステップと、
    領域分割手段が、前記画像を前記指定された被写体領域とその他の領域に分割する領域分割処理を実行するステップと、
    判定手段が、前記領域分割処理により分割された前記被写体領域とその他の領域との境界にある境界画素周辺に所定量以上の長さのエッジ部分が存在するか否かを判定することで、前記領域分割処理の結果の信頼度を判定するステップと、
    マップ取得手段が、前記信頼度に基づいて、前記画像における被写体の深さに対応する深度情報の分布に関する深度マップを取得するステップと、を有し、
    前記判定するステップでは、前記境界画素周辺に所定量以上の長さのエッジ部分が存在すれば、境界としての信頼度が高い画素と判定し、前記境界画素周辺に所定量以上の長さのエッジ部分が存在しない場合は、境界として信頼度が低い画素と判定することを特徴とする画像処理方法。
  18. 請求項16または17に記載された画像処理方法を、コンピュータに実行させるためのプログラム。
  19. 請求項16または17に記載された画像処理方法を、コンピュータに実行させるためのプログラムを記憶したコンピュータによる読み取りが可能な記憶媒体。
JP2016110224A 2016-06-01 2016-06-01 画像処理装置及び画像処理方法、プログラム並びに記憶媒体 Active JP6752059B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110224A JP6752059B2 (ja) 2016-06-01 2016-06-01 画像処理装置及び画像処理方法、プログラム並びに記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110224A JP6752059B2 (ja) 2016-06-01 2016-06-01 画像処理装置及び画像処理方法、プログラム並びに記憶媒体

Publications (3)

Publication Number Publication Date
JP2017216631A JP2017216631A (ja) 2017-12-07
JP2017216631A5 JP2017216631A5 (ja) 2019-07-04
JP6752059B2 true JP6752059B2 (ja) 2020-09-09

Family

ID=60577368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110224A Active JP6752059B2 (ja) 2016-06-01 2016-06-01 画像処理装置及び画像処理方法、プログラム並びに記憶媒体

Country Status (1)

Country Link
JP (1) JP6752059B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5615552B2 (ja) * 2006-11-21 2014-10-29 コーニンクレッカ フィリップス エヌ ヴェ 画像の深度マップの生成
JP5533529B2 (ja) * 2010-10-06 2014-06-25 コニカミノルタ株式会社 画像処理装置及び画像処理システム
JP5132754B2 (ja) * 2010-11-10 2013-01-30 株式会社東芝 画像処理装置、方法およびそのプログラム
JP2013012820A (ja) * 2011-06-28 2013-01-17 Sony Corp 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるプログラム
US9582888B2 (en) * 2014-06-19 2017-02-28 Qualcomm Incorporated Structured light three-dimensional (3D) depth map based on content filtering

Also Published As

Publication number Publication date
JP2017216631A (ja) 2017-12-07

Similar Documents

Publication Publication Date Title
KR102480245B1 (ko) 패닝 샷들의 자동 생성
US20200234397A1 (en) Automatic view mapping for single-image and multi-view captures
JP6244655B2 (ja) 画像処理装置および画像処理方法
US9208396B2 (en) Image processing method and device, and program
KR102464523B1 (ko) 이미지 속성 맵을 프로세싱하기 위한 방법 및 장치
JP5281972B2 (ja) 撮像装置
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
JP5374119B2 (ja) 距離情報取得装置、撮像装置、及びプログラム
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
TW201131512A (en) Distance evaluation methods and apparatuses, and machine readable medium thereof
CN106997579B (zh) 图像拼接的方法和装置
JP5464279B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
US20140340486A1 (en) Image processing system, image processing method, and image processing program
JP5653104B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5874649B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
JP6274876B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5900017B2 (ja) 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
JP6752059B2 (ja) 画像処理装置及び画像処理方法、プログラム並びに記憶媒体
WO2014049346A1 (en) Image filtering
CN107680083B (zh) 视差确定方法和视差确定装置
JP7296750B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2018160024A (ja) 画像処理装置、画像処理方法及びプログラム
JP5891751B2 (ja) 画像間差分装置および画像間差分方法
JP6949494B2 (ja) 画像処理装置および画像処理方法、撮像装置、プログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200818

R151 Written notification of patent or utility model registration

Ref document number: 6752059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151