JP6121776B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6121776B2
JP6121776B2 JP2013072669A JP2013072669A JP6121776B2 JP 6121776 B2 JP6121776 B2 JP 6121776B2 JP 2013072669 A JP2013072669 A JP 2013072669A JP 2013072669 A JP2013072669 A JP 2013072669A JP 6121776 B2 JP6121776 B2 JP 6121776B2
Authority
JP
Japan
Prior art keywords
parallax
image
resolution
value
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013072669A
Other languages
English (en)
Other versions
JP2014197314A (ja
Inventor
文香 中谷
文香 中谷
佳宏 明官
佳宏 明官
大場 章男
章男 大場
稲田 徹悟
徹悟 稲田
博之 勢川
博之 勢川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Sony Corp
Original Assignee
Sony Interactive Entertainment Inc
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Corp filed Critical Sony Interactive Entertainment Inc
Priority to JP2013072669A priority Critical patent/JP6121776B2/ja
Priority to US14/189,026 priority patent/US9684964B2/en
Priority to CN201410069216.3A priority patent/CN104079912B/zh
Publication of JP2014197314A publication Critical patent/JP2014197314A/ja
Application granted granted Critical
Publication of JP6121776B2 publication Critical patent/JP6121776B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本開示は、画像処理装置及び画像処理方法に関する。
ステレオマッチングを高速に行うためにシンプルなアルゴリズムで視差を算出すると、間違った視差値が多く算出される問題がある。この問題を解決するために、下記の非特許文献1に記載される手法が提案されている。
YUICHI OHTA, TAKEOKANADA "Stereo by Intra-andInter-Scanline Search Using Dynamic Programming"IEEE TRANSACTIONS ON PATTERNANALYSIS AND MACHINE INTELLIGENCE, VOL. PAMI-7, No. 2, MARCH 1985
非特許文献1には、エピポーラライン上の視差がなめらかに変化するように拘束をかけて視差を算出する手法が記載されている。しかしながら、上記非特許文献1に記載されているような従来技術では、横引きノイズが出たり、同じ水平ライン上にある視差測定結果の影響を受けたりするなどの弊害がある、また処理量が多くなるなどの問題がある。一方、左右の視差情報を相互参照し、信頼性を確かめながら間違った視差を排除するというシンプルな手法では、ステレオマッチングにより得られた左右の視差値を1対1で比較して統合(マージ)するため、左右の視差のいずれかが異常値をとっている場合は、マージした視差値の信頼性が低下し、有効な視差値を得られない問題がある。このため、視差値に基づいて物体の距離を検出することが困難となっていた。
そこで、ステレオマッチングによる左右の視差値をマージする際に、一方の視差の値が正常でない場合であっても、マージした視差値を精度良く求めることが望まれていた。
本開示によれば、左右のカメラが撮像した1対の撮像画像に基づいて、ステレオマッチングにより左右の視差画像をそれぞれ取得するステレオマッチング部と、前記視差画像にフィルタ処理を行うフィルタ処理部と、前記フィルタ処理が行われた前記視差画像について、左右の前記視差画像の対応する位置の視差値を比較し、比較の結果に基づいて左右の前記視差画像の視差値をマージする第1のマージ部と、を備える、画像処理装置が提供される。
また、前記フィルタ処理部は、左右の前記視差画像の少なくとも一方に前記フィルタ処理を行うものであっても良い。
また、前記フィルタ処理部は、左右の前記視差画像の双方に前記フィルタ処理を行うものであっても良い。
また、前記フィルタ処理部は、メディアンフィルタから構成されるものであっても良い。
また、前記フィルタ処理部は、左右の前記視差画像の一方に前記フィルタ処理を行い、
前記第1のマージ部は、前記フィルタ処理が行われた一方の視差画像の特定の画素の視差値と、前記フィルタリングが行われていない他方の視差画像の前記特定の画素に対応する画素及びその周辺の複数の画素の視差値とを比較するものであっても良い。
また、前記第1のマージ部は、前記特定の画素の視差値と前記他方の視差画像の前記特定の画素に対応する画素及びその周辺の複数の画素のそれぞれの視差値との差分と、所定のしきい値との比較の結果に基づいて、前記視差値をマージするものであっても良い。
また、前記第1のマージ部は、前記所定のしきい値と前記視差値の信頼度との関係を規定した伝達関数に基づいて、前記視差値をマージするものであっても良い。
また、複数の解像度の前記撮像画像を取得し、前記ステレオマッチング部、前記フィルタ処理部、及び前記第1のマージ部は、前記複数の解像度毎に対応して複数設けられ、前記第1のマージ部がマージした前記複数の解像度毎の視差値をマージする第2のマージ部を更に備えるものであっても良い。
また、前記第2のマージ部は、第1の解像度の前記視差画像の特定の画素の視差値が得られていない場合は、前記第1の解像度よりも低い第2の解像度の前記視差画像の前記特定の画素に対応する画素の視差値に基づいて、前記複数の解像度毎の視差値をマージするものであっても良い。
また、前記ステレオマッチング部は、前記左右の視差画像の視差値について信頼度を算出する信頼度算出部を含み、前記第2のマージ部は、前記信頼度が所定のしきい値よりも高い場合に、前記第1の解像度の前記視差画像の特定の画素の視差値が得られていない場合は、当該視差値を不明値とするものであっても良い。
また、前記第2のマージ部は、第1の解像度の視差画像の視差値に基づいて、前記第1の解像度よりも高解像度の第2の解像度の視差画像の視差値を書き換えるものであっても良い。
また、前記第2のマージ部は、前記第1の解像度の視差画像の特定の画素と隣接する複数の画素の視差値が所定の範囲内である場合は、前記特定の画素の視差値に基づいて前記第2の解像度の視差画像の前記特定の画素に対応する画素の視差値を書き換えるものであっても良い。
また、前記第2のマージ部は、前記複数の解像度のうち最も低い解像度の視差画像の注目領域における視差値に基づいて、前記複数の解像度の1つを選択し、選択した解像度の視差画像に基づいて前記注目領域の視差値をマージするものであっても良い。
また、本開示によれば、左右のカメラが撮像した1対の撮像画像に基づいて、ステレオマッチングにより左右の視差画像をそれぞれ取得することと、前記視差画像にフィルタ処理を行うことと、前記フィルタ処理が行われた前記視差画像について、左右の前記視差画像の対応する位置の視差値を比較し、比較の結果に基づいて左右の前記視差画像の視差値をマージすることと、を備える、画像処理方法が提供される。
本開示によれば、ステレオマッチングの際に、一方の視差の値が正常でない場合であっても、ステレオマッチングによる視差値を精度良く求めることが可能となる。
本開示の一実施形態に係る画像処理装置の概略構成を示す模式図である。 射影変換部、及び逆射影変換部が行う処理を示す模式図である。 ステレオマッチング部が視差値を算出する様子を示す模式図である。 ポストフィルタ部がメディアンフィルタの場合の処理を示す模式図である。 マージ部のアルゴリズムの基本的な概念を説明するための模式図である。 マージ部の基本的な処理を示す模式図である。 図6の処理を説明するための模式図である。 ポストフィルタ処理を加えた本実施形態に係る処理を示す模式図である。 参照元である右の視差画像にのみポストフィルタ処理を行う例を示す模式図である。 右の注目画素の視差dRと、左の参照画素の周辺の9画素の視差dL[i]をそれぞれ比較して、dRの信頼度を決定する手法を示す模式図である。 図10の処理を詳細に示す模式図である。 右の注目画素の視差値dRから左の参照画素の位置を求めた後、参照画素の周囲の各視差値dL[i](i=0,…8)とdRの差ごとに重みをつけながら信頼度を決定する方法を示す模式図である。 左右のカメラと被写体である物体の位置を示す模式図である。 解像度に応じた探索範囲を説明するための模式図である。 画像解像度と推定可能デプスとの関係を示す模式図である。 画像解像度と推定可能デプスとの関係を示す模式図である。 画像解像度と推定可能デプスとの関係を示す模式図である。 第2の実施形態において、複数解像度を使用する際の処理を示す模式図である。 図18の構成に射影変換部、プレフィルタ部、及び逆射影変換部を加え、ステレオマッチング部及びマージ部を別体のブロックとして示したものである。 マージ部による処理を説明するための模式図である。 輝度値の和に基づいてブロックマッチング信頼度を判定する手法を示す模式図である。 ステレオマッチング部にてステレオマッチングの信頼度を求め、信頼度の情報を視差画像とともに出力する構成を示す模式図である。 視差値の信頼度に基づいて解像度の異なる視差をマージする処理を示すフローチャートである。 第2の実施形態の処理を説明するための模式図である。 第2の実施形態の処理を説明するための模式図である。 第2の実施形態の処理を説明するための模式図である。 第2の実施形態の処理を説明するための模式図である。 第2の実施形態の処理を説明するための模式図である。 第2の実施形態の処理を説明するための模式図である。 視差画像2,3を出力するステレオマッチング部が信頼度算出部106aをそれぞれ備えた構成を示す模式図である。 ブロックマッチングで誤ったマッチングをする例を示す模式図である。 低解像度をベースとした複数解像度のマージを行う例を示す模式図である。 低解像度をベースとした複数解像度のマージを行う例を示す模式図である。 低解像度をベースとした複数解像度のマージを行う例を示す模式図である。 低解像度をベースとした複数解像度のマージを行う例を示す模式図である。 図18と同様の構成に対して、注目領域検出・追跡部112を付加した例を示す模式図である。 複数解像度の視差画像を用いて注目領域の視差取得性能を向上させる方法を示す模式図である。 複数解像度の視差画像を用いて注目領域の視差取得性能を向上させる処理を示す模式図である。 メッシュ情報を示す模式図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.画像処理装置の構成例
1.2.マージ部のアルゴリズム
2.第2の実施形態
2.1.物体の距離と解像度の関係
2..複数解像度をマージする具体例
2..低解像度をベースとした複数解像度のマージの具体例
2..注目領域の視差取得性能を向上させる方法
<1.第1の実施形態>
[1.1.画像処理装置の構成例]
まず、図1を参照して、本開示の第1の実施形態に係る視差画像生成フローの全体について説明する。図1は、本実施形態に係る画像処理装置100の概略構成を示す模式図である。図1に示すように、画像処理装置100は、射影変換部102a,102b、プレフィルタ部104a,104b、ステレオマッチング部106、マージ部108、ポストフィルタ部110、逆射影変換部112を有して構成される。
図1に示すように、カメラ画像として、左右に離間した2つのカメラの画像(カメラ画像(左)、カメラ画像(右))が取得される。それぞれの画像は、射影変換部102a,102bにて射影変換がされ、補正画像(左)、補正画像(右)として出力される。左右それぞれの補正画像は、プレフィルタ部104a,104bにてプレフィルタ処理がされ、エッジ画像(左)、エッジ画像(右)として出力される。それぞれのエッジ画像は、ステレオマッチング部106に入力され、ステレオマッチングが行われる。ステレオマッチング部106は、ステレオマッチングを行った結果、左右の視差画像(視差画像(左)、視差画像(右))を出力する。左右の視差画像はマージ部108に入力される。マージ部108は、視差画像(左)と視差画像(右)をマージし、マージして得られる画像をポストフィルタ部110へ出力する。ポストフィルタ部110は、入力された画像にポストフィルタ処理を施し、ポストフィルタ処理が行われた画像は逆射影変換部112へ入力される。逆射影変換部112は、入力されて画像に逆射影変換を行い、視差画像として出力する。
以下、図1に示す各構成要素が行う処理について説明する。図2は、射影変換部102a,102b、及び逆射影変換部112が行う処理を示す模式図である。射影変換部102a,102bは、後の処理でステレオマッチングを容易に行うために、左右画像の同一点が水平ライン(=マッチングの探索方向)上に重なるよう、左右画像を変形する。具体的には、射影変換部102a,102bは、エピポーラライン(epipolar line)の並行化を行う。この際、射影変換部102a,102bは、メッシュ情報やホモグラフィ行列を用いる。図39は、メッシュ情報を示す模式図である。ここで、メッシュ情報とは、入力のカメラ画像に写った正方格子と、本来あるべき格子の位置(補正後の位置)の関係を表す情報である。メッシュ情報は、図39に示すように、予め格子を撮影するなどして用意しておく。図39に示すように、カメラによって撮影された格子(補正前)と、本来写っているべき格子(補正後)との関係について、撮影対象のどの点がどの位置にあるべきかを示す情報をメッシュ情報として記録しておく。メッシュ情報からホモグラフィ行列を算出することも可能である。また、逆射影変換部112は、射影変換部102a,102bとは逆の処理を行い。射影変換部102a,102bによる画像の変形を元に戻し、元の入力画像の位置関係に戻す処理を行う。
プレフィルタ部104a,104bは、ステレオマッチングの処理において、左右カメラの明度ズレやシェーディングの影響を緩和するため、プレフィルタ処理を行う。例えば、SobelフィルタやPrewittフィルタを用いて、垂直エッジ画像を生成する。これにより、ステレオマッチングにおいて、水平方向に生じる視差の対応点探索を容易に行うことができる。具体的には、入力画像の輝度値をg(x,y)、出力画像の輝度値をf(x,y)とすると、以下の式(1)を演算することで輝度値f(x,y)を求める。
Sobelフィルタを使用する場合、式(1)のhの値は、以下の式(2)で表すことができる。
ステレオマッチング部106は、右画像を基準とした視差画像と、左画像を基準とした視差画像をそれぞれ生成する。視差画像は、左右の画像の各画素について視差の情報(視差値)を含む。このため、ステレオマッチング部106は、視差画像を生成するため、左右の画像のブロックマッチングを行い、類似度の最も高いブロックを抽出する。左画像を基準とした場合、図3に示すように、ステレオマッチング部106は、左画像の注目ブロックと類似する右画像の類似ブロックが、左画像の注目ブロックの位置から水平方向に何ピクセル移動したかという値を視差値として算出する。
具体的には、ステレオマッチング部106は、以下のような処理の流れにより視差を計算する。例えば4x4のブロック単位で処理を行う場合、出力座標(x,y)の範囲は、x,y共に入力画像の縦横1/4の範囲となる。プレフィルタ部104a,104bの出力である左右のエッジ画像をleft(x,y),right(x,y)とし、左右画像間の視差をdisparityとする。出力座標(x,y)における、左画像と右画像との間の4x4画素ブロックの差分絶対値和block_abs_sum(x,y,disparity)は以下の式(3)で表すことができる。
そして、出力画像の各座標(x,y)毎に、disparityを一定範囲(例えば、0から63の間)において1ピクセル単位で連続的に変化させて、上式の4x4画素ブロックの差分絶対値和block_abs_sum(x,y,disparity)が最小となるdisparityの値を求め、これを視差disparity(x,y)とする。
マージ部108は、ステレオマッチング後の左右の視差画像を入力とし、1枚にマージされた視差画像を出力する。マージ部108の処理の詳細については後述する。
ポストフィルタ部110は、マージ部108により得られた視差画像における異常値を取り除くため、また信頼度が低く視差値を算出できなかった画素の穴埋めをするために、ポストフィルタ処理を行う。ポストフィルタ部110は、例えばメディアンフィルタを用いてポストフィルタ処理を行う。
図4は、ポストフィルタ部110がメディアンフィルタの場合の処理を示す模式図である。3×3の画素領域でフィルタリングする場合、図4に示すように、注目画素とその周囲の画素の画素値を取り出して一列に並べ、注目画素の画素値(20)を9個の画素値の中央値(2)と置き換える。これにより、異常値を取り除くことができ、また視差値を算出できなかった画素の穴埋めをすることができる。
[1.2.マージ部のアルゴリズム]
図5は、マージ部108のアルゴリズムの基本的な概念を説明するための模式図であって、ステレオマッチング部106から出力された左右の視差画像を示している。上述したように、ステレオマッチング部106では、右画像を基準とした視差画像と、左画像を基準とした視差画像をそれぞれ生成する。このため、左右の視差画像の対応する点は、同じような視差値をもつと考えられる。そこで、左右の視差画像のうち一方の視差画像の注目点の視差値から、対応する他方の視差画像の参照点を求め、注目点と参照点の2つの視差を比較することで信頼度を算出する。
図6は、マージ部108の基本的な処理を示す模式図である。図6は、本実施形態に係るマージ部108の処理の前提となるもので、右の視差画像の視差を基準として、左の視差画像の参照点の視差と比較する場合を示している。
図6に示すように、先ず、右の視差画像の注目画素の視差から、左画像における参照位置(参照画素)を算出する(ステップS10)。次に、右の視差(注目画素の視差)と左の視差(参照画素の視差)を比較し、信頼度を算出する(ステップS12)。そして、信頼度が所定の閾値より高ければ、右の視差画像の視差を出力する(ステップS14)。
図7は、図6の処理を説明するための模式図であって、右の視差画像の注目画素を基準として左の視差画像の参照画素を算出する例を示している。図7に示すように、左右の視差画像に写る物体の高さ(上下方向の位置)は、射影変換などによって既に揃えられている。この場合、注目画素と同じ水平ライン上に参照画素を見つけることができる。右の視差画像の注目画素の位置(xR,yR)における視差がdRであるとき、左の視差画像の参照画素の位置(xL,yL)は、(xL,yL)=(xR+dR,yR)となる。従って、注目画素の位置(xR,yR)における視差dRと参照画素の位置(xL,yL)における視差dLとを比較することで、視差の値の信頼度を判定することができる。
従って、「右の注目画素の視差dR」と「左の参照画素の視差dL」が同じような視差値である場合は、注目画素の視差値は信頼できると考えられる。この場合、左右の視差の差の絶対値abs(dR-dL)の逆数を、信頼度を表す値とする。そして、abs(dR-dL)と信頼度判定のための閾値(threshold_same_disparity)とを比較し、abs(dR-dL)<threshold_same_disparity)の場合は、視差の値が信頼できるため、右の視差画像の注目画素の視差dRをマージ後の視差(merged_disparity)として出力する。また、abs(dR-dL)≧(threshold_same_disparity)の場合は、視差の値が信頼出来ないため、「視差なし(=0)」をマージ後の視差(merged_disparity)として出力する。アルゴリズムの例としては、以下のものが考えられる。
if(abs(dR-dL)<threshold_same_disparity)
merged_disparity=dR;
else
merged_disparity=0;
上記アルゴリズムにおいて、abs(dR-dL)は、視差値の信頼度の逆数を表す値である。また、threshold_same_disparityは、dRが信頼できるかを決定するための閾値である。つまり、この閾値に基づいてdRとdLが同様の視差であるか否かを判定することができる。
一方、図6及び図7に示した手法では、視差を1対1でしか比較しないため、左右の視差のいずれかが異常値をとっている場合は、視差の値が信頼できないと判定されてしまう。このため、左右の視差画像の視差に異常値が多いと、マージ後の視差が0となる画素が多くなり、マージ後の視差画像に多くの穴が開いた状態となってしまう。
そこで、本実施形態では、参照画素の位置を決定する前に、視差画像にポストフィルタ処理をかけることで異常値を予め除去しておく。これにより、右の視差画像の注目画素と左の視差画像の参照画素の相互参照時の有効領域を増やすことができる。ポストフィルタとしては、メディアンフィルタなどを用いる
図8は、ポストフィルタ処理を加えた本実施形態に係る処理を示している。図6に対して、左右の視差画像へのポストフィルタ処理部107が加えられている。このように、ポストフィルタ処理を入れることで、異常値を取り除く効果が得られ、マージ後の視差が0となることを最小限に抑えることができる。
また、処理時間を短縮するために、ポストフィルタ処理を視差参照元の画像にのみ行うことも可能である。図9は、参照元である右の視差画像にのみポストフィルタ処理を行う例を示している。参照元である右の視差画像にポストフィルタ処理を施した上で、参照元の注目画素と、参照先の対応する画素の視差を比較することで信頼度を算出し、マージ後の視差を決定する。これにより、ポストフィルタ処理は左右の視差画像の一方のみで行われるため、処理の高速化を実現できる。但し、参照先である左の視差画像には、依然として視差の異常値が多く残っている可能性があるため、マージ後に有効な視差値を多く残すためには、マージの際の信頼度算出の方法を工夫することが望ましい。
このため、図10に示すように、右の注目画素の視差dRと、左の参照画素の周辺の9画素の視差dL[i](i=0, …, 8)をそれぞれ比較して、dRの信頼度を決定する。例えば、参照画素の周囲の3x3画素中、参照元の注目画素と同じような視差の値を有する画素がいくつあるかカウントし、その値を信頼度として閾値と比較する。この場合のアルゴリズムを以下に示す。
Int count=0;
for(int i=0; i < 9; i++) {
if(abs(dR-dL[i])<threshold_same_disparity)
count++;
}
if (count>=threshold_count)
merged_disparity=dR;
else
merged_disparity=0;
上記アルゴリズムにおいて、threshold_same_disparityは、dRとdL[i]が同じような視差かどうかを判定するための閾値である。また、countは、参照画素周辺にdRと同じような視差がいくつあるかを示す値であり、信頼度を表す値である。このアルゴリズムでは、信頼度が閾値よりも小さい場合は、マージした視差値を不定の値(不明値)として“0”を割り当てている。
図11は、図10及び上記アルゴリズムの処理を詳細に示す模式図である。右の視差画像の注目画素の視差dRと、左の視差画像の参照画素及びその周囲の8画素の視差dL[i](i=0,…,8)を順次比較し、視差dRと左の参照画素及びその周辺の視差値dL[i](i=0,…,8)との差abs(dR-dL[i])を算出する。
そして、abs(dR-dL[i])と閾値threshold_same_disparityを比較し、閾値以下の画素数(=参照画素周辺でdRと同様の視差値を有する画素がいくつあるか)をカウントする。そして、カウント値に基づいてマージ後の視差merged_disparityを決定する。図11に示すように、この閾値は必要に応じて変化させ、abs(dR-dL[i])がこの閾値以下であれば、注目画素の視差dRと参照画素の視差dLはほぼ同じであると見做す。
図12は、右の注目画素の視差値dRから左の参照画素の位置を求めた後、参照画素の周囲の各視差値dL[i](i=0,…8)とdRの差ごとに重みをつけながら信頼度を決定する方法を示す模式図である。視差dRと左の参照画素及びその周辺の視差値dL[i](i=0,…,8)との差abs(dR-dL[i])を算出する点は、図11の処理と同様である。図12では、左右視差の差と信頼度の関係を示す階段状の特性の伝達関数を用い、左右の視差の差abs(dR-dL[i])を、伝達関数に基づいて信頼度に変換し、これらを加算して得られる値を注目画素における信頼度conf[i]とする。図12中における閾値1を1、閾値2を2、閾値3を3、信頼度1を10、信頼度2を5、信頼度3を2とすると、上図の注目画素の信頼度conf(x,y)は、
conf(x,y)=conf[0]+conf[1]+…+conf[8]=27
となる。従って、この信頼度conf[i]に基づいて視差の信頼度を判定することができる。
以上説明したように第1の実施形態によれば、ステレオマッチング後の左右の視差画像をマージする前に、視差画像に対してポストフィルタ処理を行うようにしたため、視差画像の視差の異常値を予め除去しておくことができる。これにより、右の視差画像の注目画素と左の視差画像の参照画素の相互参照時の有効領域を増やすことができ、マージ後の視差が0(視差なし)となることを最小限に抑えることができる。
<2.第2の実施形態>
次に、本開示の第2の実施形態について説明する。第2の実施形態は、複数解像度の入力を使用して視差画像を生成するものである。
第2の実施形態において、基本的な処理の流れは図1に示した第1の実施形態と同様である。第2の実施形態では、ステレオマッチング部106において、複数の解像度の入力画像を使用する。
[2.1.物体の距離と解像度の関係]
図13は、左右のカメラと被写体である物体の位置を示す模式図である。図13に示すように、カメラから近くの物体の視差は大きく、遠くの物体の視差は小さい。図13に示すように、カメラからの距離が比較的遠い物体は、視差が小さい。このため、ステレオマッチング部106によるマッチングを行って奥行き方向の距離を抽出するためには、ある程度の高解像度が必要となる。
一方、カメラからの距離が比較的近い物体は、視差が大きい。このため、ステレオマッチング部106によるマッチングを行って奥行き方向の距離(デプス)を抽出するためには、画像の面内の幅広い探索が必要となる。
このように、近くの物体と遠くの物体とでは、視差が相違するため、マッチングの際の探索レンジが一定であると、入力画像の解像度によって得ることのできる視差に違いが生じる。図14の左側の図に示すように、解像度が大きい場合は、より細かい範囲で探索を行うことが可能であり、小さな視差を探知することができる。これにより、遠くの物体のデプスを抽出することができる。
一方、図14の右側の図に示すように、解像度が小さい場合は、同じ物体に対してより広いエリアを探索することができる。このため、大きい視差を探知することができ、近くの物体のデプスを抽出することができる。
図15〜図17は、画像解像度と推定可能デプスとの関係を示す模式図である。図15は、画像サイズが640x480、64ピクセル探索の場合を示している。この場合、カメラからの距離がD11以下では、デプスを推定することが困難となる。
図16は、画像サイズが320x240、64ピクセル探索の場合を示している。この場合、カメラからの距離がD11よりも近いD12以下では、デプスを推定することが困難となる。また、図17は、画像サイズが160x120、64ピクセル探索の場合を示している。この場合、カメラからの距離がD12よりも更に近いD13以下では、デプスを推定することが困難となる。このように、解像度が低くなるほど、近くの物体のデプスを推定可能であることが判る。
第2の実施形態では、以上のような特性を利用して、複数の解像度の画像を入力として用い、それぞれの解像度の視差情報をマージすることで、処理コストを増加させることなく、スケーラブルに視差を抽出することを可能とする。これにより、画像中で視差を得ることができない領域を最小限に抑えることが可能となる。
[2..複数解像度をマージする具体例]
図18は、第2の実施形態において、複数解像度を使用する際の処理を示す模式図である。図18においては、ステレオマッチング部106及びマージ部108を一体のブロックとして示している。また、射影変換部102a,102b、プレフィルタ部104a,104b、ポストフィルタ部110、及び逆射影変換部112については、図示を省略している。ステレオマッチング部106及びマージ部108は、複数解像度のそれぞれについて、ステレオマッチング及びマージを行う。
図18に示すように、左右のカメラ画像の元の解像度(画像スケール)を“1”とする。画像スケール“1”の画像は1/4に縮小されて、画像スケール“1/4”の画像が生成される。更に、画像スケール“1/4”の画像は1/4に縮小されて、画像スケール“1/16”の画像が生成される。そして、画像スケール“1”,“1/4”
“1/16”の左右のカメラ画像がそれぞれステレオマッチング部106に入力される。
図19は、図18の構成に射影変換部102a,102b、プレフィルタ部104a,104b、及び逆射影変換部112を加え、ステレオマッチング部106及びマージ部108を別体のブロックとして示したものである。射影変換部102a,102b、プレフィルタ部104a,104b、ステレオマッチング部106、及びマージ部108は、複数解像度のそれぞれに対応して設けられる。そして、各解像度のマージ部108から出力されたマージ後の視差画像は、解像度の異なる視差をマージするマージ部120へ入力される。このように、「解像度の最も高い画像」、「解像度の1階層低い画像」、及び「解像度の最も低い画像」のそれぞれについて、図1と同様の構成が設けられる。ここで、「解像度の最も高い画像」は、図18の画像スケール“1”の画像に相当する。また、「解像度の1階層低い画像」は、図18の画像スケール“1/4”の画像に相当し、「解像度の最も低い画像」は図18の画像スケール“1/16”の画像に相当する。
「解像度の最も高い画像」、「解像度の1階層低い画像」、及び「解像度の最も低い画像」のそれぞれについて、マージ部108にて左右視差のマージが行われ、その結果はマージ部120へ入力される。なお、「解像度の最も高い画像」、「解像度の1階層低い画像」、及び「解像度の最も低い画像」のそれぞれについて、マージ部108への入力の前に、各視差画像にポストフィルタをかけて異常値を除去することもできる。
図19に示すように、第2の実施形態の複数解像度を使用するアルゴリズムにおいては、上述のように複数の解像度の入力画像を用意し、複数解像度の入力画像のそれぞれについて、ステレオマッチング部106によるステレオマッチングを行って視差画像を得る。この視差画像を得る処理は、各解像度の入力画像毎に並列処理が可能である。
図20は、マージ部120による処理を説明するための模式図である。先ず、最も高い解像度の視差画像1の中で、視差値がある部分(視差値≠0)については、その視差値を用い、視差値が無い部分(視差値=0)については、1階層低い解像度の視差画像2から視差値を補う処理を行う。更に、視差画像2にも視差値が無い場合は、更に1階層低い解像度の視差画像3から視差値を補う処理を行う。このような処理を繰り返し、最も低い解像度の視差画像からも視差値が得られなかった場合は、その部分は「視差値なし」とされる。これにより、視差画像1において「視差なし」と判定される領域を最小限に抑えることが可能となる。
このように、「解像度の高い視差画像」で視差が求まっていない画素がある場合は、「「1段階だけ解像度の小さい視差画像」にその画素の視差情報がないかを探索し、視差情報があればその視差情報を用いる。このような処理を「最も高い解像度の視差画像(視差画像1)」から階層的に行う。これにより、「視差なし」と判定される領域を最小限に抑えることが可能となる。
ここで、画像中の視差値の無い部分は、オクルージョン領域またはテクスチャレス領域であると考えられる。本来的にオクルージョン領域(手前にある物体が背後の物体を隠す領域)は視差値が出ないので、低解像度の画像を用いて視差値を求める必要は生じない。このため、以下の方法によりオクルージョン領域については、低解像度の画像を用いる処理を行わないようにする。
第1の方法では、ステレオマッチング時にあらかじめ視差の信頼度を算出しておき、これを指標として、視差の信頼度が低い場合は低解像度の画像を用いる処理を行わないようにする。指標としては、カメラ画像の輝度分布(テクスチャの有無)が挙げられる。この方法では、ステレオマッチングの際に計算した信頼度を複数解像度マージ時の指標とする。輝度分布を使用する例では、エッジ画像におけるブロック内の輝度値の和を使用する。例えば4x4のブロックでマッチングを行う場合、座標(x,y)におけるエッジ画像の輝度値をlum(x,y)とすると、ブロック内の輝度値の和は以下の式(4)で表すことができる。この値はエッジの有無の判定に使用することができる。
図21に示すように、輝度値の和が所定の閾値より大きい場合は、エッジあり(テクスチャ領域)と判定され、ブロックマッチング信頼度が高いものと判定される。一方、輝度値の和が所定の閾値より小さい場合は、エッジなし(テクスチャレス領域)と判定され、ブロックマッチング信頼度が低いものと判定される。従って、ブロックマッチング信頼度が高い場合は、低解像度の視差画像を用いて視差値を求めないように処理を行うことができる。
第2の方法では、以下の2文献に示すような既存のオクルージョン検知手法を用いる。オクルージョン領域と判定された場合は、ブロックマッチング信頼度が高いものと判定され、低解像度の視差画像を用いて視差値を求めないように処理を行うことができる。
(文献1)A Cooperative Algorithm for Stereo Matching and Occlusion Detection
By Zitnick, C., Kanade, T.
Tech Report CMU-RI-TR-99-35 (1999)
(文献2)Real-Time Correlation-Based Stereo Vision with Reduced Border Errors
By Hirschmuller, H., Innocent, P.R., Garibaldi, J.M.
In International Journal of Computer Vision, vol. 47(1/2/3), pp.229-246. (2002)
図22は、ステレオマッチング部106にてステレオマッチングの信頼度を求め、信頼度の情報を視差画像とともに出力する構成を示している。図22に示すように、解像度の最も高い画像から視差画像を出力するステレオマッチング部106は、信頼度算出部106aを含む。信頼度算出部106aは、上記の方法によりステレオマッチングの信頼度を算出して出力する。
図23は、視差値の信頼度に基づいて解像度の異なる視差をマージする処理を示すフローチャートである。先ず、ステップS200では、注目画素に視差値があるか否かを判定する。注目画素に視差値がある場合はステップS202へ進み、その視差値を出力する。一方、注目画素に視差が無い場合はステップS204へ進み、注目画素の視差値の信頼度が高いか否かを判定する。
ステップS204において、注目画素の視差値の信頼度が高い場合は、ステップS206へ進む。ここで、「信頼度が高い」とは、オクルージョン領域である、またはテクスチャ領域である可能性が高いことを意味する。このため、ステップS206では、視差値「なし」を出力する。一方、ステップS204において、注目画素の信頼度が高くない場合は、ステップS208へ進む。ステップS208では、1階層解像度の低い画像の該当する注目画素を調べる。ステップS208の後はステップS210へ進む。
ステップS210では、1階層解像度の低い画像において、注目画素に視差値があるか否かを判定する。注目画素に視差値がある場合はステップS202へ進み、その視差値を出力する。一方、注目画素に視差値がない場合はステップS212へ進み、最も低い解像度の視差画像で視差値を調べたか否かを判定する。
ステップS212で最も低い解像度の視差画像で視差値を調べたことが判定された場合は、ステップS206へ進み、視差値「なし」を出力する。一方、ステップS212で最も低い解像度の視差画像で視差値を調べていないことが判定された場合は、ステップS208へ戻り、1階層解像度の低い画像において、注目画素に視差値があるか否かを判定する。
以上のように図23の処理によれば、注目画素の視差値の信頼度に応じて、信頼度が高い場合は1階層解像度の低い視差画像を調べることなく視差値「なし」を出力することができる。従って、オクルージョン領域などのように、本来的に視差値が抽出されない領域について、低解像度の視差画像による視差値の抽出が行われることがなく、処理を簡素化することができる。また、テクスチャ領域についても、信頼度が高いため、1階層解像度の低い視差画像を調べることなく視差値「なし」を出力することができる。
図24〜図29は、第2の実施形態の処理を説明するための模式図である。図24〜図29では、最も高い解像度の視差画像1、視差画像1よりも1階層低い解像度の視差画像2、及び視差画像2よりも更に1階層低い解像度の視差画像3を用いた処理について説明する。
先ず、図24に示すように、図19の構成において、マージ部108から視差画像1、視差画像2、視差画像3をそれぞれ得る。得られた各視差画像において、××印は視差値が無い画素(視差値が得られなかった画素)を示しており、×印は視差値が無い画素であるが、信頼度が高い(テクスチャ領域ではなく、オクルージョンの可能性が高い)画素を示している。
そして、マージ部120では、得られた視差画像1、視差画像2、及び視差画像3を用いて、視差値をマージして出力する。図25に示すように、最も解像度の高い視差画像1の左上の画素11から順に視差値を抽出していく。視差画像の画素11では、視差値が得られているため、マージ部120から出力される視差画像10の画素101の視差値は、視差画像1の画素11の視差値とする。
次に、図26に示すように、最も解像度の高い視差画像1の画素12について視差値を抽出すると、画素12には視差値が無いため、1階層解像度の低い視差画像2において、画素12に対応する位置の画素21の視差値を調べる。図26の例では視差画像2の画素21にも視差値が無いため、図27に示すように、更に解像度の低い視差画像3において、画素21に対応する位置の画素31の視差値を調べる。
図27に示す例では、視差画像3の画素31で視差値が得られているため、マージ部120から出力される視差画像10の画素102の視差値は、視差画像3の画素31の視差値とする。
次に、図28に示すように、最も解像度の高い視差画像1の画素16について視差値を抽出すると、画素16には視差値がないが、画素16の信頼度が高いため、オクルージョンである可能性が高い。このため、下の階層である視差画像2を調べることなく、視差画像10の画素106の視差値として「視差値なし」を出力する。この処理は、図23のステップS204,S206の処理に相当する。
図29は、以上の処理を繰り返し、マージ部120から出力される視差画像の各画素の視差値を全て決定した状態を示している。視差画像1と視差画像10を比較すると明らかなように、視差画像1では「視差値なし」とされていた画素の多くが、視差画像10では「視差値あり」とされている。従って、複数の解像度の視差画像をマージすることにより、視差値をより詳細に求めることが可能である。
また、上述の例では最も解像度の高い視差画像1について信頼度を求める例を示したが、視差画像1のみならず、視差画像2,3についてステレオマッチングにおける信頼度を算出しておいても良い。図30は、視差画像2,3を出力するステレオマッチング部106が信頼度算出部106aをそれぞれ備えた構成を示している。この場合、各解像度で「注目画素に視差があるか(図23のステップS200,S210)」を確認する度に信頼度もチェックすることができるため、オクルージョンに対してよりロバストな(外乱に強い)処理が可能となる。
ところで、低解像度から情報を持ってきて視差値の穴埋めする場合、解像度の違いにより視差値の境界がブロックのように目立つ場合がある。図29の例では、領域Aにおいて(出力先の解像度>元の情報の解像度)の関係が成立するため、ブロックが目立つ場合がある。このため、以下の文献に記載された方法により、輝度情報を参照してエッジを保持しながらアップサンプリングする手法を用いることで、ブロック境界を目立たなくすることも可能である。
(文献3)“Joint Bilateral Upsampling”
By
Kopf, J., Cohen, M. F., Linschinski, D., Uyttendaele, M.
ACM
Transaction of Graphics (2007)
(文献4)特開2011-186958号公報
以上のように、高解像度の視差画像をベースとして複数解像度の視差画像をマージする方法では、低解像度の視差画像から情報を補うことにより、高解像度の視差画像中の視差なしの領域を最小限に抑えることができる。
[2..低解像度をベースとした複数解像度のマージの具体例]
一方、高解像度の視差画像を使用する場合、図13〜図17で説明したように、カメラから近い距離の物体の視差の取得が難しくなる場合があるが、ミスマッチにより視差値が算出されてしまうことがある。例えば、図31に示すように、カメラから比較的近い箇所に繰り返し模様のある家具150などが配置されている場合、家具150の領域A1は右画像には写っていないが、似たような模様が連続しているため、ブロックマッチングで誤ったマッチングをしてしまう可能性がある。
このため、この場合は低解像度をベースとした複数解像度のマージを行う。低解像度の視差画像で取得可能な、カメラから近い(視差の大きい)部分について、同じような視差値に囲まれている画素を検出し、その画素の視差を信頼して、高解像度の対応する位置の視差値を上書きする。具体的には、図32に示すように、低解像度の視差画像では、カメラから近い近接部分において、適切な深度精度の視差情報を抽出できる。一方、近接部分は、高解像度の視差画像では過剰な深度精度であり、オクルージョン耐性が低い。このため、近接部分は、高解像度の視差画像では視差を間違えやすい。なお、図32において、同じ濃度の画素は同じ視差値を持つことを表す。
図32に示す画素G1では、4つの隣接する画素が同じ視差値を有するため、周囲と同一の奥行きである可能性が高い。このため、近接物体のエッジでない領域を判定する。例えば、図32の画素G1の4近傍全てが同一物体とみなせる一定の深度差内か判定する。一定の深度差としては、例えば深度10cm程度とし、深度10cm程度に相当する視差を用いて判定を行う。そして、4近傍の全てが一定深度範囲内であれば、近接物体のエッジでない領域である「穴埋め対象エリア」と判定し、最高解像度の視差画像において、画素G1と対応する箇所を注目解像度における視差値で上書きする。また、エッジ判定することなく、低解像度でしかとれない視差をもつ領域は全て高解像度において上書きすることも可能である。
具体的には、図33に示すように、最も低い解像度を注目解像度とし、周囲と同じ視差値を有する画素G1を探す処理を行う。なお、図33では、隣接する4つの画素が同じ視差値である画素を検出しているが、周囲にいくつ同じ画素値があれば検出するかは任意に決定できる。
そして、図34に示すように、最高解像度の視差画像において、画素G1と対応する箇所を注目解像度における視差値で上書きする。また、注目解像度と最高解像度の間の解像度の画像に対しては、対応する箇所に「ここはもう上書きされました」というフラグを書き込んでおく。これにより、フラグが書き込まれた領域については以降の探索が不要となり、計算時間を削減することが可能である。
そして、図35に示すように、最も低い解像度からの上書きが完了したら、一段階低い解像度を注目解像度として同様の処理を繰り返す。そして、周囲と同じ視差値を有する画素G2を探す処理を行い、最高解像度の視差画像において、画素G2と対応する箇所を注目解像度における視差値で上書きする。この際、低解像度になる程、近い部分の視差がとれない解像度になるため、その解像度で取得できる視差を考慮しながら探索していく。
以上のように、高解像度画像を用いた視差算出では、カメラに近い部分で視差値が算出されずに、視差画像中に視差なしの画素が多く存在する(いわゆる穴だらけになる)が、高解像度をベースにしたマージ方法によれば高解像度の視差画像中の視差なしの画素をより低解像度の視差画像における視差値で補うことができ、視差なしの画素を最小限に抑えることができる。
また、高解像度画像を用いた視差算出では、カメラに近い部分で視差を誤って算出することが想定される。具体的には、+探索範囲外で視差が算出できない不足の場合がある。このため、低解像度をベースにしたマージ方法を用いる。これにより、低解像度の視差画像を参照して、カメラに近く、かつ物体のエッジ内部である部分を検出し、高解像度視差画像での対応する部分の視差値を上書きすることで、高解像度の視差画像中において、間違っている可能性のある視差値を上書きして訂正することができる。このように、カメラに近い部分の深度を適切に検出できる低解像度の視差値をベースとして、高解像度の視差値を補完するとともに、計算量を削減することが可能である。
なお、高解像度をベースとした複数解像度のマージと、低解像度をベースとした複数解像度のマージとは、組み合わせて使用することもできる。
[2..注目領域の視差取得性能を向上させる方法]
次に、複数解像度の視差画像を用いて注目領域の視差取得性能を向上させる方法について説明する。視差を綺麗に取得したい注目領域(例えば、画像中の手や顔など)における視差算出性能を向上させるために、複数解像度の視差画像を用いることも可能である。図36は、図18と同様の構成に対して、注目領域検出・追跡部112を付加したものである。注目領域検出・追跡部112は、画像中の「手」や「顔」などの注目領域を検出し、その移動を追跡する。ステレオマッチング部106、マージ部108は、注目領域の視差値に応じて、マージする際に元にする視差画像の解像度を選択する。
なお、手などの注目領域を抽出する方法としては、例えば特開2012-113622号公報に記載された方法を用いることができる。この場合、先ず「局所的な先端部(一定領域内で最も手前である部分の座標)」をブロック単位(例えば16x16pixelごと)で検出し、その後周囲のブロック(例えば3x3ブロック)と比較して、大局的な先端部(=注目領域)を抽出する。
また、「注目領域の視差を綺麗にとるためにどの解像度の視差画像をマージするべきか」を示す指標を算出する。指標の例としては、視差情報が埋まりやすいと思われる「最も低い解像度の視差画像」における、注目領域の視差平均を用いることができる。
図37に基づいて、カメラからの距離が「近い」人物、「中くらい」の人物、「遠い」人物の合計3人の人物が写っている画像において、カメラからの距離が「中くらい」の人物(中央の人物)の「手」の視差を綺麗に出したい場合、について具体的に説明する。先ず、複数の解像度のそれぞれで視差画像を生成する。
視差画像を参照すると、解像度「大」の場合、カメラから遠い人物の視差は抽出できるが、カメラから近い人物の視差は異常値が多くなる。このため、最も低い解像度の画像から注目領域(手)の視差を抽出する。この際、図15〜図17で説明した「画像解像度と推定可能デプスの関係」に基づいて、その視差をもっとも綺麗に抽出できると考えられる解像度を選択する。
図38は、処理を示すフローチャートである。先ず、ステップS300では、各解像度における視差画像を作成する。次のステップS302では、最も低い解像度の視差画像における注目領域を取得する。次のステップS304では、注目領域の視差値の平均を算出する。次のステップS306では、ステップS304で算出した視差値の平均から、その視差値を綺麗に抽出するために最適と考えられる解像度の画像を選択し、この解像度を元にして、これよりも低い解像度の視差画像が有する視差値を参照する。その後は、図23のステップS200へ戻る。
この際、ステップS306では、図15〜図17で説明した「画像解像度と推定可能デプスの関係」に基づいて、どの視差値ではどの解像度を使用するかを示す伝達関数を予め決めておき、伝達関数に基づいて最適と考えられる解像度の画像を選択する。対象が遠い場合は、探索レンジが固定だと、高解像度の方が視差を綺麗にとれる。一方、対象が近い場合は、探索レンジが固定だと、低解像度のほうが視差を綺麗にとれることになる。
また、この場合においても、上述した信頼度の情報を全ての解像度で算出しておくことにより、任意の解像度の視差画像をベースとして他の視差画像の視差値で補っていく場合に、オクルージョンを加味して処理を簡素にすることができる。
以上説明したように第2の実施形態によれば、複数の解像度の視差画像を用いることにより、カメラから被写体までの距離に応じて、最適な解像度の視差画像を用いて視差値を得ることができる。従って、視差値が0となる画素を最小限に抑えるとともに、視差値に誤りが生じてしまうことを確実に抑止することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)左右のカメラが撮像した1対の撮像画像に基づいて、ステレオマッチングにより左右の視差画像をそれぞれ取得するステレオマッチング部と、
前記視差画像にフィルタ処理を行うフィルタ処理部と、
前記フィルタ処理が行われた前記視差画像について、左右の前記視差画像の対応する位置の視差値を比較し、比較の結果に基づいて左右の前記視差画像の視差値をマージする第1のマージ部と、
を備える、画像処理装置。
(2)前記フィルタ処理部は、左右の前記視差画像の少なくとも一方に前記フィルタ処理を行う、前記(1)に記載の画像処理装置。
(3)前記フィルタ処理部は、左右の前記視差画像の双方に前記フィルタリングを行う、前記(1)に記載の画像処理装置。
(4)前記フィルタ処理部は、メディアンフィルタから構成される、前記(1)に記載の画像処理装置。
(5)前記フィルタ処理部は、左右の前記視差画像の一方に前記フィルタ処理を行い、
前記第1のマージ部は、前記フィルタ処理が行われた一方の視差画像の特定の画素の視差値と、前記フィルタリングが行われていない他方の視差画像の前記特定の画素に対応する画素及びその周辺の複数の画素の視差値とを比較する、前記(1)に記載の画像処理装置。
(6)前記第1のマージ部は、前記特定の画素の視差値と前記他方の視差画像の前記特定の画素に対応する画素及びその周辺の複数の画素のそれぞれの視差値との差分と、所定のしきい値との比較の結果に基づいて、前記視差値をマージする、前記(5)に記載の画像処理装置。
(7)前記第1のマージ部は、前記所定のしきい値と前記視差値の信頼度との関係を規定した伝達関数に基づいて、前記視差値をマージする、前記(6)に記載の画像処理装置。
(8)複数の解像度の前記撮像画像を取得し、
前記ステレオマッチング部、前記フィルタ処理部、及び前記第1のマージ部は、前記複数の解像度毎に対応して複数設けられ、
前記第1のマージ部がマージした前記複数の解像度毎の視差値をマージする第2のマージ部を更に備える、前記(1)に記載の画像処理装置。
(9)前記第2のマージ部は、第1の解像度の前記視差画像の特定の画素の視差値が得られていない場合は、前記第1の解像度よりも低い第2の解像度の前記視差画像の前記特定の画素に対応する画素の視差値に基づいて、前記複数の解像度毎の視差値をマージする、前記(8)に記載の画像処理装置。
(10)前記ステレオマッチング部は、前記左右の視差画像の視差値について信頼度を算出する信頼度算出部を含み、
前記第2のマージ部は、前記信頼度が所定のしきい値よりも高い場合に、前記第1の解像度の前記視差画像の特定の画素の視差値が得られていない場合は、当該視差値を不明値とする、前記(9)に記載の画像処理装置。
(11)前記第2のマージ部は、第1の解像度の視差画像の視差値に基づいて、前記第1の解像度よりも高解像度の第2の解像度の視差画像の視差値を書き換える、前記(8)に記載の画像処理装置。
(12)前記第2のマージ部は、前記第1の解像度の視差画像の特定の画素と隣接する複数の画素の視差値が所定の範囲内である場合は、前記特定の画素の視差値に基づいて前記第2の解像度の視差画像の前記特定の画素に対応する画素の視差値を書き換える、前記(11)に記載の画像処理装置。
(13)前記第2のマージ部は、前記複数の解像度のうち最も低い解像度の視差画像の注目領域における視差値に基づいて、前記複数の解像度の1つを選択し、選択した解像度の視差画像に基づいて前記注目領域の視差値をマージする、前記(8)に記載の画像処理装置。
(14)左右のカメラが撮像した1対の撮像画像に基づいて、ステレオマッチングにより左右の視差画像をそれぞれ取得することと、
前記視差画像にフィルタ処理を行うことと、
前記フィルタ処理が行われた前記視差画像について、左右の前記視差画像の対応する位置の視差値を比較し、比較の結果に基づいて左右の前記視差画像の視差値をマージすることと、
を備える、画像処理方法。
100 画像処理装置
106 ステレオマッチング部
106a 信頼度算出部
107 ポストフィルタ処理部
108,120 マージ部

Claims (13)

  1. 左右のカメラが撮像した1対の撮像画像に基づいて、ステレオマッチングにより左右の視差画像をそれぞれ取得するステレオマッチング部と、
    前記視差画像にフィルタ処理を行うフィルタ処理部と、
    前記フィルタ処理が行われた前記視差画像について、左右の前記視差画像の対応する位置の視差値を比較し、比較の結果に基づいて左右の前記視差画像の視差値をマージする第1のマージ部と、
    を備え
    前記フィルタ処理部は、左右の前記視差画像の一方に前記フィルタ処理を行い、
    前記第1のマージ部は、前記フィルタ処理が行われた一方の視差画像の特定の画素の視差値と、前記フィルタ処理が行われていない他方の視差画像の前記特定の画素に対応する画素及びその周辺の複数の画素の視差値とを比較する、画像処理装置。
  2. 前記フィルタ処理部は、左右の前記視差画像の少なくとも一方に前記フィルタ処理を行う、請求項1に記載の画像処理装置。
  3. 前記フィルタ処理部は、左右の前記視差画像の双方に前記フィルタ処理を行う、請求項1に記載の画像処理装置。
  4. 前記フィルタ処理部は、メディアンフィルタから構成される、請求項1に記載の画像処理装置。
  5. 前記第1のマージ部は、前記特定の画素の視差値と前記他方の視差画像の前記特定の画素に対応する画素及びその周辺の複数の画素のそれぞれの視差値との差分と、所定のしきい値との比較の結果に基づいて、前記視差値をマージする、請求項1に記載の画像処理装置。
  6. 前記第1のマージ部は、前記所定のしきい値と前記視差値の信頼度との関係を規定した伝達関数に基づいて、前記視差値をマージする、請求項5に記載の画像処理装置。
  7. 複数の解像度の前記撮像画像を取得し、
    前記ステレオマッチング部、前記フィルタ処理部、及び前記第1のマージ部は、前記複数の解像度毎に対応して複数設けられ、
    前記第1のマージ部がマージした前記複数の解像度毎の視差値をマージする第2のマージ部を更に備える、請求項1に記載の画像処理装置。
  8. 前記第2のマージ部は、第1の解像度の前記視差画像の特定の画素の視差値が得られていない場合は、前記第1の解像度よりも低い第2の解像度の前記視差画像の前記特定の画素に対応する画素の視差値に基づいて、前記複数の解像度毎の視差値をマージする、請求項7に記載の画像処理装置。
  9. 前記ステレオマッチング部は、前記左右の視差画像の視差値について信頼度を算出する信頼度算出部を含み、
    前記第2のマージ部は、前記信頼度が所定のしきい値よりも高い場合に、前記第1の解像度の前記視差画像の特定の画素の視差値が得られていない場合は、当該視差値を不明値とする、請求項8に記載の画像処理装置。
  10. 前記第2のマージ部は、第1の解像度の視差画像の視差値に基づいて、前記第1の解像度よりも高解像度の第2の解像度の視差画像の視差値を書き換える、請求項7に記載の画像処理装置。
  11. 前記第2のマージ部は、前記第1の解像度の視差画像の特定の画素と隣接する複数の画素の視差値が所定の範囲内である場合は、前記特定の画素の視差値に基づいて前記第2の解像度の視差画像の前記特定の画素に対応する画素の視差値を書き換える、請求項10に記載の画像処理装置。
  12. 前記第2のマージ部は、前記複数の解像度のうち最も低い解像度の視差画像の注目領域における視差値に基づいて、前記複数の解像度の1つを選択し、選択した解像度の視差画像に基づいて前記注目領域の視差値をマージする、請求項7に記載の画像処理装置。
  13. 左右のカメラが撮像した1対の撮像画像に基づいて、ステレオマッチングにより左右の視差画像をそれぞれ取得することと、
    前記視差画像にフィルタ処理を行うことと、
    前記フィルタ処理が行われた前記視差画像について、左右の前記視差画像の対応する位置の視差値を比較し、比較の結果に基づいて左右の前記視差画像の視差値をマージすることと、
    を備え、
    前記フィルタ処理において、左右の前記視差画像の一方に前記フィルタ処理を行い、
    前記マージにおいて、前記フィルタ処理が行われた一方の視差画像の特定の画素の視差値と、前記フィルタ処理が行われていない他方の視差画像の前記特定の画素に対応する画素及びその周辺の複数の画素の視差値とを比較する、画像処理方法。
JP2013072669A 2013-03-29 2013-03-29 画像処理装置及び画像処理方法 Active JP6121776B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013072669A JP6121776B2 (ja) 2013-03-29 2013-03-29 画像処理装置及び画像処理方法
US14/189,026 US9684964B2 (en) 2013-03-29 2014-02-25 Image processing apparatus and image processing method for determining disparity
CN201410069216.3A CN104079912B (zh) 2013-03-29 2014-02-27 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013072669A JP6121776B2 (ja) 2013-03-29 2013-03-29 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2014197314A JP2014197314A (ja) 2014-10-16
JP6121776B2 true JP6121776B2 (ja) 2017-04-26

Family

ID=51600923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013072669A Active JP6121776B2 (ja) 2013-03-29 2013-03-29 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US9684964B2 (ja)
JP (1) JP6121776B2 (ja)
CN (1) CN104079912B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115930B1 (ko) * 2013-09-16 2020-05-27 삼성전자주식회사 디스플레이 장치 및 영상 처리 방법
KR101882931B1 (ko) 2014-07-10 2018-07-30 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그의 디스패리티 측정 방법
KR102324605B1 (ko) * 2015-05-26 2021-11-10 한국전자통신연구원 변이 영상 생성 방법 및 장치
JP6805534B2 (ja) * 2015-07-02 2020-12-23 株式会社リコー 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム
CN107810520B (zh) * 2015-07-03 2020-11-10 华为技术有限公司 图像处理装置和方法
KR101832189B1 (ko) * 2015-07-29 2018-02-26 야마하하쓰도키 가부시키가이샤 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량
JP6657034B2 (ja) * 2015-07-29 2020-03-04 ヤマハ発動機株式会社 異常画像検出装置、異常画像検出装置を備えた画像処理システムおよび画像処理システムを搭載した車両
CN108510536B (zh) * 2017-02-28 2021-09-21 富士通株式会社 多视点图像的深度估计方法和深度估计设备
CN110997488A (zh) * 2017-07-28 2020-04-10 高通股份有限公司 动态控制用于处理传感器输出数据的参数的系统和方法
JP6992367B2 (ja) * 2017-09-27 2022-01-13 カシオ計算機株式会社 爪輪郭検出装置、爪輪郭検出方法及び爪輪郭検出プログラム
WO2019171413A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 画像照合装置
CN110555874B (zh) * 2018-05-31 2023-03-10 华为技术有限公司 一种图像处理方法及装置
US10956719B2 (en) * 2018-11-30 2021-03-23 Qualcomm Incorporated Depth image based face anti-spoofing
JP7118020B2 (ja) * 2019-02-27 2022-08-15 日立Astemo株式会社 演算装置、視差算出方法
US11430134B2 (en) * 2019-09-03 2022-08-30 Nvidia Corporation Hardware-based optical flow acceleration
KR20210147405A (ko) * 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
CN114663511A (zh) * 2022-03-28 2022-06-24 京东科技信息技术有限公司 一种图像生成方法、装置、设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3551467B2 (ja) * 1994-04-13 2004-08-04 松下電器産業株式会社 視差演算装置、視差演算方法及び画像合成装置
JP3794199B2 (ja) * 1999-04-27 2006-07-05 株式会社日立製作所 画像のマッチング方法
JP2004184240A (ja) * 2002-12-03 2004-07-02 Topcon Corp 画像測定装置、画像測定方法、画像処理装置
US8385630B2 (en) * 2010-01-05 2013-02-26 Sri International System and method of processing stereo images
WO2011104151A1 (en) * 2010-02-26 2011-09-01 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
JP2011186958A (ja) 2010-03-10 2011-09-22 Sony Corp アップサンプリング装置および方法、並びにプログラム
US8488870B2 (en) * 2010-06-25 2013-07-16 Qualcomm Incorporated Multi-resolution, multi-window disparity estimation in 3D video processing
JP5648443B2 (ja) 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9420263B2 (en) * 2010-12-28 2016-08-16 Konica Minolta, Inc. Information processor and information processing method
JP5774889B2 (ja) * 2011-03-31 2015-09-09 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
EP2570990A1 (en) * 2011-09-13 2013-03-20 Thomson Licensing Apparatus and method for determining a confidence value of a disparity estimate
US8837816B2 (en) 2011-09-27 2014-09-16 Mediatek Inc. Method and apparatus for generating final depth information related map that is reconstructed from coarse depth information related map through guided interpolation
CN102547338B (zh) 2011-12-05 2013-11-06 四川虹微技术有限公司 一种适用于3d电视的dibr系统
US20130176300A1 (en) * 2012-01-10 2013-07-11 Thomson Licensing Disparity maps in uniform areas
US20140198977A1 (en) * 2012-03-21 2014-07-17 Texas Instruments Incorporated Enhancement of Stereo Depth Maps
CN103366354B (zh) * 2012-03-27 2016-09-07 富士通株式会社 用于立体匹配的方法和系统
CN102819843B (zh) 2012-08-08 2014-10-29 天津大学 基于边界控制置信传播的立体图像视差估计方法
CN102999913B (zh) 2012-11-29 2016-01-20 清华大学深圳研究生院 一种基于可信点传播的局部立体匹配方法

Also Published As

Publication number Publication date
CN104079912A (zh) 2014-10-01
US9684964B2 (en) 2017-06-20
CN104079912B (zh) 2018-01-05
JP2014197314A (ja) 2014-10-16
US20140294289A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP6121776B2 (ja) 画像処理装置及び画像処理方法
JP7300438B2 (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
Kim et al. Multi-view image and tof sensor fusion for dense 3d reconstruction
US20180218507A1 (en) 3d reconstruction of a human ear from a point cloud
CN111066065A (zh) 用于混合深度正则化的系统和方法
Sizintsev et al. Coarse-to-fine stereo vision with accurate 3D boundaries
Lo et al. Joint trilateral filtering for depth map super-resolution
TWI491849B (zh) 應用複數攝影裝置之物件定位方法
JP2012530323A (ja) 3次元シーンの区分的平面再構成
Chen et al. Variational fusion of time-of-flight and stereo data for depth estimation using edge-selective joint filtering
KR20130120730A (ko) 변이 공간 영상의 처리 방법
Donate et al. Efficient path-based stereo matching with subpixel accuracy
CN115546027B (zh) 图像缝合线确定方法、装置以及存储介质
Lo et al. Depth map super-resolution via Markov random fields without texture-copying artifacts
JP2007053621A (ja) 画像生成装置
JP5715784B2 (ja) 画像の輪郭点検出方法
Sato et al. Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system
Kim et al. Piecewise planar scene reconstruction and optimization for multi-view stereo
CN112884817B (zh) 稠密光流计算方法、装置、电子设备以及存储介质
JP6055307B2 (ja) 対応点探索装置およびカメラ姿勢推定装置ならびにこれらのプログラム
Wang et al. RGB-guided depth map recovery by two-stage coarse-to-fine dense CRF models
Qiao et al. Fast, high-quality hierarchical depth-map super-resolution
Wei et al. Dense and occlusion-robust multi-view stereo for unstructured videos
Patricio et al. A similarity-based adaptive neighborhood method for correlation-based stereo matching
Choi et al. Discrete and continuous optimizations for depth image super-resolution

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170330

R150 Certificate of patent or registration of utility model

Ref document number: 6121776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250