JP2011198366A - 立体画像の分析方法及び分析装置 - Google Patents

立体画像の分析方法及び分析装置 Download PDF

Info

Publication number
JP2011198366A
JP2011198366A JP2011059334A JP2011059334A JP2011198366A JP 2011198366 A JP2011198366 A JP 2011198366A JP 2011059334 A JP2011059334 A JP 2011059334A JP 2011059334 A JP2011059334 A JP 2011059334A JP 2011198366 A JP2011198366 A JP 2011198366A
Authority
JP
Japan
Prior art keywords
image
boundary
images
occlusion
horizontal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011059334A
Other languages
English (en)
Inventor
Michael James Knee
ジェームス ニー,マイケル
Martin Weston
ウェストン,マーティン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snell Advanced Media Ltd
Original Assignee
Snell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snell Ltd filed Critical Snell Ltd
Publication of JP2011198366A publication Critical patent/JP2011198366A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F9/00Details other than those peculiar to special kinds or types of apparatus
    • G07F9/10Casings or parts thereof, e.g. with means for heating or cooling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)

Abstract

【課題】画像の立体ペアの右目画像と左目画像とを識別する場合に、統計的な推定への依存を減らす立体画像の分析方法を提供する。
【解決手段】立体ペアの左目及び右目画像を識別するための方法であって、画像を比較して、一方の画像だけに可視である遮蔽された領域を探すステップと、画像境界を検出するステップと、画像境界が前記遮蔽された領域の左側の境界と一直線になる右目画像を識別し、画像境界が前記遮蔽された領域の右側の境界と一直線になる左目画像を識別するステップと、を含む。
【選択図】図2

Description

本発明は立体画像の分析に関し、例えば、立体画像中のエラーの検出及び修正に関する。本発明は立体的な動画に適用されてもよい。
観察者の左右の目が同一の場面の異なった画像を見るような配置による「3D(三次元)」画像の描写が知られている。そのような画像は通常、それぞれの視点から場面を眺める、互いに水平方向に間隔を開けて配置された2つのカメラを備える「立体」カメラによって作成される。このときの水平方向に開ける間隔は、観察者の左目と右目との間の間隔と同様である。
この技術は「静止画」及び「動画」に対して利用されている。現在、立体的な動画に対して高精細テレビの電子画像取得、処理、格納、及び配信の技術を使用することに対する高い関心がある。
立体画像シーケンス(一続きの立体画像の場面)を配信するための多くの方法が提案されている。1つの例は左目と右目の画像に対して別個の画像データストリームまたは物理搬送媒体を使用することである。もう1つの例は、本来、単一の画像用のフレーム又はラスターに左目画像と右目画像の「並列」表示である。他の方法としては、1つの画像のピクセルを2つのインターリービングされたグループに分け、1つのグループを左目画像に割り当て、もう1つのグループを右目画像に割り当てる方法等がある。例えば、ピクセルの1つおきの列を2つの画像のために利用することができる。
視聴者に対して正しい深さの錯視を与えるために、視聴者の左目が左側の視点から、そして右目が右側の視点から画像を見る必要がある。左目と右目の画像が入れ替わってしまい、左目が右からの場面を、右目が左からの場面を見てしまうと、現実的な深さの錯視が起こらず、視聴者に不快感を与えてしまうだろう。この事は、類似したステレオ(立体音響)の音声再生の場合とは全く異なる。ステレオの音声再生の場合、左側と右側の音声チャンネルが入れ替わっても、(同じではないが)有効で、同等な程度に満足な聴覚上の体験を与える。
立体画像の伝送フォーマットの多様性は左と右の画像の不注意な入れ替わりの可能性を高めてしまっている。入れ替わりによって生ずる全く容認できない視聴体験は、任意の画像の「立体ペア」に対して、どちらか左目画像で、どちらが右目画像であるかを検出するための方法の必要性を高めている。本明細書にいて、用語「立体極性」は立体画像処理又は表示システムの2つの画像経路への、画像の立体ペア(左目画像と右目画像とのペア)の割り当てを示すために使用される。立体極性が正しい場合、視聴者の左右の目には有効な深さの錯視のために正しい画像が与えられる。
画像の立体ペアにおいて、深さは、その立体ペアの2つの画像における特定の対象物の表示の水平方向の差(水平不一致)によって表される。表示装置の表示平面上に現れると意図される物体は不一致を全く持たず、表示平面の後ろの物体は左画面において左側に移動させられ、右画面において右側に移動させられる。そして、表示平面より前の物体は左画面において右側に移動させられ、右画面において左側に移動させられる。
描かれた対象物の全部(又は大部分)が表示平面の後ろに描かれるように意図された場合、不一致の測定により左目と右目の画像の識別が可能であること、詳細には、左目画像において対象物が右目画像より大きく左に移動すること、及び、右目画像において対象物が左目画像より大きく右に移動することが知られている。
米国特許第6,268,881号明細書 米国特許出願公開第2010/0060720号明細書
しかしながら、一般的には対象物は表示平面の前又は後ろに描かれ、そして立体動画シーケンスを作成する工程の一部として、1組の画像の不一致へ一定の値が可算または減算されることがある。これらの理由により、立体ペアの左目及び右目画像を識別するために、水平不一致の単純な測定を信頼することはできない。
画像描写に対して統計的な推定をすることによって、この問題を解決する試みがなされている。特に、画像の下方に現れる物体は画像の高い部分に現れる物体の前に位置すると推定される。これに関しては特許文献1及び、特許文献2に開示されている。多くの画像ペアにおいて、このような推定が信用できないことは明らかである。より強固な検出のため、統計的な推定への依存を減らすことが望まれる。
本発明は立体表示のための1組の画像(第1画像と第2画像)を分析して、その一組の画像の左目画像及び右目画像を識別する方法及び装置である。
適当なものとして、1組の画像の第1画像が分析され、その画像内、第2画像において可視でない領域(遮蔽された領域)が特定される。
好ましくは、分析ステップは、画像の境界を検出することを含み、識別ステップは、より多くの画像境界が前記領域の左側の境界と一直線になる(一致する)右目画像を識別し、より多くの画像境界が前記領域の右側の境界と一直線になる左目画像を識別する。
有利なものとして、第1画像の前記領域の境界の水平方向の位置は第1画像内の描かれた境界(検出した画像の境界)の水平方向の位置と比較される。
好ましい実施形態において、第1画像の前記領域の少なくとも1つの領域の右側の境界の位置が特定され、前記右側境界の水平位置が第1画像内の描かれた境界の水平位置と一致した場合に第1画像は左目画像として識別される。
加えて又は代替的に、第1画像の前記領域の少なくとも1つの領域の左側の境界の位置が特定され、前記左側境界の水平位置が第1画像内の描かれた境界の位置と一致した場合に第1画像は右目画像として識別される。
1つの実施形態において、第1画像の前記領域の境界の水平位置は第1画像の高ピクセル値水平勾配の位置と比較される。
適当なものとして、第1画像の前記領域は前記第1及び第2画像における、それぞれのピクセルグループに対するピクセル値の比較によって識別される。
加えて又は代替的に、第1画像の前記領域は前記第1及び第2画像における、それぞれのピクセルに対して導き出された、それぞれの動きベクトルの比較によって識別される。
そして、好ましい実施形態において、画像の立体極性の尺度(立体極性標識)を決定するために画像水平勾配値とオクルージョン境界値(オクルージョン境界データ)の積が画像の全部又は一部にわたって合計される。
もう1つの態様として、本発明は左目及び右目画像を識別するために立体表示のための1組の画像を分析するための装置であって、一方の画像だけに可視である1つ又は複数の遮蔽された領域(遮蔽された領域)を探すように構成されるオクルージョン検出器と、オクルージョン境界処理部と、水平勾配検出器と、オクルージョン境界処理部及び水平勾配検出器の出力から立体極性標識を導き出すための立体極性処理部(極性処理部)と、を備える。
前記オクルージョン境界処理部は、
遮蔽された領域の左側の境界に水平方向に近い画像要素と、
遮蔽された領域の右側の境界に水平方向に近い画像要素と、を別個に識別するように構成されていてもよい。
前記立体極性処理部は、
比較的多くの画素が比較的大きな水平勾配を有し(所定数より多い画素が、予め設定した閾値より大きな水平勾配を有し)、遮蔽された領域の左側の境界に水平方向に近い右立体標識と、
比較的多くの画素が比較的大きな水平勾配を有し、遮蔽された領域の右側の境界に水平方向に近い左立体標識と、を導き出すように構成されている。
さらにもう1つの態様として、本発明は立体表示のための1組の画像の左目及び右目画像を識別するための方法であって、立体ペアの画像を比較して、一方の画像だけに可視である1つ又は複数の領域(遮蔽された領域)を探すステップと、画像境界を検出するステップと、立体ペアの画像のうち、右目画像として、探した領域の左側の境界と一直線になる画像境界が、右側の境界と一直線になる画像境界より多い画像を識別し、左目画像として、探した領域の右側の境界と一直線になる画像境界が、左側の境界と一直線になる画像境界より多い画像を識別するステップを含む。
本発明によれば、画像の立体ペアの右目画像と左目画像とを識別する場合に、統計的な推定への依存を減らすことが可能となる。
2つの対象物及び2つの水平方向に間隔を開けた視点を示す場面の平面図である。 図1の視点から見た視野の間の関係を示す図である。 2つの対象物及び2つの水平方向に間隔を開けた視点を示す他の場面の平面図である。 図3の視点から見た視野の間の関係を示す図である。 本発明の1つの実施形態の画像分析処理の構成例を示すブロック図である。
以下の説明において、画像はピクセルアレイのデータとして表示及び処理されるものとする。しかしながら、本発明の方法が空間的にサンプリング又はデジタイズされないフォーマットを含む、他の画像フォーマットを使用して実施することも可能であることは当業者に明白であるだろう。
三次元の場面の左目及び右目視野の間の明白かつ測定可能な差異は、各視野がもう一方の視野には存在しない「背景」ピクセルを有することである。左目は「前景」の対象物の左側により多くの背景ピクセルを見ることになり、右目は前景対象物の右側により多くの背景ピクセルを見ることになる。このような「オクルージョン」は2つの視野を比較することによって識別することができる。本明細書において、立体ペアの第1画像に存在し、かつ立体ペアの第2画像に存在しない画像領域は、第1画像の遮蔽された領域(又はオクルージョン領域)と称する。したがって、オクルージョンは第2画像の中身に依存する第1画像内の領域の特性である。
多数の画像比較技術が知られており、特に、「動き補正」画像処理で使用される「動きベクトル」の検出で使用される方法はオクルージョン領域の検出に有効である。本明細書において、用語「動きベクトル」は立体ペアの2つの画像内の描かれた対象物の位置の差を記述するベクトルを意味する。異なる時間に取得された2つの画像の間の動きによる位置の違いを決定するために使用される画像比較方法は立体的不一致の決定に対しても同様に適用可能である。通常、第1画像の領域が同一の大きさ及び形状を有する第2画像の領域と比較され、その結果は変位フレーム差値又はDFD(Displaced-Frame-Difference、変位フレーム差)と称する。第1画像の領域に関連する第2画像の領域の位置が、画像相関処理から導き出される「候補」動きベクトルに従って選ばてもよいし、又は第2画像内の多数の領域が、適切な探索手法に従って比較のために選択されてもよい。
DFDを計算するための多くの方法が存在し、通常は、ピクセル値の差が合計される。差の空間フィルタリングを使用して、一致させる領域の中央に近いピクセルにより大きな重み付けを与えてもよい。低値DFDは一致度の高い領域の組に関連付けられるだろう。動き推定において、低いDFDを有する、第1画像内の領域に関連する第2画像内の領域の位置を示すベクトルは、第1画像領域の1つ又は複数のピクセルに対する良好な動きベクトルであると見なされる。
画像の立体ペアから選択された1つの画像において、遮蔽された画像領域は立体ペアのもう一方の画像に対する高値DFDによって特徴付けられ、これらの遮蔽された領域は通常、もう一方の画像内のどの領域とも一致しない。したがって、画像の各ピクセルに対するDFDが評価されかつ閾値と比較され、それぞれのDFDが閾値を越えた場合、それらのピクセルは「遮蔽されている」として類別される。
遮蔽された領域を検出するためのもう1つの方法は、「遮蔽された領域に対しては有効な動きベクトルが得ることができない」という事を利用することである。画像内の遮蔽された領域を検出するために、動きベクトルは左目画像から右目画像に対して評価され、そしてまた右目画像から左目画像に対して評価される。これらのベクトルは、動き補正映像処理の既知の方法の場合と同様に、それぞれのピクセルに割り当てられる。例えば、位相相関処理から導き出されるブロックベースの動きベクトルは、特定のピクセルを中心にする領域が候補ベクトルによって移動され、立体ペアのもう一方の画像と比較されたときに最低のDFDを与えるベクトルを選ぶことによって画像のピクセルに割り当てることができる。
立体ペアの第1画像内のピクセルについて、ベクトルから導出されるオクルージョン値はそのピクセルに対する動きベクトルを立体ペアの第2画像内のピクセルまで「たどる」こと、及び第2画像のピクセルに対する動きベクトルに従って第1画像まで「もどる」ことによって得られる。戻り点と第1画像のピクセルの位置の間の距離は第1画像ピクセルのオクルージョン値である。これは数学的に以下のように表すことができる。
V[x,y]を、それぞれ水平及び垂直成分V[x,y]及びV[x,y]を有する、画像Aの座標[x,y]のピクセルに対する画像Aから画像Bまでの動きベクトルとし、
W[x,y]を画像Bの座標[x,y]のピクセルに対する画像Bから画像Aまでの動きベクトルとすると、
Occ[x,y]=
|V[x,y]−W[(x+V[x,y]),(y+V[x,y])]|
となる。ここで、Occ[x,y]は画像Aの座標[x,y]のピクセルに対するオクルージョン値であり、|X|はベクトルXの絶対値である。
特に、視点の水平位置の差によるオクルージョンは立体知覚に関連するものであるので、上述の式で示された大きさではなく、動きベクトルの差の水平方向の成分の絶対値をオクルージョン値として用いることが好ましい。各ピクセルのオクルージョン値は閾値と比較され、閾値より大きい場合、ピクセルは遮蔽されたピクセルとして識別され得る。
立体知覚において、前景と背景の対象物の間等の、場面内の異なる深さの対象物の間の変化から生ずる画像境界の特徴は立体極性に関する情報を含む。本発明の1つの態様の方法において、画像内の垂直な境界の位置はその画像の遮蔽された領域の垂直な境界の位置と比較される。図1〜4は、この比較がどのように左目と右目画像の識別を可能にするかを示している。
図1を参照すると、2つの平らな長方形の対象物F及びB1が2つの視点L及びRから観察されている。対象物Fは対象物B1より視点に近い。対象物Fは、B1全体がLから可視であり、かつB1の左側部分だけがRから可視であるようにB1の右側の端に水平方向に重なっている。B1のそれぞれの可視領域はL及びRからFの左側の端を通るそれぞれの視線によって限定されており、図において、これらは線(1)及び(2)で示されている。
図2はL及びRに配置されたカメラによって観察されるそれぞれの視野を示している。Lからの視野(左目視野)(20)は両方の対象物の全体を示している。Rからの視野(右目視野)(21)はFの全体を示しているが、B1については左側部分だけを示している。したがって、B1の線(22)の右側の部分は遮蔽された領域である。
2つの視野を上記のオクルージョン検出方法を使用して分析すると、Fを表すピクセルは両方の画像で一致することとなり、低いDFD及び/又は低い動きベクトル差を与える。これは矢印(23)で示されている。
同様に、B1の左側部分を表すピクセルは一致することとなり、低い動きベクトル差を有する。(ただし、この動きベクトルはFに対する動きベクトルとは異なるだろう。)これは矢印(24)で示されている。
しかしながら、Lからの視野(20)におけるB1の右側部分を表すピクセルはRからの視野のピクセルとは確実には一致しない。これらのピクセルは高いDFDを有し、それらに対する動きベクトルを生成しようとする試みは非常にとっぴな結果をもたらすだろう。これは矢印(25)で示されている。
したがって、Lからの視野(20)から成る画像において、B1の線(22)の右側の部分は遮蔽された領域として検出される。この領域は、左側が、画像自体には関係の無い観念上の構造である線(22)によって境界付けられており、そして右側が、画像の特徴である、B1とFとの間の境界によって境界付けられている。
図3及び4は類似の配置を示しており、対象物Fは、より遠くに位置する対象物B2全体がRから可視であり、かつB2の右側部分だけがLから可視であるようにB2の左側の端に水平方向に重なっている。ここで、Rからの視野(右目視野)(41)から成る画像の分析は、遮蔽された領域として、左側が、画像の特徴である、FとB2との間の境界によって境界付けられ、右側が、画像自体には関係の無い観念上の構造である線(42)によって境界付けられている領域を識別するだろう。
したがって、左目画像はそれの遮蔽された領域の右側の境界と一直線になる(一列に並ぶ、一致する)画像の境界を含む傾向があり、そして右目画像はそれの遮蔽された領域の左側の境界と一直線になる画像の境界を含む傾向があると言える。
図5は画像A及びBの組の「立体極性」を突き止めるために、この原理を利用する処理のブロック図を示している。この図を参照すると、画像Aを表す入力データ及び画像Bを表す入力データは、オクルージョン検出器(501)及び(502)で比較され、それぞれの遮蔽された領域が検出される。オクルージョン検出器(501)は画像Bに対応するピクセルが存在しない画像A内のピクセルを識別し、そして、オクルージョン検出器(502)は画像Aに対応するピクセルが存在しない画像B内のピクセルを識別する。例えば、これらの検出器は上述したDFDに基づいた、又は動きベクトルに基づいた方法のどちらを使用してもよい。
画像A及びBに対する入力画像データはまた、それぞれの水平勾配検出器(503)及び(504)にも入力される。これらはそれぞれの入力画像の各ピクセルに対して水平勾配値を導き出す。適切な水平勾配値は以下の式によって与えられる。
Grad[x,y]=|p[(x+1),y]−p[(x−1),y]|
ここで、Grad[x,y]は画像Aの座標[x,y]にあるピクセルに対する水平勾配値であり、p[x,y]は座標[x,y]にあるピクセルの輝度値であり、|x|はxの絶対値である。
オクルージョン検出器(501)及び(502)からの2組のオクルージョンピクセルデータは、画像A及びBに対するそれぞれのオクルージョン境界データの組を生成するためにそれぞれのオクルージョン境界処理部(505)及び(506)で処理される。このデータ(オクルージョン境界データ、オクルージョン境界値ともいう)は遮蔽された領域の境界に水平方向に近いピクセルを識別する。詳細には、左側及び右側のオクルージョン境界に近いピクセルは別々に識別される。適切な方法は、水平方向に隣接したピクセルに対するオクルージョン値の間の差等の、それぞれのオクルージョン値に対する符号付きの水平勾配値を検出することである。図示された例において、現在のピクセルの左側のピクセルの値が現在のピクセルの値から減算される。この結果はオクルージョンの左側の境界で正の値を有し、右側の境界で負の値を有するだろう。この信号は、該信号をそれ自体の遅れさせられた複製及び進められた複製と非線形に結合することによって「拡げられ」てもよい。正の信号に対し、この拡大は「拡張」(dilation)処理であり、負の信号に対しては「減退」(erosion)処理である。
したがって、オクルージョン境界処理部(505)及び(506)の出力はオクルージョンの左側の境界に水平方向に近いピクセルに対して正であり、オクルージョンの右側の境界に水平方向に近いピクセルに対して負である。これらの2つの出力は乗算器(507)及び(508)において、それぞれの画像水平勾配絶対値によって乗算される。
乗算器(507)からの出力はオクルージョンの左側の境界に近くに位置する(どちらかの極性の)急な勾配を有する画像Aのピクセルに対して大きな正の値を有し、オクルージョンの右側の境界に近くに位置する(どちらかの極性の)急な勾配を有するピクセルに対して大きな負の値を有する。これらの値は加算ブロック(509)において、画像Aの全てのピクセル対して合計される。この値は、画像Aが右目画像である場合に大きな正の値になり、画像Aが左目画像である場合に負の値になる可能性が高い。
同様に、乗算器(508)からの出力は加算ブロック(510)において、画像Bの全てのピクセル対して合計される。この結果は、画像Bが右目画像である場合に大きな正の値になり、画像Bが左目画像である場合に負の値になる可能性が高い。
これらの2つの合計は画像A及びBの組の「立体極性」の尺度(立体極性標識)を得るために比較ブロック(511)において比較される。加算ブロック(509)からの出力が加算ブロック(510)の出力を越えている場合、画像Aが右目画像であれば、画像A及びBの立体極性は正しい。この比較の結果は端子(512)に出力される。
異なった深さを有する対象物が描かれる場合のみ、左目と右目を識別することが可能である。動画シーケンス(一続きの動画)においては、通常、シーケンス中の複数の画像の結果の分析を組み合わせることが有用であるだろう。立体極性が頻繁に変わらない場合、この一時的なフィルタリングは変更の発見の遅延と引き換えに検出の信頼性を増大させるために使用することができる。また、分析結果に意味のある変更が見出されるまで検出された極性が報告されないようにするためにヒステリシスを用いることもできる。図5において、加算ブロック(509)、(510)、及び比較ブロック(511)は、オクルージョン境界処理部(505)、(506)、及び水平勾配検出器(503)、(504)の出力から立体極性標識を導き出すように構成される極性処理部としての機能を実現する。
立体動画シーケンスを分配及び格納するための方法のいくつかは同一の時点に対応しない左目及び右目画像を使用する。この場合、動きによって各立体ペアの画像の間に付加的な不一致が導入されてしまう。この問題は、各画像を2つの反対側の目の画像、時間的に早い1つの画像と時間的に遅い1つの画像と比較することによって解決することができる。これらの2つの比較において動きによって引き起こされる不一致は反対方向であるのに対し、深さに関連する不一致は同様な方向である。
画像フレームの境界は強度のオクルージョンを生じさせるが、それらは生成処理の一部として故意に修正されることがある。したがって、立体極性の決定においては、フレームの境界でのオクルージョンを無視することが有用であることが多い。
本発明には多数の代替的な実施が存在する。副標本化され、フィルタリングされた画像が使用されてもよい。垂直方向の不一致は深さの描写に対して関連性が少ないので、分析された画像の空間解像度は垂直方向において、水平方向と比較して故意に低減されてもよい。
2つの画像の間の「動き推定」処理は完全に水平方向であってもよいし、又は動きベクトルの垂直成分が破棄されてもよい。
DFDを使用したオクルージョン検出方法はベクトル差方法と組み合わされ、それによってピクセルに対する動きベクトル差とDFDの組み合わせがそのピクセルのオクルージョン値として使用されてもよい。
画像の境界の位置とオクルージョン境界の相関において、上述したようにオクルージョン境界を拡張させる代わりに、画像境界データが拡張させられてもよい。7つのピクセルによるオクルージョン境界の拡張/減退が効果的であることが判明したが、他の数が使用されてもよい。
オクルージョンを検出するために使用される閾値は固定値である必要はなく、閾値は処理される画像の分析又は処理される画像を記述するメタデータから導き出されてもよい。
画像中の境界又は変化の位置を特定するために輝度以外のピクセル値を使用することもできる。輝度とクロミナンス情報の組み合わせは、対象物の間の画像の変化の位置がより良好に特定されることを可能にする。
領域の右側の境界と一直線になる(一致する)画像境界の数よりも多くの数の画像境界が前記領域の左側の境界と一直線になるかどうか、又は領域の左側の境界と一直線になる画像境界の数よりも多くの数の画像境界が前記領域の右側の境界と一直線になるかどうかを決定するために乗算と合計以外の技術が使用されてもよい。
なお、本発明は上記に示す実施形態に限定されるものではない。本発明の範囲において、上記実施形態の各要素を、当業者であれば容易に考えうる内容に変更、追加、変換することが可能である。
20、40 Lからの視野(左目視野)
21、41 Rからの視野(右目視野)
501、502 オクルージョン検出器
503、504 水平勾配検出器
505、506 オクルージョン境界処理部
507、508 乗算器
509、510 加算ブロック(510)
511 比較ブロック
512 端子

Claims (13)

  1. 立体表示のための1組の画像の左目及び右目画像を識別するための方法であって、
    立体ペアの画像を比較して、一方の画像だけに可視である1つ又は複数の領域を探すステップと、
    画像境界を検出するステップと、
    探した領域の左側の境界と一直線になる画像境界が、右側の境界と一直線になる画像境界より多い場合に右目画像と識別し、探した領域の右側の境界と一直線になる画像境界が、左側の境界と一直線になる画像境界より多い場合に左目画像と識別するステップと、を備える方法。
  2. 立体表示のための画像を処理するための方法であって、
    立体ペアの画像を比較して一方の画像だけに可視である1つ又は複数の領域を探すステップと、
    前記領域の境界を特定するステップと、
    前記境界又は前記境界の1つ又は複数の部分と前記画像内の特徴とを相関させるステップと、
    前記立体ペアから前記立体ペアの左目画像と右目画像とを識別するステップと、を備える方法。
  3. 前記境界と前記画像内の特徴とを相関させるステップが、前記境界の垂直方向に延在する部分と前記画像内の垂直方向に延在する境界の特徴を相関させることを含むことを特徴とする請求項2に記載の方法。
  4. 前記立体ペアの第1画像内の探した領域の境界の水平位置と、前記第1画像内の描かれた境界の水平位置とを比較することを特徴とする請求項3に記載の方法。
  5. 前記第1画像の前記領域のうちの少なくとも1つの右側の境界が特定され、前記右側の境界の水平位置が第1画像内の描かれた境界の水平位置に一致する場合、前記第1画像を左目画像として識別することを特徴とする請求項4に記載の方法。
  6. 前記第1画像の前記領域のうちの少なくとも1つの左側の境界が特定され、前記左側の境界の水平位置が前記第1画像内の描かれた境界の位置に一致する場合、前記第1画像を右目画像として識別することを特徴とする請求項3又は4に記載の方法。
  7. 前記第1画像の前記領域の境界の水平位置が前記第1画像の高ピクセル値水平勾配と比較されることを特徴とする請求項4乃至6のいずれか一項に記載の方法。
  8. 前記第1画像の前記領域が前記第1及び第2画像内のそれぞれのピクセルグループに対するピクセル値の比較によって識別される、請求項4乃至7のいずれか一項に記載の方法。
  9. 前記第1画像の前記領域が前記第1及び第2画像内のそれぞれのピクセルに対して導き出された、それぞれの動きベクトルの比較によって識別されることを特徴とする請求項4乃至8のいずれか一項に記載の方法。
  10. 画像の立体極性の尺度を決定するために画像水平勾配値とオクルージョン境界値の積が画像の全部又は一部にわたって合計されることを特徴とする請求項4乃至9のいずれか一項に記載の方法。
  11. 立体表示のための1組の画像を分析して左目画像と右目画像とを識別する装置であって、
    一方の画像だけに可視である領域を探すように構成されるオクルージョン検出器と、
    オクルージョン境界処理部と、
    水平勾配検出器と、
    前記オクルージョン境界処理部及び前記水平勾配検出器の出力から立体極性標識を導き出すように構成される極性処理部と、を備える分析装置。
  12. 前記オクルージョン境界処理部が、
    (1)オクルージョン領域の左側の境界へ水平方向に近い画像要素と、
    (2)オクルージョン領域の右側の境界へ水平方向に近い画像要素と、を別個に識別するように構成されていることを特徴とする請求項11に記載の分析装置。
  13. 前記極性処理部が、
    (1)画素が水平勾配を有し、オクルージョン領域の左側の境界へ水平方向に近い右立体標識と、
    (2)画素が水平勾配を有し、オクルージョン領域の右側の境界へ水平方向に近い左立体標識と、を導き出すように構成されている、請求項12に記載の分析装置。
JP2011059334A 2010-03-18 2011-03-17 立体画像の分析方法及び分析装置 Withdrawn JP2011198366A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1004539.1A GB2478776B (en) 2010-03-18 2010-03-18 Analysis of stereoscopic images
GB1004539.1 2010-03-18

Publications (1)

Publication Number Publication Date
JP2011198366A true JP2011198366A (ja) 2011-10-06

Family

ID=42227937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011059334A Withdrawn JP2011198366A (ja) 2010-03-18 2011-03-17 立体画像の分析方法及び分析装置

Country Status (5)

Country Link
US (1) US9214052B2 (ja)
EP (1) EP2367362A2 (ja)
JP (1) JP2011198366A (ja)
CN (1) CN102194231A (ja)
GB (1) GB2478776B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008106185A (ja) * 2006-10-27 2008-05-08 Shin Etsu Chem Co Ltd 熱伝導性シリコーン組成物の接着方法、熱伝導性シリコーン組成物接着用プライマー及び熱伝導性シリコーン組成物の接着複合体の製造方法
JP5987267B2 (ja) * 2011-03-28 2016-09-07 ソニー株式会社 画像処理装置および画像処理方法
KR101773616B1 (ko) * 2011-05-16 2017-09-13 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
JP2013005410A (ja) * 2011-06-21 2013-01-07 Sony Corp 画像フォーマット判別装置、画像フォーマット判別方法、画像再生装置および電子機器
US9402065B2 (en) 2011-09-29 2016-07-26 Qualcomm Incorporated Methods and apparatus for conditional display of a stereoscopic image pair
CN102510506B (zh) * 2011-09-30 2014-04-16 北京航空航天大学 一种基于双目图像和距离信息的虚实遮挡处理方法
CN102521836A (zh) * 2011-12-15 2012-06-27 江苏大学 一种基于特定类灰度图像的边缘检测方法
US9977495B2 (en) 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
CN113570616B (zh) * 2021-06-10 2022-05-13 北京医准智能科技有限公司 图像处理方法、装置、电子设备及计算机可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5768404A (en) * 1994-04-13 1998-06-16 Matsushita Electric Industrial Co., Ltd. Motion and disparity estimation method, image synthesis method, and apparatus for implementing same methods
JP3416322B2 (ja) * 1995-02-22 2003-06-16 キヤノン株式会社 表示装置
US5856843A (en) * 1994-04-26 1999-01-05 Canon Kabushiki Kaisha Stereoscopic display method and apparatus
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
KR101520619B1 (ko) * 2008-02-20 2015-05-18 삼성전자주식회사 스테레오 동기화를 위한 스테레오스코픽 영상의 시점 결정방법 및 장치
JP4636149B2 (ja) * 2008-09-09 2011-02-23 ソニー株式会社 画像データ解析装置、および画像データ解析方法、並びにプログラム
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene

Also Published As

Publication number Publication date
EP2367362A2 (en) 2011-09-21
US20110229014A1 (en) 2011-09-22
GB2478776B (en) 2015-08-19
GB2478776A (en) 2011-09-21
US9214052B2 (en) 2015-12-15
GB201004539D0 (en) 2010-05-05
CN102194231A (zh) 2011-09-21

Similar Documents

Publication Publication Date Title
JP2011198366A (ja) 立体画像の分析方法及び分析装置
CN101682794B (zh) 用于处理深度相关信息的方法、装置和系统
KR100505334B1 (ko) 운동 시차를 이용한 입체 영상 변환 장치
JP4762994B2 (ja) 視差マップ
KR101520619B1 (ko) 스테레오 동기화를 위한 스테레오스코픽 영상의 시점 결정방법 및 장치
EP2477158B1 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
US8861837B2 (en) Detecting stereoscopic images
US9661227B2 (en) Method, circuit and system for stabilizing digital image
US8526716B2 (en) Analysis of stereoscopic images
US20130070049A1 (en) System and method for converting two dimensional to three dimensional video
JP2010062695A (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN102170578A (zh) 用于处理视频图像的方法和设备
JP5257248B2 (ja) 画像処理装置および方法、ならびに画像表示装置
KR101918030B1 (ko) 하이브리드 멀티-뷰 랜더링 방법 및 장치
US20120062699A1 (en) Detecting stereoscopic images
CN104767985A (zh) 使用区域分布分析以自动检测三维图像格式的方法
Lin et al. A 2D to 3D conversion scheme based on depth cues analysis for MPEG videos
WO2015158570A1 (en) System, method for computing depth from video
Tsubaki et al. 2D to 3D conversion based on tracking both vanishing point and objects
Cheng et al. Merging Static and Dynamic Depth Cues with Optical‐Flow Recovery for Creating Stereo Videos
TW201424341A (zh) 可自動調整影像顯示深度的立體顯示裝置及方法
Wu et al. Subframe video synchronization by matching trajectories
Cho et al. Multi-view synthesis based on single view reference layer
Cheng et al. Research Article Merging Static and Dynamic Depth Cues with Optical-Flow Recovery for Creating Stereo Videos
JP6131256B2 (ja) 映像処理装置及びその映像処理方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603