JPWO2012117706A1 - 映像処理装置、映像処理方法、プログラム - Google Patents
映像処理装置、映像処理方法、プログラム Download PDFInfo
- Publication number
- JPWO2012117706A1 JPWO2012117706A1 JP2013502186A JP2013502186A JPWO2012117706A1 JP WO2012117706 A1 JPWO2012117706 A1 JP WO2012117706A1 JP 2013502186 A JP2013502186 A JP 2013502186A JP 2013502186 A JP2013502186 A JP 2013502186A JP WO2012117706 A1 JPWO2012117706 A1 JP WO2012117706A1
- Authority
- JP
- Japan
- Prior art keywords
- offset amount
- parallax
- view data
- calculated
- video processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims 2
- 238000004364 calculation method Methods 0.000 claims abstract description 117
- 238000000605 extraction Methods 0.000 claims abstract description 77
- 238000003384 imaging method Methods 0.000 claims description 92
- 238000000034 method Methods 0.000 claims description 61
- 238000006243 chemical reaction Methods 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 38
- 230000015572 biosynthetic process Effects 0.000 claims description 12
- 238000003786 synthesis reaction Methods 0.000 claims description 12
- 230000014509 gene expression Effects 0.000 claims description 10
- 239000002131 composite material Substances 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 5
- 239000000284 extract Substances 0.000 abstract description 16
- 238000003860 storage Methods 0.000 description 56
- 238000010586 diagram Methods 0.000 description 48
- 238000005070 sampling Methods 0.000 description 34
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000009877 rendering Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
Description
<1.1 概要>
実施の形態1に係る映像処理装置は、オブジェクトを重畳する立体視映像上の領域における視差を算出し、その算出した視差に基づきオブジェクトの視差量を決定し、オブジェクトを重畳する装置である。ここで、視差とは、左目用画像および右目用画像の組みにおける対応画素間の水平座標位置のオフセット量(ずれ量)である。
まず実施の形態1に係る映像処理装置100の構成について説明する。図1は映像処理装置100の構成の一例を示すブロック図である。図1に示されるように、映像処理装置100は、操作部101、映像取得部102、左目用画像・右目用画像格納部103、制御部104、オブジェクト描画要求部105、描画要求キュー格納部106、映像処理部107、出力部108を含んで構成される。以下、各構成部について説明する。
操作部101は、映像処理装置100に操作入力を行うためのものであり、例えば、タッチパネル、キーボード、マウス、その他のコントローラ等からなる。ユーザは、立体視映像に重畳する図形、記号、文字等のオブジェクトデータの内容、重畳する位置等を指定する。
映像取得部102は、左目用映像(メインビューデータ)と右目用映像(サブビューデータ)の組みからなる立体視映像を取得する。ここで映像取得部102が取得する立体視映像は、図1に示されるように、映像処理装置100に接続された撮像装置によりリアルタイムに撮像された立体視映像である。
左目用画像・右目用画像格納部103は、映像取得部102で取得した立体視映像を、非圧縮のピクチャデータ(左目用画像、右目用画像)として格納する。左目用画像・右目用画像格納部103に格納されたピクチャデータがオブジェクトの重畳処理の対象となる。
制御部104は、映像処理装置100の動作の制御を行う。特に、制御部104の内部に格納されたタイミング情報に基づき、重畳処理を行うタイミングの制御を行う。
オブジェクト描画要求部105は、操作部101による、立体視映像に重畳する図形、記号、文字等のオブジェクトデータの内容や重畳する位置等の指定に基づき、重畳処理を行う図形、記号、文字等のオブジェクトに関する情報を示す描画要求キュー106を生成する。この描画要求キュー106の生成は、制御部104が発行する駆動イベント毎に行う。
映像処理部107は、左目用画像・右目用画像格納部103に格納された左目用画像、右目用画像に対して、描画要求キュー106に基づくオブジェクトを重畳する。その際、まず、オブジェクトを重畳する立体視映像上の領域を構成する画素、およびその外部近傍に位置する画素から視差の算出に適した特徴点を抽出する。次に抽出した特徴点の視差を対応点探索により算出し、算出した特徴点の視差に基づき、オブジェクトを重畳する立体視映像上の領域を構成する全画素の視差を算出する。そして、そのオブジェクトを重畳する領域の視差を考慮してオブジェクトの視差を決定し、重畳処理を行う。映像処理部108の詳細な内部構成、およびその説明は<1.3>節で行う。
出力部109は、映像処理部108で重畳処理された立体視映像を出力する。出力部109は、図1に示されるように、例えば、ディスプレイに重畳処理された立体視映像を出力する。また、ネットワーク上に重畳処理された立体視映像を送信してもよい。また、重畳処理された立体視映像をアンテナを通じて送信してもよい。また、重畳処理された立体視映像を記録装置に書き込んでもよい。ここで記録装置は、例えばハードディスクドライブ、BD、DVD等の光ディスク、またはSDメモリカード等の半導体メモリ装置である。
図4は映像処理部107の内部構成の一例を示すブロック図である。本図に示されるとおり映像処理部107は、視差マスク生成部401、視差情報生成部402、オブジェクト視差決定部403、オブジェクト画像生成部404、合成部405を含んで構成される。以下各構成部について説明する。
視差マスク生成部401は、オブジェクト描画要求部105で生成された描画要求キュー106に含まれる領域情報302に基づき、視差を算出すべき左目用画像の領域を示す視差マスクを生成する。視差マスクは、2値のビットマップであり、オブジェクトを重畳する領域においては1、その他の領域においては0の値をとる。
視差情報生成部402は、視差マスク生成部401で生成された視差マスクで示される領域内の画素の視差を算出する。具体的には、まず、オブジェクトを重畳する立体視映像上の領域を構成する画素、およびその外部近傍に位置する画素から視差の算出に適した特徴点を抽出する。次に抽出した特徴点の視差を対応点探索により算出する。そして算出した特徴点の視差に基づき、重畳領域の視差分布を示す式を導出することにより、特徴点を除く重畳領域内の画素を算出する。この視差情報生成部402の詳細な内部構成、およびその説明は<1.4>節で行う。
オブジェクト視差決定部403は、立体視映像に重畳するオブジェクトに与える視差量を決定する。具体的には、まず、描画要求キュー106に基づき各オブジェクトを重畳する左目用画像の領域を特定し、視差情報生成部402が生成した視差情報に基づき、その領域内の画素が有する最大視差を検出する。そして、検出した最大視差量を重畳するオブジェクトの視差量とする。ここで、オブジェクト視差決定部403は、オブジェクト毎に決定した視差量をオブジェクト視差情報として記憶する。
オブジェクト画像生成部404は、左目用画像に重畳する左目用オブジェクト画像、右目用画像に重畳する右目用オブジェクト画像を生成する。図6は、オブジェクト画像の生成を説明するための図である。本図に示されるように、オブジェクト画像生成部404は、描画要求キュー106に格納されている領域情報302に基づき左目用オブジェクト画像610を生成する。そして、オブジェクト視差決定部403で決定したオブジェクト視差情報501に基づき、視差量601だけオブジェクト620を左方向にずらして右目用オブジェクト画像630を生成する。
合成部405は、左目用画像、右目用画像のそれぞれにオブジェクトの重畳処理を行い、サイドバイサイド形式で左目用画像と右目用画像を合成する。
図9は視差情報生成部402の内部構成を示すブロック図である。本図に示されるとおり、視差情報生成部402は、特徴点抽出部901、第1視差算出部902、第2視差算出部903、視差マップ格納部904を含んで構成される。以下各構成部について説明する。
特徴点抽出部901は、視差マスクで示される領域およびその外部近傍の領域から特徴点の抽出を行う。抽出した特徴点の座標位置等の情報は探索情報として記憶する。以下では、その詳細な内容について、「特徴点の抽出」、「探索情報」、「特徴点の抽出を行う領域」に項目分けして説明する。
特徴点とは、視差の算出における対応点探索に適した画素をいう。特徴点抽出部901では、エッジ(輝度が鋭敏に変化している箇所)、またはエッジの交点箇所を特徴点として抽出する。エッジの検出は、画素間の輝度の差分(一次微分)を求め、その差分からエッジ強度を算出することにより行う。また、その他のエッジ検出方法により特徴点を抽出してもよい。特徴点の抽出を行う領域については後述する。以上が特徴点の抽出についての説明である。続いて探索情報について説明する。
探索情報は、抽出した特徴点の座標位置・視差等を示す情報である。図10は探索情報1001のデータ構造を示す摸式図である。本図に示される通り、探索情報1001は分割領域情報1002、特徴点情報1003、サンプリング点情報1004からなる。分割領域情報1002は、左目用画像を分割した各分割領域に含まれる特徴点に関する情報である。特徴点情報1003は、特徴点の座標、視差等を示す情報である。サンプリング点情報1004は、第2視差算出部903での視差算出において用いる特徴点(サンプリング点)に関する情報である。特徴点抽出部901は、特徴点を抽出しその特徴点の視差を算出する毎に探索情報1001を更新する。
特徴点抽出部901は、視差マスクで示される左目用画像の領域(重畳領域)内の画素およびその外部近傍に位置する左目用画像の一部の領域を構成する画素から視差の算出に適した特徴点を抽出する。具体的には重畳領域内の対象画素(視差未検出の画素)を中心に直交軸を用いて、左目用画像を四分割し、分割象限毎に特徴点抽出を行う。分割象限毎の特徴点抽出においては、まず対象画素を含む分割領域に対して特徴点抽出が行われる。ここで分割領域は図10に示される左目用画像をM×N分割した各領域をいう。分割領域において一定量の特徴点が抽出できた分割象限については、それ以上の領域を特徴点抽出の対象としない。一定量の特徴点が抽出されない分割象限については、探索対象を近接の分割領域まで拡張する。そして一定量の特徴点を抽出するか、探索対象となる分割領域がなくなるまで探索対象の拡張を行う。以下図を用いて、特徴点の抽出を行う領域についてさらに詳細に説明する。
第1視差算出部902は、特徴点抽出部901で抽出した特徴点の視差を算出する。算出した視差は、特徴点情報1003として記憶する。図19は、特徴点の視差の算出を示す図である。本図に示されるように、第1視差算出部902は、抽出した左目用画像の特徴点に対応する画素(対応点)を右目用画像から検出し、対応する画素間の距離(ピクセル数)を特徴点の視差とする。対応点の探索は、各画素に対して輝度値等に基づく相関値を算出し、その相関値が最も高い画素を検出することにより行う。一般に輝度変化が少ない画素に対しては、誤った対応点を検出する場合も多いが、特徴点は輝度が鋭敏に変化しているエッジ箇所等であるので、精度よく対応点を検出することができる。以上が第1視差算出部902の説明である。続いて第2視差算出部903について説明する。
第2視差算出部903は、第1視差算出部902で算出した特徴点の視差に基づき、重畳領域の視差分布を示す式を導出することにより、特徴点を除く重畳領域内の画素を算出する。以下では、その詳細な内容について、「視差算出方法」、「視差の算出を行う領域」に項目分けして、具体的に説明する。
第2視差算出部903は、サンプリング点情報1004を参照して得られるサンプリング点1〜Nの座標および視差から重畳領域の視差分布を示す式(視差算出式)を決定し、その式を各画素に適用することにより視差の算出を行う。
図20は、視差の算出を行う領域を示す図である。本図は、特徴点の抽出を行う領域を説明した図16、図17、図18に対応する。ここで図中の斜線部の領域が視差算出式を適用する領域である。視差算出式を適用する領域は以下のように定める。
視差マップ格納部904は、第1視差算出部902で算出した重畳領域内の特徴点の視差、および第2視差算出部903で算出した重畳領域内の特徴点以外の画素点の視差の値を格納する。視差マップ格納部904に格納された視差マップは、オブジェクト視差決定部403によるオブジェクトに与える視差量の決定に用いられる。
<1.5.1 全体動作>
まず映像処理装置100の全体動作について説明する。図21は、映像処理装置100の動作を示すフロー図である。
図22は、映像処理(ステップS2105)の詳細を示すフロー図である。本図に示されるように、まず視差情報生成部402はオブジェクトを重畳する領域の左目用画像、右目用画像間の視差を算出する(ステップS2201)。ステップS2201の視差算出処理の詳細は<1.5.3>節で述べる。
図23は、視差算出処理(ステップS2201)の動作を示すフロー図である。本図に示されるように、まず、視差マスク生成部401は、視差マスクを生成する(ステップS2301)。具体的には、視差マスク生成部401は、オブジェクトを重畳する領域を1、その他の領域を0とする2値のビットマップを作製する。次に、視差情報生成部402は、視差マスクで示されるオブジェクトを重畳する領域内における視差未検出の画素を探索する(ステップS2302)。
<2.1 概要>
実施の形態2に係る映像処理装置は、実施の形態1に係る映像処理装置100と同様に、オブジェクトを重畳する立体視映像上の領域における視差を算出するものであるが、オブジェクトの重畳方法が異なる。実施の形態2に係る映像処理装置は、視差量が予め定まっているオブジェクトを重畳するものであり、オブジェクトの視差量と、オブジェクトを重畳する領域の視差を比較する。そして、オブジェクトの視差量よりも視差が大きい領域については、オブジェクトを重畳しないようにする。これにより、元の立体視映像がオブジェクトよりも飛び出して表示されオブジェクトが元の立体視映像部分に埋没することを防ぐことができ、視聴者は違和感なく立体視映像および重畳されたオブジェクトを観察することができる。
まず実施の形態2に係る映像処理装置2400の構成について説明する。図24は映像処理装置2400の構成の一例を示すブロック図である。なお、図1に示す実施の形態1に係る映像処理装置100の構成と同じ部分については、同符号を付して説明を省略し、異なる部分について説明する。図24に示されるように、映像処理装置2400は、操作部101、映像取得部102、左目用画像・右目用画像格納部103、制御部104、オブジェクト描画要求部2401、描画要求キュー2402、映像処理部2403、出力部108を含んで構成される。
オブジェクト描画要求部2401は、制御部104が発行する駆動イベントに従い、重畳処理を行う図形、記号、文字等のオブジェクトに関する情報およびオブジェクトに付与する視差量を含む描画要求キュー2402を生成する。オブジェクトに付与する視差量が予め与えられる点において、実施の形態1にかかるオブジェクト描画要求部105、描画要求キュー106と異なる。
図26は、映像処理部2403の内部構成の一例を示すブロック図である。図4に示す実施の形態1にかかる映像処理部107の構成と同じ部分については、同符号を付して説明を省略し、異なる部分について説明する。本図に示されるとおり映像処理部2403は、視差マスク生成部401、視差情報生成部2601、オブジェクト描画領域決定部2602、オブジェクト画像生成部2603、合成部405を含んで構成される。
実施の形態1における映像処理装置100と異なる映像処理について説明する。図29は、映像処理装置2400の映像処理の動作を示すフロー図である。図22に示す実施の形態1に係る映像処理の動作と同じ部分については、同符号を付す。
<3.1 概要>
実施の形態3にかかる映像処理装置は、実施の形態1にかかる映像処理装置100と同様に、オブジェクトを重畳する立体視映像上の領域における視差を算出するものであるが、算出した視差を、三次元表示における深さ方向の位置を示す深度情報に変換する点において異なる。これにより、本実施の形態にかかる映像処理装置は、左目用画像および右目用画像の画像データの組みから、三次元表示における深さ方向の位置を示す深度情報を生成することができる。
実施の形態3にかかる映像処理装置は、図1に示す実施の形態1にかかる映像処理装置100に対して、映像処理部の構成が異なる。映像処理部107以外の構成、すなわち、操作部101、映像取得部102、左目用画像・右目用画像格納部103、制御部104、オブジェクト描画要求部105、描画要求キュー106、出力部108については、同じ構成である。以下では、映像処理装置100とは異なる映像処理部について説明する。
深度情報変換部3101は、視差を深度情報に変換する機能を有する。また、深度情報格納部3102は、深度情報変換部3101により生成された深度情報を格納する機能を有する。
ここで、スケーリングの重みパラメータα、シフトの重みパラメータβの値は、任意の設定値である。例えば、α=255/(最大視差量−最小視差量)、β=0としてもよい。また、映像処理装置の使用者によりα、βの各値が入力されるものであってもよい。
オブジェクト視差決定部3103は、オブジェクトを重畳する領域内の画素が有する最大視差を検出し、検出した最大視差を重畳するオブジェクトの視差量とする。この際、オブジェクト視差決定部3103は、深度情報格納部3102に格納された深度情報から視差の値を生成し、生成した視差の値を用いて、重畳するオブジェクトの視差を決定する。
なお、オブジェクト視差決定部3103は、実施の形態1にかかる映像処理装置100と同様に、視差マップ格納部904に格納された視差の値を用いて、重畳するオブジェクトの視差を決定してもよい。
実施の形態1における映像処理装置100と異なる深度情報変換処理について説明する。図33は、映像処理部3100の深度情報変換処理の動作を示すフロー図である。
<4.1 概要>
実施の形態4にかかる映像処理装置は、実施の形態3にかかる映像処理装置と同様に、左目用画像および右目用画像の画像データの組みから、三次元表示における深さ方向の位置を示す深度情報を生成するものであるが、生成する深度情報の内容が異なる。本実施の形態にかかる映像処理装置は、左目用画像および右目用画像の画像データの組みから、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離を生成する。
図34は、実施の形態4にかかる映像処理装置3400の構成の一例を示すブロック図である。図1に示す実施の形態1にかかる映像処理装置100の構成と同じ部分については、同符号を付して説明を省略し、異なる部分について説明する。本図に示されるように、映像処理装置3400は、操作部101、映像取得部102、左目用画像・右目用画像格納部103、撮像パラメータ格納部3401、制御部104、オブジェクト描画要求部105、描画要求キュー106、映像処理部3402、出力部108を含んで構成される。
撮像パラメータ格納部3401は、左目用画像・右目用画像の撮像カメラに関するパラメータ情報を格納する機能を有する。ここで、撮像パラメータとは、例えば、撮像カメラの画角、撮像カメラにより撮影された画像の解像度、左目用画像の撮像カメラから右目用画像の撮像カメラまでの直線距離である基線長の情報を含む。なお、撮像カメラの画角にかえて、撮像カメラの焦点距離とフレームサイズの情報を含むとしてもよい。
映像処理部3402は、左目用画像・右目用画像格納部103に格納された左目用画像・右目用画像の組みに対する視差を算出する。そして、映像処理部3402は、撮像パラメータ格納部3401に格納された撮像パラメータを用いて、算出した視差を、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離に変換する。
深度情報変換部3501は、視差を深度情報に変換する機能を有する。また、深度情報格納部3502は、深度情報変換部3501により生成された深度情報を格納する機能を有する。
オブジェクト視差決定部3503は、オブジェクトを重畳する領域内の画素が有する最大視差を検出し、検出した最大視差を重畳するオブジェクトの視差量とする。この際、オブジェクト視差決定部3503は、深度情報格納部3502に格納された深度情報から視差の値を生成し、生成した視差の値を用いて、重畳するオブジェクトの視差を決定する。
実施の形態1における映像処理装置100と異なる深度情報変換処理について説明する。図38は、映像処理装置3400の深度情報変換処理の動作を示すフロー図である。
実施の形態5にかかる映像処理装置は、実施の形態4にかかる映像処理装置と同様に、左目用画像および右目用画像のデータの組みから、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離を算出するものであるが、左目用画像および右目用画像に施されたプレーンシフト量を考慮して実距離を算出する点において異なる。
このように、左目用画像、右目用画像がプレーンシフトされている場合、視差マップ格納部904に格納される視差の値は、実際に撮影された画像データにおける被写体間の視差DPではなく、プレーンシフト後の画像データにおける被写体間の視差DP´となる。
なお、上記の実施の形態に基づいて説明してきたが、本発明は上記の実施の形態に限定されないことはもちろんである。以下のような場合も本発明に含まれる。
101 操作部
102 映像取得部
103 左目用画像・右目用画像格納部
104 制御部
105 オブジェクト描画要求部
106 描画要求キュー
107 映像処理部
108 出力部
401 視差マスク生成部
402 視差情報生成部
403 オブジェクト視差決定部
404 オブジェクト画像生成部
405 合成部
901 特徴点抽出部
902 第1視差算出部
903 第2視差算出部
904 視差マップ格納部
2400 映像処理装置
2401 オブジェクト描画要求部
2402 描画要求キュー
2403 映像処理部
2601 視差情報生成部
2602 オブジェクト描画領域決定部
2603 オブジェクト画像生成部
3100 映像処理部
3101 深度情報変換部
3102 深度情報格納部
3103 オブジェクト視差決定部
3400 映像処理装置
3401 撮像パラメータ格納部
3402 映像処理部
3501 深度情報変換部
3502 深度情報格納部
3503 オブジェクト視差決定部
4100 LSI
4101 CPU
4102 DSP
4103 ENC/DEC
4104 VIF
4105 PERI
4106 NIF
4107 MIF
4108 RAM/ROM
4109 MODEM
4110 HDD
4111 Touch Panel
4112 LCD
4113 Camera(L)
4114 Camera(R)
[0009]
本発明は上記事情に鑑みなされたものであり、立体視映像を構成する画像データの組みにおける対応画素間のオフセット量を高速かつ精度よく算出することができる映像処理装置を提供することを目的とする。
課題を解決するための手段
[0010]
上記目的を達成するため、本発明にかかる映像処理装置は、立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する映像処理装置であって、メインビューデータのうち、合成画像を合成する合成領域を、オフセット量を算出すべき領域として特定し、当該特定した領域を示すオフセットマスクを生成するオフセットマスク生成部と、前記オフセットマスクにより示されたオフセット量を算出すべき領域、および前記オフセットマスクにより示されたオフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出部と、サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出部と、算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出部とを備えることを特徴とする。
発明の効果
[0011]
立体視映像上の全画素に対して対応点探索を行った場合、その演算量は膨大となる。本発明では、立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間のオフセット量(視差)を算出すべき領域およびその外部近傍に位置する画素から抽出した特徴点のみに対応点探索を行い、対応点探索により算出した特徴点のオフセット量に基づき特徴点以外の画素のオフセット量を算出するので、オフセット量算出に要する演算量を大幅に削減することができる。その結果立体視映像に対して適切な立体感を有するオブジェクトを高速に(リアルタイムに)重畳することが可能となる。
[0012]
また、オフセット量を算出すべき領域内の輝度変化が少ない領域については、誤った対応点を検出し、正しいオフセット量の値を算出できない場合がある。本発明では、特徴点のみに対応点探索を行い、特徴点のオフセット量
Claims (17)
- 立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する映像処理装置であって、
メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出部と、
サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出部と、
算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出部と
を備えることを特徴とする映像処理装置。 - 前記特徴点抽出部は、
予め決められた数の特徴点が発見されない場合、
抽出済みの領域に近接する所定領域を抽出範囲として新たに選択し、選択した抽出範囲から特徴点を抽出する処理を予め決められた数の特徴点が発見されるまで繰り返す
ことを特徴とする請求項1に記載の映像処理装置。 - 前記特徴点抽出部は、
前記メインビューデータのオフセット量を算出すべき領域内の対象画素を中心としてメインビューデータを分割し、
抽出範囲を前記メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に絞り込んで、前記抽出範囲に位置する画素から特徴点を抽出する処理を分割象限毎に行い、
分割象限において予め決められた数の特徴点が発見されない場合、
抽出済みの領域に近接する所定領域を抽出範囲として新たに選択し、選択した抽出範囲から特徴点を抽出する処理を当該分割象限に予め決められた数の特徴点が発見されるまで繰り返す
ことを特徴とする請求項1に記載の映像処理装置。 - 前記第2オフセット量算出部は、
算出された特徴点のオフセット量を用いて、メインビューデータのオフセット量を算出すべき領域のオフセット量分布を示す式を導出することにより、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する
ことを特徴とする請求項1に記載の映像処理装置。 - 前記映像処理装置はさらに、
オフセット量を算出すべき領域を示すマスクを生成するマスク生成部を備えることを特徴とする請求項1に記載の映像処理装置。 - 前記オフセット量を算出すべき領域は、メインビューデータのうち合成処理を行う合成領域であり、
前記映像処理装置はさらに、
前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたメインビューデータの合成領域を構成する画素のオフセット量に基づき、メインビューデータおよびサブビューデータのそれぞれに合成画像を合成する合成部を備えることを特徴とする請求項1に記載の映像処理装置。 - 前記合成部は、
前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたメインビューデータの合成領域を構成する画素のオフセット量のうち最大のオフセット量を合成画像に付与し、メインビューデータおよびサブビューデータに合成することを特徴とする請求項6に記載の映像処理装置。 - 前記合成部は、
前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたメインビューデータの合成領域を構成する画素のオフセット量と予め設定された合成画像のオフセット量とを比較し、
合成画像のオフセット量よりも大きいオフセット量を有するメインビューデータの画素からなる領域およびそれに対応するサブビューデータの領域については、合成画像を合成しないことを特徴とする請求項6に記載の映像処理装置。 - 前記映像処理装置はさらに、
前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたオフセット量を、三次元表示における深さ方向の位置を示す深度情報に変換する深度情報変換部を備える
ことを特徴とする請求項1に記載の映像処理装置。 - 前記深度情報変換部は、前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたオフセット量をスケーリング及びシフトのいずれか一方又は両方を行う
ことを特徴とする請求項9に記載の映像処理装置。 - 前記深度情報は、撮像位置から被写体までの深さ方向の実距離である
ことを特徴とする請求項9に記載の映像処理装置。 - 前記深度情報変換部は、メインビューデータの撮像カメラおよびサブビューデータの撮像カメラの撮像パラメータを用いて、前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたオフセット量を、前記実距離に変換する
ことを特徴とする請求項11に記載の映像処理装置。 - 前記撮像パラメータは、メインビューデータの撮像カメラとサブビューデータの撮像カメラの画角、メインビューデータの撮像カメラとサブビューデータの撮像カメラの解像度、およびメインビューデータの撮像カメラからサブビューデータの撮像カメラまでの基線長を含む
ことを特徴とする請求項12に記載の映像処理装置。 - 前記撮像パラメータは、メインビューデータの撮像カメラとサブビューデータの撮像カメラの焦点距離、メインビューデータの撮像カメラとサブビューデータの撮像カメラのフレームサイズ、メインビューデータの撮像カメラとサブビューデータの撮像カメラの解像度、およびメインビューデータの撮像カメラからサブビューデータの撮像カメラまでの基線長を含む
ことを特徴とする請求項12に記載の映像処理装置。 - 前記深度情報変換部は、メインビューデータおよびサブビューデータがプレーンシフトされたビューデータである場合、
前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたオフセット量を、プレーンシフトされる前のメインビューデータおよびサブビューデータの組みに対する対応画素間のオフセット量に変換し、変換後の前記オフセット量に基づき、前記実距離を算出する
ことを特徴とする請求項11に記載の映像処理装置。 - 立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する映像処理方法であって、
メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出ステップと、
サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出ステップと、
算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出ステップと
を備えることを特徴とする映像処理方法。 - 立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する処理をコンピュータに実行させるプログラムであって、
メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出ステップと、
サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出ステップと、
算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出ステップと
をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013502186A JP5852093B2 (ja) | 2011-03-01 | 2012-02-23 | 映像処理装置、映像処理方法、プログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011044081 | 2011-03-01 | ||
JP2011044081 | 2011-03-01 | ||
JP2013502186A JP5852093B2 (ja) | 2011-03-01 | 2012-02-23 | 映像処理装置、映像処理方法、プログラム |
PCT/JP2012/001259 WO2012117706A1 (ja) | 2011-03-01 | 2012-02-23 | 映像処理装置、映像処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012117706A1 true JPWO2012117706A1 (ja) | 2014-07-07 |
JP5852093B2 JP5852093B2 (ja) | 2016-02-03 |
Family
ID=46757651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013502186A Expired - Fee Related JP5852093B2 (ja) | 2011-03-01 | 2012-02-23 | 映像処理装置、映像処理方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130071013A1 (ja) |
JP (1) | JP5852093B2 (ja) |
WO (1) | WO2012117706A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102143472B1 (ko) * | 2013-07-26 | 2020-08-12 | 삼성전자주식회사 | 다시점 영상 처리 장치 및 그 영상 처리 방법 |
JP6565188B2 (ja) * | 2014-02-28 | 2019-08-28 | 株式会社リコー | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム |
WO2019039799A1 (ko) * | 2017-08-20 | 2019-02-28 | 네이버 주식회사 | 시각적 입력의 처리 |
CN109752951B (zh) * | 2017-11-03 | 2022-02-08 | 腾讯科技(深圳)有限公司 | 控制系统的处理方法、装置、存储介质和电子装置 |
CN109793576B (zh) * | 2018-12-10 | 2021-09-28 | 湖北得康科技有限公司 | 一种智能可视装置及可视手术器械 |
US11127115B2 (en) | 2019-12-13 | 2021-09-21 | NextVPU (Shanghai) Co., Ltd. | Determination of disparity |
CN111429338B (zh) * | 2020-03-18 | 2023-08-01 | 百度在线网络技术(北京)有限公司 | 用于处理视频的方法、装置、设备和计算机可读存储介质 |
JP6967816B1 (ja) * | 2021-05-07 | 2021-11-17 | シンメトリー・ディメンションズ・インク | 情報処理装置、及び、情報処理方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2998791B2 (ja) * | 1996-10-31 | 2000-01-11 | 日本電気株式会社 | 三次元構造推定装置 |
JP2002208005A (ja) * | 2001-01-12 | 2002-07-26 | Minolta Co Ltd | 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP4307212B2 (ja) * | 2003-10-17 | 2009-08-05 | シャープ株式会社 | 表示データ編集装置、表示装置、表示データ編集方法、プログラム及び記録媒体 |
JP4301137B2 (ja) * | 2004-10-20 | 2009-07-22 | 富士ゼロックス株式会社 | 画像合成装置、画像合成方法、画像合成プログラムおよび記録媒体 |
JP2006325165A (ja) * | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 |
WO2010010709A1 (ja) * | 2008-07-24 | 2010-01-28 | パナソニック株式会社 | 立体視再生が可能な再生装置、再生方法、プログラム |
JP4637942B2 (ja) * | 2008-09-30 | 2011-02-23 | 富士フイルム株式会社 | 3次元表示装置および方法並びにプログラム |
US8184880B2 (en) * | 2008-12-31 | 2012-05-22 | Intuitive Surgical Operations, Inc. | Robust sparse image matching for robotic surgery |
-
2012
- 2012-02-23 WO PCT/JP2012/001259 patent/WO2012117706A1/ja active Application Filing
- 2012-02-23 US US13/700,543 patent/US20130071013A1/en not_active Abandoned
- 2012-02-23 JP JP2013502186A patent/JP5852093B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2012117706A1 (ja) | 2012-09-07 |
JP5852093B2 (ja) | 2016-02-03 |
US20130071013A1 (en) | 2013-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5852093B2 (ja) | 映像処理装置、映像処理方法、プログラム | |
Cao et al. | Semi-automatic 2D-to-3D conversion using disparity propagation | |
US20120242795A1 (en) | Digital 3d camera using periodic illumination | |
EP2757789A1 (en) | Image processing system, image processing method, and image processing program | |
JPWO2011033673A1 (ja) | 画像処理装置 | |
US9681119B2 (en) | Image encoding method and image encoding apparatus | |
KR20130012504A (ko) | 다시점 렌더링 장치 및 방법 | |
WO2012094076A1 (en) | Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image | |
CN113238472B (zh) | 基于频域位移的高分辨率光场显示方法及装置 | |
KR20120045269A (ko) | 3d 메쉬 모델링 및 에볼루션에 기반한 홀로그램 생성 방법 및 장치 | |
JP2009175866A (ja) | 立体像生成装置、その方法およびそのプログラム | |
JP4819834B2 (ja) | 立体映像処理装置及び立体映像処理方法 | |
TW202014993A (zh) | 資訊處理裝置、記錄媒體、程式產品及資訊處理方法 | |
JP3988879B2 (ja) | 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体 | |
JP6128748B2 (ja) | 画像処理装置及び方法 | |
KR101411568B1 (ko) | 컴퓨터 홀로그램 생성을 위한 가상시점 깊이영상 합성 방법 | |
Wu et al. | Depth mapping of integral images through viewpoint image extraction with a hybrid disparity analysis algorithm | |
CN107103620B (zh) | 一种基于独立相机视角下空间采样的多光编码相机的深度提取方法 | |
KR101289008B1 (ko) | 깊이 카메라를 이용한 3차원 집적영상 획득방법 및 디스플레이 장치 | |
JP2008153805A (ja) | 立体映像表示装置及び2次元画像の立体映像化方法 | |
Xie et al. | Depth-tunable three-dimensional display with interactive light field control | |
De Sorbier et al. | Depth camera based system for auto-stereoscopic displays | |
JP5689693B2 (ja) | 描画処理装置 | |
KR101657373B1 (ko) | 집적 영상 디스플레이에서 다중 깊이 정보 추출 방법 | |
JP4999010B2 (ja) | 自由視点映像生成方式及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20140606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5852093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |