JP2017005480A - 立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体 - Google Patents

立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体 Download PDF

Info

Publication number
JP2017005480A
JP2017005480A JP2015117032A JP2015117032A JP2017005480A JP 2017005480 A JP2017005480 A JP 2017005480A JP 2015117032 A JP2015117032 A JP 2015117032A JP 2015117032 A JP2015117032 A JP 2015117032A JP 2017005480 A JP2017005480 A JP 2017005480A
Authority
JP
Japan
Prior art keywords
pixel
evaluation value
image processing
parallax
occlusion area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015117032A
Other languages
English (en)
Inventor
郁子 椿
Ikuko Tsubaki
郁子 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015117032A priority Critical patent/JP2017005480A/ja
Publication of JP2017005480A publication Critical patent/JP2017005480A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】動画像におけるオクルージョン領域の検出において、検出されたオクルージョン領域のフレーム間におけるばらつきを少なくする。【解決手段】複数の視点画像から構成されるあるフレームにおける評価値を画素値の類似度に基づいて算出する評価値算出部100と、評価値を参照して、あるフレームにおけるオクルージョン領域を検出するオクルージョン領域検出部101を有する。評価値算出部は、注目画素に対応するあるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合は、注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させる。【選択図】図1

Description

本発明は立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体に関する。
左目用画像と右目用画像の2枚の視点画像から構成されるステレオ画像において、視点画像間での被写体の座標のずれは視差と呼ばれ、被写体とカメラとの距離に応じて異なる。視差は、視点画像の各画素において、視点画像間の対応点を求めることで検出できる。以降の説明では、手前にある被写体ほど視差が大きく、奥にあるほど視差が小さいと表す。また、視差は、対応点において、右目用画像内の位置よりも左目用画像内での位置が右にある場合を正値とし、同様に、左目用画像内の位置よりも右目用画像内での位置が右にある場合を負値とする。無論、視点画像の数は2枚に限らず、3枚以上であっても視点画像間の視差(例えばある基準となる視点画像に対する他の視点画像の視差)は推定できる。
ところで、オクルージョン領域とは、前景に遮蔽されることによって、片方の視点画像にしか写っていない背景領域であり、その領域では対応点が存在しない。特許文献1には、確率に関するエネルギーを最小化する手法により、視差の推定と共にオクルージョンに起因する推定エラーが生じたことの判定を行う距離指標情報推定装置が開示されている。また、特許文献2には、評価値を最小とする視差の組合せに基づいて、視差の推定と共にオクルージョン領域の検出を行う立体画像処理装置が開示されている。
特開2013−77131号公報(2013年4月25日公開) 特開2013−58848号公報(2013年3月28日公開)
しかしながら、特許文献1、2に記載の技術をはじめとする従来技術では、静止画(または1フレーム)におけるオクルージョン領域の検出しかできない。したがって、動画像におけるオクルージョン領域の検出を行う場合には、各フレームにおいて独立にオクルージョン領域の検出を行う。このため、検出されたオクルージョン領域がフレーム間でばらつくという問題があった。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、動画像におけるオクルージョン領域の検出において、検出されたオクルージョン領域のフレーム間でおけるばらつきが少ない立体動画像処理装置等を提供することにある。
上記の課題を解決するために、本発明の一態様に係る立体動画像処理装置は、立体動画像を処理する立体動画像処理装置であって、複数の視点画像から構成されるあるフレームにおける評価値を画素値の類似度に基づいて算出する評価値算出部と、上記評価値を参照して、該あるフレームにおけるオクルージョン領域を検出するオクルージョン領域検出部を有し、上記評価値算出部は、注目画素に対応する該あるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合は、上記注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させる。
また、本発明の一態様に係る立体動画像処理方法は、複数の視点画像から構成されるあるフレームにおける評価値を画素値の類似度に基づいて算出する評価値算出ステップと、上記評価値を参照して、該あるフレームにおけるオクルージョン領域を検出するオクルージョン領域検出ステップを有し、上記評価値算出ステップにおいては、注目画素に対応する該あるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合は、上記注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させる。
本発明の一態様によれば、動画像におけるオクルージョン領域の検出において、検出されたオクルージョン領域のフレーム間におけるばらつきが少ないという効果を奏する。
本発明の実施形態1に係る立体動画像処理装置のブロック図である。 本発明の実施形態1に係る評価値の求め方を説明するための図である。 本発明の実施形態1に係る立体動画像処理装置における処理の流れを説明するためのフロー図である。 本発明の実施形態1に係る立体動画像処理装置における視差マップ作成処理の流れを説明するためのフロー図である。 本発明の実施形態2に係る立体動画像処理装置のブロック図である。 本発明の実施形態2に係る立体動画像処理装置における処理の流れを説明するためのフロー図である。 本発明の実施形態2に係る立体動画像処理装置における視差マップ作成処理の流れを説明するためのフロー図である。
〔実施形態1〕
以下、本発明の実施の形態について、図1〜図4に基づいて詳細に説明する。
図1に示すように、本実施形態において、立体動画像処理装置10は、入力部11、視点画像処理部12、記憶部13、および出力部14を備えている。
入力部11は、複数の視点の動画像を入力して視点画像を作成する。
視点画像処理部12は、複数の視点画像に対して処理を行い、評価値算出部100、オクルージョン領域検出部101、および視差検出部102を含む。
オクルージョン領域検出部101は、複数の視点画像から構成されるあるフレームにおけるオクルージョン領域を検出する。視差検出部102は、複数の視点画像から構成されるあるフレームにおける画素毎の視差を検出する。そして、視点画像処理部12は、画素毎の視差、および各画素がオクルージョン領域であるか否かを表わす視差マップを作成する。
評価値算出部100は、あるフレームの注目画素の視差とオクルージョン領域の画素であるかを特定するために参照する評価値を算出する。
記憶部13は、作成された視差マップを記憶する。
出力部14は、視差マップを出力する。
次に、立体動画像処理装置10における処理の流れを、図3を参照して説明する。
入力部11は、まず複数の視点の動画を入力し、各動画をフレーム画像へ分解する。そして、フレーム画像を輝度画像(以下、この輝度画像を視点画像とも呼ぶ)に変換し、順次視点画像処理部12に出力する。視点画像処理部12は、入力部11から視点画像を入力する(ステップS1)。
本実施形態においては、入力部11を通して入力される複数の動画が左目用動画及び右目用動画の合計2つから構成される場合を例に挙げる。例えば、入力部11は、左目用動画と右目用動画とを入力し、各動画をフレーム画像へ分解し、輝度画像への変換を行う。作成された視点画像をそれぞれ左目視点画像、右目視点画像と呼ぶ。そして、入力部11は、左目視点画像と右目視点画像を順次、視点画像処理部12に出力する。無論、入力部11は、予め輝度画像に変換された左目用動画及び右目用動画を入力してもよい。以下、左目視点画像を基準とした右目視点画像の視差マップを検出する場合について説明する。また、本実施形態では、視差を求めるのに最適な輝度画像(つまり画像の輝度値)を用いて処理を行うことを前提としているが、視差を求めるのに必要な値は輝度値に限らない。すなわち、左目用動画及び右目用動画の各フレームの画素値、例えばRGBデータであってもそのいずれか1又は複数色の値を用いて処理を行うことができる。
続いてステップS2において、視点画像処理部12は、前のフレームで求めた視差マップを記憶部13から読み出す。前のフレームの視差マップには、前のフレームの画素毎の視差と各画素がオクルージョン領域であるか否かが示されている。
続いてステップS3において、視点画像処理部12は、入力部11から入力される左目視点画像と右目視点画像の間の視差とオクルージョン領域の検出を行い、視差マップを作成する。オクルージョン領域検出部101は、左目視点画像について求めた視差と右目視点画像について求めた視差の不一致度から求める手法等、既知の様々な方法を用いてオクルージョン領域を検出する。視差検出部102は、ブロックマッチング、確率伝播法等、既知の様々な方法を用いて視差を検出する。
本実施形態では、例えば、動的計画法を用いて、現在のフレームにおける最も上の行(y=0(y:検出を行っている注目行))から順番に1行ずつ処理を行う場合について説明する。その際、前のフレームで求めた画素毎の視差と各画素がオクルージョン領域であるか否かの検出結果を用いる。
次に、ステップS3における各行の処理の一例の流れを、図4を参照しながら説明する。
まず、ステップS11において、視点画像処理部12は、変数xの値を初期化する。xは注目行における右目視点画像の横方向の座標(図2参照)であり、本実施形態では注目行(y)の左端画素から順に処理を行うために、視点画像処理部12は、初期値として0を入力する。
続いてステップS12において、評価値算出部100は、各行において、下記式(1)〜(5)に従い、0≦p≦Pを満たす全ての(x,p)について、評価値U(x,p)を算出する。(x,y)は現在のフレーム中の座標を示し、pは視差を表し、tは検出を行っているフレーム番号を示す。Pは視差の探索範囲を示し、pは0≦p≦Pの範囲の値のみをとることとする。wは画像の横画素数である。
Figure 2017005480
Figure 2017005480
Figure 2017005480
Figure 2017005480
Figure 2017005480
Mは類似度、cは定数を示す。L、Rはそれぞれ左目視点画像と右目視点画像の輝度値、2a+1は−a≦i≦a及び−a≦j≦aで定義されるブロックサイズである。なお、aの値は任意に決めておけばよく、探索範囲は矩形に限ったものではない。また、上記式(2)の計算の際、座標が画像の外の位置を示した場合は、視点画像処理部12は、その座標を近傍の画像端の座標で置き換えるなどの画像端処理を行えばよい。
類似度M(x,y,p)は、左目視点画像に対する右目視点画像の輝度値の差分(右目用画像の画素(x,y)の輝度値に対して、pだけ横にずらした位置の左目視点画像の輝度値の差分)の絶対値和を用いて定義した。本実施形態において、類似度Mの値は、小さい程、比較対象の画素値の類似度が高いと言える。但し、この例に限らず、類似度は、差分平方和、正規化相互相関などの類似度を表す他の関数で定義してもよい。
Aは、右目視点画像の注目画素(x,y)の視差がpであると仮定した場合の、その左隣の視差の候補を示している。右目視点画像の注目画素(x,y)は左目視点画像の画素(x+p,y)と対応している。上記式(1)の計算において、U(xb,pb)+Dx(p,pb)が最小となる(xb,pb)をAの中から選ぶことは、注目画素(座標x)の視差がpである場合に、座標xbの画素の視差がpbであり、座標x=xb+1,xb+2,・・・,x−1の画素をオクルージョン領域であると選択することを示している。つまり、後述のステップS15において選ばれた経路が、(x,p)を通る場合は、座標xbの画素の視差がpbであり、座標x=xb+1,xb+2,・・・,x−1の画素がオクルージョン領域であると検出される。xbがx−1である場合は、オクルージョン領域と検出される画素は無い。
図2は上記式(3)で示す集合Aの範囲を示しており、横軸はx座標、縦軸は視差である。格子模様を付けた座標は注目画素(x,y)を示し、その視差はpである。このとき、黒で示したP+1個の座標がAの要素を示す。また、図2中、斜線で示した座標は、画像端における視差の探索範囲外の領域を示しており、下記式(6)の集合Bで表わされる。視点画像処理部12は、上記式(1)の計算において、この領域では、U(x,p)の値を、無限大とみなせる大きな値で置き換える。
Figure 2017005480
上記式(1)におけるDxは上記式(4)で示される関数であり、上記式(1)におけるDtは上記式(5)で示される関数である。c、c、cは正の定数であり、c>cとする。occは、該当画素がオクルージョン領域であることを示す値である。式(4)においては、p1とp2は共に現在のフレーム中の座標の視差であり、p1は注目画素(x,y)の視差、p2は注目画素の左隣の画素(xb,y)の視差になる。一方、式(5)において、p1は現在のフレーム中の座標の視差であり、p2は隣接フレーム(本実施形態においては、前のフレーム)中の座標の視差である。上記式(3)〜(5)の技術的な意味については後述する。
続いてステップS13において、視点画像処理部12が、x=w−1か否かを判定する。視点画像処理部12が、x=w−1でないと判定した場合(ステップS13でNO)、ステップS14に進む。
ステップS14において、視点画像処理部12は、xをインクリメントする。すなわち、評価値算出部100は、U(x,p)の計算を、まずx=0の場合について行い、その後x=1からw−1までが順に行う(ステップS11〜ステップS14)。
上記式(1)は再帰的であり、x=0から順に累積して最後に得られたU(w−1,p)が注目行(y)内の視差の組合せ(経路)に対する評価値となる。0≦p≦Pであるため、U(w−1,p)はP+1個得られており、P+1通りの経路が作成されたことになる。U(w−1,p)はP+1通りの経路に対する評価値である。
評価値算出部100は、上記式(1)の計算において、U(xb,pb)+Dx(p,pb)が最小となったときのxbの値、pbの値を、それぞれKx(x,p)、Kp(x,p)として保持しておく。このKx(x,p)とKp(x,p)は、評価値U(x,p)に対する経路を表している。また、xb、pbは、それぞれ右目視点画像の集合Aにおける横方向の座標、視差の値である。
一方ステップS13において、視点画像処理部12が、x=w−1であると判定した場合(ステップS13でYES)、ステップS15に進む。ステップS15において、視点画像処理部12は、動的計画法に基づき、評価値U(w−1,p)の中から、最小の評価値を選択し、そのpの値をpbに入力する。これにより、P+1通りの経路の中から、(w−1,pb)を通る1つの経路を最終的に選んだことになる。ただし、本実施形態においては式(6)の領域においてU(x,p)の値を無限大としたため、自動的にU(w−1,0)が最小となる。
ステップS16において、視点画像処理部12は、変数xbの値を初期化する。xbは右目視点画像の集合Aにおける横方向の座標であり、以降の処理を図2における右端画素から順に処理を行うために、視点画像処理部12は、初期値としてw−1を入力する。
続いてステップS17において、オクルージョン領域検出部101が、xb=xか否かを判定する。オクルージョン領域検出部101が、xb=xでないと判定した場合(ステップS17でNO)、ステップS18に進む。
ステップS18において、オクルージョン領域検出部101は、座標(x,y)がオクルージョン領域であると判定し、視差マップにオクルージョン領域に該当することを示す値occを出力する。ステップS18の後は、ステップS22に進む。
一方、ステップS17において、オクルージョン領域検出部101が、xb=xであると判定した場合(ステップS17でYES)、ステップS19に進む。ステップS19において、視差検出部102は、pにpbの値を入力する。
続いてステップS20において、視差検出部102は、座標(x,y)の視差の値をpと検出し、視差マップに視差を出力する。
続いてステップS21において、視点画像処理部12は、xbの値をKx(x,p)で更新するとともに、pbの値をKp(x,p)で更新する。
続いてステップS22において、視点画像処理部12が、x=0か否かを判定する。視点画像処理部22が、x=0であると判定した場合(ステップS22でYES)は、図2における左端画素まで処理が終了しているため、視点画像処理部12は、図4の処理を終了する。
一方、視点画像処理部12が、x=0でないと判定した場合(ステップS22でNO)は、ステップS23に進む。
ステップS23において、視点画像処理部12は、xをデクリメントする。すなわち、視点画像処理部12は、処理対象を図2における左隣りの画素に移動する。その後、ステップS17に戻る。
つまり、視点画像処理部12は、評価値における経路をKxとKpを参照して図2における右端画素(x=w−1)から順に左へ向かってたどり、Kp(x,p)の値を座標(x−1,y)の視差として、画素毎の視差を検出する。この際、オクルージョン領域検出部101は、座標x=xb+1,xb+2,・・・,x−1の画素をオクルージョン領域として検出する(ステップS16〜ステップS23)。
このようにして、視点画像処理部12は、注目行(y)内の全画素の視差(全てのxについての視差)とオクルージョン領域を検出し、画像全体の視差とオクルージョン領域を表わす視差マップを作成する。
続いてS4において、記憶部13が、視点画像処理部12によって作成された視差マップを記憶する。
最後にS5において、出力部14が、視点画像処理部12によって作成された視差マップを出力する。
次に、上記式(3)〜(5)について、その技術的意味を説明する。式(1)のmin[U(xb,pb)+Dx(p,pb)]の項は、左隣りの画素における最小評価値を用いて評価値を累積する動的計画法の手法が適用されている。但し、特許文献2に記載の技術と同様に、上記式(3)で定めたAの範囲を用いることによって、オクルージョン領域の類似度を除いて評価値を累積している。また、上記式(3)で示す集合Aは、オクルージョン領域の左端と右端に隣接する画素間の視差の差分の大きさを、オクルージョン領域の横幅と等しくなるように制約するためのものである。つまり、視点画像処理部12は、オクルージョン領域に隣接する右側と左側の画素間の視差の差分の大きさがオクルージョン領域の横幅と等しくなるという条件下で、評価値の算出を行っている。よって、オクルージョン領域検出部101では、オクルージョン領域を検出していると言える。また、上記式(1)の定数項cは、対応点の個数に応じて評価値に報酬を与え、オクルージョン領域を誤って広く検出することを防ぐ効果がある。
また、上記式(4)のDxは、視差がフレーム内の横方向に不連続な場合にペナルティ(定数項c)を与えてその視差を検出されにくくする効果がある。この式に限らず、2つの視差の差分を用いた線形関数などの他の関数によって同様の効果を与えてもよい。無論、平滑化の効果を鑑みなければ、上記式(4)におけるDxは常に0、つまりDxの項を除いた式を採用することもできる。
また、上記式(5)のDtは、視差が時間方向に(すなわちフレーム間で)不連続な場合にペナルティ(定数項c)を与えて評価値が大きくなるようにし、その視差を検出されにくくする効果がある。つまり、評価値算出部100は、注目画素の評価値を、注目画素の視差が注目画素に対応する隣接フレームにおける画素の視差と同じであると検出されやすくなるように変化させる。また、上記式(5)のDtは、前のフレームでオクルージョン領域である場合に、ペナルティ(定数項c)を与えて、評価値の値が大きくなるようにし、その画素がオクルージョン領域であると検出されやすくする効果がある。より具体的には、あるx(x=x1)において式(1)のDtで大きな値を加算することで、後のx(x=x2)における式(1)の(xb、pb)の選択の際に、そのx(x=x1)が選ばれにくくなり、x=x1がオクルージョン領域となる。評価値算出部100は、あるフレームの隣接フレームにおける、注目画素に対応する画素がオクルージョン領域の画素であるか否かを参照して評価値を算出する。さらにいえば、評価値算出部100は、注目画素に対応する画素が隣接フレームにおいてオクルージョン領域の画素である場合は、注目画素に対応する画素がオクルージョン領域の画素でない場合よりも評価値が大きくなるような算出式を用いて、評価値を算出する。具体的には、評価値U(x,p)において、前のフレームの該当領域がオクルージョン領域であった場合にペナルティ(定数項c)を与えて評価値の値が大きくなるようにし、オクルージョン領域と検出されやすくする。これにより、時間方向にばらつきの小さい視差とオクルージョン領域を検出することができる。視点画像が動画像の開始フレームの画像であった場合(t=0)には、G(x,y)に値が入っておらず上記式(5)においてp2が不定であるため、Dt=0としている。Dtは上記式(5)に限らず、2つの視差の差分を用いた線形関数などの他の関数を用いて同様の効果を与えてもよい。
また、本実施形態では、視差の範囲を0≦p≦Pとすることでpが正値のみを取る場合について説明したが、pが負値を取り得る場合についても、同様の手法を適用することができる。また、右目視点画像の視差マップを求める場合について説明したが、逆に右目視点画像に対する左目視点画像の視差マップについても同様に求めることができる。
また、本実施形態では、前のフレームで求めた視差マップG(x,y)を用いる場合について説明したが、これに限らず、後ろのフレームから順に画素毎の視差と各画素がオクルージョン領域か否かの検出を行い、後のフレームで求めた視差マップをG(x,y)として用いてもよい。また、上記で述べた、前のフレームまたは後のフレームは、一つ前または一つ後のフレームだけではなく、二つ以上前または二つ以上後のフレームを参照しても構わない。
また、本実施形態では、視差とオクルージョン領域の両方の検出を行う場合について説明したが、視差の検出を行わず、オクルージョン領域の検出のみを行ってもよい。例えば、図4のステップS20を省くことで、視差の検出を行わずにオクルージョン領域の検出のみを行うことができる。
上述のとおり、本実施形態の立体画像処理装置によれば、隣接フレームのオクルージョン領域検出結果を用いることによって、注目画素が隣接フレームにおいてオクルージョン領域である場合は、隣接フレームにおける画素がオクルージョン領域の画素でない場合よりも評価値が大きくなるので、隣接フレームにおいてオクルージョン領域でない場合と比べて前記注目画素がオクルージョン領域であると検出されやすい。これにより、時間方向に(すなわちフレーム間で)ばらつきの小さいオクルージョン領域を検出することができる。また、隣接フレームの視差検出結果を用いることによって、時間方向にばらつきの小さい視差を検出することができる。
〔実施形態2〕
本発明の他の実施形態について、図5〜図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
本実施形態は、被写体が静止被写体である場合と動いている被写体である場合とで評価値U(x,y)の算出方法を異ならせる点で実施形態1と異なる。
図5に示されるように、立体動画像処理装置20は、入力部11、視点画像処理部22、記憶部23、および出力部14を備えている。
視点画像処理部22は、評価値算出部200、オクルージョン領域検出部201、視差検出部202、および静動判定部203を含む。視点画像処理部22は、入力部11から入力される左目視点画像と右目視点画像の間の視差とオクルージョン領域の検出を行う。そして、視点画像処理部22は、視差とオクルージョン領域を表わす視差マップを作成する。
静動判定部203は、注目画素における被写体が静止被写体であるか否かを判定する。そして、視点画像処理部22は、オクルージョン領域の検出の際、各画素における被写体が静止被写体であるか動いている被写体であるかに応じて異なる処理を行う。
記憶部23は、右目視点画像と視点画像処理部22で作成された視差マップを記憶する。右目視点画像と視差マップとは、視点画像処理部22において次のフレームの処理を行う際に読み出される。
次に、立体動画像処理装置10における処理の流れを、図6を参照して説明する。
まずステップS31において、視点画像処理部22は、入力部11から視点画像を入力する。
続いてステップS32において、視点画像処理部22は、記憶部23から前のフレームの右目視点画像と前のフレームで求めた視差マップを記憶部23から読み出す。読み出した前のフレームの右目視点画像をRpre(x,y)、視差マップをG(x,y)とする。
続いてステップS33において、視点画像処理部22は、現在のフレームの画素毎の視差と各画素がオクルージョン領域であるか否かを検出して視差マップを作成する。ステップS33においては、視点画像処理部22は、最も上の行(y=0)から順に処理を行う。
次に、ステップS33における各行の処理の一例の流れを、図7を参照しながら説明する。
まず、ステップS11において、視点画像処理部22は、変数xの値を初期化する。
続いてステップS41において、静動判定部203は、注目画素(x,y)における被写体が静止被写体か否かを判定する。静動判定部203は、注目画素の画素値の隣接フレームとの差分の大きさを用いて静動判定を行う。静動判定部203は、静動判定を、画素値のフレーム間差分や、動きベクトル検出などを用いた既存の手法によって行うことが好ましい。例えば、静動判定部203は、右目視点画像における現在のフレームと前のフレームとの間の輝度値の差分の大きさの閾値処理によって行えばよい。また、静動判定部203は、例えば、下記式(7)が成り立つ場合は、その画素において被写体が静止被写体であると判定し、式(7)が成り立たない場合は、その画素において被写体が静止被写体でないと判定すればよい。
Figure 2017005480
R(x,y)は現在のフレームの右目視点画像であり、M,A,Dx,cは実施形態1と同じである。cは正の定数である。
静動判定処理の方法は、上述した例に限らず、例えば、静動判定部203が、右目視点画像における現在のフレームと前のフレームとの間でグローバルモーションを検出し、グローバルモーションを補償するように前のフレームの視点画像を変形してから、現在のフレームとの間の輝度値の差分の大きさの閾値処理によって判定してもよい。この方法によれば、カメラが動きながら撮影した場合でも、被写体の画面内での動きを正しく判定できる。
静動判定部203が、被写体が静止被写体であると判定した場合(ステップS41でYES)、ステップS42に進む。ステップS42においては、評価値算出部200は、上記式(1)を用いて評価値U(x,p)を0≦p≦Pを満たす全ての(x,p)について算出する。すなわち、評価値算出部200は、静動判定部203が注目画素における被写体が静止被写体であると判定した場合に、上記式(1)を用いて評価値U(x,p)を算出する。その後、ステップS13に進む。
一方、静動判定部203が、被写体が静止被写体でないと判定した場合(ステップS41でNO)、ステップS43に進む。ステップS43においては、評価値算出部200は、下記式(8)を用いて評価値U(x,p)を0≦p≦Pを満たす全ての(x,p)について算出する。その後、ステップS13に進む。
Figure 2017005480
上記式(8)は、上記式(1)からDtの項を削除した式である。被写体が静止被写体である場合は、フレーム間で視差やオクルージョン領域が一定となることが望ましいため、Dtを用いて時間方向のばらつきを抑制する。一方で、被写体が動いている場合は、フレーム間で視差やオクルージョン領域が大きく変化する可能性があるため、Dtを削除する。このようにして、静止被写体であると判定した場合に限って、注目画素が隣接フレームにおいてオクルージョン領域である場合に、そうでない場合と比べて前記注目画素がオクルージョン領域であると検出されやすくなるように処理を行う。これにより、被写体が静止被写体である場合と動いている被写体である場合の両方で、オクルージョン検出の誤りを減らすことができる。
ステップS13において、視点画像処理部22が、x=w−1か否かを判定する。視点画像処理部22が、x=w−1でないと判定した場合(ステップS13でNO)、ステップS14に進み、視点画像処理部22が、x=w−1であると判定した場合(ステップS13でYES)、ステップS15に進む。
ステップS14において、視点画像処理部22は、xをインクリメントする。その後、ステップS41に戻る。
ステップS14の後の処理(ステップS15〜ステップS23)は、実施形態1のステップS15〜ステップS23の処理と同様であるので、説明を省略する。
すなわち、視点画像処理部22は、評価値U(x,p)を算出した後、実施形態1と同様に、Kx(x,p)、Kp(x,p)とU(x,p)とを用いて、注目行の画素毎の視差と各画素がオクルージョン領域であるか否かを検出する。
このようにして、視点画像処理部22は、注目行内の全画素の視差(全てのxについての視差)とオクルージョン領域とを検出する。そして、視点画像処理部22は、全ての行に対して処理を実行するので、画像全体の視差とオクルージョン領域を表わす視差マップを作成することができる。
続いてS34において、記憶部23が、右目視点画像R(x,y)と視点画像処理部22によって作成された視差マップを記憶する。
最後にS35において、出力部14が、視点画像処理部22によって作成された視差マップを出力する。
上述のごとく、本実施形態の立体動画像処理装置は、静動判定を行い、静止被写体であると判定した場合に、注目画素が隣接フレームにおいてオクルージョン領域である場合にそうでない場合と比べて評価値が大きくなるように評価値算出部200が評価値を算出するので、前記注目画素がオクルージョン領域であると検出されやすくなるように処理を行う。これにより、被写体が静止被写体である場合と動いている被写体である場合の両方で、オクルージョン検出の誤りを減らすことができる。
(実施形態1、および実施形態2について)
本発明の各実施形態においては上記の通り、入力部11を通して入力される複数の視点画像が左目用画像及び右目用画像の2枚の視点画像、すなわち横に配置されたカメラによる視点画像から構成される例を挙げた。但し、視点画像の数は2枚に限らず、3枚以上であっても、各実施形態において説明した処理により同様に視点画像間の視差は推定できる。例えば、ある基準となる視点画像に対する他の視点画像の視差を推定することもできるし、各視点画像間の全ての組合せについて視差を推定することもできる。オクルージョン領域の推定についても同様である。
また、縦に配置されたカメラで撮影した複数の視点画像に対しても、同様に視差やオクルージョン領域を推定することも可能である。その際、各実施形態における処理をそのまま適用することも、縦方向と横方向の処理を入れ替えて適用することも可能である。さらには、斜めに配置されたカメラで撮影した複数の視点画像に対しても、同様に視差やオクルージョン領域を推定することも可能である。
また、本発明の各実施形態において、動的計画法を適用して視差推定に係る各行の処理を行うことを例に挙げたが、これに限ったものではなく、例えばブロックマッチング、確率伝播法などの他の手法を適用してもよい。
本発明は、上記の各実施形態に限定されるものではない。これらの実施形態にそれぞれ開示された技術的手段を適宜組合せて得られる実施形態についても本発明の技術的範囲に含まれる。
また、本発明の実施形態1および実施形態2に係る立体画像処理装置は、各種レコーダや各種記録メディア再生装置等の映像出力機器に組み込むことができる。さらに、本発明の実施形態1および実施形態2に係る立体画像処理装置は、このような立体画像処理装置に表示デバイスを外部接続又は内部に搭載したテレビ装置やモニタ装置等の立体画像表示装置としての形態も採り得る。
〔実施形態3〕
立体動画像処理装置10の制御ブロック(特に視点画像処理部12)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、立体動画像処理装置10は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る立体動画像処理装置10は、立体動画像を処理する立体動画像処理装置であって、複数の視点画像から構成されるあるフレームにおける評価値を画素値の類似度に基づいて算出する評価値算出部と、上記評価値を参照して、該あるフレームにおけるオクルージョン領域を検出するオクルージョン領域検出部を有し、上記評価値算出部は、注目画素に対応する該あるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合は、上記注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させる。
上記の構成によれば、動画像におけるオクルージョン領域の検出において、検出されたオクルージョン領域のフレーム間におけるばらつきが少ない。
本発明の態様2に係る立体動画像処理装置20は、上記態様1において、上記注目画素における被写体が静止被写体であるか否かを判定する静動判定部をさらに備え、上記評価値算出部が、上記注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させるのは、上記静動判定部が上記注目画素における被写体が静止被写体であると判定し、かつ、上記注目画素に対応する該あるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合であってもよい。
上記の構成によれば、静止被写体であると判定した場合に、注目画素が隣接フレームにおいてオクルージョン領域である場合にそうでない場合と比べて注目画素がオクルージョン領域であると検出されやすくなる。
本発明の態様3に係る立体動画像処理装置は、上記態様1または2において、上記複数の視点画像間の視差を検出する視差検出部102をさらに備えてもよい。
上記の構成によれば、あるフレームにおける複数の視点画像間の、オクルージョン領域でない領域の視差を検出することができる。
本発明の態様4に係る立体動画像処理装置は、上記態様1〜3において、上記評価値算出部は、上記注目画素の評価値を、上記注目画素の視差が上記注目画素に対応する上記隣接フレームにおける画素の視差と同じであると検出されやすくなるように変化させる。
上記構成によれば、隣接フレームにおける画素の視差が同じであることを検出されやすくすることができる。
本発明の態様5に係る立体動画像処理方法は、複数の視点画像から構成されるあるフレームにおける評価値を画素値の類似度に基づいて算出する評価値算出ステップと、上記評価値を参照して、該あるフレームにおけるオクルージョン領域を検出するオクルージョン領域検出ステップを有し、上記評価値算出ステップにおいては、注目画素に対応する該あるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合は、上記注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させる。
上記の構成によれば、上記態様1と同様の作用効果を奏する。
本発明の各態様に係る立体動画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記立体動画像処理装置が備える各部(ソフトウェア要素)として動作させることにより上記立体動画像処理装置をコンピュータにて実現させる立体動画像処理装置の立体動画像処理制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、立体動画像におけるオクルージョン領域の推定に利用することができる。
10、20 立体動画像処理装置
100、200 評価値算出部
101、201 オクルージョン領域検出部
102、202 視差検出部
203 静動判定部

Claims (7)

  1. 立体動画像を処理する立体動画像処理装置であって、
    複数の視点画像から構成されるあるフレームにおける評価値を画素値の類似度に基づいて算出する評価値算出部と、
    上記評価値を参照して、該あるフレームにおけるオクルージョン領域を検出するオクルージョン領域検出部を有し、
    上記評価値算出部は、注目画素に対応する該あるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合は、上記注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させる、
    ことを特徴とする立体動画像処理装置。
  2. 上記注目画素における被写体が静止被写体であるか否かを判定する静動判定部をさらに備え、
    上記評価値算出部が、上記注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させるのは、上記静動判定部が上記注目画素における被写体が静止被写体であると判定し、かつ、上記注目画素に対応する該あるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合である
    ことを特徴とする請求項1に記載の立体動画像処理装置。
  3. 上記評価値を参照して、上記複数の視点画像間の視差を検出する視差検出部をさらに備える
    ことを特徴とする請求項1または2に記載の立体動画像処理装置。
  4. 上記評価値算出部は、上記注目画素の評価値を、上記注目画素の視差が上記注目画素に対応する上記隣接フレームにおける画素の視差と同じであると検出されやすくなるように変化させる、
    ことを特徴とする請求項3に記載の立体動画像処理装置。
  5. 複数の視点画像から構成されるあるフレームにおける評価値を画素値の類似度に基づいて算出する評価値算出ステップと、
    上記評価値を参照して、該あるフレームにおけるオクルージョン領域を検出するオクルージョン領域検出ステップを有し、
    上記評価値算出ステップにおいては、注目画素に対応する該あるフレームの隣接フレームにおける画素がオクルージョン領域の画素である場合は、上記注目画素の評価値をオクルージョン領域であると検出されやすくなるように変化させる、
    立体動画像処理方法。
  6. 請求項1〜4のいずれか1項に記載の立体動画像処理装置としてコンピュータを機能させるための立体動画像処理プログラムであって、上記オクルージョン領域検出部、および上記評価値算出部としてコンピュータを機能させるための立体動画像処理プログラム。
  7. 請求項6に記載の立体動画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2015117032A 2015-06-09 2015-06-09 立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体 Pending JP2017005480A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015117032A JP2017005480A (ja) 2015-06-09 2015-06-09 立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015117032A JP2017005480A (ja) 2015-06-09 2015-06-09 立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体

Publications (1)

Publication Number Publication Date
JP2017005480A true JP2017005480A (ja) 2017-01-05

Family

ID=57754504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015117032A Pending JP2017005480A (ja) 2015-06-09 2015-06-09 立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体

Country Status (1)

Country Link
JP (1) JP2017005480A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108235003A (zh) * 2018-03-19 2018-06-29 天津大学 基于3d卷积神经网络的立体视频质量评价方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108235003A (zh) * 2018-03-19 2018-06-29 天津大学 基于3d卷积神经网络的立体视频质量评价方法

Similar Documents

Publication Publication Date Title
KR102480245B1 (ko) 패닝 샷들의 자동 생성
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
US9237326B2 (en) Imaging system and method
US9582928B2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
KR101502362B1 (ko) 영상처리 장치 및 방법
US20140003704A1 (en) Imaging system and method
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
US10116917B2 (en) Image processing apparatus, image processing method, and storage medium
WO2013038833A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
US9430834B2 (en) Visual perception matching cost on binocular stereo images
JP5318168B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
WO2020125637A1 (zh) 一种立体匹配方法、装置和电子设备
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP7184748B2 (ja) 場面の積層深度データを生成するための方法
JP6655379B2 (ja) 焦点スタックから適応スライス画像を生成する方法および装置
US20130011045A1 (en) Apparatus and method for generating three-dimensional (3d) zoom image of stereo camera
JP2014515197A (ja) 背景ピクセル拡張及び背景優先パッチマッチングを用いるマルチビューレンダリング装置及び方法
US20140241637A1 (en) Apparatus and method for real-time capable disparity estimation for virtual view rendering suitable for multi-threaded execution
US20220358619A1 (en) Automatic dolly zoom image processing device
US10834374B2 (en) Method, apparatus, and device for synthesizing virtual viewpoint images
JP2007053621A (ja) 画像生成装置
JP2014035597A (ja) 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法
JP2017005480A (ja) 立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体
JP6025740B2 (ja) エネルギー値を用いたイメージ処理装置およびそのイメージ処理方法、並びにディスプレイ方法
US9380285B2 (en) Stereo image processing method, stereo image processing device and display device