JP7233150B2 - 奥行推定装置およびそのプログラム - Google Patents
奥行推定装置およびそのプログラム Download PDFInfo
- Publication number
- JP7233150B2 JP7233150B2 JP2018072424A JP2018072424A JP7233150B2 JP 7233150 B2 JP7233150 B2 JP 7233150B2 JP 2018072424 A JP2018072424 A JP 2018072424A JP 2018072424 A JP2018072424 A JP 2018072424A JP 7233150 B2 JP7233150 B2 JP 7233150B2
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint video
- depth
- pixel
- viewpoint
- matching error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
例えば、特許文献1には、水平方向に配置された複数のカメラで撮影された多視点映像内で、対応する画素位置のずれ量を探索して、奥行マップとして出力する手法が開示されている。
また、特許文献2には、奥行マップを用いて、基準となる視点映像とオクルージョンホールとなる残差映像とを射影して、両映像の間の仮想視点映像を合成する手法が開示されている。
また、従来の手法は、画素単位で奥行きを推定するため、インテグラル映像用の多視点映像のように、視点間隔が狭い多視点映像では、対応画素のずれ量である視差量が小さくなり、奥行マップの分解能が不足してしまう。そのため、従来の手法では、生成したインテグラル映像の画質が悪いという問題がある。
また、奥行推定装置は、方向別信頼度重み算出手段によって、対象視点映像の画素ごとに、水平方向および垂直方向の画素値の変化が大きいほど値を小さくし、変化が小さいほど値を大きくしたマッチング誤差の方向別の信頼度重みを算出する。この信頼度重みは、テキスチャの変化が少なく画素値の差が小さい場合、正しくない奥行値であってもマッチング誤差が小さくなってしまうことを防止するための重みである。
なお、奥行推定装置は、コンピュータを、前記した各手段として機能させるためのプログラムで動作させることができる。
本発明によれば、水平方向および垂直方向に視差を有するカメラ映像から奥行マップを生成するため、従来よりもオクルージョン部を減らすことができる。また、本発明によれば、視点映像に対してサブ画素単位で奥行きを推定することができる。
これによって、本発明は、分解能の高い奥行マップを推定することができる。
〔多視点映像生成システムの構成〕
図1を参照して、本発明の実施形態に係る多視点映像生成システムSの構成について説明する。
多視点映像生成システムSは、多視点カメラCで被写体Oを撮影した多視点映像から、仮想視点の映像(仮想視点映像)を生成するものである。
多視点映像生成システムSは、多視点カメラCと、奥行推定装置1と、仮想視点映像生成装置2と、を備える。
すなわち、多視点カメラCは、図2に示すように、水平n個(nは2以上の整数)、垂直m個(mは2以上の整数)のカメラC11~Cmnを、水平方向および垂直方向に配列したものである。
多視点カメラCは、それぞれのカメラC11~Cmnで撮影した映像を、カメラ位置における視点映像として、奥行推定装置1に出力する。
なお、多視点カメラCは、1台または2次元配列した複数台のライトフィールドカメラであってもよい。ライトフィールドカメラで撮影された映像は、複数の多視点映像に変換され、多視点カメラCのカメラC11~Cmnが撮影された映像と同様の多視点映像となる。
奥行推定装置1は、奥行きを推定する対象となる視点映像の各画素に、最大4方向の周辺の視点映像から推定したサブ画素単位の奥行値を対応付けた奥行マップを生成する。
奥行推定装置1は、視点映像と、当該視点映像に対応付けた奥行マップとを、仮想視点映像生成装置2に出力する。
これによって、多視点映像生成システムSは、前景OBに隠れた背景OAの領域を水平方向および垂直方向に配列されたカメラで撮影するため、従来に比べてオクルージョン部を減らすことができる。また、多視点映像生成システムSは、サブ画素単位で奥行マップを生成するため、奥行きの精度を高めた高画質の仮想視点映像を生成することができる。
以下、奥行推定装置1および仮想視点映像生成装置2の構成および動作について、詳細に説明する。
まず、図3を参照して(適宜図1参照)、本発明の実施形態に係る奥行推定装置1の構成について説明する。
図3に示すように、奥行推定装置1は、対象視点映像入力手段10と、周辺視点映像入力手段11と、アップサンプル手段12と、マッチング誤差算出手段13と、マッチング誤差記憶手段14と、奥行平滑化手段15と、奥行マップ出力手段16と、を備える。
対象視点映像入力手段10は、多視点カメラCの個々のカメラC11~Cmnから、順次、視点映像を入力し、マッチング誤差算出手段13および奥行マップ出力手段16に出力する。また、対象視点映像入力手段10は、入力した視点映像を特定する位置情報(例えば、カメラC11~Cmnの識別情報)を、周辺視点映像入力手段11に出力する。
周辺視点映像は、図4に示すように、対象視点映像ICに対して、上下左右の最大で4方向の視点映像(上視点映像IT、下視点映像IB、左視点映像IL、右視点映像IR)である。
また、例えば、カメラC12が撮影した視点映像を対象視点映像ICとする場合、図4(b)に示すように、周辺視点映像は、下視点映像IB、左視点映像ILおよび右視点映像IRの3つとなる。
また、例えば、カメラC1nが撮影した視点映像を対象視点映像ICとする場合、図4(c)に示すように、周辺視点映像は、下視点映像IBおよび左視点映像ILの2つとなる。
また、例えば、カメラC22が撮影した視点映像を対象視点映像ICとする場合、図4(e)に示すように、周辺視点映像は、上視点映像IT、下視点映像IB、左視点映像ILおよび右視点映像IRの4つとなる。
また、例えば、カメラC2nが撮影した視点映像を対象視点映像ICとする場合、図4(f)に示すように、周辺視点映像は、上視点映像IT、下視点映像IBおよび左視点映像ILの3つとなる。
また、例えば、カメラCm2が撮影した視点映像を対象視点映像ICとする場合、図4(h)に示すように、周辺視点映像は、上視点映像IT、左視点映像ILおよび右視点映像IRの3つとなる。
また、例えば、カメラCmnが撮影した視点映像を対象視点映像ICとする場合、図4(i)に示すように、周辺視点映像は、上視点映像ITおよび左視点映像ILの2つとなる。
以上のように、周辺視点映像入力手段11は、対象視点映像ICを撮影したカメラC11~Cmnの位置に応じて、入力する周辺視点映像の数が異なる。
図3に戻って、奥行推定装置1の構成について説明を続ける。
アップサンプル手段12は、周辺視点映像の画素を水平方向および垂直方向にサブ画素化する。具体的には、アップサンプル手段12は、2倍、4倍、8倍等、予め定めたアップサンプル倍率のフィルタを用いて周辺視点映像をアップサンプルする。
アップサンプル手段12は、垂直方向においても、前記式(1)と同様にアップサンプルを行う。
なお、アップサンプルの倍率を2倍とする場合、アップサンプル手段12は、前記式(1)のi0(=P0)とi2のみを用いればよい。
具体的には、アップサンプル手段12は、以下の式(2)により、図5の画素位置x0-x1間を8等分した座標位置(サブ画素位置)の画素値i1~i7を割り当てる。式(2)中、i0は、画素位置x0の画素値P0と同じである。
通常、テキスチャの変化が少なく、ブロック内の画素値の差が小さい場合、正しくない奥行値であってもマッチング誤差が小さくなる。そこで、奥行き推定の誤りを防ぐため、方向別信頼度重み算出手段130は、対象視点映像の画素ごとに、隣接する画素との画素値の変化(テクスチャの傾き)が大きいときには値を小さく、小さいときには値を大きくした信頼度重みを算出する。
そして、方向別信頼度重み算出手段130は、方向別にテキスチャの傾きS(SHおよびSV)に対応した信頼度重みW(WHおよびWV)を以下の式(5)により算出する。
この式(5)で計算される傾きSと信頼度重みWのグラフを図7に示す。なお、信頼度重みWは、テキスチャの傾きSが大きければ小さく、テキスチャの傾きSが小さければ大きいものであればよく、必ずしも式(5)で算出されたものに限らない。
方向別信頼度重み算出手段130は、算出した方向(水平方向および垂直方向)別の信頼度重みW(WHおよびWV)を、マッチング誤差選択手段132に出力する。
仮定奥行値は、被写体Oの奥行値を仮に設定する値であって、最小視差量に対応する奥行値から最大視差量に対応する奥行値までの値をとる。例えば、奥行値を8ビットのデータで表す場合、仮定奥行値は、“0”(最小奥行値dmin)から“255” (最大奥行値dmax)の範囲の値をとる。
例えば、図4(e)のように、対象視点映像ICに対して、4方向すべてに周辺視点映像が存在する場合、奥行・方向別マッチング誤差算出手段131は、以下の式(6)に示すように、すべての方向でマッチング誤差E(ET,EB,EL,ER)を算出する。
仮定奥行値dは、最小奥行値dminから最大奥行値dmaxまで、単位ずらし量Δだけ順次ずらした値である。
単位ずらし量Δは、アップサンプル手段12で用いた倍率の逆数であって、サブ画素に相当する。例えば、アップサンプル手段12で用いた倍率が“8”であれば、単位ずらし量Δは1/8とする。
これによって、奥行・方向別マッチング誤差算出手段131は、奥行別かつ方向別に、画素のマッチング誤差をサブ画素レベルで算出することができる。
奥行・方向別マッチング誤差算出手段131は、対象視点映像の画素および奥行きごとに、対応する最大4方向のマッチング誤差を、マッチング誤差選択手段132に出力する。
これによって、テキスチャの変化が少なく、ブロック内の画素値の差が小さい場合に、誤ってマッチング誤差が小さくなることを防止することができる。
このマッチング誤差記憶手段14には、マッチング誤差算出手段13によって、図8に示すように、対象視点映像の映像幅Xと映像高Yとに対応する各画素位置(0,0)~(X,Y)と仮定奥行値d(dmin~dmax)に対応付けて、マッチング誤差Eが記憶される。
奥行平滑化手段15は、マッチング誤差と隣接する画素間での画素値の奥行きの連続性重みとから、仮定奥行値の正しさを評価する予め定めた評価関数を用いて、評価値が最も小さい奥行値を画素ごとに選択することで、奥行マップを生成するものである。
具体的には、奥行平滑化手段15は、マッチング誤差記憶手段14に記憶されているすべてのマッチング誤差E(x,y,d)に対して、以下の式(7)に示す評価関数により、仮定奥行値dごとの評価値Gを算出する。
λRは水平方向の連続性重みであり、λDは垂直方向の連続性重みである。
この評価値Gは、隣接する画素(右、下)との奥行値の差が大きければ、連続性が小さいため大きな値となり、奥行値の差が小さければ、連続性が高いため小さな値となる。
例えば、奥行平滑化手段15は、対象視点映像の画素位置(x,y)にテキスチャのエッジがある場合、外部から与えられる定数である平滑係数λに、外部から与えられる重みρ(0~1)を掛けた値を、連続性重みλR,λDとする。また、奥行平滑化手段15は、画素位置(x,y)にテキスチャのエッジがない場合、平滑係数λをそのまま連続性重みλR,λDとする。これによって、テキスチャのエッジがない、すなわち同じ被写体の中の画素は、隣接する画素の奥行値に近い奥行値が選択されることとなる。
例えば、画素位置(x,y)の水平方向におけるエッジを検出する場合、奥行平滑化手段15は、画素値P(x-3,y),P(x-1,y),P(x+1,y),P(x+3,y)から得られる3個の傾きS1,S2,S3を、以下の式(8)で算出する。
奥行平滑化手段15は、対象視点映像に対して生成した奥行マップを、奥行マップ出力手段16に出力する。
次に、図10を参照して(構成については適宜図3参照)、本発明の実施形態に係る奥行推定装置1の動作について説明する。
ここで、対象視点映像のすべての画素において処理が完了していない場合(ステップS6でNo)、マッチング誤差算出手段13は、ステップS3に戻って、対象視点映像の画素ごとの処理を継続する。
以上の動作によって、奥行推定装置1は、水平方向および垂直方向のサブ画素単位の視差により奥行マップを推定するため、分解能を高めた高品質な奥行きマップを生成することができる。
次に、図11を参照して(適宜図1参照)、本発明の実施形態に係る仮想視点映像生成装置2の構成について説明する。
図11に示すように、仮想視点映像生成装置2は、参照視点映像入力手段20と、奥行マップ入力手段21と、アップサンプル手段22と、映像合成手段23と、オクルージョン穴補填手段24と、仮想視点映像出力手段25と、を備える。
仮想視点位置は、多視点カメラCのカメラC11~Cmnのカメラ間の任意の位置を仮想視点として指定する位置情報である。
参照視点映像は、仮想視点位置を囲む視点位置(参照視点位置)の視点映像である。
参照視点映像入力手段20は、仮想視点位置において、参照すべき参照視点映像として、最大4つの視点映像を入力する。
参照視点映像は、図12(a)に示すように、仮想視点映像IVを生成するために、左上参照視点映像RTL、右上参照視点映像RTR、左下参照視点映像RBLおよび右下参照視点映像RBRの4つとする。
例えば、カメラC11,C12,C21,C22の間に仮想視点を設定する場合、カメラC11が撮影した視点映像を左上参照視点映像RTLとし、カメラC12が撮影した視点映像を右上参照視点映像RTRとし、カメラC21が撮影した視点映像を左下参照視点映像RBLとし、カメラC22が撮影した視点映像を右下参照視点映像RBRとする。
また、撮影された視点映像と同じ垂直位置に仮想視点が設定された場合、例えば、カメラC11,C21の間に、カメラC11,C21と同じ垂直位置に仮想視点が設定された場合、参照視点映像は、図12(c)に示すように、上参照視点映像RTおよび下参照視点映像RBの2つとする。この場合、カメラC11が撮影した視点映像を、上参照視点映像RTとし、カメラC21が撮影した視点映像を下参照視点映像RBとする。
図11に戻って、仮想視点映像生成装置2の構成について説明を続ける。
奥行マップ入力手段21は、入力した奥行マップを、対応する参照視点映像を特定する位置情報(例えば、カメラC11~Cmnの識別情報)とともに、映像合成手段23およびオクルージョン穴補填手段24に出力する。
アップサンプル手段22は、アップサンプルした参照視点映像を、映像合成手段23に出力する。
映像合成手段23は、まず、それぞれの参照視点映像において、対応する奥行マップで特定される奥行値の視差分だけ画素位置をシフトする。
例えば、図12(a)の左上参照視点映像RTLから仮想視点映像IVを生成する場合、左上参照視点映像RTLの画素を、当該画素に対応する奥行マップのサブ画素単位の奥行値に応じて、左上方向にシフトさせることで、仮想視点映像IVを生成する。
なお、他の参照視点映像から仮想視点映像IVを生成する場合、シフトする方向が異なるだけで、前記した左上参照視点映像RTLと同様にしてシフト量を算出することができる。
映像合成手段23は、生成した仮想視点映像をオクルージョン穴補填手段24に出力する。
具体的には、オクルージョン穴補填手段24は、オクルージョン穴について、隣接する縦横斜めの最大16方向に存在する画素のうちで、仮想視点映像に対応する奥行マップの奥行値が最も小さい画素の画素値を使って補填する。仮想視点映像に対応する奥行マップは、参照視点映像の各画素の奥行値を、仮想視点映像内の対応する画素位置にコピーすることで得られる。参照視点映像が複数ある場合は、各参照視点位置の奥行マップから得られた仮想視点位置の奥行マップの重み付き加算平均とすればよい。
これによって、オクルージョン穴は、背景側の類似の画素で補填されることになり、画質の劣化を抑えることができる。
これによって、オクルージョン穴補填手段24は、一部の参照視点映像からはオクルージョンとなるが、他の参照視点映像からはオクルージョンとならないオクルージョン穴の境界が、参照視点映像の対応する画素値の色の違いによって目立ってしまう症状を防止することができる。このように、オクルージョン穴補填手段24は、簡易な演算で、オクルージョン穴境界の画素値の変化を滑らかにして、境界を目立たなくすることができる。
オクルージョン穴補填手段24は、オクルージョン穴を補填した仮想視点映像を、仮想視点映像出力手段25に出力する。
以上説明したように仮想視点映像生成装置2を構成することで、仮想視点映像生成装置2は、参照視点映像をアップサンプルして、奥行推定装置1で生成された分解能の高い高品質の奥行マップを用いるため、高解像度の仮想視点映像を生成することができる。なお、仮想視点映像生成装置2は、コンピュータを、前記した各手段として機能させるためのプログラム(仮想視点映像生成プログラム)で動作させることができる。
次に、図13を参照して(適宜図11参照)、本発明の実施形態に係る仮想視点映像生成装置2の動作について説明する。
ステップS11において、参照視点映像入力手段20は、ステップS10で指定された仮想視点位置において、参照すべき参照視点映像として、最大4つの視点映像を入力する。
ステップS12において、奥行マップ入力手段21は、ステップS11で入力した参照視点映像に対応する奥行マップを入力する。
ステップS14において、映像合成手段23は、ステップS13でアップサンプルされた複数の参照視点映像と、ステップS12で仮想視点位置に対応する参照視点映像として入力した奥行マップとから、仮想視点位置の視点映像を合成する。
ステップS16において、仮想視点映像出力手段25は、ステップS15でオクルージョン穴が補填された仮想視点理想を外部に出力する。
ここでは、奥行推定装置1は、多視点カメラCのすべてのカメラC11~Cmnで撮影されたそれぞれの視点映像の奥行マップを推定することとした。しかし、奥行推定装置1は、アップサンプルされた高品質な奥行マップを推定し、仮想視点映像生成装置2では、任意の視点の仮想視点映像を生成することができるため、必ずしもすべてのカメラC11~Cmnの視点映像に対応する奥行マップを推定する必要はない。
この場合でも、仮想視点映像生成装置2は、取得していない視点映像、例えば、視点映像I33については、視点映像I11,I15,I51,I55とその奥行マップとから生成することができる。
これによって、使用する多視点カメラのカメラ台数を削減することが可能である。また、奥行推定装置1から仮想視点映像生成装置2に伝送する視点映像および奥行マップのデータ量を大幅に削減することができる。
この場合、例えば、仮想視点映像生成装置2は、映像合成手段23において、参照視点映像内の各画素位置を、参照視点位置と仮想視点位置との間の水平方向と垂直方向の距離に加えて、奥行方向の距離に相当する視差量のシフトを行って、仮想視点映像内の画素位置を決めることで、仮想視点映像を合成すればよい。なお、仮想視点位置の奥行マップを合成する場合、参照視点位置の奥行マップの各画素を、上記と同じ視差量だけシフトした位置を、仮想視点位置の奥行マップの各画素位置とし、その画素位置の奥行値(視差量)は、上記視差量に対応する値だけ、増減させることとする。この視差量に対応する奥行値の増減量は、参照視点位置と仮想視点位置間の射影変換によって得られることが知られている。
例えば、図15(a)の参照視点映像Iから、図15(b)の仮想視点映像IVを合成する場合、図15(a)で同じ奥行値dが設定されている隣接する画素が、図15(b)のように離れてしまう場合がある。その場合、映像合成手段23は、ある画素から水平方向に離れた距離DX、垂直方向に離れた距離DYとしたとき、大きい方の距離をDとして、水平D/2画素の距離以内、垂直D/2画素の距離以内の画素について、中心画素と同じ画素値を割り当てることで画素のサイズを拡大する。これによって、仮想視点が被写体に近い場合でも、合成した仮想視点映像に小さな穴が開くことを防止することができる。
10 対象視点映像入力手段
11 周辺視点映像入力手段
12 アップサンプル手段(周辺視点映像アップサンプル手段)
13 マッチング誤差算出手段
130 方向別信頼度重み算出手段
131 奥行・方向別マッチング誤差算出手段
132 マッチング誤差選択手段
14 マッチング誤差記憶手段
15 奥行平滑化手段
16 奥行マップ出力手段
2 仮想視点映像生成装置
20 参照視点映像入力手段
21 奥行マップ入力手段
22 アップサンプル手段(参照視点映像アップサンプル手段)
23 映像合成手段
24 オクルージョン穴補填手段
25 仮想視点映像出力手段
S 多視点映像生成システム
C 多視点カメラ
Claims (5)
- 多視点カメラで被写体を撮影した複数の視点映像から、前記視点映像における前記被写体の奥行マップを推定する奥行推定装置であって、
前記奥行マップを推定する対象となる対象視点映像を入力する対象視点映像入力手段と、
前記対象視点映像の視点位置の水平方向および垂直方向に近接する視点位置の映像を、前記対象視点映像に対する方向別の周辺視点映像として入力する周辺視点映像入力手段と、
複数の前記周辺視点映像を水平方向および垂直方向に予め定めたアップサンプル倍率でアップサンプルする周辺視点映像アップサンプル手段と、
アップサンプルしたサブ画素に対応する位置を順次ずらしたずれ量を仮定奥行値とし、前記仮定奥行値ごとに、前記アップサンプルされた方向別の周辺視点映像と、前記対象視点映像との対応する画素値の差を方向別のマッチング誤差として算出する奥行・方向別マッチング誤差算出手段と、
前記対象視点映像の画素ごとに、水平方向および垂直方向の画素値の変化が大きいほど値を小さくし、変化が小さいほど値を大きくした前記マッチング誤差の方向別の信頼度重みを算出する方向別信頼度重み算出手段と、
前記対象視点映像の画素ごとに、水平方向および垂直方向の画素値の変化に基づいて、前記マッチング誤差の方向別の信頼度重みを算出する方向別信頼度重み算出手段と、
水平方向の前記マッチング誤差には水平方向の前記信頼度重みを乗算し、垂直方向の前記マッチング誤差には垂直方向の前記信頼度重みを乗算した方向別の信頼度重み付きマッチング誤差の中で最小の信頼度重み付きマッチング誤差を、前記画素におけるマッチング誤差として選択するマッチング誤差選択手段と、
前記マッチング誤差選択手段で選択されたマッチング誤差を、前記対象視点映像の画素位置と前記仮定奥行値とに対応付けて記憶するマッチング誤差記憶手段と、
前記マッチング誤差記憶手段に記憶されている前記選択されたマッチング誤差と、対応する画素位置の仮定奥行値と隣接する画素位置の仮定奥行値との差に奥行きの連続性重みを乗算したものとの和を評価関数とし、前記評価関数の値が最も小さい仮定奥行値を画素ごとに選択することで、奥行マップを生成する奥行平滑化手段と、
を備えることを特徴とする奥行推定装置。 - 前記周辺視点映像アップサンプル手段は、4倍のバイキュービックフィルタのアップサンプル係数を補間したアップサンプル係数を用いることで、前記アップサンプル倍率を8倍とすることを特徴とする請求項1に記載の奥行推定装置。
- 前記方向別信頼度重み算出手段は、水平方向および垂直方向の画素値の変化が大きいほど小さい重みを前記信頼度重みとすることを特徴とする請求項1または請求項2に記載の奥行推定装置。
- 前記奥行平滑化手段が用いる前記評価関数は、画素ごとの前記マッチング誤差に、水平方向および垂直方向にそれぞれ隣接する画素との奥行値の差に前記連続性重みを乗算した値を加算するものであって、前記連続性重みは、水平方向または垂直方向においてエッジが存在する場合に、前記エッジが存在しない場合と比べて小さい重みとすることを特徴とする請求項1から請求項3のいずれか一項に記載の奥行推定装置。
- コンピュータを、請求項1から請求項4のいずれか一項に記載の奥行推定装置として機能させるための奥行推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072424A JP7233150B2 (ja) | 2018-04-04 | 2018-04-04 | 奥行推定装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072424A JP7233150B2 (ja) | 2018-04-04 | 2018-04-04 | 奥行推定装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019184308A JP2019184308A (ja) | 2019-10-24 |
JP7233150B2 true JP7233150B2 (ja) | 2023-03-06 |
Family
ID=68340698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018072424A Active JP7233150B2 (ja) | 2018-04-04 | 2018-04-04 | 奥行推定装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7233150B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111010558B (zh) * | 2019-12-17 | 2021-11-09 | 浙江农林大学 | 一种基于短视频图像的立木深度图生成方法 |
CN113963094A (zh) * | 2020-07-03 | 2022-01-21 | 阿里巴巴集团控股有限公司 | 深度图及视频处理、重建方法、装置、设备及存储介质 |
JP7489253B2 (ja) | 2020-07-28 | 2024-05-23 | 日本放送協会 | デプスマップ生成装置及びそのプログラム、並びに、デプスマップ生成システム |
CN113887400B (zh) * | 2021-09-29 | 2022-10-14 | 北京百度网讯科技有限公司 | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001175863A (ja) | 1999-12-21 | 2001-06-29 | Nippon Hoso Kyokai <Nhk> | 多視点画像内挿方法および装置 |
JP2010251878A (ja) | 2009-04-13 | 2010-11-04 | National Institute Of Information & Communication Technology | 奥行推定装置、奥行推定方法および奥行推定プログラム |
JP2011221932A (ja) | 2010-04-14 | 2011-11-04 | National Institute Of Information & Communication Technology | 奥行推定装置、奥行推定方法および奥行推定プログラム |
US20150049917A1 (en) | 2012-08-21 | 2015-02-19 | Pelican Imaging Corporation | Systems and Methods for Measuring Depth In the Presence of Occlusions Using a Subset of Images |
JP2016145753A (ja) | 2015-02-09 | 2016-08-12 | 国立研究開発法人情報通信研究機構 | 奥行推定装置、奥行推定方法及び奥行推定プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5917937A (en) * | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
-
2018
- 2018-04-04 JP JP2018072424A patent/JP7233150B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001175863A (ja) | 1999-12-21 | 2001-06-29 | Nippon Hoso Kyokai <Nhk> | 多視点画像内挿方法および装置 |
JP2010251878A (ja) | 2009-04-13 | 2010-11-04 | National Institute Of Information & Communication Technology | 奥行推定装置、奥行推定方法および奥行推定プログラム |
JP2011221932A (ja) | 2010-04-14 | 2011-11-04 | National Institute Of Information & Communication Technology | 奥行推定装置、奥行推定方法および奥行推定プログラム |
US20150049917A1 (en) | 2012-08-21 | 2015-02-19 | Pelican Imaging Corporation | Systems and Methods for Measuring Depth In the Presence of Occlusions Using a Subset of Images |
JP2016145753A (ja) | 2015-02-09 | 2016-08-12 | 国立研究開発法人情報通信研究機構 | 奥行推定装置、奥行推定方法及び奥行推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019184308A (ja) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6016061B2 (ja) | 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム | |
JP7233150B2 (ja) | 奥行推定装置およびそのプログラム | |
US9445071B2 (en) | Method and apparatus generating multi-view images for three-dimensional display | |
JP4302572B2 (ja) | 画像処理装置 | |
CN109360235B (zh) | 一种基于光场数据的混合深度估计方法 | |
EP1354292B1 (en) | Method and apparatus FOR DEVELOPING HIGH-RESOLUTION IMAGERY | |
US9412151B2 (en) | Image processing apparatus and image processing method | |
JP4440067B2 (ja) | 立体表示のための画像処理プログラム、画像処理装置および立体表示システム | |
US10115207B2 (en) | Stereoscopic image processing method and apparatus thereof | |
JP2011060216A (ja) | 画像処理装置および画像処理方法 | |
US8363985B2 (en) | Image generation method and apparatus, program therefor, and storage medium which stores the program | |
KR101856805B1 (ko) | 화상 처리 장치 및 화상 처리 방법, 및 프로그램 | |
US8634675B2 (en) | Apparatus and method for generating extrapolated view based on image resizing | |
KR101580284B1 (ko) | 중간 시점 영상 생성 장치 및 방법 | |
US10049432B2 (en) | Image processing apparatus, image processing method, program and recording medium | |
RU2690757C1 (ru) | Система синтеза промежуточных видов светового поля и способ ее функционирования | |
EP1815441B1 (en) | Rendering images based on image segmentation | |
JP2011081605A (ja) | 画像処理装置、方法及びプログラム | |
US9998725B2 (en) | Apparatus and method for generating depth information | |
NL2016660A (en) | Image stitching method and device. | |
JP5492223B2 (ja) | 動きベクトル検出装置及び方法 | |
JP2011141710A (ja) | 奥行推定装置、奥行推定方法および奥行推定プログラム | |
JP6128748B2 (ja) | 画像処理装置及び方法 | |
US20140218357A1 (en) | Image processing device, image processing method, and program | |
JP2011039801A (ja) | 画像処理装置および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7233150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |