JP5086120B2 - 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 - Google Patents
奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 Download PDFInfo
- Publication number
- JP5086120B2 JP5086120B2 JP2008027831A JP2008027831A JP5086120B2 JP 5086120 B2 JP5086120 B2 JP 5086120B2 JP 2008027831 A JP2008027831 A JP 2008027831A JP 2008027831 A JP2008027831 A JP 2008027831A JP 5086120 B2 JP5086120 B2 JP 5086120B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- cameras
- similarity
- image
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
以下、複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する従来の方法について説明する。
図1は、複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する従来の方法を説明するための図である。
図1において、2001は基準カメラCR、2002は基準カメラCRのレンズ、2003は基準カメラCRのレンズ中心(基準視点)、2004は基準カメラCRの撮像素子、2005は基準カメラCRの撮像素子の原点、2006は基準カメラCRの撮像素上の任意の画素の中心点、2010は基準カメラCRの視線、2011は調査点、2012は基準カメラCRの光軸(基準視点を通る、基準カメラCRの撮像素子に垂直な線)、1101はその他のカメラ(カメラC1)、1102はカメラC1のレンズ、1103はカメラC1のレンズ中心、1104はカメラC1の撮像素子、1105はカメラC1の撮像素子の原点、1106はカメラC1の撮像素上における調査点2011の結像点、1110はカメラC1の視線である。
複数のカメラの中の1つを基準カメラCR(2001)、その他のカメラはCiとする。但し、iはカメラを区別する番号である。カメラの位置、方向は自由に決定される。
図中のdは、基準カメラCR(2001)から、調査点2011が存在する平面までの距離を表し、基準カメラCR(2001)の光軸2012に調査点2011から下ろした垂線との交点と、基準カメラCR(2001)のレンズ中心2003(基準視点)との間の距離である
ここで、取得したいのは、基準カメラCR(2001)の撮像素子(2004)上に映る画像の、各ピクセル毎の奥行き情報である。
M.Okutomi,T.Kanade,"A Multiple-Baseline Stereo",IEEE Trans.Pattren Analysis and Machine Intelligence,Vol.15,No.4,April 1993. 國田 豊他,"多層信頼度マップを用いた3次元映像の実時間生成システム",映像情報メディア学会誌,Vol.60,No.7,2006,pp1102〜1110.
また、前述の(2)式に示す統合した相違度が、各カメラの相違度の和であるため、オクルージョン(実カメラから撮像できない箇所が存在すること)等の発生により、1つでも各カメラの相違度が小さいとき、統合された相違度が影響を受けて小さくなり、奥行きを決定される際に誤差が発生し易くなるという問題点があった。
前述の非特許文献2では、前述の非特許文献1の基準カメラCRが実カメラである必要があるという問題点を解決しているが、オクルージョンに弱いという問題点は解決できていない。
本発明は、前記従来技術の問題点を解決するためになされたものであり、本発明の目的は、奥行き情報取得方法および奥行き情報取得装置において、オクルージョンによる影響が小さい方法で、仮想視点から見た所望の方向の画像の奥行き情報を取得することが可能となる技術を提供することにある。
また、本発明の他の目的は、前述の奥行き情報取得方法をコンピュータに実行させるためのプログラム、および当該プログラムを記録した記録媒体を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
本発明は、視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、前記仮想視点を設定するステップ2と、前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10と、ユーザが欲する全ての調査点に対して前記のステップ4〜ステップ10を実行するステップ11とを有する。
また、本発明では、前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力するステップである。
また、本発明は、前述の奥行き情報取得方法を実現する奥行き情報取得装置である。
また、本発明は、前述の奥行き情報取得方法をコンピュータに実行させるためのプログラムである。
また、本発明は、前述のプログラムを記録したコンピュータ読み取り可能な記録媒体である。
本発明の奥行き情報取得方法および奥行き情報取得装置によれば、オクルージョンによる影響が小さい方法で、仮想視点から見た所望の方向の画像の奥行き情報を取得することが可能となる。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図2は、本発明の実施例の情報取得方法を説明するための図である。
図2において、1001は仮想カメラCv、1002は仮想カメラCvのレンズ、1003は仮想カメラCvのレンズ中心(仮想視点)、1004は仮想カメラCvの撮像素子、1005は仮想カメラCvの撮像素子の原点、1006は仮想カメラCvの撮像素上の任意の画素の中心点、1010は仮想カメラCvの視線、1011は調査点、1012はユーザが見たい空間的な範囲内の仮想面群、1101はその他のカメラ(カメラC1)、1102はカメラC1のレンズ、1103はカメラC1のレンズ中心、1104はカメラC1の撮像素子、1105はカメラC1の撮像素子の原点、1106はカメラC1の撮像素上における調査点1011の結像点、1110はカメラC1の視線である。
本実施例では、図1に示す実カメラである基準カメラCRに代えて、仮想カメラCvを使用する。また、本実施例では、実カメラを2台以上用意し、実カメラの群から2台を選び出す組合わせを作る。n台の実カメラがあれば、n(n−1)/2の組合せがあるので、その組み合わせを作る。
(1)ステップ101
n(n≧2)台の実カメラCi(i=1,...,n)で、同一物体や風景を撮影し、撮影した画像を後述する奥行き情報取得装置に入力する。このとき、各カメラCi(i=1,...,n)において、コンピュータビジョンの分野で知られているカメラの内部に関するパラメタ(カメラ内部パラメタ)と、カメラの位置、姿勢に関するパラメタ(カメラ外部パラメタ)は既知とする。カメラ内部パラメタは、行列表記すると、下記(3)式で表される。
このステップでは、ユーザが自分の目を持っていきたい場所を決め、そこに仮想視点1003を設置する。
(3)ステップ103
このステップでは、仮想視点1003から見た視野中に複数の仮想面1012を層状に設置する。
(4)ステップ104
このステップでは、仮想視点1003から見た画像中の任意の画素に対応する、各仮想面1012の点を調査点1011とするとき、仮想面を1つ選び、選択した仮想面中の調査点1011に対応するn個のカメラのそれぞれで撮像した複数の画像上のそれぞれの対応点の座標を計算する。
このステップでは、仮想視点1003から見た視野内であって、ユーザが生成したい画像の範囲を表す仮想的な面を設置する。これは、仮想視点1003をレンズ中心としたレンズ1002を持つ仮想カメラ1001の撮像素子1004と見なすことができる。
次に、ユーザが見たい画像の精細度を決め、それを満足するように、仮想カメラ1001の撮像素子1004の面上の画素を配置する。
これにより、ユーザが見たい視点である仮想視点1003に設置した仮想カメラ1001のパラメタが決まる。
この仮想カメラ1001の内部/外部パラメタは、下記(5)式で表される。
次に、仮想カメラ1001の撮像素子1004の任意の画素1006を1つ選択する。そして、仮想始点1003と画素1006とを通る直線である仮想視線1010と、各仮想面群1012の仮想面との交点を調査点1011とする。
次に、仮想平面群1012の中から仮想面を1つ選び、当該選択した仮想面中の調査点1011に対応するn個のカメラのそれぞれで撮像した複数の画像上のそれぞれの対応点の座標を計算する。
被写体画像取得手段12は、同一の物体や風景を撮影した画像を取得する手段であるが、あらかじめ撮影した画像を記録装置から読み出すことで取得することも可能である。なお、複数の視点位置から撮影した画像は、すべてのカメラ間の同期をとることにより同一時刻に撮影したものであることが望ましいが、同一の物体や風景の位置・姿勢の変化が十分に遅く、静止物と見なせる場合にはこの限りではない。
また、奥行き情報取得手段13は、対応点計算手段131と、相違度計算手段132と、類似度変換手段133と、統合類似度計算手段134と、奥行き情報出力手段135とで構成される。
対応点計算手段131は、図3のステップ104の処理を、n(≧2)個の全てのカメラに対して実行する。
相違度計算手段132は、図3のステップ105の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
類似度変換手段133は、図3のステップ106の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
統合類似度計算手段134は、図3のステップ108の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
奥行き情報出力手段135は、図3のステップ110と、ステップ111の処理を実行し、奥行き情報を出力する。
ここで、奥行き情報取得手段13は、ユーザが欲する全ての調査点に対する奥行き情報を取得する。即ち、対応点計算手段131と、相違度計算手段132と、類似度変換手段133と、統合類似度計算手段134と、奥行き情報出力手段135とは、ユーザが欲する全ての調査点に対して、前述の処理(図3のステップ111の処理)を実行する。
また、奥行きを選択するときの評価関数を、(n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組の類似度(0以上の類似度)+1)の積、または最大値としたため、オクルージョンの影響により類似度が低くなったペアの類似度はほぼ1となる。これにより、統合した類似度への影響は小さくなるため、オクルージョンの影響を受け難くなり、その結果、奥行き情報の精度を向上させることが可能となる。
さらに、相違度の計算において、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の各組ごとに計算しており、相違度の計算する際のカメラの選び方が最小単位となっていることから、オクルージョンを回避できた組の2個のカメラが得易くなるため、オクルージョンに対して耐性ができ、その結果、奥行き情報の精度を高くすることが可能となる。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
2 視点位置入力手段
3 被写体撮影手段
11 仮想面・仮想視点決定手段
12 カメラ画像取得手段
13 奥行き情報取得手段
131 対応点計算手段
132 相違度計算手段
133 類似度変換手段
134 統合類似度計算手段
135 奥行き情報出力手段
1001 仮想カメラ
1002 仮想カメラのレンズ、
1003 仮想カメラのレンズの中心(仮想視点)
1004 仮想カメラの撮像素子
1005 仮想カメラの撮像素子の原点
1006 調査点の仮想カメラの撮像素子上の結像点
1010 仮想カメラの視線
1011,2011 調査点
1012 仮想平面群
1101 実カメラ
1102 実カメラのレンズ
1103 実カメラのレンズのレンズ中心
1104 実カメラの撮像素子
1105 実カメラの撮像素子の原点
1106 調査点の実カメラの撮像素子上の結像点
1110 実カメラの視線
2001 基準カメラ
2002 基準カメラのレンズ、
2003 基準カメラのレンズの中心(仮想視点)
2004 基準カメラの撮像素子
2005 基準カメラの撮像素子の原点
2006 調査点の基準カメラの撮像素子上の結像点
2010 基準カメラの視線
5106 仮想平面と仮想視線の交点の結像点
5111 仮想平面と仮想視線の交点の結像点を中心とする撮像素子の画素と同じ大きさの四角形
5112 仮想平面と仮想視線の交点の結像点の近傍の撮像素子上の画素群
Claims (6)
- 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、
前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、
前記仮想視点を設定するステップ2と、
前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、
前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、
前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、
前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、
前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、
前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、
前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、
前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10とを有し、
前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度に1を加算し、当該1を加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算し、統合類似度として出力するステップであることを特徴とする奥行き情報取得方法。 - 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、
前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、
前記仮想視点を設定するステップ2と、
前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、
前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、
前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、
前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、
前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、
前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、
前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、
前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10とを有し、
前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力するステップであることを特徴とする奥行き情報取得方法。 - 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて、任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得装置であって、
前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力する手段1と、
前記仮想視点を設定する手段2と、
前記仮想視点から見た視野中に複数の仮想面を層状に設置する手段3と、
前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算する手段4と、
前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を、前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して計算する手段5と、
前記手段5で計算した前記n(n−1)/2組の全ての組の相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換する手段6と、
前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力する手段7と、
前記すべての仮想面に対して、前記手段4ないし手段7を実行する手段8と、
前記仮想視点から前記手段8で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とする手段9とを有し、
前記手段7は、前記n(n−1)/2組の全ての組で計算した類似度に1を加算し、当該1を加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算して、統合類似度として出力することを特徴とする奥行き情報取得装置。 - 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて、任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得装置であって、
前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力する手段1と、
前記仮想視点を設定する手段2と、
前記仮想視点から見た視野中に複数の仮想面を層状に設置する手段3と、
前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算する手段4と、
前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を、前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して計算する手段5と、
前記手段5で計算した前記n(n−1)/2組の全ての組の相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換する手段6と、
前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力する手段7と、
前記すべての仮想面に対して、前記手段4ないし手段7を実行する手段8と、
前記仮想視点から前記手段8で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とする手段9とを有し、
前記手段7は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力することを特徴とする奥行き情報取得装置。 - 請求項1または請求項2に記載の奥行き情報取得方法をコンピュータに実行させるためのプログラム。
- 請求項5に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008027831A JP5086120B2 (ja) | 2008-02-07 | 2008-02-07 | 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008027831A JP5086120B2 (ja) | 2008-02-07 | 2008-02-07 | 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009186369A JP2009186369A (ja) | 2009-08-20 |
JP5086120B2 true JP5086120B2 (ja) | 2012-11-28 |
Family
ID=41069754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008027831A Expired - Fee Related JP5086120B2 (ja) | 2008-02-07 | 2008-02-07 | 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5086120B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5999615B2 (ja) * | 2011-10-07 | 2016-09-28 | 国立研究開発法人情報通信研究機構 | カメラ較正情報生成装置、カメラ較正情報生成方法およびカメラ較正情報生成プログラム |
EP3101892A4 (en) | 2014-05-21 | 2017-07-26 | Sony Corporation | Image processing apparatus and method |
KR102129085B1 (ko) * | 2018-12-12 | 2020-07-01 | 서울과학기술대학교 산학협력단 | 영상 데이터를 합성하는 장치 및 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3228603B2 (ja) * | 1993-06-07 | 2001-11-12 | 住友電気工業株式会社 | 画像監視装置とその使用方法 |
JP2881193B1 (ja) * | 1998-03-02 | 1999-04-12 | 防衛庁技術研究本部長 | 3次元物体認識装置および方法 |
WO1999058927A1 (en) * | 1998-05-08 | 1999-11-18 | Sony Corporation | Image generating device and method |
JP3593466B2 (ja) * | 1999-01-21 | 2004-11-24 | 日本電信電話株式会社 | 仮想視点画像生成方法およびその装置 |
-
2008
- 2008-02-07 JP JP2008027831A patent/JP5086120B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009186369A (ja) | 2009-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3101624B1 (en) | Image processing method and image processing device | |
US9208396B2 (en) | Image processing method and device, and program | |
JP5818514B2 (ja) | 画像処理装置および画像処理方法、プログラム | |
US9846960B2 (en) | Automated camera array calibration | |
JP5472328B2 (ja) | ステレオカメラ | |
JP2019510311A (ja) | 平面の鏡を用いたステレオ画像システムを較正するための方法およびコンピュータプログラム製品 | |
JP5035195B2 (ja) | 画像生成装置及びプログラム | |
JP6300346B2 (ja) | Ip立体映像推定装置及びそのプログラム | |
JP5809607B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP7204021B2 (ja) | 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法 | |
TW202014993A (zh) | 資訊處理裝置、記錄媒體、程式產品及資訊處理方法 | |
JP6234401B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP6552256B2 (ja) | 画像処理装置及び画像処理装置の制御方法 | |
JP5086120B2 (ja) | 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 | |
JP6580761B1 (ja) | 偏光ステレオカメラによる深度取得装置及びその方法 | |
US10496238B2 (en) | 3D display ray principles and methods, zooming, and real-time demonstration | |
JP6305232B2 (ja) | 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。 | |
JP6602412B2 (ja) | 情報処理装置及び方法、情報処理システム、ならびにプログラム。 | |
Chantara et al. | Initial depth estimation using EPIs and structure tensor | |
JP2015005200A (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体 | |
US11356632B2 (en) | Display-information generating apparatus, information processing apparatus, and imaging system | |
WO2023135891A1 (ja) | 算出方法及び算出装置 | |
JP6089549B2 (ja) | 情報処理装置、情報処理システム、およびプログラム | |
JP2022114626A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6168601B2 (ja) | 画像変換装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5086120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |