JP5086120B2 - 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 - Google Patents

奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 Download PDF

Info

Publication number
JP5086120B2
JP5086120B2 JP2008027831A JP2008027831A JP5086120B2 JP 5086120 B2 JP5086120 B2 JP 5086120B2 JP 2008027831 A JP2008027831 A JP 2008027831A JP 2008027831 A JP2008027831 A JP 2008027831A JP 5086120 B2 JP5086120 B2 JP 5086120B2
Authority
JP
Japan
Prior art keywords
virtual
cameras
similarity
image
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008027831A
Other languages
English (en)
Other versions
JP2009186369A (ja
Inventor
雅浩 上野
康子 安藤
豊 國田
愛 磯貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008027831A priority Critical patent/JP5086120B2/ja
Publication of JP2009186369A publication Critical patent/JP2009186369A/ja
Application granted granted Critical
Publication of JP5086120B2 publication Critical patent/JP5086120B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体に係り、特に、複数のカメラで撮られた複数の画像データを用いて、仮想視点から見た所望の方向の画像の奥行き情報を取得する方法に関する。
複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する方法として、マルチベースラインステレオ法(下記、非特許文献1参照)、あるいは、多層信頼度マップを用いる方法(下記、非特許文献2参照)が知られている。
以下、複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する従来の方法について説明する。
図1は、複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する従来の方法を説明するための図である。
図1において、2001は基準カメラC、2002は基準カメラCのレンズ、2003は基準カメラCのレンズ中心(基準視点)、2004は基準カメラCの撮像素子、2005は基準カメラCの撮像素子の原点、2006は基準カメラCの撮像素上の任意の画素の中心点、2010は基準カメラCの視線、2011は調査点、2012は基準カメラCの光軸(基準視点を通る、基準カメラCの撮像素子に垂直な線)、1101はその他のカメラ(カメラC)、1102はカメラCのレンズ、1103はカメラCのレンズ中心、1104はカメラCの撮像素子、1105はカメラCの撮像素子の原点、1106はカメラCの撮像素上における調査点2011の結像点、1110はカメラCの視線である。
複数のカメラの中の1つを基準カメラC(2001)、その他のカメラはCとする。但し、iはカメラを区別する番号である。カメラの位置、方向は自由に決定される。
図中のdは、基準カメラC(2001)から、調査点2011が存在する平面までの距離を表し、基準カメラC(2001)の光軸2012に調査点2011から下ろした垂線との交点と、基準カメラC(2001)のレンズ中心2003(基準視点)との間の距離である
ここで、取得したいのは、基準カメラC(2001)の撮像素子(2004)上に映る画像の、各ピクセル毎の奥行き情報である。
Figure 0005086120
Figure 0005086120
Figure 0005086120
なお、本願発明に関連する先行技術文献としては以下のものがある。
M.Okutomi,T.Kanade,"A Multiple-Baseline Stereo",IEEE Trans.Pattren Analysis and Machine Intelligence,Vol.15,No.4,April 1993. 國田 豊他,"多層信頼度マップを用いた3次元映像の実時間生成システム",映像情報メディア学会誌,Vol.60,No.7,2006,pp1102〜1110.
しかしながら、前述の非特許文献1に記載の方法では、基準カメラCが実カメラである必要があるため、実カメラを測定したい視点と光軸となるように調整する必要がある。そのため、一旦カメラを配置した後に、仮想的な視点(仮想視点)と光軸(仮想光軸)を持つ仮想カメラで撮像した画像の奥行き情報を得ることができないという問題点があった。
また、前述の(2)式に示す統合した相違度が、各カメラの相違度の和であるため、オクルージョン(実カメラから撮像できない箇所が存在すること)等の発生により、1つでも各カメラの相違度が小さいとき、統合された相違度が影響を受けて小さくなり、奥行きを決定される際に誤差が発生し易くなるという問題点があった。
前述の非特許文献2では、前述の非特許文献1の基準カメラCが実カメラである必要があるという問題点を解決しているが、オクルージョンに弱いという問題点は解決できていない。
本発明は、前記従来技術の問題点を解決するためになされたものであり、本発明の目的は、奥行き情報取得方法および奥行き情報取得装置において、オクルージョンによる影響が小さい方法で、仮想視点から見た所望の方向の画像の奥行き情報を取得することが可能となる技術を提供することにある。
また、本発明の他の目的は、前述の奥行き情報取得方法をコンピュータに実行させるためのプログラム、および当該プログラムを記録した記録媒体を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
本発明は、視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、前記仮想視点を設定するステップ2と、前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10と、ユーザが欲する全ての調査点に対して前記のステップ4〜ステップ10を実行するステップ11とを有する。
また、本発明では、前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度にを加算し、当該を加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算し、統合類似度として出力するステップである。
また、本発明では、前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力するステップである。
また、本発明は、前述の奥行き情報取得方法を実現する奥行き情報取得装置である。
また、本発明は、前述の奥行き情報取得方法をコンピュータに実行させるためのプログラムである。
また、本発明は、前述のプログラムを記録したコンピュータ読み取り可能な記録媒体である。
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
本発明の奥行き情報取得方法および奥行き情報取得装置によれば、オクルージョンによる影響が小さい方法で、仮想視点から見た所望の方向の画像の奥行き情報を取得することが可能となる。
以下、図面を参照して本発明の実施例を詳細に説明する。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図2は、本発明の実施例の情報取得方法を説明するための図である。
図2において、1001は仮想カメラC、1002は仮想カメラCのレンズ、1003は仮想カメラCのレンズ中心(仮想視点)、1004は仮想カメラCの撮像素子、1005は仮想カメラCの撮像素子の原点、1006は仮想カメラCの撮像素上の任意の画素の中心点、1010は仮想カメラCの視線、1011は調査点、1012はユーザが見たい空間的な範囲内の仮想面群、1101はその他のカメラ(カメラC)、1102はカメラCのレンズ、1103はカメラCのレンズ中心、1104はカメラCの撮像素子、1105はカメラCの撮像素子の原点、1106はカメラCの撮像素上における調査点1011の結像点、1110はカメラCの視線である。
本実施例では、図1に示す実カメラである基準カメラCに代えて、仮想カメラCを使用する。また、本実施例では、実カメラを2台以上用意し、実カメラの群から2台を選び出す組合わせを作る。n台の実カメラがあれば、n(n−1)/2の組合せがあるので、その組み合わせを作る。
Figure 0005086120
以下、本実施例の奥行き情報取得方法を、図3のフローチャート用いて説明する。
(1)ステップ101
n(n≧2)台の実カメラCi(i=1,...,n)で、同一物体や風景を撮影し、撮影した画像を後述する奥行き情報取得装置に入力する。このとき、各カメラCi(i=1,...,n)において、コンピュータビジョンの分野で知られているカメラの内部に関するパラメタ(カメラ内部パラメタ)と、カメラの位置、姿勢に関するパラメタ(カメラ外部パラメタ)は既知とする。カメラ内部パラメタは、行列表記すると、下記(3)式で表される。
Figure 0005086120
Figure 0005086120
(2)ステップ102
このステップでは、ユーザが自分の目を持っていきたい場所を決め、そこに仮想視点1003を設置する。
(3)ステップ103
このステップでは、仮想視点1003から見た視野中に複数の仮想面1012を層状に設置する。
(4)ステップ104
このステップでは、仮想視点1003から見た画像中の任意の画素に対応する、各仮想面1012の点を調査点1011とするとき、仮想面を1つ選び、選択した仮想面中の調査点1011に対応するn個のカメラのそれぞれで撮像した複数の画像上のそれぞれの対応点の座標を計算する。
このステップでは、仮想視点1003から見た視野内であって、ユーザが生成したい画像の範囲を表す仮想的な面を設置する。これは、仮想視点1003をレンズ中心としたレンズ1002を持つ仮想カメラ1001の撮像素子1004と見なすことができる。
次に、ユーザが見たい画像の精細度を決め、それを満足するように、仮想カメラ1001の撮像素子1004の面上の画素を配置する。
これにより、ユーザが見たい視点である仮想視点1003に設置した仮想カメラ1001のパラメタが決まる。
この仮想カメラ1001の内部/外部パラメタは、下記(5)式で表される。
Figure 0005086120
ここで、(5)式の内容は、前述の(3)式、(4)式と同様であるので、詳細な説明は省略する。
次に、仮想カメラ1001の撮像素子1004の任意の画素1006を1つ選択する。そして、仮想始点1003と画素1006とを通る直線である仮想視線1010と、各仮想面群1012の仮想面との交点を調査点1011とする。
次に、仮想平面群1012の中から仮想面を1つ選び、当該選択した仮想面中の調査点1011に対応するn個のカメラのそれぞれで撮像した複数の画像上のそれぞれの対応点の座標を計算する。
Figure 0005086120
Figure 0005086120
Figure 0005086120
Figure 0005086120
Figure 0005086120
Figure 0005086120
Figure 0005086120
視点位置入力手段2は、例えば、マウス、キーボード等の入力するデバイスである。
被写体画像取得手段12は、同一の物体や風景を撮影した画像を取得する手段であるが、あらかじめ撮影した画像を記録装置から読み出すことで取得することも可能である。なお、複数の視点位置から撮影した画像は、すべてのカメラ間の同期をとることにより同一時刻に撮影したものであることが望ましいが、同一の物体や風景の位置・姿勢の変化が十分に遅く、静止物と見なせる場合にはこの限りではない。
また、奥行き情報取得手段13は、対応点計算手段131と、相違度計算手段132と、類似度変換手段133と、統合類似度計算手段134と、奥行き情報出力手段135とで構成される。
対応点計算手段131は、図3のステップ104の処理を、n(≧2)個の全てのカメラに対して実行する。
相違度計算手段132は、図3のステップ105の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
類似度変換手段133は、図3のステップ106の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
統合類似度計算手段134は、図3のステップ108の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
奥行き情報出力手段135は、図3のステップ110と、ステップ111の処理を実行し、奥行き情報を出力する。
ここで、奥行き情報取得手段13は、ユーザが欲する全ての調査点に対する奥行き情報を取得する。即ち、対応点計算手段131と、相違度計算手段132と、類似度変換手段133と、統合類似度計算手段134と、奥行き情報出力手段135とは、ユーザが欲する全ての調査点に対して、前述の処理(図3のステップ111の処理)を実行する。
以上説明したように、本実施例によれば、従来の方法に比べて、基準カメラが実カメラでないため、ユーザが奥行き情報を取得したい仮想カメラの位置に実カメラを置く必要が無い。また、仮想カメラが実カメラでないため、自由に設定した仮想視点と光軸の奥行き情報を取得できる。
また、奥行きを選択するときの評価関数を、(n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組の類似度(0以上の類似度)+1)の積、または最大値としたため、オクルージョンの影響により類似度が低くなったペアの類似度はほぼ1となる。これにより、統合した類似度への影響は小さくなるため、オクルージョンの影響を受け難くなり、その結果、奥行き情報の精度を向上させることが可能となる。
さらに、相違度の計算において、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の各組ごとに計算しており、相違度の計算する際のカメラの選び方が最小単位となっていることから、オクルージョンを回避できた組の2個のカメラが得易くなるため、オクルージョンに対して耐性ができ、その結果、奥行き情報の精度を高くすることが可能となる。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
従来の奥行き情報取得方法を説明するための図である。 本発明の実施例の奥行き情報取得方法を説明するための図である。 本発明の実施例の奥行き情報取得方法の処理手順を示すフローチャートである。 仮想平面と仮想視線の交点と結像点の近傍の撮像素子上の画素の図(注目点を中心とする撮像素子画素と同じ大きさの四角形と撮像素子の画素の関係図)である。 本発明の実施例の奥行き情報取得装置の概略構成を示すブロック図である。
符号の説明
1 奥行き情報取得装置
2 視点位置入力手段
3 被写体撮影手段
11 仮想面・仮想視点決定手段
12 カメラ画像取得手段
13 奥行き情報取得手段
131 対応点計算手段
132 相違度計算手段
133 類似度変換手段
134 統合類似度計算手段
135 奥行き情報出力手段
1001 仮想カメラ
1002 仮想カメラのレンズ、
1003 仮想カメラのレンズの中心(仮想視点)
1004 仮想カメラの撮像素子
1005 仮想カメラの撮像素子の原点
1006 調査点の仮想カメラの撮像素子上の結像点
1010 仮想カメラの視線
1011,2011 調査点
1012 仮想平面群
1101 実カメラ
1102 実カメラのレンズ
1103 実カメラのレンズのレンズ中心
1104 実カメラの撮像素子
1105 実カメラの撮像素子の原点
1106 調査点の実カメラの撮像素子上の結像点
1110 実カメラの視線
2001 基準カメラ
2002 基準カメラのレンズ、
2003 基準カメラのレンズの中心(仮想視点)
2004 基準カメラの撮像素子
2005 基準カメラの撮像素子の原点
2006 調査点の基準カメラの撮像素子上の結像点
2010 基準カメラの視線
5106 仮想平面と仮想視線の交点の結像点
5111 仮想平面と仮想視線の交点の結像点を中心とする撮像素子の画素と同じ大きさの四角形
5112 仮想平面と仮想視線の交点の結像点の近傍の撮像素子上の画素群

Claims (6)

  1. 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、
    前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、
    前記仮想視点を設定するステップ2と、
    前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、
    前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、
    前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、
    前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、
    前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、
    前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、
    前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、
    前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10とを有し、
    前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度にを加算し、当該を加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算し、統合類似度として出力するステップであることを特徴とする奥行き情報取得方法。
  2. 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、
    前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、
    前記仮想視点を設定するステップ2と、
    前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、
    前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、
    前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、
    前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、
    前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、
    前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、
    前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、
    前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10とを有し、
    前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力するステップであることを特徴とする奥行き情報取得方法。
  3. 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて、任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得装置であって、
    前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力する手段1と、
    前記仮想視点を設定する手段2と、
    前記仮想視点から見た視野中に複数の仮想面を層状に設置する手段3と、
    前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算する手段4と、
    前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を、前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して計算する手段5と、
    前記手段5で計算した前記n(n−1)/2組の全ての組の相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換する手段6と、
    前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力する手段7と、
    前記すべての仮想面に対して、前記手段4ないし手段7を実行する手段8と、
    前記仮想視点から前記手段8で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とする手段9とを有し、
    前記手段7は、前記n(n−1)/2組の全ての組で計算した類似度にを加算し、当該を加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算して、統合類似度として出力することを特徴とする奥行き情報取得装置。
  4. 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて、任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得装置であって、
    前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力する手段1と、
    前記仮想視点を設定する手段2と、
    前記仮想視点から見た視野中に複数の仮想面を層状に設置する手段3と、
    前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算する手段4と、
    前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を、前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して計算する手段5と、
    前記手段5で計算した前記n(n−1)/2組の全ての組の相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換する手段6と、
    前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力する手段7と、
    前記すべての仮想面に対して、前記手段4ないし手段7を実行する手段8と、
    前記仮想視点から前記手段8で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とする手段9とを有し
    前記手段7は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力することを特徴とする奥行き情報取得装置。
  5. 請求項1または請求項2に記載の奥行き情報取得方法をコンピュータに実行させるためのプログラム。
  6. 請求項に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2008027831A 2008-02-07 2008-02-07 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 Expired - Fee Related JP5086120B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008027831A JP5086120B2 (ja) 2008-02-07 2008-02-07 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008027831A JP5086120B2 (ja) 2008-02-07 2008-02-07 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体

Publications (2)

Publication Number Publication Date
JP2009186369A JP2009186369A (ja) 2009-08-20
JP5086120B2 true JP5086120B2 (ja) 2012-11-28

Family

ID=41069754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008027831A Expired - Fee Related JP5086120B2 (ja) 2008-02-07 2008-02-07 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体

Country Status (1)

Country Link
JP (1) JP5086120B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5999615B2 (ja) * 2011-10-07 2016-09-28 国立研究開発法人情報通信研究機構 カメラ較正情報生成装置、カメラ較正情報生成方法およびカメラ較正情報生成プログラム
EP3101892A4 (en) 2014-05-21 2017-07-26 Sony Corporation Image processing apparatus and method
KR102129085B1 (ko) * 2018-12-12 2020-07-01 서울과학기술대학교 산학협력단 영상 데이터를 합성하는 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3228603B2 (ja) * 1993-06-07 2001-11-12 住友電気工業株式会社 画像監視装置とその使用方法
JP2881193B1 (ja) * 1998-03-02 1999-04-12 防衛庁技術研究本部長 3次元物体認識装置および方法
WO1999058927A1 (en) * 1998-05-08 1999-11-18 Sony Corporation Image generating device and method
JP3593466B2 (ja) * 1999-01-21 2004-11-24 日本電信電話株式会社 仮想視点画像生成方法およびその装置

Also Published As

Publication number Publication date
JP2009186369A (ja) 2009-08-20

Similar Documents

Publication Publication Date Title
EP3101624B1 (en) Image processing method and image processing device
US9208396B2 (en) Image processing method and device, and program
JP5818514B2 (ja) 画像処理装置および画像処理方法、プログラム
US9846960B2 (en) Automated camera array calibration
JP5472328B2 (ja) ステレオカメラ
JP2019510311A (ja) 平面の鏡を用いたステレオ画像システムを較正するための方法およびコンピュータプログラム製品
JP5035195B2 (ja) 画像生成装置及びプログラム
JP6300346B2 (ja) Ip立体映像推定装置及びそのプログラム
JP5809607B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7204021B2 (ja) 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法
TW202014993A (zh) 資訊處理裝置、記錄媒體、程式產品及資訊處理方法
JP6234401B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6552256B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP5086120B2 (ja) 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体
JP6580761B1 (ja) 偏光ステレオカメラによる深度取得装置及びその方法
US10496238B2 (en) 3D display ray principles and methods, zooming, and real-time demonstration
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
Chantara et al. Initial depth estimation using EPIs and structure tensor
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
US11356632B2 (en) Display-information generating apparatus, information processing apparatus, and imaging system
WO2023135891A1 (ja) 算出方法及び算出装置
JP6089549B2 (ja) 情報処理装置、情報処理システム、およびプログラム
JP2022114626A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6168601B2 (ja) 画像変換装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120906

R150 Certificate of patent or registration of utility model

Ref document number: 5086120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees