JP4631606B2 - 画像の奥行分布推定方法及び装置及びプログラム - Google Patents

画像の奥行分布推定方法及び装置及びプログラム Download PDF

Info

Publication number
JP4631606B2
JP4631606B2 JP2005246309A JP2005246309A JP4631606B2 JP 4631606 B2 JP4631606 B2 JP 4631606B2 JP 2005246309 A JP2005246309 A JP 2005246309A JP 2005246309 A JP2005246309 A JP 2005246309A JP 4631606 B2 JP4631606 B2 JP 4631606B2
Authority
JP
Japan
Prior art keywords
image
camera
point
points
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005246309A
Other languages
English (en)
Other versions
JP2006285946A (ja
Inventor
聡 嶌田
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005246309A priority Critical patent/JP4631606B2/ja
Publication of JP2006285946A publication Critical patent/JP2006285946A/ja
Application granted granted Critical
Publication of JP4631606B2 publication Critical patent/JP4631606B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像の奥行分布推定方法及び装置及びプログラムに係り、特に、映像の撮影状況や映像シーンの構成を識別・認識することにより映像の分類やインデキシングを行うことに利用可能な、視点を移動させながら同じ被写体を撮影して得られた2枚の画像から当該2画像間でのカメラ運動と画像奥行分布を推定する画像の奥行分布推定方法及び装置及びプログラムに関する。
1つのカメラで視点を移動させながら同じ被写体を撮影した動画像から、カメラ運動、及び被写体各部とカメラの距離を推定する代表的な方法として、因子分解法がある。
因子分解法は、カメラの撮像を弱中心射影と仮定してカメラ運動とシーンの3次元形状を計算するものである。視点を移動させて撮影されたF枚の画像中のP個の特徴点が対応付けられているとする。特徴点p,p=1,2,…,Pの画像f,f=1,2,…,Fでの座標を(ufp,vfp)とし、以下の行列Wを定義する。
Figure 0004631606
次に、Wの各行毎の平均値を求め、Wの各要素から対応する行の平均値を差し引いた行列W’を作成する。W’は計測行列と呼ばれ、この計測行列の特異値分解により、カメラの運動を表す被写体の形状を現す行列を求める(例えば、非特許文献1参照)。
次に、2つ目の従来方法として、カメラにより3次元の世界がレンズを通して2次元、すなわち、画像平面上に投影される現象を正確に記述した中心射影を用いた、評価関数の最小化により求める方法を説明する。
カメラを移動させてm枚の画像を取り込んだときに、被写体上のn個の点が各画像に射影される位置と、実際に得られる画像での位置とのユークリッド距離の自乗和を評価関数Cとする。
Figure 0004631606
ここで、fはj(J=1,2,…,m)番目の画像の焦点距離、(u ,v )はj番目の画像におけるi(i=1,2,…,n)番目の点の座標(X ,Y ,Z )は、j番目の画像のカメラ座標系におけるi番目の点の3次元位置である。
原点が被写体の重心で、向きが1番目の画像のカメラ画像系と同じ座標系を物体座標系として定義し、物体座標系における被写体上のi番目の点の3次元位置を(X,Y,Z)、j番目の画像のカメラ座標系の物体座標系に対する回転行列をRj,並進ベクトルをTとすると次式が成り立つ。
Figure 0004631606
式(3)を式(2)に代入し、X ,Y ,Z を消去すると、u ,v ,f,R(=I,単位行列)が既知パラメータであるので、評価関数は、回転行列R,並進ベクトルT,物体座標系における被写体上のi番目の点の3次元位置(X,Y,Z)の関数となる。この評価関数が最小となるときのR,T,X,Y,Zを、適当な初期値を設定し、最急降下法やニュートン法の反復法で求める(例えば、非特許文献2参照)。
金出、コンラッド、森田、"因子分解法による物体形状とカメラ運動の復元"、電子情報通信学会論文誌、Vol.J76-D-II, NO.8, pp.1497-1505, 1993 辻三郎、徐剛、"3次元ビジョン"、共立出版、pp.128-130, No.43-007, 2001
映像シーンを遠景画像、街や屋内などの遠近のある画像、特定の対象物を撮影した画像などに分類するための特徴量として画像の奥行分布を求めるときには、被写体の位置がカメラに近いものから遠いものまでを含む場合でも精度よく奥行分布を推定する必要がある。
しかしながら、上記の因子分解法は、カメラの撮像を弱中心射影と仮定しているので、適用できるのは、カメラから遠くにある小さい対象物の形状の推定を行う場合のような、3次元位置を求める被写体上各部のカメラからの距離が被写体の重心との距離に比べて十分小さい場合に限定される。従って、被写体の位置がカメラに近いものから遠いものまでを含む場合には精度よく奥行分布を推定することができないという問題がある。
また、上記の評価関数の最小化により求める方法は、カメラモデルとして中心射影を用いているので、映像分類で求められる一般的なシーンからでも奥行分布が算出できる。しかしながら、解析的に解くことはできず、反復法で求めているので、適切な初期値の設定や解の収束性などの数値計算上の問題がある。
本発明は、上記の点に鑑みなされたもので、カメラ回転運動を推定することで、一般的なシーンに対しても安定してカメラ運動と画像奥行分布を推定することが可能な画像の奥行分布推定方法及び装置及びプログラムを提供することを目的とする。
図1は、本発明の原理を説明するための図である。
本発明(請求項1)は、視点を移動させながら同じ被写体を撮影して得られた2枚の画像F1とF2を読み込んで(ステップ1)、被写体各部のカメラの距離に対応する画像奥行分布を推定する画像の奥行分布推定装置における、画像の奥行分布推定方法において、
特徴点対応付け手段
画像F1から選択したN個の特徴点Pn,n=1,2,…,Nと(ステップ2)画像F2での位置Qn,n=1,2,…,Nを検出する(ステップ3)特徴点対応付けステップと
回転運動推定手段
特徴点PnとQnの座標値を取得し、該Pnと該Qnを用いて、画像F1と画像F2を撮影したときのカメラの位置の移動において、カメラ光軸方向の移動が無い場合のカメラの回転運動を推定し、その推定結果が妥当と判定された場合には、回転運動推定結果を記憶手段に出力し、妥当でない判定された場合には、画像F1と画像F2を撮影したときのカメラ位置の水平方向と垂直方向の移動量をカメラ光軸方向の移動量に対する比としてカメラ並進移動比を推定し、該カメラ並進移動比の推定結果が妥当であると判定された場合には、該回転運動推定結果と該カメラ並進移動比を記憶手段に出力し、妥当でないと判定された場合には、回転運動の推定が不可能であることを示す信号を記憶手段に出力する回転運動推定ステップ(ステップ4)と、
回転運動後特徴点位置算出手段
画像F1を取り込んだときのカメラの位置から、記憶手段に格納されている回転運動量だけカメラを回転させたときのN個の特徴点の画像上の位置Rn,n=1,2,…,Nを算出し、該記憶手段に格納する回転運動後特徴点位置算出ステップ(ステップ5)と、
奥行情報算出手段が、記憶手段からRnとQn,n=1,2,…,Nの座標値を取得し、画像F2の特徴点Qn,n=1,2,…,Nに対応する被写体上の点に対する奥行分布を算出する奥行情報算出ステップ(ステップ6)と、を行う。
発明(請求項2)は、視点を移動させながら同じ被写体を撮影して得られた2枚の画像F1とF2を読み込んで、被写体各部のカメラの距離に対応する画像奥行分布を推定する画像の奥行分布推定装置における、画像の奥行分布推定方法において、
特徴点対応付け手段が、
画像F1から選択したN個の特徴点Pn,n=1,2,…,Nと画像F2での位置Qn,n=1,2,…,Nを検出する特徴点対応付けステップを行い、
回転運動推定手段が、
被写体上の2つの点OkとOb(以下、Okを計測点、Obを基準点と呼ぶ)のカメラからの距離ZkとZbの比Zk/Zbを、カメラ並進移動の前後で撮影した2つの画像におけるOkとObの座標値から算出する奥行比算出ステップと、
N個の特徴点から選択した2つの特徴点を奥行比算出ステップにおける基準点に設定し、該基準点を除くN−2個の特徴点を計測点に設定するステップと、を行う回転運動推定ステップと、を行い、
回転運動後特徴点位置算出手段が、
画像F1を取り込んだ時のカメラの位置から、予め設定しておいた回転運動量だけカメラを回転させた時に得られる画像FrにおけるN個の特徴点の位置Sn(n=1,2,…,N)を算出し、記憶手段に格納する回転運動後特徴点位置算出ステップを行い、
奥行情報算出手段が、
2つの基準点の画像Frにおける位置をS1、S2、画像F2における位置をQ1,Q2とし、N−2個の計測点の該画像Frにおける位置をSk(k=3,4,…,N)、該画像F2における位置をQk(k=3,4,…,N)として、各基準点と計測点とのカメラからの距離の比であるZk/Z1とZk/Z2(k=3,4,…,N)を奥行比算出ステップにより算出し、2つの基準点に対するカメラからの距離の比Z2/Z1を、Zk/Z1とZk/Z2の除算からN−2通りの値を求め、記憶手段に格納する奥行情報算出ステップを行い、
回転運動推定ステップにおいて、
回転運動後特徴点位置算出ステップ実行時に入力する回転運動量を記憶手段に複数用意しておき、各回転運動量に対して奥行情報算出ステップで求めたN−2通りのZ2/Z1の値の変動が最も小さい場合の回転運動量を、画像F1から画像F2への回転運動推定結果として記憶手段に出力する。
本発明(請求項)は、請求項の画像の奥行分布推定方法であって、
奥行比算出ステップにおいて、
被写体上の基準点Obと計測点Okのカメラ並進移動前に撮影した画像における位置をそれぞれSbとSk、カメラ並進移動後に撮影した画像における位置をQbとQkとしたときに、
位置Sbと位置Skの座標を結ぶ直線とQbの座標値の点との最短距離QbHb、及び、該位置Sbと該位置Skの座標値を結ぶ直線とQkの座標値の点との最短距離QkHkを算出し、それらの比であるQbHb/QkHkを、被写体上の点、OkとObのカメラからの距離ZkとZbの比Zk/Zbとして記憶手段に出力する。
本発明(請求項)は、請求項の画像の奥行分布推定方法であって、
奥行比算出ステップは、
各基準点と計測点とのカメラからの距離の比であるZk/Z1とZk/Z2(k=3,4,…,N)を算出するときに、k番目の計測点に対して求めた、最短距離QbHb、または、最短距離QkHkが予め設定しておいた値より小さい場合には、各基準点と計測点とのカメラからの距離の比を算出しない。
図2は、本発明の原理構成図である。
本発明(請求項)は、視点を移動させながら同じ被写体を撮影して得られた2枚の画像F1とF2を読み込んで、被写体各部のカメラの距離に対応する画像奥行分布を推定する画像の奥行分布推定装置であって、
画像F1から選択したN個の特徴点Pn,n=1,2,…,Nと画像F2での位置Qn,n=1,2,…,Nを検出する特徴点対応付け手段2と、
特徴点PnとQnの座標値を取得して、該Pnと該Qnを用いて、画像F1と画像F2を撮影したときのカメラの位置の移動において、カメラ光軸方向の移動が無い場合のカメラの回転運動を推定し、その推定結果が妥当と判定された場合には、回転運動推定結果を記憶手段に出力し、妥当でない判定された場合には、画像F1と画像F2を撮影したときのカメラ位置の水平方向と垂直方向の移動量をカメラ光軸方向の移動量に対する比としてカメラ並進移動比を推定し、該カメラ並進移動比の推定結果が妥当であると判定された場合には、該回転運動推定結果と該カメラ並進移動比を記憶手段に出力し、妥当でないと判定された場合には、回転運動の推定が不可能であることを示す信号を記憶手段19に出力する回転運動推定手段3と、
画像F1を取り込んだときのカメラの位置から、記憶手段19に格納されている回転運動量だけカメラを回転させたときのN個の特徴点の画像上の位置Rn,n=1,2,…,Nを算出し、記憶手段19に格納する回転運動後特徴点位置算出手段4と、
記憶手段19からRnとQn,n=1,2,…,Nの座標値を取得し、画像F2の特徴点Qn,n=1,2,…,Nに対応する被写体上の点に対する奥行分布を算出する奥行情報算出手段5と、を有する。
発明(請求項)は、視点を移動させながら同じ被写体を撮影して得られた2枚の画像F1とF2を読み込んで、被写体各部のカメラの距離に対応する画像奥行分布を推定する画像の奥行分布推定装置であって、
画像F1から選択したN個の特徴点Pn,n=1,2,…,Nと画像F2での位置Qn,n=1,2,…,Nを検出する特徴点対応付け手段と、
被写体上の2つの点OkとOb(以下、Okを計測点、Obを基準点と呼ぶ)のカメラからの距離ZkとZbの比Zk/Zbを、カメラ並進移動の前後で撮影した2つの画像におけるOkとObの座標値から算出し、記憶手段に格納する奥行比算出手段と、
N個の特徴点から選択した2つの特徴点を奥行比算出手段における基準点に設定し、該基準点を除くN−2個の特徴点を計測点に設定する手段と、を有する回転運動推定手段と、
画像F1を取り込んだ時のカメラの位置から、予め設定しておいた回転運動量だけカメラを回転させた時に得られる画像FrにおけるN個の特徴点の位置Sn(n=1,2,…,N)を算出する回転運動後特徴点位置算出手段と、
2つの基準点の画像Frにおける位置をS1、S2、画像F2における位置をQ1,Q2とし、N−2個の計測点の該画像Frにおける位置をSk(k=3,4,…,N)、該画像F2における位置をQk(k=3,4,…,N)として、各基準点と計測点とのカメラからの距離の比であるZk/Z1とZk/Z2(k=3,4,…,N)を奥行比算出手段により算出し、2つの基準点に対するカメラからの距離の比Z2/Z1を、Zk/Z1とZk/Z2の除算からN−2通りの値を求める奥行情報算出手段と、
を有し、
回転運動推定手段は、
回転運動後特徴点位置算出手段に入力する回転運動量を記憶手段に複数用意しておき、各回転運動量に対して奥行情報算出手段で求めたN−2通りのZ2/Z1の値の変動が最も小さい場合の回転運動量を、画像F1から画像F2への回転運動推定結果として記憶手段に出力する手段を含む。
また、本発明(請求項)は、請求項の画像の奥行分布推定装置であって、
奥行比算出手段は、
被写体上の基準点Obと計測点Okのカメラ並進移動前に撮影した画像における位置をそれぞれSbとSk、カメラ並進移動後に撮影した画像における位置をQbとQkとしたときに、
位置Sbと位置Skの座標を結ぶ直線とQbの座標値の点との最短距離QbHb、及び、該位置Sbと該位置Skの座標値を結ぶ直線とQkの座標値の点との最短距離QkHkを算出し、それらの比であるQbHb/QkHkを、被写体上の点、OkとObのカメラからの距離ZkとZbの比Zk/Zbとして記憶手段に出力する手段を含む。
また、本発明(請求項)は、請求項の奥行分布推定装置であって、
奥行比算出手段は、
各基準点と計測点とのカメラからの距離の比であるZk/Z1とZk/Z2(k=3,4,…,N)を算出するときに、k番目の計測点に対して求めた、最短距離QbHb、または、最短距離QkHkが予め設定しておいた値より小さい場合には、各基準点と計測点とのカメラからの距離の比を算出しない。
本発明(請求項)は、請求項5乃至8のいずれか1項の記載の画像の奥行分布推定装置を構成する各手段としてコンピュータを機能させるための画像の奥行分布推定プログラムである。
本発明によれば、被写体がカメラに近いものから遠くにあるものを含む一般的なシーンに対しても安心してカメラ運動と画像奥行分布を推定できるようになるので、奥行分布から映像シーンを遠景画像、街や屋内などの遠近のある画像、特定の対象物を撮影した画像などに分類したり、街の景観を表現するための3次元モデルを作成するなど、その実用的な効果は多大である。
以下、図面と共に本発明の実施の形態を説明する。
[第1の実施の形態]
図3は、本発明の第1の実施の形態における装置構成図である。
同図に示す装置は、画像読込み部1、特徴点対応付け処理部2、カメラ回転運動推定部3、カメラ回転後の特徴点位置算出部4、奥行情報算出部5から構成される。なお、この他に中間処理結果を格納する記憶手段(図示せず)が設けられているものとする。
画像読込み部1は、カメラを移動させて取り込んだ2枚の画像(F1,F2)を読み取り、読み取った画像を特徴点対応付け処理部2に出力する。
特徴点対応付け処理部2は、受け取った2枚の画像(F1,F2)からN個の特徴点の対応付けを行う。2枚の画像におけるカメラ運動、及び、特徴点の関係を図4に示す。同図は、カメラC1が、回転運動し、次に並進移動によりカメラC2となった場合の関係を示す。
図4における各符号は以下の通りである。
・画像F1:カメラC1で撮影される画像;
・画像Fr:回転後のカメラC1で撮影される画像;
・画像F2:カメラC2で撮影される画像;
・On:被写体上の点;
・Pn:画像FrにおけるOnの射影位置;
・Sn:画像FrにおけるOnの射影位置;
・Qn:画像F2におけるOnの射影位置;
を示す。図4において、画像F1上の点Pnと、画像F2上の点Qnのように被写体上では同一の点を対応付ける処理をN個(n=1,2,…,N)の特徴点について行う。特徴点Pnの座標値をカメラ回転運動推定部3とカメラ回転運度後の特徴点位置算出部4に出力し、特徴点Qnの座標値をカメラ回転運動推定部3、カメラ回転運動後の特徴点位置算出部4、奥行情報算出部5に出力する。
特徴点対応付けの具体的な方法を以下に説明する。
画像F1での特徴点検出は、コーナー、物体の輪郭など画像の濃度分布の変化の大きい点を抽出すればよく、例えば、従来手法である、Harrisオペレータ、Moravecオペレータ、SUSANオペレータなどを用いればよい(参考文献:金澤清、金谷健一「コンピュータビジョンのための画像の特徴点の抽出」電子情報通信学会誌、Vol.87, ZNo.12, pp.1-43-1048, 2004)。画像F2における特徴点Qnの検出は、画像F1におけるPnの近傍の濃度分布を切り出し、画像F2において、切り出した濃度分布と相関の高い位置を求めることにより実現できる。
カメラ回転運動推定部3は、PnとQn(n=1,2,…,N)の座標値を用いて、画像F1を取り込んだときから画像F2を取り込んだときまでのカメラの回転運動量を推定する。
図4におけるカメラC1からカメラC2までのカメラ運動は、図5に示すように、カメラC1を基準とする座標系C1−XをX軸のまわりにα、Y軸のまわりにβ、Z軸のまわりにγだけそれぞれ回転させる回転運動(回転後の座標系をC1−X1r−Y1r1rとする)と、回転後の座標系の並進運動で表現できる。並進移動ベクトルをt=(tx,ty,tz)、カメラC2を基準とする座標系C2−Xとすると、カメラ運動は次式の座標変換で表せる。
Figure 0004631606
カメラ回転運動推定部3は、回転角度α、β、γを推定し、記憶手段(後述ワークデータ管理部)に格納する。
また、カメラ回転運動推定部3は、カメラ回転運動と同時に並進移動比として、tx/tzとty/tzも同時に推定し、メモリ等の記憶手段(図示せず)に格納する。回転運動推定の具体的な処理手順については後述する。
カメラ回転運動後の特徴点位置算出部4は、カメラ回転運動推定部3で推定され、記憶手段(後述するワークデータ管理部)に格納されているデータを読み出して、推定した回転角度だけカメラC1を回転させたときに、画像F1上での特徴点Pnの回転後の位置Snを算出し、奥行情報算出部5に出力する(図4参照)。回転後の位置Snは以下の方法で算出する。
特徴点位置算出部4は、カメラC1を基準とした座標系での被写体上の点Onを(Xn,Yn,Zn)、Pnの座標を(upn,vpn)、回転後のカメラC1を基準とした座標系での被写体上の点Onを(Xn1r,Yn1r,Zn1r),Snの座標を(usn,vsn)とする中心斜影により次式が成り立つ。
Figure 0004631606
fはカメラの焦点距離である。
(Xn、Yn,Zn)と(Xn1r,Yn1r,Zn1r)の関係は回転運動のみであるので、
Figure 0004631606
となり、回転行列Rを、
Figure 0004631606
として、式(6)を式(5)に代入すると次式が得られる
Figure 0004631606
回転角度が推定されているときには回転行列Rが既知であるので、式(7)より、特徴点Pnの座標から回転後の位置Snの座標を算出することができる。算出された回転後の位置Snの座標をメモリ(図示せず)等の記憶手段に格納する。
奥行情報算出部5は、特徴点位置算出部4のメモリ(図示せず)から回転後の特徴点位置Snと、画像F2上の特徴点Qnから(n=1,2,…,N)、画像F2を撮影したカメラC2を基準としたN個の特徴点の3次元位置(被写体上の位置)を表した奥行分布を算出する。
また、奥行情報算出部5は、特徴点位置算出部4のメモリ(図示せず)から回転後の特徴点位置Snと、画像F2上の特徴点Qnと、カメラ回転運動推定部3のメモリ(図示せず)カメラの並進運動の比tx/tyを読み出して、画像F2を撮影したカメラC2を基準としたN個の特徴点の3次元位置(被写体上の位置)を表した奥行分布を算出する。
以下、カメラ回転運動推定部3の動作を説明する。
最初に回転運動を推定する原理を説明する。
画像F1上の点Pnと画像F2上の点Qnとからカメラの回転運動を推定する方法として、回転後の位置SnとQnの位置変化がカメラの並進運動のみで生じたことを拘束条件として推定する。カメラの並進運動で生じる画像での動きベクトルの制約を以下で導出する。なお、以下で用いているXn,Yn,Zn,Zk等の右上の表記はべき乗ではなく、カメラに対応する変数の表記を表す添え字であり、例えば、ZKは、カメラC2の2に対応する変数の表記を表す添え字である。
カメラC2を基準とした座標系での被写体上の点Onを(Xn,Yn,Zn)、Qnの座標を(uqn,vqn)とすると、
Figure 0004631606
が成り立つので、式(5)、式(8)、式(9)よりXn,Xn1r,Yn,Yn1r,Znを消去すると、
Figure 0004631606
が得られ、
Figure 0004631606
より、
Figure 0004631606
となる。式(10)において
tz=0の場合は、
Figure 0004631606
tz≠0の場合は、
Figure 0004631606
となる。
以上により、カメラ並進運動で生じる画像での動きベクトルの制約は、tz=0の場合は、式(11)より「SnからQnの移動ベクトルの傾きがty/txと一定となる」ことであり、tz≠0の場合は、2点の移動ベクトルが与えられれば、式(12)よりt’xとt’yが求められるので、「N個の特徴点から2つを選ぶ組み合わせによらずに算出したt’xとt’yが一定となる」ことである。このような条件が成立する回転運動を推定すればよい。
ところで、同じ被写体を撮影しながらカメラを動かすときには、カメラを大きく回転すると画面から外れてしまうので、一般的に回転運動は小さい。そこで、回転運動の推定方法として、予め予想される回転運動の範囲を設定しておき、適当な間隔で回転角度を刻み、α、β、γの3つの回転角度の設定した全ての組み合わせについて上記の条件が満たされる場合を検出する方法が有効である。以上の原理に基づいて回転運動推定の処理手順を以下に説明する。
図6は、本発明の第1の実施の形態における回転運動推定部の構成を示す。
同図に示す回転運動推定部3は、処理制御部11、特徴点座標読込み部12、回転角度の探索設定処理部13、コスト算出処理A部14、回転角度検出処理A部15、コスト算出処理B部16、回転角度検出処理B部17、初期データ管理部18、ワークデータ管理部19から構成される。
処理制御部11は、特徴点座標読込み部12、回転角度の探索設定処理部13、コスト算出処理A部14、回転角度検出処理A部15、コスト算出処理B部16、回転角度検出処理B部17の各部に処理の実行を指示する。
特徴点座標読込み部12は、特徴点対応付け処理部2より出力されるN個(n=1,2,…,N)の特徴点の画像F1上の点Pnと、画像F2上の点Qn(n=1,2,…,N)の座標値を読み取る。読み取った特徴点座標をワークデータ管理部19に出力する。
回転角度の探索設定処理部13は、探索する回転角度の範囲と角度を初期データ管理部18から読込み、探索する回転角度の組み合わせを管理する。回転角度の組み合わせをワークデータ管理部19に出力する。
コスト算出処理A部14は、初期データ管理部18とワークデータ管理部19から必要なデータを読み出し、カメラの光軸方向の並進移動がない場合に回転運動を推定するためのコスト関数を全ての回転角度の組み合わせに対して算出する。算出結果をワークデータ管理部19に出力する。
回転角度検出処理A部15は、コスト算出処理A部14のコスト算出結果をワークデータ管理部19から読み出し、回転角度を検出する。回転角度が検出された場合は、回転角度を出力する。回転角度が検出できない場合は、できないことを示す制御信号を処理制御部11に出力する。
コスト算出処理B部16は、初期データ管理部18とワークデータ管理部19から必要なデータを読み出し、カメラの光軸方向に並進移動がある場合に回転運動を推定するためのコスト関数を全ての回転角度の組み合わせに対して算出する。算出結果をワークデータ管理部19に出力する。
回転角度検出処理B部17は、コスト算出処理B部17のコスト算出結果をワークデータ管理部19から読み出し、回転角度を検出する。回転角度が検出された場合は回転角度を出力する。検出した回転角度と並進移動比を出力する。
初期データ管理部18は、探索する回転角度の範囲と角度、回転角度検出処理A部15と回転角度検出処理B部17で必要となる、各種の閾値を管理する。各処理部からデータ読み出しの要求があった場合には、要求されたデータを要求した処理部に出力する。
ワークデータ管理部19は、要求のあった処理部からデータを受け取り、格納管理する。また、処理部からデータの読み出し要求があった場合には、要求されたデータを要求した処理部に出力する。なお、当該ワークデータ管理部19のデータは、カメラ回転運動後の特徴点位置算出部4からも読み出されるものとする。
図7は、本発明の第1の実施の形態における回転運動推定部の具体的な処理のフローチャートである。
ステップ201) 回転運動推定部3の特徴点座標読込み部12は、特徴点対応付け処理部2より出力されるN個(n=1,2,…,N)の座標値を読み取り、ワークデータ管理部19に格納する。
ステップ202) 回転角度の探索設定処理部13において、予め予想される回転運動の範囲を設定しておき、適当な間隔で回転角度を刻み、3つの回転角度α、β、γの取り得る値を初期データ管理部18に設定する。例えば、それぞれ、−10度から10度の範囲を0.25度間隔で設定すると、各パラメータについて80通り考えられるので、全ての組み合わせは、80=512,000通りの組み合わせがある。各組み合わせに、角度組み合わせ番号として、m=1,…,512000までのシリアル番号を付与し、管理する。
ステップ203) コスト算出処理A部14において、m=1に設定する。
ステップ204) ステップ204,205,206,207,208は、tz=0すなわち、カメラの光軸方向の並進移動がない場合に回転運動を推定する処理を行う。
ステップ204では、コスト算出処理A部14において、初期データ管理部18より、角度組み合わせ番号mから回転角度α、β、γを得ると、特徴点Pnの座標から式(7)により特徴点Snの座標を求め、SnとQnの座標から移動ベクトルの傾きである
(vqn−vsn)/(uqn−usn
を算出する。各特徴点から1つの移動ベクトルの傾きが求められるので、全部でN個の傾きを求めることになる。
ステップ205) コスト算出処理A部14は、ステップ204で算出したN個の移動ベクトルの傾きの変動係数Cv(m)を算出し、ワークデータ管理部19に格納する。
ステップ206) コスト算出処理A部14は、m=Mであるかの判定を行う。すなわち、ステップ204,205の処理を全ての回転角度組み合わせについて行ったかを判断する。行っていない場合には、ステップ207の処理へ、行っている場合にはステップ208の処理を実行する。
ステップ207) コスト算出処理A部14は、角度の組み合わせ場番号を1つ増やし、次の角度組み合わせに対してステップ204を実行する。
ステップ208) M通りの角度組み合わせについて求めた変動係数Cv(m)の最小値を検出する。
ステップ209) 回転角度検出処理A部15は、ワークデータ管理部18から変動係数Cv(m)を読み出して、当該変動係数Cv(m)の最小値が予め設定した閾値より小さいかを判定する。小さい場合にはカメラ光軸方向の並進運動がなく、変動係数Cv(m)が最小となるときの回転角度が推定すべき角度であると判定する。変動係数Cv(m)の最小値が閾値より大きい場合には、カメラ光軸方向の並進運動がないとして推定した回転角度は信頼できないと判定する。
ステップ210) 回転角度検出処理A部15は、変動係数Cv(m)が最小となるときの回転角度を画像F1から画像F2におけるカメラ回転運動パラメータとしてワークデータ管理部18に出力する。
カメラC1からC2の並進運動において、カメラの光軸方向の並進移動が無いことがわかっている場合には、ステップ209の処理を削除し、ステップ201からステップ210までの処理で回転運動を推定することができる。この場合は、請求項1に記載の発明に対応する。カメラの並進運動が一般的な場合は、次のステップ211以降の処理を行う。この場合は、請求項2に記載の発明に対応する。
ステップ211) ステップ211〜ステップ216では、コスト算出処理B部16において、tz≠0、すなわち、カメラの光軸方向の並進移動がある場合に回転運動を推定する処理を行う。
ステップ211は角度組み合わせを1にリセットする。
ステップ212) コスト算出処理B部16は、角度組み合わせ番号mから回転角度α、β、γを得ると、特徴点Pnの座標から式(7)により特徴点Snの座標を求める。N個の特徴点の中から選択した2つの点n=i,jについて式(12)より、
Figure 0004631606
が得られ、式(13)より、t’xとt’yを求める。特徴点の組み合わせとして通りあるので、通りの(t’x,t’y)が得られる。
ステップ213) コスト算出処理B部16は、ステップ212で算出した、通りの(t’x,t’y)について、t’yの変動係数Cvy(m)を算出し、ワークデータ管理部18に格納する。
ステップ214) コスト算出処理B部16は、m=Mであるかの判定、すなわち、ステップ212、ステップ213の処理を全ての回転角度組み合わせについて行ったかを判断する。行っていない場合には、ステップ215の処理へ、行っている場合にはステップ216の処理を実行する。
ステップ215) コスト算出処理B部16は、角度組み合わせ番号mを1つ増やし、次の角度組み合わせに対してステップ212を実行する。
ステップ216) 回転角度検出処理B部17は、ワークデータ管理部18からCvx(m)とCvy(m)を読み出して、M通りの角度組み合わせについて求めた変動係数の和、Cvx(m)+Cvy(m)の最小値を検出する。
ステップ217) 回転角度検出処理B部17において、初期データ管理部18から予め設定されている閾値を読み出して、変動係数の和、Cvx(m)+Cvy(m)の最小値が予め設定した閾値より小さいかを判定する。小さい場合には、変動係数の和、Cvx(m)+Cvy(m)が最小となるときの回転角度が推定すべき角度であると判定する。閾値より大きい場合には、回転角度の推定ができないと判定する。
ステップ218) 回転角度検出処理B部17は、変動係数の和、Cvx(m)+Cvy(m)が最小となるときの回転角度を画像F1から画像F2におけるカメラ回転運動パラメータとして、そのときの並進移動比(t’x,t’y)と共にワークデータ管理部18に出力する。
ステップ219) 回転角度検出処理B部17は、回転運動の推定ができない場合で、予め設定しておいた、推定不可能を示す値やコードをカメラ回転運動パラメータとしてワークデータ管理部18に出力する。
最後に、奥行情報算出部5の具体的な処理方法を説明する。
式(5)、式(8)、式(9)より、Xn,Xn1r,Yn,Yn1r,Zn1rを消去すると、
Figure 0004631606
tz=0の場合は、
Figure 0004631606
tz≠0の場合は、
Figure 0004631606
となる。
回転運動推定部3において、カメラ光軸方向の並進運動願愛として推定された場合には、式(15)において、スケールファクターとして、tx、ty、fに適当な値を設定することで、被写体上の点OnとカメラC2との距離に対応するZnが算出でき、N個の点の奥行分布が得られる。
また、回転運動推定部3において、カメラ光軸方向の並進運動があるとして推定された場合は、回転運動推定部3から出力される並進移動比t’x、t’yを用いて式(16)からZn/tzが算出できるので、tzをスケールファクターとして被写体上の点OnとカメラC2との距離が得られる。tzに適当な値を設定することで、N個の点についての奥行分布が得られる。
なお、式(15)や式(16)において、Znの算出方法が2通りある。特徴点の座標値には画像の量子化誤差が含まれるので、N個の特徴点について(uqn−usn)と(vqn−vsn)の平均値を求め、(uqn−usn)の方が大きい場合には、
式(15)は、Zn=txf/(uqn−usn)を、
式(16)は、Zn/tz=(t’xf−usn)/(uqn−usn)を選択し、
(vqn−vsn)の方が大きい場合には、
式(15)は、Zn=tyf/(vqn−vsn)を、
式(16)は、Zn/tz=(t’yf−vsn)/(vqn−vsn)を採用すればより、精度よく算出することができる。
以上述べた処理により、一般的なシーンに対しても安定してカメラ運動と画像奥行分布を推定することができる。
[第2の実施の形態]
本実施の形態では、本発明におけるカメラ回転運動推定部3の別の例を説明する。
第1の実施の形態と同様に、画像F1上の点Pnと画像F2上の点Qnとからカメラの回転運動を推定する方法として、回転後の位置SnとQnの位置変化がカメラの並進運動のみで生じたことを拘束条件として推定する。カメラ並進運動で生じる画像での動きベクトルの制約を以下で導出する。
なお、以下の説明以外は、装置構成及び動作共に、前述の第1の実施の形態と同様である。
本実施の形態では、N個の特徴点の中で1番目と2番目の点を基準点、3番目からN番目までを計測点として選択する場合を例に説明する。
1番目の基準点とk(k=3,4,…,N)番目の計測点の被写体上の位置と画像での位置関係は、前述の式14により次式で表せる。
Figure 0004631606
上記の式(17−1)と式(18−1)よりtxを消去すると、
Figure 0004631606
が得られ、
式(17−2)と式(18−2)よりtyを消去すると、
Figure 0004631606
が得られる。
式(17−1)と式(18−1)よりtzを消去すると、
Figure 0004631606
となる。
ここで、図8に示すように、直線S1Q1と画像の横軸であるU軸とのなす角をθ、直線S1SkとU軸とのなす角をφ、直線SkQkとのなす角をηとすると、式(21)は、
Figure 0004631606
となる。ここで、H1は点Q1から直線S1Skへ下ろした垂線の足、HkはQkから直線S1Skへ下ろした垂線の足である。
同様に、図9に示すように、2番目の基準点とk(k=3,4,…,N)番目の計測点の被写体上の位置と画像での位置関係は、
Figure 0004631606
で表せる。ここで、L2は、点Q2から直線S2Skへ下ろした垂線の足、Lkは点Qkから直線S2Skへ下ろした垂線の足である。
上記の式(22)と式(23)により、2つの基準点のカメラからの距離の比は、
Figure 0004631606
となる。
以上により、カメラ並進運動で生じる画像での動きベクトルの制約は、「2つの基準点に対するカメラからの距離の比を式(24)により求めたときに、N−2個の計測点の選び方によらずに一定となる」ことである。このような条件が成立する回転運動を推定すればよい。この原理に基づいて図6に示すハードウェア構成を用いた回転運動推定部3の処理手順を以下に示す。
図10は、本発明の第2の実施の形態における回転運動推定部の動作のフローチャートである。
同図に示す処理手順は、処理制御部11で実行され、ステップ301は、特徴点座標読込み部12、ステップ302は、回転角度の探索設定処理部13、ステップ304からステップ315は、コスト算出処理A部14、ステップ316、317は、回転角度検出処理A部15により実現した場合を例に説明する。
ステップ301) 特徴点座標読込み部12は、特徴点対応付け処理部2より出力されるN個(n=1,2,…,N)の特徴点の画像F1上の点Pnと、画像F2上の点Qn(n=1,2,…,N)の座標値を読み取る。
ステップ302) 回転角度の探索設定処理部13は、予め予想される回転運動の範囲を設定しておき、適当な間隔で回転角度を刻み、3つの回転角度α、β、γの取り得る値をメモリ(図示せず)上に設定する。例えば、それぞれ−10°から10°の範囲を0.25°間隔で設定すると、各パラメータについて、80通り考えられるので、全ての組み合わせは、80=512,000通りの組み合わせがある。各組み合わせに、角度組み合わせ番号として、m=1,…,512000までのシリアル番号を付与し、メモリ(図示せず)内で管理する。
ステップ303) コスト算出A部14のメモリ(図示せず)内に基準点選定規則を格納しておき、基準点を選択する。本実施の形態では、N個の特徴点の中で、1番目と2番目の点を基準点、3番目からN番目までを計測点として選択する場合を例に説明する。
ステップ304) m=1に設定する。
ステップ305) 回転角度組み合わせ番号mから回転角度α、β、γを得ると、特徴点Pnの座標から式(7)により特徴点Snの座標を求める。
ステップ306) k=3に設定する。
ステップ307) S1とSkを結ぶ直線とQ1との最短距離Q1H1、及びS1とSkを結ぶ直線とQkとの最短距離QkHkを算出する。
ステップ308) S2とSkを結ぶ直線とQ2との最短距離Q2L2及びS2とSkを結ぶ直線とQkとの最短距離QkLkを算出する。
ステップ309) Q1H1,QkHk,Q2L2,QkLkの大きさが、初期データ管理部18内のメモリ(図示せず)から読み出した閾値以上の場合は、ステップ310の処理に移行し、閾値以上でない場合はステップ311の処理に移行する。この判定処理を行うことにより、画像の量子化誤差の影響を大きく受ける場合を除外することができる。
ステップ310) 前述の式(24)により、2つの基準点のカメラからの距離の比を算出する。k番目の計測点を用いて算出した距離の比をcost(k)とする。
ステップ311) k=Nであるかの判定、すなわち、ステップ307からステップ310の処理を全ての計測点について行ったかを判定する。行っていない場合には、ステップ312の処理に移行し、行っている場合にはステップ313の処理を実行する。
ステップ312) 計測点の番号kを一つ増やし、次の計測点に対してステップ307を実行する。
ステップ313) ステップ310で算出した、2つの基準点のカメラからの距離の比であるcost(k)の変動係数Cv(m)を算出する。
ステップ314) m=Mであるかの判定、すなわち、ステップ305からステップ313までの処理を全ての回転角度組み合わせについて行ったかを判断する。行っていない場合には、ステップ315の処理へ移行し、行っている場合にはステップ316の処理を実行する。
ステップ315) 角度組み合わせ番号mを一つ増やし、次の角度組み合わせに対してステップ305を実行する。
ステップ316) M通りの角度組み合わせについて求めた変動係数Cv(m)の最小値を検出する。
ステップ317) 変動係数Cv(m)が最小となるとき回転角度を画像F1から画像F2におけるカメラ回転運動パラメータとして出力する。
以上述べた処理により、一般的なシーンに対しても安定してカメラ回転運動を推定することができる。
最後に、本実施の形態における奥行情報算出部5の処理について説明する。
各計測点と基準点のカメラからの距離の比Zk/Z1は、式(22)により、直線S1Skと点Q1との最短距離Q1H1と、直線S1Skと点Qkとの最短距離QkHkから容易に算出できる。従って、N個の特徴点の中の1つを基準とした奥行き分布を求めることができる。
さらに、Q1H1とQkHkの大きさが予め設定しておいた閾値よりも小さい場合は、画像の量子化誤差の影響を大きく受けるので、この場合は基準点を変更することが有効である。この場合の手順は以下の通りである。
(1)コスト算出処理A部13のメモリ(図示せず)内に格納してある規則に基づいて基準点を選択する。選択した基準点を用いて、全ての計測点に対してQ1H1とQkHkを算出する。
(2)Q1H1とQkHkが閾値以上の計測点について式(22)により奥行き比を算出する。
(3)Q1H1、または、QkHkが閾値より小さい計測点について、上記の(2)の処理で奥行き比を計測した点の中から基準点を任意に選択する。変更後の基準点について、奥行きを算出していない全ての計測点についてQ1H1とQkHkを算出し、上記の(2)と(3)を繰り返す。
(4)基準点を変更しても、Q1H1とQkHkが閾値以上にならない計測点は奥行き比計測不可として所定の処理を行う。
(5)上記の(3)で奥行き比を求めた計測点について、基準点を上記の(1)で設定した基準点に対する奥行き比に換算する処理を行う。
以上述べた処理により、一般的なシーンに対しても安定して画像奥行分布を推定することができる。
なお、上記の図3に示す装置の構成要素の動作をプログラムとして構築し、コンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。
また、構築されたプログラムをコンピュータに接続されるハードディスク装置や、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納しておき、コンピュータにインストールする、または、配布することが可能である。
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、映像の撮影状況や映像シーンの構成を識別・認識することにより映像の分類やインデキシングを行う技術に適用可能である。
本発明の原理説明図である。 本発明の原理構成図である。 本発明の第1の実施の形態における装置構成図である。 本発明の第1の実施の形態における2つの画像の関係を説明する図である。 本発明の第1の実施の形態におけるカメラ運動を説明する図である。 本発明の第1の実施の形態におけるカメラ回転運動推定部の構成図である。 本発明の第1の実施の形態における回転運動推定部の具体的な処理のフローチャートである。 本発明の第2の実施の形態における基準点の計測点の画像上での位置関係を説明するための図である。 本発明の第2の実施の形態における2つの基準点の1つの計測点の画像上での位置関係を説明するための図である。 本発明の第2の実施の形態における回転運動推定部の動作のフローチャートである。
符号の説明
1 画像読込み部
2 特徴点対応付け手段、特徴点対応付け処理部
3 回転運動推定手段、カメラ回転運動推定部
4 回転運動後特徴点位置算出手段、カメラ回転運動後の特徴点位置算出部
5 奥行情報算出手段、奥行情報算出部
11 処理制御部
12 特徴点座標読込み部
13 回転角度の探索設定処理部
14 コスト算出処理A部
15 回転角度検出処理A部
16 コスト算出処理B部
17 回転角度検出処理B部
18 初期データ管理部
19 記憶手段、ワークデータ管理部

Claims (9)

  1. 視点を移動させながら同じ被写体を撮影して得られた2枚の画像F1とF2を読み込んで、被写体各部のカメラの距離に対応する画像奥行分布を推定する画像の奥行分布推定装置における、画像の奥行分布推定方法において、
    特徴点対応付け手段
    前記画像F1から選択したN個の特徴点Pn,n=1,2,…,Nと前記画像F2での位置Qn,n=1,2,…,Nを検出する特徴点対応付けステップを行い、
    回転運動推定手段
    前記特徴点PnとQnの座標値を取得し、該Pnと該Qnを用いて、前記画像F1と前記画像F2を撮影したときのカメラの位置の移動において、カメラ光軸方向の移動が無い場合のカメラの回転運動を推定し、その推定結果が妥当と判定された場合には、回転運動推定結果を前記記憶手段に出力し、妥当でない判定された場合には、前記画像F1と前記画像F2を撮影したときのカメラ位置の水平方向と垂直方向の移動量をカメラ光軸方向の移動量に対する比としてカメラ並進移動比を推定し、該カメラ並進移動比の推定結果が妥当であると判定された場合には、該回転運動推定結果と該カメラ並進移動比を前記記憶手段に出力し、妥当でないと判定された場合には、回転運動の推定が不可能であることを示す信号を前記記憶手段に出力する回転運動推定ステップを行い、
    回転運動後特徴点位置算出手段
    前記画像F1を取り込んだときのカメラの位置から、前記記憶手段に格納されている前記回転運動量だけカメラを回転させたときのN個の特徴点の画像上の位置Rn,n=1,2,…,Nを算出し、該記憶手段に格納する回転運動後特徴点位置算出ステップを行い、
    奥行情報算出手段が、
    前記記憶手段から前記Rnと前記Qn,n=1,2,…,Nの座標値を取得し、前記画像F2の特徴点Qn,n=1,2,…,Nに対応する被写体上の点に対する奥行分布を算出する奥行情報算出ステップを行う、
    ことを特徴とする画像の奥行分布推定方法。
  2. 視点を移動させながら同じ被写体を撮影して得られた2枚の画像F1とF2を読み込んで、被写体各部のカメラの距離に対応する画像奥行分布を推定する画像の奥行分布推定装置における、画像の奥行分布推定方法において、
    特徴点対応付け手段が、
    前記画像F1から選択したN個の特徴点Pn,n=1,2,…,Nと前記画像F2での位置Qn,n=1,2,…,Nを検出する特徴点対応付けステップを行い、
    回転運動推定手段が、
    被写体上の2つの点OkとOb(以下、Okを計測点、Obを基準点と呼ぶ)のカメラからの距離ZkとZbの比Zk/Zbを、カメラ並進移動の前後で撮影した2つの画像におけるOkとObの座標値から算出する奥行比算出ステップと、
    N個の特徴点から選択した2つの特徴点を前記奥行比算出ステップにおける基準点に設定し、該基準点を除くN−2個の特徴点を計測点に設定するステップと、を行う回転運動推定ステップと、を行い、
    回転運動後特徴点位置算出手段が、
    前記画像F1を取り込んだ時のカメラの位置から、予め設定しておいた回転運動量だけカメラを回転させた時に得られる画像FrにおけるN個の特徴点の位置Sn(n=1,2,…,N)を算出し、前記記憶手段に格納する回転運動後特徴点位置算出ステップを行い、
    奥行情報算出手段が、
    2つの基準点の前記画像Frにおける位置をS1、S2、前記画像F2における位置をQ1,Q2とし、N−2個の計測点の該画像Frにおける位置をSk(k=3,4,…,N)、該画像F2における位置をQk(k=3,4,…,N)として、各基準点と計測点とのカメラからの距離の比であるZk/Z1とZk/Z2(k=3,4,…,N)を前記奥行比算出ステップにより算出し、2つの基準点に対するカメラからの距離の比Z2/Z1を、Zk/Z1とZk/Z2の除算からN−2通りの値を求め、前記記憶手段に格納する奥行情報算出ステップを行い、
    前記回転運動推定ステップにおいて、
    前記回転運動後特徴点位置算出ステップ実行時に入力する回転運動量を記憶手段に複数用意しておき、各回転運動量に対して前記奥行情報算出ステップで求めたN−2通りのZ2/Z1の値の変動が最も小さい場合の回転運動量を、前記画像F1から前記画像F2への回転運動推定結果として前記記憶手段に出力する
    ことを特徴とする画像の奥行分布推定方法。
  3. 前記奥行比算出ステップにおいて、
    被写体上の基準点Obと計測点Okのカメラ並進移動前に撮影した画像における位置をそれぞれSbとSk、カメラ並進移動後に撮影した画像における位置をQbとQkとしたときに、
    前記位置Sbと前記位置Skの座標を結ぶ直線とQbの座標値の点との最短距離QbHb、及び、該位置Sbと該位置Skの座標値を結ぶ直線とQkの座標値の点との最短距離QkHkを算出し、それらの比であるQbHb/QkHkを、被写体上の点、OkとObのカメラからの距離ZkとZbの比Zk/Zbとして記憶手段に出力する、
    請求項記載の画像の奥行分布推定方法。
  4. 前記奥行比算出ステップは、
    各基準点と計測点とのカメラからの距離の比であるZk/Z1とZk/Z2(k=3,4,…,N)を算出するときに、k番目の計測点に対して求めた、前記最短距離QbHb、または、前記最短距離QkHkが予め設定しておいた値より小さい場合には、各基準点と計測点とのカメラからの距離の比を算出しない、
    請求項記載の画像の奥行分布推定方法。
  5. 視点を移動させながら同じ被写体を撮影して得られた2枚の画像F1とF2を読み込んで、被写体各部のカメラの距離に対応する画像奥行分布を推定する画像の奥行分布推定装置であって、
    前記画像F1から選択したN個の特徴点Pn,n=1,2,…,Nと前記画像F2での位置Qn,n=1,2,…,Nを検出する特徴点対応付け手段と、
    前記特徴点PnとQnの座標値を取得して、該Pnと該Qnを用いて、前記画像F1と前記画像F2を撮影したときのカメラの位置の移動において、カメラ光軸方向の移動が無い場合のカメラの回転運動を推定し、その推定結果が妥当と判定された場合には、回転運動推定結果を前記記憶手段に出力し、妥当でない判定された場合には、前記画像F1と前記画像F2を撮影したときのカメラ位置の水平方向と垂直方向の移動量をカメラ光軸方向の移動量に対する比としてカメラ並進移動比を推定し、該カメラ並進移動比の推定結果が妥当であると判定された場合には、該回転運動推定結果と該カメラ並進移動比を前記記憶手段に出力し、妥当でないと判定された場合には、回転運動の推定が不可能であることを示す信号を前記記憶手段に出力する回転運動推定手段と、
    前記画像F1を取り込んだときのカメラの位置から、前記記憶手段に格納されている前記回転運動量だけカメラを回転させたときのN個の特徴点の画像上の位置Rn,n=1,2,…,Nを算出し、前記記憶手段に格納する回転運動後特徴点位置算出手段と、
    前記記憶手段から前記Rnと前記Qn,n=1,2,…,Nの座標値を取得し、前記画像F2の特徴点Qn,n=1,2,…,Nに対応する被写体上の点に対する奥行分布を算出する奥行情報算出手段と、
    を有することを特徴とする画像の奥行分布推定装置。
  6. 視点を移動させながら同じ被写体を撮影して得られた2枚の画像F1とF2を読み込んで、被写体各部のカメラの距離に対応する画像奥行分布を推定する画像の奥行分布推定装置であって、
    前記画像F1から選択したN個の特徴点Pn,n=1,2,…,Nと前記画像F2での位置Qn,n=1,2,…,Nを検出する特徴点対応付け手段と、
    被写体上の2つの点OkとOb(以下、Okを計測点、Obを基準点と呼ぶ)のカメラからの距離ZkとZbの比Zk/Zbを、カメラ並進移動の前後で撮影した2つの画像におけるOkとObの座標値から算出し、記憶手段に格納する奥行比算出手段と、
    N個の特徴点から選択した2つの特徴点を前記奥行比算出手段における基準点に設定し、該基準点を除くN−2個の特徴点を計測点に設定する手段と、を有する回転運動推定手段と、
    前記画像F1を取り込んだ時のカメラの位置から、予め設定しておいた回転運動量だけカメラを回転させた時に得られる画像FrにおけるN個の特徴点の位置Sn(n=1,2,…,N)を算出する回転運動後特徴点位置算出手段と、
    2つの基準点の前記画像Frにおける位置をS1、S2、前記画像F2における位置をQ1,Q2とし、N−2個の計測点の該画像Frにおける位置をSk(k=3,4,…,N)、該画像F2における位置をQk(k=3,4,…,N)として、各基準点と計測点とのカメラからの距離の比であるZk/Z1とZk/Z2(k=3,4,…,N)を前記奥行比算出手段により算出し、2つの基準点に対するカメラからの距離の比Z2/Z1を、Zk/Z1とZk/Z2の除算からN−2通りの値を求める奥行情報算出手段と、
    を有し、
    前記回転運動推定手段は、
    前記回転運動後特徴点位置算出手段に入力する回転運動量を記憶手段に複数用意しておき、各回転運動量に対して前記奥行情報算出手段で求めたN−2通りのZ2/Z1の値の変動が最も小さい場合の回転運動量を、前記画像F1から前記画像F2への回転運動推定結果として前記記憶手段に出力する手段を含む
    ことを特徴とする画像の奥行分布推定装置。
  7. 前記奥行比算出手段は、
    被写体上の基準点Obと計測点Okのカメラ並進移動前に撮影した画像における位置をそれぞれSbとSk、カメラ並進移動後に撮影した画像における位置をQbとQkとしたときに、
    前記位置Sbと前記位置Skの座標を結ぶ直線とQbの座標値の点との最短距離QbHb、及び、該位置Sbと該位置Skの座標値を結ぶ直線とQkの座標値の点との最短距離QkHkを算出し、それらの比であるQbHb/QkHkを、被写体上の点、OkとObのカメラからの距離ZkとZbの比Zk/Zbとして記憶手段に出力する手段を含む、
    請求項記載の画像の奥行分布推定装置。
  8. 前記奥行比算出手段は、
    各基準点と計測点とのカメラからの距離の比であるZk/Z1とZk/Z2(k=3,4,…,N)を算出するときに、k番目の計測点に対して求めた、前記最短距離QbHb、または、前記最短距離QkHkが予め設定しておいた値より小さい場合には、各基準点と計測点とのカメラからの距離の比を算出しない
    請求項記載の画像の奥行分布推定装置。
  9. 請求項5乃至8のいずれか1項の記載の画像の奥行分布推定装置を構成する各手段としてコンピュータを機能させるための画像の奥行分布推定プログラム。
JP2005246309A 2005-03-07 2005-08-26 画像の奥行分布推定方法及び装置及びプログラム Expired - Fee Related JP4631606B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005246309A JP4631606B2 (ja) 2005-03-07 2005-08-26 画像の奥行分布推定方法及び装置及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005063101 2005-03-07
JP2005246309A JP4631606B2 (ja) 2005-03-07 2005-08-26 画像の奥行分布推定方法及び装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2006285946A JP2006285946A (ja) 2006-10-19
JP4631606B2 true JP4631606B2 (ja) 2011-02-16

Family

ID=37407763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005246309A Expired - Fee Related JP4631606B2 (ja) 2005-03-07 2005-08-26 画像の奥行分布推定方法及び装置及びプログラム

Country Status (1)

Country Link
JP (1) JP4631606B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101666854B1 (ko) 2010-06-14 2016-10-17 삼성전자주식회사 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법
JP5472538B2 (ja) * 2011-06-14 2014-04-16 日産自動車株式会社 距離計測装置及び環境地図生成装置
KR101871235B1 (ko) 2012-06-05 2018-06-27 삼성전자주식회사 깊이 영상 생성 방법 및 장치, 깊이 영상 처리 방법 및 장치

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0348977A (ja) * 1989-03-31 1991-03-01 Honeywell Inc 移動映像装置の映像から自己運動を算出する装置およびその方法
JPH03113305A (ja) * 1989-09-28 1991-05-14 Nippon Telegr & Teleph Corp <Ntt> 三次元座標計測装置
JPH07160893A (ja) * 1993-12-13 1995-06-23 Sony Corp 3次元形状復元方法
JPH0875443A (ja) * 1994-09-06 1996-03-22 Nikon Corp 円錐形状の形状パラメータ測定方法および装置
JPH10255053A (ja) * 1997-03-10 1998-09-25 Ainesu:Kk 3d復元における被写体特徴点の対応付け方法、及びこれを用いた3d復元法
JP2002032745A (ja) * 2000-06-07 2002-01-31 Nec Corp 点、線から、及び/または画像強度から直接に、3次元シーン構造及びカメラの動きを復元する方法
JP2002074337A (ja) * 2000-08-31 2002-03-15 Nec Corp 3次元シーン構造及びカメラの動きを画像強度から直接復元する方法
JP2004002881A (ja) * 2003-08-04 2004-01-08 Dowa Mining Co Ltd 耐焼付き性に優れた摺動部材の製法
JP2004046777A (ja) * 2002-05-15 2004-02-12 Nec Corp 画像処理装置及びそれに用いる画像処理方法並びにそのプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0348977A (ja) * 1989-03-31 1991-03-01 Honeywell Inc 移動映像装置の映像から自己運動を算出する装置およびその方法
JPH03113305A (ja) * 1989-09-28 1991-05-14 Nippon Telegr & Teleph Corp <Ntt> 三次元座標計測装置
JPH07160893A (ja) * 1993-12-13 1995-06-23 Sony Corp 3次元形状復元方法
JPH0875443A (ja) * 1994-09-06 1996-03-22 Nikon Corp 円錐形状の形状パラメータ測定方法および装置
JPH10255053A (ja) * 1997-03-10 1998-09-25 Ainesu:Kk 3d復元における被写体特徴点の対応付け方法、及びこれを用いた3d復元法
JP2002032745A (ja) * 2000-06-07 2002-01-31 Nec Corp 点、線から、及び/または画像強度から直接に、3次元シーン構造及びカメラの動きを復元する方法
JP2002074337A (ja) * 2000-08-31 2002-03-15 Nec Corp 3次元シーン構造及びカメラの動きを画像強度から直接復元する方法
JP2004046777A (ja) * 2002-05-15 2004-02-12 Nec Corp 画像処理装置及びそれに用いる画像処理方法並びにそのプログラム
JP2004002881A (ja) * 2003-08-04 2004-01-08 Dowa Mining Co Ltd 耐焼付き性に優れた摺動部材の製法

Also Published As

Publication number Publication date
JP2006285946A (ja) 2006-10-19

Similar Documents

Publication Publication Date Title
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
Shamwell et al. Unsupervised deep visual-inertial odometry with online error correction for RGB-D imagery
JP6734940B2 (ja) 三次元計測装置
JP5912191B2 (ja) 追跡システムを最適化するためのシステムおよび方法
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
US8897543B1 (en) Bundle adjustment based on image capture intervals
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US20090262113A1 (en) Image processing apparatus and image processing method
JP5555207B2 (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2005033319A (ja) 位置姿勢計測方法及び装置
JP2019190974A (ja) キャリブレーション装置、キャリブレーション方法、及びプログラム
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
CN112184824A (zh) 一种相机外参标定方法、装置
JP2006252275A (ja) カメラ運動及び物体形状の復元システム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP2004220292A (ja) 物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体
JP4631606B2 (ja) 画像の奥行分布推定方法及び装置及びプログラム
CN114723811A (zh) 一种非结构化环境四足机器人立体视觉定位建图方法
US11210846B2 (en) Three-dimensional model processing method and three-dimensional model processing apparatus
WO2018134866A1 (ja) カメラ校正装置
JP3548652B2 (ja) 物体形状復元装置及びその方法
JP2005063012A (ja) 全方位カメラ運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体
JP4784270B2 (ja) 三次元計測方法、計測装置、復元方法および復元装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101101

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees