JP2011112507A - 3次元位置計測装置および3次元位置計測方法 - Google Patents

3次元位置計測装置および3次元位置計測方法 Download PDF

Info

Publication number
JP2011112507A
JP2011112507A JP2009269164A JP2009269164A JP2011112507A JP 2011112507 A JP2011112507 A JP 2011112507A JP 2009269164 A JP2009269164 A JP 2009269164A JP 2009269164 A JP2009269164 A JP 2009269164A JP 2011112507 A JP2011112507 A JP 2011112507A
Authority
JP
Japan
Prior art keywords
dimensional position
time
stereo vision
moving
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009269164A
Other languages
English (en)
Other versions
JP5445069B2 (ja
Inventor
Kazufumi Nakayama
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009269164A priority Critical patent/JP5445069B2/ja
Publication of JP2011112507A publication Critical patent/JP2011112507A/ja
Application granted granted Critical
Publication of JP5445069B2 publication Critical patent/JP5445069B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】3次元位置の計測精度を向上させる。
【解決手段】3次元位置計測装置1は、移動体に設置された複数のカメラ#1〜#nと、カメラ#1〜#nで撮影された映像から任意の対象物の3次元位置を計測する3次元位置計測部1aとを備える。カメラ#1〜#nは、少なくとも1組のカメラ対が共通視野を持つように配置する。また、3次元位置計測部1aは、共通視野の映像に対して複眼ステレオ視制御により周囲の3次元位置を計測して移動体の移動量を推定する。そして、推定した移動量にもとづき、単眼移動ステレオ視制御により対象物の3次元位置を計測する。
【選択図】図1

Description

本発明は、撮影映像から任意物体の3次元位置を計測する3次元位置計測装置および3次元位置計測方法に関する。
近年、車両にカメラを取り付け、車両前方や後方の映像を撮影して、車両周辺の物体の3次元位置を計測する装置が開発されている。カメラで撮影した映像から3次元位置を計測する方法としては、複眼ステレオ視を用いるのが一般的である。
複眼ステレオ視では、空間的に異なる位置に設置した複数台のカメラで撮影した映像群のそれぞれから、物体の同じ位置を特定することで、映像中の位置の違い(視差)を算出して、三角測量の原理で3次元位置を定めることができる。
また、1台のカメラで3次元位置を計測する方法として、単眼移動ステレオ視あるいはSFM(Structure From Motion)と呼ばれる方法がある。これは、1台のカメラによる時系列の映像を用いて、得られた複数の映像から物体の特徴的な部分(特徴点)を追跡して、映像に映る物体の3次元位置を算出するものである。
3次元位置を計測する従来技術として、複眼ステレオ視を用いた技術が例えば、特許文献1、2に提案されている。また、単眼移動ステレオ視を用いた技術が例えば、特許文献3に提案されている。さらに、複眼ステレオ視および単眼移動ステレオ視の両方を用いた技術が例えば、特許文献4に提案されている。
特開平5−114099号公報 特開2005−24463号公報 特開2007−256029号公報 特開2007−263657号公報
複眼ステレオ視で3次元位置を計測する場合、計測精度は、ステレオを構成するカメラ間の設置距離(ベースライン長)に依存する。ベースライン長を大きく取ればそれだけ計測距離の精度は向上するが、ステレオが形成されるようにカメラ装置を取り付ける対象の大きさは一般に限られており、ベースライン長をあまり大きく取れないことが多い。
また、カメラ装置から離れた位置にある物体の計測精度を向上させるべく、ベースライン長を大きく取ったとしても、ステレオカメラから近い場所に計測対象が位置するときは、それぞれのカメラから対象物を映したときの視線方向の違いが大きくなる。
このため、それぞれのカメラ映像で物体の異なる位置を撮影することになるため、映像中の同一物体の形状等のずれが大きくなり、ステレオ視で重要な映像間の照合に失敗して、視差を算出できないおそれがあった。
さらに、近方物体に合わせてベースライン長を小さくした場合、遠方物体では視差が小さくなり、遠方物体の3次元位置の計測精度が下がってしまう。このように複眼ステレオ視を単体で使用した場合では、固定ベースライン長に起因する欠点があった。
一方、単眼移動ステレオ視の場合は、3次元位置の計測精度の基準となるベースライン長は、装置を取り付けた移動体の移動そのものである。このため、観測時間を長く取りつつ、移動に伴う映像中の特徴点の位置の追跡を行えば、事実上のベースライン長を大きくすることができ、3次元位置の計測精度を高めることができる。
しかし、単眼移動ステレオを単体で使用した場合、移動体の移動量が不明であるため、特徴点間の3次元空間での相対的な位置関係はわかるものの、移動量の絶対値すなわちスケールがわからないと、具体的な3次元位置が算出できない。
このため、一般的には、外部に別のセンサーを設けて移動体の移動量を計測し、これを利用して物体の3次元位置を算出する方法を採っている。しかしながら、外部センサーによる移動体の移動量の計測では、ノイズや時間遅れを伴うことが多いため、映像の撮像フレームレートに同期した精度の高い移動量の取得が困難であった。
このように、複眼ステレオ視と単眼移動ステレオ視とを単体で使用した場合には、それぞれ上記のような問題点があり、従来においては、これら問題点をカバーするように、複眼ステレオ視と単眼移動ステレオ視の両方を適切に用いて、3次元位置の計測精度を高める制御が行われていなかった。
なお、特許文献4では、複眼ステレオ視と単眼移動ステレオ視の両方を使用している。しかし、複眼ステレオ視と単眼移動ステレオ視とを単純に組み合わせて、それぞれから個別に3次元位置を取得する構成となっているため、複眼ステレオ視と単眼移動ステレオ視の持つそれぞれの問題点を継承しており、3次元位置の計測精度を高めることができない。
本発明はこのような点に鑑みてなされたものであり、複眼ステレオ視と単眼移動ステレオ視の両方を適切に組み合わせて、3次元位置の高品質な計測を行うことで、3次元位置の計測精度を向上させた3次元位置計測装置を提供することを目的とする。
また、本発明の他の目的は、複眼ステレオ視と単眼移動ステレオ視の両方を適切に組み合わせて、3次元位置の高品質な計測を行うことで、3次元位置の計測精度を向上させた3次元位置計測方法を提供することである。
上記課題を解決するために、3次元位置計測装置が提供される。この3次元位置計測装置は、移動体に設置され、少なくとも1組のカメラ対が共通視野を持つように配置された複数のカメラで撮影された映像を受け付け、共通視野の映像に基づいて移動体の移動量を推定する複眼ステレオ視制御部と、複眼ステレオ視制御部によって推定された移動量にもとづき、映像内の物体の3次元位置を計測する単眼移動ステレオ視制御部とを備える。
3次元位置の計測精度を向上させることが可能になる。
3次元位置計測装置の構成例を示す図である。 3次元位置計測装置の構成例を示す図である。 カメラの配置例を示す図である。 特徴点の検出例を示す図である。 2時刻間での時系列の対応決定を説明するための図である。 映像照合を説明するための図である。 特徴点の新規追加処理を説明するための図である。 ステレオ対応点探索の動作例を示す図である。 3次元位置推定の動作を説明するための図である。 時刻tでのカメラの局所座標系から移動体の基準座標系への変換を説明するための図である。 時刻(t−m)と現時刻tでの移動体の座標関係を説明するための図である。 単眼映像での特徴点に対する距離の算出に関する時系列探索を説明するための図である。 特徴点の追跡状況と使用する時刻間隔の関係を説明するための図である。 時刻(t−m)と時刻tでの単眼カメラの座標系の関係を示す図である。 3次元位置計測装置の構成例を示す図である。 単眼移動ステレオ処理部での追跡結果を複眼ステレオ処理部で利用することを示す図である。 特徴点登録部の動作を示す図である。
以下、本発明の実施の形態を図面を参照して説明する。図1は3次元位置計測装置の構成例を示す図である。3次元位置計測装置1は、移動体に設置された複数のカメラ#1〜#nと、カメラ#1〜#nで撮影された映像から任意の対象物の3次元位置を計測する3次元位置計測部1aとを備える。3次元位置計測部1aは、単眼移動ステレオ視制御部1a−1と複眼ステレオ視制御部1a−2を含む。
ここで、カメラ#1〜#nは、少なくとも1組のカメラ対が共通視野を持つように配置する(図の例ではカメラ#1、#2)。また、複眼ステレオ視制御部1a−2は、共通視野の映像に対して複眼ステレオ視制御により周囲の3次元位置を計測して移動体の移動量を推定する。単眼移動ステレオ視制御部1a−1は、推定した移動量にもとづき、単眼移動ステレオ視制御により対象物の3次元位置を計測する。
次に3次元位置計測装置1の構成について詳しく説明する。図2は3次元位置計測装置の構成例を示す図である。3次元位置計測装置1−1では、単眼移動ステレオ視制御と複眼ステレオ視制御とを並列的に実行する形態を取っている。
3次元位置計測装置1−1は、単眼移動ステレオ処理部10−1〜10−4、複眼ステレオ処理部20−1、20−2、移動量推定処理部30および移動体全体3次元位置推定処理部40を備える。なお、これら構成要素は、図1で示した3次元位置計測部1aの機能に含まれるものである。
また、図1で上述した、単眼移動ステレオ視制御部1a−1は、単眼移動ステレオ処理部10−1〜10−4および移動体全体3次元位置推定処理部40の動作を行い、複眼ステレオ視制御部1a−2は、複眼ステレオ処理部20−1、20−2および移動量推定処理部30の動作を行う。
単眼移動ステレオ処理部10−1〜10−4はそれぞれ、フロー推定部11−1〜11−4および3次元位置推定部12−1〜12−4を有する。複眼ステレオ処理部20−1、20−2はそれぞれ、時系列特徴点対応処理部21−1、21−2、ステレオ対応点探索部22−1、22−2および3次元位置推定部23−1、23−2を有する。
ここで、複眼ステレオ処理部20−1、20−2は、共通視野を持つ2台のカメラごとに、時系列的にその2台のカメラから同時に取得される2枚の画像から、移動体周辺にある同じ物体を特定し、その物体の時系列的な3次元位置を計測する。
移動量推定処理部30は、複眼ステレオ処理部20−1、20−2に接続され、時系列的に得られた移動体周辺にある物体の移動体からの相対的な3次元位置の変化から、移動体の移動量(回転成分、並進成分)を算出する。
単眼移動ステレオ処理部10−1〜10−4は、少なくとも2台以上のカメラの各々について時系列的に取得した2枚以上の映像と、移動量推定処理部30で算出された移動量から、移動体の周辺物体の3次元位置を計測する。
移動体全体3次元位置推定処理部40は、単眼移動ステレオ処理部10−1〜10−4に接続され、少なくとも2台以上のカメラのそれぞれから取得した移動体の周辺物の3次元位置を、所定の基準で選択、統合して、周辺物体の3次元位置を算出し、結果を出力する。
図3はカメラの配置例を示す図である。ここでは、4台のカメラ#1〜#4が具備されるものとする。カメラ#1とカメラ#2、カメラ#2とカメラ#3がそれぞれ互いに共通視野を持つように配置される例を示している。
図2の説明に戻り、各カメラ#1〜#4は映像を出力し、その出力は各々の単眼移動ステレオ処理部10−1〜10−4に入力される。また、共通視野を持つカメラセットについては、2つのカメラごとに映像出力が各々の複眼ステレオ処理部20−1、20−2に入力される(本例では、カメラ#1とカメラ#2、カメラ#2とカメラ#3が該当する)。
複眼ステレオ処理部20−1、20−2は、該当するカメラの共通視野内に対して、時系列間で対応する特徴点を抽出すると共に、それら特徴点についてステレオ処理を行い、周辺物体の3次元位置を計測して、後段の移動量推定処理部30に出力する(複眼ステレオ処理部20−1、20−2内の各構成要素については後述)。
移動量推定処理部30では、複眼ステレオ処理部20−1、20−2で算出した時系列で対応の取れた3次元位置情報を元に、自移動体の移動量(回転成分、並進成分)を算出し、自移動体の移動量を出力する。
一方、単眼移動ステレオ処理部10−1〜10−4において、フロー推定部11−1〜11−4は、入力されたそれぞれのカメラ映像から特徴点を抽出し、前時刻までに追跡を完了している特徴点群と比較して、現時刻で新たに発生した特徴点群を特定する。
そして、新たな特徴点群を前時刻までに追跡を完了している特徴点群に加えた特徴点群全体について、現時刻の入力映像との照合を行うことで、特徴点についてのオプティカルフローを算出し、後段に出力する。
なお、特徴点の各々は過去の複数の時刻でフロー算出を行っているので、現時刻を基準として、過去のNs時刻までの各時刻を開始時刻としたときのフローを保持しているものとする。ただし、遡れる時刻Nsは、特徴点を追跡し始めた時刻までや、追跡をし始めた時刻までとシステムであらかじめ定めた時刻長Nの短い方までのいずれかがあり、遡れる時刻Nsは特徴点ごとに異なる。すなわち、前者では、追跡し始めた時刻までが最長となる。一方、後者では、追跡し始めた時刻がNs以下のときは、その追跡数が最長で、追跡し始めた時刻がN以上のときはNが最長となる。
3次元位置推定部12−1〜12−4では、前段の特徴点のフロー情報と移動量推定処理部30で算出された自移動体の移動量情報とにもとづいて、各特徴点に関して3次元位置を算出する。
移動体全体3次元位置推定処理部40は、各々のカメラに接続された単眼移動ステレオ処理部10−1〜10−4の出力である特徴点の3次元位置を入力として、それら3次元位置を統合/選択して、移動体全体としての3次元位置を算出する。
次に複眼ステレオ処理部20−1、20−2の各構成要素の動作について詳しく説明する。時系列特徴点対応処理部21−1、21−2では、入力される2つの濃淡映像(カメラ映像)のどちらか一方(本例では、カメラ#1とカメラ#2のステレオ組ではカメラ#1の映像を、カメラ#2とカメラ#3のステレオ組では、カメラ#2の映像とする)について、例えばコーナ点のような特徴点を抽出する。
図4は特徴点の検出例を示す図である。入力濃淡映像a1に対し、特徴点として、コーナ点を検出している様子を示している。検出方法としては例えば、Harrisオペレータによるコーナ点検出方法などがある。なお、図中の点線は説明のために示しているもので特徴点とは無関係である。
図5は2時刻間での時系列の対応決定を説明するための図である。前時刻(t−1)の濃淡映像b1と、現時刻tの濃淡映像b2との対応決定の様子を示している。
最初の時刻では、時系列対応を行わず、抽出された特徴点全体が対応付けの対象となる。また、最初以外の時刻では、前時刻(t−1)で求まっている特徴点のそれぞれについて、図に示すように、前時刻(t−1)の濃淡映像b1と現時刻tでの濃淡映像b2とを比較して、同じ箇所を決定する。
図6は映像照合を説明するための図である。前時刻(t−1)の濃淡映像b1と、現時刻tの濃淡映像b2との時系列間における対応探索(映像照合)を示している。前時刻(t−1)でのi番目の特徴点の位置を(xi(t−1),yi(t−1))として、時刻(t−1)での濃淡映像b1の(xi(t−1),yi(t−1))を中心とする一辺の大きさがHの小さな矩形領域Ri(t−1)を設ける。同様に、現時刻tでの濃淡映像b2においても、一辺の大きさが同じHの矩形領域Ri(t)を設ける。
そして、Ri(t)に対して、現時刻tでの濃淡映像b2内を2次元的に走査しながら、Ri(t−1)とRi(t)の2つの領域の濃淡映像の類似性を評価していき、最も類似した箇所を、i番目の特徴点の対応位置として決定する(図6では点線枠内が対応している位置と決定する)。
なお、小領域の濃淡映像の類似性の評価としては、例えばSAD(Sum of Absolute Differences(差の絶対値和))、SSD(Sum of Squared Differences(差の自乗和))、正規化相関など、一般的な映像照合の方式が使用できる。
上記のような操作によって、対応の求まった特徴点は、現時刻tでの対応位置を新たな位置とする特徴点となる。また、特徴点は、追跡できた回数をカウントするものとし、この操作によって対応が求まると追跡回数を1だけ加算する。
図7は特徴点の新規追加処理を説明するための図である。現時刻tの濃淡映像b1に対して、先と同じ方法で特徴点(例えばコーナ点)を検出しておき、現時刻tで対応の求まった特徴点群の位置と比較して、新たに発生した特徴点を特定して、これらを特徴点群に加える新規特徴点の追加処理を行う。
図中に現時刻で検出された特徴点の映像b2−1を示す。なお、新規追加の特徴点の追跡回数は0である。新規特徴点を加えた特徴点群全体を、時系列特徴点対応処理部21−1、21−2の出力とする。
次に複眼ステレオ処理部20−1、20−2内のステレオ対応点探索部22−1、22−2について説明する。図8はステレオ対応点探索の動作例を示す図である。現時刻の一方のカメラ映像b3−1と、現時刻の他方のカメラ映像b3−2との間の映像照合を示している。
ステレオ対応点探索部22−1、22−2では、先の時系列特徴点対応処理部21−1、21−2で求まった特徴点群を対象に、他方カメラの濃淡映像との間でステレオ照合処理(ステレオ間での対応点探索)を実施する。
例えば、カメラ#1とカメラ#2のステレオ組の映像が入力する複眼ステレオ処理部20−1内のステレオ対応点探索部22−1では、カメラ#1の映像の特徴点群を現時刻の一方のカメラ映像b3−1とすれば、カメラ#2の映像側を現時刻の他方のカメラ映像b3−2として、ステレオ照合処理を行う。
また、カメラ#2とカメラ#3のステレオ組の映像が入力する複眼ステレオ処理部20−2内のステレオ対応点探索部22−2では、カメラ#2の映像の特徴点群を現時刻の一方のカメラ映像b3−1とすれば、カメラ#3の映像側を現時刻の他方のカメラ映像b3−2として、ステレオ照合処理を行う。
なお、照合方法は、特徴点を中央にして一定の大きさの小領域を設け、領域内の輝度値の差の絶対値和(SAD)や、輝度差の自乗和(SSD)など、一般的なステレオ対応付け処理が適用できる。照合スコアが閾値以上ならば、照合成功としてその特徴点を残し、閾値未満なら現時刻において追跡に失敗したとして、特徴点を削除する。
次に複眼ステレオ処理部20−1、20−2内の3次元位置推定部23−1、23−2について説明する。図9は3次元位置推定の動作を説明するための図である。一方のカメラ映像b4−1と、他方のカメラ映像b4−2との間での3次元位置推定の様子を示している。ステレオ照合に成功した特徴点は、当該カメラを中心とした座標系での3次元位置を算出する。
ここで、k番目のステレオカメラセットの現時刻tにおける、i番目の特徴点の映像での横縦の座標位置を(uxt k,i,uyt k,i)(各画素位置)とし、カメラの焦点距離をf(画素)、ステレオを形成するカメラのベースライン長をb(mm)とする。さらに、ステレオ対応で求まった視差量をdt k,i(画素)とすると、対応する3次元位置Ut k,i=(UXt k,i,UYt k,i,UYt k,i)は式(1a)〜(1c)で与えられる。
UXt k,i=uxt k,i・dt k,i/b・・・(1a)
UYt k,i=uyt k,i・dt k,i/b・・・(1b)
UZt k,i=f・b/dt k,i ・・・(1c)
次に移動量推定処理部30について説明する。移動量推定処理部30では、複眼ステレオ処理部20−1、20−2から得られた特徴点の3次元位置情報を用いて、現時刻tを基準として、過去時刻(t−m)(ただし、mは1、2、3、・・・、Nで、Nはシステムで定義する最大時間である)とのそれぞれの間での移動体の移動量を推定する。
図10は時刻tでのカメラの局所座標系から移動体の基準座標系への変換を説明するための図である。ここで、k番目の複眼ステレオ処理部のi番目の特徴点について、現時刻tでの3次元位置をUt k,i=(UXt k,i,UYt k,i,UZt k,i)、過去時刻(t−m)での3次元位置をU(t-m) k,i=(UX(t-m) k,i,UY(t-m) k,i,UZ(t-m) k,i)とする。
これら3次元座標は、k番目のカメラについての局所的な座標系で表記されているので、これを移動体に付する基準となる座標系に移すことになる。
時刻tでの3次元位置Ut k,iを時刻tでの基準座標系Xw(t)に移した座標をPt k,i、時刻(t−m)での3次元位置U(t-m) k,iを時刻(t−m)での基準座標系Xw(t-m)に移した座標をP(t-m) k,iとする。
このとき、k番目のカメラへの座標変換パラメータRk,Tk(Rkは回転行列を、Tkは並進移動ベクトルを表し、xc(t)=Rk・(Xw(t)−Tk))を使って、以下の式(2a)、(2b)のように表される。
Figure 2011112507
図11は時刻(t−m)と現時刻tでの移動体の座標関係を説明するための図である。時刻(t−m)から現時刻tでの移動体の並進成分(Txm,Tym)は、以下の拘束式を満足する。
(Txm−PXt k,i2+(Tym−PYt k,i2=(PX(t-m) k,i2+(PY(t-m) k,i2・・・(3)
つまり、(Txm,Tym)は、中心(PXt k,i,PYt k,i)で半径((PX(t-m) k,i2+(PY(t-m) k,i21/2の円上の点が解となる。これは、3次元点が1点だと無数に解が存在することになる。
理論的には、3点の対応点を用いれば、3つの円が1点で重なり、一意に(Txm,Tym)を定めることができる。実際には、観測される3次元位置は誤差を含んでいるので、全てのステレオカメラセットの全ての特徴点について、(Tx,Ty)空間に上記の円の位置に投票を行い、(Tx,Ty)投票空間でピークを与えるTx,Tyを定めることで、全ての特徴点について尤もらしい並進成分(Txm,Tym)が求まる。並進成分が求まれば、i番目の3次元特徴点に対応する回転成分(回転角)(am i)が以下の式(4)で求まる。
Figure 2011112507
また、全ての3次元特徴点について、先に算出した回転角(am i)の平均を求め、尤もらしい回転角amを以下の式(5)のように定める。この演算をm=1、2、3、・・・、Nの各時刻間で行う。
Figure 2011112507
次に単眼移動ステレオ処理部10−1〜10−4の各構成要素の動作について詳しく説明する。フロー推定部11−1〜11−4では、入力される濃淡映像について、例えばコーナ点のような特徴点を抽出する。コーナ点検出としては、例えばHarrisオペレータによるコーナ点検出方法がある。
最初の時刻での処理では、抽出されたコーナ点全体が特徴点となり、追跡回数は0となる。最初以外の時刻では、まず、前時刻までに求まっている特徴点群の各位置に対して、前時刻の濃淡映像と現時刻の濃淡映像との間で映像照合処理を実施する。
照合方法は、特徴点を中央にして一定の大きさの小領域を設け、領域内の輝度値の差の絶対値和(SAD)や、輝度差の自乗和(SSD)など、一般的な映像間の対応付け処理が適用できる。
そして、照合スコアが閾値以上ならば、照合成功としてその特徴点を残し、閾値未満なら現時刻において追跡に失敗したとして、特徴点を削除する。さらに、照合に成功した特徴点群と、現時刻で求めたコーナ点などの特徴点群とを比較して、新たに発生した特徴点を特定して、これらを前時刻までに対応が求まっている特徴点群に加えた特徴点群全体を定める。ただし、新たに発生した特徴点の追跡数は0である。これらの動作は、先の複眼ステレオ処理部で説明した内容とほぼ同じである。
なお、単眼移動ステレオ視制御と複眼ステレオ視制御とで行う、映像内の同じ物体からの投影像を時系列的に対応付けて追跡する処理は、上述のように、単眼移動ステレオ視制御と複眼ステレオ視制御とで各々独立して行うものである。これにより、並列動作を実行することとなり処理効率を高めることが可能になる。
次に単眼移動ステレオ処理部10−1〜10−4内の3次元位置推定部12−1〜12−4について説明する。3次元位置推定部12−1〜12−4は、現時刻までの時系列的なフローが求まった特徴点に対して、複眼ステレオ処理部20−1、20−2によって現時刻tと過去時刻(t−m)との間で求まった自移動体の移動量情報(回転成分、並進成分)を使って、特徴点の3次元位置を定める。
図12は単眼映像での特徴点に対する距離の算出に関する時系列探索を説明するための図である。図12では、最大過去時刻(t−N)から現時刻tの順に調べていき、追跡が行えており、かつ距離が定まっていない最大の過去時刻間で3次元位置を算出する様子を示している。
具体的なステップとしては、最も過去の時刻m=N(Nはシステムで決めた最大時刻)から順に現時刻に近付く順番にmを順次変えていく(m=N、N−1、N−2、・・・、1の順)。
そして、その過去時刻と現時刻との間で追跡が行えており、かつmの走査によって3次元位置が定まっていない特徴点群を対象に、3次元位置を定める操作を繰り返す。このように、時間的にできるだけ離れた時刻間での特徴点を用いることで、距離精度を決定する自移動体の移動量をできるだけ大きくし、距離の精度を向上させる。
ただし、ある過去時刻(t−m*)(N≦m*<1)で3次元位置が求まった特徴点は、それ以降の過去時刻(t−mp)(mp<m*)でも追跡が行えているので、3次元位置を定めることが可能である。
この場合、時刻m*とそれ以降の時刻mp(1<mp<m*)の追跡ができている時刻間で求められる全ての3次元位置を使って、例えば平均値のように、その特徴点の尤もらしい3次元位置を定めることもできる。また、ある特徴点に着目して既に3次元位置が定まっている場合には、それ以降の時刻間では3次元位置を算出しないこともできる。後者は、最も過去の時刻との間とだけで3次元位置を定めることを意味する。
図13は特徴点の追跡状況と使用する時刻間隔の関係を説明するための図である。特徴点Aは、過去時刻(t−4)から現時刻tまで時系列的な対応が求まっており、この場合は時刻(t−4)と時刻tとの間の移動量を用いて3次元位置を算出する。
一方、特徴点Bは、過去時刻(t−2)からしか追跡が行えていないので、特徴点Bについては、時刻(t−2)と時刻tとの間の移動量を用いて3次元位置を算出する。このように、特徴点ごとに異なる最大の追跡量を使って3次元位置を算出する。
次に過去時刻(t−m)の場合について、具体的な操作について説明する。図14は時刻(t−m)と時刻tでの単眼カメラの座標系の関係を示す図である。k番目のカメラのi番目の特徴点について、時刻(t−m)での映像特徴点の位置をn(t-m) k,i=(nx(t-m) k,i,ny(t-m) k,i,nz(t-m) k,i)、時刻tでの映像特徴点の位置をn(t) k,i=(nx(t) k,i,ny(t) k,i,nz(t) k,i)とする。
また、k番目のカメラについての移動体上に設けた基準座標系Xw(t)からカメラ座標系xc(t)への変換パラメータをRk、Tk(Rkは回転行列を、Tkは並進移動ベクトルを表し、xc(t)=Rk・(Xw(t)−Tk))とし、時刻(t−m)での移動体の基準座標系Xw(t-m)から、時刻tでの基準座標系Xw(t)への変換パラメータをRtm、Ttm(Rtmは回転行列を、Ttmは並進移動ベクトルを表し、Xwt=Rtm・(Xw(t-m)−Ttm))とする。
このとき、回転行列Rtmは、式(6)となり、並進移動ベクトルTtmは、式(7)となる。
Figure 2011112507
Figure 2011112507
ここで、以下の式(8)、(9)による変換を導入する。
Figure 2011112507
Figure 2011112507
さらに、時刻tでの映像特徴点の位置n(t) k,iをRvmを用いて、以下の式(10)のように変換する。
Figure 2011112507
このとき、時刻tでのカメラ座標系でのi番目の特徴点の距離l(t) k,iは以下の式(11)で与えられる。
Figure 2011112507
したがって、i番目の特徴点のk番目のカメラ座標系での3次元位置Q(t) k,iは以下の式(12)となる。
Figure 2011112507
次に移動体全体3次元位置推定処理部40について説明する。移動体全体3次元位置推定処理部40では、各カメラ映像から単眼移動ステレオ処理部10−1〜10−4で得られた特徴点の3次元位置Q(t) k,iについて、時刻tでの移動体に取った基準座標系Xw(t)に座標変換し、全てのカメラからの特徴点の3次元位置の座標軸を合わせる。
具体的には、移動体の基準座標系Xw(t)からk番目のカメラの座標系への変換パラメータをRk、Tk(Rkは回転行列を、Tkは並進移動ベクトルを表す)とするとき、k番目のカメラのi番目の特徴点のカメラ座標系での3次元位置Q(t) k,iは、以下の変換式(13)によって、移動体基準座標系Xw(t)での3次元位置S(t) k,i に移される。
(t) k,i=RkT・Q(t) k,i+Tk・・・(13)
特にカメラ間の共通視野に含まれる特徴点は、それぞれのカメラで特徴位置と3次元位置が求まっているので、重複する3次元位置については、いずれか一方のカメラの特徴点位置で代表させる(選択)、あるいは複数のカメラでの特徴点の3次元位置の平均を取る(統合)など任意の処理を行うことができる。
次に3次元位置計測装置1−1の変形例について説明する。図15は3次元位置計測装置の構成例を示す図である。3次元位置計測装置1−2は、単眼移動ステレオ処理部10−1〜10−4、複眼ステレオ処理部20a−1、20a−2、移動量推定処理部30および移動体全体3次元位置推定処理部40を備える。
単眼移動ステレオ処理部10−1〜10−4はそれぞれ、フロー推定部11−1〜11−4および3次元位置推定部12−1〜12−4を含む。複眼ステレオ処理部20a−1、20a−2はそれぞれ、特徴点登録部21a−1、21a−2、ステレオ対応点探索部22−1、22−2および3次元位置推定部23−1、23−2を含む。
なお、3次元位置計測装置1−2は、図2で示した構成を元に、複眼ステレオ処理部の時系列特徴点対応処理部21−1、21−2に代わって、特徴点登録部21a−1、21a−2を設けている。また、この入力として、複眼ステレオ処理部に接続される2つのカメラのうち一方のカメラの映像を処理する単眼移動ステレオ処理部でのフロー推定部11−1、11−2で処理された2時刻間の特徴点の追跡結果を入力することを特徴としている。
図16は単眼移動ステレオ処理部10−1〜10−4での追跡結果を複眼ステレオ処理部20a−1、20a−2で利用することを示す図である。3次元位置計測装置1−2は、単眼移動ステレオ処理部10−1〜10−4でなされる時系列での特徴点の対応付け(追跡)結果を、複眼ステレオ処理部20a−1、20a−2で直接使用する。
すなわち、単眼移動ステレオ処理では、時系列的に同じ物体からの投影像を対応付けて追跡した結果である、過去時刻と対応の取れた映像上の位置座標群を求め、複眼ステレオ処理では、位置座標群についてステレオ対応付け処理で3次元位置を計測する。
これにより、図2の3次元位置計測装置1−1で行っていた複眼ステレオ処理部での特徴点の時系列対応付けの処理を省き、処理の効率化を図ることが可能になる。なお、その他の構成については、図2の3次元位置計測装置1−1と同じなので説明を省略する。
次に特徴点登録部21a−1、21a−2について説明する。図17は特徴点登録部21a−1、21a−2の動作を示す図である。特徴点登録部21a−1、21a−2では、単眼移動ステレオ処理部10−1、10−2のフロー推定部11−1、11−2で決定された、時刻tで時系列の対応が求まった特徴点と、時刻tで新たに加えられた特徴点とについて、ステレオ照合を行うための映像上に特徴点位置を配置する処理を行う。
ここで上記の「配置」とは、単眼移動ステレオ処理部10−1、10−2では、時系列での照合がやりやすいように独自の映像形状に形状変換してから特徴を抽出して時系列照合を行う場合や、複眼ステレオ処理部20a−1、20a−2でも、ステレオ照合がやりやすいように独自の映像形状に形状変換してから処理する場合などがある。このように、単眼移動ステレオ処理部10−1、10−2で算出される特徴位置と、複眼ステレオ処理部20a−1、20a−2で必要とする特徴位置とが一致しない場合に備えての処置である。
すなわち、特徴点登録部21a−1、21a−2は、フロー推定部11−1、11−2で決定された特徴位置を複眼ステレオ処理部20a−1、20a−2のステレオ照合に必要な特徴位置に変換する機能を実現するためのものである。
仮に、単眼移動ステレオ処理部10−1、10−2での映像形状と、複眼ステレオ処理部20a−1、20a−2での映像形状とが一致する場合は、特徴点登録部21a−1、21a−2は特別な処理を必要としない。よって、単純に単眼移動ステレオ処理部10−1、10−2で得られた時刻tでの時系列的な対応が求まった特徴位置をそのまま使用するだけである。
以上説明したように、本発明によれば、共通視野での複眼ステレオ視で求まった外界の3次元位置情報を元に移動体の移動情報(回転成分と並進成分)を計測することができるので、従来の単眼移動ステレオで問題であったスケールファクタ未知の問題を解決し、単眼移動ステレオによって外界物体の完全な3次元位置を計測することができる。
また、このとき、移動体の移動情報は、既に搭載されているカメラを使って獲得するので、特別な外部センサーを用いる必要がない。また、カメラの映像から移動情報を算出するため、撮影間隔と完全に同期した移動情報を獲得することができる。
さらに、単眼移動ステレオによる3次元位置計測では、映像内の特徴点を時系列的に追跡することで3次元位置を計測するが、時間的に近接した映像間では映像の変化は小さく視線方向の変化も少ないため、映像中の多くの特徴点について時系列の追跡が容易にできる。この追跡を移動体の移動に伴い、適切な回数だけ繰り返すことで、カメラから物体までの距離に寄らず、空間的に密に精度の高い3次元位置を計測することが可能となる。
つまり、カメラからの距離が近い外界物体は、時系列での映像上の移動量が大きく、このような近い物体には短い時間間隔(すなわち短い移動ベースライン長)で特徴点の時系列的な移動量(視差)を算出して3次元位置を計測する。
また、カメラからの距離が遠い外界物体は、時系列での映像上の移動量が小さいため、長い時間間隔(すなわち長い移動ベースライン長)で映像上での特徴点の移動量を確保し、遠方物体の3次元位置を精度良く計測する。
このように、対象の距離に応じたマルチベースライン方式を適用することになるので、カメラから物体までの距離に寄らず、高精度に周辺物体の3次元位置を計測することが可能となる。
なお、このことは、複眼ステレオ視が持っている固定ベースライン長に起因する問題(対象との距離の関係による物体の3次元位置の計測可能性と計測精度の不均一性との問題)を回避することになる。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、3次元位置計測装置1が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。
コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM/RWなどがある。光磁気記録媒体には、MO(Magneto-Optical disc)などがある。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現することもできる。
なお、3次元位置計測装置1が適用される製品としては、例えば、車両の前後左右や、後と横など一部分などに取り付けた死角補助カメラで、車両周囲の物体の3次元位置を計測し、立体感のある俯瞰表示を行う表示装置などに適用可能である。または、周囲の衝突可能性のある物体を検出して運転者に知らせる安全支援システムなどにも幅広く適用可能である。
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。さらに、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。
(付記1) 移動体に設置され、少なくとも1組のカメラ対が共通視野を持つように配置された複数のカメラで撮影された映像を受け付け、前記共通視野の映像に基づいて前記移動体の移動量を推定する複眼ステレオ視制御部と、
前記複眼ステレオ視制御部によって推定された前記移動量にもとづき、前記映像内の物体の3次元位置を計測する単眼移動ステレオ視制御部と、
を有することを特徴とする3次元位置計測装置。
(付記2) 前記単眼移動ステレオ視制御部と前記複眼ステレオ視制御部とで行う、前記映像内の物体からの投影像を時系列的に対応付けて追跡する処理を、各々独立して行うことを特徴とする付記1記載の3次元位置計測装置。
(付記3) 前記単眼移動ステレオ視制御部は、時系列的に同じ物体からの投影像を対応付けて追跡した結果である、過去時刻と対応の取れた映像上の位置座標群を求め、前記複眼ステレオ視制御部では、前記求められた位置座標群について任意の対象物の3次元位置を計測することにより前記移動体の移動量を推定することを特徴とする付記1記載の3次元位置計測装置。
(付記4) 前記複眼ステレオ視制御部は、前記複眼ステレオ視制御部が特定した特徴点の3次元位置情報を用いて、現時刻tを基準として、過去時刻(t−m)(mは1、2、3、・・・、Nで、Nはシステムで定義する最大時間)の時刻とのそれぞれの間での前記移動体の前記移動量を推定し、
前記単眼移動ステレオ視制御部は、現時刻までの時系列的なフローが求まった前記特徴点に対して、最も過去の時刻m=Nから順に現時刻に近付く順番に、mを順次変えていきながら(m=N、N−1、N−2、・・・1の順)、過去時刻と現時刻との間で追跡が行えており、かつmの走査によって3次元位置が定まっていない特徴点群を対象に、3次元位置を定める操作を繰り返し、最も過去の時刻との間とだけで3次元位置を定める、
ことを特徴とする付記1記載の3次元位置計測装置。
(付記5) 3次元位置計測方法において、
移動体に少なくとも1組のカメラ対が共通視野を持つように配置された複数のカメラで撮影された映像の、
前記共通視野の映像に基づき、前記移動体の周囲の任意の対象物の3次元位置を計測して前記移動体の移動量を推定し、推定した前記移動量にもとづき、前記対象物の3次元位置を計測する、
ことを特徴とする3次元位置計測方法。
(付記6) 任意の対象物の3次元位置の計測制御をコンピュータに実行させる3次元位置計測プログラムにおいて、
前記コンピュータに、
移動体に少なくとも1組のカメラ対が共通視野を持つように配置された複数のカメラで撮影された映像の、前記共通視野の映像に基づいて前記移動体の周囲の任意の対象物の3次元位置を計測して前記移動体の移動量を推定し、
推定した前記移動量にもとづき、前記対象物の3次元位置を計測する、
処理を実行させることを特徴とする3次元位置計測プログラム。
(付記7) 移動体に設置され、少なくとも1組のカメラ対が共通視野を持つように配置された複数のカメラと、
前記カメラで撮影された映像を受け付け、前記共通視野の映像に基づいて前記移動体の移動量を推定する複眼ステレオ視制御部と、
複眼ステレオ視制御部によって推定された前記移動量にもとづき、前記映像内の物体の3次元位置を計測する単眼移動ステレオ視制御部と、
を有することを特徴とする3次元位置計測装置。
1 3次元位置計測装置
#1〜#n カメラ
1a 3次元位置計測部
1a−1 単眼移動ステレオ視制御部
1a−2 複眼ステレオ視制御部

Claims (6)

  1. 移動体に設置され、少なくとも1組のカメラ対が共通視野を持つように配置された複数のカメラで撮影された映像を受け付け、前記共通視野の映像に基づいて前記移動体の移動量を推定する複眼ステレオ視制御部と、
    前記複眼ステレオ視制御部によって推定された前記移動量にもとづき、前記映像内の物体の3次元位置を計測する単眼移動ステレオ視制御部と、
    を有することを特徴とする3次元位置計測装置。
  2. 前記単眼移動ステレオ視制御部と前記複眼ステレオ視制御部とで行う、前記映像内の物体からの投影像を時系列的に対応付けて追跡する処理を、各々独立して行うことを特徴とする請求項1記載の3次元位置計測装置。
  3. 前記単眼移動ステレオ視制御部は、時系列的に同じ物体からの投影像を対応付けて追跡した結果である、過去時刻と対応の取れた映像上の位置座標群を求め、前記複眼ステレオ視制御部では、前記求められた位置座標群について任意の対象物の3次元位置を計測することにより前記移動体の移動量を推定することを特徴とする請求項1記載の3次元位置計測装置。
  4. 前記複眼ステレオ視制御部は、前記複眼ステレオ視制御部が特定した特徴点の3次元位置情報を用いて、現時刻tを基準として、過去時刻(t−m)(mは1、2、3、・・・、Nで、Nはシステムで定義する最大時間)の時刻とのそれぞれの間での前記移動体の前記移動量を推定し、
    前記単眼移動ステレオ視制御部は、現時刻までの時系列的なフローが求まった前記特徴点に対して、最も過去の時刻m=Nから順に現時刻に近付く順番に、mを順次変えていきながら(m=N、N−1、N−2、・・・1の順)、過去時刻と現時刻との間で追跡が行えており、かつmの走査によって3次元位置が定まっていない特徴点群を対象に、3次元位置を定める操作を繰り返し、最も過去の時刻との間とだけで3次元位置を定める、
    ことを特徴とする請求項1記載の3次元位置計測装置。
  5. 3次元位置計測方法において、
    移動体に少なくとも1組のカメラ対が共通視野を持つように配置された複数のカメラで撮影された映像の、
    前記共通視野の映像に基づき、前記移動体の周囲の任意の対象物の3次元位置を計測して前記移動体の移動量を推定し、推定した前記移動量にもとづき、前記対象物の3次元位置を計測する、
    ことを特徴とする3次元位置計測方法。
  6. 移動体に設置され、少なくとも1組のカメラ対が共通視野を持つように配置された複数のカメラと、
    前記カメラで撮影された映像を受け付け、前記共通視野の映像に基づいて前記移動体の移動量を推定する複眼ステレオ視制御部と、
    複眼ステレオ視制御部によって推定された前記移動量にもとづき、前記映像内の物体の3次元位置を計測する単眼移動ステレオ視制御部と、
    を有することを特徴とする3次元位置計測装置。
JP2009269164A 2009-11-26 2009-11-26 3次元位置計測装置および3次元位置計測方法 Expired - Fee Related JP5445069B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009269164A JP5445069B2 (ja) 2009-11-26 2009-11-26 3次元位置計測装置および3次元位置計測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009269164A JP5445069B2 (ja) 2009-11-26 2009-11-26 3次元位置計測装置および3次元位置計測方法

Publications (2)

Publication Number Publication Date
JP2011112507A true JP2011112507A (ja) 2011-06-09
JP5445069B2 JP5445069B2 (ja) 2014-03-19

Family

ID=44234949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009269164A Expired - Fee Related JP5445069B2 (ja) 2009-11-26 2009-11-26 3次元位置計測装置および3次元位置計測方法

Country Status (1)

Country Link
JP (1) JP5445069B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106092A (ja) * 2012-11-27 2014-06-09 Fujitsu Ltd 3次元位置計測装置、3次元位置計測方法および3次元位置計測プログラム
JP2014142241A (ja) * 2013-01-23 2014-08-07 Denso Corp 3次元位置推定装置、車両制御装置、および3次元位置推定方法
KR101544021B1 (ko) * 2012-10-29 2015-08-13 경북대학교 산학협력단 3차원 지도 생성 장치 및 3차원 지도 생성 방법
JP2015154240A (ja) * 2014-02-14 2015-08-24 国立大学法人 東京大学 建設機械用俯瞰画像表示装置
JP2016142577A (ja) * 2015-01-30 2016-08-08 株式会社リコー 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP2017517727A (ja) * 2014-05-27 2017-06-29 アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド 三次元情報の規模測定

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012946A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 動画像処理装置及び方法
JP2007183256A (ja) * 2005-12-08 2007-07-19 Topcon Corp 画像処理装置及びその方法
JP2007263657A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP2007263669A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP2008015815A (ja) * 2006-07-06 2008-01-24 Nikon Corp 画像処理装置、および画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012946A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 動画像処理装置及び方法
JP2007183256A (ja) * 2005-12-08 2007-07-19 Topcon Corp 画像処理装置及びその方法
JP2007263657A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP2007263669A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
JP2008015815A (ja) * 2006-07-06 2008-01-24 Nikon Corp 画像処理装置、および画像処理プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101544021B1 (ko) * 2012-10-29 2015-08-13 경북대학교 산학협력단 3차원 지도 생성 장치 및 3차원 지도 생성 방법
JP2014106092A (ja) * 2012-11-27 2014-06-09 Fujitsu Ltd 3次元位置計測装置、3次元位置計測方法および3次元位置計測プログラム
JP2014142241A (ja) * 2013-01-23 2014-08-07 Denso Corp 3次元位置推定装置、車両制御装置、および3次元位置推定方法
JP2015154240A (ja) * 2014-02-14 2015-08-24 国立大学法人 東京大学 建設機械用俯瞰画像表示装置
JP2017517727A (ja) * 2014-05-27 2017-06-29 アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド 三次元情報の規模測定
US10192141B2 (en) 2014-05-27 2019-01-29 Application Solutions (Electronics and Vision) Ltd. Determining scale of three dimensional information
JP2016142577A (ja) * 2015-01-30 2016-08-08 株式会社リコー 画像処理装置、画像処理方法、画像処理システム、及びプログラム

Also Published As

Publication number Publication date
JP5445069B2 (ja) 2014-03-19

Similar Documents

Publication Publication Date Title
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10061993B2 (en) Warning method of obstacles and device of obstacles
EP2824417B1 (en) Distance calculation device and distance calculation method
US11132810B2 (en) Three-dimensional measurement apparatus
JP5445069B2 (ja) 3次元位置計測装置および3次元位置計測方法
US20190311485A1 (en) Method for Evaluating Image Data of a Vehicle Camera
US7599548B2 (en) Image processing apparatus and image processing method
KR101544021B1 (ko) 3차원 지도 생성 장치 및 3차원 지도 생성 방법
KR20150144729A (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR20150144730A (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP2011008687A (ja) 画像処理装置
CN111047634B (zh) 场景深度的确定方法、装置、设备及存储介质
JP2019190974A (ja) キャリブレーション装置、キャリブレーション方法、及びプログラム
JP5439277B2 (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
JP6396499B2 (ja) 三次元情報の規模測定
JP2016152027A (ja) 画像処理装置、画像処理方法およびプログラム
US10110822B2 (en) Method for tracking at least one object and method for replacing at least one object by a virtual object in a moving image signal recorded by a camera
CN111971956B (zh) 用于动态立体校准的方法及系统
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
CN104471436B (zh) 用于计算对象的成像比例的变化的方法和设备
JP2559939B2 (ja) 3次元情報入力装置
JPH0814861A (ja) 3次元形状の計測方法及び装置
KR101791166B1 (ko) 오브젝트의 공간 정보 추정 장치 및 방법
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
JP6154759B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees