JP5992184B2 - 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム - Google Patents

画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム Download PDF

Info

Publication number
JP5992184B2
JP5992184B2 JP2012053645A JP2012053645A JP5992184B2 JP 5992184 B2 JP5992184 B2 JP 5992184B2 JP 2012053645 A JP2012053645 A JP 2012053645A JP 2012053645 A JP2012053645 A JP 2012053645A JP 5992184 B2 JP5992184 B2 JP 5992184B2
Authority
JP
Japan
Prior art keywords
cameras
camera
image data
data
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012053645A
Other languages
English (en)
Other versions
JP2013187862A (ja
Inventor
哲治 穴井
哲治 穴井
暢之 深谷
暢之 深谷
高地 伸夫
伸夫 高地
大谷 仁志
仁志 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2012053645A priority Critical patent/JP5992184B2/ja
Publication of JP2013187862A publication Critical patent/JP2013187862A/ja
Application granted granted Critical
Publication of JP5992184B2 publication Critical patent/JP5992184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のカメラから得た画像データを統合的に取り扱う技術に関する。
写真測量の原理を用いて、カメラの位置の検出を行う技術が知られている(例えば、特許文献1参照)。また、移動する車両上から複数のカメラにより撮影を行い、異なる複数のカメラから得た画像データを統合的に扱う技術が特許文献2に記載されている。
特開2007−171048号公報 特開2007−142517号公報
例えば、車両に複数のカメラを搭載し、この複数のカメラから撮影を行う場合、カメラの設置場所、カメラが受ける振動、機器そのものの性能や規格の違い、外乱(電子ノイズ等)といった要因により、各カメラから得た画像データの精度に違いがある場合がある。この場合、単に各画像データに基づく算出値を統合したのでは、低精度の画像データの影響で統合したデータの精度が低下する。
このような背景において、本発明は、複数のカメラから得た撮影対象の特徴点および各カメラの外部標定要素を統合して取り扱う技術において、低精度の画像データの影響を抑えることができる技術の提供を目的とする。
請求項1に記載の発明は、複数のカメラからの画像データを受け付ける画像データ受け付け部と、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、前記複数のカメラそれぞれの精度を反映した重みを前記複数のカメラのそれぞれに設定する重み設定部と、前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラそれぞれの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部とを備え、前記複数のカメラが車両に搭載されており、前記画像データ受け付け部が受け付けた画像データに基づき、前記車両の位置および前記車両の速度の少なくとも一方の算出が行われることを特徴とする画像データ処理装置である。請求項2に記載の発明は、複数のカメラからの画像データを受け付ける画像データ受け付け部と、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、前記複数のカメラそれぞれの精度を反映した重みを前記複数のカメラのそれぞれに設定する重み設定部と、前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラそれぞれの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部とを備え、前記データの統合において、前記複数のカメラが撮影した動画を構成するフレーム画像上における前記特徴点に対する線形化された共線条件式を立てるステップと、前記線形化された共線条件式に各カメラに設定された前記重みを付けるステップと、前記重みが付けられた前記共線条件式から前記平均値の算出を行うステップとが行われることを特徴とする画像データ処理装置である。請求項3に記載の発明は、複数のカメラからの画像データを受け付ける画像データ受け付け部と、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、前記複数のカメラそれぞれの精度を反映した重みを前記複数のカメラのそれぞれに設定する重み設定部と、前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラそれぞれの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部と、前記複数のカメラの中の特定のカメラの重みを推定する重み推定部とを備え、前記重み推定部は、前記特定のカメラに仮の精度を与えるステップと、前記特定のカメラが撮影した画像に基づいて、前記仮の精度を反映した前記特定のカメラの位置の算出値の分布を第1の分布として求めるステップと、計測精度が判明している位置計測手段に基づく、当該判明している計測精度を反映した前記特定のカメラの位置の算出値の分布を第2の分布として求めるステップと、前記第1の分布と前記第2の分布の差が特定の条件を満たす場合の前記仮の精度に基づき、前記特定のカメラの重みを推定するステップとを実行することを特徴とする画像データ処理装置である。
上記の発明によれば、複数のカメラが撮影した画像から、撮影対象物の特徴点の3次元座標および当該カメラの外部標定要素が算出され、その値が統合座標上で統合的に扱われる。この際、各カメラの精度に応じて各カメラ由来のデータに重みが与えられ、この重みを考慮した平均値の算出が行われる。これにより、高精度の画像データの寄与を大きく、また低精度の画像データの寄与を小さくした状態で統合値が算出される。上記の発明におけるステレオペア画像は、動画を構成する複数のフレーム画像から得たものであってもよいし、ステレオ画像の撮影が可能な専用カメラ、あるいは複数のカメラを用いて得たものであってもよい。
請求項3に記載の発明によれば、精度が判明している機器が計測した位置情報の確かさの程度を位置の算出値の分布として評価し、それを仮の精度を与えたカメラに基づく位置の算出値の分布と比較することで、当該カメラに与えられる適正な精度を推定する。この処理では、当該カメラに与えられる仮の精度が適正でない(つまり、実体と相違が大きい)場合、第1の分布と第2の分布が特定の条件から外れる傾向が大となり、逆に、該カメラに与えられる仮の精度が適正(つまり、実体に近い)場合、第1の分布と第2の分布が特定の条件を満たす傾向が大となることを利用している。
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記データ統合部は、カメラ以外の計測装置から得られた前記複数のカメラが配置された土台となる部分の位置および姿勢の少なくとも一方のデータの統合も行うことを特徴とする。請求項4に記載の発明によれば、加速度計、傾斜計、GPS装置といった外部標定要素の一部のデータを取得可能な機器から得られるデータも統合データに含めることができる。
請求項に記載の発明は、複数のカメラからの画像データを受け付ける画像データ受け付けステップと、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出ステップと、前記複数のカメラの位置および姿勢を算出する位置姿勢算出ステップと、前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出ステップにおいて算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換ステップと、前記複数のカメラそれぞれの精度を反映した重みを設定する重み設定ステップと、前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合ステップとを備え前記複数のカメラが車両に搭載されており、前記画像データ受け付けステップで受け付けた画像データに基づき、前記車両の位置および前記車両の速度の少なくとも一方の算出が行われることを特徴とする画像データ処理方法である。
請求項に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを複数のカメラからの画像データを受け付ける画像データ受け付け部と、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、前記複数のカメラそれぞれの精度を反映した重みを設定する重み設定部と、前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部として動作させ、前記複数のカメラが車両に搭載されており、前記画像データ受け付け部で受け付けた画像データに基づき、前記車両の位置および前記車両の速度の少なくとも一方の算出が行われることを特徴とする画像データ処理用のプログラムである。
本発明によれば、複数のカメラから得た撮影対象の特徴点および各カメラの外部標定要素を統合して取り扱う技術において、低精度の画像データの影響を抑えることができる技術が提供される。
実施形態のブロック図である。 実施形態の画像データ処理装置のブロック図である。 実施形態の動作の一例を示すフローチャートである。 テンプレートマッチングの原理を説明する説明図である。 時間差を置いて異なる位置から2つのフレーム画像を得る様子を示すイメージ図である。 前方交会法を説明する説明図である。 後方交会法を説明する説明図である。 相互標定を説明する説明図である。 実施形態の動作の一例を示すフローチャートである。
1.第1の実施形態
(全体の構成)
図1には、移動体の一例である車両100が示されている。車両100は、例えば乗用車である。移動体は、車両に限定されず、動くものであれば、工事用車両や重機、航空機、船舶等であってもよい。図1において、図の上の方向が車両100の前方である。車両100は、画像データ処理装置200を備えている。車両100は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)、加速度計106、傾斜計107、GPS装置108、レーザースキャナ109を備えている。これらの機器は、画像データ処理装置200に接続されている。
前方監視用カメラ101は、車両100の前方を監視するためのカメラであり、車両100の前方を動画撮影する。前方監視用カメラ101で撮影した動画像は、障害物の検出や車両100と衝突する可能性がある物体の検出等に用いられる。前方監視用カメラ101が撮影した動画像の動画データは、上述した障害物の検出処理等を行う図示省略した機能部に送られると共に、画像データ処理装置200に送られる。速度検出用カメラ102は、例えば車両100前方の路面を動画撮影する。この動画像の動画データは、図示省略した速度演算部において画像処理され、車両100の速度の算出が行われる。この例では、速度検出用カメラ102が撮影した動画像の動画データは、上記の速度演算部に送られるのと同時に画像データ処理装置200に送られる。
景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)は、車両100の周囲の景観を動画撮影し、その画像データを画像データ処理装置200に送る。なお、撮影の対象となる景観の内容は、車両100から見えるものであれば、特には限定されない。また、各カメラの撮影範囲(視野)は重なっていてもよいし、重なっていなくてもよい。
加速度計106は、車両100に加わる加速度を計測し、その計測データを画像データ処理装置200に送る。傾斜計107は、車両100の傾斜を計測し、その計測データを画像データ処理装置200に送る。GPS装置108は、複数の人工衛星から送られて来る信号に基づき、位置を算出する装置であり、一般的なGlobal Positioning Systemを用いるGPS受信機である。位置情報を得る手段としては、GPS以外に、路面上の標識、路面上や道路上に設けられた光学ビーコンや電波ビーコン等から位置情報を得る手段を挙げることができる。
レーザースキャナ109は、測定対象物にレーザー光を照射し、その反射光を受光することで、レーザースキャナの設置位置(視点)から測定点までの距離、方位、仰角(または俯角)の情報を取得し、これらの情報に基づき、測定点の三次元位置座標に係る情報を算出する機能を有する。また、レーザースキャナは、測定点からの反射光の強度、色、色相、彩度等に関する情報を取得する。レーザースキャナはこれらの情報に基づき、測定対象物の三次元座標値を含む3次元点群位置データを算出する。レーザースキャナ109が取得した測定対象物の3次元点群位置データは、画像データ処理装置200に送られる。
(画像データ処理装置)
以下、画像データ処理装置200について説明する。図2には、画像データ処理装置200のブロック図が示されている。画像データ処理装置200は、CPU、メモリやハードディス装置等の記憶装置、各種のインターフェースを備えたコンピュータにより構成されており、以下に示す機能部を有している。なお、以下に示す機能部は、ソフトウェア的に構成されるものに限定されず、その少なくとも一部が専用のハードウェアにより構成されていてもよい。また、通常のコンピュータを用いて画像データ処理装置200を構成することも可能である。
画像データ処理装置200は、動画像データ取得部201、位置・姿勢データ取得部202、3次元点群位置データ取得部203、特徴点座標算出部204、位置姿勢算出部205、座標変換部206、重み係数付与部207、データ統合部208および重み係数算出部209を備えている。動画像データ取得部201は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)が撮影した動画像の画像データを受け付ける。位置・姿勢データ取得部202は、加速度計106、傾斜計107およびGPS装置108からの出力を受け付ける。3次元点群位置データ取得部203は、レーザースキャナ109から出力される測定対象物の3次元点群位置データを受け付ける。
特徴点座標算出部204は、動画像データ取得部201が受け付けた動画データに基づき、撮影した対象物(例えば、景観)の特徴点の3次元座標の算出を行う。この3次元座標の算出は、カメラ毎に行う。例えば、前方監視用カメラ101が撮影した動画像の動画データに基づく、撮影対象物の特徴点の3次元座標の算出と、景観撮影用カメラ1(103)が撮影した動画像の動画データに基づく、撮影対象物の特徴点の3次元座標の算出とは、別に行われる。位置姿勢算出部205は、特徴点座標算出部204が算出した測定対象物の特徴点の3次元座標に基づく該当する動画を撮影したカメラの外部標定要素(位置と姿勢)の算出、および位置・姿勢データ取得部202が受け付けた車両100の位置と姿勢に係るデータから、統合中心(車両100)の位置と姿勢の算出を行う。
座標変換部206は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)、レーザースキャナ109から得られたデータを一つの座標系上で統合的に扱えるようにする座標変換の処理を行う。例えば、景観撮影用カメラ1(103)が撮影した動画像に基づく撮影対象物の特徴点の3次元座標の算出結果を、予め設定された統合座標上で取り扱えるように当該統合座標上の座標データに座標変換し、更に動画に基づいて得られた外部標定要素の統合座標への座標変換が行われる。ここで、外部標定要素の座標変換では、特定のカメラから求めた統合中心の外部標定要素が算出される。この特定のカメラから求めた統合中心の外部標定要素というのは、該当するカメラのオフセット位置やオフセット角度を考慮して、当該カメラの外部標定要素に基づいて、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を求める演算を行う。なお、統合座標の原点は、車両100上の適当な位置に予め設定される。また、その座標軸の向きは、計算に便利な向きであれば、特に限定されない。
重み係数付与部207は、カメラ毎に得られた測定対象物の特徴点の3次元座標の値を統合座標上に座標変換したもの、およびカメラ毎に求めた統合中心における外部標定要素、更に傾斜計107やGPS装置108から得られた車両100の傾斜や位置の値のそれぞれに、各カメラの精度を反映させた重み係数を付与する。重み係数は、各装置の精度や優先度を考慮して予め設定されている。なお、重み係数の組み合わせを複数用意し、それを適宜切り替えることや、重み係数の設定を動的に変化させることも可能である。
データ統合部208は、機器毎のデータをその重みを反映させた形で統合する。例えば、景観撮影用カメラ1(103)からの画像データに基づいて算出した測定対象物の特徴点の3次元座標の値と景観撮影用カメラ2(104)からの画像データに基づいて算出した測定対象物の特徴点の3次元座標の値とを、統合座標系上で統合する。この際、機器毎に設定された重みを反映した形での算出平均が計算され、特徴点の座標値が求められる。重み係数推定部209は、後述する方法で重み係数を推定する。
(処理の一例)
以下、画像データ処理装置200の動作の一例を説明する。図3は、画像データ処理装置200において行われる処理の手順の一例を示すフローチャートである。図3のフローチャートを実行するためのプログラムは、画像データ処理装置200が備える適当なメモリ領域に格納され、画像データ処理装置200が備えるCPUによって読み取られて実行される。なお、図3のフローチャートを実行するためのプログラムを外部の適当な記憶媒体に格納し、そこから画像データ処理装置200に提供される形態も可能である。
図3に示す処理は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)および景観撮影用カメラ3(105)が撮影した動画像のデータ(動画像データ)のそれぞれにおいて行われる。各カメラにかかる処理は同じであるので、以下、単にカメラと表記し、説明を行う。
図3に示す処理が開始されると、まず、動画像データ取得部201によって、各カメラが撮影した動画の動画像データが取得される。ここで動画像は、カメラと対象物とが少しずつ相対的に移動していく過程において撮影された複数の連続する画像(この画像の一つ一つをフレーム画像という)で構成される。動画像データ取得部201は、時系列的に得られる複数のフレーム画像をリアルタイムに順次取得する。
各カメラからの動画データの取得と平行して、ステップS102以下の処理が行われる。ステップS102〜ステップS106までの処理は、特徴点座標算出部204において行われる。ステップS102では、1フレーム目と2フレーム目におけるカメラの位置と姿勢の初期値(外部標定要素の初期値)が取得される。この処理では、まず、測定対象となる実空間に基準点を設置し、この基準点の実空間における三次元座標をトータルステーションやGPSを用いて計測する。あるいは、実空間における3次元座標が既知である基準点を用意する。次に、その基準点をカメラで撮影し、基準点の三次元座標とフレーム画像中における画像座標とに基づいて、後方交会法によってカメラの内部標定要素と外部標定要素の初期値を算出する。
別な方法として、トータルステーションやGPSを用いて、複数の撮影位置の三次元座標値を与え、複数の撮影位置で撮影されたステレオ画像から、外部標定要素の初期値を求めるようにしてもよい。更に別な方法として、トータルステーションやGPSを用いず、間の距離が既知である複数の基準点が描かれた基準板を移動しながら、複数枚の画像を撮影し、基準点が撮影された複数枚の画像から、基準点の画像座標を算出し、相互標定などを用いてカメラの位置、姿勢の初期値を得る方法を用いてもよい(ただし、この場合、得られる座標系はローカル座標系となる)。なお、後方交会法、相互標定の具体的な演算の詳細については後述する。
ステップS102の後、取得した動画像のフレーム画像から撮影された対象物における特徴点の抽出を行う(ステップS103)ここでは、1フレーム目、2フレーム目、3フレーム目の最低3フレームのフレーム画像のそれぞれから、特徴点を抽出する。特徴点の検出には、モラベック、ラプラシアン、ソーベルなどのフィルタが用いられる。特徴点を抽出したら、異なるフレーム画像間において、対応する特徴点を特定し、その追跡を行う(ステップS104)。ここでは、1フレーム目、2フレーム目、3フレーム目における特徴点の対応関係が特定される。なお、異なるフレーム画像中における特徴点の対応関係を特定するための情報は、各フレーム画像内に埋め込まれる。
この例において、特徴点の追跡には、テンプレートマッチングが用いられる。テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。以下、テンプレートマッチングの一例を説明する。
テンプレートマッチングは、2つの座標系における画像の座標データを相互に比較し、両者の相関関係により、2つの画像の対応関係を求める方法である。テンプレートマッチングでは、2つの視点それぞれから見た画像の特徴点の対応関係が求められる。図4は、テンプレートマッチングの原理を説明する説明図である。この方法では、図示するように、N×N画素のテンプレート画像を、それよりも大きいM×M画素の入力画像内の探索範囲(M−N+1)上で動かし、下記数1で示される相互相関関数C(a,b)が最大となるような(つまり相関の程度が最大となるような)テンプレート画像の左上位置を求める。
Figure 0005992184
上記の処理は、一方の画像の倍率を変えながら、また回転させながら行われる。そして、相関関係が最大となった条件で、両画像の一致する領域が求まり、更にこの領域における特徴点を抽出することで、対応点の検出が行われる。
テンプレートマッチングを用いることで、比較する2つの画像の一致する部分が特定でき、2つの画像の対応関係を知ることができる。この方法では、2つ画像の相関関係が最大となるように両者の相対的な位置関係が定められる。2つの画像の相関関係は、両画像の特徴点によって決まる。
ステップS104によって特徴点の追跡を行った後、複数のフレーム画像、この場合でいうと、1フレーム目のフレーム画像と2フレーム目のフレーム画像において対応する特徴点の3次元座標の算出が行われる(ステップS105)。
この例では、時間差を置いて異なる位置から取得された2つのフレーム画像(1フレーム目のフレーム画像と2フレーム目のフレーム画像)をステレオペア画像として用い、三角測量の原理により、2つのフレーム画像中で対応関係が特定された特徴点の3次元座標の算出が行われる。図5は、この様子を示すイメージ図である。図5に示すように、1フレーム目の撮影時に比較して、2フレーム目の撮影時には、図の右の方向にカメラは移動している。従って、同時ではないが、僅かな時間差をおいて、×印で示される撮影対象物の複数の特徴点を、異なる2つの位置および方向から撮影した2つのフレーム画像が得られる。ここで、1フレーム目におけるカメラの位置と姿勢、更に2フレーム目におけるカメラの位置と姿勢は、ステップS102において取得され既知であるので、立体写真測量の原理から特徴点の3次元座標を求めることができる。
以下、この処理の詳細な手順の一例を説明する。ここでは、前方交会法を用いて、1フレーム目のフレーム画像と2フレーム目のフレーム画像の中で対応関係が特定された特徴点の3次元座標の算出を行う。図6は、前方交会法を説明する説明図である。前方交会法とは、既知の2点(O,O)上から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を求める方法である。図6において、対象空間の座標系をO−XYZとする。ここで、1フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)と、2フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、ステップS102において既に取得され既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。
ここで、1フレーム目のフレーム画像上の特徴点p(x,y)と、これに対応する2フレーム目のフレーム画像上の特徴点p(x,y)は、それぞれのフレーム画像から得られる。したがって、対象空間の未知点となる特徴点Pの3次元座標(X,Y,Z)は、光線Oと光線Oの交点として定まる。ただし、実際には誤差があり、2本の光線が正確に交わらないため、最小二乗法によって交点位置を求める。具体的には、2本の共線条件式(数2)を立てる。これに既知の外部標定要素、内部標定要素、対応点の画像座標を代入する。
Figure 0005992184
さらに、この共線条件式に未知点Pの近似値(X’,Y’,Z’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)を代入する。そして、近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この操作によって、特徴点の三次元座標P(X,Y,Z)が求められる。この計算をすべての特徴点について行い、1フレーム目のフレーム画像と2フレーム目のフレーム画像の中で対応関係が特定された複数の特徴点の3次元座標の算出が行われる。以上がステップS105で行われる処理の内容の詳細な一例である。
ステップS105の後、算出した測定対象物の特徴点の3次元座標に基づいて、3フレーム目におけるカメラの外部標定要素の算出を行う(ステップS106)。この処理によって、3フレーム目におけるカメラの位置と姿勢が求められる。ここでは、後方交会法を用いてカメラの外部標定要素の算出が行われる。
以下、ステップS106で行われる演算の詳細な一例を説明する。図7は、後方交会法を説明する説明図である。後方交会法とは、未知点Oから3つ以上の既知点P、P、Pへ向かう方向を観測して、それらの方向線の交点として未知点Oの位置を求める方法である。ここでは、ステップS105において求めた測定対象物の3つの特徴点の3次元座標を図7の基準点P、P、Pとし、それを基にして、後方交会法によって3フレーム目におけるカメラの外部標定要素(X,Y,Z,ω,φ,κ)を算出する。後方交会法としては、単写真標定、DLT法、相互標定がある。
まず、単写真標定を用いて3フレーム目におけるカメラの外部標定要素(X,Y,Z,ω,φ,κ)を算出する場合を、図7を参照して説明する。単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X,Y,Z)およびカメラの姿勢(ω,φ,κ)を求める手法である。共線条件とは、投影中心O、写真像(p,p,p)および測定対象点(この場合は特徴点)(Op,Op,Op)が、一直線上にあるという条件である。ここで、カメラの位置O(X,Y,Z)とカメラの姿勢(ω,φ,κ)は外部標定要素である。
まず、カメラ座標系をx,y,z、写真座標系x,y、測定対象物の座標系である基準座標系X,Y,Zとする。カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、4点の画像座標(図7では3点のみ記載)と対応する基準点の三次元座標を下記数3に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。
Figure 0005992184
そして、数3のパラメータb1〜b8を用いて、下記の数4から外部標定要素(X,Y,Z,ω,φ,κ)を求める。ここで、(X,Y,Z)は3フレーム目におけるカメラの位置を示す座標であり、(ω,φ,κ)は、その位置におけるカメラの姿勢(向き)である。
Figure 0005992184
以上のようにして、測定対象物の特徴点の3次元座標に基づいて、3フレーム目におけるカメラの外部標定要素が単写真標定を用いて算出される。
次に、DLT法によって、測定対象物の特徴点の3次元座標に基づく3フレーム目におけるカメラの位置と姿勢を算出する手順について説明する。DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数5となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46−51、p149−155」等に記載されている。
Figure 0005992184
数5の式の分母を消去すると、数6の線形式を導き出せる。
Figure 0005992184
さらに、数6を変形すると、以下の数5となる。
Figure 0005992184
数7に6点以上の基準点の三次元座標を代入し、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL〜L11の11個の未知変量を取得できる。なお、L〜L11には、外部標定要素が含まれる。
次に、相互標定法による外部標定要素の算出について説明する。相互標定は、既知点がなくとも相対的な外部標定要素が求められる方法である。また、既知点があれば、絶対標定を行うことで、絶対座標を求めることができる。
図8は、相互標定を説明する説明図である。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める。相互標定では、投影中心OとOと基準点Pを結ぶ2本の光線が同一平面内になければならいという共面条件を用いる。以下の数8に、共面条件式を示す。なお、ここで例えば左画像が2フレーム目のフレーム画像に当たり、右画像が3フレーム目のフレーム画像に当たる。
Figure 0005992184
図8に示すように、モデル座標系の原点を左側の投影中心Oにとり、右側の投影中心Oを結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さとする。このとき、求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合、左側のカメラのX軸の回転角ωは0なので、考慮する必要はない。このような条件にすると、数8の共面条件式は数9のようになり、この式を解けば各パラメータが求められる。
Figure 0005992184
ここで、モデル座標系XYZとカメラ座標系xycの間には、次の数10に示すような座標変換の関係式が成り立つ。
Figure 0005992184
これらの式を用いて、次の手順により、未知パラメータ(外部標定要素)を求める。
(1)未知パラメータ(κ,φ,κ,φ,ω)の初期近似値は通常0とする。
(2)数8の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数9により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(1)〜(4)までの操作を収束するまで繰り返す。
相互標定が収束した場合、さらに接続標定が行われる。接続標定とは、各モデル間の傾き、縮尺を統一して同一座標系とする処理である。この処理を行った場合、以下の数11で表される接続較差を算出する。算出した結果、ΔZおよびΔDが、所定値(例えば、0.0005(1/2000))以下であれば、接続標定が正常に行われたと判定する。
Figure 0005992184
上記相互標定により、3フレーム目におけるカメラの位置および姿勢が求められる。以上のようにして、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)および景観撮影用カメラ3(105)が撮影した動画像のデータ(動画像データ)のそれぞれに基づいて、撮影対象の特徴点の3次元座標の算出(ステップS105)および3フレーム目における当該カメラの外部標定要素(その位置と姿勢)の算出が行われる。
次に、各カメラにおいて求められた撮影対象の特徴点の3次元座標と外部標定要素を統合座標に座標変換する(ステップS107)処理を座標変換部206において行う。すなわち、各カメラの位置および姿勢は異なっており、この時点における各カメラにおいて得られた撮影対象の特徴点の3次元座標と外部標定要素とは、各カメラの位置を原点とする各カメラ固有の座標系における値である。つまり、カメラが異なると、異なる座標系となるので、データを統合的に扱うことができない状態となっている。そこで、ステップS107では、各カメラに係る特徴点の3次元座標のデータと外部標定要素のデータをある特定の座標系(これを統合座標と呼ぶ)に座標変換する。
ここで、統合座標の座標系を(X,Y,Z)とし、特定のカメラ(例えば、景観撮影用カメラ1(103))の座標系を(X,Y,Z)とし、座標系間の回転を示す行列をaijとし、座標系間のオフセット(平行移動距離)を(X,Y,Z)とすると、2つの座標の間には、数12の関係がある。
Figure 0005992184
車両100における各カメラの相対位置関係や姿勢の関係は、予め判明しているので、aijと(X,Y,Z)は既知である。よって、各カメラにおいて、撮影した動画像に基づく撮影対象物の特徴点の3次元座標のデータとステップS107で算出した外部標定要素の統合座標への座標変換が可能となる。これは、他のカメラについても同じである。ここで、外部標定要素の変換は、該当するカメラのオフセット位置やオフセット角度を考慮して、当該カメラの外部標定要素に基づいて、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を求める演算を行う。すなわち、該当するカメラの外部標定要素(カメラの位置と姿勢)を、統合中心(車両)の位置と姿勢に変換する演算を行う。
ここで、仮に各カメラに係る各種の誤差が存在しなければ、各カメラから得られる撮影対象物の同じ部分における特徴点の3次元座標のデータ、およびステップS107で算出した外部標定要素を統合中心の値に変換した値は、各カメラ間で一致する。しかしながら、カメラ自体の精度や分解能、データ伝送時の誤差、振動の影響、カメラと撮影対象との間にある障害物(樹、人影等)、撮影対象に対する姿勢の違い等の要因により、カメラ毎に異なる誤差が存在する。そこで、ステップS108において、この誤差の影響を考慮したデータの調整を行った上で、各カメラから得られたデータを統合的に扱える状態とする。
以下、ステップS108の詳細について説明する。ステップS108では、各カメラから得られた撮影対象物の特徴点の3次元座標のデータとステップS107で算出した外部標定要素を統合中心におけるものに変換した値に対して、バンドル調整を行う。バンドル調整は、異なる撮影位置で撮影された複数の画像を用いて各カメラの位置および姿勢の算出を行う際における算出精度を高めるために行われる最適化処理である。
バンドル調整では、測定対象物の特徴点、フレーム画像(写真画像)上の点、投影中心の3点を結ぶ光束(バンドル)が同一直線上になければならないという共線条件に基づき、各画像の光束1本毎に観測方程式を立て、最小二乗法によって同時調整が行われ、各カメラの外部標定要素および測定対象物の特徴点の三次元座標の最適化が図られる。ここでは、バンドル調整を行う際に、各カメラからのデータの精度を反映させた重み係数を導入し、カメラ毎に重み付けを行った状態でバンドル調整を行う。バンドル調整に重み付けの概念を導入することで、重み付けを与えた状態で各カメラから得られたデータを統合し、各カメラの精度を反映させた統合データを得ることができる。
以下、複数のカメラ毎に重み付けを設定し、それらを統合的に扱う手法の原理について説明する。まず、説明を簡単にするために、n個あるカメラそれぞれの外部標定要素に重み付けを行い、それを統合的に扱う場合の例を説明する。
ここでは、相対位置関係が判明しているカメラがn個あるとする。例えば、車両に固定されたn個のカメラを想定する。ここで、統合中心Ocの外部標定要素を(X,Y,Z,ω,φ,κ)とする。統合中心は、統合座標の原点の位置のことである。そして、カメラ1から求めた統合中心の外部標定要素が、Oc1(Xc1,Yc1,Zc1,ωc1,φc1,κc1)であり、カメラnから求めた統合中心の外部標定要素が、Ocn(Xcn,Ycn,Zcn,ωcn,φcn,κcn)であるとする。カメラ1から求めた統合中心の外部標定要素というのは、カメラ1のオフセット位置やオフセット角度を考慮して、カメラ1の外部標定要素から、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を算出した値である。
例えば、各カメラからのデータの信頼性が同じである場合、n個のカメラを統合的に捉えた統合中心における平均の外部標定要素(統合した外部標定要素)は、各カメラの外部標定要素を均等に分配した単なる平均値として求められる。しかしながら、カメラ1の精度は相対的に高いが、カメラ2の精度は相対的に低い、といった場合、単に平均をとるだけでは、カメラ2の低精度の影響が大きく影響し、統合した値の誤差が増大する。この場合、相対的に精度の高いカメラ1の寄与が大きく、相対的に低精度のカメラ2の寄与を小さくする仕組みを導入することで、精度の低下を抑えつつ、カメラ2の情報を無視することなく取り込むことができる。
そこで、上述した各カメラの統合中心における外部標定要素に重み付けを行い、統合中心における統合された外部標定要素への寄与が、各カメラの精度を反映したものとなるようにする。すなわち、まず、各カメラに与えられる重み係数をW(=1/σ)とする。重み係数Wは、精度を示すパラメータであり、最大値は、W=1である。例えば、誤差がなく精度が100%信頼できる場合の重み係数は、W=1である。また、例えば、誤差がそれなりにあり、精度が80%信頼できる変数に対する重み係数は、W=0.8である。
そして、カメラ毎の外部標定要素に、重み係数W(WXn,WYn,WZn,Wωn,Wφn,Wκn)をつける。ここで、各カメラの重みを反映した統合中心におけるn個のカメラの外部標定要素を統合した値Xcは、数13で表される。なお、ここでは、重み係数Wが、予め設定された値を用いる場合を説明するが、後述する方法により演算により推定することも可能である。
Figure 0005992184
cの具体的な一例を説明する。まず、精度の異なる2台のカメラ1およびカメラ2を考える。そして、カメラ1から求めた統合中心の外部標定要素X1を考え、その重み係数がWX1であるとする。また、カメラ1から求めた統合中心の外部標定要素X2を考え、その重み係数がWX2であるとする。この場合、数13から、重み付けを考慮した統合中心における外部標定要素Xは、数14となる。
Figure 0005992184
例えば、仮にカメラ1の誤差は考慮しなくてよく、それに対してカメラ2の誤差が無視できず、WX1=1,WX2=0.5と設定されているとする。つまり、カメラ2に誤差があるので、その誤差を勘案して、重み係数をカメラ1の場合に比較して半分の値に設定するとする。この場合、数14は、数15となる。
Figure 0005992184
これは、カメラ1とカメラ2の外部標定要素に基づく、重み付けを考慮した統合中心における外部標定要素Xの算出において、カメラ2の外部標定要素よりもカメラ1の外部標定要素がより優先して反映されることを示している。こうして、誤差を考えなくてよいカメラ1の寄与が大きく、誤差があるカメラ2の寄与が小さくなる状態で、平均値を求める演算が行われ、統合中心における統合された外部標定要素Xの算出が行われる。
以上が重み付けを用いて複数のカメラから得たデータを統合する方法の基本的な考え方である。上述の場合、説明を簡単にするために外部標定要素のみを対象としているが、実際には外部標定要素以外に、各カメラが取得した撮影対象物の特徴点の3次元座標に係る値においてもカメラ毎の重みが考慮され、同様の演算が行われる。以下、この場合の一例を説明する。まず、統合中心の座標系に座標変換した各カメラに係る単写真標定における共線条件の基本式は、下記の数16によって示される。
Figure 0005992184
ここで、写真は、フレーム画像に対応し、写真座標はフレーム画像中の画像座標に対応する。数16は、外部標定要素や地上座標値に対して線形でないので、テーラー展開を用いて近似値のまわりに展開し、高次項を無視して線形化し、繰り返しの計算によって解を求める手法が採用される。この際、未知変量に対する近似値を右上に添字「a」を付与して示し、また、近似値に対する補正量をv,δ、Δを付して、下記数17に示すように表現する。ここで、vx,vは観測された写真座標x,yの残差を意味する。
Figure 0005992184
数17をテーラー展開し、線形化すると、数18が得られる。
Figure 0005992184
数18を単純化するためにマトリックスを用いて表現すると、数19のように書ける。
Figure 0005992184
数19はさらに、数20のように書ける。
Figure 0005992184
数19および数20は、複数のカメラが撮影した動画を構成するフレーム画像上における複数の特徴点に対する線形化された共線条件式であり、個々のフレーム画像上の特徴点の観測値に対する線形化された観測方程式である。なお、数20における(2,1)、(2,5)等の表記は、マトリックスの行と列の大きさを示している。
数19および数20において、各カメラに与えられた重みは考慮されていない。ここで、対象とするカメラがn個あるとして、カメラの重み係数Wを数20の各項に掛け、数21を得る。この重み付けを行う処理は、重み係数付与部207において行われる。WおよびWijは、カメラ毎に設定されている重み係数である。
Figure 0005992184
数21は、数20で示される線形化された共線条件式に各カメラに設定された重みを付けたものである。数21は、概念的に下記数22のように表すこともできる。
Figure 0005992184
カメラがn個ある場合、上記の数21をn個連立してバンドル調整を行う。この際逐次近似解法を用いる。すなわち、最小二乗法により補正量を求め、求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この際、数13に関連して説明した方法により、重みを反映させた平均値を求める演算が行われる。こうして、重み付けがされたn個のカメラの情報を勘案した統合中心の座標で捉えた写真iの外部標定要素(X,Y,Z,ω,φ,κ)の統合値、および対応する特徴点の地上座標の値(X,Y,Z)の統合値が算出される。
ここで得られる統合値は、複数のカメラから得られたデータを、各カメラに与えられた重みを反映させた状態で、平均化(加重平均)したもので、単なる平均値ではなく、各カメラの寄与率が反映されたものとなっている。この演算によれば、各カメラの精度(誤差要因)に対応した寄与率を重み付けによって設定することで、各カメラから得られた測定値を統合的に取り扱う際に、相対的に精度の高いカメラに基づく測定値の寄与率を相対的に高くし、相対的に精度の低いカメラに基づく測定値の寄与率を相対的に低くすることができる。このため、精度の低いカメラの影響により、統合的に取り扱われた際に測定値に生じる誤差の発生を抑えつつ、当該精度の低いカメラが撮影した画像に基づくデータを統合データに取り込むことができる。
統合したデータを得たら、それを適当な記憶領域に記憶し(ステップS109)、ステップS110以下の次のサイクルの処理を開始する。ステップS110以下では、基本的にステップ101〜ステップS109の処理が繰り返される。
ステップS110では、2フレーム目と3フレーム目におけるカメラの外部標定要素(カメラの位置と姿勢)が取得される。ここで、2フレーム目における外部標定要素は、初期値としてステップS102において与えられており、3フレーム目における外部標定要素は、ステップS107において演算により求められている。
例えば、2順目の処理サイクルのステップS110の処理においては、その時点で(n−1)=3フレーム目、および(n−2)=2フレーム目の当該カメラの外部標定要素は既知であるので、それが取得される。そして、3順目の処理サイクルでは、ステップS110に対応する処理において、その時点で既知である(n−1)=4フレーム目および(n−2)=3フレーム目の外部標定要素が取得される(4フレーム目の外部標定要素は、2順目のステップS106に対応する処理で算出されている)。こうして、nフレーム目の外部標定要素の算出を行うサイクルにおけるステップS110に対応する処理において、(n−1)フレーム目および(n−2)目の外部標定要素の取得が行われる。
また、ステップS110の後に行われるステップS103に対応する処理(図示せず)において、処理の対象とするフレーム画像中から新たな特徴点の抽出が行われる。また、ステップS112の後に行われるステップS103およびステップS104に対応する処理では、3フレーム目とその前の2フレーム目のフレーム画像中において新たに現れた特徴点の抽出および追跡が行われる。例えば、1フレーム目では現れておらず、2フレーム目と3フレーム目において新たに現れた特徴点の抽出が行われ、更にそれらの対応関係が特定される処理が行われる。そして、ステップS105以下の処理に対応する処理が繰り返される。
以下、2フレーム目と3フレーム目において新たに現れ、抽出および追跡がされた特徴点の3次元座標を算出する手順の例を説明する。この場合、図6における左側の座標Оが2フレーム目のカメラ位置となり、右側の座標Оが3フレーム目のカメラ位置となる。ここで、2フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)は、既にステップS102において取得され既知である。また、3フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、ステップS106において既に算出され既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。また、2フレーム目のフレーム画像中における画像座標pと3フレーム目のフレーム画像中における画像座標pは、各フレーム画像から求めることができる。したがって、2フレーム目と3フレーム目において新たに現れ、抽出および追跡がされた特徴点、および再抽出された特徴点の3次元座標Pを求めることができる。これは、3順目以降の処理サイクルにおいても同じである。
すなわち、4フレーム目以降における特徴点の3次元座標を算出する手順では、図6における左側の座標Оが(n−2)フレーム目のカメラ位置となり、右側の座標Оが(n−1)フレーム目のカメラ位置となる。ここで、(n−2)フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)、および(n−1)フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。また、(n−2)フレーム目のフレーム画像中における画像座標pと(n−1)フレーム目のフレーム画像中における画像座標pは、各フレーム画像から求めることができる。したがって、(n−2)フレーム目と(n−1)フレーム目における特徴点の3次元座標Pを求めることができる。
ステップS110の後に行われるステップS106に対応する2サイクル目の処理では、後方交会法によって4フレーム目におけるカメラの外部標定要素(位置と姿勢)を算出する。後方交会法としては、単写真標定、DLT法、相互標定があり、その何れを使用してもよい。以下、相互標定を利用して4フレーム目におけるカメラの外部標定要素(位置と姿勢)を算出する場合の例を説明する。
この場合、数8〜数11および図8に示す相互標定によって、4フレーム目におけるカメラの外部標定要素の算出が行われる。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める方法である。この際、例えば左画像が3フレーム目のフレーム画像に当たり、右画像が4フレーム目のフレーム画像に当たる。ここで、3フレーム目の外部標定要素は既知であり、複数ある特徴点の3次元座標も既知である。また、2つのフレーム画像中における特徴点の画像座標は、それぞれのフレーム画像から得ることができる。よって、未知数となる4フレーム目の外部標定要素を算出することができる。これは、3順目以降の処理サイクル(例えば、5フレーム目や6フレーム目におけるカメラの外部標定要素の算出の場合)においても同じである。
例えば、4フレーム目以降におけるカメラの外部標定要素の算出を図8の相互標定により行う場合、例えば左画像が(n−1)フレーム目のフレーム画像に当たり、右画像がnフレーム目のフレーム画像に当たる。ここで、(n−1)フレーム目の外部標定要素は既知であり、複数ある特徴点の3次元座標も既知である。また、2つのフレーム画像中における特徴点の画像座標は、それぞれのフレーム画像から得ることができる。よって、未知数となるnフレーム目の外部標定要素(カメラの位置と姿勢)を算出することができる。
このように、一連の処理が繰り返し行われることで、(n+1)フレーム目、(n+2)フレーム目、(n+3)フレーム目(n:自然数)を対象とした処理により、(n+1)フレーム目および(n+2)フレーム目で撮影した画像中の特徴点の3次元座標の算出、および(n+3)フレーム目における各カメラの外部標定要素の算出が逐次行われる。また、各処理のサイクルにおけるステップS108に対応する処理において、複数のカメラ毎に設定された重みを考慮したバンドル調整が行われ、各カメラから得られた撮影対象の特徴点の統合座標における3次元座標のデータと、各カメラから得られた統合中心における外部標定要素のデータが統合される。
上述した繰り返し行われる統合中心における外部標定要素の算出が行われることで、車両100の位置が刻々と算出される。つまり、図3の処理を利用して、移動する車両100の位置情報の算出を行うことができる。また、算出された位置の変化から車両100の速度を算出することができる。
(優位性)
以上述べた手法によれば、精度の異なる複数の撮影手段を用いて算出した撮影対象の特徴点の3次元座標の値と各撮影手段の外部標定要素とを各撮影手段の精度を反映させた形で統合して扱うことができる。この技術を用いると、複数のカメラを用いて、車両から見える周囲の景観等の画像の3次元データ化が全周カメラを用いずに可能となる。また、全周カメラでは取得が困難な車両周囲の景観の3次元データを得ることができる。
2.第2の実施形態
ステップS108において、カメラの撮影データ以外に由来する計測値を更に統合するデータに加えることもできる。以下、この一例を説明する。図1に示す構成では、車両100の加速度が加速度計106で計測され、傾斜が傾斜計107で計測され、位置がGPS装置108により計測される。例えば、傾斜計107の計測値は、外部標定要素の姿勢に係るデータとなる。よって傾斜計107が計測した車両100の傾斜データを数21に取り込むことができる。この際、傾斜計107およびGPS装置108の精度を考慮した重みを傾斜計107とGPS装置108に設定し、数21の該当する部分に測定値を取り込む。こうすることで、傾斜計107が計測した車両100の傾斜データを統合したデータに取り込むことができる。
また、GPS装置108あるいはGPS装置108と加速度計106の測定データから、車両100の位置を求め、それを数21の位置のデータの部分に取り込むことで、統合したデータに加速度計106とGPS装置108の計測値を反映させることができる。
3.第3の実施形態
ステップS108において、レーザースキャナ109が測定した測定対象物の3次元点群位置データを取り込むこともできる。この場合、レーザースキャナ109が測定した測定対象物の3次元点群位置データとその姿勢のデータが数21に取り込まれる。この際もレーザースキャナ109に係るデータに重み付けを行い、その精度を考慮した状態で数21への取り込みを行う。
4.第4の実施形態
この例では、ステレオペア画像を得る手段として、異なる2つの視点から2つの動画像を撮影するステレオカメラを用いる。なお、動画撮影が可能なステレオカメラが複数あるカメラの一部のカメラのみであってもよいし、複数ある全てのカメラであってもよい。また、2つのカメラを組みとして、ステレオペア画像を得る手段を構成してもよい。この例の場合、図2に示す構成は、図2に関連して説明した機能に加えて、ステレオペア画像を対象とした処理を行なう。なお、ステレオカメラを構成する左右のカメラの相対位置と姿勢の関係は、設定値として既知であるとする。
この例では、まずカメラからステレオペア動画像のデータを取得する。このステレオペア動画像は、右画像取得用のカメラからの動画像と、左画像取得用のカメラからの動画像とにより構成される。ここで、左右の動画像は、時系列を追って連続して撮影された複数のフレーム画像により構成されている。次いで、取得したステレオペア動画像の中の2フレーム目の左右のステレオペア画像のそれぞれから特徴点の抽出を行い、更に2フレーム目における左右のステレオ画像から抽出した特徴点の対応関係を特定する。
ここで、ステレオカメラを構成する左右のカメラの位置関係と姿勢の関係は既知であるので、図6に示す原理を用い、特定した特徴点の3次元座標の算出が行われる。他の処理は、第1の実施形態の場合と同じである。
5.第5の実施形態
重み係数、つまり特定のカメラや計測装置の観測値の精度を他の機器の観測値から演算により推定することもできる。以下、その一例を説明する。ここでは、GPS装置と1台のカメラを考え、GPS装置の計測値を用いて、当該カメラの重みを推定する処理の一例を説明する。図9は、特定のカメラや計測装置の観測値の精度を他の機器の観測値から演算により推定する処理の一例を説明するフローチャートである。図9に示す処理は、図2の重み係数推定部209において実行される。図9のフローチャートを実行するためのプログラムは、画像データ処理装置200が備える適当なメモリ領域に格納され、画像データ処理装置200が備えるCPUによって読み取られて実行される。なお、図9のフローチャートを実行するためのプログラムを外部の適当な記憶媒体に格納し、そこから画像データ処理装置200に提供される形態も可能である。
ここでは、図1のGPS装置108と景観観察用カメラ1(103)に係り、GPS装置108の計測値を利用して、景観観察用カメラ1(103)の重み係数を推定する処理の一例を説明する。また、取得する位置情報において、その精度(例えば、誤差10cmといった情報)と、当該機器に与えられる重み係数との関係は予め既知であるとする。
図9の処理が開始されると、GPS装置108からf−nフレーム目におけるGPS装置108の位置と精度を取得する(ステップS301)。ここで、精度というのは、GPS装置から得られる計測データの精度である。GPS装置は、補足したGPS衛星の数、信号のデコード状態、衛星から受信した信号の種類等に基づき、自身が出力する位置情報の精度に係る信号を出力する機能を有している。ステップS301では、この機能を利用して、GPS装置108から取得したf−nフレーム目の位置情報の精度に係る情報を位置情報と共に取得する。なお、nは、例えばn=3〜10程度が採用される。
次に、景観撮影用カメラ1(103)が撮影した(f−n)フレーム目からfフレーム目までの画像を取得し、これらの画像から撮影対象物の特徴点を抽出し、更に各フレームにおける特徴点の対応する点(対応点)を取得する(ステップS302)。この処理は、図3のステップS103,ステップ104で行った処理と同じである。次に、景観撮影用カメラ1(103)の仮の精度を設定(仮設定)する(ステップS303)。例えば、精度が分っているGPS装置108と同じ精度に仮設定を行う。
次に、ステップS302で取得した対応点に基づくfフレーム目における景観撮影用カメラ1(103)の位置Xfの算出を、カルマンフィルタを用いて行う(ステップS304)。この処理では、景観撮影用カメラ1(103)が撮影した複数のフレーム画像に写った撮影対象物の特徴点の3次元座標から、景観撮影用カメラ1(103)の外部標定要素を求める処理、すなわち図3のステップS105,S106で用いた手法により、景観撮影用カメラ1(103)の位置Xfを算出する。この際、カルマンフィルタを用いて、ステップS303で仮設定した精度を反映した景観撮影用カメラ1(103)の位置の確率分布をXfとして求める。なお、景観撮影用カメラ1(103)の姿勢に関する初期値は、他の機器の情報から得られているものとする。
なお、カルマンフィルタを用いると、計算結果はガウス分布となる。これに対して、後述するパーティクルフィルタを用いると、値の候補が複数個ある、という結果が得られる。勿論、カルマンフィルタとパーティクルフィルタはどちらを使っても、あるいは両方組み合わせて使っても良いが、線形計算できる(共線条件式により)3次元座標値に対してはカルマンフィルタを、非線形計算となるカメラの位置に対してはパーティクルフィルタを用いるのが適当である。
ステップS304の後、GPS装置108の計測値からfフレーム目における位置(GPS装置108の位置)と、この位置情報の精度を取得する(ステップS305)。そして、ステップS305で取得したGPS情報に基づき、fフレーム目における景観撮影用カメラ1(103)の位置Xfを、パーティクルフィルタを用いて算出する(ステップS306)。この際、GPS装置108と景観撮影用カメラ1(103)の位置関係が既知であるので、この位置関係を勘案してXfの算出が行われる。
そして、XfとXfの差を評価し、その差が最小であるか否か、の判定が行われる。実際には、ステップS303〜S306処理を複数サイクル行い、XfとXfの差が小さくなるようにステップS303で仮設定した景観撮影用カメラ1(103)の仮設定精度を少しずつ変化させ、XfとXfの差が極小値であるか否か、がステップS307において判定される。ここで、XfとXfの差は、XfとXfの分布がピークを示す位置の差として求められる。
XfとXfの差の最小値が得られた場合、その際における景観撮影用カメラ1(103)の仮設定精度が推定された適正な精度(推定精度)として取得される(ステップS308)。そして、ステップS308で取得した景観撮影用カメラ1(103)の推定精度と、ステップ305で取得したGPS情報の精度とに基づいて、景観撮影用カメラ1(103)の重み係数の推定値を算出する(ステップS309)。
すなわち、精度が定量的な値として得られれば、精度と当該機器に与えられる重み係数との関係は予め既知であるので、ステップS308で算出した推定精度に対応する重み係数を算出することができる。
そして、まだ処理すべきフレームがあるか否か、が判定され(ステップS310)、処理すべきフレームがあれば、ステップS301以下の処理が再度実行され、新たなfフレーム目を対象とした処理が行われる。また、処理すべきフレームがなく、最終フレームである場合、処理を終了する。
ステップS307の判定は、最小値であるか否か、を判定するのではなく、XfとXfの差が予め定めた閾値を下回ったか否か、を判定する内容であってもよい。
ここでは、GPSを用いてカメラの重みを推定する例を説明したが、位置情報を得ることができ、更にその精度が分る機器であれば、GPS以外の機器を用いることもできる。このような機器としては、タイヤの回転から位置情報を追尾するオドメータや車両の通過時に位置情報を車両に与えるマーカーを検出する位置検出装置等を挙げることができる。
また、精度が分っている第1のカメラと精度が分っていない(あるいは撮影対象の性質により、精度が変動する)第2のカメラを対象とし、第1のカメラが撮影した動画に基づく車両の位置情報(本実施形態のGPS位置情報に該当)を基準とし、第2のカメラの精度を推定する手法も可能である。
(その他)
外部から与えられる情報に基づいてカメラの位置(車両100の位置)を特定する手段として、GPS以外に(あるいはGPSに加えて)道路沿いや路面に設けられた光ビーコンや電波ビーコンの情報から位置情報を得る手段を利用することもできる。
実施形態では、移動体として道路上を走る車両を一例として挙げたが、移動する場所は道路に限定されない。例えば、工事用車両や道路でない場所を走行する車両に本発明を適用することができる。また、移動体は、車両に限定されず、船舶、航空機、移動可能なロボット等であってもよい。
本発明は、複数のカメラから得た画像データを統合的に取り扱う技術に利用することができる。

Claims (6)

  1. 複数のカメラからの画像データを受け付ける画像データ受け付け部と、
    前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と
    前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、
    前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、
    前記複数のカメラそれぞれの精度を反映した重みを前記複数のカメラのそれぞれに設定する重み設定部と、
    前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラそれぞれの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部と
    を備え、
    前記複数のカメラが車両に搭載されており、
    前記画像データ受け付け部が受け付けた画像データに基づき、前記車両の位置および前記車両の速度の少なくとも一方の算出が行われることを特徴とする画像データ処理装置。
  2. 複数のカメラからの画像データを受け付ける画像データ受け付け部と、
    前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、
    前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、
    前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、
    前記複数のカメラそれぞれの精度を反映した重みを前記複数のカメラのそれぞれに設定する重み設定部と、
    前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラそれぞれの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部と
    を備え、
    前記データの統合において、
    前記複数のカメラが撮影した動画を構成するフレーム画像上における前記特徴点に対する線形化された共線条件式を立てるステップと、
    前記線形化された共線条件式に各カメラに設定された前記重みを付けるステップと、
    前記重みが付けられた前記共線条件式から前記平均値の算出を行うステップと
    が行われることを特徴とする画像データ処理装置。
  3. 複数のカメラからの画像データを受け付ける画像データ受け付け部と、
    前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、
    前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、
    前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、
    前記複数のカメラそれぞれの精度を反映した重みを前記複数のカメラのそれぞれに設定する重み設定部と、
    前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラそれぞれの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部と、
    前記複数のカメラの中の特定のカメラの重みを推定する重み推定部と
    を備え、
    前記重み推定部は、
    前記特定のカメラに仮の精度を与えるステップと、
    前記特定のカメラが撮影した画像に基づいて、前記仮の精度を反映した前記特定のカメラの位置の算出値の分布を第1の分布として求めるステップと、
    計測精度が判明している位置計測手段に基づく、当該判明している計測精度を反映した前記特定のカメラの位置の算出値の分布を第2の分布として求めるステップと、
    前記第1の分布と前記第2の分布の差が特定の条件を満たす場合の前記仮の精度に基づき、前記特定のカメラの重みを推定するステップと
    を実行することを特徴とする画像データ処理装置。
  4. 前記データ統合部は、カメラ以外の計測装置から得られた前記複数のカメラが配置された土台となる部分の位置および姿勢の少なくとも一方のデータの統合も行うことを特徴とする請求項1〜3のいずれか一項に記載の画像データ処理装置。
  5. 複数のカメラからの画像データを受け付ける画像データ受け付けステップと、
    前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出ステップと
    前記複数のカメラの位置および姿勢を算出する位置姿勢算出ステップと、
    前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出ステップにおいて算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換ステップと、
    前記複数のカメラそれぞれの精度を反映した重みを設定する重み設定ステップと、
    前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合ステップと
    を備え
    前記複数のカメラが車両に搭載されており、
    前記画像データ受け付けステップで受け付けた画像データに基づき、前記車両の位置および前記車両の速度の少なくとも一方の算出が行われることを特徴とする画像データ処理方法。
  6. コンピュータに読み取らせて実行させるプログラムであって、
    コンピュータを
    複数のカメラからの画像データを受け付ける画像データ受け付け部と、
    前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、
    前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、
    前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置姿勢算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、
    前記複数のカメラそれぞれの精度を反映した重みを設定する重み設定部と、
    前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部と
    して動作させ、
    前記複数のカメラが車両に搭載されており、
    前記画像データ受け付け部で受け付けた画像データに基づき、前記車両の位置および前記車両の速度の少なくとも一方の算出が行われることを特徴とする画像データ処理用のプログラム。
JP2012053645A 2012-03-09 2012-03-09 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム Active JP5992184B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012053645A JP5992184B2 (ja) 2012-03-09 2012-03-09 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012053645A JP5992184B2 (ja) 2012-03-09 2012-03-09 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム

Publications (2)

Publication Number Publication Date
JP2013187862A JP2013187862A (ja) 2013-09-19
JP5992184B2 true JP5992184B2 (ja) 2016-09-14

Family

ID=49388906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012053645A Active JP5992184B2 (ja) 2012-03-09 2012-03-09 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム

Country Status (1)

Country Link
JP (1) JP5992184B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106663376A (zh) * 2014-08-04 2017-05-10 日产自动车株式会社 自身位置计算装置以及自身位置计算方法
US11340071B2 (en) * 2016-02-10 2022-05-24 Clarion Co., Ltd. Calibration system and calibration apparatus

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102207838B1 (ko) * 2014-01-07 2021-01-26 한국전자통신연구원 하이브리드 센서를 이용한 착용형 디스플레이 장치의 자세 예측 장치
WO2015125301A1 (ja) * 2014-02-24 2015-08-27 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
RU2628035C1 (ru) * 2014-02-24 2017-08-14 Ниссан Мотор Ко., Лтд. Устройство вычисления собственной позиции и способ вычисления собственной позиции
WO2015125296A1 (ja) * 2014-02-24 2015-08-27 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
CN105993041B (zh) 2014-02-24 2017-10-31 日产自动车株式会社 自身位置计算装置以及自身位置计算方法
EP3113147B1 (en) * 2014-02-24 2018-11-28 Nissan Motor Co., Ltd Self-location calculating device and self-location calculating method
JP6187671B2 (ja) * 2014-02-24 2017-08-30 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP6460700B2 (ja) * 2014-09-26 2019-01-30 株式会社トプコン トンネルの内壁の欠陥の有無の診断を行う方法およびトンネルの内壁の欠陥の有無の診断を行うプログラム
JP6467567B2 (ja) * 2015-02-16 2019-02-13 国立研究開発法人防災科学技術研究所 地表変化解析システム
JP6529345B2 (ja) * 2015-06-04 2019-06-12 株式会社クリプトン 画像合成装置及び画像合成方法
JP6477348B2 (ja) * 2015-08-10 2019-03-06 日産自動車株式会社 自己位置推定装置及び自己位置推定方法
JP6029794B1 (ja) * 2015-09-09 2016-11-24 三菱電機株式会社 航法装置および測量システム
US9762893B2 (en) * 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range
JP6331114B2 (ja) * 2016-03-30 2018-05-30 パナソニックIpマネジメント株式会社 位置推定装置、位置推定方法及び制御プログラム
US20210403015A1 (en) * 2017-08-03 2021-12-30 Koito Manufacturing Co., Ltd Vehicle lighting system, vehicle system, and vehicle
JP7143857B2 (ja) * 2017-10-24 2022-09-29 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
JP7036400B2 (ja) * 2018-01-30 2022-03-15 株式会社豊田中央研究所 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
WO2020070857A1 (ja) * 2018-10-04 2020-04-09 三菱電機株式会社 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム
WO2020070856A1 (ja) * 2018-10-04 2020-04-09 三菱電機株式会社 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム
JP7131487B2 (ja) 2018-11-30 2022-09-06 カシオ計算機株式会社 位置情報取得システム、位置情報取得装置、位置情報取得方法及びプログラム
JP2021093037A (ja) * 2019-12-11 2021-06-17 株式会社東芝 算出システム、算出方法、プログラム、及び記憶媒体
CN112561999B (zh) * 2020-12-21 2022-08-19 惠州市德赛西威汽车电子股份有限公司 一种贴框设备精准贴合方法及贴框设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006090957A (ja) * 2004-09-27 2006-04-06 Nissan Motor Co Ltd 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
JP2010273091A (ja) * 2009-05-21 2010-12-02 Nippon Telegr & Teleph Corp <Ntt> 広域多視点カメラ校正方法、広域多視点カメラ校正装置、およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106663376A (zh) * 2014-08-04 2017-05-10 日产自动车株式会社 自身位置计算装置以及自身位置计算方法
CN106663376B (zh) * 2014-08-04 2018-04-06 日产自动车株式会社 自身位置计算装置以及自身位置计算方法
US11340071B2 (en) * 2016-02-10 2022-05-24 Clarion Co., Ltd. Calibration system and calibration apparatus

Also Published As

Publication number Publication date
JP2013187862A (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
JP6484729B2 (ja) 無人航空機の奥行き画像の取得方法、取得装置及び無人航空機
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
JP5027747B2 (ja) 位置測定方法、位置測定装置、およびプログラム
CN110033489B (zh) 一种车辆定位准确性的评估方法、装置及设备
WO2021026850A1 (zh) 一种基于二维码的导航定姿定位方法和系统
JP5027746B2 (ja) 位置測定方法、位置測定装置、およびプログラム
JP3833786B2 (ja) 移動体の3次元自己位置認識装置
WO2010001940A1 (ja) 位置測定方法、位置測定装置、およびプログラム
CN110411476B (zh) 视觉惯性里程计标定适配及评价方法和系统
US8059887B2 (en) System and method for providing mobile range sensing
JP2016057108A (ja) 演算装置、演算システム、演算方法およびプログラム
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
CN113551665B (zh) 一种用于运动载体的高动态运动状态感知系统及感知方法
JP2012118666A (ja) 三次元地図自動生成装置
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
He et al. Automated relative orientation of UAV-based imagery in the presence of prior information for the flight trajectory
CN113587934A (zh) 一种机器人、室内定位方法、装置和可读存储介质
CN115371673A (zh) 一种未知环境中基于Bundle Adjustment的双目相机目标定位方法
Tu et al. Multi-camera-lidar auto-calibration by joint structure-from-motion
JP2010145219A (ja) 運動推定装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160817

R150 Certificate of patent or registration of utility model

Ref document number: 5992184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250