JP2014216813A - カメラ姿勢推定装置及びそのプログラム - Google Patents

カメラ姿勢推定装置及びそのプログラム Download PDF

Info

Publication number
JP2014216813A
JP2014216813A JP2013092096A JP2013092096A JP2014216813A JP 2014216813 A JP2014216813 A JP 2014216813A JP 2013092096 A JP2013092096 A JP 2013092096A JP 2013092096 A JP2013092096 A JP 2013092096A JP 2014216813 A JP2014216813 A JP 2014216813A
Authority
JP
Japan
Prior art keywords
camera
estimation
posture
information
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013092096A
Other languages
English (en)
Other versions
JP6061770B2 (ja
Inventor
秀樹 三ツ峰
Hideki Mitsumine
秀樹 三ツ峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2013092096A priority Critical patent/JP6061770B2/ja
Publication of JP2014216813A publication Critical patent/JP2014216813A/ja
Application granted granted Critical
Publication of JP6061770B2 publication Critical patent/JP6061770B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Abstract

【課題】本願発明は、高い精度でカメラ姿勢を推定できるカメラ姿勢推定装置を提供する。【解決手段】カメラ姿勢推定装置1は、センサ情報を記憶する記憶手段10と、撮影映像を用いて、カメラ姿勢推定情報を求める画像解析手段20と、カメラ姿勢推定情報を用いて、不均一度Dを算出する不均一度算出手段31と、偏在度Sを算出する偏在度算出手段33と、不均一度と偏在度Sとの比である評価値に基づいて、高精度区間と、中精度区間と、低精度区間とを判定する評価値判定手段35と、高精度区間で、カメラ姿勢推定情報を出力する第1補間処理手段40と、中精度区間で、カメラ姿勢推定情報をセンサ情報で補間する再推定手段50と、低精度区間で、センサ情報を出力する第2補間処理手段60とを備える。【選択図】図1

Description

本願発明は、撮影カメラの姿勢を推定するカメラ姿勢推定装置及びそのプログラムに関する。
映像制作では、カメラ姿勢を利用して、撮影映像中の被写体に接触するような配置で、CG(computer graphics)のオブジェクトを合成することが行われている。例えば、この合成処理は、撮影映像中に机が含まれており、その机上にCGの壺を合成するという処理である。
従来から、撮影映像を用いて、カメラ姿勢を計測する手法も提案されている。一般的に、撮影映像を用いたカメラ姿勢推定手法では、撮影映像上の特徴点の位置及び特徴ベクトルを映像解析により抽出する。そして、このカメラ姿勢推定手法では、その特徴点位置を、特徴ベクトルの類似性を利用して撮影映像中で追跡する。さらに、このカメラ姿勢推定手法では、その追跡結果を利用して、バンドルアジャストメントなどの最適化手法によりカメラ姿勢を推定する(例えば、特許文献1参照)。
例えば、特徴点は、撮影映像上で模様がコーナーになっている部分であり、被写体に表れる模様の特定部位を指すものである。このことから、撮影映像を用いたカメラ姿勢推定手法では、前記のように撮影映像中の被写体に仮想的に何らかのCGオブジェクトを接触するように配置する場合、被写体とCGオブジェクトとのずれを生じにくく、映像制作に向くという長所を有する。その一方、このカメラ姿勢推定手法では、特徴点を抽出できない場合又は特徴点を追跡できない場合、カメラ姿勢の推定精度が低下、又は、推定が破たんしてしまう。
この他、従来から、ジャイロセンサ、加速度センサなどの姿勢計測手段を用いて、カメラ姿勢を計測する手法も提案されている(例えば、特許文献2参照)。このカメラ姿勢計測手法では、センサの検知方式がデッドレコニング(相対的自己位置推定)のため、ドリフト成分の誤差が生じてしまう。また、このカメラ姿勢計測手法では、ドリフト成分の誤差を無視しても、映像制作に求められる精度を満たしていないのが現状である。
さらに、センサを用いるカメラ姿勢計測手法では、センサ自体の姿勢又はセンサが装着されたカメラ筐体の姿勢を計測することになり、被写体に対して計測を行っているわけでない。このため、このカメラ姿勢計測手法では、撮影カメラを移動させたり、向きを変えたりした際、カメラ筐体やレンズに構造的な歪みに起因した被写体の計測誤差が発生し、この計測誤差を校正して、正確なカメラ姿勢を得ることが困難である。
以上のように、撮影映像を用いるカメラ姿勢推定手法、及び、センサを用いるカメラ姿勢計測手法は、それぞれ、異なる長所と短所を有しており、撮影環境を選ばす、高精度なカメラ姿勢を得ることが困難である。
そこで、従来から、撮影映像及びセンサを用いる手法を併用することも提案されている(以下、「従来の併用手法」と呼ぶ)。従来の併用手法では、カメラ姿勢の推定精度を評価する尺度として、再投影誤差の総和平均を求めている。
なお、再投影誤差とは、3次元座標で表された被写体上の特徴点を撮影カメラの撮像面に再投影した2次元座標と、抽出した特徴点の2次元座標との誤差を示す。
そして、従来の併用手法では、この再投影誤差の総和平均に基づいて、撮影映像から推定されたカメラ姿勢、又は、センサで計測されたカメラ姿勢の何れかを選択的に利用する。このとき、従来の併用手法では、対応点が撮影映像に偏りなく存在する場合、各特徴点の再投影誤差が均一なので、この再投影誤差の総和平均がある程度の範囲に収まり、カメラ姿勢の推定精度を正しく評価することができる。
特開2009−237845 特開2007−142993
しかし、従来の併用手法では、対応点が撮影映像に偏在する場合、各特徴点の再投影誤差が不均一であっても、再投影誤差の総和平均がある程度の範囲に収束してしまい、カメラ姿勢の推定精度を正しく評価することが困難である。
そこで、本願発明は、前記した問題を解決し、高い精度でカメラ姿勢を推定できるカメラ姿勢推定装置及びそのプログラムを提供することを課題とする。
前記した課題を解決するため、本願第1発明に係るカメラ姿勢推定装置は、撮影カメラで撮影された撮影映像と、撮影カメラに装着された計測手段が当該撮影カメラの姿勢を計測したカメラ姿勢計測情報とを用いて、撮影カメラの姿勢を推定するカメラ姿勢推定装置であって、カメラ姿勢推定手段と、不均一度算出手段と、偏在度算出手段と、評価値判定手段と、高精度区間推定手段と、中精度区間推定手段と、精度区間推定手段と、を備えることを特徴とする。
かかる構成によれば、カメラ姿勢推定装置は、カメラ姿勢推定手段によって、撮影映像を構成するフレーム画像から特徴点を抽出し、異なるフレーム画像の間で同一の特徴点が対応付けられた対応点を探索し、外れ値除外処理及び最適化処理により、撮影カメラの姿勢を推定したカメラ姿勢推定情報と、フレーム画像に含まれる対応点の空間位置とを求める。
また、カメラ姿勢推定装置は、不均一度算出手段によって、フレーム画像の分割領域毎に、カメラ姿勢推定情報を用いて、空間位置で表した対応点をフレーム画像に再投影した再投影位置と、カメラ姿勢推定手段が探索した対応点の画像内位置との再投影誤差平均値を算出し、再投影誤差平均値の最大及び最小の比である不均一度を算出する。
また、カメラ姿勢推定装置は、偏在度算出手段によって、フレーム画像の各分割領域に含まれる対応点の数に基づいて、対応点の偏在度を算出する。
また、カメラ姿勢推定装置は、評価値判定手段によって、評価値に基づいて、評価値に基づいて、撮影映像について、カメラ姿勢推定情報の推定精度が高い高精度区間と、推定精度が高精度区間よりも低い中精度区間と、推定精度が中精度区間よりも低い低精度区間とを判定する。
この評価値は、偏在度と不均一度との比で表される。このため、カメラ姿勢推定装置は、対応点が撮影映像に偏在し、各対応点の再投影誤差が不均一になる場合でも、撮影カメラの姿勢推定精度を正しく評価することができる。
また、カメラ姿勢推定装置は、高精度区間推定手段によって、高精度区間における撮影カメラの姿勢推定結果として、カメラ姿勢推定情報を出力する。そして、カメラ姿勢推定装置は、中精度区間推定手段によって、カメラ姿勢計測情報を拘束条件とした最適化処理により、カメラ姿勢推定情報を用いて撮影カメラの姿勢を再推定して、中精度区間における撮影カメラの姿勢推定結果として出力する。さらに、カメラ姿勢推定装置は、低精度区間推定手段によって、低精度区間における撮影カメラの姿勢推定結果として、カメラ姿勢計測情報を出力する。
また、本願第2発明に係るカメラ姿勢推定装置は、不均一度算出手段が、4つの分割領域毎に再投影誤差平均値を算出し、後記する式(1)に示すように、再投影誤差平均値の最大EreproMaxと、再投影誤差平均値の最小EreproMinとの比である不均一度Dを算出し、偏在度算出手段が、4つの分割領域毎に対応点の数を算出し、後記する式(2)に示すように、分割領域の中で最小の対応点の数NMin及び分割領域の中で2番目に少ない対応点の数NMin2ndの加算値を、分割領域毎の対応点の数Nの総和で除算することで、偏在度Sを算出することを特徴とする。
かかる構成によれば、カメラ姿勢推定装置は、不均一度及び偏在度を正確に求めることができる。
また、本願第3発明に係るカメラ姿勢推定装置は、中精度区間推定手段が、カメラ姿勢計測情報を拘束条件とした最適化処理として、カメラ姿勢計測情報から、撮影カメラの方向を示す回転情報を抽出し、中精度区間のフレーム画像に含まれる対応点に対応する、高精度区間のフレーム画像に含まれる対応点の空間位置を求め、回転情報が示す撮影カメラの方向で、空間位置で表した対応点を撮影カメラの撮像面に投影し、空間位置で表された対応点と撮像面に投影された対応点との延長線が撮影カメラの光学主点に収束するように、カメラ姿勢推定情報が示す撮影カメラの位置を最適化することを特徴とする。
かかる構成によれば、カメラ姿勢推定装置は、中精度区間の境界で急激にカメラ姿勢が変化しないように補間を行うことができる。
ここで、本願第1発明に係るカメラ姿勢推定装置は、コンピュータが備えるCPU(Central Processing Unit)、メモリ、HDD(Hard Disk Drive)などのハードウェア資源を、前記した各手段として協調動作させるためのカメラ姿勢推定プログラムとして実現することもできる。このカメラ姿勢推定プログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリなどの記録媒体に書き込んで配布してもよい(本願第4発明)。
本願発明によれば、以下のような優れた効果を奏する。
本願第1,4発明によれば、対応点が撮影映像に偏在し、各対応点の再投影誤差が不均一になる場合でも、評価値が偏在度と不均一度との比で表されるため、撮影カメラの姿勢推定精度を正しく評価することができる。これによって、本願第1,4発明によれば、高い精度で撮影カメラの姿勢を推定することができる。
本願第2発明によれば、不均一度及び偏在度が正確に求められるので、より高い精度で撮影カメラの姿勢を推定することができる。
本願第3発明によれば、中精度区間の境界で急激に撮影カメラの姿勢が変化しないので、撮影カメラの姿勢推定結果を利用して、滑らかなCG映像を制作することができる。
本願発明の実施形態に係るカメラ姿勢推定装置の構成を示すブロック図である。 本願発明の実施形態において、対応点を説明する説明図である。 本願発明の実施形態において、撮影映像からカメラ姿勢を推定する原理を説明する説明図である。 本願発明の実施形態において、再投影誤差を説明する説明図である。 図1の不均一度算出手段が分割したブロックを説明する説明図である。 図1の再推定手段による再推定を説明する説明図である。 本願発明の実施形態において、回転情報の一致を説明する説明図である。 図1の再推定手段による回転情報の接続を説明する説明図である。 本願発明の実施形態において、位置情報の一致を説明する説明図である。 図1の再推定手段によるせん断を説明する説明図である。 図1のカメラ姿勢推定装置の動作を示すフローチャートである。 本願発明の変形例において、対応点の分布と偏在度との関係を説明する説明図である。
(実施形態)
[カメラ姿勢推定システムの概略]
図1を参照し、カメラ姿勢推定システム100の概略について、説明する。
図1に示すように、カメラ姿勢推定システム100は、撮影カメラCの姿勢を推定するものであり、撮影カメラCと、カメラ姿勢推定装置1とを備える。
撮影カメラCは、映像を撮影する一般的なカメラである。本実施形態では、撮影カメラCは、姿勢計測手段Caと、レンズ状態計測手段Cbとを備える。
姿勢計測手段Caは、撮影カメラCの姿勢を計測するものであり、例えば、撮影カメラCに装着されたジャイロスコープ及び加速度センサである。そして、姿勢計測手段Caは、撮影カメラCの姿勢を示すセンサ情報(カメラ姿勢計測情報)を、カメラ姿勢推定装置1に出力する。
このセンサ情報は、撮影カメラCの方向を示す回転情報(回転行列)と、撮影カメラCの位置を示す位置情報(並進行列)とが含まれる。
レンズ状態計測手段Cbは、撮影カメラCのレンズ状態(例えば、ズーム値)を計測するものである。例えば、レンズ状態計測手段Cbは、ズームリング(不図示)の回転量を計測するロータリーエンコーダである。そして、レンズ状態計測手段Cbは、レンズ状態を示すレンズ情報を、カメラ姿勢推定装置1に出力する。
なお、撮影カメラCは、レンズ状態、及び、カメラ姿勢を計測可能であれば、姿勢計測手段Ca及びレンズ状態計測手段Cbが特に制限されない。例えば、姿勢計測手段Caは、別途、センサーカメラ(不図示)を取り付け、このセンサーカメラの映像を解析して、撮影カメラCの位置情報を生成してもよい。
カメラ姿勢推定装置1は、撮影カメラCから入力された撮影映像及びセンサ情報を併用して、撮影カメラCの姿勢を推定するものである。
撮影映像を用いるカメラ姿勢推定手法では、その推定精度が高い程、CG映像の品質が良好になる。このため、撮影映像を用いるカメラ姿勢推定手法は、映像制作に高い親和性を有する。従って、カメラ姿勢推定装置1は、撮影映像を用いるカメラ姿勢推定手法を基本とする。
以下、「撮影映像を用いるカメラ姿勢推定手法」を「画像解析」と略記する場合がある。
すなわち、カメラ姿勢推定装置1は、画像解析による推定結果を評価し、撮影映像を、推定精度が高い高精度区間と、推定精度が中程度の中精度区間と、推定精度が低い低精度区間とに区分する。
ここで、カメラ姿勢推定装置1は、高精度区間について、画像解析による推定結果をそのまま出力する。
また、カメラ姿勢推定装置1は、中精度区間について、画像解析による推定結果を、センサ情報を利用して補間する。つまり、カメラ姿勢推定装置1は、僅かに特徴点を追跡できる中精度区間において、この特徴点と、姿勢計測手段Caによるセンサ情報とを併用した再推定を行うことで、推定結果の精度を可能な限り向上させる。
さらに、カメラ姿勢推定装置1は、低精度区間について、センサ情報を出力する。
[カメラ姿勢推定装置の構成]
以下、カメラ姿勢推定装置1の構成について、説明する。
図1に示すように、カメラ姿勢推定装置1は、記憶手段10と、画像解析手段(カメラ姿勢推定手段)20と、推定結果判定手段30と、第1補間処理手段(高精度区間推定手段)40と、再推定手段(中精度区間推定手段)50と、第2補間処理手段(低精度区間推定手段)60とを備える。
記憶手段10は、例えば、撮影カメラCから入力された撮影映像と、センサ情報と、レンズ情報とを記憶する半導体記録装置である。このとき、記憶手段10は、撮影映像を構成するフレーム画像にセンサ情報及びレンズ情報を紐付けて、記憶する。
画像解析手段20は、記憶手段10に記憶された撮影映像に画像解析処理を施すことで、撮影カメラCの姿勢を示す姿勢情報(カメラ姿勢推定情報)を求めるものである。具体的には、画像解析手段20は、画像解析処理として、特徴点抽出処理、対応点探索処理、外れ値除外処理、及び、最適化処理を行う。
この姿勢情報は、撮影カメラCの方向を示す回転情報(回転行列)と、撮影カメラCの位置を示す位置情報(並進行列)とが含まれる。
まず、画像解析手段20は、基準画像及び参照画像とから、SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)などの特徴点を抽出する。
図2に示すように、基準画像90は、撮影映像を構成するフレーム画像のうち、画像解析処理が施されるフレーム画像である。
参照画像91は、基準画像90と異なるフレーム画像である。
次に、画像解析手段20は、基準画像90から抽出された特徴点92を追跡し、基準画像90と参照画像91との間で対応点92を探索する。この対応点92は、基準画像90と参照画像91との間で同一の特徴点92が対応付けられたものである。図2の例では、画像解析手段20は、前景部分の対応点92と、テーブルの隅にある対応点92と、箱の隅にある対応点92とを探索する。
次に、画像解析手段20は、RANSAC(RANdom SAmple Consensus)、LMedS(the Least Median of Squares)などの外れ値除外処理を施す。そして、画像解析手段20は、バンドルアジャストメントなど最適化処理を行い、姿勢情報及び対応点92の3次元座標(空間位置)を求める。図3の例では、基準画像90及び参照画像91,91´において、対応点92,92,92の2次元座標(画像位置)が既知である。また、被写体Objの特徴点92,92,92が、基準画像90及び参照画像91,91´の対応点92,92,92に対応する。従って、画像解析手段20は、この対応点92,92,92の対応関係を利用して、最適化処理により、被写体Objの特徴点92,92,92の3次元座標と、姿勢情報とを求めることができる。
その後、画像解析手段20は、記憶手段10に記憶された撮影映像と、センサ情報と、レンズ情報とを、推定結果判定手段30に出力する。さらに、画像解析手段20は、画像解析処理により求めた姿勢情報と、被写体Obj上の対応点の3次元座標と、画像解析処理の過程で得られた対応点の2次元座標とを、推定結果判定手段30に出力する。
なお、カメラ姿勢推定装置1は、基準画像90及び参照画像91が異なるフレーム画像であれば、基準画像90及び参照画像91を任意に設定できる。例えば、カメラ姿勢推定装置1は、撮影映像が短い場合、基準画像90と参照画像91とを全て組み合わせて、画像解析処理を行う。また、カメラ姿勢推定装置1は、撮影映像が長い場合、処理負荷が高くなるので、撮影映像を一定時間(例えば、30秒)毎に分割し、分割した撮影映像毎に画像解析処理を行ってもよい。さらに、カメラ姿勢推定装置1は、撮影映像が長い場合、撮影映像にシーン抽出処理を施して、同一シーンの撮影映像毎に画像解析処理を行ってもよい。
図1に戻り、カメラ姿勢推定装置1の構成について、説明を続ける。
推定結果判定手段30は、画像解析手段20の推定結果がどの程度の精度であるかを判定するものであり、不均一度算出手段31と、偏在度算出手段33と、評価値判定手段35とを備える。
不均一度算出手段31は、基準画像90のブロック(分割領域)毎に、姿勢情報を用いて再投影誤差の平均値を算出し、不均一度Dを算出するものである。
この再投影誤差とは、被写体Obj上の対応点を基準画像90に再投影した2次元座標(再投影位置)と、画像解析手段20が抽出した対応点の2次元座標(画像内座標)との誤差を示す。
偏在度算出手段33は、基準画像90の各ブロックに含まれる対応点の数に基づいて、偏在度Sを算出するものである。
評価値判定手段35は、偏在度Sと不均一度Dとの比である評価値Cに基づいて、撮影映像について、高精度区間と、中精度区間と、低精度区間とを判定するものである。
<推定結果判定手段による判定>
図4,図5を参照し、推定結果判定手段30による判定について、説明する(適宜図1参照)。
カメラ姿勢推定装置1は、正解となるカメラ姿勢を有していない。このため、推定結果判定手段30は、推定条件が良いか悪いかを拠り所として、間接的に推定結果の精度を判定することになる。ここで、本願発明者は、以下(A)〜(D)の知見を得ている。
(A)動画像中で推定対象のフレーム画像(基準画像)と他のフレーム画像(参照画像)とで同一の特徴点、つまり、対応点が少ない場合、カメラ姿勢の推定が破綻しやすい傾向にある。無論、カメラ姿勢の推定に必要な対応点数を満たさなければ、カメラ姿勢の推定そのものを行えない。
(B)対応点は、特徴点の特徴ベクトルの類似度から求められるが、必ずしも正解ではなく、誤対応点が含まれる。推定対象のフレーム画像において、対応点における誤り率、つまり、誤対応の割合が多い場合、推定精度の低下又は推定の破綻を引き起こす。
(C)最適化によって、姿勢情報と、対応点の3次元位置とが求まる。求めた姿勢情報及びレンズ情報を用いて、求めた対応点の3次元座標(空間位置)を撮影カメラCの撮像面(基準画像90)に再投影する。この対応点の2次元座標(再投影位置)と、画像解析処理により求めた2次元座標(画像内位置)とは、本来、同一位置になる。なぜならば、最適化処理は、対応点を撮像面に再投影した再投影位置と、画像解析処理により求めた対応点とについて、両位置の距離の総和平均をコスト関数とし、このコスト関数を最小とする処理のためである。
なお、再投影の手法については、説明を後記する。
従って、誤対応がある場合、図4に示すように、対応点92と、この対応点92を撮影カメラCの撮像面(基準画像90)に再投影した位置92´とが、同一位置にならない。つまり、対応点92の再投影誤差Δ1は、対応点92と再投影位置92´との位置ずれを示す。
なお、対応点92,92も対応点92と同様のため、説明を省略する。
一般的に、推定が上手く行えたか否かを判定する尺度には、従来の再投影誤差の総和平均が用いられる。この再投影誤差の総和平均は、対応点がフレーム画像に均一に分散し、各対応点における再投影誤差が一様に小さくなるならば、推定精度を正しく評価することができる。しかし、再投影誤差が大きくなる場合、推定精度が低下又は推定が破綻している可能性が高い。最適化処理では、統計的にカメラ姿勢を推定するため、例えば、対応点が偏在する場合、その偏在部位が適切に最適化されない状態となり、全体として真値から外れた値に収束することとなる。この場合、再投影誤差の大きい対応点は、その数が少ないため、最適化にあまり寄与しないか、又は、外れ値として除外されることになる。従って、再投影誤差が不均一であるか否かを基準画像のブロック毎に評価することで、再投影誤差がある程度の範囲に収まっている場合でも、推定精度が低いか否かを判定できる。
(D)推定対象のフレーム画像で対応点が偏在する場合、その偏在部分でオーバーフィッティング(過学習)することとなり、推定精度が低下する。
ここで、評価値Cを用いるまでもなく、(A)を判定することができる。(B)については、誤対応であるか否かの判定が困難であるが、(C)及び(D)の評価に包含することができる。従って、(C)及び(D)の知見から、評価値Cは、以下のように求めることができる。
不均一度Dは、式(1)に示すように、再投影誤差平均値の最大EreproMaxと、再投影誤差平均値の最小EreproMinとの比で表される。
Figure 2014216813
この場合、不均一度算出手段31は、図5の破線で図示したように、基準画像90を4個のブロックに分割し、各対応点で再投影誤差を求める。そして、不均一度算出手段31は、各ブロックに含まれる対応点の再投影誤差を平均し、ブロック毎に再投影誤差平均値を求める。さらに、不均一度算出手段31は、最大誤差となるブロックの再投影誤差平均値をEreproMaxとし、最小誤差となるブロックの再投影誤差平均値をEreproMinとして、式(1)を用いて、不均一度Dを算出する。
偏在度Sは、式(2)に示すように、ブロックの中で最小の対応点の数NMin及びブロックの中で2番目に少ない対応点の数NMin2ndの加算値を、ブロック毎の対応点の数Nの総和で除算する式で定義される。
Figure 2014216813
この場合、偏在度算出手段33は、図5に示すように、基準画像90を4個のブロックに分割し、各ブロックに含まれる対応点の数をカウントする。そして、偏在度算出手段33は、対応点が最小となるブロックの対応点数をNMinとし、対応点が2番目に少ないブロックの対応点数をNMin2ndとして、式(2)を用いて、偏在度Sを算出する。
評価値Cは、式(3)に示すように、偏在度Sと不均一度Dとの比で表される。この評価値Cは、値が大きくなるほど推定精度が高いことを示し、値が小さくなるほど推定精度が低いことを示す。
Figure 2014216813
評価値判定手段35は、各基準画像から評価値Cを算出し、式(4)を用いて、評価値Cが閾値Cth未満であるか否かを判定する。具体的には、評価値判定手段35は、式(4)を満たさない場合、基準画像が高精度区間に属すると判定する。一方、評価値判定手段35は、式(4)を満たす場合、この基準画像が高精度区間以外の区間(中精度区間又は低精度区間の何れか)に属すると判定する。
Figure 2014216813
前記したように、対応点の数が少ない場合、推定精度の低下又は推定の破綻を引き起こす。また、対応点探索処理の時点において、ある程度の対応点が残っている場合でも、外れ値除外処理により対応点の数が減少することもある。このため、評価値判定手段35は、最適化処理後の対応点数を用いて、高精度区間以外に属すると判定された区間について、中精度区間としての再推定が行えるか否かを判定する。
ここで、最適化処理後に残った対応点が、高精度区間の基準画像と、高精度区間以外の参照画像とに含まれる場合を考える。この場合、高精度区間以外の参照画像に含まれる対応点の数をPとする。そして、評価値判定手段35は、式(5)に示すように、この対応点数Pが閾値Pthを超えるか否かを判定する。
Figure 2014216813
評価値判定手段35は、式(5)を満たす場合、基準画像が中精度区間に属すると判定する。一方、評価値判定手段35は、式(5)を満さない場合、基準画像が低精度区間に属すると判定する。
その後、推定結果判定手段30は、高精度区間について、姿勢情報を第1補間処理手段40に出力する。また、推定結果判定手段30は、中精度区間について、姿勢情報と、センサ情報と、レンズ情報と、対応点情報とを再推定手段50に出力する。さらに、推定結果判定手段30は、低精度区間について、センサ情報を第2補間処理手段60に出力する。
なお、対応点情報とは、基準画像内での対応点の2次元座標と、被写体上の対応点の3次元座標とを示す。
なお、閾値Cth及び閾値Pthは、経験的に求めた値を手動で設定することとし、撮影映像のサイズや品質などにより調整することが好ましい。本実施形態では、例えば、閾値Cth=0.05とし、閾値Pth=100とに設定した。
<再投影の手法>
以下、再投影の手法について、説明する。
再投影を行うための射影変換は、式(6)及び式(7)で定義することができる。
Figure 2014216813
Figure 2014216813
この式(6)及び式(7)では、対応点の3次元座標を(Xworld,Yworld,Zworld)、撮影カメラCの回転行列をR、撮影カメラCの並進行列をT、撮影カメラCの撮像面中心を(o,o)、撮影カメラCの画素サイズを(k,k)、撮影カメラCのレンズの焦点距離をf、撮影カメラCの撮像面の2次元座標を(ximage,yimage)とする。
さらに、撮影カメラCのレンズには歪みがあるので、式(8)及び式(9)を用いて、撮影カメラCの撮像面の2次元座標(ximage,yimage)に、この歪みを反映させる。
Figure 2014216813
Figure 2014216813
この式(8)及び式(9)では、歪み補正後の撮像面の2次元座標を(x,y)、歪み補正前の撮像面の2次元座標を(x,y)、撮影カメラCのレンズ中心である歪み中心を(x,y)、n次湾曲歪み係数をK、n次タンジェンシャル歪み係数をP、撮影カメラCのレンズ中心(x,y)から2次元座標(x,y)までの距離をrとする。
つまり、式(7)で表される撮像面の2次元座標(ximage,yimage)が、式(8)及び式(9)で表される撮像面の2次元座標(x,y)に相当する。また、本実施形態では、1次湾曲歪み係数K及び2次湾曲歪み係数Kのみを考慮し(n=1,2)、レンズ中心(x,y)及びタンジェンシャル歪みを考慮していない。
なお、歪みを反映させる手法は、下記の参考文献に記載されているため、これ以上の説明を省略する。
参考文献「de Villiers, J. P.; Leuschner, F.W.; Geldenhuys, R. (17-19 November 2008). "Centi-pixel accurate real-time inverse distortion correction" . 2008 International Symposium on Optomechatronic Technologies. SPIE. doi:10.1117/12.804771」
なお、本願発明は、前記レンズモデルに限定されず、他のレンズモデルを適用してもよい。
また、本願発明は、レンズの歪みを考慮せずに、再投影を行ってもよい。
図1に戻り、カメラ姿勢推定装置1の構成について、説明を続ける。
第1補間処理手段40は、高精度区間における撮影カメラCの姿勢推定結果として、推定結果判定手段30からの姿勢情報を出力するものである。すなわち、高精度区間では、画像解析処理により求められた姿勢情報が、そのまま出力される。
再推定手段50は、センサ情報を拘束条件とした最適化処理(例えば、バンドルアジャストメント)により、姿勢情報と、レンズ情報と、対応点情報とを用いて、撮影カメラCの姿勢を再推定するものである。そして、再推定手段50は、再推定した撮影カメラCの姿勢を、中精度区間の姿勢推定結果として出力する。
<再推定手段による再推定>
図6を参照し、再推定手段50による再推定について、説明する(適宜図1参照)。
最適化処理後に残った対応点が、中精度区間に属するフレーム画像と、高精度区間に属するフレーム画像とに含まれる場合を考える。この高精度区間のフレーム画像に含まれる対応点を「残存対応点」と呼ぶことがある。
再推定手段50は、中精度区間では、姿勢情報及びセンサ情報に加えて、対応点情報も利用して再推定を行う。中精度区間は、最適化処理において、真値以外に収束したか、又は、カメラ姿勢の推定が破綻した状態である。このため、中精度区間のフレーム画像に含まれる対応点の2次元座標を用いても、高い精度でカメラ姿勢を推定することが困難である。一方、高精度区間において、最適化処理後に残った対応点(残存対応点)は、3次元座標を有している。従って、中精度区間において、この残存対応点と対応関係がある対応点は、3次元座標に紐付けることが可能になる。さらに、センサ情報のうち、撮影カメラCの方向を示す回転情報も利用可能である。
まず、再推定手段50は、中精度区間に属するフレーム画像の対応点に対応した、残存対応点の3次元座標を、対応点情報から得ることができる。また、再推定手段50は、センサ情報から回転情報を抽出する。このとき、再推定手段50は、接続点で回転情報が一致するように、後記する回転情報の接続処理を施す。
なお、接続点とは、時間方向において、高精度区間に属するフレーム画像と、中精度区間又は低精度区間に属するフレーム画像とが接する部分のことである。
次に、再推定手段50は、回転情報及びレンズ情報を拘束条件として、各対応点の3次元座標を撮像面に再投影した位置と、画像解析により得た対応点の2次元位置との距離の総和平均値が最小となるように、最適化処理を行う。具体的には、再推定手段50は、図6に示すように、3次元座標で表された被写体Objの対応点92を撮影カメラCの撮像面93に投影する。このとき、再推定手段50は、回転情報が示す方向に撮像面93を向ける。そして、再推定手段50は、被写体Objの対応点92と、撮像面93に投影された特徴点92との延長線94を求める。さらに、再推定手段50は、全ての延長線94が撮影カメラCの光学主点に収束するように、姿勢情報が示す撮影カメラC(レンズの光学主点)の位置を最適化する。
なお、図6では、図面を見やすくするため、一部符号のみを図示した。
また、撮影カメラCの撮像面93とは、撮影映像を構成するフレーム画像(基準画像90)のことである。
図1に戻り、カメラ姿勢推定装置1の構成について、説明を続ける。
第2補間処理手段60は、低精度区間における撮影カメラCの姿勢推定結果として、推定結果判定手段30からのセンサ情報を出力するものである。
ここで、低精度区間では姿勢情報を利用できない。そこで、第2補間処理手段60は、センサ情報から回転情報と、位置情報とを抽出する。また、第2補間処理手段60は、低精度区間と、中精度区間及び高精度区間との接続点について、回転情報の接続処理と、位置情報の接続処理とを行い、内挿補間する。
<回転情報の接続処理>
図7,図8を参照し、再推定手段50で行われる回転情報の接続処理について、説明する(適宜図1参照)。
図7に示すように、姿勢計測手段Caで計測されたセンサ情報の世界座標系αと、画像解析処理で求められた姿勢情報の世界座標系βとが、異なっている。このため、再推定手段50は、世界座標系α,βを整合させる接続処理を行う。
ここで、接続処理は、センサ情報のドリフト成分を抑制するため、撮影映像全体を処理対象とするのではなく、接続点に前後する短い区間(時間)を対象とする。
具体的には、再推定手段50は、式(10)に示すように、姿勢情報に含まれる回転行列Rを基準として、センサ情報に含まれる回転行列Rを整合させる。すなわち、再推定手段50は、回転行列Rと、回転行列Rの逆行列R −1と、回転行列Rとを乗算する。
Figure 2014216813
図8に示すように、この中精度区間95の前側F及び後側Bでは、ドリフト成分の誤差が生じている可能性がある(図8の符号A)。そこで、再推定手段50は、中精度区間95の前側Fにおいて、逆行列R −1により、回転行列R,Rを一致させる。さらに、再推定手段50は、中精度区間95の後側Bを一致させた際に生じる回転行列Rの誤差成分を4元数で表し、フレーム間距離を用いて、回転行列Rの誤差成分を線形に配分する。これによって、再推定手段50は、中精度区間95と高精度区間96との接続点において、回転成分のショックを低減し、回転情報が急激に変化することを防止できる(図8の符号A´)。
なお、第2補間処理手段60は、再推定手段50と同様、低精度区間と、中精度区間又は高精度区間との接続点で、回転情報の接続処理を行うため、説明を省略する。
<位置情報の接続処理>
図9,図10を参照し、第2補間処理手段60で行われる位置情報の接続処理について、説明する(適宜図1参照)。
この低精度区間の前後において、並進成分は、回転成分よりも大きな誤差が生じる。
まず、第2補間処理手段60は、低精度区間の前側において、平行移動によって、姿勢情報に含まれる撮影カメラCの位置と、センサ情報に含まれる撮影カメラC´の位置とを一致させる。具体的には、第2補間処理手段60は、図9に示すように、位置情報が示す撮影カメラCの位置まで、センサ情報が示す撮影カメラC´の位置を平行移動させて、撮影カメラC,C´の位置を一致させる。
次に、第2補間処理手段60は、低精度区間の後側において、空間のせん断処理、又は、スケーリング処理の何れかを行って、姿勢情報に含まれる位置情報と、センサ情報に含まれる位置情報とを一致させる。これによって、第2補間処理手段60は、接続点において、並進成分のショックを低減し、位置情報が急激に変化することを防止できる。
空間のせん断処理とは、3次元空間のX,Y,Z軸で、アフィン変換のせん断を行うことである。例えば、X軸方向のせん断であれば、図10(a)に示すように、X軸方向への変位がY座標値に比例させる。また、X軸方向のせん断では、図10(b)に示すように、X軸方向への変位をZ座標値に比例させてもよい。この図10では、アフィン変換前を実線で図示し、アフィン変換後を破線で図示した。
スケーリング処理とは、低精度区間の前側を回転軸とし、低精度区間の後側が一致するよう回転及びスケーリングを行う処理のことである。
なお、本実施形態では、第2補間処理手段60が空間のせん断を行っている。
[カメラ姿勢推定装置の動作]
図11を参照し、カメラ姿勢推定装置1の動作について、説明する(適宜図1参照)。
ここで、記憶手段10は、撮影映像と、センサ情報と、レンズ情報とが記憶されていることとする。
カメラ姿勢推定装置1は、画像解析手段20によって、記憶手段10に記憶された撮影映像に画像解析処理を施すことで、姿勢情報を求める(ステップS1)。
カメラ姿勢推定装置1は、不均一度算出手段31によって、前記した式(1)を用いて、不均一度Dを算出する(ステップS2)。
カメラ姿勢推定装置1は、偏在度算出手段33によって、前記した式(2)を用いて、偏在度Sを算出する(ステップS3)。
カメラ姿勢推定装置1は、評価値判定手段35によって、前記した式(3)を用いて、評価値Cを算出する(ステップS4)。
カメラ姿勢推定装置1は、評価値判定手段35によって、評価値Cが閾値Cth未満であるか否かを判定する(ステップS5)。
評価値Cが閾値Cth未満の場合(ステップS5でYes)、カメラ姿勢推定装置1は、評価値判定手段35によって、対応点数Pが閾値Pthを超えるか否かを判定する(ステップS6)。
対応点数Pが閾値Pthを超える場合(ステップS6でYes)、カメラ姿勢推定装置1は、再推定手段50によって、センサ情報を拘束条件とした最適化処理により、姿勢情報と、レンズ情報と、対応点情報とを用いて、再推定を行う(ステップS7)。
対応点数Pが閾値Pth以下の場合(ステップS6でNo)、カメラ姿勢推定装置1は、第2補間処理手段60によって、低精度区間における撮影カメラCの姿勢推定結果として、センサ情報を出力する(ステップS8)。
評価値Cが閾値Cth以上の場合(ステップS5でNo)、カメラ姿勢推定装置1は、高精度区間における撮影カメラCの姿勢推定結果として、姿勢情報を出力する(ステップS9)。
以上のように、カメラ姿勢推定装置1は、対応点が撮影映像に偏在し、各特徴点の再投影誤差が不均一になる場合でも、式(1)〜式(5)を用いて、不均一度D及び偏在度Sを正確に算出することができる。このため、カメラ姿勢推定装置1は、撮影カメラCの姿勢推定精度を正しく評価して、高い精度で撮影カメラの姿勢を推定することができる。
さらに、カメラ姿勢推定装置1は、再推定手段50によって、接続点で急激に撮影カメラCの姿勢が変化しないように再推定を行うので、滑らかなCG映像を制作できる。
なお、カメラ姿勢推定装置1は、ディスクリートロジックや、FPGA(Field Programmable Gate Array)などを利用したハードウェアで実現することができる。また、カメラ姿勢推定装置1は、一般的なコンピュータを前記した各手段として協調動作させるソフトウェア(プログラム)で実現することもできる。
(変形例)
なお、本願発明は、前記した実施形態に限定されず、その趣旨を逸脱しない範囲で変形を加えることができる。
不均一度算出手段31及び偏在度算出手段33は、基準画像90を4個以外のブロックに分割してもよい。
また、不均一度算出手段31及び偏在度算出手段33は、基準画像90を矩形状のブロックに分割するのではなく、エッジ領域又は色領域で分割してもよい。
以下、基準画像90を4個のブロック以外に分割した場合について、評価値Cの算出手法を説明する(適宜図1参照)。
基本的には、推定結果判定手段30は、分散及び相関と、再投影誤差とを考慮して、評価値Cを算出する。
まず、不均一度算出手段31は、再投影誤差が一定以下となる対応点を抽出する。また、不均一度算出手段31は、基準画像内で対応点の分散(画像上の位置)を算出する。この分散は、2次元座標系の共分散でなく、対応点の重心位置からの距離に対する分散である。これによって、不均一度算出手段31は、式(11)に示すように、再投影誤差が小さい対応点が基準画像の特定箇所に集中しているか否かの判定指標(不均一度Dの二乗)を得ることができる。
この式(11)では、対応点の重心位置がx ̄であり、対応点の数がnであり、各対応点の距離がxである。
Figure 2014216813
偏在度算出手段33は、式(12)に示すように、基準画像内で対応点の相関を算出する。これによって、偏在度算出手段33は、再投影誤差が小さい対応点の偏在傾向の判定指標(偏在度S)を得ることができる。
この式(12)対応点の重心位置の2次元座標が(x ̄,y ̄)であり、対応点の2次元座標が(x,y)である。
Figure 2014216813
図12の例では、偏在度Sが‘0’に近い程、対応点が偏在していないことを示し、偏在度Sが‘1’に近い程、対応点が偏在していることを示す。この図12の例では、基準画像内での対応点の分布をドットで図示し、その偏在度Sを基準画像の上部に図示した。つまり、図12では、偏在度Sと、対応点の分布との関係を20パターン例示した。
ここで、基準画像を4個のブロック以外に分割した場合を考える。この場合、評価値判定手段35は、ブロック分割する手法と、ブロック分割しない手法とを利用することができる。
ブロック分割する場合、評価値判定手段35は、ブロック毎に再投影誤差が一定以下の対応点数をカウントする。そして、評価値判定手段35は、対応点数が一定以上のブロックのフラグを‘1’、対応点数が一定未満のブロックのフラグを‘0’に設定する。さらに、評価値判定手段35は、フラグが‘1’に設定されたブロックに対し、前記した式(11)及び式(12)の算出手法(対応点を1ブロックの座標に置換)を適用することで、前記した(3)を用いて、評価値Cを算出できる。
一方、評価値判定手段35は、ブロック分割せずに、再投影誤差が一定以下の対応点を点単位で利用する場合、それら対応点の座標を用いて、前記した式(11)及び式(12)の算出手法(対応点を1ブロックの座標に置換)を適用することで、前記した(3)を用いて、評価値Cを算出できる。
本願発明は、CG合成、拡張現実(AR:Augmented Reality)などの映像制作に利用することができる。
1 カメラ姿勢推定装置
10 記憶手段
20 画像解析手段(カメラ姿勢推定手段)
30 推定結果判定手段
31 不均一度算出手段
33 偏在度算出手段
35 評価値判定手段
40 第1補間処理手段(高精度区間推定手段)
50 再推定手段(中精度区間推定手段)
60 第2補間処理手段(低精度区間推定手段)
100 カメラ姿勢推定システム
C 撮影カメラ
Ca 姿勢計測手段
Cb レンズ状態計測手段

Claims (4)

  1. 撮影カメラで撮影された撮影映像と、前記撮影カメラに装着された姿勢計測手段が当該撮影カメラの姿勢を計測したカメラ姿勢計測情報とを用いて、前記撮影カメラの姿勢を推定するカメラ姿勢推定装置であって、
    前記撮影映像を構成するフレーム画像から特徴点を抽出し、異なる前記フレーム画像の間で同一の特徴点が対応付けられた対応点を探索し、外れ値除外処理及び最適化処理により、前記撮影カメラの姿勢を推定したカメラ姿勢推定情報と、前記フレーム画像に含まれる対応点の空間位置とを求めるカメラ姿勢推定手段と、
    前記フレーム画像の分割領域毎に、前記カメラ姿勢推定情報を用いて、前記空間位置で表した対応点を前記フレーム画像に再投影した再投影位置と、前記カメラ姿勢推定手段が探索した対応点の画像内位置との再投影誤差平均値を算出し、前記再投影誤差平均値の最大及び最小の比である不均一度を算出する不均一度算出手段と、
    前記フレーム画像の各分割領域に含まれる対応点の数に基づいて、前記対応点の偏在度を算出する偏在度算出手段と、
    前記偏在度と前記不均一度との比である評価値に基づいて、前記撮影映像について、前記カメラ姿勢推定情報の推定精度が高い高精度区間と、当該推定精度が前記高精度区間よりも低い中精度区間と、当該推定精度が前記中精度区間よりも低い低精度区間とを判定する評価値判定手段と、
    前記高精度区間における撮影カメラの姿勢推定結果として、前記カメラ姿勢推定情報を出力する高精度区間推定手段と、
    前記カメラ姿勢計測情報を拘束条件とした最適化処理により、前記カメラ姿勢推定情報を用いて前記撮影カメラの姿勢を再推定して、前記中精度区間における撮影カメラの姿勢推定結果として出力する中精度区間推定手段と、
    前記低精度区間における撮影カメラの姿勢推定結果として、前記カメラ姿勢計測情報を出力する低精度区間推定手段と、
    を備えることを特徴とするカメラ姿勢推定装置。
  2. 前記不均一度算出手段は、4つの前記分割領域毎に再投影誤差平均値を算出し、式(1)に示すように、前記再投影誤差平均値の最大EreproMaxと、前記再投影誤差平均値の最小EreproMinとの比である前記不均一度Dを算出し、
    前記偏在度算出手段は、4つの前記分割領域毎に対応点の数を算出し、式(2)に示すように、前記分割領域の中で最小の対応点の数NMin及び前記分割領域の中で2番目に少ない対応点の数NMin2ndの加算値を、前記分割領域毎の対応点の数Nの総和で除算することで、前記偏在度Sを算出することを特徴とする請求項1に記載のカメラ姿勢推定装置。
    Figure 2014216813
    Figure 2014216813
  3. 前記中精度区間推定手段は、前記カメラ姿勢計測情報を拘束条件とした最適化処理として、
    前記カメラ姿勢計測情報から、前記撮影カメラの方向を示す回転情報を抽出し、
    前記中精度区間のフレーム画像に含まれる対応点に対応する、前記高精度区間のフレーム画像に含まれる対応点の空間位置を求め、
    当該空間位置で表した対応点を、前記回転情報が示す方向を指した撮影カメラの撮像面に投影し、
    当該空間位置で表された対応点と前記撮像面に投影された対応点との延長線が前記撮影カメラの光学主点に収束するように、前記カメラ姿勢推定情報が示す撮影カメラの位置を最適化することを特徴とする請求項1又は請求項2に記載のカメラ姿勢推定装置。
  4. コンピュータを、請求項1に記載のカメラ姿勢推定装置として機能させるためのカメラ姿勢推定プログラム。
JP2013092096A 2013-04-25 2013-04-25 カメラ姿勢推定装置及びそのプログラム Active JP6061770B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013092096A JP6061770B2 (ja) 2013-04-25 2013-04-25 カメラ姿勢推定装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013092096A JP6061770B2 (ja) 2013-04-25 2013-04-25 カメラ姿勢推定装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2014216813A true JP2014216813A (ja) 2014-11-17
JP6061770B2 JP6061770B2 (ja) 2017-01-18

Family

ID=51942171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013092096A Active JP6061770B2 (ja) 2013-04-25 2013-04-25 カメラ姿勢推定装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6061770B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005532A (ja) * 2015-06-11 2017-01-05 富士通株式会社 カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム
WO2017057054A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR20170053007A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 자세 추정 방법 및 자세 추정 장치
CN112824994A (zh) * 2019-11-15 2021-05-21 株式会社东芝 位置推定装置、位置推定方法及程序
WO2021156852A1 (en) * 2020-02-03 2021-08-12 Asherov Assaf System and method for identifying a relative position and direction of a camera relative to an object
KR20220077731A (ko) * 2020-12-02 2022-06-09 한국항공대학교산학협력단 카메라 자세와 대상 물체의 3d 좌표를 동시에 추정하는 동시 추정 장치 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7332403B2 (ja) 2019-09-11 2023-08-23 株式会社東芝 位置推定装置、移動体制御システム、位置推定方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279310A (ja) * 2002-03-22 2003-10-02 Canon Inc 位置姿勢補正装置、及び位置姿勢補正方法
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2006242943A (ja) * 2005-02-04 2006-09-14 Canon Inc 位置姿勢計測方法及び装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279310A (ja) * 2002-03-22 2003-10-02 Canon Inc 位置姿勢補正装置、及び位置姿勢補正方法
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2006242943A (ja) * 2005-02-04 2006-09-14 Canon Inc 位置姿勢計測方法及び装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005532A (ja) * 2015-06-11 2017-01-05 富士通株式会社 カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム
WO2017057054A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017057054A1 (ja) * 2015-09-30 2018-08-02 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10803600B2 (en) 2015-09-30 2020-10-13 Sony Corporation Information processing device, information processing method, and program
KR20170053007A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 자세 추정 방법 및 자세 추정 장치
KR102462799B1 (ko) * 2015-11-05 2022-11-03 삼성전자주식회사 자세 추정 방법 및 자세 추정 장치
CN112824994A (zh) * 2019-11-15 2021-05-21 株式会社东芝 位置推定装置、位置推定方法及程序
WO2021156852A1 (en) * 2020-02-03 2021-08-12 Asherov Assaf System and method for identifying a relative position and direction of a camera relative to an object
KR20220077731A (ko) * 2020-12-02 2022-06-09 한국항공대학교산학협력단 카메라 자세와 대상 물체의 3d 좌표를 동시에 추정하는 동시 추정 장치 및 방법
KR102421067B1 (ko) 2020-12-02 2022-07-13 한국항공대학교산학협력단 카메라 자세와 대상 물체의 3d 좌표를 동시에 추정하는 동시 추정 장치 및 방법

Also Published As

Publication number Publication date
JP6061770B2 (ja) 2017-01-18

Similar Documents

Publication Publication Date Title
JP6061770B2 (ja) カメラ姿勢推定装置及びそのプログラム
US10176554B2 (en) Camera calibration using synthetic images
JP6338021B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US10762643B2 (en) Method for evaluating image data of a vehicle camera
US9420265B2 (en) Tracking poses of 3D camera using points and planes
KR20140014298A (ko) 모바일 디바이스들에 대한 평면 맵핑 및 트래킹
EP3028252A1 (en) Rolling sequential bundle adjustment
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
JP6985897B2 (ja) 情報処理装置およびその制御方法、プログラム
JP2008185375A (ja) Sar画像の3d形状算出装置及びsar画像の歪補正装置
CN112184811B (zh) 单目空间结构光系统结构校准方法及装置
JP2019190974A (ja) キャリブレーション装置、キャリブレーション方法、及びプログラム
JP2017011328A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5476264B2 (ja) カメラトラッキング装置およびそのプログラム
JP2011238048A (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
JP6116765B1 (ja) 物体検出装置及び物体検出方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP2006350465A (ja) 画像マッチング装置、画像マッチング方法および画像マッチング用プログラム
KR102126722B1 (ko) 3차원 피사체 인식의 안티-스푸핑 방법
CN107945166B (zh) 基于双目视觉的待测物体三维振动轨迹的测量方法
JP2002163647A (ja) レンズ歪み係数算出装置および算出方法、レンズ歪み係数算出プログラムを記録したコンピュータ読み取り可能な記録媒体
US9245343B1 (en) Real-time image geo-registration processing
JP6843552B2 (ja) 画像処理装置、画像処理方法およびプログラム。

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161213

R150 Certificate of patent or registration of utility model

Ref document number: 6061770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250