JP2017097770A - カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム - Google Patents

カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム Download PDF

Info

Publication number
JP2017097770A
JP2017097770A JP2015231989A JP2015231989A JP2017097770A JP 2017097770 A JP2017097770 A JP 2017097770A JP 2015231989 A JP2015231989 A JP 2015231989A JP 2015231989 A JP2015231989 A JP 2015231989A JP 2017097770 A JP2017097770 A JP 2017097770A
Authority
JP
Japan
Prior art keywords
feature point
camera
feature
orientation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015231989A
Other languages
English (en)
Other versions
JP6575325B2 (ja
Inventor
厚憲 茂木
Atsunori Mogi
厚憲 茂木
山口 伸康
Nobuyasu Yamaguchi
伸康 山口
吉武 敏幸
Toshiyuki Yoshitake
敏幸 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015231989A priority Critical patent/JP6575325B2/ja
Priority to US15/352,722 priority patent/US10223804B2/en
Publication of JP2017097770A publication Critical patent/JP2017097770A/ja
Application granted granted Critical
Publication of JP6575325B2 publication Critical patent/JP6575325B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

【課題】適切な特徴点の対応関係に基づいた復帰処理を実行すること。【解決手段】カメラ位置姿勢推定装置100は、キーフレームに含まれる複数の第1特徴点と、カメラによって撮影された撮影画像に含まれる複数の第2特徴点とを対応付ける。カメラ位置姿勢推定装置100は、対応付けた第1特徴点と第2特徴点との組それぞれについて、第1特徴点の特徴量および第2特徴点の特徴量に基づく画像対応ベクトルを算出し、複数の画像対応ベクトルの分布に基づいて、第1特徴点と第2特徴点との対応付けが適切に行われているか否かを判定する。カメラ位置姿勢推定装置100は、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定した場合に、カメラの位置姿勢を推定する処理を行わないように制御する。【選択図】図1

Description

本発明は、カメラ位置姿勢推定装置等に関する。
近年、PC(Personal Computer)、携帯端末、ウェアラブル端末等に装着されるカメラの位置姿勢を推定し、推定結果を用いて、画面に表示されたカメラ画像に付加情報を重畳表示させ、ユーザの作業を支援する技術がある。
ユーザが作業中の場合には、カメラの位置姿勢が頻繁に変化するため、カメラの位置姿勢の推定が一時的に失敗する状態になりやすい。このため、推定が失敗した状態から再びカメラの位置姿勢を推定する処理を再開することが求められている。以下の説明では、適宜、推定失敗により再びカメラの位置姿勢を推定する処理を復帰処理と表記する。
復帰処理を行う従来技術の一例について説明する。従来技術では、カメラの位置姿勢の推定に成功したタイミングで断続的に、成功した時点の画像とカメラの位置姿勢とを対応付けたキーフレームを生成する。そして、従来技術では、復帰処理を行う場合に、現在のカメラの画像に近いキーフレームを検出し、検出したキーフレームの特徴点と、現在のカメラの画像の特徴点とを対応付けることで、現在のカメラの位置姿勢を推定する。
また、キーフレームと現在の画像との間で対応付けた複数の特徴点の組のうち、誤差の少ない特徴点の組を選び出し、選び出した特徴点の組を用いて、復帰処理を実行する従来技術もある。
米国特許第8836799B2号明細書 特開2012−221042号公報
しかしながら、上述した従来技術では、キーフレームを用いた特徴点の対応付けが誤った状態で復帰処理を実行してしまうという問題がある。
例えば、特徴点の対応付けが誤っていると、カメラの位置姿勢の推定精度が悪化するため、カメラの画像に付加情報を重畳する位置が適切な位置からずれてしまう場合がある。また、複数の特徴点の組のうち、誤差の少ない特徴点の組を選び出す従来技術では、特徴点の対応付けに誤りがあると、誤差の少ない特徴点の組を選び出す処理の試行回数が増加し、処理量が増加するという問題も発生する。
1つの側面では、本発明は、適切な特徴点の対応関係に基づいた復帰処理を実行することができるカメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラムを提供することを目的とする。
第1の案では、カメラ位置姿勢推定装置は、対応付け部と、画像対応ベクトル算出部と、判定部と、制御部とを有する。対応付け部は、カメラの位置姿勢の推定に成功した時点でのカメラの撮影画像を示すキーフレームに含まれる複数の第1特徴点と、カメラによって撮影された撮影画像に含まれる複数の第2特徴点とを対応付ける。画像対応ベクトル算出部は、対応付け部によって対応付けられた第1特徴点と第2特徴点との組それぞれについて、第1特徴点の特徴量および第2特徴点の特徴量に基づく画像対応ベクトルを算出する。判定部は、画像対応ベクトル算出部によって算出された複数の画像対応ベクトルの分布に基づいて、第1特徴点と第2特徴点との対応付けが適切に行われているか否かを判定する。制御部は、判定部によって、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定された場合に、カメラの位置姿勢を推定する処理を行わないように制御する。
適切な特徴点の対応関係に基づいた復帰処理を実行することができる。
図1は、本実施例に係るカメラ位置姿勢推定装置の構成を示す機能ブロック図である。 図2は、3次元マップのデータ構造の一例を示す図である。 図3は、カメラ位置姿勢推定部の処理を説明するための図である。 図4は、キーフレームテーブルのデータ構造の一例を示す図である。 図5は、ベクトルの分布の一例を示す図である。 図6は、撮影画像上の特徴点と対応付けた3次元マップのデータ構造の一例を示す図である。 図7は、本実施例に係るカメラ位置姿勢推定装置の処理手順を示すフローチャートである。 図8は、判定部のその他の処理を説明するための図(1)である。 図9は、判定部のその他の処理を説明するための図(2)である。 図10は、復帰処理部のその他の処理を説明するための図である。 図11は、カメラ位置姿勢推定プログラムを実行するコンピュータの一例を示す図である。
以下に、本願の開示するカメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係るカメラ位置姿勢推定装置の構成を示す機能ブロック図である。図1に示すように、カメラ位置姿勢推定装置100は、カメラ50に接続される。カメラ位置姿勢推定装置100は、画像取得部110と、特徴点抽出部120と、カメラ位置姿勢推定部130とを有する。カメラ位置姿勢推定装置100は、品質判定部140と、キーフレーム検出部150と、対応付け部160と、ベクトル算出部170と、判定部180と、制御部190と、復帰処理部200とを有する。ベクトル算出部170は、画像対応ベクトル算出部の一例である。
カメラ50は、PC、携帯端末、ウェアラブル端末等に装着された単眼RGB(Red Green Blue)カメラである。カメラ50は、任意の視点の画像を撮影し、撮影画像を画像取得部110に出力する。
画像取得部110は、カメラ50に接続され、カメラ50から撮影画像を取得する処理部である。画像取得部110は、撮影画像を特徴点抽出部120に出力する。
特徴点抽出部120は、撮影画像から特徴点を抽出する処理部である。例えば、特徴点抽出部120は、SIFT、SURF、ORB等の処理を実行することで、特徴点を抽出する。例えば、特徴点は、撮影画像のエッジ等に対応する点となる。特徴点抽出部120は、特徴点の情報を、カメラ位置姿勢推定部130に出力する。特徴点の情報は、例えば、撮影画像から抽出した各特徴点の2次元座標、特徴量が含まれる。特徴量は、特徴点周辺の画素値やエッジの傾き等の情報である。
カメラ位置姿勢推定部130は、特徴点抽出部120から取得した特徴点の情報と、3次元マップとを基にして、特徴点とマップ点とのマッチングを行い、マッチング結果を基にして、カメラ50の位置姿勢を推定する処理部である。ここで、3次元マップは、対象物に関して予め定義された3次元座標のマップ点を示すものである。
図2は、3次元マップのデータ構造の一例を示す図である。図2に示すように、3次元マップは、マップ点IDと、X、Y、Zと、特徴量とを対応付ける。図2において、マップ点IDは、マップ点を一意に特定する番号である。図2に示す例では、3次元マップに68個のマップ点が含まれる。X、Y、Zは、マップ点の3次元座標を示す。特徴量は、マップ点をカメラ50の画像上に投影した場合における、画像上の投影点の特徴量である。例えば、特徴量は、投影点周辺の画素値やエッジの傾き等の情報である。
カメラ位置姿勢推定部130が、マップ点と特徴点とをマッチングする処理の一例について説明する。カメラ位置姿勢推定部130は、前回推定したカメラ50の位置姿勢を用いて、特徴点が、3次元マップのどのマップ点に対応するのかを判定する。カメラ位置姿勢推定部130は、直前の時刻において、マップ点が撮影画像上に投影される座標を、式(1)により求める。以下の説明において、撮影画像上に投影されたマップ点を適宜、投影点と表記する。
Figure 2017097770
式(1)において、Aは、3行3列の行列であり、カメラ50の内部パラメータに対応する。利用者は、非特許文献「Z.Zhang, A flexible new technique for camera calibration, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, No.11, pp.1330-1334 (2000)」に基づいて、事前にカメラ50のキャリブレーションを行っておく。
式(1)において、(R|t)は、前回推定したカメラ50の位置姿勢を、式(2)に示すロドリゲス変換の公式を用いて3行3列の回転行列Rと並進ベクトルtに変換した値を融合した3行4列の行列である。(u,v)は、マップ点を撮影画像上に投影した場合の投影点の2次元座標である。(X,Y,Z)は、各マップ点の3次元座標である。
Figure 2017097770
式(2)において、Iは単位行列を示す。θは、式(3)によって定義される。rは、式(4)によって定義される。
Figure 2017097770
Figure 2017097770
図3は、カメラ位置姿勢推定部の処理を説明するための図である。図3において、マップ点S〜Sが存在するものとする。また、撮影画像20には、特徴点x〜xが存在するものとする。カメラ位置姿勢推定部130は、式(1)に基づき、マップ点S〜Sを撮影画像20上に投影すると、投影点x’〜x’が求められる。
カメラ位置姿勢推定部130は、各投影点に対してある閾値の範囲内に存在する現時刻の撮影画像の特徴点との距離をそれぞれ計算する。カメラ位置姿勢推定部130は、距離が最小となる投影点と特徴点とを特定し、特定した投影点に対応するマップ点と、特徴点とをペアとする。カメラ位置姿勢推定部130は、全ての投影点について上記処理を繰り返し実行し、投影点に対応するマップ点と、現時刻の撮影画像の特徴点とのマッチングを行う。閾値を例えば、20pixelとする。
例えば、図3に示す例では、特徴点xと、投影点x’との距離が最小となるため、特徴点xと、投影点x’に対応するマップ点Sとがペアとなる。同様にして、特徴点x〜xは、マップ点S〜Sとそれぞれペアとなる。
カメラ位置姿勢推定部130は、マッチングを行った後に、カメラ50の位置姿勢を推定する処理を実行する。カメラ位置姿勢推定部130は、3点以上の特徴点とマップ点とのペアが存在する場合、PnPアルゴリズムを用いてカメラの位置姿勢を推定する。例えば、カメラ位置姿勢推定部130は、非特許文献「V.Lepetit et al., EPnP: An Accurate O(n) Solution to the PnP Problem, International Journal of Computer Vision, Vol.81, Issue 2, pp.155-166 (2008)」に記載されたPnPアルゴリムを用いて、位置姿勢を推定しても良い。
カメラ位置姿勢推定部130は、推定したカメラの位置姿勢の情報を品質判定部140に出力する。また、カメラ位置姿勢推定部130は、3次元マップに含まれるマップ点の総数と、マッチングしたペアの数とを、品質判定部140に出力する。
品質判定部140は、カメラ位置姿勢推定部130によって推定されたカメラ50の位置姿勢の品質を判定する処理部である。例えば、品質判定部140は、3次元マップに含まれるマップ点の総数に対するマッチングしたペアの数の割合を算出する。品質判定部140は、算出した割合が所定の割合以上である場合には、カメラ50の位置姿勢の推定値が高品質であると判定する。一方、品質判定部140は、算出した割合が所定の割合未満である場合には、カメラ50の位置姿勢の推定値が低品質であると判定する。例えば、所定の割合を3割とする。
品質判定部140は、カメラ50の位置姿勢の推定値が高品質であると判定した場合には、現時刻のカメラ50の位置姿勢を、カメラ位置姿勢推定部130によって推定された位置姿勢であると確定し、所定の記憶部に記憶する。図示しないHMDの表示制御部が、記憶部に記憶されたカメラの位置姿勢を参照し、位置姿勢を利用して、カメラの撮影画像に付加情報を重畳させた画像を、HMDのディスプレイに表示させる。
品質判定部140が、カメラ50の位置姿勢の推定値が低品質であると判定した場合には、復帰処理要求を、キーフレーム検出部150に出力する。
キーフレーム検出部150は、品質判定部140から復帰処理要求を取得した場合に、現時刻の撮影画像と、キーフレームテーブルとを比較して、基準キーフレームを検出する処理部である。キーフレーム検出部150は、基準キーフレームの情報を、対応付け部160に出力する。
図4は、キーフレームテーブルのデータ構造の一例を示す図である。図4に示すように、このキーフレームテーブルは、番号と、位置姿勢と、撮影画像と、特徴点群と、マップ点ID群とを対応付ける。図4において、番号は、キーフレームを一意に識別する番号である。位置姿勢は、カメラの位置姿勢を示すものである。撮影画像は、カメラの位置姿勢の推定に成功した時点において、カメラによって撮影された画像データである。特徴点群は、キーフレームに含まれる各特徴点の2次元座標を示すものである。マップ点ID群は、各特徴点に対応付けられた各マップ点を一意に識別する情報である。
例えば、特徴点とマップ点との対応関係は、図4の特徴点群の各座標の並び順と、マップ点ID群の並び順によって示される。例えば、マップ点ID「3」に対応する特徴点の座標は「11,42」となる。図4に示す例では、キーフレームテーブルに25個のキーフレームが含まれる。
位置姿勢は、6次元(r1,r2,r3,t1,t2,t3)で表される。このうち、(r1,r2,r3)は世界座標におけるカメラの姿勢を示す。(t1,t2,t3)は、世界座標におけるカメラの位置を示す。
ここで、キーフレーム検出部150が、現時刻の撮影画像と最も類似した撮影画像を有するキーフレームを検出する処理の一例について説明する。キーフレーム検出部150は、現時刻の撮影画像と各キーフレームの撮影画像を所定のサイズに縮小し、ガウシアンフィルタによりぼかした状態で、各画素についてSSD(Sum of Squared Distance)を計算し、最もSSDの値が小さいキーフレームを基準キーフレームとして特定する。キーフレーム検出部150は、現時刻の撮影画像の情報と、基準キーフレームの情報とを、対応付け部160に出力する。
対応付け部160は、基準キーフレームに含まれる複数の特徴点と、現時刻の撮影画像に含まれる複数の特徴点とを対応付ける処理部である。以下の説明では適宜、基準キーフレームに含まれる特徴点を第1特徴点と表記し、現時刻の撮影画像の特徴点を第2特徴点と表記する。
対応付け部160は、第1特徴点の特徴量と、第2特徴点の特徴量とを比較し、特徴量の類似度が最も高くなる第1特徴点と第2特徴点とのペアを対応付ける。例えば、第1特徴点の特徴量をfbとし、第2特徴点の特徴量をfcとすると、対応付け部160は、式(5)に基づいて比較値を算出し、比較値が小さいほど、類似度が大きいと判定する。
比較値=|fb-fc|・・・(5)
対応付け部160は、未対応の第1特徴点と類似度が最も高くなる未対応の第2特徴点を特定してペアにする処理を、繰り返し実行することで、第1特徴点と第2特徴点との複数の組を生成する。対応付け部160は、対応付けた第1特徴点および第2特徴点の組の情報を、ベクトル算出部170に出力する。
ベクトル算出部170は、対応付け部160によって対応付けられた第1特徴点と第2特徴点との組それぞれについて、第1特徴点の特徴量および第2特徴点の特徴量に基づく画像対応ベクトルを算出する処理部である。ベクトル算出部170は、算出した画像対応ベクトルの情報を、判定部180に出力する。以下の説明において、画像対応ベクトルを単に、ベクトルと表記する。
例えば、第1特徴点の画像中の座標を(ub,vb)とし、第2特徴点の画像中の座標を(uc,vc)とすると、ベクトル算出部170は、式(6)に基づき、対応付けられた第1特徴点と第2特徴点とのベクトルvを算出する。ベクトル算出部170は、対応付けられた第1特徴点と第2特徴点との組毎に、ベクトルvを算出する。
ベクトルv=(uc-ub,vc-vb)・・・(6)
判定部180は、ベクトル算出部170によって算出された複数のベクトルの分布に基づいて、第1特徴点と第2特徴点との対応付けが適切に行われているか否かを判定する処理部である。判定部180は、判定結果を制御部190に出力する。
判定部180は、各ベクトルの長さの平均値aと、各ベクトルの長さの標準偏差σの値を算出し、下記の条件1、条件2を満たすか否かを判定する。基準値Aおよび基準値Σの値は、利用者が予め設定しておくものとする。
条件1:平均値a<基準値A
条件2:標準偏差σ<基準値Σ
例えば、判定部180は、条件1を満たし、かつ、条件2を満たす場合に、第1特徴点と第2特徴点との対応付けが適切に行われていると判定する。一方、判定部180は、条件1を満たさない、または、条件2を満たさない場合には、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定する。
図5は、ベクトルの分布の一例を示す図である。図5において、横軸は、ベクトルのx軸方向の成分(1番目の成分uc-ub)に対応する軸であり、縦軸は、ベクトルのy軸方向の成分(2番目の成分vc-vb)に対応する軸である。図5において、丸印は、第1特徴点と第2特徴点との対応付けが適切に行われていると判定される、各ベクトルに対応する位置を示す。ダイヤ印は、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定される各ベクトルに対応する位置を示す。
図5に示すように、第1特徴点と第2特徴点との対応付けが適切に行われている場合には、各ベクトルは、原点(0,0)付近に分布する。これに対して、第1特徴点と第2特徴点との対応付けが適切に行われていない場合には、各ベクトルは、原点(0,0)付近に分布せず、全体的に広がる。
図1の説明に戻る。制御部190は、判定部180によって、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定された場合に、カメラの位置姿勢を推定する処理を行わないように制御する。一方、制御部190は、判定部180によって、第1特徴点と第2特徴点との対応付けが適切に行われていると判定された場合に、復帰処理部200に、復帰処理要求を行う。
また、制御部190は、判定部180によって、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定された場合に、カメラの位置姿勢の推定を行うことができない旨の情報を図示しない表示装置に表示させてもよい。
復帰処理部200は、判定部180から復帰処理要求を受け付けた場合に、復帰処理を実行する処理部である。例えば、復帰処理部200は、image-to-map手法に基づき、カメラ50の位置姿勢を推定する。image-to-map手法は、上述したカメラ位置姿勢推定部130と同様にして、カメラの位置姿勢を推定するものである。復帰処理部200は、カメラの位置姿勢の推定結果を、所定の記憶部に格納する。
復帰処理部200は、対応付け部160によって対応付けられた基準キーフレームの特徴点と、現時刻の撮影画像の特徴点との対応関係を利用しても良い。基準キーフレームの特徴点は、図4で説明したように、マップ点IDと対応付けられている。このため、基準キーフレームの特徴点と、現時刻の撮影画像の特徴点との対応関係により、現時刻の撮影画像の特徴点と、マップ点IDとの対応関係がわかる。
図6は、撮影画像上の特徴点と対応付けた3次元マップのデータ構造の一例を示す図である。図6において、マップ点ID、X、Y、Z、特徴量に関する説明は、図2で説明したものと同様である。x、yは、マップ点に対応付けられた撮影画像上の特徴点のx座標、y座標を示す。
復帰処理部200は、3点以上の特徴点とマップ点とのペアが存在する場合、PnPアルゴリズムを用いてカメラの位置姿勢を推定する。
次に、本実施例に係るカメラ位置姿勢推定装置100の処理手順について説明する。図7は、本実施例に係るカメラ位置姿勢推定装置の処理手順を示すフローチャートである。図7に示すように、カメラ位置姿勢推定装置100の画像取得部110は、撮影画像を取得する(ステップS101)。カメラ位置姿勢推定装置100の特徴点抽出部120は、撮影画像から特徴点を抽出する(ステップS102)。
カメラ位置姿勢推定装置100のカメラ位置姿勢推定部130は、マップ点と特徴点とをマッチングし(ステップS103)、カメラの位置姿勢を推定する(ステップS104)。カメラ位置姿勢推定装置100の品質判定部140は、位置姿勢の推定値の品質を判定する(ステップS105)。
品質判定部140は、推定値が高品質であるか否かを判定する(ステップS106)。品質判定部140は、推定値が高品質である場合には(ステップS106,Yes)、処理を終了する。
一方、品質判定部140により、推定値が高品質でないと判定された場合には(ステップS106,No)、カメラ位置姿勢推定装置100のキーフレーム検出部150は、基準キーフレームを検出する(ステップS107)。
カメラ位置姿勢推定装置100の対応付け部160は、基準キーフレームの第1特徴点と、現時刻の撮影画像の第2特徴点とを対応付ける(ステップS108)。カメラ位置姿勢推定装置100のベクトル算出部170は、各対応点間のベクトルを計算する(ステップS109)。
カメラ位置姿勢推定装置100の判定部180は、複数のベクトルの分布に基づいて、第1特徴点と第2特徴点との対応付けが適切に行われているか否かを判定する(ステップS110)。
判定部180は、第1特徴点と第2特徴点との対応付けが適切に行われていない場合に、復帰処理が実行可能でないと判定し(ステップS111,No)、復帰処理を行うことなく、処理を終了する。すなわち、カメラ位置姿勢推定装置100の制御部190は、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定された場合に、復帰処理部200によって、復帰処理が行われないように制御する。
一方、判定部180は、第1特徴点と第2特徴点との対応付けが適切に行われている場合に、復帰処理が実行可能であると判定する(ステップS111,Yes)。カメラ位置姿勢推定装置100の復帰処理部200は、復帰処理を実行する(ステップS112)。
次に、本実施例に係るカメラ位置姿勢推定装置100の効果について説明する。カメラ位置姿勢推定装置100は、カメラの位置姿勢の品質が低品質となり、復帰処理を行う場合に、基準キーフレームの第1特徴点と、撮影画像の第2特徴点とを対応付け、各特徴点の分布に基づき、対応付けが適切であるか否かを判定する。カメラ位置姿勢推定装置100は、対応付けた適切でないと判定した場合には、復帰処理が行われないように制御する。このため、誤った特徴点の対応付けのまま、復帰処理が実行されることを抑止でき、適切な特徴点の対応関係に基づいた復帰処理を実行することができる。
また、適切な特徴点の対応関係に基づいた復帰処理を実行することができるので、復帰処理によるカメラの位置姿勢の推定精度を向上させることができる。また、適切な特徴点の対応関係に基づいた復帰処理を実行することができるので、誤差の少ない特徴点の組を選び出す処理の試行回数が抑えられ、処理量を軽減させることもできる。
カメラ位置姿勢推定装置100は、各ベクトルの長さの平均が基準平均以上で、かつ、各ベクトルの長さの分散が基準分散以上である場合に、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定する。図5で説明したように、第1特徴点と第2特徴点との対応付けが適切に行われている場合には、各ベクトルは、原点(0,0)付近に分布する。これに対して、第1特徴点と第2特徴点との対応付けが適切に行われていない場合には、各ベクトルは、原点(0,0)付近に分布せず、全体的に広がるという特徴がある。このため、上記のような判定をすることで、第1特徴点と第2特徴点との対応付けが適切に行われているか否かを精度良く判定できる。
ところで、上述したカメラ位置姿勢推定装置100の処理は一例であり、カメラ位置姿勢推定装置100は、その他の処理を実行しても良い。以下では、カメラ位置姿勢推定装置100のその他の処理(1)、(2)について説明する。
カメラ位置姿勢推定装置100のその他の処理(1)について説明する。カメラ位置姿勢推定装置100の判定部180は、ベクトル算出部170によって算出された複数のベクトルvの中央値vmを算出する。判定部180は、ベクトルv毎に、ベクトルvと中央値vmとの距離を式(7)に基づいて算出する。
距離=|v-vm|・・・(7)
判定部180は、全体のベクトルvのうち、距離が閾値Dt未満となるベクトルの割合が、r%以上である場合に、第1特徴点と第2特徴点との対応付けが適切に行われていると判定する。一方、判定部180は、全体のベクトルvのうち、距離が閾値Dt未満となるベクトルの割合が、r%未満である場合に、第1特徴点と第2特徴点との対応付けが適切に行われていないと判定する。
図8および図9は、判定部のその他の処理を説明するための図である。図8および図9に示すヒストグラムの横軸は距離を示し、縦軸は第1特徴点と第2特徴点とのペア数を示す。ペア数は、ベクトルvの数と同じである。ここでは一例として、閾値Dtを40とする。
図8は、全体のペア数のうち、距離が閾値Dt未満となるペア数の割合が、r%以上である場合のヒストグラムである。このようなヒストグラムとなれば、第1特徴点と第2特徴点との対応付けが適切に行われているといえる。距離が閾値Dt未満となるペア数の割合が、r%以上である場合には、図5の丸印で説明したように、各ベクトルは、原点(0,0)付近に分布する。
図9は、全体のペア数のうち、距離が閾値Dt未満となるペア数の割合が、r%未満である場合のヒストグラムである。このようなヒストグラムとなれば、第1特徴点と第2特徴点との対応付けが適切に行われていないといえる。距離が閾値Dt未満となるペア数の割合が、r%未満である場合には、図5のダイヤ印で説明したように、各ベクトルは、原点(0,0)付近に分布せず、全体的に広がる。
上記のように、判定部180が、ベクトルv毎にベクトルvと中央値vmとの距離を算出し、算出した距離が閾値以上となるベクトルの数が、ベクトル全体のうち、所定の割合以上の場合に、対応付けが適切に行われていないと判定する。これにより、誤った対応付けのまま復帰処理を実行することを抑止することができる。
カメラ位置姿勢推定装置100のその他の処理(2)について説明する。カメラ位置姿勢推定装置100の復帰処理部200は、制御部190から復帰処理要求を受け付けた場合に、image-to-map手法に基づき、カメラ50の位置姿勢を推定する。
ここで、復帰処理部200は、image-to-map手法に基づき、カメラ50の位置姿勢を推定する場合に、対応付け部160に対応付けられた第1特徴点と第2特徴点との組のうち、距離が閾値未満となる組を用いて、復帰処理を実行する。距離は、上述した式(7)により算出される値である。
図10は、復帰処理部のその他の処理を説明するための図である。図10に示すヒストグラムの横軸は距離を示し、縦軸は第1特徴点と第2特徴点とのペア数を示す。ペア数は、ベクトルvの数と同じである。復帰処理部200は、距離が閾値Dt未満となるペアを利用して、image-to-map手法に基づき、カメラ50の位置姿勢を推定する。すなわち、復帰処理部200は、ベクトルと中央値との距離の関係が、領域40に含まれるペアを用いないで、復帰処理を実行する。このため、誤った対応付けのまま復帰処理を実行することを抑止することができる。
なお、本実施例に係るカメラ位置姿勢推定部130、復帰処理部200は、一例として、image-to-map手法に基づき、カメラ50の位置姿勢を推定する場合について説明したがこれに限定されるものではない。例えば、カメラ位置姿勢推定部130、復帰処理部200は、image-to-image手法等その他の周知技術を用いて、カメラの位置姿勢の推定、復帰処理を実行しても良い。
次に、上記実施例に示したカメラ位置姿勢推定装置100と同様の機能を実現するカメラ位置姿勢推定プログラムを実行するコンピュータの一例について説明する。図11は、カメラ位置姿勢推定プログラムを実行するコンピュータの一例を示す図である。
図11に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305と、カメラ306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。そして、各装置301〜308は、バス309に接続される。
ハードディスク装置308は、対応付けプログラム308a、ベクトル算出プログラム308b、判定プログラム308c、制御プログラム308dを有する。CPU301は、対応付けプログラム308a、ベクトル算出プログラム308b、判定プログラム308c、制御プログラム308dを読み出してRAM307に展開する。
対応付けプログラム308aは、対応付けプロセス307aとして機能する。ベクトル算出プログラム308bは、ベクトル算出プロセス307bとして機能する。判定プログラム308cは、判定プロセス307cとして機能する。制御プログラム308dは、制御プロセス307dとして機能する。
対応付けプロセス307aの処理は、対応付け部160の処理に対応する。ベクトル算出プロセス307bの処理は、ベクトル算出部170の処理に対応する。判定プロセス307cの処理は、判定部180の処理に対応する。制御プロセス307dの処理は、制御部190の処理に対応する。
なお、対応付けプログラム308a、ベクトル算出プログラム308b、判定プログラム308c、制御プログラム308dについては、必ずしも最初からハードディスク装置308に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム308a〜308dを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)カメラの位置姿勢の推定に成功した時点でのカメラの撮影画像を示すキーフレームに含まれる複数の第1特徴点と、前記カメラによって撮影された撮影画像に含まれる複数の第2特徴点とを対応付ける対応付け部と、
前記対応付け部によって対応付けられた第1特徴点と第2特徴点との組それぞれについて、前記第1特徴点の特徴量および前記第2特徴点の特徴量に基づく画像対応ベクトルを算出する画像対応ベクトル算出部と、
前記画像対応ベクトル算出部によって算出された複数の画像対応ベクトルの分布に基づいて、前記第1特徴点と前記第2特徴点との対応付けが適切に行われているか否かを判定する判定部と、
前記判定部によって、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定された場合に、前記カメラの位置姿勢を推定する処理を行わないように制御する制御部と
を有することを特徴とするカメラ位置姿勢推定装置。
(付記2)前記判定部は、各画像対応ベクトルの長さの平均が基準平均以上で、かつ、各画像対応ベクトルの長さの分散が基準分散以上である場合に、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定することを特徴とする付記1に記載のカメラ位置姿勢推定装置。
(付記3)前記判定部は、画像対応ベクトル毎に、各画像対応ベクトルの中央値と画像対応ベクトルとの距離を算出し、距離が閾値以上となる画像対応ベクトルの数が、画像対応ベクトル全体のうち、所定の割合以上である場合に、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定することを特徴とする付記1に記載のカメラ位置姿勢推定装置。
(付記4)前記制御部は、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定した場合に、カメラの位置姿勢の推定を行わない旨の情報を表示装置に表示させることを特徴とする付記1、2または3に記載のカメラ位置姿勢推定装置。
(付記5)前記制御部は、対応付けられた第1特徴点と第2特徴点との組のうち、前記中央値と画像対応ベクトルとの距離が閾値未満となる第1特徴点と第2特徴点との組を用いて、前記カメラの位置姿勢を推定することを特徴とする付記3または4に記載のカメラ位置姿勢推定装置。
(付記6)コンピュータが実行するカメラ位置姿勢推定方法であって、
カメラの位置姿勢の推定に成功した時点でのカメラの撮影画像を示すキーフレームに含まれる複数の第1特徴点と、前記カメラによって撮影された撮影画像に含まれる複数の第2特徴点とを対応付け、
対応付けた第1特徴点と第2特徴点との組それぞれについて、前記第1特徴点の特徴量および前記第2特徴点の特徴量に基づく画像対応ベクトルを算出し、
複数の画像対応ベクトルの分布に基づいて、前記第1特徴点と前記第2特徴点との対応付けが適切に行われているか否かを判定し、
前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定した場合に、前記カメラの位置姿勢を推定する処理を行わないように制御する
処理を実行することを特徴とするカメラ位置姿勢推定方法。
(付記7)前記判定する処理は、各画像対応ベクトルの長さの平均が基準平均以上で、かつ、各画像対応ベクトルの長さの分散が基準分散以上である場合に、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定することを特徴とする付記6に記載のカメラ位置姿勢推定方法。
(付記8)前記判定する処理は、画像対応ベクトル毎に、各画像対応ベクトルの中央値と画像対応ベクトルとの距離を算出し、距離が閾値以上となる画像対応ベクトルの数が、画像対応ベクトル全体のうち、所定の割合以上である場合に、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定することを特徴とする付記6に記載のカメラ位置姿勢推定方法。
(付記9)前記コンピュータは、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定した場合に、カメラの位置姿勢の推定を行わない旨の情報を表示装置に表示させる処理を更に実行することを特徴とする付記6、7または8に記載のカメラ位置姿勢推定方法。
(付記10)前記コンピュータは、対応付けられた第1特徴点と第2特徴点との組のうち、前記中央値と画像対応ベクトルとの距離が閾値未満となる第1特徴点と第2特徴点との組を用いて、前記カメラの位置姿勢を推定する処理を更に実行することを特徴とする付記8または9に記載のカメラ位置姿勢推定方法。
(付記11)コンピュータに、
カメラの位置姿勢の推定に成功した時点でのカメラの撮影画像を示すキーフレームに含まれる複数の第1特徴点と、前記カメラによって撮影された撮影画像に含まれる複数の第2特徴点とを対応付け、
対応付けた第1特徴点と第2特徴点との組それぞれについて、前記第1特徴点の特徴量および前記第2特徴点の特徴量に基づく画像対応ベクトルを算出し、
複数の画像対応ベクトルの分布に基づいて、前記第1特徴点と前記第2特徴点との対応付けが適切に行われているか否かを判定し、
前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定した場合に、前記カメラの位置姿勢を推定する処理を行わないように制御する
処理を実行させることを特徴とするカメラ位置姿勢推定プログラム。
(付記12)前記判定する処理は、各画像対応ベクトルの長さの平均が基準平均以上で、かつ、各画像対応ベクトルの長さの分散が基準分散以上である場合に、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定することを特徴とする付記11に記載のカメラ位置姿勢推定プログラム。
(付記13)前記判定する処理は、画像対応ベクトル毎に、各画像対応ベクトルの中央値と画像対応ベクトルとの距離を算出し、距離が閾値以上となる画像対応ベクトルの数が、画像対応ベクトル全体のうち、所定の割合以上である場合に、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定することを特徴とする付記11に記載のカメラ位置姿勢推定プログラム。
(付記14)前記コンピュータに、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定した場合に、カメラの位置姿勢の推定を行わない旨の情報を表示装置に表示させる処理を更に実行させることを特徴とする付記11、12または13に記載のカメラ位置姿勢推定プログラム。
(付記15)前記コンピュータに、対応付けられた第1特徴点と第2特徴点との組のうち、前記中央値と画像対応ベクトルとの距離が閾値未満となる第1特徴点と第2特徴点との組を用いて、前記カメラの位置姿勢を推定する処理を更に実行させることを特徴とする付記13または14に記載のカメラ位置姿勢推定プログラム。
50 カメラ
100 カメラ位置姿勢推定装置
110 画像取得部
120 特徴点抽出部
130 カメラ位置姿勢推定部
140 品質判定部
150 キーフレーム検出部
160 対応付け部
170 ベクトル算出部
180 判定部
190 制御部
200 復帰処理部

Claims (7)

  1. カメラの位置姿勢の推定に成功した時点でのカメラの撮影画像を示すキーフレームに含まれる複数の第1特徴点と、前記カメラによって撮影された撮影画像に含まれる複数の第2特徴点とを対応付ける対応付け部と、
    前記対応付け部によって対応付けられた第1特徴点と第2特徴点との組それぞれについて、前記第1特徴点の特徴量および前記第2特徴点の特徴量に基づく画像対応ベクトルを算出する画像対応ベクトル算出部と、
    前記画像対応ベクトル算出部によって算出された複数の画像対応ベクトルの分布に基づいて、前記第1特徴点と前記第2特徴点との対応付けが適切に行われているか否かを判定する判定部と、
    前記判定部によって、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定された場合に、前記カメラの位置姿勢を推定する処理を行わないように制御する制御部と
    を有することを特徴とするカメラ位置姿勢推定装置。
  2. 前記判定部は、各画像対応ベクトルの長さの平均が基準平均以上で、かつ、各画像対応ベクトルの長さの分散が基準分散以上である場合に、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定することを特徴とする請求項1に記載のカメラ位置姿勢推定装置。
  3. 前記判定部は、画像対応ベクトル毎に、各画像対応ベクトルの中央値と画像対応ベクトルとの距離を算出し、距離が閾値以上となる画像対応ベクトルの数が、画像対応ベクトル全体のうち、所定の割合以上である場合に、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定することを特徴とする請求項1に記載のカメラ位置姿勢推定装置。
  4. 前記制御部は、前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定した場合に、カメラの位置姿勢の推定を行わない旨の情報を表示装置に表示させることを特徴とする請求項1、2または3に記載のカメラ位置姿勢推定装置。
  5. 前記制御部は、対応付けられた第1特徴点と第2特徴点との組のうち、前記中央値と画像対応ベクトルとの距離が閾値未満となる第1特徴点と第2特徴点との組を用いて、前記カメラの位置姿勢を推定することを特徴とする請求項3または4に記載のカメラ位置姿勢推定装置。
  6. コンピュータが実行するカメラ位置姿勢推定方法であって、
    カメラの位置姿勢の推定に成功した時点でのカメラの撮影画像を示すキーフレームに含まれる複数の第1特徴点と、前記カメラによって撮影された撮影画像に含まれる複数の第2特徴点とを対応付け、
    対応付けた第1特徴点と第2特徴点との組それぞれについて、前記第1特徴点の特徴量および前記第2特徴点の特徴量に基づく画像対応ベクトルを算出し、
    複数の画像対応ベクトルの分布に基づいて、前記第1特徴点と前記第2特徴点との対応付けが適切に行われているか否かを判定し、
    前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定した場合に、前記カメラの位置姿勢を推定する処理を行わないように制御する
    処理を実行することを特徴とするカメラ位置姿勢推定方法。
  7. コンピュータに、
    カメラの位置姿勢の推定に成功した時点でのカメラの撮影画像を示すキーフレームに含まれる複数の第1特徴点と、前記カメラによって撮影された撮影画像に含まれる複数の第2特徴点とを対応付け、
    対応付けた第1特徴点と第2特徴点との組それぞれについて、前記第1特徴点の特徴量および前記第2特徴点の特徴量に基づく画像対応ベクトルを算出し、
    複数の画像対応ベクトルの分布に基づいて、前記第1特徴点と前記第2特徴点との対応付けが適切に行われているか否かを判定し、
    前記第1特徴点と前記第2特徴点との対応付けが適切に行われていないと判定した場合に、前記カメラの位置姿勢を推定する処理を行わないように制御する
    処理を実行させることを特徴とするカメラ位置姿勢推定プログラム。
JP2015231989A 2015-11-27 2015-11-27 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム Active JP6575325B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015231989A JP6575325B2 (ja) 2015-11-27 2015-11-27 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム
US15/352,722 US10223804B2 (en) 2015-11-27 2016-11-16 Estimation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015231989A JP6575325B2 (ja) 2015-11-27 2015-11-27 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム

Publications (2)

Publication Number Publication Date
JP2017097770A true JP2017097770A (ja) 2017-06-01
JP6575325B2 JP6575325B2 (ja) 2019-09-18

Family

ID=58777035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015231989A Active JP6575325B2 (ja) 2015-11-27 2015-11-27 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム

Country Status (2)

Country Link
US (1) US10223804B2 (ja)
JP (1) JP6575325B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133318A (ja) * 2018-01-30 2019-08-08 トヨタ自動車株式会社 位置推定システム
KR102035433B1 (ko) * 2018-12-18 2019-10-23 전자부품연구원 카메라의 위치 추정과 3차원 환경 복원을 위한 영상 키프레임 기반의 확률적 필터링 방법
JP2021051717A (ja) * 2019-09-24 2021-04-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 情報出力及びカメラキャリブレーションのための方法並びに装置
KR20220094250A (ko) * 2020-12-28 2022-07-06 한국전자기술연구원 영상 내 물체의 위치 추정 시스템 및 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6775969B2 (ja) * 2016-02-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN107301402B (zh) * 2017-06-30 2020-06-16 锐捷网络股份有限公司 一种现实场景关键帧的确定方法、装置、介质及设备
KR20200037657A (ko) * 2018-10-01 2020-04-09 삼성전자주식회사 냉장고, 서버 및 냉장고의 객체 인식 방법
CN109798888B (zh) * 2019-03-15 2021-09-17 京东方科技集团股份有限公司 移动设备的姿态确定装置、方法和视觉里程计
US11412350B2 (en) * 2019-09-19 2022-08-09 Apple Inc. Mobile device navigation system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076589A (ja) * 2010-05-14 2011-04-14 Nintendo Co Ltd 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
JP2013182523A (ja) * 2012-03-02 2013-09-12 Hitachi Plant Technologies Ltd 画像処理装置、画像処理システム、画像処理方法
JP2015141676A (ja) * 2014-01-30 2015-08-03 Kddi株式会社 ガイダンス表示装置、方法及びプログラム
JP2015158461A (ja) * 2014-02-25 2015-09-03 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8337405B2 (en) * 2007-06-08 2012-12-25 Raytheon Company System and method for automatic detection of anomalies in images
JP5290865B2 (ja) 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定方法および装置
JP5530391B2 (ja) 2011-04-05 2014-06-25 日本電信電話株式会社 カメラポーズ推定装置、カメラポーズ推定方法及びカメラポーズ推定プログラム
WO2013081985A1 (en) * 2011-11-28 2013-06-06 Magna Electronics, Inc. Vision system for vehicle
AU2011253973B2 (en) * 2011-12-12 2015-03-12 Canon Kabushiki Kaisha Keyframe selection for parallel tracking and mapping
US8836799B2 (en) 2012-03-30 2014-09-16 Qualcomm Incorporated Method to reject false positives detecting and tracking image objects
GB2506338A (en) * 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
JP2014112055A (ja) 2012-12-05 2014-06-19 Denso It Laboratory Inc カメラ姿勢の推定方法およびカメラ姿勢の推定システム
US10091507B2 (en) * 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US9330469B2 (en) * 2014-04-08 2016-05-03 General Electric Company Systems and methods for boil detection
CN104732518B (zh) * 2015-01-19 2017-09-01 北京工业大学 一种基于智能机器人地面特征的ptam改进方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
JP2011076589A (ja) * 2010-05-14 2011-04-14 Nintendo Co Ltd 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法
JP2013182523A (ja) * 2012-03-02 2013-09-12 Hitachi Plant Technologies Ltd 画像処理装置、画像処理システム、画像処理方法
JP2015141676A (ja) * 2014-01-30 2015-08-03 Kddi株式会社 ガイダンス表示装置、方法及びプログラム
JP2015158461A (ja) * 2014-02-25 2015-09-03 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133318A (ja) * 2018-01-30 2019-08-08 トヨタ自動車株式会社 位置推定システム
KR102035433B1 (ko) * 2018-12-18 2019-10-23 전자부품연구원 카메라의 위치 추정과 3차원 환경 복원을 위한 영상 키프레임 기반의 확률적 필터링 방법
JP2021051717A (ja) * 2019-09-24 2021-04-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 情報出力及びカメラキャリブレーションのための方法並びに装置
US11216977B2 (en) 2019-09-24 2022-01-04 Beijing Baidu Netcom Science And Technology Co., Ltd. Methods and apparatuses for outputting information and calibrating camera
US11593964B2 (en) 2019-09-24 2023-02-28 Beijing Baidu Netcom Science And Technology Co., Ltd. Methods and apparatuses for outputting information and calibrating camera
KR20220094250A (ko) * 2020-12-28 2022-07-06 한국전자기술연구원 영상 내 물체의 위치 추정 시스템 및 방법
KR102451791B1 (ko) * 2020-12-28 2022-10-12 한국전자기술연구원 영상 내 물체의 위치 추정 시스템 및 방법

Also Published As

Publication number Publication date
JP6575325B2 (ja) 2019-09-18
US10223804B2 (en) 2019-03-05
US20170154429A1 (en) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6575325B2 (ja) カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム
JP6464934B2 (ja) カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム
US9164583B2 (en) Method and apparatus for gaze point mapping
US10839544B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
KR101365789B1 (ko) 얼굴 특징점 위치 보정 장치, 얼굴 특징점 위치 보정 방법, 및 얼굴 특징점 위치 보정 프로그램을 기록한 컴퓨터 판독가능 기록 매체
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6464938B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10957068B2 (en) Information processing apparatus and method of controlling the same
WO2017022033A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2007042072A (ja) 追跡装置
JP2017123087A (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
JPWO2019003973A1 (ja) 顔認証装置、顔認証方法およびプログラム
KR20120044484A (ko) 이미지 처리 시스템에서 물체 추적 장치 및 방법
CN110546679B (zh) 识别装置、识别系统,识别方法以及存储介质
JP2018112790A (ja) 情報処理装置およびその制御方法、プログラム
JP6589144B2 (ja) 姿勢推定方法および姿勢推定装置
JP6244886B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6229554B2 (ja) 検出装置および検出方法
WO2018032700A1 (zh) 跟踪指蹼位置的方法及其装置
JP2018036901A (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
KR20160068311A (ko) 안면 형상 기울기 보정 방법 및 보정 시스템
CN111344740A (zh) 基于标志物的摄像头图像处理方法、增强现实设备
WO2021042375A1 (zh) 人脸活体检测方法、芯片及电子设备
CN117475521A (zh) 智能装备、人脸和人体匹配的计算方法、控制装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190805

R150 Certificate of patent or registration of utility model

Ref document number: 6575325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150