JP6842039B2 - カメラ位置姿勢推定装置、方法およびプログラム - Google Patents
カメラ位置姿勢推定装置、方法およびプログラム Download PDFInfo
- Publication number
- JP6842039B2 JP6842039B2 JP2017039450A JP2017039450A JP6842039B2 JP 6842039 B2 JP6842039 B2 JP 6842039B2 JP 2017039450 A JP2017039450 A JP 2017039450A JP 2017039450 A JP2017039450 A JP 2017039450A JP 6842039 B2 JP6842039 B2 JP 6842039B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- region
- posture
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
さらに、1つの案では、上記のカメラ位置姿勢推定装置と同様の処理をコンピュータに実行させるカメラ位置姿勢推定プログラムが提供される。
〔第1の実施の形態〕
図1は、第1の実施の形態に係るカメラ位置姿勢推定装置の構成例および処理例を示す図である。図1に示すカメラ位置姿勢推定装置1は、記憶部1aと演算部1bを有する。記憶部1aは、例えば、カメラ位置姿勢推定装置1が備える記憶装置(図示せず)の記憶領域として実装される。演算部1bは、例えば、カメラ位置姿勢推定装置1が備えるプロセッサ(図示せず)として実装される。
次に、図1のカメラ位置姿勢推定装置1が備える位置姿勢の推定処理を、位置姿勢の推定に失敗した状態から推定を再開する復帰処理に利用した端末装置の例について説明する。
RAM102は、端末装置100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。
カメラ108は、撮像素子によって得られた画像信号をデジタル化して、プロセッサ101に送信する。
<端末装置の処理機能>
図3は、端末装置が備える処理機能の構成例を示すブロック図である。端末装置100は、記憶部110、トラッキング処理部120、マップ作成部130および重畳表示制御部140を有する。記憶部110は、端末装置100が備える記憶装置(例えば、RAM102、SSD103など)の記憶領域として実装される。トラッキング処理部120、マップ作成部130および重畳表示制御部140の処理は、例えば、プロセッサ101が所定のプログラムを実行することで実現される。
トラッキング処理部120は、カメラ108から撮像画像を取得するたびに、その撮像時のカメラ108の位置姿勢を推定する。また、トラッキング処理部120は、位置姿勢が正しく推定された撮像画像の中からキーフレームを選択し、そのキーフレームに関するキーフレーム情報をキーフレーム情報テーブル112に登録する。
位置姿勢推定部122は、まず、現画像から特徴点を抽出する。次に、位置姿勢推定部122は、キーフレーム情報テーブル112に登録されたキーフレームの中から、現画像に類似するキーフレームを近傍キーフレームとして特定する。例えば、位置姿勢推定部122は、現画像と、キーフレーム情報テーブル112に登録されたキーフレームのそれぞれを所定サイズに縮小し、さらにガウシアンフィルタでぼかす。そして、位置姿勢推定部122は、現画像とキーフレームそれぞれとの間で輝度値のSSD(Sum of Squared Distance)を計算し、SSDが最小のキーフレームを近傍キーフレームとして特定する。
品質判定部123は、位置姿勢推定部122によって推定された絶対位置姿勢の推定品質を判定する。例えば、位置姿勢推定部122によって現画像から抽出された特徴点の総数をF1、それらの特徴点のうち、位置姿勢推定部122の処理によって近傍キーフレーム上のマップ点と対応付けられた特徴点の数をF2とする。品質判定部123は、F2/F1が所定の閾値(例えば、0.3)以上の場合に推定品質が高いと判定し、閾値未満の場合に推定品質が低いと判定する。
まず、復帰処理の第1の比較例として、本実施の形態と同様の三次元マップとキーフレーム情報を用いた方法を例示する。この方法では、現画像内の特徴点とキーフレーム内のマップ点とが対応付けされ、対応付けられたキーフレーム中のマップ点についての三次元マップの座標情報に基づき、特徴点とマップ点との対応関係から絶対位置姿勢が推定される。
本実施の形態では、復帰処理部125は、現画像と近傍キーフレームとの間の相対位置姿勢を算出する際に、局所的な特徴量の比較ではなく、特徴点の周囲領域とマップ点の周囲領域との間の画素値の比較を行う。これにより、類似画像パターンが多数現れる場合における相対位置姿勢の算出精度の低下を抑制し、その結果として絶対位置姿勢の推定精度を向上させる。
ξn=ξr・ξ1 ・・・(1)
仮相対位置姿勢算出部125aによって算出される相対位置姿勢は、現画像と近傍キーフレームの各縮小画像から算出される大まかな算出値であり、詳細相対位置姿勢算出部125bでの処理の初期値として用いられる。そこで、ここでは、仮相対位置姿勢算出部125aによって算出される相対位置姿勢を「仮相対位置姿勢」と呼び、ξr0で表す。
S=ΣiΣj[I2(i,j)−I1(i,j)]2 ・・・(6)
詳細相対位置姿勢算出部125bは、輝度差の二乗和Sが最小となるような相対位置姿勢ξrを、ガウス・ニュートン法を用いた反復計算によって算出し、その算出結果を詳細相対位置姿勢ξr1として出力する。以上の計算によれば、近傍キーフレームI1と現画像I2との間で、局所的な特徴点同士の特徴量ではなく、特徴点の周囲画素を含む注目領域同士の画素値が比較されることによって、詳細相対位置姿勢ξr1が算出される。これによって、類似する画像パターンが多数現れる場合でも、詳細相対位置姿勢ξr1の算出精度が低下しにくくなる。
最後に、詳細相対位置姿勢算出部125bは、算出された詳細相対位置姿勢ξr1と、近傍キーフレームI1についての絶対位置姿勢ξ1とに基づいて、現画像I2についての絶対位置姿勢ξnを推定する。絶対位置姿勢ξnは、前述の式(1)から算出することができる。上記のように、詳細相対位置姿勢ξr1の算出精度が低下しにくくなっていることから、現画像I2についての絶対位置姿勢ξnの推定精度を向上させることができる。
次に、トラッキング処理部120の処理についてフローチャートを用いて説明する。
図10、図11は、トラッキング処理部の処理手順の例を示すフローチャートである。
[ステップS12]位置姿勢推定部122は、現画像から特徴点を抽出する。
[ステップS21]仮相対位置姿勢算出部125aは、現画像の縮小画像と近傍キーフレームの縮小画像との合わせ込みを行うことで、現画像と近傍キーフレームとの間の仮相対位置姿勢ξr0を算出する。なお、近傍キーフレームは、図10のステップS13で特定されたキーフレームである。仮相対位置姿勢算出部125aは、算出された仮相対位置姿勢ξr0を、この後の反復計算(ステップS22〜S25)で用いる相対位置姿勢ξrの初期値として設定する。
[ステップS25]詳細相対位置姿勢算出部125bは、反復計算の結果、輝度差の二乗和Sが収束したかを判定する。この処理は、具体的には次のようにして実行される。
A=JTJ ・・・(9)
a=−JTe ・・・(10)
ここで、Jは、e(ξr)のヤコビ行列であり、下記の式(11)のように表される。また、式(11)中のeは、式(12)のように表される。なお、式(8)のAは、ヘッセ行列をヤコビ行列によって二次近似したものである。
A・δξr=a ・・・(13)
詳細相対位置姿勢算出部125bは、式(13)を解いてδξrを計算する。そして、詳細相対位置姿勢算出部125bは、式(14)にしたがってδEを計算する。
δE=E(ξr+δξr)−E(ξr) ・・・(14)
詳細相対位置姿勢算出部125bは、ステップS22〜S24での変化量|δE|/Eを、収束を判定するための指標値として用いる。あるいは、指標値としては、変化量|δξr|/ξrが用いられてもよい。詳細相対位置姿勢算出部125bは、指標値が十分小さい場合、輝度差の二乗和Sが収束したと判定する。この場合、詳細相対位置姿勢算出部125bは、このときのξrを詳細相対位置姿勢ξr1として出力し、ステップS27の処理を実行する。
[ステップS26]詳細相対位置姿勢算出部125bは、ξrをξr+δξrによって更新する。この後、ステップS22に戻り、更新されたξrを用いた処理が実行される。
図12は、第1の変形例での注目領域の特定方法を説明するための図である。第2の実施の形態では、図9に示したように、近傍キーフレーム上のマップ点および現画像上の特徴点を中心とした縦横N画素の領域が、注目領域として設定された。これに対して、第1の変形例では、近傍キーフレーム上のマップ点の中から、エッジ251上に存在するマップ点252a,252bのペアが抽出される。そして、注目領域253は、X軸とY軸のうち、一方の方向(図12ではX軸方向)に対する範囲が、マップ点252a,252bのペアを包含する範囲となるように設定される。また、他方の方向(図12ではY軸方向)に対する範囲が、マップ点252a,252bのペアを結ぶ線(図12ではエッジ251)を中心として、その方向に沿って両側にM画素を含むように設定される。第1の変形例では、上記のような注目領域がキーフレームから複数特定される。
[ステップS23b]詳細相対位置姿勢算出部125bは、近傍キーフレーム内のマップ点の中から、同一のエッジ上に存在するマップ点のペアを特定する。そして、詳細相対位置姿勢算出部125bは、近傍キーフレーム上に、特定されたマップ点のペアのそれぞれに対応する注目領域を特定する。さらに、詳細相対位置姿勢算出部125bは、特定されたマップ点のペアに対応する現画像上の移動先のペアを特定し、現画像上に、移動先のペアのそれぞれに対応する注目領域を特定する。
ここで、ステップS23で特定された注目領域を「第1注目領域」と呼び、ステップS23bで特定された注目領域を「第2注目領域」と呼ぶ。また、近傍キーフレームI1上のi番目のマップ点に対応する第1注目領域に含まれるj番目の画素の輝度値をI1(i,j)と表し、現画像I2上のi番目の移動先に対応する第1注目領域に含まれるj番目の画素の輝度値をI2(i,j)と表す。さらに、近傍キーフレームI1上のm番目のマップ点ペアに対応する第2注目領域に含まれるn番目の画素の輝度値をI1(m,n)と表し、現画像I2上のm番目の移動先ペアに対応する第2注目領域に含まれるn番目の画素の輝度値をI2(m,n)と表す。このとき、詳細相対位置姿勢算出部125bは、輝度差の二乗和Sを次の式(15)にしたがって算出する。
S=ΣiΣj[I2(i,j)−I1(i,j)]2+ΣmΣn[I2(m,n)−I1(m,n)]2 ・・・(15)
[ステップS25a]詳細相対位置姿勢算出部125bは、ステップS24aで算出された輝度差の二乗和Sを適用して、図11のステップS25と同様の手順により収束したか否かを判定する。
図14は、画像ピラミッドの構成例を示す図である。図14に示す画像ピラミッドは、元の画像に対応する階層L1と、元の画像を縮小した縮小画像の階層L2〜L4とを有する。階層L2の画像は、階層L1の画像の1/2のサイズを有し、階層L3の画像は、階層L2の画像の1/2のサイズを有し、階層L4の画像は、階層L3の画像の1/2のサイズを有する。なお、ここでは、階層L4を最上位階層とし、階層L1を最下位階層とする。
[ステップ21a]詳細相対位置姿勢算出部125bは、ステップS22以降の処理に用いる近傍キーフレームおよび現画像として、最上位階層(階層L4)の画像を選択する。
1a 記憶部
1b 演算部
2a,2b キー画像
3a,3b 姿勢値
4 現画像
5a,5b,6a,6b 領域
Claims (8)
- 複数の第1の画像と、前記複数の第1の画像それぞれの撮像時におけるカメラの位置姿勢を示す複数の第1の姿勢値とを記憶する記憶部と、演算部とを有し、
前記演算部は、
前記複数の第1の画像の中から第2の画像に類似する第3の画像を特定し、
前記第3の画像から複数画素を含む第1の領域を特定するとともに、前記第2の画像から前記第1の領域に対応する第2の領域を推定し、
前記第1の領域と前記第2の領域との間の画素値の比較結果と、前記複数の第1の姿勢値のうち前記第3の画像に対応する第2の姿勢値とに基づいて、前記第2の画像の撮像時における前記カメラの位置姿勢を示す第3の姿勢値を推定する、
カメラ位置姿勢推定装置。 - 前記第2の領域の推定では、前記第2の姿勢値が示す位置姿勢に対する、前記第2の画像の撮像時における前記カメラの相対的な位置姿勢を示す相対姿勢値に基づいて前記第2の領域を推定したときに、前記第1の領域と前記第2の領域との間の画素値の差分が最小になるような前記相対姿勢値を算出し、
前記第3の姿勢値の推定では、前記相対姿勢値と前記第2の姿勢値とに基づいて前記第3の姿勢値を推定する、
請求項1記載のカメラ位置姿勢推定装置。 - 前記第2の領域の推定は、
前記第3の画像を縮小した第1の縮小画像と前記第2の画像を縮小した第2の縮小画像とに基づいて、前記第2の姿勢値が示す位置姿勢に対する、前記第2の画像の撮像時における前記カメラの相対的な位置姿勢を示す第1の相対姿勢値を算出し、
前記第1の相対姿勢値を第2の相対姿勢値の初期値として設定し、
前記第2の相対姿勢値に基づいて前記第2の領域を推定したときに前記第1の領域と前記第2の領域との間の画素値の差分が最小になるような前記第2の相対姿勢値を、反復計算によって算出する、
処理を含み、
前記第3の姿勢値の推定では、前記反復計算によって算出された前記第2の相対姿勢値と、前記第2の姿勢値とに基づいて、前記第3の姿勢値を推定する、
請求項2記載のカメラ位置姿勢推定装置。 - 前記第2の領域の推定では、前記第3の画像と前記第2の画像とそれぞれを変換して得られるサイズの異なる複数の画像ペアを、サイズの小さい順に用いて前記反復計算を繰り返し実行し、
前記複数の画像ペアのうち、第1の画像ペアを用いた前記反復計算によって算出された前記第2の相対姿勢値が、前記第1の画像ペアの次にサイズが大きい第2の画像ペアを用いた前記反復計算における前記第2の相対姿勢値の初期値として設定される、
請求項3記載のカメラ位置姿勢推定装置。 - 前記第3の画像は、複数の特徴点を含み、
前記第1の領域は、前記複数の特徴点のうち、前記第3の画像上のエッジで結ばれた特徴点ペアを含む3以上の画素を含む領域として特定される、
請求項1乃至4のいずれか1項に記載のカメラ位置姿勢推定装置。 - 前記記憶部は、複数の第1の特徴点それぞれについての三次元空間上の座標を示す複数の第1のマップ点座標を記憶し、
前記演算部は、さらに、前記複数の第1のマップ点座標のうち、第4の画像から抽出された第2の特徴点についての第2のマップ点座標に基づいて、前記第4の画像の撮像時における前記カメラの位置姿勢を示す第4の姿勢値を推定し、
前記第1の領域の特定および前記第2の領域の推定は、前記第4の姿勢値の推定に失敗した場合に実行され、
前記第2の画像は、前記第4の姿勢値の推定に失敗した後に前記カメラによって撮像された画像である、
請求項1乃至5のいずれか1項に記載のカメラ位置姿勢推定装置。 - コンピュータが、
複数の第1の画像と、前記複数の第1の画像それぞれの撮像時におけるカメラの位置姿勢を示す複数の第1の姿勢値とを記憶する記憶部を参照し、
前記複数の第1の画像の中から第2の画像に類似する第3の画像を特定し、
前記第3の画像から複数画素を含む第1の領域を特定するとともに、前記第2の画像から前記第1の領域に対応する第2の領域を推定し、
前記第1の領域と前記第2の領域との間の画素値の比較結果と、前記複数の第1の姿勢値のうち前記第3の画像に対応する第2の姿勢値とに基づいて、前記第2の画像の撮像時における前記カメラの位置姿勢を示す第3の姿勢値を推定する、
カメラ位置姿勢推定方法。 - コンピュータに、
複数の第1の画像と、前記複数の第1の画像それぞれの撮像時におけるカメラの位置姿勢を示す複数の第1の姿勢値とを記憶する記憶部を参照し、
前記複数の第1の画像の中から第2の画像に類似する第3の画像を特定し、
前記第3の画像から複数画素を含む第1の領域を特定するとともに、前記第2の画像から前記第1の領域に対応する第2の領域を推定し、
前記第1の領域と前記第2の領域との間の画素値の比較結果と、前記複数の第1の姿勢値のうち前記第3の画像に対応する第2の姿勢値とに基づいて、前記第2の画像の撮像時における前記カメラの位置姿勢を示す第3の姿勢値を推定する、
処理を実行させるカメラ位置姿勢推定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017039450A JP6842039B2 (ja) | 2017-03-02 | 2017-03-02 | カメラ位置姿勢推定装置、方法およびプログラム |
US15/903,752 US10636165B2 (en) | 2017-03-02 | 2018-02-23 | Information processing apparatus, method and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017039450A JP6842039B2 (ja) | 2017-03-02 | 2017-03-02 | カメラ位置姿勢推定装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018147095A JP2018147095A (ja) | 2018-09-20 |
JP6842039B2 true JP6842039B2 (ja) | 2021-03-17 |
Family
ID=63355256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017039450A Active JP6842039B2 (ja) | 2017-03-02 | 2017-03-02 | カメラ位置姿勢推定装置、方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10636165B2 (ja) |
JP (1) | JP6842039B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7131994B2 (ja) * | 2018-07-04 | 2022-09-06 | 株式会社東芝 | 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム |
JP7182976B2 (ja) | 2018-09-27 | 2022-12-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
KR102559203B1 (ko) * | 2018-10-01 | 2023-07-25 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
GB2577719B (en) * | 2018-10-03 | 2023-04-26 | Cmr Surgical Ltd | Navigational aid |
KR102198187B1 (ko) * | 2018-12-28 | 2021-01-04 | 엘지전자 주식회사 | 이동 로봇 |
JP7085646B2 (ja) * | 2018-12-28 | 2022-06-16 | 株式会社Nttドコモ | 位置推定システム |
US11263780B2 (en) * | 2019-01-14 | 2022-03-01 | Sony Group Corporation | Apparatus, method, and program with verification of detected position information using additional physical characteristic points |
JP7220591B2 (ja) * | 2019-03-07 | 2023-02-10 | 三菱重工業株式会社 | 自己位置推定装置、自己位置推定方法及びプログラム |
US20220291686A1 (en) * | 2019-10-01 | 2022-09-15 | Sony Semiconductor Solutions Corporation | Self-location estimation device, autonomous mobile body, self-location estimation method, and program |
CN111695519B (zh) * | 2020-06-12 | 2023-08-08 | 北京百度网讯科技有限公司 | 关键点定位方法、装置、设备以及存储介质 |
US12094184B2 (en) * | 2020-09-22 | 2024-09-17 | Apple Inc. | Contextual matching |
JP7258250B2 (ja) * | 2020-12-18 | 2023-04-14 | 三菱電機株式会社 | 位置・姿勢推定装置、位置・姿勢推定方法、及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4898464B2 (ja) | 2007-01-17 | 2012-03-14 | キヤノン株式会社 | 情報処理装置および方法 |
JP2011008687A (ja) | 2009-06-29 | 2011-01-13 | Sharp Corp | 画像処理装置 |
JP5423406B2 (ja) | 2010-01-08 | 2014-02-19 | ソニー株式会社 | 情報処理装置、情報処理システム及び情報処理方法 |
WO2014181725A1 (ja) * | 2013-05-07 | 2014-11-13 | シャープ株式会社 | 画像計測装置 |
-
2017
- 2017-03-02 JP JP2017039450A patent/JP6842039B2/ja active Active
-
2018
- 2018-02-23 US US15/903,752 patent/US10636165B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018147095A (ja) | 2018-09-20 |
US20180253861A1 (en) | 2018-09-06 |
US10636165B2 (en) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6842039B2 (ja) | カメラ位置姿勢推定装置、方法およびプログラム | |
JP6435750B2 (ja) | 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム | |
JP6237326B2 (ja) | 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム | |
US9420265B2 (en) | Tracking poses of 3D camera using points and planes | |
JP5722502B2 (ja) | モバイルデバイスのための平面マッピングおよびトラッキング | |
CA2507174C (en) | Method of registering and aligning multiple images | |
JP5699788B2 (ja) | スクリーン領域検知方法及びシステム | |
JP6372149B2 (ja) | 表示制御装置、表示制御方法および表示制御プログラム | |
JP6256475B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
Taketomi et al. | Real-time and accurate extrinsic camera parameter estimation using feature landmark database for augmented reality | |
KR100951309B1 (ko) | 광학식 모션 캡처 장비를 위한 다중 카메라 보정 방법 | |
CN111062966B (zh) | 基于l-m算法和多项式插值对相机跟踪进行优化的方法 | |
JP5439277B2 (ja) | 位置姿勢計測装置及び位置姿勢計測プログラム | |
JP2019091493A (ja) | ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法 | |
JP4694624B2 (ja) | 画像補正装置及び方法、並びにコンピュータプログラム | |
Wientapper et al. | Composing the feature map retrieval process for robust and ready-to-use monocular tracking | |
JP2017130042A (ja) | 映像処理装置、映像処理方法、及びプログラム | |
JP5878454B2 (ja) | 推定装置、推定方法及びコンピュータプログラム | |
JP2018173882A (ja) | 情報処理装置、方法、及びプログラム | |
JP6228239B2 (ja) | プリミティブの組を用いてデータをレジストレーションする方法 | |
JP2014102805A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2009146150A (ja) | 特徴位置検出方法及び特徴位置検出装置 | |
JP6080424B2 (ja) | 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置 | |
JP2018032144A (ja) | 画像処理装置、画像処理方法およびプログラム。 | |
JP2017027363A (ja) | 映像処理装置、映像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191112 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20191118 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6842039 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |