JP2022112168A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2022112168A
JP2022112168A JP2021007863A JP2021007863A JP2022112168A JP 2022112168 A JP2022112168 A JP 2022112168A JP 2021007863 A JP2021007863 A JP 2021007863A JP 2021007863 A JP2021007863 A JP 2021007863A JP 2022112168 A JP2022112168 A JP 2022112168A
Authority
JP
Japan
Prior art keywords
feature point
similarity
feature
information processing
point group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021007863A
Other languages
English (en)
Inventor
将之 林
Masayuki Hayashi
奈緒子 小形
Naoko Ogata
誠 冨岡
Makoto Tomioka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021007863A priority Critical patent/JP2022112168A/ja
Publication of JP2022112168A publication Critical patent/JP2022112168A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】撮像画像から抽出された特徴点の中で、誤対応の虞が少ない特徴点を高精度かつ迅速に取得可能にする。【解決手段】情報処理装置は、撮像装置により取得された第一の画像から複数の特徴点を特徴点群として抽出し、特徴点群に含まれる夫々の特徴点を着目特徴点とし、その着目特徴点と近傍の他の特徴点との類似度を取得して、着目特徴点の類似度とする。そして、情報処理装置は、特徴点群に含まれる複数の特徴点の中から、類似度が閾値以下の特徴点を選択して選択特徴点群とする。【選択図】図1

Description

本発明は、撮像された画像を基に撮像装置の位置姿勢を推定する情報処理技術に関する。
近年、設計・製造分野において、プロトタイプを用いた評価の期間短縮、費用削減が求められている。例えばCAD(コンピュータ支援設計)システムで作成した設計(形状・デザイン)データを用いて、組み立てやすさやメンテナンス性の評価をするための複合現実感(Mixed Reality:MR)を提供するシステムが導入されている。
ここで、MRシステムによって複合現実感を提供する場合には、現実空間と仮想空間との位置合わせを、正確かつリアルタイムに実現することが求められる。現実空間と仮想空間との正確な位置合わせを実現する際に用いられる技術の一つに、撮像装置が現実空間を撮像した画像を用いて、現実空間における当該撮像装置の位置姿勢をリアルタイムに推定する技術がある。
非特許文献1には、撮像装置にて得られた画像を用いて位置姿勢を推定する処理において、画像中の局所的な特徴点に対して、オプティカルフロー(フレーム間での特徴点の追跡)推定やステレオマッチングによる奥行推定を行うことが開示されている。これらはどちらも、二つ画像間で特徴点の正しい対応を求める処理(局所的な特徴点の対応付け)に基づいている。対応点の中に誤対応点が含まれると、位置姿勢の推定精度が低下する。そのため非特許文献1では、対応点の一部をランダムに抽出して位置姿勢を推定する処理を反復し、外れ値となる対応点を誤対応点として除去している。
また特許文献1には、連続的に撮像された二つの画像間で対応点を探索する際に、第一の類似点と、その近傍点との類似度を比較し、より類似度の高い方を対応点とする方法が開示されている。
さらに非特許文献2には、対応点の探索におけるクロスマッチが開示されており、これは一方の画像の特徴点から対応点探索を行った結果と、もう一方の画像の特徴点から対応点探索を行った結果とが一致しないものを除去する方法である。
特開2017-41141号公報
R.Mur-Artal and J.D.Tardos:"ORB-SLAM: Tracking and Mapping Recognizable Features",Robotics:Science and Systems Workshop on Multi View Geometry in RObotics,2014. B.Zak and S.Hozyn:"Local Image Features Matching for Real-time Seabed Tracking Applications",Journal of Marine Engineering & Technology,volume 16,2017.
しかしながら、非特許文献1に開示された方法の場合、全対応点の中で誤対応点の比率が多く、誤対応点が幾何的な整合性を満たしている場合には、それら誤対応点を除去することができない。例えばビルの窓の四隅にある特徴点を、同じ見かけをした別の窓の四隅の特徴点と対応付けた場合などに、これらを誤対応と判定することが難しい。そのため、幾何的整合性に基づいた誤対応の除去だけでなく、画像の見かけに基づいた誤対応の除去を行う必要がある。
また特許文献1に開示された方法の場合、第一の類似点とその近傍点との類似度が同程度に高い場合などに誤対応が生じることがある。
また非特許文献2に開示された方法の場合、特徴点同士の見かけの比較回数が増加して、計算量が増加する。
言い換えると、これらの手法では、誤対応点の虞が少ない特徴点のみを迅速かつ高い精度で取得することができず、その結果、撮像装置の位置姿勢を安定的且つ高い精度で推定することができなくなることがある。
そこで本発明は、撮像画像から抽出された特徴点の中で、誤対応の虞が少ない特徴点を高精度かつ迅速に取得可能にすることを目的とする。
本発明の情報処理装置は、撮像装置により取得された第一の画像から複数の特徴点を特徴点群として抽出する特徴点抽出手段と、前記特徴点群に含まれる夫々の特徴点を着目特徴点とし、前記着目特徴点と近傍の他の特徴点との類似度を取得して、前記着目特徴点の類似度とする類似度取得手段と、前記特徴点群に含まれる前記複数の特徴点の中から、前記類似度が閾値以下の特徴点を選択して選択特徴点群とする処理手段と、を有することを特徴とする。
本発明によれば、撮像画像から抽出された特徴点の中で誤対応の虞が少ない特徴点を高精度かつ迅速に取得可能となる。
情報処理装置の構成例を示す図である。 情報処理装置のハードウェア構成例を示す図である。 画像から抽出された複数の特徴点の例を示す模式図である。 情報処理装置における処理のフローチャートである。 選択特徴点群の抽出処理のフローチャートである。
以下、実施形態を、添付の図面に基づいて詳細に説明する。以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定するものではない。なお同一の構成または処理については、同じ参照符号を付して説明する。
本実施形態では、一例として、CADシステムで作成した設計データを用いて組み立てやすさやメンテナンス性の評価をするための複合現実感(MR)システムに、情報処理装置を適用した例を挙げて説明する。MRシステムでは、現実空間と仮想空間(コンピュータグラフィクスにより描画された仮想物体や文字情報等)の画像とを合成してユーザに提供する。例えば、MRシステムに用いられるビデオシースルー方式の画像表示装置では、撮像装置で撮像された現実空間の画像に、該撮像装置の位置及び姿勢に応じて生成した仮想空間の画像を重畳描画した合成画像を表示する。また例えば、光学シースルー方式の画像表示装置では、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成された仮想空間の画像を表示する。
このようにMRシステムでは、現実空間と仮想空間との間の位置合わせを正確に行う必要があり、本実施形態では、例えば撮像装置にて撮像された画像中の局所的な特徴点に基づいて位置合わせを行うとする。ただし、局所的な特徴点の対応付けの処理では、しばしば誤対応が発生することがあり、その一因として、撮像画像中に、局所的に見ると特徴が似ている点が複数存在する場合が挙げられる。
本実施形態では、撮像装置にて得られた画像間の局所的な特徴点の対応を正しく、かつ迅速に求めるために、画像から抽出された複数の特徴点の中から、誤対応点の虞がある特徴点を除去、つまり誤対応点の虞が少ない特徴点を選択的に取得する処理を行う。本実施形態では、画像間の局所特徴点から誤対応点の虞が少ない特徴点を選択的に取得することで、撮像装置の位置姿勢推定をより安定的に実施可能とする。
図1は本実施形態に係る情報処理装置1を含むシステム構成例を示したブロック図である。図1に示すように、本実施形態にかかるシステムは、情報処理装置1が、撮像装置であるカメラ100と接続された構成となっている。なお、カメラ100は、左目用のカメラと右目用のカメラからなるステレオカメラ構成である例を挙げるが、単眼カメラや2つ以上のカメラであってもよい。
情報処理装置1は、画像入力部101、特徴点追跡部102、位置姿勢推定部103、特徴点抽出部104、類似度算出部105、類似点処理部106、マップ構築部107、マップ保持部108、および出力部109を有する。なお、これらの構成は一例であり、図示した例に限るものではない。詳細については後述するが、本実施形態の情報処理装置1は、これら構成による処理を実行することで、撮像装置の位置姿勢推定とマップ構築を行う。なお、位置姿勢推定とマップ構築の際には、撮像画像に加えて、加速度センサ、角速度センサ、超音波センサ、磁気センサ、奥行画像センサ、レーザー距離センサなどのセンサや、現実空間中に配置したマーカーから得られた情報などが用いられてもよい。以下の説明では、撮像装置の位置姿勢を、カメラ位置姿勢と呼ぶことにする。
図2は、情報処理装置1を含む本実施形態のハードウェア構成例を示した図である。
図2において、CPU201は装置全体を制御する。RAM202は、CPU201が各部を制御しながら処理を行う時に作業領域として用いられる。ROM203は、制御プログラム、各種アプリケーションプログラム、データなどを記憶する。CPU201は、ROM203に記憶する制御プログラムをRAM202に展開して実行する。CPU201は、制御プログラムを実行することにより、図1の画像入力部101、特徴点追跡部102、位置姿勢推定部103、特徴点抽出部104、類似度算出部105、類似点処理部106、マップ構築部107、マップ保持部108等の各機能を実現する。入力I/F204は、カメラ100からの画像信号を、情報処理装置1で処理可能な形式の入力信号として取得する。出力I/F205は、情報処理装置1にて生成等された信号を、不図示の外部装置が処理可能な形式の信号にして出力する。なお、入力I/F204や出力I/F205は、情報処理装置が外部の装置と有線で接続される場合には通信用のケーブルが接続され、また外部の装置と無線通信する機能を有する場合にはアンテナを備える。
このように図1に示す情報処理装置1の各部の機能は、図2のCPU201がプログラムを実行することで実現することができる。なお、図1に示す各機能部のうち少なくとも一部は、不図示の専用のハードウェアやGPUによって実行するようになされていてもよい。この場合、専用のハードウェアやGPUは、CPU201の制御に基づいて動作する。また、CPUとは異なる1又は複数の専用のハードウェアを有していて、CPUによる処理の少なくとも一部を専用のハードウェアが実行しても良い。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。また図2では図示していないが、情報処理装置1には表示部や操作部、大容量の記憶部を備えるか、若しくは接続されていても良い。表示部は、例えば液晶ディスプレイやLEDディスプレイ等で構成され、ユーザが情報処理装置を操作するためのGUI(グラフィカルユーザインタフェース)などを表示する。操作部は、マウスやキーボード、ジョイスティック、タッチパネル等のようにユーザが操作する操作デバイスを含む。記憶部は、着脱可能なメモリカードや、内蔵若しくは外付けのハードディスクドライブやソリッドステートドライブ等を含む。
以下、本実施形態に係る情報処理装置1とその利用形態の一例について詳細に説明する。
画像入力部101は、カメラ100が現実空間を撮像した画像を取得し、特徴点追跡部102に送出する。カメラ100は動画像を撮像する装置であり、画像入力部101には、動画像のフレーム毎の画像が入力される。以下、最新の入力フレームを現フレーム、その一つ前のフレームを前フレームとして説明する。なお、カメラ100がステレオカメラなど、複数の撮像装置からなる場合、画像入力部101に入力される複数の画像のフレームは同期している(撮像時刻が一致している)ものとする。また、各カメラの内部パラメータおよび外部パラメータは予め校正されているものとして説明する。
特徴点追跡部102は、後述するマップ保持部108に保持されたマップ点群に含まれる複数のマップ点(世界座標系の3次元点)に対応する、現フレームにおける画像座標(2次元座標)を算出する。
特徴点追跡部102による処理の具体的手順の一例を以下に示す。
まず特徴点追跡部102は、マップ保持部108に保持されたマップ点群に含まれる複数のマップ点を、前フレームの画像が撮像された時のカメラ位置姿勢とカメラ100の内部パラメータとに基づいて前フレームの画像平面上に投影して、投影座標を得る。そして、特徴点追跡部102は、各マップ点の投影座標が前フレームの画像領域内にある点の集合を投影点群とする。投影点群の各点は、投影座標(すなわち前フレーム画像中の2次元座標)と、対応するマップ点の情報を保持するものとする。
次に特徴点追跡部102は、前フレームの画像と現フレームの画像とを用いて、投影点群の各点に対応する現フレームの画像座標(以下、対応点群と呼ぶ)を求める、対応点探索処理を行う。その方法の一つとして、Lucas-Kanade法があるが、本実施形態における対応点探索処理の方法はこれに限らない。対応点群の各点は、現フレームにおける画像座標(2次元座標)と、対応する投影座標およびマップ点の情報を保持するものとする。
そして特徴点追跡部102は、投影点群と対応点群を、位置姿勢推定部103に送出する。なお、現フレームの画像が情報処理装置1に入力された最初の画像であり、マップ保持部108にマップ点群が保持されていない場合、特徴点追跡部102は、位置姿勢推定部103には何も送出しなくともよい。
位置姿勢推定部103は、特徴点追跡部102から取得した複数のマップ点と夫々に対応する現フレームの画像座標とを基に、現フレームの画像撮像時のカメラ位置姿勢を推定する。
ここで、カメラの位置と姿勢を6自由度で求める方法の一つに、複数の3次元座標と2次元座標との対応からPnP(Perspective-n-Point)問題と呼ばれる連立方程式を解く方法がある。本実施形態では、マップ点の3次元座標と現フレームの画像座標(2次元座標)との対応から、PnP問題を解くことで、現フレームのカメラ位置姿勢を求める。なお、3次元座標と2次元座標との対応には誤対応が含まれる可能性があるため、RANSACなどのロバスト推定を用いても良い(非特許文献1を参照)。ただし、本実施形態におけるカメラ位置姿勢推定はこの方法に限るものではなく、デプス画像や加速度センサ、角速度センサ、磁気センサなど、他のセンサの情報を利用して求めても良い。
そして、位置姿勢推定部103は、前述のようにして算出した現フレームにおけるカメラ位置姿勢を示す情報を出力部109に送出する。また現フレームのカメラ位置姿勢の情報は、同時に、特徴点抽出部104にも送出される。
なお現フレームの画像が情報処理装置1に入力された最初の画像であり、特徴点追跡部102から何も情報が送出されていない場合、位置姿勢推定部103は、カメラ位置姿勢として既定の値(例えば世界座標系の原点など)を送出してもよい。或いは、位置姿勢推定部103は、他の方法で求めたカメラ位置姿勢を送出してもよい。他の方法としては、例えば、画像中のマーカーを検出してカメラの位置姿勢を求める方法や、モーションキャプチャ技術のように物体の位置姿勢をトラッキングできるセンサを用いる方法などがある。画像中のマーカーを検出してカメラ位置姿勢を求める方法は、下記の参考文献に記載されている。
参考文献: H.Kato and M.Billinghurst:"Marker Tracking and hmd calibration for a video-based augmented reality conferencing system",Proceedings of 2nd IEEE and ACM International Workshop on Augmented Reality,1999.
特徴点抽出部104には、画像入力部101から送出された現フレームの画像が、前述した特徴点追跡部102および位置姿勢推定部103を介して入力される。そして、特徴点抽出部104は、現フレームの画像から複数の特徴点を抽出し、それらを特徴点群として出力する。特徴点の抽出方法としては、Shi-Tomasiらの手法のように局所的に見てコーナー点と判定される点を特徴点として検出する方法があるが、本実施形態における特徴点の抽出方法はこれに限らない。本実施形態では、特徴点群は、複数の特徴点の画像座標を保持するものとして説明するが、特徴点周辺の画像情報や、SIFTなどに代表される特徴記述子、エッジ情報などの情報を、特徴点に紐づく特徴情報として含めても良い。また、特徴点追跡部102から送出されたマップ点の現フレームの画像座標を、特徴点として特徴点群に含めても良い。特徴点抽出部104は、それら何れかの方法を用いて抽出した特徴点群を、類似度算出部105に送出する。
図3は、画像301から特徴点群を抽出した状態を示す模式図である。特徴点302、303、305、および306は、特徴点抽出部104にて抽出された特徴点群に含まれる各特徴点である。
類似度算出部105は、以下に説明するような特徴点類似度取得処理(特徴点の類似度算出処理)によって、特徴点抽出部104にて抽出された特徴点群に含まれる夫々の特徴点ごとに、その近傍の特徴点との類似度を算出する。
図3を用いて、類似度算出部105における特徴点の類似度算出処理について説明する。
まず類似度算出部105は、各特徴点の夫々に対して近傍探索範囲を設定する。例えば特徴点302に対しては、図中に点線で示す近傍探索範囲304を設定する。本実施形態における近傍探索範囲は、パッチサイズよりも大きく、かつ画像サイズよりも小さいものとする。なお、パッチサイズとは、特徴点のオプティカルフローやステレオマッチングを行う際に用いられる特徴点周辺の小領域(パッチ)のサイズである。
次に類似度算出部105は、夫々の特徴点を着目特徴点とし、その着目特徴点について設定された近傍探索範囲内にある他の特徴点(つまり近傍の特徴点)との類似度を算出する。着目特徴点と近傍特徴点のような二つの特徴点の類似度を算出する方法として、本実施形態では、後述する、パッチ内の画素の輝度値ヒストグラムを用いた方法を用いる。ただし本実施形態において二つの特徴点の類似度を算出する方法はこれに限るものではない。例えば、パッチ内の各画素の輝度のSSD(Sum of Squared Difference)を類似度として算出しても良いし、各画素の色情報などを使って類似度を定義しても良い。また、一方の特徴点のパッチをテンプレートとして、もう一方の特徴点のパッチ内をテンプレートマッチングして得られた最大の類似度を特徴点間の類似度としても良い。
本実施形態の場合、類似度算出部105は、パッチ内の画素の輝度値ヒストグラムを用いて類似度を算出する。
まず類似度算出部105は、一方の特徴点である第一の特徴点のパッチに対し、各画素の輝度値からヒストグラムH1を求める。同様に類似度算出部105は、もう一方の特徴点である第二の特徴点のパッチに対し、各画素の輝度値からヒストグラムH2を求める。そして類似度算出部105は、二つのヒストグラムの相関係数Dを、以下の式(1)で求める。
Figure 2022112168000002
ここで、式(1)のH(I)はヒストグラムHのI番目のビンであり、A(H)は下記の式(2)で求められる。式(2)中のNはヒストグラムのビン数である。
Figure 2022112168000003
類似度算出部105は、夫々の特徴点について、近傍探索範囲内の特徴点との相関係数Dを求め、最も大きい相関係数Dをその特徴点の類似度とする。つまり、類似度算出部105は、近傍探索範囲内の1以上の特徴点(近傍特徴点)のうち、着目特徴点との類似度が最も高い類似度を、この着目特徴点の類似度として算出する。
例えば図3の状況の場合、特徴点302が着目特徴点とすると、特徴点302の近傍探索範囲304内の他の特徴点(近傍特徴点)は、特徴点303および特徴点306である。そして例えば、特徴点302と特徴点303との相関係数をD1、特徴点302と特徴点306との相関係数をD2として、D2よりD1の方が大きい場合は、特徴点302の類似度はD1となる。また例えば着目特徴点が特徴点303であるとすると、その特徴点303の近傍探索範囲内の特徴点(近傍特徴点)は特徴点302のみであり、特徴点303の類似度もD1となる。また例えば着目特徴点が特徴点305である場合、その特徴点305の近傍探索範囲内には特徴点(近傍特徴点)がない。この場合、特徴点305は、類似度を極小としても良いし、類似特徴点がないことを示す規定値としても良い。
類似度算出部105は、前述のようにして特徴点群に含まれる夫々の特徴点ごとに算出した類似度を、類似点処理部106に送出する。
類似点処理部106は、特徴点抽出部104にて抽出された特徴点群に含まれる各特徴点について、類似度算出部105で算出された類似度が閾値以下か否かを判定する。類似点処理部106は、類似度が閾値以下と判定された特徴点の集合を、選択特徴点群として抽出し、マップ構築部107に送出する。
例えば図3の状況の場合、特徴点302と特徴点303との類似度D1が閾値を超えており、特徴点302と特徴点306との類似度D2が閾値以下であるとすると、選択特徴点群は、特徴点305と特徴点306のみとなる。
マップ構築部107は、類似点処理部106から送出された選択特徴点群の各特徴点に対し3次元座標の算出を行い、その3次元座標をマップ点としてマップ保持部108に送出して保持させる。
そして本実施形態の場合、マップ構築部107は、選択特徴点群の各特徴点について、カメラ100から入力された画像を基にステレオマッチングを行うことで、現フレームのカメラ座標系における特徴点の3次元座標を推定する。さらにマップ構築部107は、位置姿勢推定部103で求めたカメラ位置姿勢を用いて世界座標系における3次元座標に変換した座標をマップ点とする。ただし、本実施形態におけるマップ点の算出方法はこれに限るものではなく、マップ保持部108に蓄積されたマップ点との対応に基づくバンドル調整などの最適化処理を行うなどの方法を用いても良い(非特許文献1を参照)。
図4は、本実施形態の情報処理装置1における処理の流れを示したフローチャートである。
ステップS401において、画像入力部101は、カメラ100の撮像画像を情報処理装置1に取り込む。なお本実施形態の場合、カメラ100はステレオカメラとしているが、ステップS406以外ではステレオ画像を必要としないため、予め定めた一方の画像に対して処理を行うものとしてもよい。
次にステップS402において、特徴点追跡部102は、マップ保持部108に保持されたマップ点群に含まれる夫々のマップ点の座標を前フレームの画像中に投影することで、投影点群を算出する。
さらにステップS403において、特徴点追跡部102は、対応点探索処理を行い、前フレームの画像における投影点群に対応した、現フレームの画像における対応点群を算出する。
次にステップS404において、位置姿勢推定部103は、ステップS402およびステップS403で算出された情報を基に、現フレームにおけるカメラ位置姿勢を算出する。そして位置姿勢推定部103は、算出したカメラ位置姿勢を出力部109に送出する。
次にステップS405において、特徴点抽出部104と類似度算出部105と類似点処理部106によって、ステップS401で入力された画像から選択特徴点群を抽出する処理が行われる。このステップS405にて行われる処理の詳細は、後に図5のフローチャートを用いて説明する。
次にステップS406において、マップ構築部107は、ステップS405で算出された選択特徴点群の各点に対し、ステレオマッチングに基づいて3次元座標を算出する。
さらにステップS407において、マップ構築部107は、ステップS406で算出した選択特徴点群の3次元点を、ステップS404で求められカメラ位置姿勢を用いて世界座標系に変換し、マップ点としてマップ保持部108に登録する。
その後、ステップS408において、情報処理装置1は、処理を終了するか否かを判定し、終了しない場合には次のフレームに対してステップS401からの処理を繰り返す。ここで、処理を終了する条件は、カメラ100からの画像入力がなくなった場合や、情報処理装置1の外部からの終了要求があった場合などであるが、これらには限定されない。
以上の処理により、情報処理装置1は、画像入力部101に入力された各フレームに対するカメラ位置姿勢推定の結果を、出力部109に出力することができる。
ここで、特徴点抽出部104で算出された特徴点群には、パッチの見かけが類似している特徴点が、近接した位置に存在している可能性がある。この特徴点群を用いた場合、ステップS406のステレオマッチングや、以降のフレームにおけるステップS403の対応点探索処理で、近傍にある別の特徴点と対応付けてしまう、誤対応が発生する可能性がある。そして、もしステップS403にて誤対応が生じると、ステップ404にて算出されるカメラ位置姿勢に誤差が生じる。また、もしステップS406にて誤対応が生じると、ステップS407で登録されるマップ点の3次元座標に誤差が生じ、以降のフレームにおけるステップS402~ステップS404までの処理に誤差が生じる。
そこで、本実施形態の情報処理装置1は、ステップS405において、特徴点群の夫々の特徴点ごとに求めた類似度に基づいて選択特徴点群を抽出することで、ステップS406およびステップS403で誤対応が生じる可能性を減らしている。本実施形態における選択特徴点群は、前述したように、夫々の特徴点の近傍に、見かけの類似した他の特徴点がない特徴点の集合である。
図5は、図4のステップS405の詳細な処理の流れを示すフローチャートである。
ステップS501において、特徴点抽出部104は、取り込んだ画像から複数の特徴点を特徴点群として抽出する。この時点では、選択特徴点群は空の集合とする。
次にステップS502において、類似度算出部105は、ステップS501で抽出された特徴点群から1つの特徴点(i番目の特徴点)を着目特徴点として取り出し、その特徴点の近傍の特徴点との類似度を算出する。
次にステップS503において、類似点処理部106は、ステップS502で算出されたi番目の特徴点の類似度が、予め定められた閾値以下か否かを判定する。類似点処理部106は、i番目の特徴点の類似度が閾値以下であった場合にはステップS504に進み、一方、閾値より大きい場合にはステップS505に進む。
ステップS504に進んだ場合、つまりi番目の特徴点の類似度が閾値以下であった場合、類似点処理部106は、そのi番目の特徴点を選択特徴点群に追加する。
一方、ステップS505に進んだ場合、つまりi番目の特徴点の類似度が閾値より大きい場合、類似点処理部106は、処理を終了するか否かを判定する。
ここで、処理を終了する条件は、ステップS501で抽出された特徴点群の中に、類似度算出が未処理の次の特徴点があるか否かであり、次の特徴点がない場合には処理が終了する。類似度算出が未処理の特徴点があり、ステップS505で処理を終了しないと判定された場合には、ステップS502に戻り、類似度算出が未処理の次の特徴点(この場合はi+1番目の特徴点)について類似度の算出が行われる。つまり、ステップS501で抽出された特徴点群に含まれる全ての特徴点に対して処理が終わるまで、ステップS502以降の処理が繰り返される。
そして、類似点処理部106は、ステップS501で抽出された特徴点群に含まれる全ての特徴点に対して処理が完了した場合、図5のフローチャートの処理を終了する。
本実施形態の情報処理装置1は、以上説明したような処理を行うことにより、誤対応の虞が少ない複数の特徴点からなる選択特徴点群を抽出することができる。また本実施形態の情報処理装置1では、ステップS406やステップS403における対応点探索の計算量を削減することができることから、システムの計算量を大きく増加させることなく誤対応を減少させる効果を得ることができる。これにより、本実施形態の情報処理装置1によれば、画像間の局所特徴点の誤対応を減らすことができ、カメラの撮像画像を用いたカメラ位置姿勢推定をより安定的かつ高速に実施することができる。
<変形例1>
本実施形態の変形例1として、特徴点抽出部104は、画像から特徴点群を抽出する際、画像中のコーナー点などの未知の特徴点(自然特徴点とも呼ばれる)を検出する方法と、人工的に配置した所定の指標に対応した特徴点を検出する方法とを併用しても良い。この場合、特徴点抽出部104は、未知の自然特徴点の集合を特徴点群とし、人工的に配置した所定の指標に対応して取得された特徴点の集合を指標点群として抽出する。なお、指標点群の3次元座標は既知であり、事前の校正によって得られているものとする。
ここで、人工的に配置した所定の指標を用いる場合の当該指標としては、非特許文献3に記載されているようなマーカーが挙げられる。この方法では、マーカーのエッジを基にコーナー点の座標を算出するため、当該マーカーによるコーナー点検出の安定性が高い。また、マーカーの向きやマーカーのIDを特定することができるため、マーカーによるコーナー点同士の見かけが類似していたとしても、誤対応を起こす可能性が低い。そのため、指標点群に対しては、前述したような類似度算出部105および類似点処理部106の処理を実施する必要はなく、特徴点抽出部104は、抽出した特徴点をマップ構築部107に送出する。
そして変形例1の場合、マップ構築部107は、類似点処理部106から送出された選択特徴点群の3次元座標を推定する際に、指標点群の事前に校正された3次元座標を用いてバンドル調整などの最適化を行う。これにより、マップ点の精度を高めることができる。
<変形例2>
本実施形態の変形例2として、類似点処理部106は、類似度算出部105で算出された類似度を各特徴点の重み情報として付加した上で、特徴点抽出部104にて抽出された特徴点群の全点を選択特徴点群としてもよい。
選択特徴点群に付加する各特徴点の重み情報は、マップ構築部107で選択特徴点群の各特徴点に対するマップ点を生成する際に参照しても良いし、マップ点と共にマップ保持部108に保持してもよい。
<変形例3>
前述した実施形態では、画像中に見かけの類似した特徴点が多い場合には、選択特徴点群に含まれる特徴点数が少なくなる。その結果、カメラ位置姿勢の安定性が低下する可能性がある。また局所的な画像の類似度が高い場合でも、より広い範囲の画像で比較すると差異が生じて類似度が低下し、別の特徴点として区別できる可能性がある。そのため、着目特徴点の近傍の特徴点との区別が行える画像サイズを、その着目特徴点のパッチサイズとすることで、誤対応の可能性を減らしつつも、より多くの特徴点を選択特徴点群として抽出することができる。これにより、より安定したカメラ位置置姿勢推定が可能になると期待される。同様の理由から、パッチサイズを広げる代わりに、入力画像を縮小した縮小画像を用いて類似度を算出することでも、類似度が低下し、別の特徴点として区別できる可能性がある。
そこで本実施形態の変形例3として、類似度算出部105は、二つの特徴点間の類似度が閾値を超える場合には、予め設定された範囲内でパッチサイズを広げるか、若しくは縮小画像を用いて、類似度を再計算してもよい。そして、再計算した類似度が閾値以下になった場合、それを特徴点の類似度としてもよい。さらに、類似点処理部106には、算出した各特徴点の類似度と共に、その類似度の算出に利用したパッチサイズ(もしくは縮小画像のスケール)を送出してもよい。
<変形例4>
本実施形態の変形例4として、類似点処理部106は、類似度が閾値より大きいと判定された特徴点を拒絶特徴点とし、それらを拒絶特徴点群として抽出しても良い。さらに、類似点処理部106は、拒絶特徴点群の情報を、不図示の出力画像生成部に送出し、入力画像の中で拒絶特徴点群に含まれる特徴点の座標を可視化した画像を生成しても良い。また、類似点処理部106は、入力画像の中で拒絶特徴点群に含まれる特徴点が多い領域を可視化した画像を生成しても良い。これにより、ユーザは、画像内のどの特徴点が拒絶特徴点か、あるいは画像内の拒絶特徴点群の領域かを認識可能となる。
また前述の説明では、カメラの撮像画像を用いて現実空間におけるカメラ位置姿勢を推定する処理をMRシステムへ適用する例を挙げたが、これに限定されるものではない。例えば、本実施形態の情報処理装置1は、ロボットや無人搬送車の自己位置推定などにも適用可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
1:情報処理装置、100:カメラ、101:画像入力部、102:特徴点追跡部、103:位置姿勢推定部、104:特徴点抽出部、105:類似度算出部、106:類似点処理部、107:マップ構築部、108:マップ保持部、109:出力部

Claims (10)

  1. 撮像装置により取得された第一の画像から複数の特徴点を特徴点群として抽出する特徴点抽出手段と、
    前記特徴点群に含まれる夫々の特徴点を着目特徴点とし、前記着目特徴点と近傍の他の特徴点との類似度を取得して、前記着目特徴点の類似度とする類似度取得手段と、
    前記特徴点群に含まれる前記複数の特徴点の中から、前記類似度が閾値以下の特徴点を選択して選択特徴点群とする処理手段と、
    を有することを特徴とする情報処理装置。
  2. 前記類似度取得手段は、前記類似度が前記閾値を超えた特徴点のパッチサイズを、予め設定した範囲内で広げたパッチサイズ、若しくは第一の画像を縮小した画像を用いて、前記類似度を取得することを特徴とする請求項1に記載の情報処理装置。
  3. 前記処理手段は、前記特徴点群に含まれる複数の特徴点のうち、前記類似度取得手段で取得した前記類似度が前記閾値を超えた特徴点を拒絶特徴点として抽出し、
    前記拒絶特徴点の座標を前記第一の画像に可視化する表示手段をさらに有することを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 撮像装置により取得された第一の画像から複数の特徴点を特徴点群として抽出する特徴点抽出手段と、
    前記特徴点群に含まれる夫々の特徴点を着目特徴点とし、前記着目特徴点と近傍の他の特徴点との類似度を取得して、前記着目特徴点の類似度とする類似度取得手段と、
    前記特徴点群に含まれる夫々の特徴点に対して、前記類似度取得手段で特徴点ごとに取得した類似度を重み情報として付加して選択特徴点群とする処理手段と、
    を有することを特徴とする情報処理装置。
  5. 前記類似度取得手段は、前記着目特徴点と前記近傍の複数の特徴点との類似度のうち、最も高い類似度を、前記着目特徴点の類似度として取得することを特徴とする請求項1乃至請求項4のいずれか1項に記載の情報処理装置。
  6. 前記選択特徴点群に含まれる特徴点ごとに3次元座標を推定してマップ点群として登録するマップ構築手段と、
    前記マップ点群と、前記第一の画像を取得した後に前記撮像装置により取得された第二の画像から前記特徴点抽出手段が抽出した特徴点との対応に基づいて、前記第二の画像を撮像した際の前記撮像装置の位置姿勢を推定する位置姿勢推定手段と、
    をさらに有することを特徴とする請求項1乃至請求項5のいずれか1項に記載の情報処理装置。
  7. 前記特徴点抽出手段は、前記第一の画像から3次元座標が既知の指標を指標点群として抽出し、
    前記マップ構築手段は、前記指標点群の各指標点の3次元座標に基づいて、前記選択特徴点に含まれる特徴点ごとに3次元座標を推定し、前記マップ点群として登録することを特徴とする請求項6に記載の情報処理装置。
  8. 情報処理装置が実行する情報処理方法であって、
    撮像装置により取得された第一の画像から複数の特徴点を特徴点群として抽出する特徴点抽出工程と、
    前記特徴点群に含まれる夫々の特徴点を着目特徴点とし、前記着目特徴点と近傍の他の特徴点との類似度を取得して、前記着目特徴点の類似度とする類似度取得工程と、
    前記特徴点群に含まれる前記複数の特徴点の中から、前記類似度が閾値以下の特徴点を選択して選択特徴点群とする処理工程と、
    を有することを特徴とする情報処理方法。
  9. 情報処理装置が実行する情報処理方法であって、
    撮像装置により取得された第一の画像から複数の特徴点を特徴点群として抽出する特徴点抽出工程と、
    前記特徴点群に含まれる夫々の特徴点を着目特徴点とし、前記着目特徴点と近傍の他の特徴点との類似度を取得して、前記着目特徴点の類似度とする類似度取得工程と、
    前記特徴点群に含まれる夫々の特徴点に対して、前記類似度取得工程で特徴点ごとに取得した類似度を重み情報として付加して選択特徴点群とする処理工程と、
    を有することを特徴とする情報処理方法。
  10. コンピュータを、請求項1乃至請求項7のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2021007863A 2021-01-21 2021-01-21 情報処理装置、情報処理方法、およびプログラム Pending JP2022112168A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021007863A JP2022112168A (ja) 2021-01-21 2021-01-21 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021007863A JP2022112168A (ja) 2021-01-21 2021-01-21 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022112168A true JP2022112168A (ja) 2022-08-02

Family

ID=82656205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021007863A Pending JP2022112168A (ja) 2021-01-21 2021-01-21 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2022112168A (ja)

Similar Documents

Publication Publication Date Title
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
US9420265B2 (en) Tracking poses of 3D camera using points and planes
WO2017041731A1 (en) Markerless multi-user multi-object augmented reality on mobile devices
US9679384B2 (en) Method of detecting and describing features from an intensity image
JP6491517B2 (ja) 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
JP2019057248A (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
WO2013029675A1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
JP6985897B2 (ja) 情報処理装置およびその制御方法、プログラム
JP2017191576A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP7479324B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
US20220189113A1 (en) Method for generating 3d skeleton using joint-based calibration acquired from multi-view camera
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
US20190371001A1 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
WO2021193672A1 (ja) 三次元モデル生成方法及び三次元モデル生成装置
JP6228239B2 (ja) プリミティブの組を用いてデータをレジストレーションする方法
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
JP6198104B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP2022112168A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240105