JP2019070944A - Information processing device, method and program - Google Patents

Information processing device, method and program Download PDF

Info

Publication number
JP2019070944A
JP2019070944A JP2017196705A JP2017196705A JP2019070944A JP 2019070944 A JP2019070944 A JP 2019070944A JP 2017196705 A JP2017196705 A JP 2017196705A JP 2017196705 A JP2017196705 A JP 2017196705A JP 2019070944 A JP2019070944 A JP 2019070944A
Authority
JP
Japan
Prior art keywords
information
feature information
feature
determined
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017196705A
Other languages
Japanese (ja)
Other versions
JP6831765B2 (en
Inventor
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017196705A priority Critical patent/JP6831765B2/en
Publication of JP2019070944A publication Critical patent/JP2019070944A/en
Application granted granted Critical
Publication of JP6831765B2 publication Critical patent/JP6831765B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an information terminal device capable of estimating a relative positional relationship with an imaging object in a wide range from a picked-up image.SOLUTION: An information processing device comprises: an imaging part 1 imaging an object to obtain a picked-up image; a calculation part 2 calculating feature information from the picked-up image; a storage part 5 storing the feature information in association with position information; an estimation part 3 obtaining feature information to be determined to be similar with the calculated feature information by referring the storage part 5 and obtaining relative position information of a pair of the feature information as a conversion relationship from coordinate information included in the feature information determined to be similar with the calculated feature information to coordination information included in the calculated feature information; and a synthesis part 4 obtaining position information of the picked-up image by synthesizing the relative position information with the position information of the feature information determined to be similar with the calculated feature information and making the storage part 5 store the obtained position information in association with the feature information calculated from the picked-up image.SELECTED DRAWING: Figure 1

Description

本発明は、撮像した画像から撮像対象との相対的な位置関係を広範囲に推定できる情報端末装置、方法及びプログラムに関する。   The present invention relates to an information terminal device, method, and program capable of broadly estimating the relative positional relationship with an imaging target from a captured image.

画像から対象を判定する技術は、配布や提示が容易な媒体に記載されたアナログ情報からデジタル情報に変換させることが可能であり、利用者の利便性を向上させることができる。当該技術としては、例えば非特許文献1のものが公開されている。非特許文献1では、画像から特徴点を検出し、特徴点周辺から特徴量を算出した上で、事前に蓄積しておいた特徴量と比較することによって、対象の種類および相対的な位置関係を特定する。   The technology for determining an object from an image can convert analog information described in a medium that can be easily distributed or presented into digital information, and can improve user convenience. As the said technique, the thing of the nonpatent literature 1 is open | released, for example. In Non-Patent Document 1, the feature point is detected from the image, the feature amount is calculated from the periphery of the feature point, and then the type and the relative positional relationship of the object are compared with the feature amount stored in advance. Identify

一方、上記のような特徴点及び特徴量に基づく判定に関してさらに、精度を向上させる技術としては、例えば特許文献1のものが公開されている。特許文献1では、撮像画像中の撮影対象物について、撮影装置の光軸回りにおける回転角度を求め、この回転角度に基づいて、特徴点抽出手段が算出したオリエンテーション情報と、事前に保存されたオリエンテーション情報との座標系を揃えたとき、両オリエンテーション情報が所定のずれ角度範囲内に収まる特徴点同士を、対比すべき特徴点として設定することで精度を向上させる。   On the other hand, as a technique for further improving the accuracy with regard to the determination based on the above-described feature point and feature amount, for example, the one disclosed in Patent Document 1 is disclosed. In Patent Document 1, a rotation angle around the optical axis of the photographing apparatus is determined for a photographing object in a captured image, and orientation information calculated by the feature point extraction unit based on the rotation angle and an orientation stored in advance. When the coordinate system with the information is aligned, the accuracy is improved by setting feature points whose orientation information falls within a predetermined shift angle range as feature points to be compared.

特開2014−109841号公報Unexamined-Japanese-Patent No. 2014-109841

D. G. Lowe, ``Object recognition from local scale-invariant Features,'' Proc. of IEEE International Conference on Computer Vision (ICCV), pp.1150-1157, 1999.D. G. Lowe, `` Object recognition from local scale-invariant Features, '' Proc. Of the International Conference on Computer Vision (ICCV), pp. 1150-1157, 1999.

しかしながら、以上のような非特許文献1や特許文献1といった従来技術には、認識できる角度や距離が限定されているという課題があった。   However, in the conventional techniques such as Non-Patent Document 1 and Patent Document 1 as described above, there is a problem that the recognizable angle and distance are limited.

具体的には、斜めから撮像した場合、射影歪みによって特徴量が変化し、事前に登録している特徴量と一致できないと判定処理が全く機能しないという課題がある。また、撮像対象が遠くから撮像された場合でも、特徴量算出に用いられる部分領域が相対的に広くなるため、特徴量が変化し、事前に登録している特徴量と一致できないと判定処理が全く機能しないという課題がある。さらに、撮像対象が撮像範囲から逸脱した場合、従来手法は全く認識できなくなるという課題がある。   Specifically, there is a problem that when imaging is performed obliquely, the feature amount changes due to projection distortion, and the determination processing does not function at all if the feature amount registered in advance can not match. In addition, even when the imaging target is imaged from a distance, the partial region used for feature amount calculation is relatively wide, so the feature amount changes and it is determined that the feature amount registered in advance can not match There is a problem that it does not function at all. Furthermore, there is a problem that when the imaging target deviates from the imaging range, the conventional method can not be recognized at all.

本発明の目的は、上記従来技術の課題に鑑み、撮像した画像から撮像対象との相対的な位置関係を広範囲に推定できる情報端末装置、方法及びプログラムを提供することにある。   An object of the present invention is to provide an information terminal device, a method and a program capable of estimating a relative positional relationship with an imaging target from a captured image in a wide range in view of the problems of the prior art.

上記目的を達成するため、本発明は情報端末装置であって、対象を撮像して撮像画像を得る撮像部と、前記撮像画像から特徴情報を算出する算出部と、特徴情報及び位置情報を対応付けて記憶する記憶部と、前記記憶部を参照して、前記算出された特徴情報に類似すると判定される特徴情報を求めると共に、当該類似すると判定された特徴情報に含まれる座標情報から前記算出された特徴情報に含まれる座標情報への変換関係として当該特徴情報同士の相対的位置情報を求める推定部と、前記相対的位置情報と前記類似すると判定された特徴情報の位置情報とを合成することによって前記撮像画像の位置情報を得ると共に、当該得た位置情報を前記撮像画像から算出された特徴情報と対応付けて前記記憶部に記憶させる合成部と、を備えることを特徴とする。また、当該情報端末装置に対応する方法及びプログラムであることを特徴とする。   In order to achieve the above object, the present invention is an information terminal device, and corresponds to an imaging unit for capturing an object to obtain a captured image, a calculation unit for calculating feature information from the captured image, feature information and position information The characteristic information determined to be similar to the calculated characteristic information is determined with reference to the storage unit to be stored and the storage unit, and the calculation is performed from the coordinate information included in the characteristic information determined to be similar An estimation unit for obtaining relative position information of the feature information as a conversion relationship to coordinate information included in the extracted feature information, and combining the position information of the feature information determined to be similar to the relative position information And a combining unit configured to obtain position information of the captured image and to store the obtained position information in the storage unit in association with feature information calculated from the captured image. The features. Further, the method is a method and a program corresponding to the information terminal device.

本発明によれば、特徴情報と位置情報とを取得したその場で順次記憶していくことにより、広範囲に渡る位置関係の推定が可能となる。   According to the present invention, it is possible to estimate the positional relationship over a wide range by sequentially storing the feature information and the position information at the acquired place.

一実施形態に係る情報処理装置の機能ブロック図である。It is a functional block diagram of an information processor concerning one embodiment. 一実施形態に係る情報処理装置の動作のフローチャートである。It is a flowchart of operation | movement of the information processing apparatus which concerns on one Embodiment. 撮像部による各時刻での撮像範囲の模式例である。It is a schematic example of the imaging range in each time by an imaging part. 図3の例に対応する特徴情報及び位置情報の模式例である。5 is a schematic example of feature information and position information corresponding to the example of FIG. 3; 図4と同様の例において類似度の閾値判定を適用する場合の模式例である。It is a schematic example in the case of applying threshold value judgment of the degree of similarity in the example similar to FIG. 複数経路ごとの位置情報を説明するための模式例である。It is a schematic example for demonstrating the positional information on every several path | route. 図3の例において固有の特徴情報に限定する場合の模式例である。It is a schematic example in the case of limiting to specific feature information in the example of FIG.

図1は、一実施形態に係る情報処理装置の機能ブロック図である。図示するように、情報処理装置10は、撮像部1、算出部2、推定部3、合成部4、記憶部5及び処理部6を備える。情報処理装置10としては撮像部1を備える任意の情報端末を利用することができ、携帯端末の他、タブレット型端末、デスクトップ型又はラップトップ型のコンピュータその他を利用することができる。また、撮像部1以外の一部若しくは全てをサーバーに設置し、情報を適宜通信でやり取りしてもよい。各部の概略的な機能は次の通りである。   FIG. 1 is a functional block diagram of an information processing apparatus according to an embodiment. As illustrated, the information processing apparatus 10 includes an imaging unit 1, a calculation unit 2, an estimation unit 3, a combining unit 4, a storage unit 5, and a processing unit 6. As the information processing apparatus 10, any information terminal including the imaging unit 1 can be used, and in addition to the portable terminal, a tablet type terminal, a desktop type or laptop type computer, and the like can be used. In addition, a part or all of the units other than the imaging unit 1 may be installed in the server, and information may be appropriately exchanged by communication. The outline functions of each part are as follows.

撮像部1は、所定のフレームレートのもとで各時刻tにおいて撮像を行い、得られた撮像画像を算出部2へと出力する。算出部2では撮像画像より特徴情報を算出して推定部3へと出力する。推定部3では、記憶部5を参照して得られる複数の記憶された特徴情報(推定部3での当該判定処理等の説明の明確化のため、リファレンス特徴情報と呼ぶこととする。)のいずれに、算出部2から得た現時刻tの撮像画像の特徴情報(当該判定処理等の説明の明確化のため、クエリ特徴情報と呼ぶこととする。)が対応するものであるのかの判定処理を行ない、対応するものと判定されたリファレンス特徴情報及びクエリ特徴情報を記憶部5へ出力すると共に、当該照合結果におけるクエリ特徴情報とリファレンス特徴情報との空間的な対応関係としての相対的な位置情報を算出して合成部4へと出力する。   The imaging unit 1 captures an image at each time t under a predetermined frame rate, and outputs the obtained captured image to the calculating unit 2. The calculation unit 2 calculates feature information from the captured image and outputs the feature information to the estimation unit 3. The estimation unit 3 includes a plurality of stored feature information obtained by referring to the storage unit 5 (referred to as reference feature information for clarification of the description of the determination process and the like in the estimation unit 3). In any case, it is determined whether the feature information of the captured image at the current time t obtained from the calculation unit 2 (referred to as query feature information for clarification of the description of the determination process and the like) corresponds. The processing is performed, and the reference feature information and the query feature information determined to correspond to each other are output to the storage unit 5, and the relative relationship as the spatial correspondence between the query feature information and the reference feature information in the matching result The position information is calculated and output to the combining unit 4.

合成部4では推定部3で得た相対的な位置情報と、記憶部5を参照して得られる推定部3が対応するものとして判定したリファレンス特徴情報に対応する位置情報と、を合成することにより、現時刻tの撮像画像の位置情報を算出する。当該算出された位置情報は情報処理装置10からの第一出力とされると共に、記憶部5及び処理部6へも出力される。   The combining unit 4 combines the relative position information obtained by the estimating unit 3 and the position information corresponding to the reference feature information determined as corresponding by the estimating unit 3 obtained with reference to the storage unit 5. By this, the position information of the captured image at the current time t is calculated. The calculated position information is used as the first output from the information processing apparatus 10 and is also output to the storage unit 5 and the processing unit 6.

記憶部5では特徴情報と位置情報とを対応づけて記憶しておくことで、推定部3及び合成部4に対して必要な情報を参照に供する。記憶部5ではさらに、当該記憶しておく情報の更新管理を行う。具体的には、推定部3から得られた現時刻tの撮像画像のクエリ特徴情報と、合成部4から得られた現時刻tの撮像画像の位置情報と、を対応付けて、新たな(リファレンスとしての)特徴情報及び位置情報として自身における記憶対象を追加更新する。記憶部5ではさらに、当該記憶しておく情報の取捨選択によってそのデータ量を適切な範囲に保つようにしてもよいし、対応付けて記憶されている特徴情報及び位置情報に対して階層構造を定義しておくことで推定部3での推定処理の高速化を図るようにしてもよい。   The storage unit 5 stores the feature information and the position information in association with each other, thereby providing information necessary for the estimation unit 3 and the combination unit 4 for reference. The storage unit 5 further performs update management of the information to be stored. Specifically, the query feature information of the captured image of the current time t obtained from the estimation unit 3 and the position information of the captured image of the current time t obtained from the combining unit 4 are associated with each other, A storage target in itself is additionally updated as feature information and position information (as a reference). Further, the storage unit 5 may keep the amount of data in an appropriate range by selection of the information to be stored, or may have a hierarchical structure with respect to feature information and position information stored in association with each other. The definition processing may be accelerated in the estimation unit 3 by defining the definition.

記憶部5ではさらに、当該対応付けて記憶しておくに際して、図4や図5を参照してその模式例を説明するような特徴情報同士の類似対応関係の情報(一般に経路情報として与えることができる情報)も記憶しておき、当該対応関係の情報を合成部4に対して参照に供するようにすることができる。   In the storage unit 5, when storing the association, information of similarity correspondence between feature information (generally given as route information) such as the schematic example will be described with reference to FIG. 4 and FIG. 5. Information) can be stored, and the information on the correspondence can be provided to the combining unit 4 for reference.

処理部6は、合成部4から得られた現時刻tの撮像画像の位置情報を利用して、任意の追加処理を行なうことができる。例えば、当該現時刻tの撮像画像に対して所定の情報を重畳した拡張現実表示を行うようにし、当該拡張現実表示の際に位置情報を利用することで重畳情報の表示される位置姿勢を制御するようにしてもよい。なお、処理部6は情報処理装置10において省略されていてもよい。   The processing unit 6 can perform any additional processing using the position information of the captured image at the current time t obtained from the combining unit 4. For example, an augmented reality display in which predetermined information is superimposed on the captured image at the current time t is performed, and the position and orientation at which the superimposition information is displayed is controlled by using position information at the time of the augmented reality display. You may do it. The processing unit 6 may be omitted in the information processing apparatus 10.

図2は、一実施形態に係る情報処理装置10の動作のフローチャートである。ステップS1では、時刻tを当該現在時刻(初期時刻t=0とする)に設定してステップS2へと進む。ステップS2では、撮像部1が現時刻tにおいて撮像を行い、ステップS3へと進む。ステップS3では、ステップS2で得た現時刻tの撮像画像に対して算出部2、推定部3及び合成部4がそれぞれ上記概略説明した通りの処理を行なうことにより、合成部4が現時刻tの撮像画像の位置情報を得たうえでステップS4へと進む。なお、ステップS3ではさらに、合成部4で得た現時刻tの撮像画像の位置情報に基づいて処理部6が拡張現実表示などの追加処理を行なうようにしてもよい。   FIG. 2 is a flowchart of the operation of the information processing apparatus 10 according to an embodiment. In step S1, the time t is set to the present time (initial time t = 0), and the process proceeds to step S2. In step S2, the imaging unit 1 performs imaging at the current time t, and the process proceeds to step S3. In step S3, the calculating unit 2, the estimating unit 3 and the combining unit 4 respectively perform the processing as outlined above on the captured image of the current time t obtained in step S2, so that the combining unit 4 performs the current time t. After the position information of the captured image is obtained, the process proceeds to step S4. In step S3, the processing unit 6 may perform additional processing such as augmented reality display based on the position information of the captured image at the current time t obtained by the combining unit 4.

ステップS4では記憶部5が、ステップS3で現時刻tの撮像画像に対して算出部2で得た特徴情報及び合成部4で得た当該撮像画像の位置情報を対応付けて新たに記憶することで、記憶部5において記憶されている情報の更新処理を行なってから、ステップS5へと進む。ステップS4では記憶部5はさらに、当該現時刻t等に基づいて自身の記憶している情報を追加更新してもよい。例えば、得られてから(すなわち、ループ構成となっている図2のフローにおける過去のステップS4において得られてから)一定時間以上経過している等の条件を満たす記憶情報を削除するようにしてもよい。   In step S4, the storage unit 5 newly stores feature information obtained by the calculation unit 2 and position information of the captured image obtained by the combining unit 4 with respect to the captured image of the current time t in step S3. Then, after the update process of the information stored in the storage unit 5 is performed, the process proceeds to step S5. In step S4, the storage unit 5 may further update the information stored therein based on the current time t or the like. For example, it is possible to delete stored information that satisfies a condition such as a predetermined time or more has elapsed since it has been obtained (that is, obtained in the past step S4 in the flow of FIG. 2 having a loop configuration). It is also good.

なお、例えば時刻t=0(初期時刻)であり、記憶部5に過去の情報が何も記憶されていない場合は、ステップS3及びS4を初期登録に該当するものとして次のように変更すればよい。すなわち、ステップS3では推定部3はその処理を省略し、算出部2で得た特徴情報をそのまま合成部4へと出力させるようにする。また、ステップS3では合成部4は、当該そのまま出力された特徴情報を初期位置に該当するものとして記憶部5に出力する。ステップS4では記憶部5は当該出力された特徴情報を初期位置Pinitに対応するものとして記憶する。こうして、以降の時刻t≧1のステップS3で合成部4において得られる位置情報は、当該初期位置Pinitを基準とした位置情報として得られることとなる。   If, for example, time t = 0 (initial time) and no past information is stored in storage unit 5, then steps S3 and S4 may be changed as follows as they correspond to initial registration. Good. That is, in step S3, the estimation unit 3 omits the process, and causes the feature information obtained by the calculation unit 2 to be output to the combining unit 4 as it is. In step S3, the combining unit 4 outputs the feature information output as it is to the storage unit 5 as the initial position. In step S4, the storage unit 5 stores the output feature information as corresponding to the initial position Pinit. Thus, the position information obtained by the combining unit 4 in step S3 at time t11 thereafter is obtained as the position information based on the initial position Pinit.

ステップS5では現時刻tを次の時刻t+1へと更新してからステップS2へと戻り、以降の各時刻t+1,t+2,t+3,…に関して同様に、ステップS2からS5までの処理がループ構成によって同様に継続されることとなる。当該継続されることにより、情報処理装置10では各時刻tにおいてリアルタイムに撮像画像の位置情報を算出することが可能となる。   In step S5, the current time t is updated to the next time t + 1, and then the process returns to step S2, and similarly for the subsequent times t + 1, t + 2, t + 3,. The processes up to the above are similarly continued by the loop configuration. By the continuation, the information processing apparatus 10 can calculate position information of a captured image in real time at each time t.

以下、図2のように動作する図1の情報処理装置10の各部の処理の詳細を説明する。   The details of the processing of each part of the information processing apparatus 10 of FIG. 1 operating as shown in FIG. 2 will be described below.

撮像部1は、撮像対象を撮像して、その撮像画像を算出部2へ出力する。ここで、推定部3によって推定される予め既知の対象が含まれるよう、利用者等が撮像部1により撮像を行うものとする。撮像部1を実現するハードウェアとしては、携帯端末に標準装備されるデジタルカメラ等を用いることができる。   The imaging unit 1 captures an imaging target and outputs the captured image to the calculation unit 2. Here, it is assumed that the user or the like performs imaging by the imaging unit 1 so that a previously known target estimated by the estimation unit 3 is included. As hardware for realizing the imaging unit 1, it is possible to use a digital camera or the like that is standardly installed in a portable terminal.

算出部2は、撮像部1から撮像画像を入力し撮像画像から算出した特徴量を特徴情報として推定部3へ出力する。具体的には、当該算出する特徴量として、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの既存手法によるものが利用できる。   The calculation unit 2 receives the captured image from the imaging unit 1 and outputs the feature amount calculated from the captured image to the estimation unit 3 as feature information. Specifically, an existing method such as Scale-Invariant Feature Transform (SIFT) or Speeded Up Robust Features (SURF) can be used as the feature amount to be calculated.

推定部3は、算出部2で算出されたクエリ特徴情報と記憶部5に記憶されたリファレンス特徴情報とを比較することで、クエリ特徴情報に類似する特徴情報をリファレンス特徴情報の中から検索するとともに、当該検索の結果において類似すると判定されたリファレンス特徴情報とクエリ特徴情報との相対的位置関係を位置情報として出力する。   The estimation unit 3 searches the reference feature information for feature information similar to the query feature information by comparing the query feature information calculated by the calculation unit 2 with the reference feature information stored in the storage unit 5. At the same time, the relative positional relationship between the reference feature information determined to be similar in the search result and the query feature information is output as the position information.

すなわち、推定部3では記憶部5で記憶されているリファレンス特徴情報のいずれに、クエリ特徴情報が対応関係を有しているかを特定するとともに、相対的位置関係によって撮像画像の当該対応関係における変位量を推定する。ここで、記憶部5で記憶されている過去のリファレンス特徴情報の全て又は一部が類似判定対象となる。例えば、図3に矩形状の範囲R0〜R7として模式的に示すように、撮像部1が移動しながら時刻t=0〜7において当該範囲R0〜R7をそれぞれ捉えたものとして撮像して撮像画像を得た場合、最新の時刻t=7ではそれまでの過去時刻t=0〜6において範囲R0〜R6の各撮像画像において得られ記憶されたリファレンス特徴情報の全部又は一部が類似判定対象となる。   That is, the estimation unit 3 identifies to which of the reference feature information stored in the storage unit 5 the query feature information has a correspondence relationship, and the relative position relationship in the correspondence relationship of the captured image Estimate the quantity. Here, all or part of the past reference feature information stored in the storage unit 5 is to be subjected to the similarity determination. For example, as schematically illustrated as rectangular ranges R0 to R7 in FIG. 3, while the imaging unit 1 is moving, images are captured by capturing the ranges R0 to R7 at times t = 0 to 7, respectively. If at the latest time t = 7, all or part of the reference feature information obtained and stored in each captured image of the range R0 to R6 at the past time t = 0 to 6 until that time is t7 Become.

すなわち、より一般に説明すれば、算出部2で算出された現時刻tのクエリ特徴情報Ftよりも過去の時刻0〜t-1に既に(図2のステップS3でクエリとして)算出され(同ステップS4でリファレンスとして)記憶されたリファレンス特徴情報F0〜Ft-1の一部または全部を記憶部5から入力し、クエリ特徴情報Ftに類似しているものを推定部3が検索する。ここで、類似していると判定されるリファレンス特徴情報は最も類似すると判定された一つのみとしてもよいし、類似度が一定以上となる複数のリファレンス特徴情報の全てを類似判定結果として採用してもよい。   That is, more generally, it is already calculated (as a query in step S3 of FIG. 2) at time 0 to t-1 in the past from the query feature information Ft of the current time t calculated by the calculation unit 2 A part or all of the reference feature information F0 to Ft-1 stored as a reference in S4 is input from the storage unit 5, and the estimation unit 3 searches for one similar to the query feature information Ft. Here, the reference feature information determined to be similar may be only one determined to be the most similar, or all of a plurality of pieces of reference feature information for which the degree of similarity is equal to or more than a certain level is adopted as a result of the similarity determination. May be

ここで、類似判定を下すために特徴情報同士を比較する際には、各種の周知手法を利用することができ、例えば、RANSAC(Random Sample Consensus)等により、特徴情報を構成している各特徴点及び特徴量をそれぞれ個別にマッチングすることを試みながら外れ値を排除することで、全体として最もマッチングしているものを特定する手法を用いてもよい。あるいは、BoVW(Bag of Visual words)のヒストグラム同士の類似度を算出してもよい。   Here, when comparing the pieces of feature information to each other in order to make a similarity determination, various known methods can be used. For example, each feature constituting the feature information by RANSAC (Random Sample Consensus) or the like. A method may be used to identify the most matching one as a whole by excluding outliers while attempting to individually match points and feature quantities individually. Alternatively, the similarity between histograms of BoVW (Bag of Visual words) may be calculated.

そして、推定部3ではクエリ特徴情報Ftに類似するリファレンス特徴情報Faを検索結果として得るとさらに、リファレンス特徴情報Faからクエリ特徴情報Ftへの相対的位置関係の情報Patを推定する。   Then, when the reference feature information Fa similar to the query feature information Ft is obtained as a search result, the estimation unit 3 further estimates information Pat of the relative positional relationship from the reference feature information Fa to the query feature information Ft.

一実施形態では、当該推定する相対的位置関係は、特徴情報を構成している複数の特徴点の座標同士の対応関係から、周知の相似変換行列、アフィン変換行列、射影変換行列等で表現されるものとして求めることができる。例えば射影変換行列であれば、画像(特徴情報における特徴点の座標が配置されている画像)上の4点以上の特徴点座標(u,v)同士を互いに変換する関係として数値計算で求め、当該平面射影変換行列に含まれる並進成分及び回転成分を相対的位置関係とすればよい。なお、特徴点の対応関係は、推定部3が類似判定する際に求めておけばよい。   In one embodiment, the relative positional relationship to be estimated is represented by a known similarity transformation matrix, an affine transformation matrix, a projective transformation matrix, or the like from the correspondence between coordinates of a plurality of feature points constituting feature information. It can be determined as For example, in the case of a projective transformation matrix, it is obtained by numerical calculation as a relationship in which feature point coordinates (u, v) of four or more points on an image (image in which coordinates of feature points in feature information are arranged) are mutually converted The translational component and the rotational component included in the plane projection transformation matrix may be set as a relative positional relationship. The correspondence relationship between feature points may be obtained when the estimation unit 3 determines similarity.

また、別の一実施形態では、同様の特徴点の対応関係をもとに、周知の運動視差やステレオ視差を利用して基本行列や基礎行列を推定し、当該行列を分解して得られる並進成分及び回転成分を特徴情報間の相対的位置関係としてもよい。   Further, in another embodiment, based on the correspondence relationship of similar feature points, a basic matrix or a basic matrix is estimated using known motion parallax or stereo parallax, and a translation is obtained by decomposing the matrix. The component and the rotational component may be set as the relative positional relationship between the feature information.

なお、射影変換行列等で相対的位置関係を求める場合は、特徴情報が抽出される撮像対象は1つの平面上に乗っていることが望ましい。例えば、撮像対象は建物における1つの壁面に設置されたものとすることが望ましい。基本行列や基礎行列を推定する場合はこのように必ずしも1つの平面上に乗っていなくともよい。   In addition, when calculating | requiring relative positional relationship by a projective transformation matrix etc., it is desirable for the imaging target from which feature information is extracted to be on one plane. For example, it is desirable that the imaging target be installed on one wall of a building. When estimating a base matrix or a base matrix, it is not necessary to be on one plane like this.

図4は、図3のように撮像部1が移動しながら時刻t=0〜7において当該範囲R0〜R7をそれぞれ捉えたものとして撮像して撮像画像を得た場合において、推定部3で類似判定される特徴情報及び当該判定結果から算出される相対的位置情報の模式的な例を示すものである。なお、図4はまた、同設定において記憶部5で更新されて記憶される情報ST0〜ST7(経路の情報をも含むもの)の模式的な例を示すものともなっている。   FIG. 4 is similar to FIG. 3 in the case where the imaging unit 1 captures an image R as capturing each of the ranges R0 to R7 at times t = 0 to 7 while moving while the imaging unit 1 moves, as shown in FIG. The typical example of the characteristic information judged and the relative position information computed from the judgment result concerned is shown. Note that FIG. 4 also shows a schematic example of the information ST0 to ST7 (including the information of the route) which is updated and stored in the storage unit 5 in the same setting.

図4の例は推定部3で最も類似すると判定される1つのリファレンス特徴情報を求める場合に対応する例である。時刻t=0では情報ST0として示すように、特徴情報F0が得られ記憶部5にそのまま記憶される。ここで、時刻t=0は図2のフローを開始した直後に相当するものであり、記憶部5には過去結果として記憶されている情報が存在しないことから、このように情報ST0としてそのまま記憶される。   The example of FIG. 4 is an example corresponding to the case of obtaining one piece of reference feature information determined to be most similar by the estimation unit 3. At time t = 0, the characteristic information F0 is obtained and stored as it is in the storage unit 5, as shown as the information ST0. Here, the time t = 0 corresponds to immediately after the start of the flow of FIG. 2 and the information stored as the past result does not exist in the storage unit 5, and thus stored as it is as the information ST0 Be done.

図4にてさらに、時刻t=1ではクエリ特徴情報F1が得られ、リファレンス特徴情報F0と類似していると判定されて相対的位置情報P01が計算され、情報ST1として更新されリファレンスとして記憶される。時刻t=2ではクエリ特徴情報F2が得られ、リファレンス特徴情報F0と類似していると判定されて相対的位置情報P02が計算され、情報ST2として更新されリファレンスとして記憶される。時刻t=3ではクエリ特徴情報F3が得られ、リファレンス特徴情報F2と類似していると判定されて相対的位置情報P23が計算され、情報ST3として更新されリファレンスとして記憶される。時刻t=4ではクエリ特徴情報F4が得られ、リファレンス特徴情報F1と類似していると判定されて相対的位置情報P14が計算され、情報ST4として更新されリファレンスとして記憶される。時刻t=5ではクエリ特徴情報F5が得られ、リファレンス特徴情報F4と類似していると判定されて相対的位置情報P45が計算され、情報ST5として更新されリファレンスとして記憶される。時刻t=6ではクエリ特徴情報F6が得られ、リファレンス特徴情報F5と類似していると判定されて相対的位置情報P56が計算され、情報ST6として更新されリファレンスとして記憶される。時刻t=7ではクエリ特徴情報F7が得られ、リファレンス特徴情報F3と類似していると判定されて相対的位置情報P37が計算され、情報ST7として更新されリファレンスとして記憶される。   Further, in FIG. 4, at time t = 1, query feature information F1 is obtained, it is determined that it is similar to reference feature information F0, relative position information P01 is calculated, and updated as information ST1 and stored as a reference Ru. At time t = 2, query feature information F2 is obtained, it is determined that it is similar to reference feature information F0, relative position information P02 is calculated, and it is updated as information ST2 and stored as a reference. At time t = 3, query feature information F3 is obtained, it is determined that it is similar to the reference feature information F2, relative position information P23 is calculated, and updated as information ST3 and stored as a reference. At time t = 4, query feature information F4 is obtained, it is determined that it is similar to the reference feature information F1, relative position information P14 is calculated, and updated as information ST4 and stored as a reference. At time t = 5, query feature information F5 is obtained, it is determined that it is similar to the reference feature information F4, relative position information P45 is calculated, and updated as information ST5 and stored as a reference. At time t = 6, query feature information F6 is obtained, it is determined that it is similar to the reference feature information F5, relative position information P56 is calculated, and updated as information ST6 and stored as a reference. At time t = 7, query feature information F7 is obtained, it is determined that it is similar to the reference feature information F3, relative position information P37 is calculated, and updated as information ST7 and stored as a reference.

図5は図4の例と同様の場合において、推定部3で類似度の閾値判定によって必ずしも1つに限らないリファレンス特徴情報を求める場合に対応する例を、時刻t=7において情報ST70が得られるものとして示している。すなわち、図4の例に加えてさらに、時刻t=6ではクエリ特徴情報F6に類似すると判定されたものとしてリファレンス特徴情報F5のみでなくリファレンス特徴情報F4があったことにより、追加で相対的位置情報P46が計算されている。また図4の例に加えてさらに、時刻t=7ではクエリ特徴情報F7に類似すると判定されたものとしてリファレンス特徴情報F3のみでなくリファレンス特徴情報F2があったことにより、追加で相対的位置情報P27が計算されている。   FIG. 5 shows an example corresponding to the case where reference feature information not necessarily limited to one is obtained by threshold determination of similarity by the estimation unit 3 in the case similar to the example of FIG. 4, the information ST70 is obtained at time t = 7. Are shown as being That is, in addition to the example of FIG. 4, additionally, at time t = 6, the relative position is added because there is not only the reference feature information F5 but also the reference feature information F4 as the one determined to be similar to the query feature information F6. Information P46 has been calculated. Further, in addition to the example of FIG. 4, at time t = 7, not only the reference feature information F3 but also the reference feature information F2 is determined to be similar to the query feature information F7, so that relative positional information is additionally added. P27 is calculated.

以上、図4や図5にその模式例が情報ST0〜ST7や情報ST70として示されるような、特徴情報同士の個別の類似対応関係を合わせることで特徴情報の間での経路情報が定義された情報を、記憶部5では更新しながら記憶しておき、一実施形態において当該経路情報としての類似対応関係を合成部4での位置情報算出のための参照に供することができる。   As described above, the path information between the feature information is defined by combining the individual similar correspondence relationships between the feature information, such as the schematic examples shown as the information ST0 to ST7 and the information ST70 in FIGS. 4 and 5. Information can be stored while being updated in the storage unit 5, and in one embodiment, the similar correspondence relationship as the route information can be provided as a reference for calculating position information in the combining unit 4.

なお、経路情報とは例えば、図4の情報ST7であれば個別の対応関係P01,P14,P45,P56を合わせて得られる「F0→F1→F4→F5→F6」という特徴情報間の経路や、個別の対応関係P02,P23,P37を合わせて得られる「F0→F2→F3→F7」という特徴情報間の経路である。すなわち、対応関係Pij(Fi→Fj)及びPjk(Fj→Fk)があれば、これらを組み合わせて対応する特徴情報の部分的な経路「Fi→Fj→Fk」が得られ、このような部分的な経路をつなぎ合わせることで経路情報が得られることとなる。当該経路は記憶部5に記憶しておく情報において基準位置が対応付けられている特徴情報を起点として定義することができ、図4の情報ST7であれば特徴情報F0が時刻t=0で基準位置に該当しているものとして設定されているので、上記のような経路情報が得られることとなる。   The route information is, for example, a route between feature information “F0 → F1 → F4 → F5 → F6” obtained by combining the individual correspondence relationships P01, P14, P45, and P56 in the case of the information ST7 in FIG. This is a path between feature information “F0 → F2 → F3 → F7” obtained by combining individual correspondences P02, P23, and P37. That is, if there is a correspondence Pij (Fi → Fj) and Pjk (Fj → Fk), these are combined to obtain a partial path "Fi → Fj → Fk" of the corresponding feature information, and such a partial Route information can be obtained by connecting various routes. The route can be defined as the feature information associated with the reference position in the information stored in the storage unit 5 as the starting point, and if the information ST7 in FIG. Since it is set as corresponding to the position, the route information as described above can be obtained.

また、記憶部5においては各時刻tで新たな特徴情報Ftが得られる都度、図2のステップS4における更新で上記のような経路情報をも更新することにより、自身が記憶しておく情報において経路情報を常に最新の状態に更新して管理することが可能である。   In addition, whenever new feature information Ft is obtained at each time t in the storage unit 5, the route information is also updated by the update in step S 4 of FIG. It is possible to always update and manage the route information to the latest state.

合成部4は、算出部2で算出されたクエリ特徴情報の位置情報を、推定部3で類似判定されたリファレンス特徴情報の位置情報と算出部2で算出されたクエリ特徴情報との相対的位置情報とを合成することによって算出し、記憶部5に当該クエリ特徴情報と当該算出された位置情報とを対応付けて出力する。こうして、記憶部5では現時刻tにて当該出力されたクエリ特徴情報をこれよりも未来時刻t+1,t+2,…の推定部3での類似判定処理等のために、リファレンス特徴情報として、位置情報と対応付けて記憶することとなる。当該記憶する模式例は図4等で示した通りである。   The combining unit 4 compares the position information of the query feature information calculated by the calculating unit 2 with the position information of the reference feature information whose similarity is determined by the estimating unit 3 and the query feature information calculated by the calculating unit 2. The information is calculated by combining the information, and the query feature information and the calculated position information are associated with each other and output to the storage unit 5. Thus, in the storage unit 5, the reference feature information is used for the similarity determination process and the like in the estimation unit 3 of the future times t + 1, t + 2,... As the position information in association with the position information. The schematic example to be stored is as shown in FIG.

合成部4で位置情報を当該合成する手法の各実施形態は次のようなものが可能である。第一実施形態では、特徴情報Faに対する特徴情報Fb(クエリ特徴情報Fb)の位置情報を、特徴情報Faと特徴情報Fbの最短経路上の位置情報の積として算出することができる。ここで経路情報は記憶部5に記憶されているものを用いればよい。最短経路は、経路情報上において、特徴情報Faから特徴情報Fbへと類似判定がなされている特徴情報を経由して到達する場合のパス数が最小となるものとして求めればよい。例えば、図5の情報ST70の経路情報を利用して特徴情報F6の特徴情報F0に対する位置情報を求める場合であれば、当該位置情報は積P01*P14*P46として算出することができる。ここで、F0からF6へと到達する経路としては「F0→F1→F4→F6」及び「F0→F1→F4→F5→F6」の2通りがあるが、前者はパス数が3であり後者はパス数が4であるため、最短経路である前者によって積P01*P14*P46を算出することとなる。   Each embodiment of the method of combining the position information in the combining unit 4 can be as follows. In the first embodiment, the position information of the feature information Fb (query feature information Fb) for the feature information Fa can be calculated as the product of the position information on the shortest route of the feature information Fa and the feature information Fb. Here, route information stored in the storage unit 5 may be used. The shortest path may be determined as the path number in the case where the shortest path is reached via the feature information whose similarity is determined from the feature information Fa to the feature information Fb on the route information. For example, in the case of obtaining position information for the feature information F0 of the feature information F6 using the route information of the information ST70 of FIG. 5, the position information can be calculated as the product P01 * P14 * P46. Here, there are two routes to reach from F0 to F6, “F0 → F1 → F4 → F6” and “F0 → F1 → F4 → F5 → F6”, the former has 3 paths and the latter is the latter Since the number of paths is 4, the product P01 * P14 * P46 is calculated by the former which is the shortest path.

第二実施形態では、基準位置に対応する特徴情報Fnと類似判定されたリファレンス特徴情報Fsとの位置関係を記憶部5において位置情報Pnsとして記憶しておくことにより、位置情報を算出してもよい。ここで、位置情報Pnsの記憶は、現時刻tにおいて類似判定されたリファレンス特徴情報Fsが過去時刻s(s<t)において初めて記憶された場合、すなわち過去時刻sにおいてクエリ特徴情報Fsとしてその位置情報Pnsが求められた際の図2のステップS4において記憶部5に記憶しておくようにすればよい。   In the second embodiment, even if the positional relationship between the feature information Fn corresponding to the reference position and the reference feature information Fs determined to be similar is stored as the position information Pns in the storage unit 5, the position information can be calculated. Good. Here, the storage of the position information Pns is performed when the reference feature information Fs determined to be similar at the current time t is stored for the first time in the past time s (s <t), that is, the position as query feature information Fs at the past time s. The information Pns may be stored in the storage unit 5 in step S4 of FIG. 2 when the information Pns is obtained.

そして、具体的な位置情報の算出は、類似特徴情報Fsと算出部2で算出されたクエリ特徴情報Ftとの相対的位置関係を変換行列Pstとして求めたうえで、積Pns*Pstとして算出することができる。   Then, the specific positional information is calculated as the product Pns * Pst after obtaining the relative positional relationship between the similar feature information Fs and the query feature information Ft calculated by the calculation unit 2 as the conversion matrix Pst. be able to.

第三実施形態では、特徴情報Faから特徴情報Fbへと至る複数経路毎にそれぞれの位置情報の積で当該位置情報を算出し重み付け平均したものとして位置情報Pabを求めてもよい。ここで、複数経路のそれぞれの位置情報の積は第一又は第二実施形態によって求めればよい。ここで、重み係数は経路の距離や推定部での類似度、後述する記憶部5の重複等を利用して、経路の1パスごとに設定したものを当該経路全体で総和等したものを用いればよい。1パス「Fi→Fj」の経路の距離は位置情報Pijの並進成分の大きさとして求めることができ、1パス「Fi→Fj」の類似度は当該特徴情報Fi,Fjの類似度として求めることができる。なお、当該求める重みは、推定部3で初めてクエリ特徴情報として処理対象となった際に計算して記憶部5に記憶しておいてもよい。   In the third embodiment, position information Pab may be obtained as a weighted average of position information calculated by multiplying the position information by each of a plurality of routes from feature information Fa to feature information Fb. Here, the product of the position information of each of the plurality of paths may be obtained according to the first or second embodiment. Here, the weighting factor is the sum of all the routes set for each path of the route using the distance of the route, the similarity in the estimation unit, the duplication of the storage unit 5 described later, etc. Just do it. The distance of the path of one pass “Fi → Fj” can be determined as the size of the translation component of the position information Pij, and the similarity of one path “Fi → Fj” should be determined as the similarity of the feature information Fi and Fj. Can. The weight to be obtained may be calculated when the estimation unit 3 first processes the data as query feature information, and may be stored in the storage unit 5.

第三実施形態ではさらに、複数経路毎の位置情報の積を記憶部5において記憶しておくことで、今後参照される際の計算に利用してもよい。例えば、図6の[1]のように時刻0〜3において範囲R0〜R3を対象として撮像画像を取得し、図6の[2]のように特徴情報F0〜F3及びこれらの間の類似関係が経路情報ST30として求まった場合であれば、特徴情報F2の特徴情報F0に対する位置情報は複数経路が存在しP02とP01*P12とが得られる。両者を記憶部5に保持しておくことで、特徴情報F3の特徴情報F0に対する位置情報を算出する際、複数経路の内、特徴情報F2に至る経路は既に計算済みであるため、再利用することで位置情報の算出負荷を軽減できる。   Furthermore, in the third embodiment, the product of the position information for each of a plurality of paths may be stored in the storage unit 5 and may be used for calculation when it is referred to in the future. For example, as shown in [1] of FIG. 6, a captured image is acquired for the range R0 to R3 at time 0 to 3 and feature information F0 to F3 and similar relationships among them as shown in [2] of FIG. If the path information ST30 is obtained as the path information ST30, a plurality of paths exist for the position information for the feature information F0 of the feature information F2, and P02 and P01 * P12 are obtained. When calculating position information for feature information F0 of feature information F3 by holding both in storage unit 5, among the plurality of routes, the route to feature information F2 has already been calculated, and is therefore reused. This can reduce the calculation load of position information.

なお、図6の例における範囲R0〜R3や特徴情報F0〜F3等は、図3〜図5の例とは独立のものである。   Note that the ranges R0 to R3 and the feature information F0 to F3 and the like in the example of FIG. 6 are independent of the examples of FIGS.

第三実施形態ではさらに、特徴情報間の相対的位置関係を逆に辿る経路を記憶部5において保持しておくようにしてもよい。図6の[2]の場合であれば、特徴情報F1にP01=P02*(P12)-1を対応付けて保持しておくことで、特徴情報F3に関してP03=P02*(P12)-1*P13を計算する際、特徴情報F1が保持する位置情報を再利用できる。 Furthermore, in the third embodiment, a path may be stored in the storage unit 5 to trace back the relative positional relationship between feature information. In the case of [2] in FIG. 6, P01 = P02 * (P12) -1 is associated with feature information F1 and held, and P03 = P02 * (P12) -1 * for feature information F3. When calculating P13, the position information held by the feature information F1 can be reused.

なお、以上の第一〜第三実施形態の説明では1パス「Fi→Fj」に対応する位置情報Pijを平面射影変換等に対応する行列で求めることを前提として、これらの合成を積によって求めるものとして説明した。ここで、パスを逆向きに辿る場合は逆行列を乗ずればよい。位置情報Pijを基本行列や基礎行列を推定したえうで、当該行列を分解して得られる並進成分及び回転成分として求めている場合、当該並進成分及び回転成分を加算することによって合成を求めればよい。ここで、パスを逆向きに辿る場合は減算するようにすればよい。   In the above description of the first to third embodiments, assuming that position information Pij corresponding to one pass “Fi → Fj” is determined by a matrix corresponding to plane projective transformation etc., a combination of these is determined by a product It explained as a thing. Here, when the path is traced in the reverse direction, the inverse matrix may be multiplied. If position information P ij is estimated as a basic matrix or basic matrix and is obtained as a translational component and a rotational component obtained by decomposing the matrix, a composition can be obtained by adding the translational component and the rotational component. Good. Here, if the path is traced in the reverse direction, subtraction may be performed.

記憶部5では、各時刻tにおいて合成部4から得られた特徴情報及び対応する位置情報を蓄積して記憶し、且つ管理更新することで、以降の時刻t+1,t+2,…における推定部3の参照に供する。ここで、初期時刻t=0においては記憶部5は何も記憶していない状態として設定しておき、図2のフローに関して説明したように初期時刻t=0のステップS3及びS4で初期位置Pinitに対応する特徴情報を初めて記憶させる(初期登録させる)ようにしてもよい。また、当該記憶させる初期位置Pinit及び対応する特徴情報のペアを1つ以上、予め記憶部5に記憶させておくことで、初期時刻t=0であってもステップS3及びS4は初期登録することなく、通常通りの処理としてもよい。   The storage unit 5 accumulates and stores the feature information and the corresponding position information obtained from the combining unit 4 at each time t, and performs management update, so that the following time t + 1, t + 2,. This is provided as a reference to the estimation unit 3. Here, at the initial time t = 0, the storage unit 5 is set as a state in which nothing is stored, and the initial position Pinit is set at steps S3 and S4 at the initial time t = 0 as described in the flow of FIG. The feature information corresponding to may be stored (initially registered) for the first time. Also, by storing in advance in the storage unit 5 one or more pairs of the initial position Pinit to be stored and the corresponding feature information, steps S3 and S4 are initially registered even if the initial time t = 0. Instead, it may be processed as usual.

記憶部5から推定部3へ特徴情報を参照に供する処理に関して、一実施形態では現時刻tにおいて記憶している全ての(すなわち過去時刻においてクエリ特徴情報として得た全ての)又は一部の特徴情報を一度のみ提供し、推定部3では一度で推定結果を得るようにしてもよいし、別の一実施形態では段階的に特徴情報を提供して推定部3では段階的に推定結果を得て確定させるようにしてもよい。   Regarding processing for providing feature information from the storage unit 5 to the estimation unit 3, in one embodiment, all or some of the features stored at the current time t (that is, all obtained as query feature information in the past time) The information may be provided only once, and the estimation unit 3 may obtain the estimation result at one time, or in another embodiment, the feature information is provided in stages and the estimation unit 3 obtains the estimation results in stages. May be determined.

一度に提供する場合、過去時刻においてクエリ特徴情報として得られリファレンス特徴情報として記憶された全てのものを推定部3に提供するようにしてもよいし、当該全てのうちから固有の特徴情報に限定したもののみを推定部3に提供するようにしてもよい。   When providing at once, it is possible to provide all of the information obtained as query feature information and stored as reference feature information in the past time to the estimation unit 3, or from among all of them, limited to unique feature information. It is also possible to provide only to the estimation unit 3.

例えば、現在時刻がt=7であり、時刻t=0〜7において前述の図3のような範囲R0〜R7を対象として撮像を行った場合、図3に対応する図7に太枠表示で模式的に示すように、過去時刻t=0〜6の全ての特徴情報を推定部3に提供するのではなく、固有の特徴情報に該当する時刻t=0,3,4,6の特徴情報のみに限定して提供することができる。   For example, when the current time is t = 7 and imaging is performed for the range R0 to R7 as in FIG. 3 described above at time t = 0 to 7, the bold frame is displayed in FIG. 7 corresponding to FIG. As schematically shown, instead of providing all the feature information of the past time t = 0 to 6 to the estimation unit 3, the feature information of the time t = 0, 3, 4, 6 corresponding to the unique feature information It can be provided limited to

具体的には例えば、特徴情報の重複の割合が閾値以下となるような特徴情報同士を固有の特徴情報として定め、これに限定して提供すればよい。ここで、重複の割合は特徴情報における特徴点同士のうち対応していると判定されるものの個数の割合として評価してもよいし、相対的位置情報に対応する平面射影変換を施して一方の特徴情報に対応する画像範囲をもう一方の画像の座標(u,v)に変換した際の、もう一方の画像範囲との重複割合として評価してもよい。   Specifically, for example, feature information having a feature information duplication ratio equal to or less than a threshold may be defined as unique feature information, and limited to this. Here, the overlapping ratio may be evaluated as a ratio of the number of feature points determined to be corresponding among feature points in feature information, or may be subjected to planar projection conversion corresponding to relative position information The image range corresponding to the feature information may be evaluated as the overlapping ratio with the other image range when converted to the coordinates (u, v) of the other image.

あるいは、特徴情報に対応する位置情報の空間座標値にk-means(k平均法)などを適用して複数のセントロイド位置を求め、当該セントロイド位置に最も近い位置情報を有するような特徴情報のみを固有のものとして定めてもよい。あるいは、特徴情報Ftの得られた時刻tを所定の除数Nで割った際の剰余が所定値となるもののみを固有情報に設定する等、単純に間引いたものとしてもよい。   Alternatively, k-means (k-means method) or the like is applied to space coordinate values of position information corresponding to feature information to obtain a plurality of centroid positions, and feature information having position information closest to the centroid position Only may be defined as unique. Alternatively, it may be simply decimated, for example, by setting as the specific information only one whose remainder when the obtained time t of the feature information Ft is divided by a predetermined divisor N is a predetermined value.

固有の特徴情報を設定する場合はさらに、得られた時刻tが新しいものを優先して固有の特徴情報に設定してもよい。この場合、以上のような重複割合の評価に加えてさらに、得られた時刻tから現在時刻までの経過時間に基づく評価を行うことで固有の特徴情報として設定してもよい。あるいは、既に固有の特徴情報を構成している特徴情報Foldと重複割合が大きいと判定されるが、既に固有の特徴情報となっているものよりも所定時間以上新しいような特徴情報Fnewがある場合に、当該新しい特徴情報Fnewによって古い特徴情報Foldを置き換えることで固有の特徴情報を更新するようにしてもよい。   When unique feature information is set, the obtained time t may be set as unique feature information in preference to a new one. In this case, in addition to the evaluation of the overlapping ratio as described above, the characteristic information may be set as the unique feature information by performing an evaluation based on the elapsed time from the obtained time t to the current time. Alternatively, when it is determined that the duplication ratio is large with the feature information Fold that already constitutes unique feature information, but there is feature information Fnew that is newer than that which is already unique feature information by a predetermined time or more Alternatively, the unique feature information may be updated by replacing the old feature information Fold with the new feature information Fnew.

なお、自身が記憶している特徴情報のうちいずれが固有のものとなるかの決定は、記憶部5が図2のステップS4の更新の際に行うようにすればよい。   It should be noted that the determination of which of the pieces of feature information stored in itself becomes unique may be performed by the storage unit 5 at the time of updating of step S4 in FIG.

また、段階的に提供する場合は、例えば2段階で提供するものとし、1段階目では上記の固有の特徴情報のみを提供して推定部3で最類似となるものを判定し、2段階目では1段階目で最類似判定された特徴情報に近いと判定されるものであるが1段階目では提供されていなかった特徴情報を追加提供し、1段階目で最類似判定されたものと2段階目で追加提供されたものとの中で最も類似すると判定されるものと推定部3での最終的な類似判定結果とすればよい。ここで、2段階目で追加提供するための「近い」特徴情報の決定は、固有の特徴情報を限定した際のものと同様の尺度(位置情報の近さや重複の割合)で決定すればよい。全く同様にして、記憶部5に記憶しておく特徴情報に階層構造を設けておくことで3段階以上の判定を行うようにしてもよい。階層構造の管理に関しても、記憶部5が図2のステップS4の更新の際に行うようにすればよい。この際、新たな特徴情報に対応する追加分に関して階層構造等を更新して管理すればよい。   In the case of providing in stages, for example, it is provided in two stages, and in the first stage, only the above unique feature information is provided and the estimation unit 3 determines the most similar one, and the second stage In this case, the feature information determined to be close to the feature information determined most similar in the first step is additionally provided, and the feature information not provided in the first step is additionally provided. What is determined to be most similar to the one provided additionally at the stage may be taken as the final similarity determination result in the estimation unit 3. Here, the determination of “close” feature information to be additionally provided in the second step may be determined by the same scale (proximity of position information or the ratio of overlapping) as in the case of limiting unique feature information. . The determination may be performed in three or more stages by providing a hierarchical structure in the feature information stored in the storage unit 5 in exactly the same manner. The management of the hierarchical structure may also be performed when the storage unit 5 updates the step S4 in FIG. At this time, the hierarchical structure or the like may be updated and managed with respect to the additional portion corresponding to the new feature information.

2段階で提供する例として例えば、図7で時刻t=6であるものとし特徴情報F6がクエリとして入力された状況(F7はまだ存在しない状況)では次のようになる。すなわち、1段階目では固有の特徴情報F0,F3,F4が提供され、推定部3での最類似判定の結果が特徴情報F4となった場合、2段階目では特徴情報F4に近い特徴情報F5がさらに提供され、特徴情報F6と特徴情報F5との類似度で前回の推定結果F4の採否を判定する。すなわち、F4の方が類似していればF4が採用され、F5の方が類似していればF5が採用される。こうして、1段階目の判定結果から得られる特徴情報F5に近いものだけに類似度評価を限定することで高速高精度化が図られる。   As an example provided in two stages, for example, it is assumed that time t = 6 in FIG. 7, and in a situation where the feature information F6 is input as a query (a situation where F7 does not exist yet), the following occurs. That is, when the unique feature information F0, F3 and F4 is provided in the first stage and the result of the most similar judgment in the estimation unit 3 becomes the feature information F4, the feature information F5 close to the feature information F4 in the second stage Is further provided, and it is determined whether to adopt the previous estimation result F4 based on the similarity between the feature information F6 and the feature information F5. That is, if F4 is similar, F4 is adopted, and if F5 is similar, F5 is adopted. In this way, high-speed and high-precision can be achieved by limiting the similarity evaluation to only those close to the feature information F5 obtained from the first stage determination result.

なお、位置情報の近さに基づいて段階的に提供する場合、1段階目に最類似判定されたリファレンス特徴情報の位置情報P1を用いてクエリ特徴情報の位置情報P2を暫定的に求め、当該両方の位置情報P1,P2に近いと判定されるものを2段階目の提供対象に設定するようにしてもよい。上記の例であれば、最類似判定された特徴情報F5の位置情報と、これに基づいて暫定的に算出されるクエリ特徴情報F6の位置情報(合成部4で算出するのと同様のものとして暫定的に算出される位置情報)と、の両方に近いと判定されるものを2段階目の提供対象としてよい。   In the case of providing in stages based on the proximity of the position information, position information P2 of the query feature information is provisionally obtained using position information P1 of the reference feature information determined to be most similar in the first step. What is determined to be close to both of the position information P1 and P2 may be set as the second stage provision target. In the above example, it is assumed that the position information of the feature information F5 determined to be the most similar and the position information of the query feature information F6 provisionally calculated based on this (as calculated by the synthesizing unit 4 What is determined to be closer to both of the position information (temporarily calculated) and may be provided as the second stage.

記憶部5では、過去時刻tにおいて合成部4から位置情報と対応付けて登録された特徴情報に関して、当該過去時刻t(すなわち登録時刻t)からの経過時間に基づいて、互いに対応付けられた位置情報及び特徴情報を削除するようにしてもよい。例えば、固有の特徴情報として設定されていないもののうち、登録時刻tから一定期間以上が経過しているものは削除するようにしてもよい。   In the storage unit 5, regarding the feature information registered in association with the position information from the combining unit 4 at the past time t, the positions associated with each other based on the elapsed time from the past time t (that is, the registration time t) Information and feature information may be deleted. For example, among items not set as specific feature information, items for which a predetermined period or more has elapsed from the registration time t may be deleted.

記憶部5ではまた、ある初期時刻t=0から一定期間以上が経過した場合は既に記憶している情報を全て削除して、当該削除した時点を新たな初期時刻t=0とすることで、情報処理装置10を動作させるようにしてもよい。   Also, in the storage unit 5, when a predetermined period or more has passed from a certain initial time t = 0, all the information already stored is deleted, and the deletion time is set as a new initial time t = 0, The information processing apparatus 10 may be operated.

以上、本発明によれば、特徴情報と位置情報とを取得したその場で順次記憶していくことで、事前に撮像対象から算出しておいた特徴情報には含まれない特徴情報を徐々に組み入れることで撮像対象以外の周辺環境から算出される特徴情報が推定の手掛かりとなるため、従来より広範囲な認識が可能となる効果が得られる。ここで、ある初期時刻t=0において求まる特徴情報を初期登録するようにすれば、事前に所定の撮像対象から特徴情報を算出して記憶しておくことも省略可能である。   As described above, according to the present invention, the feature information and the position information are sequentially stored at the acquired place, so that the feature information not included in the feature information calculated from the imaging target in advance is gradually obtained. By incorporating the feature information calculated from the surrounding environment other than the imaging target becomes a clue for estimation, it is possible to obtain an effect of enabling wider recognition than ever before. Here, if the feature information to be obtained at a certain initial time t = 0 is initially registered, it is also possible to omit calculating and storing feature information from a predetermined imaging target in advance.

本発明の好適な適用例の1つとして、処理部6では拡張現実表示分野において周知の所定の正方マーカ等を利用することで当該マーカを基準とした拡張現実表示を行う場合に、当該マーカがフレームアウトした場合であっても、当該マーカ以外の対象の特徴情報の事前登録を必要とすることなく、当該拡張現実表示を継続可能とすることが挙げられる。この場合、マーカが所定精度で検出されている際は当該マーカのみを検出対象として拡張現実表示を行うようにすると共に、一定の時間間隔で撮像画像全体を対象として特徴情報を取得し初期位置Pinitとして登録することを行っておき、マーカが所定精度で検出されなくなった時点で直近過去に初期位置Pinitとして登録された特徴情報を用いて現在時刻の撮像画像の位置姿勢の推定を行うようにして、その後に再度マーカが所定精度で検出されるまでは本発明の手法を適用するようにすればよい。   As one of the preferable application examples of the present invention, in the case where the processing unit 6 performs the augmented reality display based on the marker by using a predetermined square marker or the like known in the augmented reality display field, the marker Even when the frame is out, the augmented reality display can be continued without requiring prior registration of feature information of objects other than the marker. In this case, when a marker is detected with a predetermined accuracy, augmented reality display is performed with only the marker as a detection target, and feature information is acquired for the entire captured image at a constant time interval to obtain an initial position Pinit. The position and orientation of the captured image at the current time is estimated by using the feature information registered as the initial position Pinit in the immediate past when the marker is no longer detected with a predetermined accuracy. Then, the method of the present invention may be applied until the marker is detected again with a predetermined accuracy.

本発明の情報処理装置10は一般的な構成のコンピュータとして実現可能である。すなわち、CPU(中央演算装置)、当該CPUにワークエリアを提供する主記憶装置、ハードディスクやSSDその他で構成可能な補助記憶装置、キーボード、マウス、タッチパネルその他といったユーザからの入力を受け取る入力インタフェース、ネットワークに接続して通信を行うための通信インタフェース、表示を行うディスプレイ、カメラ及びこれらを接続するバスを備えるような、一般的なコンピュータによって情報処理装置10を構成することができる。さらに、図1に示す情報処理装置10の各部の処理はそれぞれ、当該処理を実行させるプログラムを読み込んで実行するCPUによって実現することができるが、任意の一部の処理を別途の専用回路等(GPUを含む)において実現するようにしてもよい。なお、撮像部1に関してはハードウェアとしてのカメラで取得した撮像画像を取得するインタフェースとしての画像取得プログラムとして実現されてもよいし、当該ハードウェアとしてのカメラの撮像処理を制御する撮像制御プログラムをさらに含んで実現されてもよい。   The information processing apparatus 10 of the present invention can be realized as a computer having a general configuration. That is, a CPU (central processing unit), a main storage device that provides a work area to the CPU, an auxiliary storage device that can be configured with a hard disk or SSD, etc., an input interface that receives user input such as a keyboard, mouse, touch panel etc. The information processing apparatus 10 can be configured by a general computer such as a communication interface for communicating by connecting to it, a display for displaying, a camera, and a bus for connecting these. Furthermore, each process of each part of the information processing apparatus 10 shown in FIG. 1 can be realized by a CPU that reads and executes a program for executing the process, but any part of the process can be realized by a separate dedicated circuit etc. (Including the GPU). The imaging unit 1 may be realized as an image acquisition program as an interface for acquiring a captured image acquired by a camera as hardware, or an imaging control program for controlling imaging processing of the camera as the hardware. Furthermore, it may be realized including.

10…情報処理装置、1…撮像部、2…算出部、3…推定部、4…合成部、5…記憶部、6…処理部   DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 1 ... Imaging part, 2 ... Calculation part, 3 ... Estimation part, 4 ... Combining part, 5 ... Storage part, 6 ... Processing part

Claims (9)

対象を撮像して撮像画像を得る撮像部と、
前記撮像画像から特徴情報を算出する算出部と、
特徴情報及び位置情報を対応付けて記憶する記憶部と、
前記記憶部を参照して、前記算出された特徴情報に類似すると判定される特徴情報を求めると共に、当該類似すると判定された特徴情報に含まれる座標情報から前記算出された特徴情報に含まれる座標情報への変換関係として当該特徴情報同士の相対的位置情報を求める推定部と、
前記相対的位置情報と前記類似すると判定された特徴情報の位置情報とを合成することによって前記撮像画像の位置情報を得ると共に、当該得た位置情報を前記撮像画像から算出された特徴情報と対応付けて前記記憶部に記憶させる合成部と、を備えることを特徴とする情報処理装置。
An imaging unit that captures an object and obtains a captured image;
A calculation unit that calculates feature information from the captured image;
A storage unit that stores feature information and position information in association with each other;
With reference to the storage unit, feature information determined to be similar to the calculated feature information is determined, and coordinates included in the feature information calculated from coordinate information included in the feature information determined to be similar An estimation unit for obtaining relative position information of the feature information as a conversion relationship to information;
The position information of the captured image is obtained by combining the relative position information and the position information of the feature information determined to be similar, and the obtained position information corresponds to the feature information calculated from the captured image. An information processing apparatus including: a combining unit to be added and stored in the storage unit.
前記記憶部では、前記推定部からの前記参照に対して、一部の特徴情報のみを参照に供することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the storage unit provides only part of the feature information as a reference to the reference from the estimation unit. 前記記憶部では、前記参照に供する一部の特徴情報として、互いの重複割合が少ないと判定されるものを採用することを特徴とする請求項2に記載の情報処理装置。   3. The information processing apparatus according to claim 2, wherein the storage unit adopts, as the partial feature information to be provided for the reference, information that is determined to have a small overlapping ratio. 前記記憶部では、前記推定部からの前記参照に対して、一部の特徴情報のみを参照に供して前記推定部において類似すると一段回目で判定される特徴情報の結果を得た後さらに、
当該一段回目で類似判定された特徴情報に重複していると判定される一部の特徴情報を参照に供して、前記推定部において類似すると二段階目で判定される特徴情報の結果を得るようにさせることを特徴とする請求項1ないし3のいずれかに記載の情報処理装置。
In the storage unit, only a part of the feature information is referred to with respect to the reference from the estimation unit, and after the result of the feature information determined in the first round to be similar in the estimation unit is obtained,
In order to obtain a result of the feature information determined in the second step as being similar in the estimation unit by using, as a reference, a part of the feature information determined to overlap with the feature information determined to be similar in the first round The information processing apparatus according to any one of claims 1 to 3, characterized in that:
前記記憶部では、前記合成部によって記憶されてからの経過時間に基づいて、記憶している対応付けられた特徴情報及び位置情報を削除することを特徴とする請求項1ないし4のいずれかに記載の情報処理装置。   5. The storage device according to any one of claims 1 to 4, wherein the stored associated feature information and position information are deleted based on an elapsed time after being stored by the combining unit. Information processor as described. 前記記憶部では、前記合成部によって合成して記憶された際の相対的位置情報によって対応付けられている特徴情報同士の間にパスを設けることで、複数の特徴情報及び位置情報を、位置情報の間の経路情報と共に記憶することを特徴とする請求項1ないし5のいずれかに記載の情報処理装置。   In the storage unit, a plurality of feature information and position information can be obtained by providing a path between feature information items that are associated by relative position information when they are combined and stored by the combining unit. The information processing apparatus according to any one of claims 1 to 5, wherein the information processing apparatus stores the path information along with the route information between them. 前記合成部では、前記合成して前記撮像画像の位置情報を得る際に、前記経路情報を利用することを特徴とする請求項6に記載の情報処理装置。   The information processing apparatus according to claim 6, wherein the combining unit uses the path information when obtaining the position information of the captured image by combining. 対象を撮像して撮像画像を得る撮像段階と、
前記撮像画像から特徴情報を算出する算出段階と、
特徴情報及び位置情報を対応付けて記憶する記憶段階と、
前記記憶段階の記憶を参照して、前記算出された特徴情報に類似すると判定される特徴情報を求めると共に、当該類似すると判定された特徴情報に含まれる座標情報から前記算出された特徴情報に含まれる座標情報への変換関係として当該特徴情報同士の相対的位置情報を求める推定段階と、
前記相対的位置情報と前記類似すると判定された特徴情報の位置情報とを合成することによって前記撮像画像の位置情報を得ると共に、当該得た位置情報を前記撮像画像から算出された特徴情報と対応付けて前記記憶段階の記憶を更新させる合成段階と、を備えることを特徴とする方法。
An imaging stage for imaging an object to obtain an imaged image;
Calculating the feature information from the captured image;
A storage step of storing feature information and position information in association with each other;
The characteristic information determined to be similar to the calculated characteristic information is determined with reference to the storage of the storage stage, and is included in the characteristic information calculated from coordinate information included in the characteristic information determined to be similar. Estimating the relative position information of the feature information as a conversion relationship to the coordinate information to be obtained;
The position information of the captured image is obtained by combining the relative position information and the position information of the feature information determined to be similar, and the obtained position information corresponds to the feature information calculated from the captured image. And updating the memory of the memory stage.
コンピュータを請求項1ないし7のいずれかに記載の情報取得装置として機能させることを特徴とするプログラム。   A program that causes a computer to function as the information acquisition device according to any one of claims 1 to 7.
JP2017196705A 2017-10-10 2017-10-10 Information processing equipment, methods and programs Active JP6831765B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017196705A JP6831765B2 (en) 2017-10-10 2017-10-10 Information processing equipment, methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017196705A JP6831765B2 (en) 2017-10-10 2017-10-10 Information processing equipment, methods and programs

Publications (2)

Publication Number Publication Date
JP2019070944A true JP2019070944A (en) 2019-05-09
JP6831765B2 JP6831765B2 (en) 2021-02-17

Family

ID=66441196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017196705A Active JP6831765B2 (en) 2017-10-10 2017-10-10 Information processing equipment, methods and programs

Country Status (1)

Country Link
JP (1) JP6831765B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164188A (en) * 2011-02-08 2012-08-30 Sony Corp Image processing apparatus, image processing method and program
JP2014063397A (en) * 2012-09-21 2014-04-10 Fujitsu Ltd Image processor, image processing method and image processing program
JP2014515530A (en) * 2011-05-27 2014-06-30 クゥアルコム・インコーポレイテッド Planar mapping and tracking for mobile devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164188A (en) * 2011-02-08 2012-08-30 Sony Corp Image processing apparatus, image processing method and program
JP2014515530A (en) * 2011-05-27 2014-06-30 クゥアルコム・インコーポレイテッド Planar mapping and tracking for mobile devices
JP2014063397A (en) * 2012-09-21 2014-04-10 Fujitsu Ltd Image processor, image processing method and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WANG ZHICHENG ET AL.: "A Robust Image Mosaic Method Based On Graph-Model Optimization", 2014 INTERNATIONAL CONFERENCE ON VIRTUAL REALITY AND VISUALIZATION, JPN6021001011, 31 August 2014 (2014-08-31), US, pages 382 - 387, XP033220798, ISSN: 0004429374, DOI: 10.1109/ICVRV.2014.48 *

Also Published As

Publication number Publication date
JP6831765B2 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
JP2020509506A (en) Method, apparatus, device, and storage medium for determining camera posture information
TWI543610B (en) Electronic device and image selection method thereof
JP6734940B2 (en) Three-dimensional measuring device
CN109598744B (en) Video tracking method, device, equipment and storage medium
JP2017529620A (en) Attitude estimation system and method
KR102169309B1 (en) Information processing apparatus and method of controlling the same
JPWO2017022033A1 (en) Image processing apparatus, image processing method, and image processing program
CN106650965B (en) Remote video processing method and device
JP6894707B2 (en) Information processing device and its control method, program
JP5965293B2 (en) Camera pose estimation device and camera pose estimation program
CN111709973A (en) Target tracking method, device, equipment and storage medium
CN105809664B (en) Method and device for generating three-dimensional image
WO2019093457A1 (en) Information processing device, information processing method and program
JP2017053795A (en) Information processing apparatus, position attitude measurement method, and position attitude measurement program
CN111652103B (en) Indoor positioning method, device, equipment and storage medium
CN111462179B (en) Three-dimensional object tracking method and device and electronic equipment
US11978232B2 (en) Method for displaying three-dimensional augmented reality
CN108921898A (en) Pose of camera determines method, apparatus, electronic equipment and computer-readable medium
JP2019096222A (en) Image processor, method for processing image, and computer program
JP2019012360A (en) Information processor, program, and method for information processing
CN112907671B (en) Point cloud data generation method and device, electronic equipment and storage medium
CN113190120B (en) Pose acquisition method and device, electronic equipment and storage medium
CN110517298B (en) Track matching method and device
JP6719945B2 (en) Information processing apparatus, information processing method, information processing system, and program
JP6831765B2 (en) Information processing equipment, methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210129

R150 Certificate of patent or registration of utility model

Ref document number: 6831765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150