JP6466188B2 - POSITION ESTIMATION DEVICE, POSITION ESTIMATION SYSTEM, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM - Google Patents

POSITION ESTIMATION DEVICE, POSITION ESTIMATION SYSTEM, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM Download PDF

Info

Publication number
JP6466188B2
JP6466188B2 JP2015018593A JP2015018593A JP6466188B2 JP 6466188 B2 JP6466188 B2 JP 6466188B2 JP 2015018593 A JP2015018593 A JP 2015018593A JP 2015018593 A JP2015018593 A JP 2015018593A JP 6466188 B2 JP6466188 B2 JP 6466188B2
Authority
JP
Japan
Prior art keywords
feature point
position estimation
information
registration
registration information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015018593A
Other languages
Japanese (ja)
Other versions
JP2016142624A (en
Inventor
宏一 和田
宏一 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2015018593A priority Critical patent/JP6466188B2/en
Publication of JP2016142624A publication Critical patent/JP2016142624A/en
Application granted granted Critical
Publication of JP6466188B2 publication Critical patent/JP6466188B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラ等により撮影した撮影映像を用いて屋内等の位置を判定する位置推定技術に関する。   The present invention relates to a position estimation technique for determining a position such as indoors using a captured image captured by a camera or the like.

位置推定技術として、例えば、下記の特許文献1に記載された車載カメラにより自動車位置を推定する技術がある。特許文献1に開示されている装置は、遮断機、看板等のように、一定の場所にあり、一定の形状を保ったまま一定の法則で動くようないわゆる可動物体を車載カメラにより認識する。車載カメラの撮影画像から抽出した特徴点を、可動物体特徴点群と固定物体特徴点群とに分類する。分類された特徴点群と車載カメラの画像とに基づいて、車載カメラを設置した車両の位置推定を行なうことができる。   As a position estimation technique, for example, there is a technique for estimating the position of an automobile using an in-vehicle camera described in Patent Document 1 below. The apparatus disclosed in Patent Document 1 recognizes a so-called movable object such as a circuit breaker, a signboard, and the like that is in a certain place and moves according to a certain law while maintaining a certain shape by an in-vehicle camera. The feature points extracted from the captured image of the in-vehicle camera are classified into a movable object feature point group and a fixed object feature point group. Based on the classified feature point group and the image of the in-vehicle camera, the position of the vehicle in which the in-vehicle camera is installed can be estimated.

特開2012−99010号公報JP 2012-99010 A

屋内の場合、屋外と異なり、一定の場所にあり、一定の形状を保ったまま一定の法則で動く可動物体が存在することは稀である。通路に人が立ち止まっていることもあれば、突然移動することもある。また、昨日まで壁に貼ってあったポスタが無くなっていたり、別なポスタに変っていたり、別な場所に移動していたりすることも多い。即ち、規則的な動きをしないものが存在したり、屋内の状況は変化が発生しやすい。   When indoors, unlike outdoors, there are rarely movable objects that are in a certain place and move with a certain law while maintaining a certain shape. Sometimes people stop in the aisle, or they move suddenly. Also, the posters that were stuck on the wall until yesterday are often gone, changed to another posters, or moved to another location. That is, there are things that do not move regularly, and indoor conditions tend to change.

本発明は、規則的な動きをするものが存在しない屋内等において、屋内等の状況が時々刻々変化しても位置推定を可能とすることを目的とする。   An object of the present invention is to make it possible to estimate a position even in an indoor environment where there is no regular movement even if the indoor environment changes from moment to moment.

本発明の一観点によれば、画像の位置情報と特徴点情報とからなり、事前に登録された事前登録情報を格納する事前登録情報格納部と、画像の位置情報と特徴点情報とからなり、装置が自動的に登録した自動登録情報を格納する自動登録情報格納部と、を有する特徴点データベースと関連付けされた位置推定装置であって、位置推定対象画像と前記特徴点データベースに格納された画像との特徴点情報のマッチング処理に基づいて、前記位置推定対象画像の位置推定処理を行う位置推定処理部と、前記特徴点データベースへの前記自動登録情報の自動登録処理を行う自動特徴点登録処理部と、を有し、前記自動特徴点登録処理部は、前記位置推定対象画像と前記事前登録情報との特徴点情報が、一定の割合でマッチングしている状態が続いている場合に、前記自動登録情報として前記自動登録情報格納部に格納することを特徴とする位置推定装置が提供される。   According to one aspect of the present invention, it includes image position information and feature point information, and includes a pre-registration information storage unit that stores pre-registered pre-registration information, and image position information and feature point information. A position estimation device associated with a feature point database having an automatic registration information storage unit for storing automatic registration information automatically registered by the device, the position estimation target image being stored in the feature point database Based on matching processing of feature point information with an image, a position estimation processing unit that performs position estimation processing of the position estimation target image, and automatic feature point registration that performs automatic registration processing of the automatic registration information in the feature point database And the automatic feature point registration processing unit is in a state in which the feature point information of the position estimation target image and the pre-registration information match at a certain rate. If that, the automatic registration information storage section position estimation apparatus and storing, in is provided as the automatic registration information.

前記位置推定対象画像と前記事前登録情報との特徴点情報が、一定の割合でマッチングしている状態が続いていることにより、事前登録情報の代替情報として機能する自動登録情報を保持し、位置推定に用いることができる。   Since the feature point information of the position estimation target image and the pre-registration information continues to be matched at a certain rate, the automatic registration information that functions as substitute information for the pre-registration information is retained, It can be used for position estimation.

前記自動特徴点登録処理部は、前記位置推定対象画像と前記事前登録情報との特徴点情報が、前記事前登録画像、他の全ての自動登録画像との位置推定率が、予め決められている自動登録最小推定率と自動登録最大推定率との範囲内にあり、かつ、前記事前登録画像との位置推定率が、事前登録最小推定率と事前登録最大推定率との範囲内にある場合に、前記位置推定対象画像を自動登録情報として前記自動登録情報格納部に格納することを特徴とする。   In the automatic feature point registration processing unit, the feature point information of the position estimation target image and the pre-registration information is determined in advance as the position estimation rate of the pre-registration image and all other automatic registration images. Are within the range of the automatic registration minimum estimation rate and the automatic registration maximum estimation rate, and the position estimation rate with the pre-registered image is within the range of the pre-registration minimum estimation rate and the pre-registration maximum estimation rate. In some cases, the position estimation target image is stored in the automatic registration information storage unit as automatic registration information.

さらに、前記事前登録最小推定率と前記事前登録最大推定率との範囲内に予め登録されていた閾値内の最小滞留回数だけ留まっていた場合に、前記自動登録情報として前記自動登録情報格納部に格納することを特徴とする。   Further, the automatic registration information is stored as the automatic registration information when the minimum number of stays within the threshold value registered in advance is within the range between the pre-registration minimum estimation rate and the pre-registration maximum estimation rate. It stores in a part.

事前登録情報と一定の割合でマッチングしている状態が続いていて、全登録情報とマッチングした場合も一定の割合でマッチングしている状態が続いていることが判明した場合、登録済みの特徴情報とは異なる状況になったと判断して、共通特徴点情報を特徴データベースに登録する。これにより、誤推定を防止でき、さらに常に最新の特徴情報を取込むことが可能となる。   If the pre-registration information continues to be matched at a certain rate, and if it is found that matching with all the registered information continues at a certain rate, the registered feature information The common feature point information is registered in the feature database. As a result, erroneous estimation can be prevented and the latest feature information can always be captured.

マッチングしていない前記自動登録情報を、順次前記自動登録情報格納部から削除していく自動登録情報削除部を有することを特徴とする。   An automatic registration information deleting unit that sequentially deletes the unregistered automatic registration information from the automatic registration information storage unit.

現時点でマッチングに利用されなくなった特徴情報、即ち、特徴点データベースにおいて、最新の特徴情報が存在する既に廃れた特徴情報は、自動特徴点削除部で削除することができる。   Feature information that is no longer used for matching at the present time, that is, feature information that has already been discarded in the feature point database, can be deleted by the automatic feature point deletion unit.

前記位置推定処理部において正しくマッチングできた場合に、前記特徴点データベース内の前記事前登録情報、前記自動登録情報のうち、共通特徴点と最も推定率が高くマッチングした、事前登録情報又は自動登録情報の最終マッチング日時を更新し、前記自動登録情報削除部において、同一の登録位置毎に、全事前登録情報、全自動登録情報の前記最終マッチング日時に基づいて、マッチングに使われてない登録情報を削除することを特徴とする。   Pre-registration information or auto-registration that matches the highest presumption rate with the common feature point among the pre-registration information and the auto-registration information in the feature point database when the position estimation processing unit is able to match correctly The last matching date and time of information is updated, and the registration information that is not used for matching based on the last matching date and time of all pre-registration information and all automatic registration information in the same registration position in the automatic registration information deletion unit It is characterized by deleting.

さらに、画像の特徴点情報を共通化する処理を行い、共通化された画像の位置情報と特徴点情報のみを前記特徴点データベースに登録する共通特徴点処理部を有することを特徴とする。   The image processing apparatus further includes a common feature point processing unit that performs processing for sharing image feature point information and registers only the shared image position information and feature point information in the feature point database.

前記事前登録情報とは異なる状況になったと判断して、共通特徴点情報を特徴データベースに登録する。動く部分を共通特徴点処理部で取り去った上で、画像の特徴点を共通化する処理を行う。   It is determined that the situation is different from the pre-registration information, and the common feature point information is registered in the feature database. After the moving part is removed by the common feature point processing unit, a process for sharing the feature points of the image is performed.

また、本発明は、画像の位置情報と特徴点情報とからなり、事前に登録された事前登録情報を格納する事前登録情報格納部と、画像の位置情報と特徴点情報とからなり、装置が自動的に登録した自動登録情報を格納する自動登録情報格納部と、を有する特徴点データベースと、前記特徴点データベースに関連付けされた位置推定装置と、を有する位置推定システムであって、前記位置推定装置は、位置推定対象画像と前記特徴点データベースに格納された画像の特徴点情報のマッチング処理に基づいて、前記位置推定対象画像の位置推定処理を行う位置推定処理部と、前記特徴点データベースへの前記自動登録情報の自動登録処理を行う自動特徴点登録処理部と、を有し、前記自動特徴点登録処理部は、前記位置推定対象画像と前記事前登録情報との特徴点情報が、一定の割合でマッチングしている状態が続いている場合に、前記位置推定対象画像を自動登録情報として前記自動登録情報格納部に格納することを特徴とする位置推定システムである。   Further, the present invention is composed of image position information and feature point information, and includes a pre-registration information storage unit for storing pre-registered pre-registration information, image position information and feature point information, and the apparatus An automatic registration information storage unit for storing automatically registered automatic registration information, and a position estimation system having a feature point database and a position estimation device associated with the feature point database, wherein the position estimation The apparatus includes: a position estimation processing unit that performs position estimation processing of the position estimation target image based on matching processing between the position estimation target image and feature point information of the image stored in the feature point database; and the feature point database. An automatic feature point registration processing unit that performs automatic registration processing of the automatic registration information, and the automatic feature point registration processing unit includes the position estimation target image and the pre-registration. Position estimation, wherein the position estimation target image is stored in the automatic registration information storage unit as automatic registration information when the feature point information with the information continues to be matched at a certain rate System.

本発明の他の観点によれば、画像の位置情報と特徴点情報とからなり、事前に登録された事前登録情報を格納する事前登録情報格納部と、画像の位置情報と特徴点情報とからなり、装置が自動的に登録した自動登録情報を格納する自動登録情報格納部と、を有する特徴点データベースと関連付けされた位置推定装置における位置推定方法であって、位置推定対象画像と前記特徴点データベースに格納された画像の特徴点情報のマッチング処理に基づいて、前記位置推定対象画像の位置推定処理を行う位置推定処理ステップと、前記特徴点データベースへの前記自動登録情報の自動登録処理を行う自動特徴点登録処理ステップと、を有し、前記自動特徴点登録処理ステップは、前記位置推定対象画像と前記事前登録情報との特徴点情報が、一定の割合でマッチングしている状態が続いている場合に、前記位置推定対象画像を自動登録情報として前記自動登録情報格納部に格納することを特徴とする位置推定方法が提供される。   According to another aspect of the present invention, the image includes position information and feature point information of an image, and includes a pre-registration information storage unit that stores pre-registered pre-registration information, and image position information and feature point information. A position estimation method in a position estimation device associated with a feature point database, the automatic registration information storage unit storing automatic registration information automatically registered by the device, the position estimation target image and the feature point Based on the matching process of the feature point information of the image stored in the database, the position estimation processing step for performing the position estimation process of the position estimation target image, and the automatic registration process of the automatic registration information in the feature point database Automatic feature point registration processing step, wherein the feature point information of the position estimation target image and the pre-registration information is constant. If the state in which the matching rate is continuing, the position estimation method characterized by storing in said automatic registration information storage unit the position estimation target image as an automatic registration information is provided.

また、本発明は、コンピュータに、上記に記載の位置推定方法を実行させるための位置推定プログラムであっても良い。   Further, the present invention may be a position estimation program for causing a computer to execute the position estimation method described above.

本発明によれば、事前登録画像の変化や紛失などによる位置の誤推定を防止することができる。また常に最新の特徴情報を取込むことが可能となる。   According to the present invention, it is possible to prevent erroneous position estimation due to a change or loss of a pre-registered image. In addition, the latest feature information can always be taken in.

さらに、現時点でマッチングに利用されなくなった特徴情報、即ち、特徴点データベースにおいて、最新の特徴情報が存在する既に不要となった特徴情報は、自動登録情報削除部により削除することで、常に最新の特徴情報だけを保持しながらマッチングすることが可能となる。   Furthermore, feature information that is no longer used for matching, that is, feature information that is no longer needed in the feature point database, is deleted by the automatic registration information deletion unit, so that it is always the latest Matching can be performed while retaining only feature information.

一般的な位置推定技術のイメージを示す図である。It is a figure which shows the image of a general position estimation technique. 本発明の実施の形態による位置推定技術のイメージを示す図であり、図1Aに対応する図である。It is a figure which shows the image of the position estimation technique by embodiment of this invention, and is a figure corresponding to FIG. 1A. 本形態による位置推定技術のイメージを示す図であり、図1Bに続く図である。It is a figure which shows the image of the position estimation technique by this form, and is a figure following FIG. 1B. 本実施の形態による位置推定技術のイメージを示す図であり、図1Cに続く図である。It is a figure which shows the image of the position estimation technique by this Embodiment, and is a figure following FIG. 1C. 本実施の形態による位置推定装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the position estimation apparatus by this Embodiment. 本実施の形態による位置推定装置の共通特徴点処理部の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the common feature point process part of the position estimation apparatus by this Embodiment. 本実施の形態による位置推定装置の位置推定処理部の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the position estimation process part of the position estimation apparatus by this Embodiment. 本実施の形態による位置推定装置の自動特徴点登録処理部の一構成例を示す機能ブロック図である。It is a functional block diagram which shows one structural example of the automatic feature point registration process part of the position estimation apparatus by this Embodiment. 位置推定装置の全体のシステム構成と、やり取りされるデータ群との関係を示す図である。It is a figure which shows the relationship between the system configuration of the whole position estimation apparatus, and the data group exchanged. 自動特徴点登録処理部の入力である登録閾値データの詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the registration threshold value data which is an input of an automatic feature point registration process part. 位置推定処理部から自動特徴点登録処理部に渡される推定詳細データの詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the estimation detailed data passed from a position estimation process part to an automatic feature point registration process part. 位置データベースに格納されている位置情報の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the positional information stored in the position database. 図5の位置情報の具体例を示す図である。It is a figure which shows the specific example of the positional information of FIG. 特徴点データベースに格納されている事前登録情報と自動登録情報の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the pre-registration information and automatic registration information which are stored in the feature point database. 共通特徴点処理部の入力である共通特徴点閾値データの詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the common feature point threshold value data which is an input of a common feature point process part. 共通特徴点処理部の入出力であり、位置推定処理部の入力となっている共通特徴点データの詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the common feature point data which are the input / output of a common feature point process part, and are the input of a position estimation process part. 位置推定処理部の入力となっている推定閾値データの詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the estimation threshold value data used as the input of a position estimation process part. 自動特徴点登録処理部の入出力となっている現滞留回数の具体例を示す図である。It is a figure which shows the specific example of the present stay frequency used as the input-output of an automatic feature point registration process part. 移動可能対象リスト生成処理部の出力となっている移動可能対象ノードリストの具体例を示す図である。It is a figure which shows the specific example of the movable object node list | wrist which is the output of the movable object list production | generation process part. 特徴点の具体例を示す図である。It is a figure which shows the specific example of a feature point. カメラ画像特徴点処理部と共通特徴点処理部の処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of a process of a camera image feature point process part and a common feature point process part. 移動可能対象リスト生成処理部と位置推定処理部の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of the movable object list production | generation process part and a position estimation process part. 推定詳細データの設定処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a setting process of estimation detailed data. 自動特徴点登録処理部と自動登録情報削除部の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of an automatic feature point registration process part and an automatic registration information deletion part. 共通特徴点登録処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a common feature point registration process.

以下、本発明を実施する場合の一形態を、図面を参照して具体的に説明する。
図1Aは、一般的な位置推定技術を屋内の位置推定に適用した場合のイメージを示す図である。位置推定装置のシステムには、画像情報又はその特徴点情報(以下、「特徴点情報」と称する。)を事前に登録しておく。これを、事前登録画像(情報)と称する。この事前登録画像Xは、システムの管理者などが、屋内を予めある位置で撮影した画像に基づいて登録された情報であり、例えば、1か月ごとにシステムの保守点検を行う度に、確認又は更新される。事前登録画像に関連する情報を事前登録情報と称する。
Hereinafter, an embodiment for carrying out the present invention will be specifically described with reference to the drawings.
FIG. 1A is a diagram illustrating an image when a general position estimation technique is applied to indoor position estimation. Image information or feature point information (hereinafter referred to as “feature point information”) is registered in advance in the position estimation apparatus system. This is referred to as a pre-registered image (information). This pre-registered image X is information registered by a system administrator or the like based on an image taken indoors in advance at a certain position. For example, the pre-registered image X is confirmed every time a system maintenance inspection is performed every month. Or updated. Information related to the pre-registered image is referred to as pre-registered information.

次いで、カメラ機能を有するスマートフォンなどの携帯端末等を用いて、現在撮像している撮影画像(撮像素子に取り込んでいる画像、図1AのY1、Y2)と事前登録画像Xとを、画像の特徴点などに基づいて比較して、スマートフォンの位置、すなわち、その所持者の位置(実際には、後述するように、位置と方向により、精度良く位置を推定する。)、例えば、スマートフォンにおける地図情報等と、この位置情報とを利用して、スマートフォンを所持するユーザに対してデパートや施設などの案内(ナビゲート)等を行うことができる。位置以外に方向も情報として有することで、どの方向から撮影した画像であるかを正確に推定することができる。   Next, using a mobile terminal such as a smartphone having a camera function, the captured image (image captured in the image sensor, Y1, Y2 in FIG. 1A) and the pre-registered image X and the pre-registered image X are image features. Comparing based on points, etc., the position of the smartphone, that is, the position of the owner (actually, the position is accurately estimated by the position and direction as will be described later), for example, map information on the smartphone Etc. and this position information can be used to provide guidance (navigation) of department stores, facilities, etc. to the user who owns the smartphone. By having the direction as information in addition to the position, it is possible to accurately estimate from which direction the image is taken.

現在撮像している画像Y1,Y2と事前登録画像Xとの特徴点の一致度(マッチング率又は位置推定率とも称する。)が、ある閾値(図1AのAR101で示す値)を超えているか否かにより、位置推定ができた(位置推定が正しい)画像Y1と位置推定ができない(位置推定が正しくない)画像Y2とを区別し、位置推定ができた画像Y1に関して、推定した位置情報を提供することができる。   Whether the degree of coincidence (also referred to as matching rate or position estimation rate) of feature points between the currently captured images Y1 and Y2 and the pre-registered image X exceeds a certain threshold (value indicated by AR101 in FIG. 1A). Therefore, the image Y1 that has been estimated (the position is correct) is distinguished from the image Y2 that cannot be estimated (the position is not correct), and the estimated position information is provided for the image Y1 that has been estimated. can do.

ところで、図1Aに示す方法では、例えば、事前登録画像X内に撮影されていた物が一部でも移動した場合には、位置推定ができない可能性がある。   By the way, in the method shown in FIG. 1A, for example, when an object captured in the pre-registered image X has moved even partially, there is a possibility that the position cannot be estimated.

そこで、本発明の実施の形態による位置推定技術においては、以下に説明するような工夫を行った。   Therefore, the position estimation technique according to the embodiment of the present invention has been devised as described below.

図1Bから図1Dまでは、本実施の形態による位置推定技術のイメージを示す図であり、図1Aに対応する図である。   1B to 1D are diagrams showing images of the position estimation technique according to the present embodiment, and are diagrams corresponding to FIG. 1A.

位置推定装置のシステムには、図1Aと同様に、事前に事前登録画像A1をシステムに登録しておく。さらに、新しく、自動登録画像という概念を導入する。   As in FIG. 1A, a pre-registered image A1 is registered in advance in the system of the position estimation device. In addition, a new concept of automatic registration images is introduced.

自動登録画像は、以下の条件を充足する場合に、システムに自動的に登録される画像(位置情報、特徴点情報)である。   An automatically registered image is an image (position information, feature point information) that is automatically registered in the system when the following conditions are satisfied.

(条件1)
図1Bに示すように、撮影画像C1に関して、事前登録しておいた事前登録画像A1、他の全ての自動登録画像(例えば、B1、B2等)との位置推定率が、予め決められている自動登録最小推定率と自動登録最大推定率との範囲内にある(例えば、50%から70%範囲内にあること、すなわち、かなりマッチングしている) ことである。
(Condition 1)
As shown in FIG. 1B, with respect to the photographed image C1, the position estimation rate of the pre-registered pre-registered image A1 and all other automatically registered images (for example, B1, B2, etc.) is determined in advance. It is within the range of the automatic registration minimum estimation rate and the automatic registration maximum estimation rate (for example, it is within the range of 50% to 70%, that is, it is quite matched).

条件1は、撮影画像C1が、ハッチを付した領域内に存在する場合に自動登録画像としてシステムに自動的に登録する条件1を満たすことを意味する。   The condition 1 means that the captured image C1 satisfies the condition 1 that is automatically registered in the system as an automatically registered image when it exists in the hatched area.

(条件2)
図1Cに示すように、撮影画像C1に関して、事前登録しておいた事前登録画像A1との位置推定率が、事前登録最小推定率と事前登録最大推定率との範囲内にある(例えば、位置推定率が、10%から50%の範囲内にあること、すなわち、マッチングの程度が中間程度である)ことである。
(Condition 2)
As shown in FIG. 1C, the position estimation rate of the pre-registered pre-registered image A1 with respect to the captured image C1 is within the range of the pre-registered minimum estimated rate and the pre-registered maximum estimated rate (for example, position The estimation rate is in the range of 10% to 50%, that is, the degree of matching is intermediate).

条件2は、楕円の領域AR1の外周縁近傍の領域AR2を示す。
そして、上記条件1と条件2との両方を満足する状態が、最小滞留回数の値、例えば5回継続すると、その撮影映像を自動登録画像としてシステムに登録するということである。
Condition 2 indicates an area AR2 in the vicinity of the outer periphery of the elliptical area AR1.
Then, if a state satisfying both of the above conditions 1 and 2 continues for a minimum stay count value, for example, 5 times, the captured video is registered in the system as an automatically registered image.

このようにすることで、図1Dに示すように、位置推定が有効な画像の範囲がAR21まで広がり、図1Aの範囲AR101と比べて一回り大きな範囲内で位置推定を行うことができる。すなわち、事前登録画像以外に自動登録画像を用いて位置推定を行うことができる。   By doing so, as shown in FIG. 1D, the range of an image for which position estimation is effective extends to AR21, and position estimation can be performed within a larger range than the range AR101 of FIG. 1A. That is, position estimation can be performed using an automatically registered image in addition to the pre-registered image.

尚、自動登録画像に対して、さらに自動登録はしないようにすることで、無限に自動登録が行われることを防止している。   It should be noted that automatic registration is prevented from being performed indefinitely by preventing further automatic registration of the automatically registered image.

自動登録情報は、事前登録情報に対応する屋内の状態が変化してしまった場合でも、その代替情報として機能させることができる。   The automatic registration information can function as alternative information even when the indoor state corresponding to the pre-registration information has changed.

図2Aは、本実施の形態による位置推定装置1の一構成例を示す機能ブロック図である。
図2Aに示すように、位置推定装置1は、画像の共通する特徴点に関する処理を行う共通特徴点処理部24と、撮影画像の位置推定処理を行う位置推定処理部12と、上記の自動登録画像の登録処理を行う自動特徴点登録処理部11と、を有している。さらに、位置推定装置1は、位置情報(位置と方向)を格納する位置データベース(DB)9と、事前登録情報(格納部)17、自動登録情報(格納部)18、などの、例えば画像の特徴点を格納する特徴点データベース(DB)16と関連付けされている。
FIG. 2A is a functional block diagram showing a configuration example of the position estimation apparatus 1 according to the present embodiment.
As illustrated in FIG. 2A, the position estimation device 1 includes a common feature point processing unit 24 that performs processing related to common feature points of an image, a position estimation processing unit 12 that performs position estimation processing of a captured image, and the automatic registration described above. And an automatic feature point registration processing unit 11 that performs image registration processing. Further, the position estimation device 1 includes a position database (DB) 9 that stores position information (position and direction), pre-registration information (storage unit) 17, automatic registration information (storage unit) 18, and the like, for example, It is associated with a feature point database (DB) 16 that stores feature points.

図2Bに示すように、共通特徴点処理部24は、画像の特徴点を抽出する特徴点抽出部24−1と、抽出された特徴点の共通部分を求める共通特徴点演算部24−2と、求められた共通特徴点を装置に登録する共通特徴点登録部24−3と、を有している。   As shown in FIG. 2B, the common feature point processing unit 24 includes a feature point extracting unit 24-1 for extracting feature points of an image, a common feature point calculating unit 24-2 for obtaining a common part of the extracted feature points, and And a common feature point registration unit 24-3 for registering the obtained common feature points in the apparatus.

図2Cに示すように、位置推定処理部12は、移動可能ノードを抽出する移動可能ノード抽出部12−1と、抽出したノードのマッチング位置を演算するマッチング位置演算部12−2と、演算されたマッチング位置に基づいて、撮影画像の位置、すなわち、現在位置を推定する現在位置推定部12−3と、事前登録情報と最もマッチング率が高い位置での最大マッチング率を求める最大マッチング率演算部12−4と、その時のマッチング日時で最終マッチング日時を更新する最終マッチング日時更新部12−5と、後述する推定詳細データを設定する推定詳細データ設定部12−6と、を有している。   As shown in FIG. 2C, the position estimation processing unit 12 is calculated by a movable node extraction unit 12-1 that extracts a movable node, and a matching position calculation unit 12-2 that calculates a matching position of the extracted node. Based on the matching position, the position of the captured image, that is, the current position estimation unit 12-3 that estimates the current position, and the maximum matching rate calculation unit that obtains the maximum matching rate at the position with the highest matching rate with the pre-registration information 12-4, and a final matching date and time update unit 12-5 that updates the final matching date and time with the matching date and time at that time, and an estimated detailed data setting unit 12-6 that sets estimated detailed data to be described later.

図2Dに示すように、自動特徴点登録処理部11は、上記条件1の要件を満たすか否かを判定する全特徴点推定率マッチング判定部11−1と、上記条件2の要件を満たすか否かを判定する事前登録特徴点推定率マッチング判定部11−2と、現滞留回数が閾値に達したか否かを判定する滞留回数判定部11−3と、上記の各判定の結果として、共通特徴点を自動登録情報として特徴点データベース16に格納する共通特徴点登録部11−4と、古いなどの理由で無効な自動登録情報を自動的に削除する無効自動登録情報削除部11−5と、を有している。   As shown in FIG. 2D, the automatic feature point registration processing unit 11 satisfies all the feature point estimation rate matching determination unit 11-1 that determines whether or not the condition 1 is satisfied, and whether or not the condition 2 is satisfied. As a result of each determination described above, a pre-registered feature point estimation rate matching determination unit 11-2 that determines whether or not, a stay frequency determination unit 11-3 that determines whether or not the current stay frequency has reached a threshold, A common feature point registration unit 11-4 that stores common feature points in the feature point database 16 as automatic registration information, and an invalid auto registration information deletion unit 11-5 that automatically deletes invalid auto registration information due to reasons such as oldness And have.

図2Eは、位置推定装置1の全体のシステム構成と、やり取りされるデータ群との関係を示す図である。上記の説明と一部重複するが、全体としてのシステム構成を、ここで説明する。   FIG. 2E is a diagram illustrating the relationship between the overall system configuration of the position estimation apparatus 1 and the exchanged data group. Although partially overlapping with the above description, the overall system configuration will be described here.

位置推定装置1は、例えばスマートフォンなどに内蔵されるカメラ27により読み取られたカメラ画像(撮像画像)を読み取るカメラ画像読取部20とカメラ画像から特徴点を抽出するなどの処理を行う特徴点処理部21とを備えたカメラ画像特徴点処理部19と、カメラ画像特徴点処理部19から抽出した特徴点22と共通特徴点とするか否かの閾値である共通特徴点閾値データ25とを入力として、共通特徴点データ23を作成し、更新する共通特徴点処理部24と、位置推定装置1で直前に推定した直前位置3を入力として、位置情報10を保持する位置データベース9から例えば直前位置から移動可能なノードのリストである移動可能対象ノードリスト8を生成する移動可能対象リスト生成処理部4と、共通特徴点処理部24から取得した共通特徴点データ23と位置推定の閾値として設定されている推定閾値データ6を入力として、事前登録情報17と自動登録情報18とを保持する特徴点データベース16を検索し、現在推定位置2を求め推定詳細データ7を生成する位置推定処理部12と、推定詳細データ7と登録閾値データ5とを入力とし現滞留回数56を更新しながら特徴点データベース16に自動登録すべき共通特徴点データ23だけを自動登録情報18として登録する自動特徴点登録処理部11と、直近ではマッチングしていないような無効としても良い自動登録情報を、特徴点データベース16から自動的に削除する自動登録情報削除部26とを有している。   The position estimation apparatus 1 includes, for example, a camera image reading unit 20 that reads a camera image (captured image) read by a camera 27 built in a smartphone or the like, and a feature point processing unit that performs processing such as extracting feature points from the camera image. 21 as input, and feature point threshold data 25, which is a threshold value indicating whether or not the feature point 22 is extracted from the camera image feature point processing unit 19 and the common feature point. The common feature point processing unit 24 for creating and updating the common feature point data 23, and the immediately preceding position 3 estimated immediately before by the position estimating device 1 as input, from the position database 9 holding the position information 10, for example, from the immediately preceding position A movable target list generation processing unit 4 that generates a movable target node list 8 that is a list of movable nodes, common feature point data 23 acquired from the common feature point processing unit 24, and position estimation Position estimation that searches the feature point database 16 that holds the pre-registration information 17 and the auto-registration information 18 by using the estimated threshold data 6 set as a value and obtains the current estimated position 2 and generates the estimated detailed data 7 Automatic that registers only the common feature point data 23 to be automatically registered in the feature point database 16 while updating the current stay count 56 with the processing unit 12, the estimated detailed data 7 and the registration threshold data 5 as inputs. A feature point registration processing unit 11 and an automatic registration information deletion unit 26 for automatically deleting from the feature point database 16 automatic registration information that may be invalidated that has not been matched recently.

以下に、各データの構成例等について例示的に説明する。
自動特徴点登録処理部11の入力である登録閾値データ5は、図3に示すように、自動登録最大推定率32と自動登録最小推定率33とを備える自動登録用推定範囲28と、事前登録最大推定率34と事前登録最小推定率35とを備える事前登録用推定範囲29と、自動登録を行うにあたって、自動登録用推定範囲28と事前登録用推定範囲29とに留まることが最低何回継続する必要があるか、その滞留回数を規定する最小滞留回数30とを有している。
Below, the structural example etc. of each data are demonstrated exemplarily.
As shown in FIG. 3, the registration threshold value data 5 that is an input of the automatic feature point registration processing unit 11 includes an automatic registration estimation range 28 including an automatic registration maximum estimation rate 32 and an automatic registration minimum estimation rate 33, and pre-registration. Pre-registration estimation range 29 with maximum estimation rate 34 and pre-registration minimum estimation rate 35, and auto-registration estimation range 28 and pre-registration estimation range 29 will continue at least how many times Or has a minimum residence count of 30 that defines the residence count.

自動登録用推定範囲28は、自動登録するための全特徴点から位置推定した時の推定率が取るべき範囲を定義したものである。事前登録用推定範囲29は、事前登録情報に限定した時の推定率が取るべき範囲を定義したものである。自動登録用と事前登録用との2つの範囲を定義したのは、上記条件1と条件2とで説明したように、自動登録用推定範囲である所定の(一定の)推定率となっていることを担保し、かつ、事前登録用推定範囲で事前登録した時の特徴点とも所定の(一定の)推定率となっていることを担保するためである。   The automatic registration estimation range 28 defines a range that should be taken by the estimation rate when position estimation is performed from all feature points for automatic registration. The pre-registration estimation range 29 defines a range to be taken by the estimation rate when limited to pre-registration information. The two ranges for automatic registration and pre-registration are defined, as explained in the above conditions 1 and 2, with a predetermined (constant) estimation rate that is an automatic registration estimation range. This is to ensure that the feature points when pre-registered in the pre-registration estimation range have a predetermined (constant) estimation rate.

事前登録用推定範囲を設けることで、全く別な位置の登録情報まで誤って自動登録してしまう可能性を排除することができる。   By providing the pre-registration estimation range, it is possible to eliminate the possibility of automatically registering registration information at completely different positions.

最小滞留回数30は、自動登録用推定範囲28と事前登録用推定範囲29内に収まる状況が何回継続すればよいかを定義したものである。最小滞留回数30分だけ継続して自動登録用推定範囲と事前登録用推定範囲内に収まった場合、システムが、自動登録するべき状況になったと判断する。   The minimum stay count 30 defines how many times the situation within the automatic registration estimation range 28 and the pre-registration estimation range 29 should be continued. If the minimum stay count continues for 30 minutes and falls within the estimated range for automatic registration and the estimated range for pre-registration, it is determined that the system is in a state for automatic registration.

図1Bから図1Dまでを参照しながら説明すると、図3に例示されている登録閾値データの具体例の場合には、事前登録された特徴点と自動登録された特徴点全てから位置推定した場合の推定率が50%〜70%、そのうち事前登録された特徴点の最大推定率が10〜50%という状態が5回連続で発生した場合に、事前登録された特徴点の位置の最新特徴点情報であると判断して、その共通特徴点を自動登録するということを意味している。   Referring to FIG. 1B to FIG. 1D, in the case of the specific example of the registration threshold data illustrated in FIG. 3, when the position is estimated from pre-registered feature points and all automatically registered feature points The latest feature point at the position of the pre-registered feature point when the estimated rate of 50% to 70% of the maximum pre-registered feature point is 10 to 50% This means that it is determined to be information and the common feature points are automatically registered.

位置推定処理部12から自動特徴点登録処理部11に渡される推定詳細データ7は、図4に示すように、位置推定処理部12で推定した推定位置36と、撮影画像を全特徴点とマッチングさせた時の最大推定率である全特徴点の推定率37と、推定位置36における全事前登録特徴点に対する最大推定率である事前登録特徴点の推定率38と、マッチング対象の共通特徴点39とを備えている。   As shown in FIG. 4, the estimated detailed data 7 passed from the position estimation processing unit 12 to the automatic feature point registration processing unit 11 matches the estimated position 36 estimated by the position estimation processing unit 12 with all feature points. Estimation rate 37 of all feature points that is the maximum estimation rate when pre-registered, pre-registration feature point estimation rate 38 that is the maximum estimation rate for all pre-registered feature points at the estimated position 36, and common feature points 39 to be matched And.

この推定詳細データ7は、位置推定処理部12が、推定処理で、どのような推定位置となったかを表す推定位置36とその推定位置はどの程度の推定率であったかを表す全特徴点の推定率37と事前登録特徴点の推定率38とを有する。この全特徴点の推定率37と事前登録特徴点の推定率38とから、撮影画像を自動特徴点登録処理部11で自動登録すべきかどうかを判断する。   This estimated detailed data 7 is obtained by estimating the estimated position 36 that indicates what estimated position the position estimation processing unit 12 has obtained in the estimation process and all the feature points that indicate the estimated rate of the estimated position. And a pre-registered feature point estimation rate 38. It is determined from the estimated rate 37 of all feature points and the estimated rate 38 of pre-registered feature points whether or not the captured image should be automatically registered by the automatic feature point registration processing unit 11.

共通特徴点39は、自動登録対象の共通特徴点である。図4に例示されている推定詳細データ7の具体例の場合、ノード18(向き3、位置18-3)、ノード19(向き2、位置19-2)、ノード20(向き1、位置20-1)、ノード20(向き4、位置20-4)の4個の位置情報のうち、現在ノード20(向き1、位置20-1)にいると推定することができる。その推定処理の際の推定率は65%であり、他の位置では推定率が65%より低かったことを示している。また、ノード20(向き1、位置20-1)の位置における事前登録特徴点だけの推定率は20%だったということを表している。共通特徴点39は、複数の撮影画像の特徴点な部分の共通部分である。   The common feature point 39 is a common feature point to be automatically registered. In the specific example of the estimated detailed data 7 illustrated in FIG. 4, the node 18 (direction 3, position 18-3), the node 19 (direction 2, position 19-2), the node 20 (direction 1, position 20- 1) Among the four pieces of position information of the node 20 (direction 4, position 20-4), it can be estimated that the current node 20 (direction 1, position 20-1) is present. The estimation rate at the time of the estimation process is 65%, indicating that the estimation rate is lower than 65% at other positions. In addition, the estimation rate of only the pre-registered feature point at the position of the node 20 (direction 1, position 20-1) is 20%. The common feature point 39 is a common part of the feature point parts of a plurality of captured images.

移動可能対象リスト生成処理部4の入力となっている位置データベース(DB)9は、図5に示すように、推定位置40と、移動可能な次のノード41のデータとを備えた位置情報10が格納されている。   As shown in FIG. 5, the position database (DB) 9 which is an input of the movable object list generation processing unit 4 includes position information 10 including an estimated position 40 and data of the next movable node 41. Is stored.

位置情報10は、図6に示すように、屋内のある場所、図6の具体例の場合では、屋内のある通路L1を表している。この通路L1には、3か所のノードが定義されており、それぞれノード18とノード19には1個の向きが、ノード20には2個の向きが定義されており、すなわち、この通路には4つの位置(位置と向きとの組み合わせ)があるということを表している。このように、位置情報は、屋内をノードと向きで置き換えた情報であり本実施の形態による位置推定装置1では、この位置情報から位置推定を行なう。図5に記載されている位置情報10の具体例の場合、ノード18向き3である位置18-3は移動可能な次のノードとして、ノード20があるということを表している。ノード20のように複数の位置情報がある場合は、複数の位置情報10が格納される。ノードと向きとにより位置情報を定義したのは、カメラで撮影する場合に、画像の内容は撮影位置のみならず撮影方向にも依存するからである。   As shown in FIG. 6, the position information 10 represents a certain indoor location, and in the case of the specific example of FIG. 6, the indoor passage L1. In this path L1, three nodes are defined, and one direction is defined for each of the nodes 18 and 19, and two directions are defined for the node 20. That is, in this path, Indicates that there are four positions (combination of position and orientation). As described above, the position information is information obtained by replacing the indoor with the direction of the node, and the position estimation apparatus 1 according to the present embodiment performs position estimation from the position information. In the specific example of the position information 10 illustrated in FIG. 5, the position 18-3 that is 3 in the direction of the node 18 indicates that there is a node 20 as the next movable node. When there are a plurality of pieces of position information like the node 20, a plurality of pieces of position information 10 are stored. The reason why the position information is defined by the node and the orientation is that the content of the image depends not only on the shooting position but also on the shooting direction when shooting with the camera.

特徴点データベース16は、図7に示すように、位置推定処理部12がマッチングを行なう上での入力情報であり、自動特徴点登録処理部11と位置推定処理部12とが出力を行なう情報であり、登録位置42と'事前登録'が設定されている事前登録・自動登録種別43と共通特徴点44と最終マッチング日時45とを備えている事前登録情報17と、登録位置46と'自動登録'が設定されている事前登録・自動登録種別47と共通特徴点48と最終マッチング日時49とを備えている自動登録情報18が格納されている。   As shown in FIG. 7, the feature point database 16 is input information for the position estimation processing unit 12 to perform matching, and information that the automatic feature point registration processing unit 11 and the position estimation processing unit 12 output. Yes, pre-registration information 17 with pre-registration / auto-registration type 43, common feature point 44 and last matching date 45 with registration position 42 and 'pre-registration', registration position 46 and 'auto-registration' Stored is automatic registration information 18 including a pre-registration / automatic registration type 47, a common feature point 48, and a last matching date and time 49 in which 'is set.

登録位置42、登録位置46は、それぞれの登録情報が表している位置、即ち、ノードの位置と向きを表している。事前登録・自動登録種別43と事前登録・自動登録種別47は、該当する登録情報が事前に手動で登録された事前登録情報か、位置推定装置1が自動登録した自動登録情報かを判別するための情報である。   The registration position 42 and the registration position 46 represent the positions represented by the respective registration information, that is, the positions and orientations of the nodes. Pre-registration / auto-registration type 43 and pre-registration / auto-registration type 47 are used to determine whether the corresponding registration information is pre-registration information manually registered in advance or auto-registration information automatically registered by the position estimation device 1. Information.

共通特徴点44と共通特徴点48は、それぞれの登録した共通特徴点である。最終マッチング日時45と最終マッチング日時49は、それぞれの登録情報が、いつ最後に利用されたのかを表している。この日付がより過去の日付であればあるほど、直近で利用されていないことを表す。   The common feature point 44 and the common feature point 48 are registered common feature points. The last matching date and time 45 and the last matching date and time 49 represent when each registered information was last used. The more this date is in the past, the more recently it is not used.

図7に記載されている具体例の場合、ノード18向き3の位置18-3には、事前に登録した共通特徴点44と自動で登録した共通特徴点48との2つの情報が特徴点データベースに格納されていることを表している。事前登録された共通特徴点44は、2014年12月1日9時30分ごろに位置推定に利用されたのが最後利用日時であり、自動登録の共通特徴点48は、2014年12月15日17時00分ごろに位置推定に利用されていることを表している。   In the case of the specific example shown in FIG. 7, at the position 18-3 in the direction 18 toward the node 18, two pieces of information of the common feature point 44 registered in advance and the common feature point 48 automatically registered are stored in the feature point database. Is stored. The pre-registered common feature point 44 was used for location estimation around 9:30 on December 1, 2014, and the common feature point 48 for automatic registration was December 15, 2014. It is used for position estimation around 17:00 on the day.

共通特徴点処理部24の入力となっている共通特徴点閾値データ25は、図8に示すように、最小共通特徴点数50と、最大共通化回数51と、を備えている。最小共通特徴点数50は、有効な共通特徴点の下限の特徴点の定義である。最大共通化回数は、共通化を最大何回まで実施するかを定義した情報である。図8に示されている具体例の場合、共通特徴点とみなすための特徴点数は50個以上ある必要があり、共通化処理は実施されても最大5回までであることを示している。すなわち、画像間の共通特徴点が50個以上である間、最大5回まで共通特徴点化処理が実施されるように設定されていることを表している。   As shown in FIG. 8, the common feature point threshold value data 25 that is input to the common feature point processing unit 24 includes a minimum number of common feature points 50 and a maximum number of times 51 of common use. The minimum number of common feature points 50 is the definition of the lower limit feature points of effective common feature points. The maximum number of times of commonality is information that defines how many times of commonization are to be performed. In the case of the specific example shown in FIG. 8, it is necessary that the number of feature points to be regarded as common feature points is 50 or more, and even if the common processing is performed, the maximum number of feature points is five. That is, it is set that the common feature point conversion process is performed up to five times while the number of common feature points between images is 50 or more.

尚、共通特徴点が50個未満となってしまった場合は、直前の50個以上特徴点数がある共通特徴点が表わす位置と最新の撮影画像の位置とが異なる場所だと判断して処理を行なう。また、50個以上の特徴点数が保持されていても5回共通化が実施されると、そこで、共通化処理を一旦終了することを表している。   When the number of common feature points is less than 50, it is determined that the position represented by the common feature point having the number of feature points of 50 or more immediately before is the place where the latest photographed image position is different. Do. In addition, even if 50 or more feature points are held, if the sharing is performed five times, the sharing process is temporarily ended.

共通特徴点処理部24の入出力であり、位置推定処理部12の入力となっている共通特徴点データ23は、図9に示すように、有効フラグ52と、共通化回数53と、共通特徴点54と、を備えている。有効フラグ52は、共通特徴点54が有効であるかどうかを表している。共通化回数53は、何回共通化処理が実施された状態であるかを表している。共通特徴点54は、共通化回数53だけ共通化処理が実施された結果として得られた共通特徴点である。図9に示す具体例の場合、現在の共通特徴点データは、有効であり、共通化が2回実施されており、共通特徴点に示すような特徴点だけが残っていることを表している。   As shown in FIG. 9, the common feature point data 23, which is an input / output of the common feature point processing unit 24 and an input of the position estimation processing unit 12, includes an effective flag 52, a common count 53, and a common feature. And 54. The valid flag 52 indicates whether the common feature point 54 is valid. The number of times of commonalization 53 indicates how many times the commonalization process has been performed. The common feature point 54 is a common feature point obtained as a result of the common processing performed by the number of times 53 of common. In the case of the specific example shown in FIG. 9, the current common feature point data is valid, sharing is performed twice, and only the feature points as shown in the common feature points remain. .

1回目の共通特徴点と、2回目の撮影画像の特徴点とによれば、その上に示すような両者のANDをとった共通特徴点が演算される。   Based on the first common feature point and the second captured image feature point, a common feature point obtained by ANDing both of them as shown above is calculated.

位置推定処理部12の入力となっている推定閾値データ6は、図10に示すように有効最小推定率55を有している。有効最小推定率55は、位置推定処理部12で位置推定ができたか、位置推定ができなかったかを判断するための閾値である。図10に記載されている具体例の場合、推定結果が10%を下回った場合、位置推定ができないと判断されることを表わしている。   The estimation threshold data 6 that is input to the position estimation processing unit 12 has an effective minimum estimation rate 55 as shown in FIG. The effective minimum estimation rate 55 is a threshold value for determining whether the position estimation processing unit 12 can estimate the position or not. In the specific example shown in FIG. 10, when the estimation result falls below 10%, it is determined that the position cannot be estimated.

自動特徴点登録処理部11の入出力である現滞留回数56は、現時点で、図3の自動登録用推定範囲28と事前登録用推定範囲29内に、それぞれの推定率が留まっている状況が何回続いているかを表わしている。図11に記載されている具体例の場合、2回継続していることを表わしている。   The current number of stays 56, which is the input / output of the automatic feature point registration processing unit 11, is that there are currently estimated rates remaining in the automatic registration estimation range 28 and the pre-registration estimation range 29 in FIG. It shows how many times it continues. In the case of the specific example shown in FIG. 11, this means that it has continued twice.

移動可能対象リスト生成処理部4の出力である移動可能対象ノードリスト8は、直前位置3のノードから直接移動可能な全ノードを表わすリストである。図12に記載されている具体例の場合、直前にノード18、向き3にいたため、次に移動可能なノードは、自ノードを含めてノード18とノード20の2ノードということになる。この移動可能対象ノードリスト8aが図12に例示されている。   The movable object node list 8 that is the output of the movable object list generation processing unit 4 is a list that represents all nodes that can be directly moved from the node at the immediately preceding position 3. In the case of the specific example shown in FIG. 12, since the node 18 is in the direction 3 immediately before, the next movable node is the two nodes 18 and 20 including the own node. This movable object node list 8a is illustrated in FIG.

特徴点22(図2E)は、カメラで撮影した画像の特徴的な部分を表している。図13に記載されている具体例の場合、カメラ27(図2E)等で撮影した画像から、その画像の特徴的な部分が特徴点22として抽出されている。   A feature point 22 (FIG. 2E) represents a characteristic portion of an image taken by the camera. In the case of the specific example shown in FIG. 13, a characteristic portion of the image is extracted as a feature point 22 from the image taken by the camera 27 (FIG. 2E) or the like.

以下に処理の内容について、図2から図13までを参照しながら詳細に説明する。
図14は、図2Eのカメラ画像特徴点処理部19と共通特徴点処理部24の処理の流れの概要を示すフローチャート図である。
The contents of the processing will be described in detail below with reference to FIGS.
FIG. 14 is a flowchart showing an overview of the processing flow of the camera image feature point processing unit 19 and the common feature point processing unit 24 of FIG. 2E.

まず、カメラ27より最新のカメラ画像をカメラ画像読取部20で読み取る(ステップS100)。   First, the camera image reading unit 20 reads the latest camera image from the camera 27 (step S100).

次に、読取った画像の特徴点を特徴点処理部21で抽出する。その抽出した特徴点が特徴点22である(ステップS 101)。   Next, the feature point processing unit 21 extracts the feature points of the read image. The extracted feature point is the feature point 22 (step S101).

次に、特徴点22の共通特徴点化を実施するために、共通特徴点処理部24の共通特徴点抽出部24-1が、共通特徴点データ23の有効フラグ52が有効となっているか否かを判定する(ステップS 102)。   Next, the common feature point extraction unit 24-1 of the common feature point processing unit 24 determines whether the valid flag 52 of the common feature point data 23 is valid in order to implement the feature point 22 as a common feature point. Is determined (step S102).

次に、ステップS 102の判定が「いいえ」となった場合、即ち、共通特徴点データ23の共通特徴点54が無効の場合(例えば、初回の場合)、特徴点抽出部24-1が抽出した特徴点22を共通特徴点登録部24-3が共通特徴点データ23の共通特徴点54に設定し(ステップS 103-1)、有効フラグ52を有効とし(ステップS 103-2)、共通化回数53を1に設定し(ステップS 103-3)、ステップS 109の処理以降を実行する。   Next, when the determination in step S102 is “No”, that is, when the common feature point 54 of the common feature point data 23 is invalid (for example, for the first time), the feature point extracting unit 24-1 extracts it. The common feature point registration unit 24-3 sets the selected feature point 22 as the common feature point 54 of the common feature point data 23 (step S103-1), and the valid flag 52 is validated (step S103-2). The number of times 53 is set to 1 (step S103-3), and the processing after step S109 is executed.

次に、ステップS 102の判定が「はい」となった場合、即ち、共通特徴点データ23の共通特徴点54が有効の場合、共通特徴点演算部24-2が該当する共通特徴点54と読取った画像の特徴点22との間の共通特徴点を演算する(ステップS 104)。   Next, when the determination in step S102 is “Yes”, that is, when the common feature point 54 of the common feature point data 23 is valid, the common feature point calculation unit 24-2 A common feature point with the feature point 22 of the read image is calculated (step S104).

次に、ステップS 104で抽出された共通特徴点の共通特徴点数が、図8の共通特徴点閾値データの最小共通特徴点数50に設定されている“50”以上かどうかを判定する(ステップS 105)。   Next, it is determined whether or not the number of common feature points of the common feature points extracted in step S104 is equal to or greater than “50” set in the minimum common feature point number 50 of the common feature point threshold data in FIG. 8 (step S 105).

ステップS 105の判定が「いいえ」となった場合、即ち、ステップS 104で抽出した共通特徴点数が閾値未満の場合、特徴点22で示される位置と、共通特徴点データ23で示される位置とが異なる位置になったと判断して、共通特徴点データ23を位置推定処理部12の入力として、位置推定処理部12を呼び出し位置推定を行い(ステップS106)、抽出した特徴点22を新たな共通特徴点として共通特徴点データ23の共通特徴点54に設定し(ステップS107-1)、有効フラグ52を有効とし(ステップS107-2)、共通化回数53を1に設定する(ステップS107-3)。   If the determination in step S 105 is “No”, that is, if the number of common feature points extracted in step S 104 is less than the threshold, the position indicated by the feature point 22 and the position indicated by the common feature point data 23 , The common feature point data 23 is input to the position estimation processing unit 12, the position estimation processing unit 12 is called to estimate the position (step S106), and the extracted feature point 22 is newly The feature point is set to the common feature point 54 of the common feature point data 23 (step S107-1), the valid flag 52 is enabled (step S107-2), and the number of times of commonization 53 is set to 1 (step S107-3). ).

ステップ105の判定が「はい」となった場合、即ち、ステップS 104で抽出した共通特徴点数が閾値以上の場合、依然として同じ位置に留まっていると判断して共通特徴点データ23の共通特徴点54にステップS 104で抽出した共通特徴点を共通特徴点登録部24-3が設定して(ステップS 108-1)、共通化回数53の値を“1”カウントアップする(ステップS 108-2)。   If the determination in step 105 is “Yes”, that is, if the number of common feature points extracted in step S 104 is equal to or greater than the threshold value, it is determined that the feature remains in the same position and the common feature points in the common feature point data 23 In 54, the common feature point registration unit 24-3 sets the common feature point extracted in step S104 (step S108-1), and increments the value of the common count 53 by "1" (step S108- 2).

次に、ステップS 108-2でカウントアップした共通化回数53が、共通特徴点閾値データ25の最大共通化回数51(図8)である5以上の値となっているかどうか判定する(ステップS 109)。ここで、ステップS 109の判定が「はい」となった場合、即ち、共通化回数53が最大値に逹した場合、同じ位置に留まっているものとして、現在の共通特徴点データ23を入力として、位置推定処理部12を呼び出して位置推定を行ない(ステップS110)、共通特徴点データ23の有効フラグを無効とする(ステップS111)。   Next, it is determined whether or not the common count 53 counted up in step S 108-2 is a value equal to or greater than 5 that is the maximum common count 51 (FIG. 8) of the common feature point threshold data 25 (step S). 109). Here, if the determination in step S109 is “Yes”, that is, if the number of times of commonization 53 has reached the maximum value, the current common feature point data 23 is input as it is assumed to remain at the same position. Then, the position estimation processing unit 12 is called to perform position estimation (step S110), and the valid flag of the common feature point data 23 is invalidated (step S111).

このように、図14の処理フローがある時間間隔で繰り返し実行されることにより、適切な共通特徴点が共通特徴点データ23のデータとして生成されながら、位置推定処理部12を繰り返し呼び出すことができる。   As described above, by repeatedly executing the processing flow of FIG. 14 at a certain time interval, the position estimation processing unit 12 can be repeatedly called while an appropriate common feature point is generated as data of the common feature point data 23. .

図15A、図15Bは、図2Eにおける移動可能対象リスト生成処理部4と位置推定処理部12の処理の流れの概要を示すフローチャート図である。   FIG. 15A and FIG. 15B are flowcharts showing an outline of the processing flow of the movable object list generation processing unit 4 and the position estimation processing unit 12 in FIG. 2E.

まず、例えばスマートフォンなどで撮影しているこれから位置推定を行う対象画像である位置推定画像において、直前位置3から短時間の間に移動可能なノードのリスト8を求めるために、移動可能ノード抽出部12-1が、位置データベース9より、直前位置3のノードと推定位置40のノードが一致する全ての移動可能な次のノード41のリストを、移動可能対象ノードリスト8aとして生成する。その際、直前位置3のノード自身もノードリスト8aに追加する(ステップS 112)。   First, in order to obtain a list 8 of nodes that can be moved in a short time from the immediately preceding position 3 in a position estimation image that is a target image for which position estimation is to be performed, for example, taken with a smartphone or the like, a movable node extraction unit 12-1 generates, from the position database 9, a list of all movable next nodes 41 in which the node at the immediately preceding position 3 matches the node at the estimated position 40 as the movable object node list 8a. At this time, the node itself at the immediately preceding position 3 is also added to the node list 8a (step S112).

次に、マッチング位置演算部12-2が、移動可能対象ノードリスト8内の全ノードに対して、共通特徴点データ23の共通特徴点54と、特徴点データベース16内の各ノードの登録位置の全事前登録情報17と全自動登録情報18を比較して、現在位置推定部12-3が、最も推定率(マッチング率)が高い登録情報を含む位置を求める。この処理により、どのノードのどの向きに現在いると推定するかが判別できたことになる(ステップS 113)。   Next, the matching position calculation unit 12-2 sets the common feature point 54 of the common feature point data 23 and the registered position of each node in the feature point database 16 for all the nodes in the movable target node list 8. By comparing the total pre-registration information 17 and the fully automatic registration information 18, the current position estimation unit 12-3 obtains a position including registration information having the highest estimation rate (matching rate). With this process, it can be determined which node of which direction is estimated to be present (step S 113).

次に、ステップS 113で求めた推定率が、推定閾値データ6の有効最小推定率55以上となっているか判定する。即ち、ステップS 113で求めた推定率が有効かどうか(推定できたかどうか)を判別する(ステップS 114)。   Next, it is determined whether the estimation rate obtained in step S113 is equal to or greater than the effective minimum estimation rate 55 of the estimation threshold data 6. That is, it is determined whether or not the estimation rate obtained in step S113 is valid (whether it has been estimated) (step S114).

次に、ステップS 114の判定が「いいえ」となった場合、即ち、推定できなかった場合、現滞留回数56を0にして(ステップS 115)、現在推定位置2を直前位置3にセットする(ステップS 116)。   Next, if the determination in step S114 is “No”, that is, if the estimation cannot be made, the current stay count 56 is set to 0 (step S115), and the current estimated position 2 is set to the immediately preceding position 3. (Step S116).

ステップS 114の判定が「はい」となった場合、即ち、推定できた場合、現在推定位置2を直前位置3にセットした上で、推定した位置を現在推定位置2にセットする(ステップS 117)。   If the determination in step S114 is “Yes”, that is, if estimation is possible, the current estimated position 2 is set to the immediately previous position 3 and then the estimated position is set to the current estimated position 2 (step S117). ).

次に、最大マッチング率演算部12-4が、ステップS 113で求めた位置に対して、共通特徴点データ23の共通特徴点54と、特徴点データベース16内の推定位置に対応する全事前登録情報17とを比較して、最も高い推定率を求めることで、ステップS 113で求めた位置での事前登録情報とどの程度マッチングしているかをチェックする。このチェックは、事前登録情報と中程度の推定率でマッチングしていた場合にだけ自動登録処理を行うようにする(図1Cの条件2に相当する)ためである(ステップS 118)。   Next, the maximum matching rate calculation unit 12-4 performs pre-registration corresponding to the common feature point 54 of the common feature point data 23 and the estimated position in the feature point database 16 for the position obtained in step S113. By comparing with the information 17 and obtaining the highest estimation rate, it is checked how much it matches the pre-registration information at the position obtained in step S113. This check is performed so that the automatic registration process is performed only when matching with the pre-registration information at a medium estimation rate (corresponding to condition 2 in FIG. 1C) (step S118).

次に、最終マッチング日時更新部12-5が、ステップS 113で最も高い推定率となった自動登録情報の最終マッチング日時を現在日時で更新する。この日付を更新することで、不要な自動登録情報を識別するためである(ステップS 119)。   Next, the last matching date and time update unit 12-5 updates the last matching date and time of the automatic registration information that has the highest estimation rate in step S113 with the current date and time. By updating this date, unnecessary automatic registration information is identified (step S119).

次に、推定詳細データ設定部12-6が、推定詳細データ7の推定位置36にステップS 113で求めた位置をセットし、全特徴点の推定率37にステップS 113で求めた時の推定率をセットし、事前登録の特徴点の推定率38にステップS 118で求めた推定率をセットし、共通特徴点39に共通特徴点データ23の共通特徴点54をセットして(ステップS 120)、自動特徴点登録処理部11を呼び出す(ステップS 121)。   Next, the estimated detailed data setting unit 12-6 sets the position obtained in step S113 to the estimated position 36 of the estimated detailed data 7, and the estimation when the estimated rate 37 of all feature points is obtained in step S113. The pre-registered feature point estimation rate 38 is set to the estimation rate obtained in step S118, and the common feature point 39 is set to the common feature point 54 of the common feature point data 23 (step S120). ), The automatic feature point registration processing unit 11 is called (step S121).

図15Bは、ステップS 120の詳細な処理の流れを示すフローチャート図である。まず、ステップS 120-1において、推定詳細データの推定位置36にステップS113で求めた位置をセットし、ステップS 120-2において、全特徴点の推定率37にステップS113で求めた時の推定率をセットする。次いで、ステップS 120-3において、事前登録特徴点の推定率38にステップS 118において求めた推定率をセットする。次いで、ステップS 120-4において、共通特徴点39に共通特徴点データ23の共通特徴点54をセットする。   FIG. 15B is a flowchart showing a detailed process flow of step S120. First, in step S120-1, the position obtained in step S113 is set in the estimated position 36 of the estimated detailed data, and in step S120-2, the estimation rate obtained in step S113 is obtained as the estimation rate 37 of all feature points. Set the rate. Next, in step S 120-3, the estimation rate obtained in step S 118 is set as the pre-registered feature point estimation rate 38. Next, in step S120-4, the common feature point 54 of the common feature point data 23 is set to the common feature point 39.

図15Aの処理フローが一定間隔で繰り返し呼び出されることにより、共通特徴点データ23から位置推定を行い、現在推定位置2を更新しながら、推定詳細データ7を作成した上で、自動特徴点登録処理部11が繰り返し呼び出されることになる。   By repeatedly calling the processing flow of FIG. 15A at regular intervals, position estimation is performed from the common feature point data 23, the estimated detail data 7 is created while updating the current estimated position 2, and then automatic feature point registration processing is performed. Part 11 will be called repeatedly.

図16Aは、図2Eにおける自動特徴点登録処理部11と自動登録情報削除部26の処理の流れの概要を示すフローチャート図である。   FIG. 16A is a flowchart showing an outline of the processing flow of the automatic feature point registration processing unit 11 and the automatic registration information deletion unit 26 in FIG. 2E.

まず、全特徴点推定率マッチング判定部11-1が、推定詳細データ7の全特徴点の推定率37が、登録閾値データ5の自動登録用推定範囲28の範囲内に収まっている否かを判定する(ステップS 122)。   First, the total feature point estimation rate matching determination unit 11-1 determines whether or not the estimation rate 37 of all feature points of the estimated detailed data 7 is within the range of the automatic registration estimation range 28 of the registration threshold data 5. Determination is made (step S122).

次に、ステップS 122の判定が「いいえ」となった場合、即ち、共通特徴点データ23が自動登録対象でなかった場合、現滞留回数56を0にセットして、自動登録のための継続回数を0リセットする(ステップS 123)。   Next, if the determination in step S122 is "No", that is, if the common feature point data 23 is not an object of automatic registration, the current stay count 56 is set to 0 and continued for automatic registration The number of times is reset to 0 (step S123).

次に、ステップS 122の判定が「はい」となった場合、即ち、共通特徴点データ23が自動登録対象範囲内であった場合、事前登録特徴点推定率マッチング判定部11-2が、推定詳細データ7の事前登録特徴点の推定率38が、登録閾値データ5の事前登録用推定範囲29の範囲内に収まっているか否かを判定する(ステップS 124)。   Next, when the determination in step S122 is “Yes”, that is, when the common feature point data 23 is within the automatic registration target range, the pre-registered feature point estimation rate matching determination unit 11-2 performs estimation. It is determined whether or not the pre-registration feature point estimation rate 38 of the detailed data 7 is within the pre-registration estimation range 29 of the registration threshold data 5 (step S124).

次に、ステップS 124の判定が「いいえ」となった場合、即ち、共通特徴点データ23が自動登録対象でなかった場合、現滞留回数56を“0”にセットして、自動登録のための継続回数を“0”リセットする(ステップS 125)。   Next, if the determination in step S124 is “No”, that is, if the common feature point data 23 is not the target of automatic registration, the current stay count 56 is set to “0” for automatic registration. Is reset to “0” (step S 125).

次に、ステップS 124の判定が「はい」となった場合、即ち、共通特徴点データ23が事前登録対象範囲にあった場合、滞留回数判定部11-3が、現滞留回数56を1カウントアップし(ステップS 126)し、現滞留回数56が登録閾値データ5の最小滞留回数30に達しているか判定する(ステップS 127)。   Next, if the determination in step S124 is “Yes”, that is, if the common feature point data 23 is within the pre-registration target range, the stay count determination unit 11-3 counts the current stay count 56 by 1 (Step S126), and it is determined whether the current stay count 56 has reached the minimum stay count 30 of the registration threshold data 5 (step S127).

次に、ステップS 127の判定が「はい」となった場合、即ち、共通特徴点データ23が特徴点データベースへの登録対象であった場合、共通特徴点登録部11-4が、共通特徴点データ23の共通特徴点54を自動登録情報として自動登録情報18を作成して登録する。その際、登録位置46は、推定詳細データ7の推定位置36をセットし、事前登録・自動登録種別47は自動をセットし、共通特徴点48は、推定詳細データ7の共通特徴点39をセットし、最終マッチング日時49は、現在日時をセットする(ステップS 128)。   Next, when the determination in step S 127 is “Yes”, that is, when the common feature point data 23 is to be registered in the feature point database, the common feature point registering unit 11-4 The automatic registration information 18 is created and registered using the common feature point 54 of the data 23 as the automatic registration information. At that time, the registered position 46 sets the estimated position 36 of the estimated detailed data 7, the pre-registration / automatic registration type 47 sets automatic, and the common feature point 48 sets the common feature point 39 of the estimated detailed data 7 The final matching date 49 is set to the current date (step S128).

ステップS 128において、自動的に無尽蔵に特徴点データベース16の自動登録情報18は増加していくため、無効自動登録情報削除部11-5が、必要に応じて、直近でマッチングしていない自動登録情報18を削除する。その際、同じ位置の事前登録情報17または、自動登録情報18の中に、直近、位置推定に採用されたものが存在しているものだけ削除して(ステップS 129)、現滞留回数56を0にセット(自動登録のための継続回数を0リセット)して、自動登録のための継続回数を0リセットする(ステップS 130)。 In step S128, the automatic registration information 18 of the feature point database 16 automatically increases inexhaustively, so the invalid automatic registration information deletion unit 11-5 automatically registers that has not been matched most recently as necessary. Information 18 is deleted. At that time, delete only the latest registration information 17 or automatic registration information 18 at the same position that has been used for position estimation recently (step S129), and set the current stay count 56. It is set to 0 (the number of continuations for automatic registration is reset to 0), and the number of continuations for automatic registration is reset to 0 (step S130).

図16Bは、ステップS 128の登録処理の詳細を示すフローチャート図である。ステップS 128-1において、1)登録位置として、推定詳細データの推定位置をセットする。ステップS 128-2において、2)事前登録、自動登録種別を自動にセットする。ステップS 128-3において、共通特徴点を、推定詳細データの共通特徴点にセットする。ステップS 128-4において、最終マッチング日時として、現在日時をセットする。   FIG. 16B is a flowchart showing details of the registration process in step S128. In step S128-1, 1) The estimated position of the estimated detailed data is set as the registered position. In step S128-2, 2) Pre-registration and automatic registration type are automatically set. In step S128-3, the common feature point is set to the common feature point of the estimated detailed data. In step S128-4, the current date and time are set as the final matching date and time.

本実施の形態では、動く部分を共通特徴点処理部で取り去った上で、事前に登録済みの特徴点データベース内の事前登録情報と自動登録情報とのマッチングを行なう。その際、事前登録情報と登録情報内の事前登録用推定範囲、即ち、一定の推定率に逹していて、さらに登録閾値データ内の自動登録用推定範囲内に登録閾値データ内の最小滞留回数だけ留まっていた場合、自動登録を行なう仕組みとなっている。   In the present embodiment, after the moving part is removed by the common feature point processing unit, the pre-registration information in the feature point database registered in advance and the automatic registration information are matched. At that time, the pre-registration information and the pre-registration estimation range in the registration information, that is, a certain estimation rate, and the minimum number of stays in the registration threshold data within the automatic registration estimation range in the registration threshold data If it stays only, it is a mechanism for automatic registration.

そのため、事前登録情報と一定の割合でマッチングしている状態が続いていて、全登録情報とマッチングした場合も一定の割合でマッチングしている状態が続いていることが判明した場合、登録済みの特徴情報とは異なる状況になったと判断して、共通特徴点情報を特徴データベースに登録する。これにより、誤推定を防止でき、さらに常に最新の特徴情報を取込むことが可能となる。   Therefore, if it is found that matching with pre-registration information at a certain rate continues and matching with all registration information continues to be at a certain rate, registered It is determined that the situation is different from the feature information, and the common feature point information is registered in the feature database. As a result, erroneous estimation can be prevented and the latest feature information can always be captured.

また、現時点でマッチングに利用されなくなった特徴情報、即ち、特徴点データベースにおいて、最新の特徴情報が存在する既に不要である古い特徴情報の場合には、自動特徴点削除部で削除することができる。このような機能を持つことで、常に最新の特徴情報だけを保持しながらマッチングすることが可能となる。   In addition, in the case of feature information that is no longer used for matching at the present time, that is, old feature information that is already unnecessary in the feature point database and that has the latest feature information, it can be deleted by the automatic feature point deletion unit. . By having such a function, it is possible to perform matching while always holding only the latest feature information.

また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。
尚、屋内等には、施設やテーマパークなどが含まれても良い。
In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of the effects of the present invention. In addition, various modifications can be made without departing from the scope of the object of the present invention.
Note that indoors and the like may include facilities and theme parks.

また、特許文献1や図1A等に記載の一般的な位置推定技術と、本実施の形態において説明した位置推定技術とを組み合わせて位置推定を行っても良い。例えば、規則的な動きをする対象物が多くある場合には前者を、そうでない場合には後者を用いるようにしても良い。   Further, the position estimation may be performed by combining the general position estimation technique described in Patent Document 1, FIG. 1A, and the like and the position estimation technique described in the present embodiment. For example, the former may be used when there are many objects that move regularly, and the latter may be used otherwise.

本技術は、スマートフォンなどのほか、ウェアラブルデバイス等様々な装置に適用可能である。   This technology can be applied to various devices such as a wearable device in addition to a smartphone.

また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。   Each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention.

本発明は、位置推定に利用可能である。   The present invention can be used for position estimation.

1…位置推定装置
4…移動可能対象リスト生成処理部
9…位置データベース
11…自動特徴点登録処理部
12…位置推定処理部
16…特徴点データベース
17…事前登録情報格納部
18…自動登録情報格納部
19…カメラ画像特徴点処理部
20…画像読取部
21…特徴点処理部
24…共通特徴点処理部
26…自動登録情報削除部
DESCRIPTION OF SYMBOLS 1 ... Position estimation apparatus 4 ... Moveable object list production | generation part 9 ... Position database 11 ... Automatic feature point registration process part 12 ... Position estimation process part 16 ... Feature point database 17 ... Pre-registration information storage part 18 ... Automatic registration information storage Unit 19: Camera image feature point processing unit 20 ... Image reading unit 21 ... Feature point processing unit 24 ... Common feature point processing unit 26 ... Automatic registration information deletion unit

Claims (9)

画像の位置情報と特徴点情報とからなり、事前に登録された事前登録情報を格納する事前登録情報格納部と、画像の位置情報と特徴点情報とからなり、装置が自動的に登録した自動登録情報を格納する自動登録情報格納部と、を有する特徴点データベースと関連付けされた位置推定装置であって、
位置推定対象画像と前記特徴点データベースに格納された画像との特徴点情報のマッチング処理に基づいて、前記位置推定対象画像の位置推定処理を行う位置推定処理部と、
前記特徴点データベースへの前記自動登録情報の自動登録処理を行う自動特徴点登録処理部と、を有し、
前記自動特徴点登録処理部は、
前記位置推定対象画像と前記事前登録情報との特徴点情報が、一定の割合でマッチングしている場合に、前記位置推定対象画像を自動登録情報として前記自動登録情報格納部に格納することを特徴とする位置推定装置。
It consists of image position information and feature point information, and consists of a pre-registration information storage unit that stores pre-registered pre-registration information, and image position information and feature point information. An automatic registration information storage unit for storing registration information, and a position estimation device associated with a feature point database,
A position estimation processing unit for performing position estimation processing of the position estimation target image based on matching processing of feature point information between the position estimation target image and an image stored in the feature point database;
An automatic feature point registration processing unit for performing automatic registration processing of the automatic registration information in the feature point database,
The automatic feature point registration processing unit
Feature point information of the pre-registration information and the position estimation target image, the if you are matching at a constant rate, be stored in the automatic registration information storage unit the position estimation target image as an automatic registration information A position estimation device characterized by the above.
前記自動特徴点登録処理部は
記事前登録情報、他の全ての自動登録画像との位置推定率が、予め決められている自動登録最小推定率と自動登録最大推定率との範囲内にあり、
かつ、
前記事前登録画像との位置推定率が、事前登録最小推定率と事前登録最大推定率との範囲内にある場合に、
前記位置推定対象画像を自動登録情報として前記自動登録情報格納部に格納することを特徴とする請求項1に記載の位置推定装置。
The automatic feature point registration processing unit,
Previous Article before the registration information, the position estimation rate with all other automatic registration image, there within the range of the automatic registration minimum estimated rate and automatic registration maximum estimated rates are predetermined,
And,
When the position estimation rate with the pre-registered image is within the range of the pre-registration minimum estimation rate and the pre-registration maximum estimation rate,
The position estimation apparatus according to claim 1, wherein the position estimation target image is stored in the automatic registration information storage unit as automatic registration information.
さらに、前記事前登録情報、他の全ての自動登録画像との位置推定率が、前記事前登録最小推定率と前記事前登録最大推定率との範囲内に予め登録されていた閾値内の最小滞留回数だけ留まっていた場合に、前記位置推定対象画像を自動登録情報として前記自動登録情報格納部に格納することを特徴とする請求項2に記載の位置推定装置。 Furthermore, the pre-registration information and the position estimation rate of all other automatic registration images are within a threshold value that is pre-registered within the range of the pre-registration minimum estimation rate and the pre-registration maximum estimation rate. The position estimation apparatus according to claim 2, wherein the position estimation target image is stored in the automatic registration information storage unit as automatic registration information when the minimum number of stays has remained. マッチングしていない前記自動登録情報を、順次前記自動登録情報格納部から削除していく自動登録情報削除部を有することを特徴とする請求項1から3までのいずれか1項に記載の位置推定装置。   The position estimation according to any one of claims 1 to 3, further comprising an automatic registration information deletion unit that sequentially deletes the unregistered automatic registration information from the automatic registration information storage unit. apparatus. 前記位置推定処理部において正しくマッチングできた場合に、
前記特徴点データベース内の前記事前登録情報、前記自動登録情報のうち、共通特徴点と最も推定率が高くマッチングした、事前登録情報又は自動登録情報の最終マッチング日時を更新し、
前記自動登録情報削除部において、同一の登録位置毎に、全事前登録情報、全自動登録情報の前記最終マッチング日時に基づいて、マッチングに使われてない登録情報を削除することを特徴とする請求項4に記載の位置推定装置。
When the position estimation processing unit can correctly match,
Of the pre-registration information in the feature point database, among the automatic registration information, the highest matching rate with the common feature point is updated, and the last matching date of the pre-registration information or the automatic registration information is updated,
The automatic registration information deletion unit deletes registration information that is not used for matching based on the last matching date and time of all pre-registration information and full automatic registration information for each same registration position. Item 5. The position estimation device according to Item 4.
さらに、
画像の特徴点情報を共通化する処理を行い、共通化された画像の位置情報と特徴点情報のみを前記特徴点データベースに登録する共通特徴点処理部を有することを特徴とする請求項1から5までのいずれか1項に記載の位置推定装置。
further,
2. A common feature point processing unit that performs processing for sharing feature point information of an image and registers only the position information and feature point information of the shared image in the feature point database. The position estimation apparatus according to any one of 5 to 5.
画像の位置情報と特徴点情報とからなり、事前に登録された事前登録情報を格納する事前登録情報格納部と、画像の位置情報と特徴点情報とからなり、装置が自動的に登録した自動登録情報を格納する自動登録情報格納部と、を有する特徴点データベースと、前記特徴点データベースに関連付けされた位置推定装置と、を有する位置推定システムであって、
前記位置推定装置は、
位置推定対象画像と前記特徴点データベースに格納された画像との特徴点情報のマッチング処理に基づいて、前記位置推定対象画像の位置推定処理を行う位置推定処理部と、
前記特徴点データベースへの前記自動登録情報の自動登録処理を行う自動特徴点登録処理部と、を有し、
前記自動特徴点登録処理部は、
前記位置推定対象画像と前記事前登録情報との特徴点情報が、一定の割合でマッチングしている場合に、前記位置推定対象画像を自動登録情報として前記自動登録情報格納部に格納することを特徴とする位置推定システム。
It consists of image position information and feature point information, and consists of a pre-registration information storage unit that stores pre-registered pre-registration information, and image position information and feature point information. An automatic registration information storage unit for storing registration information, and a feature point database, and a position estimation device associated with the feature point database,
The position estimation device includes:
A position estimation processing unit for performing position estimation processing of the position estimation target image based on matching processing of feature point information between the position estimation target image and an image stored in the feature point database;
An automatic feature point registration processing unit for performing automatic registration processing of the automatic registration information in the feature point database,
The automatic feature point registration processing unit
Feature point information of the pre-registration information and the position estimation target image, the if you are matching at a constant rate, be stored in the automatic registration information storage unit the position estimation target image as an automatic registration information A position estimation system characterized by
画像の位置情報と特徴点情報とからなり、事前に登録された事前登録情報を格納する事前登録情報格納部と、画像の位置情報と特徴点情報とからなり、装置が自動的に登録した自動登録情報を格納する自動登録情報格納部と、を有する特徴点データベースと関連付けされた位置推定装置における位置推定方法であって、
位置推定対象画像と前記特徴点データベースに格納された画像との特徴点情報のマッチング処理に基づいて、前記位置推定対象画像の位置推定処理を行う位置推定処理ステップと、
前記特徴点データベースへの前記自動登録情報の自動登録処理を行う自動特徴点登録処理ステップと、を有し、
前記自動特徴点登録処理ステップは、
前記位置推定対象画像と前記事前登録情報との特徴点情報が、一定の割合でマッチングしている場合に、前記位置推定対象画像を自動登録情報として前記自動登録情報格納部に格納することを特徴とする位置推定方法。
It consists of image position information and feature point information, and consists of a pre-registration information storage unit that stores pre-registered pre-registration information, and image position information and feature point information. A position estimation method in a position estimation device associated with a feature point database having an automatic registration information storage unit for storing registration information,
A position estimation processing step for performing position estimation processing of the position estimation target image based on matching processing of feature point information between the position estimation target image and an image stored in the feature point database;
Automatic feature point registration processing step for performing automatic registration processing of the automatic registration information in the feature point database,
The automatic feature point registration processing step includes:
Feature point information of the pre-registration information and the position estimation target image, the if you are matching at a constant rate, be stored in the automatic registration information storage unit the position estimation target image as an automatic registration information A position estimation method characterized by the above.
コンピュータに、請求項8に記載の位置推定方法を実行させるための位置推定プログラム。   A position estimation program for causing a computer to execute the position estimation method according to claim 8.
JP2015018593A 2015-02-02 2015-02-02 POSITION ESTIMATION DEVICE, POSITION ESTIMATION SYSTEM, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM Active JP6466188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015018593A JP6466188B2 (en) 2015-02-02 2015-02-02 POSITION ESTIMATION DEVICE, POSITION ESTIMATION SYSTEM, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015018593A JP6466188B2 (en) 2015-02-02 2015-02-02 POSITION ESTIMATION DEVICE, POSITION ESTIMATION SYSTEM, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Publications (2)

Publication Number Publication Date
JP2016142624A JP2016142624A (en) 2016-08-08
JP6466188B2 true JP6466188B2 (en) 2019-02-06

Family

ID=56570177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015018593A Active JP6466188B2 (en) 2015-02-02 2015-02-02 POSITION ESTIMATION DEVICE, POSITION ESTIMATION SYSTEM, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Country Status (1)

Country Link
JP (1) JP6466188B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5253066B2 (en) * 2008-09-24 2013-07-31 キヤノン株式会社 Position and orientation measurement apparatus and method
US8698875B2 (en) * 2009-02-20 2014-04-15 Google Inc. Estimation of panoramic camera orientation relative to a vehicle coordinate frame
JP2011203824A (en) * 2010-03-24 2011-10-13 Sony Corp Image processing device, image processing method and program
WO2011145239A1 (en) * 2010-05-19 2011-11-24 国立大学法人東京工業大学 Position estimation device, position estimation method, and program

Also Published As

Publication number Publication date
JP2016142624A (en) 2016-08-08

Similar Documents

Publication Publication Date Title
JP5263694B2 (en) Object position estimation information creation apparatus, object position estimation information creation method, and program
JP2016218932A (en) Software update device and software update system
CN110720096B (en) Multi-sensor state estimation method and device and terminal equipment
US20150248759A1 (en) Bundle Adjustment Based on Image Capture Intervals
WO2023015903A1 (en) Three-dimensional pose adjustment method and apparatus, electronic device, and storage medium
CN105409306A (en) Method and apparatus for predicting location of mobile terminal
JP6499047B2 (en) Measuring device, method and program
CN110503009A (en) Lane line tracking and Related product
EP3358543A1 (en) Vehicle model identification device, vehicle model identification system comprising same, and vehicle model identification method
CN107636653A (en) Pattern information processing system
JP2021060868A5 (en)
CN108693548A (en) A kind of navigation methods and systems based on scene objects identification
KR101280392B1 (en) Apparatus for managing map of mobile robot based on slam and method thereof
JP6466188B2 (en) POSITION ESTIMATION DEVICE, POSITION ESTIMATION SYSTEM, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM
CN112912889B (en) Image template updating method, device and storage medium
CN111901499B (en) Method and equipment for calculating actual pixel distance in video image
CN110781541B (en) Region merging method and system for home decoration design drawing
CN106885567B (en) Inertial navigation cooperation positioning method and positioning equipment
JP2016177749A (en) Mobile body control device, program, and integrated circuit
WO2022036792A1 (en) Multi-data source slam method, device, and computer readable storage medium
US11999060B2 (en) Action learning method, medium, and electronic device
CN114299192B (en) Method, device, equipment and medium for positioning and mapping
CN115482494A (en) Human body falling detection method and feature extraction model acquisition method and device
US20220051005A1 (en) Walking estimation system, walking estimation method, and computer readable-medium
CN112119413A (en) Data processing method and device and movable platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190109

R150 Certificate of patent or registration of utility model

Ref document number: 6466188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250