JP2022149076A - Position estimation device, method and program - Google Patents

Position estimation device, method and program Download PDF

Info

Publication number
JP2022149076A
JP2022149076A JP2021051029A JP2021051029A JP2022149076A JP 2022149076 A JP2022149076 A JP 2022149076A JP 2021051029 A JP2021051029 A JP 2021051029A JP 2021051029 A JP2021051029 A JP 2021051029A JP 2022149076 A JP2022149076 A JP 2022149076A
Authority
JP
Japan
Prior art keywords
image
similar
query
group
query image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021051029A
Other languages
Japanese (ja)
Other versions
JP7453175B2 (en
Inventor
賢史 小森田
Masashi Komorida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021051029A priority Critical patent/JP7453175B2/en
Publication of JP2022149076A publication Critical patent/JP2022149076A/en
Application granted granted Critical
Publication of JP7453175B2 publication Critical patent/JP7453175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To estimate a position of a query image on the basis of a position and a direction of its similar image.SOLUTION: A query image acquisition unit 10 acquires a query image Iq. A similar image extraction unit 20 extracts a similar image which is similar to the query image Iq from a database 2. A clustering unit 30 performs clustering into a plurality of image groups for a large number of similar images on the basis of its position. An image group selection unit 40 calculates dispersion of directions of a similar image for each image group, and selects a portion of image groups in which the dispersion is small. A position calculation unit 50 calculates a position of the query image on the basis of a position of the similar image included in the image group for each selected image group. A position determination unit 60 evaluates likelihood of a position of the query image calculated for each image group to determine a maximum likelihood position as the position of the query image.SELECTED DRAWING: Figure 1

Description

本発明は、位置推定装置、方法及びプログラムに係り、特に、位置を推定したい画像に類似する画像の位置および向きに基づいてその位置を推定する位置推定装置、方法及びプログラムに関する。 The present invention relates to a position estimation device, method and program, and more particularly to a position estimation device, method and program for estimating the position based on the position and orientation of an image similar to an image whose position is to be estimated.

景観画像の特徴的な点(画像特徴点)の三次元位置を予めデータベース化しておき、ユーザがモバイル端末で撮影したカメラ画像をクエリ画像としてデータベース上の景観画像との類似度を計算し、類似度が高い景観画像の位置や向きに基づいてモバイル端末の位置を推定する技術が、例えばVPS(Visual Positioning Service/System)として知られている。 The 3D positions of characteristic points (image feature points) in landscape images are stored in a database in advance, and the camera image taken by the user with a mobile terminal is used as a query image to calculate the degree of similarity with the landscape image in the database. A technique for estimating the position of a mobile terminal based on the position and orientation of a landscape image with a high degree of accuracy is known as, for example, VPS (Visual Positioning Service/System).

特許文献1には、入力画像との類似度が高い画像の位置を当該入力画像の位置と推定する技術が開示されている。 Patent Document 1 discloses a technique for estimating the position of an image having a high degree of similarity with an input image as the position of the input image.

特許文献2には、画像に基づいて対象物の位置姿勢を推定する際に、局所的な類似度が支配的とならないように、局所特徴量および大局特徴量を併用する位置推定手法が開示されている。 Patent Document 2 discloses a position estimation method that uses both local feature amounts and global feature amounts so that local similarity does not become dominant when estimating the position and orientation of an object based on an image. ing.

特許文献3には、入力画像を撮影位置と対応付けられた多数の参照画素と比較して入力画像の位置を推定するシステムにおいて、入力画像と参照画素との類似度を連続的に把握するシステムが開示されている。 Patent Document 3 discloses a system that continuously grasps the degree of similarity between the input image and the reference pixels in a system that estimates the position of the input image by comparing the input image with a large number of reference pixels associated with shooting positions. is disclosed.

特開2011-215716号公報Japanese Patent Application Laid-Open No. 2011-215716 特開2018-036770号公報Japanese Patent Application Laid-Open No. 2018-036770 特開2020-008984号公報JP 2020-008984 A

特許文献1は、入力画像に類似した画像を探索するにとどまる。特許文献2では、画像の局所特徴量および大局特徴量の類似性のみで類似度が判定されるので、撮影の位置や向きが異なっても特徴量が類似すれば同一位置の画像と判断されてしまう。特許文献3では、位置計算を行う際に類似画像を参照するが、単に類似度の高い画像程優先するとしており、位置が異なることが考慮されていない。 Patent Document 1 only searches for images similar to the input image. In Patent Document 2, the similarity is determined only by the similarity of the local feature amount and the global feature amount of the image, so even if the shooting position and orientation are different, if the feature amount is similar, it is determined that the image is at the same position. put away. In Patent Document 3, similar images are referred to when performing position calculation, but it is simply stated that priority is given to images with higher similarity, and differences in positions are not taken into consideration.

このように、上記の各文献が開示する技術はいずれも、類似する画像が複数抽出された場合でも、各画像はクエリ画像とおよそ同一の場所を意味する程度の確度を前提に抽出されるので、似ていても異なる位置の画像が混在すると計算結果に影響を及ぼしてしまうという技術課題があった。 In this way, all of the techniques disclosed in the above documents extract each image on the assumption that even if multiple similar images are extracted, each image means roughly the same location as the query image. , there is a technical problem that the calculation results are affected when similar images are mixed but at different positions.

本発明の目的は、上記の技術課題を解決し、クエリ画像の位置推定に用いる画像群を、その画像特徴の類似性のみならず撮影の位置や方向の類似性も考慮して選抜することにより、類似するが異なる位置で撮影された画像、あるいは類似するが異なる被写体を撮影した画像に基づく位置推定を防止して位置推定の精度を向上させることにある。 An object of the present invention is to solve the above technical problems by selecting an image group to be used for estimating the position of a query image by considering not only the similarity of the image features but also the similarity of the shooting position and direction. To improve the accuracy of position estimation by preventing position estimation based on similar images photographed at different positions or similar images of different subjects photographed.

上記の目的を達成するために、本発明は、クエリ画像の位置をその類似画像の位置および向きに基づいて推定する位置推定装置において、クエリ画像に類似する複数の類似画像を抽出する手段と、複数の類似画像をその撮影の位置や方向の類似性に基づいて複数の画像群にクラスリングする手段と、画像群ごとに当該画像群に含まれる類似画像の向きの分散を計算し、分散が小さい一部の画像群を選抜する手段と、選抜した画像群の各類似画像の位置に基づいてクエリ画像の位置を推定する手段とを具備した。 To achieve the above object, the present invention provides a position estimation device for estimating the position of a query image based on the positions and orientations of its similar images, wherein means for extracting a plurality of similar images similar to the query image; means for classifying a plurality of similar images into a plurality of image groups based on the similarity of photographing positions and directions; Means for selecting a small subset of images and means for estimating the position of the query image based on the position of each similar image in the selected image group.

本発明によれば、クエリ画像の位置推定に用いる画像群が、その画像特徴の類似性のみならず撮影の位置や方向の類似性も考慮して選抜される。したがって、画像特徴は類似するが異なる位置で撮影された画像や、画像特徴は類似するが異なる被写体を異なる位置で撮影した画像に基づいてクエリ画像の位置が推定されることを防止することができ、位置推定の精度を向上させることが可能になる。 According to the present invention, a group of images used for estimating the position of a query image is selected in consideration of not only the similarity of image features but also the similarity of shooting positions and directions. Therefore, it is possible to prevent the position of the query image from being estimated based on images with similar image features but taken at different positions, or images with similar image features but different subjects taken at different positions. , it is possible to improve the accuracy of position estimation.

本発明を適用した位置推定システムの構成を示した機能ブロック図である。1 is a functional block diagram showing the configuration of a position estimation system to which the present invention is applied; FIG. 位置推定装置の構成を示した機能ブロック図である。It is a functional block diagram showing the configuration of a position estimation device. クエリ画像の位置推定に用いる画像群を選抜する方法を示した図である。FIG. 10 is a diagram showing a method of selecting an image group to be used for estimating the position of a query image; 画像の向きの分散を求める方法を示した図である。FIG. 10 is a diagram showing a method of obtaining the variance of the orientation of an image; 類似画像の尤もらしさを評価する指標の例を示した図である。FIG. 10 is a diagram showing an example of an index for evaluating the likelihood of similar images; 本発明の一実施形態の動作を示したフローチャートである。It is a flow chart showing the operation of one embodiment of the present invention.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明を適用した位置推定システムの主要部の構成を示した機能ブロック図であり、VPS(Visual Positioning Service/System)ベースの位置推定装置1および画像データベース(DB)2を主要な構成としている。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main parts of a position estimation system to which the present invention is applied. It is configured.

画像DB2は、VPS地図の生成に利用した多数の景観画像を、それを撮影した位置情報や向き情報と共に管理する。自身の位置推定を所望するユーザは、スマートフォンなどのモバイル端末3が備えるカメラ機能で周囲の景観を撮影し、このカメラ画像をクエリ画像Iqとして添付した位置要求をネットワーク経由で位置推定装置1へ送信する。 The image DB2 manages a large number of landscape images used to generate the VPS map, along with position information and orientation information where the images were taken. A user who wishes to estimate his/her own position takes a picture of the surrounding scenery with the camera function of a mobile terminal 3 such as a smartphone, and sends a position request attached with this camera image as a query image Iq to the position estimation device 1 via a network. do.

位置推定装置1は、前記位置要求に添付されたクエリ画像Iqに類似する景観画像を画像DB2から抽出し、当該景観画像に対応付けられた位置情報や向き情報に基づいてモバイル端末3の位置を推定する。位置推定の結果はネットワーク経由でモバイル端末3へ応答される。前記位置推定装置1および画像DB2の一部若しくは全部はモバイル端末3に搭載されていてもよい。 The position estimation device 1 extracts a landscape image similar to the query image Iq attached to the position request from the image DB 2, and estimates the position of the mobile terminal 3 based on the position information and orientation information associated with the landscape image. presume. The position estimation result is returned to the mobile terminal 3 via the network. Part or all of the position estimation device 1 and the image DB 2 may be installed in the mobile terminal 3 .

図2は、前記位置推定装置1の主要部の構成を示した機能ブロック図であり、クエリ画像取得部10、類似画像抽出部20、クラスタリング部30、画像群選抜部40、位置計算部50、位置決定部60および位置応答部70を主要な構成としている。 FIG. 2 is a functional block diagram showing the configuration of the main parts of the position estimation device 1, which includes a query image acquisition unit 10, a similar image extraction unit 20, a clustering unit 30, an image group selection unit 40, a position calculation unit 50, A position determination unit 60 and a position response unit 70 are main components.

このような位置推定装置1は、CPU,ROM,RAM,バス,インタフェース等を備えた少なくとも一台の汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。 Such a position estimation device 1 can be configured by installing an application (program) that implements each function in at least one general-purpose computer or server equipped with a CPU, ROM, RAM, bus, interface, and the like. Alternatively, a part of the application can be configured as a dedicated machine or a single-function machine that is made into hardware or software.

クエリ画像取得部10は、モバイル端末3から受信した位置要求に添付されたクエリ画像Iqを取得する。このクエリ画像Iqは類似画像抽出部20および位置決定部60へ提供される。 The query image acquisition unit 10 acquires the query image Iq attached to the location request received from the mobile terminal 3. FIG. This query image Iq is provided to the similar image extraction unit 20 and the position determination unit 60. FIG.

類似画像抽出部20は、クエリ画像Iqから特徴点およびその画像特徴量を抽出し、画像DB2に蓄積されている各景観画像から予め抽出されてその特徴量を計算されている各特徴点との類似度を画像特徴量ベースで計算する。あるいは、GeM (Generalized-Mean pooling) などの大局特徴量に基づき、コサイン距離などで類似度を判断するようにしても良い。そして、類似度が所定の閾値を超える特徴点の数Nfcが相対的または絶対的に多い景観画像が類似画像として抽出される。 The similar image extraction unit 20 extracts feature points and their image feature amounts from the query image Iq, and extracts each feature point extracted in advance from each landscape image stored in the image DB 2 and whose feature amount is calculated. Calculate the similarity based on the image feature quantity. Alternatively, the degree of similarity may be determined by cosine distance or the like based on global feature values such as GeM (Generalized-Mean pooling). A landscape image having a relatively or absolutely large number Nfc of feature points whose degree of similarity exceeds a predetermined threshold is extracted as a similar image.

本実施形態では、閾値を超える特徴点の数Nfcが多い上位Nベスト(相対的)の景観画像、または特徴量数Nfcが所定の閾値Nfc_refを超える全て(絶対的)の景観画像が類似画像として抽出される。 In the present embodiment, the top N best (relative) landscape images with a large number of feature points Nfc exceeding the threshold, or all (absolute) landscape images with a feature amount number Nfc exceeding a predetermined threshold Nfc_ref are regarded as similar images. extracted.

クラスタリング部30は、抽出された多数の類似画像を、その三次元位置の近さに基づいて複数の画像群(クラスタ)にクラスリングする。あるいは3次元回転を水平平面上の角度(1変数)に変換し、三次元の位置座標を加えた4次元の変数でクラスタリングしても良い。 The clustering unit 30 classifies a large number of extracted similar images into a plurality of image groups (clusters) based on the closeness of their three-dimensional positions. Alternatively, the three-dimensional rotation may be converted to an angle (one variable) on the horizontal plane, and clustering may be performed using a four-dimensional variable in which three-dimensional position coordinates are added.

画像群選抜部40は、多数の画像群の中からクエリ画像の位置推定に利用する一部の画像群を選抜する。本実施形態では画像群選抜部40が向き分散計算部41を含み、選抜した画像群ごとに類似画像の向きの分散を計算する。 The image group selection unit 40 selects a partial image group to be used for estimating the position of the query image from a large number of image groups. In this embodiment, the image group selection unit 40 includes an orientation variance calculation unit 41, and calculates the variance of the orientations of similar images for each selected image group.

前記画像群選抜部40は、図3に示すように画像の向きの分散が相対的または絶対的に大きい画像群を除外して残りの画像群をクエリ画像の位置推定用に選抜する。図示の例では、画像群Cにクラスタリングされた画像の向きの分散が画像群A,Bにクラスタリングされた画像の向きの分散に較べて有意に大きいので、画像群Cが除外されて画像群A,Bのみが位置推定用の画像群Imk(kは画像群識別子)として選抜される。 The image group selection unit 40, as shown in FIG. 3, excludes an image group in which the dispersion of image orientations is relatively or absolutely large, and selects the remaining image group for estimating the position of the query image. In the illustrated example, since the variance of the orientation of the images clustered in image group C is significantly larger than the variance of the orientation of the images clustered in image groups A and B, image group C is excluded and image group A , B are selected as image groups Im k (k is an image group identifier) for position estimation.

図4は、画像の向きの分散の計算方法を説明するための図である。画像の方向を表すクオータニオンの成分をw,x,y,zとして、画像の向きを表す単位方向ベクトルVをXZ平面上に投影すると、その要素は次式(1)~(3)で計算できる。 FIG. 4 is a diagram for explaining a method of calculating the variance of the orientation of an image. If the components of the quaternion representing the direction of the image are w, x, y, and z, and the unit direction vector V representing the direction of the image is projected onto the XZ plane, the elements can be calculated by the following equations (1) to (3). .

vx = 2*x*z + 2*y*w (1)
vz = 1 - 2*x*x - 2*y*y (2)
V = (vx,vz) (3)
vx = 2* x *z + 2*y*w (1)
v z = 1 - 2*x*x - 2*y*y (2)
V = (v x , v z ) (3)

X軸との角度差thはベクトルの内積で表現することができ、長さが1のx軸の単位ベクトルは(1,0)となるので次式(4),(5)で計算できる。 The angular difference th with the X-axis can be expressed by the inner product of vectors, and since the unit vector of the x-axis with a length of 1 is (1,0), it can be calculated by the following equations (4) and (5).

costh = vx (4)
th = arc_cos(costh) (5)
cost = vx (4)
th = arc_cos(costh) (5)

各画像群Imkに含まれる各類似画像の単位ベクトルの総和をVsumとし、その角度をthsumとすると、類似画像の向きを表す単位方向ベクトルの平均の角度はthsumとなり、各画像の方向ベクトルとの角度の差分thdiffは次式(6)で求められる。 Let V sum be the sum of the unit vectors of each similar image included in each image group Im k , and let th sum be its angle. The angle difference th diff with respect to the direction vector is obtained by the following equation (6).

thdiff = thsum-th (6) th diff = th sum - th (6)

そして、各画像群Imkに含まれる画像の角度thの差分をthdiff ∈Imkとし、その分散VARkが所定の閾値以下であれば、向きの分散が小さく一定方向を向いた画像群であると判断する。 Then, let thdiff ∈Imk be the difference in angle th between the images included in each image group Imk , and if the variance VARk is less than or equal to a predetermined threshold, it is determined that the image group has a small orientation variance and is oriented in a certain direction. do.

位置計算部50は、選抜した画像群Imkごとに、当該画像群Imkにクラスタリングされている類似画像に基づいてクエリ画像の位置を計算する。本実施形態では、クエリ画像Iqの各特徴点と各類似画像Ii(iは類似画像識別子)の対応する各特徴点(対応点)との射影関係を、例えばホモグラフィ行列として推定する。 The position calculation unit 50 calculates the position of the query image for each selected image group Imk based on the similar images clustered in the image group Imk . In this embodiment, the projection relationship between each feature point of the query image Iq and each corresponding feature point (corresponding point) of each similar image I i (where i is a similar image identifier) is estimated as, for example, a homography matrix.

次いで、クエリ画像Iqの各特徴点を前記射影関係に基づいて各類似画像Iiへ投影した際の再投影誤差を、例えばユークリッド距離として計算する。さらに、Ceres Solver (http://ceres-solver.org/) などの既知のライブラリを用いて、再投影誤差を目的関数とする最小化問題を解くことでクエリ画像Iqの位置を画像群Imkごとに計算する。 Next, a reprojection error when each feature point of the query image Iq is projected onto each similar image Ii based on the projection relation is calculated as, for example, a Euclidean distance. Furthermore, using a known library such as Ceres Solver (http://ceres-solver.org/), the minimization problem with the reprojection error as the objective function is solved to determine the position of the query image Iq from the image group Im k Calculate for each

位置決定部60は、類似画像の尤もらしさの評価に用いる指標値を計算する特徴点計数部61、偏り計算部62およびコスト差分計算部63を具備し、画像群Imkごとに計算した各クエリ画像Iqの位置を各指標値に基づき評価し、この評価結果に基づいてクエリ画像Iqの位置を最終的に決定する。 The position determining unit 60 includes a feature point counting unit 61, a bias calculating unit 62, and a cost difference calculating unit 63 that calculate index values used to evaluate the likelihood of similar images. The position of the image Iq is evaluated based on each index value, and the final position of the query image Iq is determined based on this evaluation result.

前記特徴点計数部61は、図5に示すように、前記選抜した画像群Imkごとに各類似画像Iiにおいてクエリ画像Iqの各特徴点と類似する特徴点の数を求め、さらにその総和N3dkを計数する。 As shown in FIG. 5, the feature point counting unit 61 calculates the number of feature points similar to each feature point of the query image Iq in each similar image Ii for each of the selected image groups Imk , and further sums the number of feature points Count N3d k .

前記偏り計算部62は、図5に示すように、前記選抜した画像群Imkごとに各類似画像Iiにおいてクエリ画像Iqの各特徴点と類似する特徴点をクエリ画像Iqへ投影し、投影された点のクエリ画像上での分散Dtdkを計算する。分散Dtdkはその値が大きいほど画像上に特徴点が分散していることを意味し、類似判断が一部の特徴点の類似性に引きずられることを防止できるので、類似度の信頼性を評価する指標となる。 As shown in FIG. 5, the bias calculation unit 62 projects the feature points similar to the feature points of the query image Iq in each similar image Ii for each of the selected image groups Imk onto the query image Iq. Compute the variance Dtd k of the points on the query image. The higher the variance Dtd k is, the more the feature points are dispersed on the image. It becomes an index for evaluation.

前記コスト差分計算部63は、前記選抜した画像群Imkごとにクエリ画像Iqの各特徴点を各類似画像Iiへ投影した際の再投影誤差の平均値を初期コストCinitkとして求める。更に、クエリ画像Iqの各特徴点を、前記位置計算部50が最小化問題を解くことで位置を推定したクエリ画像へ投影した際の再投影誤差の平均値を最小化後コストCopkとして求める。そして、初期コストCinitkと最小化後コストCoptkとのコスト差分Cdiffkを計算する。コスト差分Cdiffkは、最小化問題を上手く解けたか否かを判断する指標となり、コスト差分Cdiffkが大きいほどクエリ画像の位置を正確に計算できたと判断できる。 The cost difference calculation unit 63 obtains the average value of reprojection errors when each feature point of the query image Iq is projected onto each similar image Ii for each of the selected image groups Imk as the initial cost Cinitk . Further, the average value of reprojection errors when each feature point of the query image Iq is projected onto the query image whose position is estimated by solving the minimization problem by the position calculation unit 50 is obtained as the post-minimization cost Cop k . . Then, the cost difference Cdiff k between the initial cost Cinit k and the post-minimization cost Copt k is calculated. The cost difference Cdiff k is an index for determining whether or not the minimization problem has been successfully solved, and it can be determined that the position of the query image has been calculated more accurately as the cost difference Cdiff k increases.

前記位置決定部60は、前記総和N3dkの多い画像群ほど、前記分散Dtdikの大きい画像群ほど、前記差分Cdiffikの大きい画像群ほど、位置の尤もらしさを高く評価する評価関数に基づいて、画像群Imkごとに計算したクエリ画像Iqの位置を評価する。 The position determining unit 60 evaluates the likelihood of a position higher for an image group with a larger total sum N3d k , an image group with a larger variance Dtd ik , and an image group with a larger difference Cdiff ik based on an evaluation function that evaluates the likelihood of a position. , evaluate the position of the query image Iq computed for each group of images Im k .

本実施形態では、各指標値を最大値が1となるよう正規化したうえで、例えば重みを付けて評価すべく、上記の3つの指標値を次式(7)に適用して尤もらしさを計算し、最尤の位置をクエリ画像Iqの位置に決定する。 In the present embodiment, each index value is normalized so that the maximum value is 1, and for example, in order to be weighted and evaluated, the above three index values are applied to the following equation (7) to determine the likelihood. and determine the position of maximum likelihood to be the position of the query image Iq.

(Cdiffk×0.9+N3dk×0.1)×Dtdik (7) ( Cdiffk ×0.9+ N3dk ×0.1)× Dtdik (7)

位置応答部70は、前記決定したクエリ画像Iqの位置を前記位置要求に対する応答としてモバイル端末3へ送信する。 The location response unit 70 transmits the determined location of the query image Iq to the mobile terminal 3 as a response to the location request.

図6は、本発明の一実施形態の動作を示したフローチャートであり、ステップS1では、ユーザから受信した位置要求に添付されているクエリ画像Iqがクエリ画像取得部10により取得される。ステップS2では、画像DB2に蓄積されている多数の景観画像の中から前記クエリ画像Iqとの類似度が高い上位N個が、前記類似画像抽出部20により類似画像として抽出される。 FIG. 6 is a flowchart showing the operation of one embodiment of the present invention. In step S1, the query image acquisition unit 10 acquires the query image Iq attached to the position request received from the user. In step S2, the similar image extraction unit 20 extracts the top N landscape images having the highest degree of similarity with the query image Iq from among the large number of landscape images accumulated in the image DB2 as similar images.

ステップS3では、前記N個の類似画像が前記クラスタリング部30により、その位置に基づいて複数の画像群にクラスタリングされる。本実施形態ではk-means法によりクラスタリングされたものとして説明を続ける。 In step S3, the clustering unit 30 clusters the N similar images into a plurality of image groups based on their positions. In the present embodiment, the explanation is continued assuming that clustering is performed by the k-means method.

ステップS4では、前記向き分散計算部41により画像群ごとに、その類似画像の向きの分散が計算される。ステップS5では、画像群選抜部40により前記向きの分散が絶対的または相対的に大きい一部の画像群が排除され、残りの画像群が位置推定に利用する画像群Imkとして選抜される。 In step S4, the orientation variance calculator 41 calculates the orientation variance of the similar image for each image group. In step S5, the image group selection unit 40 eliminates a part of the image group whose orientation variance is absolutely or relatively large, and selects the remaining image group as the image group Imk to be used for position estimation.

ステップS6では、前記位置計算部50において、選抜した画像群Imkごとに前記再投影誤差を最小化するクエリ画像Iqの位置が計算される。ステップS7では、前記特徴点計数部61、偏り計算部62およびコスト差分計算部63において、それぞれ特徴点の総和N3dk、位置の分散Dtdkおよびコスト差分Cdiffkが画像群Imkごとに計算される。 In step S6, the position calculation unit 50 calculates the position of the query image Iq that minimizes the reprojection error for each selected image group Imk . In step S7, the feature point counting unit 61, the bias calculating unit 62, and the cost difference calculating unit 63 calculate the feature point sum N3d k , the position variance Dtd k , and the cost difference Cdiff k for each image group Im k . be.

ステップS8では、前記特徴点の総和N3dk、位置の分散Dtdkおよびコスト差分Cdiffkを上式(7)に適用し、画像群Imkごとに計算された位置の尤もらしさが計算される。ステップS9では、最尤の位置がクエリ画像Iqの最終的な位置に決定される。ステップS10では、前記決定したクエリ画像Iqの位置がモバイル端末3へ送信される。 In step S8, the feature point sum N3d k , the position variance Dtd k and the cost difference Cdiff k are applied to the above equation (7) to calculate the likelihood of the position calculated for each image group Im k . In step S9, the position of maximum likelihood is determined to be the final position of the query image Iq. In step S10, the determined position of the query image Iq is transmitted to the mobile terminal 3. FIG.

本実施形態によれば、クエリ画像の位置推定に用いる画像群が、その画像特徴の類似性のみならず撮影の位置や方向の類似性も考慮して選抜される。したがって、画像特徴は類似するが異なる位置で撮影された画像や、画像特徴は類似するが異なる被写体を異なる位置で撮影した画像に基づいてクエリ画像の位置が推定されることを防止することができ、位置推定の精度を向上させることが可能になる。 According to this embodiment, a group of images used for estimating the position of a query image is selected in consideration of not only the similarity of image features but also the similarity of shooting positions and directions. Therefore, it is possible to prevent the position of the query image from being estimated based on images with similar image features but taken at different positions, or images with similar image features but different subjects taken at different positions. , it is possible to improve the accuracy of position estimation.

また、上記の実施形態によれば高精度な位置推定を通信インフラ経由で安価に提供することが可能となるので、地理的あるいは経済的な格差を超えて多くの人々に多様なサービスを提供できるようになる。その結果、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」や目標11「都市を包摂的、安全、レジリエントかつ持続可能にする」に貢献することが可能となる。 In addition, according to the above-described embodiments, it is possible to provide highly accurate position estimation at low cost via communication infrastructure, so that various services can be provided to many people overcoming geographical or economic disparities. become. As a result, the UN-led Sustainable Development Goals (SDGs) include Goal 9 “Build resilient infrastructure and promote inclusive and sustainable industrialization” and Goal 11 “Make cities inclusive, safe and resilient.” and make it sustainable.

1…位置推定装置,2…画像データベース(DB),3…モバイル端末,10…クエリ画像取得部,20…類似画像抽出部,30…クラスタリング部,40…画像群選抜部,41…向き分散計算部,50…位置計算部,60…位置決定部,61…特徴点計数部,62…偏り計算部,63…コスト差分計算部,70…位置応答部 1... Position estimation device, 2... Image database (DB), 3... Mobile terminal, 10... Query image acquisition unit, 20... Similar image extraction unit, 30... Clustering unit, 40... Image group selection unit, 41... Orientation variance calculation Part, 50... Position calculation part, 60... Position determination part, 61... Feature point counting part, 62... Deviation calculation part, 63... Cost difference calculation part, 70... Position response part

Claims (9)

クエリ画像の位置をその類似画像の位置および向きに基づいて推定する位置推定装置において、
クエリ画像に類似する複数の類似画像を抽出する手段と、
前記複数の類似画像をその位置に基づいて複数の画像群にクラスリングする手段と、
前記画像群ごとに当該画像群に含まれる類似画像の向きの分散を計算し、分散が絶対的または相対的に小さい一部の画像群を選抜する手段と、
前記選抜した画像群の各類似画像の位置に基づいてクエリ画像の位置を推定する手段とを具備したことを特徴とする位置推定装置。
In a position estimation device that estimates the position of a query image based on the positions and orientations of its similar images,
means for extracting a plurality of similar images similar to the query image;
means for classifying the plurality of similar images into a plurality of image groups based on their positions;
means for calculating the variance of the orientations of similar images included in the image group for each image group, and selecting a part of the image group with an absolute or relatively small variance;
and means for estimating the position of the query image based on the position of each similar image in the selected image group.
前記類似画像を抽出する手段は、クエリ画像の各特徴点に類似する特徴点の数が絶対的または相対的に多い類似画像を抽出することを特徴とする請求項1に記載の位置推定装置。 2. The position estimation device according to claim 1, wherein said means for extracting similar images extracts similar images having an absolute or relatively large number of feature points similar to each feature point of the query image. 前記クエリ画像の位置を推定する手段は、
前記選抜した画像群ごとに当該画像群に含まれる類似画像の位置に基づいてクエリ画像の位置を計算する手段と、
前記画像群ごとに計算したクエリ画像の位置の尤もらしさに基づいてクエリ画像の位置を決定する手段とを具備したことを特徴とする請求項1または2に記載の位置推定装置。
The means for estimating the position of the query image comprises:
means for calculating the position of a query image based on the position of a similar image included in each selected image group;
3. The position estimation device according to claim 1, further comprising means for determining the position of the query image based on the likelihood of the position of the query image calculated for each image group.
前記クエリ画像の位置を計算する手段は、前記選抜した画像群ごとにクエリ画像と各類似画像との射影関係を推定し、当該射影関係に基づく再投影誤差が最小化するクエリ画像の位置を計算することを特徴とする請求項3に記載の位置推定装置。 The means for calculating the position of the query image estimates a projection relationship between the query image and each similar image for each of the selected image groups, and calculates the position of the query image that minimizes the reprojection error based on the projection relationship. 4. The position estimation device according to claim 3, wherein: 前記位置を決定する手段は、前記選抜した画像群ごとに前記クエリ画像の特徴点と類似する各類似画像の特徴点の数の総和を求め、当該総和がより多い画像群の類似画像に基づいて計算した位置の尤もらしさをより高く評価することを特徴とする請求項4に記載の位置推定装置。 The means for determining the position obtains the sum of the number of feature points of each similar image that are similar to the feature points of the query image for each of the selected image groups, and based on the similar images of the image group with the larger sum 5. The position estimating device according to claim 4, wherein the likelihood of the calculated position is evaluated higher. 前記位置を決定する手段は、前記選抜した画像群ごとに前記クエリ画像の特徴点と類似する各類似画像の特徴点をクエリ画像へ投影し、投影された点の分散がより大きい画像群の類似画像に基づいて計算した位置の尤もらしさをより高く評価することを特徴とする請求項4または5に記載の位置推定装置。 The means for determining the position projects the feature points of each similar image that are similar to the feature points of the query image to the query image for each of the selected image groups, and determines the similarity of the image group having a larger variance of the projected points. 6. The position estimating device according to claim 4, wherein the plausibility of the position calculated based on the image is evaluated higher. 前記位置を決定する手段は、前記選抜した画像群ごとに前記再投影誤差が最小化するクエリ画像の位置と当該最小化前の各類似画像の位置との差分の総和を求め、当該総和がより大きい画像群の類似画像に基づいて計算した位置の尤もらしさをより高く評価することを特徴とする請求項4ないし6のいずれかに記載の位置推定装置。 The means for determining the position obtains the sum of differences between the position of the query image that minimizes the reprojection error and the position of each similar image before the minimization for each of the selected image groups, and the sum is more than 7. The position estimation device according to any one of claims 4 to 6, wherein the plausibility of positions calculated based on similar images of a large group of images is evaluated more highly. コンピュータが、クエリ画像の位置をその類似画像の位置および向きに基づいて推定する位置推定方法において、
クエリ画像に類似する複数の類似画像を抽出し、
前記複数の類似画像をその位置に基づいて複数の画像群にクラスリングし、
前記画像群ごとに当該画像群に含まれる類似画像の向きの分散を計算し、
前記分散が絶対的または相対的に小さい一部の画像群を選抜し、
前記選抜した画像群の各類似画像の位置に基づいてクエリ画像の位置を推定することを特徴とする位置推定方法。
In a position estimation method in which a computer estimates the position of a query image based on the positions and orientations of its similar images,
Extract multiple similar images similar to the query image,
classifying the plurality of similar images into a plurality of image groups based on their positions;
calculating the variance of orientations of similar images included in the image group for each image group;
Selecting a partial group of images in which the variance is absolutely or relatively small;
A position estimation method, comprising estimating the position of a query image based on the position of each similar image in the selected image group.
クエリ画像の位置をその類似画像の位置および向きに基づいて推定する位置推定プログラムにおいて、
クエリ画像に類似する複数の類似画像を抽出する手順と、
前記複数の類似画像をその位置に基づいて複数の画像群にクラスリングする手順と、
前記画像群ごとに当該画像群に含まれる類似画像の向きの分散を計算する手順と、
前記分散が絶対的または相対的に小さい一部の画像群を選抜する手順と、
前記選抜した画像群の各類似画像の位置に基づいてクエリ画像の位置を推定する手順と、をコンピュータに実行させることを特徴とする位置推定プログラム。
In a location estimation program that estimates the location of a query image based on the locations and orientations of its similar images,
extracting a plurality of similar images similar to the query image;
classifying the plurality of similar images into a plurality of image groups based on their positions;
a procedure for calculating, for each image group, the variance of orientations of similar images included in the image group;
A procedure of selecting a partial group of images with the absolute or relatively small variance;
and estimating the position of a query image based on the position of each similar image in the selected image group.
JP2021051029A 2021-03-25 2021-03-25 Position estimation device, method and program Active JP7453175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021051029A JP7453175B2 (en) 2021-03-25 2021-03-25 Position estimation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021051029A JP7453175B2 (en) 2021-03-25 2021-03-25 Position estimation device, method and program

Publications (2)

Publication Number Publication Date
JP2022149076A true JP2022149076A (en) 2022-10-06
JP7453175B2 JP7453175B2 (en) 2024-03-19

Family

ID=83463028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021051029A Active JP7453175B2 (en) 2021-03-25 2021-03-25 Position estimation device, method and program

Country Status (1)

Country Link
JP (1) JP7453175B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023125156A1 (en) 2022-09-20 2024-03-21 Toyota Jidosha Kabushiki Kaisha Battery management system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178721A (en) 2004-12-22 2006-07-06 Matsushita Electric Ind Co Ltd Image retrieval device
JP5385105B2 (en) 2009-11-25 2014-01-08 Kddi株式会社 Image search method and system
JP2013143655A (en) 2012-01-10 2013-07-22 Hitachi Plant Technologies Ltd Site condition monitoring system and site image provision method
JP2015032248A (en) 2013-08-06 2015-02-16 富士ゼロックス株式会社 Image search device, system and program for searching for data
JP6372149B2 (en) 2014-04-28 2018-08-15 富士通株式会社 Display control apparatus, display control method, and display control program
JP7131994B2 (en) 2018-07-04 2022-09-06 株式会社東芝 Self-position estimation device, self-position estimation method, self-position estimation program, learning device, learning method and learning program
JP2020027365A (en) 2018-08-09 2020-02-20 沖電気工業株式会社 Local feature quantity extraction device, local feature quantity extraction program, state determination device, and state determination program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023125156A1 (en) 2022-09-20 2024-03-21 Toyota Jidosha Kabushiki Kaisha Battery management system

Also Published As

Publication number Publication date
JP7453175B2 (en) 2024-03-19

Similar Documents

Publication Publication Date Title
US20210192848A1 (en) Mobile augmented reality system
US9928656B2 (en) Markerless multi-user, multi-object augmented reality on mobile devices
US9767567B2 (en) Method and apparatus for separating foreground image, and non-transitory computer-readable recording medium
US20120075342A1 (en) Augmenting image data based on related 3d point cloud data
CN110567469A (en) Visual positioning method and device, electronic equipment and system
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
CN106650965B (en) Remote video processing method and device
CN103155001A (en) Online reference generation and tracking for multi-user augmented reality
WO2023016271A1 (en) Attitude determining method, electronic device, and readable storage medium
JP2019190974A (en) Calibration device, calibration method and program
KR101885961B1 (en) Method of estimating the location of object image-based and apparatus therefor
Shao et al. Robust height estimation of moving objects from uncalibrated videos
EP3274964A1 (en) Automatic connection of images using visual features
JP6662382B2 (en) Information processing apparatus and method, and program
Kroeger et al. Video registration to sfm models
US8164633B2 (en) Calibration apparatus and method for imaging devices and computer program
JP2022149076A (en) Position estimation device, method and program
JP5651659B2 (en) Object detection system and program
JP2017097549A (en) Image processing apparatus, method, and program
JP2023065296A (en) Planar surface detection apparatus and method
JP2022154076A (en) Multiple camera calibration device, method and program
JP2004054308A (en) Method and device for integrating distance image
Yashiro et al. An Indoor Localization Service using 360 Degree Spherical Camera
WO2021241166A1 (en) Information processing device, information processing method, and program
US11861879B2 (en) Information processing device, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7453175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150