JP7039535B2 - Generator, generation method, and generation program - Google Patents
Generator, generation method, and generation program Download PDFInfo
- Publication number
- JP7039535B2 JP7039535B2 JP2019159127A JP2019159127A JP7039535B2 JP 7039535 B2 JP7039535 B2 JP 7039535B2 JP 2019159127 A JP2019159127 A JP 2019159127A JP 2019159127 A JP2019159127 A JP 2019159127A JP 7039535 B2 JP7039535 B2 JP 7039535B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- orientation
- image
- relative
- information providing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 76
- 238000012937 correction Methods 0.000 claims description 71
- 239000011159 matrix material Substances 0.000 claims description 63
- 230000008569 process Effects 0.000 claims description 40
- 238000003384 imaging method Methods 0.000 claims description 27
- 230000009466 transformation Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000009434 installation Methods 0.000 description 56
- 238000012545 processing Methods 0.000 description 53
- 238000010586 diagram Methods 0.000 description 24
- 239000000284 extract Substances 0.000 description 15
- 238000002360 preparation method Methods 0.000 description 15
- 230000000052 comparative effect Effects 0.000 description 11
- 239000013256 coordination polymer Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101000869912 Cerastes vipera Disintegrin CV-11-alpha Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000011243 gastrointestinal stromal tumor Diseases 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Description
本発明は、生成装置、生成方法、および生成プログラムに関する。 The present invention relates to a generator, a generator, and a generator.
従来、利用者に対して現在位置や目的地までの経路を示す情報を案内する技術が知られている。このような技術の一例として、利用者が利用する端末装置を用いて、現在位置を示す2次元バーコードを撮影することで、利用者の現在位置を3次元的に示す情報を提供する技術が知られている。 Conventionally, a technique for guiding a user to information indicating a current position or a route to a destination has been known. As an example of such a technology, there is a technology that provides information indicating a user's current position in three dimensions by photographing a two-dimensional bar code indicating the current position using a terminal device used by the user. Are known.
しかしながら、上述した技術では、適切に利用者を案内することができない場合がある。 However, with the above-mentioned technology, it may not be possible to properly guide the user.
例えば、上述した技術では、ある施設における利用者の現在位置を推定しているに過ぎないので、利用者が現在位置から目的地まで移動する際に、どの方向へ移動すればよいかを示すことができない。 For example, in the above-mentioned technology, since the current position of the user in a certain facility is only estimated, it is shown in which direction the user should move when moving from the current position to the destination. I can't.
本願は、上記に鑑みてなされたものであって、適切に利用者を案内することを目的とする。 The present application has been made in view of the above, and an object thereof is to appropriately guide the user.
本願に係る生成装置は、所定の領域内に予め設置された対象物が撮影された撮影画像を取得する取得部と、前記撮影画像に基づいて、当該撮影画像を撮影した撮影装置の前記対象物に対する位置である相対位置と、当該撮影装置の前記対象物に対する向きである相対向きとを推定する推定部と、前記相対位置および前記相対向きに基づいて、前記所定の領域内における前記撮影装置の位置と向きとを示す案内情報を生成する生成部とを有することを特徴とする。 The generation device according to the present application includes an acquisition unit that acquires a photographed image of an object previously installed in a predetermined area, and the object of the photographing device that photographs the photographed image based on the photographed image. An estimation unit that estimates a relative position that is a position with respect to an object and an estimation unit that estimates the orientation of the imaging device with respect to the object, and the imaging device within the predetermined region based on the relative position and the relative orientation. It is characterized by having a generation unit that generates guidance information indicating a position and an orientation.
実施形態の一態様によれば、適切に利用者を案内することができる。 According to one aspect of the embodiment, the user can be appropriately guided.
以下に、本願に係る生成装置、生成方法、および生成プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、および生成プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a generation device according to the present application, a generation method, and an embodiment for implementing the generation program (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the generator, the generation method, and the generation program according to the present application. In addition, each embodiment can be appropriately combined as long as the processing contents do not contradict each other. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
[実施形態]
〔1.情報提供システムについて〕
まず、図1を用いて、生成装置の一例である情報提供装置10や端末装置100を有し、利用者を案内するための案内情報を提供する情報提供システム1の一例について説明する。図1は、実施形態に係る情報提供システムの一例を示す図である。図1に示すように、情報提供システム1は、情報提供装置10と、複数の端末装置101、102(以下、「端末装置100」と総称する場合がある。)を有する。
[Embodiment]
[1. Information provision system]
First, with reference to FIG. 1, an example of an
情報提供装置10は、インターネット等の所定のネットワークN(例えば、図7を参照。)を介して、端末装置100と通信可能な情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。なお、情報提供装置10は、ネットワークNを介して、任意の数の端末装置100と通信可能であってもよく、図示しない各種の外部サーバや外部システムと通信可能であってもよい。
The
端末装置100は、利用者が利用する端末装置であり、例えば、PC(Personal Computer)やサーバ装置、各種のスマートデバイス等により実現される。また、端末装置100は、各種の被写体を撮影可能なカメラを有するとともに、カメラを用いて撮影された静止画像や動画像等の撮影画像を情報提供装置10に送信する機能を有する。また、端末装置100は、後述する生成処理により情報提供装置10が生成した案内情報を受信すると、受信した案内情報を画面上に表示することで、利用者の案内を行う機能を有するものとする。
The
なお、以下の説明では、端末装置101は、利用者U1により利用される端末装置であり、端末装置102は、利用者U2により利用される端末装置であるものとする。また、た、以下の説明では、1つの情報提供装置10により各端末装置101、102に個別の案内情報を提供する処理の一例について説明するが、実施形態は、これに限定されるものではない。例えば、情報提供システム1は、複数の情報提供装置10を有し、各情報提供装置10がそれぞれ個別に生成処理を実行してもよい。また、以下に説明する生成処理は、例えば、端末装置100がスタンドアローン形式で実現してもよい。
In the following description, it is assumed that the
〔1-1.利用者の案内について〕
ここで、利用者を目的地まで適切に案内するための案内情報について説明する。例えば、GPS(Global Positioning System)等の衛星を用いた各種の測位システムを用いて、利用者の位置を測定し、測定した位置を示す情報を提供した場合、利用者がどこにいるかを示すことができる。また、地図上に、その地図が設置された位置を示す情報を記載することでも、利用者の現在位置を示すことができる。
[1-1. About user guidance]
Here, guidance information for appropriately guiding the user to the destination will be described. For example, when the position of a user is measured using various positioning systems using satellites such as GPS (Global Positioning System) and information indicating the measured position is provided, it is possible to indicate where the user is. can. In addition, the current position of the user can also be indicated by describing information indicating the position where the map is installed on the map.
しかしながら、利用者が現在位置とは異なる目的地へと移動しようとしている場合、利用者は、自身が向いている方向を特定し、その後、目的地の方向へと移動することとなる。このため、利用者に現在位置を示す情報を提供しただけでは、利用者が目的地とは異なる方向に移動してしまう恐れがある。また、利用者に現在位置を示す情報を提供しただけでは、自身が向いている方向を特定する手間を省くことができない。 However, when the user is trying to move to a destination different from the current position, the user identifies the direction in which he / she is facing, and then moves in the direction of the destination. Therefore, simply providing the user with information indicating the current position may cause the user to move in a direction different from the destination. In addition, it is not possible to save the trouble of specifying the direction in which the user is facing only by providing the user with the information indicating the current position.
より具体的な例を説明する。例えば、利用者の位置を示すアイコンを地図上に重ねて提供した場合、利用者がどこにいるかを示すことができる。しかしながら、利用者が目的地へと移動する場合、利用者は、周囲の状況と地図上の情報とを突き合わせることで、自身が向いている方向を特定し、特定した方向を基準として、目的地への方向を特定する。このように、利用者の位置のみを示した場合は、自身が向いている方向を特定する際の手間を軽減することができない。また、自身が向いている方向を誤って特定した場合には、利用者が誤った方向へと移動する可能性が高い。 A more specific example will be described. For example, when an icon indicating the position of a user is provided on a map, it is possible to indicate where the user is. However, when the user moves to the destination, the user identifies the direction in which he / she is facing by comparing the surrounding situation with the information on the map, and the purpose is based on the specified direction. Identify the direction to the ground. In this way, if only the position of the user is shown, it is not possible to reduce the time and effort required to specify the direction in which the user is facing. In addition, if the user mistakenly identifies the direction in which he / she is facing, there is a high possibility that the user will move in the wrong direction.
このように、利用者を案内する場合には、利用者の向きを示す情報が重要となる場合がある。そこで、利用者の位置のみならず、利用者の向きを示す情報を提供するといった態様が考えられる。例えば、測位システムを用いて、利用者の位置や向きを測定し、測定した位置を示すアイコンや向きを示すアイコンを地図上に重畳して表示するといった手法が考えられる。しかしながら、地下街や地下鉄の駅のホーム、デパートやショッピングモール、屋内型の駐車場等、各種閉鎖的な領域内(以下、単に「領域」と総称する。)においては、衛星から送信される測位信号が受信できなくなる可能性がある。 In this way, when guiding the user, information indicating the direction of the user may be important. Therefore, it is conceivable to provide information indicating not only the position of the user but also the direction of the user. For example, a method is conceivable in which a positioning system is used to measure the position and orientation of a user, and an icon indicating the measured position and an icon indicating the orientation are superimposed and displayed on a map. However, in various closed areas (hereinafter, simply referred to as "areas") such as underground malls, subway station platforms, department stores, shopping malls, indoor parking lots, etc., positioning signals transmitted from satellites. May not be received.
このような領域内において利用者を案内するため、例えば、地磁気を用いた案内やビーコン等の無線信号を用いた案内を行う手法が提案されている。しかしながら、地磁気を用いて利用者の位置を推定する場合、予め領域内における地磁気を詳細に測定する必要があるため、手間がかかる。また、領域内に設置された線路や電線、各種の配線等から生じる磁力が変化した場合、端末装置が測定する磁力が変化するため、精度良く案内を行うことができない恐れがある。 In order to guide the user in such an area, for example, a method of guiding using geomagnetism or guiding using a wireless signal such as a beacon has been proposed. However, when estimating the position of the user using the geomagnetism, it is necessary to measure the geomagnetism in the region in detail in advance, which is troublesome. Further, when the magnetic force generated from the line, the electric wire, various wirings, etc. installed in the area changes, the magnetic force measured by the terminal device changes, so that there is a possibility that accurate guidance cannot be performed.
一方、ビーコン等の無線信号を用いて利用者の位置を推定する場合、利用者の位置を精度よく推定しているとは言えない場合がある。例えば、異なる位置に所在する複数の端末装置が、同一のビーコンから送信された無線信号を受信した場合、同一の位置に所在していると推定されてしまう恐れがある。また、無線信号を用いた場合、利用者の向きを推定することができない。 On the other hand, when the position of the user is estimated using a wireless signal such as a beacon, it may not be possible to say that the position of the user is estimated accurately. For example, when a plurality of terminal devices located at different positions receive radio signals transmitted from the same beacon, it may be presumed that they are located at the same position. Moreover, when a wireless signal is used, the direction of the user cannot be estimated.
〔1-2.生成処理について〕
そこで、情報提供装置10は、以下に説明する生成処理を実行し、生成処理により生成された案内情報を提供することで、利用者の手間を軽減し、案内を実現する。
[1-2. About generation processing]
Therefore, the
例えば、情報提供装置10は、所定の領域内に予め設置された対象物が撮影された撮影画像を取得する。続いて、情報提供装置10は、撮影画像に基づいて、撮影画像を撮影した撮影装置の対象物に対する位置である相対位置と、撮影装置の対象物に対する向きである相対向きとを推定する。そして、情報提供装置10は、相対位置および相対向きに基づいて、所定の領域内における撮影装置の位置と向きとを示す案内情報を生成する。
For example, the
例えば、情報提供装置10は、対象物として、所定の領域内に設置された図面であって、領域を模式的に示す図面が撮影された撮影画像を取得する。より具体的には、情報提供装置10は、駅やビル等の施設内部に設置された施設内の図面(例えば、構内図)、街角等に設置された地図等、各種の領域内の移動経路や各種の施設、区間等を概念的に示す図面が撮影された撮影画像を取得する。
For example, the
続いて、情報提供装置10は、撮影画像に含まれる図面の像を用いて、図面を基準とした撮影装置の位置である相対位置と、図面を基準とした撮影装置の向きである相対向きとを推定する。例えば、情報提供装置10は、撮影画像に含まれる地図の像から、各種のカメラキャリブレーション技術を用いて、相対位置と相対向きとの推定を行う。
Subsequently, the
そして、情報提供装置10は、撮影画像に含まれる図面に、撮影画像を撮影した撮影装置の領域内における位置を示す情報を重畳した案内情報を生成する。例えば、情報提供装置10は、撮影画像に含まれる図面と同一図面のデータを取得し、取得した図面上に、撮影装置の位置と向きとを示すアイコンを重畳した案内情報を生成してもよい。また、情報提供装置10は、撮影画像に含まれる図面を、正面から見た図面に変換し、変換後の図面上に、撮影装置の位置と向きとを示すアイコンを重畳した案内情報を生成してもよい。
Then, the
そして、情報提供装置10は、生成した案内情報を利用者に対して提供する。このような処理の結果、情報提供装置10は、利用者に対し、利用者の現在位置と利用者の向きとを示す情報を提供することができるので、利用者が自身の現在の向きを特定する手間を省くことができる。この結果、利用者は、すぐに目的地への移動を開始することができる。
Then, the
また、情報提供装置10は、撮影した図面上に利用者の現在位置を示す情報を重畳した案内情報を提供するので、利用者が閲覧してる図面との同一性を保った情報を提供することができる。この結果、情報提供装置10は、利用者がどの向きを向いているかを容易に認識させることができる結果、利用者の案内を適切に行うことができる。
Further, since the
〔1-3.生成処理の一例について〕
以下、図1を用いて、情報提供装置10が実行する生成処理の一例について説明する。なお、以下の説明では、情報提供装置10が実行する生成処理の流れの概要について説明し、その後、生成処理を実現するための詳細な手段について説明する。例えば、図1に示す例では、ショッピングモール等の領域内に、ショッピングモールの通路や店舗の情報を示す図面Mが設置されているものとする。また、図面Mには、図面Mの設置位置MPが示されているものとする。
[1-3. About an example of generation processing]
Hereinafter, an example of the generation process executed by the
このような場合、情報提供装置10は、準備段階として、図面Mの特徴を基準特徴とし、図面の設置位置と図面を撮影した撮影装置の位置(以下、「リファレンス撮影位置」、若しくは単に「リファレンス」と記載する場合がある。)とに紐付けて保持する(ステップS1)。例えば、情報提供装置10は、カメラやスマートフォン等、所定の撮影装置を用いて、図面Mを正面から撮影した画像を取得する。このような場合、情報提供装置10は、各種の特徴量抽出技術を用いて、撮影された画像から特徴的な点である特徴点を抽出し、抽出した特徴点の座標(以下、「特徴点座標」と記載する。)と、特徴点の周囲における画像の特徴を示す特徴量とを抽出する。
In such a case, the
なお、上述した特徴量は、GIST(http://ilab.usc.edu/siagian/Research/Gist/Gist.html)、カラーヒストグラム、色分布などの広域特徴量やSIFT(Scale-Invariant Feature Transform)、SURF(Speed-Up Robust Features)、局所特徴量等、画像が有する特徴量を取得する任意の技術が採用可能である。なお、ニューラルネットで生成される特徴量も利用可能である。また、情報提供装置10は、これら既存の特徴量抽出技術以外にも、各種任意の特徴量抽出技術を用いてもよい。
The above-mentioned features include GIST (http://ilab.usc.edu/siagian/Research/Gist/Gist.html), color histograms, wide-area features such as color distribution, and SIFT (Scale-Invariant Feature Transform). , SURF (Speed-Up Robust Features), local feature amount, and any other technique for acquiring the feature amount of the image can be adopted. The features generated by the neural network can also be used. In addition to these existing feature amount extraction techniques, the
また、情報提供装置10は、領域内において図面Mの設置位置MPと、図面Mの正面が向いている方向(すなわち、図面の向き)とを示す情報を取得する。そして、情報提供装置10は、抽出した特徴点座標と特徴量と、図面の設置位置と、リファレンス撮影位置とを対応付けて所定の記録装置に登録しておく。なお、以下の説明では、予め抽出された特徴点を基準特徴点とし、基準特徴点の特徴点座標を基準座標とし、基準特徴点の特徴量を基準特徴量と総称する。また、以下の説明では、基準特徴点、基準座標、および基準特徴量を基準情報と総称する場合がある。
Further, the
続いて、利用者U1は、自身の端末装置101を用いて、図面Mを撮影する(ステップS2)。例えば、利用者U1は、図面Mの正面から時計回りにずれた方向から、図面Mを斜めに撮影したものとする。このような場合、端末装置101は、図面Mを撮影した撮影画像を情報提供装置10へと送信する(ステップS3)。
Subsequently, the user U1 photographs the drawing M using his / her own terminal device 101 (step S2). For example, it is assumed that the user U1 photographs the drawing M diagonally from a direction shifted clockwise from the front of the drawing M. In such a case, the
一方、利用者U2は、端末装置102を用いて、図面Mの正面から反時計回りにずれた方向から、図面Mを斜めに撮影したものとする(ステップS4)。このような場合、端末装置102は、図面Mを撮影した撮影画像を情報提供装置10へと送信する(ステップS5)。
On the other hand, it is assumed that the user U2 uses the
このような場合、情報提供装置10は、各端末装置100から受信した撮影画像を用いて、図面に対する利用者U1、U2の相対的な位置と向きとをそれぞれ推定する。より具体的には、情報提供装置10は、記憶装置に登録されている基準情報と、撮影画像の特徴との比較結果に基づいて、図面Mに対する撮影装置(すなわち、端末装置100)の相対的な位置と向きとを推定する(ステップS6)。すなわち、情報提供装置10は、対象物を所定の位置から撮影した画像である基準画像に基づく基準情報を記憶するとともに、撮影画像に基づく画像情報と、記憶された基準情報との比較結果に基づいて、相対位置と相対向きとを推定する。より具体的には、情報提供装置10は、基準画像に含まれる特徴点に関する情報と、撮影画像から抽出された特徴点に関する情報とを用いて、相対位置と相対向きとを推定する。
In such a case, the
例えば、情報提供装置10は、基準情報を抽出した際と同様のアルゴリズムを用いて、端末装置100が撮影した撮影画像から特徴点を比較特徴点として抽出する。また、情報提供装置10は、比較特徴点における特徴量を比較特徴量として抽出するとともに、比較特徴点の座標を比較座標として抽出する。
For example, the
続いて、情報提供装置10は、比較特徴量と、基準特徴量とを相互に比較し、特徴量が相互に類似する比較特徴点と基準特徴点との組を特定する。なお、以下の説明では、基準特徴点のいずれかと類似する比較特徴点を類似比較特徴点とし、比較特徴点のいずれかと類似する基準特徴点を類似基準特徴点と記載する。また、以下の説明では、撮影画像からは、類似比較特徴点が複数(所定数以上)抽出されているものとする。そして、情報提供装置10は、類似比較特徴点の特徴点座標を、類似基準特徴点の特徴点座標へと変換する変換行列を生成する。
Subsequently, the
このような変換行列は、リファレンス撮影位置(すなわち、図面Mの正面)に対して、撮影装置となる端末装置101がどれくらい平行移動し、リファレンス撮影位置から図面Mを基準としてどれくらい回転しているかを示す指標となる。そこで、情報提供装置10は、変換行列に基づいて、端末装置101の図面Mに対する位置と向き、すなわち、相対位置と相対向きとを推定する。同様に、情報提供装置10は、端末装置102から受付けた撮影画像から、図面Mの正面に対する端末装置102の相対位置および相対向きとを推定する。なお、変換行列の生成および相対位置と相対向きとを推定する詳細な手法については、後述する。
Such a transformation matrix indicates how much the
そして、情報提供装置10は、特定した相対位置と相対向きとを示す情報を、各端末装置100が撮影した撮影画像に含まれる図面Mに重畳した案内情報を生成する(ステップS7)。例えば、情報提供装置10は、上述した変換行列を用いて、各端末装置101、102が撮影した撮影画像に含まれる図面Mの像を、図面Mを正面からみた場合の像へと変換する。なお、以下の説明では、変換後の図面Mの像を補正図面と総称する。また、このような画像変換については、各種公知の画像変換技術が採用可能である。
Then, the
続いて、情報提供装置10は、補正図面上における図面Mの設置位置を特定する。例えば、情報提供装置10は、予め登録された図面Mから、設置位置MPを示す図面M上の位置である投影設置位置を特定する。なお、このような投影設置位置の特定は、画像に含まれる所定の像(例えば、設置位置MPを示す所定のアイコンや文字)を特定する画像特定技術により実現されてもよく、例えば、図面Mの画像を登録する際に、人手により行われてもよい。続いて、情報提供装置10は、あらかじめ登録された図面M上における投影設置位置を補正図面上における投影設置位置へと変換する。
Subsequently, the
そして、情報提供装置10は、補正図面上における投影設置位置と、推定された相対位置および相対向きに基づいて、補正図面上における端末装置100の位置と向きとを特定する。例えば、情報提供装置10は、補正図面上における投影設置位置を基準として、補正図面上における相対位置および相対向きを特定する。そして、情報提供装置10は、補正図面上における相対位置に丸型のアイコンを配置するとともに、補正図面上における相対向きを示す矢印、扇形若しくは三角形のアイコンを配置した案内情報を生成する。
Then, the
このように、情報提供装置10は、図面を所定の方向から撮影したように撮影画像に含まれる図面を補正した補正図面を生成し、生成した補正図面に撮影装置の位置を示す情報を重畳した案内情報を生成する。例えば、情報提供装置10は、所定の領域内において対象物が設置された位置と、相対位置とに基づいて、所定の領域内における撮影装置の位置を推定し、推定した位置を示す案内情報を生成する。また、情報提供装置10は、所定の領域内における対象物の向きと、相対向きとに基づいて、所定の領域内における撮影装置の向きを推定し、推定した位置を示す案内情報を生成する。また、情報提供装置10は、相対位置と相対向きとに基づいて、撮影装置の位置と向きとを図面上の座標に変換し、変換後の座標を用いて、案内図面を生成する。
In this way, the
その後、情報提供装置10は、生成した案内情報を端末装置101、102へと送信する(ステップS8、9)。この結果、端末装置101は、図面Mの正面から時計回りに回転した位置から図面Mの方向を向いている旨を示すアイコンUI1が配置された案内情報DM1を表示することとなる。一方、端末装置102は、図面Mの正面から反時計回りに回転した位置から図面Mの方向を向いている旨を示すアイコンUI2が配置された案内情報DM2を表示することとなる。
After that, the
例えば、図2は、実施形態に係る生成処理の効果の一例を示す図である。例えば、図2に示す例では、施設内に配置された看板MBに、図面Mが配置されている。また、図2に示す例では、図面Mの正面から、図面M(若しくは看板MB)を中心として時計回りに移動した所に利用者U1が所在し、図面M(若しくは看板MB)を中心として半時計回りに移動した所に利用者U2が所在している。また、利用者U1、U2は、それぞれ看板MBから所定の範囲NA内に位置するものとする。 For example, FIG. 2 is a diagram showing an example of the effect of the generation process according to the embodiment. For example, in the example shown in FIG. 2, the drawing M is arranged on the signboard MB arranged in the facility. Further, in the example shown in FIG. 2, the user U1 is located at a place moved clockwise around the drawing M (or the signboard MB) from the front of the drawing M, and is half centered on the drawing M (or the signboard MB). The user U2 is located at the place where it has moved clockwise. Further, the users U1 and U2 are assumed to be located within a predetermined range NA from the signboard MB, respectively.
ここで、看板MBに図面Mが設置されておらず、例えば、位置を示す無線信号をビーコンで送信した場合、利用者U1が利用する端末装置101および利用者U2が利用する端末装置102は、同一の無線信号を受信することとなる。このため、端末装置101、102は、それぞれ異なる位置に所在しているにも関わらず、同一の位置にいる旨を示す案内情報を出力してしまうこととなる。
Here, when the drawing M is not installed on the signboard MB and, for example, when a radio signal indicating a position is transmitted by a beacon, the
一方、利用者U1が撮影した撮影画像と、利用者U2が撮影した撮影画像とには、図面Mが異なる態様で撮影されていると考えられる。すなわち、撮影画像には、図面Mの像が、図面Mに対する撮影装置の相対位置および相対向きに応じて異なる態様で含まれていると考えられる。そこで、実施形態に係る情報提供装置10は、利用者U1、U2がそれぞれ異なる位置から撮影した図面Mの撮影画像から、各利用者U1、U2の位置および向きを示す案内情報を生成する。
On the other hand, it is considered that the photographed image taken by the user U1 and the photographed image taken by the user U2 have different aspects of the drawing M. That is, it is considered that the captured image contains the image of the drawing M in a different manner depending on the relative position and orientation of the photographing device with respect to the drawing M. Therefore, the
このような処理の結果、例えば、端末装置101は、利用者U1が、図面Mの正面から図面M(若しくは看板MB)を中心として時計回りに移動した所に利用者U1が所在するとともに、利用者U1が図面Mの方向を向いている旨を示す案内情報DM1を提供することができる。また、端末装置102は、利用者U2が、図面Mの正面から図面M(若しくは看板MB)を中心として反時計回りに移動した所に利用者U2が所在するとともに、利用者U2が図面Mの方向を向いている旨を示す案内情報DM2を提供することができる。
As a result of such processing, for example, in the
ここで、端末装置100は、生成処理により生成された案内情報を提供するだけでも良いが、その後、利用者を案内するための情報をさらに表示させてもよい。
Here, the
例えば、端末装置100は、GPS等の測位システムやビーコン等を用いて、利用者の移動や向きの変化を検知した場合は、図面上におけるアイコンUI1、UI2(以下、「アイコンUI」と総称する。)の位置を移動させてもよく、回転させてもよい。また、端末装置100は、加速度センサやジャイロセンサ、振動センサ等を用いて、利用者の移動や向きの変化を検知し、検知した移動や向きの変化をアイコンUIの位置や向きに適用してもよい。なお、このような処理は、例えば、案内情報と共に、図面上における位置と実際の距離との関係性を示す情報(例えば、図面や地図の縮尺を示す情報)を提供することで、実現可能である。
For example, when the
また、端末装置100や情報提供装置10は、利用者の目的地があらかじめ設定されている場合、目的地までの案内方向を示す案内情報を提供してもよい。例えば、端末装置100は、目的地までの案内経路を示す実線や点線、目的地の方向を示す矢印等を図面上に重畳した案内情報を提供してもよい。
Further, the
また、これら以外にも、情報提供装置10や端末装置100は、利用者の案内に関する各種の公知技術を組み合わせることで、利用者を目的地まで案内するための情報を提供してもよい。
In addition to these, the
〔1-4.ランドマークを用いた位置および向きの更新について〕
ここで、移動後における利用者の位置や向きを図面上に重畳した場合、位置や向きの検出精度によっては、利用者の位置や向きを正しく示すことができなくなる恐れがある。例えば、利用者が通路を移動しているにもかかわらず利用者の位置が店舗内に位置したり、利用者の向きが正しい向きとは異なってしまうといった事態が想定されうる。
[1-4. About updating the position and orientation using landmarks]
Here, when the position and orientation of the user after movement are superimposed on the drawing, the position and orientation of the user may not be correctly indicated depending on the detection accuracy of the position and orientation. For example, it is possible that the user's position is located in the store even though the user is moving along the aisle, or the user's direction is different from the correct direction.
そこで、情報提供装置10は、領域内に設置された看板やドア、店舗やオブジェといった各種任意の設備を撮影した撮影画像を用いて、利用者の位置や向きを補正した案内情報の生成を行ってもよい。例えば、情報提供装置10は、案内情報が提供された後に、新たな対象物が撮影された撮影画像を取得し、撮影装置の新たな対象物に対する相対位置と相対向きとを推定し、新たな対象物に対する相対位置と相対向きとに基づいて、所定の領域内における撮影装置の位置と向きとを補正した新たな案内情報を生成してもよい。より具体的な例を挙げると、情報提供装置10は、新たな対象物として、所定の領域内に設置された所定の設備が撮影された撮影画像を取得し、所定の設備に対する相対位置と相対向きとに基づいた補正を行ってもよい。
Therefore, the
以下、図3を用いて、所定の設備に対する相対位置と相対向きとに基づいて、利用者の位置と向きとを補正した案内情報を生成する処理の一例について説明する。図3は、実施形態に係る情報提供システムが位置と向きとを補正する処理の一例を示す図である。なお、図2に示す例では、施設内に設置されたドアLMの撮影画像を用いて、利用者U1の位置と向きとを補正する処理の一例について記載した。また、以下の説明では、補正に用いられる各種の設備をランドマークと総称する。 Hereinafter, with reference to FIG. 3, an example of a process of generating guidance information corrected for the position and orientation of the user based on the relative position and the relative orientation with respect to the predetermined equipment will be described. FIG. 3 is a diagram showing an example of a process in which the information providing system according to the embodiment corrects the position and orientation. In the example shown in FIG. 2, an example of the process of correcting the position and orientation of the user U1 by using the photographed image of the door LM installed in the facility is described. Further, in the following description, various facilities used for correction are collectively referred to as landmarks.
例えば、情報提供装置10は、ランドマークを撮影した画像の特徴を基準情報として、ランドマークを撮影した撮影装置の地図上の位置と、ランドマークの設置位置とリファレンス撮影位置とを紐付けて保持する(ステップS10)。続いて、利用者U1は、図1に示す生成処理により生成された案内情報DM1を受付けた後で、通路上を移動したものとする(ステップS11)。このような場合、端末装置101は、各種のセンサ情報を用いて、現在位置や向きを更新する(ステップS12)。
For example, the
ここで、端末装置101が現在位置や向きを誤って推定し、店舗内に移動してしまった旨を示す案内情報DM3を表示したものとする。このような場合、利用者U1は、端末装置101を用いてランドマークを撮影し(ステップS13)、撮影画像を情報提供装置10へと送信する(ステップS14)。
Here, it is assumed that the
このような場合、情報提供装置10は、図1に示す生成処理と同様の処理を行うことにより、ランドマークに対する利用者の相対位置と相対向きとを推定し、新たな案内情報を提供してもよい。しかしながら、地図とは異なり、ランドマークとなる設備は、立体物であることが多い。このような立体物に対する相対位置と相対向きとを精度良く推定するため、情報提供装置10は、補正時においては、以下の処理を実行する。
In such a case, the
例えば、情報提供装置10は、推定結果から、利用者の相対位置と相対向きとを推定する(ステップS15)。例えば、情報提供装置10は、カメラキャリブレーションの技術を用いて、ステップS10にてランドマークを撮影したリファレンス撮影位置を、ステップS13にてランドマークを撮影した位置へと変換する基本行列を生成する。
For example, the
続いて、情報提供装置10は、2次元画像から撮影されている対象物の3次元形状を復元(推定)する各種の公知技術を用いて、撮影画像からランドマークの立体形状を推定する(ステップS16)。例えば、情報提供装置10は、推定されたランドマークの立体形状のうち、所定の条件を満たす点(例えば、立体形状の中心や重心、立体形状のうち撮影装置の視線と最初に交叉する点等)を特定し、特定した点に対する撮影装置の相対位置および相対向きを推定する。
Subsequently, the
そして、情報提供装置10は、推定した相対位置および相対向きに基づいて、施設内における利用者の位置と向きとを補正した案内情報を生成し(ステップS17)、生成した案内情報を送信する(ステップS18)。例えば、情報提供装置10は、相対位置と相対向きとを、送信済みの案内情報DM1の図面上における位置および向きに変換し、変換後の位置および向きを示す情報を端末装置101に送信する。この結果、端末装置101は、利用者の位置および向きを正しく補正した案内情報DM4を表示することができる。
Then, the
〔1-5.図面を用いた推定とランドマークを用いた推定との関係について〕
上述した例では、初期段階において、施設等の領域内を模式的に示す図面の撮影画像から利用者の相対位置および相対向きを推定し、推定した相対位置および相対向きに基づいて、領域内における利用者の位置および向きを示す情報を提供した。一方、補正時においては、ランドマークの撮影画像から、利用者の相対位置および相対向きを推定し、推定した相対位置および相対向きに基づいて、案内情報における利用者の位置および向きを補正した。しかしながら、実施形態は、これに限定されるものではない。
[1-5. Relationship between estimation using drawings and estimation using landmarks]
In the above example, in the initial stage, the relative position and relative orientation of the user are estimated from the captured image of the drawing schematically showing the inside of the area such as the facility, and the relative position and the relative orientation in the area are estimated based on the estimated relative position and the relative orientation. Provided information indicating the position and orientation of the user. On the other hand, at the time of correction, the relative position and relative orientation of the user were estimated from the captured image of the landmark, and the position and orientation of the user in the guidance information were corrected based on the estimated relative position and relative orientation. However, the embodiments are not limited to this.
例えば、情報提供装置10は、初期段階においてランドマークの撮影画像を取得した場合、取得した撮影画像からランドマークの立体形状を推定し、推定した立体形状に基づいて、ランドマークに対する利用者の相対位置および相対向きを推定し、推定した相対位置および相対向きに基づいて、利用者の位置および向きを示す案内情報を生成してもよい。また、情報提供装置10は、図面の撮影画像から、図面に対する相対位置および相対向きを推定し、推定した相対位置および相対向きに基づいて、案内情報における利用者の位置および向きを補正してもよい。
For example, when the
すなわち、情報提供装置10は、対象物が図面等の2次元的な物体であっても、各種施設といった3次元的な物体であっても、対象物の撮影画像から、対象物と撮影装置との相対位置および相対向きを推定し、推定した相対位置および相対向きに基づいて、領域内における撮影装置の位置および向きを示す案内情報を提供することができるのであれば、任意の対象物の撮影装置から、案内情報の生成や補正を行ってよい。
That is, regardless of whether the object is a two-dimensional object such as a drawing or a three-dimensional object such as various facilities, the
なお、後述するように、図面を用いた処理においては、推定精度を向上させるため、基準情報を取得する際に図面のサイズやアスペクト比を利用することとなる。しかしながら、ドアや店舗等、ランドマークとなる各種設備についてこのようなアスペクト比を取得するのは手間がかかる。そこで、情報提供装置10は、撮影画像からランドマークの立体形状を推定し、推定した立体形状における注視点が基準情報取得時と撮影画像取得時とで同一であると見做すことで、ランドマークに対する撮影装置の相対位置および相対向きを推定する。このような処理の結果、情報提供装置10は、ランドマークのアスペクト比を取得せずとも、精度よく撮影装置の相対位置および相対向きを推定することができる。
As will be described later, in the process using the drawing, the size and the aspect ratio of the drawing are used when acquiring the reference information in order to improve the estimation accuracy. However, it is troublesome to acquire such an aspect ratio for various landmark facilities such as doors and stores. Therefore, the
また、補正が可能となる機会を担保するには、補正に利用可能なランドマークを多く準備した方がよいが、施設内において多くの図面を設置するのは、現実的ではない。しかしながら、情報提供装置10は、撮影画像からランドマークの立体形状を推定し、立体形状に基づいた相対位置よび相対向きの推定を行うので、例えば、ランドマークとなる施設の写真を撮影し、撮影位置を登録するだけで、案内情報を補正可能な位置を追加することができる。
Also, in order to secure the opportunity for correction, it is better to prepare many landmarks that can be used for correction, but it is not realistic to install many drawings in the facility. However, the
なお、上述した例では、情報提供装置10は、基準情報を取得する際にランドマークを撮影した撮影装置の位置を取得していたが、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、ランドマークを予め定められた方向から、予め定められた距離で撮影した画像を取得することで、基準情報を収集する際の撮影装置の位置を登録する手間を削減してもよい。
In the above-mentioned example, the
このように、情報提供装置10は、初期段階においては、図面を用いた案内情報の生成を行い、補正段階においては、ランドマークの撮影画像を用いて案内情報の補正を行う。このため、情報提供装置10は、生成処理を実現するための準備の手間を抑えつつ、利用者の現在位置や向きを精度良く提供することができる。
As described above, the
〔1-6.図面を用いた推定の詳細な処理の流れについて〕
次に、図4を用いて、図面を用いた相対位置及び相対向きの推定を行う処理の詳細な流れの一例について説明する。図4は、実施形態に関する情報提供装置が実行する処理の流れの一例を示す第1の図である。
[1-6. Detailed processing flow of estimation using drawings]
Next, with reference to FIG. 4, an example of a detailed flow of the process of estimating the relative position and the relative orientation using the drawings will be described. FIG. 4 is a first diagram showing an example of a flow of processing executed by the information providing device regarding the embodiment.
まず、図面の基準情報を取得する準備段階の処理について説明する。まず、情報提供装置10は、所定の距離から図面を撮影した撮影画像を取得する。ここで、図面には、所定の施設の通路や店舗が所定の縮尺で記載されているものとする。
First, the processing in the preparatory stage for acquiring the reference information of the drawing will be described. First, the
ここで、撮影画像は、図面の正面(例えば、図面の中心を通り、図面に対して垂直な線上)から撮影された画像であることが望ましい。しかしながら、人手で画像を撮影した場合、図面を完全な正面から撮影することが難しい。そこで、情報提供装置10は、図面を撮影した撮影画像と、図面のアスペクト比(縦横比)を示す情報とを取得する。そして、情報提供装置10は、アスペクト比を示す情報に基づいて、図面を正面から撮影した画像である正面画像に補正する。例えば、情報提供装置10は、撮影画像のうち図面が撮影されている範囲を特定し、特定した範囲のアスペクト比が、取得したアスペクト比と一致するように、撮影画像の補正を行う。
Here, it is desirable that the captured image is an image captured from the front of the drawing (for example, on a line passing through the center of the drawing and perpendicular to the drawing). However, when the image is taken manually, it is difficult to take the drawing from the front completely. Therefore, the
また、情報提供装置10は、生成した正面画像から、特徴点座標と特徴量とを抽出する。そして、情報提供装置10は、特徴点座標と、特徴量と、施設内における図面の設置位置を示す情報と、リファレンス撮影位置とを示す情報を基準情報として記憶する。例えば、情報提供装置10は、撮影した図面上に撮影装置の位置や向きを示すアイコンを重畳する場合は、図面上における図面の設置位置と、リファレンス撮影位置とを示す情報を取得する。なお、情報提供装置10は、撮影された図面とは異なる図面上にアイコンを重畳する場合は、例えば、図面の設置位置およびリファレンス撮影位置を示す緯度および経度を設置位置として保持してもよい。
Further, the
続いて、生成処理の段階においては、情報提供装置10は、撮影画像を取得する。このような場合、情報提供装置10は、撮影画像から特徴情報として、特徴点座標と特徴量とを取得する。そして、情報提供装置10は、抽出した特徴情報と基準情報とを比較し、ホモグラフィー行列の生成を行う。例えば、情報提供装置10は、類似比較特徴点の特徴点座標と、類似基準特徴点の特徴点座標とを相互に変換する行列をホモグラフィー行列を生成する。すなわち、情報提供装置10は、基準画像に含まれる特徴点の位置を示す情報と、特徴点における特徴を示す特徴量とを記憶する。そして、情報提供装置10は、撮影画像に含まれる特徴点の位置を、基準画像に含まれる特徴点のうち特徴量が類似する特徴点の位置へと変換する変換行列を生成する。
Subsequently, in the generation processing stage, the
このようなホモグラフィー行列は、撮影画像を撮影した際の撮影装置の位置と、図面の正面との相対的な位置関係、および、撮影画像を撮影した際の撮影装置の向きと図面の正面方向との相対的な向き関係(回転関係)が反映されることとなる。そこで、情報提供装置10は、生成した変換行列、すなわち、ホモグラフィー行列に基づいて、相対位置と相対向きとを推定する。
Such a homography matrix is a relative positional relationship between the position of the photographing device when the photographed image is taken and the front surface of the drawing, and the orientation of the photographing device when the photographed image is taken and the front direction of the drawing. The relative orientation relationship (rotational relationship) with and is reflected. Therefore, the
例えば、情報提供装置10は、ホモグラフィー行列を、撮影画像を撮影した際の撮影装置の位置と、図面の正面との位置関係とを変換する平行行列(第1行列)、および、撮影画像を撮影した際の撮影装置の向きと図面の正面方向とを変換する回転行列を生成する。そして、情報提供装置10は、生成した平行行列から相対位置を推定し、生成した回転行列から相対向きを推定する。
For example, the
一方、情報提供装置10は、撮影画像から、図面を正面から撮影した場合の補正図面を生成する。例えば、情報提供装置10は、ホモグラフィー行列(若しくはその逆行列)を用いて、撮影画像を図面を正面から撮影した場合の撮影画像へと変換する。また、情報提供装置10は、各種の画像認識技術を用いて、変換後の撮影画像のうち図面が含まれる範囲を補正図面として抽出する。
On the other hand, the
そして、情報提供装置10は、基準情報となる設置位置と、リファレンス撮影位置と、推定した相対位置および相対向きから、案内情報を生成する。例えば、情報提供装置10は、推定した相対位置と基準情報となる設置位置とリファレンス撮影位置とに基づいて、正面画像上における撮影装置の位置および向きを特定する。
Then, the
例えば、情報提供装置10は、設置位置と相対位置とに基づいて、領域内における撮影装置の位置を特定する。また、情報提供装置10は、リファレンス撮影位置と設置位置と相対向きとに基づいて、領域内における撮影位置の向きを推定する。そして、情報提供装置10は、推定した撮影位置および向きに基づいて、正面画面上における撮影装置の設置位置および向きを推定する。なお、情報提供装置10は、正面画像上における図面の設置位置と、正面図面上におけるリファレンス撮影位置と、正面図面上における相対位置および相対向きに基づいて、正面図面上における撮影装置の向きを推定してもよい。
For example, the
また、情報提供装置10は、相対位置に基づいて、処理段階において図面を撮影した際の撮影装置と図面との距離を推定し、推定した距離と基準段階において図面を撮影した際の距離とに基づいて、補正図面と正面図面との縮尺関係を推定する。そして、情報提供装置10は、推定した縮尺関係に基づいて、正面図面上における撮影装置の位置と向きとを、補正図面上における撮影装置の位置と向きとに変換する。その後、情報提供装置10は、補正図面上に、撮影装置の位置と向きとを示すアイコンを重畳した案内情報を生成する。
Further, the
なお、情報提供装置10は、準備段階において図面を撮影した際の撮影装置の図面に対する位置を基準位置とし、向きを基準向きとして、基準位置および基準向きを示す情報を保持しておく。そして、情報提供装置10は、処理段階において取得した撮影画像の特徴情報と、準備段階で取得した図面の特徴情報とを比較することで、基準位置および基準向きに対する相対位置および相対向きを推定する。そして、情報提供装置10は、表示する図面の縮尺と、図面の設置位置およびリファレンス撮影位置と、相対位置および相対向きとに基づいて、表示する図面上における撮影装置の位置および向きを特定してもよい。
The
すなわち、情報提供装置10は、準備段階において図面の設置位置や設置方向を基準位置および基準向きとして採用してよく、このような基準位置および基準向きに対する相対位置および相対向きから、撮影装置の位置および向きを特定してもよい。また、情報提供装置10は、予め、若しくは、撮影画像から取得可能な任意の情報(例えば、図面の縮尺や撮影装置と図面との距離等)に基づいて、準備段階において撮影された撮影画像における図面上の座標と、処理段階において撮影された撮影画像における図面上の座標との関係を特定し、特定した関係に基づいて、特定した撮影装置の位置および向きを示す情報を表示すればよい。
That is, the
〔1-7.ランドマークを用いた補正の詳細な処理の流れについて〕
次に、図5を用いて、ランドマークを用いた案内情報の補正を行う処理の詳細な流れの一例について説明する。図5は、実施形態に関する情報提供装置が実行する処理の流れの一例を示す第2の図である。
[1-7. Detailed processing flow of correction using landmarks]
Next, an example of a detailed flow of the process of correcting the guidance information using the landmark will be described with reference to FIG. FIG. 5 is a second diagram showing an example of a flow of processing executed by the information providing device regarding the embodiment.
上述したように、ランドマークを用いた補正を行う場合、ランドマークとなる設備ごとにアスペクト比の登録を行うのは、手間がかかる。そこで、情報提供装置10は、準備段階においては、ランドマークを撮影した撮影画像として、可能な限りランドマークの中心部分を注視点とした画像を撮影画像として取得する。そして、情報提供装置10は、特徴点の情報を抽出するとともに、ランドマークの設置位置およびリファレンス撮影位置を示す情報を基準情報として保持しておく。
As described above, when making corrections using landmarks, it is troublesome to register the aspect ratio for each facility that becomes a landmark. Therefore, in the preparation stage, the
続いて、情報提供装置10は、案内情報の補正を行う補正段階において、可能な限りランドマークの中心部分を注視点とした画像を撮影画像として取得する。そして、情報提供装置10は、撮影画像から、特徴点の特徴情報を抽出し、基準情報との比較を行い、準備段階においてランドマークを撮影した際の撮影装置の位置と向きとを、補正段階においてランドマークを撮影した際の撮影装置の位置と向きとに変換する基本行列を生成する。
Subsequently, the
例えば、情報提供装置10は、準備段階においてランドマークを撮影した撮影装置のカメラの内部パラメータを取得するとともに、補正段階においてランドマークを撮影した撮影装置のカメラの内部パラメータを取得する。そして、情報提供装置10は、類似基準特徴点座標の位置と、類似比較特徴点座標の位置と、各撮影装置の内部パラメータとを用いて、基本行列を推定し、基本行列を回転と平行移動の外部パラメータに分解する。そして、情報提供装置10は、外部パラメータを用いて、ランドマークの3次元形状を復元する。
For example, the
なお、基本行列の具体的な生成手法については、エピポーラ幾何を用いた生成手法等、既知の生成技術(例えば、“視覚の幾何学3 カメラキャリブレーション” 呉海元 和歌山大学 インターネット<http://web.wakayama-u.ac.jp/~wuhy/CV11.pdf> 令和1年8月26日検索)が採用可能であるものとして、詳細な説明を省略する。また、3次元形状の復元手法については、既知の復元技術(例えば、“写真画像から形状復元した3次元点群データによる構造物の変形把握” 一井 康二 広島大学 インターネット<http://www.jacic.or.jp/josei/pdf/2014_01.pdf> 令和1年8月26日検索や、各種ディープラーニングを用いた技術等)が採用可能であるものとして、詳細な説明を省略する。 As for the specific generation method of the basic matrix, known generation techniques such as the generation method using epipolar geometry (for example, "Visual Geometry 3 Camera Calibration" Wakayama University Internet <http: // web.wakayama-u.ac.jp/~wuhy/CV11.pdf> Search on August 26, 1st year of Wakayama), and detailed explanation is omitted. As for the 3D shape restoration method, known restoration technology (for example, "Understanding the deformation of the structure by the 3D point cloud data restored from the photographic image" Koji Ichii Hiroshima University Internet <http: // www. jacic.or.jp/josei/pdf/2014_01.pdf> August 26, 1st year of Reiwa Search, technology using various deep learning, etc.) can be adopted, and detailed explanation is omitted.
続いて、情報提供装置10は、生成されたランドマークの3次元形状から、ランドマークの中心点を特定する。例えば、情報提供装置10は、補正段階における撮影画像から撮影装置の視線方向を推定し、推定した視線方向とランドマークの3次元形状とが交わる位置をランドマークの中心点とする。そして、情報提供装置10は、中心点に対する撮影装置の相対位置と相対向きとを推定する。すなわち、情報提供装置10は、準備段階と補正段階とで、撮影者が中心点としたランドマークの位置がほぼ同じであるものとして、ランドマークの中心点を基準とした相対位置と相対向きとを推定する。
Subsequently, the
例えば、情報提供装置10は、リファレンス撮影位置とランドマークの中心点の距離を基準として、基本行列に基づき、準備段階における撮影装置とランドマークの中心点との距離のスケールを推定する。また、情報提供装置10、リファレンス撮影位置とランドマークの中心点とを結ぶ線と、補正段階における撮影装置とランドマークの中心点とを結ぶ線との間の角度を算出する。そして、情報提供装置10は、算出した距離および角度から、準備段階の撮影位置を基準として、補正段階における撮影装置の相対位置と相対向きとを推定する。
For example, the
例えば、図6は、実施形態に係る情報提供装置が案内情報の補正時において実行する処理の概要を示す図である。例えば、準備段階においてランドマークの撮影を行う撮影者が、位置PUから、ランドマークLMの中心と思われる位置を注視点とした画像を撮影する。続いて、補正段階において、利用者U1が、位置APから、ランドマークLMの中心と思われる位置を注視点とした画像を撮影する。 For example, FIG. 6 is a diagram showing an outline of processing executed by the information providing device according to the embodiment at the time of correction of guidance information. For example, a photographer who shoots a landmark in the preparation stage shoots an image from the position PU with the position considered to be the center of the landmark LM as the gazing point. Subsequently, in the correction stage, the user U1 takes an image from the position AP with the position considered to be the center of the landmark LM as the gazing point.
ここで、各画像において注視点となる位置が同一の位置CPである場合、生成される基本行列は、位置PPと位置APとを変換するとともに、位置CPを中心として、位置PPから位置CPへの向きと、位置APから位置CPへの向きとと変換させる行列と見做すことができる。そこで、情報提供装置10は、位置APから撮影された撮影画像から、中心となる位置CPを推定する。そして、情報提供装置10は、準備段階においても補正段階においても、位置CPが同一の位置であると仮定して、基本行列から、位置PPを基準とした位置APの相対位置、および、位置PPから位置CPへの向きを基準とした位置APから位置CPへの相対向きを推定する。
Here, when the positions to be the gazing points in each image are the same position CP, the generated basic matrix converts the position PP and the position AP, and at the same time, from the position PP to the position CP with the position CP as the center. It can be regarded as a matrix that transforms the direction of and the direction from the position AP to the position CP. Therefore, the
ここで、情報提供装置10は、地面に対して垂直な方向をY軸方向とし、地面に対して平行な面をXZ平面とした場合に、基本行列のうちY軸方向の情報を削減し、XZ平面上における相対位置と相対向きとを推定することで、計算量をさらに削減してもよい。すなわち、情報提供装置10は、準備段階と補正段階といて、撮影装置の地面に対する高さがほぼ同一であるものとして、相対位置と相対向きとの推定を行ってもよい。
Here, the
図5に戻り、説明を続ける。情報提供装置10は、ランドマークの設置位置と、リファレンス撮影位置と、推定した相対位置および相対向きから、ランドマークの中心を基準とした端末装置100の位置および向きを推定する。例えば、情報提供装置10は、リファレンス撮影位置と、推定した相対位置および相対向きから、ランドマークの中心を基準とした端末装置100の位置および向きを推定する。
Returning to FIG. 5, the explanation will be continued. The
なお、例えば、情報提供装置10は、準備段階において撮影装置がランドマークに対して所定の位置から所定の向きでランドマークを撮影したものとして、推定した相対位置および相対向きから、ランドマークの中心を基準とした端末装置100の位置および向きを推定してもよい。すなわち、情報提供装置10は、位置PPを基準とした位置APの相対位置、および、位置PPから位置CPへの向きを基準とした位置APから位置CPへの相対向きを、ランドマークの中心を基準とした相対位置および相対向きへと変換する。
For example, the
そして、情報提供装置10は、変換後の相対位置および相対向きと、基準情報における設置位置とリファレンス撮影位置とに基づいて、処理段階において提供した図面上における撮影装置の位置と向きとを特定し、特定した図面上における位置と向きとを提供する。このような処理の結果、端末装置100は、補正された案内情報を提供することができる。
Then, the
なお、上述した例では、情報提供装置10は、ランドマークの中心を注視点とした画像を取得していたが、実施形態は、これに限定されるものではない。例えば、ランドマークとなる対象物に、注視点とするよう予め報知されている物体(例えば、シール等のガイドや、ドアノブ等の物体)が存在している場合は、これらを注視点とした画像を撮影画像として取得すればよい。
In the above-mentioned example, the
〔1-8.生成処理のバリエーションについて〕
上述した例では、情報提供装置10は、撮影画像を用いた撮影装置の位置および向きの提供を行った。ここで、上述した説明は、あくまで一例であり、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する処理のバリエーションについて説明する。
[1-8. Variations on generation processing]
In the above-mentioned example, the
〔1-8-1.処理の自動判定〕
上述した説明では、情報提供装置10は、初期状態、すなわち、案内を開始する際に図面を撮影した撮影画像を取得し、補正時において、ランドマークを撮影した画像を取得した。ここで、情報提供装置10は、撮影画像に図面若しくはランドマークのいずれかが含まれているかを判定し、判定結果に応じて、上述した処理のうち実行対象とする処理を変更してもよい。
[1-8-1. Automatic judgment of processing]
In the above description, the
例えば、端末装置100は、図面を撮影する際とランドマークを撮影する際とで異なる撮影用ボタン等のUI(User Interface)を表示し、利用者が撮影に用いたUIに応じて、撮影画像に図面が撮影されているか、ランドマークが撮影されているかを情報提供装置10に通知してもよい。そして、情報提供装置10は、撮影画像に図面が撮影されている旨の通知を受付けた場合は、基準情報として図面から抽出された特徴点の情報と、撮影画像から抽出された特徴点の情報から、ホモグラフィー行列を生成し、生成したホモグラフィー行列を用いて、利用者の位置および向きを示す案内情報を生成してもよい。また、情報提供装置10は、撮影画像にランドマークが撮影されている旨の通知を受付けた場合は、基準情報として図面から抽出された特徴点の情報と、撮影画像から抽出された特徴点の情報から、基本行列を生成し、生成した基本行列を用いて、利用者の位置および向きを示す案内情報を生成してもよい。
For example, the
また、情報提供装置10は、撮影画像に含まれる特徴点を、図面から抽出された特徴点およびランドマークから抽出された特徴点と比較することで、撮影画像に図面が撮影されているか、ランドマークが撮影されているかを判定してもよい。例えば、情報提供装置10は、図面およびランドマークから予め抽出された特徴点のうち、撮影画像に含まれる特徴点と特徴量が最も類似する特徴点を検索する。そして、情報提供装置10は、最も多くの特徴量が類似すると判定された図面若しくはランドマークを、撮影画像に含まれる対象としてもよい。すなわち、情報提供装置10撮影画像に撮影された対象物が、所定の領域内に設置された図面であって、所定の領域を模式的に示す図面であるか、所定の領域内に設置された所定の設備であるかを判定し、対象物が図面であると判定された場合は、所定の領域内における撮影装置の位置と向きとを示す案内情報を生成し、対象物が所定の設備であると判定された場合は、所定の領域内における撮影装置の位置と向きとを補正した新たな案内情報を生成してもよい。
Further, the
また、情報提供装置10は、対象物が、図面および所定の設備以外の対象であるかをさらに判定し、対象物が図面および所定の設備以外の対象であると判定された場合は、図面若しくは所定の設備の撮影を示唆する示唆情報を生成してもよい。例えば、情報提供装置10は、あらかじめデータベースに登録された図面およびランドマークの特徴量のうち、撮影画像から抽出された特徴量と最も類似する特徴量を類似特徴量として検索する。続いて、情報提供装置10は、あらかじめデータベースに登録された図面およびランドマークごとに、類似特徴量の数を計数する。そして、情報提供装置10は、類似特徴量の数が所定の閾値を超える図面若しくはランドマークが存在しない場合は、対象物が図面および所定の設備以外の対象であると判定してもよい。また、情報提供装置10は、例えば、各図面およびランドマークから抽出された類似特徴量の数の分散を算出し、算出した分散が所定の閾値を超える場合は、対象物が図面および所定の設備以外の対象であると判定してもよい。
Further, the
このような場合、情報提供装置10は、例えば、「図面もしくはランドマークとなる対象物を撮影してください」といったメッセージを端末装置100に表示させてもよい。また、情報提供装置10は、ランドマークとなる対象物の名称(例えば、「看板」や「ドア」等)を示すメッセージを端末装置100に表示させてもよい。
In such a case, the
〔1-8-2.図面について〕
上述した例では、情報提供装置10は、撮影画像に含まれる図面上に、撮影装置の位置および向きを示す情報を重畳した案内情報を提供した。しかしながら、実施形態は、これに限定されるものではない。
[1-8-2. About drawings]
In the above-mentioned example, the
例えば、情報提供装置10は、撮影装置の位置および向きを示すテキストメッセージを生成し、生成したテキストメッセージを配信してもよい。例えば、情報提供装置10は、相対位置および相対向きから、撮影装置の緯度や経度、撮影装置の向きとなる方角を特定し、特定した情報を端末装置100に表示させてもよい。
For example, the
また、情報提供装置10は、利用者の位置から利用者の近傍に所在する店舗や施設を特定するとともに、利用者の向きに所在する店舗や施設を特定する。そして、情報提供装置10は、例えば、「現在、映画館の近傍で、キャンディーショップの方向を向いています」といったテキストや音声を出力させてもよい。
Further, the
また、情報提供装置10は、撮影した図面ではなく、予め登録された図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。例えば、情報提供装置10は、基準情報として、予め登録された図面上における対象物の設置位置およびリファレンス撮影位置の座標や図面の縮尺を保持しておく。そして、情報提供装置10は、撮影画像から撮影装置の相対位置および相対向きを推定し、推定した相対位置および相対向きと、図面の縮尺とから、予め登録された図面上における撮影装置の位置および向きを特定し、予め登録された図面上に特定した位置および向きを示す情報を重畳した案内情報を配信してもよい。
Further, the
なお、予め登録される図面は、対象物として設置された図面と同一の図面であってもよく、異なる図面であってもよい。例えば、情報提供装置10は、地下鉄の構内図等、領域を3次元的に示す図面(例えば、鳥瞰図、俯瞰図、パノラマ図、投影図等。以下「3次元図面」と総称する。)の撮影画像を取得した際に、領域を上方から2次元的に模式的に示した図面(例えば、上面図等。以下「2次元図面」と総称する。)上に撮影装置の位置および向きを重畳した案内情報を提供してもよい。
The drawing registered in advance may be the same drawing as the drawing installed as the object, or may be a different drawing. For example, the
例えば、情報提供装置10は、3次元図面から抽出された特徴点と、表示対象となる2次元図面上における3次元図面の設置位置およびリファレンス撮影位置を示す基準情報を保持する。続いて、情報提供装置10は、3次元図面が撮影された撮影画像を受付けると、撮影画像から相対位置および相対向きを推定し、推定した相対位置および相対向きと、基準情報の設置位置およびリファレンス撮影位置から、表示対象となる2次元図面上における撮影装置の位置および向きを推定する。そして、情報提供装置10は、2次元図面上に、撮影装置の位置および向きを示す情報を重畳した案内情報を提供する。なお、情報提供装置10は、2次元図面が撮影した撮影画像を受付けた場合に、3次元図面上に、撮影装置の位置および向きを示す情報を重畳した情報を提供してもよい。
For example, the
すなわち、情報提供装置10は、撮影対象となる対象物の特徴点に関する情報と、表示対象となる図面上における対象物の設置位置よびリファレンス撮影位置を示す情報とを基準情報として保持する。そして、情報提供装置10は、撮影画像から抽出された特徴点と基準情報の特徴点との比較結果から、撮影装置の相対位置および相対向きを推定し、推定した相対位置および相対向きと、基準情報の設置位置およびリファレンス撮影位置から、表示対象となる図面上における撮影装置の位置および向きを推定してもよい。
That is, the
なお、情報提供装置10は、設置位置およびリファレンス撮影位置として、緯度、経度、および方位が登録されている場合、相対位置および相対向きから、撮影装置の緯度、経度、および方向を特定する。そして、情報提供装置10は、例えば、地図や、図面上に、撮影装置の緯度、経度および方向を示す情報を重畳して表示してもよい。
When the latitude, longitude, and direction are registered as the installation position and the reference photographing position, the
また、列車や地下鉄のホームにおいては、駅の構内図が設置されていることが多いが、利用者によっては、駅の構外に所在する施設の情報を知りたい場合があると考えられる。例えば、地下鉄の駅において、東口と西口とが所在するが、地上のある施設に向かう際に、東口と西口とのいずれの方向へと向かえばよいかを知りたいといった要望が考えられる。そこで、情報提供装置10は、対象物として、地下に所在する施設の図面が撮影された画像を撮影画像として取得し、施設と同じ領域に所在する施設であって、地上に所在する施設の図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。
In addition, although train and subway platforms often have station yard maps, some users may want to know information about facilities located outside the station. For example, at a subway station, the east exit and the west exit are located, but when heading to a facility on the ground, there may be a desire to know which direction to go, the east exit or the west exit. Therefore, the
なお、情報提供装置10は、設置位置およびリファレンス撮影位置として、対象物が設置された緯度、経度を保持する。また、情報提供装置10は、表示対象となる図面として、地上の施設を模式的に示す図面と共に、図面の各位置における緯度、経度および方向を示す情報を保持する。続いて、情報提供装置10は、地下の構内図を撮影した撮影画像から、撮影装置の相対位置および相対向きを推定し、推定した相対位置および相対向きと、設置位置およびリファレンス撮影位置に基づいて、撮影装置の緯度、経度および方向を推定する。そして、情報提供装置10は、地上の施設を模式的に示す図面上に、撮影装置の緯度、経度および方向を示す情報を重畳した案内情報を提供してもよい。
The
また、情報提供装置10は、例えば、撮影された図面とはフロア違いの図面上に、撮影装置の位置および向きを示す情報を重畳して表示してもよい。例えば、情報提供装置10は、施設の1階に設置された図面の撮影画像を受付けるとともに、利用者が目的とする店舗の情報を受付ける。このような場合、情報提供装置10は、利用者が目的とする店舗の所在フロアを特定し、特定したフロアの図面上に、撮影装置の位置および向きを示す情報を重畳した案内情報を表示してもよい。
Further, the
なお、情報提供装置10は、撮影された図面を表示する場合、特徴点を用いて撮影された図面のトリミングを行ってもよく、表示サイズの変更を行ってもよい。また、情報提供装置10は、撮影された図面が鳥瞰図である場合、各方向の縮尺等を適宜修正してもよい。このような図面の各種補正は、例えば、準備段階において撮影された図面の情報に対し、補正内容や補正手法を示す情報を対応付けて記憶しておき、図面が撮影された際に、対応付けられた補正内容や補正手法を適用することで実現することができる。
When displaying the photographed drawing, the
〔1-8-3.撮影図面を用いる場合の処理〕
なお、情報提供装置10は、撮影画像に含まれる図面を表示する場合、利用者の相対位置および相対向きに基づいた処理を実行せずともよい。例えば、情報提供装置10は、撮影画像から抽出した特徴点と、基準情報の特徴点とを比較することで、ホモグラフィー行列を生成し、生成したホモグラフィー行列を用いて、撮影画像に含まれる図面を補正図面へと変更する。そして、情報提供装置10は、GPS等を用いて特定した利用者の位置および向きを示す情報を、補正図面上に重ねて表示してもよい。
[1-8-3. Processing when using a photographed drawing]
When displaying the drawing included in the captured image, the
すなわち、情報提供装置10は、撮影された画像に含まれる図面を正面から見たように補正し、補正した図面上に現在位置を重畳することできるのであれば、撮影画像から利用者の位置の推定等を行わずともよい。すなわち、情報提供装置10は、撮影された写真における地図領域を射影変換させてまるで地図データかのような画像を生成し、表示してもよい。
That is, if the
また、例えば、情報提供装置10は、撮影画像に含まれる特徴量と基準情報の特徴量(すなわち、予め撮影された図面の特徴量)との比較結果に基づいて、撮影画像に図面が含まれているか否かを判定し、含まれていると判定した場合は、撮影画像に含まれる図面若しくはその補正図面を表示するとともに、各種測位システムで測位した利用者の位置や向きを示す情報を重畳して表示してもよい。また、情報提供装置10は、利用者の位置を示す情報のみを重畳して表示してもよい。
Further, for example, the
〔1-8-4.適用対象〕
上述した例では、情報提供装置10は、各種施設内に設置された対象物の撮影画像から、相対位置及び相対向きの推定を行った。しかしながら、実施形態は、これに限定されるものではない。
[1-8-4. Applicable target]
In the above-mentioned example, the
例えば、情報提供装置10は、ショッピングモール等の施設のみならず、例えば、立体駐車場や平屋型のパーキング等に設置された対象物の撮影画像から、相対位置及び相対向きの推定を行ってもよい。また、情報提供装置10は、例えば、ナビゲーションシステムやドライブレコーダー等の車載装置が撮影した撮影画像から、車載装置の相対位置および向きを推定し、地図上における車載装置の位置および向きを示す情報を表示させてもよい。
For example, the
また、情報提供装置10は、例えば、各種のナビゲーションシステムを用いた案内中に、撮影された撮影画像に基づいて、撮影装置の位置および向きを補正する処理を実行してもよい。すなわち、情報提供装置10は、対象物を用いた利用者の位置および向きの推定のみを行ってもよく、位置および向きの補正のみを行ってもよい。
Further, the
〔1-8-5.案内について〕
なお、情報提供装置10は、撮影装置の位置および向きを示す案内情報を提供した後に、GPS等を用いた利用者の案内を行ってもよい。この際、情報提供装置10は、撮影された図面や補正図面を用いて、利用者の案内を行ってもよい。このような処理は、例えば、予め撮影された図面上の位置と実際の位置との対応を示す情報と、予め撮影された図面と撮影画像から抽出された図面との対応関係とを用いることで、実現可能である。
[1-8-5. Information]
The
なお、例えば、情報提供装置10は、利用者が階段の位置まで移動した場合、異なるフロアの画像を表示するようにしてもよい。例えば、情報提供装置10は、撮影画像から抽出した図面若しくは補正図面を用いて、案内を行うとともに、利用者が階段まで移動した場合は、予め準備された異なるフロアの図面を表示するといった処理を実行してもよい。
For example, the
〔1-8-6.対象物について〕
上述した例では、図面若しくはランドマークを用いて、利用者の相対位置や向きを推定していた。ここで、情報提供装置10は、ある1つの対象物を複数の方向から撮影した画像の情報をそれぞれ個別の基準情報として管理することで、立体物を用いた相対位置および相対向きの推定を行ってもよい。
[1-8-6. About the object]
In the above example, the relative position and orientation of the user were estimated using drawings or landmarks. Here, the
例えば、情報提供装置10は、ある物体を北側から撮影した画像を第1正面画像とし、特徴点の情報と、設置位置と共に、物体の北側となるリファレンス撮影位置を対応付けて記憶する。また、情報提供装置10は、ある物体を南側から撮影した画像を第2正面画像とし、特徴点の情報と、設置位置と共に、物体の南側となるリファレンス撮影位置を対応付けて記憶する。このような情報が登録されている場合、情報提供装置10は、ある物体を北側から撮影した撮影画像を受付けた場合は、撮影装置が物体の北側に所在するとともに、南側を向いていると推定し、ある物体を南側から撮影した撮影画像を受付けた場合は、撮影装置が物体の南側に所在するとともに、北側を向いていると推定することができる。
For example, the
〔1-8-7.その他〕
なお、上述した各種行列を用いた処理は、あくまで一例であり、情報提供装置10は、上述した手法以外にも、各種カメラキャリブレーション等の技術を用いて、撮影図面から撮影装置の相対位置および相対向きの推定を行ってもよい。また、情報提供装置10は、施設内のみならず、屋外等の任意の空間において撮影された撮影画像から上述した各種の処理を実行してもよい。
[1-8-7. others〕
The above-mentioned processing using various matrices is merely an example, and the
また、情報提供装置10は、準備段階および処理段階や補正段階において撮影された撮影画像のうち、対象物が撮影された範囲の特徴点のみならず、背景として撮影された対象物の特徴点を用いた処理を行ってもよい。すなわち、情報提供装置10は、撮影された画像のうち、特徴点の抽出元となる範囲を、対象物が含まれる範囲に限定する必要はなく、背景を含めた特徴点の抽出および比較を行い、これらの比較結果に基づいて、相対位置や相対向きの推定を行ってもよい。
Further, the
このように、情報提供装置10は、事前に取得されたデータと、撮影された画像から、撮影端末と空間の位置関係を算出し、撮影装置の位置を取得する。例えば、情報提供装置10は、事前に撮影された任意の空間画像から、局所特徴量算出によって得られた多次元ベクトルデータと空間基準点の位置を紐づけた参照データを保持する。また、情報提供装置10は、重畳対象となる地図の実寸サイズと縮尺率を保持する。そして、情報提供装置10は、相対位置および相対向きと、撮影された地図画像における地図設置座標と、事前に撮影した任意の空間の撮影された場所における地図画像上の座標から、撮影装置の位置および向きの推定を行えばよい。
In this way, the
〔2.情報提供装置の構成〕
以下、上記した情報提供装置10が有する機能構成の一例について説明する。図7は、実施形態に係る情報提供装置の構成例を示す図である。図7に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Configuration of information providing device]
Hereinafter, an example of the functional configuration of the above-mentioned
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100との間で情報の送受信を行う。
The communication unit 20 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 20 is connected to the network N by wire or wirelessly, and transmits / receives information to / from the
記憶部30は、対象物を所定の位置から撮影した画像である基準画像に基づく基準情報を記憶する。例えば、記憶部30は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、図面データベース31およびランドマークデータベース32を記憶する。なお、図面データベース31およびランドマークデータベース32に登録される情報は、例えば、対象物データベースとして同一のデータベース上に統合された状態で記憶されていてもよい。
The storage unit 30 stores reference information based on a reference image, which is an image of an object taken from a predetermined position. For example, the storage unit 30 is realized by a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. Further, the storage unit 30 stores the
以下、図8、9を用いて、記憶部30に登録される情報の一例を説明する。図面データベース31には、予め撮影された図面の特徴点に関する情報や、図面の設置位置等といった各種の基準情報が登録される。例えば、図8は、実施形態に係る図面データベースに登録される情報の一例を示す図である。図8に示すように、図面データベース31には、「領域ID(Identifier)」、「領域情報」、「図面ID」、「設置位置」、「リファレンス」、「特徴点座標」、および「特徴量」といった情報が対応付けて登録されている。
Hereinafter, an example of the information registered in the storage unit 30 will be described with reference to FIGS. 8 and 9. In the
ここで、「領域ID」とは、図面が設置された施設等の領域を識別するための識別子である。また、「領域情報」とは、図面が設置された領域の名称等といった情報である。また、「図面ID」とは、図面を識別するための識別子である。また、「設置位置」とは、図面の設置位置を示す情報である。また、「リファレンス」とは、図面のリファレンス撮影位置を示す情報である。また、「特徴点座標」とは、図面を撮影した画像から抽出された特徴点の座標を示す情報である。また、「特徴量」とは、特徴点に対応する特徴量を示す情報である。 Here, the "area ID" is an identifier for identifying an area such as a facility in which a drawing is installed. Further, the "area information" is information such as the name of the area in which the drawing is installed. The "drawing ID" is an identifier for identifying the drawing. Further, the "installation position" is information indicating the installation position of the drawing. Further, the "reference" is information indicating the reference shooting position of the drawing. Further, the "feature point coordinates" are information indicating the coordinates of the feature points extracted from the image obtained by taking the drawing. Further, the "feature amount" is information indicating the feature amount corresponding to the feature point.
例えば、図8に示す例では、図面データベース31には、領域ID「AID#1」、領域情報「領域#1」、図面ID「M#1」、設置位置「位置#M1」、リファレンス「リファレンス#M2」、特徴点座標「MFC#1-1」、および特徴量「MC#1-1」といった情報が登録されている。このような情報は、領域ID「AID#1」が示す領域の情報が「領域#1」であり、図面ID「M#1」が示す図面が、設置位置「位置#M1」が示す位置に、リファレンス「リファレンス#M2」が示す向きで設置されている旨を示す。また、このような情報は、予め図面が撮影された画像のうち特徴点座標「MFC#1-1」が示す位置から特徴量「MC#1-1」が示す特徴量が抽出される旨を示す。
For example, in the example shown in FIG. 8, the
ランドマークデータベース32には、予め撮影されたランドマークの特徴点に関する情報や、ランドマークの設置位置等といった各種の基準情報が登録される。例えば、図9は、実施形態に係るランドマークデータベースに登録される情報の一例を示す図である。図9に示すように、ランドマークデータベース32には、「領域ID」、「領域情報」、「設備ID」、「設置位置」、「リファレンス」、「特徴点座標」、および「特徴量」といった情報が対応付けて登録されている。なお、「設備ID」とは、ランドマークを識別するための識別子である。
In the
なお、図8、9に示す例では、「領域#1」、「位置#M1」、「リファレンス位置#M2」、「MFC#1-1」、「MC#1-1」といった概念的な値を記載したが、実際には、領域の名称を示す文字列、設置位置やリファレンス撮影位置となる緯度や経度を示す数値若しくは設置位置やリファレンス撮影位置となる図面上の座標、特徴点の座標となる数値、および特徴量となる多次元量(ベクトル)等が登録されることとなる。また、図面IDや設備IDを「対象物ID」として統合することで、図面データベース31およびランドマークデータベース32は、統合可能である。
In the examples shown in FIGS. 8 and 9, conceptual values such as "
図7に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報提供装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
Returning to FIG. 7, the explanation will be continued. The control unit 40 is a controller, and for example, various programs stored in a storage device inside the
図7に示すように、制御部40は、受付部41、補正部42、登録部43、取得部44、判定部45、推定部46、生成部47、および提供部48を有する。受付部41は、事前に登録される対象物を撮影した画像を受付ける。例えば、受付部41は、図面を正面から撮影した画像と、図面のサイズやアスペクト比を示す情報を受付ける。また、受付部41は、ランドマークを撮影した画像を受付ける。また、受付部41は、対象物の設置位置やリファレンス撮影位置を示す情報、および、上述した各種の処理を実行するために必要な情報(例えば、図面の縮尺等)の登録を受付ける。
As shown in FIG. 7, the control unit 40 includes a reception unit 41, a
補正部42は、対象物を撮影した画像を対象物を所定の位置から撮影した画像に補正する。例えば、補正部42は、対象物の縦横比を示す情報に基づいて、対象物を撮影した画像を補正する。より具体的には、補正部42は、画像から図面が撮影されている範囲を特定し、特定した範囲の形状と、図面のアスペクト比を示す情報とに基づいて、図面を正面から撮影したように、画像の補正を行う。
The
登録部43は、対象物を撮影した画像の特徴量を登録する。例えば、登録部43は、補正部42により補正された画像、若しくは、ランドマークが撮影された画像(以下、「基準画像」と記載する。)から複数の特徴点を抽出し、抽出した特徴点ごとに、特徴点座標と特徴量とを抽出する。そして、登録部43は、抽出した特徴点座標および特徴量と、対象物が設置された設置位置およびリファレンス撮影位置を対応付けて図面データベース31もしくはランドマークデータベース32に登録する。
The
取得部44は、所定の領域内に予め設置された対象物が撮影された撮影画像を取得する。例えば、取得部44は、撮影画像として、地下に所在する施設の図面等、所定の領域内に設置された図面であって、所定の領域を模式的に示す図面を対象物として撮影した撮影画像を取得する。また、取得部44は、撮影装置の位置や向きを補正する際には、案内情報が提供された後に、新たな対象物が撮影された撮影画像を取得することとなる。例えば、取得部44は、所定の領域内に設置された所定の設備、すなわち、ランドマークが撮影された撮影画像を取得する。
The
判定部45は、撮影画像に撮影された対象物が、所定の領域内に設置された図面であって、所定の領域を模式的に示す図面であるか、所定の領域内に設置された所定の設備であるかを判定する。例えば、判定部45は、端末装置100から、撮影画像と共に、図面を撮影した撮影画像であるか、ランドマークを撮影した画像(すなわち、位置と向きとの補正に用いる画像であるか)の情報を受付けた場合、受付けられた情報に基づいて、撮影画像に図面が撮影されているか、ランドマークが撮影されているかを判定してもよい。
The
また、例えば、判定部45は、撮影画像から特徴点座標および特徴量を抽出し、抽出した特徴量と、各データベース31、32に登録された特徴量との比較を行う。そして、判定部45は、対象物のうち、類似特徴量の数が最も多い対象物を、撮影対象であると判定してもよい。また、判定部45は、類似特徴量の数が所定の閾値を超えた対象物が存在しない場合や、分散が所定の閾値を超えた場合は、撮影された対象物が、図面若しくはランドマークではないと判定してもよい。
Further, for example, the
推定部46は、撮影画像に基づいて、撮影画像を撮影した撮影装置の対象物に対する位置である相対位置と、撮影装置の対象物に対する向きである相対向きとを推定する。例えば、推定部46は、撮影画像から抽出された特徴点に関する情報と、記憶部30に記憶された情報とを用いて、相対位置と相対向きとを推定する。すなわち、推定部46は、撮影画像に基づく画像情報と、記憶部30に記憶された基準画像の情報との比較結果に基づいて、相対位置と相対向きとを推定する。 Based on the captured image, the estimation unit 46 estimates the relative position, which is the position of the photographing device that captured the captured image with respect to the object, and the relative orientation, which is the orientation of the photographing device with respect to the object. For example, the estimation unit 46 estimates the relative position and the relative orientation by using the information about the feature points extracted from the captured image and the information stored in the storage unit 30. That is, the estimation unit 46 estimates the relative position and the relative orientation based on the comparison result between the image information based on the captured image and the information of the reference image stored in the storage unit 30.
例えば、推定部46は、判定部45により撮影対象が図面であると判定された場合は、以下の処理を実行する。まず、推定部46は、撮影画像から複数の特徴点を抽出し、抽出した特徴点の特徴点座標と特徴量とを抽出する。続いて、推定部46は、抽出した特徴量と図面データベース31に登録された特徴量との比較結果に基づいて、撮影画像に撮影された図面を推定する。なお、撮影画像に撮影された図面を推定する処理は、例えば、判定部45による判定時の結果を用いて実現されてもよい。
For example, when the
続いて、推定部46は、撮影対象と推定された図面の基準画像から抽出された特徴量と、撮影画像における特徴量とを比較し、特徴量が相互に類似する類似特徴点を抽出する。なお、推定部46は、撮影図面が撮影された画像から抽出された特徴量であって、図面が撮影された範囲から抽出された特徴量のみならず、背景が撮影された特徴量を比較対象としてもよい。そして、推定部46は、基準画像における類似特徴点の位置関係と、撮影画像における類似特徴点との位置関係とに基づいて、ホモグラフィー行列を生成する。すなわち、推定部46は、撮影画像に含まれる特徴点の位置を、基準画像に含まれる特徴点のうち特徴量が類似する特徴点の位置へと変換する変換行列を生成する。 Subsequently, the estimation unit 46 compares the feature amount extracted from the reference image of the drawing estimated as the object to be photographed with the feature amount in the photographed image, and extracts similar feature points having similar feature amounts to each other. In addition, the estimation unit 46 is a feature amount extracted from the image in which the photographed drawing was photographed, and is a comparison target not only the feature amount extracted from the range in which the drawing was photographed but also the feature amount in which the background was photographed. May be. Then, the estimation unit 46 generates a homography matrix based on the positional relationship between the similar feature points in the reference image and the positional relationship between the similar feature points in the captured image. That is, the estimation unit 46 generates a transformation matrix that converts the positions of the feature points included in the captured image into the positions of the feature points having similar feature amounts among the feature points included in the reference image.
そして、推定部46は、生成したホモグラフィー行列に基づいて、相対位置と相対向きとを推定する。例えば、推定部46は、ホモグラフィー行列から、図面の設置位置を相対位置に変換する第1行列と、図面の正面を相対向きに変換する第2行列とを生成する。そして、推定部46は、生成した第1行列と第2行列とから、相対位置と相対向きとを推定する。 Then, the estimation unit 46 estimates the relative position and the relative orientation based on the generated homography matrix. For example, the estimation unit 46 generates from the homography matrix a first matrix that converts the installation position of the drawing into a relative position and a second matrix that converts the front surface of the drawing into a relative direction. Then, the estimation unit 46 estimates the relative position and the relative orientation from the generated first matrix and second matrix.
一方、推定部46は、判定部45により撮影対象がランドマークであると判定された場合は、以下の処理を実行する。まず、推定部46は、撮影画像から複数の特徴点を抽出し、抽出した特徴点の特徴点座標と特徴量とを抽出する。続いて、推定部46は、抽出した特徴量とランドマークデータベース32に登録された特徴量との比較結果に基づいて、撮影画像に撮影されたランドマークを推定する。なお、撮影画像に撮影されたランドマークを推定する処理は、例えば、判定部45による判定時の結果を用いて実現されてもよい。
On the other hand, when the
続いて、推定部46は、撮影対象と推定されたランドマークの基準画像から抽出された特徴量と、撮影画像における特徴量とを比較し、特徴量が相互に類似する類似特徴点を抽出する。そして、推定部46は、基準画像における類似特徴点の位置関係と、撮影画像における類似特徴点との位置関係とに基づいて、基本行列を生成し、生成した基本行列に基づいて、ランドマークの立体形状を復元する。 Subsequently, the estimation unit 46 compares the feature amount extracted from the reference image of the landmark estimated to be the object to be photographed with the feature amount in the photographed image, and extracts similar feature points having similar feature amounts to each other. .. Then, the estimation unit 46 generates a basic matrix based on the positional relationship between the similar feature points in the reference image and the similar feature points in the captured image, and based on the generated basic matrix, the landmark Restore the three-dimensional shape.
続いて、推定部46は、撮影画像における注視線と、ランドマークの立体形状との交点、例えば、ランドマークの中心点を特定し、特定したランドマークの中心点に対する相対位置と相対向きとを推定する。より具体的には、推定部46は、ランドマークの中心点と基本行列とを用いて、基準画像を撮影した撮影位置基準の相対的な位置と、基準画像を撮影した撮影向き基準の相対的な向きとを推定する。そして、推定部46は、基準画像を撮影した際の撮影位置および撮影向きと、基準画像を撮影した撮影位置基準の相対的な位置と、基準画像を撮影した撮影向き基準の相対的な向きとに基づいて、ランドマークの中心基準の相対位置および相対向きを推定する。なお、推定部46は、基準画像を撮影した際の撮影位置および撮影向きとについては、実測値ではなく、推定若しくは想定されうる情報を採用してもよい。 Subsequently, the estimation unit 46 identifies the intersection of the line of sight in the captured image and the three-dimensional shape of the landmark, for example, the center point of the landmark, and determines the relative position and the relative direction with respect to the center point of the identified landmark. presume. More specifically, the estimation unit 46 uses the center point of the landmark and the elementary matrix to be used, and the relative position of the shooting position reference in which the reference image is taken and the relative position of the shooting orientation reference in which the reference image is taken. Estimate the orientation. Then, the estimation unit 46 determines the shooting position and shooting direction when the reference image is shot, the relative position of the shooting position reference for shooting the reference image, and the relative orientation of the shooting orientation reference for shooting the reference image. Estimates the relative position and orientation of the landmark's center reference based on. The estimation unit 46 may adopt information that can be estimated or assumed for the shooting position and shooting direction when the reference image is shot, instead of the measured values.
すなわち、推定部46は、対象物が撮影された撮影画像に基づいて、新たな対象物の三次元形状を復元し、復元した三次元形状を用いて、相対位置と相対向きとを推定する。例えば、推定部46は、復元された対象物の三次元形状のうち所定の位置を基準とした撮影装置の位置と向きとを相対位置と相対向きとして推定する。 That is, the estimation unit 46 restores the three-dimensional shape of the new object based on the captured image of the object, and estimates the relative position and the relative orientation using the restored three-dimensional shape. For example, the estimation unit 46 estimates the position and orientation of the photographing apparatus with respect to a predetermined position in the restored three-dimensional shape of the object as a relative position and a relative orientation.
生成部47は、相対位置および相対向きに基づいて、所定の領域内における撮影装置の位置と向きとを示す案内情報を生成する。例えば、生成部47は、所定の領域内において対象物が設置された位置と、相対位置とに基づいて、所定の領域内における撮影装置の位置を推定し、推定した位置を示す案内情報を生成する。また、生成部47は、リファレンス撮影位置と、相対向きとに基づいて、所定の領域内における撮影装置の向きを推定し、推定した位置を示す案内情報を生成する。ここで、所定の領域内における撮影装置の位置や向きとは、緯度、経度若しくは方位といった情報以外にも、例えば、表示対象となる図面上における位置や向きを含む概念である。
The
例えば、生成部47は、推定部46により推定された相対位置および相対向きと、撮影対象となった図面の設置位置およびリファレンス撮影位置とに基づいて、表示対象となる地図上における撮影装置の位置および向きを特定する。そして、生成部47は、図面上に撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成する。
For example, the
なお、生成部47は、撮影画像に含まれる図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。例えば、生成部47は、図面を所定の方向から撮影したように撮影画像に含まれる図面を補正した補正図面を生成する。
The
より具体的な例を挙げると、生成部47は、図面を所定の位置から撮影した画像である基準画像から抽出された特徴量と、撮影画像から抽出された特徴量との比較結果に基づいて、ホモグラフィー行列を生成し、生成したホモグラフィー行列を用いて、補正図面を生成してもよい。すなわち、生成部47は、図面データベース31に登録された情報と、撮影画像に基づく情報との比較結果に基づいて、補正図面を生成してもよい。なお、生成部47は、例えば、推定された相対位置および相対向きに基づいて、補正図面を生成してもよい。
To give a more specific example, the
また、生成部47は、推定された相対位置と相対向きとに基づいて、撮影装置の位置と向きとを補正図面上の座標に変換する。そして、生成部47は、補正図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。
Further, the
なお、生成部47は、撮影画像に含まれる図面とは異なる図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。例えば、生成部47は、予め登録された図面上に撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。
The
また、例えば、生成部47は、撮影画像に含まれる図面が所定の領域を上方から模式的に示した図面ではない場合は、所定の領域を上方から模式的に示す図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。また、生成部47は、施設と同じ領域に所在する施設であって、地上に所在する施設の図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。また、生成部47は、撮影装置の位置と向きとともに、撮影装置を利用する利用者が予め設定した目的地までの案内方向を示す案内情報を生成してもよい。
Further, for example, when the drawing included in the captured image is not a drawing schematically showing a predetermined area from above, the
また、生成部47は、ランドマークに対する相対位置と相対向きとに基づいて、所定の領域内における撮影装置の位置と向きとを補正した新たな案内情報を生成してもよい。例えば、生成部47は、ランドマークに対する相対位置と相対向きとに基づいて、配信済みの図面上における撮影装置の位置および向きを特定し、特定した位置および向きを示す情報を案内情報として生成してもよい。
Further, the
なお、生成部47は、対象物が図面および所定の設備以外の対象であると判定された場合は、図面若しくは所定の設備の撮影を示唆する示唆情報を生成する。例えば、生成部47は、「図面若しくはランドマークを撮影してください。」といったメッセージを含む示唆情報を生成してもよい。
When it is determined that the object is an object other than the drawing and the predetermined equipment, the
提供部48は、生成された案内情報や示唆情報を端末装置100へと提供する。このような処理の結果、提供部48は、利用者の位置や向きを示す案内情報を端末装置100に表示させることができる。
The providing
〔3.端末装置の構成〕
次に、図10を用いて、端末装置100の構成の一例について説明する。図10は、実施形態に係る端末装置の構成例を示す図である。図10に示すように、端末装置100は、通信部120、記憶部130、カメラ140、画面150、GPSアンテナ160、センサ170、および制御部180を有する。
[3. Configuration of terminal device]
Next, an example of the configuration of the
通信部120は、例えば、NIC等によって実現され、ネットワークNと有線または無線で接続され、情報提供装置10との間で情報の送受信を行う。記憶部130は、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、端末装置100が実行する各種のアプリケーションのデータや、アプリケーションに用いられる各種のデータが登録される。
The communication unit 120 is realized by, for example, a NIC or the like, is connected to the network N by wire or wirelessly, and transmits / receives information to / from the
カメラ140は、所謂撮影装置であり、各種の半導体受光素子を用いたデジタルカメラ等により実現される。画面150は、各種の情報を表示可能な画面であり、例えば、各種液晶ディスプレイにより実現される。なお、画面150がタッチパネルにより実現される場合、画面150は、利用者からの操作を受付ける入力装置としても動作することとなる。GPSアンテナ160は、GPS信号を受信するためのアンテナである。また、センサ170は、加速度センサやジャイロセンサ等、各種のセンサ装置である。
The
制御部180は、コントローラであり、例えば、CPU、MPU等のプロセッサによって、端末装置100内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部180は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現されてもよい。
The control unit 180 is a controller, and is realized by, for example, using a processor such as a CPU or MPU to execute various programs stored in a storage device inside the
ここで、制御部180は、複数のアプリケーションを実行することにより、端末装置100に関する各種機能を実現することとなる。例えば、図10に示す例では、制御部180は、第1アプリケーション181や第2アプリケーション182を実行している。なお、制御部180は、図10に示すアプリケーション以外にも、任意の機能を発揮するための任意の数のアプリケーションを実行して良い。例えば、制御部180は、端末装置100に対する操作の入力を受付けたり、画面150に各種の情報を表示するためのアプリケーションとして、所謂OS(Operating System)と呼ばれるアプリケーションを実行してもよい。また、制御部180は、各種サービスを提供するためのアプリケーションを実行してもよい。
Here, the control unit 180 realizes various functions related to the
ここで、制御部180は、上述した生成処理により生成された案内情報を表示したり、案内情報の更新を行うためのアプリケーションとして、案内アプリケーション183を実行する。例えば、案内アプリケーション183を実行した場合、制御部180は、撮影部184、表示制御部185、位置特定部186、および更新部187といった機能を有することとなる。
Here, the control unit 180 executes the guidance application 183 as an application for displaying the guidance information generated by the above-mentioned generation process and updating the guidance information. For example, when the guidance application 183 is executed, the control unit 180 has functions such as a photographing
撮影部184は、カメラ140を用いて、図面やランドマーク等の対象物を撮影した撮影画像を撮影する。例えば、撮影部184は、アプリケーションの起動時等において、画面150にカメラ140が撮影している対象物を表示するとともに、撮影ボタンを表示させる。そして、撮影部184は、利用者が撮影ボタンを選択した場合は、カメラ140に画像を撮影させ、撮影された画像を撮影画像として情報提供装置10へと送信するとともに、対象物が図面である旨の通知を送信する。
The photographing
なお、撮影部184は、例えば、画面150に表示された更新ボタンを利用者が選択した場合は、図面を撮影した際と同様の処理を行う。そして、撮影部184は、利用者が撮影ボタンを選択した場合は、カメラ140に画像を撮影させ、撮影された画像を撮影画像として情報提供装置10へと送信するとともに、対象物がランドマークである旨の通知を送信する。
When the user selects the update button displayed on the screen 150, for example, the photographing
表示制御部185は、各種の表示制御を行う。例えば、表示制御部185は、撮影ボタンの表示や、カメラ140が撮影している対象物の画像等を画面150に表示させる。また、表示制御部185は、情報提供装置10から案内情報を受付けた場合は、受付けた案内情報を画面150に表示させるとともに、位置特定部186や更新部187から通知される位置や向きに応じて、撮影装置(すなわち、端末装置100)の位置や向きを示す情報の更新を行う。すなわち、表示制御部185は、図面に重畳されたアイコンの位置や向きを更新する。
The
位置特定部186は、端末装置100の位置や向きを特定する。例えば、位置特定部186は、センサ170が検出した加速度や向き等に応じて、端末装置100が移動した方向や移動距離、端末装置100の向き等を推定し、推定した情報を表示制御部185に通知する。このような場合、表示制御部185は、受信した情報に基づいて、図面に重畳されたアイコンの位置や向きを更新する。なお、このような処理は、例えば、地図上における端末装置100の位置や向きを測位信号や各種センサ170のセンシング結果に基づいて更新する各種の公知技術が採用可能であるものとする。
The
更新部187は、更新処理により更新された端末装置100の位置や向きを取得する。例えば、更新部187は、情報提供装置10がランドマークとの相対位置および相対向きに基づいて推定した端末装置100の位置および向きを取得する。このような場合、更新部187は、取得した位置および向きを表示制御部185に通知し、図面に重畳されたアイコンの位置や向きを更新させる。
The
ここで、図11を用いて、案内アプリケーション183が端末装置100の画面150に表示させるコンテンツの一例について説明する。図11は、実施形態に係る端末装置が表示する画面の一例を示す図である。例えば、端末装置100は、図面の撮影を行う撮影段階においては、カメラ140が撮影している画像(例えば、対象物である図面や図面が配置された看板の像)と共に、撮影ボタンSBを表示する。続いて、端末装置100は、撮影ボタンSBがタップされた場合は、カメラ140が撮影している画像を撮影画像として情報提供装置10へと送信し、撮影された図面上における端末装置100の位置および向きを示す案内情報を取得する。
Here, an example of the content to be displayed on the screen 150 of the
そして、端末装置100は、利用者の案内を行う案内段階においては、受信した案内情報を表示することで、端末装置100の位置および向きを利用者に示す。また、端末装置100は、測位信号や各種のセンシング結果に基づいて、図面に重畳されたアイコンの位置や向きを更新することで、端末装置100の位置および向きを逐次利用者に示す。
Then, the
ここで、端末装置100は、案内段階においては、案内情報と共に、端末装置100の位置および向きを更新するための更新ボタンUBを表示する。そして、端末装置100は、利用者が更新ボタンUBを選択した場合は、端末装置100の位置および向きを更新する更新段階へと移行する。より具体的には、端末装置100は、撮影段階と同様に、カメラ140が撮影している画像(例えば、ランドマークとなるドアの画像)と共に、撮影ボタンSBを表示する。そして、端末装置100は、利用者が撮影ボタンSBを選択した場合は、撮影画像を情報提供装置10へと送信するとともに、更新された端末装置100の位置および向きの情報を取得する。その後、端末装置100は、案内段階へと移行し、図面上に重畳されたアイコンの位置や向きを、更新された端末装置100の位置および向きの情報に従って、更新する。
Here, in the guidance stage, the
〔4.情報提供装置が実行する処理の流れの一例〕
続いて、図12を用いて、情報提供装置10が実行する処理の流れについて説明する。図12は、実施形態に係る情報提供装置が実行する処理の流れの一例を示すフローチャートである。
[4. An example of the flow of processing executed by the information providing device]
Subsequently, the flow of processing executed by the
まず、情報提供装置10は、端末装置100から撮影画像を取得したか否かを判定し(ステップS101)、取得していない場合は(ステップS101:No)、取得するまで待機する。そして、情報提供装置10は、撮影画像を取得した場合は(ステップS101:Yes)、撮影画像に図面が含まれるか否かを判定する(ステップS102)。
First, the
続いて、情報提供装置10は、撮影画像に図面が含まれる場合は(ステップS102:Yes)、撮影画像の特徴量と、基本情報の特徴量との比較結果に基づいて、図面に対する撮影装置の相対位置と相対向きとを推定する(ステップS103)。また、情報提供装置10は、撮影画像に含まれる図面を正面から見た図面に補正する(ステップS104)。そして、情報提供装置10は、補正図面上に、撮影装置の位置と向きとを示す情報を重ねた案内情報を生成する(ステップS105)。なお、情報提供装置10は、ステップS103、S104を任意の順で実行して良い。そして、情報提供装置10は、生成した案内情報を端末装置100に提供し(ステップS106)、処理を終了する。
Subsequently, when the captured image includes a drawing (step S102: Yes), the
一方、情報提供装置10は、撮影画像に図面が含まれない場合は(ステップS102:No)、撮影画像の特徴量と、基本情報の特徴量との比較結果に基づいて、ランドマークに対する撮影装置の相対位置と相対向きとを推定する(ステップS107)。そして、情報提供装置10は、地図上における撮影装置の位置と向きとを補正した新たな案内情報を生成し(ステップS108)、ステップS106を実行する。
On the other hand, when the captured image does not include the drawing (step S102: No), the
〔5.変形例〕
上記では、情報提供装置10による処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する処理のバリエーションについて説明する。
[5. Modification example]
In the above, an example of the processing by the
〔5-1.実行主体〕
上述した例では、情報提供装置10は、端末装置100から取得した撮影画像を用いて、生成処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、上述した生成処理は、端末装置100がスタンドアローンで実行してもよい。例えば、端末装置100は、図10に示す記憶部130内に、図7に示す図面データベース31およびランドマークデータベース32を有し、図10に示す案内アプリケーション183を実行することで、図7に示す取得部44、判定部45、推定部46、生成部47と同様の機能を発揮してもよい。
[5-1. Execution subject]
In the above-mentioned example, the
〔5-2.その他〕
また、情報提供装置10は、リファレンス撮影位置に代えて、対象物の向き(例えば、図面に対して垂直な方向である図面の向きや、ランドマークの向き等)を示す情報を基準情報としてもよい。また、情報提供装置10は、準備段階において対象物の正面から対象物を撮影するのであれば、リファレンス撮影位置と対象物の設置位置とから、対象物の向きを推定し、推定した向きから、撮影装置の向きおよび位置を推定してもよい。
[5-2. others〕
Further, the
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, and conversely, the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured.
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.
〔5-3.プログラム〕
また、上述した実施形態に係る情報提供装置10は、例えば図13に示すような構成のコンピュータ1000によって実現される。図13は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5-3. program〕
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF 1080 receives data from another device via the network N and sends it to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
For example, when the
〔6.効果〕
上述したように、情報提供装置10は、所定の領域内に予め設置された対象物(例えば、地図等の各種図面や設備等のランドマーク)が撮影された撮影画像を取得する。なお、情報提供装置10は、図面やランドマーク以外にも、床や天井、対象物の遠方に配置された木々等の背景が含まれる撮影画像を取得してもよい。このような場合、情報提供装置10は、撮影画像に基づいて、撮影画像を撮影した撮影装置の対象物に対する位置である相対位置と、撮影装置の対象物に対する向きである相対向きとを推定する。例えば、情報提供装置10は、各種のカメラキャリブレーションの手法を用いて、相対位置および相対向きを推定する。そして、情報提供装置10は、相対位置および相対向きに基づいて、所定の領域内における撮影装置の位置と向きとを示す案内情報を生成する。
[6. effect〕
As described above, the
例えば、情報提供装置10は、所定の領域内において対象物が設置された位置と、相対位置とに基づいて、所定の領域内における撮影装置の位置を推定し、推定した位置を示す案内情報を生成する。また、情報提供装置10は、所定の領域内における対象物を予め撮影した撮影装置の位置と、相対向きとに基づいて、所定の領域内における撮影装置の向きを推定し、推定した位置を示す案内情報を生成する。
For example, the
このような処理の結果、情報提供装置10は、対象物を撮影するだけで、端末装置100等の撮影装置、ひいては撮影装置を利用する利用者の位置および向きを推定し、推定した位置および向きを提供することができる。このため、情報提供装置10は、利用者の現在位置のみならず、現在の利用者の向きを高精度で推定し、推定した位置および向きを示すことができるので、利用者を適切に案内することができる。
As a result of such processing, the
また、一般に、地下鉄のホームやショッピングモール内において、案内を行うためのアプリケーションを立ち上げるといった習慣が利用者に無くとも、情報提供装置10は、端末装置100を用いて図面等の対象物を撮影するだけで、利用者の位置および向きを示すことができるので、利用者の手間を削減することができる。さらに、情報提供装置10は、利用者に現在の向きを示すことで、利用者に目的地までの方向を示唆することができるので、例えば、端末装置100を見続けながらホームを移動するといった行為を防ぐことができるので、利用者の安全性を確保することができる。
Further, in general, even if the user does not have the habit of launching an application for providing guidance in a subway platform or a shopping mall, the
また、情報提供装置10は、対象物を所定の位置から撮影した画像である基準画像に基づく基準情報を記憶し、撮影画像に基づく画像情報と、記憶部に記憶された基準情報との比較結果に基づいて、相対位置と相対向きとを推定する。このため、情報提供装置10は、高精度に利用者の相対位置および相対向きの推定を行うことができるとともに、これら相対位置および相対向きから推定される撮影装置の位置および向きの精度を向上させることができる。
Further, the
また、情報提供装置10は、対象物を撮影した画像を対象物を所定の位置から撮影した画像に補正し、基準情報として、補正部により補正された画像に基づく情報を記憶する。例えば、情報提供装置10は、対象物の縦横比を示す情報に基づいて、対象物を撮影した画像を補正する。このため、情報提供装置10は、相対位置と相対向きとの推定精度をさらに向上させることができる。
Further, the
また、情報提供装置10は、基準情報として、基準画像に含まれる特徴点に関する情報を記憶し、撮影画像から抽出された特徴点に関する情報と、記憶部に記憶された情報とを用いて、相対位置と相対向きとを推定する。例えば、情報提供装置10は、基準画像に含まれる特徴点の位置を示す情報と、各特徴点における特徴を示す特徴量とを記憶し、撮影画像に含まれる特徴点の位置を、基準画像に含まれる特徴点のうち特徴量が類似する特徴点の位置へと変換する変換行列を生成し、生成した変換行列に基づいて、相対位置と相対向きとを推定する。例えば、情報提供装置10は、変換行列から、所定の位置を相対位置に変換する第1行列と、所定の位置から対象物への向きを相対向きに変換する第2行列とを生成し、第1行列と第2行列とから、相対位置と相対向きとを推定する。
Further, the
このように、情報提供装置10は、画像から抽出される特徴量を用いたカメラキャリブレーションの技術を用いて、撮影装置の相対位置および相対向きを推定する。このため、情報提供装置10は、適切に相対位置および相対向きを推定することができる。
In this way, the
また、情報提供装置10は、撮影画像として、所定の領域内に設置された図面であって、所定の領域を模式的に示す図面を対象物として撮影した画像を取得し、撮影装置の図面に対する相対位置と相対向きとを推定する。このため、情報提供装置10は、例えば、各種の施設に設置された施設の構内図や地図を撮影するだけで、利用者の施設における位置および向きを示すことができる。
Further, the
また、情報提供装置10は、案内情報が提供された後に、新たな対象物が撮影された撮影画像を取得し、撮影装置の新たな対象物に対する相対位置と相対向きとを推定し、新たな対象物に対する相対位置と相対向きとに基づいて、所定の領域内における撮影装置の位置と向きとを補正した新たな案内情報を生成する。例えば、情報提供装置10は、新たな対象物として、所定の領域内に設置されたドア等の所定の設備が撮影された撮影画像を取得する。このため、情報提供装置10は、新たな対象物を用いた利用者の位置および向きの補正を実現することができる。
Further, the
また、情報提供装置10は、新たな対象物が撮影された撮影画像に基づいて、新たな対象物の三次元形状を復元し、復元した三次元形状を用いて、相対位置と相対向きとを推定する。そして、情報提供装置10は、復元された新たな対象物の三次元形状のうち所定の位置を基準とした撮影装置の位置と向きを相対位置と相対向きとして推定する。このため、情報提供装置10は、例えば、施設内において補正に用いる対象物を所定の位置から撮影した撮影画像を収集するだけで、利用者の位置および向きを補正可能な地点を増やすことができる。
Further, the
また、情報提供装置10は、撮影画像に撮影された対象物が、所定の領域内に設置された図面であって、所定の領域を模式的に示す図面であるか、所定の領域内に設置された所定の設備であるかを判定し、対象物が図面であると判定された場合は、所定の領域内における撮影装置の位置と向きとを示す案内情報を生成し、対象物が所定の設備であると判定された場合は、所定の領域内における撮影装置の位置と向きとを補正した新たな案内情報を生成してもよい。このような処理の結果、情報提供装置10は、撮影対象に応じて、案内情報の新規生成、若しくは、案内情報の更新のうち、適切な処理を自動的に実行することができる。
Further, the
また、情報提供装置10は、対象物が、図面および所定の設備以外の対象であるかをさらに判定し、対象物が図面および所定の設備以外の対象であると判定された場合は、図面若しくは所定の設備の撮影を示唆する示唆情報を生成する。このため、情報提供装置10は、撮影画像に図面やランドマーク等の対象物が適切に撮影されていない場合に、利用者に対し、対象物を撮影するように促すことができる。
Further, the
また、情報提供装置10は、所定の領域を模式的に示す図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。また、情報提供装置10は、対象物として、所定の領域を模式的に示す図面が撮影された画像を撮影画像として取得し、撮影画像に含まれる図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。また、情報提供装置10は、対象物として、所定の領域を模式的に示す図面が撮影された画像を撮影画像として取得し、撮影画像に含まれる図面とは異なる図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。
Further, the
例えば、情報提供装置10は、撮影画像に含まれる図面が所定の領域を上方から模式的に示した図面ではない場合は、所定の領域を上方から模式的に示す図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。また、情報提供装置10は、対象物として、地下に所在する施設の図面が撮影された画像を撮影画像として取得し、施設と同じ領域に所在する施設であって、地上に所在する施設の図面上に、撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成してもよい。
For example, when the drawing included in the captured image is not a drawing schematically showing a predetermined area from above, the
このように、情報提供装置10は、利用者の状況に応じて、案内する際に適切であると推定されうる各種の図面上に、利用者の位置および向きを示す情報を重畳して提供することができるので、利用者を適切に案内することができる。
In this way, the
また、情報提供装置10は、撮影装置の位置と向きとともに、撮影装置を利用する利用者が予め設定した目的地までの案内方向を示す案内情報を生成してもよい。このような処理の結果、情報提供装置10は、利用者を目的地まで適切に案内することができる。
Further, the
また、情報提供装置10は、所定の領域内に設置された図面であって、領域を模式的に示す図面が撮影された撮影画像を取得し、撮影画像に含まれる図面に、撮影画像を撮影した撮影装置の領域内における位置を示す情報を重畳した案内情報を生成する。このような処理の結果、情報提供装置10は、利用者が閲覧し、撮影した図面上に、利用者の位置を示す情報を重畳して提供することができるので、容易に利用者の現在位置を認識させることができる。また、このような図面上に利用者の位置を示す情報を重畳した場合、利用者は、任意のタイミングで配信されるような地図や図面よりも容易に自身の向きを特定することができる。このため、情報提供装置10は、利用者を適切に案内することができる。
Further, the
また、上述したように、情報提供装置10は、撮影装置の領域内における位置と向きとを示す情報を重畳した案内情報を生成する。また、情報提供装置10は、図面を所定の方向から撮影したように撮影画像に含まれる図面を補正した補正図面を生成し、生成した補正図面に撮影装置の位置を示す情報を重畳した案内情報を生成する。また、情報提供装置10は、図面を所定の位置から撮影した画像である基準画像に基づく基準情報を記憶し、撮影画像に含まれる図面に基づく画像情報と、記憶部に記憶された基準情報との比較結果に基づいて、補正図面を生成する。
Further, as described above, the
また、情報提供装置10は、対象物を撮影した画像を対象物を所定の位置から撮影した画像に補正し、基準情報として、補正部により補正された画像に基づく情報を記憶する。また、情報提供装置10は、対象物の縦横比を示す情報に基づいて、対象物を撮影した画像を補正する。また、情報提供装置10は、画像情報と、基準情報との比較結果に基づいて、撮影画像を撮影した撮影装置の図面に対する位置である相対位置と、撮影装置の図面に対する向きである相対向きとを推定し、相対位置と相対向きとに基づいて、補正図面を生成する。また、情報提供装置10は、相対位置と相対向きとに基づいて、撮影装置の位置と向きとを図面上の座標に変換し、変換後の座標を用いて、案内図面を生成する。
Further, the
このような各処理の結果、情報提供装置10は、撮影対象となる図面を適切な態様で提供するとともに、このような図面上における利用者の位置や向きを示すことができるので、利用者を適切に案内することができる。
As a result of each of these processes, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、付与部は、特定手段や特定回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the imparting unit can be read as a specific means or a specific circuit.
10 情報提供装置
20、120 通信部
30、130 記憶部
31 図面データベース
32 ランドマークデータベース
40、180 制御部
41 受付部
42 補正部
43 登録部
44 取得部
45 判定部
46 推定部
47 生成部
48 提供部
100 端末装置
140 カメラ
150 画面
160 GPSアンテナ
170 センサ
183 案内アプリケーション
184 撮影部
185 表示制御部
186 位置特定部
187 更新部
10 Information provider 20, 120 Communication unit 30, 130
Claims (24)
前記撮影画像に基づいて、当該撮影画像を撮影した撮影装置の前記対象物に対する位置である相対位置と、当該撮影装置の前記対象物に対する向きである相対向きとを推定する推定部と、
前記相対位置および前記相対向きに基づいて、前記所定の領域内を模式的に示す図面上に、前記相対位置を示す情報と、前記相対向きを示す情報とを重畳した案内情報を生成する生成部と
を有することを特徴とする生成装置。 An acquisition unit that acquires a captured image of an object installed in advance in a predetermined area, and an acquisition unit.
Based on the captured image, an estimation unit that estimates the relative position of the imaging device that captured the captured image with respect to the object and the relative orientation of the imaging device with respect to the object . When,
A generation unit that generates guidance information in which information indicating the relative position and information indicating the relative orientation are superimposed on a drawing schematically showing the inside of the predetermined region based on the relative position and the relative orientation. A generator characterized by having and.
ことを特徴とする請求項1に記載の生成装置。 The generation unit estimates the position of the photographing apparatus in the predetermined area based on the position where the object is installed in the predetermined area and the relative position, and guides the estimated position. The generator according to claim 1, wherein the generator is characterized by generating information.
ことを特徴とする請求項1または2に記載の生成装置。 The generation unit estimates the orientation of the photographing apparatus in the predetermined region based on the position of the photographing apparatus in which the object is photographed in advance and the relative orientation, and generates guidance information indicating the estimated position. The generator according to claim 1 or 2, wherein the generator is characterized by the above.
を有し、
前記推定部は、前記撮影画像に基づく画像情報と、前記記憶部に記憶された基準情報との比較結果に基づいて、前記相対位置と前記相対向きとを推定する
ことを特徴とする請求項1~3のうちいずれか1つに記載の生成装置。 It has a storage unit that stores reference information based on a reference image, which is an image of the object taken from a predetermined position.
Claim 1 is characterized in that the estimation unit estimates the relative position and the relative orientation based on a comparison result between the image information based on the captured image and the reference information stored in the storage unit. The generator according to any one of 3 to 3.
を有し、
前記記憶部は、前記基準情報として、前記補正部により補正された画像に基づく情報を記憶する
ことを特徴とする請求項4に記載の生成装置。 It has a correction unit that corrects an image obtained by photographing the object to an image obtained by photographing the object from the predetermined position.
The generator according to claim 4, wherein the storage unit stores information based on an image corrected by the correction unit as the reference information.
ことを特徴とする請求項5に記載の生成装置。 The generation device according to claim 5, wherein the correction unit corrects an image obtained by photographing the object based on information indicating an aspect ratio of the object.
前記推定部は、前記撮影画像から抽出された特徴点に関する情報と、前記記憶部に記憶された情報とを用いて、前記相対位置と前記相対向きとを推定する
ことを特徴とする請求項4~6のうちいずれか1つに記載の生成装置。 The storage unit stores information about feature points included in the reference image as the reference information, and stores the information.
4. The estimation unit is characterized in that it estimates the relative position and the relative orientation by using the information about the feature points extracted from the captured image and the information stored in the storage unit. The generator according to any one of 6 to 6.
前記推定部は、前記撮影画像に含まれる特徴点の位置を、前記基準画像に含まれる特徴点のうち特徴量が類似する特徴点の位置へと変換する変換行列を生成し、生成した変換行列に基づいて、前記相対位置と前記相対向きとを推定する
ことを特徴とする請求項7に記載の生成装置。 The storage unit stores information indicating the position of the feature point included in the reference image and a feature amount indicating the feature at each feature point.
The estimation unit generates a transformation matrix that converts the positions of the feature points included in the captured image into the positions of the feature points having similar feature amounts among the feature points included in the reference image, and the generated transformation matrix. The generator according to claim 7, wherein the relative position and the relative orientation are estimated based on the above.
ことを特徴とする請求項8に記載の生成装置。 From the conversion matrix, the estimation unit generates a first matrix that converts the predetermined position to the relative position and a second matrix that converts the direction from the predetermined position to the object to the relative direction. The generator according to claim 8, wherein the relative position and the relative orientation are estimated from the first matrix and the second matrix.
前記推定部は、前記撮影装置の前記図面に対する相対位置と相対向きとを推定する
ことを特徴とする請求項1~9のうちいずれか1つに記載の生成装置。 The acquisition unit acquires, as the photographed image, an image of a drawing installed in the predetermined area, which is a drawing schematically showing the predetermined area as the object.
The generator according to any one of claims 1 to 9, wherein the estimation unit estimates a relative position and a relative orientation of the photographing apparatus with respect to the drawing.
前記推定部は、前記撮影装置の前記新たな対象物に対する前記相対位置と前記相対向きとを推定し、
前記生成部は、前記新たな対象物に対する前記相対位置と前記相対向きとに基づいて、前記所定の領域内における前記撮影装置の位置と向きとを補正した新たな案内情報を生成する
ことを特徴とする請求項1~10のうちいずれか1つに記載の生成装置。 After the guidance information is provided, the acquisition unit acquires a photographed image in which a new object is photographed.
The estimation unit estimates the relative position and the relative orientation of the photographing apparatus with respect to the new object.
The generation unit is characterized in that it generates new guidance information that corrects the position and orientation of the photographing apparatus in the predetermined region based on the relative position and the relative orientation with respect to the new object. The generator according to any one of claims 1 to 10.
ことを特徴とする請求項11に記載の生成装置。 The generation device according to claim 11, wherein the acquisition unit acquires a photographed image taken by a predetermined facility installed in the predetermined area as the new object.
ことを特徴とする請求項11または12に記載の生成装置。 The estimation unit restores the three-dimensional shape of the new object based on the captured image of the new object, and uses the restored three-dimensional shape to determine the relative position and the relative orientation. The generator according to claim 11 or 12, characterized in that
ことを特徴とする請求項13に記載の生成装置。 The claim is characterized in that the estimation unit estimates the position and orientation of the photographing apparatus with respect to a predetermined position in the restored three-dimensional shape of the new object as the relative position and the relative orientation. Item 13. The generator according to item 13.
を有し、
前記生成部は、前記対象物が前記図面であると判定された場合は、前記所定の領域内における前記撮影装置の位置と向きとを示す案内情報を生成し、前記対象物が前記所定の設備であると判定された場合は、前記所定の領域内における前記撮影装置の位置と向きとを補正した新たな案内情報を生成する
ことを特徴とする請求項1~14のうちいずれか1つに記載の生成装置。 The object captured in the captured image is a drawing installed in the predetermined area, which is a drawing schematically showing the predetermined area, or a predetermined area installed in the predetermined area. It has a judgment unit that determines whether it is equipment, and it has a judgment unit.
When it is determined that the object is the drawing, the generation unit generates guidance information indicating the position and orientation of the photographing apparatus in the predetermined region, and the object is the predetermined equipment. If it is determined to be, one of claims 1 to 14, characterized in that new guidance information is generated by correcting the position and orientation of the photographing apparatus in the predetermined area. The generator described.
前記生成部は、前記対象物が前記図面および前記所定の設備以外の対象であると判定された場合は、前記図面若しくは前記所定の設備の撮影を示唆する示唆情報を生成する
ことを特徴とする請求項15に記載の生成装置。 The determination unit further determines whether the object is an object other than the drawings and the predetermined equipment.
The generation unit is characterized in that, when it is determined that the object is an object other than the drawing and the predetermined equipment, the generation unit generates suggestive information suggesting that the drawing or the predetermined equipment is photographed. The generator according to claim 15.
ことを特徴とする請求項1~16のうちいずれか1つに記載の生成装置。 Claims 1 to 16 are characterized in that the generation unit generates guidance information in which information schematically indicating the position and orientation of the photographing apparatus is superimposed on a drawing schematically showing the predetermined region. The generator according to any one of the above.
前記生成部は、前記撮影画像に含まれる図面上に、前記撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成する
ことを特徴とする請求項17に記載の生成装置。 The acquisition unit acquires, as the object, an image in which a drawing schematically showing the predetermined region is captured as a captured image.
The generator according to claim 17, wherein the generation unit generates guidance information in which information schematically indicating the position and orientation of the imaging device is superimposed on a drawing included in the captured image. ..
前記生成部は、前記撮影画像に含まれる図面とは異なる図面上に、前記撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成する
ことを特徴とする請求項17に記載の生成装置。 The acquisition unit acquires, as the object, an image in which a drawing schematically showing the predetermined region is captured as a captured image.
17. The generation unit is characterized in that it generates guidance information in which information schematically indicating the position and orientation of the photographing apparatus is superimposed on a drawing different from the drawing included in the photographed image. The generator described.
ことを特徴とする請求項19に記載の生成装置。 When the drawing included in the photographed image is not a drawing schematically showing the predetermined area from above, the generation unit is placed on a drawing schematically showing the predetermined area from above. The generation device according to claim 19, wherein guidance information is generated by superimposing information schematically indicating a position and an orientation.
前記生成部は、前記施設と同じ領域に所在する施設であって、地上に所在する施設の図面上に、前記撮影装置の位置と向きとを模式的に示す情報を重畳した案内情報を生成する
ことを特徴とする請求項19または20に記載の生成装置。 The acquisition unit acquires, as the object, an image in which a drawing of a facility located underground is taken as a photographed image.
The generation unit is a facility located in the same area as the facility, and generates guidance information in which information schematically indicating the position and orientation of the photographing apparatus is superimposed on the drawing of the facility located on the ground. 19. The generator according to claim 19 or 20.
ことを特徴とする請求項1~21のうちいずれか1つに記載の生成装置。 The generation unit is characterized in that, together with the position and orientation of the photographing apparatus, the generation unit generates guidance information indicating a guiding direction to a destination preset by a user using the photographing apparatus. The generator according to any one of them.
所定の領域内に予め設置された対象物が撮影された撮影画像を取得する取得工程と、
前記撮影画像に基づいて、当該撮影画像を撮影した撮影装置の前記対象物に対する位置である相対位置と、当該撮影装置の前記対象物に対する向きである相対向きとを推定する推定工程と、
前記相対位置および前記相対向きに基づいて、前記所定の領域内を模式的に示す図面上に、前記相対位置を示す情報と、前記相対向きを示す情報とを重畳した案内情報を生成する生成工程と
を含むことを特徴とする生成方法。 It is a generation method executed by the generation device.
The acquisition process of acquiring a photographed image of an object pre-installed in a predetermined area, and
Based on the captured image, an estimation step of estimating the relative position of the imaging device that captured the captured image with respect to the object and the relative orientation of the imaging device with respect to the object . When,
A generation step of generating guidance information in which information indicating the relative position and information indicating the relative orientation are superimposed on a drawing schematically showing the inside of the predetermined region based on the relative position and the relative orientation. A generation method characterized by including and.
前記撮影画像に基づいて、当該撮影画像を撮影した撮影装置の前記対象物に対する位置である相対位置と、当該撮影装置の前記対象物に対する向きである相対向きとを推定する推定手順と、
前記相対位置および前記相対向きに基づいて、前記所定の領域内を模式的に示す図面上に、前記相対位置を示す情報と、前記相対向きを示す情報とを重畳した案内情報を生成する生成手順と
をコンピュータに実行させるための生成プログラム。 An acquisition procedure for acquiring a photographed image of an object pre-installed in a predetermined area, and
Based on the captured image, an estimation procedure for estimating the relative position of the photographing device that captured the captured image with respect to the object and the relative orientation of the photographing device with respect to the object . When,
A generation procedure for generating guidance information in which information indicating the relative position and information indicating the relative orientation are superimposed on a drawing schematically showing the inside of the predetermined region based on the relative position and the relative orientation. A generator to make a computer execute and.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019159127A JP7039535B2 (en) | 2019-08-30 | 2019-08-30 | Generator, generation method, and generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019159127A JP7039535B2 (en) | 2019-08-30 | 2019-08-30 | Generator, generation method, and generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021038958A JP2021038958A (en) | 2021-03-11 |
JP7039535B2 true JP7039535B2 (en) | 2022-03-22 |
Family
ID=74848487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019159127A Active JP7039535B2 (en) | 2019-08-30 | 2019-08-30 | Generator, generation method, and generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7039535B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012108053A (en) | 2010-11-18 | 2012-06-07 | Toshiba Tec Corp | Portable information terminal device and control program |
WO2014203592A1 (en) | 2013-06-17 | 2014-12-24 | ソニー株式会社 | Image processing device, image processing method, and program |
JP2015114190A (en) | 2013-12-11 | 2015-06-22 | 株式会社ゼンリンデータコム | Target direction recognition device, target direction recognition method, and target direction recognition program |
JP2017026568A (en) | 2015-07-28 | 2017-02-02 | ソニー株式会社 | Information processor, information processing method and program |
WO2019106847A1 (en) | 2017-12-01 | 2019-06-06 | マクセル株式会社 | Position information system using camera-captured image and camera-mounted information device used therein |
-
2019
- 2019-08-30 JP JP2019159127A patent/JP7039535B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012108053A (en) | 2010-11-18 | 2012-06-07 | Toshiba Tec Corp | Portable information terminal device and control program |
WO2014203592A1 (en) | 2013-06-17 | 2014-12-24 | ソニー株式会社 | Image processing device, image processing method, and program |
JP2018132528A (en) | 2013-06-17 | 2018-08-23 | ソニー株式会社 | Image processor, image processing method, and program |
JP2015114190A (en) | 2013-12-11 | 2015-06-22 | 株式会社ゼンリンデータコム | Target direction recognition device, target direction recognition method, and target direction recognition program |
JP2017026568A (en) | 2015-07-28 | 2017-02-02 | ソニー株式会社 | Information processor, information processing method and program |
WO2019106847A1 (en) | 2017-12-01 | 2019-06-06 | マクセル株式会社 | Position information system using camera-captured image and camera-mounted information device used therein |
Also Published As
Publication number | Publication date |
---|---|
JP2021038958A (en) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11393173B2 (en) | Mobile augmented reality system | |
JP6683127B2 (en) | Information processing apparatus, information processing method, and program | |
JP6635037B2 (en) | Information processing apparatus, information processing method, and program | |
EP3138078B1 (en) | Speed-up template matching using peripheral information | |
KR101645613B1 (en) | Pose estimation based on peripheral information | |
US8872851B2 (en) | Augmenting image data based on related 3D point cloud data | |
CN108921894B (en) | Object positioning method, device, equipment and computer readable storage medium | |
US9031283B2 (en) | Sensor-aided wide-area localization on mobile devices | |
JP6180647B2 (en) | Indoor map construction apparatus and method using cloud points | |
KR101413011B1 (en) | Augmented Reality System based on Location Coordinates and Augmented Reality Image Providing Method thereof | |
KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
US20120026324A1 (en) | Image capturing terminal, data processing terminal, image capturing method, and data processing method | |
KR20100060472A (en) | Apparatus and method for recongnizing position using camera | |
KR102475790B1 (en) | Map making Platform apparatus and map making method using the platform | |
JP7001711B2 (en) | A position information system that uses images taken by a camera, and an information device with a camera that uses it. | |
JP2014209680A (en) | Land boundary display program, method, and terminal device | |
JP7039535B2 (en) | Generator, generation method, and generation program | |
JP6959305B2 (en) | Generation device, generation method, and generation program | |
CN111581322B (en) | Method, device and equipment for displaying region of interest in video in map window | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
KR20190096722A (en) | Apparatus and method for providing digital album service through content data generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210219 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210219 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7039535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |