JP2019113887A - Facility identification apparatus and program thereof - Google Patents

Facility identification apparatus and program thereof Download PDF

Info

Publication number
JP2019113887A
JP2019113887A JP2017244359A JP2017244359A JP2019113887A JP 2019113887 A JP2019113887 A JP 2019113887A JP 2017244359 A JP2017244359 A JP 2017244359A JP 2017244359 A JP2017244359 A JP 2017244359A JP 2019113887 A JP2019113887 A JP 2019113887A
Authority
JP
Japan
Prior art keywords
facility
feature point
mat
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017244359A
Other languages
Japanese (ja)
Other versions
JP6985132B2 (en
Inventor
公哉 松野
Kimiya Matsuno
公哉 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Duskin Co Ltd
Original Assignee
Duskin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Duskin Co Ltd filed Critical Duskin Co Ltd
Priority to JP2017244359A priority Critical patent/JP6985132B2/en
Publication of JP2019113887A publication Critical patent/JP2019113887A/en
Application granted granted Critical
Publication of JP6985132B2 publication Critical patent/JP6985132B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a facility identification apparatus and a program thereof capable of reducing amount of data regarding an image of a mat of each of facilities to be stored on storage means and identifying the facility with high accuracy when identifying a target facility using the mat.SOLUTION: A facility identification apparatus includes: storage means for storing identification information of a target facility and feature point data of a pattern of a mat that is installed in the target facility and has a different pattern for each target facility in association with each other for each of the plurality of facilities; and second control means for comparing the feature point data generated by first control means from a picked-up image picked up by imaging means and the feature point data of the pattern of each of the mats stored in the storage means to determine whether or not any of the mats is included in the picked-up image, and if it is determined to be included, acquiring the identification information of the target facility in association with the feature point data of the pattern of the mat determined to be included in the picked-up image from the storage means. The feature point data of the pattern of each of the mats stored in the storage means is generated from a design image of the pattern of each of the mats.SELECTED DRAWING: Figure 13

Description

本発明は、マットを利用して対象施設を特定する施設特定装置及びそのプログラムに関する。   The present invention relates to a facility specifying apparatus for specifying a target facility using a mat and a program thereof.

特許文献1には、携帯情報端末のカメラで撮像されたマット(敷物)の撮像画像をサーバに送信し、サーバにおいて、携帯情報端末から受信した撮像画像と、店舗毎のマットのマスター画像とを比較することで、撮像画像にいずれかのマットが含まれているか否かを判断し、含まれていると判断されたときは、含まれていると判断されたマットに紐付けられた店舗に関連する情報を携帯情報端末に送信する情報検索システムが開示されている。この情報検索システムによれば、GPS機能を有していない情報端末やGPS機能を利用できない環境においても、店舗に関連する情報を携帯情報端末に提供することができる。   In Patent Document 1, a captured image of a mat (cover) captured by a camera of a portable information terminal is transmitted to a server, and the server receives the captured image received from the portable information terminal and a master image of the mat for each store. It is determined by comparison whether or not any mat is included in the captured image, and when it is determined that it is included, the store associated with the mat determined to be included An information retrieval system is disclosed that transmits related information to a portable information terminal. According to this information search system, it is possible to provide the information related to the store to the portable information terminal even in the information terminal without the GPS function or the environment where the GPS function can not be used.

特許第5735071号公報Patent No. 5735071 gazette

特許文献1では、サーバにおいて画像の比較を行うが、携帯情報端末において画像の比較を行うことも考えられる。この場合、マットのマスター画像のデータを携帯情報端末の記憶手段に記憶させる必要があるが、携帯情報端末の記憶手段は例えばROMで構成されており、サーバ等で利用されるハードディスク装置等と比べ容量が小さい。そのため、多数の店舗分のマットのマスター画像のデータを携帯情報端末の記憶手段に記憶させると、記憶手段の残り容量が少なくなり、あるいは容量不足で記憶させること自体ができない場合がある。マスター画像の解像度を低下させて携帯情報端末の記憶手段に記憶させることも考えられるが、画像の比較において誤った判断が行われ、店舗特定の精度が低下するおそれがある。   In patent document 1, although the comparison of an image is performed in a server, it is also considered that the comparison of an image is performed in a portable information terminal. In this case, although it is necessary to store the data of the master image of the mat in the storage means of the portable information terminal, the storage means of the portable information terminal is constituted by a ROM, for example, and compared with a hard disk device etc. Capacity is small. Therefore, when data of mat master images for a large number of stores is stored in the storage unit of the portable information terminal, the remaining capacity of the storage unit may be reduced or storage may not be possible due to lack of capacity. Although it is conceivable to reduce the resolution of the master image and store it in the storage means of the portable information terminal, an erroneous determination may be made in the comparison of the images, and the accuracy of the shop specification may be reduced.

本発明は、マットを利用して店舗等の対象施設を特定する場合に、記憶手段に記憶させる各対象施設のマットの画像に関するデータ量を減少させつつ、高い精度での施設特定を可能とする施設特定装置及びそのプログラムを提供する。   The present invention enables facility specification with high accuracy while reducing the amount of data related to the image of the mat of each target facility stored in the storage means when specifying a target facility such as a store using a mat. The facility specifying device and its program are provided.

本発明に係る施設特定装置は、
複数の対象施設の各々について、対象施設の識別情報と、対象施設に設置され且つ対象施設毎に異なる模様を有するマットの模様の特徴点データと、を紐付けて記憶する記憶手段と、
撮像手段で撮像された撮像画像から第1の制御手段によって生成された特徴点データと、記憶手段に記憶されている各マットの模様の特徴点データとを比較することで、撮像画像にいずれかのマットが含まれているか否かを判断し、含まれていると判断したときは、記憶手段から、撮像画像に含まれていると判断されたマットの模様の特徴点データと紐づけられている、対象施設の識別情報を取得する第2の制御手段と、を含む。
記憶手段に記憶されている各マットの模様の特徴点データは、各マットの模様の設計画像から生成されている。
The facility identification device according to the present invention is
Storage means for correlating and storing, for each of a plurality of target facilities, identification information of the target facility and feature point data of a mat pattern installed in the target facility and having a different pattern for each target facility;
Either the feature point data generated by the first control unit from the captured image captured by the imaging unit is compared with the feature point data of the pattern of each mat stored in the storage unit, either of the captured image If it is determined that it is included, it is linked with feature point data of the pattern of the mat determined to be included in the captured image from the storage means. And second control means for acquiring identification information of the target facility.
The feature point data of the pattern of each mat stored in the storage means is generated from the design image of the pattern of each mat.

本発明に係る施設特定プログラムは、コンピュータを、施設特定装置における第1の制御手段及び/または第2の制御手段として機能させる。   A facility identification program according to the present invention causes a computer to function as a first control unit and / or a second control unit in a facility identification apparatus.

本発明によれば、マットを利用して対象施設を特定する場合に、記憶手段に記憶させる各対象施設のマットの画像に関するデータ量を減少させつつ、高い精度での施設特定が可能となる。   According to the present invention, when specifying a target facility using a mat, the facility specification can be performed with high accuracy while reducing the amount of data related to the image of the mat of each target facility to be stored in the storage means.

実施の形態1の情報検索システムの構成図である。FIG. 1 is a configuration diagram of an information search system according to a first embodiment. 携帯型電子機器の外観図である。FIG. 1 is an external view of a portable electronic device. 携帯型電子機器の構成を示したブロック図である。FIG. 2 is a block diagram showing the configuration of a portable electronic device. 携帯型電子機器のROMに記憶されているデータを示した図である。FIG. 6 is a diagram showing data stored in a ROM of the portable electronic device. サーバの構成を示したブロック図である。It is a block diagram showing composition of a server. サーバのHDDに記憶されているデータを示した図である。It is a figure showing data stored in HDD of a server. サーバのHDDに記憶されている店舗情報DBの構成を示した図である。It is a figure showing composition of store information DB memorized by HDD of a server. サーバのHDDに記憶されている特徴点DBの構成を示した図である。It is a figure showing composition of feature point DB memorized by HDD of a server. マットの模様の設計画像の一例を示した図である。It is a figure showing an example of a design image of a pattern of a mat. マットの構造を模式的に示した図((a)図)、及び図9のX9部分の拡大図((b)図)である。It is the figure ((a) figure) which showed the structure of the mat | matte typically, and the enlarged view of the X9 part of FIG. 9 ((b) figure). 図9の設計画像に対して特徴点抽出処理を施して抽出された特徴点を重畳表示した図である。FIG. 10 is a diagram in which feature points extracted by performing feature point extraction processing on the design image of FIG. 9 are superimposed and displayed. マットの模様として適切でない模様の一例を示した図である。It is a figure showing an example of a pattern which is not suitable as a pattern of a mat. 携帯型電子機器の動作の一例を示したフローチャートである。It is the flowchart which showed an example of operation | movement of a portable electronic device. 携帯型電子機器の表示部に表示された画像の一例を示した図である。It is a figure showing an example of the picture displayed on the indicator of a portable type electronic device. サーバの動作の一例を示したフローチャートである。It is the flowchart which showed an example of operation | movement of a server. 実施の形態2における携帯型電子機器のROMに記憶されているデータを示した図である。FIG. 16 is a diagram showing data stored in the ROM of the portable electronic device in Embodiment 2. 実施の形態2における携帯型電子機器の動作の一例を示したフローチャートである。FIG. 16 is a flowchart showing an example of the operation of the portable electronic device in Embodiment 2. FIG. 実施の形態3における携帯型電子機器のROMに記憶されているデータを示した図である。FIG. 16 is a diagram showing data stored in the ROM of the portable electronic device in the third embodiment. 実施の形態3における携帯型電子機器の動作の一例を示したフローチャートである。15 is a flowchart illustrating an example of operation of the portable electronic device in Embodiment 3. 実施の形態3におけるサーバの動作の一例を示したフローチャートである。21 is a flowchart showing an example of the operation of the server in the third embodiment. 実施の形態4における携帯型電子機器の動作の一例を示したフローチャートである。FIG. 16 is a flowchart showing an example of the operation of the portable electronic device in Embodiment 4. FIG. 実施の形態4におけるサーバの動作の一例を示したフローチャートである。21 is a flowchart showing an example of the operation of the server in the fourth embodiment.

本発明の実施の形態に係る施設特定装置について図面を参照して説明する。   A facility specifying device according to an embodiment of the present invention will be described with reference to the drawings.

(実施の形態1)
1.構成
図1は、実施の形態1に係る情報検索システムの構成図である。
Embodiment 1
1. Configuration FIG. 1 is a configuration diagram of an information search system according to the first embodiment.

本実施の形態の情報検索システムは、携帯型電子機器10と、サーバ20とを含む。携帯型電子機器10とサーバ20とは、インターネット等のネットワークを介して接続される。本実施の形態では、本発明に係る施設特定装置を携帯型電子機器10に適用した例を説明する。   The information search system of the present embodiment includes a portable electronic device 10 and a server 20. The portable electronic device 10 and the server 20 are connected via a network such as the Internet. In the present embodiment, an example in which the facility specifying device according to the present invention is applied to a portable electronic device 10 will be described.

1−1.携帯型電子機器の構成
図2は、携帯型電子機器10の外観図である。
1-1. Configuration of Portable Electronic Device FIG. 2 is an external view of the portable electronic device 10.

携帯型電子機器10の外面には、表示部11、カメラ12、及び操作部13が備えられている。表示部11の表面には、タッチパネル14が備えられている。本実施の形態では、一例として、携帯型電子機器10がスマートフォンである場合を示している。   A display unit 11, a camera 12, and an operation unit 13 are provided on the outer surface of the portable electronic device 10. A touch panel 14 is provided on the surface of the display unit 11. In the present embodiment, as an example, the case where the portable electronic device 10 is a smartphone is shown.

図3は、携帯型電子機器10の構成を示したブロック図である。   FIG. 3 is a block diagram showing the configuration of the portable electronic device 10.

携帯型電子機器10は、上記の表示部11、カメラ12、操作部13及びタッチパネル14に加え、中央演算処理装置15(以後、適宜「CPU15」という)、リードオンリメモリ16(以後、適宜「ROM16」という)、ランダムアクセスメモリ17(以後、適宜「RAM17」という)、及び通信インタフェース18(以後、適宜「通信I/F18」という)を備える。   In addition to the display unit 11, the camera 12, the operation unit 13, and the touch panel 14 described above, the portable electronic device 10 has a central processing unit 15 (hereinafter referred to as “CPU 15” as appropriate), a read only memory 16 (hereinafter referred to as “ROM 16 appropriately ), A random access memory 17 (hereinafter referred to as “RAM 17” as appropriate), and a communication interface 18 (hereinafter referred to as “communication I / F 18 as appropriate”).

CPU15は、演算処理を行う。   The CPU 15 performs arithmetic processing.

ROM16は、CPU15で演算処理されるプログラムや種々のデータを記憶する。   The ROM 16 stores programs to be subjected to arithmetic processing by the CPU 15 and various data.

RAM17は、CPU15がプログラムを実行する際、プログラムやデータ等を一時的に記憶する。   The RAM 17 temporarily stores programs, data, and the like when the CPU 15 executes a program.

表示部11は、CPU15から出力される表示用の画像データに基づく画像を表示する。表示部11は、例えば液晶ディスプレイパネルや有機ELディスプレイパネルである。   The display unit 11 displays an image based on display image data output from the CPU 15. The display unit 11 is, for example, a liquid crystal display panel or an organic EL display panel.

操作部13は、複数のボタンを有する。ボタンは、例えば押しボタン式のスイッチであり、機能選択や機能実行の指示を行うことができる。   The operation unit 13 has a plurality of buttons. The button is, for example, a push button type switch, and can perform function selection or function execution instruction.

タッチパネル14は、平面状のポインティングデバイスである。タッチパネル14は、表示部11の表示面に重ねて設けられ、ユーザによりタッチされた位置を示す信号を出力する。   The touch panel 14 is a planar pointing device. The touch panel 14 is provided so as to overlap the display surface of the display unit 11, and outputs a signal indicating the position touched by the user.

カメラ12は、被写体を撮像して画像データを生成する。   The camera 12 captures an object and generates image data.

通信I/F18は、サーバ20等の外部機器との間で通信を行うためのインタフェースである。通信I/F18は、例えば、IEEE等で規定された種々の通信規格に基づいて通信を行う。   The communication I / F 18 is an interface for communicating with an external device such as the server 20. The communication I / F 18 performs communication based on, for example, various communication standards defined by IEEE or the like.

図4は、携帯型電子機器10のROM16に記憶されているデータを示した図である。   FIG. 4 is a diagram showing data stored in the ROM 16 of the portable electronic device 10.

ROM16には、プログラムや種々のデータとして、オペレーティングシステム31(以後、適宜「OS31」という)、アプリケーションプログラム32、特徴点データベース33(以後、適宜「特徴点DB33」という)が記憶されている。   The ROM 16 stores an operating system 31 (hereinafter referred to as “OS 31” as appropriate), an application program 32 and a feature point database 33 (hereinafter referred to as “feature point DB 33” as appropriate) as programs and various data.

1−2.サーバの構成
図5は、サーバ20の構成を示したブロック図である。
1-2. Configuration of Server FIG. 5 is a block diagram showing the configuration of the server 20. As shown in FIG.

サーバ20は、中央演算処理装置21(以後、適宜「CPU21」という)、ハードディスクドライブ22(以後、適宜「HDD22」という)、ランダムアクセスメモリ23(以後、適宜「RAM23」という)、及び通信インタフェース24(以後、適宜「通信I/F24」という)を備える。   The server 20 includes a central processing unit 21 (hereinafter referred to as “CPU 21” as appropriate), a hard disk drive 22 (hereinafter referred to as “HDD 22” as appropriate), a random access memory 23 (hereinafter referred to as “RAM 23” as appropriate) (Hereinafter referred to as “communication I / F 24” as appropriate).

CPU21は、演算処理を行う。   The CPU 21 performs arithmetic processing.

HDD22は、CPU21で演算処理されるプログラム及び種々のデータを記憶する。なお、ハードディスクドライブに代えて、ソリッドステートドライブ(SSD)を設け、同じデータを記憶させてもよい。   The HDD 22 stores programs and various data that are arithmetically processed by the CPU 21. In place of the hard disk drive, a solid state drive (SSD) may be provided to store the same data.

RAM23は、CPU21がプログラムを実行する際、プログラムやデータ等を一時的に記憶する。   The RAM 23 temporarily stores programs, data, and the like when the CPU 21 executes a program.

図6は、サーバ20のHDD22に記憶されているデータを示した図である。   FIG. 6 is a diagram showing data stored in the HDD 22 of the server 20. As shown in FIG.

HDD22には、プログラムや種々のデータとして、オペレーティングシステム41(以下、適宜「OS41」という)、アプリケーションプログラム42、特徴点データベース43(以後、適宜「特徴点DB43」という)、及び店舗情報データベース44(以後、適宜「店舗情報DB44」という)が記憶されている。なお、特徴点DB43は、実施の形態1、2において、携帯型電子機器10のROM16に記憶されている特徴点DB33のマスターとなる。また、店舗情報DB44は、実施の形態2において、携帯型電子機器10のROM16に記憶されている店舗情報DB34のマスターとなるデータベースである。   The HDD 22 includes an operating system 41 (hereinafter referred to as “OS 41” as appropriate), an application program 42, a feature point database 43 (hereinafter referred to as “feature point DB 43” as appropriate), and a store information database 44 (as a program or various data). Hereinafter, "store information DB 44" is appropriately stored. The feature point DB 43 is the master of the feature point DB 33 stored in the ROM 16 of the portable electronic device 10 in the first and second embodiments. The store information DB 44 is a database serving as a master of the store information DB 34 stored in the ROM 16 of the portable electronic device 10 in the second embodiment.

図7は、サーバ20のHDD22に記憶されている店舗情報DB44の構成を示した図である。   FIG. 7 is a diagram showing the configuration of the shop information DB 44 stored in the HDD 22 of the server 20. As shown in FIG.

店舗情報DB44は、店舗の名称に紐付けて、販促情報(販売促進情報)、位置情報、及び階数情報を記憶(格納)している。「店舗」は、本発明における対象施設の一例である。店舗の名称は、本発明における対象施設の識別情報の一例である。販促情報は、例えばその店舗におけるバーゲンセール等の情報である。位置情報は、例えばその店舗においてマットMが設置された位置の緯度、経度等を示す情報である。階数情報は、当該店舗がデパート、ショッピングモール等の複数階を有する建物内に存在している場合に、当該店舗が存在するフロア(階数)に関する情報である。これらの情報は、情報検索システムの管理者により登録される。   The store information DB 44 stores (stores) sales promotion information (sales promotion information), position information, and floor number information in association with the name of the store. “Store” is an example of a target facility in the present invention. The name of the store is an example of identification information of a target facility in the present invention. The sales promotion information is, for example, information such as a bargain sale at the store. The position information is, for example, information indicating the latitude, longitude, etc. of the position where the mat M is installed in the store. The floor number information is information on the floor (the number of floors) on which the store exists, when the store exists in a building having a plurality of floors, such as a department store or a shopping mall. These pieces of information are registered by the manager of the information search system.

図8は、サーバ20のHDD22に記憶されている特徴点DB43の構成を示した図である。   FIG. 8 is a diagram showing the configuration of the feature point DB 43 stored in the HDD 22 of the server 20. As shown in FIG.

特徴点DB43は、各店舗の名称に紐付けて、店舗の入口に配置されたマットの模様の特徴点データを記憶している。特徴点データは、マットの模様の設計画像から生成されている。具体的に、特徴点データは、所定の特徴点抽出アルゴリズムを用いてマットの模様の設計画像から抽出された複数個の特徴点に関する特徴量等の情報を含むデータである。特徴点データは、例えば、本システムの管理主体により生成され、特徴点DB43に登録される。所定の特徴点抽出アルゴリズムは、任意のアルゴリズムで良く、公知のアルゴリズムを利用できる。なお、所定の特徴点抽出アルゴリズムは、後述するように、カメラ12の撮像画像から特徴点を抽出する際に用いる特徴点抽出アルゴリズムと同じアルゴリズムとすることが好ましい。   The feature point DB 43 stores feature point data of the pattern of the mat disposed at the entrance of the store in association with the name of each store. Feature point data is generated from a design image of a matte pattern. Specifically, the feature point data is data including information such as feature amounts related to a plurality of feature points extracted from the design image of the mat pattern using a predetermined feature point extraction algorithm. The feature point data is generated, for example, by the management entity of the present system, and registered in the feature point DB 43. The predetermined feature point extraction algorithm may be any algorithm and a known algorithm may be used. In addition, it is preferable to make a predetermined | prescribed feature point extraction algorithm into the same algorithm as the feature point extraction algorithm used when extracting a feature point from the captured image of the camera 12 so that it may mention later.

図9は、マットの模様の設計画像の一例を示した図である。図10(a)は、マットの構造を模式的に示した図である。   FIG. 9 is a view showing an example of a design image of a mat pattern. FIG. 10A is a view schematically showing the structure of the mat.

図10(a)では、本実施の形態で用いられるマットMの一例として、一定間隔で植設された複数のパイルPiを有するパイルマットを示している。複数のパイルPiは、例えば2.5ミリメートル間隔で、1センチメートル当たり4本、1平方センチメートル当たり16本植設されている。なお、植設間隔は上記以外の間隔でももちろんよいが、例えばパイルが太くなり植設間隔が大きくなると、模様にがたつきが生じるとともに、特徴点として検出させることが可能な部分が減少することとなる。また、図10(a)では、複数のパイルPiが均一に植設されている例を示したが、本発明は、パイルマットが、パイルが植設されない歯抜け状の部分を有する場合にも適用できる。また、図10(a)では、各パイルがループパイルである例を示しているが、本発明は、各パイルがカットパイルである場合にも適用できる。なお、使用中におけるパイルの倒れ等による模様の変化による影響を少なくするために、パイル目付量は100g/平方メートル以上とすることが好ましい。   FIG. 10A shows, as an example of the mat M used in the present embodiment, a pile mat having a plurality of piles Pi which are planted at regular intervals. The plurality of piles Pi are, for example, four per centimeter and sixteen per square centimeter at intervals of 2.5 millimeters. It should be noted that although the planting interval may be an interval other than the above, for example, when the pile becomes thick and the planting interval becomes large, rattling occurs in the pattern and a portion that can be detected as a feature point decreases. It becomes. Further, FIG. 10 (a) shows an example in which a plurality of piles Pi are uniformly planted, but the present invention is also applicable to the case where the pile mat has a tooth-like portion in which the piles are not planted. Applicable Further, FIG. 10A shows an example in which each pile is a loop pile, but the present invention is also applicable to a case where each pile is a cut pile. In addition, in order to reduce the influence by the change of the pattern by the fall etc. of the pile in use, it is preferable to make pile basis weight into 100 g / square meter or more.

図10(b)は、図9のX9部分の拡大図である。   FIG.10 (b) is an enlarged view of X9 part of FIG.

図10(b)に示すように、設計画像は、複数のドットDoを有するビットマップ形式の画像である。設計画像において、複数のドットDoの各々は、複数のパイルPiの各々と1対1で対応している。なお、上述したような歯抜け状の部分を有するパイルマットの設計画像では、パイルが植設されない部分は、例えば、パイルが植設される基材の上面の色と同じ色のドットで示される。   As shown in FIG. 10B, the design image is a bitmap image having a plurality of dots Do. In the design image, each of the plurality of dots Do is in one-to-one correspondence with each of the plurality of piles Pi. In the design image of the pile mat having the toothed portion as described above, the portion where the pile is not implanted is indicated by, for example, a dot of the same color as the color of the upper surface of the substrate on which the pile is implanted. .

図11は、図9の設計画像に対して特徴点抽出処理を施して抽出された特徴点を重畳表示した図である。   FIG. 11 is a diagram in which feature points extracted by performing feature point extraction processing on the design image of FIG. 9 are superimposed and displayed.

図11では、所定の特徴点抽出アルゴリズムを利用して抽出された特徴点を○で示している。図11では、所定の特徴点抽出アルゴリズムとして、色や濃淡の相違により形成される模様の角部、閉鎖部、直線部等を特徴点として抽出するアルゴリズムを用いた例を示している。なお、画像から特徴点を抽出するアルゴリズムとしては、KAZE、ORB、AKAZE、MSER、GFTT、BRISK、FAST等、種々存在する。本発明では所定の特徴点抽出アルゴリズムとしてどのようなアルゴリズムを用いてもよい。なお、利用する特徴点抽出アルゴリズムによって抽出される特徴点は異なってくるため、設計画像から特徴点を抽出する際に用いるアルゴリズムと、撮像画像から特徴点を抽出する際に用いるアルゴリズムとを同じものとすることが好ましい。   In FIG. 11, the feature points extracted using a predetermined feature point extraction algorithm are indicated by ○. FIG. 11 shows an example using an algorithm for extracting, as a feature point, a corner portion, a closed portion, a straight portion and the like of a pattern formed by a difference in color and density as a predetermined feature point extraction algorithm. There are various algorithms for extracting feature points from an image, such as KAZE, ORB, AKAZE, MSER, GFTT, BRISK, FAST and the like. In the present invention, any algorithm may be used as a predetermined feature point extraction algorithm. Note that the feature points to be extracted differ depending on the feature point extraction algorithm to be used, so the algorithm used to extract the feature points from the design image is the same as the algorithm used to extract the feature points from the captured image It is preferable to

また、本実施の形態では、マットの模様の設計画像を、所定の特徴点抽出アルゴリズムを利用して特徴点の抽出を行うことを前提として作成している。例えば、利用する特徴点抽出アルゴリズムが、上述のような、色や濃淡の相違により形成される模様の角部、閉鎖部、直線部等を特徴点として抽出するアルゴリズムである場合、マットの模様が、角部、閉鎖部、直線部等のうち少なくとも1つ以上の要素を含むようにデザインしている。また、特徴点として抽出される上記のような部分を所定個数以上有するようにマットの模様をデザインしている。所定個数は例えば2個である。1個だけであると、特徴点間の位置関係に基づく比較を適切に行うことができないため、2個以上とするものである。なお、撮像画像に含まれるマットでは、マットの輪郭に関する角部や直線部が特徴点として検出されるが、上記の所定個数には、マットの輪郭に関して検出される特徴点の個数を含まない。所定個数を大きくすれば、比較に用いる特徴点が増加してマットの特定精度を向上させることができるが、処理の時間は長くなる。   Further, in the present embodiment, a design image of a matte pattern is created on the premise that feature points are extracted using a predetermined feature point extraction algorithm. For example, in the case where the feature point extraction algorithm to be used is an algorithm for extracting corner portions, closed portions, straight portions and the like of a pattern formed by differences in color and density as described above, the mat pattern is , Corners, closures, straight sections, etc. are designed to include at least one or more elements. In addition, the pattern of the mat is designed so as to have a predetermined number or more of the above-described portions extracted as feature points. The predetermined number is, for example, two. If the number is only one, the comparison based on the positional relationship between feature points can not be appropriately performed, and therefore, two or more are used. In the mat included in the captured image, corners and straight portions related to the contour of the mat are detected as feature points, but the predetermined number does not include the number of the characteristic points detected with respect to the contour of the mat. If the predetermined number is increased, feature points used for comparison can be increased and the identification accuracy of the mat can be improved, but the processing time becomes longer.

図9の設計画像は、文字「A」を毛筆体風にデザインした模様を有しているが、所定の特徴点抽出アルゴリズムを用いて特徴点を抽出することを考慮して、矢印Ca、Cbで示す、はらいの部分を切り落とし、それぞれ2つの角部が形成されるように書体を修正している。はらいの部分は一般に徐々に細くなり先端が丸みをおびるが、本実施の形態では、特徴点として抽出されるように、はらいの部分を切り落とし、意図的に角部を形成したものである。   The design image of FIG. 9 has a design in which the character “A” is designed in a brush-like manner, but in consideration of extracting feature points using a predetermined feature point extraction algorithm, arrows Ca and Cb We cut off the part of the eyebrow, shown in, and modified the font to form two corners each. Generally, the portion of the weir becomes gradually thinner and the tip becomes rounded, but in this embodiment, the portion of the weir is cut off and the corner is intentionally formed so as to be extracted as a feature point.

図12は、マットの模様として適切でない模様の一例を示した図である。   FIG. 12 is a view showing an example of a pattern which is not suitable as a pattern of a mat.

図12では、マットの模様に、所定のアルゴリズムとして、色や濃淡の相違により形成される模様の角部、閉鎖部、直線部等を特徴点として抽出するアルゴリズムを用いて抽出した特徴点を重畳表示している。図12に示す設計画像は、文字「u」を毛筆体風にデザインした模様を有しているが、角部が1個しか含まれていないため、上記のアルゴリズムで検出される特徴点は1個だけである。検出される特徴点が1個だけでは特徴点間の位置関係に基づく比較が考慮されなくなり、誤判定が増加するため、図12の模様は適切でない。これを適切な模様とするためには、例えば、図9の文字「A」の場合のように、文字「u」のはらいの部分を切り落とし、それぞれ2つの角部が形成されるように書体を修正すればよい。このようにデザインすることにより、特徴点として抽出可能な2つの角部が形成されることとなる。   In FIG. 12, feature points extracted by using an algorithm for extracting corner portions, closed portions, straight portions, and the like of a pattern formed by differences in color and density as a predetermined algorithm are superimposed on a mat pattern as a predetermined algorithm. it's shown. The design image shown in FIG. 12 has a design in which the character "u" is designed in a brush-like manner, but since only one corner is included, the feature points detected by the above algorithm are 1 It is only one. If only one feature point is detected, the comparison based on the positional relationship between the feature points is not taken into consideration, and erroneous determination increases, so the pattern of FIG. 12 is not appropriate. In order to make this an appropriate pattern, for example, as in the case of the letter "A" in FIG. 9, the portion of the glide of the letter "u" is cut off and the font is made so that two corners are formed respectively. It should be corrected. By designing in this manner, two corner portions that can be extracted as feature points are formed.

2.動作
2−1.携帯型電子機器の動作
図13は、携帯型電子機器10の動作の一例を示したフローチャートである。このフローチャートに基づく動作は、携帯型電子機器10のROM16に記憶されているアプリケーションプログラム32が例えば利用者により起動されてCPU15で実行されることにより、実現される。
2. Operation 2-1. Operation of Portable Electronic Device FIG. 13 is a flowchart showing an example of the operation of the portable electronic device 10. The operation based on the flowchart is realized by the application program 32 stored in the ROM 16 of the portable electronic device 10 being activated by the user and executed by the CPU 15, for example.

アプリケーションプログラム32が起動されると、携帯型電子機器10のCPU15は、特徴点DB33の更新処理を行う(S20)。具体的に、携帯型電子機器10のCPU15は、通信I/F18を介してサーバ20と通信を行って、サーバ20に記憶されている特徴点DB43のバージョンと、携帯型電子機器10のROM16に記憶されている特徴点DB33のバージョンとを比較し、携帯型電子機器10側の特徴点DB33のバージョンの方が古い場合は、サーバ20に記憶されている特徴点DB43をダウンロードして特徴点DB33の内容を更新する。これにより、携帯型電子機器10側の特徴点DB33が最新のバージョンで維持される。   When the application program 32 is activated, the CPU 15 of the portable electronic device 10 performs update processing of the feature point DB 33 (S20). Specifically, the CPU 15 of the portable electronic device 10 communicates with the server 20 via the communication I / F 18, and the version of the feature point DB 43 stored in the server 20 and the ROM 16 of the portable electronic device 10 The stored version of feature point DB 33 is compared, and if the version of feature point DB 33 on the side of portable electronic device 10 is older, feature point DB 43 stored in server 20 is downloaded and feature point DB 33 is stored. Update the contents of As a result, the feature point DB 33 on the portable electronic device 10 side is maintained at the latest version.

携帯型電子機器10のCPU15は、カメラ12を利用して画像が撮像されたか否かを判断する(S21)。   The CPU 15 of the portable electronic device 10 determines whether an image has been captured using the camera 12 (S21).

カメラ12を利用して画像が撮像されていない場合(S21でNO)、携帯型電子機器10のCPU15は、ステップS21の判断を再度実行する。   When an image is not captured using the camera 12 (NO in S21), the CPU 15 of the portable electronic device 10 executes the determination of step S21 again.

カメラ12を利用して画像が撮像された場合(S21でYES)、携帯型電子機器10のCPU15は、カメラ12で撮像された画像(撮像画像)から特徴点を抽出する処理を行って、特徴点データを生成する(S22)。   When an image is captured using the camera 12 (YES in S21), the CPU 15 of the portable electronic device 10 performs processing for extracting feature points from the image (captured image) captured by the camera 12 Point data is generated (S22).

携帯型電子機器10のCPU15は、カメラ12で撮像された画像(撮像画像)から生成された特徴点データと、特徴点DB33に記憶されている各特徴点データとを比較し、各特徴点データについて一致度を求める(S23)。比較は、例えば、公知の特徴ベースマッチングの手法(SIFT, SURF, ORB 等)を用いて行うことができる。例えば、携帯型電子機器10のCPU15は、設計画像から生成され特徴点DB33に記憶されている各対象施設のマットの模様の特徴点データの各々について、撮像画像から生成された特徴点データと照合し、撮像画像から生成された特徴点データに含まれる特徴点に関し、設計画像から生成された特徴点データに含まれる特徴点群と配置や色が最も近い(一致または類似する)特徴点群を探索する。そして、各特徴点データについて、探索した結果最も近い色や位置関係を有する特徴点群について、位置関係の相違量や色の相違量を定量的に評価することで一致度を求める。一致度は、両者の類似の程度(類似度)を示す値であり、類似の程度が高いほど大きい値となる。   The CPU 15 of the portable electronic device 10 compares feature point data generated from an image (captured image) captured by the camera 12 with each feature point data stored in the feature point DB 33, and each feature point data The degree of coincidence is obtained for (S23). The comparison can be performed, for example, using a known feature-based matching method (SIFT, SURF, ORB, etc.). For example, the CPU 15 of the portable electronic device 10 matches each of the feature point data of the mat pattern of each target facility generated from the design image and stored in the feature point DB 33 with the feature point data generated from the captured image With respect to the feature points included in the feature point data generated from the captured image, the feature point group including the feature point group closest to (in agreement with or similar to) the feature point group included in the feature point data generated from the design image Explore. Then, for each feature point data, the degree of coincidence is obtained by quantitatively evaluating the amount of difference in positional relationship or the amount of difference in color for the feature point group having the closest color or positional relationship as a result of the search. The degree of coincidence is a value indicating the degree of similarity (similarity) between the two, and the higher the degree of similarity, the larger the value.

携帯型電子機器10のCPU15は、特徴点DB33に記憶されている特徴点データの中に、所定一致度(所定類似度)以上の一致度を有する特徴点データが存在するか否かを判断する(S24)。所定一致度は、例えば、比較される両者がほぼ同一であるときの一致度に設定される。   The CPU 15 of the portable electronic device 10 determines whether feature point data having a degree of coincidence equal to or higher than a predetermined degree of coincidence (predetermined degree of similarity) is present in the characteristic point data stored in the characteristic point DB 33. (S24). The predetermined degree of coincidence is set, for example, to the degree of coincidence when the two to be compared are substantially the same.

所定一致度以上の一致度を有する特徴点データが存在する場合(S24でYES)、携帯型電子機器10のCPU15は、最も高い一致度を有する特徴点データに紐付けられている店舗名の情報を特徴点DBから読み出す(S25)。   If there is feature point data having a degree of coincidence equal to or higher than a predetermined degree of coincidence (YES in S24), the CPU 15 of the portable electronic device 10 stores store name information associated with the characteristic point data having the highest degree of coincidence Are read from the feature point DB (S25).

ここで、ステップS22〜S25において、携帯型電子機器10のCPU15は、撮像手段(カメラ12)で撮像された撮像画像から第1の制御手段(CPU15)によって生成された特徴点データと記憶手段(ROM16(特徴点DB33)に記憶されている各マットの模様の特徴点データとを比較することで、撮像画像にいずれかのマットが含まれているか否かを判断し、含まれていると判断したときは、記憶手段から、撮像画像に含まれていると判断されたマットの模様の特徴点データと紐づけられている、対象施設(店舗)の識別情報(店舗名の情報)を取得している。なお、所定一致度以上の一致度を有する特徴点データが存在するときは、それだけで撮像画像にいずれかのマットが含まれていると判断できるが、所定一致度以上の一致度を有する特徴点データが複数存在することもある。その場合、本実施の形態では、最も高い一致度を有する特徴点データに紐付けられている対象施設(店舗)の識別情報(店舗名の情報)を取得することで信頼性をより向上させている。   Here, in steps S22 to S25, the CPU 15 of the portable electronic device 10 stores feature point data generated by the first control unit (CPU 15) from the captured image captured by the imaging unit (camera 12) and storage unit (CPU 15). By comparing the feature point data of the patterns of each mat stored in the ROM 16 (feature point DB 33), it is determined whether or not any mat is included in the captured image, and it is determined that it is included. When the identification information (store name information) of the target facility (store) linked with the feature point data of the pattern of the mat determined to be included in the captured image is obtained from the storage means It should be noted that when feature point data having a degree of coincidence equal to or higher than a predetermined degree of coincidence exists, it can be determined that any captured image is included in the captured image, but it is In this case, in the present embodiment, identification information (store name) of a target facility (store) associated with feature point data having the highest matching degree may be present. Reliability is improved by acquiring information).

携帯型電子機器10のCPU15は、読み出した店舗名の情報を通信I/F18を介してサーバ20に送信する(S26)。   The CPU 15 of the portable electronic device 10 transmits the read store name information to the server 20 via the communication I / F 18 (S26).

携帯型電子機器10のCPU15は、送信した店舗名の情報に対する応答として、サーバ20から店舗情報を受信したか否かを判断する(S27)。   The CPU 15 of the portable electronic device 10 determines whether store information has been received from the server 20 as a response to the transmitted store name information (S27).

サーバ20から店舗情報を受信していない場合(S27でNO)、携帯型電子機器10のCPU15は、ステップS27の判断を再度実行する。   When store information has not been received from the server 20 (NO in S27), the CPU 15 of the portable electronic device 10 executes the determination of step S27 again.

サーバ20から店舗情報を受信した場合(S27でYES)、携帯型電子機器10のCPU15は、受信した店舗情報を、例えば図14に示すように、表示部11に表示させる(S28)。   When store information is received from the server 20 (YES in S27), the CPU 15 of the portable electronic device 10 causes the display unit 11 to display the received store information as shown in FIG. 14, for example (S28).

図14は、携帯型電子機器10の表示部11に表示された画像の一例を示した図である。   FIG. 14 is a view showing an example of an image displayed on the display unit 11 of the portable electronic device 10.

携帯型電子機器10のCPU15は、例えば、サーバ20から受信した店舗情報に含まれる販促情報Jを、カメラ12で撮像した画像Gに重畳して表示部11に表示させる。図14では、例えば、「○△ドーナツ 本日チョコドーナツ50円引き」という情報Jを表示した例を示している。なおこのとき、携帯型電子機器10のCPU15は、さらに、ステップS25で読み出した店舗名の情報(識別情報の一例)を表示部11に重畳表示させてもよい。このように重畳表示させる技術としては、公知の拡張現実ARの技術が利用可能である。図14の例では、携帯型電子機器10は、マットMをマーカにして販促情報を表示させている。なおこのとき、携帯型電子機器10は、取得した店舗情報に含まれる位置情報及び階数情報に基づいて、現地付近の地図を表示させるとともに、地図上に当該店舗の位置を表示させてもよい。   For example, the CPU 15 of the portable electronic device 10 causes the display unit 11 to display the sales promotion information J included in the store information received from the server 20 on the image G captured by the camera 12. In FIG. 14, for example, an example is shown in which the information J “○ donut today chocolate domino 50 yen discount” is displayed. At this time, the CPU 15 of the portable electronic device 10 may further cause the display unit 11 to superimpose the information (an example of the identification information) of the store name read in step S25. As a technique for superimposing display in this manner, a known augmented reality AR technique can be used. In the example of FIG. 14, the portable electronic device 10 uses the mat M as a marker to display sales promotion information. At this time, the portable electronic device 10 may display a map in the vicinity of the local area and display the position of the shop on the map, based on the position information and the floor number information included in the acquired shop information.

ステップS24の判断において所定一致度以上の一致度を有する特徴点データが存在しない場合(S24でNO)、携帯型電子機器10のCPU15は、エラー情報を表示部11に表示させる(S29)。例えば、「認識できませんでした。再度、マットを撮影してください」等の情報が表示される。所定一致度以上の一致度を有する特徴点データが存在しないと判断される理由としては、例えば、カメラ12で撮像された画像が不鮮明であることや、撮像画像中のマットが小さすぎることや、撮像画像中のマットが特徴点DB33に登録されていないこと等が挙げられる。   If there is no feature point data having the degree of coincidence equal to or more than the predetermined degree of coincidence in the determination of step S24 (NO in S24), the CPU 15 of the portable electronic device 10 causes the display unit 11 to display error information (S29). For example, information such as “The recognition could not be made. Please shoot the mat again” is displayed. The reason why it is determined that feature point data having a degree of coincidence equal to or higher than a predetermined degree of coincidence does not exist is, for example, that the image picked up by the camera 12 is unclear, the mat in the picked up image is too small, The mat in a captured image is not registered into feature point DB33, etc. are mentioned.

ステップS28またはS29の実行後、携帯型電子機器10のCPU15は、利用者によるアプリ終了操作があったか否かを判断する(S30)。   After execution of step S28 or S29, the CPU 15 of the portable electronic device 10 determines whether the user has performed an application termination operation (S30).

アプリ終了操作がない場合(S30でNO)、携帯型電子機器10のCPU15は、ステップS21の処理に戻る。   If there is no application termination operation (NO in S30), the CPU 15 of the portable electronic device 10 returns to the process of step S21.

アプリ終了操作があった場合(S30でYES)、携帯型電子機器10のCPU15は、アプリケーションプログラム32の実行を終了し、本フローチャートの処理を終了する。   If there is an application termination operation (YES in S30), the CPU 15 of the portable electronic device 10 terminates the execution of the application program 32, and terminates the processing of this flowchart.

2−2.サーバの動作
図15は、サーバの動作の一例を示したフローチャートである。このフローチャートに基づく動作は、サーバ20のHDD22に記憶されているアプリケーションプログラム42がCPU21で実行されることにより、実現される。
2-2. Operation of Server FIG. 15 is a flowchart showing an example of the operation of the server. The operation based on the flowchart is realized by the CPU 21 executing an application program 42 stored in the HDD 22 of the server 20.

サーバ20のCPU21は、携帯型電子機器10から店舗名の情報を受信したか否かを判断する(S40)。   The CPU 21 of the server 20 determines whether the information of the store name has been received from the portable electronic device 10 (S40).

携帯型電子機器10から店舗名の情報を受信していない場合(S40でNO)、サーバ20のCPU21は、ステップS40の判断を再度実行する。   When the information of the store name is not received from the portable electronic device 10 (NO in S40), the CPU 21 of the server 20 executes the determination of step S40 again.

携帯型電子機器10から店舗名の情報を受信した場合(S40でYES)、サーバ20のCPU21は、受信した店舗名の情報に紐づけられている店舗情報(販促情報、位置情報、階数情報)を店舗情報DB44から読み出す(S41)。   When the store name information is received from the portable electronic device 10 (YES in S40), the CPU 21 of the server 20 stores the store information (promotional information, position information, floor number information) linked to the received store name information Are read out from the store information DB 44 (S41).

サーバ20のCPU21は、ステップS41で読み出した店舗情報(販促情報、位置情報、階数情報)を送信元の携帯型電子機器10に送信し(S42)、ステップS40の処理に戻る。   The CPU 21 of the server 20 transmits the store information (promotional information, position information, floor number information) read in step S41 to the portable electronic device 10 of the transmission source (S42), and returns to the process of step S40.

3.作用
3−1.情報検索処理
本実施の形態に係る情報検索システムのサーバ20によれば、カメラ12で撮像された画像に複数のマットMのいずれかが含まれているときは、当該含まれているマットMが設置された店舗に関連する情報を表示部11に表示させることができる。例えばGPSを利用できないような場合でも、当該含まれているマットMが設置された店舗に関連する情報をユーザに提供することができる。
3. Function 3-1. Information Retrieval Process According to the server 20 of the information retrieval system of the present embodiment, when any of the plurality of mats M is included in the image captured by the camera 12, the included mat M is included. Information related to the installed store can be displayed on the display unit 11. For example, even when the GPS can not be used, it is possible to provide the user with information related to the store in which the included mat M is installed.

例えば、ユーザがアプリケーションプログラム32を起動させた状態で、携帯型電子機器10で風景を撮影しながら歩いているときに、マットMが画像中に検出されると、自動的にマットMが設置された店舗に関連する情報が風景の画像に重畳されて表示されることとなる。したがって、ユーザは現在位置に関連する店舗等の情報を容易に取得することができ、ユーザの利便性が向上することとなる。   For example, when the user walks while photographing a landscape with the portable electronic device 10 with the application program 32 activated, the mat M is automatically installed when the mat M is detected in the image. The information related to the shop is displayed superimposed on the image of the scenery. Therefore, the user can easily acquire information such as a shop related to the current position, and the convenience of the user is improved.

また、本実施の形態によれば、カメラ12で撮像された画像に複数のマットMのいずれかが含まれているときは、当該含まれているマットMに基づいて、マットMの設置位置、つまりユーザの現在位置をほぼ特定することができる。したがって、例えばGPSを利用できないような場合でも、マットMの設置位置の情報に基づいて、現在位置を示す情報をユーザに提供することができる。   Further, according to the present embodiment, when any of the plurality of mats M is included in the image captured by the camera 12, the installation position of the mat M based on the contained mat M, That is, it is possible to substantially identify the current position of the user. Therefore, even when GPS can not be used, for example, it is possible to provide the user with information indicating the current position based on the information of the installation position of the mat M.

3−2.店舗特定処理
特許文献1では、サーバに各店舗のマットのマスター画像が記憶されており、サーバは、携帯型電子機器から受信した撮像画像と各店舗のマットのマスター画像とを画像比較することで、マットが配置されている店舗を特定する。画像比較の処理は、コンピュータを利用したサーバにとって比較的高い負荷となるため、例えばサーバに多数の携帯型電子機器からほぼ同時期に多数の撮像画像が送信されてくると、サーバにおける画像比較の負荷が高くなり、レスポンスが低下する可能性がある。
3-2. Store Identification Processing In Patent Document 1, the server stores the master image of the mat of each store, and the server compares the captured image received from the portable electronic device with the master image of the mat of each store. , Identify the store where the mat is located. Since the process of image comparison is a relatively high load for a server using a computer, for example, when a large number of captured images are transmitted from a large number of portable electronic devices to the server at almost the same time, the image comparison The load may increase and the response may decrease.

サーバにおける処理負荷を軽減するために、例えば、画像比較を携帯型電子機器側で行うことが考えられる。しかし、精度のよい画像比較を行うためには、できるだけ高い解像度を有するマスター画像が必要となり、マスター画像のデータ量が大きくなる。そのような大きいデータ量のマスター画像を多数の店舗分、利用者の携帯型電子機器等の比較的小さい容量の記憶手段(ROM等)に記憶させると、携帯型電子機器の記憶手段(ROM等)の容量が圧迫されるため、好ましくない。マスター画像の解像度を低下させて、携帯情報端末の記憶手段に記憶させることも考えられるが、画像の比較において誤った判断が行われ、店舗特定の精度が低下するおそれがある。   In order to reduce the processing load on the server, for example, it is conceivable to perform image comparison on the portable electronic device side. However, in order to perform accurate image comparison, a master image having the highest possible resolution is required, and the data amount of the master image becomes large. If the master image of such a large amount of data is stored in a relatively small capacity storage means (ROM etc.) of the user's portable electronic equipment etc. for many stores, the storage means (ROM etc.) of the portable electronic equipment ) Is not preferable because the volume of Although it is conceivable to reduce the resolution of the master image and store it in the storage means of the portable information terminal, an erroneous determination may be made in the comparison of the images, and the accuracy of the shop specification may be reduced.

これを解決するため、本発明では、画像比較のためのデータとして各マットの模様の特徴点データを記憶手段に記憶させる。そのため、画像比較のためのデータの容量を小さくできる。   In order to solve this, according to the present invention, the feature point data of the pattern of each mat is stored in the storage means as data for image comparison. Therefore, the volume of data for image comparison can be reduced.

加えて、本発明では、各マットの模様の特徴点データを各マットの模様の設計画像から生成している。そのため、比較の基準の特徴点データの精度を高くできる。したがって、高い精度の比較を行うことが可能となる。記憶手段に記憶させる、比較の基準となるデータが例えば対象施設の管理者等により撮像装置を利用して撮像された撮像画像である場合、撮像時のピント精度、解像度、手ぶれ等によっては、マスター画像の品質が十分でない場合がある。しかし、本発明では、設計画像から特徴点を抽出して特徴点データを生成するため、上記のような撮影に伴う問題が生じない。したがって、一定の品質及び精度での比較が可能となる。   In addition, in the present invention, feature point data of the pattern of each mat is generated from the design image of the pattern of each mat. Therefore, the accuracy of the feature point data of the comparison reference can be increased. Therefore, it is possible to make a high accuracy comparison. If the data to be stored in the storage means and used as a reference for comparison is, for example, a captured image captured by an administrator of a target facility using an imaging device, the master may be a master depending on focus accuracy, resolution, camera shake etc. The quality of the image may not be sufficient. However, according to the present invention, the feature points are extracted from the design image to generate feature point data, so that the problem with the above-described imaging does not occur. Thus, a comparison with constant quality and accuracy is possible.

また、本発明では、各設計画像は、ビットマップ形式の画像である、これにより、各マットの模様の特徴点データとして、精度の高い特徴量の情報を格納した特徴点データを生成することができる。特徴点の抽出元の画像が例えばJPG形式やGIF形式等の圧縮形式の画像であると、圧縮に伴うブロックノイズ等の画像ノイズにより、得られる特徴点の特徴量も精度が低下する場合がある。しかし、本実施の形態では、各設計画像は、ビットマップ形式の画像であるため、ノイズ等の影響が抑制され、精度の高い特徴量等の情報を格納した特徴点データを生成することができる。したがって、比較の精度が向上することとなる。なお、本発明では、各設計画像を、JPG形式やGIF形式等の圧縮形式の画像とすることを排除するものではない。   Further, in the present invention, each design image is an image in a bitmap format, whereby, as feature point data of a pattern of each mat, generating feature point data storing information of feature quantities with high accuracy it can. If the image from which feature points are extracted is an image in a compression format such as, for example, JPG format or GIF format, the image feature noise such as block noise accompanying compression may also lower the accuracy of the feature quantity of the feature points obtained. . However, in the present embodiment, each design image is an image in a bitmap format, so the influence of noise and the like is suppressed, and feature point data storing information such as highly accurate feature amounts can be generated. . Therefore, the accuracy of comparison will be improved. In the present invention, it is not excluded that each design image is an image in a compression format such as JPG format or GIF format.

また、各設計画像は、複数のパイルの各々と1対1で対応する複数のドットを有するビットマップ形式の画像であるので、各マットの模様の特徴点データとして、より一層精度の高い特徴点データを生成することができる。したがって、比較の精度がより一層向上することとなる。   Further, since each design image is a bitmap format image having a plurality of dots corresponding to each of a plurality of piles in a one-to-one manner, feature points with higher accuracy can be obtained as feature point data of patterns of each mat. Data can be generated. Therefore, the accuracy of the comparison will be further improved.

さらに、本発明では、各設計画像は、模様の特徴点として抽出される部分を所定個数以上有するようにデザインされているので、マット及びマットと紐付けられた店舗の特定精度をより一層向上させることができる。   Furthermore, in the present invention, each design image is designed so as to have a predetermined number or more of portions extracted as feature points of a pattern, thereby further improving the identification accuracy of the mat and the store associated with the mat be able to.

(実施の形態2)
実施の形態2について説明する。
Second Embodiment
The second embodiment will be described.

1.構成
実施の形態1では、店舗情報の検索処理をサーバ20が行うが、本実施の形態では、携帯型電子機器10が店舗情報の検索処理を行う。また、店舗情報の検索処理を携帯型電子機器10が行うため、図16に示すように、携帯型電子機器10のROM16にも店舗情報DB34が記憶されている。なお、実施の形態1同様、サーバ20のHDD22にも店舗情報DB44(マスター)が記憶されている。以下、実施の形態1における携帯型電子機器10及びサーバ20との相違点を中心に説明する。
1. Configuration In the first embodiment, the server 20 performs a search process of store information, but in the present embodiment, the portable electronic device 10 performs a search process of store information. Further, since the portable electronic device 10 performs a search process of the store information, as shown in FIG. 16, the store information DB 34 is also stored in the ROM 16 of the portable electronic device 10. Similar to the first embodiment, the store information DB 44 (master) is also stored in the HDD 22 of the server 20. Hereinafter, differences from the portable electronic device 10 and the server 20 according to the first embodiment will be mainly described.

2.動作
2−1.携帯型電子機器の動作
図17は、実施の形態2における携帯型電子機器10の動作の一例を示したフローチャートである。
2. Operation 2-1. Operation of Portable Electronic Device FIG. 17 is a flowchart showing an example of the operation of the portable electronic device 10 according to the second embodiment.

本実施の形態におけるフローチャートでは、実施の形態1における図13のフローチャートのステップS20、S26、S27に代えて、ステップS20B、S26Aが設けられている。   In the flowchart in the present embodiment, steps S20B and S26A are provided in place of steps S20, S26 and S27 of the flowchart of FIG. 13 in the first embodiment.

具体的に、ステップS20Bでは、携帯型電子機器10のCPU15は、特徴点DB33及び店舗情報DB34の更新処理を行う。具体的に、携帯型電子機器10のCPU15は、通信I/F18を介してサーバ20と通信を行って、サーバ20に記憶されている特徴点DB43及び店舗情報DB44のバージョンと、携帯型電子機器10のROM16に記憶されている特徴点DB33及び店舗情報DB34のバージョンと、をそれぞれ比較し、携帯型電子機器10側の特徴点DB33及び/または店舗情報DB34のバージョンが古い場合は、サーバ20に記憶されている特徴点DB43及び/または店舗情報DB34をダウンロードし特徴点DB43及び/または店舗情報DB34の内容を更新する。これにより、携帯型電子機器10側の特徴点DB33及び店舗情報DB34のいずれも最新のバージョンで維持される。   Specifically, in step S20B, the CPU 15 of the portable electronic device 10 performs update processing of the feature point DB 33 and the store information DB 34. Specifically, the CPU 15 of the portable electronic device 10 communicates with the server 20 via the communication I / F 18, and the versions of the feature point DB 43 and the store information DB 44 stored in the server 20, and the portable electronic device The versions of the feature point DB 33 and the store information DB 34 stored in the ROM 16 of 10 are compared with each other, and when the version of the feature point DB 33 and / or the store information DB 34 on the portable electronic device 10 side is old The stored feature point DB 43 and / or the store information DB 34 are downloaded, and the contents of the feature point DB 43 and / or the store information DB 34 are updated. As a result, the feature point DB 33 on the portable electronic device 10 side and the store information DB 34 are both maintained at the latest version.

また、ステップS25において特徴点DBから最も高い一致度を有する特徴点データに紐付けられている店舗名の情報(識別情報の一例)を読み出すと(S25)、携帯型電子機器10のCPU15は、店舗情報DB34から、ステップS25で読み出した店舗名の情報に紐付けられている店舗情報(販促情報、位置情報、階数情報)を読み出す(S26A)   Further, when the information (an example of identification information) of the store name linked to the feature point data having the highest matching degree is read out from the feature point DB in step S25 (S25), the CPU 15 of the portable electronic device 10 The store information (sales promotion information, position information, floor number information) linked to the information of the store name read in step S 25 is read out from the store information DB 34 (S 26 A)

携帯型電子機器10のCPU15は、ステップ26Aで読み出した店舗情報(販促情報、位置情報、階数情報)が示す内容を表示部11に表示させ(S28)、実施の形態1同様、ステップS30の判断を行う。   The CPU 15 of the portable electronic device 10 causes the display unit 11 to display the contents indicated by the store information (promotional information, position information, floor information) read in step 26A (S28), and as in the first embodiment, the determination in step S30. I do.

2−2.サーバの動作
サーバ20は、携帯型電子機器10から、特徴点DB33や店舗情報DB34の更新要求があったときに、更新用データの送信処理等を行う。
2-2. Operation of Server When the portable electronic device 10 makes an update request for the feature point DB 33 and the store information DB 34, the server 20 performs transmission processing of update data and the like.

3.作用
本実施の形態によると、画像の比較処理を携帯型電子機器10が行う場合に、携帯型電子機器10のROM16に記憶させる、比較の基準となる各マットの模様のデータをできるだけ少なくしつつ、マット及びマットと紐付けられた店舗の特定精度をより一層向上させることができる。
3. According to the present embodiment, when the portable electronic device 10 performs the image comparison process, the pattern data of each mat serving as a comparison reference is stored in the ROM 16 of the portable electronic device 10 as much as possible. , And the identification accuracy of the mat and the store associated with the mat can be further improved.

また、本実施の形態によると、携帯型電子機器10のカメラ12でマットが撮像されてから表示部11(表示手段)へ施設関連情報を表示するまでの処理を、携帯型電子機器10側だけで、サーバ20との通信を行うことなく、完結することができる。そのため、例えば、サーバ20における店舗情報の検索負担が軽減されるとともに、携帯型電子機器10での店舗情報表示のレスポンスを向上させることができる。   Further, according to the present embodiment, processing from the image pickup of a mat by the camera 12 of the portable electronic device 10 to the display of the facility related information on the display unit 11 (display means) is performed only on the portable electronic device 10 side. Thus, the communication can be completed without communicating with the server 20. Therefore, for example, while the search burden of the store information in the server 20 is reduced, the response of the store information display in the portable electronic device 10 can be improved.

(実施の形態3)
実施の形態3について説明する。
Third Embodiment
The third embodiment will be described.

1.構成
実施の形態1では、撮像画像からの特徴点の抽出処理と、特徴点の比較処理との両方を携帯型電子機器10が行うが、本実施の形態では、撮像画像からの特徴点の抽出処理については携帯型電子機器10が行い、特徴点の比較処理についてはサーバ20が行う。また、特徴点の比較処理についてはサーバ20で行われるため、携帯型電子機器10のROM16は特徴点DBを記憶していない(図18参照)。なお、実施の形態1同様、サーバ20のHDD22に特徴点DB43(マスター)が記憶されている。以下、実施の形態1における携帯型電子機器10及びサーバ20との相違点を中心に説明する。
1. Configuration In the first embodiment, the portable electronic device 10 performs both the process of extracting feature points from the captured image and the process of comparing the feature points, but in the present embodiment, the feature points are extracted from the captured image. The portable electronic device 10 performs the process, and the server 20 performs the feature point comparison process. Further, since the feature point comparison process is performed by the server 20, the ROM 16 of the portable electronic device 10 does not store the feature point DB (see FIG. 18). As in the first embodiment, the feature point DB 43 (master) is stored in the HDD 22 of the server 20. Hereinafter, differences from the portable electronic device 10 and the server 20 according to the first embodiment will be mainly described.

2.動作
2−1.携帯型電子機器の動作
図19は、実施の形態3における携帯型電子機器10の動作の一例を示したフローチャートである。
2. Operation 2-1. Operation of Portable Electronic Device FIG. 19 is a flowchart showing an example of the operation of the portable electronic device 10 according to the third embodiment.

本実施の形態におけるフローチャートでは、実施の形態1におけるフローチャートのステップS20が削除されるとともに、ステップS23、24、S25に代えて、ステップS27Bが設けられている。   In the flowchart in the present embodiment, step S20 of the flowchart in the first embodiment is deleted, and step S27B is provided instead of steps S23, 24, and S25.

具体的には、ステップS22において、携帯型電子機器10のCPU15は、カメラ12で撮像された画像(撮像画像)から、特徴点を抽出する処理を行って、特徴点データを生成すると(S22)、生成した特徴点データを、通信I/F18を介してサーバ20に送信する(S22A)。   Specifically, in step S22, the CPU 15 of the portable electronic device 10 performs processing for extracting feature points from the image (captured image) captured by the camera 12 and generates feature point data (S22) The generated feature point data is transmitted to the server 20 via the communication I / F 18 (S22A).

携帯型電子機器10のCPU15は、送信した特徴点データに対する応答として、サーバ20から店舗情報を受信したか否かを判断する(S27)。   The CPU 15 of the portable electronic device 10 determines whether store information has been received from the server 20 as a response to the transmitted feature point data (S27).

サーバ20から店舗情報を受信した場合(S27でYES)、携帯型電子機器10のCPU15は、受信した店舗情報が示す内容を表示部11に表示させる(S28)。   When store information is received from the server 20 (YES in S27), the CPU 15 of the portable electronic device 10 causes the display unit 11 to display the content indicated by the received store information (S28).

これに対し、サーバ20から店舗情報を受信していない場合(S27でNO)、携帯型電子機器10のCPU15は、送信した特徴点データに対する応答として、サーバ20からエラー情報を受信したか否かを判断する(S27B)。   On the other hand, when store information has not been received from the server 20 (NO in S27), whether the CPU 15 of the portable electronic device 10 has received error information from the server 20 as a response to the transmitted feature point data (S27B).

サーバ20からエラー情報を受信していない場合(S27BでNO)、携帯型電子機器10のCPU15は、ステップS27の判断を実行する。   If the error information has not been received from the server 20 (NO in S27B), the CPU 15 of the portable electronic device 10 executes the determination of step S27.

サーバ20からエラー情報を受信した場合(S27BでYES)、携帯型電子機器10のCPU15は、受信したエラー情報が示す内容を、表示部11に表示させる(S29)。   If the error information is received from the server 20 (YES in S27B), the CPU 15 of the portable electronic device 10 causes the display unit 11 to display the content indicated by the received error information (S29).

ステップS28またはS29の実行後、携帯型電子機器10のCPU15は、実施の形態1同様、ステップS30の判断を行う。   After execution of step S28 or S29, the CPU 15 of the portable electronic device 10 performs the determination of step S30 as in the first embodiment.

2−2.サーバの動作
図20は、実施の形態3におけるサーバ20の動作の一例を示したフローチャートである。
2-2. Operation of Server FIG. 20 is a flow chart showing an example of the operation of the server 20 according to the third embodiment.

本実施の形態におけるフローチャートでは、実施の形態1における図15のフローチャートのステップS40に代えてステップS40Bが設けられている。また、ステップS41に代えて、ステップS40C、S40D、S40E、S42Bが設けられている。   In the flowchart of the present embodiment, step S40B is provided instead of step S40 of the flowchart of FIG. 15 in the first embodiment. Further, steps S40C, S40D, S40E, and S42B are provided instead of step S41.

具体的に、サーバ20のCPU21は、携帯型電子機器10から特徴点データを受信したか否かを判断する(S40B)。   Specifically, the CPU 21 of the server 20 determines whether feature point data has been received from the portable electronic device 10 (S40B).

携帯型電子機器10から特徴点データを受信していない場合(S40BでNO)、サーバ20のCPU21は、ステップ30Bの判断を再度実行する。   If feature point data has not been received from the portable electronic device 10 (NO in S40B), the CPU 21 of the server 20 executes the determination of step 30B again.

携帯型電子機器10から特徴点データを受信した場合(S40BでYES)、携帯型電子機器10から受信した特徴点データ、つまりカメラ12で撮像された画像(撮像画像)の特徴点データと、特徴点DB43に格納されている各特徴点データとを比較し、各特徴点データについて一致度を求める(S40C)。このステップS40Cの処理は、実施の形態1の図13のステップS23で携帯型電子機器10が行う処理と同様の処理である。また、実施の形態1同様、一致度は両者の類似の程度を示す値であり、特徴点の比較は、例えば、公知の特徴ベースマッチングの手法を用いて行うことができる。   When feature point data is received from the portable electronic device 10 (YES in S40B), feature point data received from the portable electronic device 10, that is, feature point data of an image (captured image) captured by the camera 12, and features Each feature point data stored in the point DB 43 is compared, and the degree of coincidence is obtained for each feature point data (S40C). The process of step S40C is similar to the process performed by the portable electronic device 10 in step S23 of FIG. 13 of the first embodiment. Further, as in the first embodiment, the coincidence is a value indicating the degree of similarity between the two, and feature points can be compared using, for example, a known feature-based matching method.

サーバ20のCPU21は、特徴点DB43に格納されている特徴点データの中に、所定一致度以上の一致度を有する特徴点データが存在するか否かを判断する(S40D)。このステップS40Dの処理は、実施の形態1の図13のステップS24で携帯型電子機器10が行う処理と同様の処理である。また、実施の形態1同様、所定一致度は、例えば、比較される両者がほぼ同一であるときの一致度に設定される。   The CPU 21 of the server 20 determines whether feature point data having a degree of coincidence equal to or more than a predetermined degree of coincidence exists in the characteristic point data stored in the characteristic point DB 43 (S40D). The process of step S40D is similar to the process performed by the portable electronic device 10 in step S24 of FIG. 13 of the first embodiment. Further, as in the first embodiment, the predetermined degree of coincidence is set, for example, to the degree of coincidence when the two to be compared are substantially the same.

所定一致度以上の一致度を有する特徴点データが存在する場合(S40DでYES)、サーバ20のCPU21は、特徴点DBから、最も高い一致度を有する特徴点データに紐付けられている店舗名の情報を読み出す(S40E)。   When feature point data having a degree of coincidence equal to or higher than a predetermined degree of coincidence exists (YES in S40D), the CPU 21 of the server 20 stores the store name associated with the characteristic point data having the highest degree of coincidence from the feature point DB. Information is read out (S40E).

サーバ20のCPU21は、店舗情報DB44から、ステップS40Eで読み出された店舗名の情報に紐づけられている店舗情報(販促情報、位置情報、階数情報)を店舗情報DB44から読み出す(S41)。   The CPU 21 of the server 20 reads out from the store information DB 44 the store information (promotional information, position information, floor number information) linked to the information of the store name read in step S40E from the store information DB 44 (S41).

サーバ20のCPU21は、ステップS41で読み出した店舗情報(販促情報、位置情報、階数情報)を、送信元の携帯型電子機器10に送信し(S42)、ステップS40Bの処理に戻る。   The CPU 21 of the server 20 transmits the store information (promotional information, position information, floor information) read in step S41 to the transmission source portable electronic device 10 (S42), and returns to the process of step S40B.

ステップS40Dにおいて、所定一致度以上の一致度を有する特徴点データが存在しない場合(S40DでNO)、サーバ20のCPU21は、エラー情報を送信元の携帯型電子機器10に送信し(S42B)、ステップS40Bの処理に戻る。   In step S40D, when there is no feature point data having a matching degree equal to or higher than a predetermined matching degree (NO in S40D), the CPU 21 of the server 20 transmits error information to the portable electronic device 10 of the transmission source (S42B) It returns to the process of step S40B.

3.作用
本実施の形態によると、比較処理をサーバ20が行う場合に、サーバ20のHDD22に記憶させる、比較の基準となる各マットの模様のデータの容量をできるだけ少なくしつつ、マット及びマットと紐付けられた店舗の特定精度をより一層向上させることができる。
3. According to the present embodiment, when the server 20 performs the comparison process, the mat, the mat and the string are stored while minimizing the volume of the pattern data of each mat as the reference of the comparison, which is stored in the HDD 22 of the server 20. The identification accuracy of the attached store can be further improved.

(実施の形態4)
実施の形態4について説明する。
Embodiment 4
The fourth embodiment will be described.

1.構成
実施の形態1では、撮像画像からの特徴点の抽出処理と、特徴点の比較処理との両方を携帯型電子機器10が行うが、本実施の形態ではこれらの処理の両方をサーバ20が行う。また、特徴点の比較処理をサーバ20が行うため、実施の形態3同様に、携帯型電子機器10のROM16には特徴点DBを格納していない。なお、実施の形態1〜3同様、サーバ20のHDD22に特徴点DB43(マスター)が格納されている。以下、実施の形態3における携帯型電子機器10及びサーバ20と相違点を中心に説明する。
1. Configuration In the first embodiment, the portable electronic device 10 performs both the feature point extraction process from the captured image and the feature point comparison process. However, in the present embodiment, the server 20 performs both of these processes. Do. Further, since the server 20 performs feature point comparison processing, the feature point DB is not stored in the ROM 16 of the portable electronic device 10 as in the third embodiment. As in the first to third embodiments, the feature point DB 43 (master) is stored in the HDD 22 of the server 20. Hereinafter, differences from the portable electronic device 10 and the server 20 in the third embodiment will be mainly described.

2.動作
2−1.携帯型電子機器の動作
図21は、実施の形態4における携帯型電子機器10の動作の一例を示したフローチャートである。
2. Operation 2-1. Operation of Portable Electronic Device FIG. 21 is a flowchart showing an example of the operation of the portable electronic device 10 according to the fourth embodiment.

本実施の形態におけるフローチャートでは、実施の形態3における図19のフローチャートのステップS22が削除されるとともに、ステップS22、S22Bに代えて、ステップS22Cが設けられている。   In the flowchart in the present embodiment, step S22 in the flowchart of FIG. 19 in the third embodiment is deleted, and step S22C is provided instead of steps S22 and S22B.

具体的には、カメラ12を利用して画像が撮像された場合(S21でYES)、携帯型電子機器10のCPU15は、通信I/F18を介してカメラ12の撮像画像をサーバ20に送信する(S22C)。そして、ステップS27以後において実施の形態3と同様の処理を行う。   Specifically, when an image is captured using the camera 12 (YES in S21), the CPU 15 of the portable electronic device 10 transmits the captured image of the camera 12 to the server 20 via the communication I / F 18. (S22C). Then, the same processing as that of the third embodiment is performed after step S27.

2−2.サーバの動作
図22は、実施の形態4におけるサーバ20の動作の一例を示したフローチャートである。
2-2. Operation of Server FIG. 22 is a flowchart showing an example of the operation of the server 20 in the fourth embodiment.

本実施の形態におけるフローチャートでは、実施の形態3における図20のフローチャートのステップS40Bに代えてステップS40F,S40Gが設けられている。   In the flowchart of the present embodiment, steps S40F and S40G are provided instead of step S40B of the flowchart of FIG. 20 in the third embodiment.

具体的には、サーバ20のCPU21は、携帯型電子機器10から撮像画像データを受信したか否かを判断する(S40F)。   Specifically, the CPU 21 of the server 20 determines whether captured image data has been received from the portable electronic device 10 (S40F).

携帯型電子機器10から撮像画像データを受信していない場合(S40FでNO)、サーバ20のCPU21は、ステップS40Fの判断を再度実行する。   If the captured image data has not been received from the portable electronic device 10 (NO in S40F), the CPU 21 of the server 20 executes the determination of step S40F again.

携帯型電子機器10から撮像画像データを受信した場合(S40FでYES)、サーバ20のCPU21は、撮像画像データから特徴点を抽出する処理を行って、特徴点データを生成する(S40G)。そして、ステップS40C以後において実施の形態3と同様の処理を行う。サーバ20のCPU21は、ステップS40Gで生成した特徴点データ、つまりカメラ12で撮像された画像(撮像画像)から生成した特徴点データと、特徴点DB43に格納されている各特徴点データとを比較し、各特徴点データについて一致度を求める(S40C)等の処理を行う、そして以後、実施の形態3と同様の処理を行う。   When captured image data is received from the portable electronic device 10 (YES in S40F), the CPU 21 of the server 20 performs processing of extracting a feature point from the captured image data to generate feature point data (S40G). Then, the same processing as that of the third embodiment is performed after step S40C. The CPU 21 of the server 20 compares the feature point data generated in step S40G, that is, the feature point data generated from the image (captured image) captured by the camera 12 with the feature point data stored in the feature point DB 43. Then, processing such as (S40C) is performed to obtain the degree of coincidence for each feature point data, and thereafter, the same processing as that of the third embodiment is performed.

3.作用
本実施の形態によると、比較処理をサーバ20が行う場合に、サーバ20のHDD22に記憶させる、比較の基準となる各マットの模様のデータの容量をできるだけ少なくしつつ、マット及びマットと紐付けられた店舗の特定精度をより一層向上させることができる。
3. According to the present embodiment, when the server 20 performs the comparison process, the mat, the mat and the string are stored while minimizing the volume of the pattern data of each mat as the reference of the comparison, which is stored in the HDD 22 of the server 20. The identification accuracy of the attached store can be further improved.

また、携帯型電子機器10において撮像画像からの特徴点の抽出処理が不要であるため、CPU15の演算能力の高低によらず、一定のレスポンスが得られる。   In addition, since extraction processing of feature points from a captured image is unnecessary in the portable electronic device 10, a constant response can be obtained regardless of the level of the computing capacity of the CPU 15.

(まとめ)
以上、本発明に係る施設特定装置を、実施の形態1、2では携帯型電子機器10に適用した例を説明し、実施の形態3、4ではサーバ20に適用した例を説明した。以下、上述した各実施の形態の構成を特許請求の範囲と対比する形式で説明する。なお、この対比は、特許請求の範囲に記載の各請求項に係る発明の理解を容易化させためのものであって、各発明を限定するものではない。他の態様については、他の実施の形態で説明する。
(Summary)
As described above, in the first and second embodiments, the facility identification apparatus according to the present invention is applied to the portable electronic device 10, and in the third and fourth embodiments, the application is applied to the server 20. Hereinafter, the configuration of each embodiment described above will be described in a form in comparison with the scope of the claims. Note that this comparison is for the purpose of facilitating the understanding of the invention according to the claims described in the claims, and does not limit the invention. Other aspects will be described in other embodiments.

(1)施設特定装置(実施の形態1、2における携帯型電子機器10、または実施の形態3、4におけるサーバ20)は、
複数の対象施設(店舗(一例))の各々について、対象施設の識別情報(店舗名(一例))と、対象施設に設置され且つ対象施設毎に異なる模様を有するマットの模様の特徴点データと、を紐付けて記憶する記憶手段(実施の形態1、2におけるROM16、または実施の形態3、4におけるHDD22)と、
撮像手段(カメラ12)で撮像された撮像画像から第1の制御手段(実施の形態1、2、4におけるCPU15、または実施の形態3におけるCPU21)によって生成された特徴点データと、記憶手段に記憶されている複数のマットの模様の特徴点データの各々とを比較することで、撮像画像に複数のマットのいずれかが含まれているか否かを判断し、含まれていると判断したときは、記憶手段から、撮像画像に含まれていると判断されたマットの模様の特徴点データと紐づけられている、対象施設の識別情報(店舗の名称)を取得する第2の制御手段(実施の形態1、2におけるCPU15、または実施の形態3、4におけるCPU21)と、を含む。
記憶手段に記憶されている各マットの模様の特徴点データは、各マットの模様の設計画像から生成されている。
(1) A facility specifying device (the portable electronic device 10 in the first and second embodiments or the server 20 in the third and fourth embodiments) is
For each of a plurality of target facilities (stores (one example)), identification information of the target facilities (store name (one example)) and feature point data of a mat pattern installed in the target facilities and having a different pattern for each target facility And storage means for associating and storing (the ROM 16 in the first and second embodiments or the HDD 22 in the third and fourth embodiments);
The feature point data generated by the first control means (CPU 15 in Embodiments 1, 2 or 4 or CPU 21 in Embodiment 3) from the image captured by the imaging means (camera 12), and storage means When it is determined whether or not any of a plurality of mats is included in the captured image by comparing each of the stored feature point data of patterns of a plurality of mats, and it is determined that it is included. Is a second control means for acquiring the identification information (name of a store) of the target facility, which is linked with the feature point data of the pattern of the mat determined to be included in the captured image, from the storage means And the CPU 15 in the first and second embodiments or the CPU 21 in the third and fourth embodiments.
The feature point data of the pattern of each mat stored in the storage means is generated from the design image of the pattern of each mat.

これにより、マットを利用して対象施設を特定する場合に、記憶手段に記憶させる各対象施設のマットの画像に関するデータ量を減少させつつ、高い精度での施設特定が可能となる。特に、記憶手段が一般にROMで構成される携帯型電子機器では、記憶手段の容量に制約があるが、本発明の施設特定装置は、このような携帯型電子機器であっても好適に適用できる。また、各マットの模様の特徴点データを各マットの模様の設計画像から生成しているため、記憶手段に記憶させる、比較の基準となる各対象施設の特徴点データの精度を高くできる。したがって、高い精度の比較を行うことが可能となる。   As a result, when specifying the target facility using the mat, it is possible to specify the facility with high accuracy while reducing the amount of data regarding the image of the mat of each target facility to be stored in the storage means. In particular, in portable electronic devices whose storage means are generally ROM, the capacity of the storage means is limited, but the facility specifying apparatus of the present invention can be suitably applied even to such portable electronic devices. . Further, since the feature point data of the pattern of each mat is generated from the design image of the pattern of each mat, the accuracy of the feature point data of each target facility serving as the reference of comparison stored in the storage means can be enhanced. Therefore, it is possible to make a high accuracy comparison.

(2)施設特定装置(実施の形態1、2、4における携帯型電子機器10、または実施の形態3におけるサーバ20)は、
撮像画像から特徴点を抽出して特徴点データを生成する第1の制御手段(実施の形態1、2、4におけるCPU15、または実施の形態3におけるCPU21)と、をさらに含む。
(2) The facility specifying device (the portable electronic device 10 in the first, second, or fourth embodiment, or the server 20 in the third embodiment) is
It further includes first control means (CPU 15 in Embodiments 1, 2, 4 or CPU 21 in Embodiment 3) for extracting feature points from the captured image and generating feature point data.

これにより、施設特定装置自体によって、撮像画像から特徴点データを生成することができる。   Thus, the facility identification apparatus itself can generate feature point data from the captured image.

(3)施設特定装置(実施の形態1、2における携帯型電子機器10)は、
撮像手段(カメラ12)をさらに含む。
(3) The facility identification device (the portable electronic device 10 in the first and second embodiments)
It further includes an imaging means (camera 12).

これにより、施設特定装置自体によって、画像を撮像して撮像画像を得ることができる。   Thus, the facility identification device itself can capture an image and obtain a captured image.

(4)施設特定装置(実施の形態2における携帯型電子機器10、または実施の形態3、4におけるサーバ20)は、
複数の対象施設の各々について、対象施設の識別情報と、対象施設に関連する施設関連情報(店舗情報)とを紐付けて記憶する第2の記憶手段(実施の形態2におけるROM16、または実施の形態1、3、4におけるHDD22)と、
第2の制御手段によって取得された識別情報と紐付けられている施設関連情報を読み出す第3の制御手段(実施の形態2におけるCPU15、または実施の形態1、3、4におけるCPU21)と、をさらに含む。
(4) The facility specifying device (the portable electronic device 10 in the second embodiment or the server 20 in the third and fourth embodiments) is
A second storage unit (the ROM 16 in the second embodiment or the embodiment stores the identification information of the target facility and the facility related information (store information) related to the target facility in association with each of a plurality of target facilities. HDD 22) in modes 1, 3 and 4;
Third control means (the CPU 15 in the second embodiment or the CPU 21 in the first, third and fourth embodiments) for reading out the facility related information linked with the identification information acquired by the second control means; Further include.

これにより、マットが設置されている対象施設についての施設関連情報を取得することができる。   Thereby, the facility related information on the target facility where the mat is installed can be acquired.

(5)施設特定装置(実施の形態1、2における携帯型電子機器10)は、
画像を表示する第1の表示手段(表示部11)と、
第3の制御手段(実施の形態2におけるCPU15、または実施の形態1、3、4におけるCPU21)で読み出された施設関連情報が示す内容を第1の表示手段に表示させる第4の制御手段(実施の形態1、2におけるCPU15)と、をさらに含む。
(5) The facility specifying device (the portable electronic device 10 in the first and second embodiments) is
First display means (display unit 11) for displaying an image;
Fourth control means for causing the first display means to display contents indicated by facility related information read by the third control means (the CPU 15 in the second embodiment or the CPU 21 in the first, third and fourth embodiments) And (CPU 15 in the first and second embodiments).

これにより、施設特定装置(実施の形態1、2における携帯型電子機器10)の利用者に、第1の表示手段により施設関連情報を提示することができる。   Thus, the facility related information can be presented to the user of the facility specifying device (the portable electronic device 10 in the first and second embodiments) by the first display means.

(6)施設特定装置(実施の形態1、2における携帯型電子機器10)は、
画像を表示する第2の表示手段(表示部11)と、
第2の制御手段(実施の形態1、2におけるCPU15、または実施の形態3、4におけるCPU21)で取得された識別情報が示す内容を第2の表示手段に表示させる第5の制御手段(実施の形態1、2におけるCPU15)と、をさらに含む。
(6) The facility specifying device (the portable electronic device 10 in the first and second embodiments) is
Second display means (display unit 11) for displaying an image;
Fifth control means (implementation for causing the second display means to display the content indicated by the identification information acquired by the second control means (CPU 15 in Embodiments 1 and 2 or CPU 21 in Embodiments 3 and 4) And the CPU 15) in the first and second embodiments.

これにより、施設特定装置(実施の形態1、2における携帯型電子機器10)の利用者に、第2の表示手段により対象施設の識別情報を提示することができる。   Thereby, the second display means can present the identification information of the target facility to the user of the facility specifying device (the portable electronic device 10 in the first and second embodiments).

(7)施設特定装置(実施の形態1、2における携帯型電子機器10、または実施の形態3、4におけるサーバ20)において、
各設計画像は、ビットマップ形式の画像である、
(7) In the facility specifying device (the portable electronic device 10 in the first and second embodiments or the server 20 in the third and fourth embodiments),
Each design image is an image in bitmap format,

これにより、各マットの模様の特徴点データとして、精度の高い特徴量等の情報を格納した特徴点データを生成することができる。具体的には、特徴点の抽出元の画像が例えばJPG形式やGIF形式等の圧縮形式の画像であると、圧縮に伴う画像ノイズにより、得られる特徴点の特徴量も精度が低下する場合がある。しかし、本実施の形態では、各設計画像は、ビットマップ形式の画像であるため、ノイズ等の影響が抑制され、精度の高い特徴量等の情報を格納した特徴点データを生成することができる。したがって、比較の精度が向上することとなる。   Thus, it is possible to generate feature point data storing information such as highly accurate feature amounts as the feature point data of the pattern of each mat. Specifically, if the image from which feature points are extracted is an image in a compression format such as JPG format or GIF format, for example, the accuracy of the feature quantity of the feature points obtained may also decrease due to image noise accompanying compression. is there. However, in the present embodiment, each design image is an image in a bitmap format, so the influence of noise and the like is suppressed, and feature point data storing information such as highly accurate feature amounts can be generated. . Therefore, the accuracy of comparison will be improved.

(8)施設特定装置(実施の形態1、2における携帯型電子機器10、または実施の形態3、4におけるサーバ20)において、
各マットは、複数のパイルを有するパイルマットであり、
各設計画像は、各マットの模様を示す画像であって、複数のパイルの各々と1対1で対応する複数のドットを有するビットマップ形式の画像である。
(8) In the facility specifying device (the portable electronic device 10 in the first and second embodiments or the server 20 in the third and fourth embodiments),
Each mat is a pile mat having a plurality of piles,
Each design image is an image showing a pattern of each mat, and is a bitmap image having a plurality of dots corresponding to each of a plurality of piles one to one.

これにより、各マットの模様の特徴点データとして、より一層精度の高い特徴点データを生成することができる。したがって、比較の精度がより一層向上することとなる。   As a result, feature point data with higher accuracy can be generated as feature point data of the pattern of each mat. Therefore, the accuracy of the comparison will be further improved.

(9)施設特定装置(実施の形態1、2における携帯型電子機器10、または実施の形態3、4におけるサーバ20)において、
設計画像に係るマットは、第1の制御手段による特徴点の抽出が所定の特徴点抽出アルゴリズムを利用して行われる場合に、特徴点として抽出される部分を所定個数以上有するようにデザインされている。
(9) In the facility specifying device (the portable electronic device 10 in the first and second embodiments or the server 20 in the third and fourth embodiments),
The mat relating to the design image is designed to have a predetermined number or more of portions to be extracted as feature points when the extraction of feature points by the first control means is performed using a predetermined feature point extraction algorithm There is.

これにより、特定精度をより一層向上させることができる。   This can further improve the identification accuracy.

(10)実施の形態における施設特定装置において、
施設関連情報は、マットが設置されている対象施設の位置を示す情報である。
(10) In the facility specifying device in the embodiment,
The facility related information is information indicating the position of the target facility where the mat is installed.

これにより、表示手段に、マットが設置されている対象施設の位置を表示させることができる。   Thereby, the display means can display the position of the target facility where the mat is installed.

(11)実施の形態における施設特定装置において、
施設関連情報は、マットが設置されている対象施設における販売促進情報である。
(11) In the facility specifying device in the embodiment,
Facility related information is sales promotion information in a target facility where a mat is installed.

これにより、表示手段に、マットが設置されている対象施設における販売促進情報を表示させることができる。   As a result, the sales promotion information in the target facility where the mat is installed can be displayed on the display means.

(12)実施の形態における施設特定装置において、
第2の制御手段は、第1の制御手段によって生成された特徴点データと、記憶手段に記憶されている各マットの模様の特徴点データとを比較してそれぞれ一致度を求め、所定一致度以上の一致度を有する特徴点データのうち最も高い一致度を有する特徴点データと紐づけられている、対象施設の識別情報を取得する。
(12) In the facility specifying device in the embodiment,
The second control means compares the feature point data generated by the first control means with the feature point data of the pattern of each mat stored in the storage means to obtain the degree of coincidence, and the predetermined degree of coincidence The identification information of the target facility associated with the feature point data having the highest matching degree among the feature point data having the matching degree is acquired.

これにより、より高い精度での対象施設の特定が可能となる。   This makes it possible to identify the target facility with higher accuracy.

(13)実施の形態における施設特定プログラム(実施の形態1、2におけるアプリケーションプログラム32、または実施の形態3、4におけるアプリケーションプログラム42)は、
コンピュータ(実施の形態1、2におけるCPU15、または実施の形態3、4におけるCPU21)を、施設特定装置(実施の形態1、2における携帯型電子機器10、または実施の形態3、4におけるサーバ20)における第1の制御手段及び/または第2の制御手段として機能させる。
(13) The facility identification program in the embodiment (the application program 32 in the embodiments 1 and 2 or the application program 42 in the embodiments 3 and 4)
A computer (the CPU 15 in Embodiments 1 and 2 or the CPU 21 in Embodiments 3 and 4) is a facility specifying device (the portable electronic device 10 in Embodiments 1 and 2 or the server 20 in Embodiments 3 and 4). Function as the first control means and / or the second control means in the above.

(その他の実施の形態)
前記各実施の形態では、マットがパイルマットである場合を例示したが、本発明に係る施設特定装置では、マットがパイルマット以外のマットであってもよい。例えば、マットは、ゴム素材の表面に印刷により模様を形成したゴムマットであってもよい。また、無地のパイルマットの表面にインクジェットプリンタなどを利用して印刷により模様を形成したマットであってもよい。なお、無地のパイルマットの表面にインクジェットプリンタなどで印刷により模様を形成した場合には、設計画像上でパイルとドットが1対1で対応していても、出来上がったマットでは1つのパイルに複数の色が付着することがあるが、これは本発明の想定しているところであり、本発明の効果に影響を与えるものではない。本発明は、比較の基準となるマットの模様の特徴点データを、各マットの模様の設計画像から生成するということに特徴があり、この特徴により、比較の基準となるマットの模様の特徴点データを実物のマットを撮影した画像から作成する場合よりも、比較の基準となる特徴点データの精度を高くできるものである。そして、利用者の携帯型電子機器で撮像された撮像画像に含まれるマットとの比較を精度よく行うことができるものである。
(Other embodiments)
Although the case where mat | matte was pile mat was illustrated in said each embodiment, mat | matte other than pile mat may be sufficient as the mat | matte by the plant | facility identification apparatus which concerns on this invention. For example, the mat may be a rubber mat in which a pattern is formed on the surface of a rubber material by printing. Moreover, the mat | matte which formed the pattern by printing using the inkjet printer etc. may be sufficient on the surface of a plain pile mat. When a pattern is formed on the surface of a plain pile mat by printing using an inkjet printer or the like, even if piles and dots correspond one-to-one on the design image, there are a plurality of piles in the finished mat. Although the color of the ink may adhere, this is as assumed in the present invention and does not affect the effect of the present invention. The present invention is characterized in that feature point data of mat patterns serving as a reference for comparison are generated from design images of patterns for each mat. This feature makes it possible to use feature points for the mat pattern serving as a reference for comparison. The accuracy of feature point data as a reference of comparison can be made higher than in the case where data is created from an image obtained by photographing a real mat. And the comparison with the mat | matte contained in the captured image imaged with the portable electronic device of the user can be performed accurately.

また、前記各実施の形態では、マットの模様の設計画像がビットマップ形式の画像であって、設計画像のドットとパイルとが1対1で対応する例を示した。しかし、本発明におけるマットの模様の設計画像では、例えば、パイル1本に対して複数のドットを対応させたり、パイルn本に対して1個のドットを対応させたりしてもよい。   In each of the above embodiments, the design image of the matte pattern is a bitmap image, and dots and piles of the design image correspond to each other on a one-to-one basis. However, in the design image of the mat pattern in the present invention, for example, a plurality of dots may correspond to one pile, or one dot may correspond to n piles.

前記実施の形態1、2では、本発明に係る施設特定装置を携帯型電子機器に適用し、携帯型電子機器がスマートフォンである場合を例示した。しかし、本発明における施設特定装置としての携帯型電子機器は、例えば、折りたたみ式の携帯電話機、タブレット型のコンピュータ、ノートブック型コンピュータ、スカウター型ツール、コンパクトデジタルカメラ、デジタル一眼カメラ等であってもよい。   In the first and second embodiments, the facility specifying device according to the present invention is applied to a portable electronic device, and the case is exemplified where the portable electronic device is a smartphone. However, the portable electronic device as the facility specifying device in the present invention may be, for example, a foldable mobile phone, a tablet computer, a notebook computer, a scouter tool, a compact digital camera, a digital single-lens camera, etc. Good.

また、前記実施の形態3、4では、本発明に係る施設特定装置をサーバに適用し、サーバが1台である例を説明した。しかし、本発明における施設特定装置としてのサーバは、インターネットや専用のネットワークを介して接続された複数台のコンピュータで構成されてもよい。すなわち、本発明における記憶手段、第2の記憶手段、第1〜第3の制御手段を、1つずつ、あるいは任意に組み合わせて分散配置してもよい。分散配置する場合、分散配置したコンピュータ間で、記憶手段、第2の記憶手段で記憶されているデータや、第1〜第3の制御手段で生成されたデータあるいは処理結果を示すデータを、インターネットや専用のネットワークを介して送受信すればよい。ネットワークを介したデータの授受では、任意のプロトコルを利用すればよい。   In the third and fourth embodiments, the facility specifying device according to the present invention is applied to a server, and an example in which the number of servers is one has been described. However, the server as the facility specifying device in the present invention may be configured by a plurality of computers connected via the Internet or a dedicated network. That is, the storage means, the second storage means, and the first to third control means in the present invention may be distributed and disposed one by one or in any combination. In the case of distributed arrangement, the data stored in the storage means, the second storage means, the data generated by the first to third control means, or the data indicating the processing result among the distributedly arranged computers, are transmitted to the Internet. You may send and receive via a dedicated network. An arbitrary protocol may be used to exchange data via the network.

また、前記各実施の形態では、マットが設置されている対象施設が店舗である場合について説明したが、これに限定されない。本発明は、報知してもよい情報を有する種々の施設を対象施設とすることができる。   Moreover, although the said each embodiment demonstrated the case where the object plant | facility in which the mat | matte was installed was a shop, it is not limited to this. The present invention can target various facilities having information that may be notified.

例えば、対象施設は、都道府県庁、市役所、町村役場、その他の官公庁施設であってもよい。また、対象施設は、小学校、中学校、高校、大学、専門学校、その他の教育施設であってもよい。あるいは、対象施設は、老人ホーム、病院等の施設であってもよい。店舗以外の対象施設の場合、上記各実施の形態における店舗情報DBに代えて、対象施設に関するデータベース(対象施設情報データベース)を設ければよい。対象施設情報データベースには、対象施設に対応させて、少なくとも、対象施設に関して報知させたい所定の情報(対象施設情報)を記憶させておけばよい。また、対象施設情報データベースには、位置情報や対象施設の階数情報を記憶させておいてもよい。なお、上記のような種々のカテゴリの対象施設のうちの複数または全てのカテゴリの対象施設を対象とする場合、対象施設情報データベースは、対象とする全ての対象施設に関する対象施設情報を含むように構成すればよい。   For example, the target facility may be a prefectural office, a city office, a town office, or any other public office facility. Also, the target facilities may be elementary schools, junior high schools, high schools, universities, vocational schools, and other educational facilities. Alternatively, the target facilities may be facilities such as nursing homes and hospitals. In the case of a target facility other than a store, a database (target facility information database) regarding the target facility may be provided instead of the store information DB in each of the above embodiments. The target facility information database may store at least predetermined information (target facility information) to be notified about the target facility in correspondence with the target facility. Further, the target facility information database may store position information and floor number information of the target facility. When target facilities of a plurality of or all categories of target facilities of various categories as described above are targeted, the target facility information database includes target facility information on all target facilities to be targeted. It should be configured.

一例として、対象施設が官公庁施設の場合について説明する。この場合、官公庁施設の入口の前にマットを設置するとともに、対象施設情報データベースに対象施設情報として例えばご当地キャラクタ画像や観光案内情報を記憶させておき、撮像画像中にマットが含まれていると判定したときに、対象施設情報をサーバ20から出力して、携帯型電子機器10の表示部11に、ご当地キャラクタ画像や観光案内情報を表示させるようにしてもよい。   As an example, the case where the target facility is a government office facility will be described. In this case, a mat is installed in front of the entrance of a government office facility, and, for example, local character images and tourist guidance information are stored in the target facility information database as target facility information, and the mat is included in the captured image. When it is determined, the target facility information may be output from the server 20, and the local character image or the tourist guidance information may be displayed on the display unit 11 of the portable electronic device 10.

なお、前記実施の形態においては、店舗情報DB(対象施設情報DB)に、位置情報として、店舗においてマットが設置された位置の情報を記憶させているが、マットの位置情報に代えて、店舗(対象施設)の位置情報(対象施設が所在する位置の緯度、経度等の情報)を記憶させてもよい。これによっても、ユーザの現在位置とほぼ等しい位置を、ユーザに対して報知することができる。   In the above embodiment, the store information DB (target facility information DB) stores the information on the position where the mat is installed in the store as the position information, but instead of the position information on the mat, the store The position information of the (target facility) (information such as the latitude and longitude of the position where the target facility is located) may be stored. Also in this case, it is possible to notify the user of a position substantially equal to the current position of the user.

また、本発明においては、マットが設置される対象施設として、建築物だけでなく、建築物内のテナント施設、建築物内の通路、複数の建築物間の通路、テナント等の仮設施設等を設定することができる。例えば、対象施設として店舗内の通路を設定してもよく、この場合、店舗内の通路上にマットを設置するとともに、対象施設情報DBに対象施設情報として例えば当該通路近傍に陳列されている商品に関する情報を記憶させておき、撮像画像中にマットが含まれていると判定したときに、当該通路近傍に陳列されている商品に関する情報を表示してもよい。また、対象施設として、複数のテナントが入居するショッピングモールやデパート等の大規模商業施設等の通路を設定してもよい。この場合、対象施設情報DBに対象施設情報としてショッピングモール全体としての情報や通路近傍に存在するテナントに関する情報等を記憶させておき、撮像画像中にマットが含まれていると判定したときに、対象施設情報をサーバ20から出力して、携帯型電子機器10の表示部11に、ショッピングモール全体としての情報や通路近傍に存在するテナントに関する情報等を表示させるようにしてもよい。   Furthermore, in the present invention, not only buildings but also tenant facilities in buildings, passages in buildings, passages between multiple buildings, temporary facilities such as tenants, etc. are used as target facilities on which mats are installed. It can be set. For example, the passage in the store may be set as the target facility, and in this case, a mat is installed on the passage in the store, and a product displayed in the vicinity of the passage as target facility information in the target facility information DB. The information on the item may be stored, and when it is determined that the mat is included in the captured image, the information on the product displayed in the vicinity of the passage may be displayed. In addition, a passage such as a large-scale commercial facility such as a shopping mall or a department store in which a plurality of tenants move may be set as the target facility. In this case, when it is determined that the target facility information DB stores information on the entire shopping mall, information on a tenant existing in the vicinity of the passage, and the like as target facility information, and it is determined that a mat is included in the captured image The target facility information may be output from the server 20, and the display unit 11 of the portable electronic device 10 may display information on the entire shopping mall, information on a tenant present in the vicinity of the passage, and the like.

また、対象施設は、建築物等の内外に設置される種々の設備であってもよい。例えば、対象施設としての設備は、店舗内に配置される商品陳列棚であってもよい。この場合、商品陳列棚の前にマットを設置するとともに、対象施設情報DBに対象施設情報として例えば商品陳列棚に陳列されている商品の情報を記憶させておき、撮像画像中にマットが含まれていると判定したときに、商品陳列棚に陳列されている商品の情報をサーバ20から出力して、携帯型電子機器10の表示部11に表示させるようにしてもよい。   Further, the target facility may be various facilities installed inside or outside a building or the like. For example, the equipment as the target facility may be a commodity display shelf disposed in a store. In this case, a mat is installed in front of the product display rack, and information on the product displayed on the product display rack is stored as the target facility information in the target facility information DB, for example, and the mat is included in the captured image. When it is determined, the information on the product displayed on the product display rack may be output from the server 20 and displayed on the display unit 11 of the portable electronic device 10.

また、対象施設としての設備は、例えば、自動販売機であってもよい。この場合、自動販売機の前にマットを設置するとともに、対象施設情報DBに対象施設情報として例えば自動販売機で販売されている商品の情報を記憶させておき、撮像画像中にマットが含まれていると判定したときに、自動販売機で販売している商品の情報をサーバ20から出力して、携帯型電子機器10の表示部11に表示させるようにしてもよい。   The equipment as the target facility may be, for example, a vending machine. In this case, a mat is installed in front of the vending machine, and, for example, information of products sold by the vending machine is stored in the target facility information DB as target facility information, and the mat is included in the captured image. When it is determined, the information on the product sold by the vending machine may be output from the server 20 and displayed on the display unit 11 of the portable electronic device 10.

また、本実施の形態では、撮像された画像Gに、情報J及び枠を重畳して表示する例を説明したが、これに限らない。例えば、情報Jに関する文字のみを表示してもよい。また、情報の表示とともに音声により情報を伝達するようにしてもよい。この場合、スマートフォン等の携帯型電子機器にほぼ標準的に実装されているスピーカから音声を発生させればよい。さらに、マットM上にあたかも店員が存在しているかのように、店員のキャラクタを表示させるとともに、情報Jの表示を行ったり、当該キャラクタが喋っているかのように音声を発生させたりしてもよい。店舗においては、通常、マットMは店舗の入口に配置されるので、上記のように、マットM上に店員を表示させることにより、店舗の入口を案内することにもなる。   Moreover, although the example which superimposes and displays the information J and the frame on the imaged image G was demonstrated in this Embodiment, it does not restrict to this. For example, only characters relating to the information J may be displayed. Further, the information may be transmitted by voice together with the display of the information. In this case, sound may be generated from a speaker that is generally mounted on a portable electronic device such as a smartphone. Furthermore, even if the character of the clerk is displayed as if the clerk is present on the mat M, the information J is displayed or the voice is generated as if the character is singing. Good. In the store, since the mat M is usually arranged at the entrance of the store, displaying the store clerk on the mat M as described above also guides the entrance of the store.

10 携帯型電子機器
11 表示部
12 カメラ
13 操作部
14 タッチパネル
15 CPU
16 ROM
17 RAM
18 通信インタフェース
20 サーバ
21 CPU
22 HDD
23 RAM
24 通信インタフェース
30 ネットワーク
10 Portable Electronic Device 11 Display Unit 12 Camera 13 Operation Unit 14 Touch Panel 15 CPU
16 ROM
17 RAM
18 Communication Interface 20 Server 21 CPU
22 HDD
23 RAM
24 Communication Interface 30 Network

Claims (13)

複数の対象施設の各々について、対象施設の識別情報と、対象施設に設置され且つ対象施設毎に異なる模様を有するマットの模様の特徴点データと、を紐付けて記憶する記憶手段と、
撮像手段で撮像された撮像画像から第1の制御手段によって生成された特徴点データと、前記記憶手段に記憶されている各マットの模様の特徴点データとを比較することで、前記撮像画像にいずれかのマットが含まれているか否かを判断し、含まれていると判断したときは、前記記憶手段から、前記撮像画像に含まれていると判断されたマットの模様の特徴点データと紐づけられている、対象施設の識別情報を取得する第2の制御手段と、を含み、
前記記憶手段に記憶されている各マットの模様の特徴点データは、各マットの模様の設計画像から生成されている、
施設特定装置。
Storage means for correlating and storing, for each of a plurality of target facilities, identification information of the target facility and feature point data of a mat pattern installed in the target facility and having a different pattern for each target facility;
The feature point data generated by the first control unit from the captured image captured by the imaging unit is compared with the feature point data of the pattern of each mat stored in the storage unit to obtain the captured image. It is determined whether any mat is included, and when it is determined that it is included, feature point data of the pattern of the mat determined to be included in the captured image from the storage means And second control means for acquiring identification information of a target facility, which is linked;
The feature point data of the pattern of each mat stored in the storage means is generated from the design image of the pattern of each mat,
Facility identification device.
前記撮像画像から特徴点を抽出して特徴点データを生成する前記第1の制御手段をさらに含む、
請求項1に記載の施設特定装置。
It further includes the first control means for extracting feature points from the captured image to generate feature point data.
The facility identification device according to claim 1.
前記撮像手段をさらに含む、
請求項1または2に記載の施設特定装置。
Further comprising the imaging means;
The facility specifying device according to claim 1.
前記複数の対象施設の各々について、対象施設の識別情報と、対象施設に関連する施設関連情報とを紐付けて記憶する第2の記憶手段と、
前記第2の制御手段によって取得された識別情報と紐付けられている施設関連情報を読み出す第3の制御手段と、をさらに含む、
請求項1から3のいずれか1項に記載の施設特定装置。
A second storage unit that associates identification information of a target facility with facility-related information related to the target facility for each of the plurality of target facilities;
And third control means for reading out the facility related information associated with the identification information acquired by the second control means.
The facility specifying device according to any one of claims 1 to 3.
画像を表示する第1の表示手段と、
前記第3の制御手段で読み出された施設関連情報が示す内容を前記第1の表示手段に表示させる第4の制御手段と、をさらに含む、
請求項4に記載の施設特定装置。
First display means for displaying an image;
And fourth control means for causing the first display means to display contents indicated by the facility related information read out by the third control means.
The facility identification device according to claim 4.
画像を表示する第2の表示手段と、
前記第2の制御手段で取得された前記識別情報が示す内容を前記第2の表示手段に表示させる第5の制御手段と、をさらに含む、
請求項1から4のいずれか1項に記載の施設特定装置。
Second display means for displaying an image;
And fifth control means for causing the second display means to display the content indicated by the identification information acquired by the second control means.
The facility identification device according to any one of claims 1 to 4.
各設計画像は、ビットマップ形式の画像である、
請求項1から6のいずれか1項に記載の施設特定装置。
Each design image is an image in bitmap format,
The facility identification device according to any one of claims 1 to 6.
各マットは、複数のパイルを有するパイルマットであり、
各設計画像は、前記複数のパイルの各々と1対1で対応する複数のドットを有するビットマップ形式の画像である、
請求項7に記載の施設特定装置。
Each mat is a pile mat having a plurality of piles,
Each design image is a bitmap image having a plurality of dots corresponding to each of the plurality of piles in a one-to-one manner.
The facility identification device according to claim 7.
各設計画像は、前記第1の制御手段による特徴点の抽出が所定の特徴点抽出アルゴリズムを利用して行われる場合に、特徴点として抽出される部分を所定個数以上有するようにデザインされている、
請求項1から8のいずれか1項に記載の施設特定装置。
Each design image is designed to have a predetermined number or more of portions to be extracted as feature points when the extraction of feature points by the first control means is performed using a predetermined feature point extraction algorithm ,
The facility specifying device according to any one of claims 1 to 8.
各施設関連情報は、マットが設置されている対象施設の位置を示す情報である、
請求項4または5に記載の施設特定装置。
Each facility related information is information indicating the position of the target facility where the mat is installed,
The facility specifying device according to claim 4 or 5.
各施設関連情報は、マットが設置されている対象施設における販売促進情報である、
請求項4または5に記載の施設特定装置。
Each facility related information is sales promotion information in the target facility where the mat is installed,
The facility specifying device according to claim 4 or 5.
前記第2の制御手段は、前記第1の制御手段によって生成された特徴点データと、前記記憶手段に記憶されている各マットの模様の特徴点データとを比較してそれぞれ一致度を求め、所定一致度以上の一致度を有する特徴点データのうち最も高い一致度を有する特徴点データと紐づけられている、対象施設の識別情報を取得する、
請求項1から11のいずれか1項に記載の施設特定装置。
The second control means compares the feature point data generated by the first control means with the feature point data of the pattern of each mat stored in the storage means, and determines the degree of coincidence. Acquiring identification information of a target facility associated with feature point data having the highest matching degree among feature point data having a matching degree equal to or higher than a predetermined matching degree;
The facility identification device according to any one of claims 1 to 11.
コンピュータを、請求項1から12のいずれか1項に記載の施設特定装置における第1の制御手段及び/または第2の制御手段として機能させる施設特定プログラム。   A facility identification program that causes a computer to function as a first control unit and / or a second control unit in the facility identification device according to any one of claims 1 to 12.
JP2017244359A 2017-12-20 2017-12-20 Facility identification equipment and its program Active JP6985132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017244359A JP6985132B2 (en) 2017-12-20 2017-12-20 Facility identification equipment and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017244359A JP6985132B2 (en) 2017-12-20 2017-12-20 Facility identification equipment and its program

Publications (2)

Publication Number Publication Date
JP2019113887A true JP2019113887A (en) 2019-07-11
JP6985132B2 JP6985132B2 (en) 2021-12-22

Family

ID=67223324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017244359A Active JP6985132B2 (en) 2017-12-20 2017-12-20 Facility identification equipment and its program

Country Status (1)

Country Link
JP (1) JP6985132B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040155877A1 (en) * 2003-02-12 2004-08-12 Canon Europa N.V. Image processing apparatus
JP2004333408A (en) * 2003-05-12 2004-11-25 Alpine Electronics Inc Navigation system
JP2009111116A (en) * 2007-10-30 2009-05-21 Orc Mfg Co Ltd Drawing apparatus
WO2011081192A1 (en) * 2009-12-28 2011-07-07 サイバーアイ・エンタテインメント株式会社 Image recognition system
JP2012226192A (en) * 2011-04-21 2012-11-15 Konica Minolta Business Technologies Inc Image forming apparatus
JP2015069319A (en) * 2013-09-27 2015-04-13 株式会社ダスキン Information search device, information search method, and information search program
WO2016013090A1 (en) * 2014-07-24 2016-01-28 富士通株式会社 Face authentication device, face authentication method, and face authentication program
JP2016045837A (en) * 2014-08-26 2016-04-04 富士通株式会社 Information processing apparatus, image determination method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040155877A1 (en) * 2003-02-12 2004-08-12 Canon Europa N.V. Image processing apparatus
JP2004333408A (en) * 2003-05-12 2004-11-25 Alpine Electronics Inc Navigation system
JP2009111116A (en) * 2007-10-30 2009-05-21 Orc Mfg Co Ltd Drawing apparatus
WO2011081192A1 (en) * 2009-12-28 2011-07-07 サイバーアイ・エンタテインメント株式会社 Image recognition system
JP2012226192A (en) * 2011-04-21 2012-11-15 Konica Minolta Business Technologies Inc Image forming apparatus
JP2015069319A (en) * 2013-09-27 2015-04-13 株式会社ダスキン Information search device, information search method, and information search program
WO2016013090A1 (en) * 2014-07-24 2016-01-28 富士通株式会社 Face authentication device, face authentication method, and face authentication program
JP2016045837A (en) * 2014-08-26 2016-04-04 富士通株式会社 Information processing apparatus, image determination method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
永田 英一、外1名: "MIYUKA誘導AGVについて", 流通ネットワーキング, vol. 通巻292号, JPN6021043570, 10 November 2015 (2015-11-10), JP, pages 6 - 9, ISSN: 0004629430 *

Also Published As

Publication number Publication date
JP6985132B2 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
US10339383B2 (en) Method and system for providing augmented reality contents by using user editing image
US20240046643A1 (en) Augmented Reality, Computer Vision, and Digital Ticketing Systems
US9767124B2 (en) Information processing system and information processing method
US9076069B2 (en) Registering metadata apparatus
JPWO2019167556A1 (en) Label collection device, label collection method and label collection program
US20160140715A1 (en) Information processing apparatus, information processing system, and information processing method
JP2014238815A (en) Information processing system, information providing method, terminal device, and program
JP5754293B2 (en) Entry support system and server device
JP5735071B2 (en) Information search device, information search method, and information search program
JP6985132B2 (en) Facility identification equipment and its program
US20210176375A1 (en) Information processing device, information processing system, information processing method and program
JP6907701B2 (en) Information processing equipment, information processing systems, information processing methods and programs
JP2018005931A (en) Information processing system, information processing method, and external system
JP2015125541A (en) Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program
US10997410B2 (en) Information processing device and information processing system
US11494553B2 (en) Document creation assistance apparatus and non-transitory computer readable medium
JP2021111209A (en) Information display device, information display method, and program
JP5541868B2 (en) Image search command system and operation control method thereof
US20210158595A1 (en) Information processing apparatus, information processing method, and information processing system
CN115393685B (en) Text travel data processing method and system based on expandable model
KR101572349B1 (en) Voting system and object presence system using computing device and operatiog method thereof
US20220343571A1 (en) Information processing system, information processing apparatus, and method of processing information
JP2024050063A (en) Layout drawing generation support apparatus, layout drawing generation support method, program, and recording medium
JP2021090186A (en) Information processing apparatus, program, information processing method, and information processing system
JP2024015737A (en) Program, information processing device, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211125

R150 Certificate of patent or registration of utility model

Ref document number: 6985132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150