JP2021114335A - Database generation method, additional information registration system, database generation device and program - Google Patents

Database generation method, additional information registration system, database generation device and program Download PDF

Info

Publication number
JP2021114335A
JP2021114335A JP2021079415A JP2021079415A JP2021114335A JP 2021114335 A JP2021114335 A JP 2021114335A JP 2021079415 A JP2021079415 A JP 2021079415A JP 2021079415 A JP2021079415 A JP 2021079415A JP 2021114335 A JP2021114335 A JP 2021114335A
Authority
JP
Japan
Prior art keywords
subject
predetermined
registration
imaging position
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021079415A
Other languages
Japanese (ja)
Other versions
JP7074235B2 (en
Inventor
剛志 松江
Tsuyoshi Matsue
剛志 松江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021079415A priority Critical patent/JP7074235B2/en
Publication of JP2021114335A publication Critical patent/JP2021114335A/en
Application granted granted Critical
Publication of JP7074235B2 publication Critical patent/JP7074235B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a database generation method, a database generation device and a database generation program which can enhance the segmentation degree of classification labels while efficiently increasing the sample number of teacher data.SOLUTION: A database generation method comprises: a position detection step of detecting an imaging position at the time when a prescribed subject is imaged in order to acquire an image of the subject; a first determination step of determining whether or not the detected imaging position is closer than a prescribed distance threshold from a prescribed registered point; a second determination step of determining whether or not the subject is a previously-registered object when determining that the imaging position is closer than the prescribed distance threshold from the prescribed registered point; a display step of displaying a screen to which a user can input additional information to be registered in association with the image when determining that the subject is the object; and a registration step of registering the additional information input by the user in prescribed storage means as a classification label.SELECTED DRAWING: Figure 4

Description

本発明は、データベース生成方法、データベース生成装置およびデータベース生成プログラムに関する。 The present invention relates to a database generation method, a database generation device, and a database generation program.

近年、機械学習の一手法である教師あり学習において、学習の結果として生成される分類器(判別器)を用いて、画像の内容を分類(判別)する方法が知られている(例えば、特許文献1参照)。 In recent years, in supervised learning, which is a method of machine learning, a method of classifying (discriminating) the contents of an image using a classifier (discriminant) generated as a result of learning has been known (for example, a patent). Reference 1).

特開2008−282267号公報Japanese Unexamined Patent Publication No. 2008-282267

しかしながら、教師データのサンプル数を増やすとともに、教師データに対応づけて登録される分類ラベルを細分化するときに、効率的にデータを集めることが困難であった。 However, it has been difficult to efficiently collect data when increasing the number of samples of teacher data and subdividing the classification labels registered in association with the teacher data.

そこで、本発明は、教師データのサンプル数を効率的に増やしつつ、分類ラベルの細分化度合いを高めることができるデータベース生成方法、データベース生成装置およびデータベース生成プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a database generation method, a database generation device, and a database generation program capable of increasing the degree of subdivision of classification labels while efficiently increasing the number of samples of teacher data.

上記の目的を達成するために、本発明に係るデータベース生成方法は、追加情報登録システムが実行するデータベース生成方法であって、所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出ステップと、前記位置検出ステップにより検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定ステップと、前記第1の判定ステップにより前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定ステップと、前記第2の判定ステップにより前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示ステップと、前記表示ステップにより表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録ステップと、を有することを特徴とする。 In order to achieve the above object, the database generation method according to the present invention is a database generation method executed by the additional information registration system, and when the subject is imaged in order to acquire an image of a predetermined subject. A position detection step for detecting an imaging position, a first determination step for determining whether or not the imaging position detected by the position detection step is closer than a predetermined distance threshold value from a predetermined registration point, and the first determination step. When it is determined by the determination step that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, it is determined whether or not the subject is an object registered in advance corresponding to the predetermined registration point. When the subject is determined to be the object by the second determination step and the second determination step, additional information for registering the subject in association with the image is used as answer information for a predetermined question. , When the answer information is input to the display step for displaying the question screen that can be input by the user and the question screen displayed by the display step, the input answer information is designated as a classification label. It is characterized by having a registration step of registering in a storage means.

また、本発明に係る他の態様のデータベース生成方法は、追加情報登録システムが実行するデータベース生成方法であって、所定の被写体に対する撮像により前記被写体の画像を取得する取得ステップと、前記取得ステップにより前記被写体が撮像されたときの撮像位置を検出する位置検出ステップと、前記位置検出ステップにより検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定ステップと、前記第1の判定ステップにより前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定ステップと、前記第2の判定ステップにより前記被写体が前記対象物であると判定された場合、前記取得ステップにより取得された前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示ステップと、前記表示ステップにより表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録ステップと、を有することを特徴とする。 Further, the database generation method of another aspect according to the present invention is a database generation method executed by the additional information registration system, which is based on an acquisition step of acquiring an image of the subject by imaging a predetermined subject and the acquisition step. A position detection step for detecting an imaging position when the subject is imaged, and a first determination for determining whether or not the imaging position detected by the position detection step is closer than a predetermined distance threshold value from a predetermined registration point. When it is determined by the determination step and the first determination step that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the subject is registered in advance corresponding to the predetermined registration point. When the subject is determined to be the object by the second determination step for determining whether or not the subject is an object and the second determination step, the subject is associated with the image acquired by the acquisition step. The answer information is input to the display step for displaying the question screen that can be input by the user as the answer information for the predetermined question as the additional information for registration, and the question screen displayed by the display step. If so, it is characterized by having a registration step of registering the input response information as a classification label in a predetermined storage means.

また、本発明に係るデータベース生成装置は、所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段と、前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定手段と、前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示制御手段と、前記表示制御手段により表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録手段と、を備えることを特徴とする。 Further, the database generation device according to the present invention includes a position detecting means for detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject, and the imaging position detected by the position detecting means. The first determination means for determining whether or not is closer to the predetermined distance threshold from the predetermined registration point, and the first determination means for determining that the imaging position is closer than the predetermined distance threshold from the predetermined registration point. If so, the subject is the object by the second determination means for determining whether or not the subject is an object registered in advance corresponding to the predetermined registration point, and the second determination means. When it is determined that the information is, the display control means for displaying the question screen on which the user can input additional information for registering the image in association with the image as the answer information for the predetermined question, and the display. When the answer information is input to the question screen displayed by the control means, the registration means for registering the input answer information as a classification label in a predetermined storage means is provided.

また、本発明に係る他の態様のデータベース生成装置は、所定の被写体に対する撮像により前記被写体の画像を取得する取得手段と、前記取得手段により前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段と、前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定手段と、前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記取得手段により取得された前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示制御手段と、前記表示制御手段により表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録手段と、を備えることを特徴とする。 In addition, the database generation device of another aspect according to the present invention has an acquisition means for acquiring an image of the subject by imaging a predetermined subject, and a position for detecting an imaging position when the subject is imaged by the acquisition means. The detection means, a first determination means for determining whether or not the imaging position detected by the position detection means is closer than a predetermined distance threshold from a predetermined registration point, and the imaging position by the first determination means. Is a second determination means for determining whether or not the subject is a pre-registered object corresponding to the predetermined registration point when it is determined that the subject is closer than the predetermined distance threshold from the predetermined registration point. When the subject is determined to be the object by the second determination means, additional information for registering the image acquired by the acquisition means in association with the image is provided as answer information to a predetermined question. When the answer information is input to the display control means for displaying the question screen that can be input by the user and the question screen displayed by the display control means, the input answer information is classified as a classification label. It is characterized in that it includes a registration means for registering in a predetermined storage means.

また、本発明に係るデータベース生成プログラムは、コンピュータを、所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出手段、前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段、前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定手段、前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示制御手段、前記表示制御手段により表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録手段、として機能させることを特徴とする。 In addition, the database generation program according to the present invention is a position detecting means for detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject, and the position detecting means detected by the position detecting means. When the imaging position is closer than the predetermined distance threshold from the predetermined registration point by the first determination means for determining whether or not the imaging position is closer than the predetermined distance threshold from the predetermined registration point, the first determination means. When the determination is made, the subject is the object by the second determination means for determining whether or not the subject is an object registered in advance corresponding to the predetermined registration point, and the second determination means. Display control means for displaying a question screen that can be input by the user as answer information for a predetermined question with additional information for registering in association with the image when the determination is made. When the answer information is input to the question screen displayed by the means, the input answer information is made to function as a registration means for registering the input answer information as a classification label in a predetermined storage means.

また、本発明に係る他の態様のデータベース生成プログラムは、コンピュータを、所定の被写体に対する撮像により前記被写体の画像を取得する取得手段、前記取得手段により前記被写体が撮像されたときの撮像位置を検出する位置検出手段、前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段、前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定手段、前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記取得手段により取得された前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示制御手段、前記表示制御手段により表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録手段、として機能させることを特徴とする。 In addition, the database generation program of another aspect according to the present invention detects an acquisition means for acquiring an image of the subject by imaging a predetermined subject, and an imaging position when the subject is imaged by the acquisition means. Position detecting means, a first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold from a predetermined registration point, and the imaging position by the first determining means. Is a second determination means for determining whether or not the subject is a pre-registered object corresponding to the predetermined registration point when it is determined that the subject is closer than the predetermined distance threshold from the predetermined registration point. When the subject is determined to be the object by the second determination means, additional information for registering the subject in association with the image acquired by the acquisition means is used as answer information for a predetermined question. , A display control means for displaying a question screen that can be input by the user, and when the answer information is input to the question screen displayed by the display control means, the input answer information is designated as a classification label. It is characterized in that it functions as a registration means for registering in the storage means of the above.

本発明によれば、教師データのサンプル数を効率的に増やしつつ、分類ラベルの細分化度合いを高めることができる。 According to the present invention, it is possible to increase the degree of subdivision of the classification label while efficiently increasing the number of samples of teacher data.

実施形態1に係る追加情報登録システムの概略を示す図。The figure which shows the outline of the additional information registration system which concerns on Embodiment 1. 実施形態1に係るサーバの物理的構成を示す図。The figure which shows the physical configuration of the server which concerns on Embodiment 1. FIG. 実施形態1に係る携帯端末の物理的構成を示す図。The figure which shows the physical structure of the mobile terminal which concerns on Embodiment 1. FIG. 実施形態1に係る追加情報登録システムの機能的構成を示す図。The figure which shows the functional structure of the additional information registration system which concerns on Embodiment 1. FIG. 実施形態1に係るラインデータベースのデータ構成の例を示す図。The figure which shows the example of the data structure of the line database which concerns on Embodiment 1. 実施形態1に係る対象物データベースのデータ構成の例を示す図。The figure which shows the example of the data structure of the object database which concerns on Embodiment 1. 実施形態1に係る位置情報データベースのデータ構成の例を示す図。The figure which shows the example of the data structure of the location information database which concerns on Embodiment 1. 実施形態1に係る再学習データベースのデータ構成の例を示す図。The figure which shows the example of the data structure of the re-learning database which concerns on Embodiment 1. 実施形態1に係る対象物が配置される公園の地図を示す図。The figure which shows the map of the park where the object which concerns on Embodiment 1 is arranged. 実施形態1に係るラインデータベースに記憶されるラインを表示した公園の地図を示す図。The figure which shows the map of the park which displayed the line stored in the line database which concerns on Embodiment 1. 実施形態1に係る、ラインデータベースに記憶されるライン、対象物データベースに記憶される対象物および対象物に対応づけられた登録地点を表示した公園の地図を示す図。The figure which shows the map of the park which displayed the line stored in the line database, the object stored in the object database, and the registration point associated with the object which concerns on Embodiment 1. FIG. 実施形態1に係る携帯端末の表示部に表示された起動画面を示す図。The figure which shows the start-up screen displayed on the display part of the mobile terminal which concerns on Embodiment 1. FIG. 実施形態1に係る携帯端末の表示部に表示されたカメラ撮影画面を示す図。The figure which shows the camera shooting screen displayed on the display part of the mobile terminal which concerns on Embodiment 1. FIG. 実施形態1に係る携帯端末の表示部に表示された被写体を撮像した後のカメラ撮影画面を示す図。FIG. 5 is a diagram showing a camera shooting screen after capturing an image of a subject displayed on the display unit of the mobile terminal according to the first embodiment. 実施形態1に係る携帯端末の表示部に表示されたテキスト・写真表示画面を示す図。The figure which shows the text / photograph display screen displayed on the display part of the mobile terminal which concerns on Embodiment 1. FIG. 実施形態1に係る携帯端末の表示部に表示された自然言語対話処理中のテキスト・写真表示画面を示す図。FIG. 5 is a diagram showing a text / photo display screen during natural language dialogue processing displayed on the display unit of the mobile terminal according to the first embodiment. 実施形態1に係る携帯端末の表示部に表示された自然言語対話処理後のテキスト・写真表示画面を示す図。The figure which shows the text / photograph display screen after the natural language dialogue processing displayed on the display part of the mobile terminal which concerns on Embodiment 1. FIG. 実施形態1に係る携帯端末の表示部に最初の質問が表示された追加情報入力処理中のテキスト・写真表示画面を示す図。FIG. 5 is a diagram showing a text / photo display screen during additional information input processing in which the first question is displayed on the display unit of the mobile terminal according to the first embodiment. 実施形態1に係る携帯端末の表示部に最後の質問が表示された追加情報入力処理中のテキスト・写真表示画面を示す図。FIG. 5 is a diagram showing a text / photo display screen during additional information input processing in which the last question is displayed on the display unit of the mobile terminal according to the first embodiment. 実施形態1に係る携帯端末の表示部に表示された地図表示画面を示す図。The figure which shows the map display screen displayed on the display part of the mobile terminal which concerns on Embodiment 1. FIG. 実施形態1に係る追加情報登録処理を示すフローチャート。The flowchart which shows the additional information registration process which concerns on Embodiment 1. 実施形態1に係るルート照合処理を示すフローチャート。The flowchart which shows the route collation processing which concerns on Embodiment 1. 実施形態1に係る撮像位置に対するライン上の垂線の足を説明するための図。The figure for demonstrating the foot of the perpendicular line on the line with respect to the imaging position which concerns on Embodiment 1. FIG. 実施形態1に係る案内対象物検索処理を示すフローチャート。The flowchart which shows the guide object search process which concerns on Embodiment 1. 実施形態1に係る追加情報入力処理を示すフローチャート。The flowchart which shows the additional information input processing which concerns on Embodiment 1. 実施形態1に係る分類ラベル登録処理を示すフローチャート。The flowchart which shows the classification label registration process which concerns on Embodiment 1. 実施形態2に係る携帯端末の物理的構成を示す図。The figure which shows the physical structure of the mobile terminal which concerns on Embodiment 2. 実施形態2に係る追加情報登録処理を示すフローチャート。The flowchart which shows the additional information registration process which concerns on Embodiment 2.

(実施形態1)
以下に、本発明を実施するための形態(実施形態1)を、図面に基づいて詳細に説明する。
(Embodiment 1)
Hereinafter, embodiments for carrying out the present invention (Embodiment 1) will be described in detail with reference to the drawings.

図1は、実施形態1に係る追加情報登録システム10の概略を示す図である。追加情報登録システム10は、ネットワーク500で相互に通信可能なサーバ100と携帯端末200とを含んで構成される。 FIG. 1 is a diagram showing an outline of the additional information registration system 10 according to the first embodiment. The additional information registration system 10 includes a server 100 and a mobile terminal 200 capable of communicating with each other on the network 500.

追加情報登録システム10は、例えば携帯端末200を所有するユーザが所定の公園等の予め定められた場所において被写体である植物を撮像した際に、当該植物に関わる案内情報を携帯端末200の表示部に表示させることで、ユーザに対して情報を提供することができるシステムであるとする。 When the user who owns the mobile terminal 200 images a plant as a subject in a predetermined place such as a predetermined park, the additional information registration system 10 displays guidance information related to the plant on the display unit of the mobile terminal 200. It is assumed that the system can provide information to the user by displaying the information on the user.

図2は、サーバ100の物理的構成を示す図である。図2に示すように、サーバ100は、CPU(Central Processing Unit)110と、RAM(Random Access Memory)121と、記憶部130と、操作部122と、表示部123と、通信部124とを備えている。また、サーバ100の各部は、バス129を介して接続されている。 FIG. 2 is a diagram showing a physical configuration of the server 100. As shown in FIG. 2, the server 100 includes a CPU (Central Processing Unit) 110, a RAM (Random Access Memory) 121, a storage unit 130, an operation unit 122, a display unit 123, and a communication unit 124. ing. Further, each part of the server 100 is connected via the bus 129.

サーバ100は、例えば、ネットワークを利用したサーバ・クライアントシステムのサーバ装置であるとするが、これに限定されるものではなく、クラウドシステム上で動作する仮想マシンであっても良い。 The server 100 is, for example, a server device of a server / client system using a network, but the present invention is not limited to this, and a virtual machine operating on a cloud system may be used.

CPU110は、サーバ100の各部を制御する。CPU110は、記憶部130に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、RAM121のワークエリアに展開し、当該プログラムに従って各種処理を実行する。例えば、CPU110は、後述する追加情報登録処理を実行することにより、第1の判定手段、第2の判定手段、登録手段として機能する。また、CPU110は、携帯端末200と協働して、後述する追加情報登録処理を実行する機能を有する。 The CPU 110 controls each part of the server 100. The CPU 110 reads a designated program among the system programs and application programs stored in the storage unit 130, expands the program into the work area of the RAM 121, and executes various processes according to the program. For example, the CPU 110 functions as a first determination means, a second determination means, and a registration means by executing an additional information registration process described later. Further, the CPU 110 has a function of executing additional information registration processing described later in cooperation with the mobile terminal 200.

RAM121は、例えば、揮発性のメモリであり、CPU110により読み出された各種のプログラムやデータを一時的に格納するワークエリアを有する。 The RAM 121 is, for example, a volatile memory and has a work area for temporarily storing various programs and data read by the CPU 110.

記憶部130は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。記憶部130には、CPU110で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ、後述するラインデータベース(Date Base)140、後述する対象物データベース150、後述する位置情報データベース170、後述する再学習データベース180等が記憶されている。 The storage unit 130 is composed of, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrical Erasable Programmable Read-Only Memory), a flash memory, or the like, and can write data and a program. Is. The storage unit 130 contains a system program and various processing programs executed by the CPU 110, data necessary for executing these programs, a line database (Date Base) 140 described later, an object database 150 described later, and a location information database described later. 170, the re-learning database 180, which will be described later, and the like are stored.

操作部122は、例えば、キーボード等のキー入力部と、マウス等のポインティングデバイスとにより構成される。また、操作部122は、キー入力及び位置入力を受け付け、その操作情報を入力信号としてCPU110に出力する。 The operation unit 122 is composed of, for example, a key input unit such as a keyboard and a pointing device such as a mouse. Further, the operation unit 122 receives the key input and the position input, and outputs the operation information as an input signal to the CPU 110.

表示部123は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等から構成されている。また、表示部123は、CPU110から入力される表示信号の指示に従って、各種画面を表示する。 The display unit 123 is composed of, for example, an LCD (Liquid Crystal Display), an organic EL (Electroluminescence) display, or the like. Further, the display unit 123 displays various screens according to the instruction of the display signal input from the CPU 110.

通信部124は、ネットワークカード等により構成され、ネットワーク500上の外部機器に接続される。ネットワーク500は、LAN(Local Area Network)、WAN(Wide Area Network)等である。サーバ100は、通信部124を介して、ネットワーク500上の携帯端末200と通信が可能である。 The communication unit 124 is composed of a network card or the like and is connected to an external device on the network 500. The network 500 includes a LAN (Local Area Network), a WAN (Wide Area Network), and the like. The server 100 can communicate with the mobile terminal 200 on the network 500 via the communication unit 124.

図3は、携帯端末200の物理的構成を示す図である。図3に示すように、携帯端末200は、CPU210と、RAM221と、記憶部230と、操作部222と、表示部223と、位置情報算出部224と、撮像部225と、音声入力部226と、音声出力部227と、通信部228と、を備えている。また、携帯端末2の各部は、バス229を介して接続されている。 FIG. 3 is a diagram showing a physical configuration of the mobile terminal 200. As shown in FIG. 3, the mobile terminal 200 includes a CPU 210, a RAM 221, a storage unit 230, an operation unit 222, a display unit 223, a position information calculation unit 224, an imaging unit 225, and a voice input unit 226. , A voice output unit 227 and a communication unit 228 are provided. Further, each part of the mobile terminal 2 is connected via a bus 229.

携帯端末200は、無線通信が可能な携帯端末装置である。ここでは、携帯端末200がスマートフォンであるとするが、これに限定されるものではなく、携帯端末200は、他の携帯が可能な端末装置であるとしても良い。 The mobile terminal 200 is a mobile terminal device capable of wireless communication. Here, it is assumed that the mobile terminal 200 is a smartphone, but the present invention is not limited to this, and the mobile terminal 200 may be another portable terminal device.

CPU210は、携帯端末200の各部を制御する。CPU210は、記憶部230に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、RAM221のワークエリアに展開し、当該プログラムに従って各種処理を実行する。その際に、CPU210は、RAM221内に各種処理結果を格納させ、必要に応じてその処理結果を表示部223に表示させる。例えば、CPU210は、後述する追加情報登録処理を実行することにより、位置検出手段、表示制御手段として機能する。 The CPU 210 controls each part of the mobile terminal 200. The CPU 210 reads a designated program among the system programs and application programs stored in the storage unit 230, expands the program in the work area of the RAM 221 and executes various processes according to the program. At that time, the CPU 210 stores various processing results in the RAM 221 and displays the processing results on the display unit 223 as needed. For example, the CPU 210 functions as a position detecting means and a display controlling means by executing an additional information registration process described later.

RAM221は、例えば、揮発性のメモリであり、CPU210により読み出された各種のプログラムやデータを一時的に格納するワークエリアを有する。 The RAM 221 is, for example, a volatile memory and has a work area for temporarily storing various programs and data read by the CPU 210.

記憶部230は、例えば、HDD、SSD、EEPROM、フラッシュメモリ等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。また、記憶部230には、CPU210により実行される例えば追加情報登録プログラム231などのアプリケーションプログラムや前述の各種プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。 The storage unit 230 is a storage unit that is composed of, for example, an HDD, an SSD, an EEPROM, a flash memory, or the like, and is capable of writing and reading data and programs. Further, the storage unit 230 stores application programs such as the additional information registration program 231 executed by the CPU 210, the various programs described above, data necessary for executing these programs, and the like.

操作部222は、各種機能キーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU210に出力する。また、操作部222は、表示部223の表面を覆うように透明電極を格子状に配置したタッチパネル等を有し、手指やタッチペン等で押下された位置を検出し、その位置情報を操作情報としてCPU210に出力する。 The operation unit 222 includes various function keys, receives press input of each key by the user, and outputs the operation information to the CPU 210. Further, the operation unit 222 has a touch panel or the like in which transparent electrodes are arranged in a grid pattern so as to cover the surface of the display unit 223, detects a position pressed by a finger, a touch pen, or the like, and uses the position information as operation information. Output to CPU 210.

表示部223は、LCDや有機ELディスプレイ等により構成される。表示部223には、CPU210から入力される表示信号の指示に従い、各種画面を表示する。 The display unit 223 is composed of an LCD, an organic EL display, or the like. The display unit 223 displays various screens according to the instructions of the display signal input from the CPU 210.

位置情報算出部224は、アンテナ、受信回路、信号処理回路等により構成され、全地球測位システムに係る測位衛星からの送信電波を受信して携帯端末200の現在位置を取得する。位置情報算出部224は、受信した送信電波を増幅、周波数変換、復号して必要な情報を取得し、CPU210に出力する。 The position information calculation unit 224 is composed of an antenna, a reception circuit, a signal processing circuit, and the like, and receives a radio wave transmitted from a positioning satellite related to the global positioning system to acquire the current position of the mobile terminal 200. The position information calculation unit 224 amplifies, frequency-converts, and decodes the received transmitted radio wave to acquire necessary information and outputs it to the CPU 210.

撮像部225は、光学系及び撮像素子を備えるカメラ等により構成される。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサである。撮像素子上に被写体の光学像を結像し、その像を電気的な信号としてCPU210に出力する。 The image pickup unit 225 is composed of an optical system, a camera including an image pickup element, and the like. The image sensor is, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). An optical image of the subject is formed on the image sensor, and the image is output to the CPU 210 as an electrical signal.

音声入力部226は、マイクロフォンやA/D変換器などにより構成され、マイクロフォンから入力された音をデジタル信号としてCPU210に出力する。 The voice input unit 226 is composed of a microphone, an A / D converter, and the like, and outputs the sound input from the microphone to the CPU 210 as a digital signal.

音声出力部227は、スピーカ(イヤホン)やD/A変換器などにより構成され、CPU210から入力されたデジタル信号を音として出力する。 The audio output unit 227 is composed of a speaker (earphone), a D / A converter, and the like, and outputs a digital signal input from the CPU 210 as sound.

通信部228は、例えば、ネットワークカード、モデム、ルータなどにより構成される。また、通信部228は、アンテナ、変復調回路、信号処理回路などを備え無線通信が可能な構成であってもよい。通信部228は、ネットワーク500上のサーバ100などの外部機器と通信接続してデータ送受信を行う。 The communication unit 228 is composed of, for example, a network card, a modem, a router, and the like. Further, the communication unit 228 may be provided with an antenna, a modulation / demodulation circuit, a signal processing circuit, and the like, and may be configured to enable wireless communication. The communication unit 228 communicates with an external device such as a server 100 on the network 500 to transmit / receive data.

図4は、追加情報登録システム10の機能的構成を示す図である。図4に示すように、追加情報登録システム10は、取得部311と、位置検出部312と、第1の判定部313と、第2の判定部314と、表示制御部315と、登録部316と、を備える。これらは、それぞれ取得手段、位置検出手段、第1の判定手段、第2の判定手段、表示制御手段及び登録手段として機能する。 FIG. 4 is a diagram showing a functional configuration of the additional information registration system 10. As shown in FIG. 4, the additional information registration system 10 includes an acquisition unit 311, a position detection unit 312, a first determination unit 313, a second determination unit 314, a display control unit 315, and a registration unit 316. And. These function as acquisition means, position detection means, first determination means, second determination means, display control means, and registration means, respectively.

取得部311は、例えば、携帯端末200を所有するユーザが被写体を撮像したときの当該被写体を画像として取得する。 The acquisition unit 311 acquires, for example, the subject when the user who owns the mobile terminal 200 captures the subject as an image.

位置検出部312は、例えば、携帯端末200を所有するユーザが被写体を撮像したときの撮像位置を検出する。 The position detection unit 312 detects, for example, the imaging position when the user who owns the mobile terminal 200 images the subject.

第1の判定部313は、位置検出部312により検出された撮像位置が後述する登録地点から所定の範囲内であるか否か判定する。 The first determination unit 313 determines whether or not the imaging position detected by the position detection unit 312 is within a predetermined range from the registration point described later.

第2の判定部314は、例えば、携帯端末200を所有するユーザが撮像した被写体が、後述する対象物データベースに予め登録されている対象物であるか否か判定する。 The second determination unit 314 determines, for example, whether or not the subject imaged by the user who owns the mobile terminal 200 is an object registered in advance in the object database described later.

表示制御部315は、第2の判定部314により被写体が対象物であると判定された場合に、当該被写体に対応づけて登録するための追加情報を入力することができる画面を例えば携帯端末200に表示する。 When the second determination unit 314 determines that the subject is an object, the display control unit 315 displays, for example, a screen on which additional information for registering the subject in association with the subject can be input. Display on.

登録部316は、表示制御部315により表示された画面に入力された追加情報を被写体の画像が何を表しているか、あるいは画像にどういうものが含まれているかを示す分類ラベルとして登録する。 The registration unit 316 registers the additional information input to the screen displayed by the display control unit 315 as a classification label indicating what the image of the subject represents or what is included in the image.

図5は、ラインデータベース140のデータ構成の例を示す。ラインデータベース140は、例えば表形式のデータであって、1つの行(レコード)は、1つのラインを示し、ライン識別情報のデータ項目141(図5ではラインID(Identifier)と記載)、始点経度のデータ項目142、始点緯度のデータ項目143、終点経度のデータ項目144および終点緯度のデータ項目145の列を含む。ラインとは、携帯端末200を所有するユーザが公園において植物を鑑賞する際に通ると想定されるライン(ルート、道筋)を予め設定したものであり、例えば、植物が植栽されている花壇の周囲に沿って設定されている。また、ラインの始点位置および終点位置は、ユーザが移動する際に通ると想定される方向に基づいて決定される。 FIG. 5 shows an example of the data structure of the line database 140. The line database 140 is, for example, tabular data, one row (record) indicates one line, data item 141 of line identification information (described as line ID (Identifier) in FIG. 5), start point longitude. Includes columns of data item 142, start point latitude data item 143, end point longitude data item 144, and end point latitude data item 145. The line is a preset line (route, route) that the user who owns the mobile terminal 200 is expected to pass when viewing the plant in the park. For example, the line is a flower bed in which the plant is planted. It is set along the perimeter. Further, the start point position and the end point position of the line are determined based on the direction assumed to pass when the user moves.

ライン識別情報のデータ項目141には、レコードが示すラインの識別情報が含まれている。 The data item 141 of the line identification information includes the line identification information indicated by the record.

始点経度のデータ項目142および始点緯度のデータ項目143には、レコードが示すラインの始点の経度および緯度が含まれている。 The data item 142 of the start point longitude and the data item 143 of the start point latitude include the longitude and latitude of the start point of the line indicated by the record.

終点経度のデータ項目144および終点緯度のデータ項目145には、レコードが示すラインの終点の経度および緯度が含まれている。 The end point longitude data item 144 and the end point latitude data item 145 include the end point longitude and latitude of the line indicated by the record.

例えば、レコード149は、ライン識別情報のデータ項目141が「L1」であるラインを示し、始点は東経139.5465128度、北緯35.6698132度であって、終点は東経139.5463939度、北緯35.6691442度であることを示す。 For example, record 149 indicates a line in which the data item 141 of the line identification information is "L1", the starting point is 139.5465128 degrees east longitude and 35.66983 degrees north latitude, and the end point is 139.54633939 degrees east longitude and 35 north latitude. It shows that it is .6691442 degrees.

図6は、対象物データベース150のデータ構成の例を示す。対象物データベース150は、例えば表形式のデータであって、1つの行(レコード)は、1つの対象物を示し、対象物識別情報のデータ項目151(図6では対象物IDと記載)、経度のデータ項目152、緯度のデータ項目153、登録地点経度のデータ項目154、登録地点緯度のデータ項目155、登録地点が設定されたラインのデータ項目156、ブロックのデータ項目157、名称のデータ項目158、画像のデータ項目159、色のデータ項目160(図6ではCOLORと記載)および形状のデータ項目161(図6ではSHAPEと記載)の列を含んで構成される。本実施形態1において対象物とは、公園に植栽されている植物を指し、予め対象物データベース150に登録されている。なお、後述するように、対象物データベース150は、公園内においてユーザが携帯端末200の撮像部225を介して被写体を撮像した際に、撮影画像に含まれる植物の名称等を特定し、案内情報として表示部223に表示させるために参照される。また、後述するように、ブロックは対象物である例えばバラなどの植物が植栽されているブロック(花壇)のことを示す。なお、対象物データベース150は、例えば対象物の種類(TYPE)など他のデータ項目を含んでいてもよい。 FIG. 6 shows an example of the data structure of the object database 150. The object database 150 is, for example, tabular data, one row (record) indicates one object, data item 151 of object identification information (described as object ID in FIG. 6), longitude. Data item 152, latitude data item 153, registration point longitude data item 154, registration point latitude data item 155, line data item 156 where registration point is set, block data item 157, name data item 158. , Image data item 159, color data item 160 (denoted as COLOR in FIG. 6) and shape data item 161 (denoted as SHAPE in FIG. 6). In the first embodiment, the object refers to a plant planted in the park and is registered in the object database 150 in advance. As will be described later, the object database 150 identifies the names of plants and the like included in the photographed image when the user images the subject through the image pickup unit 225 of the mobile terminal 200 in the park, and guide information. Is referred to for display on the display unit 223. Further, as will be described later, the block indicates a block (flowerbed) in which a plant such as a rose, which is an object, is planted. The object database 150 may include other data items such as the type of object (TYPE).

対象物識別情報のデータ項目151には、レコードが示す対象物の識別情報が含まれている。 The data item 151 of the object identification information includes the object identification information indicated by the record.

経度のデータ項目152および緯度のデータ項目153には、レコードが示す対象物の位置の経度および緯度が含まれている。 The longitude data item 152 and the latitude data item 153 include the longitude and latitude of the position of the object indicated by the record.

登録地点経度のデータ項目154および登録地点緯度のデータ項目155には、レコードが示す対象物を撮像するのに適した撮像スポットの経度および緯度が含まれている。なお、以降では、これら2つのデータ項目から特定される位置を登録地点と称する。また、登録地点は、前述したライン上に設定されるものであり、即ち、公園において植物を鑑賞する際に通ると想定される位置に設定される。 The data item 154 of the registration point longitude and the data item 155 of the registration point latitude include the longitude and latitude of the imaging spot suitable for imaging the object indicated by the record. Hereinafter, the position specified from these two data items will be referred to as a registration point. In addition, the registration point is set on the above-mentioned line, that is, it is set at a position that is expected to pass when viewing plants in the park.

ラインのデータ項目156には、レコードが示す対象物の撮像スポットである登録地点が設定されたラインが含まれている。 The data item 156 of the line includes a line in which a registration point, which is an imaging spot of the object indicated by the record, is set.

ブロックのデータ項目157には、レコードが示す対象物が配置されたブロック番号が含まれている。 The data item 157 of the block includes the block number in which the object indicated by the record is arranged.

名称のデータ項目158には、レコードが示す対象物の名称が含まれている。 The name data item 158 includes the name of the object indicated by the record.

画像のデータ項目159には、レコードが示す対象物の画像データの識別情報が含まれている。画像データは、例えばサーバ100の記憶部130に記憶されている。 The image data item 159 includes identification information of the image data of the object indicated by the record. The image data is stored in, for example, the storage unit 130 of the server 100.

色のデータ項目160には、レコードが示す対象物の色が含まれている。 The color data item 160 includes the color of the object indicated by the record.

形状のデータ項目161には、レコードが示す対象物の形状が含まれている。 The shape data item 161 includes the shape of the object indicated by the record.

例えば、レコード169は、対象物識別情報のデータ項目151が「T1」である対象物を示すレコードであって、対象物の位置は東経139.5465239度、北緯35.6697512度で、「B5」であるブロックにあり、対象物の名称は「ソーニャホルストマン」、画像の識別情報は「G8872」、赤色で、多重の形状であることを示す。また、登録地点は東経139.5465347度、北緯35.6697598度で、ラインL10上に設定されることを示す。 For example, the record 169 is a record indicating an object whose data item 151 of the object identification information is "T1", and the position of the object is 139.5465239 degrees east longitude, 35.6697512 degrees north latitude, and "B5". The name of the object is "Sonyahorstmann", the identification information of the image is "G7872", and it is red, indicating that it has multiple shapes. In addition, the registration points are 139.5465347 degrees east longitude and 35.66697598 degrees north latitude, indicating that they are set on line L10.

図7は、位置情報データベース170のデータ構成の例を示す。位置情報データベース170は、例えば表形式のデータであって、1つの行(レコード)は、携帯端末200が送信し、サーバ100が受信して格納した1つの位置情報メッセージに係る情報を示し、位置識別情報のデータ項目171(図7では位置IDと記載)、端末のデータ項目172、現在経度のデータ項目173、現在緯度のデータ項目174、および移動方向のデータ項目175の列を含んで構成される。 FIG. 7 shows an example of the data structure of the location information database 170. The location information database 170 is, for example, tabular data, and one row (record) indicates information related to one location information message transmitted by the mobile terminal 200 and received and stored by the server 100. It is composed of columns of identification information data item 171 (denoted as position ID in FIG. 7), terminal data item 172, current longitude data item 173, current latitude data item 174, and movement direction data item 175. NS.

位置識別情報のデータ項目171には、レコードが示す位置情報の識別情報が含まれている。 The data item 171 of the position identification information includes the identification information of the position information indicated by the record.

端末のデータ項目172には、レコードの元となる位置情報メッセージを送信した携帯端末200の識別情報が含まれている。 The data item 172 of the terminal includes the identification information of the mobile terminal 200 that has transmitted the location information message that is the source of the record.

現在経度のデータ項目173および現在緯度のデータ項目174には、位置情報メッセージに含まれていた経度および緯度が含まれている。 The data item 173 of the current longitude and the data item 174 of the current latitude include the longitude and latitude included in the position information message.

移動方向のデータ項目175には、現在経度のデータ項目173および現在緯度のデータ項目174とで示される現在位置情報と、携帯端末200の過去の位置情報(不図示)と、により特定される移動方向が含まれる。本実施形態1では、移動方向のデータ項目175には東方向への移動を示す「E」、西方向への移動を示す「W」、南方向への移動を示す「S」、北方向への移動を示す「N」の四方向が含まれるが、これに限られない。北東方向への移動を示す「NE」、北西方向への移動を示す「NW」、南東方向への移動を示す「SE」、南西方向への移動を示す「SW」をさらに含む八方位であってもよく、
北北東方向への移動を示す「NNE」、北北西方向への移動を示す「NNW」、東南東方向への移動を示す「ESE」、東北東方向への移動を示す、西南西方向への移動を示す「WSW」、西北西方向への移動を示す「WNW」、南南東方向への移動を示す「SSE」、南南西方向への移動を示す「SSW」をさらに含む十六方位であってもよい。
The movement specified by the data item 175 in the moving direction includes the current position information indicated by the data item 173 of the current longitude and the data item 174 of the current latitude, and the past position information (not shown) of the mobile terminal 200. The direction is included. In the first embodiment, the data item 175 in the moving direction includes "E" indicating the movement in the east direction, "W" indicating the movement in the west direction, "S" indicating the movement in the south direction, and "S" indicating the movement in the north direction. It includes, but is not limited to, the four directions of "N" indicating the movement of. Eight directions including "NE" indicating northeast movement, "NW" indicating northwest movement, "SE" indicating southeast movement, and "SW" indicating southwest movement. May be
"NNE" indicating movement in the north-northeast direction, "NNW" indicating movement in the north-northwest direction, "ESE" indicating movement in the east-southeast direction, movement in the west-southwest direction indicating movement in the east-northeast direction The sixteen directions may further include "WSW" indicating movement in the west-northwest direction, "WNW" indicating movement in the west-northwest direction, "SSE" indicating movement in the south-southeast direction, and "SSW" indicating movement in the south-southwest direction.

なお上記で説明した、位置識別情報のデータ項目171、端末のデータ項目172、現在経度のデータ項目173、現在緯度のデータ項目174および移動方向のデータ項目175は、サーバ100が、位置情報メッセージを受信したときに、位置情報データベース170に追加される。 In the position identification information data item 171, the terminal data item 172, the current longitude data item 173, the current latitude data item 174, and the moving direction data item 175 described above, the server 100 sends a position information message. When it is received, it is added to the location information database 170.

例えば、レコード179は、位置識別情報のデータ項目171が「P1」であるレコードであって、識別情報が「4673」である携帯端末200から送信された位置情報メッセージに含まれていた位置情報が、東経139.5465239度、北緯35.6697512度であって、南方向に向かってユーザが移動したことを示す。 For example, the record 179 is a record in which the data item 171 of the position identification information is "P1", and the position information included in the position information message transmitted from the mobile terminal 200 whose identification information is "4673" is included in the position information message. , 139.5465239 degrees east longitude and 35.6697512 degrees north latitude, indicating that the user has moved toward the south.

図8は、再学習データベース180のデータ構成の例を示す。再学習データベース180には、後述する追加情報入力処理において、ユーザが入力した追加情報が含まれる。再学習データベース180は、例えば表形式のデータであって、1つの行(レコード)は、1つの案内対象物を示し、案内対象物識別情報のデータ項目181(図8では案内対象物IDと記載)、対象物識別情報のデータ項目182、画像のデータ項目183、色のデータ項目184(図8ではCOLORと記載)、形状のデータ項目185(図8ではSHAPEと記載)、花の状態のデータ項目186、花びらの枚数のデータ項目187および葉の形のデータ項目188等の列(属性)を含んで構成される。 FIG. 8 shows an example of the data structure of the retraining database 180. The re-learning database 180 includes additional information input by the user in the additional information input process described later. The re-learning database 180 is, for example, tabular data, one row (record) indicates one guide object, and data item 181 of the guide object identification information (described as the guide object ID in FIG. 8). ), Object identification information data item 182, image data item 183, color data item 184 (described as COLOR in FIG. 8), shape data item 185 (described as SHAPE in FIG. 8), flower state data. It is composed of columns (attributes) such as item 186, data item 187 for the number of petals, and data item 188 for leaf shape.

ここで、案内対象物とは、携帯端末200の現在位置や撮像された画像等に基づいて決定される案内情報を送信すべき植物を示す。本実施形態1では、案内対象物として決定された植物に係る案内情報を送信するとともに、図6の対象物データベース150と対応付けて各植物についての追加情報を携帯端末200のユーザに登録させる構成となっている。これによって、対象物データベース150に含まれる情報、即ち、撮像画像に基づいて植物を判定するために参照される情報を容易に蓄積することができる。 Here, the guide object indicates a plant to which the guide information determined based on the current position of the mobile terminal 200, the captured image, or the like should be transmitted. In the first embodiment, the guidance information relating to the plant determined as the guidance target is transmitted, and the user of the mobile terminal 200 is made to register additional information about each plant in association with the target database 150 of FIG. It has become. Thereby, the information contained in the object database 150, that is, the information referred to for determining the plant based on the captured image can be easily accumulated.

案内対象物識別情報のデータ項目181には、レコードが示す案内対象物の識別情報が含まれている。 The data item 181 of the guide object identification information includes the guide object identification information indicated by the record.

対象物識別情報のデータ項目182には、レコードが示す案内対象物が対象物データベース150おける対象物の何れであるかを識別するための対象物IDが含まれている。 The data item 182 of the object identification information includes an object ID for identifying which of the objects in the object database 150 the guide object indicated by the record is.

画像のデータ項目183には、レコードが示す案内対象物をユーザが撮像することで取得された画像データの識別情報が含まれている。 The image data item 183 includes identification information of image data acquired by the user taking an image of the guide object indicated by the record.

色のデータ項目184には、後述する追加情報入力処理においてユーザにより入力される追加情報として、レコードが示す案内対象物の色が含まれている。 The color data item 184 includes the color of the guide object indicated by the record as additional information input by the user in the additional information input process described later.

形状のデータ項目185には、後述する追加情報入力処理においてユーザにより入力される追加情報として、レコードが示す案内対象物の形状が含まれている。 The shape data item 185 includes the shape of the guide object indicated by the record as additional information input by the user in the additional information input process described later.

花の状態のデータ項目186には、後述する追加情報入力処理においてユーザにより入力される追加情報として、レコードが示す案内対象物の花の状態が含まれている。 The flower state data item 186 includes the flower state of the guide object indicated by the record as additional information input by the user in the additional information input process described later.

花びらの枚数のデータ項目187には、後述する追加情報入力処理においてユーザにより入力される追加情報として、レコードが示す案内対象物の花びらの枚数が含まれている。 The data item 187 for the number of petals includes the number of petals of the guide object indicated by the record as additional information input by the user in the additional information input process described later.

葉の形のデータ項目188には、後述する追加情報入力処理においてユーザにより入力される追加情報として、レコードが示す案内対象物の葉の形が含まれている。 The leaf shape data item 188 includes the leaf shape of the guide object indicated by the record as additional information input by the user in the additional information input process described later.

例えば、レコード189は、案内対象物識別情報のデータ項目181が「N1」である案内対象物を示すレコードであって、対象物IDは「T1」であり、画像データの識別情報は「G8872」であって、色は赤色で、多重の形状をしており、花の状態は満開、花びらの枚数は5枚以上で、葉の形は丸形であることを示す。 For example, the record 189 is a record indicating a guidance object in which the data item 181 of the guidance object identification information is "N1", the object ID is "T1", and the identification information of the image data is "G7872". The color is red, the shape is multiple, the state of the flower is in full bloom, the number of petals is 5 or more, and the shape of the leaf is round.

図9は、例えば、対象物データベース150に含まれる対象物が配置される公園の地図を示す。ブロックB1〜B8は、対象物である例えばバラなどの植物が植栽されているブロック(花壇)である。ブロックB1〜B8の周辺は、遊歩道Wであり、公園への来訪者である携帯端末200を持つユーザは、遊歩道W上を移動する。 FIG. 9 shows, for example, a map of a park in which an object included in the object database 150 is arranged. Blocks B1 to B8 are blocks (flower beds) in which plants such as roses, which are objects, are planted. The area around blocks B1 to B8 is a promenade W, and a user having a mobile terminal 200 who is a visitor to the park moves on the promenade W.

図10は、ラインデータベース140に記憶されるラインを表示した公園の地図を示す。ラインとは、携帯端末200を所有するユーザが公園において植物を鑑賞する際に通ると想定されるライン(ルート、道筋)を予め設定したものであり、図10に示すようにブロックB1〜B8の周囲に沿って設定されている。また、ライン上には、対象物データベース150における登録地点が設定されている。即ち、ライン上には、ブロックB1〜B8に植栽された植物を撮影するのに適した撮影スポットが存在する。 FIG. 10 shows a map of the park displaying the lines stored in the line database 140. The line is a line (route, route) that is assumed to be passed by a user who owns the mobile terminal 200 when viewing a plant in a park, and is set in advance, and as shown in FIG. 10, blocks B1 to B8. It is set along the perimeter. Further, a registration point in the object database 150 is set on the line. That is, on the line, there are photographing spots suitable for photographing the plants planted in the blocks B1 to B8.

図10において、ラインは地図上において太線で示されている。例えば、ラインL1は、ブロックB1の左上角からブロックB1の右上角まで続くラインである。また、ラインL2は、ブロックB4の右下角からブロックB4の右上角まで続くラインである。即ち、例えば長方形のブロック(花壇)の周囲には各辺に対応するように4つのラインが設定される。 In FIG. 10, the line is shown as a thick line on the map. For example, the line L1 is a line that continues from the upper left corner of the block B1 to the upper right corner of the block B1. The line L2 is a line that continues from the lower right corner of the block B4 to the upper right corner of the block B4. That is, for example, four lines are set around a rectangular block (flowerbed) so as to correspond to each side.

図11は、ラインデータベース140に記憶されるライン、対象物データベース150に記憶される対象物および登録地点が表示された公園の地図を示す。対象物はブロック内に配置され、図11では白い円で示されている。例えば対象物T1は、図5のレコード159に示される対象物である。登録地点は対象物と対応づけられて、例えばブロックの周辺に設定される。図11では黒い円で示されている。これは、ユーザが、対象物であるブロックB1〜B8に植栽されている植物を撮像するために、ブロックB1〜B8の周辺に沿って移動すると想定しているからである。例えば、登録地点R1は対象物T1に対応づけられており、登録地点R1はラインL10上に設定されている登録地点である。なお、登録地点は、対象物に対応づけられていればよく、ブロックの周辺に限られない。 FIG. 11 shows a map of the park displaying the lines stored in the line database 140, the objects stored in the object database 150, and the registration points. The objects are arranged within the block and are indicated by white circles in FIG. For example, the object T1 is the object shown in record 159 of FIG. The registration point is associated with the object and is set, for example, around the block. In FIG. 11, it is indicated by a black circle. This is because it is assumed that the user moves along the periphery of the blocks B1 to B8 in order to image the plants planted in the blocks B1 to B8 which are the objects. For example, the registration point R1 is associated with the object T1, and the registration point R1 is a registration point set on the line L10. The registration point may be associated with the object and is not limited to the periphery of the block.

図12は、携帯端末200の記憶部230に記憶されている追加情報登録プログラム231を起動させたときの表示部223に表示された起動画面400を示す。起動画面400には、カメラ撮影画面ボタン401と、テキスト・写真表示画面ボタン402と、地図表示画面ボタン403と、各種設定ボタン404と、が配置されている。 FIG. 12 shows an activation screen 400 displayed on the display unit 223 when the additional information registration program 231 stored in the storage unit 230 of the mobile terminal 200 is activated. On the startup screen 400, a camera shooting screen button 401, a text / photo display screen button 402, a map display screen button 403, and various setting buttons 404 are arranged.

カメラ撮影画面410に遷移するためのカメラ撮影画面ボタン401が、起動画面400の上部に配置されている。 A camera shooting screen button 401 for transitioning to the camera shooting screen 410 is arranged at the upper part of the startup screen 400.

テキスト・写真表示画面420に遷移するためのテキスト・写真表示画面ボタン402が、カメラ撮影画面ボタンの隣に配置されている。 A text / photo display screen button 402 for transitioning to the text / photo display screen 420 is arranged next to the camera shooting screen button.

地図表示画面430に遷移するための地図表示画面ボタン403が、テキスト・写真表示画面ボタンの隣に配置されている。 A map display screen button 403 for transitioning to the map display screen 430 is arranged next to the text / photo display screen button.

各種設定画面(不図示)に遷移するための各種設定ボタン404が、起動画面400の下部に配置されている。各種設定画面では、音声出力の可否、音声の男女切り替え、出力言語などの設定が可能である。 Various setting buttons 404 for transitioning to various setting screens (not shown) are arranged at the bottom of the startup screen 400. On the various setting screens, it is possible to set whether or not to output the voice, switch the voice between men and women, and set the output language.

図13は、携帯端末200の表示部223に表示されたカメラ撮影画面410Aを示す。カメラ撮影画面410Aは、撮像部225により被写体を撮像するときの画面である。画像表示領域411Aに表示されている被写体を撮像するためのボタン412Aが画面下部に配置されている。 FIG. 13 shows a camera shooting screen 410A displayed on the display unit 223 of the mobile terminal 200. The camera shooting screen 410A is a screen when a subject is imaged by the imaging unit 225. A button 412A for capturing an image of a subject displayed in the image display area 411A is arranged at the bottom of the screen.

図14は、被写体の撮像終了後の画面410Bを示す。撮像画像表示領域411Bに表示されている被写体の画像を分析するためのボタン412Bが、画面下部に配置されている。分析結果はテキスト・写真表示画面420に表示される。 FIG. 14 shows the screen 410B after the imaging of the subject is completed. A button 412B for analyzing the image of the subject displayed in the captured image display area 411B is arranged at the lower part of the screen. The analysis result is displayed on the text / photo display screen 420.

図15は、携帯端末200の表示部223に表示されたテキスト・写真表示画面420を示す。携帯端末200の撮像部225により撮像された被写体の画像の分析結果から生成された案内対象物に関するテキストや画像例等の案内情報が表示されたときの画面である。即ち、図15は、携帯端末200の撮像部225により被写体として撮像された植物の画像を、対象物データベース150を参照して分析することで抽出される案内情報が表示される画面である。 FIG. 15 shows a text / photo display screen 420 displayed on the display unit 223 of the mobile terminal 200. This is a screen when guidance information such as texts and image examples related to the guidance object generated from the analysis result of the image of the subject captured by the image pickup unit 225 of the mobile terminal 200 is displayed. That is, FIG. 15 is a screen on which guidance information extracted by analyzing an image of a plant captured as a subject by the imaging unit 225 of the mobile terminal 200 with reference to the object database 150 is displayed.

図15に示すように、テキスト表示領域421には、案内対象物の名称が表示される。写真表示領域422には、案内対象物の画像が表示される。なお、テキスト表示領域421の案内は、携帯端末200の音声出力部227から音声として出力させてもよい。 As shown in FIG. 15, the name of the guide object is displayed in the text display area 421. An image of the guide object is displayed in the photo display area 422. The guidance of the text display area 421 may be output as voice from the voice output unit 227 of the mobile terminal 200.

自然言語対話処理を実行するための音声認識ボタン423が、テキスト・写真表示画面420下部に配置されている。例えば図16に示すように、ユーザによって入力された音声認識結果が音声認識結果表示領域425に表示され、例えば図17に示すように、テキスト表示領域421に自然言語対話処理の結果が表示される。 A voice recognition button 423 for executing natural language dialogue processing is arranged at the bottom of the text / photo display screen 420. For example, as shown in FIG. 16, the voice recognition result input by the user is displayed in the voice recognition result display area 425, and for example, as shown in FIG. 17, the result of the natural language dialogue processing is displayed in the text display area 421. ..

また、後述する追加情報登録処理を実行するための追加情報登録ボタン424が、テキスト・写真表示画面420右上に配置されている。図18は、例えば撮像した被写体の色が何色であるのか質問し、ユーザに追加情報を入力させる追加情報入力画面430Aである。質問表示領域431Aには、案内対象物に関する質問が表示される。選択肢表示領域432Aには、質問表示領域431Aに表示された質問内容に対して、ユーザが所定の答えを選択するための選択肢が表示される。 Further, an additional information registration button 424 for executing the additional information registration process described later is arranged at the upper right of the text / photo display screen 420. FIG. 18 is an additional information input screen 430A that asks, for example, what color the captured subject is, and prompts the user to input additional information. In the question display area 431A, a question regarding the guide object is displayed. In the option display area 432A, options for the user to select a predetermined answer to the question content displayed in the question display area 431A are displayed.

図19は、質問表示領域431Bに最後の質問が表示された追加情報入力画面430Bを示す。 FIG. 19 shows an additional information input screen 430B in which the last question is displayed in the question display area 431B.

図18および図19においてユーザにより回答された内容は、再学習データベース180に登録され、例えば次回以降に撮像された画像の分析時に参照される。このような構成により、追加情報登録システム10は、ユーザから画像分析のために必要とされる多種多様な追加情報を容易に取得することができる。ひいては、画像分析精度を向上させることが可能となる。 The contents answered by the user in FIGS. 18 and 19 are registered in the re-learning database 180 and are referred to, for example, when analyzing the images captured from the next time onward. With such a configuration, the additional information registration system 10 can easily acquire a wide variety of additional information required for image analysis from the user. As a result, it becomes possible to improve the accuracy of image analysis.

図20は、携帯端末200の表示部223に表示された地図表示画面440を示す。地図表示画面440には、既に撮像された被写体の位置が地図や航空写真上に表示される。地図を1段階だけ拡大して表示させるための拡大ボタン441が、地図表示画面440の左上上部に配置されている。地図を1段階だけ縮小して表示させるための縮小ボタン442が、拡大ボタン441の隣に配置されている。後述する現在位置アイコン445の表示/非表示を切り替えるための位置表示ボタン443が、縮小ボタン442の隣に配置されている。現在位置アイコン445は、地図表示画面440に表示された地図上の後述するルート照合処理により更新された位置を示す。案内対象物アイコン444は、地図表示画面440に表示された地図上の既に特定された案内対象物の位置を示す。 FIG. 20 shows a map display screen 440 displayed on the display unit 223 of the mobile terminal 200. On the map display screen 440, the positions of the subjects already captured are displayed on a map or an aerial photograph. An enlargement button 441 for enlarging and displaying the map by one step is arranged in the upper left upper part of the map display screen 440. A reduction button 442 for reducing and displaying the map by one step is arranged next to the enlargement button 441. A position display button 443 for switching the display / non-display of the current position icon 445, which will be described later, is arranged next to the reduction button 442. The current position icon 445 indicates a position updated by the route matching process described later on the map displayed on the map display screen 440. The guide object icon 444 indicates the position of the already specified guide object on the map displayed on the map display screen 440.

図21は、本実施形態1における追加情報登録処理を示すフローチャートである。図21を参照しながら、本実施形態1における追加情報登録処理のフローを説明する。追加情報登録処理は、例えば携帯端末200を所有するユーザが所定の公園等の予め定められた場所において被写体である植物を撮像した際に、当該植物に関わる案内情報を携帯端末200の表示部に表示させることで、ユーザに対して情報を提供するとともに、さらにユーザに対して追加情報を入力させる処理である。 FIG. 21 is a flowchart showing the additional information registration process in the first embodiment. The flow of the additional information registration process in the first embodiment will be described with reference to FIG. 21. In the additional information registration process, for example, when a user who owns the mobile terminal 200 images a plant as a subject in a predetermined place such as a predetermined park, guidance information related to the plant is displayed on the display unit of the mobile terminal 200. By displaying the information, the information is provided to the user, and additional information is input to the user.

まず、携帯端末200の記憶部230に記憶されている追加情報登録プログラム231を起動させると図12に示した起動画面400が表示される。その後、起動画面400中のカメラ撮影画面ボタン401が押下されると、例えば図13に示すようなカメラ撮影画面410Aに遷移し、撮像部225による被写体の撮像が可能となる。また、左にスワイプされると直前の画面に戻る。例えば、起動画面400に表示されるカメラ撮影画面ボタン401が押下され、カメラ撮影画面410Aに遷移した後、左スワイプされると、起動画面400に戻る。 First, when the additional information registration program 231 stored in the storage unit 230 of the mobile terminal 200 is activated, the activation screen 400 shown in FIG. 12 is displayed. After that, when the camera shooting screen button 401 in the startup screen 400 is pressed, the transition to the camera shooting screen 410A as shown in FIG. 13, for example, enables the imaging unit 225 to image the subject. Also, swiping to the left returns to the previous screen. For example, when the camera shooting screen button 401 displayed on the startup screen 400 is pressed to transition to the camera shooting screen 410A and then swipe left, the screen returns to the startup screen 400.

ステップS101においてCPU210は、所定の被写体に対する撮像を行い、画像を取得する。本実施形態1においては、被写体として、例えば公園内に植栽されている植物を例に挙げているが、公園内にある遊具などの設備や動物園の動物等でもよく、特に限定されない。 In step S101, the CPU 210 takes an image of a predetermined subject and acquires an image. In the first embodiment, for example, a plant planted in a park is taken as an example of the subject, but it may be a facility such as a playset in the park, an animal in a zoo, or the like, and is not particularly limited.

ステップS102においてCPU210は、取得した画像をサーバ100に送信する。そして、サーバ100は撮像された被写体の画像を携帯端末200から受信する。 In step S102, the CPU 210 transmits the acquired image to the server 100. Then, the server 100 receives the captured image of the subject from the mobile terminal 200.

ステップS103においてCPU210は、位置情報算出部224により被写体が撮像されたときの撮像位置を検出する。 In step S103, the CPU 210 detects the imaging position when the subject is imaged by the position information calculation unit 224.

ステップS104においてCPU210は、撮像位置情報メッセージをサーバ100に送信する。そして、サーバ100は撮像位置情報メッセージを携帯端末200から受信する。なお、撮像位置情報メッセージには被写体が撮像されたときの撮像位置の情報が含まれている。 In step S104, the CPU 210 transmits an imaging position information message to the server 100. Then, the server 100 receives the imaging position information message from the mobile terminal 200. The image pickup position information message includes information on the image pickup position when the subject is imaged.

ステップS105においてCPU110は、後述するルート照合処理を実行する。 In step S105, the CPU 110 executes a route collation process described later.

ステップS106においてCPU110は、後述する案内対象物検索処理を実行する。 In step S106, the CPU 110 executes a guide object search process described later.

ステップS107においてCPU110は、案内対象物メッセージを携帯端末100に送信する。そして、携帯端末200は案内対象物メッセージをサーバ100から受信する。なお、携帯端末200が案内対象物メッセージを受信したときに、案内対象物に関するテキストや画像例等が表示部223に表示された画面に自動遷移するようにしてもよい。また、案内対象物メッセージには、例えば花の名称などの案内対象物の情報が含まれている。ここで案内対象物とは、後述する案内対象物検索処理において撮像された被写体と予め対象物データベース150に登録されている対象物が一致したときの、当該対象物のことを示す。 In step S107, the CPU 110 transmits a guide object message to the mobile terminal 100. Then, the mobile terminal 200 receives the guidance object message from the server 100. When the mobile terminal 200 receives the guidance object message, the text or image example related to the guidance object may be automatically transitioned to the screen displayed on the display unit 223. In addition, the guidance object message includes information on the guidance object such as the name of a flower. Here, the guide object refers to the object when the subject captured in the guide object search process described later and the object registered in the object database 150 in advance match.

ステップS108においてCPU210は、後述する追加情報入力処理を実行する。 In step S108, the CPU 210 executes an additional information input process described later.

ステップS109においてCPU210は、追加情報メッセージをサーバ100に送信する。そして、サーバ100は追加情報メッセージを携帯端末200から受信する。なお、追加情報メッセージには、後述する追加情報入力処理において例えば被写体を撮像したユーザによって入力された答え、即ち、追加情報が含まれている。 In step S109, the CPU 210 sends an additional information message to the server 100. Then, the server 100 receives the additional information message from the mobile terminal 200. The additional information message includes, for example, an answer input by a user who has imaged the subject in the additional information input process described later, that is, additional information.

ステップS110においてCPU110は、後述する分類ラベル登録処理を実行する。 In step S110, the CPU 110 executes a classification label registration process described later.

図22は、CPU110が実行するルート照合処理を示すフローチャートである。図22を参照しながら、ルート照合処理を説明する。ルート照合処理は、携帯端末200から送信された撮像位置情報メッセージを基に、撮像位置から最も近い登録地点を特定する処理である。なお、ルート照合処理は前述の追加情報登録処理の一部である。 FIG. 22 is a flowchart showing a route matching process executed by the CPU 110. The route matching process will be described with reference to FIG. 22. The route matching process is a process of identifying the registration point closest to the image pickup position based on the image pickup position information message transmitted from the mobile terminal 200. The route collation process is a part of the additional information registration process described above.

ステップS201においてCPU110は、撮像位置が所定の登録地点から所定の距離閾値より近いか否か判定する。登録地点は、対象物と対応づけられて、例えばブロックの周辺に設定されている。なお、本実施形態1では、所定の距離閾値は6mとしているが、これに限られない。ステップS201においてCPU110は、撮像位置が所定の登録地点から所定の距離閾値より近ければ(ステップS201→Y)、ステップS202に進み、近くなければ(ステップS201→N)、ルート照合処理および追加情報登録処理を終了する。即ち、ステップS201では対象物が配置された例えば公園や植物園内にユーザがいるか否か判定することができる。そして、CPU110は、ユーザが公園内にいないと判定した場合に、ルート照合処理及び追加情報登録処理を終了する。 In step S201, the CPU 110 determines whether or not the imaging position is closer than the predetermined distance threshold value from the predetermined registration point. The registration point is associated with the object and is set, for example, around the block. In the first embodiment, the predetermined distance threshold value is set to 6 m, but the present invention is not limited to this. In step S201, if the imaging position is closer than the predetermined distance threshold value from the predetermined registration point (step S201 → Y), the CPU 110 proceeds to step S202, and if not (step S201 → N), the CPU 110 performs route matching processing and additional information registration. End the process. That is, in step S201, it is possible to determine whether or not there is a user in, for example, a park or a botanical garden where the object is arranged. Then, when it is determined that the user is not in the park, the CPU 110 ends the route collation process and the additional information registration process.

ステップS202においてCPU110は、ラインデータベース140が記憶する全てのレコードそれぞれについて、ステップS203〜S206の処理を実行する。 In step S202, the CPU 110 executes the processes of steps S203 to S206 for each of all the records stored in the line database 140.

ステップS203においてCPU110は、ユーザの移動方向がラインの始点から終点への方向と一致しているか否か判定する。ステップS203においてCPU110は、ユーザの移動方向がラインの始点から終点への方向と一致すれば(ステップS203→Y)、ステップS204に進み、一致しなければ(ステップS203→N)、ステップS207に進む。これにより、ステップS204〜ステップS206の処理を実行する際に対象となるラインの選択肢を減らすことができる。 In step S203, the CPU 110 determines whether or not the moving direction of the user coincides with the direction from the start point to the end point of the line. In step S203, the CPU 110 proceeds to step S204 if the movement direction of the user matches the direction from the start point to the end point of the line (step S203 → Y), and proceeds to step S207 if they do not match (step S203 → N). .. As a result, it is possible to reduce the choices of the target line when executing the processes of steps S204 to S206.

ステップS204においてCPU110は、撮像位置に対するライン上の垂線の足(図23)を算出する。即ち、撮像位置とラインとの距離を算出する。 In step S204, the CPU 110 calculates a perpendicular foot (FIG. 23) on the line with respect to the imaging position. That is, the distance between the imaging position and the line is calculated.

ここで、図23は、撮像位置に対するライン上の垂線の足を説明するための図である。前述のラインL10を用いて説明する。ラインL10は、登録地点R1を始点とし、登録地点R3を終点とするラインである。点F20は、撮像位置である。点F21は、点F20からラインL10(点R1と点R3を結ぶ線分)に引いた垂線の足であって、ラインL10上で点F20に最も近い点である。 Here, FIG. 23 is a diagram for explaining the foot of the perpendicular line on the line with respect to the imaging position. This will be described with reference to the above-mentioned line L10. The line L10 is a line starting from the registration point R1 and ending at the registration point R3. Point F20 is the imaging position. The point F21 is a foot of a perpendicular line drawn from the point F20 to the line L10 (a line segment connecting the points R1 and R3), and is the point closest to the point F20 on the line L10.

ステップS205においてCPU110は、撮像位置と垂線の足との距離(図23の点F20と点F21との距離)が最短でかつ所定の距離閾値以下であるか否か判定する。なお、本実施形態1では携帯端末200の位置情報算出部224の精度から、所定の距離閾値を4mと設定したが、これに限定されない。ステップS205においてCPU110は、撮像位置と垂線の足との距離(図23の点F20と点F21との距離)が最短かつ所定の距離閾値以下であれば(ステップS205→Y)、ステップS206に進む。また、ステップS205においてCPU110は、撮像位置と垂線の足との距離が最短ではない、または、所定の距離閾値を超えるならば(ステップS205→N)、ステップS207に進む。即ち、ステップS205では、ステップS204で算出した撮像位置とラインとの距離を基に、当該距離が最も短いときのラインを特定することを目的としている。 In step S205, the CPU 110 determines whether or not the distance between the imaging position and the foot of the perpendicular line (distance between the point F20 and the point F21 in FIG. 23) is the shortest and is equal to or less than a predetermined distance threshold value. In the first embodiment, the predetermined distance threshold value is set to 4 m from the accuracy of the position information calculation unit 224 of the mobile terminal 200, but the present invention is not limited to this. In step S205, if the distance between the imaging position and the foot of the perpendicular line (distance between the point F20 and the point F21 in FIG. 23) is the shortest and is equal to or less than a predetermined distance threshold value (step S205 → Y), the CPU 110 proceeds to step S206. .. Further, in step S205, if the distance between the imaging position and the foot of the perpendicular line is not the shortest or exceeds a predetermined distance threshold value (step S205 → N), the CPU 110 proceeds to step S207. That is, in step S205, it is an object to specify the line when the distance is the shortest, based on the distance between the imaging position and the line calculated in step S204.

ステップS206においてCPU110は、ステップS205において距離が最短でかつ所定の距離閾値以下であると判定されたライン上に設定された登録地点の中で、撮像位置から最も近い登録地点を特定する。 In step S206, the CPU 110 identifies the registration point closest to the imaging position among the registration points set on the line determined in step S205 that the distance is the shortest and is equal to or less than the predetermined distance threshold value.

ステップS207においてCPU110は、ラインデータベース140が記憶する全てのレコードについて、ステップS203〜S206の処理を実行したならば、ステップS208に進む。また、未処理のレコードがあれば、ステップS203〜S206の処理を実行する。 In step S207, the CPU 110 proceeds to step S208 if the processes of steps S203 to S206 are executed for all the records stored in the line database 140. If there is an unprocessed record, the processes of steps S203 to S206 are executed.

ステップS208においてCPU110は、最も近い登録地点が特定されたか否かを判定する。即ち、ステップS206の処理が実行されたか否か判定する。ステップS208においてCPU110は、最も近い登録地点が特定された場合は(ステップS208→Y)、追加情報登録処理に戻る。ステップS208においてCPU110は、最も近い登録地点が特定されなかった場合は(ステップS208→N)、ルート照合処理および追加情報登録処理を終了する。 In step S208, the CPU 110 determines whether or not the nearest registration point has been identified. That is, it is determined whether or not the process of step S206 has been executed. When the nearest registration point is specified in step S208 (step S208 → Y), the CPU 110 returns to the additional information registration process. If the nearest registration point is not specified in step S208 (step S208 → N), the CPU 110 ends the route matching process and the additional information registration process.

図24は、CPU110が実行する案内対象物検索処理を示すフローチャートである。図24を参照しながら、案内対象物検索処理を説明する。案内対象物検索処理は、例えば分類器により被写体の画像を分類し、当該被写体がルート照合処理によって特定された登録地点と対応づけられた対象物であるか否か対象物データベース150を参照する処理である。なお、案内対象物検索処理は前述の追加情報登録処理の一部である。 FIG. 24 is a flowchart showing a guide object search process executed by the CPU 110. The guide object search process will be described with reference to FIG. 24. In the guide object search process, for example, an image of a subject is classified by a classifier, and whether or not the subject is an object associated with a registration point specified by a route matching process or not is referred to in the object database 150. Is. The guide object search process is a part of the additional information registration process described above.

ステップS301においてCPU110は、携帯端末200から送信された被写体の画像を例えば分類器などを用いて分類する。本実施形態1では、例えば「TYPE(即ち、バラであるか否か)」、「COLOR」、「SHAPE」といった複数種類の特徴量に基づいて画像を分類するが、これに限られない。また、例えば背景をぼかすなどの画像処理を行ってから分類することで分類の精度を向上させることができる。 In step S301, the CPU 110 classifies the image of the subject transmitted from the mobile terminal 200 by using, for example, a classifier. In the first embodiment, images are classified based on a plurality of types of features such as "TYPE (that is, whether or not they are loose)", "COLOR", and "SHAPE", but the present invention is not limited to this. In addition, the accuracy of classification can be improved by performing image processing such as blurring the background and then classifying.

ステップS302においてCPU110は、被写体が対象物データベース150に予め登録されている対象物であるか否か判定する。即ち、CPU110は、ルート照合処理によって特定された登録地点とステップS301における画像分類結果とを用いて、撮像した被写体が当該登録地点と対応づけられた対象物であるか否か判定するために対象物データベース150を参照する。ステップS302においてCPU110は、被写体が対象物であれば(ステップS302→Y)、ステップS303に進む。ステップS302においてCPU110は、被写体が対象物でなければ(ステップS302→N)、案内対象物検索処理および追加情報登録処理を終了する。 In step S302, the CPU 110 determines whether or not the subject is an object registered in advance in the object database 150. That is, the CPU 110 uses the registration point specified by the route matching process and the image classification result in step S301 to determine whether or not the captured subject is an object associated with the registration point. Refer to the object database 150. In step S302, if the subject is an object (step S302 → Y), the CPU 110 proceeds to step S303. In step S302, if the subject is not an object (step S302 → N), the CPU 110 ends the guide object search process and the additional information registration process.

ステップS303においてCPU110は、ステップS302において被写体が予め登録されている対象物であると判定されたときの当該対象物を案内対象物として確定する。 In step S303, the CPU 110 determines the object as a guide object when it is determined in step S302 that the subject is a pre-registered object.

図25は、CPU210が実行する追加情報入力処理を示すフローチャートである。図25を参照しながら、追加情報入力処理を説明する。追加情報入力処理は、案内対象物検索処理において確定された案内対象物の情報を携帯端末200の表示部223に表示させ、当該案内対象物に関する追加情報の入力を受け付ける処理である。なお、追加情報入力処理は前述の追加情報登録処理の一部である。 FIG. 25 is a flowchart showing an additional information input process executed by the CPU 210. The additional information input process will be described with reference to FIG. 25. The additional information input process is a process of displaying the information of the guide object determined in the guide object search process on the display unit 223 of the mobile terminal 200 and accepting the input of the additional information about the guide object. The additional information input process is a part of the above-mentioned additional information registration process.

サーバ100から送信された案内対象物メッセージを携帯端末200が受信すると、案内対象物の案内情報がテキスト・写真表示画面420に表示される。ステップS401においてCPU210は、テキスト・写真表示画面420右上の追加情報登録ボタン424が押下されたか否かを判定する。即ち、ユーザによって追加情報登録ボタンが押下されたか否かを判定する。ステップS401においてCPU210は、テキスト・写真表示画面420右上の追加情報登録ボタン424が押下されたら(ステップS401→Y)、ステップS402に進み、押下されなかったら(ステップS401→N)、追加情報入力処理および追加情報登録処理を終了する。 When the mobile terminal 200 receives the guidance object message transmitted from the server 100, the guidance information of the guidance object is displayed on the text / photo display screen 420. In step S401, the CPU 210 determines whether or not the additional information registration button 424 on the upper right of the text / photo display screen 420 is pressed. That is, it is determined whether or not the additional information registration button is pressed by the user. In step S401, the CPU 210 proceeds to step S402 if the additional information registration button 424 at the upper right of the text / photo display screen 420 is pressed (step S401 → Y), and if not pressed (step S401 → N), the additional information input process. And end the additional information registration process.

ステップS402においてCPU210は、案内対象物に対応づけて登録するための追加情報を入力することが可能な追加情報入力画面を表示部223に表示させる。 In step S402, the CPU 210 causes the display unit 223 to display an additional information input screen on which additional information for registering in association with the guide object can be input.

ステップS403においてCPU210は、追加情報が入力されたか否か判定する。即ち、追加情報入力画面430Aに表示された質問内容に対して、ユーザが所定の答えを入力したか否か判定する。本実施形態1において、質問数は5つとなっているが、これに限られない。より多くの情報を得たい場合や多種多様な情報を得たい場合には、質問数を増やすとよい。質問は、対象物データベース150に登録されている情報について問うものであってもよい。対象物データベース150に登録されている情報について問う質問が含まれていれば、後述する分類ラベル登録処理において追加情報が案内対象物に該当するか否か判定する際に、当該質問の答えを基に判定することが可能となる。 In step S403, the CPU 210 determines whether or not additional information has been input. That is, it is determined whether or not the user has input a predetermined answer to the question content displayed on the additional information input screen 430A. In the first embodiment, the number of questions is five, but the number is not limited to this. If you want to get more information or a wide variety of information, you can increase the number of questions. The question may be about the information registered in the object database 150. If a question asking about the information registered in the object database 150 is included, the answer to the question is used when determining whether or not the additional information corresponds to the guide object in the classification label registration process described later. It becomes possible to judge.

ステップS403においてCPU210は、追加情報が入力されたならば(ステップS403→Y)、追加情報登録処理に戻り、入力されなければ(ステップS403→N)、追加情報入力処理および追加情報登録処理を終了する。なお、全ての質問に対して答えが入力されていなくても、少なくとも1つの質問に対して答えが入力されていれば追加情報が入力されたと見なし、追加情報登録処理に戻ることができる。 In step S403, if additional information is input (step S403 → Y), the CPU 210 returns to the additional information registration process, and if not (step S403 → N), the CPU 210 ends the additional information input process and the additional information registration process. do. Even if the answers have not been input to all the questions, if the answers have been input to at least one question, it is considered that the additional information has been input, and the process of returning to the additional information registration process can be performed.

図26は、CPU110が実行する分類ラベル登録処理を示すフローチャートである。図26を参照しながら、分類ラベル登録処理を説明する。ユーザによって入力された追加情報が、案内対象物に該当する正しい情報であるか否か判定し、正しい情報であると判定された場合に、当該追加情報を画像分類時に用いる分類ラベルとして登録する処理である。なお、分類ラベル登録処理は前述の追加情報登録処理の一部である。 FIG. 26 is a flowchart showing a classification label registration process executed by the CPU 110. The classification label registration process will be described with reference to FIG. 26. A process of determining whether or not the additional information input by the user is the correct information corresponding to the guide object, and if it is determined to be the correct information, registering the additional information as a classification label used at the time of image classification. Is. The classification label registration process is a part of the additional information registration process described above.

ステップS501においてCPU110は、追加情報が案内対象物に該当するか否か判定する。即ち、入力された追加情報が案内対象物に該当する正しい情報であるか否か判定するために対象物データベース150を参照する。ステップS501においてCPU110は、追加情報が案内対象物に該当する場合(ステップS501→Y)、ステップS502に進み、追加情報が案内対象物に該当しない場合(ステップS501→N)、分類ラベル登録処理および追加情報登録処理を終了する。 In step S501, the CPU 110 determines whether or not the additional information corresponds to the guide object. That is, the object database 150 is referred to in order to determine whether or not the input additional information is the correct information corresponding to the guide object. In step S501, when the additional information corresponds to the guide object (step S501 → Y), the process proceeds to step S502, and when the additional information does not correspond to the guide object (step S501 → N), the classification label registration process and End the additional information registration process.

ステップS502においてCPU110は、入力された追加情報を分類ラベルとして所定の記憶手段に登録する。ここで、分類ラベルとは、例えば画像等の分類処理に用いられるための識別用のラベルであり、画像が何を表しているか、あるいは画像にどういうものが含まれているかを示すものである。分類ラベルは予め画像に付与されているか、あるいはユーザによって新たに入力された情報に基づいて付与されてもよい。分類ラベルは、「タグ」あるいは「タグ情報」と呼ばれる場合もある。例えば、画像が太陽を表すものである場合には、その画像には「太陽」という分類ラベルが付与される。また、例えば、画像が本を著すものである場合には、その画像には「本」という分類ラベルが付与される。また、所定の記憶手段とは、例えば再学習データベース180であり、ユーザによって追加された情報を登録しておくものである。 In step S502, the CPU 110 registers the input additional information as a classification label in a predetermined storage means. Here, the classification label is a label for identification to be used for classification processing of, for example, an image, and indicates what the image represents or what is included in the image. The classification label may be given to the image in advance, or may be given based on the information newly input by the user. The classification label is sometimes called "tag" or "tag information". For example, if the image represents the sun, the image is given the classification label "sun". Further, for example, when an image is a book author, the image is given a classification label of "book". Further, the predetermined storage means is, for example, the re-learning database 180, in which information added by the user is registered.

再学習データベース180に登録された分類ラベルは、例えば次回以降に撮像された画像の分析時に参照される。このような構成により、追加情報登録システム10は、ユーザから画像分析のために必要とされる多種多様な情報を容易に取得することができる。ひいては、画像分析精度を向上させることが可能となる。 The classification label registered in the re-learning database 180 is referred to, for example, when analyzing the images captured from the next time onward. With such a configuration, the additional information registration system 10 can easily acquire a wide variety of information required for image analysis from the user. As a result, it becomes possible to improve the accuracy of image analysis.

なお、テキスト・写真表示画面420下部に配置されている音声認識ボタン423が押下されたとき、CPU210により実行される自然言語対話処理の際には、再学習データベース180に追加された情報を基にユーザが入力した質問に対する返答を作成してもよい。 When the voice recognition button 423 located at the bottom of the text / photo display screen 420 is pressed, the natural language dialogue process executed by the CPU 210 is based on the information added to the re-learning database 180. You may create a response to a question entered by the user.

本実施形態1のデータベース生成方法、データベース生成装置およびデータベース生成プログラムによれば、撮像された被写体である対象物に該当する追加情報が入力されることによって、教師データのサンプル数を効率的に増やしつつ、分類ラベルの細分化度合いを高めることができる。 According to the database generation method, the database generation device, and the database generation program of the first embodiment, the number of samples of teacher data is efficiently increased by inputting additional information corresponding to the object to be imaged. At the same time, the degree of subdivision of the classification label can be increased.

なお、本実施形態1では、施設として公園内に植栽されている植物を被写体としていたが、これに限らず、公園内にある遊具などの設備、動物が飼育されている檻、昆虫が頻繁に観察されるスポットを被写体としてもよい。また、公園に限らず、テーマパークや遊園地、動物園などの屋外施設であってもよい。 In the first embodiment, the subject is a plant planted in the park as a facility, but the subject is not limited to this, and equipment such as playsets in the park, cages in which animals are bred, and insects are frequently used. The spot observed in the subject may be the subject. Further, the facility is not limited to a park, and may be an outdoor facility such as a theme park, an amusement park, or a zoo.

また、本実施形態1では、ルート照合処理では撮像位置から最も近い登録地点を特定しているが、撮像位置から2番目に近い登録地点も含めた複数の登録地点を特定するようにしてもよい。そして、登録地点が複数ある場合には、被写体がどの登録地点に対応づけられた対象物であるか対象物データベース150を参照するようにしてもよい。 Further, in the first embodiment, the registration point closest to the imaging position is specified in the route matching process, but a plurality of registration points including the registration point second closest to the imaging position may be specified. .. Then, when there are a plurality of registered points, the object database 150 may be referred to to determine which registered point the subject is associated with.

また、本実施形態1では、追加情報入力処理においてテキスト・写真表示画面420右上の追加情報登録ボタン424が押下されたら、追加情報入力画面が表示されるような構成であるが、案内対象物メッセージを携帯端末200が受信すると追加情報入力画面に自動遷移される構成であってもよい。 Further, in the first embodiment, the additional information input screen is displayed when the additional information registration button 424 on the upper right of the text / photo display screen 420 is pressed in the additional information input process. May be configured to automatically transition to the additional information input screen when the mobile terminal 200 receives.

(実施形態2)
実施形態1では、追加情報登録システム10には、携帯端末200とサーバ100を備える構成としていた。実施形態2においては、サーバ100を備えず、携帯端末200のみで構成される。
(Embodiment 2)
In the first embodiment, the additional information registration system 10 is configured to include the mobile terminal 200 and the server 100. In the second embodiment, the server 100 is not provided, and only the mobile terminal 200 is configured.

図27は、本実施形態2に係る携帯端末200Bの概略の構成を示す図である。実施形態1における携帯端末200と比較すると、通信部228がなく、実施形態1においてサーバ100のCPU110が実行するルート照合処理、案内対象物検索処理、分類ラベル登録処理はCPU210が実行する。つまりCPU210は、後述する追加情報登録処理を実行することにより、取得手段、位置検出手段、第1の判定手段、第2の判定手段、表示手段、登録手段として機能する。また、ラインデータベース140、対象物データベース150、位置情報データベース170および再学習データベース180は、記憶部230に記憶される。 FIG. 27 is a diagram showing a schematic configuration of the mobile terminal 200B according to the second embodiment. Compared with the mobile terminal 200 in the first embodiment, there is no communication unit 228, and the CPU 210 executes the route matching process, the guide object search process, and the classification label registration process executed by the CPU 110 of the server 100 in the first embodiment. That is, the CPU 210 functions as an acquisition means, a position detection means, a first determination means, a second determination means, a display means, and a registration means by executing the additional information registration process described later. Further, the line database 140, the object database 150, the position information database 170, and the relearning database 180 are stored in the storage unit 230.

図28は、本実施形態2における追加情報登録処理を示すフローチャートである。図28を参照しながら、本実施形態2における追加情報登録処理のフローを説明する。 FIG. 28 is a flowchart showing the additional information registration process in the second embodiment. The flow of the additional information registration process in the second embodiment will be described with reference to FIG. 28.

ステップS601においてCPU210は、所定の被写体に対する撮像を行い、画像を取得する。 In step S601, the CPU 210 takes an image of a predetermined subject and acquires an image.

ステップS602においてCPU210は、位置情報算出部224により被写体が撮像されたときの撮像位置を検出する。 In step S602, the CPU 210 detects the imaging position when the subject is imaged by the position information calculation unit 224.

ステップS603においてCPU210は、実施形態1においてサーバ100のCPU110が実行するルート照合処理を実行する。 In step S603, the CPU 210 executes the route collation process executed by the CPU 110 of the server 100 in the first embodiment.

ステップS604においてCPU210は、実施形態1においてサーバ100のCPU110が実行する案内対象物検索処理を実行する。 In step S604, the CPU 210 executes the guide object search process executed by the CPU 110 of the server 100 in the first embodiment.

ステップS605においてCPU210は、前述の追加情報入力処理を実行する。 In step S605, the CPU 210 executes the above-mentioned additional information input process.

ステップS606においてCPU210は、実施形態1においてサーバ100のCPU110が実行する分類ラベル登録処理を実行する。 In step S606, the CPU 210 executes the classification label registration process executed by the CPU 110 of the server 100 in the first embodiment.

このように、実施形態2では、追加情報登録システム10はサーバ100を備えずに携帯端末20のみで構成することができる。 As described above, in the second embodiment, the additional information registration system 10 can be configured only by the mobile terminal 20 without the server 100.

本実施形態2のデータベース生成方法、データベース生成装置およびデータベース生成プログラムによれば、撮像された被写体である対象物に該当する追加情報が入力されることによって、教師データのサンプル数を効率的に増やしつつ、分類ラベルの細分化度合いを高めることができる。 According to the database generation method, the database generation device, and the database generation program of the second embodiment, the number of samples of teacher data is efficiently increased by inputting additional information corresponding to the object to be imaged. At the same time, the degree of subdivision of the classification label can be increased.

なお、本実施形態2では、施設として公園内に植栽されている植物を被写体としていたが、これに限らず、公園内にある遊具などの設備、動物が飼育されている檻、昆虫が頻繁に観察されるスポットを被写体としてもよい。また、公園に限らず、テーマパークや遊園地、動物園などの屋外施設であってもよい。 In the second embodiment, the subject is a plant planted in the park as a facility, but the subject is not limited to this, and equipment such as playsets in the park, cages in which animals are bred, and insects are frequently used. The spot observed in the subject may be the subject. Further, the facility is not limited to a park, and may be an outdoor facility such as a theme park, an amusement park, or a zoo.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various modifications such as omission and substitution can be made without departing from the gist of the present invention. These embodiments are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。 The inventions described in the claims originally attached to the application of this application are added below. The claim numbers given in the appendix are the scope of the claims originally attached to the application for this application.

[付記1]
所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出ステップと、
前記位置検出ステップにより検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定ステップと、
前記第1の判定ステップにより前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている対象物であるか否か判定する第2の判定ステップと、
前記第2の判定ステップにより前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、ユーザが入力することが可能な画面を表示させる表示ステップと、
前記表示ステップにより表示された前記画面に前記追加情報が入力された場合、前記入力された追加情報を分類ラベルとして所定の記憶手段に登録する登録ステップと、
を有することを特徴とするデータベース生成方法。
[付記2]
所定の被写体に対する撮像により前記被写体の画像を取得する取得ステップと、
前記取得ステップにより前記被写体が撮像されたときの撮像位置を検出する位置検出ステップと、
前記位置検出ステップにより検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定ステップと、
前記第1の判定ステップにより前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている対象物であるか否か判定する第2の判定ステップと、
前記第2の判定ステップにより前記被写体が前記対象物であると判定された場合、前記取得ステップにより取得された前記画像に対応づけて登録するための追加情報を、ユーザが入力することが可能な画面を表示させる表示ステップと、
前記表示ステップにより表示された前記画面に前記追加情報が入力された場合、前記入力された追加情報を分類ラベルとして所定の記憶手段に登録する登録ステップと、
を有することを特徴とするデータベース生成方法。
[付記3]
前記登録地点は、前記対象物に対応づけられている
ことを特徴とする付記1又は2に記載のデータベース生成方法。
[付記4]
前記登録地点は、前記ユーザが移動する際に通ると想定される所定のライン上に設定されており、
前記第1の判定ステップは、前記撮像位置と前記ラインとの距離に基づいて前記撮像位置が前記登録地点から所定の距離閾値よりも近いか否か判定する
ことを特徴とする付記1から3の何れか1項に記載のデータベース生成方法。
[付記5]
前記ユーザが移動する方向を検出する方向検出ステップを有し、
前記第1の判定ステップは、前記方向検出ステップにより検出された移動方向と前記ラインの始点から終点への方向とが一致した場合に、前記撮像位置と前記ラインとの距離に基づいて前記撮像位置が前記登録地点から所定の距離閾値よりも近いか否か判定する
ことを特徴とする付記4に記載のデータベース生成方法。
[付記6]
所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、
前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段と、
前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている対象物であるか否か判定する第2の判定手段と、
前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、ユーザが入力することが可能な画面を表示させる表示制御手段と、
前記表示制御手段により表示された前記画面に前記追加情報が入力された場合、前記入力された追加情報を分類ラベルとして所定の記憶手段に登録する登録手段と、
を備えることを特徴とするデータベース生成装置。
[付記7]
所定の被写体に対する撮像により前記被写体の画像を取得する取得手段と、
前記取得手段により前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、
前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段と、
前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている対象物であるか否か判定する第2の判定手段と、
前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記取得手段により取得された前記画像に対応づけて登録するための追加情報を、ユーザが入力することが可能な画面を表示させる表示制御手段と、
前記表示制御手段により表示された前記画面に前記追加情報が入力された場合、前記入力された追加情報を分類ラベルとして所定の記憶手段に登録する登録手段と、
を備えることを特徴とするデータベース生成装置。
[付記8]
前記登録地点は、前記対象物に対応づけられている
ことを特徴とする付記6又は7に記載のデータベース生成装置。
[付記9]
コンピュータを、
所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出手段、
前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段、
前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている対象物であるか否か判定する第2の判定手段、
前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、ユーザが入力することが可能な画面を表示させる表示制御手段、
前記表示制御手段により表示された前記画面に前記追加情報が入力された場合、前記入力された追加情報を分類ラベルとして所定の記憶手段に登録する登録手段、
として機能させるためのデータベース生成プログラム。
[付記10]
コンピュータを、
所定の被写体に対する撮像により前記被写体の画像を取得する取得手段、
前記取得手段により前記被写体が撮像されたときの撮像位置を検出する位置検出手段、
前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段、
前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている対象物であるか否か判定する第2の判定手段、
前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記取得手段により取得された前記画像に対応づけて登録するための追加情報を、ユーザが入力することが可能な画面を表示させる表示制御手段、
前記表示制御手段により表示された前記画面に前記追加情報が入力された場合、前記入力された追加情報を分類ラベルとして所定の記憶手段に登録する登録手段、
として機能させるためのデータベース生成プログラム。
[付記11]
前記登録地点は、前記対象物に対応づけられている
ことを特徴とする付記9又は10に記載のデータベース生成プログラム。
[Appendix 1]
A position detection step of detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject, and a position detection step.
A first determination step for determining whether or not the imaging position detected by the position detection step is closer than a predetermined distance threshold value from a predetermined registration point, and
When it is determined by the first determination step that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the second determination as to whether or not the subject is a pre-registered object. Steps and
When the subject is determined to be the object by the second determination step, the display step of displaying a screen on which the user can input additional information for registering the subject in association with the image. ,
When the additional information is input to the screen displayed by the display step, the registration step of registering the input additional information as a classification label in a predetermined storage means, and
A database generation method characterized by having.
[Appendix 2]
An acquisition step of acquiring an image of a predetermined subject by imaging the subject, and
A position detection step for detecting an imaging position when the subject is imaged by the acquisition step, and a position detection step.
A first determination step for determining whether or not the imaging position detected by the position detection step is closer than a predetermined distance threshold value from a predetermined registration point, and
When it is determined by the first determination step that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the second determination as to whether or not the subject is a pre-registered object. Steps and
When the subject is determined to be the object by the second determination step, the user can input additional information for registering in association with the image acquired by the acquisition step. Display steps to display the screen and
When the additional information is input to the screen displayed by the display step, the registration step of registering the input additional information as a classification label in a predetermined storage means, and
A database generation method characterized by having.
[Appendix 3]
The database generation method according to Appendix 1 or 2, wherein the registration point is associated with the object.
[Appendix 4]
The registration point is set on a predetermined line that is assumed to pass when the user moves.
The first determination step is characterized in that it determines whether or not the imaging position is closer than a predetermined distance threshold value from the registration point based on the distance between the imaging position and the line. The database generation method according to any one of the items.
[Appendix 5]
It has a direction detection step for detecting the direction in which the user moves.
In the first determination step, when the moving direction detected by the direction detection step and the direction from the start point to the end point of the line coincide with each other, the imaging position is based on the distance between the imaging position and the line. The database generation method according to Appendix 4, wherein is determined whether or not is closer than a predetermined distance threshold value from the registration point.
[Appendix 6]
A position detecting means for detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject, and
A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold value from a predetermined registration point, and
When the first determination means determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the second determination as to whether or not the subject is a pre-registered object. Means and
When the subject is determined to be the object by the second determination means, the display control means for displaying a screen on which the user can input additional information for registering the subject in association with the image. When,
When the additional information is input to the screen displayed by the display control means, the registration means for registering the input additional information as a classification label in a predetermined storage means, and
A database generator characterized by comprising.
[Appendix 7]
An acquisition means for acquiring an image of a predetermined subject by imaging the subject, and
A position detecting means for detecting an imaging position when the subject is imaged by the acquiring means, and a position detecting means.
A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold value from a predetermined registration point, and
When the first determination means determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the second determination as to whether or not the subject is a pre-registered object. Means and
When the subject is determined to be the object by the second determination means, the user can input additional information for registering in association with the image acquired by the acquisition means. Display control means to display the screen and
When the additional information is input to the screen displayed by the display control means, the registration means for registering the input additional information as a classification label in a predetermined storage means, and
A database generator characterized by comprising.
[Appendix 8]
The database generator according to Appendix 6 or 7, wherein the registration point is associated with the object.
[Appendix 9]
Computer,
A position detecting means for detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject.
A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold value from a predetermined registration point.
When the first determination means determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the second determination as to whether or not the subject is a pre-registered object. means,
When the subject is determined to be the object by the second determination means, the display control means for displaying a screen on which the user can input additional information for registering the subject in association with the image. ,
When the additional information is input to the screen displayed by the display control means, the registration means for registering the input additional information as a classification label in a predetermined storage means.
A database generator to function as.
[Appendix 10]
Computer,
An acquisition means for acquiring an image of a predetermined subject by imaging the subject,
A position detecting means for detecting an imaging position when the subject is imaged by the acquiring means,
A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold value from a predetermined registration point.
When the first determination means determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the second determination as to whether or not the subject is a pre-registered object. means,
When the subject is determined to be the object by the second determination means, the user can input additional information for registering in association with the image acquired by the acquisition means. Display control means to display the screen,
When the additional information is input to the screen displayed by the display control means, the registration means for registering the input additional information as a classification label in a predetermined storage means.
A database generator to function as.
[Appendix 11]
The database generation program according to Appendix 9 or 10, wherein the registration point is associated with the object.

10 追加情報登録システム
100 サーバ
110 CPU
121 RAM
122 操作部
123 表示部
124 通信部
129 バス
130 記憶部
140 ラインデータベース
150 対象物データベース
170 位置情報データベース
180 再学習データベース
200 携帯端末
210 CPU
221 RAM
222 操作部
223 表示部
224 位置情報算出部
225 撮像部
226 音声入力部
227 音声出力部
228 通信部
229 バス
230 記憶部
231 追加情報登録プログラム
500 ネットワーク
10 Additional information registration system 100 Server 110 CPU
121 RAM
122 Operation unit 123 Display unit 124 Communication unit 129 Bus 130 Storage unit 140 Line database 150 Object database 170 Location information database 180 Relearning database 200 Mobile terminal 210 CPU
221 RAM
222 Operation unit 223 Display unit 224 Position information calculation unit 225 Imaging unit 226 Audio input unit 227 Audio output unit 228 Communication unit 229 Bus 230 Storage unit 231 Additional information registration program 500 Network

本発明は、データベース生成方法、追加情報登録システム、データベース生成装置およびプログラムに関する。 The present invention relates to a database generation method , an additional information registration system, a database generation device and a program .

そこで、本発明は、教師データのサンプル数を効率的に増やしつつ、分類ラベルの細分化度合いを高めることができるデータベース生成方法、追加情報登録システム、データベース生成装置およびプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a database generation method, an additional information registration system, a database generation device, and a program capable of increasing the degree of subdivision of classification labels while efficiently increasing the number of samples of teacher data. do.

上記の目的を達成するために、本発明に係るデータベース生成方法は、追加情報登録システムが実行するデータベース生成方法であって、所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出ステップと、前記位置検出ステップにより検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定ステップと、前記第1の判定ステップにより前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている種類の植物であるか否か判定する第2の判定ステップと、前記第2の判定ステップにより前記被写体が前記予め登録されている種類の植物であると判定された場合、前記画像に対応づけて登録するための追加情報として前記植物の状態情報を、ユーザが入力することが可能な画面を表示させる表示ステップと、前記表示ステップにより表示された前記画面に前記状態情報が入力された場合、前記入力された状態情報を分類ラベルとして所定の記憶手段に登録する登録ステップと、を有することを特徴とする。 In order to achieve the above object, the database generation method according to the present invention is a database generation method executed by the additional information registration system, and when the subject is imaged in order to acquire an image of a predetermined subject. A position detection step for detecting an imaging position, a first determination step for determining whether or not the imaging position detected by the position detection step is closer than a predetermined distance threshold value from a predetermined registration point, and the first determination step. When the determination step determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the second determination step of determining whether or not the subject is a pre-registered type of plant. When the subject is determined to be the pre-registered type of plant by the second determination step, the user inputs the state information of the plant as additional information for registering in association with the image. a display step of displaying the possible screen to be, the case where the state information on the screen displayed by the display step is input, registration to register in a predetermined storage unit the state information the input as the classification label It is characterized by having a step and.

また、本発明に係る他の態様のデータベース生成方法は、データベース生成装置が実行するデータベース生成方法であって、所定の被写体に対する撮像により前記被写体の画像を取得する取得ステップと、前記取得ステップにより前記被写体が撮像されたときの撮像位置を検出する位置検出ステップと、前記位置検出ステップにより検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定ステップと、前記第1の判定ステップにより前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている種類の植物であるか否か判定する第2の判定ステップと、前記第2の判定ステップにより前記被写体が前記予め登録されている種類の植物であると判定された場合、前記取得ステップにより取得された前記画像に対応づけて登録するための追加情報として前記植物の状態情報を、ユーザが入力することが可能な画面を表示させる表示ステップと、前記表示ステップにより表示された前記画面に前記状態情報が入力された場合、前記入力された状態情報を分類ラベルとして所定の記憶手段に登録する登録ステップと、を有することを特徴とする。 The database generation method of another aspect according to the present invention is the directed to a database creation method database generation apparatus executes an acquiring step of acquiring an image of the subject by the imaging for a given subject, by the acquisition step A position detection step for detecting an imaging position when a subject is imaged, and a first determination for determining whether or not the imaging position detected by the position detection step is closer than a predetermined distance threshold from a predetermined registration point. When it is determined by the step and the first determination step that the imaging position is closer than the predetermined distance threshold from the predetermined registration point, it is determined whether or not the subject is a pre-registered type of plant. When the subject is determined to be the pre-registered type of plant by the second determination step and the second determination step, in order to register the subject in association with the image acquired by the acquisition step. the status information of the plant as additional information, a display step of displaying the possible screen the user inputting, when the state information on the screen displayed by the display step is entered, which is the input It is characterized by having a registration step of registering state information as a classification label in a predetermined storage means.

また、本発明に係る追加情報登録システムは、所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段と、前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている種類の植物であるか否か判定する第2の判定手段と、前記第2の判定手段により前記被写体が前記予め登録されている種類の植物であると判定された場合、前記画像に対応づけて登録するための追加情報として前記植物の状態情報を、ユーザが入力することが可能な画面を表示させる表示制御手段と、前記表示制御手段により表示された前記画面に前記状態情報が入力された場合、前記入力された状態情報を分類ラベルとして所定の記憶手段に登録する登録手段と、を備えることを特徴とする。 Further, the additional information registration system according to the present invention includes a position detecting means for detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject, and the imaging detected by the position detecting means. When the first determination means for determining whether or not the position is closer than the predetermined distance threshold value from the predetermined registration point and the imaging position are closer than the predetermined distance threshold value from the predetermined registration point by the first determination means. When the determination is made, the second determination means for determining whether or not the subject is a pre-registered type of plant and the second determination means for the subject to be a pre-registered type of plant . When it is determined that there is, the state information of the plant is displayed as additional information for registering in association with the image by the display control means for displaying a screen that can be input by the user and the display control means. When the state information is input to the screen , the registration means for registering the input state information as a classification label in a predetermined storage means is provided.

また、本発明に係るデータベース生成装置は、所定の被写体に対する撮像により前記被写体の画像を取得する取得手段と、前記取得手段により前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段と、前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている種類の植物であるか否か判定する第2の判定手段と、前記第2の判定手段により前記被写体が前記予め登録されている種類の植物であると判定された場合、前記取得手段により取得された前記画像に対応づけて登録するための追加情報として前記植物の状態情報を、ユーザが入力することが可能な画面を表示させる表示制御手段と、前記表示制御手段により表示された前記画面に前記状態情報が入力された場合、前記入力された状態情報を分類ラベルとして所定の記憶手段に登録する登録手段と、を備えることを特徴とする。 Further, the database generation device according to the present invention includes an acquisition means for acquiring an image of the subject by imaging a predetermined subject, a position detecting means for detecting an imaging position when the subject is imaged by the acquisition means, and a position detecting means. A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold from a predetermined registration point, and a predetermined registration of the imaging position by the first determining means. When it is determined that the subject is closer than a predetermined distance threshold from the point, the subject is determined by the second determination means for determining whether or not the subject is a plant of a pre-registered type, and the second determination means. When it is determined that the plant is of the type registered in advance , the user may input the state information of the plant as additional information for registering in association with the image acquired by the acquisition means. A display control means for displaying a possible screen, and a registration means for registering the input state information as a classification label in a predetermined storage means when the state information is input to the screen displayed by the display control means. It is characterized by having.

また、本発明に係るプログラムは、追加情報登録システムのコンピュータを、所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出手段、前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段、前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている種類の植物であるか否か判定する第2の判定手段、前記第2の判定手段により前記被写体が前記予め登録されている種類の植物であると判定された場合、前記画像に対応づけて登録するための追加情報として前記植物の状態情報を、ユーザが入力することが可能な画面を表示させる表示制御手段、前記表示制御手段により表示された前記画面に前記状態情報が入力された場合、前記入力された状態情報を分類ラベルとして所定の記憶手段に登録する登録手段、として機能させることを特徴とする。 Further, the program according to the present invention detects the computer of the additional information registration system by a position detecting means for detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject, and the position detecting means. The first determination means for determining whether or not the imaging position is closer than the predetermined distance threshold from the predetermined registration point, and the first determination means causes the imaging position to be closer to the predetermined distance threshold than the predetermined registration point. When it is determined that the subject is close to the subject, the second determination means for determining whether or not the subject is a plant of the type registered in advance , the second determination means means that the subject is of the type registered in advance. When it is determined that the plant is a plant, the display control means for displaying the screen on which the user can input the state information of the plant as additional information for registering the image in association with the image, the display control means. When the state information is input to the displayed screen , it is characterized in that it functions as a registration means for registering the input state information as a classification label in a predetermined storage means.

また、本発明に係る他の態様のプログラムは、データベース生成装置のコンピュータを、所定の被写体に対する撮像により前記被写体の画像を取得する取得手段、前記取得手段により前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段、前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が予め登録されている種類の植物であるか否か判定する第2の判定手段、前記第2の判定手段により前記被写体が前記予め登録されている種類の植物であると判定された場合、前記取得手段により取得された前記画像に対応づけて登録するための追加情報として前記植物の状態情報を、ユーザが入力することが可能な画面を表示させる表示制御手段、前記表示制御手段により表示された前記画面に前記状態情報が入力された場合、前記入力された状態情報を分類ラベルとして所定の記憶手段に登録する登録手段、として機能させることを特徴とする。 Further, in the program of another aspect according to the present invention, the computer of the database generator is an acquisition means for acquiring an image of the subject by imaging a predetermined subject, and an imaging position when the subject is imaged by the acquisition means. By the position detecting means for detecting the above, the first determining means for determining whether or not the imaging position detected by the position detecting means is closer than the predetermined distance threshold from the predetermined registration point, and the first determining means. When it is determined that the imaging position is closer than the predetermined distance threshold from the predetermined registration point, the second determination means for determining whether or not the subject is a pre-registered type of plant, the second determination means. When the determination means determines that the subject is a plant of the type registered in advance , the state information of the plant is added as additional information for registering in association with the image acquired by the acquisition means. display control means for a user to display a screen capable of inputting, the display control if the status information to the screen displayed is input by means predetermined storage unit the state information the input as the classification label It is characterized in that it functions as a registration means for registering in.

Claims (11)

追加情報登録システムが実行するデータベース生成方法であって、
所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出ステップと、
前記位置検出ステップにより検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定ステップと、
前記第1の判定ステップにより前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定ステップと、
前記第2の判定ステップにより前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示ステップと、
前記表示ステップにより表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録ステップと、
を有することを特徴とするデータベース生成方法。
A database generation method executed by the additional information registration system.
A position detection step of detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject, and a position detection step.
A first determination step for determining whether or not the imaging position detected by the position detection step is closer than a predetermined distance threshold value from a predetermined registration point, and
When it is determined by the first determination step that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the subject is an object registered in advance corresponding to the predetermined registration point. The second determination step to determine whether or not
When the subject is determined to be the object by the second determination step, the user can input additional information for registering in association with the image as answer information for a predetermined question. Display steps to display a question screen and
When the answer information is input to the question screen displayed by the display step, a registration step of registering the input answer information as a classification label in a predetermined storage means, and
A database generation method characterized by having.
追加情報登録システムが実行するデータベース生成方法であって、
所定の被写体に対する撮像により前記被写体の画像を取得する取得ステップと、
前記取得ステップにより前記被写体が撮像されたときの撮像位置を検出する位置検出ステップと、
前記位置検出ステップにより検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定ステップと、
前記第1の判定ステップにより前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定ステップと、
前記第2の判定ステップにより前記被写体が前記対象物であると判定された場合、前記取得ステップにより取得された前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示ステップと、
前記表示ステップにより表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録ステップと、
を有することを特徴とするデータベース生成方法。
A database generation method executed by the additional information registration system.
An acquisition step of acquiring an image of a predetermined subject by imaging the subject, and
A position detection step for detecting an imaging position when the subject is imaged by the acquisition step, and a position detection step.
A first determination step for determining whether or not the imaging position detected by the position detection step is closer than a predetermined distance threshold value from a predetermined registration point, and
When it is determined by the first determination step that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the subject is an object registered in advance corresponding to the predetermined registration point. The second determination step to determine whether or not
When the subject is determined to be the object by the second determination step, additional information for registering the subject in association with the image acquired by the acquisition step is used as answer information for a predetermined question. A display step that displays a question screen that can be entered by the user,
When the answer information is input to the question screen displayed by the display step, a registration step of registering the input answer information as a classification label in a predetermined storage means, and
A database generation method characterized by having.
前記登録地点は、対象物毎に対応づけられている、
ことを特徴とする請求項1又は2に記載のデータベース生成方法。
The registration points are associated with each object.
The database generation method according to claim 1 or 2, wherein the database is generated.
前記登録地点は、前記ユーザが移動する際に通ると想定される所定のライン上に設定されており、
前記第1の判定ステップは、前記撮像位置と前記ラインとの距離に基づいて前記撮像位置が前記登録地点から所定の距離閾値よりも近いか否か判定する、
ことを特徴とする請求項1から3の何れか1項に記載のデータベース生成方法。
The registration point is set on a predetermined line that is assumed to pass when the user moves.
The first determination step determines whether or not the imaging position is closer than a predetermined distance threshold value from the registration point based on the distance between the imaging position and the line.
The database generation method according to any one of claims 1 to 3, wherein the database is generated.
前記ユーザが移動する方向を検出する方向検出ステップを有し、
前記第1の判定ステップは、前記方向検出ステップにより検出された移動方向と前記ラインの始点から終点への方向とが一致した場合に、前記撮像位置と前記ラインとの距離に基づいて前記撮像位置が前記登録地点から所定の距離閾値よりも近いか否か判定する、
ことを特徴とする請求項4に記載のデータベース生成方法。
It has a direction detection step for detecting the direction in which the user moves.
In the first determination step, when the moving direction detected by the direction detection step and the direction from the start point to the end point of the line coincide with each other, the imaging position is based on the distance between the imaging position and the line. Determines whether or not is closer than the predetermined distance threshold from the registration point.
The database generation method according to claim 4, wherein the database is generated.
所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、
前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段と、
前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定手段と、
前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示制御手段と、
前記表示制御手段により表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録手段と、
を備えることを特徴とするデータベース生成装置。
A position detecting means for detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject, and
A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold value from a predetermined registration point, and
When the first determination means determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the subject is an object registered in advance corresponding to the predetermined registration point. A second determination means for determining whether or not,
When the subject is determined to be the object by the second determination means, the user can input additional information for registering in association with the image as answer information for a predetermined question. Display control means to display a question screen and
When the answer information is input to the question screen displayed by the display control means, the registration means for registering the input answer information as a classification label in a predetermined storage means, and
A database generator characterized by comprising.
所定の被写体に対する撮像により前記被写体の画像を取得する取得手段と、
前記取得手段により前記被写体が撮像されたときの撮像位置を検出する位置検出手段と、
前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段と、
前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定手段と、
前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記取得手段により取得された前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示制御手段と、
前記表示制御手段により表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録手段と、
を備えることを特徴とするデータベース生成装置。
An acquisition means for acquiring an image of a predetermined subject by imaging the subject, and
A position detecting means for detecting an imaging position when the subject is imaged by the acquiring means, and a position detecting means.
A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold value from a predetermined registration point, and
When the first determination means determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the subject is an object registered in advance corresponding to the predetermined registration point. A second determination means for determining whether or not,
When the subject is determined to be the object by the second determination means, additional information for registering the subject in association with the image acquired by the acquisition means is used as answer information for a predetermined question. Display control means to display a question screen that can be entered by the user,
When the answer information is input to the question screen displayed by the display control means, the registration means for registering the input answer information as a classification label in a predetermined storage means, and
A database generator characterized by comprising.
前記登録地点は、対象物毎に対応づけられている、
ことを特徴とする請求項6又は7に記載のデータベース生成装置。
The registration points are associated with each object.
The database generator according to claim 6 or 7.
コンピュータを、
所定の被写体の画像を取得するために前記被写体が撮像されたときの撮像位置を検出する位置検出手段、
前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段、
前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定手段、
前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示制御手段、
前記表示制御手段により表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録手段、
として機能させるためのデータベース生成プログラム。
Computer,
A position detecting means for detecting an imaging position when the subject is imaged in order to acquire an image of a predetermined subject.
A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold value from a predetermined registration point.
When the first determination means determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the subject is an object registered in advance corresponding to the predetermined registration point. Second determination means for determining whether or not,
When the subject is determined to be the object by the second determination means, the user can input additional information for registering in association with the image as answer information for a predetermined question. Display control means to display a question screen,
When the answer information is input to the question screen displayed by the display control means, the registration means for registering the input answer information as a classification label in a predetermined storage means.
A database generator to function as.
コンピュータを、
所定の被写体に対する撮像により前記被写体の画像を取得する取得手段、
前記取得手段により前記被写体が撮像されたときの撮像位置を検出する位置検出手段、
前記位置検出手段により検出された前記撮像位置が所定の登録地点から所定の距離閾値よりも近いか否か判定する第1の判定手段、
前記第1の判定手段により前記撮像位置が所定の登録地点から所定の距離閾値よりも近いと判定された場合、前記被写体が前記所定の登録地点に対応させて予め登録されている対象物であるか否か判定する第2の判定手段、
前記第2の判定手段により前記被写体が前記対象物であると判定された場合、前記取得手段により取得された前記画像に対応づけて登録するための追加情報を、所定の質問に対する回答情報として、ユーザが入力することが可能な質問画面を表示させる表示制御手段、
前記表示制御手段により表示された前記質問画面に前記回答情報が入力された場合、前記入力された回答情報を分類ラベルとして所定の記憶手段に登録する登録手段、
として機能させるためのデータベース生成プログラム。
Computer,
An acquisition means for acquiring an image of a predetermined subject by imaging the subject,
A position detecting means for detecting an imaging position when the subject is imaged by the acquiring means,
A first determining means for determining whether or not the imaging position detected by the position detecting means is closer than a predetermined distance threshold value from a predetermined registration point.
When the first determination means determines that the imaging position is closer than the predetermined distance threshold value from the predetermined registration point, the subject is an object registered in advance corresponding to the predetermined registration point. Second determination means for determining whether or not,
When the subject is determined to be the object by the second determination means, additional information for registering the subject in association with the image acquired by the acquisition means is used as answer information for a predetermined question. Display control means to display a question screen that can be entered by the user,
When the answer information is input to the question screen displayed by the display control means, the registration means for registering the input answer information as a classification label in a predetermined storage means.
A database generator to function as.
前記登録地点は、対象物毎に対応づけられている、
ことを特徴とする請求項9又は10に記載のデータベース生成プログラム。
The registration points are associated with each object.
The database generation program according to claim 9 or 10.
JP2021079415A 2019-02-13 2021-05-10 Database generation method, additional information registration system, database generator and program Active JP7074235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021079415A JP7074235B2 (en) 2019-02-13 2021-05-10 Database generation method, additional information registration system, database generator and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019023114A JP2020134990A (en) 2019-02-13 2019-02-13 Database generation method, database generation device, and database generation program
JP2021079415A JP7074235B2 (en) 2019-02-13 2021-05-10 Database generation method, additional information registration system, database generator and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019023114A Division JP2020134990A (en) 2019-02-13 2019-02-13 Database generation method, database generation device, and database generation program

Publications (2)

Publication Number Publication Date
JP2021114335A true JP2021114335A (en) 2021-08-05
JP7074235B2 JP7074235B2 (en) 2022-05-24

Family

ID=72278573

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019023114A Pending JP2020134990A (en) 2019-02-13 2019-02-13 Database generation method, database generation device, and database generation program
JP2021079415A Active JP7074235B2 (en) 2019-02-13 2021-05-10 Database generation method, additional information registration system, database generator and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019023114A Pending JP2020134990A (en) 2019-02-13 2019-02-13 Database generation method, database generation device, and database generation program

Country Status (1)

Country Link
JP (2) JP2020134990A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133816A (en) * 2005-11-14 2007-05-31 Nikon Corp Plant identification system and organism identification system
JP2012178705A (en) * 2011-02-25 2012-09-13 Nikon Corp Imaging device and program
JP2013033394A (en) * 2011-08-02 2013-02-14 Nikon Corp Sales processing system, robot, plant-cultivation plant, sales processing method, and program
JP2013158288A (en) * 2012-02-03 2013-08-19 Nikon Corp Pollination auxiliary device and program
JP2016075992A (en) * 2014-10-02 2016-05-12 キヤノン株式会社 Imaging device, information processing device and information processing method thereof, and information processing system
JP2018196363A (en) * 2017-05-24 2018-12-13 節三 田中 Health check system of plant

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822746B2 (en) * 2005-11-18 2010-10-26 Qurio Holdings, Inc. System and method for tagging images based on positional information
JP4274226B2 (en) * 2006-10-25 2009-06-03 ソニー株式会社 Information processing apparatus and method, and program
JP5333080B2 (en) * 2009-09-07 2013-11-06 株式会社日本自動車部品総合研究所 Image recognition system
JP2012226646A (en) * 2011-04-21 2012-11-15 Sony Corp Information providing apparatus, information providing method and program
US8995716B1 (en) * 2012-07-12 2015-03-31 Google Inc. Image search results by seasonal time period
JP6210807B2 (en) * 2013-09-13 2017-10-11 キヤノン株式会社 Display control device and control method of display control device
JP2018081404A (en) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Discrimination method, discrimination device, discriminator generation method and discriminator generation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133816A (en) * 2005-11-14 2007-05-31 Nikon Corp Plant identification system and organism identification system
JP2012178705A (en) * 2011-02-25 2012-09-13 Nikon Corp Imaging device and program
JP2013033394A (en) * 2011-08-02 2013-02-14 Nikon Corp Sales processing system, robot, plant-cultivation plant, sales processing method, and program
JP2013158288A (en) * 2012-02-03 2013-08-19 Nikon Corp Pollination auxiliary device and program
JP2016075992A (en) * 2014-10-02 2016-05-12 キヤノン株式会社 Imaging device, information processing device and information processing method thereof, and information processing system
JP2018196363A (en) * 2017-05-24 2018-12-13 節三 田中 Health check system of plant

Also Published As

Publication number Publication date
JP7074235B2 (en) 2022-05-24
JP2020134990A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
KR101805090B1 (en) Method and device for region identification
EP3226204B1 (en) Method and apparatus for intelligently capturing image
CN105222773B (en) Air navigation aid and device
EP3133509A1 (en) Audio cover display method and device
JP5685390B2 (en) Object recognition device, object recognition system, and object recognition method
CN109684980B (en) Automatic scoring method and device
US8948451B2 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
JP2018503201A (en) Region extraction method, model training method and apparatus
CN105160327A (en) Building identification method and device
US10846326B2 (en) System and method for controlling camera and program
CN107133354A (en) The acquisition methods and device of description information of image
CN107871001B (en) Audio playing method and device, storage medium and electronic equipment
CN109670458A (en) A kind of licence plate recognition method and device
US9118832B2 (en) Input method
CN106446946A (en) Image recognition method and device
CN113677409A (en) Treasure hunting game guiding technology
CN104008129B (en) Position information processing method, device and terminal
CN111666941B (en) Text detection method and device and electronic equipment
CN108009990A (en) Tilt object processing method and device
JP5927822B2 (en) Image communication system
CN115525140A (en) Gesture recognition method, gesture recognition apparatus, and storage medium
CN113647092A (en) Electronic device and method for providing content associated with image to application
CN106326260A (en) Webpage access method and device
JP7074235B2 (en) Database generation method, additional information registration system, database generator and program
CN110555471B (en) Mobile terminal and target object searching method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7074235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150