JP2005108027A - Method and program for providing object information - Google Patents

Method and program for providing object information Download PDF

Info

Publication number
JP2005108027A
JP2005108027A JP2003342438A JP2003342438A JP2005108027A JP 2005108027 A JP2005108027 A JP 2005108027A JP 2003342438 A JP2003342438 A JP 2003342438A JP 2003342438 A JP2003342438 A JP 2003342438A JP 2005108027 A JP2005108027 A JP 2005108027A
Authority
JP
Japan
Prior art keywords
information
subject
data
shooting
collating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003342438A
Other languages
Japanese (ja)
Inventor
Hiroyuki Yanagisawa
弘雪 柳澤
Yasushi Yamamoto
靖 山本
Yoshiaki Nishizaki
嘉章 西崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003342438A priority Critical patent/JP2005108027A/en
Priority to US10/952,554 priority patent/US20050076004A1/en
Publication of JP2005108027A publication Critical patent/JP2005108027A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and a program for providing object information that can specify an object by performing efficient high-precision retrieval. <P>SOLUTION: A mobile telephone terminal 10 transmits image information including photographic condition information of a photographed flower F to an information providing system 20. A managing computer 21 of the information providing system 20 acquires area information and weather information according to the photographic condition information and calculates the actual size of the flower F according to the image information. The managing computer 21 collates the obtained area information and weather information, data regarding the calculated actual size of the flower F, and property information of plant information stored in a plant information storage part 25 to extract corresponding plant information. Further, the managing computer 21 collates image information of the extracted plant information and image information received from the mobile telephone terminal 10 to extract the most matching plant information. The managing computer 21 transmits the extracted plant information to the mobile telephone terminal 10. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮影された被写体に関する情報を提供する被写体情報提供方法及び被写体情報提供プログラムに関する。   The present invention relates to a subject information providing method and a subject information providing program for providing information about a photographed subject.

今日、カメラ付き携帯電話端末の普及により、簡単に写真を撮影し、送信することができるようになった。このようなカメラ付き携帯電話端末を用いることにより、利用者は、興味のある動物や植物を見かけた場合に、簡単にそれらを撮影することができる。もし、動植物の名前が分からない場合、撮影した画像を用いて、後から図鑑などで調べることもできる。この場合、撮影現場で、その動植物の名前などを簡単に調べることができれば便利である。   Today, with the widespread use of mobile phone terminals with cameras, it has become possible to easily take and send pictures. By using such a camera-equipped mobile phone terminal, the user can easily take pictures of animals or plants of interest when he / she sees them. If you don't know the names of animals and plants, you can check them later with a pictorial book using the images taken. In this case, it is convenient if the names of the animals and plants can be easily checked at the shooting site.

そこで、撮影した動植物の画像や録音した鳴き声に基づいて、その動植物の名前などを調べることができる技術が開示されている(例えば、特許文献1参照。)。
特許文献1においては、携帯電話端末は、撮影した画像データや録音した音声データを図鑑サーバに送信する。図鑑サーバは、受信したデータに基づいて図鑑辞書を検索し、該当する物に関する情報を取得する。そして、図鑑サーバは、取得した情報を携帯電話端末に送信する。
特開2003−44497号公報(第2頁〜第3頁)
In view of this, a technique is disclosed in which the names of animals and plants can be examined based on captured images of animals and plants and recorded calls (see, for example, Patent Document 1).
In Patent Document 1, a mobile phone terminal transmits captured image data and recorded audio data to a pictorial book server. The pictorial book server searches the pictorial book dictionary based on the received data, and acquires information on the corresponding object. Then, the pictorial book server transmits the acquired information to the mobile phone terminal.
JP 2003-44497 A (2nd to 3rd pages)

しかし、受信した画像データや音声データだけでは、その被写体を、的確に特定することが難しい場合がある。そこで、被写体を特定するための検索精度の向上を図るため、撮影したときの状況などの補助情報をユーザに入力してもらう方法も考えられる。しかし、このような補助情報は、ユーザにとって煩雑である。   However, it may be difficult to accurately identify the subject only with the received image data and audio data. Therefore, in order to improve the search accuracy for specifying the subject, there may be a method in which the user inputs auxiliary information such as the situation at the time of shooting. However, such auxiliary information is complicated for the user.

本発明は、上述した問題に鑑みてなされ、その目的は、効率的かつより精度の高い検索を行って被写体を特定することができる被写体情報提供方法及び被写体情報提供プログラムを提供することにある。   The present invention has been made in view of the above-described problems, and an object thereof is to provide a subject information providing method and a subject information providing program capable of specifying a subject by performing an efficient and more accurate search.

上記問題点を解決するために、請求項1に記載の発明は、アイテムの属性情報とアイテム画像データとを関連付けた図鑑データを記録した図鑑データ記憶手段と、ユーザ端末に接続可能な管理コンピュータとを用いて、被写体に関する情報の提供を行う被写体情報提供方法であって、前記管理コンピュータが、前記ユーザ端末からの要求に基づいて、被写体を撮影した被写体画像データを特定する被写体画像データ特定段階と、前記被写体画像データから撮影時の撮影条件データを抽出し、この撮影条件データから被写体情報を算出する取得段階と、前記被写体情報と前記属性情報とを照合する情報照合段階と、前記被写体画像データと、前記アイテム画像データとを照合する画像照合段階と、前記情報照合段階及び前記画像照合段階の結果に基づいて、前記被写体のアイテムを特定する被写体特定段階と、前記被写体特定段階において特定されたアイテムに関するデータを前記ユーザ端末に送信する送信段階とを含むことを要旨とする。   In order to solve the above-mentioned problems, the invention described in claim 1 includes a picture book data storage means for recording picture book data in which item attribute information and item image data are associated, a management computer connectable to a user terminal, A subject information providing method for providing information about a subject, wherein the management computer specifies subject image data obtained by photographing the subject based on a request from the user terminal; Extracting the photographing condition data at the time of photographing from the subject image data, calculating subject information from the photographing condition data, an information collating step for collating the subject information with the attribute information, and the subject image data Image collation stage for collating the item image data, and results of the information collation stage and the image collation stage Based on, and summarized in that includes a subject identifying step of identifying the item of the object, and a transmission step of transmitting data about an item identified in the subject identifying step to the user terminal.

請求項2に記載の発明は、請求項1に記載の被写体情報提供方法において、前記撮影条件データには、前記被写体までの撮影距離、撮影時の焦点距離に関するデータを含み、前記取得段階は、前記撮影距離及び前記焦点距離に基づいて、前記画像の被写体の長さから
この被写体の実際の大きさを算出する算出段階を含み、前記情報照合段階は、前記算出段階において算出された被写体の大きさに関する情報と、前記属性情報とを照合することを含むことを要旨とする。
According to a second aspect of the present invention, in the subject information providing method according to the first aspect, the photographing condition data includes data on a photographing distance to the subject and a focal length at the time of photographing, and the obtaining step includes: A calculation step of calculating an actual size of the subject from the length of the subject of the image based on the shooting distance and the focal length, and the information matching step includes the size of the subject calculated in the calculation step The gist of the present invention is to include collation of information regarding length and the attribute information.

請求項3に記載の発明は、請求項1又は2に記載の被写体情報提供方法において、前記撮影条件データには、撮影時刻に関するデータを含み、前記情報照合段階は、前記撮影時刻における前記被写体の情報と、前記属性情報とを照合することを含むことを要旨とする。   According to a third aspect of the present invention, in the subject information providing method according to the first or second aspect, the shooting condition data includes data relating to a shooting time, and the information collating step includes the step of identifying the subject at the shooting time. The gist is to include collating information with the attribute information.

請求項4に記載の発明は、請求項1〜3のいずれか1つに記載の被写体情報提供方法において、前記撮影条件データには、前記被写体を撮影したときの方向に関するデータを含み、前記取得段階は、前記被写体を撮影したときの方向に関するデータから前記被写体の向きを算出する算出段階を含み、前記情報照合段階は、前記算出段階において算出された被写体の向きに関する情報と、前記属性情報とを照合することを含むことを要旨とする。   According to a fourth aspect of the present invention, in the subject information providing method according to any one of the first to third aspects, the photographing condition data includes data relating to a direction when the subject is photographed, and the acquisition is performed. The step includes a calculation step of calculating a direction of the subject from data relating to a direction when the subject is photographed, and the information matching step includes information on the direction of the subject calculated in the calculation step, the attribute information, Including the verification.

請求項5に記載の発明は、請求項2〜4のいずれか1つに記載の被写体情報提供方法において、前記撮影条件データには、撮影場所に関するデータを含み、前記取得段階は、前記撮影場所に関するデータから前記被写体の場所に関する情報を算出し、前記情報照合段階は、前記被写体の場所に関する情報と、前記属性情報とを照合することを含むことを要旨とする。   According to a fifth aspect of the present invention, in the subject information providing method according to any one of the second to fourth aspects, the shooting condition data includes data related to a shooting location, and the obtaining step includes the shooting location. The information on the location of the subject is calculated from the data on the subject, and the information collation step includes collating information on the location of the subject and the attribute information.

請求項6に記載の発明は、請求項1〜5のいずれか1つに記載の被写体情報提供方法において、前記撮影条件データには、撮影時刻及び撮影場所に関するデータを含み、前記取得段階は、前記撮影時刻及び前記撮影場所に関するデータに基づいて天候情報を取得し、前記情報照合段階は、前記天候情報と前記属性情報とを照合することを含むことを要旨とする。   A sixth aspect of the present invention is the subject information providing method according to any one of the first to fifth aspects, wherein the photographing condition data includes data relating to a photographing time and a photographing place, and the obtaining step includes: The gist of the present invention is that weather information is acquired based on data relating to the photographing time and the photographing location, and the information collation step includes collating the weather information with the attribute information.

請求項7に記載の発明は、アイテムの属性情報とアイテム画像データとを関連付けた図鑑データを記録した図鑑データ記憶手段と、ユーザ端末に接続可能な管理コンピュータとを用いて、被写体に関する情報の提供を行う被写体情報提供プログラムであって、 前記管理コンピュータを、前記ユーザ端末からの要求に基づいて、被写体を撮影した被写体画像データを特定する被写体画像データ特定手段、前記被写体画像データから撮影時の撮影条件データを抽出し、この撮影条件データから被写体情報を算出する取得手段、前記被写体情報と前記属性情報とを照合する情報照合手段、前記被写体画像データと、前記アイテム画像データとを照合する画像照合手段、前記情報照合手段及び前記画像照合手段の結果に基づいて、前記被写体のアイテムを特定する被写体特定手段、及び前記被写体特定手段において特定されたアイテムに関するデータを前記ユーザ端末に送信する送信手段として機能させることを要旨とする。   According to the seventh aspect of the present invention, provision of information about a subject is provided by using a picture book data storage unit that records picture book data in which item attribute information and item image data are associated with each other, and a management computer that can be connected to a user terminal. A subject information providing program for performing subject image data identification means for identifying subject image data obtained by photographing a subject based on a request from the user terminal, and photographing at the time of photographing from the subject image data. Extracting condition data, obtaining means for calculating subject information from the photographing condition data, information matching means for matching the subject information and the attribute information, image matching for matching the subject image data and the item image data On the basis of the results of the means, the information collating means and the image collating means. Object specifying means for specifying the beam, and the gist of the case in which the data relating to the item identified as transmission means for transmitting to the user terminal in the subject identifying means.

請求項8に記載の発明は、請求項7に記載の被写体情報提供プログラムにおいて、前記撮影条件データには、前記被写体までの撮影距離、撮影時の焦点距離に関するデータを含み、前記取得手段は、前記撮影距離及び前記焦点距離に基づいて、前記画像の被写体の長さからこの被写体の実際の大きさを算出する算出手段を含み、前記情報照合手段は、前記算出手段において算出された被写体の大きさに関する情報と、前記属性情報とを照合することを含むことを要旨とする。   According to an eighth aspect of the present invention, in the subject information providing program according to the seventh aspect, the shooting condition data includes data relating to a shooting distance to the subject and a focal length at the time of shooting. A calculation unit that calculates an actual size of the subject from the length of the subject of the image based on the shooting distance and the focal length, and the information collating unit calculates the size of the subject calculated by the calculation unit; The gist of the present invention is to include collation of information regarding length and the attribute information.

請求項9に記載の発明は、請求項7又は8に記載の被写体情報提供プログラムにおいて、前記撮影条件データには、撮影時刻に関するデータを含み、前記情報照合手段は、前記撮影時刻における前記被写体の情報と、前記属性情報とを照合することを含むことを要旨とする。   According to a ninth aspect of the present invention, in the subject information providing program according to the seventh or eighth aspect, the shooting condition data includes data relating to a shooting time, and the information collating unit is configured to detect the subject at the shooting time. The gist is to include collating information with the attribute information.

請求項10に記載の発明は、請求項7〜9のいずれか1つに記載の被写体情報提供プログラムにおいて、前記撮影条件データには、前記被写体を撮影したときの方向に関するデータを含み、前記取得手段は、前記被写体を撮影したときの方向に関するデータから前記被写体の向きを算出する算出手段を含み、前記情報照合手段は、前記算出手段において算出された被写体の向きに関する情報と、前記属性情報とを照合することを含むことを要旨とする。   According to a tenth aspect of the present invention, in the subject information providing program according to any one of the seventh to ninth aspects, the photographing condition data includes data relating to a direction when the subject is photographed, and the acquisition is performed. The means includes calculation means for calculating the orientation of the subject from data relating to a direction when the subject is photographed, and the information matching means includes information on the orientation of the subject calculated by the calculation means, the attribute information, Including the verification.

請求項11に記載の発明は、請求項8〜10のいずれか1つに記載の被写体情報提供プログラムにおいて、前記撮影条件データには、撮影場所に関するデータを含み、前記取得手段は、前記撮影場所に関するデータから前記被写体の場所に関する情報を算出し、前記情報照合手段は、前記被写体の場所に関する情報と、前記属性情報とを照合することを含むことを要旨とする。   According to an eleventh aspect of the present invention, in the subject information providing program according to any one of the eighth to tenth aspects, the shooting condition data includes data relating to a shooting location, and the acquisition unit includes the shooting location. The information on the location of the subject is calculated from the data on the subject, and the information collating unit includes collating information on the location of the subject and the attribute information.

請求項12に記載の発明は、請求項7〜11のいずれか1つに記載の被写体情報提供プログラムにおいて、前記撮影条件データには、撮影時刻及び撮影場所に関するデータを含み、前記取得手段は、前記撮影時刻及び前記撮影場所に関するデータに基づいて天候情報を取得し、前記情報照合手段は、前記天候情報と前記属性情報とを照合することを含むことを要旨とする。   The invention according to claim 12 is the subject information providing program according to any one of claims 7 to 11, wherein the photographing condition data includes data relating to a photographing time and a photographing place, and the acquisition unit includes: The gist is that weather information is acquired based on data relating to the shooting time and the shooting location, and the information checking means includes checking the weather information and the attribute information.

(作用)
請求項1又は7に記載の発明によれば、管理コンピュータは、被写体画像データに含まれた撮影条件情報から被写体に関する被写体情報を取得し、この被写体情報と属性情報とを照合する。そして、管理コンピュータは、被写体情報と属性情報の照合結果及び被写体画像データの画像情報と図鑑データの画像情報との照合結果に基づいて、被写体に対応する物を特定する。このため、管理コンピュータは、画像データの撮影条件情報から取得した情報に基づいて、被写体の絞り込みを行うので、ユーザに入力の負担をかけさせることなく、精度よく被写体を特定することができる。
(Function)
According to the first or seventh aspect of the invention, the management computer acquires subject information related to the subject from the shooting condition information included in the subject image data, and collates the subject information with the attribute information. Then, the management computer specifies an object corresponding to the subject based on the collation result between the subject information and the attribute information and the collation result between the image information of the subject image data and the image information of the picture book data. For this reason, the management computer narrows down the subject based on the information acquired from the photographing condition information of the image data, and thus can accurately specify the subject without imposing a burden of input on the user.

請求項2又は8に記載の発明によれば、管理コンピュータは、撮影距離及び焦点距離に基づいて、画像の被写体の長さからこの被写体の実際の大きさを算出する。このため、管理コンピュータは、被写体の実際の大きさを参照しながら被写体を特定することができるので、精度よく被写体を特定することができる。   According to the second or eighth aspect of the invention, the management computer calculates the actual size of the subject from the length of the subject of the image based on the shooting distance and the focal length. For this reason, the management computer can specify the subject while referring to the actual size of the subject, so that the subject can be specified with high accuracy.

請求項3又は9に記載の発明によれば、管理コンピュータは、撮影時刻に関する情報と、属性情報との照合を行う。このため、管理コンピュータは、被写体が撮影されたときの時刻情報を得ることができるので、この情報を参照しながら被写体を特定することができる。   According to the invention described in claim 3 or 9, the management computer collates the information related to the photographing time with the attribute information. For this reason, since the management computer can obtain time information when the subject is photographed, the subject can be identified while referring to this information.

請求項4又は10に記載の発明によれば、管理コンピュータは、撮影された被写体の向きを算出し、この被写体の向きに関する情報を参照しながら、被写体を特定することができる。   According to the fourth or tenth aspect of the present invention, the management computer can calculate the orientation of the photographed subject and identify the subject while referring to information on the orientation of the subject.

請求項5又は11に記載の発明によれば、管理コンピュータは、撮影場所と属性情報との照合と、他の撮影条件データから算出される被写体情報と属性情報との照合とに基づいて、被写体を特定することができる。   According to the fifth or eleventh aspect of the invention, the management computer uses the subject based on the comparison between the shooting location and the attribute information and the comparison between the subject information calculated from the other shooting condition data and the attribute information. Can be specified.

請求項6又は12に記載の発明によれば、管理コンピュータは、撮影時刻及び撮影場所に関する情報から天候情報を取得し、この天候情報から被写体を特定することができる。   According to the invention described in claim 6 or 12, the management computer can acquire the weather information from the information regarding the shooting time and the shooting location, and can specify the subject from the weather information.

本発明によれば、ユーザに対して被写体に関する情報を、効率的に高い精度で提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information regarding a to-be-photographed object can be efficiently provided with a high precision with respect to a user.

以下、本発明を具体化した一実施形態を図1〜図9に基づいて説明する。本実施形態では、被写体として撮影された植物を特定するための情報を提供する被写体特定情報提供方法について説明する。   Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. In this embodiment, a subject specifying information providing method for providing information for specifying a plant photographed as a subject will be described.

図1に示すように、本実施形態では、ユーザ端末として携帯電話端末10が用いられる。携帯電話端末10は、撮像機構を内蔵しており、この撮像機構を用いて被写体を撮影した画像データを生成する。また、本実施形態の携帯電話端末10は、撮像機構の焦点距離及び撮影距離が調節可能となっている。   As shown in FIG. 1, in this embodiment, a mobile phone terminal 10 is used as a user terminal. The cellular phone terminal 10 includes an image pickup mechanism, and generates image data obtained by photographing the subject using the image pickup mechanism. Further, the cellular phone terminal 10 of the present embodiment can adjust the focal length and shooting distance of the imaging mechanism.

携帯電話端末10は、表示部101を備えており、この表示部101に撮影する画像を表示させたり受信したデータを表示させたりする。また、携帯電話端末10は、複数のダイヤル番号ボタン102と機能ボタン103とを備えている。ダイヤル番号ボタン102を用いることにより、各種データを入力することができる。また、機能ボタン103は、ポインタ移動機能とクリック機能とを有する。この機能ボタン103を用いて方向指示を行うことによりポインタを移動させることができ、機能ボタン103を押すことによりポインタが示している項目を選択することができる。更に、携帯電話端末10は、撮影したときの向き(方位)及び水平角度を測定するジャイロを内蔵している。また、携帯電話端末10は、携帯電話端末10の位置(経度及び緯度)を特定するためのGPS(Global Positioning System )機能を備えている。   The cellular phone terminal 10 includes a display unit 101, and displays an image to be photographed on the display unit 101 or displays received data. The mobile phone terminal 10 includes a plurality of dial number buttons 102 and function buttons 103. By using the dial number button 102, various data can be input. The function button 103 has a pointer movement function and a click function. The pointer can be moved by giving a direction instruction using the function button 103, and the item indicated by the pointer can be selected by pressing the function button 103. Furthermore, the mobile phone terminal 10 has a built-in gyro that measures the orientation (azimuth) and horizontal angle when the image is taken. In addition, the mobile phone terminal 10 has a GPS (Global Positioning System) function for specifying the position (longitude and latitude) of the mobile phone terminal 10.

そして、携帯電話端末10は、基地局15に接続されている携帯電話網Nを介して情報提供システム20に接続される。携帯電話端末10は、基地局15との間でデータの送受信を行うことにより、携帯電話網Nを介して情報提供システム20とデータの送受信を行うことができる。   The mobile phone terminal 10 is connected to the information providing system 20 via the mobile phone network N connected to the base station 15. The mobile phone terminal 10 can send and receive data to and from the information providing system 20 via the mobile phone network N by sending and receiving data to and from the base station 15.

一方、情報提供システム20は、管理コンピュータ21を備える。管理コンピュータ21は、図示しないCPU、RAM及びROM等を有し、後述する処理(被写体画像データ特定段階、算出段階を含む取得段階、情報照合段階、画像照合段階、被写体特定段階及び送信段階等を含む処理)を行う。そして、このための被写体情報提供プログラムを実行することにより、管理コンピュータ21は、被写体画像データ特定手段、算出手段を含む取得手段、情報照合手段、画像照合手段、被写体特定手段及び送信手段等として機能する。   On the other hand, the information providing system 20 includes a management computer 21. The management computer 21 includes a CPU, a RAM, a ROM, and the like (not shown), and performs later-described processing (subject image data identification stage, acquisition stage including calculation stage, information collation stage, image collation stage, subject identification stage, transmission stage, etc. Process). Then, by executing the subject information providing program for this purpose, the management computer 21 functions as subject image data identification means, acquisition means including calculation means, information collation means, image collation means, subject identification means, transmission means, and the like. To do.

また、情報提供システム20の管理コンピュータ21は、ユーザ情報記憶部22、地域情報記憶部23、気象情報記憶部24、図鑑データ記憶手段としての植物情報記憶部25及び検索条件情報記憶部26に接続されている。   The management computer 21 of the information providing system 20 is connected to a user information storage unit 22, a regional information storage unit 23, a weather information storage unit 24, a plant information storage unit 25 as a pictorial book data storage unit, and a search condition information storage unit 26. Has been.

図2に示すように、ユーザ情報記憶部22は、本サービスを受けるユーザに関するユーザ情報220を記録している。このユーザ情報220は、ユーザが本サービスを受けるためにユーザ登録を行ったときに記録される。また、ユーザ情報220は、ユーザ識別子、ユーザ名、端末識別子、パスワード及び連絡先に関するデータを含んで構成される。   As shown in FIG. 2, the user information storage unit 22 records user information 220 regarding users who receive the service. This user information 220 is recorded when the user performs user registration for receiving this service. In addition, the user information 220 includes data relating to a user identifier, a user name, a terminal identifier, a password, and a contact address.

ユーザ識別子データ領域には、ユーザを特定するための識別子に関するデータが記録される。
ユーザ名データ領域には、ユーザの名前に関するデータが記録される。
Data relating to an identifier for identifying a user is recorded in the user identifier data area.
Data related to the user's name is recorded in the user name data area.

端末識別子データ領域には、ユーザの携帯電話端末10を特定するための端末識別子に関するデータが記録される。本実施形態では、端末識別子として、携帯電話端末10の携帯電話番号やメールアドレスを用いる。   In the terminal identifier data area, data relating to a terminal identifier for specifying the user's mobile phone terminal 10 is recorded. In the present embodiment, the mobile phone number or mail address of the mobile phone terminal 10 is used as the terminal identifier.

パスワードデータ領域には、ユーザのパスワードに関するデータが記録される。このパスワードは、ユーザが情報提供システム20を利用するときに、ユーザを認証するために用いられる。   Data related to the user's password is recorded in the password data area. This password is used to authenticate the user when the user uses the information providing system 20.

連絡先データ領域には、ユーザの連絡先に関するデータが記録される。本実施形態では、連絡先として、利用者の住所を用いる。
図3に示すように、地域情報記憶部23には、地域に関する地域情報230が記録されている。この地域情報230は、例えば、地図会社のサイトなどから取得されたデータに基づいて、本サービスを提供前までに登録される。また、この地域情報230は、緯度、経度、地域及び分類コードに関するデータを含んで構成される。
In the contact data area, data related to the user's contact information is recorded. In the present embodiment, the user's address is used as the contact address.
As shown in FIG. 3, the area information storage unit 23 stores area information 230 regarding the area. The area information 230 is registered before the service is provided, for example, based on data acquired from a map company site or the like. The area information 230 includes data on latitude, longitude, area, and classification code.

緯度データ領域には、地域データ及び分類コードデータを特定するための緯度に関するデータが記録される。
経度データ領域には、地域データ及び分類コードデータを特定するための経度に関するデータが記録される。
In the latitude data area, data relating to latitude for specifying the area data and the classification code data is recorded.
In the longitude data area, data relating to longitude for specifying area data and classification code data is recorded.

地域データ領域には、緯度及び経度に基づいて特定される地域に関するデータが記録される。具体的には、東京の港区など、狭小な地区における細分化された地域である。
分類コードデータ領域には、植物の生息域に関するデータを検索するために用いる分類コードが記録される。この分類データは、例えば標高2000m付近の針葉樹林帯といった分類によるデータである。
In the area data area, data related to an area specified based on latitude and longitude is recorded. Specifically, it is a subdivided area in a narrow area such as Minato Ward in Tokyo.
In the classification code data area, a classification code used for searching for data relating to plant habitat is recorded. This classification data is data based on classification such as a coniferous forest zone at an altitude of about 2000 m.

図4に示すように、気象情報記憶部24には、観測された気象に関する気象情報240が記録されている。この気象情報240は、図示しない気象情報サイトから取得されて記録される。また、気象情報240は、日時、地域、天候及び気温に関するデータを含んで構成される。   As shown in FIG. 4, weather information 240 relating to observed weather is recorded in the weather information storage unit 24. This weather information 240 is acquired and recorded from a weather information site (not shown). The weather information 240 includes data related to date / time, region, weather, and temperature.

日時データ領域には、天候データを特定するための日時(年月日及び時分)に関するデータが記録される。
地域データ領域には、天候データを特定するための地域に関するデータが記録される。この地域データ領域に記録されたデータを介して、地域情報230と気象情報240とが関連付けられる。
In the date / time data area, data relating to date / time (year / month / day and hour / minute) for specifying weather data is recorded.
In the area data area, data relating to an area for specifying weather data is recorded. The area information 230 and the weather information 240 are associated with each other through the data recorded in the area data area.

天候データ領域には、日時データ及び地域データに基づいて特定される天候に関するデータが記録される。この天候データ領域に記録されるデータは、具体的には「小雨」、「晴れ」及び「快晴」などである。
気温データ領域に記憶されるデータは、日時データ及び地域データに基づいて定められる気温に関するデータが記録される。
In the weather data area, data related to the weather specified based on the date / time data and the area data is recorded. Specifically, the data recorded in the weather data area includes “light rain”, “sunny”, “sunny”, and the like.
As the data stored in the temperature data area, data related to the temperature determined based on the date data and the area data is recorded.

図5に示すように、植物情報記憶部25には、様々な植物に関する植物情報250が記録されている。この植物情報250は、既知の植物に関する情報については情報提供システム20がサービスを提供するまでに記録され、新たな植物に関する情報についてはその植物の生態が明らかになった後に植物情報記憶部25に記録される。また、植物情報250は、植物名、生息分布、特徴、開花条件、花画像及び特徴量に関するデータを含んで構成される。本実施形態では、植物情報250の植物名、生息分布、特徴及び開花条件がアイテムの属性情報に相当し、植物情報250の花画像がアイテム画像データに相当する。   As shown in FIG. 5, plant information 250 relating to various plants is recorded in the plant information storage unit 25. The plant information 250 is recorded until the information providing system 20 provides a service for information on a known plant, and information on a new plant is stored in the plant information storage unit 25 after the ecology of the plant is revealed. To be recorded. The plant information 250 includes data on plant names, habitat distributions, features, flowering conditions, flower images, and feature amounts. In the present embodiment, the plant name, habitat distribution, characteristics, and flowering conditions of the plant information 250 correspond to item attribute information, and the flower image of the plant information 250 corresponds to item image data.

植物名データ領域には、植物の通常名称、俗称及び学名などに関するデータが記録される。
生息分布データ領域には、植物の生息域に関するデータが記録される。このデータ領域に記録されているデータを介して、地域情報230と植物情報250とが関連付けられる。
In the plant name data area, data relating to the normal name, common name, scientific name, and the like of the plant is recorded.
In the habitat distribution data area, data on the habitat of plants is recorded. The area information 230 and the plant information 250 are associated with each other through the data recorded in the data area.

特徴データ領域には、植物の特徴に関するデータが記録される。例えば、花の大きさや葉の形状や刺の有無などである。
開花条件データ領域には、植物が開花するときの条件に関するデータが記録される。この条件は、例えば「気温25℃以上」や「日中」などである。
In the feature data area, data related to plant features is recorded. For example, the size of a flower, the shape of a leaf, the presence or absence of a sting, and the like.
In the flowering condition data area, data relating to conditions when the plant blooms is recorded. This condition is “temperature 25 ° C. or higher”, “daytime”, or the like.

花画像データ領域には、植物の花の画像データが記録される。
特徴量データ領域には、花画像データの画像の特徴量に関するデータが記録される。この花画像データの画像の特徴量は、画像内の花の形状及び色彩などに関する各項目の値を含んで構成される。
In the flower image data area, plant flower image data is recorded.
In the feature amount data area, data relating to the feature amount of the image of the flower image data is recorded. The feature amount of the image of the flower image data includes the values of the respective items relating to the shape and color of the flower in the image.

図6に示すように、検索条件情報記憶部26は、被写体を特定するために用いられる検索条件に関する検索条件情報260を記録している。この検索条件情報260の各項目は、管理コンピュータ21がそれぞれの検索条件を取得したときに記録される。検索条件情報260は、画像、撮影条件、特徴量、季節・時刻、地域、気象、方位及び被写体サイズに関するデータを含んで構成される。本実施形態では、季節・時刻、地域、気象、方位及び被写体サイズに関するデータが被写体情報に相当する。   As shown in FIG. 6, the search condition information storage unit 26 records search condition information 260 related to the search conditions used for specifying the subject. Each item of the search condition information 260 is recorded when the management computer 21 acquires each search condition. The search condition information 260 includes data related to images, shooting conditions, feature amounts, season / time, region, weather, orientation, and subject size. In the present embodiment, data relating to season / time, region, weather, orientation, and subject size corresponds to subject information.

画像データ領域には、検索を行う被写体が含まれた画像情報に関するデータが記録される。
撮影条件データ領域には、画像データに付属されている撮影条件情報に関するデータ(撮影条件データ)が記録される。
In the image data area, data relating to image information including a subject to be searched is recorded.
In the shooting condition data area, data (shooting condition data) related to shooting condition information attached to the image data is recorded.

特徴量データ領域には、画像データ領域に記録された画像の特徴量に関するデータが記録される。この特徴量は、画像における被写体の形状、模様及び色彩に関する各項目の値を含んで構成される。   In the feature amount data area, data relating to the feature amount of the image recorded in the image data area is recorded. This feature amount is configured to include the values of items relating to the shape, pattern and color of the subject in the image.

季節・時刻データ領域には、画像が撮影された季節や時刻に関するデータが記録される。
地域データ領域には、その画像が撮影された地域に関するデータが記録される。
In the season / time data area, data relating to the season and time when the image was taken is recorded.
In the area data area, data relating to the area where the image is taken is recorded.

気象データ領域には、その画像が撮影された気象に関するデータが記録される。本実施形態では、このデータ領域に記録される気象は、具体的には、天候と気温である。
方位データ領域には、その画像が撮影された方向に関するデータが記録される。
被写体サイズデータ領域には、撮影された被写体の実際の大きさに関するデータが記録される。
In the weather data area, data related to the weather in which the image is taken is recorded. In the present embodiment, the weather recorded in this data area is specifically weather and temperature.
In the azimuth data area, data relating to the direction in which the image was taken is recorded.
Data relating to the actual size of the photographed subject is recorded in the subject size data area.

次に、情報提供システム20における被写体特定情報提供方法の処理手順について、図7〜図9に基づいて説明する。ここでは、図1に示すように、ユーザが見つけた花Fを携帯電話端末10を用いて撮影し、その花の名称を調べる場合について説明する。   Next, the processing procedure of the subject specifying information providing method in the information providing system 20 will be described with reference to FIGS. Here, as shown in FIG. 1, a case where a flower F found by the user is photographed using the mobile phone terminal 10 and the name of the flower is examined will be described.

まず、ユーザは、名称を調べたい花を撮影する。具体的には、ユーザが携帯電話端末10の機能ボタン103を操作して、撮像機構を用いて被写体である花Fを表示部101の中央に表示させる。このとき、携帯電話端末10は、被写体である花Fに焦点を合わせる
。そして、ユーザは、機能ボタン103を操作して花Fを撮影する。これにより、携帯電話端末10は、撮影された花Fに関する画像データを生成して記録する。
First, the user photographs a flower whose name is to be examined. Specifically, the user operates the function button 103 of the mobile phone terminal 10 to display the flower F as the subject at the center of the display unit 101 using the imaging mechanism. At this time, the mobile phone terminal 10 focuses on the flower F that is the subject. Then, the user operates the function button 103 to photograph the flower F. Thereby, the mobile phone terminal 10 generates and records image data regarding the photographed flower F.

このとき、携帯電話端末10に記録される画像データには、JPEGやTIFFのような通常の画像記録ファーマットの他に、例えばExif形式を用いることが可能である。ここで、Exif形式とはデジタルカメラの画像記録フォーマットであり、Exifタグ情報として撮影条件情報などが所定の書式で記録される。本実施形態では、後述するようにExif形式の画像データを送信する場合を想定する。本実施形態では、撮影条件情報は、具体的には、設定した画素数、焦点距離、撮影距離、携帯電話端末10のジャイロ値、撮影した日時及び撮影した位置(携帯電話端末10の緯度及び経度)などに関するデータを含む。   At this time, the image data recorded on the mobile phone terminal 10 can use, for example, an Exif format in addition to a normal image recording format such as JPEG or TIFF. Here, the Exif format is an image recording format of a digital camera, and shooting condition information and the like are recorded in a predetermined format as Exif tag information. In the present embodiment, it is assumed that image data in Exif format is transmitted as will be described later. In the present embodiment, the shooting condition information specifically includes the set number of pixels, focal length, shooting distance, gyro value of the mobile phone terminal 10, shooting date and time, and shooting position (latitude and longitude of the mobile phone terminal 10). ) Etc.

次に、図7に示すように、ユーザは、携帯電話端末10のダイヤル番号ボタン102,機能ボタン103を操作して情報提供システム20に対してアクセスを行う(ステップS1−1)。具体的には、携帯電話端末10は、情報提供システム20に接続すると、情報提供システム20からパスワードの送信要求を受ける。これに応じて、携帯電話端末10は、入力画面を表示部101に表示し、ユーザに対してパスワードの入力を促す。パスワードの入力が完了し、送信ボタンが選択されると、携帯電話端末10は、入力されたパスワードデータを情報提供システム20に送信する。このとき、携帯電話端末10は、パスワードデータとともに、携帯電話端末10の端末識別子に関するデータも送信する。   Next, as shown in FIG. 7, the user operates the dial number button 102 and the function button 103 of the mobile phone terminal 10 to access the information providing system 20 (step S1-1). Specifically, when the mobile phone terminal 10 is connected to the information providing system 20, it receives a password transmission request from the information providing system 20. In response to this, the mobile phone terminal 10 displays an input screen on the display unit 101 and prompts the user to input a password. When the password input is completed and the transmission button is selected, the mobile phone terminal 10 transmits the input password data to the information providing system 20. At this time, the mobile phone terminal 10 also transmits data related to the terminal identifier of the mobile phone terminal 10 together with the password data.

次に、情報提供システム20の管理コンピュータ21は、ユーザ認証を行う(ステップS1−2)。具体的には、管理コンピュータ21は、受信した端末識別子に対応するユーザ情報220をユーザ情報記憶部22から抽出する。そして、管理コンピュータ21は、抽出したユーザ情報220のパスワードと、受信したパスワードとを照合する。照合した結果、両者が一致した場合には、管理コンピュータ21はユーザ認証を完了する。なお、両者が一致しない場合には、管理コンピュータ21は、その旨を携帯電話端末10に通知し、処理を中止する。   Next, the management computer 21 of the information providing system 20 performs user authentication (step S1-2). Specifically, the management computer 21 extracts user information 220 corresponding to the received terminal identifier from the user information storage unit 22. Then, the management computer 21 collates the password of the extracted user information 220 with the received password. As a result of the collation, if the two match, the management computer 21 completes the user authentication. If the two do not match, the management computer 21 notifies the mobile phone terminal 10 to that effect and stops the processing.

ユーザ認証が完了した情報提供システム20は、携帯電話端末10に対して、検索対象の画像データの送信を要求する(ステップS1−3)。
そこで、携帯電話端末10は、撮影画像データの送信処理を行う(ステップS1−4)。ここでは、ユーザは、携帯電話端末10の撮像機構を用いて撮影し、携帯電話端末10に記録された花Fの画像データ呼び出し、送信する。本実施形態では、送信される画像データには撮影条件情報が含まれている場合を想定する。
After the user authentication is completed, the information providing system 20 requests the mobile phone terminal 10 to transmit search target image data (step S1-3).
Therefore, the mobile phone terminal 10 performs processing for transmitting captured image data (step S1-4). Here, the user takes a picture using the imaging mechanism of the mobile phone terminal 10, calls and transmits the image data of the flower F recorded in the mobile phone terminal 10. In the present embodiment, it is assumed that image data to be transmitted includes shooting condition information.

情報提供システム20の管理コンピュータ21は、受信した画像データを登録する(ステップS1−5)。具体的には、管理コンピュータ21は、受信した画像データから画像情報に関するデータを抽出し、検索条件情報記憶部26の画像データ領域に記録する。また、管理コンピュータ21は、受信した画像データから撮影条件情報に関するデータを抽出し、検索条件情報記憶部26の撮影条件データ領域に記録する。   The management computer 21 of the information providing system 20 registers the received image data (step S1-5). Specifically, the management computer 21 extracts data relating to image information from the received image data and records it in the image data area of the search condition information storage unit 26. In addition, the management computer 21 extracts data relating to shooting condition information from the received image data, and records it in the shooting condition data area of the search condition information storage unit 26.

次に、管理コンピュータ21は、登録した画像データの画像情報の特徴量を抽出する(ステップS1−6)。具体的には、管理コンピュータ21は、検索条件情報記憶部26の画像情報及びその特徴量に基づいて、画像の色分布から被写体である花の特定を行う。すなわち、管理コンピュータ21は、画像中の花の輪郭や色を抽出する。更に、画像の輪郭や色から画像上の花の大きさを特定する。   Next, the management computer 21 extracts the feature amount of the image information of the registered image data (step S1-6). Specifically, the management computer 21 specifies a flower that is a subject from the color distribution of the image based on the image information in the search condition information storage unit 26 and its feature amount. That is, the management computer 21 extracts the outline and color of the flower in the image. Furthermore, the size of the flower on the image is specified from the contour and color of the image.

そして、管理コンピュータ21は、抽出した画像の特徴量を検索条件情報記憶部26の特徴量データ領域に登録する(ステップS1−7)。
次に、管理コンピュータ21は、受信した画像データに撮影条件情報があるか否かを判断する(ステップS1−8)。
Then, the management computer 21 registers the extracted feature amount of the image in the feature amount data area of the search condition information storage unit 26 (step S1-7).
Next, the management computer 21 determines whether or not the received image data includes shooting condition information (step S1-8).

ここで、携帯電話端末10から受信した画像データに、撮影条件情報が含まれている場合(ステップS1−8において「YES」の場合)には、被写体情報登録処理を行う(ステップS1−9)。   Here, when the image data received from the mobile phone terminal 10 includes shooting condition information (in the case of “YES” in step S1-8), subject information registration processing is performed (step S1-9). .

この被写体情報登録処理において、管理コンピュータ21は、図8に示す処理手順に従って処理を行う。
まず、管理コンピュータ21は、撮影した季節や時刻に関するデータを取得し記録する(ステップS2−1)。具体的には、管理コンピュータ21は、まず画像データに含まれていた撮影条件情報から、撮影した日時データを抽出する。そして、管理コンピュータ21は、この日時データに対応する季節及び時刻を特定し、検索条件情報記憶部26の季節・時刻データ領域に記録する。
In this subject information registration processing, the management computer 21 performs processing according to the processing procedure shown in FIG.
First, the management computer 21 acquires and records data relating to the season and time taken (step S2-1). Specifically, the management computer 21 first extracts the date / time data that has been taken from the shooting condition information included in the image data. Then, the management computer 21 specifies the season and time corresponding to this date / time data, and records them in the season / time data area of the search condition information storage unit 26.

次に、管理コンピュータ21は、撮影条件情報に位置情報が含まれているか否かを判断する(ステップS2−2)。このとき、撮影条件情報に位置情報が含まれている場合(ステップS2−2には「YES」の場合)には、管理コンピュータ21は、位置情報に基づいて地域情報を取得し記録する(ステップS2−3)。具体的には、管理コンピュータ21は、地域情報記憶部23から、位置情報に対応する地域データと、分類データとを取得する。   Next, the management computer 21 determines whether or not position information is included in the shooting condition information (step S2-2). At this time, if position information is included in the shooting condition information (“YES” in step S2-2), the management computer 21 acquires and records area information based on the position information (step S2-2). S2-3). Specifically, the management computer 21 acquires area data corresponding to the position information and classification data from the area information storage unit 23.

更に、管理コンピュータ21は、気象情報を取得し記録する(ステップS2−4)。具体的には、管理コンピュータ21は、ステップS2−3において取得した地域データと、撮影情報情報から抽出した日時データとに基づいて、それに対応する気象情報240を気象情報記憶部24から抽出する。これにより、管理コンピュータ21は、画像データが撮影されたときの天候及び気温に関するデータを得る。そして、管理コンピュータ21は、取得した気候及び気温に関するデータを検索条件情報記憶部26の気象データ領域に記録する。なお、撮影条件情報に位置情報が含まれていない場合(ステップS2−2には「NO」の場合)には、管理コンピュータ21はステップS2−3〜ステップS2−4を実行しない。   Furthermore, the management computer 21 acquires and records weather information (step S2-4). Specifically, the management computer 21 extracts the corresponding weather information 240 from the weather information storage unit 24 based on the regional data acquired in step S2-3 and the date / time data extracted from the shooting information information. As a result, the management computer 21 obtains data relating to the weather and temperature when the image data is taken. Then, the management computer 21 records the acquired data on the climate and temperature in the weather data area of the search condition information storage unit 26. Note that if the shooting condition information does not include position information (“NO” in step S2-2), the management computer 21 does not execute steps S2-3 to S2-4.

次に、管理コンピュータ21は、方位情報を取得し記録する(ステップS2−5)。具体的には、管理コンピュータ21は、まず画像データの撮影条件情報からジャイロ値を抽出する。そして、管理コンピュータ21は、抽出したジャイロ値に対応する方位を算出する。そして、管理コンピュータ21は、算出した方位情報を検索条件情報記憶部26の方位データ領域に記録する。なお、このとき、東西南北の方位とともに、水平面に対する角度も算出される。   Next, the management computer 21 acquires and records the direction information (step S2-5). Specifically, the management computer 21 first extracts a gyro value from the shooting condition information of the image data. Then, the management computer 21 calculates an orientation corresponding to the extracted gyro value. Then, the management computer 21 records the calculated direction information in the direction data area of the search condition information storage unit 26. At this time, the angle with respect to the horizontal plane is calculated together with the direction of east, west, south, and north.

次に、管理コンピュータ21は、被写体サイズ算出処理を行う(ステップS2−6)。この被写体サイズ算出処理を、図9を用いて説明する。
まず、管理コンピュータ21は、合焦面スケールを算出する(ステップS3−1)。具体的には、管理コンピュータ21は、画像データの撮影条件情報から撮影距離及び焦点距離を抽出する。そして、管理コンピュータ21は、焦点距離、撮影距離及び撮影角度から撮影範囲中の合焦面スケールを算出する。 次に、管理コンピュータ21は、被写体サイズを算出する(ステップS3−2)。具体的には、管理コンピュータ21は、検索条件情報260の画像のコントラスト調節や色域により、画像上の被写体の大きさと、ステップS3−1において算出した合焦面スケールとから、実際の被写体の大きさを算出する。
Next, the management computer 21 performs subject size calculation processing (step S2-6). This subject size calculation process will be described with reference to FIG.
First, the management computer 21 calculates a focal plane scale (step S3-1). Specifically, the management computer 21 extracts the shooting distance and the focal length from the shooting condition information of the image data. Then, the management computer 21 calculates a focal plane scale in the shooting range from the focal length, the shooting distance, and the shooting angle. Next, the management computer 21 calculates the subject size (step S3-2). Specifically, the management computer 21 uses the contrast adjustment and color gamut of the image in the search condition information 260 to determine the actual subject from the size of the subject on the image and the focal plane scale calculated in step S3-1. Calculate the size.

ここでは、管理コンピュータ21は、図1に示すように、画面上の「花」の直径Gとし
た場合、合焦面スケールを用いて実際の花Fの直径Rを算出する。そして、算出された被写体のサイズを検索条件情報記憶部26の被写体サイズに記録する。このようにして、管理コンピュータ21は、被写体サイズ算出処理において、撮影された被写体の花Fの直径に関する情報を得る。
Here, as shown in FIG. 1, the management computer 21 calculates the diameter R of the actual flower F using the focal plane scale when the diameter “G” of the “flower” on the screen is set. The calculated subject size is recorded in the subject size of the search condition information storage unit 26. In this way, the management computer 21 obtains information regarding the diameter of the flower F of the photographed subject in the subject size calculation process.

管理コンピュータ21は、被写体サイズ算出処理が終了すると(ステップS2−6)、被写体情報登録処理を終了し、図7に示す処理手順に戻る(ステップS1−9)。
次に、管理コンピュータ21は、情報照合処理を行う(ステップS1−10)。具体的には、管理コンピュータ21は、ステップS1−9の被写体情報登録処理において検索条件情報記憶部26に登録された情報に基づいて、この情報に該当する植物を、植物情報記憶部25に記録されている植物情報250から検索する。本実施形態では、管理コンピュータ21は、開花の季節や時刻、方位及びその花Fの直径Rに関する情報に基づいて、該当する植物情報250を植物情報記憶部25から抽出する。また、管理コンピュータ21は、撮影条件情報に位置情報があった場合には、抽出した植物情報250の中から、ステップS2−3において取得した地域データを生息分布に含む植物情報250を抽出する。更に、管理コンピュータ21は、ステップS2−4において取得した気象情報に対応する植物情報250を抽出する。
When the subject size calculation process ends (step S2-6), the management computer 21 ends the subject information registration process and returns to the processing procedure shown in FIG. 7 (step S1-9).
Next, the management computer 21 performs information collation processing (step S1-10). Specifically, the management computer 21 records a plant corresponding to this information in the plant information storage unit 25 based on the information registered in the search condition information storage unit 26 in the subject information registration process of step S1-9. It searches from the plant information 250 which is done. In the present embodiment, the management computer 21 extracts corresponding plant information 250 from the plant information storage unit 25 based on information regarding the season and time of flowering, the direction, and the diameter R of the flower F. In addition, when there is position information in the photographing condition information, the management computer 21 extracts plant information 250 including the regional data acquired in step S2-3 in the habitat distribution from the extracted plant information 250. Furthermore, the management computer 21 extracts the plant information 250 corresponding to the weather information acquired in step S2-4.

なお、携帯電話端末10から受信した画像データに、撮影条件情報が含まれていない場合(ステップS1−8において「NO」の場合)には、管理コンピュータ21はステップS1−9〜ステップS1−10を実行しない。   If the image data received from the mobile phone terminal 10 does not include shooting condition information (in the case of “NO” in step S1-8), the management computer 21 performs steps S1-9 to S1-10. Do not execute.

次に、管理コンピュータ21は、画像照合処理を行う(ステップS1−11)。具体的には、管理コンピュータ21は、ステップS1−10の情報照合処理において該当するとして抽出された植物情報250の花画像の特徴量と、携帯電話端末10から受信した画像の特徴量とを比較する。この比較の結果、管理コンピュータ21は、画像の類似度が最も高い植物を特定する。このとき、植物の特定は、画像における植物の輪郭や色分布に基づいて行われる。そして、植物の特定を行った管理コンピュータ21は、その特定した植物の植物情報250から植物に関する情報を取得する。   Next, the management computer 21 performs image collation processing (step S1-11). Specifically, the management computer 21 compares the feature amount of the flower image of the plant information 250 extracted as applicable in the information matching process in step S1-10 with the feature amount of the image received from the mobile phone terminal 10. To do. As a result of this comparison, the management computer 21 identifies a plant having the highest image similarity. At this time, the plant is specified based on the contour and color distribution of the plant in the image. Then, the management computer 21 that has identified the plant acquires information about the plant from the plant information 250 of the identified plant.

次に、管理コンピュータ21は、特定した植物の情報を携帯電話端末10に送信する(ステップS1−12)。このとき、管理コンピュータ21が送信する情報には、植物の植物名、特徴及び開花条件などの情報が含まれる。   Next, the management computer 21 transmits the identified plant information to the mobile phone terminal 10 (step S1-12). At this time, the information transmitted by the management computer 21 includes information such as the plant name, characteristics, and flowering conditions of the plant.

そして、情報を受信した携帯電話端末10は、特定した植物の情報を携帯電話端末10の表示部101に表示する(ステップS1−13)。これにより、ユーザは、岩の谷間で見た花Fに関する情報を入手することができる。   Then, the mobile phone terminal 10 that has received the information displays the specified plant information on the display unit 101 of the mobile phone terminal 10 (step S1-13). Thereby, the user can acquire the information regarding the flower F seen in the valley of a rock.

以上、述べたように本実施形態によれば、以下のような効果を得ることができる。
・ 本実施形態においては、管理コンピュータ21は、撮影条件情報から取得した開花の季節や時刻、方位及びその花Fの直径に関する情報に該当する植物情報250を抽出する。更に、管理コンピュータ21は、抽出した植物情報250から、携帯電話端末10から受信した画像の特徴量に基づいて最も類似している植物情報250を取得する。すなわち、管理コンピュータ21は、携帯電話端末10から受信した画像と、撮影条件から得た被写体に関する情報との両方から、被写体に関する植物情報250を特定する。このため、管理コンピュータ21は、携帯電話端末10から受信した画像中の被写体に対応する情報を、より高い精度でユーザに提供することができる。
As described above, according to the present embodiment, the following effects can be obtained.
-In this embodiment, the management computer 21 extracts the plant information 250 applicable to the information regarding the season and time of flowering, the direction, and the diameter of the flower F acquired from the imaging condition information. Furthermore, the management computer 21 acquires the most similar plant information 250 from the extracted plant information 250 based on the feature amount of the image received from the mobile phone terminal 10. That is, the management computer 21 specifies the plant information 250 related to the subject from both the image received from the mobile phone terminal 10 and the information related to the subject obtained from the shooting conditions. Therefore, the management computer 21 can provide information corresponding to the subject in the image received from the mobile phone terminal 10 to the user with higher accuracy.

また、管理コンピュータ21は、画像データに含まれる撮影条件情報から被写体に関する情報を取得するので、ユーザにデータ入力の負担をかけることなく、検索精度を向上す
ることができる。
In addition, since the management computer 21 acquires information about the subject from the shooting condition information included in the image data, the search accuracy can be improved without imposing a data input burden on the user.

・ 本実施形態においては、管理コンピュータ21は、撮影条件情報に含まれる焦点距離及び撮影距離から合焦面スケールを算出し、この合焦面スケールと、花Fの画像における直径Gから、実際の花Fの直径Rを算出する。このため、花Fの大きさを参照しながら、その花Fの特定を行うことができる。   In the present embodiment, the management computer 21 calculates a focal plane scale from the focal length and the photographing distance included in the photographing condition information, and from this focal plane scale and the diameter G in the image of the flower F, the actual computer The diameter R of the flower F is calculated. For this reason, the flower F can be specified while referring to the size of the flower F.

・ 本実施形態においては、管理コンピュータ21は、撮影条件情報に含まれる撮影時刻に関する情報から、花Fが撮影されたときの季節や時刻のデータを取得する。開花する季節や時刻は、植物によって異なる。このため、管理コンピュータ21は、撮影された季節や時刻のデータに基づいて、その花Fの特定を行うことができる。   -In this embodiment, the management computer 21 acquires the data of the season and time when the flower F was image | photographed from the information regarding the imaging | photography time contained in imaging | photography condition information. The season and time of flowering vary depending on the plant. Therefore, the management computer 21 can identify the flower F based on the season and time data that has been taken.

・ 本実施形態においては、管理コンピュータ21は、撮影条件情報に含まれるジャイロ値に基づいて、被写体を撮影した方位を算出する。開花する方向(方位)は、植物によって異なる。例えば、向日葵は、太陽の方向に向かって開花する。このため、管理コンピュータ21は、算出した方位情報に基づいて、その花Fの特定を行うことができる。   In the present embodiment, the management computer 21 calculates the direction in which the subject is photographed based on the gyro value included in the photographing condition information. The flowering direction (orientation) varies depending on the plant. For example, the sunflower blooms in the direction of the sun. Therefore, the management computer 21 can identify the flower F based on the calculated orientation information.

・ 本実施形態においては、撮影条件情報に位置情報が含まれている場合(ステップS2−2には「YES」の場合)には、管理コンピュータ21は、位置情報に基づいて地域情報を取得し記録する(ステップS2−3)。具体的には、管理コンピュータ21は、地域情報記憶部23から、位置情報に対応する地域データと、分類データとを取得する。そして、管理コンピュータ21は、情報照合処理を行う(ステップS1−10)。具体的には、管理コンピュータ21は、植物情報250の中から、ステップS2−3において取得した地域データを生息分布に含む植物情報250を抽出する。植物は生息地域が異なるので、撮影された場所、すなわち植物が生息している地域の情報を参照しながら、花Fの特定を行うことができる。   In the present embodiment, when the shooting condition information includes position information (“YES” in step S2-2), the management computer 21 acquires area information based on the position information. Record (step S2-3). Specifically, the management computer 21 acquires area data corresponding to the position information and classification data from the area information storage unit 23. Then, the management computer 21 performs information collation processing (step S1-10). Specifically, the management computer 21 extracts from the plant information 250 the plant information 250 that includes the regional data acquired in step S2-3 in the habitat distribution. Since plants have different habitat areas, the flower F can be identified while referring to information on the location where the image is taken, that is, the area where the plants inhabit.

・ 本実施形態では、管理コンピュータ21は、撮影条件情報に含まれる撮影条件及び撮影場所に関する情報から天候情報を取得する。植物は、天候状態によって開花状態が異なる場合がある。このため、管理コンピュータ21は、天候情報を参照しながら、花Fの特定を行うことができる。   In the present embodiment, the management computer 21 acquires weather information from information regarding shooting conditions and shooting locations included in the shooting condition information. Plants may have different flowering states depending on weather conditions. For this reason, the management computer 21 can identify the flower F while referring to the weather information.

なお、上記実施形態は以下のように変更してもよい。
○ 上記実施形態においては、花Fの直径Rを算出する。これに代えて植物の大きさを特定してもよい。例えば、撮影条件情報に含まれる撮影時刻に関する情報を併せて参照して植物の種類を特定してもよい。植物は、季節によって高さが異なる。このため、管理コンピュータ21は、被写体の大きさとともに、撮影された季節や時刻のデータに基づいて、その種類の特定を行うことができる。
In addition, you may change the said embodiment as follows.
In the above embodiment, the diameter R of the flower F is calculated. Instead of this, the size of the plant may be specified. For example, the type of plant may be specified by referring to information related to the shooting time included in the shooting condition information. Plants vary in height depending on the season. For this reason, the management computer 21 can specify the type of the subject based on the photographed season and time data as well as the size of the subject.

○ 上記実施形態では、管理コンピュータ21は、検索を行う被写体が含まれた画像データを携帯電話端末10から受信する。これに代えて、検索する画像を予め所定のサーバに記録し、携帯電話端末10から、検索する画像データの指定を受けることにより、検索対象である被写体が含まれた画像を受信してもよい。   In the above embodiment, the management computer 21 receives image data including a subject to be searched from the mobile phone terminal 10. Alternatively, the image to be searched may be recorded in a predetermined server in advance, and the image including the subject to be searched may be received by receiving the designation of the image data to be searched from the mobile phone terminal 10. .

○ 上記実施形態では、管理コンピュータは、画像データを携帯電話端末10から受信する。画像データの送信先は、これに限られるものではない。例えば、デジタルカメラにより撮影した画像データをパーソナルコンピュータを用いて送信してもよい。   In the above embodiment, the management computer receives image data from the mobile phone terminal 10. The transmission destination of the image data is not limited to this. For example, image data captured by a digital camera may be transmitted using a personal computer.

○ 上記実施形態では、被写体である植物の特定を行う場合について説明した。被写体の対象は、これに限られるものではなく、動物、鉱物、天体、乗り物など、他のアイテム
であってもよい。例えば、出世魚の場合には、その大きさや季節から名前を特定することができる。また、鉱物の場合には、鉱物を撮影した地域や撮影画像から名前を特定することができる。
In the above embodiment, the case where the plant that is the subject is specified has been described. The target of the subject is not limited to this, and may be other items such as animals, minerals, celestial bodies, and vehicles. For example, in the case of a rising fish, the name can be specified from its size and season. In the case of minerals, the name can be specified from the area where the mineral was photographed or the photographed image.

○ 上記実施形態では、管理コンピュータ21は、特定した花Fに関する植物情報250を携帯電話端末10に送信した。これに限らず、管理コンピュータ21は、植物情報250の一部、例えば名称だけを送信するようにしてもよい。   In the above embodiment, the management computer 21 transmits the plant information 250 regarding the identified flower F to the mobile phone terminal 10. Not limited to this, the management computer 21 may transmit only a part of the plant information 250, for example, a name.

○ 上記実施形態では、携帯電話端末10は、GPS機能を用いて位置情報を取得する。位置情報の取得は、これに限定されなくてもよい。例えば、携帯電話端末10がPHS端末(Personal Handyphone System)の場合には、その基地局の位置情報を取得し、その基地局の位置情報を経度・緯度に換算して、この位置情報を撮影条件データとして被写体画像データに記録してもよい。   In the above embodiment, the mobile phone terminal 10 acquires position information using the GPS function. The acquisition of the position information may not be limited to this. For example, when the mobile phone terminal 10 is a PHS terminal (Personal Handyphone System), the position information of the base station is acquired, the position information of the base station is converted into longitude and latitude, and the position information is converted into the shooting conditions. Data may be recorded in the subject image data.

○ 上記実施形態では、ジャイロを内蔵しGPS機能を備えた携帯電話端末10を用いる。これに限らず、ジャイロやGPS機能を内蔵していない携帯電話端末であっても、その他の撮影条件データから取得した被写体に関する情報を用いて検索を行ってもよい。これにより精度よく被写体を特定することができる。   In the above embodiment, the mobile phone terminal 10 with a built-in gyro and a GPS function is used. However, the present invention is not limited to this, and even a mobile phone terminal that does not have a built-in gyroscope or GPS function may be searched using information about the subject acquired from other shooting condition data. As a result, the subject can be accurately identified.

本実施形態におけるシステムの概略図。1 is a schematic diagram of a system in the present embodiment. ユーザ情報記憶部に記録されたデータの説明図。Explanatory drawing of the data recorded on the user information storage part. 地域情報記憶部に記録されたデータの説明図。Explanatory drawing of the data recorded on the area information storage part. 気象情報記憶部に記録されたデータの説明図。Explanatory drawing of the data recorded on the weather information storage part. 植物情報記憶部に記録されたデータの説明図。Explanatory drawing of the data recorded on the plant information storage part. 検索条件情報記憶部に記録されたデータの説明図。Explanatory drawing of the data recorded on the search condition information storage part. 本実施形態の全体処理の処理手順を説明するための流れ図。The flowchart for demonstrating the process sequence of the whole process of this embodiment. 本実施形態の被写体情報登録処理の処理手順を説明するための流れ図。6 is a flowchart for explaining a processing procedure of subject information registration processing of the present embodiment. 本実施形態の被写体サイズ算出処理の処理手順を説明するための流れ図。6 is a flowchart for explaining a processing procedure of subject size calculation processing according to the present embodiment.

符号の説明Explanation of symbols

F…被写体としての花、10…ユーザ端末としての携帯電話端末、21…管理コンピュータ、25…図鑑データ記憶手段としての植物情報記憶部。   F ... Flowers as a subject, 10 ... Mobile phone terminal as a user terminal, 21 ... Management computer, 25 ... Plant information storage unit as pictorial book data storage means.

Claims (12)

アイテムの属性情報とアイテム画像データとを関連付けた図鑑データを記録した図鑑データ記憶手段と、ユーザ端末に接続可能な管理コンピュータとを用いて、被写体に関する情報の提供を行う被写体情報提供方法であって、
前記管理コンピュータが、
前記ユーザ端末からの要求に基づいて、被写体を撮影した被写体画像データを特定する被写体画像データ特定段階と、
前記被写体画像データから撮影時の撮影条件データを抽出し、この撮影条件データから被写体情報を算出する取得段階と、
前記被写体情報と前記属性情報とを照合する情報照合段階と、
前記被写体画像データと、前記アイテム画像データとを照合する画像照合段階と、
前記情報照合段階及び前記画像照合段階の結果に基づいて、前記被写体のアイテムを特定する被写体特定段階と、
前記被写体特定段階において特定されたアイテムに関するデータを前記ユーザ端末に送信する送信段階と
を含むことを特徴とする被写体情報提供方法。
A subject information providing method for providing information about a subject using a pictorial book data storage unit that records pictorial book data in which item attribute information and item image data are associated, and a management computer connectable to a user terminal. ,
The management computer is
A subject image data specifying step for specifying subject image data obtained by photographing a subject based on a request from the user terminal;
Extracting shooting condition data at the time of shooting from the subject image data and obtaining subject information from the shooting condition data; and
An information matching step of matching the subject information and the attribute information;
An image matching step for matching the subject image data with the item image data;
A subject identifying step for identifying an item of the subject based on the results of the information matching step and the image matching step;
And a transmission step of transmitting data relating to the item identified in the subject identification step to the user terminal.
前記撮影条件データには、前記被写体までの撮影距離、撮影時の焦点距離に関するデータを含み、
前記取得段階は、前記撮影距離及び前記焦点距離に基づいて、前記画像の被写体の長さからこの被写体の実際の大きさを算出する算出段階を含み、
前記情報照合段階は、前記算出段階において算出された被写体の大きさに関する情報と、前記属性情報とを照合することを含むことを特徴とする請求項1に記載の被写体情報提供方法。
The shooting condition data includes data on the shooting distance to the subject and the focal length at the time of shooting,
The obtaining step includes a calculation step of calculating the actual size of the subject from the length of the subject of the image based on the shooting distance and the focal length,
The subject information providing method according to claim 1, wherein the information collation step includes collating information regarding the size of the subject calculated in the calculation step and the attribute information.
前記撮影条件データには、撮影時刻に関するデータを含み、
前記情報照合段階は、前記撮影時刻における前記被写体の情報と、前記属性情報とを照合することを含むことを特徴とする請求項1又は2に記載の被写体情報提供方法。
The shooting condition data includes data related to shooting time,
The subject information providing method according to claim 1, wherein the information collating step includes collating information on the subject at the photographing time with the attribute information.
前記撮影条件データには、前記被写体を撮影したときの方向に関するデータを含み、
前記取得段階は、前記被写体を撮影したときの方向に関するデータから前記被写体の向きを算出する算出段階を含み、
前記情報照合段階は、前記算出段階において算出された被写体の向きに関する情報と、前記属性情報とを照合することを含むことを特徴とする請求項1〜3のいずれか1つに記載の被写体情報提供方法。
The shooting condition data includes data relating to the direction when shooting the subject,
The obtaining step includes a calculating step of calculating an orientation of the subject from data relating to a direction when the subject is photographed.
The subject information according to any one of claims 1 to 3, wherein the information collation step includes collating information regarding the orientation of the subject calculated in the calculation step and the attribute information. How to provide.
前記撮影条件データには、撮影場所に関するデータを含み、
前記取得段階は、前記撮影場所に関するデータから前記被写体の場所に関する情報を算出し、
前記情報照合段階は、前記被写体の場所に関する情報と、前記属性情報とを照合することを含むことを特徴とする請求項2〜4のいずれか1つに記載の被写体情報提供方法。
The shooting condition data includes data regarding the shooting location,
The obtaining step calculates information on the location of the subject from data on the shooting location,
5. The subject information providing method according to claim 2, wherein the information collating step includes collating information on the location of the subject with the attribute information.
前記撮影条件データには、撮影時刻及び撮影場所に関するデータを含み、
前記取得段階は、前記撮影時刻及び前記撮影場所に関するデータに基づいて天候情報を取得し、
前記情報照合段階は、前記天候情報と前記属性情報とを照合することを含むことを特徴とする請求項1〜5のいずれか1つに記載の被写体情報提供方法。
The shooting condition data includes data related to shooting time and shooting location,
In the obtaining step, weather information is obtained based on data relating to the photographing time and the photographing location,
The subject information providing method according to claim 1, wherein the information collating step includes collating the weather information with the attribute information.
アイテムの属性情報とアイテム画像データとを関連付けた図鑑データを記録した図鑑デー
タ記憶手段と、ユーザ端末に接続可能な管理コンピュータとを用いて、被写体に関する情報の提供を行う被写体情報提供プログラムであって、
前記管理コンピュータを、
前記ユーザ端末からの要求に基づいて、被写体を撮影した被写体画像データを特定する被写体画像データ特定手段、
前記被写体画像データから撮影時の撮影条件データを抽出し、この撮影条件データから被写体情報を算出する取得手段、
前記被写体情報と前記属性情報とを照合する情報照合手段、
前記被写体画像データと、前記アイテム画像データとを照合する画像照合手段、
前記情報照合手段及び前記画像照合手段の結果に基づいて、前記被写体のアイテムを特定する被写体特定手段、及び
前記被写体特定手段において特定されたアイテムに関するデータを前記ユーザ端末に送信する送信手段
として機能させることを特徴とする被写体情報提供プログラム。
A subject information providing program for providing information about a subject using a pictorial book data storage unit that records pictorial book data in which item attribute information and item image data are associated with each other and a management computer connectable to a user terminal. ,
The management computer,
Subject image data specifying means for specifying subject image data obtained by photographing a subject based on a request from the user terminal;
Acquisition means for extracting shooting condition data at the time of shooting from the subject image data and calculating subject information from the shooting condition data;
Information collating means for collating the subject information and the attribute information;
Image collating means for collating the subject image data and the item image data;
Based on the results of the information collating unit and the image collating unit, a subject specifying unit that specifies the item of the subject, and a transmission unit that transmits data related to the item specified by the subject specifying unit to the user terminal. Subject information providing program characterized by this.
前記撮影条件データには、前記被写体までの撮影距離、撮影時の焦点距離に関するデータを含み、
前記取得手段は、前記撮影距離及び前記焦点距離に基づいて、前記画像の被写体の長さからこの被写体の実際の大きさを算出する算出手段を含み、
前記情報照合手段は、前記算出手段において算出された被写体の大きさに関する情報と、前記属性情報とを照合することを含むことを特徴とする請求項7に記載の被写体情報提供プログラム。
The shooting condition data includes data on the shooting distance to the subject and the focal length at the time of shooting,
The acquisition means includes calculation means for calculating the actual size of the subject from the length of the subject of the image based on the shooting distance and the focal length,
8. The subject information providing program according to claim 7, wherein the information collating unit includes collating information regarding the size of the subject calculated by the calculating unit with the attribute information.
前記撮影条件データには、撮影時刻に関するデータを含み、
前記情報照合手段は、前記撮影時刻における前記被写体の情報と、前記属性情報とを照合することを含むことを特徴とする請求項7又は8に記載の被写体情報提供プログラム。
The shooting condition data includes data related to shooting time,
9. The subject information providing program according to claim 7, wherein the information collating unit includes collating information on the subject at the photographing time with the attribute information.
前記撮影条件データには、前記被写体を撮影したときの方向に関するデータを含み、
前記取得手段は、前記被写体を撮影したときの方向に関するデータから前記被写体の向きを算出する算出手段を含み、
前記情報照合手段は、前記算出手段において算出された被写体の向きに関する情報と、前記属性情報とを照合することを含むことを特徴とする請求項7〜9のいずれか1つに記載の被写体情報提供プログラム。
The shooting condition data includes data relating to the direction when shooting the subject,
The acquisition means includes calculation means for calculating the orientation of the subject from data relating to the direction when the subject is photographed,
The subject information according to any one of claims 7 to 9, wherein the information collating unit includes collating information on the orientation of the subject calculated by the calculating unit and the attribute information. Offer program.
前記撮影条件データには、撮影場所に関するデータを含み、
前記取得手段は、前記撮影場所に関するデータから前記被写体の場所に関する情報を算出し、
前記情報照合手段は、前記被写体の場所に関する情報と、前記属性情報とを照合することを含むことを特徴とする請求項8〜10のいずれか1つに記載の被写体情報提供プログラム。
The shooting condition data includes data regarding the shooting location,
The acquisition means calculates information on the location of the subject from data on the shooting location,
The subject information providing program according to any one of claims 8 to 10, wherein the information collating unit includes collating information on the location of the subject and the attribute information.
前記撮影条件データには、撮影時刻及び撮影場所に関するデータを含み、
前記取得手段は、前記撮影時刻及び前記撮影場所に関するデータに基づいて天候情報を取得し、
前記情報照合手段は、前記天候情報と前記属性情報とを照合することを含むことを特徴とする請求項7〜11のいずれか1つに記載の被写体情報提供プログラム。
The shooting condition data includes data related to shooting time and shooting location,
The acquisition means acquires weather information based on data related to the shooting time and the shooting location,
The subject information providing program according to any one of claims 7 to 11, wherein the information collating unit includes collating the weather information and the attribute information.
JP2003342438A 2003-09-30 2003-09-30 Method and program for providing object information Pending JP2005108027A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003342438A JP2005108027A (en) 2003-09-30 2003-09-30 Method and program for providing object information
US10/952,554 US20050076004A1 (en) 2003-09-30 2004-09-29 Computer, database generating method for electronic picture book service, photographed subject information providing method, recording medium, and computer data signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003342438A JP2005108027A (en) 2003-09-30 2003-09-30 Method and program for providing object information

Publications (1)

Publication Number Publication Date
JP2005108027A true JP2005108027A (en) 2005-04-21

Family

ID=34536705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003342438A Pending JP2005108027A (en) 2003-09-30 2003-09-30 Method and program for providing object information

Country Status (1)

Country Link
JP (1) JP2005108027A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188229A (en) * 2006-01-12 2007-07-26 Impress Japan:Kk Flower information inquiry method and flower information inquiry system
JP2008210165A (en) * 2007-02-27 2008-09-11 Tohoku Kensetsu Kyokai Method of determining vegetation state and image processor
JP2009260800A (en) * 2008-04-18 2009-11-05 Fujifilm Corp Imaging device, dictionary database system, and main subject image output method and main subject image output program
JP2012181473A (en) * 2011-03-03 2012-09-20 Nikon Corp Image projection device
JP2012203848A (en) * 2011-03-28 2012-10-22 Japan Research Institute Ltd Photographing support device and photographing support method
JP2013515317A (en) * 2009-12-24 2013-05-02 インテル・コーポレーション Method, system, and computer-readable recording medium for adaptively performing image matching according to circumstances
JP2013125506A (en) * 2011-12-16 2013-06-24 Pasuko:Kk Photographing object retrieval system
KR101291047B1 (en) * 2010-11-26 2013-08-01 한국생명공학연구원 User terminal having plants information providing application and method for providing plants information
US20140029806A1 (en) * 2012-07-24 2014-01-30 Casio Computer Co., Ltd. Object searching apparatus, object searching method and computer-readable recording medium
WO2019159333A1 (en) * 2018-02-16 2019-08-22 マクセル株式会社 Mobile information terminal, information presentation system and information presentation method
JP2019175277A (en) * 2018-03-29 2019-10-10 京セラドキュメントソリューションズ株式会社 Item management apparatus, item management method, and item management program
JP7016209B2 (en) 2016-01-29 2022-02-04 東日本メディコム株式会社 Medical information provision system, server, terminal device, medical information provision method and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188229A (en) * 2006-01-12 2007-07-26 Impress Japan:Kk Flower information inquiry method and flower information inquiry system
JP2008210165A (en) * 2007-02-27 2008-09-11 Tohoku Kensetsu Kyokai Method of determining vegetation state and image processor
JP2009260800A (en) * 2008-04-18 2009-11-05 Fujifilm Corp Imaging device, dictionary database system, and main subject image output method and main subject image output program
JP2013515317A (en) * 2009-12-24 2013-05-02 インテル・コーポレーション Method, system, and computer-readable recording medium for adaptively performing image matching according to circumstances
KR101291047B1 (en) * 2010-11-26 2013-08-01 한국생명공학연구원 User terminal having plants information providing application and method for providing plants information
JP2012181473A (en) * 2011-03-03 2012-09-20 Nikon Corp Image projection device
JP2012203848A (en) * 2011-03-28 2012-10-22 Japan Research Institute Ltd Photographing support device and photographing support method
JP2013125506A (en) * 2011-12-16 2013-06-24 Pasuko:Kk Photographing object retrieval system
US20140029806A1 (en) * 2012-07-24 2014-01-30 Casio Computer Co., Ltd. Object searching apparatus, object searching method and computer-readable recording medium
JP2014027355A (en) * 2012-07-24 2014-02-06 Casio Comput Co Ltd Object retrieval device, method, and program which use plural images
CN103577520A (en) * 2012-07-24 2014-02-12 卡西欧计算机株式会社 Object searching apparatus, object searching method and computer-readable recording medium
JP7016209B2 (en) 2016-01-29 2022-02-04 東日本メディコム株式会社 Medical information provision system, server, terminal device, medical information provision method and program
WO2019159333A1 (en) * 2018-02-16 2019-08-22 マクセル株式会社 Mobile information terminal, information presentation system and information presentation method
US11647370B2 (en) 2018-02-16 2023-05-09 Maxell, Ltd. Mobile information terminal, information presentation system and information presentation method
JP2019175277A (en) * 2018-03-29 2019-10-10 京セラドキュメントソリューションズ株式会社 Item management apparatus, item management method, and item management program

Similar Documents

Publication Publication Date Title
CN112565552B (en) Image pickup apparatus, information acquisition system, recording medium, and server
US9497581B2 (en) Incident reporting
KR100897436B1 (en) Method for geographical information system and mobile terminal
US20110085057A1 (en) Imaging device, image display device, and electronic camera
US20050076004A1 (en) Computer, database generating method for electronic picture book service, photographed subject information providing method, recording medium, and computer data signal
JP2008027336A (en) Location information delivery apparatus, camera, location information delivery method and program
KR20090019184A (en) Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method
JP2007528523A (en) Apparatus and method for improved organization and retrieval of digital images
JP5334159B2 (en) Photo display method and system on electronic map
KR100925278B1 (en) System for geocoding using digital map and method therefor
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
WO2009114036A1 (en) A method and apparatus of annotating digital images with data
US20120033070A1 (en) Local search device and local search method
CN101017485A (en) Method and system of storing and sharing GPS picture
JP2008513852A (en) Method and system for identifying object in photograph, and program, recording medium, terminal and server for realizing the system
JP2005108027A (en) Method and program for providing object information
JP2011248832A (en) Image collection system, portable terminal, image collection device, and image collection method
US20100145607A1 (en) Path calculation method based on location information
JP4137756B2 (en) Electronic picture book generation method and electronic picture book generation program
KR101211209B1 (en) Photographing method of image shooting device using location information, image shooting device using the same, method of supporting photographing method of image shooting device using location information by server and server supporting the same
CN107193820B (en) Position information acquisition method, device and equipment
US20040066391A1 (en) Method and apparatus for static image enhancement
EP3955152A1 (en) Image processing device, image processing method, program, and imaging device
JP2002077805A (en) Camera with photographing memo function
KR20090132485A (en) Method for geographical information system and mobile terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090714