JP2003288363A - Information providing device and information providing method - Google Patents

Information providing device and information providing method

Info

Publication number
JP2003288363A
JP2003288363A JP2002089828A JP2002089828A JP2003288363A JP 2003288363 A JP2003288363 A JP 2003288363A JP 2002089828 A JP2002089828 A JP 2002089828A JP 2002089828 A JP2002089828 A JP 2002089828A JP 2003288363 A JP2003288363 A JP 2003288363A
Authority
JP
Japan
Prior art keywords
information
subject
feature
information providing
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002089828A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Kodama
良幸 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2002089828A priority Critical patent/JP2003288363A/en
Publication of JP2003288363A publication Critical patent/JP2003288363A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily and quickly retrieve intended information. <P>SOLUTION: In an electronic picture book 1, a prescribed characteristic (size, color, shape or the like of a floor or leaf) is extracted from a taken image to be examined, and information for probable plants as the object of examination is retrieved and displayed based on the present position, the present time, and the extracted characteristic. According to a user's selection, detailed information related to a specified plant matter of these plants is displayed. Thus, the user can know what kind of plants the object of examination is only by taking the picture of the object of examination, and an examination for plants or the like can be performed without searching with a picture book of document. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、検索対象に関する
情報を提供する情報提供装置および情報提供方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information providing apparatus and an information providing method for providing information regarding a search target.

【0002】[0002]

【従来の技術】近年、データベースに蓄積された情報か
ら、植物あるいは動物等の調査対象に関連する情報を検
索し、ユーザに提供する情報提供装置が用いられてい
る。情報提供装置は、「電子図鑑」等とも呼ばれ、一般
的には、各種情報を格納した記録媒体をPC(Personal
Computer)等により読み出して検索する方法や、専用
の情報処理装置に備えられた記憶装置に予め各種情報を
記憶しておき、その処理装置により、記憶装置内の情報
を検索する方法等が用いられている。
2. Description of the Related Art In recent years, an information providing apparatus has been used which retrieves information related to a survey target such as a plant or an animal from information stored in a database and provides it to a user. The information providing device is also called an “electronic picture book” or the like, and generally, a recording medium storing various kinds of information is stored in a PC (Personal).
Computer) and the like, and a method of preliminarily storing various information in a storage device provided in a dedicated information processing device and searching the information in the storage device by the processing device. ing.

【0003】ここで、このような電子図鑑の例として、
特開平8−190573号公報に記載された技術が挙げ
られる。特開平8−190573号公報には、音声や画
像を認識することにより、目的とする情報を検索する技
術が開示されている。また、他の例として、特開平8−
63490号公報に記載された技術が挙げられる。特開
平8−63490号公報には、動植物の分布エリアを入
力することで情報の絞り込みを行う技術が開示されてい
る。
Here, as an example of such an electronic picture book,
The technique described in JP-A-8-190573 can be mentioned. Japanese Unexamined Patent Application Publication No. 8-190573 discloses a technique for searching for target information by recognizing a voice or an image. Further, as another example, Japanese Patent Laid-Open No. 8-
The technique described in Japanese Patent No. 63490 is cited. Japanese Patent Laid-Open No. 8-63490 discloses a technique for narrowing down information by inputting a distribution area of plants and animals.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、音声あ
るいは画像の認識により目的とする情報を検索する場
合、現在の画像および音声認識技術では、正確な情報を
検索することは困難であり、情報の絞り込みが適切に行
えないという問題がある。また、動植物の分布エリアを
入力することとした場合、その入力は煩雑となると共
に、他の多くの情報を入力しなければ目的とする情報を
検索できないという問題がある。
However, when searching for the target information by recognizing voice or images, it is difficult to search for accurate information with the current image and voice recognition technology, and it is difficult to narrow down the information. There is a problem that can not be done properly. In addition, if the distribution area of flora and fauna is input, the input becomes complicated and there is a problem that the target information cannot be retrieved unless a lot of other information is input.

【0005】さらに、従来、図鑑により調査対象を検索
する場合、検索者は、調査対象について、ある程度の知
識を有していなければ適切な情報を検索できない場合も
少なくなく、図鑑を用いた調査における問題の1つとな
っていた。本発明の課題は、容易かつ迅速に目的とする
情報の検索を行うことである。
Further, in the past, when searching a survey object with a picture book, the searcher often cannot search for appropriate information unless he or she has some knowledge about the study object. It was one of the problems. An object of the present invention is to easily and quickly search for desired information.

【0006】[0006]

【課題を解決するための手段】以上の課題を解決するた
め、請求項1記載の発明は、複数の要素(例えば、調査
対象となる複数の植物、複数の動物等)について所定の
情報を格納する情報格納手段と、該情報格納手段から検
索対象である情報を検索する検索手段と、前記検索手段
によって検索された情報を利用者に提供可能な情報提供
手段とを含む情報提供装置であって、検索対象である被
写体を撮影する撮影手段(例えば、図1のCCDカメラ
12)と、該撮影手段により撮影された画像を解析し、
被写体の特徴を抽出する特徴抽出手段(例えば、図1の
CPU11)と、被写体が撮影された場所に関する情報
を取得する場所情報取得手段(例えば、図1のGPS機
能部14)と、被写体が撮影された日時に関する情報を
取得する日時情報取得手段(例えば、図1のリアルタイ
ムクロック部17)と、を含み、前記情報格納手段は、
前記要素の形態的特徴に関する情報および前記要素の時
間的分布(例えば、生息時期)あるいは地域的分布(例
えば、生息地域)に関する情報を格納し、前記検索手段
は、抽出された前記被写体の特徴が、前記形態的特徴に
関する情報に適合するか否かと、前記場所に関する情報
あるいは前記日時に関する情報が、前記時間的分布ある
いは地域的分布に関する情報に適合するか否かとに基づ
いて、前記情報格納手段から検索対象である情報を検索
可能であることを特徴としている。
In order to solve the above problems, the invention according to claim 1 stores predetermined information about a plurality of elements (for example, a plurality of plants to be investigated, a plurality of animals, etc.). An information providing apparatus including: an information storage unit that stores information, a search unit that searches the information storage unit for information to be searched, and an information providing unit that can provide the information searched by the search unit to a user. , A photographing means (for example, the CCD camera 12 in FIG. 1) for photographing a subject to be searched, and analyzing an image photographed by the photographing means,
Feature extraction means (for example, CPU 11 in FIG. 1) that extracts the characteristics of the subject, location information acquisition means (for example, the GPS function unit 14 in FIG. 1) that obtains information about the location where the subject was photographed, and the subject is photographed. Date and time information acquisition means (for example, the real-time clock unit 17 in FIG. 1) that acquires information related to the date and time that the information was stored,
Information about morphological characteristics of the element and information about temporal distribution (for example, habitat) or regional distribution (for example, habitat) of the element is stored, and the retrieval unit stores the characteristics of the extracted subject. From the information storage means based on whether or not the information on the morphological characteristics is matched and whether the information on the place or the information on the date and time is matched to the information on the temporal distribution or the regional distribution. The feature is that the information to be searched can be searched.

【0007】ここで、「形態的特徴に関する情報」、
「時間的分布あるいは地域的分布に関する情報」は、特
徴抽出手段によって抽出された特徴と比較可能な形態で
格納され、例えば、定量化された色、大きさ、時間、領
域等を含む。請求項2記載の発明は、請求項1記載の情
報提供装置であって、前記情報抽出手段は、前記被写体
の特徴として、被写体の全体に関する特徴と、被写体の
部分に関する特徴とをそれぞれ抽出可能であることを特
徴とする請求項1記載の情報提供装置。
Here, "information on morphological characteristics",
The “information regarding temporal distribution or regional distribution” is stored in a form that can be compared with the features extracted by the feature extraction means, and includes, for example, quantified color, size, time, region, and the like. A second aspect of the present invention is the information providing apparatus according to the first aspect, wherein the information extracting means can extract, as the feature of the subject, a feature relating to the entire subject and a feature relating to a part of the subject. The information providing apparatus according to claim 1, wherein the information providing apparatus is provided.

【0008】請求項3記載の発明は、請求項2記載の情
報提供装置であって、前記情報格納手段は、前記要素で
ある植物に関する情報を格納し、前記特徴抽出手段は、
前記被写体の特徴として、植物の全体に関する特徴と、
花に関する特徴と、葉に関する特徴とをそれぞれ抽出可
能であることを特徴としている。
The invention according to claim 3 is the information providing apparatus according to claim 2, wherein the information storage means stores information about the plant that is the element, and the feature extraction means,
As the characteristics of the subject, characteristics relating to the entire plant,
The feature is that the feature about the flower and the feature about the leaf can be extracted respectively.

【0009】請求項4記載の発明は、請求項1〜3のい
ずれかに記載の情報提供装置であって、前記特徴抽出手
段は、被写体の大きさ、色あるいは形状についての特徴
を抽出可能であることを特徴としている。請求項5記載
の発明は、請求項1〜4のいずれかに記載の情報提供装
置であって、前記場所情報取得手段は、GPS(Global
Positioning System)を用いて自装置の場所を取得す
ることを特徴としている。
The invention according to claim 4 is the information providing apparatus according to any one of claims 1 to 3, wherein the feature extracting means is capable of extracting features of the size, color or shape of the subject. It is characterized by being. The invention according to claim 5 is the information providing apparatus according to any one of claims 1 to 4, wherein the location information acquisition means is a GPS (Global).
Positioning System) is used to acquire the location of the device itself.

【0010】請求項6記載の発明は、複数の要素につい
て所定の情報を格納する情報格納手段と、該情報格納手
段から検索対象である情報を検索する検索手段と、前記
検索手段によって検索された情報を利用者に提供可能な
情報提供手段とを含む情報提供装置における情報提供方
法であって、前記情報格納手段に、前記要素の形態的特
徴に関する情報および前記要素の時間的分布あるいは地
域的分布に関する情報を格納しておき、検索対象である
被写体を撮影し、撮影された画像を解析して被写体の特
徴を抽出し、抽出された該被写体の特徴が、前記形態的
特徴に関する情報に適合するか否かと、被写体が撮影さ
れた場所あるいは日時に関する情報が、前記時間的分布
あるいは地域的分布に関する情報に適合するか否かとに
基づいて、前記情報格納手段から検索対象である情報を
検索して利用者に提供することを特徴としている。
According to the sixth aspect of the present invention, information storage means for storing predetermined information about a plurality of elements, search means for searching the information storage means for information to be searched, and the search means are searched. An information providing method in an information providing apparatus including information providing means capable of providing information to a user, wherein the information storing means includes information on morphological characteristics of the element and temporal distribution or regional distribution of the element. Information about the subject is stored, a subject to be searched is photographed, the photographed image is analyzed to extract the feature of the subject, and the extracted feature of the subject matches the information on the morphological feature. Based on whether or not the information regarding the place or the date and time when the subject was photographed matches the information regarding the temporal distribution or the regional distribution. Is characterized by providing information to be retrieved from the storage means the search to the user.

【0011】請求項7記載の発明は、請求項6記載の情
報提供方法であって、前記被写体の特徴として、被写体
の全体に関する特徴と、被写体の部分に関する特徴とを
それぞれ抽出することを特徴としている。請求項8記載
の発明は、請求項7記載の情報提供方法であって、前記
情報格納手段は、前記要素である植物に関する情報を格
納し、前記被写体の特徴として、植物の全体に関する特
徴と、花に関する特徴と、葉に関する特徴とをそれぞれ
抽出することを特徴としている。
According to a seventh aspect of the invention, there is provided the information providing method according to the sixth aspect, characterized in that, as the features of the subject, a feature relating to the whole subject and a feature relating to a part of the subject are extracted. There is. The invention according to claim 8 is the information providing method according to claim 7, wherein the information storage means stores information about the plant that is the element, and the feature about the whole plant as the feature of the subject, The feature is that the feature about the flower and the feature about the leaf are extracted.

【0012】請求項9記載の発明は、請求項6〜8のい
ずれかに記載の情報提供方法であって、前記被写体の特
徴として、被写体の大きさ、色あるいは形状についての
特徴を抽出することを特徴としている。請求項10記載
の発明は、請求項6〜9のいずれかに記載の情報提供方
法であって、GPSを用いて、前記情報提供装置の場所
を取得することを特徴としている。
According to a ninth aspect of the present invention, there is provided the information providing method according to any one of the sixth to eighth aspects, wherein the features of the subject such as size, color or shape are extracted. Is characterized by. The invention according to claim 10 is the information providing method according to any one of claims 6 to 9, characterized in that the location of the information providing device is acquired using GPS.

【0013】本発明によれば、被写体の画像から所定の
特徴(花あるいは葉の大きさ、色、形状等)を抽出し、
場所に関する情報、時間に関する情報と、抽出された特
徴とに基づいて、検索対象の情報の表示等を行う。した
がって、ユーザは、検索対象の物体を撮影することのみ
で、その対象がいかなるものであるかを知ることがで
き、文書の図鑑等を調べることなく、対象の調査を行う
ことができる。
According to the present invention, predetermined features (size, color, shape of flower or leaf, etc.) are extracted from an image of a subject,
Based on the information about the place, the information about the time, and the extracted features, the information to be searched is displayed. Therefore, the user can know what the target is just by photographing the object to be searched, and can investigate the target without checking a picture book or the like of the document.

【0014】即ち、文書の図鑑によって植物等の対象を
調べる場合、ある程度の知識を有していないと正確に対
象を調べることが困難であるのに比べ、極めて容易かつ
迅速に目的とする対象に関する情報を検索することがで
きる。そのため、子供から老人に至るまで、特に、植物
に関する知識が乏しいユーザや機械の操作が不得手なユ
ーザに利用価値のある情報提供装置を提供することがで
きる。
That is, when an object such as a plant is examined by a pictorial book of a document, it is difficult to accurately examine the object unless one has some knowledge. You can search for information. Therefore, it is possible to provide a useful information providing device, from children to old people, especially to users who have little knowledge about plants and users who are not good at operating machines.

【0015】また、GPSにより現在位置、標高等を把
握し、あるいは、日時情報提供手段等により現在時刻を
把握した上で、対象がこれらの情報に適合するものであ
るか否かを加味した検索を行うため、検索される情報
が、対象としてより適切なものとなり、検索精度の向上
を図ることができる。
Further, the current position, altitude, etc. are grasped by the GPS, or the current time is grasped by the date / time information providing means, etc., and then the retrieval is made in consideration of whether or not the target is suitable for these information. Therefore, the information to be searched becomes more appropriate as a target, and the search accuracy can be improved.

【0016】[0016]

【発明の実施の形態】以下、図を参照して本発明に係る
電子図鑑の実施の形態を詳細に説明する。本発明に係る
電子図鑑は、情報提供装置の一種であり、装置内部に記
憶した情報をユーザに提供する装置である。また、本発
明にかかる電子図鑑は、撮像手段を備えており、撮影さ
れた調査対象の画像を所定の方法で分析すると共に、所
定の情報を参照することにより、その調査対象に関する
情報を迅速に検索できる装置である。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of an electronic picture book according to the present invention will be described in detail below with reference to the drawings. The electronic picture book according to the present invention is a type of information providing device, and is a device that provides a user with information stored in the device. Further, the electronic picture book according to the present invention is provided with an image pickup means, and by analyzing the photographed image of the survey target by a predetermined method and by referring to the predetermined information, information about the survey target can be quickly obtained. It is a searchable device.

【0017】まず、構成を説明する。図1は、電子図鑑
1の機能構成を示すブロック図である。また、図2は、
電子図鑑1の斜視図である。図1において、電子図鑑1
は、CPU(Central Processing Unit)11と、CC
D(Charge Coupled Diode)カメラ12と、距離センサ
13と、GPS(Global Positioning System)機能部
14と、RAM(Random Access Memory)15と、フラ
ッシュROM(Read Only Memory)16と、リアルタイ
ムクロック部17と、LCD18と、タッチパネル19
と、カメラシャッタ部20と、スピーカ21とを含んで
構成される。
First, the structure will be described. FIG. 1 is a block diagram showing a functional configuration of the electronic picture book 1. Also, in FIG.
It is a perspective view of the electronic picture book 1. In FIG. 1, electronic picture book 1
Is a CPU (Central Processing Unit) 11 and a CC
A D (Charge Coupled Diode) camera 12, a distance sensor 13, a GPS (Global Positioning System) function unit 14, a RAM (Random Access Memory) 15, a flash ROM (Read Only Memory) 16, and a real-time clock unit 17. , LCD 18 and touch panel 19
And a camera shutter unit 20 and a speaker 21.

【0018】CPU11は、電子図鑑1全体を制御する
もので、タッチパネル19から入力される各種の指示信
号に従って、フラッシュROM16に記憶された各種処
理に関するプログラムを読み出して実行する。例えば、
CPU11は、CCDカメラ12によって撮影が行われ
た場合に、画像を認識すると共にフラッシュROM16
に記憶された情報から目的となる情報を検索するための
認識・検索処理プログラム(後述)を読み出して実行す
る。そして、CPU11は、各種プログラムあるいは制
御を実行した処理結果をRAM15やフラッシュROM
16の所定の領域に格納したり、LCD18に表示させ
たり、スピーカ21から出力したりする。
The CPU 11 controls the entire electronic picture book 1 and reads out and executes programs for various processes stored in the flash ROM 16 in accordance with various instruction signals input from the touch panel 19. For example,
The CPU 11 recognizes an image when the CCD camera 12 takes an image, and the flash ROM 16
A recognition / retrieval processing program (described later) for retrieving target information from the information stored in is read and executed. Then, the CPU 11 causes the RAM 15 or the flash ROM to store the processing results of executing various programs or controls.
It is stored in a predetermined area of 16, is displayed on the LCD 18, or is output from the speaker 21.

【0019】CCDカメラ12は、CCDセンサを備
え、カメラシャッタ部20が押下されることに対応して
被写体を撮影し、デジタル画像データ化する。距離セン
サ13は、超音波、赤外線等を用いて被写体との距離を
測定する機能を有する。そして、距離センサ13は、カ
メラシャッタ部20が押下されたことに対応して、被写
体との距離を測定する処理を行い、測定した距離に関す
るデータをCPU11の指示に従ってRAM15に出力
する。
The CCD camera 12 is equipped with a CCD sensor and photographs a subject in response to the depression of the camera shutter section 20 and converts it into digital image data. The distance sensor 13 has a function of measuring the distance to the subject using ultrasonic waves, infrared rays, or the like. Then, the distance sensor 13 performs the process of measuring the distance to the subject in response to the depression of the camera shutter unit 20, and outputs the data regarding the measured distance to the RAM 15 according to the instruction of the CPU 11.

【0020】GPS機能部14は、GPS衛星からの電
波を受信し、それらに基づいて自装置の現在位置、高度
を割り出す機能を有する。そして、GPS機能部14
は、カメラシャッタ部20が押下されたことに対応し
て、その時の電子図鑑1の位置、高度を割り出し、割り
出された位置、高度(以下、「位置情報」と言う。)を
CPU11の指示に従ってRAM15に出力する。
The GPS function unit 14 has a function of receiving radio waves from GPS satellites and calculating the current position and altitude of the own device based on the radio waves. Then, the GPS function unit 14
In response to the depression of the camera shutter unit 20, the position and altitude of the electronic picture book 1 at that time are indexed, and the indexed position and altitude (hereinafter referred to as “position information”) are instructed by the CPU 11. According to the above, it outputs to the RAM 15.

【0021】RAM15は、CPU11により実行され
る認識・検索処理(後述)等の各種処理において生成さ
れた各種データを一時的に記憶するワークエリアを有す
る。また、RAM15は、認識・検索処理の結果を格納
するテーブル(以下、「評価結果テーブル」と言う。)
を記憶する。図3は、初期化された評価結果テーブルを
示す図であり、図4は、評価結果テーブルに、認識・検
索処理の結果が格納された状態を示す図である。図4に
おいて、評価結果テーブルには、認識・検索処理の結
果、検索された調査対象の候補の6つデータが格納され
ており、第1〜第6の候補それぞれについて、後述する
「シリアル番号」、「エラー合計数」、「植物の情報エ
ラー数」、「花の情報エラー数」、「葉の情報エラー
数」が格納されている。なお、評価結果テーブルには、
調査対象の候補をいくつ格納することとしてもよいが、
ここでは、調査対象として最も可能性の高い6つを格納
するものとして説明する。
The RAM 15 has a work area for temporarily storing various data generated by various processes such as recognition / retrieval process (described later) executed by the CPU 11. Further, the RAM 15 is a table (hereinafter, referred to as “evaluation result table”) that stores the result of the recognition / search processing.
Memorize FIG. 3 is a diagram showing an initialized evaluation result table, and FIG. 4 is a diagram showing a state in which the results of recognition / search processing are stored in the evaluation result table. In FIG. 4, the evaluation result table stores six pieces of data of the search target candidates searched as a result of the recognition / search processing. For each of the first to sixth candidates, a “serial number” to be described later is stored. , "Total error count", "plant information error count", "flower information error count", and "leaf information error count" are stored. In addition, in the evaluation result table,
You may store any number of candidates for the survey,
Here, the description will be made assuming that the six most likely objects to be surveyed are stored.

【0022】フラッシュROM16は、不揮発性の記憶
装置であり、認識・検索処理プログラムおよび電子図鑑
1の制御のための各種処理に関するプログラムを記憶す
る。また、フラッシュROM16は、植物に関する種々
の情報を格納したデータベース(以下、「植物データベ
ース」と言う。)を記憶している。図5は、植物データ
ベースに記憶されたデータの一例を示す図である。図5
において、植物データベースは、植物の種類毎に、所定
の情報を含むデータグループ(以下、「レコード」と言
う。)として記憶されており、各レコードは、「シリア
ル番号」、「次のレコードの相対アドレス」、「植物の
情報」、「花の情報」、「葉の情報」、「植物の写
真」、「植物の説明」を含む。
The flash ROM 16 is a non-volatile storage device, and stores a recognition / search processing program and programs related to various processings for controlling the electronic picture book 1. In addition, the flash ROM 16 stores a database (hereinafter, referred to as “plant database”) that stores various kinds of information regarding plants. FIG. 5 is a diagram showing an example of data stored in the plant database. Figure 5
In, the plant database is stored as a data group (hereinafter, referred to as “record”) including predetermined information for each type of plant, and each record includes “serial number” and “relative to the next record”. It includes “address”, “plant information”, “flower information”, “leaf information”, “plant photo”, and “plant description”.

【0023】ここで、図6(a)に示すように、「植物
の情報」には、生息地域、生息標高、生息時期、大きさ
に関する情報が含まれ、図6(b)に示すように、「花
の情報」には、開花時期(季節)、開花時間、花の色、
花の大きさ、花の形状に関する情報が含まれている。ま
た、図6(c)に示すように、「葉の情報」には、葉の
色、葉の大きさ、葉の形状に関する情報が含まれてい
る。
Here, as shown in FIG. 6 (a), the "plant information" includes information on the habitat area, habitation altitude, habitation period, and size, and as shown in FIG. 6 (b). , "Flower information" includes flowering time (season), flowering time, flower color,
It contains information about flower size and flower shape. Further, as shown in FIG. 6C, the “leaf information” includes information about the leaf color, leaf size, and leaf shape.

【0024】さらに、図5のレコードに含まれる各情報
には、各レコード内で同一の相対アドレスが付与されて
いる。即ち、各レコード固有のアドレスにより指定され
る情報は、「シリアル番号」であり、各レコード内にお
いて、「次のレコードの相対アドレス」には、“A
1”、「植物の情報」には“A2”、「花の情報」には
“A3”、「葉の情報」には“A4”、「植物の写真」
には“A5”、「植物の説明」には“A6”が付与され
ている。つまり、各レコードは、同一のデータ構造を有
しており、例えば、複数の植物について、「花の情報」
を参照する場合には、各レコードのデータのうち“A
3”のアドレスのデータを走査すればよいこととなる。
Further, the same relative address is given in each record to each information included in the record of FIG. That is, the information specified by the address unique to each record is the "serial number", and the "relative address of the next record" in each record is "A".
1 "," A2 "for" plant information "," A3 "for" flower information "," A4 "for" leaf information "," photograph of plant "
“A5” is assigned to “A5” and “A6” is assigned to “Explanation of plants”. In other words, each record has the same data structure. For example, for a plurality of plants, "flower information"
When referring to "A" in the data of each record
It is only necessary to scan the data of the address of 3 ".

【0025】なお、電子図鑑1は、植物以外の情報を検
索することも可能であり、この場合、フラッシュROM
16には、検索対象の情報に対応するデータベースを記
憶するものである。具体的には、植物の他に、動物、昆
虫、魚等を対象とすることが可能であり、さらに、人工
的なもの、例えば、乗り物等を対象とすることも可能で
ある。このとき、例えば、動物であれば鳴き声といっ
た、他の情報をデータベースに含めることも可能であ
る。
Note that the electronic picture book 1 can also retrieve information other than plants, and in this case, a flash ROM
16 stores a database corresponding to the information to be searched. Specifically, in addition to plants, it is possible to target animals, insects, fish and the like, and it is also possible to target artificial ones such as vehicles. At this time, other information such as a bark of an animal can be included in the database.

【0026】リアルタイムクロック部17は、現在時刻
を計時する手段を備えており、CPU11に対し、現在
時刻を出力する。また、リアルタイムクロック部17
は、カメラシャッタ部20が押下されたことに対応し
て、その時の時刻をCPU11の指示に従ってRAM1
5に出力する。LCD18は、CPU11の指示に従っ
て、撮影された調査対象物、調査対象に関する情報等の
各種処理結果、ユーザに対するメッセージといった各種
データを表示する。
The real-time clock section 17 is provided with means for measuring the current time, and outputs the current time to the CPU 11. In addition, the real-time clock unit 17
Corresponds to the depression of the camera shutter unit 20 and the time at that time according to the instruction of the CPU 11 in the RAM 1
Output to 5. The LCD 18 displays various data such as a photographed surveyed object, various processing results such as information on the surveyed object, and a message to the user according to an instruction from the CPU 11.

【0027】タッチパネル19は、ユーザが接触するこ
とによって情報が入力される入力装置である。また、タ
ッチパネル19は、ユーザの接触によって入力された情
報をCPU11、RAM15あるいはフラッシュROM
16等の各機能部に出力する。なお、タッチパネル19
は、透明の材質によって構成され、下側に重ねて設けら
れたLCD18に表示された情報を透過する構成となっ
ている。
The touch panel 19 is an input device to which information is input when the user touches it. In addition, the touch panel 19 uses the CPU 11, the RAM 15, or the flash ROM to store the information input by the contact of the user.
It is output to each functional unit such as 16. The touch panel 19
Is made of a transparent material, and is configured to transmit the information displayed on the LCD 18 which is provided on the lower side in an overlapping manner.

【0028】カメラシャッタ部20は、押下信号をCP
U11に出力するスイッチである。また、カメラシャッ
タ部20の押下信号は、CCDカメラ12、距離センサ
13、GPS機能部14、RAM15、リアルタイムク
ロック部17に出力され、押下信号の入力に対応して各
機能部がそれぞれ所定の処理を行う。スピーカ21は、
CPU11の指示信号に基づいて、調査対象に関する音
声情報や、各種処理における発信音等を出力する。
The camera shutter unit 20 sends a depression signal to the CP.
It is a switch that outputs to U11. Further, the pressing signal of the camera shutter unit 20 is output to the CCD camera 12, the distance sensor 13, the GPS function unit 14, the RAM 15, and the real-time clock unit 17, and each function unit performs a predetermined process in response to the input of the pressing signal. I do. The speaker 21 is
Based on the instruction signal of the CPU 11, the voice information regarding the survey target, the dial tone in various processes, and the like are output.

【0029】次に、動作を説明する。図7および図8
は、CPU11が実行する認識・検索処理を示すフロー
チャートである。認識・検索処理は、電子図鑑1の電源
投入と共に実行される。図7において、認識・検索処理
が開始されると、CPU11は、カメラシャッタ部20
が押下されたか否かの判定を行い(ステップS1)、カ
メラシャッタ部20が押下されていないと判定した場
合、ステップS1を繰り返す。
Next, the operation will be described. 7 and 8
4 is a flowchart showing a recognition / search process executed by the CPU 11. The recognition / search processing is executed when the electronic picture book 1 is powered on. In FIG. 7, when the recognition / search process is started, the CPU 11 causes the camera shutter unit 20 to
It is determined whether or not is pressed (step S1), and when it is determined that the camera shutter unit 20 is not pressed, step S1 is repeated.

【0030】ステップS1において、カメラシャッタ部
20が押下されたと判定した場合、CPU11は、調査
対象である被写体を撮影する処理を行い(ステップS
2)、距離センサ13によって被写体との距離を測定す
る(ステップS3)。次いで、CPU11は、GPS機
能部14によって現在位置(緯度および軽度)を測定す
ると共に(ステップS4)、標高を測定し(ステップS
5)、リアルタイムクロック部17から撮影日時(月、
日、時、分)を取得する(ステップS6)。
When it is determined in step S1 that the camera shutter unit 20 is pressed down, the CPU 11 performs a process of photographing the subject to be investigated (step S1).
2) The distance sensor 13 measures the distance to the subject (step S3). Next, the CPU 11 measures the current position (latitude and lightness) by the GPS function unit 14 (step S4) and measures the altitude (step S).
5), the shooting date / time (month,
Day, hour, minute) are acquired (step S6).

【0031】次に、CPU11は、調査対象を認識する
ためのパラメータである評価対象値を初期化する(ステ
ップS7)。ここで、評価対象値は、例えば、2進数の
コードにより表され、初期化することにより“000”
とされる。この評価対象値の各ビットは、それぞれ被写
体の画像における所定条件(後述する花の領域が特定さ
れているか否か、葉の領域が特定されているか否か等)
を示すものである。
Next, the CPU 11 initializes an evaluation object value which is a parameter for recognizing the investigation object (step S7). Here, the evaluation target value is represented by a binary code, for example, and is initialized to "000".
It is said that Each bit of the evaluation target value is a predetermined condition in the image of the subject (whether or not a flower region, which will be described later, is specified, whether or not a leaf region is specified, etc.)
Is shown.

【0032】そして、CPU11は、撮影された画像か
ら、花の領域を特定する(ステップS8)。花の領域を
特定するためは、例えば、撮影画像に対してエッジ検
出、色の判別等の処理を行うことによる方法が可能であ
る。続いて、CPU11は、ステップS8において、撮
影された画像から、花の領域が特定されたか否かの判定
を行い(ステップS9)、花の領域が特定されていない
と判定した場合、ステップS13の処理に移行する。
Then, the CPU 11 specifies the flower area from the photographed image (step S8). In order to specify the flower region, for example, a method of performing edge detection, color discrimination, and the like on the captured image can be used. Subsequently, in step S8, the CPU 11 determines whether or not the flower area is specified from the photographed image (step S9). When it is determined that the flower area is not specified, the CPU 11 determines in step S13. Move to processing.

【0033】一方、ステップS8において、花の領域が
特定されたと判定された場合、CPU11は、評価対象
値に対し、花の領域が特定されたことを識別する情報を
付加する(ステップS10)。ここで、花の領域が特定
されたことを識別する情報を付加するために、評価対象
値である2進数のコード“000”と“010”との論
理和をとる(ORをとる)方法が可能である。これによ
り、花の領域が特定されたか否かを示す評価対象値の第
2ビットは、花の領域が特定されたことを示す“1”と
なる。
On the other hand, when it is determined in step S8 that the flower region is specified, the CPU 11 adds information for identifying the flower region to the evaluation target value (step S10). Here, in order to add information for identifying that the flower region is specified, a method of ORing (ORing) binary codes “000” and “010” which are evaluation target values is available. It is possible. As a result, the second bit of the evaluation target value indicating whether or not the flower region is specified becomes “1” indicating that the flower region is specified.

【0034】次に、CPU11は、特定された花の領域
において、花の色を数値化する(ステップS11)。こ
のとき、例えば、花の領域における色情報をRGB信号
のR,G,Bの各値で表すことにより、花の色を数値化
することができる。続いて、CPU11は、被写体との
距離と、撮影された画像における花の領域の大きさとに
基づいて、実際の花の大きさを算出する(ステップS1
2)。
Next, the CPU 11 digitizes the flower color in the specified flower area (step S11). At this time, for example, the color of the flower can be digitized by representing the color information in the flower area by the values of R, G, and B of the RGB signal. Subsequently, the CPU 11 calculates the actual flower size based on the distance to the subject and the size of the flower region in the captured image (step S1).
2).

【0035】次に、CPU11は、撮影された画像か
ら、1枚の葉の領域を特定し(ステップS13)、葉の
領域が特定されたか否かの判定を行う(ステップS1
4)。ステップS14において、撮影された画像から、
1枚の葉の領域が特定されていないと判定した場合、C
PU11は、ステップS18の処理に移行し、撮影され
た画像から、1枚の葉の領域が特定されたと判定した場
合、CPU11は、評価対象値に対し、葉の領域が特定
されたことを識別する情報を付加する(ステップS1
5)。ここで、葉の領域が特定されたことを識別する情
報を付加するために、花の領域が特定された場合と同様
に、評価対象値と2進数のコード“001”との論理和
をとる方法が可能である。
Next, the CPU 11 specifies one leaf area from the photographed image (step S13), and determines whether or not the leaf area is specified (step S1).
4). In step S14, from the captured image,
When it is determined that the area of one leaf is not specified, C
When the PU 11 proceeds to the processing of step S18 and determines that one leaf area is specified from the captured image, the CPU 11 identifies that the leaf area is specified with respect to the evaluation target value. Information to be added (step S1)
5). Here, in order to add information for identifying that the leaf area has been identified, the logical sum of the evaluation target value and the binary code “001” is obtained as in the case where the flower area is identified. Method is possible.

【0036】次に、CPU11は、特定された葉の領域
において、葉の色を数値化し(ステップS16)、次い
で、被写体との距離と、撮影された画像における葉の領
域の大きさとに基づいて、実際の葉の大きさを算出する
(ステップS17)。そして、CPU11は、植物デー
タベースにおけるアドレス(以下、「植物データアドレ
ス」と言う。)においてアドレス“1”を指定する(ス
テップS18)。
Next, the CPU 11 digitizes the color of the leaf in the specified leaf area (step S16), and then, based on the distance to the subject and the size of the leaf area in the photographed image. The actual leaf size is calculated (step S17). Then, the CPU 11 specifies the address "1" in the address in the plant database (hereinafter referred to as "plant data address") (step S18).

【0037】次いで、CPU11は、図3に示すよう
に、評価結果テーブルを初期化し(ステップS19)、
植物の情報エラーパラメータに“0”を設定(初期化)
する(ステップS20)。なお、図3において、“0x
7fff”は、データが格納されていないことを示して
いる。そして、CPU11は、植物データベースにおい
て指定されているアドレスのレコードのうち、アドレス
“A2”に格納されている植物の情報を「植物の情報」
として設定する(ステップS21)。
Next, the CPU 11 initializes the evaluation result table as shown in FIG. 3 (step S19),
Set "0" to the plant information error parameter (initialization)
Yes (step S20). In addition, in FIG. 3, “0x
7fff ”indicates that no data is stored. Then, the CPU 11 sets the plant information stored in the address“ A2 ”of the record of the address specified in the plant database to“ plant data ”. information"
(Step S21).

【0038】次に、CPU11は、花の情報エラーパラ
メータに“0”を設定(初期化)し(ステップS2
2)、植物データベースにおいて指定されているアドレ
スのレコードのうち、アドレス“A3”に格納されてい
る花の情報を「花の情報」として設定する(ステップS
23)。次いで、CPU11は、葉の情報エラーパラメ
ータに“0”を設定(初期化)し(ステップS24)、
植物データベースにおいて指定されているアドレスのレ
コードのうち、アドレス“A4”に格納されている葉の
情報を「葉の情報」として設定する(ステップS2
5)。
Next, the CPU 11 sets (initializes) "0" to the flower information error parameter (step S2).
2) Among the records of the addresses specified in the plant database, the flower information stored at the address "A3" is set as "flower information" (step S).
23). Next, the CPU 11 sets (initializes) "0" to the leaf information error parameter (step S24),
The leaf information stored in the address "A4" of the record of the address specified in the plant database is set as "leaf information" (step S2).
5).

【0039】そして、CPU11は、現在地の緯度・経
度と、「植物の情報」の生息地域とを比較し、生息地域
エラーパラメータを計算する(ステップS26)。ここ
で、各種エラーパラメータは、調査対象と、植物データ
ベースのデータとの誤差の程度を示す値である。例え
ば、生息地域エラーパラメータであれば、現在地が生息
地域内であれば“0”、生息地域外であれば、生息地域
からの距離に比例して“1”〜“10”までの各値とす
ることができる。また、花の色エラーパラメータであれ
ば、RGB信号の各値の相違に基づいて、“0”〜“1
0”までの値を設定することができる。
Then, the CPU 11 compares the latitude / longitude of the present location with the habitat area of "plant information" to calculate a habitat error parameter (step S26). Here, the various error parameters are values indicating the degree of error between the survey target and the data in the plant database. For example, if it is a habitat error parameter, it is “0” if the current location is inside the habitat, and if the current location is outside the habitat, it is a value from “1” to “10” in proportion to the distance from the habitat. can do. If the parameter is a flower color error parameter, “0” to “1” is calculated based on the difference between the RGB signal values.
Values up to 0 "can be set.

【0040】図7に戻り、CPU11は、植物の情報エ
ラーパラメータと生息地域エラーパラメータとを加え、
その結果を植物の情報エラーパラメータとする(ステッ
プS27)。次いで、CPU11は、現在地の標高と、
「植物の情報」の生息標高とを比較し、生息標高エラー
パラメータを計算する(ステップS28)。
Returning to FIG. 7, the CPU 11 adds a plant information error parameter and a habitat error parameter,
The result is used as a plant information error parameter (step S27). Next, the CPU 11 calculates the altitude of the current location,
The habitation altitude error parameter is calculated by comparing with the habitation altitude of "plant information" (step S28).

【0041】そして、CPU11は、植物の情報エラー
パラメータと生息標高エラーパラメータとを加え、その
結果を植物の情報エラーパラメータとする(ステップS
29)。次に、CPU11は、撮影日と、「植物の情
報」の生息時期とを比較し、生息時期エラーパラメータ
を計算する(ステップS30)。
Then, the CPU 11 adds the plant information error parameter and the habitation altitude error parameter, and sets the result as the plant information error parameter (step S).
29). Next, the CPU 11 compares the shooting date with the habitation period of the “plant information” and calculates the habitation period error parameter (step S30).

【0042】そして、CPU11は、植物の情報エラー
パラメータと生息時期エラーパラメータとを加え、その
結果を植物の情報エラーパラメータとする(ステップS
31)。続いて、図8に移り、CPU11は、評価対象
値と“010”との論理積(AND)が“0”となるか
否かの判定を行い(ステップS32)、“0”とならな
いと判定した場合、ステップS44の処理に移行する。
ここで、評価対象値と“010”との論理積が“0”と
なるということは、ステップS9において花の領域が特
定されず、花の領域が特定されたことを示す評価対象値
の第2ビットが“0”であることを意味する。したがっ
て、ステップS32の判定により、花の領域が評価対象
であるか否かが判定できる。
Then, the CPU 11 adds the plant information error parameter and the habitat error parameter and sets the result as the plant information error parameter (step S).
31). Next, moving to FIG. 8, the CPU 11 determines whether the logical product (AND) of the evaluation target value and “010” is “0” (step S32), and determines that the logical product is not “0”. If so, the process proceeds to step S44.
Here, the logical product of the evaluation target value and "010" being "0" means that the flower region is not specified in step S9 and the evaluation target value indicating that the flower region is specified is It means that 2 bits are "0". Therefore, it is possible to determine whether or not the flower region is the evaluation target by the determination in step S32.

【0043】一方、ステップS32において、評価対象
値と“010”との論理積(AND)が“0”となると
判定した場合、CPU11は、撮影日と、「花の情報」
の開花時期とを比較し、開花時期エラーパラメータを計
算する(ステップS33)。そして、CPU11は、花
の情報エラーパラメータと開花時期エラーパラメータと
を加え、その結果を花の情報エラーパラメータとする
(ステップS34)。
On the other hand, when it is determined in step S32 that the logical product (AND) of the evaluation target value and "010" is "0", the CPU 11 determines the shooting date and "flower information".
And the flowering time error parameter is calculated (step S33). Then, the CPU 11 adds the flower information error parameter and the flowering time error parameter, and sets the result as the flower information error parameter (step S34).

【0044】次に、CPU11は、撮影時間と、「花の
情報」の開花時間とを比較し、開花時間エラーパラメー
タを計算する(ステップS35)。そして、CPU11
は、花の情報エラーパラメータと、開花時間エラーパラ
メータとを加え、その結果を花の情報エラーパラメータ
とする(ステップS36)。
Next, the CPU 11 compares the photographing time with the flowering time of "flower information" to calculate a flowering time error parameter (step S35). And the CPU 11
Adds a flower information error parameter and a flowering time error parameter, and sets the result as a flower information error parameter (step S36).

【0045】次に、CPU11は、被写体の数値化され
た花の色と、「花の情報」の花の色とを比較し、花の色
エラーパラメータを計算する(ステップS37)。そし
て、CPU11は、花の情報エラーパラメータと、花の
色エラーパラメータとを加え、その結果を花の情報エラ
ーパラメータとする(ステップS38)。次に、CPU
11は、被写体の花の大きさと、「花の情報」の花の大
きさとを比較し、花のサイズエラーパラメータを計算す
る(ステップS39)。
Next, the CPU 11 compares the digitized flower color of the subject with the flower color of the "flower information" to calculate a flower color error parameter (step S37). Then, the CPU 11 adds the flower information error parameter and the flower color error parameter, and sets the result as the flower information error parameter (step S38). Next, CPU
11 compares the flower size of the subject with the flower size of the "flower information" to calculate a flower size error parameter (step S39).

【0046】そして、CPU11は、花の情報エラーパ
ラメータと、花のサイズエラーパラメータとを加え、そ
の結果を花の情報エラーパラメータとする(ステップS
40)。続いて、CPU11は、撮影された画像の花の
領域から花の形状を抽出し(ステップS41)、抽出さ
れた花の形状と、「花の情報」の花の形状とを比較し、
花の形状エラーパラメータを計算する(ステップS4
2)。
Then, the CPU 11 adds the flower information error parameter and the flower size error parameter and sets the result as the flower information error parameter (step S).
40). Subsequently, the CPU 11 extracts the flower shape from the flower area of the captured image (step S41), compares the extracted flower shape with the flower shape of the "flower information",
Calculate the flower shape error parameter (step S4)
2).

【0047】そして、CPU11は、花の情報エラーパ
ラメータと、花の形状エラーパラメータとを加え、その
結果を花の情報エラーパラメータとする(ステップS4
3)。次いで、CPU11は、評価対象値と“001”
との論理積(AND)が“0”となるか否かの判定を行
い(ステップS44)、“0”となると判定した場合、
ステップS61の処理に移行する。
Then, the CPU 11 adds the flower information error parameter and the flower shape error parameter and sets the result as the flower information error parameter (step S4).
3). Next, the CPU 11 sets the evaluation target value and “001”.
If it is determined that the logical product (AND) with and becomes "0" (step S44), and it becomes "0",
Then, the process proceeds to step S61.

【0048】一方、ステップS44において、評価対象
値と“001”との論理積(AND)が“0”となると
判定した場合、CPU11は、被写体の数値化された葉
の色と、「葉の情報」の葉の色とを比較し、葉の色エラ
ーパラメータを計算する(ステップS45)。そして、
CPU11は、葉の情報エラーパラメータと、葉の色エ
ラーパラメータとを加え、その結果を葉の情報エラーパ
ラメータとする(ステップS46)。
On the other hand, when it is determined in step S44 that the logical product (AND) of the evaluation target value and "001" is "0", the CPU 11 determines the digitized leaf color of the subject and "leaf The leaf color error parameter is calculated by comparing with the leaf color of "information" (step S45). And
The CPU 11 adds the leaf information error parameter and the leaf color error parameter, and sets the result as the leaf information error parameter (step S46).

【0049】次に、CPU11は、被写体の葉の大きさ
と、「葉の情報」の葉の大きさとを比較し、葉の大きさ
エラーパラメータを計算する(ステップS47)。そし
て、CPU11は、葉の情報エラーパラメータと、葉の
大きさエラーパラメータとを加え、その結果を葉の情報
エラーパラメータとする(ステップS48)。
Next, the CPU 11 compares the leaf size of the subject with the leaf size of the "leaf information" to calculate a leaf size error parameter (step S47). Then, the CPU 11 adds the leaf information error parameter and the leaf size error parameter, and sets the result as the leaf information error parameter (step S48).

【0050】続いて、CPU11は、撮影された画像の
葉の領域から葉の形状を抽出し(ステップS49)、抽
出された葉の形状と、「葉の情報」の葉の形状とを比較
し、葉の形状エラーパラメータを計算する(ステップS
50)。そして、CPU11は、葉の情報エラーパラメ
ータと、葉の形状エラーパラメータとを加え、その結果
を葉の形状エラーパラメータとする(ステップS5
1)。
Subsequently, the CPU 11 extracts the leaf shape from the leaf area of the photographed image (step S49), and compares the extracted leaf shape with the leaf information "leaf information". , Calculate leaf shape error parameters (step S
50). Then, the CPU 11 adds the leaf information error parameter and the leaf shape error parameter, and sets the result as the leaf shape error parameter (step S5).
1).

【0051】次いで、CPU11は、植物の情報エラー
パラメータと、花の情報エラーパラメータと、葉の情報
エラーパラメータとを加え、エラー合計数を算出する
(ステップS52)。そして、CPU11は、評価結果
テーブルを更新する(ステップS53)。即ち、CPU
11は、評価結果テーブルにおいて、エラー合計数の少
ない順に、レコードを並べ替える処理(以下、「評価結
果テーブル更新処理」と言う。)を行う。
Next, the CPU 11 adds the plant information error parameter, the flower information error parameter, and the leaf information error parameter to calculate the total number of errors (step S52). Then, the CPU 11 updates the evaluation result table (step S53). That is, CPU
11 performs a process of rearranging the records in the evaluation result table in ascending order of the total number of errors (hereinafter referred to as "evaluation result table update process").

【0052】次に、CPU11は、植物データベースに
おけるアドレスを次のレコード(次の相対アドレスに示
されるレコード)に更新する(ステップS54)。そし
て、CPU11は、次のレコードのアドレス(次の相対
アドレス)が最後のアドレスであることを示す“−1”
であるか否かの判定を行い(ステップS55)、次のレ
コードのアドレスが“−1”でないと判定した場合、植
物データベースにおける現在のアドレスに、次のレコー
ドの相対アドレスを加え、新たな植物データベースにお
けるアドレスとし(ステップS56)、ステップS20
の処理に移行する。
Next, the CPU 11 updates the address in the plant database to the next record (the record indicated by the next relative address) (step S54). Then, the CPU 11 indicates that the address of the next record (next relative address) is the last address "-1".
If it is determined that the address of the next record is not “−1” (step S55), the relative address of the next record is added to the current address in the plant database to add a new plant. As an address in the database (step S56), step S20
Process shifts to.

【0053】一方、ステップS55において、次のレコ
ードのアドレスが“−1”でないと判定した場合、CP
U11は、評価結果テーブルに格納されている第1〜第
6の候補の写真を表示し(ステップS57)、ステップ
S1の処理に移行する。次に、CPU11がステップS
53において実行する評価結果テーブル更新処理につい
て説明する。
On the other hand, if it is determined in step S55 that the address of the next record is not "-1", CP
U11 displays the photos of the first to sixth candidates stored in the evaluation result table (step S57), and proceeds to the process of step S1. Next, the CPU 11 performs step S
The evaluation result table update processing executed in 53 will be described.

【0054】評価結果テーブル更新処理プログラムは、
認識・検索処理の実行中に呼び出されるサブルーチンで
あり、評価結果テーブルのレコード(1つの行)をエラ
ー合計数の少ないものの順に並べ替える処理である。図
9は、評価結果テーブル更新処理を示すフローチャート
である。なお、図9において、“x”,“y”は、評価
結果テーブルにおけるレコードの順番を示している。
The evaluation result table update processing program is
This subroutine is called during the execution of the recognition / retrieval process, and is a process of rearranging the records (one row) of the evaluation result table in order of decreasing total error count. FIG. 9 is a flowchart showing the evaluation result table updating process. In FIG. 9, “x” and “y” represent the order of records in the evaluation result table.

【0055】図9において、初めに、CPU11は、
“x”に“1”を代入し、評価結果テーブルの第1番目
に格納されたレコード(現在、最も誤差の少ない候補の
レコード)を比較対象として設定する(ステップS10
1)。次いで、CPU11は、植物データテーブルにお
ける現在のアドレスのレコードについて、そのエラー合
計数と、評価結果テーブルの第x番目のレコードにおけ
るエラー合計数とを比較し(ステップS102)、現在
のアドレスのレコードにおけるエラー合計数が、第x番
目のレコードにおけるエラー合計数より小さくないと判
定した場合、ステップS108の処理に移行する。ここ
で、現在のアドレスのレコードは、第x番目のレコード
より調査対象としての可能性の低い候補であることか
ら、第x番目のレコードの格納アドレスを維持し、現在
のアドレスのレコードは、評価結果テーブルにおいて、
より下位のアドレスに格納されるべきものである。
In FIG. 9, first, the CPU 11
"1" is substituted for "x", and the first stored record of the evaluation result table (currently the candidate record with the smallest error) is set as the comparison target (step S10).
1). Next, the CPU 11 compares the total number of errors in the record of the current address in the plant data table with the total number of errors in the x-th record of the evaluation result table (step S102), and in the record of the current address. If it is determined that the total number of errors is not smaller than the total number of errors in the x-th record, the process proceeds to step S108. Here, since the record of the current address is a candidate that is less likely to be investigated than the xth record, the storage address of the xth record is maintained, and the record of the current address is evaluated. In the result table,
It should be stored at a lower address.

【0056】一方、現在のアドレスのレコードにおける
エラー合計数が、第x番目のレコードにおけるエラー合
計数より小さいと判定した場合、CPU11は、“y”
に“6”を代入し、評価結果テーブルの第6番目に格納
されたレコードを比較対象として設定する(ステップS
103)。次に、CPU11は、“y”が“x”と等し
いか否かの判定を行い(ステップS104)、“y”が
“x”と等しくないと判定した場合、評価対象テーブル
に現在のアドレスのレコードを加え、順序を変更する必
要があることから、CPU11は、第y−1番目のレコ
ードを第y番目のレコードに繰り下げる(ステップS1
05)。
On the other hand, when the CPU 11 determines that the total number of errors in the record of the current address is smaller than the total number of errors in the xth record, the CPU 11 outputs "y".
“6” is substituted into and the sixth record stored in the evaluation result table is set as the comparison target (step S
103). Next, the CPU 11 determines whether or not “y” is equal to “x” (step S104), and when it is determined that “y” is not equal to “x”, the evaluation target table stores the current address. Since it is necessary to add a record and change the order, the CPU 11 lowers the (y-1) th record to the yth record (step S1).
05).

【0057】そして、CPU11は、“y”を“y−
1”に変更(調査対象としてより高い可能性の候補に比
較対象を変更)し(ステップS106)、ステップS1
04の処理に移行する。一方、ステップS104におい
て、“y”が“x”と等しいと判定した場合、CPU1
1は、第x番目の候補のレコードとして、現在のアドレ
スのレコードを格納し(ステップS107)、認識・検
索処理のメインフローに戻る。
The CPU 11 then replaces "y" with "y-
1 "(change the comparison target to a candidate with a higher possibility as a research target) (step S106), and then step S1
The processing moves to 04. On the other hand, when it is determined in step S104 that “y” is equal to “x”, the CPU 1
1 stores the record of the current address as the x-th candidate record (step S107), and returns to the main flow of the recognition / search process.

【0058】また、ステップS102において、現在の
アドレスのレコードにおけるエラー合計数が、第x番目
のレコードにおけるエラー合計数より小さくないと判定
した場合、CPU11は、“x”を“x+1”に変更
(調査対象としてより低い可能性の候補に比較対象を変
更)し(ステップS108)、次いで、“x”が“6”
より大であるか否かの判定を行う(ステップS10
9)。
When it is determined in step S102 that the total number of errors in the record of the current address is not smaller than the total number of errors in the xth record, the CPU 11 changes "x" to "x + 1" ( Change the comparison target to a candidate with a lower possibility as a survey target (step S108), and then "x" is "6"
It is determined whether or not it is larger (step S10).
9).

【0059】ステップS109において、“x”が
“6”より大でないと判定した場合、CPU11は、ス
テップS102の処理に移行し、一方、“x”が“6”
より大であると判定した場合、認識・検索処理のメイン
フローに戻る。このように、認識・検索処理および評価
結果テーブル更新処理が行われた結果、評価結果テーブ
ルには、調査対象として、可能性の高い第1〜第6の候
補のレコードが格納される。
When it is determined in step S109 that "x" is not greater than "6", the CPU 11 proceeds to the process of step S102, while "x" is "6".
When it is determined that it is larger, the process returns to the main flow of the recognition / search process. As a result of the recognition / retrieval process and the evaluation result table updating process as described above, the evaluation result table stores the first to sixth candidate records that are highly likely to be investigated.

【0060】そして、認識・検索処理において、これら
の候補は、LCD18に表示される。図10は、これら
第1〜第6の候補の花の画像が表示された状態を示す図
である。図10において、各花の画像は、ユーザが選択
可能に表示されており、ユーザは、これらの中から最も
調査対象として適切と考えられる画像を選択する。する
と、図11に示すように、その画像に対応する花の詳細
な情報がLCD18に表示される。
Then, in the recognition / retrieval process, these candidates are displayed on the LCD 18. FIG. 10 is a diagram showing a state in which images of these first to sixth candidate flowers are displayed. In FIG. 10, the image of each flower is displayed so that the user can select it, and the user selects the image that is considered to be the most appropriate as the survey target from these. Then, as shown in FIG. 11, detailed information of the flower corresponding to the image is displayed on the LCD 18.

【0061】なお、ユーザは、選択した候補が調査対象
でないと判断した場合、第1〜第6の候補を表示する画
面に戻り、他の候補を選択することが可能である。以上
のように、本発明を適用した電子図鑑1は、撮影された
調査対象の画像から所定の特徴(花あるいは葉の大き
さ、色、形状等)を抽出し、現在位置、現在時刻等と、
抽出した特徴とに基づいて、調査対象として可能性の高
い植物の情報を検索して表示する。そして、ユーザの選
択に応じて、これらの中から、特定の植物に関する詳細
な情報を表示する。
When the user determines that the selected candidate is not the survey target, the user can return to the screen displaying the first to sixth candidates and select another candidate. As described above, the electronic pictorial book 1 to which the present invention is applied extracts predetermined characteristics (size, color, shape of flower or leaf, etc.) from the photographed image of the survey target, and calculates the current position, current time, etc. ,
Based on the extracted features, information on plants that are likely to be surveyed is retrieved and displayed. Then, according to the user's selection, detailed information regarding a specific plant is displayed from among these.

【0062】したがって、ユーザは、調査対象を撮影す
ることのみで、その調査対象がいかなる植物であるかを
知ることができ、文書の図鑑等を調べることなく、植物
等の調査を行うことができる。即ち、文書の図鑑によっ
て植物等を調べる場合、ある程度の知識を有していない
と正確に調査対象を調べることが困難であるのに比べ、
極めて容易かつ迅速に目的とする調査対象物に関する情
報を検索することができる。そのため、子供から老人に
至るまで、特に、植物に関する知識が乏しいユーザや機
械の操作が不得手なユーザに利用価値のある電子図鑑を
提供することができる。
Therefore, the user can know what kind of plant the survey target is just by photographing the survey target, and can survey the plant etc. without checking the pictorial book or the like of the document. . That is, when examining plants etc. with a picture book of a document, it is difficult to accurately investigate the survey target unless you have some knowledge,
It is extremely easy and quick to retrieve information about a target survey object. Therefore, it is possible to provide a useful electronic picture book from children to elderly people, especially to users who have little knowledge about plants and users who are not good at operating machines.

【0063】また、GPSにより現在位置、標高等を把
握し、あるいは、リアルタイムクロック部17により現
在時刻を把握した上で、調査対象がこれらの情報に適合
するものであるか否かを加味した検索を行うため、検索
により提供される候補が、調査対象としてより適切なも
のとなり、検索精度の向上を図ることができる。なお、
本発明において、調査対象が検索され、ユーザによって
調査対象が確定された際、その調査対象の撮影された画
像を植物データベースに追加(および入れ替え)してい
くこととしてもよい。
Further, the current position, the altitude, etc. are grasped by the GPS, or the current time is grasped by the real-time clock unit 17, and then a search is made in consideration of whether or not the survey object is suitable for these information. Therefore, the candidates provided by the search become more appropriate as the survey target, and the search accuracy can be improved. In addition,
In the present invention, when the survey target is searched and the survey target is determined by the user, the photographed image of the survey target may be added (and replaced) to the plant database.

【0064】この場合、電子図鑑1を使用するにつれ、
植物データベースに格納される情報が豊富となり、例え
ば、同一の植物についても、サンプルとなる植物の画像
が増加することとなる。そのため、調査対象を検索する
処理において、より適切に候補を検索することが可能と
なる。
In this case, as the electronic picture book 1 is used,
The information stored in the plant database will be abundant, and, for example, even for the same plant, the number of images of the sample plant will increase. Therefore, it is possible to more appropriately search the candidates in the process of searching the survey target.

【0065】[0065]

【発明の効果】本発明によれば、被写体の画像から所定
の特徴(花あるいは葉の大きさ、色、形状等)を抽出
し、場所に関する情報、時間に関する情報と、抽出され
た特徴とに基づいて、検索対象の情報の表示等を行う。
したがって、ユーザは、検索対象の物体を撮影すること
のみで、その対象がいかなるものであるかを知ることが
でき、文書の図鑑等を調べることなく、対象の調査を行
うことができる。
According to the present invention, a predetermined feature (size, color, shape, etc. of a flower or leaf) is extracted from an image of a subject, and information about a place, information about time, and the extracted feature are extracted. Based on this, the information to be searched is displayed.
Therefore, the user can know what the target is just by photographing the object to be searched, and can investigate the target without checking a picture book or the like of the document.

【0066】即ち、文書の図鑑によって植物等の対象を
調べる場合、ある程度の知識を有していないと正確に対
象を調べることが困難であるのに比べ、極めて容易かつ
迅速に目的とする対象に関する情報を検索することがで
きる。そのため、子供から老人に至るまで、特に、植物
に関する知識が乏しいユーザや機械の操作が不得手なユ
ーザに利用価値のある情報提供装置を提供することがで
きる。
That is, when an object such as a plant is examined by a pictorial book of a document, it is difficult to accurately inspect the object unless one has some knowledge. You can search for information. Therefore, it is possible to provide a useful information providing device, from children to old people, especially to users who have little knowledge about plants and users who are not good at operating machines.

【0067】また、GPSにより現在位置、標高等を把
握し、あるいは、日時情報提供手段等により現在時刻を
把握した上で、対象がこれらの情報に適合するものであ
るか否かを加味した検索を行うため、検索される情報
が、対象としてより適切なものとなり、検索精度の向上
を図ることができる。
In addition, the current position, altitude, etc. are grasped by the GPS, or the current time is grasped by the date and time information providing means, etc., and the retrieval is made considering whether or not the target is suitable for these information. Therefore, the information to be searched becomes more appropriate as a target, and the search accuracy can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】電子図鑑1の機能構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a functional configuration of an electronic picture book 1.

【図2】電子図鑑1の斜視図である。FIG. 2 is a perspective view of an electronic picture book 1.

【図3】初期化された評価結果テーブルを示す図であ
る。
FIG. 3 is a diagram showing an initialized evaluation result table.

【図4】評価結果テーブルに、認識・検索処理の結果が
格納された状態を示す図である。
FIG. 4 is a diagram showing a state in which a result of recognition / search processing is stored in an evaluation result table.

【図5】植物データベースに記憶されたデータの一例を
示す図である。
FIG. 5 is a diagram showing an example of data stored in a plant database.

【図6】「植物の情報」、「花の情報」、「葉の情報」
の内容を示す図である。
[Fig. 6] "Plant information", "Flower information", "Leaf information"
It is a figure which shows the content of.

【図7】CPU11が実行する認識・検索処理を示すフ
ローチャート(その1)である。
FIG. 7 is a flowchart (part 1) showing a recognition / search process executed by the CPU 11.

【図8】CPU11が実行する認識・検索処理を示すフ
ローチャート(その2)である。
FIG. 8 is a flowchart (part 2) showing a recognition / search process executed by the CPU 11.

【図9】評価結果テーブル更新処理を示すフローチャー
トである。
FIG. 9 is a flowchart showing an evaluation result table updating process.

【図10】第1〜第6の候補の花の画像が表示された状
態を示す図である。
FIG. 10 is a diagram showing a state in which images of first to sixth candidate flowers are displayed.

【図11】特定の花の詳細な情報がLCD18に表示さ
れた状態を示す図である。
FIG. 11 is a diagram showing a state in which detailed information of a specific flower is displayed on LCD 18.

【符号の説明】[Explanation of symbols]

1 電子図鑑 11 CPU 12 CCDカメラ 13 距離センサ 14 GPS機能部 15 RAM 16 フラッシュROM 17 リアルタイムクロック部 18 LCD 19 タッチパネル 20 カメラシャッタ部 21 スピーカ 1 Electronic picture book 11 CPU 12 CCD camera 13 Distance sensor 14 GPS function section 15 RAM 16 Flash ROM 17 Real-time clock section 18 LCD 19 touch panel 20 Camera shutter part 21 speakers

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 複数の要素について所定の情報を格納す
る情報格納手段と、該情報格納手段から検索対象である
情報を検索する検索手段と、前記検索手段によって検索
された情報を利用者に提供可能な情報提供手段とを含む
情報提供装置であって、 検索対象である被写体を撮影する撮影手段と、 該撮影手段により撮影された画像を解析し、被写体の特
徴を抽出する特徴抽出手段と、 被写体が撮影された場所に関する情報を取得する場所情
報取得手段と、 被写体が撮影された日時に関する情報を取得する日時情
報取得手段と、 を含み、 前記情報格納手段は、前記要素の形態的特徴に関する情
報および前記要素の時間的分布あるいは地域的分布に関
する情報を格納し、前記検索手段は、抽出された前記被
写体の特徴が、前記形態的特徴に関する情報に適合する
か否かと、前記場所に関する情報あるいは前記日時に関
する情報が、前記時間的分布あるいは地域的分布に関す
る情報に適合するか否かとに基づいて、前記情報格納手
段から検索対象である情報を検索可能であることを特徴
とする情報提供装置。
1. An information storage unit for storing predetermined information about a plurality of elements, a search unit for searching the information storage unit for information to be searched, and a user provided with the information searched by the search unit. An information providing device including a possible information providing means, a photographing means for photographing a subject to be searched, a feature extracting means for analyzing an image photographed by the photographing means and extracting a characteristic of the subject, The information storage unit includes a location information acquisition unit that acquires information about a place where the subject is photographed, and a date and time information acquisition unit that acquires information about a date and time when the subject is photographed. Information and information on temporal distribution or regional distribution of the elements are stored, and the retrieval means relates to the extracted morphological characteristics of the subject. Based on whether or not the information is suitable and whether or not the information on the place or the information on the date and time is suitable for the information on the temporal distribution or the regional distribution, the information to be searched is retrieved from the information storage means. An information providing device characterized by being searchable.
【請求項2】 前記情報抽出手段は、前記被写体の特徴
として、被写体の全体に関する特徴と、被写体の部分に
関する特徴とをそれぞれ抽出可能であることを特徴とす
る請求項1記載の情報提供装置。
2. The information providing apparatus according to claim 1, wherein the information extracting means can extract, as the features of the subject, a feature relating to the whole subject and a feature relating to a part of the subject.
【請求項3】 前記情報格納手段は、前記要素である植
物に関する情報を格納し、前記特徴抽出手段は、前記被
写体の特徴として、植物の全体に関する特徴と、花に関
する特徴と、葉に関する特徴とをそれぞれ抽出可能であ
ることを特徴とする請求項2記載の情報提供装置。
3. The information storage means stores information about the plant, which is the element, and the feature extraction means includes, as the features of the subject, features relating to the entire plant, features relating to flowers, and features relating to leaves. The information providing apparatus according to claim 2, wherein each of the information can be extracted.
【請求項4】 前記特徴抽出手段は、被写体の大きさ、
色あるいは形状についての特徴を抽出可能であることを
特徴とする請求項1〜3のいずれかに記載の情報提供装
置。
4. The feature extracting means includes a size of a subject,
The information providing apparatus according to any one of claims 1 to 3, wherein a feature about a color or a shape can be extracted.
【請求項5】 前記場所情報取得手段は、GPSを用い
て自装置の場所を取得することを特徴とする請求項1〜
4のいずれかに記載の情報提供装置。
5. The location information acquisition means acquires the location of the own device using GPS.
4. The information providing device according to any one of 4 above.
【請求項6】 複数の要素について所定の情報を格納す
る情報格納手段と、該情報格納手段から検索対象である
情報を検索する検索手段とを含む情報提供装置における
情報提供方法であって、 前記情報格納手段に、前記要素の形態的特徴に関する情
報および前記要素の時間的分布あるいは地域的分布に関
する情報を格納しておき、 検索対象である被写体を撮影し、撮影された画像を解析
して被写体の特徴を抽出し、抽出された該被写体の特徴
が、前記形態的特徴に関する情報に適合するか否かと、
被写体が撮影された場所あるいは日時に関する情報が、
前記時間的分布あるいは地域的分布に関する情報に適合
するか否かとに基づいて、前記情報格納手段から検索対
象である情報を検索して利用者に提供することを特徴と
する情報提供方法。
6. An information providing method in an information providing apparatus, comprising: an information storage means for storing predetermined information about a plurality of elements; and a search means for searching information to be searched from the information storage means, The information storage means stores information on the morphological characteristics of the element and information on the temporal distribution or regional distribution of the element, photographs the subject to be searched, analyzes the photographed image, and analyzes the photographed image. Whether or not the extracted features of the subject match the information on the morphological features,
Information about the place where the subject was shot or the date and time
An information providing method comprising: searching for information to be searched from the information storage means and providing the information to the user based on whether or not the information about the temporal distribution or the regional distribution is met.
【請求項7】 前記被写体の特徴として、被写体の全体
に関する特徴と、被写体の部分に関する特徴とをそれぞ
れ抽出することを特徴とする請求項6記載の情報提供方
法。
7. The information providing method according to claim 6, wherein the features of the entire subject and the features of the portion of the subject are extracted as the features of the subject.
【請求項8】 前記情報格納手段は、前記要素である植
物に関する情報を格納し、前記被写体の特徴として、植
物の全体に関する特徴と、花に関する特徴と、葉に関す
る特徴とをそれぞれ抽出することを特徴とする請求項7
記載の情報提供方法。
8. The information storage means stores information about a plant that is the element, and extracts, as the features of the subject, a feature about the whole plant, a feature about a flower, and a feature about a leaf, respectively. Claim 7 characterized by
How to provide the described information.
【請求項9】 前記被写体の特徴として、被写体の大き
さ、色あるいは形状についての特徴を抽出することを特
徴とする請求項6〜8のいずれかに記載の情報提供方
法。
9. The information providing method according to claim 6, wherein a feature about a size, a color, or a shape of the subject is extracted as the feature of the subject.
【請求項10】 GPSを用いて、前記情報提供装置の
場所を取得することを特徴とする請求項6〜9のいずれ
かに記載の情報提供方法。
10. The information providing method according to claim 6, wherein the location of the information providing device is acquired using GPS.
JP2002089828A 2002-03-27 2002-03-27 Information providing device and information providing method Withdrawn JP2003288363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002089828A JP2003288363A (en) 2002-03-27 2002-03-27 Information providing device and information providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002089828A JP2003288363A (en) 2002-03-27 2002-03-27 Information providing device and information providing method

Publications (1)

Publication Number Publication Date
JP2003288363A true JP2003288363A (en) 2003-10-10

Family

ID=29235310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002089828A Withdrawn JP2003288363A (en) 2002-03-27 2002-03-27 Information providing device and information providing method

Country Status (1)

Country Link
JP (1) JP2003288363A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119797A (en) * 2004-10-20 2006-05-11 Sony Ericsson Mobilecommunications Japan Inc Information providing system and mobile temrinal
JP2007094962A (en) * 2005-09-30 2007-04-12 Seiko Epson Corp Specifying of object expressed in image
JP2007133816A (en) * 2005-11-14 2007-05-31 Nikon Corp Plant identification system and organism identification system
JP2011192273A (en) * 2010-03-11 2011-09-29 Ricoh Co Ltd System, method and program for retrieving representative image in image set
JP2012199885A (en) * 2011-03-23 2012-10-18 Japan Research Institute Ltd Photographing support device and photographing support method
US8600971B2 (en) 2011-08-29 2013-12-03 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for examining an object on an imaged image
US8687012B2 (en) 2011-08-29 2014-04-01 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for adjusting a position of an object to be imaged on a display
US9477902B2 (en) 2011-04-08 2016-10-25 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for presenting image candidates having similarity to an imaged image
JP2016533679A (en) * 2014-07-18 2016-10-27 小米科技有限責任公司Xiaomi Inc. Imaging method, apparatus, program, and recording medium
US9967456B2 (en) 2014-07-18 2018-05-08 Xiaomi Inc. Photographing method and device
CN111897531A (en) * 2020-07-23 2020-11-06 北京师范大学 Open type electronic drawing book making platform and method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119797A (en) * 2004-10-20 2006-05-11 Sony Ericsson Mobilecommunications Japan Inc Information providing system and mobile temrinal
JP4697931B2 (en) * 2004-10-20 2011-06-08 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 Information providing system and portable terminal
JP2007094962A (en) * 2005-09-30 2007-04-12 Seiko Epson Corp Specifying of object expressed in image
JP4735168B2 (en) * 2005-09-30 2011-07-27 セイコーエプソン株式会社 Identifying the subject expressed in the image
JP2007133816A (en) * 2005-11-14 2007-05-31 Nikon Corp Plant identification system and organism identification system
JP2011192273A (en) * 2010-03-11 2011-09-29 Ricoh Co Ltd System, method and program for retrieving representative image in image set
JP2012199885A (en) * 2011-03-23 2012-10-18 Japan Research Institute Ltd Photographing support device and photographing support method
US9477902B2 (en) 2011-04-08 2016-10-25 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for presenting image candidates having similarity to an imaged image
US8600971B2 (en) 2011-08-29 2013-12-03 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for examining an object on an imaged image
US8687012B2 (en) 2011-08-29 2014-04-01 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for adjusting a position of an object to be imaged on a display
JP2016533679A (en) * 2014-07-18 2016-10-27 小米科技有限責任公司Xiaomi Inc. Imaging method, apparatus, program, and recording medium
US9967456B2 (en) 2014-07-18 2018-05-08 Xiaomi Inc. Photographing method and device
CN111897531A (en) * 2020-07-23 2020-11-06 北京师范大学 Open type electronic drawing book making platform and method

Similar Documents

Publication Publication Date Title
US7663671B2 (en) Location based image classification with map segmentation
US9008438B2 (en) Image processing device that associates photographed images that contain a specified object with the specified object
US7376276B2 (en) Indexing, storage and retrieval of digital images
EP1770554B1 (en) Image analysis apparatus and image analysis program storage medium
US20030193582A1 (en) Method for storing an image, method and system for retrieving a registered image and method for performing image processing on a registered image
US8320609B2 (en) Device and method for attaching additional information
JP2008521133A (en) Distribution-based event clustering
JP2015501982A (en) Automatic tag generation based on image content
CN109348120B (en) Shooting method, image display method, system and equipment
JP2010509668A (en) Method and apparatus for identifying an object acquired by a digital image
JP2003288363A (en) Information providing device and information providing method
US20170293637A1 (en) Automated multiple image product method
JP4090926B2 (en) Image storage method, registered image retrieval method and system, registered image processing method, and program for executing these methods
US20060120686A1 (en) Method, apparatus and system for storage and retrieval of images
KR101415133B1 (en) Information processor, method, and program
CN111078924A (en) Image retrieval method, device, terminal and storage medium
US20060036948A1 (en) Image selection device and image selecting method
JP2003288601A (en) Imaging apparatus, image processing apparatus, image processing method, and method of image information classification service
JP3673615B2 (en) Image processing apparatus and control method thereof
JP5782035B2 (en) Information processing apparatus, processing method, computer program, and integrated circuit
JP4542013B2 (en) Print order system, program, program storage medium, and print order server
CN107688623A (en) A kind of search method in kind, device, equipment and storage medium
US20130185305A1 (en) Keyword assignment apparatus and recording medium
JP2006309600A (en) Retrieval system
JP2006101156A (en) Information processing device and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607