JPH10254903A - Image retrieval method and device therefor - Google Patents

Image retrieval method and device therefor

Info

Publication number
JPH10254903A
JPH10254903A JP9061075A JP6107597A JPH10254903A JP H10254903 A JPH10254903 A JP H10254903A JP 9061075 A JP9061075 A JP 9061075A JP 6107597 A JP6107597 A JP 6107597A JP H10254903 A JPH10254903 A JP H10254903A
Authority
JP
Japan
Prior art keywords
image
search
information
unit
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9061075A
Other languages
Japanese (ja)
Inventor
Hideyuki Kobayashi
秀行 小林
Shunji Ota
俊二 太田
Yoriyuki Okochi
頼行 大河内
Toshiyuki Iwaoka
俊行 岩岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP9061075A priority Critical patent/JPH10254903A/en
Publication of JPH10254903A publication Critical patent/JPH10254903A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically and effectively acquire the information on an unknown object based on its image by retrieving an image data base based on the retrieval object image and also the environmental information defined when the object image is acquired. SOLUTION: A user photographs an object via a camera part 1 to retrieve an unknown object. If the composition of the photographed image is inappropriate, the user corrects the composition via a composition change part 3 to acquire an image of optimum composition. Then the user cuts out the contour of the optimum image shown at a display part 14 via a pen input part 4 and extracts the image at an image extraction part 5. The extracted image is converted into an object binary image at an object image conversion part 6. Meanwhile, the object size is calculated from the photographed image, and the data image acquired by retrieving an image data base 11 is converted into a binary image at a data image conversion part 12 as long as the data image has a size equal to the object. Then the binary image is compared with the object binary image at an image comparison part 10. When the highest similarity is decided between both binary images, the data are extracted from the acquired image. Then the retrieval result is outputted as an image via a result display control part 13.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像検索方法お
よび装置に関し、特に、未知の対象を撮影することで、
その画像から対象に関する情報を自動的に得ることがで
きる画像検索方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image retrieval method and apparatus, and more particularly to an image retrieval method for photographing an unknown object.
The present invention relates to an image search method and apparatus capable of automatically obtaining information on an object from an image.

【0002】[0002]

【従来の技術】従来、所望の画像を画像データベースか
ら検索する場合、入力した画像と画像データベース中の
画像という2つの画像データの一致度により、所望の画
像を得るという方法が知られている。
2. Description of the Related Art Conventionally, when a desired image is retrieved from an image database, there is known a method of obtaining a desired image based on the degree of coincidence between two image data, that is, an input image and an image in the image database.

【0003】また、入力した画像データには、背景など
のような対象とは直接関係のない画像データもふくまれ
ているので、この入力した画像データを用いて画像デー
タベースを検索するには、必要なオブジェクトのみを切
り出す必要があるが、その方法としては、線画情報から
オブジェクトの輪郭を抽出するということが従来から行
われている。
Further, since the input image data includes image data which is not directly related to the object such as the background, it is necessary to search the image database using the input image data. It is necessary to cut out only a simple object, but as a method of extracting the outline of the object from the line drawing information, it has been conventionally performed.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、入力し
た画像と画像データベース中の画像という2つの画像デ
ータの一致度により、所望の画像を得るという方法にお
いては、対象の全体画像を使って検索するというだけ
で、類似のものが多数候補として考えられてしまい対象
の絞り込みがうまくいかないという問題点があった。
However, in a method of obtaining a desired image based on the degree of coincidence between two image data, that is, an input image and an image in an image database, a search is performed using the entire image of the object. However, there is a problem that similar objects are considered as a large number of candidates, and it is difficult to narrow down targets.

【0005】また、必要なオブジェクトを切り出すため
に線画情報からオブジェクトの輪郭を抽出する方法にお
いては、オブジェクトの属性に関する情報を得ることが
できないため、検索のための情報が不足し、期待される
ような検索結果がなかなか得られないという問題点があ
った。
In the method of extracting the outline of an object from line drawing information in order to cut out a necessary object, information on the attribute of the object cannot be obtained, so that information for search is insufficient, so that it is expected. There was a problem that it was difficult to obtain a good search result.

【0006】そこで、この発明は、未知の対象画像から
その対象に関する情報を自動的かつ効率良く取得するこ
とができる画像検索方法および装置を提供することを目
的とする。
Accordingly, an object of the present invention is to provide an image search method and apparatus capable of automatically and efficiently obtaining information on an unknown target image from the target image.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、請求項1の発明は、検索対象画像に基づき画像デー
タベースを検索して該検索対象画像に関する情報を取得
する画像検索方法において、上記検索対象画像とともに
該検索対象画像取得時の環境情報を入力し、上記検索対
象画像および上記環境情報に基づき上記画像データベー
スを検索することを特徴とする。
In order to achieve the above object, according to a first aspect of the present invention, there is provided an image search method for searching an image database based on a search target image and acquiring information on the search target image. Environment information at the time of acquisition of the search target image is input together with the target image, and the image database is searched based on the search target image and the environment information.

【0008】ここで、環境情報とは、検索対象画像を取
得したときの条件を表現する情報である。取得場所の位
置の情報、取得時間の情報、取得に用いた装置や手法に
関する情報、その画像を取得した際の観測対象物に関す
る情報、取得場所での気候や照明や温度・湿度などの環
境条件に関する情報がこれに含まれる。
Here, the environment information is information expressing conditions at the time when the search target image is obtained. Information on the location of the acquisition location, information on the acquisition time, information on the device and method used for acquisition, information on the observation target when the image was acquired, environmental conditions such as climate, lighting, temperature and humidity at the acquisition location This includes information about

【0009】また、請求項2の発明は、請求項1の発明
において、上記検索対象画像は、撮像手段による撮像に
より取得された撮像画像であることを特徴とする。
Further, the invention of claim 2 is characterized in that, in the invention of claim 1, the search target image is a picked-up image obtained by image pick-up by an image pick-up means.

【0010】また、請求項3の発明は、請求項2の発明
において、上記環境情報は、上記撮像手段のパラメータ
情報により算出した上記撮像画像の実際の大きさを示す
大きさ情報であることを特徴とする。
According to a third aspect of the present invention, in the second aspect of the present invention, the environment information is size information indicating an actual size of the captured image calculated based on parameter information of the imaging means. Features.

【0011】また、請求項4の発明は、請求項3の発明
において、上記パラメータ情報は、上記撮像手段のズー
ム比を示すズーム情報であり、上記大きさ情報は、上記
ズーム情報および上記撮像手段から撮像対象オブジェク
トまでの距離を示す距離情報および上記撮像手段で撮像
した撮像画面内に示す相対的大きさを示す相対大きさ情
報に基づき算出されることを特徴とする。
According to a fourth aspect of the present invention, in the third aspect of the invention, the parameter information is zoom information indicating a zoom ratio of the imaging means, and the size information is the zoom information and the imaging means. The distance is calculated based on distance information indicating a distance from the object to the object to be imaged and relative size information indicating a relative size shown in the image screen captured by the image capturing means.

【0012】また、請求項5の発明は、請求項4の発明
において、上記距離情報は、上記撮像手段のオートフォ
ーカスを制御するオートフォーカス情報に基づき算出さ
れることを特徴とする。
According to a fifth aspect of the present invention, in the fourth aspect of the present invention, the distance information is calculated based on autofocus information for controlling autofocus of the image pickup means.

【0013】また、請求項6の発明は、請求項4の発明
において、上記距離情報は、上記撮像手段から撮像対象
オブジェクトまでの距離を計測する距離計測手段の計測
出力に基づき求められることを特徴とする。
According to a sixth aspect of the present invention, in the fourth aspect of the invention, the distance information is obtained based on a measurement output of a distance measuring means for measuring a distance from the imaging means to the object to be imaged. And

【0014】また、請求項7の発明は、請求項2の発明
において、上記環境情報は、上記撮像手段により取得さ
れた撮像画像の取得位置の高度を示す高度情報であるこ
とを特徴とする。
According to a seventh aspect of the present invention, in the second aspect, the environment information is altitude information indicating an altitude of an acquisition position of a captured image acquired by the imaging means.

【0015】また、請求項8発明は、請求項2の発明に
おいて、上記環境情報は、上記撮像手段により取得され
た撮像画像の取得日時を示す日時情報であることを特徴
とする。
According to an eighth aspect of the present invention, in the second aspect, the environment information is date and time information indicating an acquisition date and time of a captured image acquired by the imaging means.

【0016】また、請求項9発明は、請求項2の発明に
おいて、上記環境情報は、上記撮像手段により取得され
た撮像画像の取得位置を示す位置情報であることを特徴
とする。
According to a ninth aspect of the present invention, in the second aspect of the present invention, the environment information is position information indicating an acquisition position of a captured image acquired by the imaging means.

【0017】また、請求項10の発明は、請求項2の発
明において、上記環境情報は、上記撮像手段により取得
された撮像画像の取得地域を示す地域情報であることを
特徴とする。
According to a tenth aspect of the present invention, in the second aspect, the environment information is area information indicating an acquisition area of a captured image acquired by the imaging means.

【0018】また、請求項11発明は、検索対象画像に
基づき画像データベースを検索して該検索対象画像に関
する情報を取得する画像検索装置において、上記検索対
象画像を取得する検索対象画像取得手段と、上記検索対
象画像取得手段による上記検索対象画像の取得環境を示
す環境情報を取得する環境情報取得手段と、上記検索対
象画像取得手段で取得した検索対象画像および上記環境
情報取得手段で取得した環境情報に基づき上記画像デー
タベースを検索する検索手段と、を具備することを特徴
とする。
According to an eleventh aspect of the present invention, there is provided an image search apparatus for searching an image database based on a search target image and obtaining information on the search target image, wherein: a search target image obtaining means for obtaining the search target image; Environment information obtaining means for obtaining environment information indicating an environment in which the search target image is obtained by the search target image obtaining means; search target images obtained by the search target image obtaining means; and environment information obtained by the environment information obtaining means And a search means for searching the image database based on the image database.

【0019】また、請求項12の発明は、請求項11の
発明において、上記検索対象画像取得手段は、上記検索
対象画像を撮像する撮像手段であることを特徴とする。
A twelfth aspect of the present invention is characterized in that, in the eleventh aspect of the present invention, the search target image obtaining means is an imaging means for picking up the search target image.

【0020】また、請求項13の発明は、請求項12の
発明において、上記環境情報取得手段は、上記撮像手段
のパラメータ情報により算出した上記撮像画像の実際の
大きさを示す大きさ情報を上記環境情報として取得する
ことを特徴とする。
According to a thirteenth aspect of the present invention, in the twelfth aspect of the present invention, the environment information obtaining means stores the size information indicating the actual size of the captured image calculated based on the parameter information of the imaging means. It is obtained as environmental information.

【0021】また、請求項14の発明は、請求項13の
発明において、上記パラメータ情報は、上記撮像手段の
ズーム比を示すズーム情報であり、上記大きさ情報は、
上記ズーム情報および上記撮像手段から撮像対象オブジ
ェクトまでの距離を示す距離情報および上記撮像手段で
撮像した撮像画面内に示す相対的大きさを示す相対大き
さ情報に基づき算出されることを特徴とする。
According to a fourteenth aspect, in the thirteenth aspect, the parameter information is zoom information indicating a zoom ratio of the imaging means, and the size information is
The distance is calculated based on the zoom information, the distance information indicating the distance from the imaging unit to the object to be imaged, and the relative size information indicating the relative size shown in the imaging screen imaged by the imaging unit. .

【0022】また、請求項15の発明は、請求項14の
発明において、上記距離情報は、上記撮像手段のオート
フォーカスを制御するオートフォーカス情報に基づき算
出されることを特徴とする。
According to a fifteenth aspect of the present invention, in the fourteenth aspect, the distance information is calculated based on autofocus information for controlling autofocus of the imaging means.

【0023】また、請求項16発明は、請求項14の発
明において、上記環境情報取得手段は、上記撮像手段か
ら撮像対象オブジェクトまでの距離を計測する距離計測
手段、を具備し、上記距離情報は、上記距離計測手段の
計測出力に基づき求められることを特徴とする。
In a sixteenth aspect based on the fourteenth aspect, the environment information acquiring means includes a distance measuring means for measuring a distance from the imaging means to the object to be imaged. , Based on the measurement output of the distance measuring means.

【0024】また、請求項17の発明は、請求項12の
発明において、上記環境情報取得手段は、上記撮像手段
により取得された撮像画像の取得位置の高度を示す高度
情報を計測する高度計測手段、を具備し、上記環境情報
は、上記高度計測手段で計測された高度情報であること
を特徴とする。
According to a seventeenth aspect of the present invention, in the twelfth aspect of the invention, the environment information acquiring means measures altitude information indicating an altitude of an acquisition position of a captured image acquired by the imaging means. , And wherein the environmental information is altitude information measured by the altitude measuring means.

【0025】また、請求項18の発明は、請求項12の
発明において、上記環境情報取得手段は、上記撮像手段
により取得された撮像画像の取得日時を示す日時情報を
計数する時計手段、を具備し、上記環境情報は、上記時
計手段で計数された日時情報であることを特徴とする。
According to an eighteenth aspect of the present invention, in the twelfth aspect of the present invention, the environment information obtaining means includes clock means for counting date and time information indicating the date and time of acquisition of the captured image acquired by the imaging means. The environmental information is date and time information counted by the clock means.

【0026】また、請求項19の発明は、請求項12の
発明において、上記環境情報取得手段は、上記撮像手段
により取得された撮像画像の取得位置を示す位置情報を
計測する位置計測手段、を具備し、上記環境情報は、上
記位置計測手段により計測された位置情報であることを
特徴とする。
According to a nineteenth aspect of the present invention, in the twelfth aspect, the environment information acquiring means includes a position measuring means for measuring position information indicating an acquisition position of a captured image acquired by the imaging means. And wherein the environment information is position information measured by the position measurement means.

【0027】また、請求項20の発明は、請求項12の
発明において、上記環境情報は、上記撮像手段により取
得された撮像画像の取得地域を示す地域情報であること
を特徴とする。
According to a twentieth aspect of the present invention, in the twelfth aspect, the environment information is area information indicating an acquisition area of a captured image acquired by the imaging means.

【0028】また、請求項21の発明は、検索対象画像
を鍵として所定の検索アルゴリズムに基づき画像データ
ベースを検索して該検索対象画像に関する情報を取得す
る画像検索方法において、複数の検索アルゴリズムを保
持するアルゴリズムデータベースを設け、上記検索対象
画像を鍵とする上記画像データベースの検索に際して該
検索に適した検索アルゴリズムを上記アルゴリズムデー
タベースに保持された複数の検索アルゴリズムの中から
選択し、該選択した検索アルゴリズムを用いて上記画像
データベースを検索することを特徴とする。
According to a twenty-first aspect of the present invention, there is provided an image search method for searching an image database based on a predetermined search algorithm using an image to be searched as a key and acquiring information on the image to be searched, wherein a plurality of search algorithms are stored. A search algorithm suitable for the search is selected from a plurality of search algorithms stored in the algorithm database when searching the image database using the search target image as a key, and the selected search algorithm is selected. Is used to search the image database.

【0029】また請求項22の発明は、請求項21の発
明において、上記検索アルゴリズムの選択は、上記検索
対象画像に含まれるオブジェクトの種別に対応して行わ
れることを特徴とする。
According to a twenty-second aspect of the present invention, in the twenty-first aspect, the selection of the search algorithm is performed in accordance with the type of an object included in the search target image.

【0030】また請求項23の発明は、請求項21の発
明において、上記検索アルゴリズムの選択は、上記検索
対象画像に含まれるオブジェクトの特徴に対応して行わ
れることを特徴とする。
According to a twenty-third aspect of the present invention, in the twenty-first aspect, the selection of the search algorithm is performed in accordance with a feature of an object included in the search target image.

【0031】また請求項24の発明は、検索対象画像を
鍵として所定の検索アルゴリズムに基づき画像データベ
ースを検索して該検索対象画像に関する情報を取得する
画像検索装置において、複数の検索アルゴリズムを保持
するアルゴリズムデータベースと、上記検索対象画像を
鍵とする上記画像データベースの検索に際して上記アル
ゴリズムデータベースに保持された複数の検索アルゴリ
ズムの中から該検索に適した検索アルゴリズムを選択す
る選択手段と、上記選択手段により選択された検索アル
ゴリズムを用いて上記画像データベースを検索する検索
手段と、を具備することを特徴とする。
According to a twenty-fourth aspect of the present invention, there is provided an image search apparatus which searches an image database based on a predetermined search algorithm using a search target image as a key and acquires information on the search target image, and holds a plurality of search algorithms. An algorithm database, selecting means for selecting a search algorithm suitable for the search from a plurality of search algorithms stored in the algorithm database when searching the image database using the search target image as a key, Search means for searching the image database using the selected search algorithm.

【0032】また請求項25の発明は、請求項24の発
明において、上記選択手段は、上記検索対象画像に含ま
れるオブジェクトの種別に対応して上記検索アルゴリズ
ムの選択を行なうことを特徴とする。
According to a twenty-fifth aspect of the present invention, in the twenty-fourth aspect, the selection means selects the search algorithm in accordance with a type of an object included in the search target image.

【0033】また請求項26の発明は、請求項24の発
明において、上記選択手段は、上記検索対象画像に含ま
れるオブジェクトの特徴に対応して上記検索アルゴリズ
ムの選択を行なうことを特徴とする。
According to a twenty-sixth aspect of the present invention, in the twenty-fourth aspect, the selecting means selects the search algorithm in accordance with a feature of an object included in the search target image.

【0034】[0034]

【発明の実施の形態】以下、この発明の実施の形態につ
いて添付図面を参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0035】図1は、この発明に係わる画像検索装置の
一実施の形態を概略ブロック図で示したものである。
FIG. 1 is a schematic block diagram showing an embodiment of an image retrieval apparatus according to the present invention.

【0036】図1において、カメラ部1は、例えばCC
Dを用いた小型カメラ部で、使用者が情報を知りたい対
象を含む画像を撮影する。
In FIG. 1, the camera unit 1 is, for example, CC
An image including an object for which the user wants to know information is captured by a small camera unit using D.

【0037】画像蓄積部2は、画像データを蓄積するメ
モリである。カメラ部1は使用者の指示に応じて撮影を
開始し、使用者が撮影方向及び撮影範囲を調整し、操作
することで対象を含む画像を撮影画像として画像蓄積部
2に取り込む。
The image storage section 2 is a memory for storing image data. The camera unit 1 starts photographing in accordance with a user's instruction, and the user adjusts the photographing direction and the photographing range, and operates to take an image including the target into the image storage unit 2 as a photographed image.

【0038】表示部14は、例えば、LCDを用いた表
示装置から構成され、画像蓄積部2に蓄積された画像デ
ータや付加情報を表示することで、使用者に対し各種情
報を提供する。
The display unit 14 is composed of, for example, a display device using an LCD, and provides various information to the user by displaying image data and additional information stored in the image storage unit 2.

【0039】構図指示格納部30は、適切な構図を示す
一般的あるいは対象種別に応じた情報を格納する。
The composition instruction storage section 30 stores information indicating an appropriate composition, which is general or according to the type of object.

【0040】移動物体センサ31は、超音波ドラップ効
果を用いて移動する物体を検出するもので、マイク32
は、周辺の音を取り込むものである。
The moving object sensor 31 detects a moving object using the ultrasonic drap effect, and a microphone 32
Is to capture surrounding sounds.

【0041】自動取り込み制御部33は、移動物体セン
サ31またはマイク32の出力に応じてカメラ部1から
画像蓄積部2への画像の自動取り込みを制御する。
The automatic capture control unit 33 controls automatic capture of an image from the camera unit 1 to the image storage unit 2 according to the output of the moving object sensor 31 or the microphone 32.

【0042】超音波距離センサ36は、超音波を用いて
対象までの距離を測定するもので、レーザ距離測定部3
7は、レーザ光線を用いて対象までの距離を測定するも
のである。
The ultrasonic distance sensor 36 measures the distance to the object using ultrasonic waves.
Numeral 7 is for measuring the distance to the target using a laser beam.

【0043】撮影倍率計算部38は、カメラ部1からの
光学系情報または超音波距離センサ36またはレーザ距
離測定部37からの出力の一部または全部を使用して撮
影像の倍率を計算する。
The photographing magnification calculating section 38 calculates the magnification of the photographed image using a part or all of the optical system information from the camera section 1 or the output from the ultrasonic distance sensor 36 or the laser distance measuring section 37.

【0044】構図変更部3は、カメラ部1が取り込んだ
画像蓄積部2内の撮影画像から対象の構図を判断し、対
象の画像を拡大・移動・回転し、画像データベース11
上の画像データと最も比較しやすい構図となる最適構図
画像に変換する。
The composition changing unit 3 judges the composition of the target from the captured image in the image storage unit 2 captured by the camera unit 1, enlarges, moves, and rotates the target image, and
The image data is converted into an optimal composition image having a composition most easily compared with the above image data.

【0045】ペン入力部4は、表示部の表示画面上に装
着したタッチパネル及びペン型のポインティングデバイ
スから構成する。
The pen input unit 4 includes a touch panel and a pen-type pointing device mounted on the display screen of the display unit.

【0046】画像抽出部5は、構図変更部3で変換した
最適構図画像とペン入力部4で指定した画像上の座標を
用いて対象の画像の注目する部分を切り出し、背景を取
り除いた対象画像を抽出する。
The image extracting section 5 cuts out a portion of interest of the target image using the optimum composition image converted by the composition changing section 3 and the coordinates on the image specified by the pen input section 4, and removes the background from the target image. Is extracted.

【0047】対象画像変換部6は、対象画像データを2
値化することにより対象2値画像を生成する。
The target image converter 6 converts the target image data into 2
The target binary image is generated by the binarization.

【0048】画像データベース11は、対象を検索する
ために必要な複数のデータ画像を蓄積している。蓄積す
る画像は自然画像であり、それぞれの画像に関連する付
加情報も同時に蓄積する。
The image database 11 stores a plurality of data images necessary for searching for an object. The image to be stored is a natural image, and additional information related to each image is also stored at the same time.

【0049】データ画像変換部12は、画像データベー
ス11に蓄積した画像を対象画像変換部6と同様の手法
でデータ2値画像に変換する。
The data image converter 12 converts the image stored in the image database 11 into a data binary image in the same manner as the target image converter 6.

【0050】画像比較部10は、使用者が対象を撮影し
た画像から生成した対象2値画像と画像データベース1
1中の画像を変換したデータ2値画像とを比較し、類似
度を算出する。
The image comparison unit 10 includes a target binary image generated from an image obtained by capturing a target by a user and the image database 1.
A similarity is calculated by comparing the image in 1 with the converted binary image.

【0051】結果表示制御部13は、検索結果に対応す
る画像データベース11上の付加情報を引き出し、表示
部14に出力する。
The result display control unit 13 extracts the additional information on the image database 11 corresponding to the search result, and outputs it to the display unit 14.

【0052】制御部100は、この画像検索装置の各部
を接続し、データを転送したり処理の連携をとる。
The control section 100 connects each section of the image search apparatus, transfers data and cooperates with processing.

【0053】図2は、図1に示した画像検索装置の外観
の一例を正面図で示したものである。この画像検索装置
は、上述したように、使用者が情報を知りたい対象を撮
像するカメラ部1を有しており、図2において、1a
は、このカメラ部1の対物レンズを示し、1bは、この
カメラ部1のシャッタボタンを示す。
FIG. 2 is a front view showing an example of the appearance of the image retrieval apparatus shown in FIG. As described above, this image search device has the camera unit 1 that captures an image of an object for which the user wants to know information.
Denotes an objective lens of the camera unit 1 and 1b denotes a shutter button of the camera unit 1.

【0054】図3は、図2に示したこの画像検索装置の
外観を背面図で示したものである。
FIG. 3 is a rear view showing the appearance of the image retrieval apparatus shown in FIG.

【0055】図3に示すように、この画像検索装置の背
面には、図1に示した表示部14の表示画面14aが形
成されている。なお、図3において、14bは、表示画
面14a上に表示された表示画面をスクロールするため
のスクロールボタンである。
As shown in FIG. 3, a display screen 14a of the display unit 14 shown in FIG. 1 is formed on the back of the image search device. In FIG. 3, 14b is a scroll button for scrolling the display screen displayed on the display screen 14a.

【0056】次に、図1に示した画像検索装置の動作を
図4を用いて説明する。
Next, the operation of the image retrieval apparatus shown in FIG. 1 will be described with reference to FIG.

【0057】図4は、図1に示した画像検索装置の処理
の流れを示す流れ図である。
FIG. 4 is a flowchart showing the flow of the processing of the image retrieval apparatus shown in FIG.

【0058】まず、使用者の操作でカメラ部1が撮影を
開始する。このカメラ部1で撮影している範囲の画像は
表示部14に表示される。これにより、使用者は知りた
いと思う対象が撮影範囲に入っているかを容易に判断す
ることができる。
First, the camera section 1 starts photographing by a user's operation. The image in the range photographed by the camera unit 1 is displayed on the display unit 14. Thus, the user can easily determine whether the object to be known is within the shooting range.

【0059】使用者は、表示部14に表示される画像を
見て、カメラ部1の撮影画像が対象範囲にある時、図2
および図3に示したシャッタボタン1bを押すことで表
示部14に表示していた静止画像、すなわちカメラ部1
の撮影画像を画像蓄積部2内に取り込む。この時のカメ
ラ部1の撮影画像の一例を図5に示す。
The user looks at the image displayed on the display unit 14, and when the image captured by the camera unit 1 is within the target range, the user can see FIG.
And a still image displayed on the display unit 14 by pressing the shutter button 1b shown in FIG.
Is taken into the image storage unit 2. FIG. 5 shows an example of a captured image of the camera unit 1 at this time.

【0060】また、撮影倍率計算部38は、カメラ部1
から出力されるオートフォーカスやレンズ特性などの光
学系の情報または超音波距離センサ36の出力またはレ
ーザ距離測定部37の出力から対象までの距離を計算
し、この計算された対象までの距離とレンズ特性などの
光学系の情報から撮影画像内の対象の像と実際の対象と
の大きさの比率すなわち倍率を計算する。
Further, the photographing magnification calculating section 38 includes the camera section 1
Calculates the distance to the target from the information of the optical system such as the auto focus and the lens characteristics output from the microcomputer or the output of the ultrasonic distance sensor 36 or the output of the laser distance measuring unit 37, and calculates the calculated distance to the target and the lens From the information of the optical system such as characteristics, the ratio of the size of the target image in the captured image to the actual target, that is, the magnification, is calculated.

【0061】この撮影倍率計算部38で計算された倍率
は、後に詳述するように、制御部100によって画像比
較部10に送られ、画像データベース11に対する画像
検索時のフィルターとして利用される。
The magnification calculated by the photographing magnification calculator 38 is sent to the image comparator 10 by the controller 100 and used as a filter when searching the image database 11 for images, as will be described in detail later.

【0062】次に、画像蓄積部2上の撮影画像から構図
変更部3が構図を判断し、その変更を行う。
Next, the composition changing unit 3 judges the composition from the photographed image on the image storage unit 2 and changes the composition.

【0063】すなわち、カメラ部1で撮像された対象の
画像であるオブジェクトが画面中央にない場合は、その
オブジェクトを画面中央に移動させる構図変更を行な
う。
That is, when the object which is the target image picked up by the camera section 1 is not at the center of the screen, the composition is changed to move the object to the center of the screen.

【0064】また、カメラ部1で撮像された対象の画像
であるオブジェクトが画面全体の大きさと比較して小さ
い場合は、画面の大きさに収まるようにオブジェクトを
拡大する構図変更を行なう。
When the object which is the target image captured by the camera unit 1 is smaller than the size of the entire screen, the composition is changed so that the object is enlarged so as to fit in the size of the screen.

【0065】構図変更部3は、このような処理を画像蓄
積部2内の画像に対して行い、最適構図画像を生成す
る。この構図変更部3で生成された最適構図画像の一例
を図6に示す。
The composition changing section 3 performs such processing on the image in the image storage section 2 to generate an optimum composition image. FIG. 6 shows an example of the optimum composition image generated by the composition changing unit 3.

【0066】構図変更部3により変更された最適構図画
像を表示部14に表示させる。使用者はこの表示部14
に表示された最適構図画像を見ながら自分が知りたい対
象の座標をテンキー等を用いて入力し指定する。
The optimum composition image changed by the composition changing unit 3 is displayed on the display unit 14. The user uses this display unit 14
The user inputs and specifies the coordinates of the object that he or she wants to know while viewing the optimum composition image displayed in (1).

【0067】ここで、ペン入力部4が、ペン型入力デバ
イスである場合は、このペン型入力デバイスは、表示部
14の表示画面(LCD)の上に装着されたタッチパネ
ルを具備して構成され、このペン型入力デバイスによっ
てタッチパネルに圧力を加えることで注目する部分の位
置情報を入力することができる。このときペンが通過し
た軌跡は表示部14の画面上にインポーズされ、使用者
に分かり易く表示される。
Here, when the pen input unit 4 is a pen-type input device, the pen-type input device is provided with a touch panel mounted on a display screen (LCD) of the display unit 14. By applying pressure to the touch panel with this pen-type input device, it is possible to input position information of a portion of interest. At this time, the locus that the pen has passed is imposed on the screen of the display unit 14 and is displayed in a manner that is easy for the user to understand.

【0068】ここで、対象を囲む線は連続していなくて
もよく、途切れている場合は最も近い端点をつなげた線
を仮想的に想定する。
Here, the line surrounding the object does not have to be continuous, and if it is interrupted, a line connecting the nearest end points is virtually assumed.

【0069】画像抽出部5では、ペン入力部4によって
入力した対象の輪郭情報を利用し、背景となる部分の画
像を排除した対象のみの画像を抽出する。この処理は画
像蓄積部2上で行い、得られる画像が対象画像となる。
このペン入力部4によって指定された画像の一例を図7
に示し、背景となる部分の画像を図8に示し、画像抽出
部5で抽出された対象画像の一例を図9に示す。
The image extracting unit 5 uses the outline information of the object input by the pen input unit 4 to extract only the image of the object excluding the background image. This processing is performed on the image storage unit 2, and the obtained image is the target image.
An example of an image specified by the pen input unit 4 is shown in FIG.
FIG. 8 shows an image of a background portion, and FIG. 9 shows an example of a target image extracted by the image extracting unit 5.

【0070】対象画像変換部6では、画像抽出部5で抽
出された対象画像を明度による基準値を設けて2値画像
に変換する。この2値画像を対象2値画像と呼び、この
対象2値画像の一例を図10に示す。この画像検索装置
においてはこの対象2値画像を検索のキーとして利用す
る。
The target image converter 6 converts the target image extracted by the image extractor 5 into a binary image by providing a reference value based on brightness. This binary image is called a target binary image, and an example of the target binary image is shown in FIG. In this image search device, the target binary image is used as a search key.

【0071】すなわち、画像データベース11は、対象
となる植物や動物の自然画像及びその名前や特徴などの
関連情報を蓄積する。画像データベース11に蓄積され
たデータ画像の一例を図11に示す。
That is, the image database 11 stores the natural images of the target plants and animals and related information such as the names and characteristics of the images. FIG. 11 shows an example of a data image stored in the image database 11.

【0072】画像比較部10に入力される対象の画像は
2値画像である。そこで、画像比較部10における比較
を行うために画像データベース11上のデータ画像を2
値画像に変更する必要がある。
The image to be input to the image comparing section 10 is a binary image. Therefore, in order to make a comparison in the image comparison unit 10, the data image on the image
Need to change to value image.

【0073】画像データベース11上のデータ画像の2
値画像への変換はデータ画像変換部12で行う。データ
画像変換部12は、対象画像変換部6が行うのと同様の
画像処理をデータ画像に対して行い、データ2値画像を
得る。データ画像変換部12で変換されたデータ2値画
像の一例を図12に示す。
The data image 2 on the image database 11
The conversion into the value image is performed by the data image conversion unit 12. The data image conversion unit 12 performs the same image processing as that performed by the target image conversion unit 6 on the data image to obtain a data binary image. FIG. 12 shows an example of the data binary image converted by the data image conversion unit 12.

【0074】データ画像変換部12で変換されたデータ
2値画像は、順次、画像比較部10に送られ、対象画像
変換部6で変換された対象2値画像と比較される。この
時検索補助情報格納部39に蓄積した倍率情報を画像検
索の際のフィルターとして利用する。
The data binary image converted by the data image conversion unit 12 is sequentially sent to the image comparison unit 10 and compared with the target binary image converted by the target image conversion unit 6. At this time, the magnification information stored in the search auxiliary information storage unit 39 is used as a filter at the time of image search.

【0075】例えば、対象画像と画像データベース11
に登録されているデータ画像の倍率情報に10倍以上の
開きがあった場合は、その画像データに関して比較を行
わない。この方法で、例えば、動物と昆虫などを比較的
高い信頼性で分類することができる。
For example, the target image and the image database 11
When the magnification information of the data image registered in the... Has a difference of 10 times or more, the comparison is not performed on the image data. In this way, for example, animals and insects can be classified with relatively high reliability.

【0076】画像比較部10における比較は2つの2値
画像を重ねて、データの一致する割合で判定する。ここ
で、データの一致する割合が多い時は、2つの画像の類
似度が高いと判断する。
In the comparison in the image comparing section 10, two binary images are superimposed, and a judgment is made based on a matching ratio of data. Here, when the ratio of matching data is large, it is determined that the similarity between the two images is high.

【0077】この処理は、画像データベース11上の検
索対象となる画像に対して順次同様に行われ、その結果
に基づき求める画像を決定する。すなわち、最終的には
最も類似度の高い画像を選択する。
This processing is sequentially performed in the same manner on the images to be searched in the image database 11, and the image to be obtained is determined based on the result. That is, the image having the highest similarity is finally selected.

【0078】結果表示制御部13は、類似度の高かった
データ2値画像の元となる自然画像(データ画像)及び
関連情報を画像データベース11から引き出し、表示部
14に表示する。
The result display control unit 13 extracts a natural image (data image) and related information from which the binary image of data having a high degree of similarity is based, from the image database 11 and displays it on the display unit 14.

【0079】このようにして、使用者は未知の対象を撮
影することで、自動的に図鑑を調べるように、対象に対
する情報を容易にまた瞬時に検索することができる。
In this way, the user can easily and instantly search for information on an object by photographing an unknown object, as if the user automatically checked the picture book.

【0080】次に、図13のフローチャートを参照して
上記画像検索装置の検索処理を更に詳細に説明する。
Next, the search processing of the image search apparatus will be described in more detail with reference to the flowchart of FIG.

【0081】図13において、まず、図1に示したカメ
ラ部1を用いて適当な構図で対象を撮影し(ステップ1
01)、撮影画像を取得する(ステップ102)。
In FIG. 13, first, an object is photographed with an appropriate composition using the camera unit 1 shown in FIG. 1 (step 1).
01), a captured image is obtained (step 102).

【0082】次に、撮影画像の構図が適当かを調べ(ス
テップ103)、適当でない場合は、構図変更部3で取
得撮影画像の構図の修正を行い(ステップ104)、最
適構図画像を得る(ステップ105)。
Next, it is checked whether the composition of the photographed image is appropriate (step 103). If the composition is not appropriate, the composition changing unit 3 corrects the composition of the acquired photographed image (step 104) to obtain an optimal composition image (step 104). Step 105).

【0083】その後、ペン入力部4を用いて表示部14
に表示された表示画像の対象の輪郭をペンで囲み対象の
切り出しを行い(ステップ106)、画像抽出部5で対
象画像を抽出する(ステップ107)。
Thereafter, the display unit 14 is displayed using the pen input unit 4.
The outline of the target of the display image displayed in is displayed with a pen, and the target is cut out (step 106), and the target image is extracted by the image extraction unit 5 (step 107).

【0084】画像抽出部5で抽出した対象画像は、対象
画像変換部6で2値画像に変換し(ステップ108)、
対象2値画像を得る(ステップ109)。
The target image extracted by the image extractor 5 is converted into a binary image by the target image converter 6 (step 108).
A target binary image is obtained (step 109).

【0085】一方、ステップ102で得られた撮影画像
から対象の大きさが算出され(ステップ110)、対象
の大きさデータが取得される(ステップ111)。
On the other hand, the size of the object is calculated from the photographed image obtained in step 102 (step 110), and the size data of the object is obtained (step 111).

【0086】次に、画像データベース11の検索を行い
(ステップ112)、画像データベース11の検索から
得られたデータ画像が対象の大きさとほぼ同じかを調べ
る(ステップ113)。
Next, the image database 11 is searched (step 112), and it is checked whether or not the data image obtained by the search of the image database 11 is almost the same size as the object (step 113).

【0087】ここで、対象の大きさとほぼ同じでないと
判断されると、ステップ112に戻り、次の候補を検索
する。
If it is determined that the size is not substantially the same as the size of the object, the process returns to step 112 to search for the next candidate.

【0088】また、ステップ113で、対象の大きさと
ほぼ同じであると判断されると、データ画像変換部12
で、このデータ画像を2値画像に変換し(ステップ11
4)、データ2値画像を得る。
If it is determined in step 113 that the size is almost the same as the size of the object, the data image
This data image is converted into a binary image (step 11).
4) Obtain a data binary image.

【0089】次に、ステップ109で得られた対象2値
画像とステップ115で得られたデータ2値画像とを画
像比較部10で比較し、その類似度を計算する(ステッ
プ116)。
Next, the target binary image obtained in step 109 and the data binary image obtained in step 115 are compared by the image comparing section 10, and the similarity is calculated (step 116).

【0090】そして、このステップ116で計算した類
似度が最も高い類似度かを調べ(ステップ117)、最
も高い類似度であると判断された場合はこの類似画像を
取得し(ステップ122)、ステップ119に進む。
Then, it is checked whether or not the similarity calculated in step 116 is the highest similarity (step 117). If it is determined that the similarity is the highest, this similar image is obtained (step 122). Go to 119.

【0091】また、ステップ117で、最も高い類似度
ではないと判断された場合は、最後のデータ画像かを調
べ(ステップ118)、最後のデータ画像でない場合は
ステップ112に戻り、最後のデータ画像である場合は
ステップ119に進む。
If it is determined in step 117 that the similarity is not the highest, it is checked whether it is the last data image (step 118). If it is not the last data image, the process returns to step 112, and the last data image is returned. If it is, the process proceeds to step 119.

【0092】ステップ119では、取得したデータ画像
からデータの抽出を行い(ステップ119)、その検索
結果を取得する(ステップ102)。
In step 119, data is extracted from the obtained data image (step 119), and the retrieval result is obtained (step 102).

【0093】その後、この検索結果を結果表示制御部1
3により表示部14に画像出力し(ステップ121)、
この処理を終了する。
Then, this search result is displayed in the result display control unit 1.
3 to output an image to the display unit 14 (step 121),
This processing ends.

【0094】図14は、この発明の画像検索装置の他の
実施の形態を示したものである。
FIG. 14 shows another embodiment of the image retrieval apparatus of the present invention.

【0095】なお、図1に示した実施の形態において
は、撮影倍率計算部38において、 1)カメラ部1から出力されるオートフォーカスやレン
ズ特性などの光学系の情報 2)超音波距離センサ36の出力 3)レーザ距離測定部37の出力 のいずれかを用いて対象までの距離を計算し、この計算
された対象までの距離とレンズ特性などの光学系の情報
から撮影画像内の対象の像と実際の対象との大きさの比
率すなわち倍率を計算するように構成したが、この図1
4に示す実施の形態においては、上記構成に代えて、対
象外形測定装置16を設けた点が図1に示した実施形態
のものと異なる。
In the embodiment shown in FIG. 1, in the photographing magnification calculating section 38, 1) information on an optical system such as autofocus and lens characteristics outputted from the camera section 1 2) ultrasonic distance sensor 36 3) The output of the laser distance measuring unit 37 is used to calculate the distance to the target, and the image of the target in the captured image is calculated from the calculated distance to the target and information of the optical system such as lens characteristics. The ratio of the size of the object and the actual object, that is, the magnification is calculated.
The embodiment shown in FIG. 4 is different from the embodiment shown in FIG. 1 in that a target outer shape measuring device 16 is provided instead of the above configuration.

【0096】すなわち、図14に示す実施形態において
は、対象外形測定装置16がカメラ部1からの情報を得
て対象の外形を測定するように構成される。なお、図1
4において図1に示した各部と同一の機能を果たす部分
については図1で用いた符号と同一の符号を付し、その
詳細説明は省略する。
That is, in the embodiment shown in FIG. 14, the object outline measuring device 16 is configured to obtain information from the camera unit 1 and measure the object outline. FIG.
In FIG. 4, parts performing the same functions as the respective parts shown in FIG. 1 are denoted by the same reference numerals as those used in FIG. 1, and detailed description thereof will be omitted.

【0097】図14において、この実施の形態の画像検
索装置は、カメラ部1、画像蓄積部2、構図変更部3、
ペン入力部4、画像抽出部5、対象画像変換部6、画像
比較部10、画像データベース11、データ画像変換部
12、結果表示制御部13、表示部14、対象外形測定
装置16、制御部100を具備して構成される。
Referring to FIG. 14, an image retrieval apparatus according to this embodiment includes a camera unit 1, an image storage unit 2, a composition change unit 3,
Pen input unit 4, image extraction unit 5, target image conversion unit 6, image comparison unit 10, image database 11, data image conversion unit 12, result display control unit 13, display unit 14, target outline measurement device 16, control unit 100 It comprises.

【0098】ここで、対象外形測定装置16は、対象撮
影時のカメラ部1から得られる対象までの距離とズーム
倍率から対象の外形寸法を算出し、画像データベース1
1の画像検索の際のフィルターとして利用する。
Here, the target outer shape measuring device 16 calculates the outer size of the target from the distance to the target and the zoom magnification obtained from the camera unit 1 at the time of shooting the target, and obtains the image database
It is used as a filter when searching for an image.

【0099】この構成においても、例えば、対象の外形
寸法と画像データベース11の登録されているデータ画
像の外形情報とが、例えば、10倍以上の開きがあった
場合は、その画像データに関して比較を行わないように
構成することができ、この構成においても、動物と昆虫
などを比較的高い信頼性で分類することができる。
In this configuration as well, for example, when the outer dimensions of the object and the outer information of the data image registered in the image database 11 have a difference of, for example, 10 times or more, the comparison is performed on the image data. In this configuration, animals and insects can be classified with relatively high reliability.

【0100】なお、上記実施の形態においては対象の外
形情報を利用して、画像データベースの検索を行なうよ
うに構成したが、他の情報を利用することも可能であ
る。
In the above-described embodiment, the image database is searched by using the outer shape information of the object. However, other information can be used.

【0101】例えば、赤外線センサー等を利用して対象
の温度を測定し、これにより対象の種別を自動的に判断
するように構成してもよい。
For example, the temperature of a target may be measured using an infrared sensor or the like, and the type of the target may be automatically determined based on the measured temperature.

【0102】この時、対象を限定するために測定範囲を
中心部に限定しておいても良いし、サーモグラフィーの
ように撮影範囲内の温度分布を測定し、画像処理によっ
て判断した対象の画像と一致する部分の温度を測定結果
として出力しても良い。
At this time, the measurement range may be limited to the center in order to limit the object, or the temperature distribution in the imaging range may be measured as in thermography, and the image of the object determined by image processing may be used. The temperature of the matching part may be output as the measurement result.

【0103】これらの情報を画像検索時のフィルターと
して利用することで、無駄な画像検索を行なう必要が無
くなり、検索の精度及び速度が向上する。
By using such information as a filter at the time of image search, it is not necessary to perform useless image search, and the accuracy and speed of the search are improved.

【0104】また、システムに高度センサーを追加し、
対象が存在する高度を付加情報として得ても良い。この
高度情報も画像検索時のフィルターとして利用する。
Further, an altitude sensor is added to the system,
The altitude at which the target exists may be obtained as additional information. This altitude information is also used as a filter at the time of image search.

【0105】この構成によっても無駄な画像検索を行な
う必要が無くなり、検索の精度及び速度の向上を図るこ
とができる。
With this configuration, it is not necessary to perform useless image search, and the accuracy and speed of the search can be improved.

【0106】また、この画像検索装置に、時計を追加
し、対象撮影の日付及び時刻を付加情報として得ても良
い。この構成の場合、画像データベース11上には各季
節に見ることができる動物や植物のデータを蓄積してお
く。また、時間による植物の形態の変化や、時間によっ
て活動を行う動物のデータなどを蓄積する。
Further, a clock may be added to this image search apparatus, and the date and time of the target shooting may be obtained as additional information. In the case of this configuration, the image database 11 stores data of animals and plants that can be seen in each season. In addition, data on changes in the form of plants with time, data on animals performing activities with time, and the like are accumulated.

【0107】これらのデータを基に、撮影時の日付及び
時刻情報を利用して画像検索時のフィルターとして利用
することができる。
Based on these data, date and time information at the time of shooting can be used as a filter at the time of image search.

【0108】また、この画像検索装置に、GPS(Gl
obal PositioningSystem)を追
加し、このGPSを用いて対象が存在する位置を自動検
出してこれを付加情報として得ても良い。
Further, this image search device is provided with a GPS (Gl
oval Positioning System), the position where the target exists may be automatically detected using this GPS, and this may be obtained as additional information.

【0109】この場合、地域によって異なる動物や植物
の情報を画像データベース11上に蓄積しておく。この
位置情報およびこれらの情報を利用して画像検索時のフ
ィルターとして利用する。
In this case, information on animals and plants that differ depending on the area is stored in the image database 11. The position information and the information are used as a filter at the time of image search.

【0110】また、使用者が対象の存在する環境のつい
て、例えば海、池、山などの情報を入力する。入力方法
は表示部に選択枝を表示し、これをペン字入力デバイス
で選択する。この環境情報も画像情報の検索時のフィル
ターとして利用することができる。
The user inputs information on the environment where the object exists, for example, the sea, a pond, a mountain, and the like. For the input method, a selection is displayed on the display unit, and this is selected by a pen-shaped input device. This environment information can also be used as a filter when searching for image information.

【0111】このように、種々の付加情報を追加するこ
とで、無駄な画像検索を行なう必要が無くなり、検索の
精度及び速度の向上を図ることが可能になる。
As described above, by adding various additional information, it is not necessary to perform useless image search, and it is possible to improve search accuracy and speed.

【0112】図15は、この発明の画像検索装置の更に
他の実施の形態を示したものである。この図15に示す
実施の形態においては、カメラ部1で撮影した撮影画像
の背景画像を利用して画像検索の精度および速度の向上
を図るように構成されている。なお、図15において図
1に示した各部と同一の機能を果たす部分については図
1で用いた符号と同一の符号を付し、その詳細説明は省
略する。
FIG. 15 shows still another embodiment of the image retrieval apparatus of the present invention. In the embodiment shown in FIG. 15, the accuracy and speed of image search are improved by using the background image of the image captured by the camera unit 1. In FIG. 15, parts having the same functions as those shown in FIG. 1 are denoted by the same reference numerals as those used in FIG. 1, and detailed description thereof will be omitted.

【0113】図15において、この実施の形態の画像検
索装置は、カメラ部1、画像蓄積部2、構図変更部3、
ペン入力部4、画像抽出部5、対象画像変換部6、画像
比較部10、画像データベース11、データ画像変換部
12、結果表示制御部13、表示部14、背景画像判断
部15、制御部100を具備して構成される。
Referring to FIG. 15, an image retrieval apparatus according to this embodiment includes a camera unit 1, an image storage unit 2, a composition change unit 3,
Pen input unit 4, image extraction unit 5, target image conversion unit 6, image comparison unit 10, image database 11, data image conversion unit 12, result display control unit 13, display unit 14, background image determination unit 15, control unit 100 It comprises.

【0114】ここで、背景画像判断部15は、カメラ部
1で撮影した撮影画像から対象を除いた背景の画像から
周囲の環境を推定し、画像比較部10に対して情報を提
供する。
Here, the background image judging section 15 estimates the surrounding environment from the background image excluding the target from the image taken by the camera section 1 and provides information to the image comparing section 10.

【0115】図16は、図15に示した画像検索装置の
処理の流れを示す流れ図である。
FIG. 16 is a flowchart showing a flow of processing of the image retrieval apparatus shown in FIG.

【0116】まず、使用者の操作でカメラ部1が撮影を
開始する。このカメラ部1で撮影している範囲の画像は
表示部14に表示される。これにより、使用者は知りた
いと思う対象が撮影範囲に入っているか否かを容易に判
断することができる。
First, the camera section 1 starts photographing by a user's operation. The image in the range photographed by the camera unit 1 is displayed on the display unit 14. Thereby, the user can easily determine whether or not the object that the user wants to know is in the shooting range.

【0117】使用者は、表示部14に表示される画像を
見て、カメラ部1の撮影画像が対象範囲にある時、ボタ
ンを押すことで表示部14に表示していた静止画像、す
なわちカメラ部1の撮影画像を画像蓄積部2内に取り込
む(図5参照)。
When the user looks at the image displayed on the display unit 14 and presses the button when the image captured by the camera unit 1 is within the target range, the still image displayed on the display unit 14 by pressing the button, ie, the camera The captured image of the unit 1 is taken into the image storage unit 2 (see FIG. 5).

【0118】次に、画像蓄積部2上の撮影画像から構図
変更部3が構図を判断し、その変更を行う。
Next, the composition change unit 3 judges the composition from the photographed image on the image storage unit 2 and changes the composition.

【0119】すなわち、カメラ部1で撮像された対象の
画像であるオブジェクトが画面中央にない場合は、その
オブジェクトを画面中央に移動させる構図変更を行な
う。
That is, when the object which is the target image picked up by the camera section 1 is not at the center of the screen, the composition is changed to move the object to the center of the screen.

【0120】また、カメラ部1で撮像された対象の画像
であるオブジェクトが画面全体の大きさと比較して小さ
い場合は、画面の大きさに収まるようにオブジェクトを
拡大する構図変更を行なう。
When the object, which is the target image captured by the camera unit 1, is smaller than the size of the entire screen, the composition is changed so that the object is enlarged to fit in the size of the screen.

【0121】構図変更部3は、このような処理を画像蓄
積部2内の画像に対して行い、最適構図画像を生成する
(図6参照)。
The composition changing section 3 performs such processing on the image in the image storage section 2 to generate an optimum composition image (see FIG. 6).

【0122】構図変更部3により変更された最適構図画
像を表示部14に表示させる。使用者はこの表示部14
に表示された最適構図画像を見ながら自分が知りたい対
象の注目する部分の座標をテンキー等を用いて入力し指
定する。
The optimum composition image changed by the composition changing unit 3 is displayed on the display unit 14. The user uses this display unit 14
The user inputs and designates the coordinates of the part of interest of the object that he or she wants to know while viewing the optimum composition image displayed in the above section by using a numeric keypad or the like.

【0123】ここで、ペン入力部4が、ペン型入力デバ
イスである場合は、このペン型入力デバイスは、表示部
14の表示画面(LCD)の上に装着されたタッチパネ
ルを具備して構成され、このペン型入力デバイスによっ
てタッチパネルに圧力を加えることで注目する部分の位
置情報を入力することができる。このときペンが通過し
た軌跡は表示部14の画面上にインポーズされ、使用者
に分かり易く表示される。
Here, when the pen input unit 4 is a pen-type input device, the pen-type input device is provided with a touch panel mounted on a display screen (LCD) of the display unit 14. By applying pressure to the touch panel with this pen-type input device, it is possible to input position information of a portion of interest. At this time, the locus that the pen has passed is imposed on the screen of the display unit 14 and is displayed in a manner that is easy for the user to understand.

【0124】ここで、対象を囲む線は連続していなくて
もよく、途切れている場合は最も近い端点をつなげた線
を仮想的に想定する。
Here, the line surrounding the object does not have to be continuous, and if it is interrupted, a line connecting the nearest end points is virtually assumed.

【0125】画像抽出部5では、ペン入力部4によって
入力した対象の輪郭情報を利用し、背景となる部分の画
像を排除した対象のみの画像を抽出する。この処理は画
像蓄積部2上で行い、得られる画像が対象画像となる
(図7参照)。
The image extracting unit 5 uses the outline information of the target input by the pen input unit 4 to extract only the target image excluding the background image. This processing is performed on the image storage unit 2, and the obtained image is the target image (see FIG. 7).

【0126】対象画像変換部6では、画像抽出部5で抽
出された対象画像(図9参照)を明度による基準値を設
けて対象2値画像に変換する(図10参照)。この画像
検索装置においてはこの対象2値画像を検索のキーとし
て利用する。
The target image converter 6 converts the target image (see FIG. 9) extracted by the image extractor 5 into a target binary image by providing a reference value based on brightness (see FIG. 10). In this image search device, the target binary image is used as a search key.

【0127】画像比較部10に入力される対象の画像は
2値画像である。そこで、画像比較部10における比較
を行うために画像データベース11上のデータ画像を2
値画像に変更する必要がある。
The image to be input to the image comparing section 10 is a binary image. Therefore, in order to make a comparison in the image comparison unit 10, the data image on the image
Need to change to value image.

【0128】画像データベース11上のデータ画像の2
値画像への変換はデータ画像変換部12で行う。データ
画像変換部12は、対象画像変換部6が行うのと同様の
画像処理をデータ画像(図11参照)に対して行い、デ
ータ2値画像を得る(図12参照)。
The data image 2 on the image database 11
The conversion into the value image is performed by the data image conversion unit 12. The data image conversion unit 12 performs the same image processing as that performed by the target image conversion unit 6 on the data image (see FIG. 11) to obtain a data binary image (see FIG. 12).

【0129】ところで、この実施の形態の画像検索装置
においては、カメラ部1による撮影画像から対象を取り
除いた画像に対して背景画像判断部15により周囲の環
境を推測する。この撮影画像から対象を取り除いた背景
画像の一例を図8に示す。
By the way, in the image retrieval apparatus of this embodiment, the surrounding environment is estimated by the background image determining section 15 for the image obtained by removing the object from the image captured by the camera section 1. FIG. 8 shows an example of a background image obtained by removing an object from the captured image.

【0130】背景画像判断部15による判断は、画素の
割合により判断し、例えば、緑が多い場合は山や草原、
薄い青なら空と言うようなおおまかな分類を行う。
The judgment by the background image judging section 15 is made based on the ratio of pixels.
It performs a rough classification such as light blue as sky.

【0131】この背景画像判断部15で取得した情報
は、画像データベース11に対する画像検索を行う際に
フィルターとして使用する。すなわち、周囲の環境を山
や草原と判断した場合には海辺に存在する対象のデータ
画像は排除し、画像比較部10による処理を省略するこ
とで、画像検索の効率化を図っている。
The information obtained by the background image determination section 15 is used as a filter when performing an image search on the image database 11. That is, when the surrounding environment is determined to be a mountain or a grassland, the data image of the object existing on the seaside is excluded, and the processing by the image comparison unit 10 is omitted, thereby improving the efficiency of the image search.

【0132】データ画像変換部12で変換された分割デ
ータ2値画像は、順次、画像比較部10に送られ、対象
画像変換部6で変換された注目対象2値画像と比較され
る。この比較は2つの2値画像を重ねて、データに一致
する割合で判定する。データの一致する割合が多いとき
は2つの画像の類似度が高いと判断する。
The divided data binary images converted by the data image conversion unit 12 are sequentially sent to the image comparison unit 10 and compared with the target binary image converted by the target image conversion unit 6. In this comparison, two binary images are overlapped and determined based on a ratio matching the data. When the ratio of matching data is high, it is determined that the similarity between the two images is high.

【0133】この処理を、画像データベース11上の全
ての画像に対して順次行い、類似度を算出する。最終的
に最も類似度の高い画像を選択する。
This process is sequentially performed on all the images on the image database 11 to calculate the similarity. Finally, the image having the highest similarity is selected.

【0134】結果表示制御部13は、類似度の高かった
データ2値画像の元となる自然画像(データ画像)及び
関連情報を画像データベース11から引き出し、表示部
14に表示する。
The result display control unit 13 extracts a natural image (data image) and related information from which the binary image of data having a high degree of similarity is based from the image database 11 and displays it on the display unit 14.

【0135】なお、上記の実施の形態の画像検索装置に
おいては背景画像から背景画像判断部15を用いて画像
データベース11の検索のための情報を得るように構成
したが、背景画像判断部15を用いずに上記情報を得る
ように構成してもよい。
In the image search apparatus according to the above-described embodiment, information for searching the image database 11 is obtained from the background image by using the background image determination unit 15. The above information may be obtained without using it.

【0136】この場合は、対象画像変換部6が排除した
背景画像に対して第2の対象を探索する。この探索手法
は使用者の補助によって輪郭を入力しても良いし、自動
的に輪郭抽出しても良い。
In this case, the second target is searched for the background image excluded by the target image converter 6. In this search method, the contour may be input with the assistance of the user, or the contour may be automatically extracted.

【0137】このようにして抽出した第2の対象に対し
ても第1の対象と同様の画像検索を行う。
An image search similar to that for the first target is performed for the second target extracted in this manner.

【0138】さらに第1と第2の対象を排除した背景画
像から第3の対象を選び、以下同様の作業を対象が検知
されなくなるまで、もしくはあらかじめ設定した回数だ
け再帰的に繰り返す。
Further, a third object is selected from the background image excluding the first and second objects, and the same operation is repeated recursively until no object is detected or a preset number of times.

【0139】これにより複数の対象による画像検索を行
うことになり、第2以下の対象に関しては存在する環境
に関する情報を得ることができる。
As a result, an image search is performed for a plurality of objects, and information about the existing environment can be obtained for the second and subsequent objects.

【0140】ここで、対象が植物であれば生息する地域
・高度・季節等の情報を得ることができる。また、画像
検索が可能であれば第1の対象とは種別が異なっても良
い。このような構成によると、第1の対象を検索する際
により的確な情報を得ることが可能になる。
Here, if the object is a plant, it is possible to obtain information on the area, altitude, season, etc. in which it lives. Further, the type may be different from the first target as long as the image search is possible. According to such a configuration, it is possible to obtain more accurate information when searching for the first target.

【0141】図17は、上記各実施の形態の画像検索装
置で採用される画像データベース11のデータ構造例を
示したものである。
FIG. 17 shows an example of the data structure of the image database 11 employed in the image search device of each of the above embodiments.

【0142】この画像検索装置の画像データベース11
のデータ構造は、図17に示すように、画像を中心とし
て関連項目をリンクした構造から構成される。したがっ
て、この画像検索装置による類似画像検索によって検索
した画像からその画像の名称及び付加情報(生息地域や
活動する時期、外形など)を知ることができる。
The image database 11 of the image search device
As shown in FIG. 17, the data structure has a structure in which related items are linked around an image. Therefore, it is possible to know the name of the image and additional information (habitat, activity time, outer shape, etc.) from the image searched by the similar image search by the image search device.

【0143】付加情報を利用した画像データベース11
の検索は、基本的には上述したようにフィルター処理に
よって行われる。未知の対象を撮影すると同時に対象の
大きさをセンサ等の出力を用いて算出し、この大きさ情
報をフィルターとして画像データベース11の検索を行
なう。
Image Database 11 Using Additional Information
Is basically performed by the filtering process as described above. At the same time as capturing an unknown target, the size of the target is calculated using the output of a sensor or the like, and the image database 11 is searched using this size information as a filter.

【0144】すなわち、まず、画像データベース11か
ら画像を選び出した段階で大きさの比較を行い、例えば
10倍以上の開きがある場合は、両者は全く異なるもの
として画像検索は行なわない。この処理により無駄な検
索時間を省いて検索時間を短縮し、検索効率を高めるこ
とができる。
That is, first, at the stage where an image is selected from the image database 11, the size is compared. For example, if there is a difference of 10 times or more, the two are completely different and no image search is performed. By this processing, useless search time can be omitted, search time can be reduced, and search efficiency can be improved.

【0145】他の情報(付加情報)に関しても同様のこ
とを行なうことができ、上記大きさ情報の他には、上述
した高度情報、日付、時刻、地理情報、環境情報等を利
用することができる。各情報は、数値によって登録する
ことができ、フィルター部分はその大小を比較すること
で容易にフィルター処理を行なうことができる。
The same can be performed for other information (additional information). In addition to the size information, it is possible to use the above-described altitude information, date, time, geographic information, environmental information, and the like. it can. Each piece of information can be registered by a numerical value, and the filter portion can easily perform filter processing by comparing the magnitudes.

【0146】図18は、上記付加情報の一例を表にして
示したものである。図18においては、付加情報の項目
として 1)大きさ 2)高度 3)日付、季節 4)地理情報 5)環境情報 の例が示されている。
FIG. 18 is a table showing an example of the additional information. FIG. 18 shows an example of 1) size, 2) altitude, 3) date, season, 4) geographic information, and 5) environmental information as items of additional information.

【0147】図19は、この発明の画像検索装置の更に
他の実施の形態を示したものである。この図19に示す
実施の形態においては、画像データベース11に、1つ
の対象に対して複数の自然画像を蓄積することで画像検
索の精度および速度の向上を図っている。なお、図19
において図1に示した各部と同一の機能を果たす部分に
ついては図1で用いた符号と同一の符号を付し、その詳
細説明は省略する。
FIG. 19 shows still another embodiment of the image retrieval apparatus of the present invention. In the embodiment shown in FIG. 19, the accuracy and speed of image search are improved by accumulating a plurality of natural images for one target in the image database 11. Note that FIG.
In FIG. 2, parts having the same functions as the respective parts shown in FIG. 1 are denoted by the same reference numerals as those used in FIG. 1, and detailed description thereof will be omitted.

【0148】図19において、この実施の形態の画像検
索装置は、カメラ部1、画像蓄積部2、構図変更部3、
ペン入力部4、画像抽出部5、対象画像変換部6、画像
比較部10、画像データベース11、データ画像変換部
12、結果表示制御部13、表示部14、制御部100
を具備して構成される。
Referring to FIG. 19, an image retrieval apparatus according to this embodiment includes a camera unit 1, an image storage unit 2, a composition change unit 3,
Pen input unit 4, image extraction unit 5, target image conversion unit 6, image comparison unit 10, image database 11, data image conversion unit 12, result display control unit 13, display unit 14, control unit 100
It comprises.

【0149】ここで、画像データベース11は、対象を
検索する際に必要となる植物や動物の自然画及びその名
前や特徴などの関連情報を蓄積している。更に、この画
像データベース11には、1つの対象について複数の自
然画像が蓄積されている。
Here, the image database 11 stores related information such as natural pictures of plants and animals and their names and characteristics necessary for searching for an object. Further, the image database 11 stores a plurality of natural images for one target.

【0150】この場合の複数の自然画像とは、1つの対
象を異なる複数の方向から見たデータ画像である。これ
らの自然画像はデータ画像変換部12でデータ2値画像
へ変換され、画像比較部10で順次対象2値画像と比較
される。
The plurality of natural images in this case are data images of one object viewed from a plurality of different directions. These natural images are converted into data binary images by the data image conversion unit 12, and are sequentially compared with the target binary images by the image comparison unit 10.

【0151】一つの対象について、蓄積するデータ画像
の数を増やすということは、それだけ多くの方向から見
たデータ画像が用意されていることになるので、画像比
較部10においてデータが一致する確立も増加する。
Increasing the number of data images to be stored for one object means that data images viewed from as many directions as possible are prepared, so that the image comparison unit 10 can establish data coincidence. To increase.

【0152】画像データベース11に蓄積するデータ画
像は、対象を特定の意味のあるバーツに分割したデータ
画像(以下「データ分割画像」という)を蓄積して使用
する。このデータ分割画像の一例を図20及び図21に
示す。
As the data image stored in the image database 11, a data image obtained by dividing an object into baht having a specific meaning (hereinafter referred to as a "data divided image") is used. An example of this data division image is shown in FIGS.

【0153】ここで、図20は対象の花の部分のみ、ま
た図21は対象は葉の部分のみで構成されるデータ分割
画像である。撮影時の条件などのために、対象の花の部
分しか対象画像として得られなかった場合でも、画像デ
ータベース11に花の部分のデータ分割画像が蓄積され
ていれば、容易に検索が可能になる。
Here, FIG. 20 is a data division image composed of only the target flower portion, and FIG. 21 is a data division image composed of the target only leaf portion. Even if only the target flower part is obtained as the target image due to the conditions at the time of shooting, if the data division image of the flower part is stored in the image database 11, the search can be easily performed. .

【0154】また、画像データベース11に、花のデー
タ分割画像と葉のデータ分割画像というように複数のデ
ータ分割画像を蓄積している場合、それぞれに優先度を
与えることで効率的な検索が可能になる。例えば、Aと
いう植物は花の形に特徴があり、Bという植物では葉の
形に特徴があるとする。
When a plurality of data divided images such as a flower data divided image and a leaf data divided image are stored in the image database 11, an efficient search can be performed by giving a priority to each of the divided data. become. For example, it is assumed that a plant A is characterized by a flower shape, and a plant B is characterized by a leaf shape.

【0155】この場合、Aについては花のデータ分割画
像の優先度を高く、Bについては、葉のデータ分割画像
の優先度を高く設定しておく。使用者は自分が指定した
い対象部分をペン型デバイスで囲み、「花」、「葉」と
いった属性を指定することができる。
In this case, for A, the priority of the flower data division image is set high, and for B, the priority of the leaf data division image is set high. The user can enclose the target part he / she wants to specify with a pen-type device and specify attributes such as “flower” and “leaf”.

【0156】この入力方法は、ペン型入力部でなくても
よく、マウスやキーボード、テンキー等の入力手段を用
いてもよい。対象となる植物が花に特徴があると使用者
が判断して、図22に示すように、花を属性指定した場
合は、まず、画像データベース11中の花のデータ分割
画像を検索対象とする。そして、花のデータ分割画像の
中でも優先度の高いものから検索対象とする。
This input method need not be a pen-type input unit, but may be an input means such as a mouse, a keyboard, or a numeric keypad. When the user determines that the target plant has a characteristic in the flower and the attribute of the flower is designated as shown in FIG. 22, first, the data division image of the flower in the image database 11 is set as a search target. . Then, among the data division images of the flowers, those having higher priority are set as the search targets.

【0157】また、画像データベース11は、データ分
割画像のみではなく、対象全体を示すデータ画像も合わ
せて持つ。画像データベース11が、データ分割画像と
全体を示すデータ画像の関係情報を持つことで、データ
分割画像で対象が見つかった場合でも、その結果から全
体を示すデータ画像を得て使用者に示すことが可能にな
る。
The image database 11 has not only data divided images but also data images showing the entire target. Since the image database 11 has the relationship information between the data division image and the data image indicating the whole, even if a target is found in the data division image, the data image indicating the whole can be obtained from the result and shown to the user. Will be possible.

【0158】図23は、この発明の画像検索装置の更に
他の実施の形態を示したものである。この図23に示す
実施の形態においては、対象の種別、対象画像の特徴な
ど、検索時の条件によって最も適した検索アルゴリズム
を選択使用することができるようにして、画像検索の精
度および速度の向上を図ったものである。なお、図23
において図1に示した各部と同一の機能を果たす部分に
ついては図1で用いた符号と同一の符号を付し、その詳
細説明は省略する。
FIG. 23 shows still another embodiment of the image retrieval apparatus of the present invention. In the embodiment shown in FIG. 23, the most suitable search algorithm can be selected and used according to search conditions such as the type of target and the characteristics of the target image, thereby improving the accuracy and speed of image search. It is intended. Note that FIG.
In FIG. 2, parts having the same functions as the respective parts shown in FIG. 1 are denoted by the same reference numerals as those used in FIG. 1, and detailed description thereof will be omitted.

【0159】図23において、この実施の形態の画像検
索装置は、カメラ部1、画像蓄積部2、構図変更部3、
ペン入力部4、画像抽出部5、対象画像変換部6、画像
比較部10、画像データベース11、データ画像変換部
12、結果表示制御部13、表示部14、アルゴリズム
選択部20、アルゴリズム・データベース21、制御部
100を具備して構成される。
In FIG. 23, the image retrieval apparatus according to this embodiment comprises a camera unit 1, an image storage unit 2, a composition change unit 3,
Pen input unit 4, image extraction unit 5, target image conversion unit 6, image comparison unit 10, image database 11, data image conversion unit 12, result display control unit 13, display unit 14, algorithm selection unit 20, algorithm database 21 , And a control unit 100.

【0160】ここで、アルゴリズム・データベース21
は、画像比較部10で画像の類似度を算出するためのア
ルゴリズムを複数保持している。また、アルゴリズム選
択部20は、アルゴリズム・データベース20から画像
比較部10で使用するアルゴリズムを選択する。画像比
較部10における画像の類似度の算出にはアルゴリズム
選択部21により選択されたアルゴリズムを使用して行
われる。
Here, the algorithm database 21
Holds a plurality of algorithms for the image comparison unit 10 to calculate the similarity between images. The algorithm selection unit 20 selects an algorithm used in the image comparison unit 10 from the algorithm database 20. The calculation of the similarity between the images in the image comparison unit 10 is performed using the algorithm selected by the algorithm selection unit 21.

【0161】図24は、図23に示した画像検索システ
ムの処理の流れを示す流れ図である。図24において、
まず、使用者の操作でカメラ部1が撮影を開始する。撮
影している範囲を表示部14に表示するため、使用者は
知りたいと思う対象が撮影範囲に入っているかを容易に
判断する事ができる。
FIG. 24 is a flowchart showing a flow of processing of the image retrieval system shown in FIG. In FIG.
First, the camera unit 1 starts shooting by a user's operation. Since the photographed range is displayed on the display unit 14, the user can easily determine whether the object to be known is within the photographed range.

【0162】使用者は対象が撮影範囲内にある時、ボタ
ンを押す事で表示部14に表示していた静止画像を画像
蓄積部2内に取り込む(図5参照)。
When the user is within the shooting range, the user presses a button to load the still image displayed on the display unit 14 into the image storage unit 2 (see FIG. 5).

【0163】次に、画像蓄積部2上の撮影画像から構図
変更部3が、構図を判断し変更を行う。対象の画像であ
るオブジェクトが画面中央に無い場合は、そのオブジェ
クトを画面中央に移動させる。
Next, the composition changing section 3 judges the composition from the captured image on the image storage section 2 and changes the composition. If the object which is the target image is not at the center of the screen, the object is moved to the center of the screen.

【0164】また、オブジェクトが画面全体の大きさと
比較して小さい場合は、画面の大きさに収まるようにオ
ブジェクトを拡大する。
When the size of the object is smaller than the size of the entire screen, the object is enlarged so as to fit in the size of the screen.

【0165】また、使用者と対象の位置関係から、デー
タベース画像と比較し易い位置からの撮影が困難な場合
は、対象付近の画像の一部を線型変換する事で、擬似的
に正面から画像を生成する。
If it is difficult to take a picture from a position that is easy to compare with the database image due to the positional relationship between the user and the object, a part of the image near the object is subjected to linear conversion to simulate the image from the front. Generate

【0166】この画像処理の原理を図25に示す。ただ
し、この方法は擬似的に物体の見える方向を変化させる
ので、平面などは精度の高い変換が可能であるが、表面
に凹凸が多い場合は隠れた部分が発生したり平面のよう
に単純な線型変換が不可能になるため、完全に正面から
の画像が生成できるとは限らない。
FIG. 25 shows the principle of this image processing. However, this method changes the direction in which the object can be seen in a simulated manner, so planes can be converted with high accuracy.However, if there are many irregularities on the surface, hidden parts may occur or the plane may be as simple as a plane. Since linear conversion becomes impossible, it is not always possible to generate an image completely from the front.

【0167】しかし、撮影者からの対象の表面の各点ま
での距離を知る事ができれば上記の処理が可能となり、
画像検索を行える程度の画像を得る事ができる。
However, if the distance from the photographer to each point on the surface of the object can be known, the above processing becomes possible.
It is possible to obtain an image that can be used for image search.

【0168】このような処理を画像蓄積部2内の画像に
対して行い、最適構図画像を生成する(図6参照)。構
図変更部3により変更した最適構図画像を表示部14に
表示する。
Such processing is performed on the image in the image storage unit 2 to generate an optimal composition image (see FIG. 6). The optimum composition image changed by the composition changing unit 3 is displayed on the display unit 14.

【0169】ペン入力部4は、表示部14のLCDの上
にタッチパネルを装着し、ペン型入力デバイスによって
タッチパネルに圧力を加える事で画面上の位置情報を入
力する事ができる。
The pen input unit 4 can input position information on the screen by mounting a touch panel on the LCD of the display unit 14 and applying pressure to the touch panel with a pen-type input device.

【0170】使用者は表示部14に表示された最適構図
画像を見ながら自分が知りたい対象の輪郭をペン型入力
デバイスで囲む。この時ペンが通過した軌跡は画面上に
インポーズされ、使用者に分かり易く表示される。囲む
線は連続していなくても良く、途切れている場合は最も
近い端点をつなげた線を仮想的に想定する(図7参
照)。
The user surrounds the outline of the object he wants to know with the pen-type input device while viewing the optimum composition image displayed on the display unit 14. At this time, the locus that the pen has passed is imposed on the screen, and is displayed in a manner that is easy for the user to understand. The surrounding lines need not be continuous, and if they are interrupted, a line connecting the nearest end points is virtually assumed (see FIG. 7).

【0171】画像抽出部5では、ペン入力部4によって
入力した対象の輪郭情報を利用し、背景となる部分の画
像を排除した対象のみの画像を抽出する。この処理は画
像蓄積部2上で行い、得られる画像を対象画像とする
(図9参照)。
The image extracting unit 5 uses the outline information of the object input by the pen input unit 4 to extract only the image of the object excluding the background image. This processing is performed on the image storage unit 2, and the obtained image is set as a target image (see FIG. 9).

【0172】対象画像変換部6では、対象画像を明度に
よる基準値を設けて対象2値画像に変換する(図10参
照)。この対象2値画像を検索キーとして利用する。
The target image conversion unit 6 converts the target image into a target binary image by setting a reference value based on brightness (see FIG. 10). This target binary image is used as a search key.

【0173】画像データベース11は、対象を検索する
際に必要となる植物や動物の自然画像及びその名前や特
徴などの関連情報を蓄積する。
The image database 11 stores natural images of plants and animals and related information such as names and characteristics required when searching for an object.

【0174】画像比較部10に入力される対象の画像は
2値画像である。そこで、比較を行うために画像データ
ベース11上のデータ画像(図11参照)を2値画像に
変更する必要がある。
The image to be input to the image comparison unit 10 is a binary image. Therefore, it is necessary to change the data image (see FIG. 11) on the image database 11 to a binary image in order to perform the comparison.

【0175】2値画像への変換はデータ画像変換部12
で行う。データ画像変換部12は、対象画像変換部6が
行うのと同様の画像処理をデータ画像に対して行い、デ
ータ2値画像を得る(図12参照)。
The conversion into a binary image is performed by the data image conversion unit 12.
Do with. The data image conversion unit 12 performs the same image processing as that performed by the target image conversion unit 6 on the data image to obtain a data binary image (see FIG. 12).

【0176】このデータ2値画像を順次画像比較部10
に送り対象2値画像と比較する。この時、アルゴリズム
選択部20が対象の種別に応じてアルゴリズム・データ
ベース21から選択したアルゴリズムを使用する。
The data binary images are sequentially transferred to the image comparing unit 10.
Is compared with the binary image to be sent. At this time, the algorithm selection unit 20 uses the algorithm selected from the algorithm database 21 according to the type of the target.

【0177】例えば、種別が植物である時は、比較は2
つの2値画像を重ねて、データの一致する割合で判定す
るアルゴリズムを用いる。ここで、データの一致する割
合が多い時は、2つの画像の類似度が高いと判断する。
For example, when the type is plant, the comparison is 2
An algorithm is used in which two binary images are superimposed and a decision is made on the basis of a matching ratio of data. Here, when the ratio of matching data is large, it is determined that the similarity between the two images is high.

【0178】種別が異なれば、他のアルゴリズムを使用
する。種別とアルゴリズムとの対応はアルゴリズム・デ
ータベース11内に表形式で用意する。
If the type is different, another algorithm is used. The correspondence between the type and the algorithm is prepared in a table format in the algorithm database 11.

【0179】画像データベース11上の全ての画像に対
して順次同様の処理を行い、類似度を算出する。最終的
に最も類似度の高い画像を選択する。
The similar processing is sequentially performed on all the images on the image database 11 to calculate the similarity. Finally, the image having the highest similarity is selected.

【0180】結果表示制御部13は、類似度の高かった
データ2値画像の元となる自然画像(データ画像)及び
関連情報を画像データベース11から引き出し、表示部
14に表示する。
The result display control unit 13 extracts a natural image (data image) and related information from which the data binary image having the high similarity is based from the image database 11 and displays it on the display unit 14.

【0181】上記の動作により使用者は未知の対象を撮
影する事で、自動的に図鑑を調べるように、対象に対す
る情報を容易に又瞬時に引き出す事ができる。
By photographing an unknown object by the above-described operation, the user can easily and instantly extract information on the object, as in automatically checking a picture book.

【0182】なお上記の実施の形態では、対象の種別に
応じたアルゴリズムを選択している。しかし、このアル
ゴリズム選択部20によって対象の輪郭や色を分析し、
どの尺度がもっとも差別化できるのかを判断して、画像
の特徴に最も適したアルゴリズムを自動的に選択する方
法をとっても良い。
In the above embodiment, an algorithm according to the type of the target is selected. However, the contour and color of the object are analyzed by the algorithm selecting unit 20,
A method may be adopted in which which measure can be most differentiated and an algorithm most suitable for the feature of the image is automatically selected.

【0183】また、上記の実施の形態では、アルゴリズ
ム選択部20が種別に応じた1つのアルゴリズムを選択
して、類似度の計算に使用したが、用意した複数のアル
ゴリズム全てを用いても良い。この場合は、画像比較部
10は用意したアルゴリズム毎の画像比較を行う。
In the above embodiment, the algorithm selecting unit 20 selects one algorithm according to the type and uses it for calculating the similarity. However, all the prepared algorithms may be used. In this case, the image comparison unit 10 performs image comparison for each prepared algorithm.

【0184】結果表示制御部13は表示部14に検索結
果を順次表示する。表示方法は順次表示する方式でなく
とも、判断できれば同時に複数表示しても良い。これに
よって使用者はもっとも対象に近い画像を容易に選ぶ事
ができ、信頼度の高い選択肢を持つ事ができる。
The result display control unit 13 sequentially displays the search results on the display unit 14. The display method is not limited to the method of sequentially displaying, but a plurality of display methods may be simultaneously performed if it can be determined. As a result, the user can easily select the image closest to the target, and can have highly reliable options.

【0185】また、アルゴリズム毎の画像比較を行う場
合でも、結果としてアルゴリズム名を情報として使用者
に与える方法もある。結果表示制御部13は表示部14
に検索結果であるデータ画像と使用者したアルゴリズム
の名称を順次表示する。
Further, even when comparing images for each algorithm, there is a method of giving the algorithm name to the user as information as a result. The result display control unit 13 is a display unit 14
, The data image as the search result and the name of the algorithm used by the user are sequentially displayed.

【0186】ここで、表示方法は順次表示する方式でな
くとも、判断できれば同時に複数表示しても良い。これ
によって使用者はもっとも対象に近い画像を容易に選ぶ
事ができ、信頼度の高い選択肢を持つ事ができる。ま
た、検索の結果と同時に対象の種別に応じたアルゴリズ
ムを知る事ができるため、同じ種別の対象を調べたい時
は特定のアルゴリズムに着目する事ができる。
Here, the display method is not limited to the sequential display method, but a plurality of display methods may be simultaneously performed if it can be determined. As a result, the user can easily select the image closest to the target, and can have highly reliable options. In addition, since the algorithm corresponding to the type of the target can be known at the same time as the search result, it is possible to pay attention to a specific algorithm when it is desired to check the target of the same type.

【0187】さらに、アルゴリズム名だけでなくアルゴ
リズムの特徴を同時に表示する方法もある。この場合
は、アルゴリズム・データベース21は複数のアルゴリ
ズムと共にアルゴリズムの特徴も蓄積する。特徴はどの
ような状況及び分野での検索に適しているかの情報を記
述する。画像比較部10は用意したアルゴリズム毎の画
像比較を行う。結果表示制御部13は表示部14に検索
結果であるデータ画像と使用したアルゴリズムの名称及
び特徴を順次表示する。
Furthermore, there is a method of displaying not only the algorithm name but also the characteristics of the algorithm. In this case, the algorithm database 21 stores the features of the algorithms together with the plurality of algorithms. Features describe information about what situations and areas are suitable for searching. The image comparison unit 10 performs image comparison for each prepared algorithm. The result display control unit 13 sequentially displays on the display unit 14 the data image as the search result and the names and characteristics of the used algorithms.

【0188】ここで、表示方法は順次表示する方式でな
くとも、同時に複数表示していても良い。これによって
使用者はもっとも対象に近い画像を容易に選ぶ事がで
き、信頼度の高い選択肢を持つ事ができる。
Here, the display method is not limited to the sequential display method, but a plurality of display methods may be simultaneously performed. As a result, the user can easily select the image closest to the target, and can have highly reliable options.

【0189】また、対象の種別に応じたアルゴリズムを
知る事ができるため、同じ種別の対象を調べたい時は特
定のアルゴリズムに着目する事ができる。さらにアルゴ
リズムの特徴が記述されているので、検索経験が少ない
使用者でも容易にどのアルゴリズムが最も適しているか
を把握する事ができ、検索を効率的に進める事ができ
る。
Further, since the algorithm corresponding to the type of the object can be known, it is possible to pay attention to a specific algorithm when it is desired to check the object of the same type. Furthermore, since the characteristics of the algorithm are described, even a user with little search experience can easily grasp which algorithm is most suitable, and can efficiently perform the search.

【0190】なお上記の例では対象全体を使用者の指示
によって取り出し、データ画像と比較しているが、全体
を取り出す必要はない。例えば花の咲く植物であれば、
茎や葉を除いた花びらを中心とした画像を注目画像とし
て比較した方が検索の信頼性が上がる場合が多い。ま
た、葉に特徴があれば、その部分を参照する方が信頼性
が高い。
In the above example, the whole object is taken out by the user's instruction and compared with the data image, but it is not necessary to take out the whole object. For example, a flowering plant
In many cases, comparison of an image centering on petals excluding stems and leaves as an image of interest increases search reliability. If a leaf has characteristics, it is more reliable to refer to that part.

【0191】そこで、使用者が対象の輪郭を指定するの
と同様に対象として着目する部分を複数指定する。花は
比較的色の違いが大きため色による画像検索を行う方が
効率が良い。葉の場合は、色は緑が中心だが形状による
差別化が容易である。
Therefore, similarly to the case where the user specifies the outline of the target, a plurality of portions to be focused on as the target are specified. Since flowers have relatively large differences in color, it is more efficient to search for images by color. In the case of leaves, the color is mainly green, but it is easy to differentiate by shape.

【0192】したがって、指定した注目部分に対して適
したアルゴリズムを適用する。アルゴリズム・データベ
ース21はアルゴリズム毎の選択ルールを持ち、使用者
が選択した撮影画像の注目部分に応じたアルゴリズムを
選択する。そして、画像比較部10はアルゴリズム選択
部21が選択したアルゴリズムを使用して画像の比較行
う。
Therefore, a suitable algorithm is applied to the designated portion of interest. The algorithm database 21 has a selection rule for each algorithm, and selects an algorithm according to a portion of interest of a photographed image selected by a user. Then, the image comparison unit 10 compares the images using the algorithm selected by the algorithm selection unit 21.

【0193】なお、上記実施の形態においては、入力対
象画像が主に植物の場合について示したが、この発明は
これに限定されず、検索を必要とする他の画像を対象に
する場合においても同様に適用することができるのは勿
論である。
In the above embodiment, the case where the input target image is mainly a plant is described. However, the present invention is not limited to this. The present invention is also applicable to a case where another image requiring retrieval is targeted. Of course, the same can be applied.

【0194】[0194]

【発明の効果】以上説明したようにこの発明によれば、
以下に示すような効果がある。
As described above, according to the present invention,
The following effects are obtained.

【0195】1)対象の種別、対象画像の特徴など、検
索時の条件によって最も適した検索アルゴリズムを使用
できるようにしたため、検索結果の精度を上げることが
できる。
1) Since the most suitable search algorithm can be used depending on the search conditions such as the type of the target and the characteristics of the target image, the accuracy of the search result can be improved.

【0196】2)撮影画像中の対象を除いた背景画像か
ら周囲の環境を推定し、その情報を検索に利用すること
により、効率的に検索を行うことができる。
2) By estimating the surrounding environment from the background image excluding the target in the photographed image and using the information for the search, the search can be performed efficiently.

【0197】3)撮影時にカメラ部から得られる対象の
外形寸法、本装置に赤外線センサーなどを搭載して得ら
れる対象の温度情報、高度センサーを搭載して得られる
対象が存在する高度情報、時計を搭載して得られる対象
撮影時の日付および時刻情報、GPSを搭載して得られ
る対象が存在する位置情報、海・池・山など対象が存在
する環境について使用者が入力することで得られる環境
情報等の情報を検索時のフィルターとして利用すること
により、検索精度を上げることができる。
3) External dimensions of the object obtained from the camera unit at the time of photographing, temperature information of the object obtained by mounting an infrared sensor or the like on this device, altitude information of the object obtained by mounting an altitude sensor, clock Date and time information at the time of shooting the target obtained by mounting the GPS, position information where the target exists obtained by mounting the GPS, and the environment where the target exists such as the sea, pond, and mountain can be obtained by the user inputting. By using information such as environmental information as a filter at the time of search, search accuracy can be improved.

【0198】4)画像データベースが複数用意されてお
り、検索時の諸条件によって検索対象とする画像データ
ベースを選択し使用することにより、検索効率を上げる
ことができ、また、各画像データベースごとに、その画
像データベースを用いた検索アルゴリズムを使用するの
で、効率的に検索を行うことができる。
4) A plurality of image databases are prepared. By selecting and using an image database to be searched according to various conditions at the time of search, search efficiency can be improved. In addition, for each image database, Since a search algorithm using the image database is used, the search can be performed efficiently.

【0199】5)カメラの光学系の特性と距離情報(撮
影時のカメラ部のオートフォーカス情報、超音波距離セ
ンサー、レーザ距離センサなどによって求める)から撮
影画像と実際の対象の大きさの比率を算出し検索に利用
することにより、検索の精度を上げる事ができる。
5) From the characteristics of the optical system of the camera and the distance information (obtained by the auto-focus information of the camera unit at the time of photographing, the ultrasonic distance sensor, the laser distance sensor, etc.), the ratio of the size of the photographed image to the actual object is calculated By calculating and using it for the search, the accuracy of the search can be improved.

【0200】6)使用者がペン型のポインティングデバ
イスなどを用いて対象画像の注目する部分を指定し、さ
らにその属性を指定できるようにしたため、その情報を
利用することで検索結果の精度を上げることができる。
6) The user can specify a target portion of the target image by using a pen-type pointing device and the like, and can further specify its attribute. Therefore, the accuracy of the search result is improved by using the information. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明に係わる画像検索装置の一実施の形態
を示す概略ブロック図。
FIG. 1 is a schematic block diagram showing an embodiment of an image search device according to the present invention.

【図2】図1に示した画像検索装置の外観の一例を示す
正面図。
FIG. 2 is an exemplary front view showing an example of the external appearance of the image search device shown in FIG. 1;

【図3】図2に示したこの画像検索装置の外観の背面
図。
FIG. 3 is a rear view of the appearance of the image search device shown in FIG. 2;

【図4】図1に示した画像検索装置の処理の流れを示す
流れ図。
FIG. 4 is a flowchart showing a processing flow of the image search device shown in FIG. 1;

【図5】図1に示したカメラ部の撮影画像の一例を示す
図。
FIG. 5 is a view showing an example of a captured image of the camera unit shown in FIG. 1;

【図6】図1に示した構図変更部で生成された最適構図
画像の一例を示す図。
FIG. 6 is a view showing an example of an optimum composition image generated by the composition changing section shown in FIG. 1;

【図7】図1に示したペン入力部によって指定された画
像の一例を示す図。
FIG. 7 is a view showing an example of an image specified by the pen input unit shown in FIG. 1;

【図8】図1に示したペン入力部による指定により背景
となる部分の画像を示す図。
FIG. 8 is a view showing an image of a background portion specified by the pen input unit shown in FIG. 1;

【図9】図1に示した画像抽出部で抽出された対象画像
の一例を示す図。
FIG. 9 is a diagram illustrating an example of a target image extracted by the image extracting unit illustrated in FIG. 1;

【図10】図1に示した対象画像変換部で変換された対
象2値画像の一例を示す図。
FIG. 10 is a view showing an example of a target binary image converted by the target image conversion unit shown in FIG. 1;

【図11】図1に示した画像データベースに蓄積された
データ画像の一例を示す図。
FIG. 11 is a diagram showing an example of a data image stored in the image database shown in FIG. 1;

【図12】図1に示したデータ画像変換部で変換された
データ2値画像の一例を示す図。
FIG. 12 is a diagram showing an example of a data binary image converted by the data image conversion unit shown in FIG. 1;

【図13】図1に示した画像検索装置の検索処理の詳細
を示したフローチャート。
FIG. 13 is a flowchart showing details of a search process of the image search device shown in FIG. 1;

【図14】この発明の画像検索装置の他の実施の形態を
示したブロック図。
FIG. 14 is a block diagram showing another embodiment of the image search device of the present invention.

【図15】この発明の画像検索装置の更に他の実施の形
態を示したブロック図。
FIG. 15 is a block diagram showing still another embodiment of the image search device of the present invention.

【図16】図15に示した画像検索装置の処理の流れを
示す流れ図。
FIG. 16 is a flowchart showing the flow of processing of the image search device shown in FIG. 15;

【図17】この発明の実施の形態の画像検索装置で採用
される画像データベースのデータ構造例を示した図。
FIG. 17 is a diagram showing an example of a data structure of an image database employed in the image search device according to the embodiment of the present invention.

【図18】この画像検索装置において採用される付加情
報の一例を表にして示した図。
FIG. 18 is a table showing an example of additional information used in the image search device.

【図19】この発明の画像検索装置の更に他の実施の形
態を示したブロック図。
FIG. 19 is a block diagram showing still another embodiment of the image search device of the present invention.

【図20】図19に示した画像検索装置の画像データベ
ースに蓄積される対象の花の部分のデータ分割画像を示
す図。
20 is a diagram showing a data divided image of a target flower portion stored in the image database of the image search device shown in FIG. 19;

【図21】図19に示した画像検索装置の画像データベ
ースに蓄積される対象の葉の部分のデータ分割画像を示
す図。
FIG. 21 is a diagram showing a data division image of a target leaf portion stored in the image database of the image search device shown in FIG. 19;

【図22】図19に示した画像検索装置において対象と
なる植物の花の部分を指定した状態を示す図。
FIG. 22 is a diagram showing a state where a flower portion of a target plant is designated in the image search device shown in FIG. 19;

【図23】この発明の画像検索装置の更に他の実施の形
態を示したブロック図。
FIG. 23 is a block diagram showing still another embodiment of the image search device of the present invention.

【図24】図23に示した画像検索装置の処理の流れを
示す流れ図。
FIG. 24 is a flowchart showing the flow of processing of the image search device shown in FIG. 23;

【図25】図23に示した画像検索装置の動作を説明す
る図。
FIG. 25 is a view for explaining the operation of the image search device shown in FIG. 23;

【符号の説明】[Explanation of symbols]

1 カメラ部 2 画像蓄積部 3 構図変更部 4 ペン入力部 5 画像抽出部 6 対象画像変換部 7 属性名入力部 8 色情報入力部 9 優先順位入力部 10 画像比較部 11 画像データベース 12 データ画像変換部 13 結果表示制御部 14 表示部 15 背景画像判断部 16 対象外形測定装置 20 アルゴリズム選択部 21 アルゴリズム・データベース 30 構図指示格納部 31 移動物体センサ 32 マイク 36 超音波距離センサ 37 レーザ距離センサ 38 撮影倍率計算部 39 検索補助情報格納部 100 制御部 DESCRIPTION OF SYMBOLS 1 Camera part 2 Image storage part 3 Composition change part 4 Pen input part 5 Image extraction part 6 Target image conversion part 7 Attribute name input part 8 Color information input part 9 Priority input part 10 Image comparison part 11 Image database 12 Data image conversion Unit 13 result display control unit 14 display unit 15 background image determination unit 16 target contour measuring device 20 algorithm selection unit 21 algorithm database 30 composition instruction storage unit 31 moving object sensor 32 microphone 36 ultrasonic distance sensor 37 laser distance sensor 38 shooting magnification Calculation unit 39 Search auxiliary information storage unit 100 Control unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 岩岡 俊行 京都府京都市右京区花園土堂町10番地 オ ムロン株式会社内 ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Toshiyuki Iwaoka 10 Okayama Todocho, Ukyo-ku, Kyoto-shi, Omron Corporation

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 検索対象画像に基づき画像データベース
を検索して該検索対象画像に関する情報を取得する画像
検索方法において、 上記検索対象画像とともに該検索対象画像取得時の環境
情報を入力し、上記検索対象画像および上記環境情報に
基づき上記画像データベースを検索することを特徴とす
る画像検索方法。
1. An image search method for searching an image database based on a search target image to obtain information on the search target image, comprising: inputting environment information at the time of obtaining the search target image together with the search target image; An image search method, wherein the image database is searched based on a target image and the environment information.
【請求項2】 上記検索対象画像は、 撮像手段による撮像により取得された撮像画像であるこ
とを特徴とする請求項1記載の画像検索方法。
2. The image search method according to claim 1, wherein the search target image is a picked-up image obtained by an image pick-up unit.
【請求項3】 上記環境情報は、 上記撮像手段のパラメータ情報により算出した上記撮像
画像の実際の大きさを示す大きさ情報であることを特徴
とする請求項2記載の画像検索方法。
3. The image search method according to claim 2, wherein the environment information is size information indicating an actual size of the captured image calculated based on parameter information of the imaging unit.
【請求項4】 上記パラメータ情報は、 上記撮像手段のズーム比を示すズーム情報であり、 上記大きさ情報は、 上記ズーム情報および上記撮像手段から撮像対象オブジ
ェクトまでの距離を示す距離情報および上記撮像手段で
撮像した撮像画面内に示す相対的大きさを示す相対大き
さ情報に基づき算出されることを特徴とする請求項3記
載の画像検索方法。
4. The parameter information is zoom information indicating a zoom ratio of the image pickup means, and the size information is distance information indicating a distance from the image pickup means to the object to be imaged and the image information of the image pickup means. 4. The image search method according to claim 3, wherein the calculation is performed based on relative size information indicating a relative size shown in the image screen captured by the means.
【請求項5】 上記距離情報は、 上記撮像手段のオートフォーカスを制御するオートフォ
ーカス情報に基づき算出されることを特徴とする請求項
4記載の画像検索方法。
5. The image search method according to claim 4, wherein said distance information is calculated based on autofocus information for controlling autofocus of said imaging means.
【請求項6】 上記距離情報は、 上記撮像手段から撮像対象オブジェクトまでの距離を計
測する距離計測手段の計測出力に基づき求められること
を特徴とする請求項4記載の画像検索方法。
6. The image search method according to claim 4, wherein the distance information is obtained based on a measurement output of a distance measurement unit that measures a distance from the imaging unit to the imaging target object.
【請求項7】 上記環境情報は、 上記撮像手段により取得された撮像画像の取得位置の高
度を示す高度情報であることを特徴とする請求項2記載
の画像検索方法。
7. The image search method according to claim 2, wherein the environment information is altitude information indicating an altitude of an acquisition position of a captured image acquired by the imaging unit.
【請求項8】 上記環境情報は、 上記撮像手段により取得された撮像画像の取得日時を示
す日時情報であることを特徴とする請求項2記載の画像
検索方法。
8. The image search method according to claim 2, wherein said environment information is date and time information indicating an acquisition date and time of a captured image acquired by said imaging means.
【請求項9】 上記環境情報は、 上記撮像手段により取得された撮像画像の取得位置を示
す位置情報であることを特徴とする請求項2記載の画像
検索方法。
9. The image search method according to claim 2, wherein the environment information is position information indicating an acquisition position of a captured image acquired by the imaging unit.
【請求項10】 上記環境情報は、 上記撮像手段により取得された撮像画像の取得地域を示
す地域情報であることを特徴とする請求項2記載の画像
検索方法。
10. The image search method according to claim 2, wherein the environment information is area information indicating an acquisition area of a captured image acquired by the imaging unit.
【請求項11】 検索対象画像に基づき画像データベー
スを検索して該検索対象画像に関する情報を取得する画
像検索装置において、 上記検索対象画像を取得する検索対象画像取得手段と、 上記検索対象画像取得手段による上記検索対象画像の取
得環境を示す環境情報を取得する環境情報取得手段と、 上記検索対象画像取得手段で取得した検索対象画像およ
び上記環境情報取得手段で取得した環境情報に基づき上
記画像データベースを検索する検索手段と、 を具備することを特徴とする画像検索装置。
11. An image search apparatus for searching an image database based on a search target image and obtaining information on the search target image, wherein: the search target image obtaining means for obtaining the search target image; and the search target image obtaining means Environment information acquisition means for acquiring environment information indicating an acquisition environment of the search target image, and the image database based on the search target image acquired by the search target image acquisition means and the environment information acquired by the environment information acquisition means. An image search device, comprising: search means for searching.
【請求項12】 上記検索対象画像取得手段は、 上記検索対象画像を撮像する撮像手段であることを特徴
とする請求項11記載の画像検索装置。
12. The image search device according to claim 11, wherein the search target image acquisition unit is an imaging unit that captures the search target image.
【請求項13】 上記環境情報取得手段は、 上記撮像手段のパラメータ情報により算出した上記撮像
画像の実際の大きさを示す大きさ情報を上記環境情報と
して取得することを特徴とする請求項12記載の画像検
索装置。
13. The environment information acquiring unit acquires, as the environment information, size information indicating an actual size of the captured image calculated based on parameter information of the imaging unit. Image retrieval device.
【請求項14】 上記パラメータ情報は、 上記撮像手段のズーム比を示すズーム情報であり、 上記大きさ情報は、 上記ズーム情報および上記撮像手段から撮像対象オブジ
ェクトまでの距離を示す距離情報および上記撮像手段で
撮像した撮像画面内に示す相対的大きさを示す相対大き
さ情報に基づき算出されることを特徴とする請求項13
記載の画像検索装置。
14. The parameter information is zoom information indicating a zoom ratio of the imaging unit. The size information is distance information indicating a distance from the imaging unit to an object to be imaged and the imaging information. 14. The image processing apparatus according to claim 13, wherein the calculation is performed based on relative size information indicating a relative size shown in the image screen captured by the means.
The image search device according to the above.
【請求項15】 上記距離情報は、 上記撮像手段のオートフォーカスを制御するオートフォ
ーカス情報に基づき算出されることを特徴とする請求項
14記載の画像検索装置。
15. The image search device according to claim 14, wherein the distance information is calculated based on autofocus information for controlling autofocus of the imaging unit.
【請求項16】 上記環境情報取得手段は、 上記撮像手段から撮像対象オブジェクトまでの距離を計
測する距離計測手段、を具備し、 上記距離情報は、 上記距離計測手段の計測出力に基づき求められることを
特徴とする請求項14記載の画像検索装置。
16. The environment information acquisition unit includes a distance measurement unit that measures a distance from the imaging unit to the imaging target object, wherein the distance information is obtained based on a measurement output of the distance measurement unit. The image search device according to claim 14, wherein:
【請求項17】 上記環境情報取得手段は、 上記撮像手段により取得された撮像画像の取得位置の高
度を示す高度情報を計測する高度計測手段、 を具備し、 上記環境情報は、 上記高度計測手段で計測された高度情報であることを特
徴とする請求項12記載の画像検索装置。
17. The environment information acquiring means includes altitude measuring means for measuring altitude information indicating an altitude of an acquisition position of a captured image acquired by the imaging means, wherein the environmental information includes the altitude measuring means. 13. The image retrieval apparatus according to claim 12, wherein the information is altitude information measured in step (a).
【請求項18】 上記環境情報取得手段は、 上記撮像手段により取得された撮像画像の取得日時を示
す日時情報を計数する時計手段、 を具備し、 上記環境情報は、 上記時計手段で計数された日時情報であることを特徴と
する請求項12記載の画像検索装置。
18. The environment information acquisition unit includes: a clock unit that counts date and time information indicating an acquisition date and time of a captured image acquired by the imaging unit. The environment information is counted by the clock unit. 13. The image search device according to claim 12, wherein the information is date and time information.
【請求項19】 上記環境情報取得手段は、 上記撮像手段により取得された撮像画像の取得位置を示
す位置情報を計測する位置計測手段、 を具備し、 上記環境情報は、 上記位置計測手段により計測された位置情報であること
を特徴とする請求項12記載の画像検索装置。
19. The environment information acquisition unit includes: a position measurement unit that measures position information indicating an acquisition position of a captured image acquired by the imaging unit. The environment information is measured by the position measurement unit. 13. The image search device according to claim 12, wherein the obtained position information is obtained.
【請求項20】 上記環境情報は、 上記撮像手段により取得された撮像画像の取得地域を示
す地域情報であることを特徴とする請求項12記載の画
像検索装置。
20. The image search device according to claim 12, wherein the environment information is area information indicating an acquisition area of a captured image acquired by the imaging unit.
【請求項21】 検索対象画像を鍵として所定の検索ア
ルゴリズムに基づき画像データベースを検索して該検索
対象画像に関する情報を取得する画像検索方法におい
て、 複数の検索アルゴリズムを保持するアルゴリズムデータ
ベースを設け、上記検索対象画像を鍵とする上記画像デ
ータベースの検索に際して該検索に適した検索アルゴリ
ズムを上記アルゴリズムデータベースに保持された複数
の検索アルゴリズムの中から選択し、該選択した検索ア
ルゴリズムを用いて上記画像データベースを検索するこ
とを特徴とする画像検索方法。
21. An image search method for searching an image database based on a predetermined search algorithm using a search target image as a key and acquiring information on the search target image, wherein an algorithm database holding a plurality of search algorithms is provided. When searching the image database using the image to be searched as a key, a search algorithm suitable for the search is selected from among a plurality of search algorithms stored in the algorithm database, and the image database is searched using the selected search algorithm. An image search method characterized by searching.
【請求項22】 上記検索アルゴリズムの選択は、 上記検索対象画像に含まれるオブジェクトの種別に対応
して行われることを特徴とする請求項21記載の画像検
索方法。
22. The image search method according to claim 21, wherein the selection of the search algorithm is performed in accordance with a type of an object included in the search target image.
【請求項23】 上記検索アルゴリズムの選択は、 上記検索対象画像に含まれるオブジェクトの特徴に対応
して行われることを特徴とする請求項21記載の画像検
索方法。
23. The image search method according to claim 21, wherein the selection of the search algorithm is performed in accordance with a feature of an object included in the search target image.
【請求項24】 検索対象画像を鍵として所定の検索ア
ルゴリズムに基づき画像データベースを検索して該検索
対象画像に関する情報を取得する画像検索装置におい
て、 複数の検索アルゴリズムを保持するアルゴリズムデータ
ベースと、 上記検索対象画像を鍵とする上記画像データベースの検
索に際して上記アルゴリズムデータベースに保持された
複数の検索アルゴリズムの中から該検索に適した検索ア
ルゴリズムを選択する選択手段と、 上記選択手段により選択された検索アルゴリズムを用い
て上記画像データベースを検索する検索手段と、 を具備することを特徴とする画像検索装置。
24. An image search device for searching an image database based on a predetermined search algorithm using a search target image as a key and acquiring information on the search target image, wherein: an algorithm database holding a plurality of search algorithms; Selecting means for selecting a search algorithm suitable for the search from a plurality of search algorithms held in the algorithm database when searching the image database using a target image as a key; and selecting the search algorithm selected by the selection means. And a search means for searching the image database using the image database.
【請求項25】 上記選択手段は、 上記検索対象画像に含まれるオブジェクトの種別に対応
して上記検索アルゴリズムの選択を行なうことを特徴と
する請求項24記載の画像検索装置。
25. The image search apparatus according to claim 24, wherein said selection means selects said search algorithm in accordance with a type of an object included in said search target image.
【請求項26】 上記選択手段は、 上記検索対象画像に含まれるオブジェクトの特徴に対応
して上記検索アルゴリズムの選択を行なうことを特徴と
する請求項24記載の画像検索装置。
26. The image search apparatus according to claim 24, wherein said selection means selects said search algorithm in accordance with characteristics of an object included in said search target image.
JP9061075A 1997-03-14 1997-03-14 Image retrieval method and device therefor Pending JPH10254903A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9061075A JPH10254903A (en) 1997-03-14 1997-03-14 Image retrieval method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9061075A JPH10254903A (en) 1997-03-14 1997-03-14 Image retrieval method and device therefor

Publications (1)

Publication Number Publication Date
JPH10254903A true JPH10254903A (en) 1998-09-25

Family

ID=13160660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9061075A Pending JPH10254903A (en) 1997-03-14 1997-03-14 Image retrieval method and device therefor

Country Status (1)

Country Link
JP (1) JPH10254903A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001024050A1 (en) * 1999-09-27 2001-04-05 Cadix Inc. Image recognition system and database system for image recognition
JP2003044497A (en) * 2001-07-31 2003-02-14 Mikio Numata Mobile picture book
EP1691542A1 (en) * 2005-02-15 2006-08-16 Sony Corporation Information processing apparatus, information processing method, and information processing system
US7548916B2 (en) 2003-04-30 2009-06-16 Canon Kabushiki Kaisha Calculating image similarity using extracted data
JP2009217828A (en) * 2009-04-10 2009-09-24 Konica Minolta Holdings Inc Image retrieval device
JP2013125506A (en) * 2011-12-16 2013-06-24 Pasuko:Kk Photographing object retrieval system
KR101291047B1 (en) * 2010-11-26 2013-08-01 한국생명공학연구원 User terminal having plants information providing application and method for providing plants information
JP2014238890A (en) * 2008-01-15 2014-12-18 アマゾン テクノロジーズ インコーポレーテッド Enhancing and storing data for recall and use
JP2016110626A (en) * 2014-11-28 2016-06-20 キヤノン株式会社 Classifying method, inspection method, inspection apparatus, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05252432A (en) * 1991-11-25 1993-09-28 Olympus Optical Co Ltd Camera system
JPH05324832A (en) * 1992-05-19 1993-12-10 N T T Data Tsushin Kk Image recognizing device
JPH0668169A (en) * 1992-08-18 1994-03-11 Mitsubishi Electric Corp Picture data retrieval method
JPH07123348A (en) * 1993-10-28 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> Image pickup device with position measuring mechanism
JPH07160725A (en) * 1993-12-03 1995-06-23 Toshiba Corp Picture retrieval device
JPH07296001A (en) * 1994-04-21 1995-11-10 Canon Inc Information unit
JPH0883343A (en) * 1994-09-14 1996-03-26 Juki Corp Device for recognizing step part of sewed object
JPH08202733A (en) * 1995-01-31 1996-08-09 Canon Inc Method and device for retrieving image
JPH08249352A (en) * 1995-03-15 1996-09-27 Omron Corp Method and device for image retrieval
JPH08263522A (en) * 1995-03-24 1996-10-11 Dainippon Screen Mfg Co Ltd Image retrieving method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05252432A (en) * 1991-11-25 1993-09-28 Olympus Optical Co Ltd Camera system
JPH05324832A (en) * 1992-05-19 1993-12-10 N T T Data Tsushin Kk Image recognizing device
JPH0668169A (en) * 1992-08-18 1994-03-11 Mitsubishi Electric Corp Picture data retrieval method
JPH07123348A (en) * 1993-10-28 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> Image pickup device with position measuring mechanism
JPH07160725A (en) * 1993-12-03 1995-06-23 Toshiba Corp Picture retrieval device
JPH07296001A (en) * 1994-04-21 1995-11-10 Canon Inc Information unit
JPH0883343A (en) * 1994-09-14 1996-03-26 Juki Corp Device for recognizing step part of sewed object
JPH08202733A (en) * 1995-01-31 1996-08-09 Canon Inc Method and device for retrieving image
JPH08249352A (en) * 1995-03-15 1996-09-27 Omron Corp Method and device for image retrieval
JPH08263522A (en) * 1995-03-24 1996-10-11 Dainippon Screen Mfg Co Ltd Image retrieving method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001024050A1 (en) * 1999-09-27 2001-04-05 Cadix Inc. Image recognition system and database system for image recognition
JP2003044497A (en) * 2001-07-31 2003-02-14 Mikio Numata Mobile picture book
US7548916B2 (en) 2003-04-30 2009-06-16 Canon Kabushiki Kaisha Calculating image similarity using extracted data
EP1691542A1 (en) * 2005-02-15 2006-08-16 Sony Corporation Information processing apparatus, information processing method, and information processing system
CN100422995C (en) * 2005-02-15 2008-10-01 索尼株式会社 Information processing apparatus, information processing method, and information processing system
US8279319B2 (en) 2005-02-15 2012-10-02 Sony Corporation Information processing apparatus, information processing method, and information processing system
JP2014238890A (en) * 2008-01-15 2014-12-18 アマゾン テクノロジーズ インコーポレーテッド Enhancing and storing data for recall and use
JP2009217828A (en) * 2009-04-10 2009-09-24 Konica Minolta Holdings Inc Image retrieval device
KR101291047B1 (en) * 2010-11-26 2013-08-01 한국생명공학연구원 User terminal having plants information providing application and method for providing plants information
JP2013125506A (en) * 2011-12-16 2013-06-24 Pasuko:Kk Photographing object retrieval system
JP2016110626A (en) * 2014-11-28 2016-06-20 キヤノン株式会社 Classifying method, inspection method, inspection apparatus, and program

Similar Documents

Publication Publication Date Title
EP2378392B1 (en) Information displaying apparatus and information displaying method
US10621463B2 (en) Systems and methods for processing images with edge detection and snap-to feature
JP5281972B2 (en) Imaging device
CN101799621B (en) Shooting method and shooting equipment
US20090232417A1 (en) Method and Apparatus of Annotating Digital Images with Data
KR20090087670A (en) Method and system for extracting the photographing information
JP4831314B2 (en) Object recognition system
JP5472972B2 (en) Object information display device, object information display method, object information display program
JP2005142938A (en) Electronic camera, control program
JPH10254903A (en) Image retrieval method and device therefor
KR101307325B1 (en) System for dual-searching image using region of interest set
JP2003288601A (en) Imaging apparatus, image processing apparatus, image processing method, and method of image information classification service
WO2015074628A1 (en) Analysis comparison apparatus and analysis comparison method
JP6210807B2 (en) Display control device and control method of display control device
WO2015096824A1 (en) Analysis device and analysis method
CN103428434B (en) Infrared photographing apparatus and infrared photographing method
JP2017054555A (en) Image processing apparatus, image processing method, and program
CN108234868B (en) Intelligent shooting system and method based on case reasoning
CN113645404A (en) Automatic focusing method, system, intelligent device, computer device and computer readable storage medium
JP5753514B2 (en) Image display device and computer program
CN113597603A (en) Data processing method, device, equipment and storage medium
JP2007179455A (en) Object recognition system
CN105117478A (en) Method for automatic sorting and storing image of auxiliary shooting device of PDA application program
JP2004242288A (en) Video reproducing apparatus and video recording and reproducing apparatus
JP2013175956A (en) Image pickup device, image pickup method, image processing device, image processing method and image processing system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040906