JP2007200020A - Object recognition system - Google Patents

Object recognition system Download PDF

Info

Publication number
JP2007200020A
JP2007200020A JP2006017827A JP2006017827A JP2007200020A JP 2007200020 A JP2007200020 A JP 2007200020A JP 2006017827 A JP2006017827 A JP 2006017827A JP 2006017827 A JP2006017827 A JP 2006017827A JP 2007200020 A JP2007200020 A JP 2007200020A
Authority
JP
Japan
Prior art keywords
feature quantity
image
information
feature
distribution data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006017827A
Other languages
Japanese (ja)
Other versions
JP4831314B2 (en
Inventor
Wakako Suganuma
輪香子 菅沼
Koichi Ishiwatari
弘一 石渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006017827A priority Critical patent/JP4831314B2/en
Publication of JP2007200020A publication Critical patent/JP2007200020A/en
Application granted granted Critical
Publication of JP4831314B2 publication Critical patent/JP4831314B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object recognition system for quickly performing retrieval. <P>SOLUTION: The distribution information of features is generated for every featured value from a refined database 50 by a distribution data formation part 52. A distribution value Ve is obtained for each featured value, and a data retrieval engine 40 retrieves the data in the descending order of the distribution value Ve. The retrieval engine 40 compares the featured values of the plant group of the refined database 50 and that of the object to identify the object. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は対象物認識システムに関する。   The present invention relates to an object recognition system.

従来の対象物認識システムとして下記の公開特許公報に記載されたものが知られている。   A conventional object recognition system described in the following published patent publication is known.

花と葉のデジタル画像からクラスタリング法を用いて対象物である花と葉の画像を抽出し、その抽出された花と葉の画像から単数又は複数の特徴量を求め、その求められた特徴量と、あらかじめデータベースに登録してある各種の植物の特徴量とを統計的手法を用いて解析して野草の種類を判別する。
特開2002−203242号公報
Extracting the image of the target flower and leaf from the digital image of the flower and leaf using the clustering method, obtaining one or more feature quantities from the extracted flower and leaf images, and obtaining the obtained feature quantity Then, the feature quantity of various plants registered in the database in advance is analyzed using a statistical method to determine the type of wild grass.
Japanese Patent Laid-Open No. 2002-203242

上記従来の対象物認識システムでは、データベースに登録された全ての特徴量毎に、画像から所定のパラメータを有する確率を求め、野草の種類を判別する。そのため、判別結果がでるまでに多くの演算時間が必要になる。   In the above-described conventional object recognition system, the probability of having a predetermined parameter is obtained from an image for every feature amount registered in the database, and the type of wild grass is determined. For this reason, a lot of calculation time is required until a discrimination result is obtained.

この発明はこのような事情に鑑みてなされたもので、迅速に検索を行うことができる対象物認識システムを提供することである。   This invention is made in view of such a situation, and is providing the target object recognition system which can search quickly.

上記課題を解決するため請求項1記載の発明は、対象物の画像を撮像する撮像手段と、前記撮像手段で撮像された画像から前記対象物の特徴量を抽出する特徴量抽出手段と、前記対象物が属するカテゴリに含まれる複数の種について、少なくとも前記特徴量に対応する特徴量情報が登録されたデータベースと、前記データベースに登録された前記特徴量情報からデータ群を抽出するデータベース絞込み手段と、前記データベース絞込み手段による抽出の条件を設定する絞込み条件設定手段と、前記データベース絞込み手段によって抽出された前記データ群に対してそれぞれ特徴量分布データを形成する分布データ形成手段と、前記分布データ形成手段によって形成された前記特徴量分布データに基づいて前記特徴量抽出手段によって抽出された前記特徴量と前記データベース絞込み手段によって抽出された前記データ群の中の前記特徴量情報とを対比して前記データ群の中の前記特徴量情報から前記特徴量と同じ特徴量を有する特徴量情報を検索する検索手段とを備えていることを特徴とする。   In order to solve the above-mentioned problem, an invention according to claim 1 is characterized in that an imaging unit that captures an image of an object, a feature amount extraction unit that extracts a feature amount of the object from an image captured by the imaging unit, A database in which feature quantity information corresponding to at least the feature quantity is registered for a plurality of species included in the category to which the object belongs, and database narrowing means for extracting a data group from the feature quantity information registered in the database; , A narrowing condition setting means for setting conditions for extraction by the database narrowing means, a distribution data forming means for forming feature quantity distribution data for each of the data groups extracted by the database narrowing means, and the distribution data forming Extracted by the feature quantity extraction means based on the feature quantity distribution data formed by the means. Feature quantity information having the same feature quantity as the feature quantity from the feature quantity information in the data group by comparing the feature quantity with the feature quantity information in the data group extracted by the database narrowing means And a search means for searching.

請求項2記載の発明は、請求項1記載の対象物認識システムにおいて、前記分布データ形成手段は前記特徴量情報ごとに形成された前記特徴量分布データのうち最も均等に分布する特徴量分布データから順に前記特徴量に順位を付け、前記検索手段は前記分布データ形成手段で順位付けされた順序で検索を行うことを特徴とする。   According to a second aspect of the present invention, in the object recognition system according to the first aspect, the distribution data forming means distributes the feature quantity distribution data most evenly distributed among the feature quantity distribution data formed for each feature quantity information. The feature amounts are ranked in order, and the search means searches in the order ranked by the distribution data forming means.

請求項3記載の発明は、請求項1記載の対象物認識システムにおいて、前記分布データ形成手段は前記特徴量情報ごとに形成された前記特徴量分布データのうち最も多く出現するパラメータを有する特徴量分布データのデータ数が少ない順に前記特徴量に順位を付け、前記検索手段は前記分布データ形成手段で順位付けされた順序で検索を行うことを特徴とする。   According to a third aspect of the present invention, in the object recognition system according to the first aspect, the distribution data forming means has a feature quantity having a parameter that appears most frequently among the feature quantity distribution data formed for each of the feature quantity information. The feature amounts are ranked in ascending order of the number of distribution data, and the search means searches in the order ranked by the distribution data forming means.

請求項4記載の発明は、対象物の画像を撮像する撮像手段と、前記撮像手段で撮像された画像を表示する画像表示手段と、前記対象物が属するカテゴリに含まれる複数の種について、少なくとも前記対象物の特徴量に対応する特徴量情報が登録されたデータベースと、前記データベースに登録された前記特徴量情報に対してそれぞれ特徴量分布データを形成する分布データ形成手段と、前記特徴量毎の特徴量分布データを表示する表示手段と、前記特徴量分布データに基づいて、前記表示手段に表示された画像の一部を選択する選択手段と、前記選択手段で選択された前記画像の一部の情報に基づいて前記対象物の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段によって抽出された前記特徴量と前記データベースに登録された前記特徴量情報とを対比して前記データ群の中の前記特徴量情報から前記特徴量と同じ特徴量を有する特徴量情報を検索する検索手段とを備えていることを特徴とする。   According to a fourth aspect of the present invention, there is provided at least an imaging unit that captures an image of an object, an image display unit that displays an image captured by the imaging unit, and a plurality of species included in a category to which the object belongs. A database in which feature amount information corresponding to the feature amount of the object is registered; distribution data forming means for forming feature amount distribution data for the feature amount information registered in the database; and for each feature amount Display means for displaying the feature quantity distribution data, selection means for selecting a part of the image displayed on the display means based on the feature quantity distribution data, and one of the images selected by the selection means. Feature quantity extraction means for extracting the feature quantity of the object based on the information of the part, the feature quantity extracted by the feature quantity extraction means and the database registered in the database By comparing the symptoms amount information, characterized by comprising a search unit for searching the feature amount information having the same characteristic quantity and the characteristic quantity from the feature amount information in the data group.

請求項5記載の発明は、請求項4記載の対象物認識システムにおいて、前記画像の一部は少なくとも1つの部位であることを特徴とする。   According to a fifth aspect of the present invention, in the object recognition system according to the fourth aspect, a part of the image is at least one part.

請求項6記載の発明は、請求項4記載の対象物認識システムにおいて、前記画像の一部は前記選択手段で選択した閉曲線で囲まれた少なくとも1つの領域であることを特徴とする。   A sixth aspect of the present invention is the object recognition system according to the fourth aspect, wherein a part of the image is at least one region surrounded by a closed curve selected by the selection means.

請求項7記載の発明は、請求項5又は6記載の対象物認識システムにおいて、前記特徴量は前記画像中の選択された部位又は領域から抽出された色情報であることを特徴とする。   A seventh aspect of the present invention is the object recognition system according to the fifth or sixth aspect, wherein the feature amount is color information extracted from a selected part or region in the image.

請求項8記載の発明は、請求項5又は6記載の対象物認識システムにおいて、前記特徴量は選択された少なくとも2つの部位又は領域間の距離情報であることを特徴とする。   The invention according to claim 8 is the object recognition system according to claim 5 or 6, wherein the feature amount is distance information between at least two selected parts or regions.

請求項9記載の発明は、請求項6記載の対象物認識システムにおいて、前記特徴量は前記画像中の選択された少なくとも1つの領域の最小径、最大径、平均径、面積のうちの少なくとも1つであることを特徴とする。   According to a ninth aspect of the present invention, in the object recognition system according to the sixth aspect, the feature amount is at least one of a minimum diameter, a maximum diameter, an average diameter, and an area of at least one selected region in the image. It is characterized by being one.

請求項10記載の発明は、請求項6記載の対象物認識システムにおいて、前記特徴量は前記画像中の選択された少なくとも1つの領域の形状であることを特徴とする。   According to a tenth aspect of the present invention, in the object recognition system according to the sixth aspect, the feature amount is a shape of at least one selected region in the image.

請求項11記載の発明は、請求項4〜6のいずれか1項記載の対象物認識システムにおいて、前記特徴量は選択された複数の部位又は/及び領域の分布情報であることを特徴とする。   The invention according to claim 11 is the object recognition system according to any one of claims 4 to 6, wherein the feature amount is distribution information of a plurality of selected parts or / and regions. .

請求項12記載の発明は、請求項4記載の対象物認識システムにおいて、前記画像表示手段において、前記選択手段で選択された部位又は及び領域の輪郭、又は選択されない部位又は及び領域の色又は明るさが変化することを特徴とする。   According to a twelfth aspect of the present invention, in the object recognition system according to the fourth aspect, in the image display means, the outline of the part or area selected by the selection means, or the color or brightness of the non-selected part or area. It is characterized by the change.

この発明によれば迅速に検索を行うことができる。   According to this invention, it is possible to search quickly.

以下、この発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1はこの発明の第1実施形態に係る対象物認識システムの全体構成図、図2(a)は地域別植生データ及び元データベースの一例を示す図、図2(b)は地域別植物群情報71と元データベース60とから絞込みデータベース50を作成する手順の一例を示す図である。   FIG. 1 is an overall configuration diagram of an object recognition system according to the first embodiment of the present invention, FIG. 2 (a) is a diagram showing an example of regional vegetation data and an original database, and FIG. 2 (b) is a regional plant group. It is a figure which shows an example of the procedure which produces the narrowing-down database 50 from the information 71 and the original database 60. FIG.

この対象物認識システムは、撮像装置(撮像手段)10と画像表示部(画像表示手段)20と特徴量抽出部(特徴量抽出手段)30と検索エンジン(検索手段)40と絞込みデータベース50と元データベース60とデータ抽出部(データベース絞込み手段)70とGPSモジュール(絞込み条件設定手段)80とを備えている。   This object recognition system includes an imaging device (imaging unit) 10, an image display unit (image display unit) 20, a feature amount extraction unit (feature amount extraction unit) 30, a search engine (search unit) 40, a narrowing database 50, and an original. A database 60, a data extraction unit (database narrowing means) 70, and a GPS module (squeezing condition setting means) 80 are provided.

撮像装置10は撮影レンズ(撮像光学系)11と撮像部12と画像処理回路13とを備えている。   The imaging device 10 includes a photographic lens (imaging optical system) 11, an imaging unit 12, and an image processing circuit 13.

撮影レンズ11は花等の対象物の光学像を撮像部12の受光面上に結像させる。なお、図1には撮影レンズ11は1つのレンズとして描かれているが、実際には複数のレンズで構成される。   The taking lens 11 forms an optical image of an object such as a flower on the light receiving surface of the imaging unit 12. In FIG. 1, the photographic lens 11 is depicted as a single lens, but is actually composed of a plurality of lenses.

撮像部12としてはCCD(Charge Coupled Device)を用いることができる。CCDは複数の受光素子を含み、撮影レンズ11によって結像された対象物の光学像によってそれぞれの受光素子に蓄積された電荷を、アナログの電気信号として画像処理回路13に出力する。   As the imaging unit 12, a CCD (Charge Coupled Device) can be used. The CCD includes a plurality of light receiving elements, and outputs the charges accumulated in each light receiving element by the optical image of the object formed by the photographing lens 11 to the image processing circuit 13 as an analog electric signal.

画像処理回路13はCCDから受け取った、対象物のアナログ電気信号をR、G、Bの各成分に分解する。画像処理回路13はR、G、Bの各成分に分解されたアナログ電気信号をデジタル信号に変換し、対象物の像を示すデジタルの画像データをメモリ(図示せず)に記憶させて各種の処理を行なった後、デジタル信号をアナログ信号に変換してアナログの画像データを画像表示部20に出力する。   The image processing circuit 13 decomposes the analog electrical signal of the object received from the CCD into R, G, and B components. The image processing circuit 13 converts an analog electric signal decomposed into R, G, and B components into a digital signal, and stores digital image data indicating an image of the object in a memory (not shown) to perform various operations. After the processing, the digital signal is converted into an analog signal and analog image data is output to the image display unit 20.

画像表示部20としてはCRTディスプレイやLCDパネルを用いることができる。画像表示部20に撮像装置10によって撮像された画像データが出力され、対象物の画像(対象植物画像)21が検索者に提供される。また、画像表示部20には検索エンジン40によって検索されたデータ、例えば画像(検索結果画像22、検索結果画像23)や名称等を含む情報が表示される。   As the image display unit 20, a CRT display or an LCD panel can be used. Image data captured by the imaging device 10 is output to the image display unit 20, and an image of the target object (target plant image) 21 is provided to the searcher. The image display unit 20 displays data searched by the search engine 40, for example, information including images (search result image 22, search result image 23) and names.

特徴量抽出部30は対象物の画像から特徴量を抽出する。特徴量は例えば花の色情報、花の輪郭から抽出される花弁の枚数、形状、大きさ等である。   The feature amount extraction unit 30 extracts feature amounts from the image of the object. The feature amount is, for example, flower color information, the number of petals extracted from the contour of the flower, shape, size, and the like.

検索エンジン40は特徴量抽出部30で抽出された例えば色情報(特徴量)と絞込みデータベース50に登録された色情報(特徴量)とを対比し、抽出された色情報と同じ色情報を有するデータを検索する。   The search engine 40 compares, for example, color information (feature amount) extracted by the feature amount extraction unit 30 with color information (feature amount) registered in the narrowing database 50, and has the same color information as the extracted color information. Search for data.

絞込みデータベース50にはデータ抽出部70で抽出された地域毎の植生情報が入力されている。この情報に基づいて、絞込みデータベース50には所定の地域に生える植物群に絞り込まれた絞込みデータ(名前、科、特徴量、開花時期(結実時期)等)51が登録される。   Vegetation information for each region extracted by the data extraction unit 70 is input to the narrowing database 50. Based on this information, narrowing data (name, family, feature amount, flowering time (fruiting time), etc.) 51 narrowed down to a group of plants that grow in a predetermined area is registered in the narrowing database 50.

また、絞込みデータベース50では分布データ形成部(分布データ形成手段)52を用いて所定の地域に生える植物群に絞り込まれたデータに基づいて分布データ(特徴量分布データ)が形成される。   In the narrowing-down database 50, distribution data (feature amount distribution data) is formed based on data narrowed down to a group of plants that grow in a predetermined area using the distribution data forming unit (distribution data forming means) 52.

元データベース60には例えば日本全国の野草に対応するデータ(名前、科、特徴量(色情報、形状情報等)、開花時期(結実時期)等の時期情報、解説、サンプル画像)が登録されている(図2(a)参照)。日本には代表的な野草として約2000種の植物が自生している。例えば、フウロソウ科の植物は、ハクサンフウロ、イヨフウロ、アサマフウロ、タチフウロ、グンナイフウロ、ヒメフウロ、イチゲフウロ、ミツバフウロ、コフウロの10種、亜種を含めると17種ある(参考文献:山渓ハンディ図鑑2“山に咲く花”)。   For example, data (name, family, feature amount (color information, shape information, etc.), time information such as flowering time (fruiting time), commentary, sample images) corresponding to wild grasses throughout Japan are registered in the original database 60. (See FIG. 2 (a)). In Japan, about 2000 kinds of plants are growing as typical wild grasses. For example, there are 17 species in the family Auriculariaceae, including 10 species and subspecies of Haksanfuuro, Iyofuuro, Asamafuuro, Tachifuuro, Gunkniuuro, Himefuuro, Ichigefuuro, Mitsubafuuro, Kofuuro (reference: Sankei Handy 2) flower").

したがって、元データベース60の花の色、形等の特徴量と対象物の画像の花の色、形等の特徴量とを比較して植物の同定を行うことは難しい。しかし、花は特定の地方や山域に分布しており、所定の山域に限定すれば多くとも数種の花に絞ることができる。   Therefore, it is difficult to identify a plant by comparing the feature amount such as the color and shape of the flower of the original database 60 with the feature amount such as the color and shape of the flower of the object image. However, the flowers are distributed in specific regions and mountain areas, and if limited to a predetermined mountain area, it can be narrowed down to several kinds of flowers at most.

データ抽出部70はGPSモジュール80で取得した場所情報を入力する。データ抽出部70には複数の地域データと各地域に生える野草群データとが格納されている。データ抽出部70は選択された地域の野草群データに基づいて元データベース60から選択された地域に生える野草の情報(地域別植物群情報)71だけを選択して絞込みデータ51を作成する。地域別植物群情報71は例えば図2(a)に示すように、各地域a,b,c…に生育する植物群の植生情報である。   The data extraction unit 70 inputs the location information acquired by the GPS module 80. The data extraction unit 70 stores a plurality of regional data and wild grass group data growing in each region. The data extraction unit 70 selects only wild grass information (regional plant group information) 71 that grows in the selected region from the original database 60 based on the wild grass group data of the selected region, and creates narrowed data 51. The regional plant group information 71 is vegetation information of a plant group growing in each region a, b, c..., For example, as shown in FIG.

絞込みデータベース50は地域別植物群情報71と元データベース60とから作成される。GPSモジュール80によって検出された位置が例えば地域cである場合を例に絞込みデータベース50の作成手順を説明する。地域cに生育する植物群は植物群c(植物1、3、5、7…)である(図2(a)参照)。データ抽出部70は元データベース60から植物1、3、5、7…を地域cの絞込みデータとして抽出する。この絞込みデータを得る作業は地域を変更しない場合には最初に検索作業を行ったときの絞込みデータを用いて行われる。   The narrowing-down database 50 is created from the regional plant group information 71 and the original database 60. A procedure for creating the narrowed-down database 50 will be described by taking as an example a case where the position detected by the GPS module 80 is, for example, the region c. The plant group that grows in the region c is the plant group c (plants 1, 3, 5, 7,...) (See FIG. 2A). The data extraction unit 70 extracts the plants 1, 3, 5, 7,... The operation for obtaining the narrowed-down data is performed using the narrowed-down data when the search work is first performed when the region is not changed.

GPSモジュール80は複数の人工衛星からの信号に基づいて画像を取得した場所情報を取得する。   The GPS module 80 acquires location information obtained from images based on signals from a plurality of artificial satellites.

次に、画像から花の大きさや草丈の高さを抽出する方法を説明する。   Next, a method for extracting the size of the flower and the height of the plant height from the image will be described.

図3は画像から花の大きさや草丈の高さを抽出する方法を説明するための図である。   FIG. 3 is a diagram for explaining a method of extracting the size of the flower and the height of the plant height from the image.

花の直径φは、画像21上の花の直径φ’、倍率β、又はレンズ11の焦点距離f及びレンズから対象物までの距離dとしたとき、以下の1式で算出される。   The diameter φ of the flower is calculated by the following equation, where the diameter φ ′ of the flower on the image 21, the magnification β, or the focal length f of the lens 11 and the distance d from the lens to the object.

φ = φ’/β
= fφ’/(d−f) ・・・(1式)
ここで、dはレンズ11から対象物までの距離として、撮像装置10に搭載された自動焦点機構(AF)により、焦点の合った状態でのレンズ11の繰り出し量から求めることができる。また、焦点距離fは、単焦点レンズの場合は固定値で、ズームレンズでも、通常デジタルカメラのレンズデータとして撮影されたデジタル画像とともに保存されている。
φ = φ '/ β
= Fφ '/ (df) (1 formula)
Here, d can be obtained as the distance from the lens 11 to the object from the amount of extension of the lens 11 in an in-focus state by an autofocus mechanism (AF) mounted on the imaging device 10. The focal length f is a fixed value in the case of a single focus lens, and is stored together with a digital image usually taken as lens data of a digital camera even in a zoom lens.

花の大きさは、抽出された花の画像の外形からその直径がmm単位で計測され、データベース50内の花の大きさ情報と照合され、他の特徴量とともに検索作業が行われる。   The diameter of the flower is measured in mm from the outer shape of the extracted flower image, collated with the flower size information in the database 50, and a search operation is performed along with other feature amounts.

また、セリ科やトウダイグサ科に代表されるように、花や実が房状につくものについては、大きさの情報として花単体および花房の大きさをデータベース50の特徴量に予め入力しておくことによって、その大きさ情報を、マクロレンズ(レンズ11)による花単体の画像及びそれ以外のレンズ(レンズ11)による花房全体から花房の大きさの計測に用いることができる。更に、植物全体の画像から、対象物である草丈の高さを求めることもできる。 In addition, for flowers and fruits that have a tuft shape, as represented by the Apiaceae and Euphorbiaceae, the size of the single flower and the tuft is input in advance into the feature quantity of the database 50 as size information. Thus, the size information can be used to measure the size of the flower from the whole image of the flower by the macro lens (lens 11) and the other flower (lens 11). Furthermore, the height of the plant height that is the object can also be obtained from the image of the entire plant.

次に、分布データ形成部52について説明する。   Next, the distribution data forming unit 52 will be described.

図4は絞込みデータベースが有する特徴量の分布データの一例を示す図である。   FIG. 4 is a diagram illustrating an example of distribution data of feature amounts included in the narrowing-down database.

分布データ形成部52は絞込みデータベース50の特徴量毎に分布データを作成する。例えば、地域cの所定の地域における絞込みデータベース50から、所定の特徴量の分布データが形成される。分布データ形成部52は各々の特徴量に対する分布データから、以下の2式で表される分散値Veを求める。   The distribution data forming unit 52 creates distribution data for each feature amount of the narrowing database 50. For example, distribution data of a predetermined feature amount is formed from the narrow-down database 50 in a predetermined area of the area c. The distribution data forming unit 52 obtains a variance value Ve expressed by the following two formulas from distribution data for each feature quantity.

Ve=Se/(n−1) ・・・(2式)
ここで、Seはデータ間の差の大きさであり、以下の3式で表される。
Ve = Se / (n-1) (2 formulas)
Here, Se is the magnitude of the difference between the data and is expressed by the following three equations.

Se=ST−S・・・(3式)
(但し、ST=y1 2+y2 2+y3 2+・・・+yn 2、Sm=(y1+y2+y3+・・・+yn2/n)
図4に示す各々の特徴量について分散値Veを求めた。分散値Veは、特徴量「花の形状と分布」の分散値Veは17.0、「花の色」の分散値Veは24.1、「花(又は花序)の大きさ」の分散値Veは97.8であった。分布データ形成部52は、絞込みデータベース50のデータの分散が最も小さい順、すなわち「花の形状と分布」、「花の色」、「花(又は花序)の大きさ」の順にデータの検索を行うように、検索エンジン40に指示する。
Se = S T −S m (3 formulas)
(However, S T = y 1 2 + y 2 2 + y 3 2 +... + Y n 2 , Sm = (y 1 + y 2 + y 3 +... + Y n ) 2 / n)
The variance value Ve was obtained for each feature amount shown in FIG. The variance value Ve is the variance value Ve of the feature value “flower shape and distribution” is 17.0, the variance value Ve of “flower color” is 24.1, and the “flower (or inflorescence) size” variance value. Ve was 97.8. The distribution data forming unit 52 searches the data in the order of the smallest variance of the data in the narrowing-down database 50, that is, “flower shape and distribution”, “flower color”, and “flower (or inflorescence) size”. The search engine 40 is instructed to do so.

まず、検索エンジン40は「花の形状と分布」による検索を行う。対象物の画像から抽出された花の形状と分布と、絞込みデータベース50の花の形状と分布とを照合させて同じ特徴を有するデータを抽出し、不図示のデータ格納部に保存する。図1に示す検索エンジン40は絞込みデータベース50の植物群の絞込みデータと対象物との特徴量同士を対比することによって、対象物の同定作業を行う。   First, the search engine 40 performs a search based on “flower shape and distribution”. Data having the same characteristics is extracted by collating the shape and distribution of the flower extracted from the image of the object with the shape and distribution of the flower of the narrow-down database 50, and stored in a data storage unit (not shown). The search engine 40 shown in FIG. 1 performs an object identification operation by comparing feature data of the narrowed-down data of the plant group in the narrowed-down database 50 and the target object.

次に、検索エンジン40は「花の色」による検索を行なう。データ格納部に存在するデータのうち、対象植物の画像21から抽出された色データの条件に合致するデータが抽出され、それ以外のデータはデータ格納部から取り除かれる。その後、「花(又は花序)の大きさ」に対しても同様の抽出作業が行われる。   Next, the search engine 40 performs a search based on “flower color”. Of the data existing in the data storage unit, data that matches the condition of the color data extracted from the image 21 of the target plant is extracted, and other data is removed from the data storage unit. Thereafter, the same extraction operation is performed for “the size of the flower (or inflorescence)”.

選択された対象物のサンプル画像は、LCDパネル等の画像表示部20に表示される。   A sample image of the selected object is displayed on the image display unit 20 such as an LCD panel.

検索された対象物の候補が複数ある場合には、それらを例えば図1に示すように画面を分割して一度に画像表示部20に表示させたり、図示しない送りボタンを押す毎に候補となるサンプル画像を順次表示させたりすることができる。なお、画像表示部20には、撮像された対象物の画像21も同時に表示される。   If there are a plurality of candidates for the searched object, the screen is divided and displayed on the image display unit 20 at one time, for example, as shown in FIG. Sample images can be displayed sequentially. The image display unit 20 also displays a captured image 21 of the object at the same time.

検索者はサンプル画像と対象物の画像21、又はサンプル画像と対象物の画像とを対比して対象物と同じサンプル画像を選択する。画像からの同定が困難な植物の場合は、サンプル画像とともに、同定のポイントとなる特徴を記載した文章が画像表示部20に表示される。同定のポイントとなる特徴は例えば、茎の毛の有無や、葉の裏の色等である。   The searcher selects the same sample image as the target object by comparing the sample image and the target object image 21 or the sample image and the target object image. In the case of a plant that is difficult to identify from an image, a sentence that describes the features that serve as identification points is displayed on the image display unit 20 together with the sample image. Features that serve as identification points are, for example, the presence or absence of stem hair and the color of the back of the leaves.

検索者は、対象物が目の前にある場合には、対象物を観察して同定作業を行う。サンプル画像とサンプル画像に付随する植物の情報とは、撮影した対象物の画像21の情報としてデジタルカメラの図示しない記憶部に記録される。したがって、撮影者は、帰宅後であっても、デジタルカメラに記録された対象植物の情報に基づいて写真の整理を行うことができる。   When the object is in front of the eyes, the searcher observes the object and performs identification work. The sample image and the plant information accompanying the sample image are recorded in a storage unit (not shown) of the digital camera as information of the photographed image 21 of the object. Therefore, the photographer can organize photographs based on the information on the target plant recorded in the digital camera even after returning home.

検索作業の途中で、データ数が設定された所定の数よりも少ない場合には検索処理が中断され、画像表示部20に抽出に用いられた特徴量と同定候補となるデータ数が表示される。検索者はそのデータ数で十分と判断すれば、候補となる対象物の画像(サンプル画像)を表示して、その中から対象植物の画像と同定される画像を見つける。このとき、対象物の候補となる植物の数が多い場合には画面をスクロールして表示するようにしてもよい。また、対象物と同定された候補となる植物を対象物の画像21の付随データとして登録し、後で対象物の画像21を読み出したときに、登録された付随データを同時に表示させるようにしてもよい。   If the number of data is less than the predetermined number during the search operation, the search process is interrupted, and the feature quantity used for extraction and the number of identification candidate data are displayed on the image display unit 20. . If the searcher determines that the number of data is sufficient, the image of the candidate object (sample image) is displayed, and an image identified as the image of the target plant is found from among the images. At this time, if the number of plants that are candidates for the object is large, the screen may be scrolled and displayed. In addition, a candidate plant identified as an object is registered as accompanying data of the object image 21, and when the image 21 of the object is read later, the registered accompanying data is displayed at the same time. Also good.

この実施形態によれば、分布データを用いて検索を行うので、演算時間を短縮でき、迅速に検索結果を求めることができる。また、絞込みデータベース50の絞込みデータの特徴量毎の分布データを形成し、それぞれの分布について分散値Veを求め、分散値Veの小さい順に特徴量を順位付けして検索を行うので、効率的に検索を行うことができる。   According to this embodiment, since the search is performed using the distribution data, the calculation time can be shortened and the search result can be quickly obtained. Further, distribution data for each feature amount of the refined data in the refinement database 50 is formed, a variance value Ve is obtained for each distribution, and search is performed by ranking the feature amounts in ascending order of the variance value Ve. Search can be performed.

なお、この実施形態では、絞込みデータベース50の各特徴量の分布データを形成し、その分散値Veに基いて検索の順位を付けたが、例えば各々の特徴量の分布データのうち最多の特徴(パラメータ)を示すデータ数を比較し、このデータ数が最も小さいものから順に検索を行うようにしてもよい。この場合には、分散値Veを求めなくてもよいので、更に簡易に検索結果を求めることができる。   In this embodiment, the distribution data of each feature quantity in the narrowing-down database 50 is formed, and the search ranking is given based on the variance value Ve. For example, the largest number of features (of the distribution data of each feature quantity ( The number of data indicating parameters) may be compared, and the search may be performed in order from the smallest number of data. In this case, since it is not necessary to obtain the variance value Ve, the search result can be obtained more easily.

また、この実施形態においては、元データベース60から地域別植物群情報71だけを選択して絞込みデータ51を作成し、この絞込みデータ51の分布データを形成したが、対象物の画像21の撮影時期、又は撮影時期と位置情報とに基づいて絞込みデータ51を作成してもよい。時期情報と位置情報とをリンクさせるようにすれば、検索の精度を更に向上させることができる。このとき、形成される特徴量の分布データは時期、場所等の条件の違いにより変化する。   In this embodiment, only the regional plant group information 71 is selected from the original database 60 to create the narrowed data 51 and the distribution data of the narrowed data 51 is formed. Alternatively, the narrowed-down data 51 may be created based on the shooting time and position information. If the timing information and the position information are linked, the accuracy of the search can be further improved. At this time, the distribution data of the feature amount to be formed changes depending on the conditions such as time and place.

更に、この実施形態では、全国に2000種ある植物を例に、元データベース60から地域による絞込みデータベース50を作成する場合で説明したが、母集団の限られた元データベース60であれば、絞込みデータベース50を作成せずに、元データベース60のデータから直接特徴量ごとの分布データを予め形成して検索の順位付けを行うようにしてもよい。   Furthermore, in this embodiment, the case where the narrowed-down database 50 according to the region is created from the original database 60 by taking 2000 kinds of plants nationwide as an example has been described. However, if the original database 60 has a limited population, the narrowed-down database 50 50 may not be created, and distribution data for each feature amount may be directly formed from the data of the original database 60 in advance to perform search ranking.

図5はこの発明の第2実施形態に係る対象物認識システムの全体構成図であり、第1実施形態と共通する部分には同一符合を付してその説明を省略する。   FIG. 5 is an overall configuration diagram of the object recognition system according to the second embodiment of the present invention, and the same reference numerals are given to portions common to the first embodiment, and description thereof is omitted.

この対象物認識システムは、撮像装置10と画像表示部20とデータベース150と分布データ作成部(分布データ作成手段)152とタッチペン(選択手段)25と選択領域画像抽出部(選択領域画像抽出手段)90と特徴量抽出部(特徴量抽出手段)30と検索エンジン(検索手段)40と同定候補表示部(表示手段)45とを備えている。   The object recognition system includes an imaging device 10, an image display unit 20, a database 150, a distribution data creation unit (distribution data creation unit) 152, a touch pen (selection unit) 25, and a selection region image extraction unit (selection region image extraction unit). 90, a feature amount extraction unit (feature amount extraction unit) 30, a search engine (search unit) 40, and an identification candidate display unit (display unit) 45.

データベース150には、対象物が属するカテゴリ(この実施形態では植物のカテゴリ)に含まれる複数の種のそれぞれについて、その種の特徴となる複数の特徴量データ(名前、科、特徴量、開花時期、(結実時期)等の時期情報)151が登録されている。分布データ作成部152は、データベース150に収められた特徴量に基づいて、各々の特徴量ごとに分布データ(例えば、第1実施形態の図4の分布データ)を作成する。分布データ作成部150は分布データに基づいて特徴量毎に分散値を計算する。図4の分布データにおいては、前述のように分散値の大小関係は、「花の形状と分布」<「花の色」<「花(又は花序)の大きさ」の順になる。例えば、分散値の大きい順に、画像表示部20に対象植物の画像26から取得する特徴量を表示する。検索者は画像表示部20の表示を参考にして最初に取得する特徴量を決定する。   In the database 150, for each of a plurality of species included in a category to which the object belongs (in this embodiment, a category of plants), a plurality of feature amount data (name, family, feature amount, flowering time) that are characteristics of the species. , (Time information such as (fruiting time)) 151 is registered. The distribution data creation unit 152 creates distribution data (for example, the distribution data in FIG. 4 of the first embodiment) for each feature amount based on the feature amount stored in the database 150. The distribution data creation unit 150 calculates a variance value for each feature amount based on the distribution data. In the distribution data of FIG. 4, as described above, the magnitude relationship between the variance values is in the order of “flower shape and distribution” <“flower color” <“flower (or inflorescence) size”. For example, the feature quantity acquired from the image 26 of the target plant is displayed on the image display unit 20 in descending order of the variance value. The searcher determines the feature amount to be acquired first with reference to the display on the image display unit 20.

選択領域画像抽出部90は画像表示部20に表示された表示画像26からタッチペン25によって選択された特定の領域を抽出する。   The selection area image extraction unit 90 extracts a specific area selected by the touch pen 25 from the display image 26 displayed on the image display unit 20.

特徴量抽出部30は選択領域画像抽出部90によって抽出された画素に対する特徴量となる例えば色情報を抽出する。   The feature amount extraction unit 30 extracts, for example, color information that is a feature amount for the pixels extracted by the selection region image extraction unit 90.

同定候補表示部45には検索エンジン40で検索されたデータ、例えば画像、分布データ等が表示される。   The identification candidate display unit 45 displays data searched by the search engine 40, for example, an image, distribution data, and the like.

以下、分布データによる特徴量の表示及び検索について述べる。   Hereinafter, the display and search of the feature value based on the distribution data will be described.

まず、検索者の対象物表示画面の選択による特徴量の抽出について、色情報を抽出する場合を例にとって説明する。なお、以下の説明では便宜上点又は塊状の領域(例えばタッチペン25を用いて選択された領域が1〜数個だけの画素で構成された領域)を部位と称する。また、タッチペン25で描かれた閉曲線で囲まれることにより選択された部分を領域と称する。   First, the extraction of the feature amount by selecting the searcher's object display screen will be described by taking an example of extracting color information. In the following description, a point-like or block-like area (for example, an area selected by using the touch pen 25 and including only one to several pixels) is referred to as a part. A portion selected by being surrounded by a closed curve drawn with the touch pen 25 is referred to as a region.

まず、対象物の画像が撮影レンズ11によって撮像部12の受光面上に結像され、撮像部12で光電変換された画像データが画像処理回路13へ出力される。画像処理回路13から出力された画像データは画像表示部20の表示画像26として表示される。   First, an image of the object is formed on the light receiving surface of the imaging unit 12 by the photographing lens 11, and image data photoelectrically converted by the imaging unit 12 is output to the image processing circuit 13. The image data output from the image processing circuit 13 is displayed as a display image 26 of the image display unit 20.

次に、表示画像26中の対象物の画像からタッチペン25を用いて所望の部位を選択する。表示画像26のうち、選択された部位の色は変化するので、検索者は選択された部位を認識することができる。   Next, a desired part is selected from the image of the object in the display image 26 using the touch pen 25. Since the color of the selected part in the display image 26 changes, the searcher can recognize the selected part.

選択した部位が正しくない場合、検索者は選択された部位を不図示の選択解除ボタンによりクリアする。一方、選択された部位が正しい場合、検索者は不図示の抽出ボタンを操作して選択された領域の部位を抽出する抽出指示を行う。   If the selected part is not correct, the searcher clears the selected part with a selection release button (not shown). On the other hand, if the selected part is correct, the searcher operates an extraction button (not shown) to give an extraction instruction for extracting the part of the selected region.

特徴量が色情報の場合、表示画像26上では選択されない部位の色や輝度(明るさ)が変化し、選択された領域だけが元の画像の色のままになったりする。これは、検索者が選択した部位の色を明確にするためである。したがって、選択した部位の輪郭を囲むように枠が表示されてもよい。また、選択された部位の画素数が1〜数個だけである場合には、正確な色を表示することができないので、少なくとも選択された部位の画素に隣接する画素を含む部位が選択される。   When the feature amount is color information, the color or luminance (brightness) of the part not selected on the display image 26 changes, and only the selected area remains the color of the original image. This is to clarify the color of the part selected by the searcher. Therefore, a frame may be displayed so as to surround the outline of the selected part. In addition, when the number of pixels in the selected part is only 1 to several, an accurate color cannot be displayed. Therefore, a part including at least a pixel adjacent to the pixel in the selected part is selected. .

このようにすることにより、選択された部位が、検索者が選択した色であるかどうかを判断できる。検索者は、この色が意図した色でない場合、不図示の抽出解除ボタン(前記選択解除ボタンと同じであってもよい)により選択された部位をクリアし、再度検索操作を行う。一方、選択した部位の色が検索者が意図した色であれば、検索処理を続行する。   By doing in this way, it can be judged whether the selected part is the color which the searcher selected. If this color is not the intended color, the searcher clears the part selected by an extraction cancellation button (not shown) (may be the same as the selection cancellation button), and performs the search operation again. On the other hand, if the color of the selected part is the color intended by the searcher, the search process is continued.

検索エンジン40は抽出された色情報とデータベース150のデータ群に登録された色情報とを対比して、抽出された色情報と同じ色情報を有するデータをデータベース150のデータ群から選択する。   The search engine 40 compares the extracted color information with the color information registered in the data group of the database 150, and selects data having the same color information as the extracted color information from the data group of the database 150.

そして、選択された候補の画像や名称等を含む情報が同定候補表示部45に表示される。選択された候補が多い場合、その数に応じて、同定候補表示部45に選択された候補がスクロール方式で順次表示されたり、選択された候補の数だけが表示されたり、候補の名称だけが表示されたりする。表示の方法については検索者によって選択できるようにしてもよい。   Information including the selected candidate image and name is displayed on the identification candidate display unit 45. If there are many selected candidates, the selected candidates are sequentially displayed in the scroll mode in accordance with the number of candidates, or only the number of selected candidates is displayed, or only the candidate names are displayed. It is displayed. The display method may be selected by the searcher.

また、検索者は最初に抽出された特徴量とは異なる特徴量を抽出できる部位を選択し、最初に抽出された特徴量と新たに抽出された特徴量とを複合した特徴量を用いて対象物の画像や名称等の検索を行うこともできる。この検索方法を図6、7を用いて説明する。   In addition, the searcher selects a part that can extract a feature quantity different from the feature quantity extracted first, and uses the feature quantity that is a combination of the feature quantity extracted first and the newly extracted feature quantity. It is also possible to search for images and names of objects. This search method will be described with reference to FIGS.

図6、7はこの発明の第2実施形態に係る対象物認識システムの他の特徴量の抽出方法を説明する図である。   6 and 7 are diagrams for explaining another feature amount extraction method of the object recognition system according to the second embodiment of the present invention.

検索者は図6のメニュー画面MPのうちタッチペン25で色情報を選択する。色情報がアクティブになり、選択した部位から色情報が特徴量として抽出される。   The searcher selects color information with the touch pen 25 in the menu screen MP of FIG. The color information becomes active, and the color information is extracted as a feature amount from the selected part.

図6では対象物(花)が白と黄色の複数の色を有している。   In FIG. 6, the object (flower) has a plurality of colors of white and yellow.

検索者がタッチペン25を用いて表示画像26上の色の異なる2つの部位21−1,21−2を選択すると、各々の部位毎の色情報が選択され、この特徴量に基づいてデータベース150から候補の抽出が行われる。このように各々の部位毎の色情報を抽出して検索が行われるので、より精度の高い検索精度が得られる。   When the searcher selects two parts 21-1 and 21-2 having different colors on the display image 26 using the touch pen 25, color information for each part is selected, and from the database 150 based on this feature amount. Candidate extraction is performed. As described above, since the color information for each part is extracted and the search is performed, more accurate search accuracy can be obtained.

ここで、選択された部位21−1,21−2の色の処理について説明する。選択された部位21−1,21−2が複数の画素を含む場合には、その部位での画素R,G,Bの組合せ(ピクセル)を複数選択し、それぞれの組合せにおける色を求め、それらの色の平均値をその部位の色とする。処理は予め組合せごとに求めたRGB値をHSV変換やLab変換等により均等色空間へ変換し、各座標値の平均をとってもよい。なお、HSV変換のHはheu(色相)、Sはsaturation(彩度)、Vはvalue(明度)である。LabのLは輝度の要素、aはグリーンからレッドへ、bはブルーからイエローへの色相の要素をそれぞれ表している。   Here, the color processing of the selected parts 21-1 and 21-2 will be described. When the selected parts 21-1, 21-2 include a plurality of pixels, a plurality of combinations (pixels) of the pixels R, G, B in the part are selected, and the colors in the respective combinations are obtained. The average value of the colors is the color of the part. In the processing, RGB values obtained for each combination in advance may be converted into a uniform color space by HSV conversion, Lab conversion, or the like, and the average of each coordinate value may be taken. In the HSV conversion, H is heu (hue), S is saturation (saturation), and V is value (lightness). In the Lab, L represents a luminance element, a represents an element of hue from green to red, and b represents an element of hue from blue to yellow.

また、各組合せ毎にRGB値を求め、その平均値をHSV変換やLab変換等により均等色空間へ変換して色座標を求めてもよい。選択された部位21−1,21−2が数画素だけの場合、その1つの画素が少なくとも隣接する周辺の画素を含めた部位を色の部位として、同様の処理を行う。   Alternatively, RGB values may be obtained for each combination, and the average value may be converted into a uniform color space by HSV conversion, Lab conversion, or the like to obtain color coordinates. When the selected parts 21-1 and 21-2 are only a few pixels, the same process is performed with a part including at least neighboring pixels adjacent to the one pixel as a color part.

図6ではタッチペン25で接触した部位21−1,21−2を選択したが、例えば図7に示すようにタッチペン25で描いた閉曲線で囲まれた領域(22−1,22−2,22−3)を選択することもできる。この場合には、選択された領域から抽出される色は、選択された領域22−1,22−2、22−3における各画素の色の平均値又は最も多くの領域を占める画素の色である。また、画素R,G,Bの各々1画素を1組としたピクセル単位で色を検出し、ピクセル毎の色とその色に対応するピクセル数を表示してもよい。更に、領域22−1,22−2,22−3の他に部位22−4を選択してもよい。なお、選択する領域は1つであってもよい。   In FIG. 6, the parts 21-1 and 21-2 that have been touched with the touch pen 25 are selected. For example, as shown in FIG. 7, the regions surrounded by the closed curve drawn with the touch pen 25 (22-1, 22-2, 22- 3) can also be selected. In this case, the color extracted from the selected region is the average value of the color of each pixel in the selected region 22-1 2-22-2 or 22-3 or the color of the pixel occupying the most region. is there. Alternatively, the color may be detected in units of pixels in which each of the pixels R, G, and B is a set, and the color for each pixel and the number of pixels corresponding to the color may be displayed. Further, the region 22-4 may be selected in addition to the regions 22-1, 22-2, and 22-3. One area may be selected.

検索者はこのようにして抽出された候補の中から、対象物と同じ特徴を有する候補を選択し、画像表示部20上に候補のサンプル画像及びそのデータを表示することができる。   The searcher can select a candidate having the same characteristics as the target object from the candidates extracted in this manner, and display the candidate sample image and its data on the image display unit 20.

この実施形態によれば、第1実施形態と同様の効果を奏する。また、表示された表示画像26にタッチペン25を当てて対象物の特徴量を抽出するので、選択のための演算の必要がなく、簡易かつ正確に特徴量を抽出することができる。更に、表示された画像の所定部位をタッチペン25で選択して必要な特徴量を抽出するので、背景が複雑な画像においても良好に特徴量を抽出できる。また、タッチペン25を使用することにより検索者が任意に抽出する特徴量を選択できる。更に、タッチペン25を使用することにより検索者が必要な対象の形状に応じて自由に輪郭抽出することができる。また、タッチペン25を使用することにより色の部位の選択や、大きさ情報を得るための領域を自由に選択することが可能であり、簡易に特徴量の抽出を行うことができる。   According to this embodiment, the same effects as those of the first embodiment can be obtained. In addition, since the feature amount of the object is extracted by applying the touch pen 25 to the displayed display image 26, it is not necessary to perform a calculation for selection, and the feature amount can be extracted easily and accurately. Furthermore, since a predetermined feature amount is extracted by selecting a predetermined part of the displayed image with the touch pen 25, the feature amount can be extracted well even in an image with a complicated background. Further, by using the touch pen 25, a feature amount arbitrarily extracted by a searcher can be selected. Further, by using the touch pen 25, the contour can be freely extracted according to the shape of the object required by the searcher. Further, by using the touch pen 25, it is possible to freely select a region of a color and a region for obtaining size information, and a feature amount can be easily extracted.

図8、9、10はこの発明の第3実施形態に係る対象物認識システムの他の特徴量の抽出方法を説明する図である。なお、図10(a)、(b)は図9(a),(b)の画像から選択された領域だけを示す図である。   8, 9, and 10 are diagrams for explaining another feature amount extraction method of the object recognition system according to the third embodiment of the present invention. FIGS. 10A and 10B are diagrams showing only regions selected from the images of FIGS. 9A and 9B.

この実施形態は選択された部位同士の位置関係(例えば2つの部位同士の距離)から特徴量を抽出する点で第2実施形態と相違する。   This embodiment is different from the second embodiment in that a feature amount is extracted from a positional relationship between selected parts (for example, a distance between two parts).

まず、図8に基づいて対象物の大きさを求める方法を説明する。検索者はメニュー画面MPの花の径をタッチペン25で選択してアクティブにする。検索者は対象物の画像のうち、特徴量となる距離情報を得るための2つの部位23−1、23−2を選択する。2つの部位23−1、23−2は表示画像26上の対象物と背景との境界線の近傍にそれぞれ位置する。   First, a method for obtaining the size of an object will be described with reference to FIG. The searcher selects the diameter of the flower on the menu screen MP with the touch pen 25 and activates it. The searcher selects two parts 23-1 and 23-2 for obtaining distance information as a feature amount from the image of the object. The two parts 23-1 and 23-2 are respectively located in the vicinity of the boundary line between the object and the background on the display image 26.

実際の花の径φは、表示画像26上での2つの部位23−1、23−2間の距離φ’、倍率β、又は2つの部位23−1、23−2間の距離φ’、レンズ11の焦点距離f、レンズ11から対象物までの距離dとしたとき、以下の4式で算出される。   The actual flower diameter φ is the distance φ ′ between the two parts 23-1 and 23-2 on the display image 26, the magnification β, or the distance φ ′ between the two parts 23-1 and 23-2, When the focal length f of the lens 11 and the distance d from the lens 11 to the object are set, the following four formulas are used.

φ = φ’/β
= fφ’/(d−f) ・・・(4式)
ここで、dはレンズ11から対象物までの距離として、撮像装置10に搭載された図示しない自動焦点機構(AF)により、焦点の合った状態でのレンズ11の繰り出し量から求めることができる。
φ = φ '/ β
= Fφ '/ (df) (4 formulas)
Here, d can be obtained as the distance from the lens 11 to the object by the amount of extension of the lens 11 in the focused state by an automatic focusing mechanism (AF) (not shown) mounted on the imaging apparatus 10.

また、焦点距離fは、単焦点レンズの場合は固定値であるが、ズームレンズの場合でも、通常デジタルカメラのレンズデータとして撮影されたデジタル画像とともに保存されている。   Further, the focal length f is a fixed value in the case of a single focus lens, but is stored together with a digital image photographed as lens data of a digital camera, even in the case of a zoom lens.

このようにして抽出された距離情報、例えば、草丈情報や花の大きさ情報に基づいて検索を行う。図8では頭花の径を計測しているが、筒状花部位の径や、草丈等、対象物の種類により、抽出される特徴量は異なる。抽出可能な特徴量は全てメニュー画面MPで選択することができる。   A search is performed based on the distance information extracted in this way, for example, plant height information and flower size information. Although the diameter of the head flower is measured in FIG. 8, the extracted feature amount differs depending on the type of the object such as the diameter of the tubular flower part and the plant height. All the feature quantities that can be extracted can be selected on the menu screen MP.

また、検索の対象物が花序形状を有する花の場合には、検索者はメニュー画面MPの分布情報をアクティブにし、図9(a)、(b)に示すようにタッチペン25で各花の中心位置P1〜P7、P11〜P17の画素を選択することによって花の分布状態から花序の形状がわかる。図9においては、タッチペン25で花序の輪郭(点線で示している)を指定して、花序の領域A1,A2を選択した。このように花序の領域A1,A2を選択することによって、花序全体の大きさを計測することができる。   When the search target is a flower having an inflorescence shape, the searcher activates the distribution information on the menu screen MP, and the center of each flower is touched with the touch pen 25 as shown in FIGS. 9 (a) and 9 (b). By selecting the pixels at positions P1 to P7 and P11 to P17, the shape of the inflorescence can be determined from the distribution state of the flowers. In FIG. 9, an inflorescence outline (indicated by a dotted line) is designated with the touch pen 25, and the inflorescence regions A1 and A2 are selected. By selecting the inflorescence regions A1 and A2 in this way, the size of the entire inflorescence can be measured.

特徴量抽出部30により抽出された領域A1,A2の最小径φ1’及び最大径φ2’を計測する(図10(a)、(b)参照)。実際の花序の最小径φ1及び最大径φ2は、表示画像26上の花序(領域A1,A2)φ1’、φ2’から上述の(4式)を用いて求められる。更に、特徴量抽出部30において、最小径φ1’と最大径φ2’との比を求めることにより、対象物の花序の形状が線形であるか、面状に広がるものであるかを判定し、これを花序の特徴量とする。最小径φ1’と最大径φ2’との比から、図10(a)に示すように花が線形に分布していたり、図10(b)に示すように花が面(略円形)に分布していたりすることが容易にわかる。また、選択された領域A1,A2に含まれる画素数を計測して、1画素に対応する面積がわかるので、選択された領域A1,A2の面積を求めることもできる。   The minimum diameter φ1 ′ and the maximum diameter φ2 ′ of the regions A1 and A2 extracted by the feature amount extraction unit 30 are measured (see FIGS. 10A and 10B). The actual inflorescence minimum diameter φ1 and maximum diameter φ2 are obtained from the inflorescences (regions A1, A2) φ1 ′ and φ2 ′ on the display image 26 using the above-described (Equation 4). Further, the feature amount extraction unit 30 determines whether the shape of the inflorescence of the target object is linear or planar by obtaining the ratio between the minimum diameter φ1 ′ and the maximum diameter φ2 ′. This is the feature quantity of the inflorescence. From the ratio of the minimum diameter φ1 ′ and the maximum diameter φ2 ′, the flowers are distributed linearly as shown in FIG. 10A, or the flowers are distributed in a plane (substantially circular) as shown in FIG. You can easily see that Further, since the number of pixels included in the selected regions A1 and A2 is measured and the area corresponding to one pixel is known, the areas of the selected regions A1 and A2 can be obtained.

また、選択された花の中心位置(P1〜P7、P11〜P17)情報から、更に詳細な花の分布情報を抽出することもできる。花の分布情報は、上述の(4式)から表示画像26上の距離φ3’により求められる隣接する花同士の距離φ3’と花の中心位置(P1〜P7、P11〜P17)情報から抽出される。花の位置は例えばセリ科の一部の植物のような散形状花序である植物においては、小散形花序ごとの重心位置でもよい。また、例えば花の中心位置でなく各花の輪郭をなぞるように抽出してもよい。この花の分布情報から花の分布の規則性を抽出し、花序の形状を特定することができる。   Further, more detailed flower distribution information can be extracted from the information on the center positions (P1 to P7, P11 to P17) of the selected flowers. The flower distribution information is extracted from the distance φ3 ′ between adjacent flowers obtained by the distance φ3 ′ on the display image 26 from the above (Equation 4) and the center positions (P1 to P7, P11 to P17) of the flowers. The The position of the flower may be the barycentric position for each small inflorescence in a plant having a distributed inflorescence such as some plants of the Apiaceae family. Further, for example, the extraction may be performed so that the outline of each flower is traced instead of the center position of the flower. The regularity of the flower distribution can be extracted from the flower distribution information, and the inflorescence shape can be specified.

なお、この実施形態のように、選択された部位同士の位置の検出が目的である場合には、色の検出と異なり、選択された部位に含まれる画素が1〜数個であっても、それに隣接する画素を選択する必要はない。   As in this embodiment, when the purpose is to detect the positions of the selected parts, unlike the color detection, even if one to several pixels are included in the selected part, There is no need to select a pixel adjacent to it.

このようにして求められる各種の特徴量に対応する特徴量のデータを登録特徴量として予めデータベース150に登録し、抽出された特徴量とデータベース150の特徴量のデータのうちの少なくとも1つの登録特徴量とを対比させることにより、精度の高い検索が可能となる。   Feature quantity data corresponding to the various feature quantities thus obtained is registered in the database 150 in advance as a registered feature quantity, and at least one registered feature of the extracted feature quantity and feature quantity data in the database 150 is registered. By comparing the quantity, a highly accurate search is possible.

この第3実施形態によれば、第2実施形態と同様の効果を奏するとともに、簡易に得られる花の大きさ情報や分布情報等から特徴量を求めるようにしたので、撮像装置10で得られた画像から対象物の切り出し作業を行う必要がなく、対象物を同定するための特徴量を第1実施形態よりも容易に得ることができる。   According to the third embodiment, the same effect as that of the second embodiment is obtained, and the feature amount is obtained from easily obtained flower size information and distribution information. Therefore, it is not necessary to cut out an object from the obtained image, and a feature amount for identifying the object can be obtained more easily than in the first embodiment.

図11、12、13はこの発明の第4実施形態に係る対象物認識システムの他の特徴量の抽出方法を説明する図である。   11, 12, and 13 are diagrams for explaining another feature amount extraction method of the object recognition system according to the fourth embodiment of the present invention.

この実施形態では、対象物の輪郭の近傍をタッチペン25でなぞって領域を選択し、輪郭を抽出する。   In this embodiment, a region is selected by tracing the vicinity of the contour of the object with the touch pen 25, and the contour is extracted.

検索者は、表示画像26に検索すべき対象物の画像が表示されているとき、まず、表示画像26に設けられた不図示の領域選択モード切替ボタンを押して輪郭抽出モードにする。   When the image of the object to be searched is displayed on the display image 26, the searcher first presses a region selection mode switching button (not shown) provided on the display image 26 to set the contour extraction mode.

次に、図11に示すように、タッチペン25で対象物の輪郭をなぞって点線で囲まれた領域24を選択する。対象物の輪郭をなぞった線が検索者の意図する線であれば、不図示の領域選択ボタンを押す。領域選択ボタンを押すことにより領域選択の指示が出されると、選択領域選画像抽出部90はなぞられた線の位置に基づいて領域選択を開始する。領域選択は以下の方法で行われる。   Next, as shown in FIG. 11, the area 24 surrounded by the dotted line is selected by tracing the outline of the object with the touch pen 25. If the line tracing the outline of the object is a line intended by the searcher, a region selection button (not shown) is pressed. When an area selection instruction is issued by pressing the area selection button, the selected area selection image extraction unit 90 starts area selection based on the traced line position. The area selection is performed by the following method.

まず、タッチペン25で描かれた輪郭を構成する各点(例えば画素)において、それぞれの点に最も近接する不連続な部位が選択される。ここで、不連続な部位とは、例えば、色、コントラストが急激に変化する部位、フォーカスが急激に変化する部位である。この不連続な部位を選択する処理が対象物の輪郭をなぞった線に沿って行われることによって、対象物の輪郭を抽出することができる。   First, at each point (for example, pixel) constituting the outline drawn with the touch pen 25, a discontinuous part closest to each point is selected. Here, the discontinuous part is, for example, a part where the color and contrast change abruptly or a part where the focus changes abruptly. The process of selecting the discontinuous part is performed along a line that traces the outline of the object, whereby the outline of the object can be extracted.

輪郭抽出後は輪郭に囲まれた領域の大きさ(径や面積)、形状等の特徴量を自動的に抽出することができる。また、この領域内の色情報、各色の割合(画素数情報、面積情報等)を得ることができるので、色情報の自動抽出も可能となる。このように、輪郭内の特徴的な色や形状、大きさを自動的に抽出することができるため、対象物の特徴量を効率的に抽出することができる。   After the contour extraction, feature quantities such as the size (diameter and area) and shape of the region surrounded by the contour can be automatically extracted. Further, since color information in this region and the ratio of each color (pixel number information, area information, etc.) can be obtained, color information can be automatically extracted. Thus, since the characteristic color, shape, and size in the contour can be automatically extracted, the feature amount of the object can be efficiently extracted.

なお、輪郭抽出を行う前に、輪郭内の特徴的な色の部位(例えば24−1)を指定して色情報を登録すれば、輪郭抽出の際に、登録された色とは異なる色調を不連続点として認識できるので、輪郭抽出作業の効率が向上する(図12参照)。   Note that if color information is registered by specifying a characteristic color part (for example, 24-1) in the contour before contour extraction, a color tone different from the registered color is obtained during contour extraction. Since it can be recognized as a discontinuous point, the efficiency of contour extraction work is improved (see FIG. 12).

更に、図13に示すように、抽出された第1の領域25−1内に不連続な第2の領域25−2が存在する場合には、上記抽出処理を第2の領域25−2に対しても行う。このように2つの領域25−1、25−2及び部位25−3、25−4の色を抽出することにより、2つの領域25−1、25−2の位置関係が認識されるので、この認識された特徴量とデータベース150の特徴量とを対比させることにより認識率を高めることができる。   Further, as shown in FIG. 13, when the discontinuous second region 25-2 exists in the extracted first region 25-1, the extraction process is performed on the second region 25-2. Do it also. By extracting the colors of the two areas 25-1, 25-2 and the parts 25-3, 25-4 in this way, the positional relationship between the two areas 25-1, 25-2 is recognized. The recognition rate can be increased by comparing the recognized feature quantity with the feature quantity of the database 150.

この実施形態によれば、第2実施形態と同様の効果を奏する。また、対象物の輪郭の抽出を行うことにより更に特徴量を自動化できる効果をも奏する。   According to this embodiment, there exists an effect similar to 2nd Embodiment. In addition, the feature amount can be further automated by extracting the contour of the object.

図14、15はこの発明の第5実施形態に係る対象物認識システムの他の特徴量の抽出方法を説明する図である。   14 and 15 are diagrams for explaining another feature amount extraction method of the object recognition system according to the fifth embodiment of the present invention.

この実施形態では、分布情報に基づいて、領域及び部位選択による特徴量の抽出及び検索を行う。   In this embodiment, feature amounts are extracted and searched by selecting regions and parts based on distribution information.

データベース150は予めそのデータベース150に格納された各種の特徴量ごとに分布データを有しており、分布データの分散値に基づいて、検索のために抽出される特徴量の順位付けが行われている。   The database 150 has distribution data for each of various feature amounts stored in advance in the database 150, and the feature amounts extracted for search are ranked based on the distribution value of the distribution data. Yes.

検索者はまず、対象物の画像26を撮像する。撮像した対象物について検索を行う場合、不図示の検索開始ボタンを押す。検索開始ボタンを押すと、抽出可能な特徴量がメニュー画面MPに表示される(図14(a)参照)。データベース150の特徴量は、例えば「花の色」、「花の大きさ」、「花の形状と分布」である。検索者はメニュー画面MPに表示された特徴量のうち最初に抽出を行いたい特徴量をタッチペン25でアクティブにする。例えば、最初に色情報をアクティブにする。図14(a)の表示画像26上の第1の部位26−1をタッチペン25で選択し、表示画像26の右下の特徴量抽出ボタン20aを押す。選択された部位26−1に対応する色情報が特徴量抽出部30に登録されるとともに、メニュー画面MPには認識された色情報が表示される。   The searcher first takes an image 26 of the object. When searching for an imaged object, a search start button (not shown) is pressed. When the search start button is pressed, the extractable feature amounts are displayed on the menu screen MP (see FIG. 14A). The feature amounts of the database 150 are, for example, “flower color”, “flower size”, and “flower shape and distribution”. The searcher uses the touch pen 25 to activate the feature amount desired to be extracted first among the feature amounts displayed on the menu screen MP. For example, color information is activated first. The first part 26-1 on the display image 26 in FIG. 14A is selected with the touch pen 25, and the feature amount extraction button 20 a at the lower right of the display image 26 is pressed. Color information corresponding to the selected part 26-1 is registered in the feature amount extraction unit 30, and the recognized color information is displayed on the menu screen MP.

他に認識すべき色情報がない場合には、表示画像26の左下の検索実行ボタン20bを押して選択した色情報で検索を行う。他に抽出すべき色情報がある場合、第2の部位26−2をタッチペン25で選択し(図14(b)参照)、再度特徴量抽出ボタン20aを押す。この処理は抽出したい色がなくなるまで繰り返される。   If there is no other color information to be recognized, a search is performed with the color information selected by pressing the search execution button 20b at the lower left of the display image 26. When there is other color information to be extracted, the second part 26-2 is selected with the touch pen 25 (see FIG. 14B), and the feature amount extraction button 20a is pressed again. This process is repeated until there are no more colors to be extracted.

必要な部位を全て選択し、表示画像26の特徴量抽出ボタン20aをタッチペン25で押すと検索が実行され(図14(c)参照)、登録された特徴量である色情報に基づいて、データベース150から同定候補が選択される。選択された同定候補の数に応じて、サンプル画像、名称、候補数が表示される。同定候補の数が少ない場合、同定候補の画像と名称等が同定候補表示部45に表示される。同定候補の数が多い場合、同定候補をスクロール方式で順次表示させたり、同定された候補の数だけが表示させたり、同定候補の数と名称だけを表示させたりすることができる(図14(d)参照)。また、同定候補の名称だけを表示させ、検索者が記憶している名称から同定作業を行うことも可能である。なお、名称の表示についても、同定候補が多い場合にはスクロール表示が可能である。   When all necessary parts are selected and the feature amount extraction button 20a of the display image 26 is pressed with the touch pen 25, the search is executed (see FIG. 14C), and the database is based on the color information that is the registered feature amount. An identification candidate is selected from 150. A sample image, a name, and the number of candidates are displayed according to the number of selected identification candidates. When the number of identification candidates is small, images and names of identification candidates are displayed on the identification candidate display unit 45. When the number of identification candidates is large, the identification candidates can be sequentially displayed in a scroll mode, only the number of identified candidates can be displayed, or only the number and names of identification candidates can be displayed (FIG. 14 ( d)). It is also possible to display only the names of identification candidates and perform the identification work from the names stored by the searcher. Note that the name display can also be scrolled when there are many identification candidates.

一方、検索者が、同定候補数が多く、名称や画像による同定が困難と判断した場合、前の情報(色情報)を残したまま、別の特徴量の抽出作業を行う。別の特徴量の抽出を行うには、検索結果表示画面EP中の消去の項目21eをタッチペン25で選択して検索結果表示画面EPを消去する(図14(d)参照)。そして新たに、次の特徴量(この実施形態では「花の大きさ」)を抽出する(図15(a)参照)。花の大きさの抽出は、前述したように花の輪郭のうち、径方向の2つの部位26−3、26−4をタッチペン25で選択し、特徴量抽出ボタン20aを押すことによって行われる(輪郭抽出モードに切り替え、抽出した輪郭から径を自動抽出してもよい)。花の大きさが抽出された後、検索者は検索実行ボタン20bを押す(図15(b)参照)。   On the other hand, when the searcher determines that the number of identification candidates is large and identification by name or image is difficult, another feature amount is extracted while the previous information (color information) remains. In order to extract another feature amount, the erasure item 21e in the search result display screen EP is selected with the touch pen 25 to erase the search result display screen EP (see FIG. 14D). Then, the next feature amount ("flower size" in this embodiment) is newly extracted (see FIG. 15A). As described above, the extraction of the size of the flower is performed by selecting the two radial portions 26-3 and 26-4 in the outline of the flower with the touch pen 25 and pressing the feature amount extraction button 20a ( You may switch to the contour extraction mode and automatically extract the diameter from the extracted contour). After the flower size is extracted, the searcher presses the search execution button 20b (see FIG. 15B).

上述した色の抽出結果と花の大きさの抽出結果との2つの特徴量に基づいて再度検索が行われて、同定候補が絞られ、その検索結果が検索結果表示画面EPに表示される(図15(c)参照)。検索者は、検索結果の画像表示を行うか、それとも次の条件で検索を行うかを選択する。検索者が検索結果表示画面EP中の画像表示の項目を選択した場合の画像表示部20の表示は例えば図15(d)に示すようになる。図15(d)に示されるように、同定候補のサンプル画像27と説明文28とが表示され、検索者は、この表示に基づいて同定作業を行う。対象物の同定作業が終了したとき、例えばサンプル画像27の右上のチェックボックス27aにタッチペン25を当て、そのサンプル画像27と対象物の画像26とを結び付ける。対象物の画像26は所定のデータ(開花時期、結実時期、生育地等の情報)とともに、画像記憶部(図示せず)に保存される。   The search is performed again based on the two feature values of the color extraction result and the flower size extraction result described above, identification candidates are narrowed down, and the search result is displayed on the search result display screen EP ( (Refer FIG.15 (c)). The searcher selects whether to display an image of the search result or to perform a search under the following conditions. When the searcher selects an image display item on the search result display screen EP, the display on the image display unit 20 is as shown in FIG. As shown in FIG. 15D, the sample images 27 of the identification candidates and the explanatory text 28 are displayed, and the searcher performs the identification work based on this display. When the object identification work is completed, for example, the touch pen 25 is applied to the check box 27a on the upper right of the sample image 27, and the sample image 27 and the object image 26 are linked. The image 26 of the object is stored in an image storage unit (not shown) together with predetermined data (information such as flowering time, fruiting time, and growing place).

なお、この実施形態では所定のカテゴリのデータベース150をそのまま用いて検索を行っているが、第1実施形態のように撮像する場所や時期でデータの抽出を行った絞込みデータベース(図示せず)を用いて検索を行ってもよい。この場合、条件に従って作成された絞込みデータベースから、各々の特徴量について分布データを作成し、作成した分布データに基づいて、特徴量の順位付けを行う。   In this embodiment, the search is performed using the database 150 of a predetermined category as it is. However, as in the first embodiment, a narrowed-down database (not shown) in which data is extracted at the location and time of imaging is used. You may search using. In this case, distribution data is created for each feature quantity from the narrowed-down database created according to the conditions, and the feature quantities are ranked based on the created distribution data.

この実施形態によれば、第2実施形態と同様の効果を奏する。   According to this embodiment, there exists an effect similar to 2nd Embodiment.

図16はこの発明の第6実施形態に係る対象物認識システムにおける処理の流れの一例を示すフローチャートである。   FIG. 16 is a flowchart showing an example of the flow of processing in the object recognition system according to the sixth embodiment of the present invention.

電源が入り、対象物の検索を行う時期・場所に関する情報が入力されると、以下のシーケンスで同定作業が行われる。   When the power is turned on and information on the time and place for searching for an object is input, the identification operation is performed in the following sequence.

まず、入力された情報に基いて元データベース60からデータ群が抽出され、絞込みデータベース50が形成される(ステップ1)。   First, a data group is extracted from the original database 60 based on the input information, and a narrowing database 50 is formed (step 1).

次に、絞込みデータベース50の特徴量の分布データが形成される(ステップ2)。   Next, feature quantity distribution data of the narrowing-down database 50 is formed (step 2).

その後、形成された分布データに基いて特徴量の順位付けが行われる(ステップ3)。   Thereafter, the feature amounts are ranked based on the formed distribution data (step 3).

ステップ1〜3は電源を入れ、所定の情報を入力することによって自動的に行われる。なお、元データベース60から直接検索を行う場合や所定の場所における固有データベース(固有の分布データが予め形成されているデータベース)が形成されている場合にはステップ1〜3は省略される。   Steps 1 to 3 are automatically performed by turning on the power and inputting predetermined information. Note that Steps 1 to 3 are omitted when a direct search is performed from the original database 60 or when a unique database (a database in which unique distribution data is formed in advance) is formed at a predetermined location.

また、ステップ1〜3は、対象物の種類を変えたり、対象物の画像を取得する場所を変えたりしない限り、最初に1回行うだけでよい。   Steps 1 to 3 need only be performed once at first unless the type of the object is changed or the place where the image of the object is acquired is changed.

次に、同定したい対象物の画像を取得する(ステップ4)。取得された対象物の画像は画像表示部20に表示される。   Next, an image of the object to be identified is acquired (step 4). The acquired image of the object is displayed on the image display unit 20.

特徴量抽出ボタンを押して第1特徴量(例えば色)の抽出を行う(ステップ5)。画像から自動的に第1特徴量の抽出を行う場合にはステップ7に進む。   The feature amount extraction button is pressed to extract the first feature amount (for example, color) (step 5). If the first feature value is automatically extracted from the image, the process proceeds to step 7.

検索者が画像から任意に特徴量を抽出する部位を指定する場合には他に抽出する領域があるか否かを判断する(ステップ6)。他に抽出する領域があるときにはステップ5に戻る。   When the searcher arbitrarily designates a part from which an amount of feature is extracted from the image, it is determined whether there is another area to be extracted (step 6). If there is another area to be extracted, the process returns to step 5.

十分に特徴量が抽出されて他に抽出する領域がなくなったときには絞込みデータベース50からの第1特徴量による検索を行う(ステップ7)。検索の結果として絞込みデータベース50から得られた候補数が表示画像26に表示される。   When the feature quantity is sufficiently extracted and there are no other areas to be extracted, a search using the first feature quantity from the refined database 50 is performed (step 7). The number of candidates obtained from the narrowed-down database 50 as a result of the search is displayed on the display image 26.

検索者は画像表示部20に表示された候補数を見て、更に別の特徴量の抽出を行うか否かを判断する(ステップ8)。第1特徴量だけで同定作業を行う場合には候補の画像を画像表示部20に表示させる。候補の画像を画像表示部20に分割して表示させたり、スクロールして候補の画像を順次画像表示部20に表示させたりする等、検索者が表示方法を任意に選択することができる。検索された同定候補を閲覧するときにはステップ14に進む。   The searcher looks at the number of candidates displayed on the image display unit 20 and determines whether or not to extract another feature amount (step 8). When the identification operation is performed only with the first feature amount, the candidate image is displayed on the image display unit 20. The searcher can arbitrarily select the display method, such as dividing the candidate image into the image display unit 20 to display the image, or scrolling and displaying the candidate image sequentially on the image display unit 20. When browsing the identified identification candidates, the process proceeds to step 14.

検索された同定候補を閲覧しないときには第2特徴量(例えば分布情報)の抽出を行う(ステップ9)。ステップ5と同様に画像から自動的に特徴量を抽出する場合にはステップ11に進む。   When the retrieved identification candidate is not browsed, the second feature amount (for example, distribution information) is extracted (step 9). If the feature amount is automatically extracted from the image as in step 5, the process proceeds to step 11.

検索者が画像から任意に特徴量を抽出する部位を指定する場合には他に抽出する領域があるか否かを判断する(ステップ10)。他に抽出する領域があるときにはステップ9に戻る。   When the searcher arbitrarily designates a part from which an amount of feature is extracted from the image, it is determined whether there is another area to be extracted (step 10). When there is another area to be extracted, the process returns to step 9.

十分に特徴量が抽出されて他に抽出する領域がなくなったときには絞込みデータベース50からの第1、2特徴量による検索を行う(ステップ11)。   When the feature quantity is sufficiently extracted and there are no other areas to be extracted, a search based on the first and second feature quantities from the narrowed-down database 50 is performed (step 11).

検索者は画像表示部20に表示された候補数を見て、更に別の特徴量の抽出を行うか否かを判断する(ステップ12)。検索された同定候補を閲覧するときにはステップ14に進む。   The searcher looks at the number of candidates displayed on the image display unit 20 and determines whether or not to extract another feature amount (step 12). When browsing the identified identification candidates, the process proceeds to step 14.

検索された同定候補を閲覧しないときには第3特徴量(例えば対象物の大きさ)の抽出を行う(ステップ13)。   When the retrieved identification candidate is not browsed, the third feature amount (for example, the size of the object) is extracted (step 13).

上記処理が抽出を行う特徴量の数だけ繰り返され、同定作業が行われる(ステップ14)。   The above process is repeated by the number of feature quantities to be extracted, and identification work is performed (step 14).

検索者は候補画像の中から対象物の同定を行う。 The searcher identifies an object from the candidate images.

この実施形態によれば、第1実施形態と同様の効果を奏する。   According to this embodiment, the same effects as those of the first embodiment can be obtained.

なお、上記第2実施形態では、表示画像26に入力手段としてのタッチペン25を接触させて画像の一部の選択を行ったが、タッチペン25に代え、表示画像26に圧力センサや温度センサ等を設け、それに指等を接触させて画像の一部の選択を行ってもよい。このようにすれば、選択作業をカメラの操作の一環として行え、タッチペン25を持つ手間が省け、検索時間の短縮を図ることができる。   In the second embodiment, a part of the image is selected by bringing the touch pen 25 as an input unit into contact with the display image 26. However, instead of the touch pen 25, a pressure sensor, a temperature sensor, or the like is used for the display image 26. A part of the image may be selected by providing it with a finger or the like. In this way, the selection operation can be performed as part of the operation of the camera, and the labor for holding the touch pen 25 can be saved, and the search time can be shortened.

図1はこの発明の第1実施形態に係る対象物認識システムの全体構成図である。FIG. 1 is an overall configuration diagram of an object recognition system according to a first embodiment of the present invention. 図2(a)は地域別植生データ及び元データベ−スの一例を示す図、図2(b)は位置地域別植物群情報と元データベースとから絞込みデータを作成する手順の一例を示す図である。FIG. 2 (a) is a diagram showing an example of regional vegetation data and an original data base, and FIG. 2 (b) is a diagram showing an example of a procedure for creating narrowed-down data from positional group-specific plant group information and the original database. is there. 図3は画像から花の大きさや草丈の高さを抽出する方法を説明するための図である。FIG. 3 is a diagram for explaining a method of extracting the size of the flower and the height of the plant height from the image. 図4は絞込みデータベースが有する特徴量の分布データの一例を示す図である。FIG. 4 is a diagram illustrating an example of distribution data of feature amounts included in the narrowing-down database. 図5はこの発明の第2実施形態に係る対象物認識システムの全体構成図である。FIG. 5 is an overall configuration diagram of an object recognition system according to the second embodiment of the present invention. 図6はこの発明の第2実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 6 is a diagram for explaining a search method of the object recognition system according to the second embodiment of the present invention. 図7はこの発明の第2実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 7 is a view for explaining a search method of the object recognition system according to the second embodiment of the present invention. 図8はこの発明の第3実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 8 is a diagram for explaining a search method of the object recognition system according to the third embodiment of the present invention. 図9はこの発明の第3実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 9 is a diagram for explaining a search method of the object recognition system according to the third embodiment of the present invention. 図10はこの発明の第3実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 10 is a diagram for explaining a search method of the object recognition system according to the third embodiment of the present invention. 図11はこの発明の第4実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 11 is a diagram for explaining a search method of the object recognition system according to the fourth embodiment of the present invention. 図12はこの発明の第4実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 12 is a diagram for explaining a search method of the object recognition system according to the fourth embodiment of the present invention. 図13はこの発明の第4実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 13 is a view for explaining a search method of the object recognition system according to the fourth embodiment of the present invention. 図14はこの発明の第5実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 14 is a view for explaining a search method of the object recognition system according to the fifth embodiment of the present invention. 図15はこの発明の第5実施形態に係る対象物認識システムの検索方法を説明する図である。FIG. 15 is a view for explaining the search method of the object recognition system according to the fifth embodiment of the present invention. 図16はこの発明の第6実施形態に係る対象物認識システムにおける処理の流れの一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of the flow of processing in the object recognition system according to the sixth embodiment of the present invention.

符号の説明Explanation of symbols

10: 撮像装置(撮像手段)、20:画像表示部(画像表示手段)、21,26:表示画像、25:タッチペン(入力手段)、90:選択領域画像抽出部(選択領域画像抽出手段)、30:特徴量抽出部(特徴量抽出手段)、40:検索エンジン(検索手段)、45:同定候補表示部(表示手段)、50:絞込みデータベース、52,152:分布データ作成部(分布データ作成手段)、60:元データベース、70:データ抽出部(データベース絞込み手段)、80:データ抽出部(絞込み条件設定手段)、150:データベース。 10: Imaging device (imaging unit), 20: Image display unit (image display unit), 21, 26: Display image, 25: Touch pen (input unit), 90: Selection region image extraction unit (selection region image extraction unit), 30: Feature extraction unit (feature extraction unit), 40: Search engine (search unit), 45: Identification candidate display unit (display unit), 50: Refinement database, 52, 152: Distribution data generation unit (distribution data generation) Means), 60: original database, 70: data extraction unit (database narrowing means), 80: data extraction unit (squeezing condition setting means), 150: database.

Claims (12)

対象物の画像を撮像する撮像手段と、
前記撮像手段で撮像された画像から前記対象物の特徴量を抽出する特徴量抽出手段と、
前記対象物が属するカテゴリに含まれる複数の種について、少なくとも前記特徴量に対応する特徴量情報が登録されたデータベースと、
前記データベースに登録された前記特徴量情報からデータ群を抽出するデータベース絞込み手段と、
前記データベース絞込み手段による抽出の条件を設定する絞込み条件設定手段と、
前記データベース絞込み手段によって抽出された前記データ群に対してそれぞれ特徴量分布データを形成する分布データ形成手段と、
前記分布データ形成手段によって形成された前記特徴量分布データに基づいて前記特徴量抽出手段によって抽出された前記特徴量と前記データベース絞込み手段によって抽出された前記データ群の中の前記特徴量情報とを対比して前記データ群の中の前記特徴量情報から前記特徴量と同じ特徴量を有する特徴量情報を検索する検索手段と
を備えていることを特徴とする対象物認識システム。
Imaging means for capturing an image of the object;
Feature quantity extraction means for extracting the feature quantity of the object from the image captured by the imaging means;
A database in which feature amount information corresponding to at least the feature amount is registered for a plurality of species included in the category to which the object belongs;
Database narrowing means for extracting a data group from the feature amount information registered in the database;
Narrowing condition setting means for setting conditions for extraction by the database narrowing means;
Distribution data forming means for forming feature quantity distribution data for each of the data groups extracted by the database narrowing means;
Based on the feature quantity distribution data formed by the distribution data forming means, the feature quantity extracted by the feature quantity extracting means and the feature quantity information in the data group extracted by the database narrowing means. A target recognition system comprising: a search unit that searches for feature quantity information having the same feature quantity as the feature quantity from the feature quantity information in the data group.
前記分布データ形成手段は前記特徴量情報ごとに形成された前記特徴量分布データのうち最も均等に分布する特徴量分布データから順に前記特徴量に順位を付け、前記検索手段は前記分布データ形成手段で順位付けされた順序で検索を行うことを特徴とする請求項1記載の対象物認識システム。   The distribution data forming means ranks the feature quantities in order from the feature quantity distribution data distributed most evenly among the feature quantity distribution data formed for each feature quantity information, and the search means sets the distribution data formation means. 2. The object recognition system according to claim 1, wherein the search is performed in the order of ranking. 前記分布データ形成手段は前記特徴量情報ごとに形成された前記特徴量分布データのうち最も多く出現するパラメータを有する特徴量分布データのデータ数が少ない順に前記特徴量に順位を付け、前記検索手段は前記分布データ形成手段で順位付けされた順序で検索を行うことを特徴とする請求項1記載の対象物認識システム。   The distribution data forming means ranks the feature quantities in ascending order of the number of feature quantity distribution data having parameters that appear most frequently among the feature quantity distribution data formed for each feature quantity information, and the search means 2. The object recognition system according to claim 1, wherein searches are performed in the order ranked by the distribution data forming means. 対象物の画像を撮像する撮像手段と、
前記撮像手段で撮像された画像を表示する画像表示手段と、
前記対象物が属するカテゴリに含まれる複数の種について、少なくとも前記対象物の特徴量に対応する特徴量情報が登録されたデータベースと、
前記データベースに登録された前記特徴量情報に対してそれぞれ特徴量分布データを形成する分布データ形成手段と、
前記特徴量毎の特徴量分布データを表示する表示手段と、
前記特徴量分布データに基づいて、前記表示手段に表示された画像の一部を選択する選択手段と、
前記選択手段で選択された前記画像の一部の情報に基づいて前記対象物の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段によって抽出された前記特徴量と前記データベースに登録された前記特徴量情報とを対比して前記データ群の中の前記特徴量情報から前記特徴量と同じ特徴量を有する特徴量情報を検索する検索手段と
を備えていることを特徴とする対象物認識システム。
Imaging means for capturing an image of the object;
Image display means for displaying an image picked up by the image pickup means;
For a plurality of species included in the category to which the object belongs, a database in which feature amount information corresponding to at least the feature amount of the object is registered;
Distribution data forming means for forming feature quantity distribution data for the feature quantity information registered in the database;
Display means for displaying feature quantity distribution data for each feature quantity;
Selection means for selecting a part of the image displayed on the display means based on the feature amount distribution data;
Feature quantity extraction means for extracting the feature quantity of the object based on a part of information of the image selected by the selection means;
The feature quantity having the same feature quantity as the feature quantity from the feature quantity information in the data group by comparing the feature quantity extracted by the feature quantity extraction means with the feature quantity information registered in the database An object recognition system comprising: a search means for searching for information.
前記画像の一部は少なくとも1つの部位であることを特徴とする請求項4記載の対象物認識システム。   The object recognition system according to claim 4, wherein a part of the image is at least one part. 前記画像の一部は前記選択手段で選択した閉曲線で囲まれた少なくとも1つの領域であることを特徴とする請求項4記載の対象物認識システム。   5. The object recognition system according to claim 4, wherein a part of the image is at least one region surrounded by a closed curve selected by the selection means. 前記特徴量は前記画像中の選択された部位又は領域から抽出された色情報であることを特徴とする請求項5又は6記載の対象物認識システム。   The object recognition system according to claim 5 or 6, wherein the feature amount is color information extracted from a selected region or region in the image. 前記特徴量は選択された少なくとも2つの部位又は領域間の距離情報であることを特徴とする請求項5又は6記載の対象物認識システム。   The object recognition system according to claim 5 or 6, wherein the feature amount is distance information between at least two selected parts or regions. 前記特徴量は前記画像中の選択された少なくとも1つの領域の最小径、最大径、平均径、面積のうちの少なくとも1つであることを特徴とする請求項6記載の対象物認識システム。   The object recognition system according to claim 6, wherein the feature amount is at least one of a minimum diameter, a maximum diameter, an average diameter, and an area of at least one selected region in the image. 前記特徴量は前記画像中の選択された少なくとも1つの領域の形状であることを特徴とする請求項6記載の対象物認識システム。   The object recognition system according to claim 6, wherein the feature amount is a shape of at least one region selected in the image. 前記特徴量は選択された複数の部位又は/及び領域の分布情報であることを特徴とする請求項4〜6のいずれか1項記載の対象物認識システム。   The object recognition system according to claim 4, wherein the feature amount is distribution information of a plurality of selected parts or / and regions. 前記画像表示手段において、前記選択手段で選択された部位又は及び領域の輪郭、又は選択されない部位又は及び領域の色又は明るさが変化することを特徴とする請求項4記載の対象物認識システム。   5. The object recognition system according to claim 4, wherein in the image display means, the color of the part or area selected by the selection means or the color or brightness of the part or area not selected is changed.
JP2006017827A 2006-01-26 2006-01-26 Object recognition system Expired - Fee Related JP4831314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006017827A JP4831314B2 (en) 2006-01-26 2006-01-26 Object recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006017827A JP4831314B2 (en) 2006-01-26 2006-01-26 Object recognition system

Publications (2)

Publication Number Publication Date
JP2007200020A true JP2007200020A (en) 2007-08-09
JP4831314B2 JP4831314B2 (en) 2011-12-07

Family

ID=38454576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006017827A Expired - Fee Related JP4831314B2 (en) 2006-01-26 2006-01-26 Object recognition system

Country Status (1)

Country Link
JP (1) JP4831314B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009259096A (en) * 2008-04-18 2009-11-05 Fujifilm Corp Image information providing system, image information server, imaging apparatus, and image information providing method
JP2009272931A (en) * 2008-05-08 2009-11-19 Olympus Corp Imaging apparatus, and data providing system
WO2011049046A1 (en) * 2009-10-20 2011-04-28 楽天株式会社 Image processing device, image processing method, image processing program, and recording medium
JP2011192091A (en) * 2010-03-15 2011-09-29 Omron Corp Image attribute determination apparatus, attribute determination support apparatus, image attribute determination method, attribute determination support apparatus control method, and control program
JP2012022251A (en) * 2010-07-16 2012-02-02 Mitsubishi Electric Corp Speech retrieval interface device and speech input retrieval method
JP2012150552A (en) * 2011-01-17 2012-08-09 Horiuchi Denki Seisakusho:Kk Object recognition processing device and object recognition processing method
JP2012208589A (en) * 2011-03-29 2012-10-25 Hitachi Omron Terminal Solutions Corp Business form recognition apparatus, business form recognition method and program therefor
CN103324655A (en) * 2012-03-21 2013-09-25 卡西欧计算机株式会社 Image search system, image search apparatus, image search method and computer-readable storage medium
JP2019192162A (en) * 2018-04-27 2019-10-31 株式会社日立製作所 Data accumulation system and data searching method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101191A (en) * 1999-09-27 2001-04-13 Cadix Inc Image identifying device and database system used for image identification
JP2004192284A (en) * 2002-12-10 2004-07-08 Nec Corp Information distribution system, information distribution method and information distribution program
JP2005267374A (en) * 2004-03-19 2005-09-29 Mitsubishi Electric Corp Information retrieval support device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101191A (en) * 1999-09-27 2001-04-13 Cadix Inc Image identifying device and database system used for image identification
JP2004192284A (en) * 2002-12-10 2004-07-08 Nec Corp Information distribution system, information distribution method and information distribution program
JP2005267374A (en) * 2004-03-19 2005-09-29 Mitsubishi Electric Corp Information retrieval support device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009259096A (en) * 2008-04-18 2009-11-05 Fujifilm Corp Image information providing system, image information server, imaging apparatus, and image information providing method
JP2009272931A (en) * 2008-05-08 2009-11-19 Olympus Corp Imaging apparatus, and data providing system
US8660309B2 (en) 2009-10-20 2014-02-25 Rakuten, Inc. Image processing apparatus, image processing method, image processing program and recording medium
WO2011049046A1 (en) * 2009-10-20 2011-04-28 楽天株式会社 Image processing device, image processing method, image processing program, and recording medium
JP2011090374A (en) * 2009-10-20 2011-05-06 Rakuten Inc Image processor, image processing method, and image processing program
CN102656605A (en) * 2009-10-20 2012-09-05 乐天株式会社 Image processing device, image processing method, image processing program, and recording medium
JP2011192091A (en) * 2010-03-15 2011-09-29 Omron Corp Image attribute determination apparatus, attribute determination support apparatus, image attribute determination method, attribute determination support apparatus control method, and control program
JP2012022251A (en) * 2010-07-16 2012-02-02 Mitsubishi Electric Corp Speech retrieval interface device and speech input retrieval method
JP2012150552A (en) * 2011-01-17 2012-08-09 Horiuchi Denki Seisakusho:Kk Object recognition processing device and object recognition processing method
JP2012208589A (en) * 2011-03-29 2012-10-25 Hitachi Omron Terminal Solutions Corp Business form recognition apparatus, business form recognition method and program therefor
CN103324655A (en) * 2012-03-21 2013-09-25 卡西欧计算机株式会社 Image search system, image search apparatus, image search method and computer-readable storage medium
JP2013196458A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Image search system, image search device, image search method and program
US9002071B2 (en) 2012-03-21 2015-04-07 Casio Computer Co., Ltd. Image search system, image search apparatus, image search method and computer-readable storage medium
JP2019192162A (en) * 2018-04-27 2019-10-31 株式会社日立製作所 Data accumulation system and data searching method

Also Published As

Publication number Publication date
JP4831314B2 (en) 2011-12-07

Similar Documents

Publication Publication Date Title
JP4831314B2 (en) Object recognition system
TWI550438B (en) Method and apparatus for recording reading behavior
US8599251B2 (en) Camera
JP6024719B2 (en) Detection device, detection method, and program
US20110243397A1 (en) Searching digital image collections using face recognition
JP6272635B2 (en) Infrared recording apparatus and infrared recording method
CN106445424A (en) Information processing method and information processing apparatus
JP6272633B2 (en) Infrared imaging apparatus and infrared imaging method
KR20100138140A (en) Method and apparatus for updating a composition database using user pattern, and digital photographing apparatus
KR101881356B1 (en) Method for providing User Interface and display apparatus applying the same
JP2008141635A (en) Camera, and image retrieval program
CN105122037A (en) Image processing system, image processing device, program, storage medium, and image processing method
JP2008015599A (en) Electronic device and search assistace program
JP6564275B2 (en) Image processing apparatus and image processing method
JP2007179455A (en) Object recognition system
JPH10254903A (en) Image retrieval method and device therefor
JPH10254901A (en) Method and device for retrieving image
JP2008152713A (en) Electronic pictorial book
JP2018124814A (en) Image processor, imaging apparatus, image processing method, image processing program, and storage medium
JP2007179389A (en) Photographing device
CN104655284B (en) Analysis device, processing device, analysis method, and processing method
CN103428434B (en) Infrared photographing apparatus and infrared photographing method
JP5428243B2 (en) Image processing apparatus, electronic camera, and image distribution program
JP2012142739A (en) Image processing device, image processing method and imaging apparatus
CN105637344B (en) Image processing equipment, program, storage medium and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110906

R150 Certificate of patent or registration of utility model

Ref document number: 4831314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees