JP2007133816A - Plant identification system and organism identification system - Google Patents

Plant identification system and organism identification system Download PDF

Info

Publication number
JP2007133816A
JP2007133816A JP2005328629A JP2005328629A JP2007133816A JP 2007133816 A JP2007133816 A JP 2007133816A JP 2005328629 A JP2005328629 A JP 2005328629A JP 2005328629 A JP2005328629 A JP 2005328629A JP 2007133816 A JP2007133816 A JP 2007133816A
Authority
JP
Japan
Prior art keywords
plant
image
information
target
identification system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005328629A
Other languages
Japanese (ja)
Inventor
Wakako Suganuma
輪香子 菅沼
Muneki Hamashima
宗樹 浜島
Kazuaki Aoto
和明 青砥
Taiji Ouchi
泰司 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005328629A priority Critical patent/JP2007133816A/en
Publication of JP2007133816A publication Critical patent/JP2007133816A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system, through which a user can identify an attractive plant in a stroll path such as a country mountain or mountain path on the spot or even after coming home with a high recognition rate. <P>SOLUTION: This system comprises an image input means inputting a characteristic image of an object plant by photographing; a characteristic quantity extraction means detecting a characteristic quantity of the object plant from the image inputted to the image input means; an area specification means acquiring area information in which the image input of the object plant is performed; a basic database storing names or families of a plurality of wild grasses throughout the counter, characteristic quantity information corresponding to the characteristic quantity, and sample images of plants; data group information of a plurality of wild grasses shown in each predetermined area; a narrowing means extracting a plant group from the basic database based on the area information and the data group information to form a retrieval object group; and a retrieval means performing retrieval by comparing the characteristic quantity extracted by the characteristic quantity extraction means with characteristic quantities of data of the retrieval object group. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、植物同定システム、及び生物同定システムに関するものである。   The present invention relates to a plant identification system and a biological identification system.

里山や山道などを散策すると野草、特に花や草の実等が目に付く。目に付いた花や草の実等が何の植物であるかを知りたいと思う機会は多い。しかしながら、それらの興味を引く対象を同定するために図鑑を携帯することは、図鑑の重量や、検索作業に時間をとられる等の制約から難しい場合が多い。また、目に付いた対象の形体を記憶したり、画像をカメラで撮影して、帰宅後に図鑑から検索を行うことは煩わしい作業と感じる人が多く、結局同定しないままになってしまうケースが多い。従って、散策や登山の片手間に気軽に対象の同定作業を行うことは難しかった。また、帰宅後に対象の形体の記憶や画像により同定作業を行おうとしても、同定のために必要な情報が得られていない場合がある。   If you take a stroll around a satoyama or mountain path, you will notice wild grasses, especially flowers and grass fruits. There are many occasions where you want to know what plants are the flowers and grass fruits that you see. However, it is often difficult to carry a picture book to identify those objects that are of interest to them because of restrictions such as the weight of the picture book and the time required for search operations. In addition, many people find it difficult to memorize the shape of the target object or to take a picture with a camera and search from the pictorial book after returning home. . Therefore, it has been difficult to easily identify the object during one walk or mountain climbing. In addition, there is a case where information necessary for identification is not obtained even if an identification operation is performed using a memory or an image of the target feature after returning home.

これらの問題を解決するために、下記の特許文献1および非特許文献1には、同定したい対象の植物から花と葉を採取し、それぞれを黒色布地または画用紙に載せて撮影し、その形状や色等の特徴量を抽出して対象の同定を行う自動認識システムが提案されている。この手法により95%以上の認識率が得られている。また、下記の非特許文献2には、携帯電話を用いて、同定したい対象の画像、GPS機能で取得した位置情報、花の簡単な特徴の3つのデータを送信して花の候補を表示し同定作業を行うシステムが提案されている。   In order to solve these problems, the following Patent Document 1 and Non-Patent Document 1 collect flowers and leaves from a target plant to be identified, shoot them on a black cloth or drawing paper, An automatic recognition system that extracts features such as colors and identifies a target has been proposed. The recognition rate of 95% or more is obtained by this method. Non-Patent Document 2 below uses a mobile phone to display the candidate of the flower by transmitting the three images of the image to be identified, the position information acquired by the GPS function, and the simple feature of the flower. A system for performing identification work has been proposed.

特開2002−203242号公報Japanese Patent Laid-Open No. 2002-203242 電子情報通信学会論文誌 D-II Vol.J84-D-II No.7 pp.1419-1429 2001年7月 「花と葉による野草の自動認識」豊橋技術科学大学情報工学系 斎藤 剛史、金子 豊久IEICE Transactions D-II Vol.J84-D-II No.7 pp.1419-1429 July 2001 “Automatic Recognition of Wildflowers by Flowers and Leaves” Toyohashi University of Technology FIT2004(第三回情報科学技術フォーラム)、I-042、2004年9月 「携帯電話を用いた花の情報検索システム」和歌山大学 原 幸司、田畑 惣太郎他FIT2004 (3rd Information Science and Technology Forum), I-042, September 2004 “Flower Information Retrieval System Using Mobile Phones” Wakayama University Koji Hara, Kotaro Tabata and others

しかしながら、特許文献1および非特許文献1に記載されたシステムでは、同定したい対象の葉と花を採取し、所定の背景の元に撮影する手間がかかる。また、稀産種等が採取される等、植物保護の観点からシステムの普及には制限がある。また、非特許文献2に記載された方法は、対象を採取せずに、花の特徴量と、花の咲く時期、GPSを用いた場所との3つの情報から検索を行っているが、花の認識率は55%と、高くはない。非特許文献2ではGPSを主に花の分布図作成のために用いており、位置情報による有用性はみられていない。   However, in the systems described in Patent Document 1 and Non-Patent Document 1, it takes time and effort to collect the leaves and flowers to be identified and photograph them under a predetermined background. In addition, there are restrictions on the spread of the system from the viewpoint of plant protection, such as the collection of rare species. In addition, the method described in Non-Patent Document 2 performs a search from three types of information, that is, a feature amount of a flower, a time when the flower blooms, and a location using GPS without collecting a subject. The recognition rate is not as high as 55%. In Non-Patent Document 2, GPS is mainly used for creating a flower distribution map, and no usefulness based on position information has been found.

本発明は、このような事情に鑑みてなされたものであり、里山や山道等の散策路で眼を引く植物を、その場で、または帰宅後であっても簡易に同定でき、しかも認識率の高い植物同定システム、及び生物同定システムを提供することを課題とする。   The present invention has been made in view of such circumstances, and it is possible to easily identify a plant that catches eyes on a walking path such as a satoyama or a mountain road, on the spot or even after returning home, and has a recognition rate. It is an object of the present invention to provide a plant identification system and a biological identification system with high levels.

前記課題を解決するための第1の手段は、同定したい対象植物の画像を入力して当該植物の同定を行う植物同定システムであって、対象植物の画像を撮像して入力する画像入力手段と、前記画像入力手段に入力された画像から前記対象植物の特徴量を検出する特徴量抽出手段と、前記対象植物の画像入力を行う地域情報を取得する地域特定手段と、全国の野草の名前や科、前記特徴量に対応する特徴量情報、および植物のサンプル画像を納めた元データベースと、所定の地域毎にみられる複数の野草のデータ群情報と、前記地域情報と前記データ群情報とに基づいて、前記元データベースから植物群を抽出して検索対象群を形成する絞込み手段と、前記特徴量抽出手段により抽出された特徴量と、前記検索対象群のデータの特徴量とを対照して検索を行う検索手段と、を有することを特徴とする植物同定システムである。   A first means for solving the above problem is a plant identification system for inputting an image of a target plant to be identified and identifying the plant, and an image input means for capturing and inputting an image of the target plant; , Feature quantity extracting means for detecting the feature quantity of the target plant from the image input to the image input means, area specifying means for acquiring area information for inputting the image of the target plant, An original database that stores feature amount information corresponding to the feature amount, and plant sample images, a plurality of wild grass data group information that is found in each predetermined region, the region information, and the data group information Based on the narrowing-down means for extracting a group of plants from the original database to form a search target group, the feature quantity extracted by the feature quantity extraction means is compared with the feature quantity of the data of the search target group A search unit for searching, a plant identification system characterized in that it comprises a.

前記課題を解決するための第2の手段は、前記第1の手段であって、さらに前記対象植物の画像入力を行う時期情報を取得する時期特定手段を有し、前記元データベースは、さらに開花時期(結実時期)等の前記画像が得られる時期情報を有し、前記絞込み手段は、前記地域情報と前記時期情報と前記データ群情報とに基づいて、前記元データベースから前記検索対象群を形成することを特徴とするものである。   The second means for solving the problem is the first means, further comprising time specifying means for acquiring time information for inputting an image of the target plant, wherein the original database further blooms. The time information for obtaining the image such as time (fruiting time) is provided, and the narrowing down means forms the search target group from the original database based on the region information, the time information, and the data group information. It is characterized by doing.

前記課題を解決するための第3の手段は、前記第1の手段であって、さらに前記対象植物の画像入力を行う時期情報を取得する時期特定手段を有し、前記データ群情報は、さらに前記所定の地域での開花時期(結実時期)等の前記画像が得られる時期情報を有し、前記絞込み手段は、前記地域情報と前記時期情報と前記データ群情報とに基づいて、前記元データベースから前記検索対象群を形成することを特徴とするものである。   The third means for solving the problem is the first means, further comprising time specifying means for acquiring time information for inputting an image of the target plant, and the data group information further includes: It has time information for obtaining the image such as a flowering time (fruiting time) in the predetermined area, and the narrowing-down means is based on the area information, the time information, and the data group information. To form the search target group.

前記課題を解決するための第4の手段は、前記第1の手段から第3の手段のいずれかであって、さらに前記検索手段で検索された前記同定したい対象に係る植物、又は植物の候補を表示する手段を有し、前記元データベースは各々の植物について、開花時と結実時との少なくとも2つのサンプル画像を有し、前記表示手段は2者のいずれか、または双方を選択的に表示可能に構成されていることを特徴とするものである。   The fourth means for solving the problem is any one of the first means to the third means, and the plant related to the object to be identified, or the plant candidate, further searched by the search means The original database has at least two sample images at the time of flowering and fruiting for each plant, and the display means selectively displays either one or both of them. It is characterized by being configured.

前記課題を解決するための第5の手段は、前記第1の手段から第4の手段のいずれかであって、さらに前記検索手段で検索された前記同定したい対象に係る植物、又は植物の候補を表示する手段を有し、前記元データベースは各々の植物について、全形と花(実)のクローズアップとの少なくとも2つのサンプル画像を有し、前記表示手段は、2者のいずれか、または双方を選択的に表示可能に構成されていることを特徴とするものである。   A fifth means for solving the problem is any one of the first means to the fourth means, and the plant related to the object to be identified, which is further searched by the search means, or a plant candidate The original database has at least two sample images of the whole shape and a close-up of a flower (fruit) for each plant, and the display means is either one of the two, or It is characterized in that both can be selectively displayed.

前記課題を解決するための第6の手段は、同定したい対象植物の画像を入力して当該植物の同定を行う植物同定システムであって、対象植物の画像を撮像して入力する画像入力手段と、前記画像入力手段に入力された画像から前記対象植物の特徴量を検出する特徴量抽出手段と、前記対象植物の画像を撮像した地域に自生する植物について、植物毎に名前、科、開花時期(結実時期)等の前記画像が得られる時期情報およびそれらのサンプル画像、前記特徴量に対応する特徴量情報を納めた元データベースと、前記対象植物の画像の入力時期を特定する時期特定手段と、前記入力時期に前記画像が得られる植物のデータを前記元データベースから抽出して、検索対象群を形成する絞込み手段と、前記特徴量抽出手段により抽出された特徴量と、前記検索対象群のデータの特徴量とを対照して検索を行う検索手段と、を有することを特徴とするものである。   A sixth means for solving the above problem is a plant identification system for inputting an image of a target plant to be identified and identifying the plant, and an image input means for capturing and inputting an image of the target plant; , Feature quantity extraction means for detecting the feature quantity of the target plant from the image input to the image input means, and for plants that grow naturally in the area where the image of the target plant is captured, the name, family, flowering time for each plant Time information for obtaining the image such as (fruiting time) and their sample images, a source database storing feature amount information corresponding to the feature amount, and a time specifying means for specifying the input time of the image of the target plant; Extracting the plant data from which the image is obtained at the input time from the original database to form a search target group; and the feature quantity extracted by the feature quantity extraction means; It is characterized in that it has a, a search unit for searching to control the feature amount data of the search target group.

前記課題を解決するための第7の手段は、前記第1の手段から第6の手段のいずれかであって、前記元データベースの媒体は前記植物同定システムから挿脱可能に構成されていることを特徴とするものである。   The seventh means for solving the problem is any one of the first to sixth means, and the medium of the original database is configured to be detachable from the plant identification system. It is characterized by.

前記課題を解決するための第8の手段は、前記第1の手段から第7の手段のいずれかであって、前記特徴量は、前記画像の花または(および)実単体の形状と大きさの情報、または花房の形状と大きさの情報を含むことを特徴とするものである。   An eighth means for solving the problem is any one of the first to seventh means, and the feature amount is a shape and a size of a flower of the image or (and) an actual single body. Or the information on the shape and size of the flower cluster.

前記課題を解決するための第9の手段は、前記第1の手段から第8の手段のいずれかであって、前記植物同定システムは更に、前記植物画像の入力時の前記画像入力手段と地面との距離を計測する高さ計測手段を備えることを特徴とするものである。   A ninth means for solving the problem is any one of the first to eighth means, and the plant identification system further includes the image input means and the ground when inputting the plant image. It is characterized by comprising a height measuring means for measuring the distance to the.

前記課題を解決するための第10の手段は、前記第1の手段から第9の手段のいずれかであって、前記特徴量抽出手段により抽出される特徴量は、前記花または実の分布状態に関する情報を含むことを特徴とするものである。   A tenth means for solving the problem is any one of the first to ninth means, wherein the feature quantity extracted by the feature quantity extraction means is the distribution state of the flower or fruit. It is characterized by including the information regarding.

前記課題を解決するための第11の手段は、前記第10の手段であって、前記花または実の分布状態に関する情報は、前記画像から抽出された花部または実部の重心同士の距離または(および)花部または実部の分布の形であることを特徴とするものである。   An eleventh means for solving the problem is the tenth means, wherein the information on the distribution state of the flower or the fruit is a distance between the centroids of the flower part or the real part extracted from the image or (And) It is in the form of a distribution of flower parts or real parts.

前記課題を解決するための第12の手段は、同定したい対象生物の画像を入力して当該対象生物の同定を行う生物同定システムであって、対象生物の画像を撮像して入力する画像入力手段と、前記画像入力手段に入力された画像から前記対象生物の特徴量を検出する特徴量抽出手段と、前記対象生物の画像入力を行う地域情報を取得する地域特定手段と、全国の生物に関する名前、前記特徴量に対応する特徴量情報、およぴ生物のサンプル画像を納めた元データベースと、所定の地域毎にみられる複数の生物のデータ群情報と、
前記地域情報と前記データ群情報とに基づいて、前記元データベースから生物群を抽出して検索対照群を形成する絞込み手段と、前記特徴量抽出手段により抽出された特徴量と、前記データベースの特徴量とを対照して検索を行う検索手段と、を有することを特徴とする生物同定システムである。
A twelfth means for solving the above problem is a biological identification system for inputting an image of a target organism to be identified and identifying the target organism, and is an image input means for capturing and inputting an image of the target organism. A feature amount extracting unit that detects a feature amount of the target organism from an image input to the image input unit, a region specifying unit that acquires region information for performing image input of the target organism, and names related to organisms throughout the country , Feature amount information corresponding to the feature amount, and an original database storing sample images of organisms, data group information of a plurality of organisms found in each predetermined region,
Based on the regional information and the data group information, a narrowing means for extracting a biological group from the original database to form a search reference group, a feature quantity extracted by the feature quantity extraction means, and a feature of the database And a search means for performing a search in comparison with the amount.

前記課題を解決するための第13の手段は、同定したい対象生物の画像を入力して当該生物の同定を行う生物同定システムであって、対象生物の画像を撮像して入力する画像入力手段と、前記画像入力手段に入力された画像から前記対象生物の特徴量を検出する特徴量抽出手段と、前記対象生物の画像を撮像した地域に生息する生物について、生物毎に名前、前記画像が得られる時期情報およびそれらのサンプル画像、前記特徴量に対応する特徴量情報を納めた元データベースと、前記対象生物の画像の入力時期を特定する時期特定手段と、前記入力時期に前記画像が得られる生物のデータを前記元データベースから抽出して、検索対象群を形成する絞込み手段と、前記特徴量抽出手段により抽出された特徴量と、前記検索対象群のデータの特徴量とを対照して検索を行う検索手段と、を有することを特徴とする生物同定システム。   A thirteenth means for solving the problem is a biological identification system for inputting an image of a target organism to be identified and identifying the organism, and an image input means for capturing and inputting an image of the target organism The feature amount extracting means for detecting the feature amount of the target organism from the image input to the image input means, and the name and the image for each organism are obtained for the organism living in the area where the image of the target organism is captured. Time information and their sample images, an original database storing feature amount information corresponding to the feature amount, a time specifying means for specifying the input time of the image of the target organism, and the image is obtained at the input time Extracting biological data from the original database to form a search target group, a feature quantity extracted by the feature quantity extraction means, and data of the search target group Biological identification system, characterized in that it comprises a search unit for searching to control the symptoms amount.

本発明によれば、里山や山道等の散策路で眼を引く植物を、その場で、または帰宅後であっても簡易に同定でき、しかも認識率の高い植物同定システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the plant identification system which can identify easily the plant which attracts eyes on a walk path, such as a satoyama and a mountain path, on the spot or after returning home, and also has a high recognition rate can be provided. .

以下、本発明の実施の形態を、図面を参照して説明する。図1は本発明の第1の実施の形態である植物同定システムの概要を示す図である。撮像装置は光学系と撮像素子、画像処理回路からなり、花に向かってシャッターを押すと同定したい対象植物の花、実等の特徴的画像が撮像される(画像入力手段)。同定作業を行う場合には、画像認識用ボタン(図示せず)を押す。画像認識ボタンを押して画像認識操作が開始されると、まず、対象植物の画像は画像抽出部で特徴量が抽出される(特徴量抽出手段)。この特徴量は、例えば、花の色情報、花の輪郭から抽出される花弁の枚数、形状、大きさ等である。特徴量の抽出には、前記特許文献及び非特許文献に記載されるような、公知の方法を用いることができる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an outline of a plant identification system according to a first embodiment of the present invention. The image pickup apparatus includes an optical system, an image pickup element, and an image processing circuit. When a shutter is pressed toward the flower, a characteristic image such as a flower or fruit of a target plant to be identified is picked up (image input means). When performing the identification work, a button for image recognition (not shown) is pushed. When the image recognition operation is started by pressing the image recognition button, first, a feature amount of the target plant image is extracted by the image extraction unit (feature amount extraction means). This feature amount is, for example, flower color information, the number of petals extracted from the contour of the flower, shape, size, and the like. A known method as described in the above-mentioned patent document and non-patent document can be used for extracting the feature amount.

並行してGPSモジュールが画像を撮像した場所情報を取得する(地域特定手段)。さらに、GPSから取得した場所情報は、地域植生情報抽出部(地域別植生情報によるデータ抽出部、絞り込み手段)に送られ、その中に格納されている地域別の植物群情報のデータ(データ群情報)に基づいて、特定された場所に分布する植物の情報が選択される。   In parallel, location information where the GPS module has captured an image is acquired (region specifying means). Further, the location information acquired from the GPS is sent to the regional vegetation information extraction unit (data extraction unit based on regional vegetation information, narrowing means), and the data (data group) of the regional plant group information stored therein Based on (information), information on plants distributed in the specified place is selected.

すなわち、地域植生情報抽出部には、複数の地域データと各地域に生える野草群データが格納されており、選択された地域の野草群データに基づいて、各植物の特徴量情報、および植物のサンプル画像を納めた元データベースからその地域に生える野草のみを選択して絞込みデータ(検索対照群)を形成する。元データベースは例えば、日本全国の野草のデータベースである。   In other words, the regional vegetation information extraction unit stores a plurality of regional data and wild grass group data that grow in each region. Based on the wild grass group data of the selected region, the feature amount information of each plant and the plant Select only wild grass that grows in the area from the original database containing sample images, and form narrowed data (search control group). The original database is, for example, a wild grass database all over Japan.

日本には代表的な野草として約2000種の植物が自生している。これらを纏めてデータベース化して対照植物の特徴量とデータベース植物の特徴量のみから植物を割り出すことは非常に困難である。例えば、フウロソウ科の植物を例にとると、ハクサンフウロ、イヨフウロ、アサマフウロ、タチフウロ、グンナイフウロ、ヒメフウロ、イチゲフウロ、ミツバフウロ、コフウロの10種、亜種を含めると17種ある(参考文献:山渓ハンディ図鑑2“山に咲く花”)。   In Japan, about 2000 kinds of plants are growing as typical wild grasses. It is very difficult to put these together into a database and determine plants from only the feature quantity of the control plant and the feature quantity of the database plant. For example, in the case of a plant of the family Aurora, there are 17 species including 10 species and subspecies of Hakusanfuuro, Iyofuuro, Asamafuuro, Tachifuuro, Gunkniuuro, Himefuuro, Ichigefuuro, Mitsubauro, Kofuuro (Reference: Sankei Handy 2) “Flowers in the mountains”).

これらのデータベースの花の色、形等の特徴量と、対象植物の画像の花の色、形等の特徴量とを比較して植物の同定を行うことは困難である。しかし、各々の花は、特定の地方や山域に分布しており、所定の山域に限定すれば多くとも数種に特定することができる。本実施の形態ではこれに着目して、地域毎の植生情報からその地域に生える植物群情報をデータベースに取り入れ、この情報に基づいて全国の野草データベースから所定の地域に生える植物を選択した絞込みデータベースを作成する。   It is difficult to identify a plant by comparing the feature amount such as the color and shape of the flower of these databases with the feature amount such as the color and shape of the flower of the target plant image. However, each flower is distributed in a specific region or mountain area, and if it is limited to a predetermined mountain area, it can be specified to several kinds at most. In this embodiment, paying attention to this, it takes into account the plant group information that grows in the region from the vegetation information for each region, and based on this information, the narrowed-down database that selects the plants that grow in the predetermined region from the national wild grass database Create

図2aに本実施の形態の地域別植生データ(植物群情報)と、元データベースの概要を示す。地域別植生データには、各地域a、b、c、…に生育する植物群が植生情報として地域別に格納されている。元データベースには、全国に生育する植物の特徴量である色情報、形状情報、開花や結実の時期情報の他、解説やサンプル画像が植物ごとに格納されている。   FIG. 2a shows an overview of the vegetation data (plant group information) by region and the original database according to the present embodiment. In the regional vegetation data, a group of plants growing in each region a, b, c,... Is stored as vegetation information by region. In the original database, color information, shape information, and information on the time of flowering and fruiting, which are characteristic quantities of plants growing throughout the country, as well as explanations and sample images are stored for each plant.

図2bに植物群情報と元データベースからの絞込みデータベース作成の様子を示す。図2bは、GPSモジュールにより決定された地域が地域cである場合の絞り込みデータベースの作成手順を示している。地域cに生育する植物群は植物群cであり、植物1、3、5、7、…である。よって、データ抽出部(絞り込み手段)は、元データベースから、植物1、3、5、7、…の情報のみを取り出し、絞り込みデータベースを作成する。   FIG. 2b shows how a narrowed database is created from plant group information and the original database. FIG. 2b shows a procedure for creating a refinement database when the region determined by the GPS module is region c. The plant group that grows in the area c is the plant group c, which is the plants 1, 3, 5, 7,. Therefore, the data extraction unit (narrowing means) extracts only the information on the plants 1, 3, 5, 7,... From the original database and creates a narrowing database.

図1に示す検索エンジン(検索手段)は、このようにして作成された絞込みデータベースの植物群と、対象植物との特徴量同士を対照させ、比較することによって、対象植物の同定作業を行う。絞り込みデータベースの各植物の特徴量である花の色、花弁枚数、形、大きさ等の情報と、対象植物の画像から抽出された特徴量である花の色、花弁枚数、形、大きさ、向き等の情報とが対照され、対象植物と特徴量が同じ組合せを有する植物が絞り込みデータベースから選択される。   The search engine (search means) shown in FIG. 1 performs the target plant identification work by comparing and comparing the feature quantities of the plant group of the narrowed-down database created in this way and the target plant. Information such as flower color, number of petals, shape, size, etc., which is the feature quantity of each plant in the refinement database, and flower color, number of petals, shape, size, which is the feature quantity extracted from the image of the target plant, The information such as the direction is contrasted, and a plant having the same combination as the target plant and the feature amount is selected from the narrowing-down database.

そして、選択された植物のサンプル画像が、液晶モニタからなる画像表示部(表示手段)に表示される。画像表示部には、撮像された対象植物の画像も同時に表示される。選択された植物の候補が複数ある場合には、画面を分割して一度に表示するか、あるいは次候補として送りボタンを押すごとに順次表示させる。   And the sample image of the selected plant is displayed on the image display part (display means) which consists of a liquid crystal monitor. The captured image of the target plant is also displayed on the image display unit. When there are a plurality of selected plant candidates, the screen is divided and displayed at a time, or sequentially displayed each time the feed button is pressed as the next candidate.

使用者はサンプル画像と対象植物、あるいはサンプル画像と対象植物の画像とを比較しながら、対象植物と同じサンプル画像を選択する。ここで、画像のみで同定が困難な植物は、サンプル画像とともに、同定のポイントとなる特徴を記載した文章を表示する。同定のポイントとなる特徴は例えば、茎の毛の有無や、葉の裏の色等である。使用者は、対象植物が目の前にある場合には、対象植物を観察して同定作業を行うことができる。選択されたサンプル画像と、画像に付随する植物の情報は、撮影した画像に付随する情報としてデジタルカメラに記録される。従って、撮影者は、帰宅後であっても、被写体の植物の情報に基づいて写真の整理を行うことができる。   The user selects the same sample image as the target plant while comparing the sample image and the target plant or the sample image and the target plant image. Here, a plant that is difficult to identify with only an image displays a sentence describing a feature that is a point of identification together with a sample image. Features that serve as identification points are, for example, the presence or absence of stem hair and the color of the back of the leaves. When the target plant is in front of the eyes, the user can observe the target plant and perform the identification work. The selected sample image and plant information accompanying the image are recorded in the digital camera as information accompanying the photographed image. Therefore, the photographer can organize the photos based on the information of the subject plants even after returning home.

もちろん、地域情報により絞込みデータを得る作業は、地域を移動しない限りにおいて、同定作業を行った最初の一枚のときのみでよい。次の同定作業からは、画像撮像、特徴量抽出、絞込みデータとの比較、サンプル画像表示の順に行われる。   Of course, the operation for obtaining the narrowed-down data based on the area information may be performed only when the identification work is performed for the first time as long as the area is not moved. From the next identification work, image capturing, feature extraction, comparison with narrowed data, and sample image display are performed in this order.

図3に、第1の実施の形態の変形例を示す。図1では、デジタルカメラに植物のデータベース(地域別植物群情報、元データベース)と絞り込み手段を内蔵したが、図3に示すように外部にデータベースを構成し、通信システムを用いて地域による絞込み作業を行って、絞込みデータベースを作成し、それを通信システムにより受信して検索に使用してもよい。また、データベース媒体を挿脱可能に構成してもよい。   FIG. 3 shows a modification of the first embodiment. In FIG. 1, the plant database (regional plant group information, original database) and narrowing means are built in the digital camera. However, as shown in FIG. To create a refined database, which may be received by the communication system and used for searching. Further, the database medium may be configured to be detachable.

また、本実施の形態では、地域情報を収得して、その地域に生える野草群データを選択し、元データベースから各々の野草データを選択して取り込む構成としたが、ここ数年で注目されるようになった里山のように、人の手の入り方や気候等の環境が略類似している場合には、地域ごとに共通して生えている野草が多い。発明者は、実際に関東近郊の複数の里山に出向き、地域毎に植物の画像を収集した。この結果、どの地域においても、所定の季節において、約30種〜50種の花が確認され、これらの花の同定作業を行った結果、全ての地域に共通する植物があることがわかった。   Also, in this embodiment, the region information is acquired, the wild grass group data that grows in the region is selected, and each wild grass data is selected and imported from the original database. If the environment, such as the approach of people and the climate, is almost similar, like the satoyama, there are many wild grasses that grow in common in each region. The inventor actually went to a plurality of satoyama near Kanto and collected plant images for each region. As a result, in any region, about 30 to 50 types of flowers were confirmed in a predetermined season, and as a result of performing identification work of these flowers, it was found that there were plants common to all regions.

この結果から、本実施形態例の変形例として、あらかじめ、植物のうちで地域によらずに共通して見られる植物群を特定して地域共通データベースを形成し、地域情報に基づいてその地域特有に生えている植物のデータベースと足し合わせる構成としてもよいことがわかった。このような構成とすることによって、絞り込みデータベースの作成を効率化できる。例えば、本州の里山に共通してどの地域にも分布する植物群データをあらかじめ作成しておき、これを所定の地域、例えば高尾山で特有に見られる植物群データと合成して、高尾山の植物群データとする。   From this result, as a modification of this embodiment example, a plant group that is commonly found regardless of the region among plants is identified in advance to form a regional common database, and the region-specific database is based on regional information. It was found that the composition may be added to the plant database. By adopting such a configuration, it is possible to improve the creation of the narrowing-down database. For example, plant group data distributed in all areas common to Satoyama in Honshu is created in advance, and this is combined with plant group data that is uniquely found in a predetermined area, such as Mt. Use plant group data.

そのためには、図1に示す地域別植物群情報を2つに区分して、地域共通植物群情報と、個別地域植物群情報とし、個別の地域が選定された場合には、その地域に対応する個別地域植物群情報と、地域共通植物群情報を足し合わせたものを、その個別地域の植物群情報として用いるようにすればよい。   To that end, the regional plant group information shown in FIG. 1 is divided into two parts, which are used as regional common plant group information and individual regional plant group information. When an individual region is selected, it corresponds to that region. What is necessary is just to use the thing which added together individual area plant group information to perform, and area common plant group information as plant group information of the individual area.

以下、本発明の第2の実施の形態である植物同定システムについて説明する。本実施の形態は、第1の実施の形態の絞込みデータベース作成時に、時期情報を反映させたものである。開花時期(実の同定の場合には結実時期)は種類により時期と期間が異なる。したがって時期情報を入力することによって更に絞り込みをかけることができ、認識率を上げることができる。本実施の形態の構成を図4に示す。図4において、図1と同じ構成については、その説明を省略する。   Hereinafter, the plant identification system which is the 2nd Embodiment of this invention is demonstrated. In the present embodiment, time information is reflected when the narrowed-down database is created in the first embodiment. The flowering time (fruiting time in the case of fruit identification) varies depending on the type. Therefore, further narrowing down can be performed by inputting time information, and the recognition rate can be increased. The configuration of this embodiment is shown in FIG. 4, the description of the same configuration as that in FIG. 1 is omitted.

画像認識用ボタンを押すと、GPSモジュールから地域情報が取り込まれると共に、時計から、その時期(月日)が取り込まれる。地域植生情報によるデータ抽出部は、この時期の情報を元にして、さらなる絞り込みを行うが、その手順を図5、図6に示す。   When the image recognition button is pressed, the area information is taken in from the GPS module and the time (month / day) is taken in from the clock. The data extraction unit based on the regional vegetation information further narrows down based on the information of this period, and the procedure is shown in FIGS.

図5は、比較の対象となる時期情報として、元データベースに格納されているものを使用する場合の手順を示す。第1の実施の形態で説明したように、特定された地域がcである場合、データ抽出部は、地域別植生データに基づき、元データベースから、植物1、3、5、7、…を抽出するが、抽出されたデータの中には時期情報が入っている。特定された時期が6月であるとすると、この時期情報に基づき、6月が開花時期と結実時期に含まれる植物1、3、5のみが、データ抽出部により絞り込まれて絞り込みデータベースに取り込まれ、特徴量比較の対象となる。   FIG. 5 shows a procedure when the information stored in the original database is used as the time information to be compared. As described in the first embodiment, when the specified region is c, the data extraction unit extracts plants 1, 3, 5, 7,... From the original database based on the regional vegetation data. However, the extracted data contains time information. Assuming that the specified time is June, based on this time information, only the plants 1, 3, and 5 in which June is included in the flowering time and the fruiting time are narrowed down by the data extraction unit and taken into the narrowing down database. , Subject to feature quantity comparison.

全国に広く分布する野草は、その地方の気候や土壌の影響により開花時期や結実時期が異なる。全国版の一般的な図鑑に掲載された時期情報と地域毎の時期情報にはずれが生じている(実際、地域毎の時期情報は全国の時期情報よりも期間が短いものが多い)。従って、認識率を向上させるためには、地域毎の時期情報を用いることが望ましい。図6は、地域毎の時期情報を用いた場合の絞込みデータベース作成の概要を示すものである。この実施の形態においては、図4、図6に示すように、地域別植物群情報の中に、その地域における開花や結実の時期を示す情報が含まれている。図5に示した例とは異なり、データ抽出部は、比較の対象となる時期情報として元データベースに入っているものを使用せず、地域別直物群情報の中に入っているものを使用する。その他の、抽出の方法は、図5の説明において行った方法と同じであるが、図6に示す例においては、これに加え、開花と結実の情報を分けて、絞り込みデータベースに与え、別々に検索の対象とできるようにしている。すなわち、図に示すように、植物1については結実、植物3においては開花と結実、植物5については開花の時期にあたるので、植物1については実、植物3については花と実、植物5については花が検索の対象となる。   Wildflowers widely distributed throughout the country have different flowering and fruiting times due to the local climate and soil effects. There is a discrepancy between the time information published in the national version of the general picture book and the time information for each region (in fact, the time information for each region is often shorter than the time information for the whole country). Therefore, it is desirable to use time information for each region in order to improve the recognition rate. FIG. 6 shows an outline of creating a refined database when using time information for each region. In this embodiment, as shown in FIGS. 4 and 6, information indicating the time of flowering and fruiting in the region is included in the plant group information by region. Unlike the example shown in FIG. 5, the data extraction unit does not use the information in the original database as the time information to be compared, but uses the information in the region-specific spot group information. To do. The other extraction methods are the same as the method performed in the description of FIG. 5, but in the example shown in FIG. 6, in addition to this, the information on flowering and fruiting is divided and given to the refinement database, and separately. It can be searched. That is, as shown in the figure, the plant 1 is fruited, the plant 3 is flowering and fruiting, and the plant 5 is flowering. Therefore, the plant 1 is fruit, the plant 3 is flower and fruit, and the plant 5 is Flowers are the search target.

図7に、第2の実施の形態の変形例を示す。図4では、デジタルカメラに植物のデータベース(地域別植物群情報、元データベース)と絞り込み手段を内蔵したが、図7に示すように外部にデータベースを構成し、通信システムを用いて地域による絞込み作業を行って、絞込みデータベースを作成し、それを通信システムにより受信して検索に使用してもよい。また、データベース媒体を挿脱可能に構成してもよい。   FIG. 7 shows a modification of the second embodiment. In FIG. 4, the plant database (regional plant group information, original database) and the narrowing means are built in the digital camera. However, as shown in FIG. To create a refined database, which may be received by the communication system and used for searching. Further, the database medium may be configured to be detachable.

図8は、本発明の第3の実施の形態である植物同定システムの概要を示す図である。本システムは、第2の実施の形態とは、元データベースとして地域限定の植生に基づいたデータベースを用いているところが異なるのみで、その他の処理内容は、時期情報として元データベースにあるものを使用した第2の実施の形態と同じである。このシステムは、あらかじめ、所定の山域に出かけてその場所で植物の同定を行いながら散策を行うことが明確な場合に有用なシステムである。データベース媒体は各地域の山里や山域ごとに用意され、使用者は例えば、目的の山域の元データベースをデジタルカメラに装着する。地域別元データベースは、全国版元データベースよりも小さいデータベースであるので、挿脱可能なデータベースとすることができる。   FIG. 8 is a diagram showing an outline of a plant identification system according to the third embodiment of the present invention. This system is different from the second embodiment only in that the database based on regional vegetation is used as the original database, and other processing contents are those in the original database as time information. This is the same as the second embodiment. This system is useful when it is clear that a stroll is made in advance while going to a predetermined mountain area and identifying a plant at that place. A database medium is prepared for each mountainous area and mountainous area in each region, and the user mounts the original database of the target mountainous area on the digital camera, for example. Since the regional source database is smaller than the national version source database, it can be a database that can be inserted and removed.

画像認識ボタンが押されると、カメラに内蔵された時計により、撮像時期が取得され、データ抽出部は元データベースから撮像時期に応じたデータを選択して、絞込みデータベースを作成する。後の処理は第1の実施の形態の処理と同様である。   When the image recognition button is pressed, the imaging time is acquired by a clock built in the camera, and the data extraction unit selects data corresponding to the imaging time from the original database and creates a narrowed database. The subsequent processing is the same as the processing in the first embodiment.

この場合も、図3に示した変形例と同様に通信システムを用いて地域別元データベースの時期による絞込み作業を行う形にしてもよい。   In this case as well, a narrowing operation according to the time of the original database for each region may be performed using the communication system as in the modification shown in FIG.

以下、本発明の第4の実施の形態である植物同定システムについて説明する。本実施の形態においては、システムの全体構成とその作用は、第1の実施の形態から第3の実施の形態のいずれかと同じであるが、認識率を向上させるために特徴量として花(または実)の大きさ情報を盛り込んでいる。   Hereinafter, the plant identification system which is the 4th Embodiment of this invention is demonstrated. In the present embodiment, the overall configuration of the system and its operation are the same as in any of the first to third embodiments, but in order to improve the recognition rate, flowers (or (Real) size information is included.

図9に、花(または実)の大きさを特定する方法を示す。花の直径φの計測は、倍率βまたは、レンズの焦点距離fおよびレンズから被写体までの距離dにより、以下の式で表される。   FIG. 9 shows a method for specifying the size of a flower (or fruit). The measurement of the diameter φ of the flower is expressed by the following equation depending on the magnification β, the focal length f of the lens, and the distance d from the lens to the subject.

φ = φ'/β
= fφ'/(d−f) ・・・(1)
ここで、dはカメラから被写体までの距離として、カメラに搭載された自動焦点機構(AF)により、焦点の合った状態でのレンズの繰り出し量から求めることができる。また、焦点距離fは、単焦点レンズの場合は固定値で、ズームレンズでも、通常デジタルカメラのレンズデータとして撮影されたデジタル画像の中に保存されている。従って、両者の値(dとf)から、被写体の大きさφが算出される。
φ = φ '/ β
= Fφ '/ (df) (1)
Here, d is a distance from the camera to the subject, and can be obtained from the amount of lens that is brought into focus by an automatic focusing mechanism (AF) mounted on the camera. Further, the focal length f is a fixed value in the case of a single focus lens, and is also stored in a digital image usually taken as lens data of a digital camera even in a zoom lens. Accordingly, the subject size φ is calculated from both values (d and f).

花の大きさは、抽出された花の外形からその直径がmm単位で計測され、元データベース内の花の大きさ情報と対照され、他の特徴量とともに検索作業が行われる。   The diameter of the flower is measured in millimeters from the extracted flower outline, and compared with the flower size information in the original database, a search operation is performed along with other feature quantities.

また、セリ科やトウダイグサ科に代表されるように、花や実が房状につくものについては、大きさの情報として、花単体および花房の大きさをデータベースの特徴量にあらかじめ入力しておくことによって、マクロレンズによる花単体の画像およびそれ以外のレンズによる花房全体の画像の両方に用いることができる。   In addition, for flowers and fruits with tufts, as represented by the Apiaceae and Euphorbiaceae, the size of the single flower and the tuft is entered in the database feature quantity in advance as size information. By this, it can be used for both an image of a single flower with a macro lens and an image of the entire inflorescence with other lenses.

花の色、花弁枚数、向きのみを特徴量として用いたときに植物の識別率は65.5%であったが、この特徴量を導入することによって、植物の識別率は90.9%に向上した。また認識率は導入前の21.8%から52.7%にまで向上した。ここで、識別率とは、所定の地域と時期に開花する植物群の中で、同じ植物と認識されたの候補を3候補までに絞ることができた植物の割合である。また、認識率とは一義的に1つの植物に絞ることができた植物の割合である。このように、花、およぴ花房の大きさ情報を植物の認識システムに導入することにより、植物の認識の精度を非常に向上させることができる。   The plant recognition rate was 65.5% when only the flower color, the number of petals, and the orientation were used as feature values. By introducing this feature value, the plant recognition rate was improved to 90.9%. The recognition rate improved from 21.8% before introduction to 52.7%. Here, the identification rate is the proportion of plants that have been able to narrow down to three candidates that are recognized as the same plant in a plant group that blooms in a predetermined region and time. The recognition rate is the proportion of plants that could be uniquely focused on one plant. Thus, the accuracy of plant recognition can be greatly improved by introducing the size information of flowers and inflorescences into the plant recognition system.

この、花の大きさ情報を特徴量として植物の認識システムに導入する技術は、本発明の地域限定および時期限定を限定したデータベースに限らず、通常の植物の認識システムにおいても非常に有効である。   This technique of introducing flower size information as a feature quantity into a plant recognition system is not limited to a database that limits the region limitation and time limitation of the present invention, but is also very effective in a normal plant recognition system. .

以下、本発明の第5の実施の形態である植物同定システムについて説明する。本実施の形態においては、システムの全体構成とその作用は、第1の実施の形態から第3の実施の形態のいずれかと同じであるが、認識率を向上させるために特徴量として植物の高さ情報を盛り込んでいる。   Hereinafter, the plant identification system which is the 5th Embodiment of this invention is demonstrated. In the present embodiment, the overall configuration of the system and its operation are the same as those in any one of the first to third embodiments. However, in order to improve the recognition rate, a high amount of plant is used as a feature amount. The information is included.

図10に高さ測定を行うためのデジタルカメラの構成図を示す。カメラ筐体の下側端部には、LED等の赤外光光源と受光部が配置されている。対象植物に向けてシャッターを切ると同時にLED光源が発光して地面に発散光が照射される。地面で反射された光のうち地面から垂直に反射された光は受光部に入射して、光の発光から戻り光受光までの時間により、カメラから地面までの距離の計測が行われる。また、カメラには横構図撮影用のカメラ垂直方向の傾き測定用、及び縦構図撮影用のカメラ水平方向の傾き測定用の2つのジャイロが搭載されており、それぞれの構図におけるカメラの傾きθの測定が行われる。   FIG. 10 shows a configuration diagram of a digital camera for performing height measurement. An infrared light source such as an LED and a light receiving unit are disposed at the lower end of the camera casing. At the same time when the shutter is released toward the target plant, the LED light source emits light, and the ground is irradiated with divergent light. Of the light reflected from the ground, the light vertically reflected from the ground enters the light receiving unit, and the distance from the camera to the ground is measured according to the time from light emission to return light reception. In addition, the camera is equipped with two gyros for measuring the vertical tilt of the camera for horizontal composition shooting and for measuring the horizontal tilt of the camera for vertical composition shooting. Measurement is performed.

図11に高さの計測の原理図を示す。植物の高さhは、カメラと地面との距離H、カメラの傾きθ、レンズの焦点距離Dから、以下の式で求められる。   FIG. 11 shows the principle of height measurement. The height h of the plant can be obtained by the following formula from the distance H between the camera and the ground, the tilt θ of the camera, and the focal length D of the lens.

h = H − D・sinθ ・・・(2)
また、植物の高さが1m前後で分布しているような場合には、カメラのジャイロ機能のみで高さの計測が可能である。この場合撮影者は常に直立し、(2)式のHの値として地面から撮影者の目の高さを入力する。
h = H−D · sin θ (2)
Moreover, when the height of the plant is distributed around 1 m, the height can be measured only by the gyro function of the camera. In this case, the photographer always stands upright and inputs the height of the photographer's eyes from the ground as the value of H in equation (2).

植物の高さ情報は、画像による植物の同定の重要なファクターである。花の色、花弁枚数、向きのみを特徴量として用いたときに植物の識別率は65.5%であったが、この特徴量を導入することによって、植物の識別率は74.5%に向上した。一方、認識率は導入前の21.8%と同じであった。識別率および認識率の定義は前述のものと同様である。このように、草丈情報についても植物の認識システムに導入することにより、植物の認識の精度を向上させることができる。   Plant height information is an important factor in identifying plants by image. The plant recognition rate was 65.5% when only the flower color, the number of petals, and the orientation were used as the feature value. By introducing this feature value, the plant recognition rate was improved to 74.5%. On the other hand, the recognition rate was the same as 21.8% before the introduction. The definition of the identification rate and the recognition rate is the same as described above. Thus, the accuracy of plant recognition can be improved by introducing plant height information into the plant recognition system.

この、草丈情報を特徴量として植物の認識システムに導入する技術は、本発明の地域限定および時期限定を限定したデータベースに限らず、通常の植物の認識システムにおいても非常に有効である。特に、草本と木本との区別や、草丈に多様性のある里山や低山において有効であるという知見が得られた。   This technique of introducing plant height information as a feature quantity into a plant recognition system is not limited to a database with limited region and time limitation according to the present invention, but is also very effective in a normal plant recognition system. In particular, it was found that it is effective in distinguishing between grass and wood, and in satoyama and hills where the plant height is diverse.

以下、本発明の第6の実施の形態である植物同定システムについて説明する。本実施の形態においては、システムの全体構成とその作用は、第1の実施の形態から第3の実施の形態のいずれかと同じであり、かつ第4の実施の形態で説明したような、花(または実)の大きさを特定する機能を有している。本実施の形態では、図12に示すように、撮像された花(又は実)の画像上にエリアを手動で調整できる領域マーカを設け、画像上で選択されたエリアの所定長さを自動計測するような構成としている。   Hereinafter, the plant identification system which is the 6th Embodiment of this invention is demonstrated. In the present embodiment, the overall configuration of the system and its operation are the same as those in any one of the first to third embodiments, and the flower as described in the fourth embodiment. It has a function to specify the (or actual) size. In the present embodiment, as shown in FIG. 12, an area marker that can manually adjust an area is provided on a captured flower (or fruit) image, and a predetermined length of the area selected on the image is automatically measured. It is configured to do.

撮影者は、画像上に表示された領域マーカで、表示された植物の画像のうちの一輪の花、または、花房等を選択する。花(花房)を領域マーカの領域内に納め、画像認識ボタンを押すと不図示の演算部では(1)式により計算されたエリアの高さ及び幅が算出される。算出された値は、画像の花(花穂)の大きさ情報として登録され、花の特徴量としてデータベースから同定候補を抽出するために用いられる。また、算出された大きさ情報は、画面にも表示される。図12では、幅と高さを計測する構成としているが、もちろん、どちらか一方でもよい。また、幅と高さの計測を行うことによって、花の分布情報も得られる。例えば、花穂が線状に形成されているのか、面で形成されているのかがわかる。花穂の形状に関する情報は、後述の花の分布情報と併せ、同定の決め手として非常に有効な情報である。また、本構成を利用し、植物全形の画像を取得して、高さ方向の領域マーカで計測された値から草丈測定も行うことができる。   The photographer selects a single flower or a tuft of the displayed plant image with the region marker displayed on the image. When the flower (floral) is placed in the area of the area marker and the image recognition button is pressed, the calculation unit (not shown) calculates the height and width of the area calculated by equation (1). The calculated value is registered as the size information of the flower (flower spike) of the image, and is used for extracting the identification candidate from the database as the feature amount of the flower. The calculated size information is also displayed on the screen. In FIG. 12, although it is set as the structure which measures a width | variety and height, of course, either may be sufficient. Also, flower distribution information can be obtained by measuring the width and height. For example, it can be seen whether the flower spikes are formed in a line or a plane. The information on the shape of the flower spike is very effective information as a decisive factor for identification together with the distribution information of the flower described later. Moreover, the plant height measurement can also be performed from the value measured by the area marker in the height direction by acquiring an image of the whole plant using this configuration.

以下、本発明の第7の実施の形態である植物同定システムについて説明する。本実施の形態においては、システムの全体構成とその作用は、第1の実施の形態から第3の実施の形態のいずれかと同じである。本実施の形態では、先述のセリ科の植物やトウダイグサ科の植物のように花房を形成するものや、茎に輪生するシソ科のように画像に複数の花や実が存在する場合に、それらの分布の様子を特徴量に盛り込んでいる。   Hereinafter, the plant identification system which is the 7th Embodiment of this invention is demonstrated. In the present embodiment, the overall configuration of the system and the operation thereof are the same as those in any of the first to third embodiments. In this embodiment, when there are a plurality of flowers and fruits in the image, such as those that form inflorescences such as the above-mentioned ciraceae plants and Euphorbiaceae plants, and the Lamiaceae that grow on the stem, The state of their distribution is included in the feature value.

分布の様子を示す特徴量として、花や実の分布の粗密を表す特徴量(例えば、花の重心同士の距離)、花房(花穂)の形状、花の分布の形、が挙げられる。これらは画像処理により花を検出して、花の重心位置を求め、花の重心位置にマークをした画像を表示させる。この画像に基づいて、マーク同士の距離(mm)、マークの分布の仕方(線状、均等、輪帯状等)の特徴量を求める。もちろんデータベース内のサンプル画像についても分布情報を付与しておくか、サンプル画像に同様の作業を行うことで分布の状態に関する情報をあらかじめ用意しておく。   Examples of the feature quantity indicating the state of the distribution include a feature quantity representing the density of the distribution of flowers and fruits (for example, the distance between the centroids of the flowers), the shape of the inflorescence (flower spike), and the shape of the flower distribution. These detect flowers by image processing, determine the position of the center of gravity of the flower, and display an image marked at the position of the center of gravity of the flower. Based on this image, the distance between the marks (mm) and the feature amount of the distribution of the marks (linear, uniform, annular, etc.) are obtained. Of course, distribution information is also given to the sample image in the database, or information regarding the distribution state is prepared in advance by performing the same operation on the sample image.

本実施の形態は、花(や実)が房状あるいは輪帯状になっている場合や、重なりがある場合に有効である。図13に分布情報が有効に同定に作用した花の例を挙げる。メナモミとガンクビソウとは頭花の形状が非常に類似しているため画像認識から1つの頭花のみで分類することは困難である。しかしながら、メナモミの頭花は房状に分布しているのに対して、ガンクビソウの頭花は1つの枝先に1つの頭花をつける。   This embodiment is effective when the flowers (and fruits) are tufted or ring-shaped, or when there is an overlap. FIG. 13 shows an example of a flower whose distribution information effectively affects identification. Mena fir and ganbiso are very similar in the shape of the head flower, and it is difficult to classify only one head flower from image recognition. However, the head flowers of Menamomi are distributed in tufts, whereas the head flowers of Anthracnose attach one head flower to one branch tip.

また、カノツメソウとヤマゼリとは、花の色及び大きさが同じである。しかし花の分布は、カノツメソウは数個の輪帯状の花房を形成するのに対して、ヤマゼリは密な塊状の花房を形成する。これらの花のように、花の重心を検出して、分布状態を認識することによって、花同士の差異を見出すことができ、花の分布情報を特徴量に取り入れることで花の認識率は向上する。   In addition, the color and size of the flower are the same for the valerian and the bayberry. However, the distribution of flowers is that pods form several ring-shaped florets, whereas yamaseri form dense clustered florets. Like these flowers, by detecting the center of gravity of the flower and recognizing the distribution state, the difference between the flowers can be found, and the flower recognition rate is improved by incorporating the distribution information of the flower into the feature amount. To do.

なお、本発明は、同定の対象が植物に限定される者ではなく、例えば、昆虫、鳥類、ほ乳類等の生物を対象としても適用が可能である。   The present invention is not limited to plants whose identification is limited to plants, and can be applied to organisms such as insects, birds, and mammals.

実際に所定の時期に、所定の山域で採取した55種の植物のデータに基づいて、認識に用いる特徴量の違いと認識率について調査した結果を表1に示す。特徴量“A”は、花の花弁枚数、色、花の咲く向きの3つの特徴量の組合せである。花弁枚数は画像認識ソフトで認識可能なものについては枚数を記載し、それ以外のものは不明としている。花の向きは、花芯が見える方向で撮影を行った場合に、撮像装置に掲載されたジャイロ等の傾き検出手段から検出可能な花の向きである。   Table 1 shows the results of investigations on the difference in feature quantity used for recognition and the recognition rate based on data of 55 kinds of plants collected in a predetermined mountain area at a predetermined time. The feature amount “A” is a combination of three feature amounts of the number of petals, color, and direction of flower bloom. As for the number of petals, the number of petals that can be recognized by the image recognition software is described, and the others are unknown. The direction of the flower is the direction of the flower that can be detected by an inclination detecting means such as a gyro posted on the imaging device when shooting is performed in a direction in which the flower core can be seen.

特徴量“A+草丈”は、前述の特徴量Aに草丈情報を加えたもの、“A+花の大きさ”は、花の大きさ情報を加えたものである。花の大きさとしては、28mmマクロで1輪の花を撮像可能な大きさを有し、かつ花を単独で撮影可能な植物については、一輪の花の径、また、複数の花が纏まって咲く植物については花穂の径、花穂が直線状に伸びる植物については花穂の長さを特徴量としている。   The feature amount “A + plant height” is obtained by adding the plant height information to the above-described feature amount A, and “A + flower size” is obtained by adding the flower size information. As for the size of a flower, the diameter of a single flower or a plurality of flowers are gathered for a plant that can capture a single flower with a 28 mm macro and that can photograph a single flower. For blooming plants, the diameter of the spikes is used, and for the plants where the spikes extend in a straight line, the length of the spikes is used as the feature.

特徴量“花の分布”は、一輪の花が検出でき、かつ花の外形が円形のものについては、花弁の枚数を特徴量としている。また、花弁の枚数が多数あるものについては、多数と特徴付けている。更に、花がツリガネ状に認識される植物は朝顔形という特徴量で纏めている。花の形状が例えばマメ科の植物のように旗弁と翼弁に分かれるもの、また、シソ科の植物のように上唇と下唇に分かれる形状のものは上唇と下唇型に特徴付けられる。花が花穂として認識できるものについては、花穂の広がり方向から球状、線状、面上の3つの特徴に分けている。   The feature quantity “flower distribution” uses the number of petals as a feature quantity when a single flower can be detected and the outer shape of the flower is circular. A large number of petals is characterized as a large number. Furthermore, the plants whose flowers are recognized as ridged are gathered together with a feature value called morning glory. For example, the flower shape is divided into a flag valve and a wing valve like a legume plant, and the flower shape that is divided into an upper lip and a lower lip like a Lamiaceae plant is characterized as an upper lip and a lower lip. Flowers that can be recognized as flower spikes are divided into three features, spherical, linear, and on the surface, from the direction in which the flowers spread.

実際に撮像した画像との対比により検索を行った結果、表1に示すように、Aだけの特徴量で検索を行った場合には、候補数が1のものが12、2のものが18、3のものが6、4のものが8、5のものが5、6のものが6であったが、たとえばAに加えて花の大きさ、分布、草丈の特徴量を加えた場合には、候補数が1のものが35、2のものが18、3のものが2、4以上のものが0と、絞り込み結果が良好になっており、花の認識率は大きく向上した。特に花の大きさ情報、及び分布情報は花の同定に非常に有力な手がかりとなる。
(表1)
As a result of searching by comparison with the actually captured image, as shown in Table 1, when searching with the feature amount of only A, the number of candidates is 1 and 12 and 2 are 18 3 was 6, 4 was 8, 8 was 5, 5 was 6, and 6 was 6. For example, in addition to A, the feature size of flower size, distribution, and plant height was added. The number of candidates is 35, 2 is 18, 2 is 3, 3 is 2, and the result is 0, and the result of the narrowing is good, and the flower recognition rate is greatly improved. In particular, the size information and distribution information of flowers are very useful clues for flower identification.
(Table 1)

本発明の第1の実施の形態である植物同定システムの構成を示す図である。It is a figure which shows the structure of the plant identification system which is the 1st Embodiment of this invention. 本発明の第1の実施の形態である植物同定システムのデータベースの構成、およびデータベース抽出を説明する図である。It is a figure explaining the structure of the database of the plant identification system which is the 1st Embodiment of this invention, and database extraction. 本発明の第1の実施の形態である植物同定システムの植物同定システムの変形例の構成を示す図である。It is a figure which shows the structure of the modification of the plant identification system of the plant identification system which is the 1st Embodiment of this invention. 本発明の第2の実施の形態である植物同定システムの構成を示す図である。It is a figure which shows the structure of the plant identification system which is the 2nd Embodiment of this invention. 本発明の第2の実施の形態である植物同定システムのデータベースの構成、およびデータベース抽出を説明する図である。It is a figure explaining the structure of the database of the plant identification system which is the 2nd Embodiment of this invention, and database extraction. 本発明の第2の実施の形態である植物同定システムのデータベースの構成、およびデータベース抽出を説明する図である。It is a figure explaining the structure of the database of the plant identification system which is the 2nd Embodiment of this invention, and database extraction. 本発明の第2の実施の形態である植物同定システムの変形例の構成を示す図である。It is a figure which shows the structure of the modification of the plant identification system which is the 2nd Embodiment of this invention. 本発明の第3の実施の形態である植物同定システムの構成を示す図である。It is a figure which shows the structure of the plant identification system which is the 3rd Embodiment of this invention. 花の大きさ情報取得の原理を説明する図である。It is a figure explaining the principle of flower size information acquisition. 草丈情報取得装置の構成を示す図である。It is a figure which shows the structure of a plant height information acquisition apparatus. 草丈情報取得の原理を説明する図である。It is a figure explaining the principle of plant height information acquisition. 植物同定システムに係る装置の構成を示す図である。It is a figure which shows the structure of the apparatus which concerns on a plant identification system. 植物の花の分布を示した図である。It is the figure which showed distribution of the flower of a plant.

Claims (13)

同定したい対象植物の画像を入力して当該植物の同定を行う植物同定システムであって、
対象植物の画像を撮像して入力する画像入力手段と、
前記画像入力手段に入力された画像から前記対象植物の特徴量を検出する特徴量抽出手段と、
前記対象植物の画像入力を行う地域情報を取得する地域特定手段と、
全国の野草の名前や科、前記特徴量に対応する特徴量情報、および植物のサンプル画像を納めた元データベースと、
所定の地域毎にみられる複数の野草のデータ群情報と、
前記地域情報と前記データ群情報とに基づいて、前記元データベースから植物群を抽出して検索対象群を形成する絞込み手段と、
前記特徴量抽出手段により抽出された特徴量と、前記検索対象群のデータの特徴量とを対照して検索を行う検索手段と、
を有することを特徴とする植物同定システム。
A plant identification system that inputs an image of a target plant to be identified and identifies the plant,
Image input means for capturing and inputting an image of the target plant;
Feature quantity extraction means for detecting the feature quantity of the target plant from the image input to the image input means;
Area specifying means for acquiring area information for performing image input of the target plant;
An original database that stores the names and families of wildflowers nationwide, feature quantity information corresponding to the feature quantities, and plant sample images;
Data group information of multiple wildflowers found in each predetermined area,
Based on the region information and the data group information, a narrowing means for extracting a plant group from the original database and forming a search target group;
Search means for performing a search by comparing the feature quantity extracted by the feature quantity extraction means with the feature quantity of the data of the search target group;
A plant identification system comprising:
さらに前記対象植物の画像入力を行う時期情報を取得する時期特定手段を有し、
前記元データベースは、さらに開花時期(結実時期)等の前記画像が得られる時期情報を有し、
前記絞込み手段は、前記地域情報と前記時期情報と前記データ群情報とに基づいて、前記元データベースから前記検索対象群を形成することを特徴とする請求項1に記載の植物同定システム。
Furthermore, having a time specifying means for acquiring time information for performing image input of the target plant,
The original database further includes time information for obtaining the image such as flowering time (fruiting time),
2. The plant identification system according to claim 1, wherein the narrowing-down unit forms the search target group from the original database based on the area information, the time information, and the data group information.
さらに前記対象植物の画像入力を行う時期情報を取得する時期特定手段を有し、
前記データ群情報は、さらに前記所定の地域での開花時期(結実時期)等の前記画像が得られる時期情報を有し、
前記絞込み手段は、前記地域情報と前記時期情報と前記データ群情報とに基づいて、前記元データベースから前記検索対象群を形成することを特徴とする請求項1に記載の植物同定システム。
Furthermore, having a time specifying means for acquiring time information for performing image input of the target plant,
The data group information further includes time information for obtaining the image such as flowering time (fruiting time) in the predetermined area,
2. The plant identification system according to claim 1, wherein the narrowing-down unit forms the search target group from the original database based on the area information, the time information, and the data group information.
さらに前記検索手段で検索された前記同定したい対象に係る植物、又は植物の候補を表示する手段を有し、
前記元データベースは各々の植物について、開花時と結実時との少なくとも2つのサンプル画像を有し、
前記表示手段は2者のいずれか、または双方を選択的に表示可能に構成されていることを特徴とする請求項1から請求項3のうちいずれか1項に記載の植物同定システム。
Furthermore, it has a means for displaying a plant related to the object to be identified searched by the search means, or a plant candidate,
The original database has at least two sample images at the time of flowering and fruiting for each plant,
The plant identification system according to any one of claims 1 to 3, wherein the display means is configured to selectively display either one or both.
さらに前記検索手段で検索された前記同定したい対象に係る植物、又は植物の候補を表示する手段を有し、
前記元データベースは各々の植物について、全形と花(実)のクローズアップとの少なくとも2つのサンプル画像を有し、前記表示手段は、2者のいずれか、または双方を選択的に表示可能に構成されていることを特徴とする請求項1から請求項4のうちいずれか1項に記載の植物同定システム。
Furthermore, it has a means for displaying a plant related to the object to be identified searched by the search means, or a plant candidate,
The original database has at least two sample images of the whole shape and a close-up of flowers (fruits) for each plant, and the display means can selectively display either or both of them. It is comprised, The plant identification system of any one of Claims 1-4 characterized by the above-mentioned.
同定したい対象植物の画像を入力して当該植物の同定を行う植物同定システムであって、
対象植物の画像を撮像して入力する画像入力手段と、
前記画像入力手段に入力された画像から前記対象植物の特徴量を検出する特徴量抽出手段と、
前記対象植物の画像を撮像した地域に自生する植物について、植物毎に名前、科、開花時期(結実時期)等の前記画像が得られる時期情報およびそれらのサンプル画像、前記特徴量に対応する特徴量情報を納めた元データベースと、
前記対象植物の画像の入力時期を特定する時期特定手段と、
前記入力時期に前記画像が得られる植物のデータを前記元データベースから抽出して、検索対象群を形成する絞込み手段と、
前記特徴量抽出手段により抽出された特徴量と、前記検索対象群のデータの特徴量とを対照して検索を行う検索手段と、
を有することを特徴とする植物同定システム。
A plant identification system that inputs an image of a target plant to be identified and identifies the plant,
Image input means for capturing and inputting an image of the target plant;
Feature quantity extraction means for detecting the feature quantity of the target plant from the image input to the image input means;
For plants that grow naturally in the area where the image of the target plant is captured, the time information for obtaining the image such as name, family, flowering time (fruiting time) for each plant, their sample images, and features corresponding to the feature quantities An original database that stores quantity information,
Time specifying means for specifying the input time of the image of the target plant;
Extraction of plant data from which the image is obtained at the input time from the original database, and narrowing-down means for forming a search target group;
Search means for performing a search by comparing the feature quantity extracted by the feature quantity extraction means with the feature quantity of the data of the search target group;
A plant identification system comprising:
前記元データベースの記憶媒体は前記植物同定システムから挿脱可能に構成されていることを特徴とする請求項1から請求項6のうちいずれか1項に記載の植物同定システム。 The plant identification system according to any one of claims 1 to 6, wherein the storage medium of the original database is configured to be detachable from the plant identification system. 前記特徴量は、前記画像の花または(および)実単体の形状と大きさの情報、または花房の形状と大きさの情報を含むことを特徴とする請求項1から請求項7のうちいずれか1項に記載の植物同定システム。 The feature amount includes information on the shape and size of the flower or (and) the actual single body of the image, or information on the shape and size of the flower cluster. The plant identification system according to item 1. 前記植物同定システムは更に、前記植物画像の入力時の前記画像入力手段と地面との距離を計測する高さ計測手段を備えることを特徴とする請求項1から請求項8のうちいずれか1項に記載の植物同定システム。 The said plant identification system is further provided with the height measurement means which measures the distance of the said image input means at the time of the input of the said plant image, and the ground, The any one of Claims 1-8 characterized by the above-mentioned. The plant identification system described in 1. 前記特徴量抽出手段により抽出される特徴量は、前記花または実の分布状態に関する情報を含むことを特徴とする請求項1から請求項9のうちいずれか1項に記載の植物同定システム。 The plant identification system according to any one of claims 1 to 9, wherein the feature amount extracted by the feature amount extraction unit includes information on a distribution state of the flower or the fruit. 前記花または実の分布状態に関する情報は、前記画像から抽出された花部または実部の重心同士の距離または(および)花部または実部の分布の形であることを特徴とする請求項10に記載の植物同定システム。 The information on the distribution state of the flower or the fruit is a distance between the centroids of the flower part or the real part extracted from the image or (and) a shape of the distribution of the flower part or the real part. The plant identification system described in 1. 同定したい対象生物の画像を入力して当該対象生物の同定を行う生物同定システムであって、
対象生物の画像を撮像して入力する画像入力手段と、
前記画像入力手段に入力された画像から前記対象生物の特徴量を検出する特徴量抽出手段と、
前記対象生物の画像入力を行う地域情報を取得する地域特定手段と、
全国の生物に関する名前、前記特徴量に対応する特徴量情報、およぴ生物のサンプル画像を納めた元データベースと、
所定の地域毎にみられる複数の生物のデータ群情報と、
前記地域情報と前記データ群情報とに基づいて、前記元データベースから生物群を抽出して検索対照群を形成する絞込み手段と、
前記特徴量抽出手段により抽出された特徴量と、前記データベースの特徴量とを対照して検索を行う検索手段と、
を有することを特徴とする生物同定システム。
A biological identification system for inputting an image of a target organism to be identified and identifying the target organism,
An image input means for capturing and inputting an image of the target organism;
Feature quantity extraction means for detecting the feature quantity of the target organism from the image input to the image input means;
Area specifying means for acquiring area information for inputting an image of the target organism;
An original database that stores names of living creatures nationwide, feature quantity information corresponding to the feature quantities, and biological specimen images;
Data group information of multiple organisms found in each predetermined area,
Based on the regional information and the data group information, narrowing means for extracting a group of organisms from the original database and forming a search reference group,
Search means for performing a search by comparing the feature quantity extracted by the feature quantity extraction means with the feature quantity of the database;
A biological identification system characterized by comprising:
同定したい対象生物の画像を入力して当該生物の同定を行う生物同定システムであって、
対象生物の画像を撮像して入力する画像入力手段と、
前記画像入力手段に入力された画像から前記対象生物の特徴量を検出する特徴量抽出手段と、
前記対象生物の画像を撮像した地域に生息する生物について、生物毎に名前、前記画像が得られる時期情報およびそれらのサンプル画像、前記特徴量に対応する特徴量情報を納めた元データベースと、
前記対象生物の画像の入力時期を特定する時期特定手段と、
前記入力時期に前記画像が得られる生物のデータを前記元データベースから抽出して、検索対象群を形成する絞込み手段と、
前記特徴量抽出手段により抽出された特徴量と、前記検索対象群のデータの特徴量とを対照して検索を行う検索手段と、
を有することを特徴とする生物同定システム。
A biological identification system for inputting an image of a target organism to be identified and identifying the organism,
Image input means for capturing and inputting an image of the target organism;
Feature quantity extraction means for detecting the feature quantity of the target organism from the image input to the image input means;
For organisms that live in the area where the image of the target organism is captured, the name of each organism, the time information when the image is obtained and their sample images, the original database that stores the feature amount information corresponding to the feature amount,
Time specifying means for specifying the input time of the image of the target organism;
Extraction data of organisms from which the image is obtained at the input time is extracted from the original database, and narrowing means for forming a search target group;
Search means for performing a search by comparing the feature quantity extracted by the feature quantity extraction means with the feature quantity of the data of the search target group;
A biological identification system characterized by comprising:
JP2005328629A 2005-11-14 2005-11-14 Plant identification system and organism identification system Pending JP2007133816A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005328629A JP2007133816A (en) 2005-11-14 2005-11-14 Plant identification system and organism identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005328629A JP2007133816A (en) 2005-11-14 2005-11-14 Plant identification system and organism identification system

Publications (1)

Publication Number Publication Date
JP2007133816A true JP2007133816A (en) 2007-05-31

Family

ID=38155397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005328629A Pending JP2007133816A (en) 2005-11-14 2005-11-14 Plant identification system and organism identification system

Country Status (1)

Country Link
JP (1) JP2007133816A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009259096A (en) * 2008-04-18 2009-11-05 Fujifilm Corp Image information providing system, image information server, imaging apparatus, and image information providing method
WO2012046671A1 (en) * 2010-10-06 2012-04-12 日本電気株式会社 Positioning system
JP2012203848A (en) * 2011-03-28 2012-10-22 Japan Research Institute Ltd Photographing support device and photographing support method
JP2012221211A (en) * 2011-04-08 2012-11-12 Nintendo Co Ltd Information processor, information processing program, information processing method and information processing system
JP2013047867A (en) * 2011-08-29 2013-03-07 Nintendo Co Ltd Information processor, information processing program, information processing method, and information processing system
JP5200015B2 (en) * 2007-06-14 2013-05-15 パナソニック株式会社 Image recognition apparatus and image recognition method
CN103324654A (en) * 2012-03-21 2013-09-25 卡西欧计算机株式会社 Image processing device that displays retrieved image similar to target image and image processing method
JP2013196514A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014022921A (en) * 2012-07-18 2014-02-03 Nikon Corp Electronic apparatus and program
US9002071B2 (en) 2012-03-21 2015-04-07 Casio Computer Co., Ltd. Image search system, image search apparatus, image search method and computer-readable storage medium
JP2015132994A (en) * 2014-01-14 2015-07-23 リコーItソリューションズ株式会社 Program, image recognition device, and image recognition method
JP2017054555A (en) * 2016-12-20 2017-03-16 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
WO2019102954A1 (en) * 2017-11-21 2019-05-31 株式会社バイオーム Identifying device, identification method, identification system, and database structure
CN111491071A (en) * 2020-01-08 2020-08-04 李迎春 Recognition system and method based on signal analysis
JP2021114335A (en) * 2019-02-13 2021-08-05 カシオ計算機株式会社 Database generation method, additional information registration system, database generation device and program
KR20220004491A (en) * 2020-07-03 2022-01-11 국민대학교산학협력단 Artificial intelligence based tree data management system and tree data management method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253875A (en) * 1997-01-07 1998-09-25 Asahi Optical Co Ltd Camera with built-in sensor
JP2001126184A (en) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd Automatic license plate recognizing device and vehicle speed measuring method
JP2002203242A (en) * 2000-12-28 2002-07-19 Japan Science & Technology Corp Plant recognition system
JP2002247436A (en) * 2001-02-14 2002-08-30 Fuji Photo Film Co Ltd Digital camera
JP2003044497A (en) * 2001-07-31 2003-02-14 Mikio Numata Mobile picture book
JP2003288363A (en) * 2002-03-27 2003-10-10 Seiko Epson Corp Information providing device and information providing method
JP2005267607A (en) * 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd Digital picture book system, picture book search method, and picture book search program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253875A (en) * 1997-01-07 1998-09-25 Asahi Optical Co Ltd Camera with built-in sensor
JP2001126184A (en) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd Automatic license plate recognizing device and vehicle speed measuring method
JP2002203242A (en) * 2000-12-28 2002-07-19 Japan Science & Technology Corp Plant recognition system
JP2002247436A (en) * 2001-02-14 2002-08-30 Fuji Photo Film Co Ltd Digital camera
JP2003044497A (en) * 2001-07-31 2003-02-14 Mikio Numata Mobile picture book
JP2003288363A (en) * 2002-03-27 2003-10-10 Seiko Epson Corp Information providing device and information providing method
JP2005267607A (en) * 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd Digital picture book system, picture book search method, and picture book search program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5200015B2 (en) * 2007-06-14 2013-05-15 パナソニック株式会社 Image recognition apparatus and image recognition method
JP2009259096A (en) * 2008-04-18 2009-11-05 Fujifilm Corp Image information providing system, image information server, imaging apparatus, and image information providing method
WO2012046671A1 (en) * 2010-10-06 2012-04-12 日本電気株式会社 Positioning system
US9104702B2 (en) 2010-10-06 2015-08-11 Nec Corporation Positioning system
JP2012203848A (en) * 2011-03-28 2012-10-22 Japan Research Institute Ltd Photographing support device and photographing support method
JP2012221211A (en) * 2011-04-08 2012-11-12 Nintendo Co Ltd Information processor, information processing program, information processing method and information processing system
US9477902B2 (en) 2011-04-08 2016-10-25 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for presenting image candidates having similarity to an imaged image
JP2013047867A (en) * 2011-08-29 2013-03-07 Nintendo Co Ltd Information processor, information processing program, information processing method, and information processing system
CN103324654A (en) * 2012-03-21 2013-09-25 卡西欧计算机株式会社 Image processing device that displays retrieved image similar to target image and image processing method
US8958634B2 (en) 2012-03-21 2015-02-17 Casio Computer Co., Ltd. Image processing device that displays retrieved image similar to target image
US9002071B2 (en) 2012-03-21 2015-04-07 Casio Computer Co., Ltd. Image search system, image search apparatus, image search method and computer-readable storage medium
JP2013196514A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Image processing device, image processing method, and program
US20130251253A1 (en) * 2012-03-21 2013-09-26 Casio Computer Co., Ltd. Image processing device that displays retrieved image similar to target image
CN103324654B (en) * 2012-03-21 2017-03-01 卡西欧计算机株式会社 The image processing apparatus of image and image processing method as display and retrieval object class
JP2014022921A (en) * 2012-07-18 2014-02-03 Nikon Corp Electronic apparatus and program
JP2015132994A (en) * 2014-01-14 2015-07-23 リコーItソリューションズ株式会社 Program, image recognition device, and image recognition method
JP2017054555A (en) * 2016-12-20 2017-03-16 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
WO2019102954A1 (en) * 2017-11-21 2019-05-31 株式会社バイオーム Identifying device, identification method, identification system, and database structure
JP2019095949A (en) * 2017-11-21 2019-06-20 株式会社バイオーム Determination device, method for determination, determination program, and determination system
US11048969B2 (en) 2017-11-21 2021-06-29 Biome Inc. Identification device, identification method, identification system, and database
JP2021114335A (en) * 2019-02-13 2021-08-05 カシオ計算機株式会社 Database generation method, additional information registration system, database generation device and program
JP7074235B2 (en) 2019-02-13 2022-05-24 カシオ計算機株式会社 Database generation method, additional information registration system, database generator and program
CN111491071A (en) * 2020-01-08 2020-08-04 李迎春 Recognition system and method based on signal analysis
KR20220004491A (en) * 2020-07-03 2022-01-11 국민대학교산학협력단 Artificial intelligence based tree data management system and tree data management method
KR102517513B1 (en) * 2020-07-03 2023-04-03 국민대학교산학협력단 Artificial intelligence based tree data management system and tree data management method

Similar Documents

Publication Publication Date Title
JP2007133816A (en) Plant identification system and organism identification system
JP5729476B2 (en) Imaging device and imaging support program
Zhu et al. Assessing tree crown volume—a review
US20150086116A1 (en) Image processing apparatus, image processing method and recording medium
CN109816680B (en) High-throughput calculation method for crop plant height
Brocks et al. Toward an automated low-cost three-dimensional crop surface monitoring system using oblique stereo imagery from consumer-grade smart cameras
CN111918547B (en) Crown recognition device, crown recognition method, program, and recording medium
WO2015159775A1 (en) Image processing apparatus, communication system, communication method, and image-capturing device
JP2004005534A (en) Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods
AU2021204034B2 (en) Information processing device, information processing method and program
WO2018003340A1 (en) Image acquisition method, image acquisition device, program and culture container
Maan et al. Tree species biomass and carbon stock measurement using ground based-LiDAR
JP2005108027A (en) Method and program for providing object information
Fastie Estimating stand basal area from forest panoramas
KR20180086832A (en) Image-based crop growth data measuring mobile app. and device therefor
US11138258B2 (en) System and method of grouping images
Wang Estimating forest attributes from spherical images
JP5788781B2 (en) Shooting target search system
Komarkova et al. Comparison of Vegetation Spectral Indices Based on UAV Data: Land Cover Identification Near Small Water Bodies
Yang et al. Early identification of cotton fields using mosaicked aerial multispectral imagery
Mugaburu New Populations of Cylindropuntia× viridiflora (Cactaceae) in Canyon de Chelly National Monument, Arizona
David et al. Bird sanctuary: A potential ecotourism activity in Lake Kenyir, Terengganu
JP4064958B2 (en) Plant search system
Wang et al. Small plot identification from video streams for high-throughput phenotyping of large breeding populations with unmanned aerial systems
JP2009042961A (en) Retrieval system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080730

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110316