JP2002203242A - Plant recognition system - Google Patents

Plant recognition system

Info

Publication number
JP2002203242A
JP2002203242A JP2000403201A JP2000403201A JP2002203242A JP 2002203242 A JP2002203242 A JP 2002203242A JP 2000403201 A JP2000403201 A JP 2000403201A JP 2000403201 A JP2000403201 A JP 2000403201A JP 2002203242 A JP2002203242 A JP 2002203242A
Authority
JP
Japan
Prior art keywords
color
leaf
flower
image
plant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000403201A
Other languages
Japanese (ja)
Other versions
JP3918143B2 (en
Inventor
Toyohisa Kaneko
豊久 金子
Takashi Saito
剛史 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2000403201A priority Critical patent/JP3918143B2/en
Publication of JP2002203242A publication Critical patent/JP2002203242A/en
Application granted granted Critical
Publication of JP3918143B2 publication Critical patent/JP3918143B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify flowering plants by performing image recognition of a plant that bears flowers. SOLUTION: An image of flowers and leaves being an object is extracted from a digital image of the flowers and the leaves by using a clustering method, and information obtained from the extracted image of the flowers and the leaves is defined as characteristic quantity. One or more characteristic quantities are calculated, and the calculated characteristic quantities and the characteristic quantities of various plants pre-registered in a database are analyzed by using a statistical method to discriminate the kind of a wild plant. A system in which one correct name of a wild plant can be obtained in a recognition result and a system in which several similar wild plants are displayed on the screen and a user can recognize what the wild plants are in the end by observing the plants are constructed, and the kinds of the wild plants and such information carried on a plant dictionary can be displayed on the basis of the recognition results.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像認識に関する
ものであり、特に花を付ける植物の画像を認識するシス
テムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image recognition, and more particularly to a system for recognizing an image of a flowering plant.

【0002】[0002]

【背景技術】道路や山道、野原など至るところで野草を
見ることができる。しかし、私たちは野草の名称や分類
について知らないことが多い。図鑑を利用して野草の名
称を知ろうとするが、植物学的な分類に基づいて整理さ
れているために素人にはわかりにくく時間もかかる。ま
た携帯型図鑑(例えば、林 弥栄,「山渓ハンディ図鑑
1 野に咲く花」,山と渓谷社,東京,1998)では、8
4科約1000種の野草が収録されている。野草の種類
数が多いため、図鑑から特定の野草を見つけるだけでな
く、同科の野草を見つけることさえ困難である。もし、
野草の判別に自動認識の技術を適用することができれ
ば、専門家でなくともその名称を容易に知ることができ
る。さらに近年の携帯型コンピュータ、デジタルカメラ
などの普及により、安価で可搬姓の高い自動認識システ
ム実現のための環境は整いつつある。静止画像からのプ
リミティブな物体や人間の顔を認識したり、CT画像か
ら肺癌などの認識に関する研究事例は多い。しかし、
魚、昆虫、植物などの自然物を対象とした認識について
の報告は少ない。例えば、平岡ら(平岡 透,矢野 啓
司,瀧山 龍三,「輪郭線及びテクスチャ情報に基づく
画像認識法 −魚画像認識への応用」,信学技報,PRMU
96-148,no.1,pp.55-62,Jan.1997)は魚のテクスチャ
と形状を基にした認識を行っているが、実際に撮影した
画像ではなく、図鑑写真を加工した画像を用いている。
Imら(Cholhong Im, Hirobumi Nishida,Toshiyasu L.
Kunii, "Recognizing Plant Species by Leaf Shapes
- A CaseStudy of the Acer Family", ICPR'98, pp.117
1-1173, Brisbane, Australia, Aug.1998)はカエデ科
の樹木の認識を葉形状より行っている。関田ら(関田
巌,栗田 多喜夫,大津 展之,「複素自己回帰モデル
による形の識別」,信学論(D-II),vol.J73-D-II,
No.6,pp.804-811,Jun.1990)は木の葉の認識を行って
いるが5種サンプル数16枚とデータが少ない。金山ら
(金山 和義,川嶋稔夫,青木 由直,「植物データを
対象とした画像インデクシング」,信学技報,PRMU97-1
72,no.11,pp.151-158,Nov.1997)、竹本ら(竹本
清香,興梠正克,村岡 洋一,「花冠の特徴に基づく花
検索システム」,1999,信学総大,D.12-66)は植物写
真を基にしたインデクシングを目標としているが、野草
の認識までは至っていない。本発明では実際に生息して
いる野草を用いて、撮影から認識までの一連のシステム
実現を目的とする。
BACKGROUND ART Wild grass can be seen everywhere, such as on roads, mountain roads, and fields. However, we often do not know the names and classifications of wildflowers. The name of the wildflower is tried to be known using the picture book, but it is difficult for an amateur to understand because it is arranged based on the botanical classification. In a portable pictorial book (for example, Yasaka Hayashi, “Sankei Handy Pictorial Book 1 Flowers Blooming in the Field”, Yamato Gorgesha, Tokyo, 1998), 8
Approximately 1000 species of wildflowers are recorded in 4 families. Due to the large variety of wildflowers, it is difficult to find not only specific wildflowers in the picture book, but also wildflowers of the same family. if,
If the technique of automatic recognition can be applied to the identification of wild grass, the name can be easily known even if it is not an expert. Furthermore, with the recent spread of portable computers and digital cameras, an environment for realizing an inexpensive and highly portable automatic recognition system is being prepared. There are many research cases related to the recognition of primitive objects and human faces from still images and the recognition of lung cancer and the like from CT images. But,
There are few reports on recognition of natural objects such as fish, insects, and plants. For example, Hiraoka et al. (Toru Hiraoka, Keiji Yano, Ryuzo Takiyama, "Image Recognition Method Based on Contour and Texture Information-Application to Fish Image Recognition", IEICE Technical Report, PRMU
96-148, no.1, pp.55-62, Jan. 1997) recognizes fish based on texture and shape, but uses images processed from pictorial books instead of images actually taken. ing.
Im et al. (Cholhong Im, Hirobumi Nishida, Toshiyasu L.
Kunii, "Recognizing Plant Species by Leaf Shapes
-A CaseStudy of the Acer Family ", ICPR'98, pp.117
1-1173, Brisbane, Australia, Aug. 1998) recognizes the maple tree from the leaf shape. Sekida and others (Sekida
Iwao, Takio Kurita, Nobuyuki Otsu, "Classification by Complex Autoregressive Model", IEICE (D-II), vol.J73-D-II,
No. 6, pp. 804-811, Jun. 1990) recognizes the leaves of the tree, but the data is small with 16 samples of 5 types. Kanayama et al. (Kazuyoshi Kanayama, Toshio Kawashima, Yoshinao Aoki, "Image Indexing for Plant Data," IEICE Technical Report, PRMU97-1
72, no. 11, pp. 151-158, Nov. 1997), Takemoto et al. (Takemoto
Kiyoka, Masakatsu Korogi, Yoichi Muraoka, "Flower Retrieval System Based on Corolla Features", 1999, IEICE, D.12-66) aims at indexing based on plant photos, but the recognition of wildflowers Not yet. An object of the present invention is to realize a series of systems from photographing to recognition using wild grasses that actually inhabit.

【0003】[0003]

【発明が解決しようとする課題】本発明の目的は、花を
付ける植物の画像認識を行い、草花の識別を行うことを
目的としている。
SUMMARY OF THE INVENTION An object of the present invention is to recognize an image of a plant having a flower and to identify a flower.

【0004】[0004]

【課題を解決するための手段】上述の目的を達成するた
めに、本発明は、花や葉の特徴をもとに植物の種類を判
別する植物認識システムであって、前記入力された花お
よび/または葉のディジタル画像より、対象物である花
および/または葉の画像を抽出し、前記抽出された花お
よび/または葉の画像より単数または複数の特徴量を求
め、前記求められた特徴量と、あらかじめデータベース
に登録してある各種の植物の特徴量とから、前記植物の
種類を判別する。これにより、花をつける植物を対象と
した画像認識として、その花画像、葉画像より自動的に
画像認識をし、草花の識別を行うことができる。
In order to achieve the above object, the present invention is a plant recognition system for discriminating the type of a plant based on characteristics of flowers and leaves. And / or extracting an image of a flower and / or a leaf as an object from a digital image of a leaf, obtaining one or more feature amounts from the extracted image of the flower and / or a leaf, and obtaining the obtained feature amount. Then, the type of the plant is determined from the feature amounts of various plants registered in the database in advance. As a result, as the image recognition for the plant having the flower, the image recognition can be automatically performed from the flower image and the leaf image, and the flower can be identified.

【0005】前記花および/または葉の画像を抽出する
ためには、色空間において行うクラスタリング法を用い
ることができる。前記特徴量とは、前記抽出された花ま
たは葉の画像より求められる値であり、次に定義するも
のから選択したものとすることができる。 1.花の画像において、重心Gから花弁の輪郭までの距
離をdとし、重心との角度θを横軸,縦軸をdとした波
形のグラフにしたときの、前記波形における平均谷間距
離l,山の高さの平均をhとしたときの、花弁の形状l
/h。 2.花弁数。但し、花弁数が7以上の場合は7とする。 3.花の面積をS、重心をG(g,g)としたとき
To extract the flower and / or leaf image, a clustering method performed in a color space can be used. The feature amount is a value obtained from the image of the extracted flower or leaf, and may be selected from the following definitions. 1. In a flower image, when the distance from the center of gravity G to the contour of the petal is d, and the angle θ with respect to the center of gravity is a horizontal axis and the vertical axis is d, a graph of the waveform is formed. Petal shape l when the average height of the petals is h
/ H. 2. Number of petals. However, when the number of petals is 7 or more, the number is set to 7. 3. When the area of the flower is S and the center of gravity is G (g i , g j )

【数5】 で定義される、花のモーメントM。 4.花の周囲長をLとしたとき(Equation 5) The moment M of the flower, defined by 4. When the perimeter of the flower is L

【数6】R=4πS/L で定義した、花の円形度R。 5.色合いをH、彩度をSとしたときのHS色空間を半
径1の円とし、その円の中心をxy平面の原点に設置し
た空間内において、前記花に最大分布している色に該当
する色のx座標値。 6.前記5の空間内で、前記花に最大分布している色に
該当する色のy座標値。 7.前記5の空間内で、前記空間をさらに−1≦x≦1
および−1≦y≦1を分割したときの格子内に含まれる
色を1単位の色集合とし、前記花に最大分布している色
が含まれる色集合内に含まれる色の分布割合。 8.前記5の空間内で、前記花に2番目に分布している
色に該当する色のx座標値。 9.前記5の空間内で、前記花に2番目に分布している
色に該当する色のy座標値。 10.前記7の色集合で、前記花に2番目に分布している
色が含まれる色集合内に含まれる色の分布割合。 11.前記葉において、鋸歯の頂点を結んでできる外側近
似形状の面積Sと、鋸歯の谷を結んでできる内側近似
形状の面積Sとしたときの、葉の形状S/S 。 12.葉のアスペクト比。 13.前記葉の面積をS、重心をG(g,g)とした
ときの
R = 4πS / L2 The circularity R of the flower, defined in. 5. Half the HS color space when the hue is H and the saturation is S
Set a circle with a diameter of 1 and set the center of the circle at the origin of the xy plane.
Corresponds to the color that has the largest distribution of the flowers in the space
X-coordinate value of the color to perform. 6. In the space of the 5 above, to the color that is the largest distribution of the flowers
The y-coordinate value of the corresponding color. 7. In the space of 5, the space is further defined as −1 ≦ x ≦ 1
And -1≤y≤1
A color is a color set of one unit, and the color that is distributed the most in the flower
The distribution ratio of the colors contained in the color set containing. 8. In the space of 5, the flower is secondarily distributed in the flower
The x coordinate value of the color corresponding to the color. 9. In the space of 5, the flower is secondarily distributed in the flower
The y-coordinate value of the color corresponding to the color. Ten. In the 7 color set, the flower is secondarily distributed
The distribution ratio of the colors included in the color set that includes the colors. 11. In the leaf, near the outside formed by connecting the vertices of the sawtooth
Area S of similar shapeEInside approximation made by connecting the sawtooth valley
Shape area SI, The leaf shape SI/ S E. 12. Leaf aspect ratio. 13. The area of the leaf is S, and the center of gravity is G (gi, Gj)
Sometimes

【数7】 で定義される、葉のモーメントM。 14.前記葉の周囲長をLとしたとき(Equation 7) The leaf moment M, defined by 14. When the perimeter of the leaf is L

【数8】R=4πS/L で定義した、葉の円形度R。 15.前記葉の重心をG、基部と先端を結ぶ長さlの中央
脈の中心をCとしたとき、前記葉の先端方向を正の向き
としたときの中心Cから重心Gまでの距離をbとしたと
きの、前記葉の重心の偏り(l+2b)/l。 16.前記葉の基部の開き角度。 17.前記葉の先端の開き角度。 18.前記葉が単葉ならば0、複葉ならば1。 19.前記5の空間内で、前記葉に最大分布している色に
該当する色のx座標値。 20.前記5の空間内で、前記葉に最大分布している色に
該当する色のy座標値。 21.前記7の色集合で、前記葉に最大分布している色が
含まれる色集合内に含まれる色の分布割合。
Equation 8] defined R = 4πS / L 2, the circularity of the leaf R. 15. When the center of gravity of the leaf is G, and the center of the central vein having a length 1 connecting the base and the tip is C, the distance from the center C to the center of gravity G when the tip direction of the leaf is a positive direction is b. (1 + 2b) / l 16. The opening angle of the base of the leaf. 17. The opening angle of the tip of the leaf. 18. 0 if the leaf is single leaf, 1 if double leaf. 19. An x-coordinate value of a color corresponding to a color that is maximally distributed on the leaves in the space of 5. 20. The y-coordinate value of the color corresponding to the color most distributed on the leaf in the space of 5. twenty one. The distribution ratio of the colors included in the color set including the color that is most distributed in the leaves in the color set of 7 above.

【0006】前記植物の種類を判別するための解析に、
前記特徴量に正規化を施し、区分的線形識別関数を用い
て行うことができる。前記解析に用いる前記特徴量は、
認識率のよい組み合わせである、あらかじめ定めた数の
特徴量を用いるため、認識に必要な特徴量7,8個で十
分な認識率を得ることもできる。認識結果を表示し、か
つ前記認識結果をもとに前記植物の種類やその情報を表
示することもできる。なお、上述の機能をコンピュータ
・システムに実装することができるプログラムを格納し
た記憶媒体も本発明である。
In the analysis for determining the type of the plant,
The feature amount can be normalized using a piecewise linear discriminant function. The feature quantity used for the analysis is:
Since a predetermined number of feature amounts that are a combination having a good recognition rate are used, a sufficient recognition rate can be obtained with 7, 8 feature amounts required for recognition. The recognition result may be displayed, and the type of the plant and its information may be displayed based on the recognition result. Note that a storage medium storing a program that can implement the above-described functions in a computer system is also an aspect of the present invention.

【0007】[0007]

【発明の実施の形態】本発明の植物認識システムの実施
の形態を、図面を参照して説明する。本発明では、デジ
タルカメラ等を用いた撮影画像を入力し、野草の名称を
表示するシステムを提供する。ただし、本システムで扱
う野草は人間が明らかに花と葉を認識できる顕花植物で
あり、花が咲いている時期に撮影することを前提として
いる。ある一つの野草から花と葉を採取し、それぞれ黒
色布地(又は画用紙)上の中央付近に位置させ撮影す
る。花や葉は枯れや虫食いなどによる欠陥のないものを
採取する。また葉はその成長過程や採取位置により、葉
縁の形状が異なる場合がある。ここでは各々の野草にお
いて代表的な形の葉を用いることにする。葉は方向を持
つため基部を画像の左側、先端を右側におく。さらに花
の形状は3次元的な構造が多い。本発明で定義する特徴
量は2次元構造のみを用いている。ユーザにより撮影方
向が異なることを防ぐため、撮影は真上かそれに近い斜
め上の角度から行う。また本システムで用いる画像は赤
(R),緑(G),青(B)によるカラー画像であり、
例えばRGBの各色を各8ビットで表現し、画像サイズ
は縦480画素、横640画素である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a plant recognition system according to the present invention will be described with reference to the drawings. The present invention provides a system for inputting a captured image using a digital camera or the like and displaying a name of a wild grass. However, the wildflowers handled by this system are flowering plants that humans can clearly recognize flowers and leaves, and it is assumed that images are taken when the flowers are blooming. Flowers and leaves are collected from a certain wildflower, and each is located near the center on a black cloth (or drawing paper) and photographed. Collect flowers and leaves that are not defective due to withering or insect eating. Further, the shape of the leaf margin may vary depending on the growth process and the sampling position. Here, a leaf of a typical shape is used for each wildflower. Leaves have a direction, so the base is on the left side of the image and the tip is on the right side. Furthermore, the shape of a flower often has a three-dimensional structure. The feature quantity defined in the present invention uses only a two-dimensional structure. In order to prevent the photographing direction from being different depending on the user, the photographing is performed from directly above or obliquely upward. The images used in this system are color images of red (R), green (G), and blue (B).
For example, each color of RGB is represented by 8 bits, and the image size is 480 pixels vertically and 640 pixels horizontally.

【0008】図1は本発明のシステムとその認識処理の
流れを示したものである。本システムは、図1(a)に
示すように、CPU20にデジタルカメラや写真読取り
装置等の画像入力装置10、システムの操作を行うため
の入力装置30、操作画面や認識結果を表示する表示装
置40、認識に用いるデータや植物のデータが記録され
ている記憶装置50が接続されている構成となってい
る。また、認識処理の流れは図1(b)に示すように、
まず、認識する対象である花と葉の画像を入力装置10
より入力し(S100)、入力した画像から花と葉の対
象物を切り出す背景分離処理をCPU20で行う(S1
10)。さらにCPU20は抽出した対象物の画像をも
とに、定義した特徴量を求め(S120)、対象物の認
識を行う(S130)。画像から対象物を抽出する作業
は極めて重要であり、本発明のシステムではクラスタリ
ング法を用いることにする。特徴量は花、葉それぞれに
おいて定義する。そして特徴量を入力データとして区分
的線形識別関数による認識を行う。
FIG. 1 shows the system of the present invention and the flow of its recognition processing. As shown in FIG. 1A, the system includes an image input device 10 such as a digital camera and a photo reader, an input device 30 for operating the system, and a display device for displaying an operation screen and a recognition result, as shown in FIG. 40, a storage device 50 in which data used for recognition and plant data are recorded is connected. Also, the flow of the recognition process is as shown in FIG.
First, an image of a flower and a leaf to be recognized is input to the input device 10.
Is input (S100), and the CPU 20 performs a background separation process of cutting out flowers and leaves from the input image (S1).
10). Further, the CPU 20 obtains a defined feature amount based on the extracted image of the object (S120), and recognizes the object (S130). The operation of extracting an object from an image is extremely important, and the system of the present invention uses a clustering method. The feature amount is defined for each flower and leaf. Then, recognition using a piecewise linear discriminant function is performed using the feature amount as input data.

【0009】[背景分離] <入力画像の性質と方針>図2は花と葉の自然の状態を
そのまま撮影した画像を示したものである。ほとんどの
花や葉は群生しているため、図2のような画像から自動
的に対象物のみを抽出することは難しい作業である。そ
こで、対象物を抽出するために光源などの撮影環境を同
一に設定し撮影する方法や、対象物の存在しない画像と
存在する画像の2枚を用い、両面像を差分することによ
り対象物を抽出する方法などが挙げられる。しかし、本
発明は安価なシステム、かつユーザに対する操作の軽減
を考慮する必要がある。そこで本発明のシステムでは、
対象物の背景に黒色の布地(もしくは画用紙)を用い
た。これは対象物である花が極彩色や無彩色(白色)に
分布し、葉は一般的に緑色であり、撮影時における太陽
光などの光の反射を最小限に抑えるためである。図3は
前述の方法で撮影した、対象物の背景に黒色布地を置い
て撮影した画像である。本発明のシステムで定義する特
徴量の多くは対象物の正確な輪郭形状を必要とするた
め、正確な背景分離は不可欠である。そこで、この入力
画像においてエッジ検出やしきい値選定法などの諸手法
により背景分離を試みたが、以下に述べるような要因に
より必ずしも背景分離を容易には行えなかった。 対象物(特に花)が立体的な構造を持ち、図3(a)
のように相互に影を作り背景との差が低くなる。 図3(b)のように、対象物の影が背景領域に写り、
背景が一様でなくなる。 背景領域上の四隅に明暗が生じることがある。 そこで次に述べるクラスタリング法を用いて背景分離を
行う。
[Background Separation] <Character and Policy of Input Image> FIG. 2 shows an image obtained by photographing the natural state of flowers and leaves as they are. Since most flowers and leaves are clustered, it is difficult to automatically extract only the target object from the image shown in FIG. Therefore, in order to extract an object, a method of setting the same imaging environment such as a light source and taking an image, or using two images of an image where the object does not exist and an image where the object exists, and subtracting the two-sided image to identify the object. An extraction method is exemplified. However, in the present invention, it is necessary to consider an inexpensive system and a reduction in operation for the user. Therefore, in the system of the present invention,
Black cloth (or drawing paper) was used for the background of the object. This is because a flower as an object is distributed in a vivid color or an achromatic color (white), leaves are generally green, and reflection of light such as sunlight at the time of photographing is minimized. FIG. 3 is an image photographed by placing the black cloth on the background of the object photographed by the above-described method. Since many of the features defined by the system of the present invention require an accurate contour of an object, accurate background separation is indispensable. Therefore, background separation was attempted on the input image by various methods such as edge detection and threshold value selection, but the background separation was not always easy due to the factors described below. The object (especially a flower) has a three-dimensional structure, and FIG.
And the difference from the background is reduced. As shown in FIG. 3B, the shadow of the object appears in the background area,
The background is not uniform. Light and dark may occur at the four corners on the background area. Therefore, background separation is performed using the clustering method described below.

【0010】<クラスタリング>本研究におけるクラス
クリングは色空間において行う。色空間におけるクラス
タリングは、静止カラー画像の限定色選択を目的として
研究されている(Paul S.Heckbert, "Color image quan
tization for frame buffer display", pp.297-307, SI
GGRAPH'82, Boston, Jul.1982)。ここでは最初に赤
(R)、緑(G)、青(B)の3次元色分布空間を考
え、この空間においてseed(初期クラスタ値)を導出し
た後クラスタリングを行う。 (1)初期クラスタ決定 本発明のシステムでは最終的にクラスタ数を背景と対象
物の2つにする。クラスタリングはRGB空間における
k-means法(k−平均法)を用いて行い、以下の手順で
初期クラスタを導出する。 RGB空間における分布 seedを求めるに当たって、RGB空間分布を考える。図
4はRGB空間を示した図である。この図4のようにま
ず各座標軸において分布の最小、最大両端においてノイ
ズ成分と考えられる要素を無視するため、両端から全画
素数の0.1%(約300画素)の分布を無視する。次
に両端を除いた分布において、各座標軸に沿ってn個に
均等分割したn個の小空間を考える。この分布空間よ
りseedを検出する。ただし本発明の実施形態ではn=5
とする。 seed検出 seed検出は以下の手順により行う。まず頻度数が最大で
ある小空間を選ぶ。そして、連結する小空間が共にseed
となることを避けるために、図5に示すような、選ばれ
た小空間に隣接する6小空間はseedに選択しない。選択
した小空間とそれを囲む6小空間を取り除いた後、再び
最大頻度の小空間を選ぶプロセスを繰り返す。選ばれた
小空間における中央値をseedとする。初期クラスタ数
(seed数)kは条件を満たす全ての小空間とする。
<Clustering> In the present study, cluscling is performed in a color space. Clustering in color space has been studied for the purpose of limited color selection of still color images (Paul S. Heckbert, "Color image quan
tization for frame buffer display ", pp.297-307, SI
GGRAPH'82, Boston, Jul. 1982). Here, first, a three-dimensional color distribution space of red (R), green (G), and blue (B) is considered, and a seed (initial cluster value) is derived in this space, and then clustering is performed. (1) Initial Cluster Determination In the system of the present invention, the number of clusters is finally set to two, the background and the object. Clustering is in RGB space
The initial cluster is derived by the following procedure using the k-means method (k-means method). In obtaining the distribution seed in the RGB space, consider the RGB space distribution. FIG. 4 is a diagram showing an RGB space. As shown in FIG. 4, first, in order to disregard elements considered as noise components at the minimum and maximum ends of the distribution on each coordinate axis, the distribution of 0.1% (about 300 pixels) of the total number of pixels from both ends is ignored. Next, in the distribution, excluding both ends, consider n 3 pieces of small space equally divided into n along each coordinate axis. Seed is detected from this distribution space. However, in the embodiment of the present invention, n = 5
And Seed detection The seed detection is performed according to the following procedure. First, the small space with the highest frequency is selected. And the connected small spaces are both seeded
In order to avoid this, six small spaces adjacent to the selected small space as shown in FIG. 5 are not selected as seeds. After removing the selected small space and its surrounding six small spaces, the process of selecting the most frequent small space again is repeated. Let the median value in the selected small space be seed. The initial cluster number (seed number) k is all small spaces that satisfy the condition.

【0011】(2)k−means法(k−平均法) 本手法のアルゴリズムは以下のとおりである。 最初にk個の仮クラスタの重心seedを決定する。本
研究では前節で述べた方法によりseedを求める。 全てのデータを最短距離にあるクラスタに分類す
る。距離としてはRGB空間のユークリッド距離を使用
する。 再分類されたクラスタから新たにクラスタの重心を
求める。 の処理で新たなクラスタ中心が全て以前と同じで
あれば終了し、そうでなければに戻る。
(2) k-means method (k-means method) The algorithm of this method is as follows. First, the center of gravity seed of k temporary clusters is determined. In this study, the seed is obtained by the method described in the previous section. Classify all data into clusters at the shortest distance. The Euclidean distance in the RGB space is used as the distance. The center of gravity of the cluster is newly obtained from the reclassified cluster. If the new cluster centers are all the same as before in the processing of, the processing ends, otherwise the processing returns.

【0012】図6は図3(a)の花画像に対するクラス
タリング結果をRGB空間分布に示した図であり、図7
はクラスタリング結果を画像上に展開したものである。
図6のような色空間で同じクラスタに分類されても、画
像上では必ずしも同じ領域に分布しているとは限らな
い。そこで展開した画像で接合されていない領域は、全
て独立のクラスタとする。図6の色空間におけるクラス
タ数は6である。しかし図7ではクラスタ数が475と
増大する。この図では入力画像における色の移り変わり
と考えられる場所で画素数が少ないクラスタ(小領域)
が多数存在する。そこで次にクラスタ数の軽減を目的と
し、これら小領域の除去を行う。
FIG. 6 is a diagram showing the clustering result of the flower image of FIG. 3A in the RGB spatial distribution.
Is the result of expanding the clustering result on the image.
Even if they are classified into the same cluster in the color space as shown in FIG. 6, they are not always distributed in the same region on the image. Therefore, all unjoined areas in the developed image are independent clusters. The number of clusters in the color space of FIG. 6 is 6. However, in FIG. 7, the number of clusters increases to 475. In this figure, a cluster (small area) where the number of pixels is small at a place where color transition is considered in the input image
There are many. Then, these small areas are removed for the purpose of reducing the number of clusters.

【0013】<クラスタ統合>クラスタ統合は小領域ク
ラスタの除去を目的とした1次クラスタ統合、背景領域
に属するクラスタを統合する2次クラスタ統合、さらに
画像状況に応じて影を除去する3次クラスタ統合の3過
程から構成する。最後に背景領域を除去することにより
対象物を抽出する。 (1)1次クラスタ統合 各クラスタに属する画像を調べて、その数があるしきい
値T以下のクラスタを統合の対象とする。この値は統
合処理により対象物の輪郭が欠けないように注意する。
統合は各クラスタの平均色を求め、周囲のクラスタと比
較して最も色差の小さいクラスタへ吸収させる。色差は
RGB空間のユークリッド距離とする。図8は前述の処
理をT=300(全画素数の0.1%)として行っ
た、1次クラスタ統合後の結果を示したものである。 (2)2次クラスタ統合 本システムで使用する花及び葉の画像では、必ず対象物
は画像の中心付近に置かれ、画像から対象物がはみ出す
ことは無い。この条件下では画像の外側縁を含むクラス
タは必ず背景に属する。従ってこの性質を利用し、1次
クラスタ統合の結果を背景Aに属するか、対象物A
に属するか、もしくは未定Aに分別する。全クラスタ
をA,A,Aのいずれかに分類させるため、本発
明のシステムではエッジ強度eを定義する。そしてクラ
スタ境界におけるeの分布を求め、分布の検定を行うこ
とによりクラスタ統合処理を行う。即ち現段階において
は、幾つものクラスタからなる背景領域を、1つのクラ
スタに統合することを目的とする。図9はエッジ強度e
の導出について説明するための図であり、画素をクラス
タ別に表している図である。この図9を用いて説明す
る。 クラスタCとCの境界線を検出し、境界線上の画
素の隅に番号をつける。 この隅を中心として、4×4の小領域(局所領域と呼
ぶ)を設ける。 p番目の局所領域において、クラスタCとCに属
する画素の入力画像におけるRGB平均値(r
,b),(r,g,b)を計算する。 エッジ強度は上記平均値の差分
<Cluster Integration> Cluster integration includes primary cluster integration for the purpose of removing small area clusters, secondary cluster integration for integrating clusters belonging to background areas, and tertiary cluster for removing shadows according to image conditions. It consists of three steps of integration. Finally, the object is extracted by removing the background area. (1) by examining the images belonging to the primary cluster integration each cluster, the object of integration threshold T 1 following cluster where that number. Care should be taken that this value does not cause the contour of the object to be lost by the integration process.
In the integration, the average color of each cluster is obtained, and the cluster is absorbed by the cluster having the smallest color difference as compared with the surrounding clusters. The color difference is the Euclidean distance in the RGB space. FIG. 8 shows the result after the primary cluster integration in which the above-described processing is performed with T 1 = 300 (0.1% of the total number of pixels). (2) Secondary cluster integration In the image of flowers and leaves used in the present system, the object is always placed near the center of the image, and the object does not protrude from the image. Under this condition, the cluster including the outer edge of the image always belongs to the background. Therefore by utilizing this property, belongs results of the primary cluster integration background A b, the object A o
Belong either, or fractionated to undecided A t to. In order to classify the entire cluster A b, A o, any of A t, the system of the present invention to define the edge intensity e. Then, the distribution of e at the cluster boundary is determined, and the distribution is tested to perform cluster integration processing. That is, at the present stage, the object is to integrate a background region composed of a number of clusters into one cluster. FIG. 9 shows the edge strength e.
FIG. 10 is a diagram for describing the derivation of, and is a diagram showing pixels by cluster. This will be described with reference to FIG. Detecting a boundary of the cluster C l and C 2, numbered in the corner of the pixel on the boundary line. A 4 × 4 small area (referred to as a local area) is provided around the corner. In the p-th local region, the RGB average value (r 1 , r 1 , r 2) in the input image of the pixels belonging to clusters C 1 and C 2
g 1 , b 1 ) and (r 2 , g 2 , b 2 ) are calculated. Edge strength is the difference between the above average values

【数9】 {e,p=1,・・・,n}の平均値μ1,2、分
散σ 1,2を計算しておく。以上の手順により求まる
エッジ強度eの分布を用いてクラスタ統合を施す。背景
領域に存在するクラスタ境界では、入力画像上の輝度値
が緩やかに変化する。逆に背景領域と対象物領域のクラ
スタ境界では輝度値が急変している。まず、画像縁を含
む全てのクラスタをAに属させ、Aに属するクラス
タ間のエッジ強度の分布を正規分布N(μ,σ)と
仮定する。次にAに属するクラスタCとその隣接ク
ラスタCのクラスタ間エッジ強度の分布を対象分布N
(μ ,σ)とする。次に、N(μ,σ)とN
(μ,σ)において正規分布検定を行う。仮説をμ
=μとし、
(Equation 9){Ep, P = 1,..., N}1,2, Minutes
Scattering σ2 1,2Is calculated. Obtained by the above procedure
Cluster integration is performed using the distribution of the edge strength e. background
In the cluster boundary existing in the region, the brightness value on the input image
Changes slowly. Conversely, the background area and the object area
The luminance value changes suddenly at the star boundary. First, include the image edges.
A is all clustersbBelonging to AbClass belonging to
The distribution of the edge strength between the data is represented by a normal distribution N (μb, Σb)When
Assume. Then AbCluster C belonging tobAnd its neighbors
Raster CtThe distribution of edge strength between clusters of the target distribution N
t, Σt). Next, N (μb, Σb) And N
t, ΣtThe normal distribution test is performed in ()). The hypothesis is μ
b= Μtage,

【数10】 を計算する。z<αならば対象分布は背景分布と同じ
であるとし、CをAに属させる。α≦z<βなら
ば、CはAに属させ3次クラスタ統合の対象とす
る。そうでなければCをAに属させる。図10は、
図8における2次クラスタ統合処理を適用した結果を示
した画像である。このように対象物と背景が正確に分離
されていることがわかる。また図7ではクラスタ数が4
75であったのに対し、図8ではクラスタ数は24、図
10では22になる。
(Equation 10) Is calculated. z o if the target distribution is to be the same as the background distribution, to belong to C t to A b. If α ≦ z o <β, C t is the target of tertiary cluster integration to belong to A t. Otherwise to belong to C t to A o. FIG.
9 is an image showing a result of applying the secondary cluster integration processing in FIG. 8. Thus, it can be seen that the object and the background are accurately separated. In FIG. 7, the number of clusters is four.
8, the number of clusters is 24 in FIG. 8, and 22 in FIG.

【0014】(3)3次クラスタ統合 前統合処理により対象物と背景はほぼ正確に分離され
る。しかしながら、画像によっては背景領域に対象物の
影が生じているものがある。明確に現れる影は背景と対
象物との中間に位置し、2次クラスタ統合では処理でき
ない場合がある。そこで本プロセスでは影領域を検出
し、背景に統合する処理を行う。プロセスは以下の方法
で行う。 2次クラスタ統合により求まったAに属するクラス
タCの平均輝度値をY とする。 Aに属する全クラスタの平均輝度値をYとする。 影は背景よりも暗い性質があるため、Y<Yなら
ば注目クラスタは影であり、Aに属させる。そうでな
ければAに属させる。 以上の処理を全てのC(C∈A)に対して行
い、クラスタをAもしくはAに分類する。図11
は、実際に影を持つ画像(図11(a))に対して、1
次〜3次までのクラスタ統合処理を行った過程と結果
を、図11(b)〜図11(d)の順番で示したもので
ある。図11(b)のような背景領域に対象物の影が生
じている画像でも影領域を検出し、図11(d)のよう
に背景に統合することができている。
(3) Tertiary cluster integration The target and the background are almost accurately separated by the pre-integration processing.
You. However, in some images, the background area
Some have shadows. Clearly appearing shadows are paired with the background
Located in the middle of the elephant and can be processed by secondary cluster integration
May not be. Therefore, this process detects the shadow area
Then, a process of integrating with the background is performed. The process is as follows
Do with. A obtained by secondary cluster integrationtClass belonging to
TA CiAverage luminance value of Y iAnd AbThe average luminance value of all clusters belonging tobAnd Because shadows are darker than backgrounds,i<YbIf
If the cluster of interest is a shadow, AbBelong to. That's right
If it is AoBelong to. The above processing is performed for all Ci(Ci∈AtRow for
A, cluster AbOr AoClassify into. FIG.
Is 1 with respect to the image having the actual shadow (FIG. 11A).
Processes and results of cluster integration processing of the first to third order
Are shown in the order of FIGS. 11B to 11D.
is there. The shadow of the object is generated in the background area as shown in FIG.
The shadow area is detected even in the image in which
Can be integrated into the background.

【0015】(4)背景領域除去 前述までの処理により画像は大まかなクラスタによって
表現されている。最後に背景クラスタAを取り除くこ
とにより対象物抽出を実現する。図12は、図3(a)
の花と図11(a)の葉の画像より背景分離処理を行っ
た結果を示した画像である。図3(a)の花と図11
(a)の葉の画像より対象物抽出をした画像は、それぞ
れ図12(a)及び図12(b)である。
(4) Background Area Removal The image is roughly represented by clusters by the processing described above. Finally to achieve an object extracted by removing the background cluster A b a. FIG. 12 shows the state shown in FIG.
12B is an image showing a result of performing a background separation process from the image of the flower and the leaf of FIG. Fig. 3 (a) flower and Fig. 11
FIGS. 12A and 12B show images obtained by extracting a target object from the leaf image of FIG.

【0016】[特徴量] <花の特徴量>花の構造は多種多様で複雑である。また
入力画像から雄しべ、雌しべなどの複雑な構造を認識す
ることは難しい。そこで本研究では主に輪郭形状情報か
ら特徴量F1〜F4の4個、色情報から特徴量F5〜F
10の6個の計10個の花の特徴量を定義する。 (1)形状情報(花) 図13は花形状の解析を示した図である。花の構造にお
いて最も大きな面積を占め、入力画像から確実に得られ
る情報として花弁が挙げられる。本システムでは、図1
3(a)に示すような花の輪郭情報をもとに、重心Gか
ら輪郭までの距離dを求め、図13(b)のような横軸
を角度θ、縦軸を距離dとした1次元波形に変換する。
この波形より以下に示す2つのパラメータを定義する。 F1)花弁形状 花弁幅を波形における平均谷間距離l、花弁の長さを平
均山の高さhとし、花弁の形状をl/hと定義する。 F2)花弁数 図13に示す波形で極大値数を求める。花弁数が多い花
ではその数を正確に求めることが困難である。花弁数N
がN>7の場合は「花弁数が多い」と明示的に示す数値
N=7とする。 F3)モーメント F3は次式に定義されたモーメントMを用いる。
[Features] <Features of Flower> The structure of a flower is various and complicated. It is also difficult to recognize complex structures such as stamens and pistils from an input image. Therefore, in this study, mainly four features F1 to F4 based on the contour shape information, and features F5 to F4 based on the color information
The feature amounts of 10 flowers in total of 10 flowers are defined. (1) Shape information (flower) FIG. 13 is a diagram showing an analysis of a flower shape. Petals are an example of information that occupies the largest area in a flower structure and is reliably obtained from an input image. In this system,
The distance d from the center of gravity G to the contour is determined based on the contour information of the flower as shown in FIG. 3A, and the horizontal axis as shown in FIG. Convert to dimensional waveform.
The following two parameters are defined from this waveform. F1) Petal shape The petal width is defined as the average valley distance 1 in the waveform, the petal length is defined as the average peak height h, and the petal shape is defined as l / h. F2) Number of Petals The number of local maximum values is obtained with the waveform shown in FIG. For a flower with a large number of petals, it is difficult to accurately determine the number. Number of petals N
If N> 7, the numerical value N = 7 that explicitly indicates “the number of petals is large”. F3) Moment F3 uses the moment M defined by the following equation.

【数11】 ただし、式中においてSは面積、G(g,g)を重
心とする。 F4)円形度 花弁の外周形状が円にどれくらい近いかを示す情報とし
て、
[Equation 11] Here, in the equation, S is an area, and G (g i , g j ) is the center of gravity. F4) Circularity As information indicating how close the outer shape of the petal is to a circle,

【数12】R=4πS/L より円形度を求める。ここでLは花の周囲長を示し、0
<R≦1である。
Equation 12] Request circularity than R = 4πS / L 2. Here, L indicates the perimeter of the flower, and 0
<R ≦ 1.

【0017】(2)色情報(花) 花の色は極彩色又は白などの無彩色であることが多く、
主に1色分布からなっている花、2色分布から、もしく
はそれ以上の色分布からなっている花に分類できる。本
研究では面積の大きい2色とそれらの面積割合を特徴量
として6個定義する。入力された画像情報は、光の3原
色赤,緑,青で表す、RGB色空間値であるが、色合
い,彩度,明度の3要素で表す、HSV色空間に変換し
色情報を得る。図14はHS空間を分割したものを示し
た図である。そして図14に示すHS空間より6個の特
徴量を得る。なお、ここでいう分布割合は、注目座標分
布数及びその4近傍座標の分布数の総和とする。 F5)第1色x座標 最大分布数のx座標値 F6)第1色y座標 最大分布数のy座標値 F7)第1色割合 その座標と4近傍座標を含めた分布
割合 F8)第2色x座標 2番目の分布数のx座標値 F9)第2色y座標 2番目の分布数のy座標値 F10)第2色割合 その座標と4近傍座標を含めた分
布割合 ただし、本研究ではHSV色空間と、色合い,輝度,彩
度の3要素で表す、HLS色空間による特徴量を求め認
識した結果、ほとんど差が見られなかった。そのため、
ここではHSV色空間を用いた。
(2) Color information (flower) The color of a flower is often achromatic or achromatic, such as white.
Flowers can be classified into flowers mainly having one color distribution and flowers having two or more color distributions. In this study, two large colors and their area ratios are defined as six features. The input image information is an RGB color space value represented by three primary colors of light, red, green, and blue, but is converted into an HSV color space represented by three elements of hue, saturation, and brightness to obtain color information. FIG. 14 is a diagram showing a divided HS space. Then, six feature quantities are obtained from the HS space shown in FIG. Here, the distribution ratio is the sum of the number of distributions of the coordinate of interest and the distribution of the four neighboring coordinates. F5) x-coordinate value of the first color x-coordinate of the maximum number of distributions F6) y-coordinate value of the first color y-coordinate of the maximum number of distributions F7) 1st color ratio Distribution ratio including its coordinates and 4 neighboring coordinates F8) 2nd color x-coordinate x-coordinate value of second distribution number F9) y-coordinate value of second color y-coordinate value of second distribution number F10) second color ratio Distribution ratio including its coordinates and 4 neighboring coordinates However, in this study, HSV As a result of finding and recognizing the feature quantity in the HLS color space, which is expressed by the color space and the three elements of hue, luminance, and saturation, almost no difference was found. for that reason,
Here, the HSV color space was used.

【0018】<葉の特徴量>葉は花と比べ構造が簡単で
あり、方向が明瞭である。本研究では特徴量を求めるに
あたって最初に小葉の検出を行い、その後基部・先端の
位置を調べる。形状情報から特徴量L1〜L8の8個、
色情報から特徴量L9〜L11の3個、計11個の特徴
量を定義する。 (1)小葉の検出 図15は単葉と複葉を示した画像である。この図15に
示すように、葉画像は大まかに分類すると、単葉と、複
数の小葉で構成している複葉の2種類ある。特徴量にお
いては葉構造(L8)で単葉、複葉の区別をする。ただ
しL8と色情報を除いた特徴量では単葉における特徴を
定義する。そのため最初に単葉、複葉の分類を行い、複
葉の場合は小葉の検出を行う必要がある。小葉の検出は
花の形状情報を求める手順と同様に、重心と輪郭点間の
距離を求め、2次元画像から1次元波形に変換する。こ
の波形より極小点数を求め小葉があるか否か判断する。 (2)基部・先端位置の決定 葉の方向は先に述べたように基部を左、先端を右という
ように、撮影条件で指定している。しかし、基部・先端
の形状には様々な種類がある。本発明のシステムでは基
部・先端の形状を凸形状、凹形状に分類し、極点を求め
ることによりその位置を決定する。
<Features of Leaf> The structure of leaves is simpler than that of flowers, and the directions are clear. In this study, we first detect the leaflets to determine the feature values, and then examine the positions of the base and tip. From the shape information, eight feature amounts L1 to L8,
From the color information, three feature amounts L9 to L11, that is, a total of 11 feature amounts are defined. (1) Detection of leaflets FIG. 15 is an image showing a single leaf and a double leaf. As shown in FIG. 15, leaf images are roughly classified into two types: single leaves and double leaves composed of a plurality of small leaves. In the feature value, a single leaf and a double leaf are distinguished by the leaf structure (L8). However, L8 and the feature amount excluding the color information define a feature in a single leaf. Therefore, it is necessary to first classify single leaves and double leaves, and to detect small leaves in the case of double leaves. In the detection of the leaflets, the distance between the center of gravity and the contour point is obtained in the same manner as the procedure for obtaining the shape information of the flower, and the two-dimensional image is converted into a one-dimensional waveform. The minimum number of points is determined from this waveform to determine whether there are small leaves. (2) Determination of base / tip position The direction of the leaves is specified by the shooting conditions, such as the base is left and the tip is right, as described above. However, there are various types of base / tip shapes. In the system of the present invention, the shapes of the base and the tip are classified into a convex shape and a concave shape, and the positions are determined by obtaining pole points.

【0019】(3)形状情報(葉) ほとんどの葉は緑色であるため、分類には色情報よりも
形状情報のほうが有効であると考えられる。そこで本シ
ステムでは葉の形状としてアスペクト比、モーメントな
ど8個の特徴量を定義する。 L1)葉縁の形状 図16は鋸歯を有する葉を示した図である。葉縁には、
この図16のように鋸歯の有るものや、無いもの、その
大きさの違いなど様々な形状があるが、これらを解析し
区別することは困難な作業である。そこで本システムで
は、鋸歯の割合を定義し、この値を特徴量として用いる
ことにする。鋸歯の割合は図16に示すような外側近似
形状、内側近似形状を生成しそれら面積S,Sの比
(S/S)として与える。 L2)アスペクト比 葉のアスペクト比を定義する。またモーメント、円形度
については花の場合と同様にして求める。 L3)モーメント F3と同様に、式[数11]に定義されたモーメントM
を用いる。 L4)円形度 F4と同様に、式[数12]に定義されたRを求める。 L5)重心の偏り 図17は葉のパターンの例を示した図であり、葉の重心
は大別すると図17に示すように3パターンになる。葉
の重心をG、基部、先端を結ぶ中央脈の中心をCとし、
重心の偏りを
(3) Shape Information (Leaf) Since most leaves are green, it is considered that shape information is more effective than color information for classification. Therefore, in the present system, eight feature values such as an aspect ratio and a moment are defined as a leaf shape. L1) Shape of Leaf Edge FIG. 16 is a diagram showing a leaf having saw teeth. On the leaves,
As shown in FIG. 16, there are various shapes such as those with and without saw teeth, and differences in size, but it is difficult to analyze and distinguish these. Therefore, in this system, the ratio of the sawtooth is defined, and this value is used as a feature amount. The ratio of the sawtooth generates an outer approximate shape and an inner approximate shape as shown in FIG. 16 and gives them as the ratio (S I / S E ) of the areas S E and S I. L2) Aspect ratio The aspect ratio of a leaf is defined. The moment and circularity are obtained in the same manner as in the case of a flower. L3) Moment Similar to F3, the moment M defined in Expression [Equation 11]
Is used. L4) Similar to F4, R defined in Expression [12] is obtained. L5) Bias of the Center of Gravity FIG. 17 is a diagram showing an example of leaf patterns. The leaf centers of gravity are roughly classified into three patterns as shown in FIG. Let G be the center of gravity of the leaf, C be the center of the central vein connecting the base and the tip,
The bias of the center of gravity

【数13】L5=(l+2b)/l (ただし、−1
/2≦L5≦1/2) と定義する。
L5 = (l + 2b) / l (where -1
/ 2 ≦ L5 ≦ 1 /).

【0020】葉の基部、先端は縁の形状と同様に葉の特
徴を示すものとして有効な情報である。本システムでは
基部、先端の形状として各々の角度θ,θを求め、
それらを特徴量として定義する。図18は葉の基部と先
端の角度の定義を示したものである。図18に示すよう
に角度は基部A、先端Bの各々から両側へd離れた点
(基部側:A,A,先端側:B,B)を求め
る。それよりL6,L7を求める。 L6)基部角度 θ=∠AAA L7)先端角度 θ=∠BBB L8)葉構造 本システムで扱う葉は図15で示したように、単葉と複
葉とに大別される。そこで特徴量として前者の場合L8
=0、後者の場合L8=1と定義する。分類方法は
「(1)小葉の検出」で先述したとおりである。
The base and tip of the leaf are useful information indicating the characteristics of the leaf as well as the shape of the edge. In this system, the angles θ 1 and θ 2 are obtained as the shapes of the base and the tip, respectively.
These are defined as features. FIG. 18 shows the definition of the angle between the base and the tip of the leaf. As shown in FIG. 18, the angle is determined at a point d away from each of the base A and the tip B to both sides (base: A 1 , A 2 , tip: B 1 , B 2 ). Then, L6 and L7 are obtained. L6) as leaves handled at the base angle θ 1 = ∠A 1 AA 2 L7 ) tip angle θ 2 = ∠B 1 BB 2 L8 ) leaf structure the system shown in FIG. 15, is classified into a monoplane and biplane You. Therefore, in the former case, L8
= 0 and L8 = 1 in the latter case. The classification method is as described above in “(1) Detection of leaflets”.

【0021】(4)色情報(葉) 葉の色は一般的に緑色1色分布である。そのため色情報
は、花の場合と異なり最大分布色のみを定義する。定義
は花の場合と同様である。 L9)第1色x座標 最大分布数のx座標値 L10)第1色y座標 最大分布数のy座標値 L11)第1色割合 その座標と4近傍座標を含めた分
布割合
(4) Color Information (Leaf) The color of a leaf is generally one green color distribution. Therefore, the color information defines only the maximum distribution color unlike the case of the flower. The definition is the same as for flowers. L9) x-coordinate value of the first color x-coordinate of the maximum number of distributions L10) y-coordinate value of the first color y-coordinate of the maximum number of distributions L11) first color ratio distribution ratio including the coordinates and four neighboring coordinates

【0022】<認識法>現在では数多くの認識法が提案
されている。本発明のシステムでは前述の定義で求まっ
た特徴量に正規化を施す。そして区分的線形識別関数を
用いて認識を行う。なお、詳細については、以下の実施
例を参照されたい。
<Recognition method> At present, many recognition methods have been proposed. In the system of the present invention, the feature amount obtained by the above definition is normalized. Then, recognition is performed using a piecewise linear discriminant function. For details, refer to the following examples.

【0023】<実施例>次に、実施例として本発明のシ
ステムを用いての植物認識の実験を行った。実験のため
に、入力画像は各種20セットずつ用意した。また認識
は正識別率を少数サンプルから推定するために、Leave-
one-out methodを用いた。即ち区分的線形識別関数のプ
ロトタイプ数を19、実験データ数を1とする。 [背景分離]本発明の発明者たちは、大学のキャンパス
付近に生息する野草を撮影し、34種20セットの花画
像と葉画像を用いて背景分離処理を行った。実験におい
て設定した各パラメータを[表1]に示し、処理結果を
[表2]に示す。花画像では98.53%、葉画像では
99.12%の抽出率を得た。
<Example> Next, as an example, an experiment of plant recognition was performed using the system of the present invention. For the experiment, 20 sets of various input images were prepared. Recognition is performed by leaving Leave-
One-out method was used. That is, the number of prototypes of the piecewise linear discriminant function is 19, and the number of experimental data is 1. [Background Separation] The inventors of the present invention photographed wild grasses living near the university campus, and performed background separation processing using 20 sets of 34 kinds of flower images and leaf images. The parameters set in the experiment are shown in [Table 1], and the processing results are shown in [Table 2]. The extraction rate was 98.53% for the flower image and 99.12% for the leaf image.

【表1】 [Table 1]

【表2】 このように、撮影画像から対象物を切り出す手法とし
て、クラスタリング法を採用し、その有効性を検証する
ことができた。一般的に色空間におけるクラスタリング
処理では、後処理としてクラスタ統合を施す必要があ
る。そこで3段階からなる統合処理をすることにより、
正確な対象物抽出が実現可能となった。
[Table 2] As described above, the clustering method was adopted as a method of cutting out an object from a captured image, and the effectiveness of the method was verified. Generally, in clustering processing in a color space, it is necessary to perform cluster integration as post-processing. Therefore, by performing a three-stage integration process,
Accurate object extraction has become feasible.

【0024】[認識]次に背景分離処理により抽出した
対象物面像をもとに各特徴量を計算した。そしてこれら
を入力として認識を行った。本実施例では 全ての特徴量 花のみの特徴量 葉のみの特徴量 の3組の特徴量を用いて認識率を求めた。結果を[表
3]に示す。
[Recognition] Next, each feature amount was calculated based on the object surface image extracted by the background separation processing. Then, recognition was performed using these as inputs. In the present embodiment, the recognition rate was obtained by using three sets of feature amounts, ie, all feature amounts, flower-only feature amounts, and leaf-only feature amounts. The results are shown in [Table 3].

【表3】 この表3は認識結果において第1侯補のみを考慮した場
合と、第2侯補、第3候補まで考慮した場合における認
識率を示す。全ての特徴量を用いた場合には96.03
%の認識率を得た。
[Table 3] Table 3 shows recognition rates when only the first candidate is considered in the recognition result and when the second candidate and the third candidate are considered. 96.03 when all feature values are used
% Recognition rate.

【0025】本システムでは対象物のサイズ情報を考慮
していない。しかしながら、[表3]を参照してもわか
る通り、サイズ情報が無くても十分な認識率を得てい
る。これは本実施例で用いた野草種類数が少なく、サイ
ズが未知でも色や形状情報のみで十分であるからと考え
る。手動測定したサイズ情報を含めた予備実験を行った
結果、全ての特徴量で96.91%(即ち、0.88%
の向上)であった。
The present system does not consider the size information of the object. However, as can be seen from Table 3, a sufficient recognition rate is obtained without the size information. This is considered because the number of types of wildflowers used in the present embodiment is small, and even if the size is unknown, only the color and shape information are sufficient. As a result of conducting a preliminary experiment including manually measured size information, 96.91% (that is, 0.88%
Improvement).

【0026】次に本システムを用いて、有効な特徴量を
求める実験を行った。まず21個の特徴量より1個を選
び認識を行う。つまり特徴量1で21通りの認識を行
う。この結果より最も認識率の高い特徴量を求め、これ
を最も有効な特徴量とする。次にこの特徴量と残りの2
0個の組み合わせ(20通り)を用いて認識を行う。同
様に認識結果より最も認識率の高い特徴量を求め、これ
を2番目に有効な特徴量とする。以後同様にして有効な
特徴量を決定していく。[表4]は決定された有効な特
徴量を示したものである。
Next, an experiment for obtaining an effective feature amount was performed using the present system. First, one of the 21 feature values is selected for recognition. That is, 21 types of recognition are performed with the feature amount 1. A feature amount having the highest recognition rate is obtained from the result, and this is set as the most effective feature amount. Next, this feature and the remaining 2
Recognition is performed using 0 combinations (20 combinations). Similarly, a feature amount having the highest recognition rate is obtained from the recognition result, and this is set as a second effective feature amount. Thereafter, an effective feature amount is determined in the same manner. [Table 4] shows the determined effective feature amounts.

【表4】 また、図19は特徴量数と認識率の変化を示したグラフ
である。図19のグラフを見てもわかる通り、この結果
より特徴量数7,8個で十分な認識率を得ている。さら
に野草16種20セットにおける認識実験(Takeshi Sa
itoh, Toyohisa Kaneko, "Automatic Recognition of W
ild Flowers", ICPR2000, vol.2, pp.507-510, Barcelo
na, Spain, Sep.2000)と比較すると、有効な8特徴量
の内、花の特徴が占める割合が増えていることがわかっ
た。これは、葉よりも花の情報の方が有効であるからで
ある。
[Table 4] FIG. 19 is a graph showing changes in the number of feature values and the recognition rate. As can be seen from the graph of FIG. 19, from this result, a sufficient recognition rate is obtained with 7, 8 feature quantities. Recognition experiments using 20 sets of 16 wild grass species (Takeshi Sa
itoh, Toyohisa Kaneko, "Automatic Recognition of W
ild Flowers ", ICPR2000, vol.2, pp.507-510, Barcelo
na, Spain, Sep. 2000), it was found that out of the eight effective feature quantities, the proportion of flower features increased. This is because flower information is more effective than leaf information.

【0027】次に誤認識について検討を行った。その結
果、誤認識しやすいのは同科の野草である傾向があっ
た。また葉形状は異なっていても、花同士が似た形状や
色をしている場合誤認識が起こりやすい。これは前述の
認識結果からも推察できるが、葉よりも花の情報の方が
有効であるためである。
Next, erroneous recognition was examined. As a result, those who tend to misrecognize tend to be wild grasses of the same family. Even if the leaf shapes are different, erroneous recognition is likely to occur if the flowers have similar shapes or colors. This can be inferred from the recognition result described above, but is because the information on flowers is more effective than the information on leaves.

【0028】<他の実施形態>前述の実施例では、春か
ら初夏にかけての野草を用いている。そのため季節情報
や採取場所等を特徴量として入力しなくても十分な認識
率を得たが、画像から計測される特徴量に加えて季節、
場所、時間等の情報も特徴量として加えることで、より
高い認識率を得ることができる。また、認識結果では正
しい1つの野草名称を得るシステムにしてもよいし、類
似の数個を画面に表示し、最終的には人の目による認識
を行うシステムもよい。その認識結果をもとに野草の種
類や、植物辞典に掲載されているような情報を表示する
こともできる。本発明に関するプログラムを格納した記
憶媒体から、プログラムをシステムで読み出して実行す
ることにより、本発明の構成を実現することができる。
この記録媒体には、DVD、CD、MD、MO、フロッ
ピー(登録商標)・ディスク、磁気テープ、ROMカセ
ット等がある。
<Other Embodiments> In the above-described embodiment, wild grass from spring to early summer is used. Therefore, a sufficient recognition rate was obtained without inputting seasonal information, sampling location, etc., as feature quantities, but in addition to the feature quantities measured from the image, the season,
A higher recognition rate can be obtained by adding information such as a location and time as a feature amount. Further, a system that obtains one correct wildflower name based on the recognition result may be used, or a system that displays several similar wildflower names on a screen and finally performs recognition by human eyes may be used. Based on the recognition result, it is possible to display the kind of wild grass and information such as those described in a botanical dictionary. The system according to the present invention can be realized by reading and executing the program from a storage medium storing the program according to the present invention by the system.
This recording medium includes DVD, CD, MD, MO, floppy (registered trademark) disk, magnetic tape, ROM cassette and the like.

【0029】[0029]

【発明の効果】本発明のシステムにより、自然物を対象
とした画像認識として、野草を取り上げ、その花画像、
葉画像より計測できる野草の種類判別に有効な21個の
特徴量を用いて自動的に画像認識をし、草花の識別を行
うことができた。また、本システムを用いて、認識に必
要な特徴量7,8個で十分な認識率を得ることができ
た。
According to the system of the present invention, wildflowers are picked up as image recognition for natural objects,
Image recognition was automatically performed using 21 feature amounts effective for discriminating the type of wildflowers measurable from the leaf image, and the flowers could be identified. Also, by using this system, a sufficient recognition rate could be obtained with 7, 8 feature amounts required for recognition.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明のシステムとその認識処理の流れを示
した図である。
FIG. 1 is a diagram showing a system of the present invention and the flow of its recognition processing.

【図2】 花と葉の自然の状態をそのまま撮影した画像
を示した図である。
FIG. 2 is a diagram showing an image obtained by photographing the natural state of flowers and leaves as they are.

【図3】 対象物の背景に黒色布地を置いて撮影した画
像を示した図である。
FIG. 3 is a diagram showing an image photographed with a black cloth placed on a background of an object.

【図4】 RGB空間を示した図である。FIG. 4 is a diagram showing an RGB space.

【図5】 頻度数が最大である小空間と、それに隣接す
る6小空間を示した図である。
FIG. 5 is a diagram showing a small space having a maximum frequency and six small spaces adjacent thereto;

【図6】 花画像に対するクラスタリング結果をRGB
空間分布に示した図である。
FIG. 6 shows a clustering result for a flower image in RGB.
It is the figure shown in the spatial distribution.

【図7】 クラスタリング結果を展開した画像を示した
図である。
FIG. 7 is a diagram showing an image obtained by developing a clustering result.

【図8】 1次クラスタ統合処理を適用した結果の画像
を示した図である。
FIG. 8 is a diagram showing an image obtained as a result of applying the primary cluster integration processing.

【図9】 エッジ強度eの導出について説明するための
図である。
FIG. 9 is a diagram for explaining derivation of an edge strength e.

【図10】 2次クラスタ統合処理を適用した結果の画
像を示した図である。
FIG. 10 is a diagram showing an image as a result of applying the secondary cluster integration processing.

【図11】 実際に影を持つ画像において1次〜3次ま
でのクラスタ統合処理を行った過程と結果を示した図で
ある。
FIG. 11 is a diagram illustrating a process and a result of performing first to third-order cluster integration processing on an image having a shadow.

【図12】 花と葉の画像より背景分離処理を行った画
像を示した図である。
FIG. 12 is a diagram showing an image obtained by performing a background separation process from an image of a flower and a leaf.

【図13】 花形状の解析を示した図である。FIG. 13 is a diagram showing an analysis of a flower shape.

【図14】 HS空間を分割したものを示した図であるFIG. 14 is a diagram showing a divided HS space.

【図15】 単葉と複葉の画像を示した図である。FIG. 15 is a diagram showing single leaf and double leaf images.

【図16】 鋸歯を有する葉を示した図である。FIG. 16 shows a leaf having a saw tooth.

【図17】 葉のパターンの例を示した図である。FIG. 17 is a diagram showing an example of a leaf pattern.

【図18】 葉の基部と先端の角度の定義を示した図で
ある。
FIG. 18 is a diagram showing a definition of an angle between a base and a tip of a leaf.

【図19】 特徴量数と認識率の変化を示したグラフを
示した図である。
FIG. 19 is a graph showing a change in the number of features and the recognition rate.

【符号の説明】[Explanation of symbols]

10 画像入力装置 20 CPU 30 入力装置 40 表示装置 50 記憶装置 Reference Signs List 10 image input device 20 CPU 30 input device 40 display device 50 storage device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150S 150A ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/60 150 G06T 7/60 150S 150A

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】花や葉の特徴をもとに植物の種類を判別す
る植物認識システムであって、 花および/または葉のディジタル画像より、対象物であ
る花および/または葉の画像を抽出し、 前記抽出された花および/または葉の画像より単数また
は複数の特徴量を求め、 前記求められた特徴量と、あらかじめデータベースに登
録してある各種の植物の特徴量とから、前記植物の種類
を判別することを特徴とする植物認識システム。
1. A plant recognition system for discriminating a kind of a plant based on characteristics of flowers and leaves, wherein an image of a flower and / or a leaf as an object is extracted from a digital image of the flowers and / or leaves. Then, one or more feature amounts are obtained from the extracted image of the flower and / or leaf, and the feature amount of the plant is determined from the obtained feature amount and the feature amounts of various plants registered in advance in a database. A plant recognition system that distinguishes types.
【請求項2】請求項1に記載する植物認識システムにお
いて、 前記花および/または葉の画像を抽出するためには、色
空間において行うクラスタリング法を用いることを特徴
とする植物認識システム。
2. The plant recognition system according to claim 1, wherein a clustering method performed in a color space is used to extract the flower and / or leaf image.
【請求項3】請求項1または2に記載する植物認識シス
テムにおいて、 前記特徴量とは、前記抽出された花または葉の画像より
求められる値であり、次に定義するものから選択したも
のであることを特徴とする植物認識システム。 1.花の画像において、重心Gから花弁の輪郭までの距
離をdとし、重心との角度θを横軸,縦軸をdとした波
形のグラフにしたときの、前記波形における平均谷間距
離l,山の高さの平均をhとしたときの、花弁の形状l
/h。 2.花弁数。但し、花弁数が7以上の場合は7とする。 3.花の面積をS、重心をG(g,g)としたとき
の 【数1】 で定義される、花のモーメントM。 4.花の周囲長をLとしたとき 【数2】R=4πS/L で定義した、花の円形度R。 5.色合いをH、彩度をSとしたときのHS色空間を半
径1の円とし、その円の中心をxy平面の原点に設置し
た空間内において、前記花に最大分布している色に該当
する色のx座標値。 6.前記5の空間内で、前記花に最大分布している色に
該当する色のy座標値。 7.前記5の空間内で、前記空間をさらに−1≦x≦1
および−1≦y≦1を分割したときの格子内に含まれる
色を1単位の色集合とし、前記花に最大分布している色
が含まれる色集合内に含まれる色の分布割合。 8.前記5の空間内で、前記花に2番目に分布している
色に該当する色のx座標値。 9.前記5の空間内で、前記花に2番目に分布している
色に該当する色のy座標値。 10.前記7の色集合で、前記花に2番目に分布している
色が含まれる色集合内に含まれる色の分布割合。 11.前記葉において、鋸歯の頂点を結んでできる外側近
似形状の面積Sと、鋸歯の谷を結んでできる内側近似
形状の面積Sとしたときの、葉の形状S/S 。 12.葉のアスペクト比。 13.前記葉の面積をS、重心をG(g,g)とした
ときの 【数3】 で定義される、葉のモーメントM。14.前記葉の周囲長
をLとしたとき 【数4】R=4πS/L で定義した、葉の円形度R。 15.前記葉の重心をG、基部と先端を結ぶ長さlの中央
脈の中心をCとしたとき、前記葉の先端方向を正の向き
としたときの中心Cから重心Gまでの距離をbとしたと
きの、前記葉の重心の偏り(l+2b)/l。 16.前記葉の基部の開き角度。 17.前記葉の先端の開き角度。 18.前記葉が単葉ならば0、複葉ならば1。 19.前記5の空間内で、前記葉に最大分布している色に
該当する色のx座標値。 20.前記5の空間内で、前記葉に最大分布している色に
該当する色のy座標値。 21.前記7の色集合で、前記葉に最大分布している色が
含まれる色集合内に含まれる色の分布割合。
3. The plant recognition cis according to claim 1 or 2.
In the system, the feature amount is obtained from an image of the extracted flower or leaf.
This is the required value and can be selected from the following
A plant recognition system, characterized in that: 1. In the flower image, the distance from the center of gravity G to the petal outline
The wave where the separation is d, the angle θ from the center of gravity is the horizontal axis, and the vertical axis is d
Average valley distance in the waveform when plotted in a shape graph
Petal shape l when distance l and average of mountain height are h
/ H. 2. Number of petals. However, when the number of petals is 7 or more, the number is set to 7. 3. The area of the flower is S and the center of gravity is G (gi, Gj)
[Equation 1]The moment M of the flower, defined by 4. When the circumference of the flower is L: R = 4πS / L2 The circularity R of the flower, defined in. 5. Half the HS color space when the hue is H and the saturation is S
Set a circle with a diameter of 1 and set the center of the circle at the origin of the xy plane.
Corresponds to the color that has the largest distribution of the flowers in the space
X-coordinate value of the color to perform. 6. In the space of the 5 above, to the color that is the largest distribution of the flowers
The y-coordinate value of the corresponding color. 7. In the space of 5, the space is further defined as −1 ≦ x ≦ 1
And -1≤y≤1
A color is a color set of one unit, and the color that is distributed the most in the flower
The distribution ratio of the colors contained in the color set containing. 8. Within the space of 5 above, it is the second distribution of the flowers
The x coordinate value of the color corresponding to the color. 9. In the space of 5, the flower is secondarily distributed in the flower
The y-coordinate value of the color corresponding to the color. Ten. In the 7 color set, the flower is secondarily distributed
The distribution ratio of the colors included in the color set that includes the colors. 11. In the leaf, near the outside formed by connecting the vertices of the sawtooth
Area S of similar shapeEInside approximation made by connecting the sawtooth valley
Shape area SI, The leaf shape SI/ S E. 12. Leaf aspect ratio. 13. The area of the leaf is S, and the center of gravity is G (gi, Gj)
[Equation 3]The leaf moment M, defined by 14. Perimeter of the leaf
Let L = 4πS / L2 Leaf circularity R, defined in 15. G is the center of gravity of the leaf, and the center of length l connecting the base and the tip
When the center of the pulse is C, the tip direction of the leaf is positive.
When the distance from the center C to the center of gravity G is b
Mushroom, deviation of the center of gravity of the leaves (l + 2b) / l. 16. The opening angle of the base of the leaf. 17. The opening angle of the tip of the leaf. 18. 0 if the leaf is single leaf, 1 if double leaf. 19. In the space of 5 above, to the color that is maximally distributed on the leaves
The x-coordinate value of the color. 20. In the space of 5 above, to the color that is maximally distributed on the leaves
The y-coordinate value of the corresponding color. twenty one. In the color set of 7 above, the color that is maximally distributed on the leaves is
The distribution ratio of the colors included in the included color set.
【請求項4】請求項1〜3のいずれかに記載する植物認
識システムにおいて、 前記植物の種類を判別するための解析に、前記特徴量に
正規化を施し、区分的線形識別関数を用いて行うことを
特徴とする植物認識システム。
4. The plant recognition system according to any one of claims 1 to 3, wherein the feature amount is normalized for analysis for discriminating the type of the plant, and a piecewise linear discriminant function is used. A plant recognition system characterized by performing.
【請求項5】請求項4に記載する植物認識システムにお
いて、 前記解析に用いる前記特徴量は、認識率のよい組み合わ
せである、あらかじめ定めた数の特徴量を用いることを
特徴とする植物認識システム。
5. The plant recognition system according to claim 4, wherein the feature amount used for the analysis uses a predetermined number of feature amounts, which is a combination having a good recognition rate. .
【請求項6】請求項1〜5のいずれかに記載する植物認
識システムにおいて、 認識結果を表示し、かつ前記認識結果をもとに前記植物
の種類やその情報を表示することを特徴とする植物認識
システム。
6. The plant recognition system according to claim 1, wherein a recognition result is displayed, and the type of said plant and its information are displayed based on said recognition result. Plant recognition system.
【請求項7】 請求項1〜6のいずれかに記載の機能を
コンピュータ・システムに実装することができるプログ
ラムを格納した記憶媒体。
7. A storage medium storing a program capable of implementing the function according to claim 1 in a computer system.
JP2000403201A 2000-12-28 2000-12-28 Plant recognition system Expired - Fee Related JP3918143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000403201A JP3918143B2 (en) 2000-12-28 2000-12-28 Plant recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000403201A JP3918143B2 (en) 2000-12-28 2000-12-28 Plant recognition system

Publications (2)

Publication Number Publication Date
JP2002203242A true JP2002203242A (en) 2002-07-19
JP3918143B2 JP3918143B2 (en) 2007-05-23

Family

ID=18867369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000403201A Expired - Fee Related JP3918143B2 (en) 2000-12-28 2000-12-28 Plant recognition system

Country Status (1)

Country Link
JP (1) JP3918143B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005074538A (en) * 2003-08-28 2005-03-24 Sony Corp Robot device, control method for robot device, and toy for robot device
JP2007133816A (en) * 2005-11-14 2007-05-31 Nikon Corp Plant identification system and organism identification system
EP1820391A1 (en) * 2006-02-17 2007-08-22 CropDesign N.V. Method and apparatus to determine the start of flowering in plants
JP2007251754A (en) * 2006-03-17 2007-09-27 Nikon Corp Electronic camera
JP2008210165A (en) * 2007-02-27 2008-09-11 Tohoku Kensetsu Kyokai Method of determining vegetation state and image processor
JP2010113428A (en) * 2008-11-04 2010-05-20 Ricoh Co Ltd Image retrieval device, image retrieval method, control program, and recording medium
WO2011049046A1 (en) * 2009-10-20 2011-04-28 楽天株式会社 Image processing device, image processing method, image processing program, and recording medium
JP2012221211A (en) * 2011-04-08 2012-11-12 Nintendo Co Ltd Information processor, information processing program, information processing method and information processing system
US8600971B2 (en) 2011-08-29 2013-12-03 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for examining an object on an imaged image
JP2014013603A (en) * 2013-09-17 2014-01-23 Ricoh Co Ltd Imaging apparatus
KR101373415B1 (en) * 2012-05-29 2014-03-13 성균관대학교산학협력단 Plant classification method and system using autorecognition of leaf image
US8687012B2 (en) 2011-08-29 2014-04-01 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for adjusting a position of an object to be imaged on a display
US9002071B2 (en) 2012-03-21 2015-04-07 Casio Computer Co., Ltd. Image search system, image search apparatus, image search method and computer-readable storage medium
US9076081B2 (en) 2012-10-26 2015-07-07 Casio Computer Co., Ltd. Multi-class discriminating device
US9098775B2 (en) 2012-05-31 2015-08-04 Casio Computer Co., Ltd. Multi-class identifier, method, and computer-readable recording medium
WO2017222234A1 (en) * 2016-06-23 2017-12-28 주식회사 한농쿱 System for providing age information of mountain-cultivated ginseng
JP6294524B1 (en) * 2017-02-15 2018-03-14 ソフネック株式会社 Image processing method and computer program
JP2019061567A (en) * 2017-09-27 2019-04-18 シンフォニアテクノロジー株式会社 Shape recognition program and shape recognition device for leaf-like crop
CN111627059A (en) * 2020-05-28 2020-09-04 桂林市思奇通信设备有限公司 Method for positioning center point position of cotton blade
CN111990101A (en) * 2020-09-09 2020-11-27 安徽世林照明股份有限公司 Intelligent control vegetation lamp for big-arch shelter
JP2021022076A (en) * 2019-07-25 2021-02-18 陽平 猪口 Communication terminal, method, and program
CN113361642A (en) * 2021-07-02 2021-09-07 柒久园艺科技(北京)有限公司 Fresh cut flower grading method, device and medium
CN117593652A (en) * 2024-01-18 2024-02-23 之江实验室 Method and system for intelligently identifying soybean leaf shape

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103336974B (en) * 2013-06-21 2016-12-28 华南理工大学 A kind of flowers classification discrimination method based on local restriction sparse representation
KR101956158B1 (en) 2017-08-22 2019-03-08 한국과학기술연구원 System and method for plant leaf identification

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005074538A (en) * 2003-08-28 2005-03-24 Sony Corp Robot device, control method for robot device, and toy for robot device
JP2007133816A (en) * 2005-11-14 2007-05-31 Nikon Corp Plant identification system and organism identification system
US8559679B2 (en) 2006-02-17 2013-10-15 Cropdesign N.V. Method and apparatus to determine the start of flowering in plants
EP1820391A1 (en) * 2006-02-17 2007-08-22 CropDesign N.V. Method and apparatus to determine the start of flowering in plants
WO2007093444A1 (en) * 2006-02-17 2007-08-23 Cropdesign N.V. Method and apparatus to determine the start of flowering in plants
JP2009526536A (en) * 2006-02-17 2009-07-23 クロップデザイン エヌ.ブイ. Method and apparatus for determining the start of flowering in plants
US8670594B2 (en) 2006-02-17 2014-03-11 Cropdesign N.V. Method and apparatus to determine the start of flowering in plants
CN101384164B (en) * 2006-02-17 2011-06-15 克罗普迪塞恩股份有限公司 Method and apparatus to determine the start of flowering in plants
AU2007214616B2 (en) * 2006-02-17 2012-05-17 Cropdesign N.V. Method and apparatus to determine the start of flowering in plants
JP2007251754A (en) * 2006-03-17 2007-09-27 Nikon Corp Electronic camera
JP2008210165A (en) * 2007-02-27 2008-09-11 Tohoku Kensetsu Kyokai Method of determining vegetation state and image processor
JP2010113428A (en) * 2008-11-04 2010-05-20 Ricoh Co Ltd Image retrieval device, image retrieval method, control program, and recording medium
JP2011090374A (en) * 2009-10-20 2011-05-06 Rakuten Inc Image processor, image processing method, and image processing program
CN102656605A (en) * 2009-10-20 2012-09-05 乐天株式会社 Image processing device, image processing method, image processing program, and recording medium
US8660309B2 (en) 2009-10-20 2014-02-25 Rakuten, Inc. Image processing apparatus, image processing method, image processing program and recording medium
WO2011049046A1 (en) * 2009-10-20 2011-04-28 楽天株式会社 Image processing device, image processing method, image processing program, and recording medium
JP2012221211A (en) * 2011-04-08 2012-11-12 Nintendo Co Ltd Information processor, information processing program, information processing method and information processing system
US9477902B2 (en) 2011-04-08 2016-10-25 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for presenting image candidates having similarity to an imaged image
US8600971B2 (en) 2011-08-29 2013-12-03 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for examining an object on an imaged image
US8687012B2 (en) 2011-08-29 2014-04-01 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for adjusting a position of an object to be imaged on a display
US9002071B2 (en) 2012-03-21 2015-04-07 Casio Computer Co., Ltd. Image search system, image search apparatus, image search method and computer-readable storage medium
KR101373415B1 (en) * 2012-05-29 2014-03-13 성균관대학교산학협력단 Plant classification method and system using autorecognition of leaf image
US9098775B2 (en) 2012-05-31 2015-08-04 Casio Computer Co., Ltd. Multi-class identifier, method, and computer-readable recording medium
US9076081B2 (en) 2012-10-26 2015-07-07 Casio Computer Co., Ltd. Multi-class discriminating device
JP2014013603A (en) * 2013-09-17 2014-01-23 Ricoh Co Ltd Imaging apparatus
WO2017222234A1 (en) * 2016-06-23 2017-12-28 주식회사 한농쿱 System for providing age information of mountain-cultivated ginseng
US10997718B2 (en) 2016-06-23 2021-05-04 Hannongcoop Co., Ltd. System for providing age information of ginseng cultivated in the woods
JP2018132953A (en) * 2017-02-15 2018-08-23 ソフネック株式会社 Image processing method, and computer program
JP6294524B1 (en) * 2017-02-15 2018-03-14 ソフネック株式会社 Image processing method and computer program
JP2019061567A (en) * 2017-09-27 2019-04-18 シンフォニアテクノロジー株式会社 Shape recognition program and shape recognition device for leaf-like crop
JP2021022076A (en) * 2019-07-25 2021-02-18 陽平 猪口 Communication terminal, method, and program
CN111627059A (en) * 2020-05-28 2020-09-04 桂林市思奇通信设备有限公司 Method for positioning center point position of cotton blade
CN111627059B (en) * 2020-05-28 2023-05-30 桂林市思奇通信设备有限公司 Cotton leaf center point positioning method
CN111990101A (en) * 2020-09-09 2020-11-27 安徽世林照明股份有限公司 Intelligent control vegetation lamp for big-arch shelter
CN111990101B (en) * 2020-09-09 2023-08-01 安徽世林照明股份有限公司 Intelligent control vegetation lamp for big-arch shelter
CN113361642A (en) * 2021-07-02 2021-09-07 柒久园艺科技(北京)有限公司 Fresh cut flower grading method, device and medium
CN113361642B (en) * 2021-07-02 2024-03-19 柒久园艺科技(北京)有限公司 Fresh cut flower grading method, device and medium
CN117593652A (en) * 2024-01-18 2024-02-23 之江实验室 Method and system for intelligently identifying soybean leaf shape
CN117593652B (en) * 2024-01-18 2024-05-14 之江实验室 Method and system for intelligently identifying soybean leaf shape

Also Published As

Publication number Publication date
JP3918143B2 (en) 2007-05-23

Similar Documents

Publication Publication Date Title
JP2002203242A (en) Plant recognition system
CN111860533B (en) Image recognition method and device, storage medium and electronic device
CN109154978A (en) System and method for detecting plant disease
US9898686B2 (en) Object re-identification using self-dissimilarity
Kumar et al. Leafsnap: A computer vision system for automatic plant species identification
KR100480781B1 (en) Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image
CN105740780B (en) Method and device for detecting living human face
Li et al. Immature green citrus fruit detection and counting based on fast normalized cross correlation (FNCC) using natural outdoor colour images
CN106991370B (en) Pedestrian retrieval method based on color and depth
CN109711345A (en) A kind of flame image recognition methods, device and its storage medium
WO2020024744A1 (en) Image feature point detecting method, terminal device, and storage medium
JPWO2008001889A1 (en) Color classification method, color recognition method, and color recognition apparatus
Marini et al. Bird species classification based on color features
CN109740572A (en) A kind of human face in-vivo detection method based on partial color textural characteristics
Ke et al. Active contour and hill climbing for tree crown detection and delineation
CN112966758B (en) Crop disease, insect and weed identification method, device and system and storage medium
Kudva et al. Pattern classification of images from acetic acid–based cervical cancer screening: A review
CN112101300A (en) Medicinal material identification method and device and electronic equipment
JP6313886B1 (en) Identification method of captured insects
JP2009123234A (en) Object identification method, apparatus and program
Watcharabutsarakham et al. An approach for density monitoring of brown planthopper population in simulated paddy fields
Saitoh et al. Automatic recognition of wild flowers
JP3962517B2 (en) Face detection method and apparatus, and computer-readable medium
CN116416523A (en) Machine learning-based rice growth stage identification system and method
TWI785436B (en) Systems for object detection from aerial imagery, methods for detecting object in aerial imagery and non-transitory computer readable medium thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070201

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140223

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees