JP3918143B2 - 植物認識システム - Google Patents
植物認識システム Download PDFInfo
- Publication number
- JP3918143B2 JP3918143B2 JP2000403201A JP2000403201A JP3918143B2 JP 3918143 B2 JP3918143 B2 JP 3918143B2 JP 2000403201 A JP2000403201 A JP 2000403201A JP 2000403201 A JP2000403201 A JP 2000403201A JP 3918143 B2 JP3918143 B2 JP 3918143B2
- Authority
- JP
- Japan
- Prior art keywords
- leaf
- color
- flower
- space
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、画像認識に関するものであり、特に花を付ける植物の画像を認識するシステムに関する。
【0002】
【背景技術】
道路や山道、野原など至るところで野草を見ることができる。しかし、私たちは野草の名称や分類について知らないことが多い。図鑑を利用して野草の名称を知ろうとするが、植物学的な分類に基づいて整理されているために素人にはわかりにくく時間もかかる。また携帯型図鑑(例えば、林 弥栄,「山渓ハンディ図鑑1 野に咲く花」,山と渓谷社,東京,1998)では、84科約1000種の野草が収録されている。野草の種類数が多いため、図鑑から特定の野草を見つけるだけでなく、同科の野草を見つけることさえ困難である。もし、野草の判別に自動認識の技術を適用することができれば、専門家でなくともその名称を容易に知ることができる。さらに近年の携帯型コンピュータ、デジタルカメラなどの普及により、安価で可搬姓の高い自動認識システム実現のための環境は整いつつある。
静止画像からのプリミティブな物体や人間の顔を認識したり、CT画像から肺癌などの認識に関する研究事例は多い。しかし、魚、昆虫、植物などの自然物を対象とした認識についての報告は少ない。例えば、平岡ら(平岡 透,矢野 啓司,瀧山 龍三,「輪郭線及びテクスチャ情報に基づく画像認識法 −魚画像認識への応用」,信学技報,PRMU96-148,no.1,pp.55-62,Jan.1997)は魚のテクスチャと形状を基にした認識を行っているが、実際に撮影した画像ではなく、図鑑写真を加工した画像を用いている。Imら(Cholhong Im, Hirobumi Nishida, Toshiyasu L. Kunii, "Recognizing Plant Species by Leaf Shapes - A Case Study of the Acer Family", ICPR'98, pp.1171-1173, Brisbane, Australia, Aug.1998)はカエデ科の樹木の認識を葉形状より行っている。関田ら(関田 巌,栗田 多喜夫,大津 展之,「複素自己回帰モデルによる形の識別」,信学論(D-II),vol.J73-D-II,No.6,pp.804-811,Jun.1990)は木の葉の認識を行っているが5種サンプル数16枚とデータが少ない。金山ら(金山 和義,川嶋稔夫,青木 由直,「植物データを対象とした画像インデクシング」,信学技報,PRMU97-172,no.11,pp.151-158,Nov.1997)、竹本ら(竹本 清香,興梠 正克,村岡 洋一,「花冠の特徴に基づく花検索システム」,1999,信学総大,D.12-66)は植物写真を基にしたインデクシングを目標としているが、野草の認識までは至っていない。本発明では実際に生息している野草を用いて、撮影から認識までの一連のシステム実現を目的とする。
【0003】
【発明が解決しようとする課題】
本発明の目的は、花を付ける植物の画像認識を行い、草花の識別を行うことを目的としている。
【0004】
【課題を解決するための手段】
上述の目的を達成するために、本発明は、花や葉の特徴をもとに植物の種類を判別する植物認識システムであって、花および/または葉のディジタル画像より、対象物である花および/または葉の画像を抽出し、前記抽出された花および/または葉の画像より、以下の(F1)〜(F10)及び(L1)〜(L11)から、少なくとも(F4:花の円形度),(F3),(F6),(F1),(L3),(F5),(F8),(L8)の順で選択して、単数または複数の特徴量を求め、前記求めた特徴量と、あらかじめデータベースに登録してある各種の植物の特徴量とから、前記植物の種類を判別する。
(F1) 花の画像において、重心Gから花弁の輪郭までの距離をdとし、重心との角度θを横軸,縦軸をdとした波形のグラフにしたときの、前記波形における平均谷間距離l,山の高さの平均をhとしたときの、花弁の形状l/h。
(F2) 花弁数。但し、花弁数が7以上の場合は7とする。
(F3) 花の面積をS、重心をG(g i ,g j )としたときの
【数1】
で定義される、花のモーメントM。
(F4) 花の周囲長をLとしたとき
【数2】
R=4πS/L 2
で定義した、花の円形度R。
(F5) 色合いをH、彩度をSとしたときのHS色空間を半径1の円とし、その円の中心をxy平面の原点に設置した空間内において、前記花に最大分布している色に該当する色のx座標値。
(F6) 前記(F5)の空間内で、前記花に最大分布している色に該当する色のy座標値。
(F7) 前記(F5)の空間内で、前記空間をさらに−1≦x≦1および−1≦y≦1を分割したときの格子内に含まれる色を1単位の色集合とし、前記花に最大分布している色が含まれる色集合内に含まれる色の分布割合。
(F8) 前記(F5)の空間内で、前記花に2番目に分布している色に該当する色のx座標値。
(F9) 前記(F5)の空間内で、前記花に2番目に分布している色に該当する色のy座標値。
(F10) 前記(F7)の色集合で、前記花に2番目に分布している色が含まれる色集合内に含まれる色の分布割合。
(L1) 前記葉において、鋸歯の頂点を結んでできる外側近似形状の面積S E と、鋸歯の谷を結んでできる内側近似形状の面積S I としたときの、葉の形状S I /S E 。
(L2) 葉のアスペクト比。
(L3) 前記葉の面積をS、重心をG(g i ,g j )としたときの
【数3】
で定義される、葉のモーメントM。
(L4) 前記葉の周囲長をLとしたとき
【数4】
R=4πS/L 2
で定義した、葉の円形度R。
(L5) 前記葉の重心をG、基部と先端を結ぶ長さlの中央脈の中心をCとしたとき、前記葉の先端方向を正の向きとしたときの中心Cから重心Gまでの距離をbとしたときの、前記葉の重心の偏り(l+2b)/l。
(L6) 前記葉の基部の開き角度。
(L7) 前記葉の先端の開き角度。
(L8) 前記葉が単葉ならば0、複葉ならば1。
(L9) 前記(F5)の空間内で、前記葉に最大分布している色に該当する色のx座標値。
(L10) 前記(F5)の空間内で、前記葉に最大分布している色に該当する色のy座標値。
(L11) 前記(F7)の色集合で、前記葉に最大分布している色が含まれる色集合内に含まれる色の分布割合。
これにより、花をつける植物を対象とした画像認識として、その花画像、葉画像より自動的に画像認識をし、草花の識別を行うことができる。
【0005】
前記花および/または葉の画像を抽出するためには、色空間において行うクラスタリング法を用いることができる。
【0006】
前記植物の種類を判別するための解析に、前記特徴量に正規化を施し、区分的線形識別関数を用いて行うことができる。
判別した結果として、植物の種類やその情報を複数表示することもできる。
前記対象物の画像の背景は黒色が望ましい。
なお、上述の機能をコンピュータ・システムに実装することができるプログラムを格納した記録媒体も本発明である。
【0007】
【発明の実施の形態】
本発明の植物認識システムの実施の形態を、図面を参照して説明する。
本発明では、デジタルカメラ等を用いた撮影画像を入力し、野草の名称を表示するシステムを提供する。ただし、本システムで扱う野草は人間が明らかに花と葉を認識できる顕花植物であり、花が咲いている時期に撮影することを前提としている。
ある一つの野草から花と葉を採取し、それぞれ黒色布地(又は画用紙)上の中央付近に位置させ撮影する。花や葉は枯れや虫食いなどによる欠陥のないものを採取する。また葉はその成長過程や採取位置により、葉縁の形状が異なる場合がある。ここでは各々の野草において代表的な形の葉を用いることにする。葉は方向を持つため基部を画像の左側、先端を右側におく。さらに花の形状は3次元的な構造が多い。本発明で定義する特徴量は2次元構造のみを用いている。ユーザにより撮影方向が異なることを防ぐため、撮影は真上かそれに近い斜め上の角度から行う。また本システムで用いる画像は赤(R),緑(G),青(B)によるカラー画像であり、例えばRGBの各色を各8ビットで表現し、画像サイズは縦480画素、横640画素である。
【0008】
図1は本発明のシステムとその認識処理の流れを示したものである。本システムは、図1(a)に示すように、CPU20にデジタルカメラや写真読取り装置等の画像入力装置10、システムの操作を行うための入力装置30、操作画面や認識結果を表示する表示装置40、認識に用いるデータや植物のデータが記録されている記憶装置50が接続されている構成となっている。また、認識処理の流れは図1(b)に示すように、まず、認識する対象である花と葉の画像を入力装置10より入力し(S100)、入力した画像から花と葉の対象物を切り出す背景分離処理をCPU20で行う(S110)。さらにCPU20は抽出した対象物の画像をもとに、定義した特徴量を求め(S120)、対象物の認識を行う(S130)。画像から対象物を抽出する作業は極めて重要であり、本発明のシステムではクラスタリング法を用いることにする。特徴量は花、葉それぞれにおいて定義する。そして特徴量を入力データとして区分的線形識別関数による認識を行う。
【0009】
[背景分離]
<入力画像の性質と方針>
図2は花と葉の自然の状態をそのまま撮影した画像を示したものである。ほとんどの花や葉は群生しているため、図2のような画像から自動的に対象物のみを抽出することは難しい作業である。そこで、対象物を抽出するために光源などの撮影環境を同一に設定し撮影する方法や、対象物の存在しない画像と存在する画像の2枚を用い、両面像を差分することにより対象物を抽出する方法などが挙げられる。しかし、本発明は安価なシステム、かつユーザに対する操作の軽減を考慮する必要がある。
そこで本発明のシステムでは、対象物の背景に黒色の布地(もしくは画用紙)を用いた。これは対象物である花が極彩色や無彩色(白色)に分布し、葉は一般的に緑色であり、撮影時における太陽光などの光の反射を最小限に抑えるためである。図3は前述の方法で撮影した、対象物の背景に黒色布地を置いて撮影した画像である。
本発明のシステムで定義する特徴量の多くは対象物の正確な輪郭形状を必要とするため、正確な背景分離は不可欠である。そこで、この入力画像においてエッジ検出やしきい値選定法などの諸手法により背景分離を試みたが、以下に述べるような要因により必ずしも背景分離を容易には行えなかった。
▲1▼対象物(特に花)が立体的な構造を持ち、図3(a)のように相互に影を作り背景との差が低くなる。
▲2▼図3(b)のように、対象物の影が背景領域に写り、背景が一様でなくなる。
▲3▼背景領域上の四隅に明暗が生じることがある。
そこで次に述べるクラスタリング法を用いて背景分離を行う。
【0010】
<クラスタリング>
本研究におけるクラスクリングは色空間において行う。色空間におけるクラスタリングは、静止カラー画像の限定色選択を目的として研究されている(Paul S.Heckbert, "Color image quantization for frame buffer display", pp.297-307, SIGGRAPH'82, Boston, Jul.1982)。ここでは最初に赤(R)、緑(G)、青(B)の3次元色分布空間を考え、この空間においてseed(初期クラスタ値)を導出した後クラスタリングを行う。
(1)初期クラスタ決定
本発明のシステムでは最終的にクラスタ数を背景と対象物の2つにする。クラスタリングはRGB空間におけるk-means法(k−平均法)を用いて行い、以下の手順で初期クラスタを導出する。
▲1▼RGB空間における分布
seedを求めるに当たって、RGB空間分布を考える。図4はRGB空間を示した図である。この図4のようにまず各座標軸において分布の最小、最大両端においてノイズ成分と考えられる要素を無視するため、両端から全画素数の0.1%(約300画素)の分布を無視する。次に両端を除いた分布において、各座標軸に沿ってn個に均等分割したn3個の小空間を考える。この分布空間よりseedを検出する。ただし本発明の実施形態ではn=5とする。
▲2▼seed検出
seed検出は以下の手順により行う。まず頻度数が最大である小空間を選ぶ。そして、連結する小空間が共にseedとなることを避けるために、図5に示すような、選ばれた小空間に隣接する6小空間はseedに選択しない。選択した小空間とそれを囲む6小空間を取り除いた後、再び最大頻度の小空間を選ぶプロセスを繰り返す。選ばれた小空間における中央値をseedとする。初期クラスタ数(seed数)kは条件を満たす全ての小空間とする。
【0011】
(2)k−means法(k−平均法)
本手法のアルゴリズムは以下のとおりである。
▲1▼ 最初にk個の仮クラスタの重心seedを決定する。本研究では前節で述べた方法によりseedを求める。
▲2▼ 全てのデータを最短距離にあるクラスタに分類する。距離としてはRGB空間のユークリッド距離を使用する。
▲3▼ 再分類されたクラスタから新たにクラスタの重心を求める。
▲4▼ ▲3▼の処理で新たなクラスタ中心が全て以前と同じであれば終了し、そうでなければ▲2▼に戻る。
【0012】
図6は図3(a)の花画像に対するクラスタリング結果をRGB空間分布に示した図であり、図7はクラスタリング結果を画像上に展開したものである。図6のような色空間で同じクラスタに分類されても、画像上では必ずしも同じ領域に分布しているとは限らない。そこで展開した画像で接合されていない領域は、全て独立のクラスタとする。図6の色空間におけるクラスタ数は6である。しかし図7ではクラスタ数が475と増大する。この図では入力画像における色の移り変わりと考えられる場所で画素数が少ないクラスタ(小領域)が多数存在する。そこで次にクラスタ数の軽減を目的とし、これら小領域の除去を行う。
【0013】
<クラスタ統合>
クラスタ統合は小領域クラスタの除去を目的とした1次クラスタ統合、背景領域に属するクラスタを統合する2次クラスタ統合、さらに画像状況に応じて影を除去する3次クラスタ統合の3過程から構成する。最後に背景領域を除去することにより対象物を抽出する。
(1)1次クラスタ統合
各クラスタに属する画像を調べて、その数があるしきい値T1以下のクラスタを統合の対象とする。この値は統合処理により対象物の輪郭が欠けないように注意する。統合は各クラスタの平均色を求め、周囲のクラスタと比較して最も色差の小さいクラスタへ吸収させる。色差はRGB空間のユークリッド距離とする。図8は前述の処理をT1=300(全画素数の0.1%)として行った、1次クラスタ統合後の結果を示したものである。
(2)2次クラスタ統合
本システムで使用する花及び葉の画像では、必ず対象物は画像の中心付近に置かれ、画像から対象物がはみ出すことは無い。この条件下では画像の外側縁を含むクラスタは必ず背景に属する。従ってこの性質を利用し、1次クラスタ統合の結果を背景Abに属するか、対象物Aoに属するか、もしくは未定Atに分別する。
全クラスタをAb,Ao,Atのいずれかに分類させるため、本発明のシステムではエッジ強度eを定義する。そしてクラスタ境界におけるeの分布を求め、分布の検定を行うことによりクラスタ統合処理を行う。即ち現段階においては、幾つものクラスタからなる背景領域を、1つのクラスタに統合することを目的とする。図9はエッジ強度eの導出について説明するための図であり、画素をクラスタ別に表している図である。この図9を用いて説明する。
▲1▼クラスタClとC2の境界線を検出し、境界線上の画素の隅に番号をつける。
▲2▼この隅を中心として、4×4の小領域(局所領域と呼ぶ)を設ける。
▲3▼p番目の局所領域において、クラスタC1とC2に属する画素の入力画像におけるRGB平均値(r1,g1,b1),(r2,g2,b2)を計算する。
▲4▼エッジ強度は上記平均値の差分
【数9】
▲5▼{ep,p=1,・・・,n}の平均値μ1,2、分散σ2 1,2を計算しておく。以上の手順により求まるエッジ強度eの分布を用いてクラスタ統合を施す。
背景領域に存在するクラスタ境界では、入力画像上の輝度値が緩やかに変化する。逆に背景領域と対象物領域のクラスタ境界では輝度値が急変している。まず、画像縁を含む全てのクラスタをAbに属させ、Abに属するクラスタ間のエッジ強度の分布を正規分布N(μb,σb)と仮定する。次にAbに属するクラスタCbとその隣接クラスタCtのクラスタ間エッジ強度の分布を対象分布N(μt,σt)とする。次に、N(μb,σb)とN(μt,σt)において正規分布検定を行う。仮説をμb=μtとし、
【数10】
を計算する。zo<αならば対象分布は背景分布と同じであるとし、CtをAbに属させる。α≦zo<βならば、CtはAtに属させ3次クラスタ統合の対象とする。そうでなければCtをAoに属させる。
図10は、図8における2次クラスタ統合処理を適用した結果を示した画像である。このように対象物と背景が正確に分離されていることがわかる。また図7ではクラスタ数が475であったのに対し、図8ではクラスタ数は24、図10では22になる。
【0014】
(3)3次クラスタ統合
前統合処理により対象物と背景はほぼ正確に分離される。しかしながら、画像によっては背景領域に対象物の影が生じているものがある。明確に現れる影は背景と対象物との中間に位置し、2次クラスタ統合では処理できない場合がある。そこで本プロセスでは影領域を検出し、背景に統合する処理を行う。プロセスは以下の方法で行う。
▲1▼2次クラスタ統合により求まったAtに属するクラスタCiの平均輝度値をYiとする。
▲2▼Abに属する全クラスタの平均輝度値をYbとする。
▲3▼影は背景よりも暗い性質があるため、Yi<Ybならば注目クラスタは影であり、Abに属させる。そうでなければAoに属させる。
▲4▼以上の処理を全てのCi(Ci∈At)に対して行い、クラスタをAbもしくはAoに分類する。
図11は、実際に影を持つ画像(図11(a))に対して、1次〜3次までのクラスタ統合処理を行った過程と結果を、図11(b)〜図11(d)の順番で示したものである。図11(b)のような背景領域に対象物の影が生じている画像でも影領域を検出し、図11(d)のように背景に統合することができている。
【0015】
(4)背景領域除去
前述までの処理により画像は大まかなクラスタによって表現されている。最後に背景クラスタAbを取り除くことにより対象物抽出を実現する。図12は、図3(a)の花と図11(a)の葉の画像より背景分離処理を行った結果を示した画像である。図3(a)の花と図11(a)の葉の画像より対象物抽出をした画像は、それぞれ図12(a)及び図12(b)である。
【0016】
[特徴量]
<花の特徴量>
花の構造は多種多様で複雑である。また入力画像から雄しべ、雌しべなどの複雑な構造を認識することは難しい。そこで本研究では主に輪郭形状情報から特徴量F1〜F4の4個、色情報から特徴量F5〜F10の6個の計10個の花の特徴量を定義する。
(1)形状情報(花)
図13は花形状の解析を示した図である。花の構造において最も大きな面積を占め、入力画像から確実に得られる情報として花弁が挙げられる。本システムでは、図13(a)に示すような花の輪郭情報をもとに、重心Gから輪郭までの距離dを求め、図13(b)のような横軸を角度θ、縦軸を距離dとした1次元波形に変換する。この波形より以下に示す2つのパラメータを定義する。
F1)花弁形状
花弁幅を波形における平均谷間距離l、花弁の長さを平均山の高さhとし、花弁の形状をl/hと定義する。
F2)花弁数
図13に示す波形で極大値数を求める。花弁数が多い花ではその数を正確に求めることが困難である。花弁数NがN>7の場合は「花弁数が多い」と明示的に示す数値N=7とする。
F3)モーメント
F3は次式に定義されたモーメントMを用いる。
【数11】
ただし、式中においてSは面積、G(gi,gj)を重心とする。
F4)円形度
花弁の外周形状が円にどれくらい近いかを示す情報として、
【数12】
R=4πS/L2
より円形度を求める。ここでLは花の周囲長を示し、0<R≦1である。
【0017】
(2)色情報(花)
花の色は極彩色又は白などの無彩色であることが多く、主に1色分布からなっている花、2色分布から、もしくはそれ以上の色分布からなっている花に分類できる。本研究では面積の大きい2色とそれらの面積割合を特徴量として6個定義する。
入力された画像情報は、光の3原色赤,緑,青で表す、RGB色空間値であるが、色合い,彩度,明度の3要素で表す、HSV色空間に変換し色情報を得る。
図14はHS空間を分割したものを示した図である。そして図14に示すHS空間より6個の特徴量を得る。なお、ここでいう分布割合は、注目座標分布数及びその4近傍座標の分布数の総和とする。
F5)第1色x座標 最大分布数のx座標値
F6)第1色y座標 最大分布数のy座標値
F7)第1色割合 その座標と4近傍座標を含めた分布割合
F8)第2色x座標 2番目の分布数のx座標値
F9)第2色y座標 2番目の分布数のy座標値
F10)第2色割合 その座標と4近傍座標を含めた分布割合
ただし、本研究ではHSV色空間と、色合い,輝度,彩度の3要素で表す、HLS色空間による特徴量を求め認識した結果、ほとんど差が見られなかった。そのため、ここではHSV色空間を用いた。
【0018】
<葉の特徴量>
葉は花と比べ構造が簡単であり、方向が明瞭である。本研究では特徴量を求めるにあたって最初に小葉の検出を行い、その後基部・先端の位置を調べる。形状情報から特徴量L1〜L8の8個、色情報から特徴量L9〜L11の3個、計11個の特徴量を定義する。
(1)小葉の検出
図15は単葉と複葉を示した画像である。この図15に示すように、葉画像は大まかに分類すると、単葉と、複数の小葉で構成している複葉の2種類ある。特徴量においては葉構造(L8)で単葉、複葉の区別をする。ただしL8と色情報を除いた特徴量では単葉における特徴を定義する。そのため最初に単葉、複葉の分類を行い、複葉の場合は小葉の検出を行う必要がある。
小葉の検出は花の形状情報を求める手順と同様に、重心と輪郭点間の距離を求め、2次元画像から1次元波形に変換する。この波形より極小点数を求め小葉があるか否か判断する。
(2)基部・先端位置の決定
葉の方向は先に述べたように基部を左、先端を右というように、撮影条件で指定している。しかし、基部・先端の形状には様々な種類がある。本発明のシステムでは基部・先端の形状を凸形状、凹形状に分類し、極点を求めることによりその位置を決定する。
【0019】
(3)形状情報(葉)
ほとんどの葉は緑色であるため、分類には色情報よりも形状情報のほうが有効であると考えられる。そこで本システムでは葉の形状としてアスペクト比、モーメントなど8個の特徴量を定義する。
L1)葉縁の形状
図16は鋸歯を有する葉を示した図である。葉縁には、この図16のように鋸歯の有るものや、無いもの、その大きさの違いなど様々な形状があるが、これらを解析し区別することは困難な作業である。そこで本システムでは、鋸歯の割合を定義し、この値を特徴量として用いることにする。鋸歯の割合は図16に示すような外側近似形状、内側近似形状を生成しそれら面積SE,SIの比(SI/SE)として与える。
L2)アスペクト比
葉のアスペクト比を定義する。またモーメント、円形度については花の場合と同様にして求める。
L3)モーメント
F3と同様に、式[数11]に定義されたモーメントMを用いる。
L4)円形度
F4と同様に、式[数12]に定義されたRを求める。
L5)重心の偏り
図17は葉のパターンの例を示した図であり、葉の重心は大別すると図17に示すように3パターンになる。葉の重心をG、基部、先端を結ぶ中央脈の中心をCとし、重心の偏りを
【数13】
L5=(l+2b)/l (ただし、−1/2≦L5≦1/2)
と定義する。
【0020】
葉の基部、先端は縁の形状と同様に葉の特徴を示すものとして有効な情報である。本システムでは基部、先端の形状として各々の角度θ1,θ2を求め、それらを特徴量として定義する。図18は葉の基部と先端の角度の定義を示したものである。図18に示すように角度は基部A、先端Bの各々から両側へd離れた点(基部側:A1,A2,先端側:B1,B2)を求める。それよりL6,L7を求める。
L6)基部角度 θ1=∠A1AA2
L7)先端角度 θ2=∠B1BB2
L8)葉構造
本システムで扱う葉は図15で示したように、単葉と複葉とに大別される。そこで特徴量として前者の場合L8=0、後者の場合L8=1と定義する。分類方法は「(1)小葉の検出」で先述したとおりである。
【0021】
(4)色情報(葉)
葉の色は一般的に緑色1色分布である。そのため色情報は、花の場合と異なり最大分布色のみを定義する。定義は花の場合と同様である。
L9)第1色x座標 最大分布数のx座標値
L10)第1色y座標 最大分布数のy座標値
L11)第1色割合 その座標と4近傍座標を含めた分布割合
【0022】
<認識法>
現在では数多くの認識法が提案されている。本発明のシステムでは前述の定義で求まった特徴量に正規化を施す。そして区分的線形識別関数を用いて認識を行う。なお、詳細については、以下の実施例を参照されたい。
【0023】
<実施例>
次に、実施例として本発明のシステムを用いての植物認識の実験を行った。実験のために、入力画像は各種20セットずつ用意した。また認識は正識別率を少数サンプルから推定するために、Leave-one-out methodを用いた。即ち区分的線形識別関数のプロトタイプ数を19、実験データ数を1とする。
[背景分離]
本発明の発明者たちは、大学のキャンパス付近に生息する野草を撮影し、34種20セットの花画像と葉画像を用いて背景分離処理を行った。実験において設定した各パラメータを[表1]に示し、処理結果を[表2]に示す。花画像では98.53%、葉画像では99.12%の抽出率を得た。
【表1】
【表2】
このように、撮影画像から対象物を切り出す手法として、クラスタリング法を採用し、その有効性を検証することができた。一般的に色空間におけるクラスタリング処理では、後処理としてクラスタ統合を施す必要がある。そこで3段階からなる統合処理をすることにより、正確な対象物抽出が実現可能となった。
【0024】
[認識]
次に背景分離処理により抽出した対象物面像をもとに各特徴量を計算した。そしてこれらを入力として認識を行った。本実施例では
(1)全ての特徴量
(2)花のみの特徴量
(3)葉のみの特徴量
の3組の特徴量を用いて認識率を求めた。結果を[表3]に示す。
【表3】
この表3は認識結果において第1侯補のみを考慮した場合と、第2侯補、第3候補まで考慮した場合における認識率を示す。全ての特徴量を用いた場合には96.03%の認識率を得た。
【0025】
本システムでは対象物のサイズ情報を考慮していない。しかしながら、[表3]を参照してもわかる通り、サイズ情報が無くても十分な認識率を得ている。これは本実施例で用いた野草種類数が少なく、サイズが未知でも色や形状情報のみで十分であるからと考える。手動測定したサイズ情報を含めた予備実験を行った結果、全ての特徴量で96.91%(即ち、0.88%の向上)であった。
【0026】
次に本システムを用いて、有効な特徴量を求める実験を行った。まず21個の特徴量より1個を選び認識を行う。つまり特徴量1で21通りの認識を行う。この結果より最も認識率の高い特徴量を求め、これを最も有効な特徴量とする。次にこの特徴量と残りの20個の組み合わせ(20通り)を用いて認識を行う。同様に認識結果より最も認識率の高い特徴量を求め、これを2番目に有効な特徴量とする。以後同様にして有効な特徴量を決定していく。[表4]は決定された有効な特徴量を示したものである。
【表4】
また、図19は特徴量数と認識率の変化を示したグラフである。図19のグラフを見てもわかる通り、この結果より特徴量数7,8個で十分な認識率を得ている。
さらに野草16種20セットにおける認識実験(Takeshi Saitoh, Toyohisa Kaneko, "Automatic Recognition of Wild Flowers", ICPR2000, vol.2, pp.507-510, Barcelona, Spain, Sep.2000)と比較すると、有効な8特徴量の内、花の特徴が占める割合が増えていることがわかった。これは、葉よりも花の情報の方が有効であるからである。
【0027】
次に誤認識について検討を行った。その結果、誤認識しやすいのは同科の野草である傾向があった。また葉形状は異なっていても、花同士が似た形状や色をしている場合誤認識が起こりやすい。これは前述の認識結果からも推察できるが、葉よりも花の情報の方が有効であるためである。
【0028】
<他の実施形態>
前述の実施例では、春から初夏にかけての野草を用いている。そのため季節情報や採取場所等を特徴量として入力しなくても十分な認識率を得たが、画像から計測される特徴量に加えて季節、場所、時間等の情報も特徴量として加えることで、より高い認識率を得ることができる。
また、認識結果では正しい1つの野草名称を得るシステムにしてもよいし、類似の数個を画面に表示し、最終的には人の目による認識を行うシステムもよい。その認識結果をもとに野草の種類や、植物辞典に掲載されているような情報を表示することもできる。
本発明に関するプログラムを格納した記憶媒体から、プログラムをシステムで読み出して実行することにより、本発明の構成を実現することができる。この記録媒体には、DVD、CD、MD、MO、フロッピー・ディスク、磁気テープ、ROMカセット等がある。
【0029】
【発明の効果】
本発明のシステムにより、自然物を対象とした画像認識として、野草を取り上げ、その花画像、葉画像より計測できる野草の種類判別に有効な21個の特徴量を用いて自動的に画像認識をし、草花の識別を行うことができた。また、本システムを用いて、認識に必要な特徴量7,8個で十分な認識率を得ることができた。
【図面の簡単な説明】
【図1】 本発明のシステムとその認識処理の流れを示した図である。
【図2】 花と葉の自然の状態をそのまま撮影した画像を示した図である。
【図3】 対象物の背景に黒色布地を置いて撮影した画像を示した図である。
【図4】 RGB空間を示した図である。
【図5】 頻度数が最大である小空間と、それに隣接する6小空間を示した図である。
【図6】 花画像に対するクラスタリング結果をRGB空間分布に示した図である。
【図7】 クラスタリング結果を展開した画像を示した図である。
【図8】 1次クラスタ統合処理を適用した結果の画像を示した図である。
【図9】 エッジ強度eの導出について説明するための図である。
【図10】 2次クラスタ統合処理を適用した結果の画像を示した図である。
【図11】 実際に影を持つ画像において1次〜3次までのクラスタ統合処理を行った過程と結果を示した図である。
【図12】 花と葉の画像より背景分離処理を行った画像を示した図である。
【図13】 花形状の解析を示した図である。
【図14】 HS空間を分割したものを示した図である
【図15】 単葉と複葉の画像を示した図である。
【図16】 鋸歯を有する葉を示した図である。
【図17】 葉のパターンの例を示した図である。
【図18】 葉の基部と先端の角度の定義を示した図である。
【図19】 特徴量数と認識率の変化を示したグラフを示した図である。
【符号の説明】
10 画像入力装置
20 CPU
30 入力装置
40 表示装置
50 記憶装置
Claims (6)
- 花や葉の特徴をもとに植物の種類を判別する植物認識システムであって、
花および/または葉のディジタル画像より、対象物である花および/または葉の画像を抽出し、
前記抽出された花および/または葉の画像より、以下の(F1)〜(F10)及び(L1)〜(L11)から、少なくとも(F4),(F3),(F6),(F1),(L3),(F5),(F8),(L8)の順で選択して、単数または複数の特徴量を求め、
前記求めた特徴量と、あらかじめデータベースに登録してある各種の植物の特徴量とから、前記植物の種類を判別する
ことを特徴とする植物認識システム。
(F1) 花の画像において、重心Gから花弁の輪郭までの距離をdとし、重心との角度θを横軸,縦軸をdとした波形のグラフにしたときの、前記波形における平均谷間距離l,山の高さの平均をhとしたときの、花弁の形状l/h。
(F2) 花弁数。但し、花弁数が7以上の場合は7とする。
(F3) 花の面積をS、重心をG(g i ,g j )としたときの
(F4) 花の周囲長をLとしたとき
(F5) 色合いをH、彩度をSとしたときのHS色空間を半径1の円とし、その円の中心をxy平面の原点に設置した空間内において、前記花に最大分布している色に該当する色のx座標値。
(F6) 前記(F5)の空間内で、前記花に最大分布している色に該当する色のy座標値。
(F7) 前記(F5)の空間内で、前記空間をさらに−1≦x≦1および−1≦y≦1を分割したときの格子内に含まれる色を1単位の色集合とし、前記花に最大分布している色が含まれる色集合内に含まれる色の分布割合。
(F8) 前記(F5)の空間内で、前記花に2番目に分布している色に該当する色のx座標値。
(F9) 前記(F5)の空間内で、前記花に2番目に分布している色に該当する色のy座標値。
(F10) 前記(F7)の色集合で、前記花に2番目に分布している色が含まれる色集合内に含まれる色の分布割合。
(L1) 前記葉において、鋸歯の頂点を結んでできる外側近似形状の面積S E と、鋸歯の谷を結んでできる内側近似形状の面積S I としたときの、葉の形状S I /S E 。
(L2) 葉のアスペクト比。
(L3) 前記葉の面積をS、重心をG(g i ,g j )としたときの
(L4) 前記葉の周囲長をLとしたとき
(L5) 前記葉の重心をG、基部と先端を結ぶ長さlの中央脈の中心をCとしたとき、前記葉の先端方向を正の向きとしたときの中心Cから重心Gまでの距離をbとしたときの、前記葉の重心の偏り(l+2b)/l。
(L6) 前記葉の基部の開き角度。
(L7) 前記葉の先端の開き角度。
(L8) 前記葉が単葉ならば0、複葉ならば1。
(L9) 前記(F5)の空間内で、前記葉に最大分布している色に該当する色のx座標値。
(L10) 前記(F5)の空間内で、前記葉に最大分布している色に該当する色のy座標値。
(L11) 前記(F7)の色集合で、前記葉に最大分布している色が含まれる色集合内に含まれる色の分布割合。 - 請求項1に記載する植物認識システムにおいて、
前記花および/または葉の画像を抽出するためには、色空間において行うクラスタリング法を用いることを特徴とする植物認識システム。 - 請求項1または2に記載する植物認識システムにおいて、
前記植物の種類を判別するための解析に、前記特徴量に正規化を施し、区分的線形識別関数を用いて行うことを特徴とする植物認識システム。 - 請求項1〜3のいずれかに記載する植物認識システムにおいて、
判別した結果として、植物の種類やその情報を複数表示することを特徴とする植物認識システム。 - 請求項1〜4のいずれかに記載する植物認識システムにおいて、
前記対象物の画像の背景は黒色であることを特徴とする植物認識システム。 - 請求項1〜5のいずれかに記載の機能をコンピュータ・システムに実装することができるプログラムを格納した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000403201A JP3918143B2 (ja) | 2000-12-28 | 2000-12-28 | 植物認識システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000403201A JP3918143B2 (ja) | 2000-12-28 | 2000-12-28 | 植物認識システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002203242A JP2002203242A (ja) | 2002-07-19 |
JP3918143B2 true JP3918143B2 (ja) | 2007-05-23 |
Family
ID=18867369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000403201A Expired - Fee Related JP3918143B2 (ja) | 2000-12-28 | 2000-12-28 | 植物認識システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3918143B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103336974A (zh) * | 2013-06-21 | 2013-10-02 | 华南理工大学 | 一种基于局部约束稀疏表征的花卉类别辨识方法 |
US10679096B2 (en) | 2017-08-22 | 2020-06-09 | Korea Institute Of Science And Technology | System and method for plant leaf identification |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3963162B2 (ja) * | 2003-08-28 | 2007-08-22 | ソニー株式会社 | ロボット装置及びロボット装置の制御方法ロボット装置 |
JP2007133816A (ja) * | 2005-11-14 | 2007-05-31 | Nikon Corp | 植物同定システム、及び生物同定システム |
EP1820391A1 (en) * | 2006-02-17 | 2007-08-22 | CropDesign N.V. | Method and apparatus to determine the start of flowering in plants |
JP4742927B2 (ja) * | 2006-03-17 | 2011-08-10 | 株式会社ニコン | 電子カメラ |
JP2008210165A (ja) * | 2007-02-27 | 2008-09-11 | Tohoku Kensetsu Kyokai | 植生判定方法及び画像処理装置 |
JP5315935B2 (ja) * | 2008-11-04 | 2013-10-16 | 株式会社リコー | 画像検索装置、画像検索方法、制御プログラム及び記録媒体 |
JP5075182B2 (ja) | 2009-10-20 | 2012-11-14 | 楽天株式会社 | 画像処理装置、画像処理方法、および、画像処理プログラム |
JP2012221211A (ja) * | 2011-04-08 | 2012-11-12 | Nintendo Co Ltd | 情報処理装置、情報処理プログラム、情報処理方法および情報処理システム |
JP2013048318A (ja) | 2011-08-29 | 2013-03-07 | Nintendo Co Ltd | 情報処理装置、情報処理プログラム、情報処理方法および情報処理システム |
JP5714452B2 (ja) | 2011-08-29 | 2015-05-07 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理方法および情報処理システム |
JP5660067B2 (ja) | 2012-03-21 | 2015-01-28 | カシオ計算機株式会社 | 画像検索システム、画像検索装置、画像検索方法、及びプログラム |
KR101373415B1 (ko) * | 2012-05-29 | 2014-03-13 | 성균관대학교산학협력단 | 이파리 영상 자동인식을 이용한 식물 분류 방법 및 시스템 |
JP5660078B2 (ja) | 2012-05-31 | 2015-01-28 | カシオ計算機株式会社 | 多クラス識別器、方法、およびプログラム |
JP5765583B2 (ja) | 2012-10-26 | 2015-08-19 | カシオ計算機株式会社 | 多クラス識別器、多クラス識別方法、及びプログラム |
JP5655916B2 (ja) * | 2013-09-17 | 2015-01-21 | 株式会社リコー | 画像検索システム |
WO2017222234A1 (ko) * | 2016-06-23 | 2017-12-28 | 주식회사 한농쿱 | 산양삼 연근정보 제공 시스템 |
JP6294524B1 (ja) * | 2017-02-15 | 2018-03-14 | ソフネック株式会社 | 画像処理方法、及びコンピュータプログラム |
JP6958810B2 (ja) * | 2017-09-27 | 2021-11-02 | シンフォニアテクノロジー株式会社 | 葉状農作物の形状認識プログラム及び形状認識装置 |
JP2021022076A (ja) * | 2019-07-25 | 2021-02-18 | 陽平 猪口 | 通信端末、方法及びプログラム |
CN111627059B (zh) * | 2020-05-28 | 2023-05-30 | 桂林市思奇通信设备有限公司 | 一种棉花叶片中心点位置定位方法 |
CN111990101B (zh) * | 2020-09-09 | 2023-08-01 | 安徽世林照明股份有限公司 | 一种大棚用智能控制植物生长灯 |
CN113361642B (zh) * | 2021-07-02 | 2024-03-19 | 柒久园艺科技(北京)有限公司 | 一种鲜切花分级方法、装置及介质 |
CN117593652B (zh) * | 2024-01-18 | 2024-05-14 | 之江实验室 | 一种智能识别大豆叶片叶形的方法和系统 |
-
2000
- 2000-12-28 JP JP2000403201A patent/JP3918143B2/ja not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103336974A (zh) * | 2013-06-21 | 2013-10-02 | 华南理工大学 | 一种基于局部约束稀疏表征的花卉类别辨识方法 |
CN103336974B (zh) * | 2013-06-21 | 2016-12-28 | 华南理工大学 | 一种基于局部约束稀疏表征的花卉类别辨识方法 |
US10679096B2 (en) | 2017-08-22 | 2020-06-09 | Korea Institute Of Science And Technology | System and method for plant leaf identification |
Also Published As
Publication number | Publication date |
---|---|
JP2002203242A (ja) | 2002-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3918143B2 (ja) | 植物認識システム | |
Dorj et al. | An yield estimation in citrus orchards via fruit detection and counting using image processing | |
Li et al. | Immature green citrus fruit detection and counting based on fast normalized cross correlation (FNCC) using natural outdoor colour images | |
JP5823270B2 (ja) | 画像認識装置及び方法 | |
US6263113B1 (en) | Method for detecting a face in a digital image | |
EP2833288B1 (en) | Face calibration method and system, and computer storage medium | |
JP4663013B2 (ja) | 色類別方法、色認識方法及び色認識装置 | |
Saitoh et al. | Automatic recognition of wild flowers | |
Pérez et al. | Image classification for detection of winter grapevine buds in natural conditions using scale-invariant features transform, bag of features and support vector machines | |
Qing et al. | Automated detection and identification of white-backed planthoppers in paddy fields using image processing | |
US20130195359A1 (en) | Image processing device, image processing method, program, and integrated circuit | |
CN109711345A (zh) | 一种火焰图像识别方法、装置及其存储介质 | |
JP5181955B2 (ja) | 画像分類装置および画像処理装置 | |
Arora et al. | A Plant Identification System using Shape and Morphological Features on Segmented Leaflets: Team IITK, CLEF 2012. | |
Marini et al. | Bird species classification based on color features | |
CN109035254A (zh) | 基于改进K-means聚类的运动鱼体阴影去除及图像分割方法 | |
Ke et al. | Active contour and hill climbing for tree crown detection and delineation | |
CN112101076A (zh) | 识别猪只的方法和装置 | |
JP2009123234A (ja) | オブジェクト識別方法および装置ならびにプログラム | |
Abesinghe et al. | Developing A selective tea plucking mechanism using image processing For A drone-based tea harvesting machine | |
JP3962517B2 (ja) | 顔面検出方法及びその装置、コンピュータ可読媒体 | |
Salazar-Reque et al. | An image processing method to automatically identify Avocado leaf state | |
JP4285640B2 (ja) | オブジェクト識別方法および装置ならびにプログラム | |
CN112347989A (zh) | 反光衣识别方法、装置、计算机设备和可读存储介质 | |
CN112347988A (zh) | 口罩识别模型的训练方法、装置、计算机设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040303 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061017 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070201 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110223 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110223 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120223 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120223 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130223 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140223 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |