JP4961555B2 - 植物の対象部分の位置特定方法とその方法による対象部分の位置特定装置及びその装置を用いた作業用ロボット - Google Patents
植物の対象部分の位置特定方法とその方法による対象部分の位置特定装置及びその装置を用いた作業用ロボット Download PDFInfo
- Publication number
- JP4961555B2 JP4961555B2 JP2006352905A JP2006352905A JP4961555B2 JP 4961555 B2 JP4961555 B2 JP 4961555B2 JP 2006352905 A JP2006352905 A JP 2006352905A JP 2006352905 A JP2006352905 A JP 2006352905A JP 4961555 B2 JP4961555 B2 JP 4961555B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- data
- image
- target
- plant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Spectrometry And Color Measurement (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Processing Of Color Television Signals (AREA)
- Image Analysis (AREA)
Description
そこで、果実の存在は、その果実から反射される光の存在から、果実の存在、存在位置、存在位置の方向及び果実の形状が認識可能であることから、コンピュータを用いて、画像処理技術により果実部分の存在を認識する方法が考えられる。
そのため、そのような果実の位置や形状などから果実などを把握する方法として、摘み取る果実に特有の形状パターンを事前に登録して、このパターンと合致したものを選び出そうとするパターン・マッチング法の可能性が検討できる。
しかし、形状によるパターン・マッチング法では、イチゴ等に代表される農作物の実の部分は大きさや外形などの形状が様々であり、すべての形状を想定して摘み取るに適した形状の実のパターンを事前に登録することは極めて困難である。
このため、植物分野での形状によるパターン・マッチング法は採用できるものではない。
したがって、形状認識のみによる装置では摘み取りなどの機械による自動作業化を行うことはできない。
このことから果実などの色を識別すべき要素として認識しようとする場合、摘み取るに適した果実の色を事前に登録しておき、その登録した色と現場作業での果実から捉えられた色とが合致したとき、その色を持つ果実が摘み取るに適した果実であるとの識別判断が可能となる。
この「色」の認識は、明度、色相、色彩の三要素を用いて識別可能であるが、それらの色の三要素からの識別をしようとすると識別すべき色のデータを3つのパラメータで考えなければならない。
現在のコンピュータを用いた画像処理技術では、色を対象として3つのパラメータで識別し判断することはデータ処理上極めて複雑となる。
また、イチゴ等の実のように色が緑から白を含んで赤に至るまでその中間色を含めて微妙な色が含まれているような農産物の色情報は正確に捉えることが困難であり、これを判断材料の基になる色のデータとして定量化させて扱うことは容易ではない。
たとえ、明度の変化を最小限度にした室内栽培などの特殊な光環境下で使用するにしても、その明度に関する色のデータは必要なのでデータの処理に長時間かかることに変わりはなく、やはり実施するのは困難である。
しかし、ステムをコンピュータで画像処理して認識することは、殆どのステムが細く小さいものであるために正確に把握することは実の部分を把握するよりも格段に困難であった。
そして、植物を扱う作業現場では時間の効率性が要求され、素早く作業を行うためには機械的作業の速さと同時に、コンピュータによるデータ処理のスピードアップが不可欠であり、コンピュータの演算速度が限られていた場合には処理するデータ量をどれだけ少なくし得るかが決定的となるとの認識から、果実などを色で判別する場合には、色の三要素として3つのパラメータとなる色のデータの数を少なくすれば容易に全体のデータ量を少なくできるはずであるとの構想が生まれた。
そこで、まず、果実などの存在位置が把握されればいいので、対象となる果物や野菜の実の「形状」に関するデータ量を最小限に少なくすること、また作業場所の光の環境で大きく変化し、そのことでデータ量が膨大化する明度に関する色要素を省略することの可能性を考えた。
そして、一種又は多種の植物の一つ又は複数の部分を対象とし、その対象部分のデジタル化された全色系のカラー画像のデータをコンピュータ本体に入力して記憶させ、それを前記ディスプレイ装置のモニタ画面に再生してその再生画像内で該対象部分に特徴的な色を固有色として選択する固有色選択工程と、その選択された固有色の全色系の色データを明暗に関する色要素を除いた二つの色要素の色データに転換させて二軸座標面でカラー表示可能な色彩空間データを得る色要素2元化処理工程と、その色要素2元化処理工程で得られた色彩空間データを前記モニタ画面に表示し、そのカラー画像から、さらに特徴的な一つ又は少数の色を選別し、これを識別用の色彩パターンデータとしてコンピュータに記憶させる色彩パターン登録工程とから成る事前準備を行う。
そして、実作業において、前記コンピュータプログラムを備えた前記コンピュータシステムを用いて、作業すべき前記対象部分が存在する周辺を含む区域を前記デジタルカメラで撮影し、その撮影した全色系のデジタルカラー画像から、明暗に関する色要素を除いた二つの色要素の色データに転換させて二軸座標面でカラー表示可能な色彩空間データを得る作業域色要素2元化処理工程と、その作業域色要素2次元化処理工程で得られた作業域の色彩空間データと、前記事前準備において記憶されている前記色彩パターンデータとを照合し、モニタ画面に表示された前記作業域の画像中に両者が合致した部分のみを区別して位置表示させる対象部分位置表示工程とで構成される。
そして、作業環境の明暗に係らず前記モニタ画面中の周辺を含む区域から正確に対象部分の存在位置を表示できるようにしたことを特徴とする。
CIE−XYZ表色系より算出されるxy色度図から、
そして、前記ボディ5上又は別の場所に、前記装置を構成する各部分の操作を命令する駆動用プログラムP2と前記デジタルカラー画像の入力装置7で入力したデジタル画像から植物の対象部分の位置特定する請求項1から5のうちいずれか1項に記載の植物の対象部分の位置特定方法を行うデータ処理用プログラムP1を備えたコンピュータ本体C2を有する。
そして、前記駆動制御部と前記コンピュータC2とで命令信号及びデータ処理信号の送受信を行い、前記位置特定装置で植物の対象部分の位置を特定しつつ、前記マニュピレ−タ9を稼動させて前記作業ハンド8を特定した対象部分の位置に自動的に移動させ、前記作業ハンド8で植物の対象部分への作業を実行できようにしたことを特徴とする。
本発明は、色要素2元化処理工程で、収穫したい成熟した果実などの色の特徴部分から明暗に関する色要素を除いた二つの色要素による二軸座標面でカラー表示可能な色彩空間データが得られ、このデータからさらに、色彩パターン登録工程で、より特徴的な色が選別されて、収穫したい果実などの識別の基となる対象部分の色彩パターンデータの登録がなされる。
そして、実作業では、この事前に登録された対象部分の色彩パターンデータと、作業現物で撮影した色データを作業域色要素2元化処理工程で明暗に関する色要素を除いて得られた作業域の色彩空間データとを照合することで、撮影したモニタ画面内での色の合致箇所から収穫したい成熟した果実などの対象部分の存在とその存在する位置が自動的に確認できるようになった。
即ち、明るい晴れの日や暗い雨の日等の天候や、栽培室内の照明と外の天候条件によって明るさが時事刻々変化するような植物の生育する作業場所においても、また、実が葉の裏に隠れて暗がりとなってしまうころがある作業場合においても、そのような周囲の光の影響を受けて果実の色の明度が変化することがあっても、果実などの対象部分を葉などがある周囲から区別することができ、その位置を確実に特定することが可能となった。
そして、その二つの色要素の色彩空間データからは、さらに少ないデータ量であり対象部分の「色彩パターン」を抽出する処理をすることによって、照合するデータを極力少なくし、データ処理に要する時間をさらに大幅に短縮することが可能となり、加えて、果実などの特徴的な部分から対象部分の存在をさらに正確に絞込めるようになった。
従来では、形状のみでの認識や形状と色の両者による認識で作動させる識別装置を使用しても、半分近くの誤認が生じ、このような精度では実際の作業には使用することができなかったが、本発明によって収穫作業などの植物に関する各種作業への実用化の道が開かれた。
このことによって、人が付き添わずに作業を行う植物に対する全自動的な作業用ロボットが、本発明の方法による植物の対象部分の位置特定装置を実装することで、人の作業よりも早く効率良く作業が実施可能な程度にまで性能を向上させることが可能となった。
そしてその結果、例えば実の部分の画像とステム部分の画像との関連付けが可能となり、両方の存在が一部の重なった位置を共有した場合に収穫したい実であると判断でき、片方のみの識別よりも確実に対象部分であると識別が可能となり、例えば、実部分の識別に誤りが生じても、他方のステム部分の識別を加味することで識別誤りの確率を大幅に減少させ、極めて正確にステム付き果実を識別することが可能となった。
さらに、果実及びステムの部分を別々に正確に把握することで、例えば、ステムを切り取って収穫しようとするイチゴなどの場合には、そのステムの存在と位置を素早く正確に把握して、実の部分を傷付けないように回避して正確にステムに対して摘み取り作業をすることが可能になり、収穫時に起こり得る傷を極力減らし、傷による品質低下が起こらない商品価値の高い果実が得られるようになった。
そして、この方法の計算により、コンピュータによって座標数式のプログラムにしたがって色データが容易に加工できるようになって上記対象部分の色彩パターンが容易に得られる。
さらに、その対象部分の色彩パターンのデータを基にした色の照合と対象部分の識別判断が素早く実行できるようになり、その結果、個体数の極めて多いイチゴなどの個々の対象部分に対して作業が素早く且つ数多く繰り返して実施可能な高性能の作業ロボットの製作が可能となった。
その際、前記作業ハンドは、果実の摘み取り、花の受粉、摘花などの作業に応じた形状、構造及び機能を備えたものを実装したり、作業に適した構造の装置に交換することで、それらの各種作業が行えるようになる。
まず、植物の対象部分の位置特定方法について説明する。
この装置は、図8の(イ)及び(ロ)に示すように、CPU1とメモリ2を有するコンピュータ本体に、CCDカメラなどのカラー画像の入力装置3を含むデータ及び命令を入力するためのキーボード10、マウス、タッチパネル及びライトペン等の入力装置と、モニタ用のディスプレイ装置4を含む画像を表示するための出力装置を備えた位置特定用のコンピュータシステムC1が使用され、そのコンピュータ本体には画像データ処理用のコンピュータプログラムP1が組み込まれる。
前記コンピュータプログラムP1は、画像処理機能を中心に位置情報などのデータの入力、記憶、加工、判断及び保存等を処理するためのコンピュータプログラムである。
そしてそのような対象部分は、例えばトマトの場合には、収穫するのは赤く熟した実の部分であるが、作業は、苗から生育して苗の抜取り廃棄処分まで、その成長段階に応じた受粉や間引きなどの各種作業があり、それらの作業対象となる部分の全てが所望する対象部分である。
本発明では、現場での実際の作業の前に準備作業が必要である。
この準備作業として、図1に示すように、固有色選択工程と、色要素2元化処理工程と、色彩パターン登録工程を行う。
前記、固有色選択工程においては、所望する対象部分がトマトの実であるので、その実のカラー写真やカラービデオ写真や実その物を一旦デジタル化された全色系のカラー画像のデータに転換し直す作業をする。
このデジタル画像は、カラー画像の色そのものではなく、色のデジタル情報を取得するために行うものである。したがって、対象部分として選ぶ箇所は熟れた実であれば熟れた実の現物をデジタルカメラで撮影することで手っ取り早く行うことができる。
しかし、収穫後にしばらく保存して、保存による熟成をまって出荷するような場合には完熟してまくまだ薄緑の部分が少し残るトマトを早期に収穫し、その未熟の薄緑の部分のある現物を、対象部分としてデジタルカメラで撮影することになる。
そして、そのデジタル化された全色系のカラー画像のデータをモニタ画面に再生し、その再生画像内で熟れたトマトなら、その部分に特徴的な色であるトマトの赤の部分を固有色として選択をする。
この色彩空間データは、イチゴなどの形状を表示すものではなく、図6の(b)に示すように、2つの色要素を縦横の軸方向とした座標による二軸座標面の形状で示されるデータである。
色は、自然の中では全色が存在し、その全色の色を表現する方法として、CIE(International Commission on Illumination)−XYZ、L・a・b、L・u・v、マンセル表色系、オストワルド表色系、NCS表色系等の様々な表色系が提案され、これらの色は工業製品の着色、画像機器の色彩調整等に多く用いられている。
特に近年では、L・a・b、L・u・v等の表色系が視覚認識に利用される場合が多い。
上記全色系の表色系に共通するのは、全て3つのパラメータによって色を決めなければならない点である。
通常では、物の存在は物理的な空間のように位置情報のみの「距離」という同質の3つのパラメータでの3次元座標で立体形状が把握できるが、色で物の存在を色で把握するのは、色相、彩度及び明度という3つの異質なパラメータで3次元的に色を置き換えて評価しないと把握することが難しい。
したがって、色から物の存在を把握するには専門的な知識が必要で、コンピュータによるデータ処理も極めて面倒となる。
したがって、明暗の要素を入れた色による物の存在位置の確認をしようとすると、データ処理の遅れが避けられず、結果として速さなどの効率性を要求される作業現場においては実用化することが極めて困難である。
そして、この結論を実現しようと各種手法を試みて、全色系の色要素のデータを明暗に関する色要素を除いた残りの二つの色要素のデータに変換させる色のデータ処理が可能であることがわかった。
本発明では、そのデータ処理の方法として上記請求項5に記載した方法が最適な方法なので以下その方法で説明する。
この方法では、CIE−XYZ表色系より算出されるxy色度図から、上記「数1」の数式を用いる。
そして、この中の式(a)、(b)ではR、G、Bの輝度値を入力して色度座標値x及びyが求められる。
このように、色のデータの扱いが簡素化されると、コンピュータでの対象物の存在位置の最終的な判断までを瞬時に行えるようになる。
それにはまず、二軸の座標として、図6の(a)に示す、色の国際規格のCIE−XYZ表色系より算出される二軸座標で表現されるxy色度図を使用する。
この図6の(a)に示すxy色度図では、赤、青、緑、黄、橙、紫等の色をx軸とy軸の座標で表わすことができるため、2次元平面で色を数値で把握することができる。
このxy色度図から色度座標x値とy値が求められる。
なお、この式1中のRは赤、Gは緑、Bは青で、これは光の三原色を示し、それらの各輝度値を入力して色座標のx値とy値とを求めるものである。
そして、対象部分を含むモニタ画面の前記全画像を、その画像上のすべての部分を、それぞれ一つの点としてのRGB値からx値とy値を求める。その際、x軸方向とy軸方向それぞれに30に区分した平面的な座標で表現可能になるように、その部分の色のデータは、連続的な数値(0〜1)で指定した区間上の指定した数で区分された座標上にデータを転換させる。
こうして、図4の(ロ)、図5の(イ)及び図6の(b)に示すモザイクブロック状の数種類の近い色のカラー図形、即ち、明暗に関する色要素を除いた上記色度と輝度の二つの色要素の色彩空間データが表現された二軸座標面であるブロック状の近い色のカラー図形をモニタ画面に表現することが可能となる。
この図形の空間で表現できる色データ(色彩空間データ)を得るために行われる工程が、上記色要素2元化処理工程である。
なお、上記式(a)の適用にあって、係数の比率を変換するか、又は有効桁数を調整して適用することも可能である。
このような色彩空間データのx値及びy値を求めるにあたっての計算方法として、変換式(a)の係数は小数点以下4桁であり、4桁ずらして係数を整数と見なせば32ビット長のデータで表現できる数値となり、且つ、その計算の過程で値は負にならないので、このプログラムでは浮動小数点演算を適用せずに4桁ずらした整数値で係数を表現し演算することができる。
本発明では、データ処理を以上のように行うことで、上記色彩空間データへの変換を容易に高速化することが可能となる。
このとき、色彩空間データの取り扱いとして、図5の(ロ)に示すように数学的に行列で表現し、取り扱うことができる。
つまり、色彩空間上における色彩パターンの表現方法として、図4の(ロ)及び図5の(イ)に示される色彩空間データでは、色彩を行例で表現することができる。図5の(ロ)においては、30×30で区分された行列Mによって色彩空間データを表現しており、a1、1〜a30、30の各要素には、そこに配置されている色彩の数が入力される。
なお、30×30の区分は実験例であり、対象や作業現場に応じて区分数を適切に設定することができる。
また、図4の(ニ)及び図5の(ハ)の枠線で表現された部分がモニタ画面にデータを画像化して表示した「色彩パターン」であり、これも色彩空間データと同様に行列で表現することができる。
この図5の(二)は、色彩パターンである図5の(ハ)を行列Pによって表現している。
この対象部分の色彩パターンデータを事前に登録することにより、次の実作業の現場で得られた対象部分の色の明暗に関するデータが含まれない色彩空間データと比較照合が可能になり、正確な存在位置の絞込み特定ができるようになる。
即ち、上記色彩空間データから、さらにトマトの実を特徴付けるデータを選出したのが色彩パターンデータである。
そこで、トマトでは赤色系に特徴があるので、その色相、彩度からトマトの成熟期に発色する濃い赤の色彩パターンデータにする。
つまり、色彩パターンとは色彩パターンデータを画像に表現した色の図形的表現であり、色彩空間データの図形的表現でのブロック状の色図形から対象となるトマトを特徴付ける色のブロック状部分を取捨選択し、その選出されたブロック状部分の集合体で形成される組み合わせ形状をいう。
以上でこの色彩パターンデータの登録で実際の現場作業に入る前の事前準備的な作業工程が終わる。
この実作業では、作業域色要素2元化処理工程と対象部分位置表示工程を行う。
前記作業域色要素2元化処理工程では、実際の作業において、作業すべき前記トマトの苗の周辺を含む区域を全色系のデジタルカラー画像としてデジタルカメラで撮影し、コンピュータシステムを用いて、その全色系の色データをコンピュータプログラムにより明暗に関する色要素を除いた二つの色要素の色データに転換させて二軸座標面でカラー表示可能な色彩空間データを得る。
この色彩空間データはトマトを含めた作業域の全部の色のデータである。
そして次の対象部分位置表示工程で、前記作業域色要素2次元化処理工程で得られたトマトの苗を含む現場広域の色彩空間データと前記登録されているトマトの色彩パターンデータである濃い赤の色データとを照合し、前記二軸座標面でカラー表示可能な作業域の色彩空間データとトマトの色彩パターンデータとの両者の色のデータが合致した部分のみの前記モニタ画面の画像中に存在位置を表示させる。
即ち以上の工程で、色のデータが合致した部分がトマトの存在する位置でありその部分が前記モニタ画面の画像中に表示され、トマトの存在位置が確認される。
また、トマト以外を他の色にすることによって位置の表示された画像を得ることができる。
さらに、トマトの色彩パターンデータを、二軸座標面でカラー表示可能な色彩空間データである固有色選択工程で得られたトマトの色のデータの中で、選択した部分の輝度値を変えるようにプログラムすることで、全体のカラー表示画像の中で、前記色彩空間データとトマトの色彩パターンデータとが合致した部分のみを明るく、他の部分は暗く表現することで、より明確に存在位置が周囲の中から浮き上がって明確に判別できるようにすることも可能となる。
そうすれば、前記モニタ画面に表示される画像には、前記トマトの色彩パターンデータで特定された濃い赤の色彩を有する画素部分のみが残り、この黒でない画素部分の集まった塊を対象として番号や名前を付けるラベリングが行え、前記モニタ画面の画像中の複数のトマトの存在を示す塊の中から、さらに所望する1つのトマトの実のみを選択することが可能となる。
この発明は対象部分位置表示工程の後に行う対象部分をマーキングする対象部分マーキング工程である。
前記対象部分位置表示工程まででは、モニタ画面の画像中に特定のトマトを表示できるようになり画像を見た人はトマトの存在位置を認識できるが、コンピュータが判断するまでの段階にはない。
このため、この工程で対象部分の位置データから囲い範囲に存在する対象部分をコンピュータが自動的にトマトを識別できるようにする。
このことによって、植物の対象部分の位置特定装置又はその位置特定装置を用いた植物に対する作業用ロボットに対しての実装が可能となる。
そして、各対象部分が多い場合に、前記モニタ画面の画像中に多数の存在位置が表示されたときに、このマーキング優先順位に従った順番で作業用ロボットが迷うことなく効率の良い作業を行うことが可能となる。
この優先順位をつける方法は、右順、上順の設定など各種順位の設定が可能である。
この場合、複数ラベリングした色彩パターンデータはそれらの各色彩パターンデータの並列化と、モニタ画像上の多重化が必要であるが、これを実現するために、色彩パターンデータを共有メモリに保存し、前記各色彩パターンデータについてそれぞれ独立した画像の処理を前記共有メモリ上でそれぞれ実行できるようにする。
そうなると、そのままでは、トマトやイチゴの実などの存在する領域を絞ることも、さらにそこから1つの対象部分について実とステムの部分を1組で抽出することはできない。
したがって、このような場合には、色彩パターンデータを別々に関連させて並列化して複数の囲い範囲に別々に認識させ、その認識した複数の囲い範囲の一部分重なった場合にのみ自動的に対象部分であると判断させれば良く、そのために各ラベリングされたデータをそれぞれ並列的に処理できるようにすることが必要となる。
こうすれば、実とステムの組み合わせに限らず、実、ヘタ、ステムなどの複数の異種の対象部分についても並列処理を行いより複雑な関連づけで、極めて近い色の対象部分から特定したい場合などでも正確な識別が可能となる。
そして、果実及びステムの部分を正確に把握することで、例えば、ステムを切り取って収穫しようとするトマトやイチゴなどの場合には、そのステムの存在と位置を早く正確に把握し、ステムに対して摘み取る作業することによって、果実に触らずに実を全く機械で傷めることなく高品質な状態を維持して収穫することが可能となる。
また、たとえばトマトの実は対象部分であれば赤に位置する区分をデジタルカメラ撮影して色彩パターンデータを得て記憶させることも可能であり、正確を期するようにする場合には実際の使用結果を見ながらさらに色の微調整をすることも可能となる。
以上トマトの実などの対象部分となる部分の色彩空間データと色彩パターンデータの説明したが、このほかの植物の果実、葉、花の部分に対しても、同様な工程でデータ処理することが可能である。
現場で入力したデジタルカラー画像を基に形成した色彩空間データと登録した色彩パターンデータとが一致した場合には、この色彩空間データと同じ色彩パターンデータをコンピュータに記憶させ登録することも可能である。
この場合、色彩空間データと色彩パターンデータとは完全に一致する。
即ち、図6(b)に示す色彩空間データから図6(c)のような色彩パターンデータが作成できず、図6(b)がそのまま色彩パターンデータとなり登録される。
この場合でも、上記工程と同様な工程で対象部分を絞り込んで位置の特定が可能でなる。
そしてこの場合でも色彩パターンデータは複数登録することが可能であり、これによって、複数の種類の対象部分の識別やデータを複数ラベリングしてそれらを並列させて処理することも可能となる。
以上のように、モニタ画面で、事前に色彩パターンデータを用いた表示された画像を、作業現場で入力した全色系のデジタルカラー画像に重ねて表示し、色彩パターンデータで捉えた対象部分の画像の囲い範囲を特定しラベリングすることができるが、この囲い範囲の周囲を枠取りしその枠部分を画面表示し特定された対象部分を把握しやすくする方法もある。
イチゴは実の部分と葉の部分と根に部分があり実は柄(ステム)の先端に着いており、この熟れた実の部分の存在位置どのように特定するかについて本発明の方法を説明する。
この方法の工程では、前段の前記色彩パターンを登録するまでの工程と、その後の実際にイチゴの実を捜し出す工程とがあり、前段の工程から説明する。
まず図2に示す固有色選択工程ではおいては、成熟したイチゴの実のデジタル化された全色系のカラー画像のデータを、図4の(イ)に示すように、モニタ画面に入力して再生し、その再生画像内で実からその部分に特徴的な色である赤の部分を所望する固有色として選択する。
この色のデータは、デジタル化された全色系のカラー画像のデータは作業現場での現物のイチゴをデジタルカメラで撮影した画像から得ても良いし、すでに撮影されていたカラー写真をスキャナーでデジタル化した画像から得ても良い。
この段階では、イチゴの選択された箇所の周辺部分の色が一部含まれている。
この画像処理は、ブロック状に表示された前記色彩空間データの中の最も特徴的な色彩を表すブロックを選択することによって色彩パターンが決まり、所望する成熟したイチゴが確実に識別されるようになる。
なお、一度得られた色彩パターンはハードディスクやフラッシュメモリなどのメモリに登録して記録させれば、コンピュータの電源を切ったとしても、再度その記憶させたメモリから色彩パターンのデータを呼び出すこともでき、これは何度でも使用できる。
この色彩空間データは二軸座標面に変数としてメモリに保存する。
そして次の対象部分位置表示工程では、前記作業域色要素2次元化処理工程で得られた色データと前記登録されている濃い赤である実の色彩パターンデータとを照合し、両者が合致した部分のみを抽出しそのデータをメモリに記憶させ、図4の(ハ)に示すように、前記モニタ画面の画像中に存在位置を表示させる。
また、マーキング優先順位決定工程では、対象部分マーキング工程において、モニタ画面の画像中に濃い赤の部分が複数表示されたとき、各濃い赤部分に対して、コンピュータで優先条件を設定したプログラムにしたがって自動的に優先順にマーキングをする。
これによって作業すべき1個が選択される。
この複合選別工程では、前の工程でステム及びヘタ部分の色彩パターンデータも記憶させて登録しておいてから行われる。
即ち、1つのイチゴの実の部分に対して対象部分色彩パターンデータを実の赤の部分とステムの緑の部分とを別々に記憶させて登録し、その赤の色彩パターンデータのラベリングと緑の色彩パターンデータのラベリングとを行い、実際の作業におけるモニタ画面の画像中にその両方を並列的に同時処理し、同じ画面で表示できるように設定し、対象部分位置表示工程で前記モニタ画面の画像中に存在位置が表示されたイチゴの実部のうち赤と緑の両者の囲い範囲が一部分重なった場合のみ実とステムがあるイチゴの実が存在するとプログラムにしたがって自動的に判断し、それ以外の位置データは捨象する。
こうすることで、実及びステムに対して誤って識別して取り入れている画像は消去されて実及びステムの存在位置と範囲が明確になる。
このように得られた実とステムの同時存在とその位置データを基に、作業ロボットにより実を避けてステムをカットして収穫したり、花のみの摘み取りや間引き等の各種作業を行うことが可能となる。
この処理結果は色彩空間データを表わす変数としてメモリ上に保存される。
さらにこの色彩空間データを色彩パターンデータに基づいてデータの照合をし、対象部分の色彩を有する画素のみを抽出しその処理結果を表示画像のデータとしてメモリ上に保存する。
この表示画像にラベリング処理を施すことにより、画像上のステム及びヘタの位置が特定される。これによって、成熟イチゴの実部分を掴まずにステムを切って摘み取るためのステムの位置が正確に識別することが可能となる。
そこで、本発明では実とステムとを関連付けてデータ処理を並列に同時処理を行うことにより、探しにくいステムを効率的に識別することが可能となる。
同時に、ロボットによる摘み取り作業では、実又は花を掴まずステム部分を切り取れば、実や花を傷めることなく収穫や採取が可能となる。
またこのような場合には、上記イチゴの識別をした場合と同様の複数のラベリングを行って対象部分を特定する手法が使用できる。
本実施例2は、そのような同系色のピーマンとキュウリが混合された栽培をした場合における例を示し、のようにピーマンもキュウリも同じ緑色をしているので色による識別は難しい場合について以下図3及び図7を基に説明する
本実施例2は、先ず固有色選択工程では、ピーマンとキュウリのデジタル化された全色系のカラー画像のデータをモニタ画面に再生し、その再生画像内でピーマンとキュウリからその部分に特徴的な色であるピーマンの緑とキュウリの緑の部分を所望の固有色として選択する。
そして、色彩パターン登録工程では、前記色要素2元化処理工程で得られた色彩空間データをモニタ画面に表示し、そのカラー画像から、さらに特徴的な緑の部分をさらにピーマンでは緑、キュウリでは黄緑に選別し、この緑と黄緑をピーマンとキュウリの対象部分の色彩パターンデータ(図7の(ロ)に示す)としてコンピュータに記憶させ登録する。
そして、それぞれの前記二軸座標面でカラー表示可能な色彩空間データと色彩パターンデータとの両者が合致した部分のみの前記モニタ画面の画像中に存在位置を表示させる。
そして、前記対象部分位置表示工程でモニタ画面の画像中に表示された緑と黄緑のある部分の位置データが前記囲い範囲に存在するものについて自動的にその位置を識別し、その識別位置にマーキング処理する。
この場合単に色だけの存在確認には類似色の場合には識別が難しい場合がある。
そこで、丸いピーマンと長いキュウリは大きさが異なった囲い範囲となるので、ピーマンに合う囲い範囲を選択条件とすることで自動的にピーマンの位置が識別できるようになる。
図7の(ハ)に示すように、囲い範囲がピーマンとキュウリとではキュウリは縦に長い枠で囲い範囲が異なった形状となっており、即ち、囲い範囲の違いによって、色彩パターンデータでは誤認される虞があるものを識別し、確実に欲しいものの存在位置が特定される。
また、マーキング優先順位決定工程では、対象部分マーキング工程において、モニタ画面の画像中に黄緑の部分及び長い方の枠で囲い範囲を優先順位に設定した場合、コンピュータでキュウリが自動的に選択されることになる。
さらにこの表示画像にラベリング処理を施すことによって、画像上のピーマン及びキュウリの大きさ及び位置などが区別されてそれぞれの個別の特定が可能となる。
この位置特定装置は、図8の(イ)及び(ロ)に示すように、装置自体は、台板上にCPU1とメモリ2を備えたコンピュータ本体を載置し、コンピュータ本体にはカラー画像をデジタルデータとして入力させる入力装置3と、画像を見るためのモニタ表示用のディスプレイ装置4とが接続されて載置される。
このようなコンピュータシステムC1は装置そのものとしては、普及されているディスクトップ型やノート型のパソコンが使用できる。
そしてこのコンピュータシステムC1のコンピュータ本体には、上記請求項1から5のうちいずれか1項に記載の植物の対象部分の位置特定方法によりその処理工程に従ってデジタルカラー画像の色と位置のデータの処理を実行させるプログラムP1が前記CPU1と及びメモリ2に組み込まれる。
また前記CPU1では、対象部分の色彩空間データや色彩パターンデータを得るためのデータの加工や照合、比較、演算や判断などのデータ処理がコンピュータプログラムによって行われる。
そして、モニタ用の前記ディスプレイ装置4では、デジタルカラーカメラで入力したデジタルカラー画像のデータを出力したり、処理された画像データの対象部分の色彩空間データや色彩パターンデータを色の図像として存在位置などが見て確認できるようになる。
そして、上記入力装置や出力装置を操作することによって、対象部分の色彩パターンの登録、識別結果の確認、画像処理の実行や、実行過程の確認等はモニタ画面でその都度行え、例えば固有色の明暗に関する色要素を除いた二つの色要素の色彩空間と対象部分の色彩パターンを表示したり、各識別過程や識別結果及びその他のパラメータの数値を適宜画面表示し確認することができる。
そして、デジタルカラーカメラで撮影した画像中に植物の実や花などの対象部分の位置が前記ディスプレイ装置4のモニタ画面の中に特定できるようになる。
この作業用ロボットは、図9及び図10に示すように、ベンチ式のボディ5には装置全体を移動させる駆動手段6を備える。
本発明では、上記位置特定装置のように実際に作業を行わない装置に対して、移動させる駆動手段6を備えて移動して各種作業を行う装置を「作業用ロボット」と呼ぶ。
そして、この作業用ロボットは、図11に示すように、この軌道手段6は四輪の車輪とバッテリー電源のモーター駆動部を備え、その車輪の駆動はコンピュータの指令で駆動制御部を介して行われる。その際にボディ5には距離を測定するボディ位置確認用のセンサー11を前に備えることによって、周囲の障害物などを感知し、自動走行が可能なようになる。
また、前記ボディ5の上に設ける植物を撮影するデジタルカラー画像の入力装置7は、作業ハンドに近く且つ中央支持軸上に対象部分の撮影を行えるように設置されるとともにコンピュータシステムC2のコンピュータ本体に接続する。
そして、作業を実行する作業ハンド8も前記中央支持軸上部に設置され、その作業ハンド8は前後駆動用マニュピレ−タ9c、左右駆動用マニュピレ−タ9a、上下駆動用マニュピレ−タ9bを備えて、四方に自由に作業ハンド8を移動させ作業を行えるようにする。
また前記ボディ5上には前記ボディ5の移動及び作業ハンド8の駆動などの電子制御を行う駆動制御部を備える。
そして、前記駆動制御部と前記コンピュータC2とで命令信号及びデータ処理信号の送受信を行い、駆動用プログラムP2によってコンピュータシステムC2で走行や停止及び前記各マニュピレ−タ9の駆動制御が行えるようにする。
その位置特定装置の部分は作業ロボットの前記ボディ5上に全て搭載しての良いが、作業ロボットを軽量化し操作性を高めるには前記ボディ5から外すことも可能である。
その場合、作業ロボットの駆動用プログラムP2を備えたコンピュータシステムC2と位置特定方法を行うための専用プログラムP1を備えたコンピュータシステムC2とは統合させることもできる。
そして、データの交信や駆動制御への駆動命令などは無線通信回線で接続すれば、繋いだ配線による作業ロボットの移動の障害が起こらず、自由に移動できて作業が行えるようになる。
そして、前記植物の対象部分の位置を特定しつつマニュピレ−タ9を稼動させて前記作業ハンド8を特定した対象部分の位置に自動的に移動させて作業を実行することができよるうになる。
上記請求項1から5のうちいずれか1項に記載の植物の対象部分の位置特定方法のうち、前記固有色選択工程と、前記色要素2元化処理工程及び前記色彩パターン登録工程までは、実際の作業現場では行わなくても作業ロボットの使用が可能であるので、製品としての作業ロボットは、実作業のみ行わせる態様が可能となる。
2 メモリ
3 カラー画像の入力装置
4 ディスレイ装置
C1 位置特定用コンピュータシステム
C2 駆動用コンピュータシステム
5 ボディ
6 駆動手段
7 デジタルカラー画像の入力装置
8 作業ハンド
9 マニュピレ−タ
9a マニュピレ−タ
9b マニュピレ−タ
9c マニュピレ−タ
10 キーボード
11 ボディ位置確認用のセンサー
P2 駆動用プログラム
P1 位置特定用プログラム
S ステム
M 実
Claims (9)
- デジタルカメラを含むデータ及び命令の入力装置と、ディスプレイ装置を含む出力装置と、CPUとメモリを有するコンピュータ本体とから成るコンピュータシステム及びそのコンピュータ本体に組み込まれたデータ処理用のコンピュータプログラムを用い、
a)準備作業において、
一種又は多種の植物の一つ又は複数の部分を対象とし、その対象部分のデジタル化された全色系のカラー画像のデータをコンピュータ本体に入力して記憶させ、それを前記ディスプレイ装置のモニタ画面に再生してその再生画像内で該対象部分に特徴的な色を固有色として選択する固有色選択工程と、
選択された前記固有色の全色系の色データを明暗に関する色要素を除いた二つの色要素の色データに転換させて二軸座標面でカラー表示可能な色彩空間データを得る色要素2元化処理工程と、
前記色要素2元化処理工程で得られた色彩空間データを前記モニタ画面に表示し、そのカラー画像から、さらに特徴的な一つ又は少数の色を選別し、これを識別用の色彩パターンデータとしてコンピュータに記憶させる色彩パターン登録工程と、
b)実作業において、
前記コンピュータプログラムを備えた前記コンピュータシステムを用いて、作業すべき前記対象部分が存在する周辺を含む区域を前記デジタルカメラで撮影し、その撮影した全色系のデジタルカラー画像から、明暗に関する色要素を除いた二つの色要素の色データに転換させて二軸座標面でカラー表示可能な色彩空間データを得る作業域色要素2元化処理工程と、
前記作業域色要素2次元化処理工程で得られた作業域の色彩空間データと記憶されている前記色彩パターンデータとを照合し、モニタ画面に表示された前記作業域の画像中に両者が合致した部分のみを区別して位置表示させる対象部分位置表示工程と、から成り、
作業環境の明暗に係らず前記モニタ画面中の周辺を含む区域から正確に対象部分の存在位置を表示できるようにしたことを特徴とする植物の対象部分の位置特定方法。 - 請求項1に記載の植物の対象部分の位置特定方法において、対象部分位置表示工程の後に、モニタ画面の画像中に存在位置が表示された対象部分に対して、コンピュータで認識すべき画像内の対象部分の大きさに合わせて画面内での囲い範囲を決めておき、前記対象部分位置表示工程でモニタ画面の画像中に表示された対象部分の位置データが前記囲い範囲に存在するものについて自動的にその位置を識別し、その識別位置のデータにマーキング処理する対象部分マーキング工程を有することを特徴とする植物の対象部分の位置特定方法。
- 請求項2に記載の対象部分マーキング工程において、モニタ画面の画像中に複数の表示された各対象部分に対して、コンピュータで優先条件を設定したプログラムにしたがって自動的に優先順のマーキング表示をするマーキング優先順位決定工程を有することを特徴とする植物の対象部分の位置特定方法。
- 請求項1に記載の色彩パターン登録工程において、コンピュータにより、一つの対象部分に対してその対象部分の色彩パターンデータを異なった箇所から複数記憶してその複数の対象部分の色彩パターンデータをラベリングし、そのラベリングした各色彩パターンデータを、実作業におけるモニタ画面の画像中に同時に表示できるように設定し、前記対象部分位置表示工程で前記モニタ画面の画像中に存在位置が表示された植物の対象部分の異なる箇所の囲い範囲が一部分重なった部分を抽出し、その抽出された部分のみに対象部分が存在すると自動的に判断する複合選別工程を有することを特徴とする請求項1から3のうちいずれか1項に記載の植物の対象部分の位置特定方法。
- 請求項1から5のうちいずれか1項に記載の植物の対象部分の位置特定方法による植物の対象部分の位置特定装置。
- 請求項1から5のうちいずれか1項に記載の植物の対象部分の位置特定方法による植物の対象部分の位置特定装置であって、CPU(1)とメモリ(2)を備えたコンピュータ本体と、カラー画像用のデジタル入力装置(3)と、画像を見るためのモニタ用のディスプレイ装置(4)とを備えたコンピュータシステム(C1)とから成り、前記コンピュータ本体には前記コンピュータシステムで請求項1から5のうちいずれか1項に記載の植物の対象部分の位置特定方法での処理工程に従ってデジタルカラー画像の色と位置のデータの処理を実行させるプログラム(P1)を備えたことを特徴とする植物の対象部分の位置特定装置。
- 請求項6又は7に記載の植物の対象部分の位置特定装置を用いた作業用ロボット。
- 請求項6又は7に記載の植物の対象部分の位置特定装置を用いた作業用ロボットであって、走行移動用の駆動手段(6)を備えた装置搭載用のボディ(5)上に、植物撮影用のデジタルカラー画像の入力装置(7)、作業実行用の作業ハンド(8)、該作業ハンド駆動用のマニュピレ−タ(9)、及びボディ位置確認用のセンサー(11)を備え、また前記ボディ(5)、マニュピレ−タ(9)、作業ハンド(8)、デジタルカラー画像の入力装置(7)及びボディ位置確認用のセンサー(11)の各部分をコンピュータの命令で操作を実行する駆動制御部を有し、さらに前記ボディ(5)上又は別の場所に、前記装置を構成する各部分の操作を命令する駆動用プログラム(P2)と前記デジタルカラー画像の入力装置(7)で入力したデジタル画像から植物の対象部分の位置特定する請求項1から5のうちいずれか1項に記載の植物の対象部分の位置特定方法を行うデータ処理用プログラム(P1)を備えたコンピュータ本体(C2)を有して成り、前記駆動制御部と前記コンピュータ(C2)とで命令信号及びデータ処理信号の送受信を行い、前記位置特定装置で植物の対象部分の位置を特定しつつ前記マニュピレ−タ(9)を稼動させて前記作業ハンド(8)を特定した対象部分の位置に自動的に移動させ、前記作業ハンド(8)で植物の対象部分への作業を実行できようにしたことを特徴とする作業用ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006352905A JP4961555B2 (ja) | 2005-12-28 | 2006-12-27 | 植物の対象部分の位置特定方法とその方法による対象部分の位置特定装置及びその装置を用いた作業用ロボット |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005380225 | 2005-12-28 | ||
JP2005380225 | 2005-12-28 | ||
JP2006352905A JP4961555B2 (ja) | 2005-12-28 | 2006-12-27 | 植物の対象部分の位置特定方法とその方法による対象部分の位置特定装置及びその装置を用いた作業用ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007200309A JP2007200309A (ja) | 2007-08-09 |
JP4961555B2 true JP4961555B2 (ja) | 2012-06-27 |
Family
ID=38454804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006352905A Active JP4961555B2 (ja) | 2005-12-28 | 2006-12-27 | 植物の対象部分の位置特定方法とその方法による対象部分の位置特定装置及びその装置を用いた作業用ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4961555B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016017150A1 (ja) * | 2014-07-29 | 2016-02-04 | 日本電気株式会社 | 生育状態推定装置、植物生育観測システム、生育状態推定方法、生育指標推定方法および記録媒体 |
CN106339715A (zh) * | 2016-08-03 | 2017-01-18 | 南阳理工学院 | 一种适应于采摘机器人的数据分类优化算法 |
CN109392461A (zh) * | 2018-11-19 | 2019-03-01 | 江苏科技大学 | 一种用于垄作草莓的自动采摘装置及其工作流程 |
CN109451994A (zh) * | 2018-11-19 | 2019-03-12 | 江苏科技大学 | 一种基于图像识别的草莓果梗分离装置及其工作流程 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4972013B2 (ja) * | 2008-02-28 | 2012-07-11 | 日本電信電話株式会社 | 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体 |
JP5123878B2 (ja) * | 2009-03-30 | 2013-01-23 | 株式会社日本総合研究所 | 農作業支援装置 |
JP2012088100A (ja) * | 2010-10-18 | 2012-05-10 | Nec Corp | 青果物収穫判定装置、青果物収穫判断方法および青果物収穫判断プログラム |
JP2015154727A (ja) * | 2014-02-20 | 2015-08-27 | パイオニア株式会社 | 収穫タイミング判断装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4013351B2 (ja) * | 1998-09-22 | 2007-11-28 | 井関農機株式会社 | 果実収穫用ロボット |
JP3461143B2 (ja) * | 1999-05-27 | 2003-10-27 | 日本電気株式会社 | カラー画像目標位置検出装置 |
JP3757279B2 (ja) * | 2002-12-02 | 2006-03-22 | 独立行政法人農業・生物系特定産業技術研究機構 | 果菜類の選択収穫方法及び装置 |
JP3958694B2 (ja) * | 2003-02-07 | 2007-08-15 | 独立行政法人科学技術振興機構 | 色による花粉の遺伝的特徴の評価方法およびその評価方法のプログラムを記録した記録媒体 |
JP4612280B2 (ja) * | 2003-02-25 | 2011-01-12 | 本田技研工業株式会社 | 自動作業装置及び自動作業装置制御プログラム |
-
2006
- 2006-12-27 JP JP2006352905A patent/JP4961555B2/ja active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016017150A1 (ja) * | 2014-07-29 | 2016-02-04 | 日本電気株式会社 | 生育状態推定装置、植物生育観測システム、生育状態推定方法、生育指標推定方法および記録媒体 |
CN106339715A (zh) * | 2016-08-03 | 2017-01-18 | 南阳理工学院 | 一种适应于采摘机器人的数据分类优化算法 |
CN106339715B (zh) * | 2016-08-03 | 2021-09-10 | 南阳理工学院 | 一种适应于采摘机器人的数据分类优化方法 |
CN109392461A (zh) * | 2018-11-19 | 2019-03-01 | 江苏科技大学 | 一种用于垄作草莓的自动采摘装置及其工作流程 |
CN109451994A (zh) * | 2018-11-19 | 2019-03-12 | 江苏科技大学 | 一种基于图像识别的草莓果梗分离装置及其工作流程 |
CN109392461B (zh) * | 2018-11-19 | 2021-09-21 | 江苏科技大学 | 一种用于垄作草莓的自动采摘装置及其工作流程 |
Also Published As
Publication number | Publication date |
---|---|
JP2007200309A (ja) | 2007-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4961555B2 (ja) | 植物の対象部分の位置特定方法とその方法による対象部分の位置特定装置及びその装置を用いた作業用ロボット | |
Tang et al. | Recognition and localization methods for vision-based fruit picking robots: A review | |
Gao et al. | Multi-class fruit-on-plant detection for apple in SNAP system using Faster R-CNN | |
Fu et al. | A novel image processing algorithm to separate linearly clustered kiwifruits | |
Silwal et al. | Design, integration, and field evaluation of a robotic apple harvester | |
Qiang et al. | Identification of fruit and branch in natural scenes for citrus harvesting robot using machine vision and support vector machine | |
CN111666883B (zh) | 一种葡萄采摘机器人目标识别及果梗夹切点定位方法 | |
Alencastre-Miranda et al. | Robotics for sugarcane cultivation: Analysis of billet quality using computer vision | |
Nguyen et al. | Apple detection algorithm for robotic harvesting using a RGB-D camera | |
CN112639869A (zh) | 作物生长阶段判定系统的服务器装置、生长阶段判定方法以及程序 | |
CN111418349B (zh) | 一种水果采摘智能机器人及其实现水果采摘的方法 | |
Miao et al. | Efficient tomato harvesting robot based on image processing and deep learning | |
Changyi et al. | Apple detection from apple tree image based on BP neural network and Hough transform | |
Tejada et al. | Proof-of-concept robot platform for exploring automated harvesting of sugar snap peas | |
Lai et al. | Real-time detection of ripe oil palm fresh fruit bunch based on YOLOv4 | |
Cho et al. | Plant growth information measurement based on object detection and image fusion using a smart farm robot | |
CN115861686A (zh) | 基于边缘深度学习的荔枝关键生长期识别检测方法及系统 | |
Al-Mashhadani et al. | Autonomous ripeness detection using image processing for an agricultural robotic system | |
WO2022104867A1 (zh) | 目标物的特征检测方法和装置 | |
CN117671499A (zh) | 基于深度学习的花卉等级自动分类分拣与病虫害监测系统 | |
CN116524344A (zh) | 一种基于rgb-d信息融合的番茄串采摘点检测方法 | |
CN114700941B (zh) | 一种基于双目视觉的草莓采摘方法、机器人系统 | |
Silwal | Machine vision system for robotic apple harvesting in fruiting wall orchards | |
Fujinaga | Cutting point detection for strawberry fruit harvesting and truss pruning by agricultural robot | |
CN115937314A (zh) | 一种油茶果生长姿态检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120228 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |