JP7049814B2 - 収穫ロボットシステム - Google Patents

収穫ロボットシステム Download PDF

Info

Publication number
JP7049814B2
JP7049814B2 JP2017230531A JP2017230531A JP7049814B2 JP 7049814 B2 JP7049814 B2 JP 7049814B2 JP 2017230531 A JP2017230531 A JP 2017230531A JP 2017230531 A JP2017230531 A JP 2017230531A JP 7049814 B2 JP7049814 B2 JP 7049814B2
Authority
JP
Japan
Prior art keywords
image
target crop
harvesting
acquisition unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017230531A
Other languages
English (en)
Other versions
JP2019097447A (ja
Inventor
貴巨 長谷川
武史 吉田
隆則 深尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Ritsumeikan Trust
Original Assignee
Denso Corp
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Ritsumeikan Trust filed Critical Denso Corp
Priority to JP2017230531A priority Critical patent/JP7049814B2/ja
Publication of JP2019097447A publication Critical patent/JP2019097447A/ja
Application granted granted Critical
Publication of JP7049814B2 publication Critical patent/JP7049814B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Harvesting Machines For Specific Crops (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、収穫ロボットシステムに関する。
従来、収穫ロボットがパプリカやトマトなどの作物を自動的に収穫するための技術研究が進められている(例えば、非特許文献1参照)。この非特許文献1によれば、パプリカの果柄(peduncle)をきれいに切断するため、撮像された画像の色とジオメトリ情報とを利用すると共に教師あり学習を用いて3次元空間にて果柄を検出している。
特に、非特許文献1記載の技術では、果柄をカットする収穫ツールが取り付けられたロボットアーム、および、このロボットアーム先端のパプリカの近くに取付けられたRGB-Dハンドカメラ、を用いて果柄を検出するようにしている。非特許文献1のFIG.1、FIG.5などを参照。
しかし、非特許文献1記載の技術を適用した場合には、ハンドカメラがロボットアームの先端に取付けられているため位置的に画角が狭くなり、ロボットを備え付けるための台車やロボットアームを動かしながら作物を探索することになれば、収穫対象の作物を探索するために多大な時間を要してしまう。
Inkyu Sa、他6名、"Peduncle Detection of Sweet Pepper for Autonomous Crop Harvesting?Combined Color and 3-D Information"、IEEE ROBOTICS AND AUTOMATION LETTERS、2017年1月11日、VOL.2、NO.2、P.765-772
本発明は上記事情に鑑みてなされたもので、その目的は、収穫対象の目標作物を短時間で収穫できるようにした収穫ロボットシステムを提供することにある。
請求項1記載の発明は、進行方向に沿って収穫対象となる目標作物を収穫する収穫ロボットシステムを対象としている。画像取得部は、台車の所定位置に設置され当該所定位置から収穫対象となる目標作物を含む画像を取得する。収穫位置取得部は、画像取得部による取得された画像を用いて目標作物を探索して当該目標作物の位置情報を取得する。収穫ロボットは、所定位置から進行方向の後部において、収穫位置取得部により取得された目標作物の位置情報を用いて目標作物を収穫する。そして、収穫位置取得部による目標作物の探索処理と収穫ロボットによる目標作物の収穫処理とを並行して行うようにしているため、収穫対象の目標作物を短時間で収穫できるようになる。また、三次元画像生成部は、画像取得部により取得される画像を用いて三次元画像を生成し、基本クラスタリング部は、三次元画像生成部による三次元画像のあるボクセルから同類色の領域を拡張し当該領域と他の領域とを分離する。また、熟度判定領域クラスタリング部は、同類色の領域を拡張した端部から下側にて同類色とは異なる色領域のボクセルを拡張する。そして、収穫位置取得部が目標作物の位置情報を取得するときに、熟度判定領域クラスタリング部により拡張された領域を用いて目標作物の熟度を判定し当該熟度が所定より高い作物を目標作物としてその位置情報を特定する。
第1実施形態における収穫ロボットシステムの構成図 目標作物の収穫方法の説明図のその1 目標作物の収穫方法の説明図のその2 目標作物の外観図 土壌と台車の走行通路の関係を示す平面図 収穫ロボットの正面図 収穫ロボットの側面図 収穫部の構造の詳細を示す斜視図 収穫ロボットシステムの電気的構成図 収穫処理を示すフローチャート 収穫処理及び探索処理の流れの説明図 探索処理を示すフローチャート 探索処理の処理内容の説明図 機械学習に用いられる作物の画像データの一例を示す図 機械学習に用いられる背景の画像データの一例を示す図 領域拡張法の説明図のその1 領域拡張法の説明図のその2 作物と背景とをクラスタリング処理した超平面を示す図 基本クラスタリング処理後のボクセルを表す図 熟度判定クラスタリング処理後のボクセルを表す図 第2実施形態における収穫ロボットシステムの構成図 画像検出軸と収穫軸との関係の説明図のその1 画像検出軸と収穫軸との関係の説明図のその2 ロボットアーム部に取付けられたハンドカメラの構造を示す斜視図 収穫処理を示すフローチャート ハンドカメラを目標作物から遠い距離にして撮像するときの構成図 収穫部を近くにして収穫するときの構成を示す図 第3実施形態における果柄決定処理を示すフローチャート 作物と果柄の画像を低解像度のボクセルで示した図 作物と果柄の画像を高解像度のボクセルで示した図 処理の流れの説明図 切断ポイントの決定方法の説明図 ボクセルをレイヤ毎に分割したイメージ図
以下、収穫ロボットシステムの幾つかの実施形態を説明する。以下の実施形態中では、各実施形態間で同一機能または類似機能を備えた部分に同一符号又は類似符号(例えば、十の位及び一の位を同一値)を付して説明を行い、第2実施形態以降においては同一機能または類似機能を備えた部分の説明を必要に応じて省略する。
(第1実施形態)
図1から図18は第1実施形態の説明図を示す。まず図2及び図3を参照して収穫対象の作物となるミニトマトの育て方を説明する。図2は、収穫システム1の一部構成を示しており、例えば房なりの作物としてのミニトマトの栽培領域を示している。以下では、ミニトマトを作物として説明するが、その他の作物も収穫対象として適用できる。この収穫システム1は、ビニールハウスの中でハイワイヤー方式を採用してミニトマトを房ごと自動的に収穫するシステムである。
図2に示すように、一般に、ビニールハウス栽培では、ビニールハウスの中に培養土を配合した土壌2を例えば直線状の所定領域に配設すると共に、当該所定領域に設けられた土壌2にミニトマトの苗3を離間して並べて苗を育てる。近年では土壌に代えて養液が用いられることもある。ハイワイヤー方式では、ビニールハウスの中で一列の苗3の上方に沿って直線上に延伸ワイヤ4を固定すると共に、当該延伸ワイヤ4に吊り下げられた誘引ワイヤ5により苗3の茎6を引き上げながら苗3を育てる。
このとき、一列に離間して並べられた苗3の茎6にそれぞれ誘引ワイヤ5のロック5aを固定し、茎6を土壌2の上方に直線状に引き上げ、誘引ワイヤ5に茎6を吊り下げた状態で苗3を育てる。そして苗3が育ち、茎6が伸びると、この苗3の成長に合わせて誘引ワイヤ5のロック5aを上に移動させる。
図3に示すように、苗3の成長に伴い、ミニトマト7が熟すことで収穫可能になる。またさらにミニトマト7を収穫しながら茎6の先端が延伸ワイヤ4まで達すると、誘引ワイヤ5をスライドさせることで茎6の成長に合わせてミニトマト7の高さを調整できる。この収穫システム1においては、成長したミニトマト7が例えば900~1200mmの所定の高さ範囲Hに位置するように調整される。これにより、茎6を引き上げて収穫可能なミニトマト7の高さを調整できる。図4はミニトマト7が茎6になる様子を詳細に示している。この目標作物となるミニトマト7は数個~十数個程度の個々の実7aの集合体で房なりになっており、茎6の根元の果柄6a側から順に実7aをつける。このとき、茎6から養分が供給されるため根元の成長が速く先端の成長は遅い。
さて図1はこの収穫システム1を構成する収穫ロボットシステム10の外観構成を示している。図1に示すように、収穫ロボットシステム10は、主に、自律走行可能な電動台車(以下、台車と略す)11、第1の画像取得部としての固定カメラ12、及び、収穫ロボット13を備える。また図5は、土壌2と台車11が走行する通路14との関係を平面図により示している。図1に示すように、台車11は、収穫用に舗装された通路14を走行可能な車輪15を備えると共に自動走行可能にする電動動力源(図示せず)を備えた電動作業車により構成され、図5に示すように一直線方向に走行可能に構成される。この台車11の上には固定カメラ12が搭載されている。
この固定カメラ12は、台車11の所定位置に設けられた支柱16に備え付けられたステレオカメラにより構成され、進行方向に離間して複数のカメラ12a,12bを備える。この固定カメラ12の各カメラ12a,12bは、例えば進行方向に交差する交差方向(例えば、垂直方向)で、且つ、例えば通路14に平行な水平面方向を含む方向が撮像の検出軸となるように設置されている。この固定カメラ12は、前述したように成長したミニトマト7の実7aを含む少なくとも前述の所定の高さ範囲Hを撮像可能に設置されている。
また、例えば固定カメラ12の進行方向の後部には収穫ロボット13が設置されている。この収穫ロボット13は、例えば6軸の垂直多関節型の産業用ロボットである。図6A~図6Bはそれぞれ、この収穫ロボット13を正面図、右側面図により示している。以下の収穫ロボット13は、第1~第6アーム部(ロボットアーム部相当)23~29を図示形態に連結した構造を示しているが、これに限定されるものではなく、高さ範囲Hのミニトマト7を収穫可能な構成であればこのロボット13の構造に限られるものではない。
図6A及び図6Bは収穫ロボット13及びハンドカメラ17の標準位置を示している。図6Cは収穫ロボット13の先端に取り付けられるハンド21の先端部分の切断挟持機構21aの構造を斜視図により示している。
図6Aに示すように、収穫ロボット13は、例えば、台車11の上面に固定される円柱状のベース部22と、ベース部22に支持された第1アーム部23と、この第1アーム部23の他端に下端が支持され水平方向の第2軸を中心として垂直面内に旋回可能な第2アーム部24と、当該第2アーム部24のアーム軸方向を中心として旋回可能に当該第2アーム部の上端に一端が支持されると共に一端から他端に向けて直曲方向に延びる第3アーム部25と、第3アーム部25の他端に支持され当該第3アーム部25の他端側の軸を中心に旋回可能に一端が支持された第4アーム部26と、この第4アーム部27の軸を中心に旋回可能に当該第4アーム部27の他端に一端が支持された第5アーム部28と、この第5アーム部28の軸を中心に旋回可能に当該第5アーム部28の他端に一端が支持された第6アーム部29と、この第6アーム部29の他端に支持され一端が支持された取付用部材30と、を備える。
各アーム部23~29の各軸にはモータ(図示せず)が配設されており、それぞれのアーム部23~29がロボットコントローラ32(後述図7参照)により制御されることで対応する各アーム部23~29を旋回制御できる。
取付用部材30は、第6アーム部29の軸を中心として標準状態では鉛直方向に旋回可能に構成されており、取付用部材30にはミニトマト7の収穫用のハンド21がエンドエフェクタとして取付けられている。このハンド21の先端部には、図6Cに示すように、ミニトマト7の果柄6aを切断すると共に切断後の果柄6aを挟持する切断挟持機構21aをエンドエフェクタ、切断部として備える。切断挟持機構21aは、切断刃組101及び挟持刃組102を一対で備える。これらの切断刃組101と挟持刃組102とは連結部103を挟んで係合されており、茎6の果柄6aを切断して挟持する領域には隙間が設けられている。切断刃組101は把持刃組102の上側に位置して配置されている。
切断刃組101は、連結部103により連結された1組の切断刃を備えており、連結部103を中心として切断刃を回動することで当該1組の切断刃が噛合うように設けられており、後述のロボットコントローラ32が切断刃を噛合制御することで茎6の果柄6aを切断可能になっている。
また挟持刃組102もまた、連結部103により連結された1組の挟持刃を備えており、連結部103を中心として挟持刃を回動することで当該1組の挟持刃がわずかな隙間を有して対向するように設けられる。このとき、後述のロボットコントローラ32が挟持刃を回動制御することで挟持刃は果柄6aの外皮の一部を切断しながら果柄6aの中心部側を挟持可能になっている。例えばミニトマト7の果柄6aは繊維質構造であるため、特に挟持刃が果柄6aの外皮を切断し中心部側を挟持するだけで安定して挟持できる。
<ハンドカメラ17の配置及びその機能説明>
図1及び図6Aに示すように、ハンド21の上には画像取得部としてハンドカメラ17が取付けられている。本実施形態では、このハンドカメラ17は、撮像軸となる画像の検出軸方向とハンド21の切断挟持機構21aの軸方向とが同一方向になるように設置されている。
このハンドカメラ17は、第1~第6アーム部23~29が旋回制御されることにより所定の高さ範囲Hを撮像可能になっており、これにより成長したミニトマト7を含む画像を検出できる。このハンドカメラ17は、カラー画像に加えて奥行き画像を含むRGB-Dの点群による画像を取得可能なカメラであり、撮像画像に応じて三次元位置にRGBカラー情報を付して出力する所謂RGB-Dカメラにより構成される。
<収穫ロボットシステム10の電気的構成説明>
図7は収穫ロボットシステム10の電気的構成図を示している。
図7に示すように、収穫ロボットシステム10は、イメージプロセッサ31、ロボットコントローラ32を制御主体として備える。イメージプロセッサ31は、固定カメラ12及びハンドカメラ17に接続されており、固定カメラ12及びハンドカメラ17により撮像された画像の各種処理を行い、ロボットコントローラ32は、収穫ロボット13の第1~第6アームの旋回制御、ハンドによる切断挟持制御、及び台車11の車輪15の駆動用モータを制御する。イメージプロセッサ31は不遷移的実体的記録媒体としてメモリ33を備える。詳細には後述するが、このメモリ33には機械学習に基づく学習パターンが記憶されており、イメージプロセッサ31はこの学習パターンに応じて画像処理することでミニトマト7の三次元的な位置情報を取得する収穫位置取得部として機能する。
これらのイメージプロセッサ31及びロボットコントローラ32は、画像処理に係るタスクと収穫作業制御に係るタスクとを並行処理することで処理負荷を分散するように構成されている。イメージプロセッサ31とロボットコントローラ32とはルータ34を介して接続されている。
上記構成の作用、動作について説明する。
<収穫処理の説明その1>
図8は収穫処理の動作をフローチャートにより示し、図9は収穫方法の一連の流れを概略的に示している。これらの図8及び図9の記載では、説明を理解しやすくするため、n-1、N、N+1、N+2…番目と順にエリアに番号を付し、その収穫方法を順次示している。
図9の時点t1において、イメージプロセッサ31は、図8のS1においてエリア変数N=1に設定し、S2において固定カメラ12によりN番目エリアの画像を取得する。次に、イメージプロセッサ31は画像の取得が終了するとロボットコントローラ32に移動指令し、ロボットコントローラ32は、台車11を移動制御し固定カメラ12の撮像エリアをN+1番目のエリアに移動させる(図9の時点t2)。そして時点t2において、イメージプロセッサ31は、図8のS3において固定カメラ12によりN+1番目エリアの画像を取得し、S4においてN番目エリアの中にミニトマト7を探索する。図10にはこの探索処理をフローチャートで示している。
<探索処理の説明>
この図10に示すように、イメージプロセッサ31は、S11において二次元画像を複数用いて三次元画像を生成する(三次元画像生成部としての機能)。このとき、図11にS11の処理前の複数の二次元画像データ、及び、処理後の三次元画像のデータの概要を示すように、二次元画像が合成された三次元画像の個々のピクセル(所謂ボクセル)に分割された状態で各ボクセルに色情報等の各種情報が設定されるようになる。この処理は、SfM(Structure from Motion)と称される処理により行われるが、このS10の処理時間は後述のS11以降の処理に比較して大幅に時間を要する。
その後、イメージプロセッサ31は、図10のS12においてミニトマト7の領域を背景と分離する基本クラスタリング処理を行う。この基本クラスタリング処理は、いわゆるSVM(Support Vector Machine)により実行される処理である(基本クラスタリング部としての機能)。
ミニトマト7の実7aは熟すことで基本色が赤となり、固定カメラ12により撮像された画像内ではこの赤に類する同類色が連続することになる。イメージプロセッサ31は、例えば、図12に示されるように、大量のミニトマト7の画像群G1を反復的に予め機械学習すると共に、図13に示されるように大量のビニールハウス内のミニトマト7以外の例えば茎6や花、各種内装設備などの背景画像群G2を反復的に機械学習してメモリ33に記憶している。
イメージプロセッサ31は、このS12においてこれらのメモリ33に記憶された機械学習のパターンに応じて、成長したミニトマト7の赤に類する同類色となる所定条件を満たすボクセルBの領域を拡張し、ミニトマト7の存在領域を三次元領域として取得する。図14及び図15はこの領域拡張処理を概略的に示している。これらの図14及び図15において、白区画はミニトマト7の赤に類する色であり、黒区画は茎6などの緑や青やその合成色などによる背景色を示している。
図14に示すように、イメージプロセッサ31は、初めにランダムに三次元位置のボクセルB1を決定した後、図15に示すように、このボクセルB1から同類色の領域のボクセルB2を拡張して探索する領域拡張法(Region Growing)を用いて各ミニトマト7の存在領域を分離する基本クラスタリング処理を行う。図16にRGB色空間上における基本クラスタリング処理後の超平面分離領域を示している。イメージプロセッサ31は、赤に類する同類色の領域を拡張する基本クラスタリング処理を行うことで個々のミニトマト7の存在領域を決定できる。これにより、図11のS12の処理後のデータに示すように、ミニトマト7と背景とを分離できる。
その後、イメージプロセッサ31は、図10のS13においてミニトマト7の熟度判定領域クラスタリング処理を行う(熟度判定領域クラスタリング部としての機能)。前述したように、ミニトマト7の実7aは熟すことにより基本色は赤となるが熟していないと緑に類する色となる。ミニトマト7の実7aは茎6から養分が供給されることから根元の成長が速く先端の成長は遅いため、根元の実7aは赤いものの先端の実7aは緑のままとなっていることもある。そこで、この熟度判定領域クラスタリング処理では、房なりの先端のミニトマト7の実7aが全体の何割程度熟しているか否かを判定するために設けられる。
このS13の処理の概要を図17及び図18に示している。図17は、基本クラスタリング処理を行った結果、すなわち房なりのミニトマト7の実7aの三次元画像を緑及び青関連色の背景と分離した結果を示している。この図17に示すように、赤関連色によるミニトマト7の領域が緑及び青関連の背景色領域と分離されているため、房なりのミニトマト7の先端領域R1に実が存在しているか、またその実7aが緑色であるか否かを判定できていない。
そこで図10のS13においては、イメージプロセッサ31は、赤関連色を備える三次元位置の下端位置から、さらに下側領域に向けて緑関連色を含めて領域拡張法により拡張する。このときの拡張処理には当初のミニトマト7の赤に類する同類色の領域と共に背景分離前の三次元領域を用いると良い。これにより図18の先端領域R1に示すように、房なりのミニトマト7の先端の実7aの緑色部分を識別できる。なお、図18は黒塗色の丸が赤関連色のボクセルBを示し、白抜き丸が緑関連色のボクセルBを示している。
例えば仮に、一般的な二次元カメラによりこの先端領域R1を観察すると、ミニトマト7の奥の背景領域には例えば茎6による緑関連色や建屋などの他色が現れる場合もあるが、図10のS11にて予め三次元画像に加工してボクセル化しているため、当該ボクセルBの位置情報を参照することで背景の茎6などの緑の影響を受けることなく、ミニトマト7の実7aの中で緑関連色の領域を判別できる。
そして、イメージプロセッサ31は、S14においてミニトマト7の熟度判定処理を行う。このとき、イメージプロセッサ31は、房なりのミニトマト7の先端の実7aが所定割合以上熟していなければ「熟度低」と判定して収穫対象の目標作物から外して探索処理を終了するが、所定割合以上、熟していれば「熟度高」と判定して収穫対象の目標作物とする。収穫対象から外された作物は、後日の再収穫対象の目標作物としてメモリ33に記録を残しておいても良い。そして、イメージプロセッサ31は、S15において熟した房なりのミニトマト7の実7aの三次元の位置情報を取得、特定する。
<収穫処理の説明その2>
イメージプロセッサ31は、図9のt2、図8のS4においてN番目エリアのミニトマト7の探索処理を終了すると、ルータ34を介してロボットコントローラ32に指令を行い次の処理に移行させる。次に、ロボットコントローラ32は、図8のS5aにおいてN番目エリアのミニトマト7を収穫すると同時に、イメージプロセッサ31はS5bにおいてN+1番目エリアのミニトマト探索処理を行う。これらのS5a及びS5bの処理は、それぞれ収穫ロボット13、イメージプロセッサ31により並行して実行される。
S5bにおけるN+1番目エリアのミニトマト7の探索処理は、探索対象エリアが異なるだけでありN番目エリアのミニトマト7の探索処理と同様であるが長時間を要する。このため、この時間を利用してS5aにおいてN番目エリアのミニトマト7の収穫処理を行う(図9の時点t3)。これにより、N番目エリアのミニトマト7を収穫しながらN+1番目エリアのミニトマト7の探索処理を実行でき、効率的に時間を利用できる。そして、収穫ロボット13がロボットコントローラ32によりS5aの処理を終了すると共に、イメージプロセッサ31がS5bの処理を終了すると、ロボットコントローラ32は、図8のS6において台車11を移動させて固定カメラ12によりN+2番目エリアの画像を取得する(図9の時点t4)。
そして次に、ロボットコントローラ32が図8のS7aにおいてN+1番目エリアのミニトマト7を収穫すると同時に、イメージプロセッサ31はS7bにおいてN+2番目エリアのミニトマト7の探索処理を実行する(図9の時点t5)。これらのS7a及びS7bの処理も前述同様に同時に行われる。そして、通路14に面した全てのエリアの収穫を完了するまで、S9においてNを順次インクリメントして収穫エリアを更新しS6から処理を繰り返す。これらの一連の処理が繰り返されることにより、全てのエリアのミニトマト7を収穫できる。
<本実施形態のまとめ、効果>
以上説明したように、本実施形態によれば、ミニトマト7の探索処理と収穫ロボット13によるミニトマト7の収穫処理とを並行して行うようにした。これにより収穫作業に伴う時間効率を良好にでき、ミニトマト7を短時間で収穫できるようになる。
特にこの実施形態では、ハンドカメラ17の他に固定カメラ12を用いており、この固定カメラ12を用いた画像処理により、収穫ロボット13の進行方向に存在するミニトマト7の位置を収穫ロボット13による収穫前に検出できるようになる。これにより極力無駄なく収穫動作を行うことができる。
特に、ミニトマト7の探索処理の一部として、たとえ二次元画像データから三次元画像データを生成するSfM処理に長時間を要したとしても、この処理と並行してミニトマト7の収穫処理を行うようにしているため、収穫作業に伴う時間効率を良好にでき、ミニトマト7を短時間で収穫できる。
また、イメージプロセッサ31は二次元画像を複数用いて三次元画像を生成し、三次元画像のあるボクセルBから同類色の領域を拡張して背景と分離する基本クラスタリング処理を行い(S12)、当該同類色の領域を拡張した端部から下側領域をさらに領域を拡張することで同類色とは異なる色領域を拡張して熟度判定領域クラスタリング処理を行い(S13)、この処理により拡張された領域に応じてミニトマト7の実7aの熟度を判定し当該熟度が所定割合より高い作物を目標作物としてその位置情報を取得するようにしている(S15)ため、熟度が所定割合以上高い作物を目標作物として収穫できるようになる。
(第2実施形態)
図19から図24は第2実施形態の追加説明図を示す。第2実施形態が第1実施形態と異なるところは、1台のカメラ17を用いて目標作物を撮像しその位置情報の取得処理とその収穫処理とを行うところにある。また本実施形態では、収穫ロボット13に対するハンドカメラ17の取付位置及びその使用方法が異なる。
図19及び図20Aは、ハンドカメラ17及びハンド21の標準位置をそれぞれ正面図及び側面図により示しており、図20Bは、第6アーム部29によりハンド21が回動されたときのハンドカメラ17とハンド21との位置関係を示している。また図21は、ハンドカメラ17の設置形態を示している。
本実施形態の収穫ロボットシステム110は、図19に示すように、台車11上に収穫ロボット13が設置されており、第1実施形態で説明した固定カメラ12を設けていない。
図20Aに示す標準位置では、ハンドカメラ17の撮像軸となる画像の検出軸J1と切断挟持機構21aの切断挟持軸J2とが概ね同一方向にされている。ここでいう切断挟持軸J2とは、図20A及び図20Bに示すように、切断挟持機構21aによる切断面に含まれる方向で且つハンド21が切断挟持機構21aを直線状に固定する軸方向を表している。図21に示すように、第6アーム部29の上には冶具29aを介してハンドカメラ17が固定されている。このためハンドカメラ17は、ロボットコントローラ32が各アーム部23~29を旋回制御することで第6アーム部29に連動して動くことになる。
収穫時には、図20Bに示すように、ロボットコントローラ32が第6アーム部29を旋回制御することで取付用部材30が回動し、この回動軸を中心としてハンド21の全体が鉛直面内方向に沿って回動する。このため、ハンド21の先端に取付けられた切断挟持機構21aの切断挟持軸J2が、ハンドカメラ17による画像の検出軸J1とは異なる方向になり、特に画像の検出軸J1から鋭角に切断挟持軸J2をなすことになる。
このときロボットコントローラ32が切断挟持機構21aを制御することでミニトマト7の果柄6aを切断及び挟持できるが、切断挟持機構21aは、ハンドカメラ17による画像の検出軸J1から鋭角に切断挟持軸J2を備えることになり、ミニトマト7の果柄6aを容易に切断及び挟持できるようになる。
図19に示したように、正面側から見たときには、ハンドカメラ17がハンド21の横方向に併設されているため、当該ハンド21が、ハンドカメラ17による画像検出処理の邪魔になることなく目標作物となるミニトマト7を含む画像を検出できる。特に図20Bに示すように、側面側から見ても、ハンドカメラ17の画像の検出軸J1から鋭角に切断挟持軸J2を備えているため、ハンド21が邪魔になることなくハンドカメラ17によりミニトマト7を含む画像を検出できる。これにより、ハンドカメラ17の撮像領域に収穫ツールを映り込ませることなく適切な切断位置を把握できるようになる。その他の構成は、第1実施形態と同様であるためその説明を省略する。
<制御方法の説明>
以下では、前述の基本的構造を利用した制御方法の一例を挙げる。図22は収穫処理をフローチャートにより概略的に示している。本実施形態では、イメージプロセッサ31が主体制御し、ロボットコントローラ32が補助的に制御する形態を示すが、何れが主体になって制御を実行しても良いし、当該プロセッサ及びコントローラ31,32を一体にまとめても良い。
まず、イメージプロセッサ31は、S21において変数N=0に初期設定し、S22においてロボットコントローラ32に第1~第6アーム部23~29の制御指令を行う。このとき、ロボットコントローラ32は、ハンドカメラ17とミニトマト7との間を極力遠距離となる第1距離になるように第1~第6アーム部23~29を制御する。このとき第1距離は、図23に示すように、特に第2~第6アーム部24~29をミニトマト7から極力離すことで当該ミニトマト7とハンドカメラ17との間の間隔を十分に大きくできる距離としている。そしてイメージプロセッサ31は、ハンドカメラ17により画像を取得する(第1検出処理部としての機能)。
これにより、ハンドカメラ17がミニトマト7を撮像する距離を極力遠くできるようになり、多くのミニトマト7を撮像範囲に含ませることができる。このため、イメージプロセッサ31が、S23においてミニトマト7の位置情報を取得することで、より多くのミニトマト7の位置情報を取得できる。この位置情報の取得処理は、前述実施形態にて図10のフローチャートを用いて説明した処理を用いることが望ましい。
その後、イメージプロセッサ31は、S24において多数のミニトマト7の位置情報に応じてミニトマト7を進行方向に向けてナンバリングする。例えば、ナンバーN=0、1、2、3…とする。このナンバリング処理は、進行方向に移動しながら収穫しやすくなるような順序を示すようにナンバーを付与するものである。このとき、概ね進行方向に向けて昇順にナンバーを付与すれば良く、厳密に進行方向に向けて昇順にナンバリングしなくても良い。
その後、イメージプロセッサ31はロボットコントローラ32に指令すると、ロボットコントローラ32は、S25においてN=0から順にN番目のミニトマト7の果柄6aを検出する。このとき、ロボットコントローラ32が、第1~第6アーム部23~29を制御することでハンド21の切断挟持機構21aを、S22で算出されたN番目のミニトマト7の位置に近接させるように移動制御する。
この場合、図24に示すように、ハンドカメラ17が当該ハンドカメラ17とミニトマト7との間を第1距離より短い第2距離にして画像を検出できる。このときの第2距離は、特に第6アーム部29が目標作物となるN番目のミニトマト7に接近することで、ミニトマト7とハンドカメラ17との間の間隔が極力短くなる距離となっている。
この動作に応じて、ハンドカメラ17による画像検出範囲を狭くすることができ、イメージプロセッサ31は、この検出画像中に当該N番目のミニトマト7の果柄6aを検出できる(第2検出処理部としての機能)。果柄6aの検出方法は第3実施形態で説明するため本実施形態では説明を省略する。
そしてイメージプロセッサ31が、S25においてハンドカメラ17による検出画像に応じてN番目のミニトマト7の果柄6aを検出できれば、S26でYESと判断して果柄6aが有ると判断し、ロボットコントローラ32に指令を行うことで当該コントローラ32が収穫ロボット13の各アーム部23~29を制御することで、S27においてN番目のミニトマト7を収穫する(収穫部の機能)。ロボットコントローラ32が収穫作業を終了すれば、イメージプロセッサ31に終了情報を出力する。また、イメージプロセッサ31は、S25においてN番目のミニトマト7の果柄6aを検出できないときにはS26でNOと判断し、収穫不能であると判定する。
イメージプロセッサ31が、終了情報を入力したり収穫不能であったりしたときには、果柄6aの有無に拘わらずS28においてNをインクリメントする。そして、イメージプロセッサ31は、S29においてロボットコントローラ32に台車11を進行方向に移動開始させる。このときの台車11の進行方向への移動速度は一定であっても良いし移動速度を変更しても良いが、台車11の位置情報を詳細に特定することが望ましい。これは、S23で特定されたミニトマト7の位置情報に合わせて台車11の進行方向の位置を調整したり、また逆に台車11の進行方向位置に合わせて、S23で取得されたミニトマト7の位置情報を相対的に補正したりすることができるためである。
そして、イメージプロセッサはS30において所定条件を満たしたか否かを判定する。この所定条件は、ハンドカメラをミニトマトに順に近づけて移動制御している状態から、ハンドカメラをミニトマトから再度遠ざけて画像検出する必要があるか否かの判断条件を示すものであり、例えばS22にて検出した画像の中のミニトマト7を全て収穫終了又は収穫不能と判定することを条件とすることが望ましい。また、S23で取得された位置情報のミニトマト7が全て収穫終了していなくても、例えば全数でミニトマト7がK個以上検出されていたとすれば、K個のうち適宜設定された所定割合個数(例えばK/2)以上だけ収穫処理を終了していれば、S30において所定条件を満たすと判定しても良い。
S30において所定条件を満たさないうちは、イメージプロセッサ31は、S25に処理を戻しS25~S27において第1~第6アーム部23~29を制御して次のN番目のミニトマト7の果柄6aを検出して収穫処理を行う。
S30において所定条件を満たすと、イメージプロセッサ31はS22に処理を戻し、ハンドカメラ17により再度遠い位置から多数のミニトマト7を含む画像を検出してS23以降の処理を実行する。これにより、台車11により進行方向に移動しながら通路14に沿って熟したミニトマト7を全て収穫できる。
<本実施形態のまとめ、効果>
要するに、本実施形態では、ミニトマト7の位置特定及び果柄6aの検出処理に同一のハンドカメラ17を用いるため視野角、すなわち画角は一定であるが、まずロボットコントローラ32は、ミニトマト7からの距離を比較的遠くに制御し、ハンドカメラ17によりミニトマト7の位置情報を多数特定し、そしてミニトマト7からの距離を比較的近くに制御し、ハンドカメラ17によりミニトマト7の果柄6aを検出し、当該ミニトマト7を収穫している。そして、これらの処理を繰り返している。このため、一台のハンドカメラ17で多数のミニトマト7を検出しつつ、一つのミニトマト7の果柄6aを検出できる。これにより、多数のミニトマト7を素早く収穫できる。
また、ハンドカメラ17が房なりのミニトマト7及び果柄6aを含む画像を取得し、切断挟持機構21aが画像検出軸J1から鋭角に切断挟持軸J2を備えミニトマト7の果柄6aを切断挟持して房なりのミニトマト7を収穫するようにしている。このため、果柄6aを画像処理により検出するときには、ハンド21が邪魔になることなく、ミニトマト7の果柄6aを容易に検出でき、しかもミニトマト7を容易に収穫できる。
(第3実施形態)
図25から図30は第3実施形態の追加説明図を示す。例えば、第1実施形態にて説明した図8のS5a、S7aにおけるミニトマト7の収穫処理は、収穫ロボット13により行われる処理である。また第2実施形態では、図22のS25においてミニトマト7の果柄6aを検出し、S27にて果柄6aの切断ポイントにて切断することでミニトマト7を収穫するが、これらの処理も収穫ロボット13によって行われる処理である。
これらにおいて、収穫ロボット13のロボットコントローラ32は、図10のS14又は図22のS23において取得された実の熟したミニトマト7の位置情報を入力し、第1~第6アーム部23~29を制御し、ハンド21の上部又は第6アーム部29に取り付けられたハンドカメラ17によりミニトマト7の果柄6aを含む画像を検出し、イメージプロセッサ31がこの画像から果柄6aを詳細に検出し、そしてハンド21により果柄6aを切断及び挟持して収穫する。
イメージプロセッサ31が果柄6aを詳細に検出するときには図25のS41~S45に示すように果柄6aの切断ポイントCPを決定することが望ましい(第1切断ポイント決定部、第2切断ポイント決定部としての機能)。まずイメージプロセッサ31は、S41においてハンドカメラ17によりカラー画像に加えて奥行き画像を含むRGB-Dの点群を取得し、S42において点群のうち同色の終点を結合することでボクセル化する。
このとき、各ボクセルBは、主に3つの情報を備えており、それぞれのボクセルBの座標、各ボクセルBにどのカラーのセルが含まれているか、どのボクセルBのカラーセルが互いに隣接しているか、を示す情報を備えている。ボクセルBの隣接情報を用いることで、隣接セルを探索するために必要な計算時間を削減できる。
このボクセル化処理では複数の解像度に分けてボクセル化することが望ましい。図26及び図27にミニトマト7及びその果柄6aの周辺画像を複数の解像度でボクセル化した例を示す。図26は例えば低解像度のボクセルB11の例を示し、図27は高解像度のボクセルB12の例を示している。
その後、イメージプロセッサ31は、図25のS42においてミニトマト7の領域とその他の背景領域とをSVM処理により分離する。第1実施形態でも説明したように、イメージプロセッサ31は、メモリ33に記憶された機械学習パターンに応じて、ミニトマト7の赤に類する同類色となる条件を満たすボクセルBの領域を拡張し、ミニトマト7の領域とその他の背景領域を分離する。図28には、このS43の処理前後の三次元画像例を模式的に示している。この場合には、低解像度のボクセルB1を用いることで素早く処理を完了できる。
次に、イメージプロセッサ31は、図25のS44においてミニトマト7の存在領域のクラスタリング処理を行う。このとき第1実施形態でも説明したように、イメージプロセッサ31は、初めにランダムに三次元位置のボクセルBを決定した後、このボクセルBから同類色の領域を拡張して探索する領域拡張法を用いて、各ミニトマト7の存在領域R2を分離する。図28にはこのS44の処理前後の三次元画像例を模式的に示している。
そしてイメージプロセッサ31は、図25のS45において、個々のミニトマトの果柄の切断ポイントCPを決定する。図29には切断ポイントCPの決定方法を概略的に示している。このとき、例えばミニトマト7の領域とS42で別に取得され図27で示される高解像度のボクセルB2を用いて、果柄6aの切断ポイントCPを決定することが望ましい。
イメージプロセッサ31は、図30に示すように、垂直にレイヤL1~L3を分離した状態で当該レイヤL1~L3毎に複数のボクセルB2を分離し、各レイヤL1~L3の直径Aを導出し、極力細い直径Aのレイヤ(例えばL2)を切断ポイントCPの第1条件にすることが望ましい。これは、ミニトマト7は果柄6aよりも太くなり、果柄6aとミニトマト7の直径を合計すると果柄6aの直径に比較して大きくなるためであり、果柄6aの切断ポイントCPを、より細い直径のレイヤ(例えばL2)に位置させることが望ましいためである。
ミニトマト7の茎6は、根から上方に延びるに従い、下部にて太くなり上部に向かうに従って細くなる。また図29に示すように、切断ポイントCPにて細くなりミニトマト7が成熟している部分で直径Aが太くなる。このため、三次元的に検出すると直径Aが切断すべき果柄6aにて概ね最小の径となる。
また、切断挟持機構21aが接近可能で距離Dが短いレイヤL1~L3を切断ポイントCPの第2条件とすると良い。これは、切断ポイントCPが切断挟持機構21aから遠くなってしまうと、途中の障害物に阻まれてしまい、切断挟持機構21aが切断ポイントCPにて果柄6aをカットできないためである。したがって、果柄6a又は/及びミニトマト7との距離Dが極力近くなる条件を採用すると良い。また、レイヤL1~L3のボクセルB2が垂直方向に延びており、果柄6aが垂直方向から所定角度範囲内になっていることを切断ポイントCPの第3条件とすると良い。これは、可能な限り果柄6aに対し直線的にアプローチすべきだからである。
このため、果柄6aの切断ポイントCPは、この種の条件を満たすように、直径Aと距離Dをパラメータとした評価関数fを用いて導出することが望ましい。図29に概略を示しているように、評価関数f(A,D)を以下の(1)式とした場合には、この評価関数fが閾値ft以下となる条件を満たす領域を導出して切断範囲を決定すると良い。
Figure 0007049814000001
このとき、評価関数fが閾値ft以下となる条件を満たす領域の切断範囲のうち評価関数が最低値となる領域を選択することがなお望ましい。このような概念を考慮した上で、以下のように詳細に評価関数E(l)を導出するようにしても良い。このときの評価関数E(l)を(2)式のように定義する。
Figure 0007049814000002
この(2)式の第1項は、レイヤL1~L3の直径Aに係る第1条件を示しており、n()は要素の数を示している。直径Aが細いほど評価関数E(l)は小さくなる。第2項は、前述したレイヤL1~L3と切断挟持機構21aとの間の距離Dに係る第2条件を示している。ここでvは集合V(l)に属するボクセルBを示しており、L1ノルムを用いることで距離Dを素早く計算できるようにしている。第3項は、前述したレイヤL1~L3の方向に関する第3条件を示しており、y^は垂直方向の単位ベクトルを示し、wは集合V(l+1)に属するボクセルBを示している。この第3条件では鉛直方向に近い方向に延びる方向を選択するように表されている。これらの評価関数E(l)を最小化するレイヤを求めることで適切な切断ポイントCPを求めることができる。
<本実施形態に係る概念的なまとめ、効果>
要するに、イメージプロセッサ31は、ハンドカメラ17により取得された画像を高さ方向のレイヤL1~L3毎にボクセルB2化したレイヤの直径D、切断挟持機構21aからの距離D、レイヤL1~L3のボクセルB2の垂直方向度、に依存した所定の評価関数f,E(l)を用いて果柄6aの切断ポイントCPを決定するようにしている。このため、果柄6aの切断ポイントCPを素早く適切に求めることができ、切断ポイントCPを切断することでミニトマト7を素早く的確に収穫できる。
また、ミニトマト7と背景領域とをクラスタリング処理するときには比較的低解像度の第1解像度でクラスタリング処理し、その後、第1解像度より高い第2解像度のボクセルを用いて果柄6aの切断ポイントCPを決定している。このため、果柄6aの切断ポイントCPを素早く適切に求めることができ、切断ポイントCPを切断することでミニトマト7を素早く的確に収穫できる。
(他の実施形態)
前述実施形態に限定されるものではなく、例えば、以下に示す変形又は拡張が可能である。前述した第1から第3実施形態の構成を必要に応じて組み合わせることができる。
第1実施形態において、固定カメラ12はステレオカメラを用いた形態を示したが、単眼カメラであっても移動しながら二次元画像を複数枚撮像することで三次元画像を生成できる。このため、固定カメラ12としては単眼カメラを用いても良い。また、第1実施形態においても、固定カメラ12として、カラー情報と共に奥行き情報が得られるRGB-Dカメラなどの3Dカメラを用いても良い。
切断、挟持する切断挟持機構21aを備える形態を示したが、これに限定されるものではなく、例えば、挟持する機能を備えることなく切断機能だけを備えたはさみによる切断部を備え、切断した目標作物を下からネットなどで支える形態に適用しても良い。
収穫対象の目標作物としてミニトマト7を適用した形態を示したが、作物は特に限定されるものではなく、例えばブドウ、白ゴーヤ、大玉トマト、赤パプリカ、黄パプリカなどの作物であり、背景と作物との間の色による識別が可能であれば適用可能となる。また特に第1実施形態では、ブドウは先端の成長が遅い作物であるため、第1実施形態に適用できる期待が大きい。
第3実施形態における評価関数fの係数α、β、C及び閾値ft、評価関数E(l)の各項は、目標作物の生育状態や種類に合わせて変更可能とすることが望ましい。また、切断可能な範囲で、実際に切断する切断ポイントCPを指定する方法も、目標作物の種類や大きさに応じて調整可能とすると良い。
前述した実施形態の各要素を組み合わせて構成しても良い。前述実施形態に記述した各機能をハードウェアにより実現してもハードウェア及びソフトウェアの組合せにより実現しても良い。また、特許請求の範囲に記載した括弧内の符号は、本発明の一つの態様として前述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。前述実施形態の一部を、課題を解決できる限りにおいて省略した態様も実施形態と見做すことが可能である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において、考え得るあらゆる態様も実施形態と見做すことが可能である。
本開示は、前述した実施形態に準拠して記述したが、当該実施形態や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。
図面中、7は房なりのミニトマト(目標作物)、10,110は収穫ロボットシステム、12は固定カメラ(第1画像取得部)、13は収穫ロボット、31はイメージコントローラ(収穫位置取得部)、を示す。

Claims (2)

  1. 進行方向に沿って収穫対象となる目標作物(7)を収穫する収穫ロボットシステムであって、
    台車の所定位置に設置され当該所定位置から収穫対象となる目標作物を含む画像を取得する画像取得部(12)と、
    前記画像取得部により取得された画像を用いて前記目標作物を探索して当該目標作物の位置情報を取得する収穫位置取得部(31)と、
    前記所定位置から前記進行方向の後部において、前記収穫位置取得部により取得された前記目標作物の位置情報を用いて前記目標作物を収穫する収穫ロボット(13)と、を備え、
    前記収穫位置取得部による目標作物の探索処理と前記収穫ロボットによる前記目標作物の収穫処理とを並行して行うように構成され、
    前記収穫位置取得部が前記目標作物の位置情報を取得するときに、
    前記画像取得部により取得される画像を用いて三次元画像を生成する三次元画像生成部(S11)と、
    前記三次元画像生成部による三次元画像のあるボクセルから同類色の領域を拡張し当該領域と他の領域とを分離する基本クラスタリング部(S12)と、
    前記同類色の領域を拡張した端部から下側にて前記同類色とは異なる色領域のボクセルを拡張する熟度判定領域クラスタリング部(S13)と、を備え、
    前記熟度判定領域クラスタリング部により拡張された領域を用いて前記目標作物の熟度を判定し当該熟度が所定より高い作物を前記目標作物としてその位置情報を特定する(S14、S15)収穫ロボットシステム。
  2. 所定の位置に設置され前記画像取得部が取り付けられたロボットアーム部(23~29)と、
    前記ロボットアーム部が移動制御されることで前記画像取得部を前記目標作物から遠ざかる第1距離にして収穫対象となる目標作物を含む画像を検出する第1検出処理部(S22)と、
    前記ロボットアーム部が移動制御されることで前記画像取得部を前記第1距離よりも前記目標作物に近づく第2距離にして前記目標作物を含む画像を検出する第2検出処理部(S25)と、を備え、
    前記第2検出処理部による検出画像を用いて前記目標作物を収穫する収穫部(S27)と、を備える請求項1記載の収穫ロボットシステム。
JP2017230531A 2017-11-30 2017-11-30 収穫ロボットシステム Active JP7049814B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017230531A JP7049814B2 (ja) 2017-11-30 2017-11-30 収穫ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017230531A JP7049814B2 (ja) 2017-11-30 2017-11-30 収穫ロボットシステム

Publications (2)

Publication Number Publication Date
JP2019097447A JP2019097447A (ja) 2019-06-24
JP7049814B2 true JP7049814B2 (ja) 2022-04-07

Family

ID=66974477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017230531A Active JP7049814B2 (ja) 2017-11-30 2017-11-30 収穫ロボットシステム

Country Status (1)

Country Link
JP (1) JP7049814B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3143264A1 (fr) * 2022-12-14 2024-06-21 Commissariat à l'énergie atomique et aux énergies alternatives Procédé de commande d’un dispositif de récolte automatique d’éléments 5 végétaux d’intérêt

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7468013B2 (ja) 2020-03-16 2024-04-16 井関農機株式会社 植物栽培設備
JP7505763B2 (ja) 2021-02-17 2024-06-25 国立研究開発法人農業・食品産業技術総合研究機構 移動体の速度導出装置、作業管理装置および移動体の速度導出方法
CN114916318B (zh) * 2022-05-30 2023-05-02 华南农业大学 一种搭载在无人机上的水果自动采收装置及其控制方法
CN116267236B (zh) * 2023-05-23 2023-08-25 四川省机械研究设计院(集团)有限公司 簇状果实采摘机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060213167A1 (en) 2003-12-12 2006-09-28 Harvey Koselka Agricultural robot system and method
JP2012055207A (ja) 2010-09-07 2012-03-22 Nikon Corp 植物栽培システム、植物栽培プラント、収穫装置及び植物栽培方法
JP2012198688A (ja) 2011-03-18 2012-10-18 Fujitsu Ltd 農作物画像処理プログラム、農作物画像処理方法及び農作物画像処理装置
JP2014183841A (ja) 2013-02-19 2014-10-02 Muroran Institute Of Technology 植物自動収穫機、植物自動収穫プログラムおよび植物自動収穫方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042665A (ja) * 1996-08-07 1998-02-17 Iseki & Co Ltd 農業用ロボットの撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060213167A1 (en) 2003-12-12 2006-09-28 Harvey Koselka Agricultural robot system and method
JP2012055207A (ja) 2010-09-07 2012-03-22 Nikon Corp 植物栽培システム、植物栽培プラント、収穫装置及び植物栽培方法
JP2012198688A (ja) 2011-03-18 2012-10-18 Fujitsu Ltd 農作物画像処理プログラム、農作物画像処理方法及び農作物画像処理装置
JP2014183841A (ja) 2013-02-19 2014-10-02 Muroran Institute Of Technology 植物自動収穫機、植物自動収穫プログラムおよび植物自動収穫方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3143264A1 (fr) * 2022-12-14 2024-06-21 Commissariat à l'énergie atomique et aux énergies alternatives Procédé de commande d’un dispositif de récolte automatique d’éléments 5 végétaux d’intérêt

Also Published As

Publication number Publication date
JP2019097447A (ja) 2019-06-24

Similar Documents

Publication Publication Date Title
JP7049815B2 (ja) 収穫ロボットシステム
JP7049814B2 (ja) 収穫ロボットシステム
Zhao et al. A review of key techniques of vision-based control for harvesting robot
Kootstra et al. Selective harvesting robotics: current research, trends, and future directions
Silwal et al. Design, integration, and field evaluation of a robotic apple harvester
US9913429B1 (en) Tagging of fruit-producing flowers for robotic selective harvesting
Lehnert et al. Autonomous sweet pepper harvesting for protected cropping systems
Hemming et al. A robot for harvesting sweet-pepper in greenhouses
US20230026679A1 (en) Mobile sensing system for crop monitoring
Zhang et al. The use of agricultural robots in orchard management
JP2020511142A (ja) 自動収穫エフェクタ
US11477942B2 (en) Robotic fruit harvesting machine with fruit-pair picking and hybrid motorized-pneumatic robot arms
Zaenker et al. Combining local and global viewpoint planning for fruit coverage
Yoshida et al. Cutting point detection using a robot with point clouds for tomato harvesting
JP2024505669A (ja) ガントリーシステムを備えたロボット収穫システム
Burusa et al. Attention-driven active vision for efficient reconstruction of plants and targeted plant parts
Parhar et al. A deep learning-based stalk grasping pipeline
Kaljaca et al. Automated boxwood topiary trimming with a robotic arm and integrated stereo vision
Mhamed et al. Advances in apple’s automated orchard equipment: A comprehensive research
Mhamed et al. Developments of the Automated Equipment of Apple in the Orchard: A Comprehensive Review
US20220264801A1 (en) Method of controlling a robotic harvesting device
Fue et al. Visual control of cotton-picking Rover and manipulator using a ROS-independent finite state machine
Burks et al. Opportunity of robotics in precision horticulture.
CA3111952A1 (en) Mushroom harvesting vision system and method of harvesting mushrooms using said system
JP2020000170A (ja) 主茎の形状推定方法、作業アームの移動経路の設定方法及び収穫装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R150 Certificate of patent or registration of utility model

Ref document number: 7049814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150