JP7229840B2 - 収穫装置およびその制御方法、並びにプログラム - Google Patents

収穫装置およびその制御方法、並びにプログラム Download PDF

Info

Publication number
JP7229840B2
JP7229840B2 JP2019077346A JP2019077346A JP7229840B2 JP 7229840 B2 JP7229840 B2 JP 7229840B2 JP 2019077346 A JP2019077346 A JP 2019077346A JP 2019077346 A JP2019077346 A JP 2019077346A JP 7229840 B2 JP7229840 B2 JP 7229840B2
Authority
JP
Japan
Prior art keywords
fruit
image
viewpoint
harvesting
fruit vegetable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019077346A
Other languages
English (en)
Other versions
JP2020174536A (ja
Inventor
弘和 渡辺
太郎 横山
深二郎 稲畑
雅起 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019077346A priority Critical patent/JP7229840B2/ja
Publication of JP2020174536A publication Critical patent/JP2020174536A/ja
Application granted granted Critical
Publication of JP7229840B2 publication Critical patent/JP7229840B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Harvesting Machines For Specific Crops (AREA)

Description

本発明は、収穫装置およびその制御方法、並びにプログラムに関する。特に、収穫対象の果実の画像認識に関する。
農業において果菜を収穫する際に、人手の代わりにロボット等を利用して自動的に収穫を行う技術が広がっている。この場合、ロボットが収穫対象となる果菜を認識し、収穫に適したタイミングや収穫動作にて収穫を行う必要がある。
果菜によっては、小果梗という部位を有し、さらにその部位において、果実のもぎ取り位置として適した離層という部位がある。ロボットにより果実のもぎ取り動作を行わせる場合に、この小果梗および離層の位置を認識させることで、より適切な収穫が可能となる。例えば、特許文献1では、収穫対象となる果実の画像に基づいて、ロボットによる収穫動作にて利用される果実の果梗部を推定することが記載されている。
特開2018-143214号公報
従来の方法では、果実のもぎ取り方向の識別に関し、小果梗に対する3D形状の計測など、高精度な計測を要し、その結果、高精度のセンサを設置することによる装置の大型化や、長い計測時間を要していた。
そこで、本発明は、果菜の収穫において、果菜の状態の認識を可能な簡易な構成の収穫装置を提供することを目的とする。
上記課題を解決するために本願発明は以下の構成を有する。すなわち、
小果梗の先端に形成された果菜を収穫する収穫装置であって、
収穫対象となる果菜の第1の画像を撮像部により取得する取得手段と、
前記第1の画像から果菜および小果梗の領域を抽出する抽出手段と、
前記抽出手段にて抽出した果菜および小果梗の領域に基づいて、前記果菜の領域の中心座標と、前記果菜の領域と前記小果梗の領域との接続位置の座標とから前記果菜に対する座標軸を特定する特定手段と、
前記特定手段にて特定された座標軸の方向を上下方向として、前記果菜の側方からの視点となるように前記撮像部の視点を制御する制御手段と、
前記制御手段により前記側方からの視点となった前記撮像部により取得される第2の画像に基づいて、前記小果梗が延びている方向を識別する識別手段と
を有する。
本発明によれば、果菜の収穫を行う収穫装置において、簡易な構成により果菜の状態を認識可能となる。
本発明の一実施形態に係る収穫装置の概略を示す図。 本発明の一実施形態に係る収穫装置の機器構成の例を示す図。 本発明の一実施形態に係る撮影動作を説明するための図。 本発明の一実施形態に係る収穫対象の果実に対して設定される座標系の例を示す図。 本発明の一実施形態に係る果実のもぎ取り方向の識別を説明するための図。 本発明の一実施形態に係る果実の姿勢を検出する際の流れを説明するための図。 本発明の一実施形態に係る収穫装置における収穫動作のフローチャート。 本発明の一実施形態に係る座標系決定処理のフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでするものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴うち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
<第1の実施形態>
本実施形態において、収穫対象の果菜として、トマトを例に挙げて説明する。上述したように、トマトには、果実を支える部分に小果梗および離層が存在し、本実施形態では、その位置を認識することを一つの目的とする。なお、収穫対象の果菜としてトマトに限定するものではなく、収穫などにおいて認識すべき構造を有するものであれば、他の果菜であってもよい。
[装置構成]
図1は、本実施形態に係る収穫装置100の概略を示す図である。収穫装置100は、本体部101、収納部102、走行機構104、および、ロボットアーム105を備える。収納部102には、収穫した果実を保持するための格納庫103が設けられる。ロボットアーム105の先端部分には、画像を取得するための撮像装置106、および、果実を収穫するための収穫部107を備える。収穫部107の形状は特に限定するものでは無いが、本実施形態では、果実に当接した上でもぎ取り動作を行うことが可能な形状であるとする。また、ロボットアーム105は、複数の関節部108の動作により、先端部の位置や向きを変更可能であるとする。
図2は、本実施形態に係る収穫装置100の機器構成の例を示す図である。収穫装置100は、制御部201、記憶部202、駆動モータ203、ロボットアーム105、撮像モータ204、撮像装置106、走行モータ205、および走行機構104を含んで構成される。制御部201は、収穫装置100全体の動作を制御し、例えば、図1の本体部101に備えられる。制御部201は、CPU(Central processing Unit)やGPU(Graphical Processing Unit)、もしくは専用回路などから構成されてよい。記憶部202は、本実施形態に係る各種プログラムや撮像装置106にて取得された画像データを記憶し、例えば、本体部101に備えられる。記憶部202は、HDDやROM(Read Only Memory)などの不揮発性の記憶領域や、RAM(Random Access Memory)などのワークメモリとして動作可能な揮発性の記憶領域を含んで構成されてよい。
駆動モータ203は、果実を収穫するためのロボットアーム105を駆動させるためのモータである。駆動モータ203は、制御部201からの指示として、ロボットアーム105に対する駆動量の制御信号を受け付け、ロボットアーム105を駆動させる。ロボットアーム105は、果実を把持し、収穫(もぎ取り)を行う。収穫された果実は、格納庫103に適時格納される。
撮像モータ204は、撮像装置106の撮像の向きや位置を調整するためのモータである。撮像モータ204は、制御部201からの指示として撮像装置106に対する制御量の制御信号を受け付け、撮像装置106の撮像対象に対する位置や向きを制御する。撮像装置106は、1または複数のカメラにより構成される撮像部であり、撮像モータ204による制御により、その向きや位置を変更可能であるとする。なお、撮像装置106が複数のカメラから構成される場合には、それぞれ同じ機能にて異なる位置を撮影可能に構成されてもよいし、異なる機能(画角や解像度)にて構成されてもよい。撮像装置106にて取得された画像データは、制御部201へ送信され、適時、記憶部202に記憶される。なお、撮像装置106の位置は、ロボットアーム105の動作と連動して調整されてよい。
走行モータ205は、収穫装置100を移動させるための走行機構104を駆動するためのモータである。走行モータ205は、制御部201からの指示として、走行機構104に対する移動量や移動方向の制御信号を受け付け、収穫装置100を移動させる。走行機構104は、収穫装置100を移動させるための部位であり、例えば、タイヤやキャタピラ(無限軌道)などから構成される。または、走行機構104は、果実が栽培されている畝に沿って設置されたレール上を移動可能なように構成されていてもよい。
[撮影動作]
図3は、本実施形態に係る果実の画像データを撮影する際の動作の概要を説明するための図である。上述したように、本実施形態では、収穫対象の果菜をトマトとして説明する。
図3(a)は、撮像装置106におけるカメラの視点を変更した場合の小果梗の見え方の変化を説明するための図である。ここでは、撮像装置106にてトマトを撮影した際に取得される画像データの一部を示している。図3では、破線にてトマトの小果梗を示している。小果梗は、果実部分に隣接したヘタ部から延びるように形成される。図3の左側の画像においては、小果梗が左方向に延びている例を示している。この状態からカメラの視点を右方向に90度移動させた場合、図3の真ん中の画像のようになる。この画像においては、小果梗は正面方向(奥方向)に延びた状態となる。更にこの状態からカメラの視点を右方向に90度移動させた場合、図3の右の画像のようになる。この画像においては、小果梗は右方向に延びた状態となる。
図3(b)は、撮像装置106にて撮影した複数の視点の画像に基づいて、所定の方向からの視点へ撮像装置106の位置や向きを変化させる例を説明するための図である。ここでは、所定の方向からの視点として、トマトの側方からの視点へ撮像装置106の位置および向きを変化させる例を説明する。図3(b)の左の図では、3つの異なる視点から、同一のトマトを撮影した画像が示されている。なお、これらの画像は、複数のカメラにより同時に撮影されてもよいし、1のカメラにより視点を変えながら撮影されてもよい。そして、これらの画像に基づいて対象となるトマトの側方からの視点へと撮像装置106の位置および向きを変化させる。なお、本実施形態において、所定の方向からの視点として側方からの視点を用いる利点として、果実の形状において見え方のバリエーションが減少し、細かな立体形状を認識することなく果実の形状を識別できる点が挙げられる。なお、所定の方向からの視点としては、上記に限定するものではなく、果実の種類やその形状特性などに応じて他の視点が用いられてもよい。
図4は、本実施形態に係る果実に対する座標系を説明するための図である。トマトなどの果実は自然物であるため、その形状には一定の規則性と不規則性が現れる。そこで、本実施形態では、トマトを扱うための座標系(以下、「トマト座標系」とも称する)および所定の視点を定義する。トマト座標系において、小果梗と果実部分との接続部分(接続位置)を原点(X,Y,Z)=(0,0,0)とする。更に、そのトマト座標系のXY平面上において、小果梗を中心として撮像装置106にて撮影した視点を側方からの視点(以下、「側方視点」と称する)と定義して扱う。図4に示すように、側方視点においては、トマト座標系におけるZ軸の方向が上下方向となる。
[姿勢決定]
図5を用いて、本実施形態に係る果実の姿勢を決定する流れについて説明する。本実施形態では、着目する果実(トマト)ごとにその姿勢を決定し、姿勢に対応した座標系(トマト座標系)が特定される。
まず、撮像装置106にて取得された画像の中からトマトを検知した場合、そのトマトを着目トマトとする。このとき、例えば、色や形状などの判定基準に基づき、熟していない場合などといった収穫対象とならないトマトについては処理をキャンセルし、他のトマトを探索する。なお、トマトの検知自体は、撮像装置106とは異なる検出手段にて検出するような構成であってもよい。ここでの収穫対象とする手法は公知の方法を適用できるものとし、ここでの詳細な説明は省略する。収穫対象であると判定された着目トマトに対し、任意の位置・視点にてトマトの画像を取得する。ここでの画像の取得では、ズームアップ・ズームアウトなどの動作を行ってもよい。
図5は、本実施形態に係るトマトの姿勢を決定する処理の流れを説明するための図である。まず、着目するトマト(以下、「着目トマト」)の画像を撮像装置106により取得する。上述したように撮像装置106は、ロボットアーム105や撮像モータ204の制御により、任意の撮影位置に移動可能である。
続いて、取得した画像から、小果梗および離層の画像領域を検出する。検出方法として、本実施形態では、機械学習による画像分割手法を用いる。具体的には、公知の画像分割手法であるSegNetを利用することが可能であるが、画像分割処理はこれに限定するものではない。更に、検出された小果梗および離層の画像領域において、離層の画像領域から果実側の小果梗の画像領域を第1小果梗とし、離層の画像領域から茎側を第2小果梗として判別する。
そして、第1小果梗の画像領域と、離層の画像領域それぞれの3D(三次元)点群を抽出する。このとき、撮像装置106にて取得される画像(2D(二次元)画像)から、3D点群を抽出する。2D画像から3D点群を抽出する方法としては、例えば、同じ対象物を複数の視点から撮影した2D画像を用いて、各画像から取得される特徴点により抽出する方法がある。なお、2D画像から3D点群を抽出する方法は特に限定するものではなく、公知の方法を用いてよい。
更に、果実部分の画像領域の3D点群を抽出する。そして、この3D点群を球面フィッティングすることにより、果実の中心座標を特定する。また、果実領域に隣接したヘタ部の画像領域の3D点群を抽出し、ヘタ部の3D座標を特定する。そして、果実領域の中心座標と、ヘタ部の座標とに基づいて、着目トマトに対するトマト座標系の座標軸であるZ軸を決定する。更に、決定したZ軸に基づいて、XY平面を特定した上でトマト座標系を決定する。Z軸が決定することにより、着目トマトの姿勢が決定されることとなる。
[もぎ取り方向識別]
図6は、本実施形態に係るトマトのもぎ取り方向の識別の流れを説明するための図である。視点の変更および側方視点については、上述した通りである。
まず、図5を用いて説明したように、着目トマトに対するトマト座標系を決定した後、側方視点となるように、撮像装置106の視点および位置を移動させる。
撮像装置106を側方視点に移動させた後、撮像装置106により、着目トマトの画像を取得する。そして、取得した画像に基づいて、着目トマトの小果梗の状態を特定する。ここでは、小果梗が右向きに延びている(right)、小果梗が左向きに延びている(left)、小果梗が垂直方向に延びかつ長い(long)、および、小果梗が奥行方向に延びかつ短い(short)の4つに分類して特定する。ここでの分類における小果梗の長短は特に限定するものではない。本例において、“long”は、小果梗が垂直方向に延びていることにより、側方視点からの画像において十分な長さの小果梗の領域が認識される状態に相当する。一方、“short”は、小果梗が奥行方向に延びていることにより、その側方視点からの画像において十分な長さの小果梗の領域が認識できない状態に相当する。ここでの分類手法については、後述する。
小果梗の方向によって、トマトはもぎ取りやすい方向が異なる。したがって、分類した小果梗の状態に応じて、ロボットアーム105によるもぎ取り動作を切り替える。“right”として特定された場合には、撮像装置106が撮影した側方視点において、トマトのもぎ取り方向を右回り(時計回り)とする。”left”として特定された場合は、撮像装置106が撮影した側方視点において、トマトのもぎ取り方向を左回り(反時計回り)とする。”long”として特定された場合は、着目トマトの周辺の状態を判定し、その着目トマトの周囲において障害物となる物体が無い回転方向(右回り、もしくは、左回り)とする。なお、このとき、ロボットアーム105の構造上、奥方向もしくは手前方向に回転させることができる場合には、4つの方向の中から選択してもよい。
“short”として特定された場合には、その位置での収穫が不可であるとして、視点の変更を行う。着目トマトに対して、視点を左もしくは右に90度移動させる。ここでの移動方向は、左右のいずれであってもよく、トマトのなり方に応じて切り替えてもよい。もしくは、一方を試したのち、適切な画像が取得できない場合に、もう一方の方向へ移動するような構成であってもよい。視点を移動した後、着目トマトの画像を取得して、再度分類を行う。このとき、”right”、”left”として分類された場合には、その分類に応じて収穫動作を決定する。切り替え可能な視点全てにおいて “short”として分類された場合には、その着目トマトを収穫実行不可と判定してもよい。
本実施形態では、上述したように小果梗の分類において、4つのカテゴリに分類している。ここでの分類の手法としては、例えば、機械学習による分類手法を適用することができる。なお、機械学習の詳細な説明はここでは省略する。本実施形態では、ディープラーニングを用いて、入力データと正解データとの対からなる学習データを複数用意する。ここでは、入力データは小果梗の領域を含む画像データであり、正解データは上記4つのカテゴリのうちの入力データが分類されるべきカテゴリとなる。そして、この学習データを用いて学習を行うことで、学習済みモデルを生成する。学習済みモデルの生成は予め行っておき、学習済みモデルは記憶部202等に格納しておく。小果梗の方向を判定する際に、この学習済みモデルに画像データを入力することで、小果梗の方向の分類を行わせる。
なお、分類の方法は上記のような機械学習による手法に限定するものではなく、他の手法を用いてもよい。また、上記の例では、4つのカテゴリを例に挙げたが、これに限定するものではなく、更に多くのカテゴリに分けるような構成であってもよい。また、果菜の種類に応じて、分類数を変化させてもよい。
[処理フロー]
(収穫動作)
図7は、本実施形態に係る果菜(ここでは、トマト)の収穫動作の流れを示すフローチャートである。本処理は、収穫装置100の制御部201が記憶部202等に格納された各種プログラムを読み出して実行し、図2に示した各部を制御することで実現される。本動作は、収穫装置100が収穫対象のトマトを検知し、そのトマトを着目トマトとして開始される。
S701にて、制御部201は、撮像装置106を着目トマトの周辺位置へ移動させ、着目トマトに対する撮影動作を行う。ここでの移動動作は、上述したように、各モータを駆動させることで行われる。
S702にて、制御部201は、S701にて撮影した画像に基づき、着目トマトに対するトマト座標系の決定処理を行う。ここでの処理は、図5を用いて説明した処理に対応し、そのフローについては、図8を用いて後述する。
S703にて、制御部201は、S702にて決定したトマト座標系に基づき、撮像装置106の視点を変更させる。ここでの視点変更動作は、各モータを駆動させることで行われる。
S704にて、制御部201は、視点変更後の状態にて、撮像装置106により着目トマトに対する撮影動作を行う。
S705にて、制御部201は、S704にて撮影された画像に対して分類処理を行う。本実施形態において、分類処理は、図6を用いて説明したように、機械学習により得られた学習済みモデルを用いて、4つのカテゴリのいずれかに分類する処理を行う。
S706にて、制御部201は、画像が分類されたカテゴリが“short”であるか否かを判定する。”short”であると判定された場合は(S706にてYES)、S703へ戻り、視点を変更した上で処理を繰り返す。上述したように、視点を変更する際には側方視点であることに変更は無い。本実施形態では、視点を90度ずつ変化させるものとする。また、全ての視点にて分類を行った結果、いずれも”short”として分類された場合には、収穫不可として本処理フローを終了してもよい。”short”でないと判定された場合は(S706にてNO)、S707へ進む。
S707にて、制御部201は、分類結果に基づき、着目トマトのもぎ取り方向を決定する。ここで決定されるもぎ取り方向は、図6を用いて述べたとおりである。
S708にて、制御部201は、S707にて決定したもぎ取り方向に従って、着目トマトの収穫動作を行う。ここでの収穫動作は、ロボットアーム105の先端部に設けられた収穫部107の構造に応じて実行される。また、収穫された着目トマトは格納庫103に格納される。そして、本処理フローを終了する。この後は、更なる収穫対象となるトマトが検知された場合に、そのトマトを着目トマトとして、図7の処理フローが繰り返されることとなる。
(座標系決定処理)
図8は、本実施形態に係るトマト座標系の決定処理のフローチャートである。本処理は、収穫装置100の制御部201が記憶部202等に格納された各種プログラムを読み出して実行することにより実現される。本処理は、図7のS702に対応し、また、図5を用いて説明した流れに対応する。
S801にて、制御部201は、着目トマトの画像を撮像装置106により取得する。この時点での着目トマトの画像を取得する際の視点や距離は特に限定するものではなく、着目トマトと収穫装置100(もしくは、撮像装置106)の位置関係などに基づいて、任意に決定されてよい。
S802にて、制御部201は、S701にて取得した画像において、所定の領域を検出する。ここでの所定の領域とは、果実、小果梗、およびその離層の領域とする。領域検出の方法としては、様々な方法が挙げられるが、本実施形態では、機械学習(ディープラーニング)を用いた画像分割手法であるSegNetを利用する。SegNetは公知の方法であるため、詳細な説明は省略するが、ここでは、果実、小果梗、および離層の領域を検出するように学習されたSegNetのモデルを用いる。このモデルは予め生成され、記憶部202に保持されているものとする。
S803にて、制御部201は、S802にて検出された複数の領域に対し、トマトの構造に応じたラベル付けを行う。具体的には、S802にて検出された複数の領域において、果実の画像領域に隣接した小果梗の領域を「第1小果梗」とする。また、「第1小果梗」に隣接した領域を「離層」とする。更に「離層」に隣接した小果梗の領域を「第2小果梗」とする。つまり、「離層」領域を境として、「第1小果梗」領域と「第2小果梗」領域を特定する。
S804にて、制御部201は、S803にて抽出した領域のうち、「第1小果梗」領域と「離層」領域を画像から抽出する。
S805にて、制御部201は、S804にて抽出した各領域における形状および位置を示す3D点群を抽出する。上述したように、2D画像の情報から3D点群を抽出する方法は特に限定するものではなく、公知の方法を用いてよい。また、ここでの3D点群のデータ形式は特に限定するものでは無い。
S806にて、制御部201は、S802にて取得した果実の領域における形状および位置を示す3D点群を抽出する。更に、抽出した3D点群に対して、球面フィッティングを実施し、その果実(トマト)の中心座標を特定する。なお、球面フィッティングを行う際の算出式や条件は特に限定するものでは無いが、対象とする果実(ここではトマト)に最適化されたものを用いるものとする。
S807にて、制御部201は、S806にて決定した中心座標(果実側)と、S805にて抽出した点群(ヘタ側)とに基づいて、図4にて説明したトマト座標系のZ軸の方向を決定する。
S808にて、制御部201は、S807にて決定したZ軸方向および、S805にて抽出した3D点群のデータに基づいて、ヘタ部に直交する平面をXY平面として特定し、着目トマトに対するトマト座標系を決定する。そして、本処理フローを終了する。
以上、本実施形態では、高精度な三次元センサを用いた3D計測を行う必要が無く、果菜の状態を認識し、もぎ取り方向を識別することができる。そのため、収穫装置において、計測時間の長期化や高精度の3Dセンサによる装置の大型化などを抑止し、コスト削減や測定時間の削減などを実現することができる。結果として、本実施形態では、収穫装置は、簡易な構成により、果菜の収穫において果菜の状態を認識可能となる。
<実施形態のまとめ>
上記実施形態の収穫装置は、小果梗の先端に形成された果菜を収穫する収穫装置(例えば、100)であって、
収穫対象となる果菜の第1の画像を撮像部(例えば、106)により取得する取得手段(例えば、201)と、
前記第1の画像から果菜および小果梗の領域を抽出する抽出手段(例えば、201)と、
前記抽出手段にて抽出した果菜および小果梗の領域に基づいて、前記果菜に対する座標軸を特定する特定手段(例えば、201)と、
前記特定手段にて特定された座標軸の方向を上下方向として、前記果菜の側方からの視点となるように前記撮像部の視点を制御する制御手段(例えば、201、105、203、204)と、
前記制御手段により前記側方からの視点となった前記撮像部により取得される第2の画像に基づいて、前記小果梗が延びている方向を識別する識別手段(例えば、201)と
を有する。
この実施形態によれば、収穫装置は、簡易な構成により、果菜の収穫において果菜の状態を認識可能となる。
2.上記実施形態では、前記識別手段にて識別された小果梗が延びている方向に基づいて、前記果菜のもぎ取り方向を決定する決定手段(例えば、201)を更に有する。
この実施形態によれば、小果梗が延びている方向に適した、果菜のもぎ取り方向を決定することができる。
3.上記実施形態では、前記特定手段は、前記果菜の領域の中心座標と、前記果菜の領域と前記小果梗の領域との接続位置の座標とから前記座標軸を特定する。
この実施形態によれば、果菜の果実部分および小果梗部分の位置関係に応じて、当該果実に応じた姿勢(なり方)を認識することができる。
4.上記実施形態では、前記抽出手段は、機械学習に基づく画像分割処理を用いて前記第1の画像から果菜および小果梗の領域を抽出する。
この実施形態によれば、機械学習による精度の高い、果菜を構成する各領域を認識することができる。
5.上記実施形態では、前記識別手段は、機械学習に基づく分類処理を用いて前記第2の画像を分類することにより、前記小果梗が延びている方向を識別する。
この実施形態によれば、機械学習による精度の高い、画像の分類処理を行うことが可能となる。
6.上記実施形態によれば、前記機械学習に基づく分類処理により前記第2の画像が所定のカテゴリに分類された場合、
前記制御手段は、前記座標軸の方向を上下方向として、前記果菜の側方からの異なる視点となるように前記撮像部の視点を制御し、
前記識別手段は、前記制御手段により前記側方からの異なる視点となった前記撮像部により取得される第3の画像に基づいて、前記小果梗が延びている方向を更に識別する。
この実施形態によれば、果菜のなり方に応じた適切な視点にて、果菜の状態の認識を行うことが可能となる。
7.上記実施形態によれば、前記所定のカテゴリは、前記小果梗が延びている方向が奥行方向であり、かつ、当該第2の画像において前記小果梗が延びている方向において当該小果梗が短いと判定されたカテゴリである。
この実施形態によれば、果菜のなり方に応じた適切な視点にて、果菜の状態の認識を行うことが可能となる。
8.上記実施形態の収穫装置の制御方法は、小果梗の先端に形成された果菜を収穫する収穫装置(例えば、100)の制御方法であって、
収穫対象となる果菜の第1の画像を撮像部(例えば、106)により取得する取得工程と、
前記第1の画像から果菜および小果梗の領域を抽出する抽出工程と、
前記抽出工程にて抽出した果菜および小果梗の領域に基づいて、前記果菜に対する座標軸を特定する特定工程と、
前記特定工程にて特定された座標軸の方向を上下方向として、前記果菜の側方からの視点となるように前記撮像部の視点を制御する制御工程と、
前記制御工程により前記側方からの視点となった前記撮像部により取得される第2の画像に基づいて、前記小果梗が延びている方向を識別する識別工程と
を有する。
この実施形態によれば、収穫装置において、簡易な構成により、果菜の収穫において果菜の状態を認識可能となる。
9.上記実施形態のプログラムは、
小果梗の先端に形成された果菜を収穫する収穫装置(例えば、100)に搭載されたコンピュータ(例えば、201)を、
収穫対象となる果菜の第1の画像を撮像部(例えば、106)により取得する取得手段、
前記第1の画像から果菜および小果梗の領域を抽出する抽出手段、
前記抽出手段にて抽出した果菜および小果梗の領域に基づいて、前記果菜に対する座標軸を特定する特定手段、
前記特定手段にて特定された座標軸の方向を上下方向として、前記果菜の側方からの視点となるように前記撮像部の視点を制御する制御手段、
前記制御手段により前記側方からの視点となった前記撮像部により取得される第2の画像に基づいて、前記小果梗が延びている方向を識別する識別手段
として機能させる。
この実施形態によれば、収穫装置は、簡易な構成により、果菜の収穫において果菜の状態を認識可能となる。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
100…収穫装置
101…本体部
102…収納部
104…走行機構
105…ロボットアーム
106…撮像装置
107…収穫部
201…制御部

Claims (8)

  1. 小果梗の先端に形成された果菜を収穫する収穫装置であって、
    収穫対象となる果菜の第1の画像を撮像部により取得する取得手段と、
    前記第1の画像から果菜および小果梗の領域を抽出する抽出手段と、
    前記抽出手段にて抽出した果菜および小果梗の領域に基づいて、前記果菜の領域の中心座標と、前記果菜の領域と前記小果梗の領域との接続位置の座標とから前記果菜に対する座標軸を特定する特定手段と、
    前記特定手段にて特定された座標軸の方向を上下方向として、前記果菜の側方からの視点となるように前記撮像部の視点を制御する制御手段と、
    前記制御手段により前記側方からの視点となった前記撮像部により取得される第2の画像に基づいて、前記小果梗が延びている方向を識別する識別手段と
    を有することを特徴とする収穫装置。
  2. 前記識別手段にて識別された小果梗が延びている方向に基づいて、前記果菜のもぎ取り方向を決定する決定手段を更に有することを特徴とする請求項1に記載の収穫装置。
  3. 前記抽出手段は、機械学習に基づく画像分割処理を用いて前記第1の画像から果菜および小果梗の領域を抽出することを特徴とする請求項1または2に記載の収穫装置。
  4. 前記識別手段は、機械学習に基づく分類処理を用いて前記第2の画像を分類することにより、前記小果梗が延びている方向を識別することを特徴とする請求項1乃至のいずれか一項に記載の収穫装置。
  5. 前記機械学習に基づく分類処理により前記第2の画像が所定のカテゴリに分類された場合、
    前記制御手段は、前記座標軸の方向を上下方向として、前記果菜の側方からの異なる視点となるように前記撮像部の視点を制御し、
    前記識別手段は、前記制御手段により前記側方からの異なる視点となった前記撮像部により取得される第3の画像に基づいて、前記小果梗が延びている方向を更に識別する
    ことを特徴とする請求項に記載の収穫装置。
  6. 前記所定のカテゴリは、前記小果梗が延びている方向が奥行方向であり、かつ、当該第2の画像において前記小果梗が延びている方向において当該小果梗が短いと判定されたカテゴリであることを特徴とする請求項に記載の収穫装置。
  7. 小果梗の先端に形成された果菜を収穫する収穫装置の制御方法であって、
    収穫対象となる果菜の第1の画像を撮像部により取得する取得工程と、
    前記第1の画像から果菜および小果梗の領域を抽出する抽出工程と、
    前記抽出工程にて抽出した果菜および小果梗の領域に基づいて、前記果菜の領域の中心座標と、前記果菜の領域と前記小果梗の領域との接続位置の座標とから前記果菜に対する座標軸を特定する特定工程と、
    前記特定工程にて特定された座標軸の方向を上下方向として、前記果菜の側方からの視点となるように前記撮像部の視点を制御する制御工程と、
    前記制御工程により前記側方からの視点となった前記撮像部により取得される第2の画像に基づいて、前記小果梗が延びている方向を識別する識別工程と
    を有することを特徴とする収穫装置の制御方法。
  8. 小果梗の先端に形成された果菜を収穫する収穫装置に搭載されたコンピュータを、
    収穫対象となる果菜の第1の画像を撮像部により取得する取得手段、
    前記第1の画像から果菜および小果梗の領域を抽出する抽出手段、
    前記抽出手段にて抽出した果菜および小果梗の領域に基づいて、前記果菜の領域の中心座標と、前記果菜の領域と前記小果梗の領域との接続位置の座標とから前記果菜に対する座標軸を特定する特定手段、
    前記特定手段にて特定された座標軸の方向を上下方向として、前記果菜の側方からの視点となるように前記撮像部の視点を制御する制御手段、
    前記制御手段により前記側方からの視点となった前記撮像部により取得される第2の画像に基づいて、前記小果梗が延びている方向を識別する識別手段
    として機能させるためのプログラム。
JP2019077346A 2019-04-15 2019-04-15 収穫装置およびその制御方法、並びにプログラム Active JP7229840B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077346A JP7229840B2 (ja) 2019-04-15 2019-04-15 収穫装置およびその制御方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077346A JP7229840B2 (ja) 2019-04-15 2019-04-15 収穫装置およびその制御方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2020174536A JP2020174536A (ja) 2020-10-29
JP7229840B2 true JP7229840B2 (ja) 2023-02-28

Family

ID=72935321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077346A Active JP7229840B2 (ja) 2019-04-15 2019-04-15 収穫装置およびその制御方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP7229840B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4230675A1 (en) 2020-10-16 2023-08-23 Toyobo Co., Ltd. Crosslinked polyester resin

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095348A (ja) 1999-10-01 2001-04-10 Masateru Nagata 果菜収穫用摘採ハンド及びそれを用いた果菜収穫方法
JP2012110256A (ja) 2010-11-22 2012-06-14 National Agriculture & Food Research Organization 果柄切断装置
JP2016073265A (ja) 2014-10-02 2016-05-12 大介 阿部 果実自動収穫装置
CN108182374A (zh) 2016-12-08 2018-06-19 广州映博智能科技有限公司 一种针对果实串的采摘点识别方法
JP2018143214A (ja) 2017-03-09 2018-09-20 パナソニック株式会社 果梗位置推定装置および果梗位置推定方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3514323B2 (ja) * 1993-10-20 2004-03-31 ヤンマー農機株式会社 真空式収穫機

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095348A (ja) 1999-10-01 2001-04-10 Masateru Nagata 果菜収穫用摘採ハンド及びそれを用いた果菜収穫方法
JP2012110256A (ja) 2010-11-22 2012-06-14 National Agriculture & Food Research Organization 果柄切断装置
JP2016073265A (ja) 2014-10-02 2016-05-12 大介 阿部 果実自動収穫装置
CN108182374A (zh) 2016-12-08 2018-06-19 广州映博智能科技有限公司 一种针对果实串的采摘点识别方法
JP2018143214A (ja) 2017-03-09 2018-09-20 パナソニック株式会社 果梗位置推定装置および果梗位置推定方法

Also Published As

Publication number Publication date
JP2020174536A (ja) 2020-10-29

Similar Documents

Publication Publication Date Title
Ling et al. Dual-arm cooperation and implementing for robotic harvesting tomato using binocular vision
Bohg et al. Robot arm pose estimation through pixel-wise part classification
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
CN113696186B (zh) 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
Kang et al. Visual perception and modeling for autonomous apple harvesting
US20090290758A1 (en) Rectangular Table Detection Using Hybrid RGB and Depth Camera Sensors
JP5803367B2 (ja) 自己位置推定装置、自己位置推定方法およびプログラム
US20230042756A1 (en) Autonomous mobile grabbing method for mechanical arm based on visual-haptic fusion under complex illumination condition
Zou et al. Fault-tolerant design of a limited universal fruit-picking end-effector based on vision-positioning error
EP3460756B1 (en) Tracking system and method thereof
JP2016091108A (ja) 人体部位検出システムおよび人体部位検出方法
Gong et al. Robotic harvesting of the occluded fruits with a precise shape and position reconstruction approach
Yuan et al. Precise planar motion measurement of a swimming multi-joint robotic fish
Xiong et al. An improved obstacle separation method using deep learning for object detection and tracking in a hybrid visual control loop for fruit picking in clusters
US20190122371A1 (en) Moving object controller, landmark, and moving object control method
JP7229840B2 (ja) 収穫装置およびその制御方法、並びにプログラム
US20240165807A1 (en) Visual servoing of a robot
JP2006331108A (ja) 画像処理装置、画像処理方法、および、プログラム
JP7187388B2 (ja) 位置姿勢推定装置及び位置姿勢推定方法
JP2022160363A (ja) ロボットシステム、制御方法、画像処理装置、画像処理方法、物品の製造方法、プログラム、及び記録媒体
JP6880457B2 (ja) 把持方法、把持システム及びプログラム
KR102572571B1 (ko) 로봇 수확을 위한 과일 줄기 자세 인식 시스템
JP2020195335A (ja) 果菜収穫装置及び果菜収穫方法
KR102186875B1 (ko) 움직임 추적 시스템 및 방법
JP2021036821A (ja) 収穫ロボット

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7229840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150