JP6856411B2 - 果梗位置推定装置および果梗位置推定方法 - Google Patents

果梗位置推定装置および果梗位置推定方法 Download PDF

Info

Publication number
JP6856411B2
JP6856411B2 JP2017044708A JP2017044708A JP6856411B2 JP 6856411 B2 JP6856411 B2 JP 6856411B2 JP 2017044708 A JP2017044708 A JP 2017044708A JP 2017044708 A JP2017044708 A JP 2017044708A JP 6856411 B2 JP6856411 B2 JP 6856411B2
Authority
JP
Japan
Prior art keywords
fruit
image
stalk
fruit stalk
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017044708A
Other languages
English (en)
Other versions
JP2018143214A (ja
Inventor
亮 戸島
亮 戸島
秀和 荒木
秀和 荒木
川野 肇
肇 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2017044708A priority Critical patent/JP6856411B2/ja
Priority to CN201810183834.9A priority patent/CN108566822B/zh
Priority to EP18160767.2A priority patent/EP3373203B1/en
Publication of JP2018143214A publication Critical patent/JP2018143214A/ja
Application granted granted Critical
Publication of JP6856411B2 publication Critical patent/JP6856411B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D45/00Harvesting of standing crops
    • A01D45/006Harvesting of standing crops of tomatoes
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D46/00Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
    • A01D46/30Robotic devices for individually picking crops
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Harvesting Machines For Specific Crops (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、トマトなどの果実と連結している果梗の位置を推定する果梗位置推定装置および果梗位置推定方法に関する。
日本の農業を取り巻く環境は、高齢化が進んでいることによる労働不足の影響で、非常に厳しい状況にある。農林水産省の基本データによると、2014年の基幹的農業従事者は168万人であり、5年間で約23万人の減少となっている。
また、平均年齢が66.5歳となり、新規就農者も減少傾向にあるなど、高齢化による労働不足が浮き彫りになっている。また、耕作放棄地も40万haに達する状況であり、地域の営農環境や生活環境にも悪影響を及ぼしている。
そのような中、農業の自動化による労働力不足への対応は重要な課題となっている。経済産業省の「2012年ロボット産業の市場動向」によれば、2018年から2024年にかけて農業関連ロボット国内市場は大きく伸びるとされ、約2200億円の規模になると予想されている。
このようなロボットとして、特許文献1には、果実を対象にした収穫ロボットが開示されている。この収穫ロボットは、イメージセンサカメラにより果実が生っている房を撮像し、房に生っている果実と果梗の位置を検出し、果実の中心と果梗の両方にエンドエフェクタが力を加えて果実をもぎ取る(例えば、特許文献1参照。)。
特開2010−207118号公報
特許文献1の収穫ロボットでは、エンドエフェクタの適切な挿入方向を決定するため、果実と果梗の位置を検出することが必要である。
そのため、イメージセンサカメラによる撮像により果梗を認識できている場合には果梗の位置を検出することができ、エンドエフェクタの適切な挿入方向を決定することも可能になるが、果梗が果実などに隠れてしまって果梗を認識できない場合には果梗の位置を検出することができず、エンドエフェクタの適切な挿入方向を決定することができなかった。その結果、安定的な収穫をすることができなくなるという課題があった。
本発明は、上記課題を解決するものであり、イメージセンサ側からみて果実などに隠れて果梗を認識できない場合でも果梗の位置を推定することができ、安定的な収穫動作を可能とする果梗位置推定装置および果梗位置推定方法を提供することを目的とする。
上記目的を達成するために、本発明の果梗位置推定装置は、果実の画像を取得する画像取得部と、画像取得部で取得された画像における果実の位置と果実間の距離に基づいて、果実と連結している果梗の位置を推定する推定部と、を備える。
また、本発明の果梗位置推定方法は、果実の画像を取得する画像取得ステップと、画像取得ステップで取得された画像における果実の位置と果実間の距離に基づいて、果実と連結している果梗の位置を推定する推定ステップと、を含む。
本発明によれば、イメージセンサ側からみて果実などに隠れて果梗を認識できない場合でも果梗の位置を推定することができ、安定的な収穫動作を可能とする。すなわち、収穫対象の果実と果梗との位置関係によらずエンドエフェクタの挿入方向を決定することができるので、安定的な収穫動作を行うことができる。
果梗の位置を推定する果梗位置推定装置の一例を示す図 ミニトマトの収穫装置に設けられるエンドエフェクタの一例を示す図 本発明で使用するエンドエフェクタによる収穫動作について説明する図 本発明で使用するエンドエフェクタによる収穫動作について説明する図 本発明で使用するエンドエフェクタによる収穫動作について説明する図 果梗の位置を推定する果梗位置推定処理の一例を示すフローチャート IR光を照射してミニトマトおよび果梗を撮影した画像の一例を示す図 輝点の検出処理の一例を示すフローチャート 果梗検出処理における2値化画像の一例を示す図 果梗検出処理における細線化処理後の画像の一例を示す図 果梗検出後の画像の一例を示す図 果梗推定の対象となる果実の房の一例を示す図 果梗推定の対象となる果実の房の一例を示す図 推定された果梗と果実との間の距離について説明する図 推定された果梗と果実との間の距離について説明する図 ミニトマトの房の構成について示す図
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、同じ構成要素には同じ符号を付してある。なお、以下では、果実の一例としてミニトマトを挙げて説明を行うが、果実はミニトマトに限らず、他の果実であってもよい。
まず、本発明の実施に形態における果梗の位置推定方法の理解を助けるため、(1)収穫対象であるミニトマトの形態、(2)収穫装置を使用したミニトマトの収穫方法について、説明する。
(1)収穫対象であるミニトマトの形態
収穫対象であるミニトマトは、ぶどうなどのように果実が房状になっている。ミニトマトについては、果実が複数個密集して付いている房を房ごと収穫するのではなく、赤く熟した果実を一つ一つもぎ取ることで収穫している。これは、房に付いている果実の成熟度合いが異なるためである。一般に、ミニトマトは生食用であり、果実表面に傷を付けずにガクごと収穫することが必要である。
図12は、ミニトマトの房の構成について示す図である。図12に示すように、一つの房は、果梗405といわれる茎を中心に構成されている。この果梗405から、小果梗401、ガク403が生り、その先に果実404が生っている。
小果梗401の途中には離層402とよばれる箇所があり、小果梗401に力を加えたときに、離層402で小果梗401が分断される。本発明では、このように離層を有する果実を対象にしている。
(2)収穫装置を使用したミニトマトの収穫方法
ここで、このような離層402における小果梗401の分断を、エンドエフェクタを用いて行う場合の動作について説明する。図1は、果梗の位置を推定する果梗位置推定装置の一例を示す図である。図2は、ミニトマトの収穫装置に設けられるエンドエフェクタの一例を示す図である。例えば、図1に示す果梗位置推定装置は、図2に示す収穫装置に搭載される。
また、図3A〜図3Cは、エンドエフェクタによる収穫動作について説明する図である。具体的には、図3Aは、ミニトマト404の引き込み動作を示しており、図3Bは、収穫リング202の挿入動作を示しており、図3Cは、ミニトマト404の分離、および、収穫動作を示している。
図2に示すように、エンドエフェクタは、引き込みガイド201、収穫リング202、収穫果ガイド203、収穫果シート204、ロボットアーム205を備える。収穫リング202は、上下2つに分離し、上部を下部に対して相対的に移動させることができる。
引き込みガイド201は、図3Aに示されるように、収穫するミニトマト404を引き込み、他のミニトマト(図示せず)との間に隙間を作る。つぎに、図3Bに示されるように、収穫リング202が、上記隙間に挿入されるとともに、引き込みガイド201の前部に設けられた切れ目を小果梗401がすり抜けて、ミニトマト404が引き込みガイド201から離脱する。
その後、図3Cに示されるように、収穫リング202の上部を下部に対して相対的に移動させることにより、ミニトマト404を引き寄せ、果梗405を押し出す。これにより、小果梗401を引き伸ばし、離層402でミニトマト404を分離する。
以上の動作においては、エンドエフェクタをできるだけミニトマト404の中心位置と果梗405の位置を結ぶ方向から挿入させる必要があり、そのためにはミニトマト404と果梗405の位置を検出する必要がある。
以下では、房の中からミニトマト404を見つけ出して収穫する際に必要な果梗405の検出において、果梗405がイメージセンサにより撮像された画像から認識できない場合であっても、その果梗405の位置を推定することを可能とする方法について詳細に説明する。
まず、果梗405の位置を推定する果梗位置推定装置の構成の一例について、図1を用いて説明する。位置推定装置は、光源101、画像取得部102、画像処理部103、および、推定部104を備える。
光源101は、収穫対象であるミニトマト404の房方向に光を照射する。これは、照射した光の反射光をイメージセンサである画像取得部102が撮像することでミニトマト404を検出するためであり、光源101としては、たとえばIR(InfraRed)光源が用いられる。
また、画像取得部102としては、RGB(Red,Green,Blue)カラー画像、IR画像に加えて、被写体との距離画像を測定することができるTOF(Time−of−Flight)カメラが用いられる。
画像取得部102により取得されたRGBカラー画像、IR画像、距離画像の3種類が画像処理部103に入力されると、画像処理部103は、以下に説明する画像処理を実行し、ミニトマト404や果梗405の位置を認識する。さらに、果梗405が画像処理部103により認識できない場合には、画像処理部103の画像処理の結果に基づいて、推定部104が、果梗405の位置を推定する。
次に、果梗405の位置を推定する果梗位置推定方法の一例について説明する。図4は、果梗405の位置を推定する果梗位置推定処理の一例を示すフローチャートである。
この推定処理では、まず、光源101がIR光を照射する(ステップS1)。そして、画像取得部102がミニトマト404を撮像し、RGBカラー画像、IR画像、距離画像を取得する(ステップS2)。
光源101から照射したIR光がミニトマト404の表面で反射される場合、その反射光は輝点として検出される。そのため、画像処理部103は、IR画像から輝点を検出することによりミニトマト404の中心位置を検出する。また、画像処理部103は、IR画像に画像処理を施し、果梗405の位置を検出する(ステップS3)。これらの検出処理については、図5、図6を用いてさらに詳しく説明する。
その後、推定部104は、画像処理部103が果梗405を検出できたか否かを判定する(ステップS4)。果梗405を検出できた場合(ステップS4においてYESの場合)、検出した果梗405の情報を用いて収穫動作が実行される(ステップS10)。
果梗405を検出できなかった場合(ステップS4においてNOの場合)、ステップS5以降の果梗405の位置の推定処理を行う。
具体的には、推定部104は、ステップS3で検出したミニトマト404の房ごとのグルーピングを実施する(ステップS5)。そして、推定部104は、グループ化されたミニトマト404の集団ごとに、主成分分析を用いて果梗405の位置の推定を行う(ステップS6)。
さらに、推定部104は、位置が推定された果梗405と、同一房内のミニトマト404の中心座標との間の距離を算出する(ステップS7)。さらに、推定部104は、その距離の平均値が所定の閾値以上であるか否かを判定する(ステップS8)。
上記平均値が所定の閾値以上である場合(ステップS8においてYESの場合)、推定部104は、ミニトマト404が画像上において2列に並んでいると推定し、ステップS6で推定した果梗405の位置の情報を用いて収穫動作が実行される(ステップS10)。
上記平均値が所定の閾値未満である場合(ステップS8においてNOの場合)、ステップS6で推定した果梗405の位置を近似する直線の傾きから果梗405の位置の補正を行う(ステップS9)。その後、補正された果梗405の位置の情報を用いて収穫動作が実施される(ステップS10)。
以下では、上述した各ステップの処理内容についてさらに詳細に説明する。
図5に、IR光を照射してミニトマト404および果梗405を撮影した画像の一例を示す。以降の説明において画像座標について述べる場合、画像の左下を原点とし、右方向をx軸の正方向、上方向をy軸の正方向とする。
図5に示すように、ミニトマト404の中心付近に、ミニトマト404の表面で反射されたIR光である輝点301があることが確認できる。そのため、ミニトマト404の中心位置は、輝点301の位置として推定され得る。
図6は、輝点301の検出処理の一例を示すフローチャートである。本実施形態においては、画像取得部102と撮像対象のミニトマト404との間の距離は、2500〜4500mmを想定しているが、これよりも画像取得部102に近い位置にミニトマト404がある場合には、IR光の反射光が飽和してしまう。
そのため、図6においては、上記距離が2500mmから4500mmの場合と2500mm未満の場合とで輝点301の検出方法を変更している。
具体的には、上記距離が2500mmから4500mmの場合、画像処理部103は、距離画像の入力を受け付け(ステップS21)、距離画像から2500mm以上の領域を抽出する(ステップS22)。
一方、画像処理部103は、IR画像の入力を受け付け(ステップS23)、そのIR画像にMAXフィルタ処理を行い(ステップS24)、さらにラプラシアン処理を行う(ステップS25)。
その後、画像処理部103は、2500mm以上の領域が抽出された距離画像と、MAXフィルタ処理、および、ラプラシアン処理が適用されたIR画像との論理積演算を行う(ステップS26)。さらに、画像処理部103は、その結果得られた画像に対し、粒子解析を行う(ステップS27)。
上記距離が2500mm未満の場合、画像処理部103は、距離画像の入力を受け付け(ステップS28)、距離画像から2500mm未満の領域を抽出する(ステップS29)。
また、画像処理部103は、IR画像の入力を受け付け(ステップS30)、そのIR画像において画像の階調が飽和している領域(階調の値が高い部分)を抽出する(ステップS31)。
その後、画像処理部103は、2500mm未満の領域が抽出された距離画像と、画像の階調が飽和している領域が抽出されたIR画像との論理積演算を行う(ステップS32)。さらに、画像処理部103は、その結果得られた画像に対し、粒子解析を行う(ステップS33)。
最後に、画像処理部103は、ステップS27で粒子解析が行われた画像と、ステップS33で粒子解析が行われた画像との論理和を算出する(ステップS34)。そして、画像処理部103は、その結果得られた画像に対して粒子解析を行うことにより輝点を検出する(ステップS35)。
つぎに、図4のステップS3に示した果梗405の検出処理について詳しく説明する。この果梗405の検出についても、IR画像を利用する。具体的には、画像処理部103は、図5に示した画像において、輝度が所定の閾値よりも高い部分を抽出し、2値化処理を行う。その結果得られた画像の一例を図7に示す。
そして、画像処理部103は、一定面積以下の領域を除去し、細線化処理を行う。これにより、果梗405の候補が抽出される。その結果得られた画像を図8に示す。
さらに、画像処理部103は、再度、一定面積以下の領域を除去することにより、果梗405の候補の中から果梗405を検出する。図9は、このような処理により得られた果梗405を示す図である。
果梗405はこのようにして検出されるが、図10Aに示すように、ミニトマト404のガク403がミニトマト404の房の向こう側にあってミニトマト404のガク403が見えない場合、あるいは、図10Bに示すように、イメージセンサに対してガク403が横に向いている場合は、イメージセンサで取得した画像において果梗405を確認することができず、図4のステップS3の処理により果梗405を検出することができない。
このような場合、図4のステップS5以降の処理が実行され、果梗405の位置が推定される。以下、ステップS5以降の処理について、詳しく説明する。
まず、ステップS5において、推定部104は、図4のステップS3において検出したミニトマト404の中心位置の座標を用いてミニトマト404間の距離を測定する。そして、推定部104は、その距離が互いに所定の閾値以下となるミニトマト404を同一房に属するミニトマト404としてグルーピングする。推定部104は、上記処理をすべてのミニトマト404について行う。
例えば、ミニトマト404間の距離は、二つのミニトマト404の中心位置の座標をA(x,y)、B(x,y)とすると、以下のようにして算出される。
Figure 0006856411
さらに、推定部104は、図4のステップS6に示した果梗405の推定処理を行う。具体的には、推定部104は、同一房内のミニトマト404の中心位置の座標の情報をもとに、補完法を用いて果梗405を直線で近似する。
例えば、推定部104は、同一房内のミニトマト404のグループの中心位置(x,y)、(x,y),・・・,(x,y)の重心(平均値)を通り、主成分分析に基づき、以下の式により算出される傾きθ(直線とY軸とがなす角度)を有する直線を果梗405の近似直線とする。
Figure 0006856411
その後、推定部104は、図4のステップS7に示した距離の算出処理を行う。具体的には、推定部104は、推定された果梗405の近似直線と、同一房内の各ミニトマト404との距離の平均値を算出する。
図11Aおよび図11Bは、輝点301と果梗405の近似直線302との間の距離dの算出について説明する図である。図11Aおよび図11Bにはそれぞれ、図10Aおよび図10Bの画像において検出された輝点301と近似直線302とが示されている。
推定部104は、図11Aおよび図11Bに示すように、各輝点301と近似直線302との間の距離dの平均値を算出する。
図11Aに示されるように、ミニトマト404のガク403がミニトマト404の房の向こう側にある場合には、イメージセンサ側からみてミニトマト404が2列に並び、それらの列の中間付近に近似直線302が現れる。
一方、図11Bに示されるように、イメージセンサに対してガク403が横に向いている場合には、イメージセンサ側からみてミニトマト404は1列に並び、ミニトマト404上に近似直線302が現れる。そのため、上述した距離dの平均値は、図11Bの場合よりも図11Aの場合の方が大きくなる。
このようなことから、推定部104は、図4のステップS8に示すように、距離dの平均値が所定の閾値以上か否かを判定し、距離dの平均値が所定の閾値以上である場合に、ミニトマト404のガク403がミニトマト404の房の向こう側にあると推定する。
ここで、図11Aのように、ミニトマト404が2列に並び、ミニトマト404が密着している場合、上述した距離dの平均値はミニトマト404の半径程度になることから、上記閾値については、ミニトマト404の半径を基準にして決定することが望ましい。
なお、実際の果梗405の位置と近似直線302の位置との誤差は、エンドエフェクタの挿入方向を決めるに際して許容できる範囲であると考えられる。
よって、推定部104は、奥行き方向の距離として、距離画像で得られたミニトマト404の表面の距離に所定の値を加えた位置をミニトマト404の奥行き方向の位置とし、果梗405の位置の推定を終了する。所定の値とは、たとえば、ミニトマト404の半径程度の値である。
一方、距離dの平均値が所定の閾値以上ではない場合、推定部104は、図4のステップS9に示すように、果梗405の傾きから果梗405の位置を補正する。
例えば、図10Bに示すように、イメージセンサに対してガク403が横に向いている場合は、ミニトマト404はイメージセンサ側から見て1列に見えている。このような状況において、例えば図11Bに示すように、近似直線302の傾き(x方向の増加量に対するy方向の増加量の比率)が正の場合、実際の果梗は近似直線302よりも左側にあると考えられる。
そのため、推定部104は、果梗405の位置を近似直線302からx軸の負方向に所定の値だけ移動した位置に移動させ、果梗405の位置を補正する。所定の値とは、例えば、ミニトマト404の半径程度の値である。
一方、近似直線302の傾きが負の場合、実際の果梗405は近似直線302よりも右側にあると考えられるため、推定部104は、果梗405の位置を近似直線302からx軸の正方向に所定の値だけ移動した位置に移動させ、果梗405の位置を補正する。所定の値とは、例えば、ミニトマト404の半径程度の値である。
このようにして、イメージセンサに対してガク403が横に向いている場合には、推定部104が、果梗405の位置を補正する。
以上の説明において、ステップS5におけるミニトマト404のグルーピング処理、おおよび、ステップS7における距離の算出処理においては、画像の座標上における距離、すなわち2次元座標で計算を行った。これは、ミニトマト404の房がイメージセンサ側から見て重ならない位置にあることを想定している。
しかし、ミニトマト404が生育している畝の状態によっては、房が密集しているような場合も想定される。このような場合、2次元座標で距離を算出する代わりに、3次元座標で距離を算出してもよい。
この場合、式(1)は、二つのミニトマト404の座標をA(x,y,z)、B(x,y,z)とすると、以下のようになる。
Figure 0006856411
以上の処理の後、図4のステップS10に示すように、推定された果梗405の位置とミニトマト404の位置の情報をもとに、エンドエフェクタによる収穫作業が実行される。
本発明の果梗位置推定装置および果梗位置推定方法は、房になっているミニトマトをはじめ、果梗に果実が集まり、房を構成している果実に対して適用できる。
101 光源
102 画像取得部(イメージセンサ)
103 画像処理部
104 推定部
201 引き込みガイド
202 収穫リング
203 収穫果ガイド
204 収穫果シート
205 ロボットアーム
301 輝点
302 近似直線
401 小果梗
402 離層
403 ガク
404 果実
405 果梗

Claims (5)

  1. 果実の画像を取得する画像取得部と、推定部と、を備え、
    前記推定部は、
    前記画像取得部で取得された画像における果実間の距離に基づいて、複数の果実を含むグループを生成し、
    前記グループに含まれる前記複数の果実の位置に基づき、補完法を用いて、前記グループに含まれる前記複数の果実と連結している果梗の位置を推定する、
    果梗位置推定装置。
  2. 前記推定部は、前記果実と前記果梗との間の距離、及び、前記果梗の傾きに基づいて、前記果梗の位置を補正する請求項1に記載の果梗位置推定装置。
  3. 前記画像取得部は、前記果実までの距離の情報を含む距離画像を取得し、前記推定部は、前記距離画像に基づいて前記果梗の位置を補正する請求項1または2に記載の果梗位置推定装置。
  4. 光源から照射された光が前記果実の表面で反射されることより前記画像に生じる輝点を前記果実の位置として検出する画像処理部をさらに備えることを特徴とする請求項1〜3のいずれか1項に記載の果梗位置推定装置。
  5. 果実の画像を取得する画像取得ステップと、
    前記画像取得ステップで取得された画像における果実間の距離に基づいて、複数の果実を含むグループを生成するグルーピングステップと、
    前記グループに含まれる前記複数の果実の位置に基づき、補完法を用いて、前記グループに含まれる前記複数の果実と連結している果梗の位置を推定する推定ステップと、
    を含む果梗位置推定方法。
JP2017044708A 2017-03-09 2017-03-09 果梗位置推定装置および果梗位置推定方法 Active JP6856411B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017044708A JP6856411B2 (ja) 2017-03-09 2017-03-09 果梗位置推定装置および果梗位置推定方法
CN201810183834.9A CN108566822B (zh) 2017-03-09 2018-03-06 果柄位置估计装置以及果柄位置估计方法
EP18160767.2A EP3373203B1 (en) 2017-03-09 2018-03-08 Equipment of localization of peduncle and method of localization of peduncle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017044708A JP6856411B2 (ja) 2017-03-09 2017-03-09 果梗位置推定装置および果梗位置推定方法

Publications (2)

Publication Number Publication Date
JP2018143214A JP2018143214A (ja) 2018-09-20
JP6856411B2 true JP6856411B2 (ja) 2021-04-07

Family

ID=61616845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017044708A Active JP6856411B2 (ja) 2017-03-09 2017-03-09 果梗位置推定装置および果梗位置推定方法

Country Status (3)

Country Link
EP (1) EP3373203B1 (ja)
JP (1) JP6856411B2 (ja)
CN (1) CN108566822B (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109348865B (zh) * 2018-11-13 2023-08-29 杭州电子科技大学 一种朱砂桔采摘机器人及其采摘方法
JP7229840B2 (ja) * 2019-04-15 2023-02-28 本田技研工業株式会社 収穫装置およびその制御方法、並びにプログラム
JP7157959B2 (ja) * 2019-04-24 2022-10-21 パナソニックIpマネジメント株式会社 収穫装置
JP7187388B2 (ja) * 2019-06-04 2022-12-12 本田技研工業株式会社 位置姿勢推定装置及び位置姿勢推定方法
JP2020195335A (ja) * 2019-06-04 2020-12-10 本田技研工業株式会社 果菜収穫装置及び果菜収穫方法
JP7140714B2 (ja) * 2019-06-05 2022-09-21 本田技研工業株式会社 果菜収穫装置
CN110495624A (zh) * 2019-08-29 2019-11-26 贵州大学 一种基于图像识别的水果去蒂机
JP7285466B2 (ja) * 2019-09-03 2023-06-02 パナソニックIpマネジメント株式会社 収穫ロボット
JP2021040490A (ja) * 2019-09-06 2021-03-18 株式会社デンソー 農作物収穫用エンドエフェクタ、及び農作物収穫システム
JP7184016B2 (ja) * 2019-11-06 2022-12-06 株式会社デンソー 農作物収穫システム
IL297477A (en) * 2020-04-22 2022-12-01 Denso Corp crop harvesting method, crop harvesting device, and ngrf, crop harvesting
JP7417901B2 (ja) 2020-05-26 2024-01-19 パナソニックIpマネジメント株式会社 収穫方法
KR102531781B1 (ko) * 2020-11-03 2023-05-12 대한민국 딥러닝 세그멘테이션 인식 기술을 이용한 작물 생장 측정 장치 및 그 방법
KR102542825B1 (ko) * 2020-11-18 2023-06-14 농업회사법인 주식회사 에그리봇 농작물 수확로봇
JP7049636B1 (ja) 2021-12-15 2022-04-07 国立大学法人山梨大学 情報処理装置、プログラム、システム、及び情報処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3606750A (en) * 1969-04-11 1971-09-21 Larry B Walker Fruit harvester
SU1660618A1 (ru) * 1989-08-14 1991-07-07 Казахское Научно-Производственное Объединение Механизации И Электрификации Сельского Хозяйства Способ определени осыпаемости сем н и устройство дл его осуществлени
JP3139074B2 (ja) * 1991-08-21 2001-02-26 井関農機株式会社 果実収穫ロボット等の視覚装置
JP3277529B2 (ja) * 1991-12-18 2002-04-22 井関農機株式会社 果実収穫ロボット
JP3680322B2 (ja) * 1994-07-14 2005-08-10 井関農機株式会社 きゅうり収穫機
JP3503207B2 (ja) * 1994-08-19 2004-03-02 井関農機株式会社 収穫ロボットの果実識別装置
JP3173965B2 (ja) * 1995-06-09 2001-06-04 株式会社クボタ 根菜類収穫機
JP4013351B2 (ja) * 1998-09-22 2007-11-28 井関農機株式会社 果実収穫用ロボット
JP2001095348A (ja) * 1999-10-01 2001-04-10 Masateru Nagata 果菜収穫用摘採ハンド及びそれを用いた果菜収穫方法
US7921628B2 (en) * 2004-09-14 2011-04-12 Westside Equipment Company Small scale tomato harvester
NL2001479C2 (nl) * 2008-04-14 2009-10-19 Ronald Zeelen Werkwijze en inrichting voor het verwijderen van een blad.
JP2010207118A (ja) * 2009-03-09 2010-09-24 Osaka Prefecture Univ 果実収穫用エンドエフェクタ
JP5818240B2 (ja) * 2010-11-22 2015-11-18 国立研究開発法人農業・食品産業技術総合研究機構 果柄切断装置
JP5782622B2 (ja) * 2010-11-22 2015-09-24 国立研究開発法人農業・食品産業技術総合研究機構 果柄切断装置
JP2012191903A (ja) * 2011-03-17 2012-10-11 Nikon Corp 植物選別装置、ロボット、植物栽培システム、植物選別方法、及びプログラム
JP2013005724A (ja) * 2011-06-22 2013-01-10 Nikon Corp 表示制御装置、表示制御システム、表示制御方法及びプログラム
CN103310218B (zh) * 2013-05-21 2016-08-10 常州大学 一种重叠遮挡果实精确识别方法
WO2015006675A2 (en) * 2013-07-11 2015-01-15 Blue River Technology, Inc. Method for automatic phenotype measurement and selection
CN103503639B (zh) * 2013-09-30 2016-01-27 常州大学 一种双臂果蔬采收机器人系统及其果蔬采收方法
CN103824324B (zh) * 2014-02-28 2016-08-17 北京农业信息技术研究中心 一种果树冠层叶子和果实三维重建方法及系统
JP2016154510A (ja) * 2015-02-26 2016-09-01 日本電気株式会社 情報処理装置、生長状況判定方法、およびプログラム

Also Published As

Publication number Publication date
CN108566822B (zh) 2022-04-05
EP3373203A1 (en) 2018-09-12
JP2018143214A (ja) 2018-09-20
CN108566822A (zh) 2018-09-25
EP3373203B1 (en) 2021-05-05

Similar Documents

Publication Publication Date Title
JP6856411B2 (ja) 果梗位置推定装置および果梗位置推定方法
Gongal et al. Apple fruit size estimation using a 3D machine vision system
Halstead et al. Fruit quantity and ripeness estimation using a robotic vision system
Nguyen et al. Detection of red and bicoloured apples on tree with an RGB-D camera
Zhao et al. On-tree fruit recognition using texture properties and color data
Bac et al. Stem localization of sweet-pepper plants using the support wire as a visual cue
US10405535B2 (en) Methods, systems and devices relating to real-time object identification
Costa et al. Extracting fish size using dual underwater cameras
CN105989601B (zh) 基于机器视觉的农业agv玉米行间导航基准线提取方法
Nguyen et al. Apple detection algorithm for robotic harvesting using a RGB-D camera
Blok et al. Machine vision for a selective broccoli harvesting robot
Singh et al. Image processing algorithms for in-field cotton boll detection in natural lighting conditions
Velumani Wheat ear detection in plots by segmenting mobile laser scanner data
Yoshida et al. A tomato recognition method for harvesting with robots using point clouds
CN112541383B (zh) 杂草区域的识别方法和装置
Xiang et al. PhenoStereo: a high-throughput stereo vision system for field-based plant phenotyping-with an application in sorghum stem diameter estimation
JP6929136B2 (ja) 果実検出装置および果実検出方法
JP2021036821A (ja) 収穫ロボット
Raja et al. A novel weed and crop recognition technique for robotic weed control in a lettuce field with high weed densities
Peebles et al. Overview of sensor technologies used for 3D localization of asparagus spears for robotic harvesting
Harel et al. Sweet pepper maturity evaluation via multiple viewpoints color analyses
JP2003000031A (ja) 果実の検出方法
Rahman et al. 3-D image reconstruction techniques for plant and animal morphological analysis-a review
Gongal et al. Identification of repetitive apples for improved crop-load estimation with dual-side imaging
Bakhshipour et al. Recognition of pomegranate on tree and stereoscopic locating of the fruit

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190830

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210318

R151 Written notification of patent or utility model registration

Ref document number: 6856411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151