JP7187388B2 - 位置姿勢推定装置及び位置姿勢推定方法 - Google Patents

位置姿勢推定装置及び位置姿勢推定方法 Download PDF

Info

Publication number
JP7187388B2
JP7187388B2 JP2019104149A JP2019104149A JP7187388B2 JP 7187388 B2 JP7187388 B2 JP 7187388B2 JP 2019104149 A JP2019104149 A JP 2019104149A JP 2019104149 A JP2019104149 A JP 2019104149A JP 7187388 B2 JP7187388 B2 JP 7187388B2
Authority
JP
Japan
Prior art keywords
fruit vegetable
image
fruit
unit
characteristic part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019104149A
Other languages
English (en)
Other versions
JP2020195336A (ja
Inventor
雅起 山崎
深二郎 稲畑
太郎 横山
恭弘 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019104149A priority Critical patent/JP7187388B2/ja
Publication of JP2020195336A publication Critical patent/JP2020195336A/ja
Application granted granted Critical
Publication of JP7187388B2 publication Critical patent/JP7187388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Harvesting Machines For Specific Crops (AREA)
  • Image Analysis (AREA)

Description

本発明は、果菜の位置及び姿勢を推定する位置姿勢推定装置及び位置姿勢推定方法に関する。
ロボットハンドを用いて果菜を収穫する場合、果菜の三次元の位置及び姿勢を正しく推定する必要がある。そのためには、例えば、カメラを用いて収穫対象の果菜を撮像し、撮像した果菜の距離画像から得られる三次元点群に対して、既定の三次元モデルによるフィッティングを行うことで、該果菜の三次元の位置及び姿勢を推定する。
特許文献1には、果実の画像を取得する画像取得部と、取得された画像における果実の位置と複数の果実間の距離とに基づいて、果実に連結している果梗の位置を推定する推定部とを果梗位置推定装置が備えることにより、安定的な収穫動作を実現可能とすることが開示されている。
特開2018-143214号公報
しかしながら、カメラで収穫対象の果菜を撮像する場合、他の果菜や葉等の他の物体によって該収穫対象の果菜の少なくとも一部が隠れてしまい、撮像した画像から果菜の一部の三次元点群しか取得することができない。これにより、三次元モデルによるフィッティングの結果が不安定となる。この結果、果菜の三次元の位置及び姿勢を正しく推定することが困難となり、ロボットハンドによる果菜の収穫が失敗する可能性がある。
本発明は、このような課題を考慮してなされたものであり、果菜の三次元の位置及び姿勢を正しく推定することが可能となる位置姿勢推定装置及び位置姿勢推定方法を提供することを目的とする。
本発明の態様は、果菜の位置及び姿勢を推定する位置姿勢推定装置及び位置姿勢推定方法に関する。
前記位置姿勢推定装置は、前記果菜の画像を取得する画像取得部と、前記画像に基づいて前記果菜の中心位置を推定する中心位置推定部と、前記画像に基づいて前記果菜の姿勢を決定付ける特徴部の位置を抽出する特徴部抽出部と、推定された前記中心位置に対する信頼性を評価する推定結果評価部と、抽出された前記特徴部の位置に対する信頼性を評価する抽出結果評価部と、前記推定結果評価部及び前記抽出結果評価部の双方で信頼性が有ると評価された場合に、前記中心位置及び前記特徴部の位置から前記果菜の中心軸を推定し、推定した前記中心軸から前記果菜の姿勢を推定する姿勢推定部とを有する。
前記位置姿勢推定方法は、画像取得部を用いて前記果菜の画像を取得するステップと、中心位置推定部を用いて前記画像に基づき前記果菜の中心位置を推定し、一方で、特徴部抽出部を用いて前記画像に基づき前記果菜の姿勢を決定付ける特徴部の位置を抽出するステップと、推定結果評価部を用いて、推定された前記中心位置に対する信頼性を評価し、一方で、抽出結果評価部を用いて、抽出された前記特徴部の位置に対する信頼性を評価するステップと、前記推定結果評価部及び前記抽出結果評価部の双方で信頼性が有ると評価された場合に、姿勢推定部を用いて前記中心位置及び前記特徴部の位置から前記果菜の中心軸を推定し、推定した前記中心軸から前記果菜の姿勢を推定するステップとを有する。
本発明によれば、推定した果菜の中心位置及び特徴部の位置に対する信頼性を評価するので、信頼性が低いと評価した場合には、果菜を異なる方向から撮像した画像を取得する等の対応を取ることができる。これにより、果菜の三次元の位置及び姿勢を正しく推定することが可能となる。この結果、ロボットハンドを用いて果菜を確実に収穫することができる。
本実施形態に係る推定装置を搭載した果菜収穫装置の構成図である。 図1のロボットの側面図である。 図1の果菜収穫装置の動作を示すフローチャートである。 図3のステップS3の詳細を示すフローチャートである。 図4のステップS11の詳細を示すフローチャートである。 図4のステップS12の詳細を示すフローチャートである。 図4のステップS13の詳細を示すフローチャートである。 図4のステップS15の詳細を示すフローチャートである。 図5のステップS11の処理の説明図である。 球フィッティングの説明図である。 図6のステップS12の処理の説明図である。 図12A~図12Cは、図7のステップS13の処理の説明図である。 図8のステップS15の処理の説明図である。 信頼性有りと評価される中心位置の抽出例を図示した説明図である。 信頼性有りと評価される特徴部の抽出例を図示した説明図である。 信頼性無しと評価される中心位置の抽出例を図示した説明図である。 信頼性無しと評価される特徴部の抽出例を図示した説明図である。
以下、本発明に係る位置姿勢推定装置及び位置姿勢推定方法について、好適な実施形態を例示し、添付の図面を参照しながら説明する。
[1.本実施形態の構成]
図1に示すように、本実施形態に係る位置姿勢推定装置10(以下、本実施形態に係る推定装置10ともいう。)は、果菜収穫装置12に適用される。果菜収穫装置12は、収穫対象の果菜14の三次元の位置及び姿勢を推定する推定装置10と、該推定装置10の推定結果に基づき動作することで果菜14を収穫するロボット16とを備える。
なお、本実施形態において、果菜14は、離層を有する果梗の先端に生る果物や野菜である。このような果菜14としては、例えば、トマトがある。また、図1は、果菜収穫装置12の構成を概念的に図示している。そのため、本実施形態では、推定装置10とロボット16とを一体的に構成してもよいし、又は、推定装置10とロボット16とを別体で構成してもよい。推定装置10とロボット16とを一体的に構成する場合、例えば、ロボット16に推定装置10が搭載される。
推定装置10は、画像取得部18、画像処理部20(中心位置推定部、特徴部抽出部)、信頼性評価部22(推定結果評価部、抽出結果評価部)、姿勢推定部24及び通信部26を有する。推定装置10は、コンピュータであって、不図示のメモリに記憶されたプログラムを読み出して実行することにより、画像処理部20、信頼性評価部22及び姿勢推定部24等の機能を実現する。
画像取得部18は、果菜14を含む距離画像を取得するステレオカメラ等の撮像手段である。画像処理部20は、距離画像に基づいて、果菜14の中心位置を推定すると共に、該果菜14の姿勢を決定付ける離層又は小果梗等の特徴部の位置を抽出する。信頼性評価部22は、画像処理部20が推定した果菜14の中心位置に対する信頼性を評価すると共に、該画像処理部20が抽出した特徴部の位置に対する信頼性を評価する。
姿勢推定部24は、果菜14の中心位置の推定結果、及び、特徴部の位置の抽出結果の双方について、信頼性が有る(高い)と信頼性評価部22が評価した場合に、中心位置及び特徴部の位置から果菜14の中心軸を推定し、推定した中心軸から果菜14の三次元の姿勢を推定する。従って、果菜14の中心位置又は特徴部の位置の少なくとも一方について、信頼性が無い(低い)と信頼性評価部22が評価した場合、姿勢推定部24は、果菜14の三次元の姿勢の推定処理を行わない。なお、果菜14の中心軸とは、果菜14の中心位置と特徴部の位置とを結ぶ軸(三次元のベクトル)をいう。
通信部26は、ロボット16との間で信号又は情報の送受信を行う。例えば、通信部26は、姿勢推定部24の推定結果等をロボット16に送信する。なお、ロボット16に推定装置10が搭載される場合、通信部26を省略してもよい。
ロボット16は、通信部28、制御部30、移動機構32及びロボットハンド34を有する。通信部28は、推定装置10の通信部26や外部との間で、信号又は情報の送受信を行う。制御部30は、各通信部26、28を介して供給される姿勢推定部24の推定結果等に基づき、ロボット16内の各部を制御する。移動機構32は、モータやアーム等を含み構成され、制御部30からの制御に従って、ロボットハンド34を所望の位置及び方向に移動させる。ロボットハンド34は、果菜14を収穫するエンドエフェクタである。
図2は、ロボット16の具体的構成例を示す側面図である。ロボット16は、収穫した果菜35を収納するストッカ部36と、鉛直移動機構38と、該鉛直移動機構38を支持する支持台部40と、鉛直移動機構38を構成する鉛直移動スライダ42に支持された移動台座44と、該移動台座44の上方に設けられた収穫用アーム46とを備える。収穫用アーム46の先端には、ロボットハンド34が装着されている。移動台座44の内部には、収穫用アーム46を紙面に直交する水平方向に変位させる水平移動機構48が設けられる。ストッカ部36の下部における四方の隅角部には、ロボット16を前進又は後退させることや、方向変換を行うことが可能な車輪50が設けられる。
従って、ロボット16は、鉛直移動機構38を駆動させて移動台座44を上下動させることにより、ロボットハンド34を上下方向に移動させる。また、ロボット16は、水平移動機構48を駆動させて収穫用アーム46を水平方向に変位させることにより、ロボットハンド34を水平方向に移動させる。さらに、ロボット16は、該ロボット16を車輪50によって前進、後退又は方向変換することにより、ロボットハンド34を左右及び前後に移動させることが可能である。つまり、鉛直移動機構38、移動台座44、水平移動機構48、収穫用アーム46及び車輪50によって図1の移動機構32が構成される。
この場合、移動台座44にはベースカメラ52が配置され、ロボットハンド34にはハンドカメラ54が配置されている。これらのカメラは、図1の画像取得部18を構成する。ベースカメラ52は、収穫対象の果菜14の周辺を撮像するステレオカメラである。ハンドカメラ54は、ロボットハンド34を収穫対象の果菜14に近接させた際に、該果菜14を撮像するステレオカメラである。
なお、図2のロボット16は一例である。本実施形態では、果菜14を収穫可能であれば、どのような構成のロボット16でもよいことは勿論である。
[2.本実施形態の動作]
次に、本実施形態に係る推定装置10を含む果菜収穫装置12の動作について、図3~図17を参照しながら説明する。図3~図8は、果菜収穫装置12の動作を示すフローチャートである。また、図9~図17は、図3~図8の各フローチャート中の所定のステップに対応する図である。なお、この動作説明では、必要に応じて、図1及び図2も参照しながら説明する。
<2.1 果菜収穫装置12全体の動作>
先ず、図3のステップS1において、ロボット16(図1及び図2参照)は移動を行い、収穫対象となる果菜14の手前に停止する。
次のステップS2において、ベースカメラ52を用いて該果菜14の周辺を撮像する。これにより、ベースカメラ52が取得した距離画像から、収穫対象の果菜14や、該果菜14を収穫する際の障害物(例えば、周囲の果菜)を検出することができる。この場合、ベースカメラ52が取得した距離画像に基づいて、ハンドカメラ54を果菜14が撮像可能な位置及び方向に移動させればよい。
次のステップS3において、ハンドカメラ54を用いて収穫対象の果菜14を撮像する。これにより、ハンドカメラ54が取得した距離画像から、該果菜14を検出することができる。そして、ステップS3において、推定装置10では、取得された距離画像に基づき、距離画像に写り込んでいる収穫対象の果菜14について、三次元の位置及び姿勢を推定する。三次元の位置及び姿勢の推定結果は、推定装置10の通信部26からロボット16に送信される。
次のステップS4において、ロボット16の制御部30は、各通信部26、28を介して供給された推定結果に基づき移動機構32を制御し、ロボットハンド34を所望の位置及び方向に移動させる。また、制御部30は、ハンドカメラ54が取得した距離画像に基づき、ロボットハンド34によって果菜14に連なる果梗(離層)を折り曲げる方向を推定する。
次のステップS5において、ロボットハンド34は、制御部30からの制御に基づき、果梗(離層)を折り曲げることで、収穫対象の果菜14を枝から分離し、該果菜14を収穫する。
次のステップS6において、他の果菜も収穫する場合には(ステップS6:NO)、ステップS1に戻り、他の果菜を収穫対象として、ステップS1~S6の動作を繰り返し実行する。一方、収穫が完了した場合には(ステップS6:YES)、図3の収穫動作を完了する。
<2.2 推定装置10全体の動作説明>
次に、図3のステップS3の動作、すなわち、本実施形態に係る推定装置10の動作(位置姿勢推定方法であって、以下、「推定方法」ともいう。)について、図4~図8のフローチャートと、図9~図17の説明図とを参照しながら説明する。
先ず、図4のステップS11において、推定装置10の画像処理部20(図1参照)は、画像取得部18(図2のハンドカメラ54)が撮像した収穫対象の果菜14の距離画像に基づき、該果菜14の中心位置を推定する。また、画像処理部20は、ステップS12において、果菜14の距離画像から、果菜14に連なる小果梗又は離層等の特徴部の位置を抽出する。
次のステップS13において、信頼性評価部22は、画像処理部20が推定した果菜14の中心位置に対する信頼性を評価する。
ここで、中心位置に対する信頼性が低い(無い)と評価した場合、信頼性評価部22は、ハンドカメラ54が撮像した距離画像に示す果菜14の方向では、該果菜14を収穫することができないと判断する。そして、ステップS14において、果菜14を別の方向(視点)から撮像するよう、画像取得部18に指示する(ステップS14:YES)。これにより、視点が変更された距離画像を用いて、ステップS11~S14の処理が再度行われる。
一方、中心位置に対する信頼性が高い(有る)と評価した場合、信頼性評価部22は、ハンドカメラ54が撮像した距離画像により求められた果菜14の方向で、該果菜14を収穫することが可能と判断する。そして、ステップS14において、信頼性評価部22は、再撮影は不要と判断し(ステップS14:NO)、ステップS15に進む。
次のステップS15において、信頼性評価部22は、画像処理部20が抽出した特徴部の位置に対する信頼性を評価する。
ここで、特徴部の位置に対する信頼性が低い(無い)と評価した場合、信頼性評価部22は、ハンドカメラ54が撮像した距離画像に示す果菜14の方向では、該果菜14を収穫することができないと判断する。そして、ステップS16において、果菜14を別の視点から撮像するよう、画像取得部18に指示する(ステップS16:YES)。この場合でも、視点が変更された距離画像を用いて、ステップS11~S16の処理が再度行われる。
一方、特徴部に対する信頼性が高い(有る)と評価した場合、信頼性評価部22は、ハンドカメラ54が撮像した距離画像に示す果菜14の方向で該果菜14を収穫することが可能と判断すると共に、ステップS16において再撮影が不要と判断し(ステップS16:NO)、ステップS17に進む。
次のステップS17において、姿勢推定部24は、果菜14の中心位置及び特徴部の位置から果菜14の中心軸を推定し、推定した中心軸から果菜14の三次元の姿勢を推定する。
<2.3 果菜14の中心位置の推定処理>
次に、図4のステップS11の詳細について、図5のフローチャートと、図9の説明図とを参照しながら説明する。
先ず、図5のステップS21において、画像取得部18(図1)は、収穫対象の果菜14の距離画像を取得する。図9には、取得した果菜14の距離画像56の一例を図示している。
次のステップS22において、画像処理部20は、「Mask-RCNN」等の深層学習による物体検知技術を利用して、取得した距離画像56に写り込んでいる果菜14の画像領域58を抽出するセグメンテーション処理を実行する。なお、抽出される画像領域58は、距離画像56に写り込んでいる果菜14の表面に対応する画像領域である。図9には、抽出された果菜14の表面の画像領域58を図示している。
次のステップS23において、画像処理部20は、抽出した果菜14の表面の画像領域58から三次元点群60を抽出する。図9には、抽出された三次元点群60を図示している。
次のステップS24において、画像処理部20は、抽出した三次元点群60を、果菜14を模擬した球モデル62にフィッティングする。これにより、画像処理部20は、三次元点群60がフィッティングされた球モデル62の中心位置を、果菜14の中心位置と推定する。すなわち、本実施形態では、果菜14を回転体モデルである球モデル62とみなすことで、該球モデル62の中心位置を果菜14の中心位置として推定する。
図9には、三次元点群60を球モデル62にフィッティングした結果を図示している。すなわち、トマト等の果菜14は、球に近い形状を有するため、三次元点群60を球モデル62にフィッティングすることで、果菜14の中心位置を精度よく推定することが可能である。
なお、図10に示すように、楕円体モデル64に三次元点群60をフィッティングした場合、片寄った形状で三次元点群60がフィッティングされるので、果菜14の中心位置を精度よく推定することができない。
<2.4 特徴部68の位置の抽出処理>
次に、図4のステップS12の詳細について、図6のフローチャートと、図11の説明図とを参照しながら説明する。
先ず、図6のステップS31において、画像取得部18(図1)は、収穫対象の果菜14の距離画像56を取得する。図11には、取得した果菜14の距離画像56の一例を図示している。なお、図5のステップS21において、距離画像56を既に取得しているので、ステップS31の処理をスキップすることは可能である。
次のステップS32において、画像処理部20は、「Segnet」等の深層学習による画像分割技術を利用して、取得した距離画像56に写り込んでいる小果梗又は離層の画像領域を、特徴部68の画像領域として抽出するセグメンテーション処理を実行する。図11には、抽出される特徴部68の画像領域を図示している。
次のステップS33において、画像処理部20は、抽出した特徴部68の画像領域から三次元点群70を抽出する。図11には、抽出された三次元点群70を図示している。
<2.5 中心位置の信頼性評価>
次に、図4のステップS13の詳細について、図7のフローチャートと、図12A~図12Cの説明図とを参照しながら説明する。
先ず、図7のステップS41において、信頼性評価部22(図1参照)は、球モデル62の表面に対する果菜14の三次元点群60の広がりが大きいか否かを評価する。三次元点群60の広がりがある程度大きい場合、画像処理部20での三次元点群60の抽出結果の信頼性が高いと評価することができるためである。図12Aには、球モデル62の中心位置72に対して、角度θの方向に三次元点群60が広がって分布している場合を図示している。
三次元点群60の広がりが大きいと評価した場合(ステップS41:YES)、信頼性評価部22は、次のステップS42に進む。ステップS42において、信頼性評価部22は、画像取得部18から果菜14の二次元画像を取得し、該二次元画像(果菜14の画像領域)にフィッティングする第1円74を設定する(図12B参照)。
次のステップS43において、信頼性評価部22は、球モデル62を果菜14の二次元画像に投影した第2円76を設定する(図12B参照)。
次のステップS44において、信頼性評価部22は、フィッティングさせた第1円74と、投影した第2円76とについて、両者の差(誤差)が小さいか否かを評価する。誤差としては、図12Cに示すように、例えば、第1円74と第2円76とが重ならない領域R1、R2の面積S1、S2を、第1円74と第2円76とが重なる領域R3(面積S3)を含めた、各領域R1~R3全体の面積(S1+S2+S3)で割ったもの等が考えられる。すなわち、誤差=(S1+S2)/(S1+S2+S3)として、該誤差が算出される。誤差が小さい場合、画像処理部20での三次元点群60の抽出結果、すなわち、中心位置72の推定結果の信頼性が高いと評価することができる。
誤差が小さいと評価した場合(ステップS44:YES)、信頼性評価部22は、次のステップS45に進む。ステップS45において、信頼性評価部22は、抽出した果菜14の表面の三次元点群60、すなわち、推定した中心位置72の信頼性が高い(信頼性有り)と評価する。
一方、ステップS41において、果菜14の三次元点群60の広がりが小さいと評価した場合(ステップS41:NO)、又は、ステップS44において、誤差が大きいと評価した場合(ステップS44:NO)、信頼性評価部22は、ステップS46に進む。ステップS46において、信頼性評価部22は、ハンドカメラ54が撮像した距離画像56に示す果菜14の方向では、該果菜14を収穫することができないと判断する。そして、信頼性評価部22は、果菜14を別の視点から撮像するよう、画像取得部18に指示する。これにより、視点が変更された距離画像56を用いて、ステップS11~S13(図4参照)の処理が再度行われる。
<2.6 特徴部68の位置の信頼性評価>
次に、図4のステップS15の詳細について、図8のフローチャートと、図13の説明図とを参照しながら説明する。
先ず、図8のステップS51において、信頼性評価部22(図1参照)は、特徴部68の画像領域から抽出した三次元点群70の位置と球モデル62の中心位置72との距離が、球モデル62の半径に近いか否かを評価する。前述のように、球モデル62は、果菜14を模擬した回転体モデルである。また、三次元点群70は、果菜14に連なる小果梗又は離層(特徴部68の画像領域)を抽出したものである。そのため、図13に示すように、三次元点群70の位置と球モデル62(果菜14)の中心位置72との距離が、球モデル62の半径に近い程、画像処理部20での三次元点群70の位置に対する抽出結果の信頼性が高いと評価することができるためである。
該距離が球モデル62の半径に近いと評価した場合(ステップS51:YES)、信頼性評価部22は、次のステップS52に進む。ステップS52において、信頼性評価部22は、三次元点群70が球モデル62の表面(果菜14の表面)に重なり合っていないか否かを評価する。特徴部68である小果梗又は離層は、球モデル62によって模擬される果菜14の表面に重なり合わないためである。
三次元点群70が球モデル62の表面に重なり合っていない場合(ステップS52:YES)、信頼性評価部22は、次のステップS53に進む。ステップS53において、信頼性評価部22は、三次元点群70を構成する点の数が一定数以上であるか否かを評価する。一定数以上の点で該三次元点群70が構成されていれば、画像処理部20での特徴部68の位置に対する抽出結果の信頼性が高いと評価することができるためである。
点の数が一定数以上である場合(ステップS53:YES)、信頼性評価部22は、次のステップS54に進み、抽出された特徴部68の位置の信頼性が高い(信頼性有り)と評価する。
一方、ステップS51~S53において、否定的な評価結果となった場合(ステップS51~S53:NO)、信頼性評価部22は、ステップS55に進む。ステップS55において、信頼性評価部22は、ハンドカメラ54が撮像した距離画像56に示す果菜14の方向では、該果菜14を収穫することができないと判断する。そして、信頼性評価部22は、果菜14を別の視点から撮像するよう、画像取得部18に指示する。これにより、視点が変更された距離画像56を用いて、ステップS11~S15(図4参照)の処理が再度行われる。
図14~図17は、信頼性有りの評価結果を受けた場合(図14及び図15参照)と、信頼性無しの評価結果を受けた場合(図16及び図17参照)とを図示している。
図14は、収穫対象の果菜14について、信頼性有りの評価結果を受けた、果菜14の表面の三次元点群60の抽出結果(果菜14の中心位置72の推定結果)を示す。また、図15は、収穫対象の果菜14に連なる小果梗又は離層の特徴部68について、信頼性有りの評価結果を受けた、特徴部68の三次元点群70の抽出結果(特徴部68の位置の推定結果)を示す。図14及び図15のいずれの場合も、三次元点群60、70の点の数が相対的に多い。また、果菜14の表面の三次元点群60については、球モデル62の表面に対する三次元点群60の広がりが相対的に大きい。従って、図14及び図15の場合については、信頼性有りの評価結果になったものと考えられる。
一方、図16は、収穫対象の果菜14について、信頼性無しの評価結果を受けた、果菜14の表面の三次元点群60の抽出結果(果菜14の中心位置72の推定結果)を示す。また、図17は、収穫対象の果菜14に連なる小果梗又は離層の特徴部68について、信頼性無しの評価結果を受けた、特徴部68の三次元点群70の抽出結果(特徴部68の位置の推定結果)を示す。図16及び図17のいずれの場合も、三次元点群60、70の点の数が相対的に少ない。また、果菜14の表面の三次元点群60については、球モデル62の表面に対する三次元点群60の広がりが相対的に小さい。従って、図16及び図17の場合については、信頼性無しの評価結果になったものと考えられる。
[3.変形例]
上記の説明では、ステップS11の中心位置の推定処理を実行した後に、ステップS12の特徴部の位置の抽出処理を実行する場合について説明した。本実施形態では、ステップS12の抽出処理の後にステップS11の推定処理を実行してもよいし、ステップS11、S12の各処理を同時並行で実行してもよい。
また、上記の説明では、ステップS13での中心位置に対する評価処理を実行した後に、ステップS15での特徴部の位置に対する評価処理を実行する場合について説明した。本実施形態では、ステップS15の評価処理の後にステップS13の評価処理を実行してもよいし、ステップS13、S15の各評価処理を同時並行で実行してもよい。
また、本実施形態では、果菜14の形状を事前に測定し、果菜14が他の物体(例えば、他の果菜)によって、どの程度隠れているかを判定し、その判定結果を果菜14の三次元の位置及び姿勢の推定処理に反映させてもよい。
さらに、本実施形態では、トマト以外の果菜14の収穫に適用可能であることは勿論である。
[4.本実施形態の効果]
以上説明したように、本実施形態に係る推定装置10及び推定方法は、果菜14の位置及び姿勢を推定する。
この場合、推定装置10は、果菜14の画像を取得する画像取得部18と、該画像に基づいて果菜14の中心位置72を推定し、一方で、該画像に基づいて果菜14の姿勢を決定付ける特徴部68の位置を抽出する画像処理部20(中心位置推定部、特徴部抽出部)と、推定された中心位置72に対する信頼性を評価する一方で、抽出された特徴部68の位置に対する信頼性を評価する信頼性評価部22(推定結果評価部、抽出結果評価部)と、信頼性評価部22で信頼性が有ると評価された場合に、中心位置72及び特徴部68の位置から果菜14の中心軸を推定し、推定した中心軸から果菜14の姿勢を推定する姿勢推定部24とを有する。
推定方法は、画像取得部18を用いて果菜14の画像を取得するステップ(ステップS21、S31)と、画像処理部20を用いて該画像に基づき果菜14の中心位置72を推定し、一方で、該画像に基づき果菜14の姿勢を決定付ける特徴部68の位置を抽出するステップ(ステップS11、S12)と、信頼性評価部22を用いて、推定された中心位置72に対する信頼性を評価し、一方で、抽出された特徴部68の位置に対する信頼性を評価するステップ(ステップS13、S15)と、信頼性評価部22で信頼性が有ると評価された場合に、姿勢推定部24を用いて中心位置72及び特徴部68の位置から果菜14の中心軸を推定し、推定した中心軸から果菜14の姿勢を推定するステップ(ステップS17)とを有する。
このように、推定した果菜14の中心位置72及び特徴部68の位置に対する信頼性を評価するので、信頼性が低いと評価した場合には、果菜14を異なる方向から撮像した画像を取得する等の対応を取ることができる。これにより、果菜14の三次元の位置及び姿勢を正しく推定することが可能となる。この結果、ロボットハンド34を用いて果菜14を確実に収穫することができる。
ここで、画像取得部18が果菜14の距離画像56を取得した場合、画像処理部20は、距離画像56から、特徴部68の三次元点群70を抽出する。信頼性評価部22は、特徴部68の位置と中心位置72との距離が果菜14を模擬した球モデル62の半径に近く、特徴部68の三次元点群70が球モデル62の表面になく、且つ、該三次元点群70を構成する点の数が一定数以上である場合、抽出された特徴部68の位置に信頼性があると評価する。このように、特徴部68の位置が精度よく特定されるので、果菜14の三次元の位置及び姿勢をより正確に推定することができる。
また、画像取得部18が果菜14の距離画像56を取得した場合、画像処理部20は、距離画像56から果菜14の表面の三次元点群60を抽出し、抽出した該三次元点群60を、果菜14を模擬した球モデル62にフィッティングすることにより、中心位置72を推定する。また、信頼性評価部22は、果菜14の表面の三次元点群60が球モデル62の表面全体に広がり、画像取得部18が果菜14の二次元画像をさらに取得した際に、該二次元画像にフィッティングする第1円74を設定する。さらに、信頼性評価部22は、球モデル62を二次元画像に投影した第2円76を設定したときに、第1円74と第2円76との誤差が小さい場合、推定された中心位置72に信頼性が有ると評価する。
このように、果菜14を回転体モデルである球モデル62とみなし、該球モデル62の中心位置72を果菜14の中心位置とみなすことで、該中心位置を精度よく特定することができる。この結果、果菜14の三次元の位置及び姿勢をより正確に推定することができる。
この場合、特徴部68は、果菜14に連なる小果梗又は離層であるので、果菜14の中心軸を一層精度よく推定することが可能となる。
なお、本発明は、上述の実施形態に限らず、この明細書の記載内容に基づき、種々の構成を採り得ることは勿論である。
10…推定装置(位置姿勢推定装置) 14…果菜
18…画像取得部
20…画像処理部(中心位置推定部、特徴部抽出部)
22…信頼性評価部(推定結果評価部、抽出結果評価部)
24…姿勢推定部 56…距離画像
68…特徴部 72…中心位置

Claims (3)

  1. 果菜の位置及び姿勢を推定する位置姿勢推定装置において、
    前記果菜の画像を取得する画像取得部と、
    前記画像に基づいて、前記果菜の中心位置を推定する中心位置推定部と、
    前記画像に基づいて、前記果菜の姿勢を決定付ける特徴部の位置を抽出する特徴部抽出部と、
    推定された前記中心位置に対する信頼性を評価する推定結果評価部と、
    抽出された前記特徴部の位置に対する信頼性を評価する抽出結果評価部と、
    前記推定結果評価部及び前記抽出結果評価部の双方で信頼性が有ると評価された場合に、前記中心位置及び前記特徴部の位置から前記果菜の中心軸を推定し、推定した前記中心軸から前記果菜の姿勢を推定する姿勢推定部と、
    を有し、
    前記画像取得部は、前記果菜の距離画像を取得し、
    前記特徴部抽出部は、前記距離画像から、前記特徴部の三次元点群を抽出し、
    前記抽出結果評価部は、前記特徴部の位置と前記中心位置との距離が前記果菜を模擬した球の半径に近く、前記特徴部の三次元点群が前記球の表面になく、且つ、該三次元点群を構成する点の数が一定数以上である場合、抽出された前記特徴部の位置に信頼性があると評価し、
    前記中心位置推定部は、前記距離画像から前記果菜の表面の三次元点群を抽出し、抽出した該三次元点群を、前記果菜を模擬した球にフィッティングすることにより、前記中心位置を推定し、
    前記推定結果評価部は、前記果菜の表面の三次元点群が前記球の表面全体に広がり、前記画像取得部が前記果菜の二次元画像をさらに取得した際に、該二次元画像にフィッティングする第1円を設定し、前記球を前記二次元画像に投影した第2円を設定したときに、前記第1円と第2円との誤差が小さい場合、推定された前記中心位置に信頼性が有ると評価する、位置姿勢推定装置。
  2. 請求項記載の位置姿勢推定装置において、
    前記特徴部は、前記果菜に連なる小果梗又は離層である、位置姿勢推定装置。
  3. 果菜の位置及び姿勢を推定する位置姿勢推定方法において、
    画像取得部を用いて、前記果菜の画像を取得するステップと、
    中心位置推定部を用いて、前記画像に基づき前記果菜の中心位置を推定し、一方で、特徴部抽出部を用いて、前記画像に基づき前記果菜の姿勢を決定付ける特徴部の位置を抽出するステップと、
    推定結果評価部を用いて、推定された前記中心位置に対する信頼性を評価し、一方で、抽出結果評価部を用いて、抽出された前記特徴部の位置に対する信頼性を評価するステップと、
    前記推定結果評価部及び前記抽出結果評価部の双方で信頼性が有ると評価された場合に、姿勢推定部を用いて、前記中心位置及び前記特徴部の位置から前記果菜の中心軸を推定し、推定した前記中心軸から前記果菜の姿勢を推定するステップと、
    を有し、
    し、
    前記画像取得部は、前記果菜の距離画像を取得し、
    前記特徴部抽出部は、前記距離画像から、前記特徴部の三次元点群を抽出し、
    前記抽出結果評価部は、前記特徴部の位置と前記中心位置との距離が前記果菜を模擬した球の半径に近く、前記特徴部の三次元点群が前記球の表面になく、且つ、該三次元点群を構成する点の数が一定数以上である場合、抽出された前記特徴部の位置に信頼性があると評価し、
    前記中心位置推定部は、前記距離画像から前記果菜の表面の三次元点群を抽出し、抽出した該三次元点群を、前記果菜を模擬した球にフィッティングすることにより、前記中心位置を推定し、
    前記推定結果評価部は、前記果菜の表面の三次元点群が前記球の表面全体に広がり、前記画像取得部が前記果菜の二次元画像をさらに取得した際に、該二次元画像にフィッティングする第1円を設定し、前記球を前記二次元画像に投影した第2円を設定したときに、前記第1円と第2円との誤差が小さい場合、推定された前記中心位置に信頼性が有ると評価する、位置姿勢推定方法。
JP2019104149A 2019-06-04 2019-06-04 位置姿勢推定装置及び位置姿勢推定方法 Active JP7187388B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104149A JP7187388B2 (ja) 2019-06-04 2019-06-04 位置姿勢推定装置及び位置姿勢推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104149A JP7187388B2 (ja) 2019-06-04 2019-06-04 位置姿勢推定装置及び位置姿勢推定方法

Publications (2)

Publication Number Publication Date
JP2020195336A JP2020195336A (ja) 2020-12-10
JP7187388B2 true JP7187388B2 (ja) 2022-12-12

Family

ID=73647466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104149A Active JP7187388B2 (ja) 2019-06-04 2019-06-04 位置姿勢推定装置及び位置姿勢推定方法

Country Status (1)

Country Link
JP (1) JP7187388B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137509A1 (ja) * 2020-12-25 2022-06-30 日本電気株式会社 物体認識装置、物体認識方法、非一時的なコンピュータ可読媒体及び物体認識システム
WO2023127000A1 (ja) * 2021-12-27 2023-07-06 日立Astemo株式会社 認識システム及び物体認識方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095348A (ja) 1999-10-01 2001-04-10 Masateru Nagata 果菜収穫用摘採ハンド及びそれを用いた果菜収穫方法
JP2012110256A (ja) 2010-11-22 2012-06-14 National Agriculture & Food Research Organization 果柄切断装置
JP2016115226A (ja) 2014-12-17 2016-06-23 日本電気株式会社 特徴量抽出装置、認識装置、情報処理システム、特徴量抽出方法およびプログラム
CN108470339A (zh) 2018-03-21 2018-08-31 华南理工大学 一种基于信息融合的重叠苹果视觉识别与定位方法
JP2018143214A (ja) 2017-03-09 2018-09-20 パナソニック株式会社 果梗位置推定装置および果梗位置推定方法
CN109684997A (zh) 2018-12-20 2019-04-26 龙口盛福达食品有限公司 一种被遮挡圆形成熟果实的图像识别与定位方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09163853A (ja) * 1995-12-19 1997-06-24 Iseki & Co Ltd 果実の画像処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095348A (ja) 1999-10-01 2001-04-10 Masateru Nagata 果菜収穫用摘採ハンド及びそれを用いた果菜収穫方法
JP2012110256A (ja) 2010-11-22 2012-06-14 National Agriculture & Food Research Organization 果柄切断装置
JP2016115226A (ja) 2014-12-17 2016-06-23 日本電気株式会社 特徴量抽出装置、認識装置、情報処理システム、特徴量抽出方法およびプログラム
JP2018143214A (ja) 2017-03-09 2018-09-20 パナソニック株式会社 果梗位置推定装置および果梗位置推定方法
CN108470339A (zh) 2018-03-21 2018-08-31 华南理工大学 一种基于信息融合的重叠苹果视觉识别与定位方法
CN109684997A (zh) 2018-12-20 2019-04-26 龙口盛福达食品有限公司 一种被遮挡圆形成熟果实的图像识别与定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
上垣 俊平、他,環境認識にAIを用いたトマト収穫ロボット,パナソニック技報,2018年05月,Vol.64,No.1,54-59頁
矢口 裕明、他,収穫装置と視覚認識に着目したトマト自動収穫ロボットの構成法,日本ロボット学会誌,日本ロボット学会,2018年12月,36巻10号,693-702頁

Also Published As

Publication number Publication date
JP2020195336A (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
US10059002B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
US20090290758A1 (en) Rectangular Table Detection Using Hybrid RGB and Depth Camera Sensors
US20200126249A1 (en) Attitude recognition method and device, and movable platform
KR102016551B1 (ko) 위치 추정 장치 및 방법
JP4665857B2 (ja) アームを誘導可能な移動体およびアームを誘導する方法
CN110640730B (zh) 生成用于机器人场景的三维模型的方法和系统
JP5803367B2 (ja) 自己位置推定装置、自己位置推定方法およびプログラム
CN108603936B (zh) 激光扫描系统、激光扫描方法、非暂时性计算机可读存储介质
US20140018957A1 (en) Robot system, robot, robot control device, robot control method, and robot control program
US9317735B2 (en) Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape
US9576368B2 (en) Method and device for optically determining a position and/or orientation of an object in space using a two dimensional image to generate three dimensional information
JP5148669B2 (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
US20100172571A1 (en) Robot and control method thereof
KR101951573B1 (ko) 평면들을 교차하여 장애물을 검출하는 장치 및 이러한 장치를 사용하는 검출 방법
KR20140133773A (ko) 3-차원 물체 모델링, 피팅 및 트랙킹
JP7187388B2 (ja) 位置姿勢推定装置及び位置姿勢推定方法
KR102094004B1 (ko) 탁구 로봇 제어 방법 및 이를 위한 시스템
JP2019152924A (ja) 自己位置同定システム、車両、及び処理装置
JP4361913B2 (ja) 動き量計算装置
JP6880457B2 (ja) 把持方法、把持システム及びプログラム
JP2020195335A (ja) 果菜収穫装置及び果菜収穫方法
JP2017094482A (ja) ロボット制御システム及びロボット制御方法
JP7229840B2 (ja) 収穫装置およびその制御方法、並びにプログラム
WO2020036910A1 (en) System and method for creating a single perspective synthesized image
Rebello et al. Autonomous active calibration of a dynamic camera cluster using next-best-view

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221130

R150 Certificate of patent or registration of utility model

Ref document number: 7187388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150