JP7481205B2 - ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法 - Google Patents
ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法 Download PDFInfo
- Publication number
- JP7481205B2 JP7481205B2 JP2020142355A JP2020142355A JP7481205B2 JP 7481205 B2 JP7481205 B2 JP 7481205B2 JP 2020142355 A JP2020142355 A JP 2020142355A JP 2020142355 A JP2020142355 A JP 2020142355A JP 7481205 B2 JP7481205 B2 JP 7481205B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- type
- learning
- representative point
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 44
- 230000010365 information processing Effects 0.000 title claims description 40
- 238000004590 computer program Methods 0.000 title claims description 10
- 238000012937 correction Methods 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 48
- 239000012636 effector Substances 0.000 claims description 44
- 238000012549 training Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 17
- 238000010801 machine learning Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 28
- 239000013256 coordination polymer Substances 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 239000002131 composite material Substances 0.000 description 11
- 238000001179 sorption measurement Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本開示は、ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法に関する。
特許文献1には、複数の指部によって物体を把持するロボットハンドを、指部の公転中心と物体の重心位置とが重なるように移動させ、公転中心を中心とする公転円と物体の輪郭線を外側へオフセットさせたオフセット線との交点へ指部を位置付け、指部により物体を把持させる技術が開示されている。
上記技術では、複数の指部によって物体を把持するために、物体の輪郭線を外側へオフセットさせたオフセット線を算出した上で、公転円とオフセット線との交点を算出する必要があり、計算手順が煩雑である。
本開示は、上記課題に鑑みてなされたものであり、その主な目的は、計算手順の簡易化を図ることが可能なロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法を提供することにある。
本開示の第1の形態によれば、ロボットシステムが提供される。このロボットシステムは、吸着用のエンドエフェクタを有するロボットと、対象物をセンシングするセンシング部、学習用画像を入力データとし、前記学習用画像に含まれる対象物の種別及び位置を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記センシング部により生成された検出画像から前記対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定する推定部と、推定された前記対象物の種別及び代表点の位置を表す指標に対する修正指示の入力を受け付ける受付部と、受け付けられた前記修正指示に基づいて、推定された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを修正する修正部と、前記検出画像中の前記対象物の前記代表点の位置に基づいて、前記エンドエフェクタで前記対象物を吸着するための吸着点の位置を決定する決定部と、前記エンドエフェクタで前記対象物の前記吸着点を吸着するように前記ロボットを制御するロボットコントローラと、を備える。この形態のロボットシステムによれば、検出画像中の対象物の1点である代表点の位置を推定し、代表点の位置に基づいて吸着点の位置を決定するので、計算手順の簡易化を図ることができる。
本開示の第2の形態によれば、ロボットの制御方法が提供される。このロボットの制御方法は、吸着用のエンドエフェクタを有するロボットの制御方法であって、センシング部により対象物をセンシングし、学習用画像を入力データとし、前記学習用画像に含まれる対象物の種別及び位置を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記センシング部により生成された検出画像から前記対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定し、推定された前記対象物の種別及び代表点の位置を表す指標に対する修正指示の入力を受け付け、受け付けられた前記修正指示に基づいて、推定された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを修正し、前記検出画像中の前記対象物の前記代表点の位置に基づいて、前記エンドエフェクタで前記対象物を吸着するための吸着点の位置を決定し、前記エンドエフェクタで前記対象物の前記吸着点を吸着するように前記ロボットを制御する。この形態のロボットの制御方法によれば、検出画像中の対象物の1点である代表点の位置を推定し、代表点の位置に基づいて吸着点の位置を決定するので、計算手順の簡易化を図ることができる。
本開示の第3の形態によれば、情報処理装置が提供される。この情報処理装置は、対象物をセンシングするセンシング部により生成された検出画像を取得する取得部と、学習用画像を入力データとし、前記学習用画像に含まれる対象物の種別及び位置を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記検出画像から前記対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定する推定部と、推定された前記対象物の種別及び代表点の位置を表す指標に対する修正指示の入力を受け付ける受付部と、受け付けられた前記修正指示に基づいて、推定された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを修正する修正部と、前記検出画像中の前記対象物の前記代表点の位置に基づいて、吸着用のエンドエフェクタで前記対象物を吸着するための吸着点の位置を決定する決定部と、を備える。この形態の情報処理装置によれば、検出画像中の対象物の1点である代表点の位置を推定し、代表点の位置に基づいて吸着点の位置を決定するので、計算手順の簡易化を図ることができる。
本開示の第4の形態によれば、コンピュータプログラムが提供される。このコンピュータプログラムは、対象物をセンシングするセンシング部により生成された検出画像を取得する機能と、学習用画像を入力データとし、前記学習用画像に含まれる対象物の種別及び位置を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記前記画像から前記対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定する機能と、推定された前記対象物の種別及び代表点の位置を表す指標に対する修正指示の入力を受け付ける機能と、受け付けられた前記修正指示に基づいて、推定された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを修正する機能と、前記検出画像中の前記対象物の前記代表点の位置に基づいて、吸着用のエンドエフェクタで前記対象物を吸着するための吸着点の位置を決定する機能と、をコンピュータに実現させる。この形態のコンピュータプログラムによれば、検出画像中の対象物の1点である代表点の位置を推定し、代表点の位置に基づいて吸着点の位置を決定するので、計算手順の簡易化を図ることができる。
本開示の第5の形態によれば、学習装置が提供される。この学習装置は、学習用画像並びに前記学習用画像に含まれる対象物の種別及び前記学習用画像中の前記対象物の位置を取得する取得部と、前記学習用画像を入力データとし、前記学習用画像に含まれる前記対象物の種別及び前記学習用画像中の前記対象物の位置を教師データとして、センシング部により生成された検出画像に含まれる対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定するための学習済みモデルを機械学習により生成する学習部と、を備え、前記学習部は、修正された対象物の種別又は代表点の位置を教師データとして、前記学習済みモデルの再学習を行う。この形態の学習装置によれば、学習用画像を入力データとし、学習用画像に含まれる対象物の種別及び学習用画像中の対象物の位置を教師データとして機械学習を行うので、検出画像中の対象物の1点である代表点の位置を推定するための学習済みモデルを生成することができる。
本開示の第6の形態によれば、学習済みモデルの生成方法が提供される。この学習済みモデルの生成方法は、学習用画像並びに前記学習用画像に含まれる対象物の種別及び前記学習用画像中の前記対象物の位置を取得し、前記学習用画像を入力データとし、前記学習用画像に含まれる前記対象物の種別及び前記学習用画像中の前記対象物の位置を教師データとして、センシング部により生成された検出画像に含まれる対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定するための学習済みモデルを機械学習により生成し、修正された対象物の種別又は代表点の位置を教師データとして、前記学習済みモデルの再学習を行う。この形態の学習済みモデルの生成方法によれば、学習用画像に含まれる対象物の種別及び学習用画像中の対象物の位置を教師データとして機械学習を行うので、検出画像中の対象物の1点である代表点の位置を推定するための学習済みモデルを生成することができる。
本開示によれば、計算手順の簡易化を図ることが可能となる。
図1に示すように、ロボットシステム100は、ロボット1と、センシング部2と、情報処理装置3と、タッチパネル4と、ロボットコントローラ5とを備える。
センシング部2、タッチパネル4、及びロボットコントローラ5は、有線または無線により情報処理装置3に接続されている。ロボットコントローラ5は、ロボット1にも接続されている。情報処理装置3には、学習装置7も接続されている。
図2に示すように、ロボット1は、2つのロボットアーム12A,12Bを備える双腕ロボットである。ロボットアーム12A,12Bは、水平多関節型のロボットアームである。具体的には、ロボット1は、2つのロボットアーム12A,12Bが鉛直方向の第1軸S1を同軸として水平面内に回動可能な同軸双腕ロボットである。
ロボットアーム12Aは、第1リンク121a、第2リンク121b、第3リンク121cおよび第4リンク124aを有する。第1リンク121aは、基台110に回転関節Ja1を介して連結されており、基台110に定められた鉛直方向の第1軸S1を中心に回動可能である。第2リンク122aは、第1リンク121aの先端部に回転関節Ja2を介して連結されており、第1リンク121aの先端部に定められた鉛直方向の第2軸S2aを中心に回動可能である。
第3リンク123aは、第2リンク122aの先端部に直動関節Ja3を介して連結されており、第2リンク122aの先端部に定められた鉛直方向の第3軸S3aに沿って昇降可能である。第4リンク124aは、第3リンク123aの先端部に回転関節Ja4を介して連結されており、第3リンク123aの先端部に定められた鉛直方向の第4軸S4aを中心に回動可能である。
第4リンク124aは、エンドエフェクタ14Aを連結するためのメカニカルインターフェースを構成する。エンドエフェクタ14Aは、支持体141aと、支持体141aに設けられた吸着ノズル142aとを有する。
同様に、ロボットアーム12Bは、第1リンク121b、第2リンク122b、第3リンク123bおよび第4リンク124bを有する。第1リンク121bは、基台110に回転関節Jb1を介して連結されており、基台110に定められた鉛直方向の第1軸S1を中心に回動可能である。第2リンク122bは、第1リンク121bの先端部に回転関節Jb2を介して連結されており、第1リンク121bの先端部に定められた鉛直方向の第2軸S2bを中心に回動可能である。
第3リンク123bは、第2リンク122bの先端部に直動関節Jb3を介して連結されており、第2リンク122bの先端部に定められた鉛直方向の第3軸S3bに沿って昇降可能である。第4リンク124bは、第3リンク123bの先端部に回転関節Jb4を介して連結されており、第3リンク123bの先端部に定められた鉛直方向の第4軸S4bを中心に回動可能である。
第4リンク124bは、エンドエフェクタ14Bを連結するためのメカニカルインターフェースを構成する。エンドエフェクタ14Bは、支持体141bと、支持体141bに設けられた吸着ノズル142bとを有する。
ロボットアーム1Aの第1リンク121aと、ロボットアーム1Bの第1リンク121bとは、回動時の互いの干渉を抑制するために、第1軸S1の軸心方向にずらして配置される。
ロボットアーム1A,1Bには、関節Ja1,Ja2,Ja3,Ja4,Jb1,Jb2,Jb3およびJb4のそれぞれに対応して、駆動用のサーボモータ(不図示)及びサーボモータの回転角を検出するエンコーダ(不図示)が設けられている。各サーボモータは、ロボットコントローラ5によって制御される。
以下において、2つのロボットアームを区別する場合は「ロボットアーム12A」及び「ロボットアーム12B」と表記し、区別しない場合は「ロボットアーム12」と表記する場合がある。また、2つのエンドエフェクタを区別する場合は「エンドエフェクタ14A」及び「エンドエフェクタ14B」と表記し、区別しない場合は「エンドエフェクタ14」と表記する場合がある。
なお、ロボット1は、単腕ロボットであってもよい。また、ロボット1は、垂直多関節型ロボット又はパラレルリンク型ロボット等であってもよい。
ロボットアーム12A,12Bの先端には、エンドエフェクタ14A,14Bがそれぞれ取り付けられている。エンドエフェクタ14は、吸着ピックアップ機構を用いて対象物Bをピッキングする。吸着ピックアップ機構としては、例えば、負圧や、静電気、磁力、又は分子間力等を用いて対象物Bの少なくとも1点において対象物Bとエンドエフェクタ14とを接触させて対象物Bを持ち上げる機構である。
センシング部2は、対象物Bをセンシングして検出画像を生成する。本実施形態において、センシング部2は、対象物Bを撮像し、撮像した画像データをセンシング結果として生成するデジタルカメラである。図3に示すように、センシング部2は、ロボット1よりも搬送方向Dの上流において、コンベアCVを視野に含むように設置される。センシング部2は、対象物を時系列的に撮像して複数の画像を生成する。生成された画像は、情報処理装置3に出力される。センシング部2により生成される画像は、動画像に含まれる複数の静止画像であってもよいし、所定の時間間隔で撮影されて個別に生成された複数の静止画像であってもよい。以下において、センシング部2としてのデジタルカメラにより生成された検出画像を「カメラ画像」とも呼ぶ。なお、センシング部2は、デジタルカメラに代えて、センシング結果として対象物の3次元位置を表す検出画像を生成するステレオカメラやTOF(Time-of-Flight)カメラであってもよいし、照射光を射出し、射出された照射光の反射光を利用してセンシング結果として対象物の距離を表す検出画像を生成するLiDAR(Light Detection And Ranging)であってもよい。
図4は、情報処理装置3の機能的構成を示すブロック図である。情報処理装置3は、センシング部2から提供されるカメラ画像に基づいて対象物の種別及び吸着点の位置を算出し、ロボットコントローラ5に提供する。また、情報処理装置3は、タッチパネル4にカメラ画像とともに対象物の種別及び吸着点の位置を表す指標を表示し、ユーザによる修正を受付ける。
情報処理装置3は、図示しないCPUと図示しないメモリとを含むコンピュータである。情報処理装置3は、メモリに格納されたコンピュータプログラムを実行することによって、画像取得部31と、代表点推定部32と、吸着点決定部33と、表示制御部34と、推定結果修正部35と、保存処理部36として機能する。また、情報処理装置3のメモリは、モデル保持部38及び修正保存DB(データベース)39を備えている。なお、これらの機能部および記憶部の少なくとも一部は、情報処理装置3の外部に設けられてもよい。
画像取得部31は、センシング部2により生成されたカメラ画像を取得する。画像取得部31は、取得部に相当する。
代表点推定部32は、学習装置7により生成され、モデル保持部38に保持された学習済みモデルを用いて、画像取得部31により取得されたカメラ画像から対象物Bの種別及び代表点の位置を推定する。代表点は、カメラ画像中の対象物Bの1点である。代表点推定部32は、推定部に相当する。
吸着点決定部33は、代表点推定部32により推定されたカメラ画像中の対象物Bの代表点の位置に基づいて、エンドエフェクタ14で対象物Bを吸着するための吸着点の位置を決定する。吸着点の位置は対象物データとしてロボットコントローラ5に提供される。吸着点決定部33は、決定部に相当する。
表示制御部34は、代表点推定部32により推定された対象物Bの種別及び代表点の位置を表す指標を生成し、生成された指標をカメラ画像とともにタッチパネル4に表示する。なお、指標については後述する。
推定結果修正部35は、タッチパネル4に表示された指標に対する修正の指示に基づいて、代表点推定部32による推定結果である対象物Bの種別及び代表点の位置のうちの少なくとも1つを修正する。推定結果修正部35は、修正部に相当する。
保存処理部36は、画像取得部31により取得されたカメラ画像と、代表点推定部32により推定された対象物Bの種別及び代表点の位置とを情報処理装置3の図示しないメモリに保存する。また、保存処理部36は、推定結果修正部35により修正された対象物Bの種別及び代表点の位置のうちの少なくとも1つをカメラ画像と関連付けて修正保存DB39に保存する。
タッチパネル4は、カメラ画像と対象物Bの種別及び代表点の位置を表す指標を表示する。また、タッチパネル4は、指標に対する修正指示の入力を受け付ける。タッチパネル4は、タッチセンサ付き表示装置であり、人の指、タッチペン等の指示体による画面内の指示位置を検出する。タッチパネル4は、表示部及び受付部に相当する。これに限らず、マウス等のポインティングデバイスにより指示位置が入力されてもよい。図3に示すように、2台のタッチパネル4A,4Bは、例えば、ベルトコンベアCV近傍に設置され、ユーザPによって監視される。以下において、2つのタッチパネルを区別する場合は「タッチパネル4A」及び「タッチパネル4B」と表記し、区別しない場合は「タッチパネル4」と表記する場合がある。
ロボットコントローラ5は、情報処理装置3から提供される対象物データに含まれる対象物Bの吸着点の位置に基づいて、エンドエフェクタ14で対象物Bの吸着点を吸着するようにロボット1を制御する。ロボットコントローラ5は、図示しないCPUと図示しないメモリとを含むコンピュータであり、ロボット1のロボットアーム12に含まれる各サーボモータを制御するための不図示の駆動回路をさらに備える。本実施形態では、情報処理装置3とロボットコントローラ5とが互いに独立した装置であるが、これに限らず、情報処理装置3とロボットコントローラ5とが一体に構成されてもよい。すなわち、情報処理装置3の機能がロボットコントローラ5で実現されてもよい。
図4は、学習装置7の機能的構成を示すブロック図である。学習装置7は、学習用DB(データベース)79に保存された学習用データセットを用いて、カメラ画像中の対象物Bの種別及びカメラ画像中の対象物Bの代表点の位置を推定するための学習済みモデルを機械学習により生成する。
学習装置7は、図示しないCPUと図示しないメモリとを含むコンピュータである。学習装置7は、メモリに格納されたコンピュータプログラムを実行することによって、取得部71と、学習部72として機能する。学習装置7は、学習用DB79にアクセス可能である。学習用DB79は、学習装置7の内部に設けられてもよいし、学習装置7の外部に設けられて通信ネットワークを介してアクセスされてもよい。
取得部71は、学習用DB79から学習用データセットを取得する。
学習部72は、取得部71により取得された学習用データセットを用いて、カメラ画像中の対象物Bの種別及びカメラ画像中の対象物Bの代表点の位置を推定するための学習済みモデルを機械学習により生成する。
以下では、学習装置7により実現される学習済みモデルを生成する学習フェーズ、情報処理装置3により実現される学習済みモデルを使用する運用フェーズ、及び学習装置7により実現される学習済みモデルの再学習について、それぞれ詳しく説明する。
学習用画像は、対象物である瓶の像を含んだ画像である。学習用画像は、例えばベルトコンベアCV上の対象物Bを撮像するセンシング部2(図3参照)によって生成された画像である。これに限らず、学習用画像は、実験や、シミュレーション等により準備された画像であってもよく、例えば、実験室において対象物を撮像した画像であってもよい。
種別及び位置は、学習用画像に含まれる対象物の種別及び位置である。対象物の種別及び位置は、例えば人によって判断され、入力される(いわゆるアノテーション)。
対象物は、複数の種別(クラス)に分別される。種別は、色に関する種別及びサイズに関する種別などを含んでいる。例えば、色に関する種別には、透明瓶及び色付き瓶がある。サイズに関する種別には、大及び小がある。本実施形態では、色に関する種別とサイズに関する種別とが組み合わされて、対象物は、「透明瓶・大」、「透明瓶・小」、「色付き瓶・大」、及び「色付き瓶・小」の4つの種別に分別される。
対象物の位置は、対象物の代表点の位置である。対象物の代表点は、学習用画像中の対象物の1点である。対象物の代表点は、例えば吸着点として適していると人によって判断され、指示された、対象物の像の中の一点である。すなわち、1つの対象物につき1つの代表点が設定される。吸着点としては、対象物の中心若しくはそれに近い場所、又は凹凸が少ない場所などが適している。
図7は、学習用画像LPの例を示す図である。図8は、学習用画像LPに対するアノテーションの例を示す図である。学習用画像LPには、例えば大サイズの透明瓶Btl、小サイズの透明瓶Bts、大サイズの色付き瓶Bcl、及び小サイズの色付き瓶Bcsのうちの1又は複数が含まれる。
代表点Pの位置を設定するためのアノテーションは、例えばタッチパネルに表示された学習用画像LP上で対象物の代表点Pの位置を人が指等で指示することによって実現される。すなわち、タッチパネルに表示された学習用画像LPを見た人が、対象物の吸着点として適していると判断した場所を指等で指示することにより、代表点Pの位置が設定される。学習用画像LPが複数の対象物を含む場合には、それぞれの対象物に代表点Pが1つずつ設定される。
対象物の種別を設定するためのアノテーションは、例えば代表点Pの位置が指示される際に、人の指等が所定の軌跡を描くこと等によって実現される。これに限らず、キーボード又はマウス等からの入力に応じて対象物の種別が設定されてもよい。
図9は、学習装置7において実現される、学習済みモデルの生成処理の手順例を示すフローチャートである。学習済みモデルの生成処理は、ユーザ開始される。図10は、学習済みモデルの生成処理を説明するための図である。同図では、図9の各処理に対応する箇所に、処理のステップ番号を付す。
本例では、例えば Keypoint Detection 等の、画像内の特徴点を検出する特徴点検出モデルMDLが用いられる。特徴点検出モデルMDLは、それぞれの種別に対応する確度分布画像(いわゆるヒートマップ)を出力する。確度分布画像は、各画素における代表点の確度を表す。確度は、代表点としての確からしさを表す。すなわち、確度は、代表点が吸着点として適切である度合いを表す指標である。
図9に示すように、ステップS11において、取得部71は、学習用画像、種別、及び位置を含む学習用データセットを学習用DB79から取得する。
ステップS12において、学習部72は、学習用画像LPを入力データIPDとして特徴点検出モデルMDLに入力する。ステップS13において、学習部72は、特徴点検出モデルMDLによる計算を行う。ステップS14において、学習部72は、特徴点検出モデルMDLから種別毎の確度分布画像HMを出力データOPDとして出力する。
ステップS15において、学習部72は、出力データOPDとしての確度分布画像HMと、教師データTRDとしての対象物の種別(Class name)及び代表点の位置(KeyPoint (x,y))との誤差を算出する。ステップS16において、学習部72は、誤差を低減するように誤差逆伝播計算を行う。
以上の手順を繰り返すことにより、画像中の対象物の種別及び代表点の位置を推定するための学習済みモデル(すなわち、学習済みの特徴点検出モデル)が生成される。生成された学習済みモデルは、以下に説明する運用フェーズにおいて使用される。
なお、ロボットシステム100のセンシング部2にステレオカメラやTOFカメラが用いられる場合には、学習用画像としてステレオカメラやTOFカメラにより生成された検出画像が用いられる。また、センシング部2にLiDARが用いられる場合には、学習用画像としてLiDARにより生成された検出画像が用いられる。
ステップS21において、画像取得部31は、センシング部2により生成されたカメラ画像を取得する。具体的には、画像取得部31は、センシング部2により時系列的に生成された複数のカメラ画像を順次取得する。
ステップS22において、代表点推定部32は、上述の学習フェーズにおいて生成された学習済みモデルLMDL(すなわち、学習済みの特徴点検出モデルMDL)を用いて、上記ステップS21で取得されたカメラ画像CPから対象物Bの種別及び代表点の位置を推定する。ここでは、1つの対象物Bにつき1つの代表点の位置が推定される。
具体的には、代表点推定部32は、図12に示すように、カメラ画像CPを入力データIPDとして学習済みモデルLMDLに入力し、学習済みモデルLMDLによる計算を行い、種別毎の確度分布画像HMを出力データOPDとして出力し、確度分布画像HMに基づいて対象物Bの代表点の位置を特定する。
例えば、確度分布画像HMにおいて所定以上の確度を有するピーク部分を最大値プーリング等の手法によって抽出し、抽出されたピーク部分の中心に対応する位置を求めることによって、瓶の代表点の位置が特定され得る。カメラ画像CPが複数の対象物Bを含む場合には、この処理によって、各対象物Bに1つの代表点の位置がそれぞれ特定される。なお、最大値プーリングに限らず、クラスタリング等によってピーク部分を抽出してもよい。
なお、ロボットシステム100のセンシング部2にステレオカメラやTOFカメラが用いられる場合には、学習用画像としてステレオカメラやTOFカメラの検出画像を用いて生成された学習済みモデルが用いられる。また、センシング部2にLiDARが用いられる場合には、学習用画像としてLiDARの検出画像を用いて生成された学習済みモデルが用いられる。
ステップS23において、表示制御部34は、上記ステップS22で推定された対象物Bの種別及び代表点の位置を表す指標を生成する。ステップS24において、表示制御部34は、上記ステップS23で生成された指標を、カメラ画像とともにタッチパネル4に表示する。
図13は、タッチパネル4の表示例を示す図である。本実施形態では、タッチパネル4に合成画像SPが表示される。合成画像SPは、カメラ画像CPに指標Mを含む指標画像MKを重畳した画像である。合成画像SPでは、カメラ画像CPに含まれる対象物Bの像の上に、指標画像MKに含まれる指標Mが配置される。
具体的には、カメラ画像CPは、例えば大サイズの透明瓶Btl、小サイズの透明瓶Bts、大サイズの色付き瓶Bcl、及び小サイズの色付き瓶Bcsのうちの1又は複数を含んでいる。「対象物B」は、瓶Btl,Bts,Bcl,Bcsの総称である。
指標画像MKは、大サイズの透明瓶であることを表す指標Mtl、小サイズの透明瓶であることを表す指標Mts、大サイズの色付き瓶であることを表す指標Mcl、小サイズの色付き瓶であることを表す指標Mcsのうちの1又は複数を含んでいる。「指標M」は、指標Mtl,Mts,Mcl,指標Mcsの総称である。
大サイズの透明瓶Btl上には、大サイズの透明瓶であることを表す指標Mtlが配置される。小サイズの透明瓶Bts上には、小サイズの透明瓶であることを表す指標Mtsが配置される。大サイズの色付き瓶Bcl上には、大サイズの色付き瓶であることを表す指標Mclが配置される。小サイズの色付き瓶Bcs上には、小サイズの色付き瓶であることを表す指標Mcsが配置される。
指標Mは、対象物Bの種別及び代表点の位置の両方を表す。具体的には、指標Mは、対象物Bの種別に応じた色又は模様等の表示態様で識別可能に表示されることで、対象物Bの種別を表す。また、指標Mは、対象物Bの代表点の位置に点形状ないし円形状で表示されることで、対象物Bの代表点の位置を表す。
本実施形態では、カメラ画像CPに指標画像MKを重畳した合成画像SPをタッチパネル4に表示すが、これに限らず、図14に示すように、カメラ画像CPと指標画像MKとを並べてタッチパネル4に表示してもよい。すなわち、カメラ画像CPとともに指標Mを表示する表示態様であれば、他の任意の表示態様を採用してもよい。
また、本実施形態では、指標Mは、対象物Bの種別及び代表点の位置の両方を表すが、これに限らず、図15に示すように、対象物Bの種別を表す指標Nと、対象物Bの代表点の位置を表す指標Dとが個別に表示されてもよい。「指標N」は、大サイズの透明瓶であることを表す指標Ntl、小サイズの透明瓶であることを表す指標Nts、大サイズの色付き瓶であることを表す指標Ncl、小サイズの色付き瓶であることを表す指標Ncsの総称である。例えば、指標Nは、対象物Bの種別を表す文字列を含むことで、対象物Bの種別を表す。また、指標Dは、対象物Bの代表点の位置に点形状ないし円形状で表示されることで、対象物Bの代表点の位置を表す。
なお、本実施形態では、合成画像SPが全ての指標Mtl,Mts,Mcl,Mcsを含んでいるが、これに限らず、図3に示す2台のタッチパネル4A,4Bのうちの一方のタッチパネル4Aに透明瓶に係る指標Mtl,Mtsを含む合成画像SPを表示し、他方のタッチパネル4Bに色付き瓶に係る指標Mcl、Mcsを含む合成画像SPを表示してもよい。
図11に示すように、ステップS25において、タッチパネル4に表示された指標Mに対して修正の指示がない場合には(S25:NO)、ステップS26に移行する。ステップS26において、保存処理部36は、ステップS21において取得されたカメラ画像と、ステップS22において推定された種別および位置とを保存する。
ステップS27において、吸着点決定部33は、上記ステップS22で推定された対象物Bの代表点の位置に基づいて、エンドエフェクタ14で対象物Bを吸着するための吸着点の位置を決定する。具体的には、情報処理装置3は、カメラ画像CP中の対象物Bの代表点の位置に対応する現実空間内の位置を、吸着点の位置とする。言い換えると、情報処理装置3は、カメラ画像CP中の座標で表される対象物Bの代表点の位置を、ワールド座標系で表される吸着点の位置に変換する。座標の変換は、センシング部2の位置、向き、及び画角等に基づいて行われる。
ステップS28において、吸着点決定部33は、上記ステップS22で推定された対象物Bの種別及び上記ステップS25で決定された吸着点の位置を含む対象物データを、ロボットコントローラ5に送信する。ロボットコントローラ5は、情報処理装置3から受信した対象物データに基づいて、指定された対象物Bの吸着点をエンドエフェクタ14で吸着するようにロボット1を制御する。
本実施形態では、吸着点の位置は2次元位置で与えられる。このため、ロボット1は、エンドエフェクタ14を対象物Bの吸着点の位置の上方に位置決めし、その後、エンドエフェクタ14を対象物Bに突き当たるまで下降させて、対象物Bを吸着する。これに限らず、吸着点の位置は3次元位置で与えられてもよい。
ロボットコントローラ5は、対象物データに含まれる対象物Bの種別が「透明瓶」を含む場合には、図3に示す2台のロボット1A,1Bのうちの第1のロボット1Aを制御して、透明瓶である対象物Bを分別する。
具体的には、ロボットコントローラ5は、対象物データに含まれる対象物Bの種別が「透明瓶・大」である場合には、第1のロボット1Aのロボットアーム12Aを制御して、大サイズの透明瓶である対象物Bをエンドエフェクタ14Aで吸着して持ち上げ、回収箱Haに投入する。
また、ロボットコントローラ5は、対象物データに含まれる対象物Bの種別が「透明瓶・小」である場合には、第1のロボット1Aのロボットアーム12Bを制御して、小サイズの透明瓶である対象物Bをエンドエフェクタ14Bで吸着して持ち上げ、回収箱Hbに投入する。
一方、ロボットコントローラ5は、対象物データに含まれる対象物Bの種別が「色付き瓶」を含む場合には、図3に示す2台のロボット1A,1Bのうちの第2のロボット1Bを制御して、色付き瓶である対象物Bを分別する。
具体的には、ロボットコントローラ5は、対象物データに含まれる対象物Bの種別が「色付き瓶・大」である場合には、第2のロボット1Bのロボットアーム12Aを制御して、大サイズの色付き瓶である対象物Bをエンドエフェクタ14で吸着して持ち上げ、回収箱Hcに投入する。
また、ロボットコントローラ5は、対象物データに含まれる対象物Bの種別が「色付き瓶・小」である場合には、第2のロボット1Bのロボットアーム12Bを制御して、小サイズの色付き瓶である対象物Bをエンドエフェクタ14で吸着して持ち上げ、回収箱Hdに投入する。
ステップS25において、タッチパネル4に表示された指標Mに対して修正の指示があった場合には(S25:YES)、ステップS29に移行する。ステップS29において、推定結果修正部35は、修正の指示に基づいて、上記ステップS22の推定結果である対象物Bの種別及び代表点の位置のうちの少なくとも1つを修正する。
図16は、対象物Bの代表点の位置を修正する例を示している。対象物Bの代表点の位置は、例えば指標Mの位置が変更されたときに修正される。指標Mの位置の変更は、例えばタッチパネル4に表示された合成画像SP中の指標Mの新たな位置をユーザPが指等で指示することにより実現される。すなわち、タッチパネル4に表示された合成画像SPを見たユーザPが、対象物Bの吸着点としてより適していると判断した場所を指示すると、表示制御部34が指標Mの位置を変更し、それに伴って、推定結果修正部35が推定結果である代表点の位置を修正する。
図17は、対象物Bの種別を修正する例を示している。対象物Bの種別は、例えば指標Mの表示態様が変更されたときに修正される。指標Mの表示態様の変更は、例えばタッチパネル4に表示された指標Mを指示するユーザPの指等が所定の軌跡を描くこと等によって実現される。すなわち、タッチパネル4に表示された合成画像SPを見たユーザPが、対象物Bの種別としてより適していると判断した種別に対応する軌跡を入力すると、表示制御部34が指標Mの表示態様を変更し、それに伴って、推定結果修正部35が対象物Bの種別を修正する。これに限らず、キーボード又はマウス等からの入力に応じて指標Mの表示態様が変更されてもよい。
なお、指標Mの修正は、指標Mの位置及び表示態様の変更だけでなく、指標Mを削除する修正であってもよいし、指標Mを新たに追加する修正であってもよい。指標Mが削除された場合、指標Mに対応する対象物Bのデータは削除される。指標Mが新たに追加された場合、指標Mに対応する対象物Bのデータが新たに生成される。
図11に示すように、ステップS30において、保存処理部36は、修正内容を修正保存DB39に保存する。具体的には、保存処理部36は、対象物の種別及び代表点の位置のうちの修正された項目をカメラ画像と関連付けて、修正保存DB39に保存する。
図18は、修正保存DB39の例を示す図である。修正保存DB39に保存される項目は、学習用DB79(図4参照)に保存される項目と対応する。修正保存DB39では、カメラ画像に対象物の種別及び代表点の位置が関連付けられており、対象物の種別及び代表点の位置のうちの少なくとも1つが修正されたものである。例えば対象物の種別が修正された場合、保存処理部36は、修正された対象物の種別を、カメラ画像及び修正されていない対象物の代表点の位置と関連付けて保存する。
ステップS30の実行後、上述のステップS26、S27及びS28が実行される。なお、ステップS26、ステップS27、ステップS30は、並行して実行されてもよい。
学習装置7の取得部71は、修正保存DB39からカメラ画像、対象物の種別及び代表点の位置を取得する。学習装置7の学習部72は、カメラ画像を入力データとし、対象物の種別及び代表点の位置を教師データとして学習済みモデルの再学習を行う。再学習の具体的な処理については、上記図9及び図10に示した学習フェーズと同様であるため、詳細な説明を省略する。
以上に説明した実施形態によれば、情報処理装置3は、学習装置7により生成された学習済みモデルLMDLを用いてカメラ画像CPから対象物Bの代表点の位置を推定し、推定された対象物Bの代表点の位置に基づいて吸着点の位置を決定する。これによれば、カメラ画像CP中の対象物Bの1点である代表点の位置を推定するため、計算手順の簡易化を図ることが可能である。
情報処理装置3は、カメラ画像CPとともに、対象物Bの種別及び代表点の位置を表す指標Mを、タッチパネル4に表示する。これによれば、指標Mが対象物Bの種別及び代表点の位置を表すので、学習済みモデルLMDLによる推定の正誤をユーザに確認させることが可能である。カメラ画像CPに指標画像MKを重畳した合成画像SPを表示することで、ユーザは、対象物Bと指標Mの関係を認識することが容易となる。また、対象物Bの種別及び代表点の位置の両方を表す指標Mを表示することで、ユーザは、指標Mを見ただけで、対象物Bの種別及び代表点の位置の両方を認識することができる。
情報処理装置3は、タッチパネル4で受け付けられた指標Mに対する修正の指示に基づいて、推定された対象物Bの種別又は代表点の位置を修正する。これによれば、タッチパネル4を監視するユーザによって指標Mに対する修正が入力されるので、学習済みモデルLMDLによる推定に誤りがあっても、ユーザによって補完することが可能である。
情報処理装置3は、修正された対象物Bの種別及び代表点の位置のうちの少なくとも1つをカメラ画像CPと関連付けて保存する。これによれば、ユーザによって判断され、入力された修正内容が保存されるので、修正内容を再学習に用いることが可能となる。
情報処理装置3は、学習済みモデルLMDLから出力された確度分布画像HMに基づいて対象物Bの代表点の位置を特定する。これによれば、確度分布画像HMの各画素において代表点としての確度が表されるので、確度のピーク部分を抽出して代表点の位置を特定することが可能である。
情報処理装置3は、1つの対象物Bにつき1つの代表点の位置を推定する。これによれば、1つの対象物Bにつき1つの代表点の位置を直接的に推定するため、境界ボックスの位置を推定する手法等と比べて、計算コストの低減を図ることが可能である。
ロボットコントローラ5は、図3に示すように2台のロボット1A,1Bのうちの第1のロボット1Aのエンドエフェクタ14で色に係る種別が「透明(第1の種別)」の対象物Bを吸着し、第2のロボット1Bのエンドエフェクタ14で色に係る種別が「色付き(第2の種別)」の対象物Bを吸着するように、ロボット1A,1Bを制御する。これによれば、情報処理装置3による対象物Bの種別の推定結果が2つのロボット1A,1Bで共有されるので、計算コストの低減を図ることができる。
ロボット1は、2つのロボットアーム12A,12Bを備える双腕ロボットである。ロボットコントローラ5は、図3に示すようにロボット1の2つのロボットアーム12A,12Bのうちの第1のロボットアーム12Aでサイズに係る種別が「大(第1の種別)」の対象物Bを吸着し、第2のロボットアーム12Bでサイズに係る種別が「小(第2の種別)」の対象物Bを吸着するように、ロボットアーム12A,12Bを制御する。これによれば、情報処理装置3による対象物Bの種別の推定結果が2つのロボットアーム12A,12Bで共有されるので、計算コストの低減を図ることができる。
学習装置7は、学習用画像LPを入力データとし、学習用画像LPに含まれる対象物の種別及び位置を教師データとして、カメラ画像CPに含まれる対象物Bの種別及びカメラ画像CP中の対象物Bの1点である代表点の位置を推定するための学習済みモデルLMDLを機械学習により生成する。これによれば、カメラ画像CPに含まれる対象物Bの種別及び代表点の位置を推定するための学習済みモデルLMDLを生成することで、運用フェーズにおける計算手順の簡易化を図ることが可能である。
教師データにおける学習用画像LPに含まれる対象物の位置は、学習用画像LP中の対象物の1点である代表点の位置である。これによれば、対象物Bの代表点の位置を直接的に推定する学習済みモデルLMDLを生成するため、境界ボックスの位置を推定する手法等と比べて、運用フェーズにおける計算コストの低減を図ることが可能である。さらに、図8に示すように、代表点Pの位置の設定は、学習用画像LP中の一点を指示することで実現されるので、代表点Pの位置を設定するためのアノテーションを容易かつ簡便に行うことが可能である
学習装置7は、情報処理装置3により保存されたカメラ画像CP並びに修正された対象物Bの種別及び代表点の位置のうちの少なくとも1つを教師データとして、学習済みモデルの再学習を行う。これによれば、ユーザによって判断され、入力された修正内容を用いて再学習を行うので、認識精度のさらなる向上を図ることが可能となる。
上記実施形態では、対象物は空き瓶であったが、本開示はこれに限定されない。例えば、対象物は、段ボール箱などの箱体であってもよい。また、例えば、対象物は、箱体に収容されている物品であってもよい。かかる物品としては、例えば、日用品、化粧品、機械部品、食品等が挙げられる。なお、これらの物品は箱体に収容されていなくてもよい。
上記実施形態では、サイズに関する種別は、大及び小の2つであったが、例えば、大、中及び小の3つであってもよいし、他の任意の数のサイズをサイズに関する種別としてもよい。
上記実施形態では、色に関する種別は、透明、すなわち色なしと、色付きとの2つであったが、色付きの色を複数種類としてもよく、例えば、緑色、茶色の2つを色に関する種別としてもよい。なお、色の数は他の任意の数としてもよい。
上記実施形態では、対象物の種別は色及びサイズに関する種別であったが、本開示はこれに限定されない。例えば、製品名、割れの有無、ラベルの有無などの種別(クラス)であってもよく、ピッキングの目的や、対象物の種類に応じて任意の種別を用いてもよい。また、例えば、種別は複数の属性を組み合わせてもよい。具体的には、瓶の状態と瓶の色とを組み合わせて、割れあり茶色、割れなし透明、割れなし茶色、割れなし透明の4つの種別を用いてもよい。
上記実施形態では、複数のロボット1A,1Bで異なる種別の対象物Bを分別したが、これに限らず、複数のロボット1A,1Bで同じ種別の対象物Bを分別してもよい。また、上記実施形態では、複数のロボットアーム12A,12Bで異なる種別の対象物Bを分別したが、これに限らず、複数のロボットアーム12A,12Bで同じ種別の対象物Bを分別してもよい。
以上、本発明の実施形態について説明したが、本発明は以上に説明した実施形態に限定されるものではなく、種々の変更が当業者にとって可能であることはもちろんである。
本明細書で開示する要素の機能は、開示された機能を実行するよう構成またはプログラムされた汎用プロセッサ、専用プロセッサ、集積回路、ASIC(Application Specific Integrated Circuits)、従来の回路、および/または、それらの組み合わせ、を含む回路または処理回路を使用して実行できる。プロセッサは、トランジスタやその他の回路を含むため、処理回路または回路と見なされる。本開示において、回路、ユニット、または手段は、列挙された機能を実行するハードウェアであるか、または、列挙された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されているハードウェアであってもよいし、あるいは、列挙された機能を実行するようにプログラムまたは構成されているその他の既知のハードウェアであってもよい。ハードウェアが回路の一種と考えられるプロセッサである場合、回路、手段、またはユニットはハードウェアとソフトウェアの組み合わせであり、ソフトウェアはハードウェアおよび/またはプロセッサの構成に使用される。
Claims (15)
-
ロボットシステムであって、
吸着用のエンドエフェクタを有するロボットと、
対象物をセンシングするセンシング部、
学習用画像を入力データとし、前記学習用画像に含まれる対象物の種別及び位置を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記センシング部により生成された検出画像から前記対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定する推定部と、
推定された前記対象物の種別及び代表点の位置を表す指標に対する修正指示の入力を受け付ける受付部と、
受け付けられた前記修正指示に基づいて、推定された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを修正する修正部と、
前記検出画像中の前記対象物の前記代表点の位置に基づいて、前記エンドエフェクタで前記対象物を吸着するための吸着点の位置を決定する決定部と、
前記エンドエフェクタで前記対象物の前記吸着点を吸着するように前記ロボットを制御するロボットコントローラと、
を備える、ロボットシステム。 -
請求項1に記載のロボットシステムであって、
前記検出画像とともに、推定された前記対象物の種別及び代表点の位置を表す指標を表示する表示部をさらに備える、
ロボットシステム。 -
請求項1に記載のロボットシステムであって、
修正された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを、前記検出画像と関連付けて保存する保存処理部をさらに備える、ロボットシステム。 -
請求項1から請求項3までのいずれか一項に記載のロボットシステムであって、
前記推定部は、前記学習済みモデルから出力される確度分布画像の各画素における前記対象物の前記代表点としての確からしさを表す確度に基づいて、前記対象物の代表点の位置を特定する、
ロボットシステム。 -
請求項1から請求項4までのいずれか一項に記載のロボットシステムであって、
前記推定部は、1つの前記対象物につき1つの前記代表点の位置を推定する、
ロボットシステム。 -
請求項1から請求項5までのいずれか一項に記載のロボットシステムであって、
前記教師データにおける前記学習用画像に含まれる対象物の位置は、前記学習用画像中の前記対象物の1点である代表点の位置である、
ロボットシステム。 -
請求項1から請求項6までのいずれか一項に記載のロボットシステムであって、
複数の前記ロボットを備え、
前記ロボットコントローラは、複数の前記ロボットのうちの第1のロボットの前記エンドエフェクタで第1の種別の前記対象物を吸着し、第2のロボットの前記エンドエフェクタで第2の種別の前記対象物を吸着するように、複数の前記ロボットを制御する、
ロボットシステム。 -
請求項1から請求項7までのいずれか一項に記載のロボットシステムであって、
前記ロボットは、2つのロボットアームを有する双腕ロボットであり、
前記ロボットコントローラは、前記2つのロボットアームのうちの第1のロボットアームに設けられた前記エンドエフェクタで第1の種別の前記対象物を吸着し、第2のロボットアームに設けられた前記エンドエフェクタで第2の種別の前記対象物を吸着するように、前記2つのロボットアームを制御する、
ロボットシステム。 -
吸着用のエンドエフェクタを有するロボットの制御方法であって、
センシング部により対象物をセンシングし、
学習用画像を入力データとし、前記学習用画像に含まれる対象物の種別及び位置を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記センシング部により生成された検出画像から前記対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定し、
推定された前記対象物の種別及び代表点の位置を表す指標に対する修正指示の入力を受け付け、
受け付けられた前記修正指示に基づいて、推定された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを修正し、
前記検出画像中の前記対象物の前記代表点の位置に基づいて、前記エンドエフェクタで前記対象物を吸着するための吸着点の位置を決定し、
前記エンドエフェクタで前記対象物の前記吸着点を吸着するように前記ロボットを制御する、
ロボットの制御方法。 -
情報処理装置であって、
対象物をセンシングするセンシング部により生成された検出画像を取得する取得部と、
学習用画像を入力データとし、前記学習用画像に含まれる対象物の種別及び位置を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記検出画像から前記対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定する推定部と、
推定された前記対象物の種別及び代表点の位置を表す指標に対する修正指示の入力を受け付ける受付部と、
受け付けられた前記修正指示に基づいて、推定された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを修正する修正部と、
前記検出画像中の前記対象物の前記代表点の位置に基づいて、吸着用のエンドエフェクタで前記対象物を吸着するための吸着点の位置を決定する決定部と、
を備える、情報処理装置。 -
コンピュータプログラムであって、
対象物をセンシングするセンシング部により生成された検出画像を取得する機能と、
学習用画像を入力データとし、前記学習用画像に含まれる対象物の種別及び位置を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記前記画像から前記対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定する機能と、
推定された前記対象物の種別及び代表点の位置を表す指標に対する修正指示の入力を受け付ける機能と、
受け付けられた前記修正指示に基づいて、推定された前記対象物の種別及び前記代表点の位置のうちの少なくとも1つを修正する機能と、
前記検出画像中の前記対象物の前記代表点の位置に基づいて、吸着用のエンドエフェクタで前記対象物を吸着するための吸着点の位置を決定する機能と、
をコンピュータに実現させるコンピュータプログラム。 -
学習装置であって、
学習用画像並びに前記学習用画像に含まれる対象物の種別及び前記学習用画像中の前記対象物の位置を取得する取得部と、
前記学習用画像を入力データとし、前記学習用画像に含まれる前記対象物の種別及び前記学習用画像中の前記対象物の位置を教師データとして、センシング部により生成された検出画像に含まれる対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定するための学習済みモデルを機械学習により生成する学習部と、
を備え、
前記学習部は、修正された対象物の種別又は代表点の位置を教師データとして、前記学習済みモデルの再学習を行う、
、学習装置。 -
請求項12に記載の学習装置であって、
前記教師データにおける前記学習用画像に含まれる対象物の位置は、前記学習用画像中の前記対象物の1点である代表点の位置である、
学習装置。 -
請求項12または請求項13に記載の学習装置であって、
前記取得部は、請求項4に記載のロボットシステムにおいて保存された検出画像並びに修正された対象物の種別及び代表点の位置のうちの少なくとも一方を取得する、
学習装置。 -
学習済みモデルの生成方法であって、
学習用画像並びに前記学習用画像に含まれる対象物の種別及び前記学習用画像中の前記対象物の位置を取得し、
前記学習用画像を入力データとし、前記学習用画像に含まれる前記対象物の種別及び前記学習用画像中の前記対象物の位置を教師データとして、センシング部により生成された検出画像に含まれる対象物の種別及び前記検出画像中の前記対象物の1点である代表点の位置を推定するための学習済みモデルを機械学習により生成し、
修正された対象物の種別又は代表点の位置を教師データとして、前記学習済みモデルの再学習を行う、
学習済みモデルの生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020142355A JP7481205B2 (ja) | 2020-08-26 | 2020-08-26 | ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020142355A JP7481205B2 (ja) | 2020-08-26 | 2020-08-26 | ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022038069A JP2022038069A (ja) | 2022-03-10 |
JP7481205B2 true JP7481205B2 (ja) | 2024-05-10 |
Family
ID=80497796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020142355A Active JP7481205B2 (ja) | 2020-08-26 | 2020-08-26 | ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7481205B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117813184A (zh) * | 2021-08-19 | 2024-04-02 | 京瓷株式会社 | 机器人的保持形态决定装置、保持形态决定方法、以及机器人控制系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019056966A (ja) | 2017-09-19 | 2019-04-11 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
JP2019179390A (ja) | 2018-03-30 | 2019-10-17 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
JP2020015128A (ja) | 2018-07-25 | 2020-01-30 | ファナック株式会社 | センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム |
-
2020
- 2020-08-26 JP JP2020142355A patent/JP7481205B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019056966A (ja) | 2017-09-19 | 2019-04-11 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
JP2019179390A (ja) | 2018-03-30 | 2019-10-17 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
JP2020015128A (ja) | 2018-07-25 | 2020-01-30 | ファナック株式会社 | センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022038069A (ja) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112091970B (zh) | 具有增强的扫描机制的机器人系统 | |
Schwarz et al. | Fast object learning and dual-arm coordination for cluttered stowing, picking, and packing | |
CN108399639B (zh) | 基于深度学习的快速自动抓取与摆放方法 | |
US20210187735A1 (en) | Positioning a Robot Sensor for Object Classification | |
CN108349083B (zh) | 用于提供各种物体的分拣的分拣系统和方法 | |
US20230158668A1 (en) | Autonomous Object Learning by Robots Triggered by Remote Operators | |
JP6902369B2 (ja) | 提示装置、提示方法およびプログラム、ならびに作業システム | |
JP6869060B2 (ja) | マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム | |
US20230321821A1 (en) | Method and system for object grasping | |
JPWO2009028489A1 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
JP7481427B2 (ja) | 取り出しシステム及び方法 | |
WO2021039850A1 (ja) | 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 | |
JP7481205B2 (ja) | ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法 | |
JP7200610B2 (ja) | 位置検出プログラム、位置検出方法及び位置検出装置 | |
JP6931585B2 (ja) | 作業システム、作業システムの制御方法及びプログラム | |
US20210001488A1 (en) | Silverware processing systems and methods | |
JP6265784B2 (ja) | 姿勢推定システム、プログラムおよび姿勢推定方法 | |
JP5332873B2 (ja) | 袋状ワーク認識装置および方法 | |
US20230364787A1 (en) | Automated handling systems and methods | |
WO2023073780A1 (ja) | 学習データの生成装置および学習データの生成方法、並びに学習データを使用する機械学習装置および機械学習方法 | |
Leitner et al. | Designing Cartman: a cartesian manipulator for the Amazon Robotics Challenge 2017 | |
TWI788253B (zh) | 適應性移動操作設備及方法 | |
WO2023100282A1 (ja) | データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム | |
WO2024080210A1 (ja) | 物品移動装置及びその制御方法 | |
Rungta | Using Novel Visuo-Tactile Sensors to Recognize Contact in Robotic Manipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7481205 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |