JP6908907B1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP6908907B1 JP6908907B1 JP2021003122A JP2021003122A JP6908907B1 JP 6908907 B1 JP6908907 B1 JP 6908907B1 JP 2021003122 A JP2021003122 A JP 2021003122A JP 2021003122 A JP2021003122 A JP 2021003122A JP 6908907 B1 JP6908907 B1 JP 6908907B1
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- teacher data
- gripping position
- generated
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Abstract
Description
以下、本発明の一実施形態に係る把持システム1について説明する。
把持システム1の概要について、図1を参照して説明する。図1は、把持システム1の概略を示すブロック図である。図1に示すように、把持システム1は、制御装置10と、学習装置20と、ロボットアーム30と、撮像装置40とを含む。把持システム1は、載置台wの上に載置された物体(obj1、またはobj2)を把持するようロボットアーム30を制御するシステムである。
制御装置10は、物体を被写体として含む画像を取得し、当該物体における把持位置を示す把持位置情報を、後述の生成モデルM1を用いて生成する装置である。また、制御装置10は、生成した把持位置情報に基づいて、物体を把持する把持動作を実行するようロボットアーム30を制御する。制御装置10は、特許請求の範囲に記載した「情報処理装置」を実現する構成の一例である。制御装置10の詳細な構成については後述する。
学習装置20は、制御装置10が用いる生成モデルM1を機械学習により生成する装置である。より具体的には、学習装置20は、生成モデルM1と、後述する分別モデルM2とを生成する。学習装置20は、教師データを用いて分別モデルM2を学習させるとともに、分別モデルM2に対して生成モデルM1を敵対的に学習させる。学習装置20は、特許請求の範囲に記載した「情報処理装置」を実現する構成の一例である。学習装置20の詳細な構成については後述する。
物体を被写体として含む画像とは、物体が撮像されることにより生成された画像である。本実施形態において、当該画像は、少なくとも1つの物体を被写体として含む。例えば、撮像装置40が物体obj1を撮像した画像、物体obj2を撮像した画像、および物体obj1、obj2の両方を撮像した画像は、それぞれ、物体を被写体として含む画像の一例である。
把持位置とは、現実空間に存在する物体において、当該物体をロボットアーム30に把持させる把持部分の現実空間における位置である。本実施形態では、把持位置は、画像上の領域によって特定される。換言すると、当該画像上の領域は、把持部分の現実空間における位置を画像上において示す領域である。画像上の領域の詳細については後述する。以下では、把持位置の候補となる位置を、把持位置候補とも記載する。また、複数の把持位置候補が連続する領域を、把持領域とも記載する。
ロボットアーム30は、制御装置10の制御に基づいて、物体を把持する把持動作を実行する。具体的には、図1に示すように、ロボットアーム30は、複数の回転軸を有する多関節ロボットであり、台座部31と、ベース部32と、アーム部33と、ハンド部34とを含む。
撮像装置40は、制御装置10の制御に基づいて、載置台wの上に載置された物体obj1およびobj2の一部または全部を撮像した画像を生成する。例えば、撮像装置40の撮像方向および画角は、載置台wの上を撮像範囲とするよう、制御装置10の制御に基づいて変更される。
学習装置20の機能的な構成について、図2を参照して説明する。図2は、学習装置20の機能的な構成を示すブロック図である。図2に示すように、学習装置20は、制御部21と、記憶部22とを含む。制御部21は、学習制御部211と、第1の教師データ生成部212と、第2の教師データ生成部213とを含む。記憶部22は、生成モデルM1と、分別モデルM2と、第1の教師データセットT1と、第2の教師データセットT2とを記憶する。第1の教師データセットT1は、複数の第1の教師データD1を含む。第2の教師データセットT2は、複数の第2の教師データD2を含む。なお、図2には、第1の教師データD1及び第2の教師データD2をそれぞれ3つずつ示しているが、これらの数は3に限定されない。
生成モデルM1は、物体を被写体として含む画像と、ノイズパラメータとが入力されると、物体における把持位置を示す把持位置情報を生成する。生成モデルM1は、特許請求の範囲に記載した「生成部」を実現する構成の一例である。生成モデルM1は、例えば、1又は複数のニューラルネットワーク(好ましくは、ディープニューラルネットワーク)によって構成される。ニューラルネットワークの一例としては、CNN(Convolutional Neural Network)が挙げられるが、これに限らない。生成モデルM1は、分別モデルM2に対して敵対的に学習される。なお、生成モデルM1の学習とは、生成モデルM1への入力に対して所望の出力が得られるよう、生成モデルM1が含む複数のパラメータを決定することである。学習の詳細については後述する。
ノイズパラメータは、把持位置に影響を与えるノイズを示すパラメータである。具体的には、生成モデルM1は、画像A及びノイズパラメータN1が入力される場合と、画像A及びノイズパラメータN2が入力される場合とでは、異なる把持位置情報を出力する。換言すると、生成モデルM1は、同一の画像が入力される場合であっても、異なるノイズパラメータが入力される場合、異なる把持位置情報を出力する。
生成モデルM1の具体的な構成例について、図3を参照して説明する。図3は、生成モデルM1及び分別モデルM2の具体的な構成例を示す図である。図3に示すように、生成モデルM1は、当該生成モデルM1の学習を行う際には、分別モデルM2に接続されている。なお、後述する制御装置10においては、生成モデルM1は、分別モデルM2に接続されずに単独で用いられる。図3に示すように、生成モデルM1は、複数のニューラルネットワークDNN1〜DNN3を含む。
式(1)に含まれる5つのパラメータは、二次元座標系が定められた画像における矩形の領域を表している。当該矩形の領域を、以降、バウンディングボックスとも記載する。パラメータx及びyは、バウンディングボックスの中心点の座標を表す。また、パラメータθは、バウンディングボックスの傾きであり、例えばバウンディングボックスの長辺とx軸とがなす角度である。パラメータhは、バウンディングボックスの短辺の長さである。パラメータwは、バウンディングボックスの長辺の長さである。
分別モデルM2は、物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力されると、当該物体に対する把持の可否を示す可否情報を生成する。分別モデルM2は、特許請求の範囲に記載した「分別部」を実現する構成の一例である。分別モデルM2は、例えば、1又は複数のニューラルネットワーク(好ましくは、ディープニューラルネットワーク)によって構成される。ニューラルネットワークの一例としては、CNNが挙げられるが、これに限らない。分別モデルM2は、第1の教師データセットT1を用いて学習される。また、分別モデルM2は、第2の教師データD2を用いて再学習される。なお、分別モデルM2の学習とは、分別モデルM2への入力に対して所望の出力が得られるよう、分別モデルM2が含む複数のパラメータを決定することである。学習の詳細については後述する。
分別モデルM2の具体的な構成例について、図4を参照して説明する。図4は、分別モデルM2の学習時における構成例を示す図である。図4に示すように、分別モデルM2は、当該分別モデルM2自体の学習を行う際には、生成モデルM1に接続されない。図4に示すように、分別モデルM2は、複数のニューラルネットワークDNN4〜DNN6を含む。
第1の教師データD1は、生成モデルM1が生成する把持位置情報とは異なる把持位置情報を含む。具体的には、第1の教師データD1は、そのような把持位置情報と、正解データとしての可否情報とを少なくとも含む。図4の例では、第1の教師データD1は、物体を被写体として含む画像と、把持位置情報と、正解データとしての可否情報とを含む。
第2の教師データD2は、生成モデルM1が生成した把持位置情報と、当該把持位置情報を用いた実際の把持動作による把持の可否を示す可否情報とを含む。換言すると、第2の教師データD2に含まれる可否情報は、実際に把持できたか否かの結果を示す情報である。図4の例では、第2の教師データD2は、物体を被写体として含む画像と、把持位置情報と、正解データとしての可否情報とを含む。
学習制御部211は、生成モデルM1及び分別モデルM2についてそれぞれの学習を行う。具体的には、学習制御部211は、第1の教師データD1を少なくとも用いて分別モデルM2の学習を行う。また、学習制御部211は、ノイズパラメータを生成し、生成したノイズパラメータと、物体を被写体として含む画像とを生成モデルM1に入力する。また、学習制御部211は、学習された分別モデルM2に、生成モデルM1が生成した把持位置情報を入力し、分別モデルM2が生成する可否情報が把持可能を示すよう、生成モデルM1の学習を行う。さらに、学習制御部211は、第2の教師データD2を用いて分別モデルM2の再学習を行う。また、学習制御部211は、再学習された分別モデルM2に、生成モデルM1が生成した把持位置情報を入力し、分別モデルM2が生成する可否情報が把持可能を示すよう、生成モデルM1の再学習を行う。
第1の教師データ生成部212は、第1の教師データを生成する。具体的には、第1の教師データ生成部212は、予め設定された離散的な複数の把持位置候補を統合することによって、1又は複数の把持領域を生成する。また、第1の教師データ生成部212は、生成した把持領域を参照して、第1の教師データを生成する。また、第1の教師データ生成部212は、第1の教師データD1を生成するために、教師データ生成用画像セットを参照する。第1の教師データD1を生成する処理の詳細については後述する。
第2の教師データ生成部213は、第2の教師データD2を生成する。第2の教師データD2を生成する処理の詳細については後述する。
制御装置10の機能的な構成について、図5を参照して説明する。図5は、制御装置10の詳細な構成を示すブロック図である。図5に示すように、制御装置10は、制御部11と、記憶部12とを含む。制御部11は、取得部111と、生成部112と、把持制御部113と、を含む。記憶部12は、生成モデルM1を記憶する。生成モデルM1は、学習装置20によって学習されたものである。生成モデルM1は、前述したように、被写体を含む画像と、ノイズパラメータとが入力されると、物体における把持位置を示す把持位置情報を生成する。
記憶部12は、学習装置20により学習された生成モデルM1を記憶する。記憶部12に記憶される生成モデルM1は、学習装置20の記憶部22に記憶される生成モデルM1を複製したものであってもよい。なお、制御装置10は、学習装置20の記憶部22に記憶される生成モデルM1を直接参照してもよい。例えば、制御装置10及び学習装置20を物理的に一体の装置として構成する場合、又は学習装置20の記憶部22をネットワーク上に配置する場合、このような直接の参照が可能である。
取得部111は、撮像装置40から、物体を被写体として含む画像を取得する。
生成部112は、ノイズパラメータを生成し、生成したノイズパラメータと、取得部111が取得した画像とを生成モデルM1に入力することにより、把持位置情報を生成する。
把持制御部113は、生成部112が生成した把持位置情報が示す把持位置において物体を把持するよう、ロボットアーム30を制御する。
以上のように構成された把持システム1が実行する学習方法S1の流れについて、図6を参照して説明する。図6は、把持システム1が実行する学習方法S1の流れを示すフローチャートである。図6に示すように、学習方法S1は、ステップS101〜S106を含む。
ステップS101において、第1の教師データ生成部212は、複数の第1の教師データD1を生成し、第1の教師データセットT1として記憶部22に記憶する。当該ステップの処理の詳細については後述する。
ステップS102において、学習制御部211は、第1の教師データセットT1を用いて分別モデルM2の学習を行う。図4の例では、学習制御部211は、第1の教師データD1に含まれる複数の画像と把持位置情報とを分別モデルM2に入力し、出力される可否情報が、第1の教師データD1に含まれる正解データと等しくなるように、分別モデルM2の学習を行う。
ステップS103において、学習制御部211は、生成モデルM1の学習を行う。図3の例では、学習制御部211は、複数の画像とノイズパラメータとを生成モデルM1に入力するとともに、当該複数の画像と、生成モデルM1が出力する把持位置情報とを分別モデルM2に入力する。また、学習制御部211は、分別モデルM2が出力する可否情報が把持可能を示すように、生成モデルM1の学習を行う。
ステップS104において、第2の教師データ生成部213は、複数の第2の教師データD2を生成し、第2の教師データセットT2として記憶部22に記憶する。当該ステップの処理の詳細については後述する。
ステップS105において、学習制御部211は、第2の教師データセットT2を用いて分別モデルM2の再学習を行う。図4の例では、学習制御部211は、第2の教師データD2に含まれる複数の画像と把持位置情報とを分別モデルM2に入力し、出力される可否情報が、第2の教師データD2に含まれる正解データと等しくなるように、分別モデルM2の学習を行う。
ステップS106において、学習制御部211は、生成モデルM1の再学習を行う。図3の例では、学習制御部211は、複数の画像とノイズパラメータとを生成モデルM1に入力するとともに、当該複数の画像と、生成モデルM1が出力する把持位置情報とを分別モデルM2に入力する。また、学習制御部211は、分別モデルM2が出力する可否情報が把持可能を示すように、生成モデルM1の再学習を行う。なお、生成モデルM1の再学習を行う際には、分別モデルM2のパラメータを変化させない。
次に、ステップS101における第1の教師データ生成方法S2の流れについて、図7を参照して説明する。図7は、把持システム1が実行する第1の教師データ生成方法S2の流れを示すフローチャートである。図7に示すように、第1の教師データ生成方法S2は、ステップS201〜S205を含む。
ステップS201において、第1の教師データ生成部212は、第1の教師データD1を生成するための教師データ生成用画像セットを取得する。
教師データ生成用画像セットは、複数の教師データ生成用画像を含む。教師データ生成用画像は、物体を被写体として含む画像であり、予め設定された複数の把持位置候補を含む。教師データ生成用画像データセットに含まれる複数の教師データ生成用画像のうち少なくとも1つは、他の少なくとも1つとは異なる種類の物体を被写体として含む。換言すると、教師データ生成用画像セットは、複数種類の物体のそれぞれについて、予め設定された複数の把持位置候補を含んでいる。
画像の具体例を示す図である。図8において、画像IMGi(i=1、2、…、8)は、それぞれ教師データ生成用画像の一例である。各画像IMGiは、物体OBJiを被写体として含んでいる。また、各画像IMGiは、複数の把持位置候補BBiを含む。これらの把持位置候補BBiは、物体OBJiの把持位置の候補を示すバウンディングボックスであり、予め離散的に設定されている。
ステップS202において、第1の教師データ生成部212は、教師データ生成用画像に含まれる複数の把持位置候補のうち、互いに近傍である複数の把持位置候補を選択する。
近傍の把持位置候補を接続する処理の具体例について、図9を参照して説明する。図9は、ステップS201〜S204までの処理を説明するための模式図である。図9に示す例では、ステップS201において、教師データ生成用画像である画像IMG9が取得されている。画像IMG9は、5つの把持位置候補BB9−1〜BB9−5を含んでいる。ステップS202において、第1の教師データ生成部212は、5つの把持位置候補BB9−1〜BB9−5のうち、中心点間の距離が閾値以下の2つを近傍である組み合わせとして選択する。また、第1の教師データ生成部212は、選択した2つの把持位置候補の中心点を接続する。ここでは、近傍である組み合わせとして、把持位置候補BB9−1及びBB9−2が選択され、中心点C1及びC2が接続される。また、把持位置候補BB9−2及びBB9−3が選択され、中心点C2及びC3が接続される。また、把持位置候補BB9−3及びBB9−4が選択され、中心点C3及びC4が接続される。把持位置候補BB9−5は、他の把持位置候補BB9−1〜BB9−4の何れとも中心点間の距離が閾値以下でないため、選択されない。
ステップS203において、第1の教師データ生成部212は、近傍である組み合わせとして選択した2つの把持位置候補の間を補間することにより、これらの2つの把持位置候補を含む把持領域を生成する。
把持領域を生成する処理の具体例について、図9を参照して説明する。図9に示す例では、ステップS203において、第1の教師データ生成部212は、離散的な複数の把持位置候補BB9−1〜BB9−5を統合することによって複数の把持領域R1及びR2を生成する。
ステップS203において、第1の教師データ生成部212は、統合により生成した把持領域R1及びR2を拡張する。
把持領域を拡張する処理の具体例について、図9を参照して説明する。図9に示す例では、ステップS204において、第1の教師データ生成部212は、把持領域R1を拡張して把持領域R3を生成し、把持領域R2を拡張して把持領域R4を生成する。
パラメータに変動を加える処理の具体例について、図10を参照して説明する。図10は、ステップS204の処理をさらに具体的に説明するための模式図である。図10に示す例では、パラメータ(x,y,θ,h,w)によって規定される把持位置候補に対して、各パラメータを所定範囲で変化させる。図10の例では、中心点のx座標を[x−β]から[x+β]の範囲で変動させている。また、中心点のy座標を[y−β]から[y+β]の範囲で変動させている。また、傾きθを[θ−α]から[θ+α]の範囲で変動させている。また、短辺の長さhを[h−γ]から[h+γ]の範囲で変動させている。また、長辺の長さwを[w−γ]から[w+γ]の範囲で変動させている。このように、第1の教師データ生成部212は、把持領域R1に含まれる各把持位置候補の各パラメータに変動を加えることにより、当該把持位置候補を所定範囲で変化させる。その結果、第1の教師データ生成部212は、各把持位置候補を変化させた範囲を含むよう把持領域R1を拡張した把持領域R3を生成する。また、第1の教師データ生成部212は、把持領域R2である把持位置候補BB9−5の位置を所定範囲で変化させ、変化させた範囲を含むよう拡張した把持領域R4を生成する。
ステップS204において、第1の教師データ生成部212は、生成した把持領域R3、R4を参照して、第1の教師データD1を生成する。ここで、第1の教師データ生成部212は、把持可能であることを示す可否情報を含む第1の教師データD1と、把持不可であることを示す可否情報を含む第1の教師データD1とを、少なくとも1つずつ生成する。
第1の教師データD1を生成する処理の具体例について、図11を参照して説明する。図11は、ステップS205の処理を説明するための模式図である。図11に示す例では、第1の教師データ生成部212は、把持位置BB9−a、BB9−b、BB9−cをランダムに生成する。把持位置BB9−a、BB9−b、BB9−cは、それぞれ、予め設定された把持位置候補BB9−1〜BB9−5の何れとも異なるものであり得るが、必ずしも異なっていなくてもよい。
次に、ステップS104における第2の教師データ生成方法S3の流れについて、図12を参照して説明する。図12は、把持システム1が実行する第2の教師データ生成方法S3の流れを示すフローチャートである。図12に示すように、第2の教師データ生成方法S3は、制御装置10が実行するステップS301〜S305と、学習装置20が実行するステップS306〜S307とを含む。
ステップS301において、制御装置10の把持制御部113は、ロボットアーム30を所定位置に移動するよう制御する。所定位置とは、例えば、図1に示した載置台wの近傍である。
ステップS302において、取得部111は、載置台w上の物体を撮像するよう撮像装置40を制御し、撮像された画像を取得する。ここでは、物体obj1を被写体として含む画像を取得したとする。
ステップS303において、生成部112は、ノイズパラメータを生成する。ノイズパラメータについては、上述した通りである。
ステップS304において、生成部112は、物体obj1を被写体として含む画像と、ノイズパラメータとを生成モデルM1に入力することにより、把持位置情報を生成する。
ステップS305において、把持制御部113は、生成された把持位置情報に基づいて、把持動作を実行するようロボットアーム30を制御する。
ステップS306において、学習装置20の第2の教師データ生成部213は、実際の把持動作による把持の可否を示す可否情報を取得する。例えば、第2の教師データ生成部213は、後述する入力装置206を介して入力される可否情報を取得してもよい。また、例えば、第2の教師データ生成部213は、把持システム1が自動で生成した可否情報を取得してもよい。例えば、把持システム1は、撮像装置40を用いて実際の把持動作の様子を撮像し、撮像した画像を参照して可否情報を自動で生成することが可能である。また、例えば、把持システム1は、指部34aおよび34bの開閉を検出するセンサ(図示せず)の検出値を参照して、可否情報を自動で生成することが可能である。ただし、把持システム1が可否情報を自動で生成する手法は、これらに限定されない。
ステップS307において、第2の教師データ生成部213は、ステップS302で取得された画像と、ステップS304で生成された把持位置情報と、ステップS306で取得された可否情報とを含む第2の教師データD2を生成する。
本実施形態に係る把持システム1は、物体において把持装置に把持させる把持位置を、初見の物体であっても精度よく決定することができる。その理由について説明する。本実施形態によれば、物体を被写体として含む画像から把持位置情報を生成するための生成モデルM1は、第1の教師データD1を用いて学習された分別モデルM2から把持可能であることを示す可否情報が出力されるように学習される。つまり、生成モデルM1は、第1の教師データD1を用いて学習された分別モデルM2に対して敵対的に学習される。このため、分別モデルM2を用いずに生成モデルM1のみを学習させる場合と比べて、第1の教師データD1が対象とする物体以外の物体についてもより精度よい把持位置情報を出力するよう、生成モデルM1を学習させることができる。その結果、第1の教師データが対象とする物体とは異なる初見の物体であっても、より精度よい把持位置情報を生成することができるからである。
なお、上述した実施形態において、生成モデルM1及び分別モデルM2には、物体を被写体として含む少なくとも1つの画像が入力されればよく、各モデルに入力される画像の数は限定されない。また、生成モデルM1には、物体を被写体として含む少なくとも1つの画像が入力されればよく、必ずしもノイズパラメータが入力されなくてもよい。
図13は、把持システム1を構成する各装置の物理的構成を例示したブロック図である。
制御装置10は、図13に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、及び通信インタフェース104は、バス110を介して互いに接続されている。
学習装置20は、図13に示すように、バス210と、プロセッサ201と、主メモリ202と、補助メモリ203と、通信インタフェース204と、入出力インタフェース205を備えたコンピュータによって構成可能である。プロセッサ201、主メモリ202、補助メモリ203、通信インタフェース204、及び入出力インタフェース205は、バス210を介して互いに接続されている。入出力インタフェース205には、入力装置206および出力装置207が接続されている。
本発明の一態様に係る情報処理装置は、物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別部と、前記物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部と、備えている。
10 制御装置
20 学習装置
M1 生成モデル
M2 分別モデル
11、21 制御部
12、22 記憶部
111、311 取得部
112、312 生成部
113、313 把持制御部
211 学習制御部
212 第1の教師データ生成部
213 第2の教師データ生成部
30 ロボットアーム
31 台座部
32 ベース部
33 アーム部
34 ハンド部
34a、34b 指部
40 撮像装置
101、201 プロセッサ
102、202 主メモリ
103、203 補助メモリ
104、204 通信インタフェース
205 入出力インタフェース
206 入力装置
207 出力装置
110、210 バス
Claims (12)
- 物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別部と、
前記物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部と、
を備え、
前記生成部は、当該生成部が生成した把持位置情報を前記分別部に入力した場合に、前記分別部が生成する可否情報が把持可能を示すように学習されたものである、情報処理装置。 - 前記分別部は、前記生成部が生成する把持位置情報とは異なる把持位置情報を含む第1の教師データを少なくとも用いて学習されたものである、
請求項1に記載の情報処理装置。 - 予め設定された離散的な複数の把持位置候補を統合することによって1又は複数の把持領域を生成し、生成した把持領域を参照して、前記第1の教師データを生成する第1の教師データ生成部を備えている、
請求項2に記載の情報処理装置。 - 物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別部と、
前記物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部と、
を備え、
前記分別部は、前記生成部が生成する把持位置情報とは異なる把持位置情報を含む第1の教師データを少なくとも用いて学習されたものであり、
当該情報処理装置は、予め設定された離散的な複数の把持位置候補を統合することによって1又は複数の把持領域を生成し、生成した把持領域を参照して、前記第1の教師データを生成する第1の教師データ生成部を備えている、情報処理装置。 - 前記第1の教師データ生成部は、
把持位置をランダムに生成し、
生成した把持位置と前記把持領域との重複の度合いに応じて、把持の可否を示す可否情報を生成し、
生成した前記把持位置と前記可否情報とを含む前記第1の教師データを生成する、
請求項3又は4に記載の情報処理装置。 - 前記第1の教師データ生成部は、
前記予め設定された離散的な複数の把持位置候補を統合し、統合した把持位置候補を拡張することによって前記1又は複数の把持領域を生成する、
請求項3から5の何れか1項に記載の情報処理装置。 - 前記分別部は、前記生成部が生成した把持位置情報を含む第2の教師データを少なくとも用いて学習されたものである
請求項1から6の何れか1項に記載の情報処理装置。 - 前記生成部が生成した前記把持位置情報と、当該把持位置情報を用いた実際の把持動作による把持の可否を示す可否情報とを含む前記第2の教師データを生成する第2の教師データ生成部を備えている、
請求項7に記載の情報処理装置。 - 前記生成部には、前記物体を被写体として含む画像と、ノイズを表すノイズパラメータとが入力される、
請求項1から8の何れか1項に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成工程と、
前記物体を被写体として含む画像と、前記生成工程で生成した把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別工程と、
を含み、
前記生成工程は、当該生成工程が生成した把持位置情報を前記分別工程に入力した場合に、前記分別工程が生成する可否情報が把持可能を示すように学習された工程である、情報処理方法。 - 情報処理装置が実行する情報処理方法であって、
物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成工程と、
前記物体を被写体として含む画像と、前記生成工程で生成した把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別工程と、
を含み、
前記分別工程は、前記生成工程が生成する把持位置情報とは異なる把持位置情報を含む第1の教師データを少なくとも用いて学習された工程であり、
当該情報処理方法は、予め設定された離散的な複数の把持位置候補を統合することによって1又は複数の把持領域を生成し、生成した把持領域を参照して、前記第1の教師データを生成する第1の教師データ生成工程を含む、情報処理方法。 - 請求項1又は4に記載の情報処理装置としてコンピュータを機能させるためのプログラムであって、上記分別部、および上記生成部としてコンピュータを機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021003122A JP6908907B1 (ja) | 2021-01-12 | 2021-01-12 | 情報処理装置、情報処理方法、およびプログラム |
PCT/JP2021/024457 WO2022153578A1 (ja) | 2021-01-12 | 2021-06-29 | 情報処理装置、情報処理方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021003122A JP6908907B1 (ja) | 2021-01-12 | 2021-01-12 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6908907B1 true JP6908907B1 (ja) | 2021-07-28 |
JP2022108213A JP2022108213A (ja) | 2022-07-25 |
Family
ID=76967270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021003122A Active JP6908907B1 (ja) | 2021-01-12 | 2021-01-12 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6908907B1 (ja) |
WO (1) | WO2022153578A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580383B2 (en) * | 2017-03-16 | 2023-02-14 | Nec Corporation | Neural network learning device, method, and program |
JP2020049558A (ja) * | 2018-09-25 | 2020-04-02 | ファナック株式会社 | 物品取り出しシステム |
JP2020154564A (ja) * | 2019-03-19 | 2020-09-24 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
JP6758540B1 (ja) * | 2019-12-17 | 2020-09-23 | 三菱電機株式会社 | 情報処理装置、ワーク認識装置およびワーク取り出し装置 |
-
2021
- 2021-01-12 JP JP2021003122A patent/JP6908907B1/ja active Active
- 2021-06-29 WO PCT/JP2021/024457 patent/WO2022153578A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
JP2022108213A (ja) | 2022-07-25 |
WO2022153578A1 (ja) | 2022-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110026987B (zh) | 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质 | |
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
JP6036662B2 (ja) | ロボットシミュレーション装置、プログラム、記録媒体及び方法 | |
CN110692082A (zh) | 学习装置、学习方法、学习模型、推算装置以及夹持系统 | |
JP6671694B1 (ja) | 機械学習装置、機械学習システム、データ処理システム及び機械学習方法 | |
JP2010026818A (ja) | 画像処理プログラム、画像処理装置及び画像処理方法 | |
WO2020110505A1 (ja) | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム | |
US20210347053A1 (en) | Virtual presence for telerobotics in a dynamic scene | |
JP2014029664A (ja) | 比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラム | |
JP2021065955A (ja) | ロボット制御システム及びその制御方法及びプログラム | |
CN112847336B (zh) | 动作学习方法、装置、存储介质及电子设备 | |
US20180215044A1 (en) | Image processing device, robot control device, and robot | |
JP2020196102A (ja) | 制御装置、システム、学習装置および制御方法 | |
JP2018169660A (ja) | オブジェクト姿勢検出装置、制御装置、ロボットおよびロボットシステム | |
JP6563596B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6874149B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6908907B1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2023038776A (ja) | 指令値生成装置、方法、及びプログラム | |
JP7051751B2 (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
JP7331616B2 (ja) | 回避軌道生成装置、方法、及びプログラム | |
JP2018132319A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
JP7059701B2 (ja) | 推定装置、推定方法、及び推定プログラム | |
WO2022018936A1 (ja) | 制御装置、把持システム、方法、およびプログラム | |
CN113436293A (zh) | 一种基于条件生成式对抗网络的智能抓取图像生成方法 | |
JP7249221B2 (ja) | センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210112 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210112 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6908907 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |