JP6908907B1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6908907B1
JP6908907B1 JP2021003122A JP2021003122A JP6908907B1 JP 6908907 B1 JP6908907 B1 JP 6908907B1 JP 2021003122 A JP2021003122 A JP 2021003122A JP 2021003122 A JP2021003122 A JP 2021003122A JP 6908907 B1 JP6908907 B1 JP 6908907B1
Authority
JP
Japan
Prior art keywords
gripping
teacher data
gripping position
generated
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021003122A
Other languages
English (en)
Other versions
JP2022108213A (ja
Inventor
学嗣 浅谷
学嗣 浅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2021003122A priority Critical patent/JP6908907B1/ja
Priority to PCT/JP2021/024457 priority patent/WO2022153578A1/ja
Application granted granted Critical
Publication of JP6908907B1 publication Critical patent/JP6908907B1/ja
Publication of JP2022108213A publication Critical patent/JP2022108213A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

【課題】物体において把持装置に把持させる把持位置を精度よく決定する。【解決手段】物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力され、物体に対する把持の可否を示す可否情報を生成する分別モデル(M2)と、物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成モデル(M1)と、を備える。【選択図】図2

Description

本発明は、物体において把持装置に把持させる部分を決定する技術に関する。
物体において把持装置に把持させる部分を決定する技術が知られている。例えば、特許文献1に記載された技術は、物体を撮像した画像から物体の輪郭線を検出し、輪郭線を所定量外側にオフセットさせたオフセット線に基づいて、把持装置に把持させる把持位置を決定する。
特開2020−82217号公報
特許文献1に記載された技術は、物体において把持装置に把持させる把持位置をさらに精度よく決定するよう改善する余地がある。
本発明の一態様は、物体において把持装置に把持させる把持位置を精度よく決定する技術を実現することを目的とする。
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別部と、前記物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部と、を備えている。
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、物体を被写体として含む画像を取得する取得部と、前記画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部であって、前記把持位置に影響を与えるノイズパラメータが更に入力される生成部と、を備えている。
本発明の一態様によれば、物体において把持装置に把持させる把持位置を精度よく決定することができる。
本発明の一実施形態に係る把持システムの概略を示すブロック図である。 本発明の一実施形態に係る学習装置の機能的な構成を示すブロック図である。 本発明の一実施形態における生成モデル及び分別モデルの具体的な構成例を示す図である。 本発明の一実施形態に係る分別モデルの学習時における構成例を示す図である。 本発明の一実施形態に係る制御装置の機能的な構成を示すブロック図である。 本発明の一実施形態に係る学習方法の流れを示すフローチャートである。 本発明の一実施形態に係る第1の教師データ生成方法の流れを示すフローチャートである。 本発明の一実施形態における教師データ生成用画像の具体例を示す図である。 図7に示す方法を説明するための模式図である。 図7に示す方法を説明するための他の模式図である。 図7に示す方法を説明するためのさらに他の模式図である。 本発明の一実施形態に係る第2の教師データ生成方法の流れを示すフローチャートである。 本発明の一実施形態に係る把持システムを構成する各装置の物理的構成を例示したブロック図である。
〔実施形態〕
以下、本発明の一実施形態に係る把持システム1について説明する。
<把持システム1の概要>
把持システム1の概要について、図1を参照して説明する。図1は、把持システム1の概略を示すブロック図である。図1に示すように、把持システム1は、制御装置10と、学習装置20と、ロボットアーム30と、撮像装置40とを含む。把持システム1は、載置台wの上に載置された物体(obj1、またはobj2)を把持するようロボットアーム30を制御するシステムである。
制御装置10は、学習装置20、ロボットアーム30、および撮像装置40と、それぞれ通信可能に接続される。例えば、制御装置10と各装置とは、ネットワークを介して接続される。この場合、ネットワークは、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、またはこれらの組み合わせである。
なお、図1に示す例では、制御装置10および学習装置20は、ネットワークを介して通信可能に接続された物理的に異なる装置であるが、これは本実施形態を限定するものではない。例えば、制御装置10および学習装置20は、物理的に1つのコンピュータによって一体に形成されていてもよい。また、図1に示す例では、制御装置10およびロボットアーム30は、ネットワークを介して通信可能に接続された物理的に異なる装置であるが、これは本実施形態を限定するものではない。例えば、制御装置10は、ロボットアーム30に内蔵されていてもよい。また、図1に示す例では、ロボットアーム30および撮像装置40は、物理的に連結された異なる装置であるが、これは本実施形態を限定するものではない。例えば、撮像装置40は、ロボットアーム30に内蔵されていてもよい。
また、図1に示す例では、把持システム1が、ロボットアーム30および撮像装置40を1つずつ含んでいるが、これは本実施形態を限定するものではない。把持システム1は、複数のロボットアーム30および複数の撮像装置40を含んでいてもよい。また、図1に示す例では、1つのロボットアーム30に対して1つの撮像装置40が設けられているが、これは本実施形態を限定するものではない。把持システム1において、1つのロボットアーム30に対応して複数の撮像装置40が設けられていてもよいし、複数のロボットアーム30に対応して1つの撮像装置40が設けられていてもよい。
(制御装置10の構成)
制御装置10は、物体を被写体として含む画像を取得し、当該物体における把持位置を示す把持位置情報を、後述の生成モデルM1を用いて生成する装置である。また、制御装置10は、生成した把持位置情報に基づいて、物体を把持する把持動作を実行するようロボットアーム30を制御する。制御装置10は、特許請求の範囲に記載した「情報処理装置」を実現する構成の一例である。制御装置10の詳細な構成については後述する。
(学習装置20の構成)
学習装置20は、制御装置10が用いる生成モデルM1を機械学習により生成する装置である。より具体的には、学習装置20は、生成モデルM1と、後述する分別モデルM2とを生成する。学習装置20は、教師データを用いて分別モデルM2を学習させるとともに、分別モデルM2に対して生成モデルM1を敵対的に学習させる。学習装置20は、特許請求の範囲に記載した「情報処理装置」を実現する構成の一例である。学習装置20の詳細な構成については後述する。
(物体を被写体として含む画像)
物体を被写体として含む画像とは、物体が撮像されることにより生成された画像である。本実施形態において、当該画像は、少なくとも1つの物体を被写体として含む。例えば、撮像装置40が物体obj1を撮像した画像、物体obj2を撮像した画像、および物体obj1、obj2の両方を撮像した画像は、それぞれ、物体を被写体として含む画像の一例である。
(把持位置)
把持位置とは、現実空間に存在する物体において、当該物体をロボットアーム30に把持させる把持部分の現実空間における位置である。本実施形態では、把持位置は、画像上の領域によって特定される。換言すると、当該画像上の領域は、把持部分の現実空間における位置を画像上において示す領域である。画像上の領域の詳細については後述する。以下では、把持位置の候補となる位置を、把持位置候補とも記載する。また、複数の把持位置候補が連続する領域を、把持領域とも記載する。
(ロボットアーム30の構成)
ロボットアーム30は、制御装置10の制御に基づいて、物体を把持する把持動作を実行する。具体的には、図1に示すように、ロボットアーム30は、複数の回転軸を有する多関節ロボットであり、台座部31と、ベース部32と、アーム部33と、ハンド部34とを含む。
台座部31は、ロボットアーム30の設置面に設置される。設置面とは、例えば、床であるが、これに限られない。台座部31は、制御装置10の制御に基づいて設置面を移動可能であり得る。例えば、台座部31は、設置面に接する車輪を有していてもよい。
ベース部32は、台座部31に対し、旋回可能に連結される。
アーム部33は、複数のアームを含む。各アームの基端部は、ベース部32または他のアームの先端部に対して、定められた軸まわりに回転可能に連結される。また、アーム部33の先端にはハンド部34が、定められた軸まわりに回転可能に接続される。また、アーム部33の先端付近には、撮像装置40が連結される。
ハンド部34は、一対の指部34a、34bを含む。ハンド部34は、制御装置10の制御に基づいて、指部34a、34bを互いに離れるように開く動作と、互いに接近するよう閉じる動作とを行う。上述したロボットアーム30の把持動作は、ハンド部34の開閉により実現される。
ロボットアーム30は、制御装置10の制御に基づいて、台座部31の移動、ベース部32の旋回、および各アームの回転の一部または全部を実行することにより、ハンド部34を所望の位置に移動する。
(撮像装置40の構成)
撮像装置40は、制御装置10の制御に基づいて、載置台wの上に載置された物体obj1およびobj2の一部または全部を撮像した画像を生成する。例えば、撮像装置40の撮像方向および画角は、載置台wの上を撮像範囲とするよう、制御装置10の制御に基づいて変更される。
<学習装置20の機能的な構成>
学習装置20の機能的な構成について、図2を参照して説明する。図2は、学習装置20の機能的な構成を示すブロック図である。図2に示すように、学習装置20は、制御部21と、記憶部22とを含む。制御部21は、学習制御部211と、第1の教師データ生成部212と、第2の教師データ生成部213とを含む。記憶部22は、生成モデルM1と、分別モデルM2と、第1の教師データセットT1と、第2の教師データセットT2とを記憶する。第1の教師データセットT1は、複数の第1の教師データD1を含む。第2の教師データセットT2は、複数の第2の教師データD2を含む。なお、図2には、第1の教師データD1及び第2の教師データD2をそれぞれ3つずつ示しているが、これらの数は3に限定されない。
(生成モデルM1)
生成モデルM1は、物体を被写体として含む画像と、ノイズパラメータとが入力されると、物体における把持位置を示す把持位置情報を生成する。生成モデルM1は、特許請求の範囲に記載した「生成部」を実現する構成の一例である。生成モデルM1は、例えば、1又は複数のニューラルネットワーク(好ましくは、ディープニューラルネットワーク)によって構成される。ニューラルネットワークの一例としては、CNN(Convolutional Neural Network)が挙げられるが、これに限らない。生成モデルM1は、分別モデルM2に対して敵対的に学習される。なお、生成モデルM1の学習とは、生成モデルM1への入力に対して所望の出力が得られるよう、生成モデルM1が含む複数のパラメータを決定することである。学習の詳細については後述する。
(ノイズパラメータ)
ノイズパラメータは、把持位置に影響を与えるノイズを示すパラメータである。具体的には、生成モデルM1は、画像A及びノイズパラメータN1が入力される場合と、画像A及びノイズパラメータN2が入力される場合とでは、異なる把持位置情報を出力する。換言すると、生成モデルM1は、同一の画像が入力される場合であっても、異なるノイズパラメータが入力される場合、異なる把持位置情報を出力する。
(生成モデルM1の構成例)
生成モデルM1の具体的な構成例について、図3を参照して説明する。図3は、生成モデルM1及び分別モデルM2の具体的な構成例を示す図である。図3に示すように、生成モデルM1は、当該生成モデルM1の学習を行う際には、分別モデルM2に接続されている。なお、後述する制御装置10においては、生成モデルM1は、分別モデルM2に接続されずに単独で用いられる。図3に示すように、生成モデルM1は、複数のニューラルネットワークDNN1〜DNN3を含む。
ニューラルネットワークDNN1は、複数の画像が入力されると、画像の特徴量を示す特徴量情報を出力する。複数の画像のそれぞれは、物体を被写体として含む画像の一例である。例えば、複数の画像は、オリジナル画像、マスク画像、及び深度画像を含む。オリジナル画像は、物体が撮影された画像である。マスク画像は、オリジナル画像における物体の領域を示す画像であり、例えば、物体の領域に含まれる画素に1を割り当て、それ以外の画素に0を割り当てた画像である。深度画像は、オリジナル画像における物体の三次元的な形状を示す画像であり、例えば、各画素に深度に対応する輝度を割り当てた深度画像である。
ニューラルネットワークDNN2には、ノイズパラメータが入力される。ノイズパラメータは、例えば、多次元ベクトルであり、例えば10次元ベクトルであるが、これに限られない。また、ノイズパラメータの各要素は乱数であり、例えば0以上1以下であるが、これに限られない。ニューラルネットワークDNN2は、入力されたノイズパラメータの次元数を拡張したデータを出力する。出力されるデータの次元数は、ニューラルネットワークDNN1が出力する画像特徴量情報と同一である。換言すると、ニューラルネットワークDNN1及びDNN2は、画像及びノイズパラメータの次元数を同一にして乗算可能とするための構成である。
ニューラルネットワークDNN3には、ニューラルネットワークDNN1が出力する特徴量情報と、ニューラルネットワークDNN2が出力するデータとを乗じた値が入力される。ニューラルネットワークDNN3は、把持位置情報を出力する。把持位置情報は、ニューラルネットワークDNN1に入力された複数の画像の少なくとも1つにおいて把持位置を示す領域を特定する情報であり、例えば次式(1)で表される。
[把持位置情報]={x,y,θ,h,w}・・・(1)
式(1)に含まれる5つのパラメータは、二次元座標系が定められた画像における矩形の領域を表している。当該矩形の領域を、以降、バウンディングボックスとも記載する。パラメータx及びyは、バウンディングボックスの中心点の座標を表す。また、パラメータθは、バウンディングボックスの傾きであり、例えばバウンディングボックスの長辺とx軸とがなす角度である。パラメータhは、バウンディングボックスの短辺の長さである。パラメータwは、バウンディングボックスの長辺の長さである。
バウンディングボックスの2つの短辺は、把持動作の開始前に指部34aおよび34bを配置する位置を示す。また、バウンディングボックスの長辺の長さは、上述した配置位置に配置された指部34aおよび34b間の距離を表している。つまり、バウンディングボックスは、長辺が長いほど、把持動作の開始前にハンド部34を大きく開く必要があることを表す。
ニューラルネットワークDNN3が出力する把持位置情報は、生成モデルM1の学習を行う際には、分別モデルM2に含まれる後述のニューラルネットワークDNN5に入力される。
(分別モデルM2)
分別モデルM2は、物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力されると、当該物体に対する把持の可否を示す可否情報を生成する。分別モデルM2は、特許請求の範囲に記載した「分別部」を実現する構成の一例である。分別モデルM2は、例えば、1又は複数のニューラルネットワーク(好ましくは、ディープニューラルネットワーク)によって構成される。ニューラルネットワークの一例としては、CNNが挙げられるが、これに限らない。分別モデルM2は、第1の教師データセットT1を用いて学習される。また、分別モデルM2は、第2の教師データD2を用いて再学習される。なお、分別モデルM2の学習とは、分別モデルM2への入力に対して所望の出力が得られるよう、分別モデルM2が含む複数のパラメータを決定することである。学習の詳細については後述する。
(分別モデルM2の構成例)
分別モデルM2の具体的な構成例について、図4を参照して説明する。図4は、分別モデルM2の学習時における構成例を示す図である。図4に示すように、分別モデルM2は、当該分別モデルM2自体の学習を行う際には、生成モデルM1に接続されない。図4に示すように、分別モデルM2は、複数のニューラルネットワークDNN4〜DNN6を含む。
ニューラルネットワークDNN4は、複数の画像が入力されると、特徴量情報を出力する。複数の画像のそれぞれは、物体を被写体として含む画像の一例である。入力される複数の画像は、第1の教師データD1(または第2の教師データD2)に含まれる。これらの複数の画像の詳細については、上述した通りである。生成モデルM1の学習を行う際には、生成モデルM1に入力された複数の画像が、ニューラルネットワークDNN4にも入力される。
ニューラルネットワークDNN5は、把持位置情報が入力されると、当該把持位置情報の次元数を拡張したデータを出力する。入力される把持位置情報は、第1の教師データD1(または第2の教師データD2)に含まれる。出力されるデータの次元数は、ニューラルネットワークDNN4が出力する特徴量情報と同一である。換言すると、ニューラルネットワークDNN4及びDNN5は、画像及び把持位置情報の次元数を同一にして乗算可能とするための構成である。
ニューラルネットワークDNN6には、ニューラルネットワークDNN4が出力する特徴量情報と、ニューラルネットワークDNN5が出力するデータとを乗じた値が入力される。ニューラルネットワークDNN6は、可否情報を出力する。可否情報は、把持可能及び把持不可の何れかを示す情報である。分別モデルM2の学習は、ニューラルネットワークDNN5が出力する可否情報が、第1の教師データD1(または第2の教師データD2)に含まれる正解データとしての可否情報と同一になるように行われる。
なお、図3を参照して説明したように、分別モデルM2は、生成モデルM1の学習を行う際には生成モデルM1に接続される。この場合、ニューラルネットワークDNN4には、生成モデルM1に入力された複数の画像が入力され、ニューラルネットワークDNN5には、ニューラルネットワークDNN3が出力した把持情報が入力される。
(第1の教師データD1)
第1の教師データD1は、生成モデルM1が生成する把持位置情報とは異なる把持位置情報を含む。具体的には、第1の教師データD1は、そのような把持位置情報と、正解データとしての可否情報とを少なくとも含む。図4の例では、第1の教師データD1は、物体を被写体として含む画像と、把持位置情報と、正解データとしての可否情報とを含む。
(第2の教師データD2)
第2の教師データD2は、生成モデルM1が生成した把持位置情報と、当該把持位置情報を用いた実際の把持動作による把持の可否を示す可否情報とを含む。換言すると、第2の教師データD2に含まれる可否情報は、実際に把持できたか否かの結果を示す情報である。図4の例では、第2の教師データD2は、物体を被写体として含む画像と、把持位置情報と、正解データとしての可否情報とを含む。
(学習制御部211)
学習制御部211は、生成モデルM1及び分別モデルM2についてそれぞれの学習を行う。具体的には、学習制御部211は、第1の教師データD1を少なくとも用いて分別モデルM2の学習を行う。また、学習制御部211は、ノイズパラメータを生成し、生成したノイズパラメータと、物体を被写体として含む画像とを生成モデルM1に入力する。また、学習制御部211は、学習された分別モデルM2に、生成モデルM1が生成した把持位置情報を入力し、分別モデルM2が生成する可否情報が把持可能を示すよう、生成モデルM1の学習を行う。さらに、学習制御部211は、第2の教師データD2を用いて分別モデルM2の再学習を行う。また、学習制御部211は、再学習された分別モデルM2に、生成モデルM1が生成した把持位置情報を入力し、分別モデルM2が生成する可否情報が把持可能を示すよう、生成モデルM1の再学習を行う。
(第1の教師データ生成部212)
第1の教師データ生成部212は、第1の教師データを生成する。具体的には、第1の教師データ生成部212は、予め設定された離散的な複数の把持位置候補を統合することによって、1又は複数の把持領域を生成する。また、第1の教師データ生成部212は、生成した把持領域を参照して、第1の教師データを生成する。また、第1の教師データ生成部212は、第1の教師データD1を生成するために、教師データ生成用画像セットを参照する。第1の教師データD1を生成する処理の詳細については後述する。
(第2の教師データ生成部213)
第2の教師データ生成部213は、第2の教師データD2を生成する。第2の教師データD2を生成する処理の詳細については後述する。
<制御装置10の機能的な構成>
制御装置10の機能的な構成について、図5を参照して説明する。図5は、制御装置10の詳細な構成を示すブロック図である。図5に示すように、制御装置10は、制御部11と、記憶部12とを含む。制御部11は、取得部111と、生成部112と、把持制御部113と、を含む。記憶部12は、生成モデルM1を記憶する。生成モデルM1は、学習装置20によって学習されたものである。生成モデルM1は、前述したように、被写体を含む画像と、ノイズパラメータとが入力されると、物体における把持位置を示す把持位置情報を生成する。
(生成モデルM1)
記憶部12は、学習装置20により学習された生成モデルM1を記憶する。記憶部12に記憶される生成モデルM1は、学習装置20の記憶部22に記憶される生成モデルM1を複製したものであってもよい。なお、制御装置10は、学習装置20の記憶部22に記憶される生成モデルM1を直接参照してもよい。例えば、制御装置10及び学習装置20を物理的に一体の装置として構成する場合、又は学習装置20の記憶部22をネットワーク上に配置する場合、このような直接の参照が可能である。
(取得部111)
取得部111は、撮像装置40から、物体を被写体として含む画像を取得する。
(生成部112)
生成部112は、ノイズパラメータを生成し、生成したノイズパラメータと、取得部111が取得した画像とを生成モデルM1に入力することにより、把持位置情報を生成する。
(把持制御部113)
把持制御部113は、生成部112が生成した把持位置情報が示す把持位置において物体を把持するよう、ロボットアーム30を制御する。
<学習方法の流れ>
以上のように構成された把持システム1が実行する学習方法S1の流れについて、図6を参照して説明する。図6は、把持システム1が実行する学習方法S1の流れを示すフローチャートである。図6に示すように、学習方法S1は、ステップS101〜S106を含む。
(ステップS101)
ステップS101において、第1の教師データ生成部212は、複数の第1の教師データD1を生成し、第1の教師データセットT1として記憶部22に記憶する。当該ステップの処理の詳細については後述する。
(ステップS102)
ステップS102において、学習制御部211は、第1の教師データセットT1を用いて分別モデルM2の学習を行う。図4の例では、学習制御部211は、第1の教師データD1に含まれる複数の画像と把持位置情報とを分別モデルM2に入力し、出力される可否情報が、第1の教師データD1に含まれる正解データと等しくなるように、分別モデルM2の学習を行う。
(ステップS103)
ステップS103において、学習制御部211は、生成モデルM1の学習を行う。図3の例では、学習制御部211は、複数の画像とノイズパラメータとを生成モデルM1に入力するとともに、当該複数の画像と、生成モデルM1が出力する把持位置情報とを分別モデルM2に入力する。また、学習制御部211は、分別モデルM2が出力する可否情報が把持可能を示すように、生成モデルM1の学習を行う。
学習制御部211は、入力する複数の画像及びノイズパラメータの一方または両方を変化させながら、生成モデルM1の学習を繰り返す。また、学習制御部211は、生成モデルM1の学習を行う際に、分別モデルM2のパラメータを変化させない。
(ステップS104)
ステップS104において、第2の教師データ生成部213は、複数の第2の教師データD2を生成し、第2の教師データセットT2として記憶部22に記憶する。当該ステップの処理の詳細については後述する。
(ステップS105)
ステップS105において、学習制御部211は、第2の教師データセットT2を用いて分別モデルM2の再学習を行う。図4の例では、学習制御部211は、第2の教師データD2に含まれる複数の画像と把持位置情報とを分別モデルM2に入力し、出力される可否情報が、第2の教師データD2に含まれる正解データと等しくなるように、分別モデルM2の学習を行う。
(ステップS106)
ステップS106において、学習制御部211は、生成モデルM1の再学習を行う。図3の例では、学習制御部211は、複数の画像とノイズパラメータとを生成モデルM1に入力するとともに、当該複数の画像と、生成モデルM1が出力する把持位置情報とを分別モデルM2に入力する。また、学習制御部211は、分別モデルM2が出力する可否情報が把持可能を示すように、生成モデルM1の再学習を行う。なお、生成モデルM1の再学習を行う際には、分別モデルM2のパラメータを変化させない。
<第1の教師データ生成方法S2の流れ>
次に、ステップS101における第1の教師データ生成方法S2の流れについて、図7を参照して説明する。図7は、把持システム1が実行する第1の教師データ生成方法S2の流れを示すフローチャートである。図7に示すように、第1の教師データ生成方法S2は、ステップS201〜S205を含む。
(ステップS201)
ステップS201において、第1の教師データ生成部212は、第1の教師データD1を生成するための教師データ生成用画像セットを取得する。
(教師データ生成用画像セット)
教師データ生成用画像セットは、複数の教師データ生成用画像を含む。教師データ生成用画像は、物体を被写体として含む画像であり、予め設定された複数の把持位置候補を含む。教師データ生成用画像データセットに含まれる複数の教師データ生成用画像のうち少なくとも1つは、他の少なくとも1つとは異なる種類の物体を被写体として含む。換言すると、教師データ生成用画像セットは、複数種類の物体のそれぞれについて、予め設定された複数の把持位置候補を含んでいる。
教師データ生成用画像について、図8を参照して説明する。図8は、教師データ生成用
画像の具体例を示す図である。図8において、画像IMGi(i=1、2、…、8)は、それぞれ教師データ生成用画像の一例である。各画像IMGiは、物体OBJiを被写体として含んでいる。また、各画像IMGiは、複数の把持位置候補BBiを含む。これらの把持位置候補BBiは、物体OBJiの把持位置の候補を示すバウンディングボックスであり、予め離散的に設定されている。
第1の教師データ生成部212は、図8に一例を示したような複数の教師データ生成用画像を取得する。なお、本ステップにおいて、第1の教師データ生成部212は、より多くの教師データ生成用画像を取得することが望ましい。このため、第1の教師データ生成部212は、取得した各教師データ生成用画像に対してデータオーギュメンテーション処理を施すことにより、教師データ生成用画像を新たに生成して追加してもよい。データオーギュメンテーション処理の一例としては、元の画像に対する水平反転、垂直反転、回転、移動、拡大、縮小、または切り出し等の処理があるが、これらに限られない。
(ステップS202)
ステップS202において、第1の教師データ生成部212は、教師データ生成用画像に含まれる複数の把持位置候補のうち、互いに近傍である複数の把持位置候補を選択する。
(近傍の把持位置候補を選択する処理の例)
近傍の把持位置候補を接続する処理の具体例について、図9を参照して説明する。図9は、ステップS201〜S204までの処理を説明するための模式図である。図9に示す例では、ステップS201において、教師データ生成用画像である画像IMG9が取得されている。画像IMG9は、5つの把持位置候補BB9−1〜BB9−5を含んでいる。ステップS202において、第1の教師データ生成部212は、5つの把持位置候補BB9−1〜BB9−5のうち、中心点間の距離が閾値以下の2つを近傍である組み合わせとして選択する。また、第1の教師データ生成部212は、選択した2つの把持位置候補の中心点を接続する。ここでは、近傍である組み合わせとして、把持位置候補BB9−1及びBB9−2が選択され、中心点C1及びC2が接続される。また、把持位置候補BB9−2及びBB9−3が選択され、中心点C2及びC3が接続される。また、把持位置候補BB9−3及びBB9−4が選択され、中心点C3及びC4が接続される。把持位置候補BB9−5は、他の把持位置候補BB9−1〜BB9−4の何れとも中心点間の距離が閾値以下でないため、選択されない。
(ステップS203)
ステップS203において、第1の教師データ生成部212は、近傍である組み合わせとして選択した2つの把持位置候補の間を補間することにより、これらの2つの把持位置候補を含む把持領域を生成する。
(把持領域を生成する処理の例)
把持領域を生成する処理の具体例について、図9を参照して説明する。図9に示す例では、ステップS203において、第1の教師データ生成部212は、離散的な複数の把持位置候補BB9−1〜BB9−5を統合することによって複数の把持領域R1及びR2を生成する。
具体的には、第1の教師データ生成部212は、中心点間の接続線に含まれる各点について、当該点を中心とする把持位置候補を生成する。生成する把持位置候補を、補間用の把持位置候補と記載する。補間用の把持位置候補は、2つの把持位置候補の間を滑らかに補間するように生成される。例えば、把持位置候補BB9−1がパラメータ(x1,y1,θ1,h1,w1)によって規定され、把持位置候補BB9−2がパラメータ(x2,y2,θ2,h2,w2)によって規定されるとする。この場合、補間用の把持位置候補の中心点Cq(xq,yq)は、中心点C1(x1,y1)と、C2(x2,y2)との接続線上にある。また、補間用の把持位置候補の傾きθqは、θ1からθ2までの値をとり、中心点CqがC1からC2に近づくに従って、θ1からθ2に近づく。また、補間用の把持位置候補の短辺の長さhqは、h1からh2までの値をとり、中心点CqがC1からC2に近づくに従って、h1からh2に近づく。また、補間用の把持位置候補の長辺の長さwqは、w1からw2までの値をとり、中心点CqがC1からC2に近づくに従って、w1からw2に近づく。このようにして、第1の教師データ生成部212は、把持位置候補BB9−1及びBB9−2の間、把持位置候補BB9−2及びBB9−3の間、並びに把持位置候補BB9−3、BB9−4の間を滑らかに補間する補間用の把持位置候補を生成する。その結果、複数の把持位置候補BB9−1〜BB9−5と、それぞれの間に生成された補間用の把持位置候補とを含む把持領域R1が生成される。また、いずれの把持位置候補とも接続されなかった把持位置候補BB9−5は、単独で把持領域R2となる。このようにして、第1の教師データ生成部212は、離散的な複数の把持位置候補BB9−1〜BB9−5を統合することによって複数の把持領域R1及びR2を生成する。
(ステップS204)
ステップS203において、第1の教師データ生成部212は、統合により生成した把持領域R1及びR2を拡張する。
(把持領域を拡張する処理の例)
把持領域を拡張する処理の具体例について、図9を参照して説明する。図9に示す例では、ステップS204において、第1の教師データ生成部212は、把持領域R1を拡張して把持領域R3を生成し、把持領域R2を拡張して把持領域R4を生成する。
具体的には、第1の教師データ生成部212は、把持領域R1に含まれる各把持位置候補BB9−1〜BB9−4、及び補間用の把持位置候補のそれぞれについて、パラメータに変動を加える。また、第1の教師データ生成部212は、各把持位置候補BB9−1〜BB9−4、及び補間用の把持位置候補を変動させた範囲を含むよう、把持領域R1を拡張する。
(パラメータに変動を加える処理の例)
パラメータに変動を加える処理の具体例について、図10を参照して説明する。図10は、ステップS204の処理をさらに具体的に説明するための模式図である。図10に示す例では、パラメータ(x,y,θ,h,w)によって規定される把持位置候補に対して、各パラメータを所定範囲で変化させる。図10の例では、中心点のx座標を[x−β]から[x+β]の範囲で変動させている。また、中心点のy座標を[y−β]から[y+β]の範囲で変動させている。また、傾きθを[θ−α]から[θ+α]の範囲で変動させている。また、短辺の長さhを[h−γ]から[h+γ]の範囲で変動させている。また、長辺の長さwを[w−γ]から[w+γ]の範囲で変動させている。このように、第1の教師データ生成部212は、把持領域R1に含まれる各把持位置候補の各パラメータに変動を加えることにより、当該把持位置候補を所定範囲で変化させる。その結果、第1の教師データ生成部212は、各把持位置候補を変化させた範囲を含むよう把持領域R1を拡張した把持領域R3を生成する。また、第1の教師データ生成部212は、把持領域R2である把持位置候補BB9−5の位置を所定範囲で変化させ、変化させた範囲を含むよう拡張した把持領域R4を生成する。
(ステップS205)
ステップS204において、第1の教師データ生成部212は、生成した把持領域R3、R4を参照して、第1の教師データD1を生成する。ここで、第1の教師データ生成部212は、把持可能であることを示す可否情報を含む第1の教師データD1と、把持不可であることを示す可否情報を含む第1の教師データD1とを、少なくとも1つずつ生成する。
(第1の教師データD1を生成する処理の例)
第1の教師データD1を生成する処理の具体例について、図11を参照して説明する。図11は、ステップS205の処理を説明するための模式図である。図11に示す例では、第1の教師データ生成部212は、把持位置BB9−a、BB9−b、BB9−cをランダムに生成する。把持位置BB9−a、BB9−b、BB9−cは、それぞれ、予め設定された把持位置候補BB9−1〜BB9−5の何れとも異なるものであり得るが、必ずしも異なっていなくてもよい。
また、第1の教師データ生成部212は、生成した把持位置BB9−a、BB9−b、BB9−cのそれぞれについて、把持領域R3、R4との重複の度合いに応じて可否情報J−a、J−b、J−cを生成する。また、第1の教師データ生成部212は、把持位置BB9−a、BB9−b、BB9−cのそれぞれと可否情報とを含む第1の教師データD1−a、D1−b、D1−cを生成する。
具体的には、第1の教師データ生成部212は、生成した把持位置が把持領域に含まれる場合に、把持可能であることを示す可否情報を生成する。第1の教師データ生成部212は、生成した把持位置が把持領域に含まれていない場合に、把持不可であることを示す可否情報を生成する。ここで、「把持位置が把持領域に含まれる」とは、生成した把持位置が、把持領域を構成する連続的な複数の把持位置候補の何れかであることを指す。換言すると、生成した把持位置が、把持領域の生成過程で用いた「互いに近傍である複数の把持位置候補」、「補間用の把持位置候補」、及び「これらの各把持位置候補を変動させた把持位置候補」の何れかである場合、当該把持位置は当該把持領域に含まれる。
例えば、把持位置BB9−aは、把持領域R3に含まれている。このため、第1の教師データ生成部212は、把持可能であることを示す可否情報J−aを生成する。したがって、第1の教師データD1−aは、画像IMG9と、把持位置BB9−aと、可否情報J−aとを含む。
また、把持位置BB9−bは、把持領域R3、R4の何れにも含まれていない。このため、第1の教師データ生成部212は、把持不可であることを示す可否情報J−bを生成する。したがって、第1の教師データD1−bは、画像IMG9と、把持位置BB9−bと、可否情報J−bとを含む。
また、把持位置BB9−cは、把持領域R3に含まれていない。つまり、把持位置BB9−cは、把持領域R3の生成過程で用いた「把持位置候補BB9−1〜BB9−4」、「補間用の把持位置候補」、及び「これらの各把持位置候補を変動させた把持位置候補」の何れでもない。このため、第1の教師データ生成部212は、把持不可であることを示す可否情報J−cを生成する。したがって、第1の教師データD1−cは、画像IMG9と、把持位置BB9−cと、可否情報J−cとを含む。
<第2の教師データ生成方法S3の流れ>
次に、ステップS104における第2の教師データ生成方法S3の流れについて、図12を参照して説明する。図12は、把持システム1が実行する第2の教師データ生成方法S3の流れを示すフローチャートである。図12に示すように、第2の教師データ生成方法S3は、制御装置10が実行するステップS301〜S305と、学習装置20が実行するステップS306〜S307とを含む。
(ステップS301)
ステップS301において、制御装置10の把持制御部113は、ロボットアーム30を所定位置に移動するよう制御する。所定位置とは、例えば、図1に示した載置台wの近傍である。
(ステップS302)
ステップS302において、取得部111は、載置台w上の物体を撮像するよう撮像装置40を制御し、撮像された画像を取得する。ここでは、物体obj1を被写体として含む画像を取得したとする。
(ステップS303)
ステップS303において、生成部112は、ノイズパラメータを生成する。ノイズパラメータについては、上述した通りである。
(ステップS304)
ステップS304において、生成部112は、物体obj1を被写体として含む画像と、ノイズパラメータとを生成モデルM1に入力することにより、把持位置情報を生成する。
(ステップS305)
ステップS305において、把持制御部113は、生成された把持位置情報に基づいて、把持動作を実行するようロボットアーム30を制御する。
具体的には、把持制御部113は、生成した把持位置情報が示す把持位置にハンド部34を配置し、ロボットアーム30に把持動作を実行させる。例えば、把持制御部113は、把持位置情報であるバウンディングボックスについて、その2つの短辺に対応する現実空間の配置位置を算出する。また、把持制御部113は、当該バウンディングボックスの長辺の長さwに対応する現実空間の距離を算出する。次に、把持制御部113は、指部34aおよび34bを、算出した距離だけ開くとともに算出した配置位置に配置するよう制御する。その後、把持制御部113は、ロボットアーム30を制御して把持動作を実行させる。具体的には、把持制御部113は、指部34aおよび34bを閉じるようハンド部34を制御することにより、ロボットアーム30に物体obj1を把持させる。
(ステップS306)
ステップS306において、学習装置20の第2の教師データ生成部213は、実際の把持動作による把持の可否を示す可否情報を取得する。例えば、第2の教師データ生成部213は、後述する入力装置206を介して入力される可否情報を取得してもよい。また、例えば、第2の教師データ生成部213は、把持システム1が自動で生成した可否情報を取得してもよい。例えば、把持システム1は、撮像装置40を用いて実際の把持動作の様子を撮像し、撮像した画像を参照して可否情報を自動で生成することが可能である。また、例えば、把持システム1は、指部34aおよび34bの開閉を検出するセンサ(図示せず)の検出値を参照して、可否情報を自動で生成することが可能である。ただし、把持システム1が可否情報を自動で生成する手法は、これらに限定されない。
(ステップS307)
ステップS307において、第2の教師データ生成部213は、ステップS302で取得された画像と、ステップS304で生成された把持位置情報と、ステップS306で取得された可否情報とを含む第2の教師データD2を生成する。
<本実施形態の効果>
本実施形態に係る把持システム1は、物体において把持装置に把持させる把持位置を、初見の物体であっても精度よく決定することができる。その理由について説明する。本実施形態によれば、物体を被写体として含む画像から把持位置情報を生成するための生成モデルM1は、第1の教師データD1を用いて学習された分別モデルM2から把持可能であることを示す可否情報が出力されるように学習される。つまり、生成モデルM1は、第1の教師データD1を用いて学習された分別モデルM2に対して敵対的に学習される。このため、分別モデルM2を用いずに生成モデルM1のみを学習させる場合と比べて、第1の教師データD1が対象とする物体以外の物体についてもより精度よい把持位置情報を出力するよう、生成モデルM1を学習させることができる。その結果、第1の教師データが対象とする物体とは異なる初見の物体であっても、より精度よい把持位置情報を生成することができるからである。
また、本実施形態に係る把持システム1は、物体において把持装置に把持させる把持位置を、さらに精度よく決定することができる。その理由について説明する。本実施形態によれば、分別モデルM2は、第2の教師データD2を用いて再学習される。第2の教師データD2は、当該分別モデルM2に対して敵対的に学習された生成モデルM1が生成した把持位置に基づく実際の把持動作による把持の可否を示すものである。これにより、分別モデルM2が把持の可否を分別する精度がさらに向上する。また、生成モデルM1は、把持の可否を分別する精度がさらに向上した分別モデルM2に対して敵対的に再学習される。これにより、生成モデルM1は、初見の物体を被写体として含む画像が入力された場合であっても、さらに精度よく把持位置情報を生成することができるからである。
また、本実施形態に係る把持システム1は、より多様な把持可能な把持位置を示す把持位置情報を生成することができる。その理由について説明する。本実施形態によれば、分別モデルM2は、把持領域を参照して生成された第1の教師データD1を用いて学習されている。ここで、把持領域は、教師データ生成用画像に予め設定された複数の把持位置候補を統合した領域である。このため、このような分別モデルM2に対して敵対的に学習された生成モデルM1は、予め設定された複数の把持位置候補だけでなく、それ以外で把持可能な把持位置を示す把持位置情報を生成することができるからである。
また、本実施形態に係る把持システム1は、より少ない画像を用いて生成モデルM1を学習させることができる。その理由は、分別モデルM2が、(i)把持可能であることを示す可否情報を含む第1の教師データD1又は第2の教師データD2(換言すると、把持に成功したデータ)だけでなく、(ii)把持不可であることを示す可否情報を含む第1の教師データD1又は第2の教師データD2(換言すると、把持に失敗したデータ)を用いて学習されるからである。これにより、分別モデルM2は、より精度よく可否情報を出力するよう学習される。そして、生成モデルM1は、より精度よく可否情報を出力するよう学習された分別モデルM2に対して敵対的に学習されるからである。これにより、分別モデルM2を用いずに生成モデルM1のみを学習させる場合と比べて、生成モデルM1の学習時に生成モデルM1に入力する画像の数が充分でなくても、精度よく学習させることができるからである。
〔変形例〕
なお、上述した実施形態において、生成モデルM1及び分別モデルM2には、物体を被写体として含む少なくとも1つの画像が入力されればよく、各モデルに入力される画像の数は限定されない。また、生成モデルM1には、物体を被写体として含む少なくとも1つの画像が入力されればよく、必ずしもノイズパラメータが入力されなくてもよい。
また、上述した実施形態において、教師用データ生成用画像セットから第1の教師データD1を生成する手法は、図7及び図9を参照して説明した手法に限られない。
また、上述した実施形態において、把持位置情報は、物体において把持装置に把持させる把持位置を示す情報であればよく、バウンディングボックスで表されるものに限られない。また、バウンディングボックスで表す場合であっても、その要素数は5に限られない。
〔把持システム1の物理的構成〕
図13は、把持システム1を構成する各装置の物理的構成を例示したブロック図である。
(制御装置10の物理的構成)
制御装置10は、図13に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、及び通信インタフェース104は、バス110を介して互いに接続されている。
プロセッサ101としては、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。
主メモリ102としては、例えば、半導体RAM(random access memory)等が用いられる。
補助メモリ103としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ103には、上述した制御装置10の動作をプロセッサ101に実行させるためのプログラムが格納されている。プロセッサ101は、補助メモリ103に格納されたプログラムを主メモリ102上に展開し、展開したプログラムに含まれる各命令を実行する。
通信インタフェース104は、ネットワークに接続するインタフェースである。通信インタフェース104は、当該ネットワークを介して学習装置20、ロボットアーム30、および撮像装置40のそれぞれとの通信を行う。
この例で、プロセッサ101および通信インタフェース104は、制御部11を実現するハードウェア要素の一例である。また、主メモリ102および補助メモリ103は、記憶部12を実現するハードウェア要素の一例である。
(学習装置20の物理的構成)
学習装置20は、図13に示すように、バス210と、プロセッサ201と、主メモリ202と、補助メモリ203と、通信インタフェース204と、入出力インタフェース205を備えたコンピュータによって構成可能である。プロセッサ201、主メモリ202、補助メモリ203、通信インタフェース204、及び入出力インタフェース205は、バス210を介して互いに接続されている。入出力インタフェース205には、入力装置206および出力装置207が接続されている。
プロセッサ201としては、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、GPU(Graphics Processing Unit)またはこれらの組み合わせ等が用いられる。
主メモリ202としては、例えば、半導体RAM(random access memory)等が用いられる。
補助メモリ203としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ203には、上述した学習装置20の動作をプロセッサ201に実行させるためのプログラムが格納されている。プロセッサ201は、補助メモリ203に格納されたプログラムを主メモリ202上に展開し、展開したプログラムに含まれる各命令を実行する。
通信インタフェース204は、ネットワークに接続するインタフェースである。通信インタフェース204は、当該ネットワークを介して制御装置10との通信を行う。
入出力インタフェース205としては、例えば、USB(Universal Serial Bus)インタフェース、赤外線やBluetooth(登録商標)等の近距離通信インタフェース、またはこれらの組み合わせが用いられる。
入力装置206としては、例えば、キーボード、マウス、タッチパッド、マイク、又はこれらの組み合わせ等が用いられる。出力装置207としては、例えば、ディスプレイ、プリンタ、スピーカ、又はこれらの組み合わせが用いられる。
この例で、プロセッサ201および通信インタフェース204は、制御部21を実現するハードウェア要素の一例である。また、主メモリ202および補助メモリ203は、記憶部22を実現するハードウェア要素の一例である。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
〔まとめ〕
本発明の一態様に係る情報処理装置は、物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別部と、前記物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部と、備えている。
上記構成により、生成部が生成した把持位置情報について、分別部から把持可能を示す可否情報が出力され得る。そのような把持位置情報を参照することにより、物体において把持装置に把持させる把持位置を精度よく決定することができる。
上述した一態様に係る情報処理装置において、前記分別部は、前記生成部が生成する把持位置情報とは異なる把持位置情報を含む第1の教師データを少なくとも用いて学習されたものである、ことが望ましい。
上記構成により、生成部が、第1の教師データが対象とした物体とは異なる初見の物体について把持位置情報を生成した場合に、分別部は、当該把持位置情報について把持可能を示す可否情報を出力し得る。そのような把持位置情報を参照することにより、初見の物体であっても把持位置を精度よく決定することができる。
上述した一態様に係る情報処理装置において、予め設定された離散的な複数の把持位置候補を統合することによって1又は複数の把持領域を生成し、生成した把持領域を参照して、前記第1の教師データを生成する第1の教師データ生成部を備えている、ことが望ましい。
上記構成により、予め設定された把持位置候補を正解とすることに限らず、把持領域を参照してより多様な第1の教師データを生成することが可能となる。これにより、生成部は、予め設定された把持位置候補に限らず多様な把持位置情報を生成することができる。
上述した一態様に係る情報処理装置において、前記第1の教師データ生成部は、把持位置をランダムに生成し、生成した把持位置と前記把持領域との重複の度合いに応じて、把持の可否を示す可否情報を生成し、生成した前記把持位置と前記可否情報とを含む前記第1の教師データを生成する、ことが望ましい。
上記構成により、予め設定された把持位置候補以外のランダムに生成した把持位置を正解とする第1の教師データを生成することが可能となる。また、予め設定された把持位置候補の数より多くの第1の教師データを生成することが可能となる。
上述した一態様に係る情報処理装置において、前記第1の教師データ生成部は、前記予め設定された離散的な複数の把持位置候補を統合し、統合した把持位置候補を拡張することによって前記1又は複数の把持領域を生成する、ことが望ましい。
上記構成により、拡張した把持領域を参照してさらに多様な第1の教師データを生成することが可能となる。これにより、生成部は、予め設定された把持位置候補に限らずさらに多様な把持位置情報を生成することができる。
上述した一態様に係る情報処理装置において、前記分別部は、前記生成部が生成した把持位置情報を含む第2の教師データを少なくとも用いて学習されたものである、ことが望ましい。
上記構成により、分別部は、生成部が生成した把持位置情報を用いて学習されるので、生成部が対象とした物体の把持位置についてより精度よく学習される。その結果、把持装置に把持させる把持位置を精度よく決定することができる。
上述した一態様に係る情報処理装置において、前記生成部が生成した前記把持位置情報と、当該把持位置情報を用いた実際の把持動作による把持の可否を示す可否情報とを含む前記第2の教師データを生成する第2の教師データ生成部を備えている、ことが望ましい。
上記構成により、分別部は、生成部が生成した把持位置情報を用いた実際の把持動作の結果に基づいて学習されるので、生成部が対象とした物体の把持位置についてより精度よく学習される。その結果、把持装置に把持させる把持位置を精度よく決定することができる。
上述した一態様に係る情報処理装置において、前記生成部は、当該生成部が生成した把持位置情報を前記分別部に入力した場合に、前記分別部が生成する可否情報が把持可能を示すように学習されたものである、ことが望ましい。
上記構成により、生成部は、生成する把持位置情報の把持可能性がより高くなるよう学習される。その結果、把持装置に把持させる把持位置を精度よく決定することができる。
上述した一態様に係る情報処理装置において、前記生成部には、前記物体を被写体として含む画像と、ノイズを表すノイズパラメータとが入力される、ことが望ましい。
上記構成により、生成部が生成する把持位置情報は、物体を被写体として含む同一の画像を対象とする場合であっても、ノイズパラメータにより変化する。その結果、より多様な把持位置を決定することができる。
本発明の一態様に係る情報処理装置は、物体を被写体として含む画像を取得する取得部と、前記画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部であって、前記把持位置に影響を与えるノイズパラメータが更に入力される生成部と、備えている。
上記構成により、画像に被写体として含まれる物体について、より多様な把持位置を精度よく決定することができる。
本発明の一態様に係る情報処理方法は、情報処理装置が実行する情報処理方法であって、物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成工程と、前記物体を被写体として含む画像と、前記生成工程で生成した把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別工程と、含んでいる。
上記構成により、上述した情報処理装置と同様の効果を奏する。
本発明の一態様に係る情報処理方法は、情報処理装置が実行する情報処理方法であって、物体を被写体として含む画像を取得する取得工程と、前記画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成工程であって、前記把持位置に影響を与えるノイズパラメータが更に入力される生成工程と、を含んでいる。
上記構成により、上述した情報処理装置と同様の効果を奏する。
本発明の一態様に係るプログラムは、上述の情報処理装置としてコンピュータを機能させるためのプログラムであって、上記分別部、および上記生成部としてコンピュータを機能させる。
上記構成により、上述した情報処理装置と同様の効果を奏する。
本発明の一態様に係るプログラムは、上述の情報処理装置としてコンピュータを機能させるためのプログラムであって、上記取得部、および上記生成部としてコンピュータを機能させる。
上記構成により、上述した情報処理装置と同様の効果を奏する。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 把持システム
10 制御装置
20 学習装置
M1 生成モデル
M2 分別モデル
11、21 制御部
12、22 記憶部
111、311 取得部
112、312 生成部
113、313 把持制御部
211 学習制御部
212 第1の教師データ生成部
213 第2の教師データ生成部
30 ロボットアーム
31 台座部
32 ベース部
33 アーム部
34 ハンド部
34a、34b 指部
40 撮像装置
101、201 プロセッサ
102、202 主メモリ
103、203 補助メモリ
104、204 通信インタフェース
205 入出力インタフェース
206 入力装置
207 出力装置
110、210 バス

Claims (12)

  1. 物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別部と、
    前記物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部と、
    を備え
    前記生成部は、当該生成部が生成した把持位置情報を前記分別部に入力した場合に、前記分別部が生成する可否情報が把持可能を示すように学習されたものである、情報処理装置。
  2. 前記分別部は、前記生成部が生成する把持位置情報とは異なる把持位置情報を含む第1の教師データを少なくとも用いて学習されたものである、
    請求項1に記載の情報処理装置。
  3. 予め設定された離散的な複数の把持位置候補を統合することによって1又は複数の把持領域を生成し、生成した把持領域を参照して、前記第1の教師データを生成する第1の教師データ生成部を備えている、
    請求項2に記載の情報処理装置。
  4. 物体を被写体として含む画像と、当該物体における把持位置を示す把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別部と、
    前記物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成部と、
    を備え、
    前記分別部は、前記生成部が生成する把持位置情報とは異なる把持位置情報を含む第1の教師データを少なくとも用いて学習されたものであり、
    当該情報処理装置は、予め設定された離散的な複数の把持位置候補を統合することによって1又は複数の把持領域を生成し、生成した把持領域を参照して、前記第1の教師データを生成する第1の教師データ生成部を備えている、情報処理装置。
  5. 前記第1の教師データ生成部は、
    把持位置をランダムに生成し、
    生成した把持位置と前記把持領域との重複の度合いに応じて、把持の可否を示す可否情報を生成し、
    生成した前記把持位置と前記可否情報とを含む前記第1の教師データを生成する、
    請求項3又は4に記載の情報処理装置。
  6. 前記第1の教師データ生成部は、
    前記予め設定された離散的な複数の把持位置候補を統合し、統合した把持位置候補を拡張することによって前記1又は複数の把持領域を生成する、
    請求項3から5の何れか1項に記載の情報処理装置。
  7. 前記分別部は、前記生成部が生成した把持位置情報を含む第2の教師データを少なくとも用いて学習されたものである
    請求項1からの何れか1項に記載の情報処理装置。
  8. 前記生成部が生成した前記把持位置情報と、当該把持位置情報を用いた実際の把持動作による把持の可否を示す可否情報とを含む前記第2の教師データを生成する第2の教師データ生成部を備えている、
    請求項に記載の情報処理装置。
  9. 前記生成部には、前記物体を被写体として含む画像と、ノイズを表すノイズパラメータとが入力される、
    請求項1から8の何れか1項に記載の情報処理装置。
  10. 情報処理装置が実行する情報処理方法であって、
    物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成工程と、
    前記物体を被写体として含む画像と、前記生成工程で生成した把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別工程と、
    を含み、
    前記生成工程は、当該生成工程が生成した把持位置情報を前記分別工程に入力した場合に、前記分別工程が生成する可否情報が把持可能を示すように学習された工程である、情報処理方法。
  11. 情報処理装置が実行する情報処理方法であって、
    物体を被写体として含む画像が少なくとも入力され、当該物体における把持位置を示す把持位置情報を生成する生成工程と、
    前記物体を被写体として含む画像と、前記生成工程で生成した把持位置情報とが入力され、前記物体に対する把持の可否を示す可否情報を生成する分別工程と、
    を含み、
    前記分別工程は、前記生成工程が生成する把持位置情報とは異なる把持位置情報を含む第1の教師データを少なくとも用いて学習された工程であり、
    当該情報処理方法は、予め設定された離散的な複数の把持位置候補を統合することによって1又は複数の把持領域を生成し、生成した把持領域を参照して、前記第1の教師データを生成する第1の教師データ生成工程を含む、情報処理方法。
  12. 請求項1又は4に記載の情報処理装置としてコンピュータを機能させるためのプログラムであって、上記分別部、および上記生成部としてコンピュータを機能させるためのプログラム。
JP2021003122A 2021-01-12 2021-01-12 情報処理装置、情報処理方法、およびプログラム Active JP6908907B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021003122A JP6908907B1 (ja) 2021-01-12 2021-01-12 情報処理装置、情報処理方法、およびプログラム
PCT/JP2021/024457 WO2022153578A1 (ja) 2021-01-12 2021-06-29 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021003122A JP6908907B1 (ja) 2021-01-12 2021-01-12 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP6908907B1 true JP6908907B1 (ja) 2021-07-28
JP2022108213A JP2022108213A (ja) 2022-07-25

Family

ID=76967270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021003122A Active JP6908907B1 (ja) 2021-01-12 2021-01-12 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP6908907B1 (ja)
WO (1) WO2022153578A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580383B2 (en) * 2017-03-16 2023-02-14 Nec Corporation Neural network learning device, method, and program
JP2020049558A (ja) * 2018-09-25 2020-04-02 ファナック株式会社 物品取り出しシステム
JP2020154564A (ja) * 2019-03-19 2020-09-24 富士通株式会社 学習方法、学習プログラムおよび学習装置
JP6758540B1 (ja) * 2019-12-17 2020-09-23 三菱電機株式会社 情報処理装置、ワーク認識装置およびワーク取り出し装置

Also Published As

Publication number Publication date
JP2022108213A (ja) 2022-07-25
WO2022153578A1 (ja) 2022-07-21

Similar Documents

Publication Publication Date Title
CN110026987B (zh) 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质
US10179407B2 (en) Dynamic multi-sensor and multi-robot interface system
JP6036662B2 (ja) ロボットシミュレーション装置、プログラム、記録媒体及び方法
CN110692082A (zh) 学习装置、学习方法、学习模型、推算装置以及夹持系统
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
JP2010026818A (ja) 画像処理プログラム、画像処理装置及び画像処理方法
WO2020110505A1 (ja) 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム
US20210347053A1 (en) Virtual presence for telerobotics in a dynamic scene
JP2014029664A (ja) 比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラム
JP2021065955A (ja) ロボット制御システム及びその制御方法及びプログラム
CN112847336B (zh) 动作学习方法、装置、存储介质及电子设备
US20180215044A1 (en) Image processing device, robot control device, and robot
JP2020196102A (ja) 制御装置、システム、学習装置および制御方法
JP2018169660A (ja) オブジェクト姿勢検出装置、制御装置、ロボットおよびロボットシステム
JP6563596B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6874149B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6908907B1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2023038776A (ja) 指令値生成装置、方法、及びプログラム
JP7051751B2 (ja) 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP7331616B2 (ja) 回避軌道生成装置、方法、及びプログラム
JP2018132319A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP7059701B2 (ja) 推定装置、推定方法、及び推定プログラム
WO2022018936A1 (ja) 制御装置、把持システム、方法、およびプログラム
CN113436293A (zh) 一种基于条件生成式对抗网络的智能抓取图像生成方法
JP7249221B2 (ja) センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210112

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210112

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210623

R150 Certificate of patent or registration of utility model

Ref document number: 6908907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150