JP2017185578A - 物体把持装置及び把持制御プログラム - Google Patents

物体把持装置及び把持制御プログラム Download PDF

Info

Publication number
JP2017185578A
JP2017185578A JP2016075739A JP2016075739A JP2017185578A JP 2017185578 A JP2017185578 A JP 2017185578A JP 2016075739 A JP2016075739 A JP 2016075739A JP 2016075739 A JP2016075739 A JP 2016075739A JP 2017185578 A JP2017185578 A JP 2017185578A
Authority
JP
Japan
Prior art keywords
gripping
unit
imaging
grip control
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016075739A
Other languages
English (en)
Other versions
JP6724499B2 (ja
Inventor
酉華 木原
Yuka Kihara
酉華 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016075739A priority Critical patent/JP6724499B2/ja
Publication of JP2017185578A publication Critical patent/JP2017185578A/ja
Application granted granted Critical
Publication of JP6724499B2 publication Critical patent/JP6724499B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】対象物を適切に把持させることを目的とするものである。
【解決手段】撮像領域の画像及び距離情報を含む撮像データを取得する撮像データ取得部と、前記撮像データを用いて撮像領域内に配置された物体毎の物体領域を検出し、前記物体領域と物体形状モデルに基づいて前記物体の3次元形状データを生成する認識処理部と、前記3次元形状データに基づいて、アーム部材及びハンド部材の動作を制御する把持制御部と、を有する物体把持装置である。
【選択図】図4

Description

本発明は、物体把持装置及び把持制御プログラムに関する。
従来から、ロボットによるピッキング技術は、産業分野で部品供給や組立工程の自動化を実現するために利用されており、その技術において様々な工夫がなされている。
例えば、従来では、予め用意した三次元モデルを用いたパターンマッチングにより、山積みされたオブジェクトの位置姿勢を認識し、ロボットによるピッキングを行うことが知られている(特許文献1)。
さらに、従来では、ピッキングの対象物の形状が微妙に異なっていたり、対象物の一部が隠れている場合等に関する技術として、センサからの距離分布情報を利用する事で葉と果実を分離し、目的の果実を識別する果実収穫ロボットが知られている(特許文献2)。
上述した特許文献1記載の技術は、対象物の一部が隠れている状態は想定されていないため、対象物の一部が隠れていた場合には、ピッキングの精度が低下する虞がある。また、特許文献2記載の技術は、対象物である果実の一部が隠れていた場合に、隠れている部分の形状の復元を行っていない。このため、特許文献2記載の技術では、対象物のサイズや形状、重心位置等に合わせて対象物をピッキングすることができず、ピッキングの精度が低下する虞がある。
開示の技術は、対象物を適切に把持させることを目的としている。
開示の技術は、撮像領域の画像及び距離情報を含む撮像データを取得する撮像データ取得部と、前記撮像データを用いて撮像領域内に配置された物体毎の物体領域を検出し、前記物体領域と物体形状モデルに基づいて前記物体の3次元形状データを生成する認識処理部と、前記3次元形状データに基づいて、アーム部材及びハンド部材の動作を制御する把持制御部と、を有する物体把持装置である。
対象物を適切に把持させることができる。
第一の実施形態の物体把持装置を説明する図である。 第一の実施形態の物体把持装置の動作の手順を説明する図である。 第一の実施形態の把持制御装置のハードウェア構成の一例を示す図である。 第一の実施形態の把持制御装置の機能を説明する図である。 第一の実施形態の把持制御装置の動作を説明するフローチャートである。 第二の実施形態の把持制御装置の機能を説明する図である。 第二の実施形態の把持制御装置の動作を説明するフローチャートである。 第三の実施形態の把持制御装置の機能を説明する図である。 第三の実施形態の把持制御装置の動作を説明するフローチャートである。 第四の実施形態の把持制御装置の機能を説明する図である。 第四の実施形態の把持制御装置の動作を説明するフローチャートである。 第四の実施形態の把持制御装置の動作を説明する図である。 把持制御システムの一例を示す図である。
(第一の実施形態)
以下に図面を参照して第一の実施形態について説明する。図1は、第一の実施形態の物体把持装置を説明する図である。
本実施形態の物体把持装置100は、把持制御装置200と、アーム部材300と、ハンド部材310と、撮像装置400とを有する。
本実施形態の把持制御装置200は、把持制御処理部210を有し、撮像装置400が撮像した撮像データに基づき、アーム部材300とハンド部材310を制御する。
本実施形態の把持制御処理部210は、撮像データ取得部220、認識処理部230、把持制御部240を有する。
撮像データ取得部220は、撮像装置400が撮像した撮像データを取得する。認識処理部230は、撮像データから取得される点群データ、及び画像データから、撮像領域内に存在する物体毎の物体領域を検出し、形状モデルを用いて各物体の形状を復元する。復元された形状は、3次元座標の点群として示される。以下の説明では、この点群を3次元形状データと呼ぶ。
把持制御部240は、3次元物体をピッキングするためのアーム部材300及びハンド部材310の動作を制御する。具体的には、把持制御部240は、復元された形状に応じて、アーム部材300及びハンド部材310によるピッキングの対象となる3次元物体の把持方法を決定する。各部の処理の詳細は後述する。
本実施形態のアーム部材300とハンド部材310は、3次元物体をピッキングするものであり、把持制御装置200からの指示により駆動し、動作する。また、本実施形態のハンド部材310は、先端部に、ハンド部材310が物体に接触したか否かを検出するための接触検知センサが設けられていても良い。本実施形態では、ハンド部材310は、回動しない状態で固定されていても良い。
本実施形態の撮像装置400は、ステレオカメラ、赤外線を利用したイメージセンサ等であり、3次元物体の撮像データを取得する。本実施形態の撮像装置400は、例えばアーム部材300に設けられている。より具体的には、撮像装置400は、アーム部材300の基端部の近傍に設定されていても良い。
尚、本実施形態における撮像データは、3次元物体の画像データと、撮像装置400から3次元物体までの距離を示す距離情報と、3次元物体に対する撮像装置400の角度を示す情報とが含まれる。距離情報は点群データとして表現される。
また、本実施形態におけるピッキングとは、不規則に配置された複数の3次元物体(オブジェクト)を、物体把持装置100として機能するロボットアームを用いて把持して所定の場所へ移動させる動作を指す。したがって、ピッキングの対象となる3次元物体は、把持の対象となる3次元物体とも言える。以下の説明では、物体把持装置100によるピッキング(把持)の対象となる3次元物体を把持対象物と呼ぶ。
次に、図2を参照し、本実施形態の物体把持装置100の動作の概略を説明する。図2は、第一の実施形態の物体把持装置の動作の手順を説明する図である。
本実施形態の物体把持装置100は、把持制御処理部210の撮像データ取得部220により、撮像データを取得する(ステップS201)。続いて、把持制御処理部210は、認識処理部230により、撮像領域内の各物体の領域を取得し(ステップS202)、物体毎に形状を補間する(ステップS203)。本実施形態では、認識処理部230による処理により、撮像領域内の物体の形状が復元される。
続いて、把持制御処理部210は、把持制御部240により、アーム部材300とハンド部材310による把持対象物の把持の仕方を決定する(ステップS204)。
本実施形態の把持制御部240は、把持の仕方が決定されると、アーム部材300とハンド部材310に対して決定された方法で対象物を把持させるように、動作の指示を行う。
ここで、本実施形態の認識処理部230による物体の形状の復元について説明する。本実施形態では、撮像データにおいて、撮像装置400と把持対象物との間を遮る障害物により、把持対象物の画像の一部が欠落していた場合でも、欠落した部分の形状及び姿勢を復元する。
言い換えれば、本実施形態では、把持対象物とアーム部材300との間に障害物が存在していた場合でも、把持対象物の全体の形状を復元することができる。
したがって、本実施形態によれば、把持対象物が障害物の背後に配置されていた場合等でも、把持対象物の形状の認識精度を向上させることができ、適切に把持対象物を把持できる。
次に、図3を参照して本実施形態の把持制御装置200のハードウェア構成について説明する。図3は、第一の実施形態の把持制御装置のハードウェア構成の一例を示す図である。
本実施形態の把持制御装置200は、それぞれバスBで相互に接続されているメモリ装置21、演算処理装置22、インターフェース装置23、ドライブ装置24、補助記憶装置25を含む。
メモリ装置21は、演算処理装置22による演算結果の情報等が格納される。演算処理装置22は、把持制御装置200の全体的な制御を行う。また、演算処理装置22は、メモリ装置21や補助記憶装置25に格納されたプログラムを実行し、各処理を行う。
インターフェース装置23は、アーム部材300や撮像装置400とのインターフェースである。演算処理装置22は、インターフェース装置23を介してアーム部材300へ駆動指示や動作指示を行っても良い。また、演算処理装置22は、インターフェース装置23を介して撮像装置400から撮像データを取得しても良い。
把持制御プログラムは、把持制御装置200を制御する各種プログラムの少なくとも一部である。把持制御プログラムは例えば記録媒体26の配布やネットワークからのダウンロードなどによって提供される。把持制御プログラムを記録した記録媒体26は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、把持制御プログラムは、把持制御プログラムを記録した記録媒体26がドライブ装置24にセットされるとは記録媒体26からドライブ装置24を介して補助記憶装置25にインストールされる。補助記憶装置25は、インストールされた把持制御プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置21は、把持制御装置200の起動時に補助記憶装置25から把持制御プログラムを読み出して格納する。そして、演算処理装置22はメモリ装置21に格納された把持制御プログラムに従って、後述するような各種処理を実現している。
尚、本実施形態の把持制御装置200は、例えばネットワークと接続するための通信インターフェース等を有しており、ネットワークを介して把持制御プログラムをダウンロードしても良い。
次に、図4を参照して、本実施形態の把持制御装置200の機能について説明する。図4は、第一の実施形態の把持制御装置の機能を説明する図である。
本実施形態の把持制御装置200は、把持制御処理部210を有する。本実施形態の把持制御処理部210は、把持制御装置200の演算処理装置22が、把持制御プログラムをメモリ装置21等から読み出して実行することで実現される。
本実施形態の把持制御処理部210は、撮像データ取得部220、認識処理部230、把持制御部240を有する。以下では、認識処理部230と把持制御部240について説明する。始めに、認識処理部230について説明する。
認識処理部230は、物体領域検出部231と、形状復元部232とを有し、撮像データと、把持対象物の形状モデルとに基づき、撮像領域において把持対象物が配置された領域を検出し、把持対象物の形状を復元する。
物体領域検出部231は、撮像データに含まれる画像データと距離情報(点群データ)に基づき、撮像領域において物体が存在する領域を検出する。
以下に、物体が存在する領域(以下、物体領域)の検出について説明する。撮像領域内の点群データ、又は距離画像データから、任意の形状の各オブジェクトに相当する領域(物体の点群データ又は物体領域を示すセグメント)を抽出する方法は、既存の研究が数多くあり、これら技術を適用する事ができる。
具体的には、例えば、非特許文献1では、入力の画像データ及び距離情報に基づいて、オブジェクト単位の領域情報を返すアルゴリズムが提案されている。本実施形態の物体領域検出部231は、例えばこのような手法により、物体領域を検出すれば良い。
次に、物体の形状の復元について説明する。本実施形態の形状復元部232では、物体領域検出部231により検出された物体領域を示す情報と、形状モデルを組み合わせる事で、元の物体の形状を類推する。
具体的には、例えば、部分的に遮蔽された物体の形状を復元する手法としてShape prior segmentationという技術が知られている。この技術では、見えている部分の情報に関する確からしさと、見えている部分から全体形状を補間類推した際のその形状の確からしさ、という2項で、以下の式(1)に示すコスト関数Eが定義される。1項目はデータ項、2項目はshape項とここでは呼ぶことにする。λは、どちらの項をより優先的に扱うかを決めるバランス係数である。このコスト関数Eは、物体復元処理の信頼度を示す。
E=Edata+λEshape 式(1)
このコスト関数を最小化することで、見えている部分の確からしさと、見えている部分をベースに補間した形状の物体形状らしさが最適化されることになる。
以下に、1つの物体を対象として形状補間する場合について説明する。Shape Prior segmentationという技術については、これまで多くの研究が成されており、その代表的なものとして、非特許文献2と非特許文献3が挙げられる。これらの手法では、Shape項をPCA(Principal Component Analysis)など統計的なモデルを用いて表現している。
更に、近年では、機械学習を用いて、複数の物体の形状分布を学習する方法が提案されている(非特許文献4参照)。この技術を用いると、例えば複数の物体の情報を(ラベルなし)学習データとして与えると、新しく入力された物体形状について、学習済みの形状に近づけるよう作用するため、一部が欠損された物体が入力された場合、欠損を補う方向に補間させる事になる。
次に、複数の物体を対象として形状補間する場合について説明する。この場合には、撮像領域内に存在する複数の物体領域が与えられていると仮定する。
物体に対する遮蔽が、物体の前に置かれている物体(障害物)によって生じているとすると、遮蔽している物体(障害物)の形状を用いる事で、効果的に物体形状を補間する事ができる。このような問題はSegmentation with Depthと呼ばれ、非特許文献5において定義されている。
このアルゴリズムに与えるデータはグレースケールであるため、深度情報に基づいて、各領域をある輝度値で塗りつぶすことを考える。また、深度情報に基づいて、各領域の順序関係は簡単に求める事ができる。Segmentation with Depth問題を解くと、各物体の真の形状(輪郭)が同時に復元される。この際、Shape項として、機械学習で得られた形状モデルを用いる事で、カテゴリの異なる物体の形状も同時に復元する事ができる。
本実施形態の認識処理部230では、上述したような既存の技術を用いて、撮像データから物体領域の検出と物体の形状の復元や、遮蔽された物体の形状の補間を行い、物体の3次元形状データを生成する。
次に、本実施形態の把持制御部240について説明する。本実施形態の把持制御部240は、学習モデル保持部241、成功確率算出部242、閾値判定部243、把持指示出力部244を有する。
本実施形態の学習モデル保持部241は、学習モデル250を保持している。学習モデル250は、画像データを入力とし、成功確率を出力とする関数である。本実施形態では、学習モデル250は、予め生成されて、把持制御装置200に格納されている。
以下に、学習モデル250の生成について説明する。本実施形態では、各物体の3次元形状データを取得し、様々な位置、角度でハンド部材310により物体を把持する試行を繰り返し、成功と失敗の事例を記憶する。具体的には、この学習では、把持が成功した時の角度分回転させた状態で3次元形状データに1を対応付けて保存し、把持が失敗した時の角度分回転させた状態で3次元形状データに0を対応付けて保存する。このような対応付けを行うことで、様々な角度の3次元形状データ毎に、把持に成功した確率を求めることができる。
本実施形態では、この学習結果から、画像データと、この画像データから復元される3次元形状データが把持に成功する確率(以下、成功確率)との関係を表す関数を生成し、学習モデル250としている。言い換えれば、学習モデル250は、画像データから生成される3次元形状データにおける成功確率を求めるための関数である。
本実施形態の成功確率算出部242は、認識処理部230により生成された3次元形状データと、学習モデル250とから成功確率を算出する。
閾値判定部243は、算出された成功確率と閾値とを比較し、成功確率が閾値以上であるか否かを判定する。尚、閾値は、予め設定されている値であり、閾値判定部243が保持していても良い。本実施形態の閾値は、物体把持装置100の利用者等により任意に変更されるものであっても良い。
把持指示出力部244は、成功確率が閾値以上となったときの3次元形状データに基づき、アーム部材300に対して物体の把持させる指示を出力する。
次に、図5を参照して本実施形態の把持制御装置200の動作を説明する。図5は、第一の実施形態の把持制御装置の動作を説明するフローチャートである。
本実施形態の把持制御処理部210は、撮像データ取得部220により、撮像装置400が撮像した把持対象物を含む撮像データを取得する(ステップS501)。尚、本実施形態では、撮像データを取得する前に、アーム部材300を、把持対象物を把持できる位置まで移動させておくものとした。また、本実施形態の撮像データ取得部220は、ステップS501において撮像データを取得した後も、把持対象物を含む撮像データを取得し続けても良い。言い換えれば、撮像データ取得部220は、撮像装置400から、把持対象物の動画を撮像させ、動画の1フレームを取得して認識処理部230へ渡しても良い。
続いて、把持制御処理部210は、認識処理部230の物体領域検出部231により、撮像データから物体領域を検出する(ステップS502)。続いて、認識処理部230は、形状復元部232により、把持対象物の3次元形状データを生成する(ステップS503)。このとき、形状復元部232は、把持対象物の一部が障害物等により隠れている場合には、補間により、隠れている部分も復元した3次元形状データを生成する。
次に、把持制御部240は、全ての角度の3次元形状データに対して、ステップS505以降の処理を行ったか否かを判定する(ステップS504)。ステップS504において、全ての角度について処理を行った場合、把持制御処理部210は処理を終了する。
ステップS504において、全ての角度において処理を行っていない場合、把持制御部240は、成功確率算出部242により、生成した把持対象物の3次元形状データを所定の角度回転させる(ステップS505)。所定の角度とは、例えばπ/10である。
続いて成功確率算出部242は、回転させた3次元形状データと、学習モデル250とから、成功確率を算出する(ステップS506)。
続いて、把持制御部240は、閾値判定部243により、算出した成功確率が閾値以上であるか否かを判定する(ステップS507)。ステップS507において、成功確率が閾値以上でない場合、把持制御処理部210はステップS504へ戻る。
ステップS507において、成功確率が閾値以上であった場合、把持制御部240は、把持指示出力部244により、ハンド部材310に対する把持指示を行い(ステップS508)、処理を終了する。
このとき、把持指示出力部244は、ステップS506において成功確率が閾値以上となったときの3次元形状データの回転角度を取得する。そして、把持指示出力部244は、撮像装置400から取得する撮像データを参照して、ハンド部材310と把持対象物との位置関係が、回転させた3次元形状データと一致するようにアーム部材300及びハンド部材310を動作させる。
つまり、把持指示出力部244は、アーム部材300に設けられた撮像装置400から取得される撮像データに含まれる把持対象物が、回転させた3次元形状データと一致する角度となる位置に、アーム部材300を移動させ、ハンド部材310に把持対象物を把持させる。
本実施形態では、このようにアーム部材300とハンド部材310の動作を制御することで、一定以上の成功確率を有する状態において、把持対象物を把持させることができ、把持対象物を適切に把持させることができる。
また、本実施形態では、認識処理部230における把持対象物の3次元形状データの生成において、撮像データから取得した把持対象物の画像の一部が、障害物等により遮蔽されて欠損している場合には、欠損部分を補間する。したがって、本実施形態では、3次元形状データを把持対象物の真の形状に近づけることができ把持対象物の形状の認識精度を向上させることができる。
尚、本実施形態では、ハンド部材310は、回動しない状態で固定されている状態を想定しているが、これに限定されない。ハンド部材310がアーム部材300に対して回動可能な状態で固定されている場合には、ハンド部材310に撮像装置400を設けても良い。この場合、成功確率が閾値以上となった場合には、ハンド部材310のみを回転させれば良い。
尚、把持制御部240は、例えば上述した方法以外の方法でアーム部材300とハンド部材310とを制御しても良い。
復元される物体は、3次元点群、またはVoxel群として表現する事ができる。このように大きさやサイズが既知の物体を把持するアルゴリズムは、従来から数多く提案されている。一般に、ヒューリスティックに把持方法を探索する場合、その探索範囲が非常に大きい点が問題となる。その解決策として、物体をいくつかの外接矩形の組に分解することで物体形状を単純化し、探索範囲を縮小させ方法が知られている(非特許文献6)。この方法では、まず、3次元形状全体に矩形をフィッティング(Level1)させ、3次元矩形の数がなるべく少なく、かつ矩形の体積の総和がなるべく小さくなるように元の物体を分割し、最終的に深さLevelNの外接矩形の分割木を構成する。これより、物体形状を近似しつつ、形状は2N−1個のノードを持つ木として表現することができる。
(第二の実施形態)
以下に、図面を参照して第二の実施形態について説明する。第二の実施形態では、ハンド部材310が把持対象物を把持する際の接触点が可視状態であるか否かを考慮する点が、第一の実施形態と相違する。したがって、以下の第二の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
図6は、第二の実施形態の把持制御装置の機能を説明する図である。第二の実施形態の把持制御装置200Aの把持制御処理部210Aは、把持制御部240Aを有する。本実施形態の把持制御部240Aは、第一の実施形態の把持制御部240の有する各部に加え、可視領域判定部245を有する。
本実施形態の可視領域判定部245は、撮像データ取得部220により取得される撮像データにおいて、把持対象物のおける把持部分の画像が欠落していないか否かを判定する。把持位置とは、把持対象物において、ハンド部材310により把持される部分である。
言い換えれば、可視領域判定部245は、撮像データに把持対象物の把持部分の画像が写っているか否かを判定する。
次に、図7を参照し、本実施形態の把持制御装置200Aの動作を説明する。図7は、第二の実施形態の把持制御装置の動作を説明するフローチャートである。
図7のステップS701からステップS707までの処理は、図5のステップS501からステップS507までの処理と同様であるから、説明を省略する。
ステップS707において、成功確率αが閾値th以上であった場合、把持制御部240Aは、可視領域判定部245により、撮像データにおいて把持対象物の把持部分の画像が可視領域内であるか否かを判定する(ステップS708)。
ステップS708において、把持部分の画像が可視領域内でない場合、つまり、把持部分の画像が障害物等により隠れて欠損している場合、把持制御処理部210Aは、ステップS704に戻る。
ステップS708において、把持部分の画像が可視領域内にある場合、把持制御部240Aは、ステップS709へ進む。ステップS709の処理は、図5のステップS508の処理と同様であるから、説明を省略する。
以上のように、本実施形態では、成功確率が閾値以上であり、且つ把持対象物の把持部分とアーム部材300との間に障害物が存在しないとき、成功確率と対応する3次元形状データに応じてアーム部材300とハンド部材310を動作させ、把持対象物を把持させることができる。よって、本実施形態によれば、把持対象物を適切に把持させることができる。
(第三の実施形態)
以下に図面を参照して第三の実施形態について説明する。第三の実施形態は、成功確率が最大値となる3次元形状データと対応する角度で把持対象物を把持させる点が第一の実施形態と相違する。よって、以下の第三の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
図8は、第三の実施形態の把持制御装置の機能を説明する図である。
第三の実施形態の把持制御装置200Bの把持制御処理部210Bは、把持制御部240Bを有する。本実施形態の把持制御部240Bは、学習モデル保持部241、成功確率算出部242A、最大値取得部246、把持指出力部244を有する。つまり、把持制御部240Bは、第一の実施形態の把持制御部240の閾値判定部243の代わりに、最大値取得部246を有する。
本実施形態の成功確率算出部242Aは、成功確率を算出すると、回転させた角度と算出した成功確率とを対応付けて保持しておく。
本実施形態の最大値取得部246は、成功確率算出部242が算出した成功確率が、成功確率の最大値であるか否かを判定する。
次に、図9を参照して、第三の実施形態の把持制御装置200Bの動作について説明する。図9は、第三の実施形態の把持制御装置の動作を説明するフローチャートである。
図9のステップS901からステップS905の処理は、図5のステップS501からステップS505までの処理と同様であるから、説明を省略する。尚、図9では、ステップS904で全ての角度の3次元形状データに対して、ステップS905以降の処理を行ったとき、ステップS907へ進む。
ステップS905に続いて、把持制御部240Bの成功確率算出部242Aは、回転させた3次元形状データと、学習モデル250とから、成功確率を算出し、回転させた角度と成功確率とを対応付けて保持し(ステップS906)、把持制御部240BはステップS904へ戻る。
ステップS904において、全ての角度の3次元形状データに対して、ステップS905、ステップS906の処理を行った場合、把持制御部240Bは、最大値取得部246により、成功確率の最大値と対応付けられた角度を取得する(ステップS907)。
続いて、把持制御部240Bは、把持指示出力部244により、撮像データにおける把持対象物の形状と、取得した角度分回転させた3次元形状データが示す形状とが一致する角度から把持対象物を把持するように、アーム部材300とハンド部材310に対する把持の指示を行い(ステップS908)、処理を終了する。
以上のように、本実施形態では、成功確率が最大値となる状態となる位置にアーム部材300を動かして、ハンド部材310把持対象物を把持させることができる。したがって、本実施形態によれば、把持対象物を適切に把持させることができる。
(第四の実施形態)
以下に図面を参照して第四の実施形態について説明する。以下の第四の実施形態の説明では、第一の実施形態との相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
本実施形態では、把持対象物とアーム部材300との間に存在する障害物を、任意の場所に移動させていくことで、把持対象物を把持しやすい環境を作り、把持対象物を適切に把持させる。
図10は、第四の実施形態の把持制御装置の機能を説明する図である。本実施形態の把持制御装置200Cは、把持制御処理部210Cを有する。
把持制御処理部210Cは、撮像データ取得部220、認識処理部230A、把持制御部240Cを有する。
本実施形態の認識処理部230Aは、第一の実施形態の認識処理部230の有する各部に加え、物体領域抽出部251、信頼度算出部252、信頼度閾値判定部253を有する。
本実施形態の物体領域抽出部251は、物体領域検出部231により検出された物体領域を抽出する。より具体的には、物体領域抽出部251は、撮像データから複数の物体領域が検出されたとき、複数の物体領域から1つの物体領域を抽出する。
信頼度算出部252は、形状復元部232により復元された物体の形状の信頼度を算出する。
本実施形態の信頼度は、物体の3次元形状データが示す形状が、どの程度物体の真の形状に近いかという度合いを示すものであり、以下の式(2)に示すように、コスト関数Eの逆数で表現される。
信頼度=1/E 式(2)
本実施形態では、信頼度の値が大きいほど、物体の3次元形状データが示す形状が物体の真の形状に近いものとなる。
本実施形態の信頼度閾値判定部253は、算出された信頼度が、信頼度閾値以上であるか否かを判定する。本実施形態の信頼度閾値は、予め設定されており、信頼度閾値判定部253に保持されていても良い。本実施形態の信頼度閾値は、任意に変更が可能な値であっても良い。
本実施形態の把持制御部240Cは、把持指示出力部244、対象物判定部254を有する。本実施形態の対象物判定部254は、ハンド部材310により把持された物体が、把持対象物であるか否かを判定する。具体的には、対象物判定部254は、ハンド部材310により把持された物体の撮像データから、把持された物体が把持対象物であるか否かを判定しても良い。
図11は、第四の実施形態の把持制御装置の動作を説明するフローチャートである。
図11のステップS1101とステップS1102の処理は、図5のステップS501とステップS502の処理と同様であるから、説明を省略する。
ステップS1102において各物体の物体領域が検出されると、認識処理部230Aは、物体領域抽出部251により、把持対象物の物体領域を抽出する(ステップS1103)。
続いて、認識処理部230Aは、形状復元部232により、物体領域抽出部251が抽出した物体領域から、把持対象物の形状を復元して補間し、3次元形状データを生成する(ステップS1104)。
続いて、認識処理部230Aは、信頼度算出部252により、式(2)により、ステップS1104で生成された3次元形状データの示す形状の信頼度を算出する(ステップS1105)。続いて、認識処理部230Aは、信頼度閾値判定部253により、信頼度が信頼度閾値以上であるか否かを判定する(ステップS1106)。
ステップS1106において、信頼度が信頼度閾値以上でない場合、認識処理部230Aは、物体領域抽出部251により、物体領域検出部231が検出した物体領域のうち、抽出された物体領域の次に撮像装置400から離れている物体領域を抽出し(ステップS1107)、ステップS1104へ戻る。
ステップS1106において、信頼度が信頼度閾値以上である場合、認識処理部230Aは把持制御部240Cにこれを通知する。把持制御部240Cは、把持指示出力部244により、アーム部材300及びハンド部材310に対し、ステップS1104で生成した3次元形状データと対応する物体の把持を指示する(ステップS1108)。
続いて、把持制御部240Cは、対象物判定部254により、把持された物体が把持対象物であるか否かを判定する(ステップS1109)。ステップS1109において、把持された物体が把持対象物であった場合、把持制御処理部210Cは処理を終了する。
ステップS1109において、把持した物体が把持対象物でない場合、把持指示出力部244は、アーム部材300及びハンド部材310に対し、把持した物体を任意の方向への移動を指示する(ステップS1110)。本実施形態では、物体が把持対象物でない場合、この物体が撮像装置400と把持対象物の間を遮らない位置へ移動させれば良い。
続いて、認識処理部230Aは、物体領域抽出部251により、物体領域検出部231が検出した物体領域のうち、最も撮像装置400に近い物体の物体領域をステップS1111)、ステップS1104へ戻る。尚、ステップS1111では、ステップS1110において物体が、撮像データに含まれない位置へ移動された後の撮像データにおいて、最も撮像装置400に近い物体の物体領域を抽出する。
以上のように、本実施形態では、把持対象物とアーム部材300との間に障害物が存在する場合でも、障害物を移動させることで、把持対象物の形状の認識精度を向上させる。
以下に、図12を参照し、本実施形態の把持制御処理部210Cの処理を具体的に説明する。図12は、第四の実施形態の把持制御装置の動作を説明する図である。
図12では、図12(A)に示すように物体が配置されており、撮像装置400の撮像面が矢印Y1方向を向くようにして撮像データを取得する場合を示している。図12(B)は、撮像面を矢印Y1方向に向けて撮像した際の画像の例を示している。
図12では、物体123を把持対象物とし、物体121と物体122を障害物としている。
本実施形態の把持制御処理部210Cにおいて、物体領域検出部231は、始めに把持対象物である物体123の物体領域を検出する。ここで検出される物体領域は、図12(B)に示す物体領域123Aである。
続いて、把持制御処理部210Cは、物体領域123Aから物体123の形状を復元し、復元された形状の信頼度を算出する。このとき、物体123の画像は、物体122の画像と物体121の画像が重なっており、一部が欠落している。したがって、物体領域123Aからは、一部が欠落した物体123の形状が復元されることになり、信頼度は信頼度閾値未満となる。
すると、把持制御処理部210Cは、物体123の次に撮像装置400から離れている物体の物体領域を抽出する。ここでは、物体123の次に撮像装置400から離れている物体は、物体122である。よって、把持制御処理部210Cは、物体122の物体領域122Aを抽出する。そして、物体領域122Aから物体122の形状を復元し、復元された形状の信頼度を算出する。
このとき、物体122の画像は、物体121の画像が重なっており、一部が欠落している。したがって、物体領域122Aからは、一部が欠落した物体122の形状が復元されることになり、信頼度は信頼度閾値未満となる。
次に、把持制御処理部210Cは、物体122の次に撮像装置400から離れている物体の物体領域を抽出する。ここでは、物体122の次に撮像装置400から離れている物体は、物体121である。よって、把持制御処理部210Cは、物体121の物体領域121Aを抽出する。そして、物体領域121Aから物体121の形状を復元し、復元された形状の信頼度を算出する。
このとき、物体121の画像は欠落がない。したがって、物体領域121Aからは、物体121の形状が復元されることになり、信頼度は信頼度閾値以上となる。
よって、把持制御処理部210Cは、物体121を把持し、物体121が把持対象物であるか否かを判定する。物体121は把持対象物ではないため、把持制御処理部210Cは、物体121を、撮像装置400を遮らない位置へ移動させる。つまり、把持制御処理部210Cは、物体121を撮像装置400の撮像領域外へ再配置する。
次に、把持制御処理部210Cは、物体121の移動後の状態で、最も撮像装置400に近い物体領域を抽出する。物体121の移動後において、最も撮像装置400に近い物体領域は、物体122の物体領域である。このとき、物体121が移動させられたため、物体122の画像には欠落がない。したがって、物体122の物体領域から物体122の形状が復元されることになり、信頼度は信頼度閾値以上となる。よって、物体121と同様に、物体122も移動させられる。
この状態で、把持対象物の物体123とアーム部材300との間の障害物が取り除かれる。この後も、把持制御処理部210Cは同様に、欠落のない物体123の物体領域を抽出し、物体123の形状を復元する。
そして、把持制御処理部210Cは、物体123が把持対象物であると判定し、アーム部材300とハンド部材310による把持対象物の把持制御に関する処理を終了する。
尚、把持制御処理部210Cは、把持対象物を把持した後は、把持対象物を所定の場所へ移動させる。
以上のように、本実施形態によれば、把持対象物とアーム部材300との間に存在する障害物を取り除くことができ、把持対象物を適切に把持させることができる。
尚、上述した各実施形態では、物体把持装置100が把持制御処理部210を有する構成としたが、これに限定されない。
物体把持装置100は、例えば把持制御処理部210を有するコンピュータにより制御されても良い。
図13は、把持制御システムの一例を示す図である。
把持制御システム500は、物体把持装置100Aと情報処理装置600とを有する。物体把持装置100Aと情報処理装置600とは、ネットワークを介して接続される。
物体把持装置100Aは、通信部110と、アーム部材300と、ハンド部材310と、撮像装置400とを少なくとも有する。尚、物体把持装置100Aは、アーム部材300、ハンド部材310を駆動させる駆動部や、撮像装置400を制御する制御部等を有していても良い。
情報処理装置600は、把持制御処理部210を有する。情報処理装置600は、例えば一般のコンピュータ等であり、把持制御処理部210を実現する把持制御プログラムがインストールされている。
把持制御システム500では、情報処理装置600が、物体把持装置100Aの通信部110から出力される撮像データを取得し、把持制御処理部210の処理を行う。そして、情報処理装置600は、把持制御処理部210が出力した指示を物体把持装置100Aへ送信する。物体把持装置100Aは、通信部110を介して指示を受け取り、アーム部材300とハンド部材310とを動作させる。
以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
100、100A 物体把持装置
200、200A、200B、200C 把持制御装置
210、210A、210B、210C 把持制御処理部
220 撮像データ取得部
230 認識処理部
231 物体領域検出部
232 形状復元部
240、240A、240B、240C 把持制御部
241 学習モデル保持部
242 成功確率算出部
243 閾値判定部
244 把持指示出力部
245 可視領域判定部
246 最大値取得部
250 学習モデル
251 物体領域抽出部
252 信頼度算出部
253 信頼度閾値判定部
254 対象物判定部
300 アーム部材
310 ハンド部材
400 撮像装置
特許第3377465号公報 特許第3139074号公報
Z. Jia, A. Gallagher, A. Saxena and T. Chen, "3D-Based Reasoning with Blocks, Support, and Stability.", Computer Vision and Pattern Recognition (CVPR), 2013 M. Leventon, W. Grimson, and O. Faugeras, "Statistical shape influence in geodesic active contours," in Proc. Conf. Comput. Vis. Pattern Recognit., vol. 1. 2000, pp. 316-323. A. Tsai, A. Yezzi, Jr., W. Wells, C. Tempany, D. Tucker, A. Fan, W. E. Grimson, and A. Willsky, "A shape-based approach to the segmentation of medical imagery using level sets," IEEE Trans. Med. Imag., vol. 22, no. 2, pp. 137-154, Feb. 2003. F. Chen, H. Yu, R. Hu, and X. Zeng, "Deep learning shape priors for object segmentation," in Proc. IEEE Conf. CVPR, Jun. 2013, pp. 1870-1877. Zhu, Wei, Tony Chan, and Selim Esedo g ̄ lu. "Segmentation with depth: A level set approach." SIAM journal on scientific computing 28.5 (2006): 1957-1973. Goldfeder, Corey, et al. "Grasp planning via decomposition trees." Robotics and Automation, 2007 IEEE International Conference on. IEEE, 2007.

Claims (6)

  1. 撮像領域の画像及び距離情報を含む撮像データを取得する撮像データ取得部と、
    前記撮像データを用いて撮像領域内に配置された物体毎の物体領域を検出し、前記物体領域と物体形状モデルに基づいて前記物体の3次元形状データを生成する認識処理部と、
    前記3次元形状データに基づいて、アーム部材及びハンド部材の動作を制御する把持制御部と、を有する物体把持装置。
  2. 前記把持制御部は、
    前記3次元形状データに対する把持の成功確率を出力するモデルデータを保持する保持部と、
    前記3次元形状データが示す形状を所定の角度ずつ回転させ、回転させる毎に、前記モデルデータを用いて前記成功確率を算出する成功確率算出部と、
    前記成功確率に応じて前記アーム部材及び前記ハンド部材に対し、前記物体の把持の指示を出力する把持指示出力部と、を有する請求項1記載の物体把持装置。
  3. 前記把持制御部は、
    前記成功確率が閾値以上であるか否かを判定する閾値判定部を有し、
    前記把持指示出力部は、
    前記成功確率が前記閾値以上であるとき、前記把持の指示を出力する請求項2記載の物体把持装置。
  4. 前記認識処理部は、
    複数の物体領域から1つの物体領域を抽出する物体領域抽出部と、
    抽出された物体領域に基づき生成された物体の3次元形状データが示す形状の信頼度を算出する信頼度算出部と、を有し、
    前記物体領域抽出部は、
    前記信頼度が信頼度閾値未満であったとき、
    前記複数の物体領域のうち、前記抽出された物体領域の次に撮像装置から離れている物体領域を抽出する請求項1乃至3の何れか一項に記載の物体把持装置。
  5. 前記把持制御部は、
    前記信頼度が信頼度閾値以上であり、且つ前記抽出された物体領域と対応する物体が把持対象物でないと判定されたとき、前記物体を把持して前記撮像領域外へ移動させる請求項4記載の物体把持装置。
  6. 撮像領域の画像及び距離情報を含む撮像データを取得する処理と、
    前記撮像データを用いて撮像領域内に配置された物体毎の物体領域を検出し、前記物体領域と物体形状モデルに基づいて前記物体の3次元形状データを生成する処理と、
    前記3次元形状データに基づいて、アーム部材及びハンド部材の動作指示を出力する処理と、をコンピュータに実行させる把持制御プログラム。
JP2016075739A 2016-04-05 2016-04-05 物体把持装置及び把持制御プログラム Active JP6724499B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016075739A JP6724499B2 (ja) 2016-04-05 2016-04-05 物体把持装置及び把持制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016075739A JP6724499B2 (ja) 2016-04-05 2016-04-05 物体把持装置及び把持制御プログラム

Publications (2)

Publication Number Publication Date
JP2017185578A true JP2017185578A (ja) 2017-10-12
JP6724499B2 JP6724499B2 (ja) 2020-07-15

Family

ID=60045268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016075739A Active JP6724499B2 (ja) 2016-04-05 2016-04-05 物体把持装置及び把持制御プログラム

Country Status (1)

Country Link
JP (1) JP6724499B2 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
JP2019093461A (ja) * 2017-11-20 2019-06-20 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
WO2019130429A1 (ja) * 2017-12-26 2019-07-04 Kyoto Robotics株式会社 ピッキング対象物把持情報登録システム
JP2019107725A (ja) * 2017-12-18 2019-07-04 国立大学法人信州大学 把持装置、学習装置、学習済みモデル、把持システム、判定方法、及び学習方法
WO2019176478A1 (ja) 2018-03-15 2019-09-19 オムロン株式会社 ロボットの動作制御装置
CN110348279A (zh) * 2018-04-05 2019-10-18 欧姆龙株式会社 物体识别处理装置和方法、以及物体拣选装置和方法
CN110355774A (zh) * 2018-04-10 2019-10-22 发那科株式会社 手控制装置及手控制系统
JP2019197471A (ja) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム
WO2020050405A1 (ja) * 2018-09-07 2020-03-12 Ntn株式会社 作業装置
JP6697204B1 (ja) * 2019-01-25 2020-05-20 株式会社Mujin ロボットシステムの制御方法、非一過性のコンピュータ読取可能な記録媒体及びロボットシステムの制御装置
JP2020093366A (ja) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 ロボット
JP2020110911A (ja) * 2019-01-08 2020-07-27 本田技研工業株式会社 物体を把持するための奥行知覚モデリング
JP2020116727A (ja) * 2019-01-25 2020-08-06 株式会社Mujin ロボットシステムの操作方法及び非一時的なコンピュータ可読媒体
JP2020146805A (ja) * 2019-03-14 2020-09-17 上銀科技股▲分▼有限公司 ランダムに積み重ねた複数の対象物の干渉を排除するシステム
JP2020179438A (ja) * 2019-04-24 2020-11-05 株式会社日立製作所 計算機システム及び機械学習方法
US10870204B2 (en) 2019-01-25 2020-12-22 Mujin, Inc. Robotic system control method and controller
JP2021010995A (ja) * 2019-07-09 2021-02-04 株式会社日立製作所 ロボット制御装置及びロボット
JPWO2020044510A1 (ja) * 2018-08-30 2021-08-26 株式会社オプティム コンピュータシステム、物体検知方法及びプログラム
WO2022168617A1 (ja) * 2021-02-05 2022-08-11 株式会社アマダ ワーク検出装置、ワーク検出方法、ワーク検出システム及びワーク検出プログラム
EP3892427A4 (en) * 2019-02-13 2022-08-24 Kabushiki Kaisha Toshiba CONTROL DEVICE AND PROGRAM
JP2022544005A (ja) * 2019-07-26 2022-10-17 グーグル エルエルシー リモートクライアントデバイスからの入力に基づく効率的なロボットの制御
US11577386B2 (en) * 2017-11-14 2023-02-14 Omron Corporation Gripping method, gripping system, and program
WO2023042306A1 (ja) * 2021-09-15 2023-03-23 ヤマハ発動機株式会社 画像処理装置、部品把持システム、画像処理方法および部品把持方法
WO2023152812A1 (ja) * 2022-02-09 2023-08-17 日本電気株式会社 構造物調査支援システム、構造物調査支援方法及び記録媒体

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11577386B2 (en) * 2017-11-14 2023-02-14 Omron Corporation Gripping method, gripping system, and program
US11338435B2 (en) 2017-11-20 2022-05-24 Kabushiki Kaisha Yaskawa Denki Gripping system with machine learning
JP2019093461A (ja) * 2017-11-20 2019-06-20 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
JP7136554B2 (ja) 2017-12-18 2022-09-13 国立大学法人信州大学 把持装置、学習装置、プログラム、把持システム、及び学習方法
JP2019107725A (ja) * 2017-12-18 2019-07-04 国立大学法人信州大学 把持装置、学習装置、学習済みモデル、把持システム、判定方法、及び学習方法
JPWO2019130429A1 (ja) * 2017-12-26 2021-04-01 Kyoto Robotics株式会社 ピッキング対象物把持情報登録システム
WO2019130429A1 (ja) * 2017-12-26 2019-07-04 Kyoto Robotics株式会社 ピッキング対象物把持情報登録システム
US11478926B2 (en) 2018-03-15 2022-10-25 Omron Corporation Operation control device for robot, robot control system, operation control method, control device, processing device and recording medium
WO2019176478A1 (ja) 2018-03-15 2019-09-19 オムロン株式会社 ロボットの動作制御装置
CN108656107B (zh) * 2018-04-04 2020-06-26 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
CN110348279A (zh) * 2018-04-05 2019-10-18 欧姆龙株式会社 物体识别处理装置和方法、以及物体拣选装置和方法
CN110355774A (zh) * 2018-04-10 2019-10-22 发那科株式会社 手控制装置及手控制系统
US11207788B2 (en) 2018-04-10 2021-12-28 Fanuc Corporation Hand control apparatus and hand control system
JP7052546B2 (ja) 2018-05-11 2022-04-12 トヨタ自動車株式会社 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム
US11175672B2 (en) 2018-05-11 2021-11-16 Toyota Jidosha Kabushiki Kaisha Autonomous moving system, autonomous moving body, charging dock, control method, and program
JP2019197471A (ja) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム
JP7068746B2 (ja) 2018-08-30 2022-05-17 株式会社オプティム コンピュータシステム、物体検知方法及びプログラム
JPWO2020044510A1 (ja) * 2018-08-30 2021-08-26 株式会社オプティム コンピュータシステム、物体検知方法及びプログラム
JPWO2020050405A1 (ja) * 2018-09-07 2021-09-02 Ntn株式会社 作業装置
WO2020050405A1 (ja) * 2018-09-07 2020-03-12 Ntn株式会社 作業装置
JP7044047B2 (ja) 2018-12-14 2022-03-30 トヨタ自動車株式会社 ロボット
JP2020093366A (ja) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 ロボット
JP7050740B2 (ja) 2019-01-08 2022-04-08 本田技研工業株式会社 物体を把持するための奥行知覚モデリング
JP2020110911A (ja) * 2019-01-08 2020-07-27 本田技研工業株式会社 物体を把持するための奥行知覚モデリング
US11185978B2 (en) 2019-01-08 2021-11-30 Honda Motor Co., Ltd. Depth perception modeling for grasping objects
US10933527B2 (en) 2019-01-25 2021-03-02 Mujin, Inc. Robotic system with enhanced scanning mechanism
JP6697204B1 (ja) * 2019-01-25 2020-05-20 株式会社Mujin ロボットシステムの制御方法、非一過性のコンピュータ読取可能な記録媒体及びロボットシステムの制御装置
JP2021003800A (ja) * 2019-01-25 2021-01-14 株式会社Mujin ロボットシステムの制御方法、非一過性のコンピュータ読取可能な記録媒体及びロボットシステムの制御装置
JP2020116727A (ja) * 2019-01-25 2020-08-06 株式会社Mujin ロボットシステムの操作方法及び非一時的なコンピュータ可読媒体
US11638993B2 (en) 2019-01-25 2023-05-02 Mujin, Inc. Robotic system with enhanced scanning mechanism
US11772267B2 (en) 2019-01-25 2023-10-03 Mujin, Inc. Robotic system control method and controller
US11413753B2 (en) 2019-01-25 2022-08-16 Mujin, Inc. Robotic system control method and controller
US10870204B2 (en) 2019-01-25 2020-12-22 Mujin, Inc. Robotic system control method and controller
EP3892427A4 (en) * 2019-02-13 2022-08-24 Kabushiki Kaisha Toshiba CONTROL DEVICE AND PROGRAM
JP2020146805A (ja) * 2019-03-14 2020-09-17 上銀科技股▲分▼有限公司 ランダムに積み重ねた複数の対象物の干渉を排除するシステム
JP2020179438A (ja) * 2019-04-24 2020-11-05 株式会社日立製作所 計算機システム及び機械学習方法
JP7179672B2 (ja) 2019-04-24 2022-11-29 株式会社日立製作所 計算機システム及び機械学習方法
JP2021010995A (ja) * 2019-07-09 2021-02-04 株式会社日立製作所 ロボット制御装置及びロボット
JP7229115B2 (ja) 2019-07-09 2023-02-27 株式会社日立製作所 ロボット制御装置及びロボット
JP2022544005A (ja) * 2019-07-26 2022-10-17 グーグル エルエルシー リモートクライアントデバイスからの入力に基づく効率的なロボットの制御
US11724398B2 (en) 2019-07-26 2023-08-15 Google Llc Efficient robot control based on inputs from remote client devices
JP7338034B2 (ja) 2019-07-26 2023-09-04 グーグル エルエルシー リモートクライアントデバイスからの入力に基づく効率的なロボットの制御
WO2022168617A1 (ja) * 2021-02-05 2022-08-11 株式会社アマダ ワーク検出装置、ワーク検出方法、ワーク検出システム及びワーク検出プログラム
WO2023042306A1 (ja) * 2021-09-15 2023-03-23 ヤマハ発動機株式会社 画像処理装置、部品把持システム、画像処理方法および部品把持方法
WO2023152812A1 (ja) * 2022-02-09 2023-08-17 日本電気株式会社 構造物調査支援システム、構造物調査支援方法及び記録媒体

Also Published As

Publication number Publication date
JP6724499B2 (ja) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6724499B2 (ja) 物体把持装置及び把持制御プログラム
JP6430064B2 (ja) データを位置合わせする方法及びシステム
Davison Real-time simultaneous localisation and mapping with a single camera
Saeedi et al. Vision-based 3-D trajectory tracking for unknown environments
US11741701B2 (en) Autonomous task performance based on visual embeddings
JP2020512646A (ja) 静的物体及び動的物体を含むシーンの位置特定及びマッピングに関するイメージングシステム
EP3782119A1 (en) Detection, tracking and 3d modeling of objects with sparse rgb-d slam and interactive perception
WO2020069379A1 (en) Training a deep neural network model to generate rich object-centric embeddings of robotic vision data
JPH0830327A (ja) 能動的環境認識システム
Zhou et al. Online multiple targets detection and tracking from mobile robot in cluttered indoor environments with depth camera
CN113312966B (zh) 一种基于第一人称视角的动作识别方法及装置
JP6067547B2 (ja) 物体認識装置、ロボット及び物体認識方法
JP7385747B2 (ja) 物体の把持点の三次元位置、ローカル参照フレーム及び把持パターンを求める方法及びシステム
JP2015011526A (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
CN110889460B (zh) 一种基于协同注意力机制的机械臂指定物体抓取方法
Hu et al. Efficient face and gesture recognition techniques for robot control
Kundu et al. A novel geometry-based algorithm for robust grasping in extreme clutter environment
Mitschke et al. Image-based visual servoing of rotationally invariant objects using a u-net prediction
JP6877072B1 (ja) 領域抽出装置、領域抽出方法、及び領域抽出プログラム
Maeda et al. Visual task progress estimation with appearance invariant embeddings for robot control and planning
KR102392594B1 (ko) 정리정돈 로봇을 이용한 정리정돈 시스템
Mohammed et al. Deep Reinforcement Learning-Based Robotic Grasping in Clutter and Occlusion. Sustainability 2021, 13, 13686
Kojima et al. Early Estimation of User's Intention of Tele-Operation Using Object Affordance and Hand Motion in a Dual First-Person Vision
Bersch et al. Segmentation of cluttered scenes through interactive perception
Soyer et al. Further experiments in classification of attentional sequences: Combining instantaneous and temporal evidence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R151 Written notification of patent or utility model registration

Ref document number: 6724499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151