JP2017177294A - ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム - Google Patents
ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム Download PDFInfo
- Publication number
- JP2017177294A JP2017177294A JP2016070131A JP2016070131A JP2017177294A JP 2017177294 A JP2017177294 A JP 2017177294A JP 2016070131 A JP2016070131 A JP 2016070131A JP 2016070131 A JP2016070131 A JP 2016070131A JP 2017177294 A JP2017177294 A JP 2017177294A
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- robot
- unit
- change
- end effector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0071—Gripping heads and other end effectors with needles engaging into objects to be gripped
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/08—Gripping heads and other end effectors having finger members
- B25J15/10—Gripping heads and other end effectors having finger members with three or more finger members
- B25J15/106—Gripping heads and other end effectors having finger members with three or more finger members moving in parallel relationship
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37048—Split beam, stripe projection on object, lines detected with cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40583—Detect relative position or orientation between gripper and currently handled object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40609—Camera to monitor end effector as well as object to be handled
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/30—End effector
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Abstract
Description
しかし、ビジョンセンサを用いた対象物の位置姿勢の正確な計測が困難な状況で、対象物を把持する場合もある。このような場合、対象物に接触するロボットハンド等に力覚センサなどを備えさせ、ロボットハンドの対象物への接触位置を計測することで、対象物の位置姿勢の誤差を修正することができる。
また、非特許文献1は、複数のピンをアレイ状に構成したフィンガを備えるオムニグリッパー(Omnigripper)を開示する。非特許文献1のフィンガは、受動的に対象物の形状にフィットすることで、対象物を把持することができる。
本発明は、上記課題を解決するためになされたものであり、その目的は、対象物の位置姿勢の計測が困難な場合であっても、対象物の把持状態を認識し、対象物を適切に把持することのできるロボット制御装置を提供することにある。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
本実施形態において、ロボットシステムは、受動的に対象物の形状に倣って可動する複数の棒(把持手段)を備えたエンドエフェクタを有するロボットを制御するシステムである。このロボットシステムにおいて、ロボットのエンドエフェクタが備える受動的に対象物の形状に倣って可動する複数の棒の変位を計測することで、エンドエフェクタの対象物に対する把持状態を認識し、把持の可否や対象物の形状を認識する。
このような処理を実行することで、ビジョンセンサで認識困難な対象物でも、把持と形状の計測を行うことができる。
本実施形態において、ロボットが操作する「対象物」は、例えばトナー容器のように、ビジョンセンサでは認識困難な、半透明あるいは透明の部品であってよい。また、本実施形態において、これら対象物は、箱にバラ積みされていてよい。また、本実施形態において、「分類」とは、複数の対象物を、同じ種類ごとに分けて指定された場所へ配置することをいう。
図1は、本実施形態におけるロボットシステムでの対象物の把持、対象物の認識処理を実現するためのロボットシステムの構成の一例を説明する図である。図1は、本実施形態のロボットシステムの機器構成の一例であり、本発明の適用範囲を限定するものではない。
ロボット101は、ロボットアームを備えたロボットであり、アームの先端部には対象物106を把持し操作する(例えば移動する)エンドエフェクタ105が取り付けられている。ロボット101は、情報処理装置104(ロボット制御装置)が決定した行動を実行して対象物106を操作する。
撮像装置(ビジョンセンサ)102は、撮像手段であって、例えばカメラや、光を検出するセンサ、フォトダイオードなどで構成することができる。撮像装置102は、対象物106と配置場所107の画像情報を取得する。情報処理装置104は、撮像装置102が取得した画像情報を処理する。
この撮像装置102は、例えば、ロボット101のアームや、エンドエフェクタ105等に取り付けられていてよい。あるいは撮像装置102は、対象物106が置かれている場所や、対象物106が配置される配置場所107を撮影できる外部に固定的に取り付けられていてもよい。
情報処理装置104は、ロボット101を制御する装置であって、コンピュータなどの計算機およびハードディスクなどの補助記憶装置によって構成される。
情報処理装置104は、インターフェース機器を介してロボット101、撮像装置102、光源103及びエンドエフェクタ105と接続されており、これらの機器と随時通信することができ、これらの機器の動作を制御する。
本実施形態において、エンドエフェクタ105が対象物106に接触したときのエンドエフェクタ105の変化が計測される。情報処理装置104は、この計測されたエンドエフェクタ105の変化に基づき、対象物106の状態を認識する。ここで、認識される状態とは、エンドエフェクタ105による対象物106の把持状態や、対象物106の形状、位置姿勢等である。
本実施形態において、エンドエフェクタ105のフィンガは、対象物106にそれぞれ接触する複数の棒(棒状体)が配列されて構成されている。このフィンガは、例えば平行開閉チャックが対象物106を挟み込む部分のように、対象物106に接触し、把持する部分のことを表す。エンドエフェクタ105のフィンガは、複数の棒(棒状体)と、それらの棒を収容する基体とから構成される。基体には、複数の棒がそれぞれ進退する複数の孔が設けられている。
フィンガ(棒)の変位は、例えばカメラなどのビジョンセンサを使うことによって計測することができる。このフィンガの変位の計測を画像から取得するため、本実施形態では、フィンガを構成する棒の上部(対象物106と接触する棒の先端)またはその近傍に、円形の部品が取り付けられている。この上部に取り付けた円形の部品をカメラで撮影し、この円形の部品のサイズを計測することによって、棒の移動量(変位)やどの位置にあるのか知ることができる。
ここで、検出した円のサイズとフィンガの変位について、予め相関関係を記録したテーブルを準備しておき、このテーブルを参照して円のサイズからフィンガの変位を算出(認識)することができる。この相関テーブルは、例えば情報処理装置104内に格納しておくことができるが、情報処理装置104からアクセス可能な外部に配置してもよい。
配置場所107は、ロボット101により把持された対象物106が種類ごとに分類され配置される場所である。例えば、配置場所107は種類ごとに異なるベルトコンベアとすることができ、その上に分類して配置された対象物106は、ベルトコンベアにより移動し、その後のリサイクル処理等の対象となる。
ここで、把持状態の認識につき、フィンガの状態をカメラで計測した結果を示す図2及び図3を参照して説明する。
図2(a)は、対象物106に接触したエンドエフェクタ105のフィンガを対象物106側から見た場合の、フィンガを構成する各棒の伸び縮みを表す図である。図2(a)においては、濃淡によってフィンガの棒が「伸びている」、「縮んでいる」を表している。図2(b)は、この濃淡とフィンガの棒の伸び/縮みの関係を示す図であり、濃い部分は、フィンガの棒が伸びていることを表している。また、淡い部分は、対象物106に接触してフィンガの棒が縮んでいることを表している。
図2(a)においては、フィンガを構成する棒の中で内側に配置された棒が縮んでいて、フィンガを構成する棒の中でより外側になるに連れてフィンガの棒が伸びている状態を示している。この場合、このままフィンガを閉じる(図2(a)に示す爪105aと爪105bとを狭めるように挟む)ことによって両端において伸びているフィンガの棒で、対象物106aを挟み込める状態にあると認識される。その結果、対象物106aを把持可能と推定される。
その結果、対象物106bを把持するができないと推定される。
なお、この把持状態の認識は、予め分かっている対象物106の形状から幾何学的に行ってもよいし、機械学習の手法を利用して予め多くのデータサンプルを保持しておき、その結果から認識を実行してもよい。
把持の際には、各ブロックの根本に回転機構を取り付けておく。そして、この回転機構を駆動させるアクチュエータを動作させることで、左右のブロックに備えられたフィンガ(爪105a、爪105b)で、対象物106を包み込むように把持することができる。
このとき、フィンガの位置は回転によって変化するが、フィンガの位置変化を計測する計測機器を各ブロックに取り付けておくことで、アクチュエータの駆動に関わらずにフィンガの位置を計測できる。あるいは、フィンガの駆動は回転機構でなくとも、平行移動する機構によって挟み込んで把持してもよい。
また、「把持状態を認識する」とは、具体的には、フィンガ(複数の棒)によって、対象物106を計画通りに把持できているか否かといった把持成否の認識を含む。また、把持成否の認識に加えて、対象物106の形状や柔らかさなどの仮想ダイナミクスを認識できているかといった対象物106に関する情報の認識を含む。
図4は本実施形態における対象物106の分類作業を実現するためのロボットシステム200の機能要素の構成と機能要素間の関係を模式的に表現した図である。
情報処理装置104は、ロボット101を制御するロボット制御装置である。情報処理装置104は、把持部変化取得部202(第1の取得手段)と、把持状態認識部203(第2の取得手段)と、部品データベース204と、行動計画部205(計画手段・制御手段)と、操作データベース206と、を備える。情報処理装置104は、例えばコンピュータで構成してよく、把持部変化取得部202と、把持状態認識部203と、行動計画部205と、はコンピュータのCPUが所定のプログラムを実行し、所定のハードウェアを制御することによって実現してよい。
エンドエフェクタ105は、ロボット101のアームの先端に取り付けられており、行動計画部205からの動作命令に従って動作する。
把持部変化計測部201(計測手段)は、エンドエフェクタ105の把持部であるフィンガの変化を計測する手段であり、例えばカメラである。このカメラは、例えば、エンドエフェクタ105に取り付けてもよいし、ロボット101に取り付けてもよいし、また、ロボット101とは別の外部に配置又は取り付けられてもよい。フィンガの変位を計測できるのであれば、カメラはどこに配置されてもよい。
把持部変化取得部202は、把持部変化計測部201が計測した結果を取得する。例えば、把持部変化計測部201であるカメラが、把持部変化計測(画像の撮像)を実行する場合、このカメラから取得した画像は、例えば、情報処理装置104内部のキャプチャボードやRAM(メモリ)に保存される。その後、把持部変化計測部201が、この画像に対する把持部の変化の計測処理を実行する。
把持状態認識部203は、把持部変化取得部202が取得した結果から、対象物106の把持状態を認識する。把持状態の認識とは、対象物106を把持できているか否かに関する把持成否の認識や、対象物106の形状の認識を含む。この把持状態は、フィンガの棒の変位から認識できることは、既に説明した通りである(図2、図3参照)。
部品データベース204は、対象物106の部品の種類と、部品の形状の情報を保持している。
このような部品データベース204を用いれば、対象物106の把持状態をより正確に認識することができる。しかし、部品データベース204は必ずしも用いなくてもよく、図2や図3で説明したように、フィンガの棒の変位のみから、対象物106の把持状態を認識してもよい。
操作データベース206は、行動計画部205がロボット101の行動を計画する際に参照する部品の種類(部品種)の情報と、作業手順の情報とを保持している。行動計画部205は、行動を計画する際に、適宜、操作データベース206内の上記情報を参照する。
ここで、「行動計画」とは、ロボット101が対象物106に接触する行動や、把持動作や、配置動作、など種々の行動を計画すること、および、その作成した結果である計画を意味する。この行動計画は、撮像装置102が得た画像を元にした三次元形状計測の結果に基づき計画してもよいし、エンドエフェクタ105が得た把持状態の情報を元にして計画してもよい。
図5は、本実施形態におけるロボットシステム200の処理の流れを示すフローチャートである。図5に示す処理は、主として情報処理装置104が実行する。以下、図5に従って処理の手順を説明する。
S1において、情報処理装置104は、本実施形態におけるロボットシステム200の初期化を行う。具体的にはロボットシステム200に含まれる各装置が例えばユーザーにより起動される。情報処理装置104が起動すると、情報処理装置104にロボットシステム200を実現するためのプログラムがロードされ、情報処理装置104中の不図示のメモリ上に展開される。この結果、情報処理装置104中のCPUが、そのプログラムを実行可能な状態となる。
S2において、把持部変化取得部202は、把持部変化計測部201を構成する撮像装置102を用いて、対象物106および配置場所107に関する画像情報を取得する。
S3において、把持状態認識部203は、三次元形状計測を実行する。三次元形状計測は、例えば対象物106のパターンマッチングにより実行することができる。具体的には、把持状態認識部203は、部品データベース204の情報を参照し、撮像装置102で取得した画像情報をもとにして、パターンマッチングを行って対象物106の部品種を判断する。このパターンマッチングの具体的な方法としては、例えば相関ベースマッチングが挙げられる。この相関ベースマッチングによれば、部品データベース204に保持されている複数種類の部品パターンと入力画像との比較により、最も類似するパターンを認識することで、対象物106の部品種の決定を行うことができる。なお、ここでは、パターンマッチングを用いる例を説明したが、対象物106の部品種を判別することができれば他の処理を用いてもよい。
具体的には、例えば、均一照明を用いて対象物106を撮像した画像中のエッジと、部品データベース204に保持されているCADデータを元にしたエッジモデルとのフィッティング処理を行う。このようなモデルフィッティングを行って、対象物106の位置姿勢を計測することができる。
あるいは、三角測量の原理に基づいて、対象物106表面の距離点群データを求める手法を利用してもよい。具体的には、例えば、光源103にマルチラインのパターン光を出射させて対象物106を照明しながら、撮像を行う。そして、得られた画像から表面に投影されたパターンを検出し、三角測量の原理に基づいて、対象物106表面の距離点群データを求める。
S6において、ロボット101が、S5において決定された行動計画に基づき、対象物106に対して接触動作を行う。この接触動作においては、エンドエフェクタ105が対象物106に接触して把持部(フィンガ)の変化を計測するまでロボット101が目標位置を目指し動作を行う。ここで、エンドエフェクタ105が目標位置に到達しても把持部が対象物106に対して接触したことを検知できない場合は、新たな目標位置を設定し、再び動作を行う。
具体的な計測方法は、既に説明したように、例えばそれぞれの棒の上部に円形状の物品(円形の物品)を取り付ける。そして、複数の棒をカメラで一度に撮像して画像を得、画像中のその円形状の物品のサイズと棒の変位との関係から、棒が対象物105と接触した位置を算出することができる。把持部変化取得部202は、このようにして算出した結果を取得することで、把持部(フィンガ)の変化を取得し、S8に移行する。
把持状態認識部203は、把持部変化取得部202が得た把持部変化の情報と、部品データベース204から読み出した対象物106の情報とを用いて把持状態を認識する。
S9において、把持状態認識部203は、対象物106を把持可能か否か判定する。具体的には、把持状態認識部203は、S8においてなされた対象物106に対する把持状態の認識結果に基づき、この判定を実行する。
判定の結果、把持可能であると判定する場合は、S10に移行し、対象物106の把持動作の行動計画を決定する。他方、把持不可能であると判定する場合は、S5へ移行し、再び接触動作を行うための行動計画がなされる。
ここで、決定される行動計画につき具体的に説明する。まず、図6のように、作業空間内で基準となる座標系として、ワールド座標系Σwを設定する。ワールド座標系Σwからロボット座標系Σrまでの変位を(RX,RY,RZ)とする。また、ロボット101の姿勢を表す3×3の回転行列をRMとする。上述した変位(RX,RY,RZ)およびRMは、ロボット101が固定されていれば定数としてよい。
また、ロボット101の先端座標系Σfからロボット101の先端に取り付けられているエンドエフェクタ105の先端の座標系Σeまでの変位を(EX,EY,EZ)とする。ロボット101の先端に取り付けられているエンドエフェクタ105先端の姿勢を表す3×3の回転行列をEMとする。(EX,EY,EZ)およびEMの求め方は、エンドエフェクタ105を取り付けた際に、ロボット101の先端からエンドエフェクタ105先端までの距離および姿勢を直接計測することで計算できる。
さらに、撮像装置座標系Σcから対象物座標系Σvまでの変位を(VX,VY,VZ)とする。対象物106の姿勢を表す3×3の回転行列をVMとする。(VX,VY,VZ)およびVMは、S3で述べたように計測を行うことで求めることができる。
ここで、Σwから見た対象物106の変位を(WX,WY,WZ)、姿勢を表す3×3の回転行列をWMとすると、これら(WX,WY,WZ)及びWMの値は以下の式(1)を用いて算出することができる。
その後、把持動作を行うため、行動計画部205が作成した行動計画に基づき、エンドエフェクタ105に対して閉動作を行う命令生成され、発行される。
S11において、S10で決定されたロボット101の行動計画に基づき、ロボット101およびエンドエフェクタ105が動作し、対象物106の把持動作および配置動作等が実行される。配置動作では、認識された対象物106の種類に応じて把持された対象物106が分類され、適切な配置場所107へ配置される。
S12において、情報処理装置104は、撮像装置102が取得した画像あるいはS8における認識結果に基づき、次の対象物106が存在するか否かを判定する。次の対象物106が存在する場合には、S2に戻り処理を続行する。次の対象物106が存在しない場合には、本実施形態における計測を終了し、対象物106の把持・配置動作を終了する。
本実施形態は、対象物106に与えられる外力を制御する例を説明する。具体的には、上述した実施形態1で述べたロボットシステムに対して、フィンガが可動する方向に仮想ダイナミクスを適用することによって、接触動作時に対象物106に与える外力を制御できるよう構成したものである。
より詳細には、本実施形態において、エンドエフェクタ105のフィンガ(把持部)を構成する棒(例えば、棒の上部)にばねなどの弾性部品(弾性部材)を取り付けている。そして、フィンガの変位(棒の変位)と、弾性部品の剛性とに基づき、エンドエフェクタ105が接触している対象物106に与えられている外力を認識する。
これに対して、本実施形態では、対象物106に与える外力を制御することによって、対象物106の周りにある包装材を潰しながら、中身の形状を計測することができる。このように制御することで、対象物106がビニール袋などの緩衝材に包まれているような場合でも、その中身である対象物106の形状を正確に計測でき、作業を継続できる可能性を拡大できる。
図7は、本実施形態における対象物106に対する把持動作および認識動作を実現するためのロボットシステム200aを構成する機能要素の構成例と機能要素間の関係を模式的に表現した図である。図7に示した情報処理装置104b(ロボット制御装置)において、図4に示した情報処理装置104と異なる部分である外力認識部207(第3の取得手段)を中心に説明を行う。
(式2) F=Kx
ここで、フィンガの棒の変位xは実施形態1にて述べたように求めることができ、エンドエフェクタ105に取り付けた弾性部品の剛性Kは設計値として既知である。外力認識部207が認識した外力を、把持状態認識部203が把持状態の認識処理に利用してもよいし、また、行動計画部205が、この外力を利用して行動計画を決定してもよい。行動計画部205の外力の利用の仕方は、図8のS13の説明にて詳細に説明する。
S13において、外力認識部207は、対象物106に対して加えられる外力の認識を行う。具体的には、S7においてなされた把持部変化計測の結果に基づき、上記式2に示したように外力を認識する。このようにして認識された対象物106に加えられる外力の値を利用し、対象物106の形状を認識することができる。
これらの値は事前に計測が行われ、既知であることを前提とすれば、対象物106に与える力Fについて、以下の式が成り立つようにロボット101の制御が行われる必要がある。
(式3) F1<F<F2
ここで、S7にて決定した目標位置への一連の動作(移動動作、把持動作)をロボット101に1回のみ実行させただけでは、上記式3を満足させることは困難な場合もある。
これによって、対象物106へ接触したときに与える外力を認識することができ、外力を制御することができる。本実施形態では、このように、対象物106に加えられる外力を制御したうえで、対象物106に対する把持状態を認識できる。ここで、対象物106の形状を認識することができた場合、その認識結果に基づき、ロボット101にそのまま対象物106に対する把持動作を実行させることができる。また、ロボット101に対象物106を配置場所107に配置する動作を実行させることができる。
本実施形態は、実施形態1で述べたロボットシステム200に対して、ロボット101先端に力覚センサを追加することによって、接触時に対象物106の形状に加えて仮想ダイナミクスも計測できるようにしたものである。
具体的には、ロボット101のアームの先端に位置するエンドエフェクタ105の根本部分に6軸力覚センサ208を取り付けている。本実施形態においては、エンドエフェクタ105が対象物106に接触したときのフィンガの棒の変位と、力覚センサ208が計測した力の情報から、対象物106の剛性、粘性、慣性係数を認識することができる。
力・トルク計測部210は、力覚情報取得部209が取得した力覚情報を入力として、対象物106を把持あるいは搬送しているときにロボット101にかかる力とトルクを認識する。なお、本実施形態では、力とトルクとの双方を認識しているが、いずれか一方だけでもよい。このようにして認識した結果は、仮想ダイナミクス認識部211における各種パラメータの認識において利用される。
(式4) F=KKx+D(dx/dt)+M(d2x/dt2)
ここで、フィンガの棒の変位xは実施形態1にて述べたように求め、Fはロボット101のアームの先端に取り付けた力覚センサ208を用いて求めることができる。また、(dx/dt)、(d2x/dt2)はロボット101の速度、加速度として、ロボット101の変位を複数回計測し、その差分から求めることもできる。また、これらは、加速度センサなどをロボット101に備えて、これを用いて求めてもよい。
図10は本実施形態におけるロボットシステム200bを実現するためのロボット101の対象物106に対する把持動作および対象物106の認識処理の流れを示すフローチャートである。このフローチャートは、情報処理装置104cの動作を中心として表されている。
S14において、力・トルク計測部210は、力・トルク計測処理を実行する。力・トルク計測部210は、ロボット101が対象物106に接触したときの力覚情報の計測結果に基づき、エンドエフェクタ105にかかる力およびトルクを求める。
ロボット101のエンドエフェクタ105が対象物106に接触したとき、ロボット101のエンドエフェクタ105には接触動作に伴ってさまざまな力がかかる。力覚センサ208は、これらの力の値をひずみゲージや圧電素子を用いて計測することにより、エンドエフェクタ105が対象物106への接触により生じた力覚情報として、力およびトルクを計測する。力覚情報取得部209は、力覚センサ208から力覚情報を取得し、内部に保持する。力・トルク計測部210は、この力覚情報に基づき、力およびトルクを求める。
S10において、行動計画部205は、このようにして認識した把持状態に基づき、行動計画を決定する。この際、行動計画部205は、仮想ダイナミクス認識部211が認識した仮想ダイナミクスにも基づいて、行動計画を作成することができる。ロボット101およびエンドエフェクタ105は、この行動計画に基づく命令を行動計画部205から受信し、動作を実行する。
このように、本実施形態によれば、対象物106を把持することのできる複数の棒の位置、速度、加速度の少なくとも一つを計測することによって、把持機能と認識機能を両立させたロボット制御装置を提供することができる。また、同様に把持機能と認識機能を両立させたロボット制御方法、ロボットシステムを提供することができる。
実施形態1、2、3において、エンドエフェクタ105をロボット101のアームの先端に取り付けている。しかし、エンドエフェクタ105をロボット101と分離し、対象物106を固定する治具として使用してもよい。このような治具は、対象物106を固定するとともに、棒の位置等から、対象物106の固定情報や、対象物106の形状等を測定することができる。
例えば、この治具(エンドエフェクタ105)を所定の位置・場所に、その棒が所定方向(例えば「上」)を向くように配置して、その上に対象物106を配置することができる。このように対象物106を配置すれば、対象物106が複雑な形状を有している場合、または、対象物106が柔らかな材質である場合においても、対象物106をより安定に配置することができる。さらに、棒の位置を測定することによって、対象物106の形状や柔らかさを認識してもよい。
実施形態1、2、3において、フィンガで対象物106を把持することなく、フィンガの棒を中空構造にすることで、フィンガの棒の先端で対象物106を吸着して搬送してもよい。このような吸着は、例えば、フィンガを構成する各棒から、吸着のための真空エジェクタや真空ポンプ、または、通常のエアポンプ等を用いて、フィンガを構成する各棒から空気を吸引することによって実現することができる。
この際、各フィンガの棒が対象物106に対する接触有無をそれぞれ検知することで、接触している棒に関してのみ吸引を行うように構成してもよい。すなわち、対象物106に接触している棒に接続するエジェクタのみON動作させてもよい。このような構成によって、流量の無駄を削減することができる。
このように、エジェクタのON動作/OFF動作で制御することができるtが、それに替えて、それぞれの棒に弁を設けて、この弁を開閉して制御してもよい。
このような吸引を実現する構成を採用することによって、把持困難な物体でも、吸着によって搬送が可能となる。
実施形態1、2、3において、フィンガ(を構成する棒)の形状、材質は特に限定されない。例えば、平たい物体のリブ部分(例えば複写機のリブ部分)を把持する場合、フィンガの棒をしなるような材質を用いて構成してもよい。このような材質の棒でフィンガを構成すれば、対象物106を把持する際に、フィンガの棒は適宜「しなる」ので、対象物106に加えられる力の大きさの変動を抑制することができる。
また、その際、エンドエフェクタ105のアクチュエータでコンプライアンス制御を行い、把持方向へ与える力の制御や、仮想ダイナミクスの計測を実行させてもよい。この場合、ロボット101のサーボ自身のコンプライアンスと合わせて把持方向のプロパティを計測してもよい。
実施形態1、2、3において、フィンガの(棒の)位置、速度、加速度の少なくとも一つの情報から、対象物106を把持した後の異常検知を行ってもよい。例えば、対象物106の把持に成功している場合、把持後はフィンガの棒の変位は変化しないはずである。しかし、滑りなどが生じれば変位が変化するため、上記いずれかのパラメータの値が異常値を示す場合もある。したがって、上記パラメータを認識することによって、ロボット101が実行する動作の異常の検知を行うことができる。
また、ロボット101が対象物106を把持しているときに、対象物106の傾きなどが生じればその状態を認識し、把持位置を変えてより重心に近い位置を把持し直すように構成してもよい。また、そのような把持位置の変更処理等があった場合は、次の処理対象である対象物106を把持する動作において、この把持位置の変更処理をフィードバック(適用)してもよい。例えば、長さが長い対象物106を把持している場合は、作業の途中で対象物106がエンドエフェクタ105のフィンガと滑り、ずれが生じる恐れがあるが、このような場合に有用である。
実施形態1、2、3において、フィンガを構成する棒の配列や長さ、摺動方向の剛性は基本的に全て同様のものである。しかし、フィンガを構成する棒の配列や長さ、摺動方向の剛性は不均一でもよい。例えば、フィンガの外側になるほどフィンガを構成する棒の存在密度を高くしてもよい。また、フィンガの外側になるほど棒の長さを長くしてもよい。また、フィンガの外側になるほど棒の剛性を大きくしてもよい。このような構成によれば、エンドエフェクタ105のフィンガが対象物106に接触した時に、対象物106をフィンガの内側に誘導することができ、より安定した把持状態を実現することができる。
また、稼働(摺動)方向の剛性が不一致でもよく、例えば、外側になればなるほど剛性を強くしてもよい。このような構成によれば、対象物106を把持しようとする際、対象物106を内側に誘導することができる。
実施形態1、2、3において、ビジョンセンサを用いて、画像から、把持部(フィンガ)の変化および把持部(フィンガ)を構成する棒の変化の計測を併用してもよい。この場合、専用のカメラを使わずに、上述した撮像装置102をそのまま利用してもよい。
また、ロボット101にオンハンドカメラが備えられている場合は、撮像装置102の代わりに、または、撮像装置102とともに、そのオンハンドカメラを利用してもよい。また、作業空間に固定されたカメラを用いてフィンガ(およびそれを構成する棒)の計測を行える場合は、ロボット101の座標系との関係からフィンガおよびその棒の変位を計測してもよい。
上述した各実施形態によれば、ビジョンセンサでは形状把握が困難な対象物106でも、把持することができる技術を説明した。しかし、各実施形態で説明した技術を、ビジョンセンサを用いた従来の技術と組み合わせて利用してもよい。例えば、半透明・不透明な部分がない対象物106であれば、ビジョンセンサを利用した従来の手法を用いて、ビジョンセンサが適用できない対象物106の場合に、上記各実施形態で説明した技術を用いるように構成してもよい。
図11は、上記各実施形態の各部を構成することのできるコンピュータ310の構成の例を示す。例えば、図4に示す情報処理装置104を、コンピュータ310で構成することができる。また、図7に示す情報処理装置104bや、図9に示す情報処理装置104cを、コンピュータ310で構成することもできる。
CPU311は、ROM312、RAM313、外部メモリ314等に格納されたプログラムを実行することによって、上記各実施形態の各部を実現する。ROM312、RAM313は上記CPUが実行するプログラムや各種データを保持することができる。
入力部316は、ユーザーインターフェース部を構成することができる。キーボードやタッチパネルで構成することができるが、マウス等のポインティングデバイスや各種スイッチで構成してもよい。
表示部317は、ユーザーに対し任意の表示を行う各種ディスプレイで構成することができる。通信I/F318は、外部と通信を行うインターフェースであり、例えば図4の把持部変化取得部202と、把持部変化計測部201とのインターフェースを司ることができる。また、行動計画部205と、エンドエフェクタ105やロボット101との通信のインターフェースとして機能することができる。また、コンピュータ310の上記説明した各部はバス319によって相互に接続されている。
本発明は、以下の処理を実行することによっても実現される。
即ち、上述した実施形態の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給することができる。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPUまたは1つ以上のプロセッサ等)がプログラムを読み出して実行する処理で上述した各処理を実現することもできる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (16)
- ロボットが対象物を操作することを制御するロボット制御装置であって、
前記対象物を把持する把持手段が前記対象物に接触した際の、前記把持手段の変化を計測する計測手段と、
前記計測手段により計測された前記把持手段の前記変化を取得する第1の取得手段と、
前記第1の取得手段により取得された前記把持手段の前記変化に基づいて、前記把持手段が前記対象物を把持する状態である把持状態を取得する第2の取得手段と、
前記第2の取得手段により取得された前記把持状態に基づいて、前記ロボットの行動を制御する制御手段と、
を備えることを特徴とするロボット制御装置。 - 前記制御手段は、前記第2の取得手段により取得された前記把持状態に基づいて、前記ロボットの行動を計画する計画手段を更に備えることを特徴とする請求項1に記載のロボット制御装置。
- 前記計測手段が計測する前記把持手段の前記変化は、前記把持手段が前記対象物に接触した際の位置、速度及び加速度の少なくとも一つである、ことを特徴とする請求項1または2に記載のロボット制御装置。
- 前記計測手段は、撮像手段により撮像された前記把持手段の画像に基づいて、前記把持手段の前記変化を計測する、ことを特徴とする請求項1乃至3のいずれか1項に記載のロボット制御装置。
- 前記計画手段は、前記把持手段が前記対象物に接触する接触動作と、前記把持手段が前記対象物を把持する把持動作と、の双方の行動を計画する、ことを特徴とする請求項1から4のいずれか1項に記載のロボット制御装置。
- 前記第2の取得手段により取得された前記把持状態に基づいて、前記把持手段が前記対象物を把持可能であるか否かを判定し、前記把持手段が前記対象物を把持可能でないと判定された場合には、前記計画手段に前記把持動作の行動を計画させる判定手段をさらに備える、ことを特徴とする請求項5に記載のロボット制御装置。
- 前記把持手段は、前記対象物に接触した際に、受動的に前記対象物の形状に倣って可動である棒状体が、複数配置されて成るエンドエフェクタであり、
前記ロボット制御装置は、前記エンドエフェクタをさらに備える、ことを特徴とする請求項1から6のいずれか1項に記載のロボット制御装置。 - 前記第2の取得手段は、前記エンドエフェクタの外側に配置される棒状体と、前記エンドエフェクタの内側に配置される棒状体との変化の差に基づいて、前記把持状態を取得する、ことを特徴とする請求項7に記載のロボット制御装置。
- 前記把持手段が前記対象物に対して与えている外力を取得する第3の取得手段、
をさらに具備し、
前記第2の取得手段は、前記第1の取得手段が取得した前記把持手段の前記変化と、前記第3の取得手段が取得した前記外力とに基づき、前記対象物の把持状態を取得し、
前記計画手段は、前記第2の取得手段が取得した前記把持状態と、前記第3の取得手段が取得した前記外力とに基づき前記ロボットの行動を計画することを特徴とする請求項4から8のいずれか1項に記載のロボット制御装置。 - 前記把持手段は、前記対象物に接触した際に、受動的に前記対象物の形状に倣って可動である棒状体が、複数配置されて成るエンドエフェクタであり、前記エンドエフェクタにかかる力とトルクの少なくとも一つを計測する第2の計測手段と、
前記対象物の仮想ダイナミクスを取得するために、前記第1の取得手段が取得した前記把持手段の前記変化と前記第2の計測手段が計測した計測結果と、から前記対象物の仮想ダイナミクスを取得する第4の取得手段と、
をさらに具備し、
前記第2の取得手段は、前記第1の取得手段が取得した前記把持手段の前記変化と、前記仮想ダイナミクスとに基づき、前記対象物の把持状態を取得し、
前記計画手段は、前記第2の取得手段が取得した前記把持状態と、前記仮想ダイナミクスとに基づき前記ロボットの行動を計画することを特徴とする請求項4から9のいずれか1項に記載のロボット制御装置。 - 前記仮想ダイナミクスは、前記対象物の形状および柔らかさを含むことを特徴とする請求項10記載のロボット制御装置。
- ロボットが対象物を操作することを制御するロボット制御方法であって、
前記対象物を把持する把持手段が前記対象物に接触した際の、前記把持手段の変化を計測するステップと、
前記計測するステップにより計測された前記把持手段の前記変化を取得するステップと、
前記取得するステップにより取得された前記把持手段の前記変化に基づいて、前記把持手段が前記対象物を把持する状態である把持状態を取得するステップと、
前記把持状態を取得するステップにより取得された前記把持状態に基づいて、前記ロボットの行動を計画するステップと、
を含むことを特徴とするロボット制御方法。 - 請求項2から8のいずれか1項に記載のロボット制御装置と、
前記対象物を操作する前記ロボットと、
を具備し、前記ロボットは、前記計画手段が計画した行動計画に基づき、前記対象物を操作することを特徴とするロボットシステム。 - 請求項9記載のロボット制御装置と、
前記対象物を操作する前記ロボットと、
を具備し、
前記ロボットは、
前記把持手段に取り付けられた弾性部材、
を具備し、
前記第3の取得手段は、前記計測手段により計測された前記把持手段の前記変化と、前記弾性部材の剛性に基づき、前記把持手段が前記対象物に与えている前記外力を取得し、
前記ロボットは、前記計画手段が計画した行動計画に基づき、前記対象物を操作することを特徴とするロボットシステム。 - 請求項10記載のロボット制御装置と、
前記対象物を操作する前記ロボットと、
を具備し、
前記ロボットは、
前記対象物に接触した際に、受動的に前記対象物の形状に倣って可動である棒状体が、複数配置されて成るエンドエフェクタである前記把持手段と、
前記エンドエフェクタにかかる力とトルクの少なくとも一つを取得する力覚センサと、
を具備し、
前記第2の計測手段は、前記力覚センサが取得する力とトルクの少なくとも一つを計測し、
前記ロボットは、前記計画手段が計画した行動計画に基づき、前記対象物を操作することを特徴とするロボットシステム。 - コンピュータを、請求項1から11のいずれか1項に記載のロボット制御装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016070131A JP2017177294A (ja) | 2016-03-31 | 2016-03-31 | ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム |
US15/473,197 US10800033B2 (en) | 2016-03-31 | 2017-03-29 | Robot control apparatus, robot control method, robot system, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016070131A JP2017177294A (ja) | 2016-03-31 | 2016-03-31 | ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017177294A true JP2017177294A (ja) | 2017-10-05 |
Family
ID=59960663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016070131A Pending JP2017177294A (ja) | 2016-03-31 | 2016-03-31 | ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10800033B2 (ja) |
JP (1) | JP2017177294A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019081208A (ja) * | 2017-10-30 | 2019-05-30 | 株式会社東芝 | 情報処理装置及びロボットアーム制御システム |
JP2020044596A (ja) * | 2018-09-18 | 2020-03-26 | 株式会社東芝 | 物品姿勢変更装置および物品姿勢変更方法 |
JP2020157386A (ja) * | 2019-03-25 | 2020-10-01 | アイシン・エィ・ダブリュ株式会社 | 物品把持装置 |
CN111941392A (zh) * | 2019-05-14 | 2020-11-17 | 发那科株式会社 | 机器人操作装置、机器人及机器人操作方法 |
WO2021132107A1 (ja) * | 2019-12-25 | 2021-07-01 | 株式会社Preferred Networks | ロボット、制御方法およびプログラム |
JP2022123642A (ja) * | 2021-02-12 | 2022-08-24 | Pacraft株式会社 | 袋搬送装置 |
CN115352878A (zh) * | 2019-06-28 | 2022-11-18 | 因特利格雷特总部有限责任公司 | 物品搬运操纵器 |
WO2023062941A1 (ja) * | 2021-10-15 | 2023-04-20 | ソニーグループ株式会社 | 把持制御装置、および把持制御方法 |
WO2023188045A1 (ja) * | 2022-03-29 | 2023-10-05 | 日本電気株式会社 | ロボットシステム、処理方法、および記録媒体 |
WO2024080155A1 (ja) * | 2022-10-14 | 2024-04-18 | パナソニックIpマネジメント株式会社 | ロボットシステム、ロボットの制御装置、およびロボットの制御方法 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10093022B2 (en) * | 2015-12-18 | 2018-10-09 | General Electric Company | Control system and method for brake bleeding |
JP6415291B2 (ja) * | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2018161700A (ja) * | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法、製造方法 |
US10836034B2 (en) * | 2017-07-10 | 2020-11-17 | Kindred Systems Inc. | Systems, devices, articles, and methods for prehension of items |
JP6676030B2 (ja) * | 2017-11-20 | 2020-04-08 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
JP7025215B2 (ja) * | 2018-01-05 | 2022-02-24 | ローム株式会社 | 測位システム及び測位方法 |
US11584016B2 (en) * | 2018-04-24 | 2023-02-21 | Fanuc Corporation | Robot controller and system |
US11312014B2 (en) * | 2018-09-10 | 2022-04-26 | Kindred Systems Inc. | System and method for robotic gripping utilizing dynamic collision modeling for vacuum suction and finger control |
JP7047726B2 (ja) * | 2018-11-27 | 2022-04-05 | トヨタ自動車株式会社 | 把持ロボットおよび把持ロボットの制御プログラム |
JP7094210B2 (ja) * | 2018-11-29 | 2022-07-01 | 株式会社安川電機 | 特性推定システム、特性推定方法、及びプログラム |
KR102203438B1 (ko) * | 2018-12-26 | 2021-01-14 | 엘지전자 주식회사 | 이동 로봇 및 이동 로봇의 제어방법 |
JP7204513B2 (ja) * | 2019-02-13 | 2023-01-16 | 株式会社東芝 | 制御装置及びプログラム |
JP7364696B2 (ja) * | 2020-01-20 | 2023-10-18 | ファナック株式会社 | ロボットシミュレーション装置 |
JP2021183372A (ja) * | 2020-05-22 | 2021-12-02 | コニカミノルタ株式会社 | 物品保持システム |
US11565406B2 (en) * | 2020-11-23 | 2023-01-31 | Mitsubishi Electric Research Laboratories, Inc. | Multi-tentacular soft robotic grippers |
US11986955B2 (en) * | 2021-09-09 | 2024-05-21 | Intrinsic Innovation Llc | In-hand pose refinement for pick and place automation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59201778A (ja) * | 1983-04-28 | 1984-11-15 | 三立工業株式会社 | フレキシブル接触手 |
US4609220A (en) * | 1983-09-12 | 1986-09-02 | National Research Development Corporation | Artificial hand device |
US5688013A (en) * | 1992-11-26 | 1997-11-18 | Sehrt; Friedhelm | Handling device with movable pins for gripping an object |
JP2000254884A (ja) * | 1999-03-10 | 2000-09-19 | Keiogijuku | ハンド又はマニピュレータによる物体把持制御方法 |
JP2002166383A (ja) * | 2000-11-29 | 2002-06-11 | Mitsubishi Heavy Ind Ltd | ロボットアーム機構の触覚システム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8752749B2 (en) * | 2008-02-14 | 2014-06-17 | Ethicon Endo-Surgery, Inc. | Robotically-controlled disposable motor-driven loading unit |
US8485576B2 (en) * | 2008-06-23 | 2013-07-16 | Douglas Holtz | Robotic gripper |
DE112011101331T5 (de) | 2010-04-15 | 2013-01-31 | Cornell University | Greif- und Ablegevorrichtung und -verfahren |
WO2013027251A1 (ja) * | 2011-08-19 | 2013-02-28 | 株式会社安川電機 | ロボットシステム、ロボット制御装置、ロボットハンド及びロボットの制御方法 |
CN104271322B (zh) * | 2012-03-08 | 2016-09-21 | 品质制造有限公司 | 触敏机器人抓手 |
US9579801B2 (en) * | 2013-06-11 | 2017-02-28 | Somatis Sensor Solutions LLC | Systems and methods for sensing objects |
US9283674B2 (en) * | 2014-01-07 | 2016-03-15 | Irobot Corporation | Remotely operating a mobile robot |
US9554512B2 (en) * | 2014-09-12 | 2017-01-31 | Washington State University | Robotic systems, methods, and end-effectors for harvesting produce |
US10189168B2 (en) * | 2014-11-18 | 2019-01-29 | Soft Robotics, Inc. | Soft robotic actuator enhancements |
US9844885B2 (en) * | 2015-11-27 | 2017-12-19 | Tamkang University | Gripping device having opened and closed gripping modes |
-
2016
- 2016-03-31 JP JP2016070131A patent/JP2017177294A/ja active Pending
-
2017
- 2017-03-29 US US15/473,197 patent/US10800033B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59201778A (ja) * | 1983-04-28 | 1984-11-15 | 三立工業株式会社 | フレキシブル接触手 |
US4609220A (en) * | 1983-09-12 | 1986-09-02 | National Research Development Corporation | Artificial hand device |
US5688013A (en) * | 1992-11-26 | 1997-11-18 | Sehrt; Friedhelm | Handling device with movable pins for gripping an object |
JP2000254884A (ja) * | 1999-03-10 | 2000-09-19 | Keiogijuku | ハンド又はマニピュレータによる物体把持制御方法 |
JP2002166383A (ja) * | 2000-11-29 | 2002-06-11 | Mitsubishi Heavy Ind Ltd | ロボットアーム機構の触覚システム |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7062406B2 (ja) | 2017-10-30 | 2022-05-16 | 株式会社東芝 | 情報処理装置及びロボットアーム制御システム |
JP2019081208A (ja) * | 2017-10-30 | 2019-05-30 | 株式会社東芝 | 情報処理装置及びロボットアーム制御システム |
US11541537B2 (en) | 2018-09-18 | 2023-01-03 | Kabushiki Kaisha Toshiba | Article posture changing device and article posture changing method |
JP2020044596A (ja) * | 2018-09-18 | 2020-03-26 | 株式会社東芝 | 物品姿勢変更装置および物品姿勢変更方法 |
JP2020157386A (ja) * | 2019-03-25 | 2020-10-01 | アイシン・エィ・ダブリュ株式会社 | 物品把持装置 |
JP7188220B2 (ja) | 2019-03-25 | 2022-12-13 | 株式会社アイシン | 物品把持装置 |
CN111941392A (zh) * | 2019-05-14 | 2020-11-17 | 发那科株式会社 | 机器人操作装置、机器人及机器人操作方法 |
JP2020185639A (ja) * | 2019-05-14 | 2020-11-19 | ファナック株式会社 | ロボット操作装置、ロボットおよびロボット操作方法 |
JP7306871B2 (ja) | 2019-05-14 | 2023-07-11 | ファナック株式会社 | ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置 |
US11618166B2 (en) | 2019-05-14 | 2023-04-04 | Fanuc Corporation | Robot operating device, robot, and robot operating method |
CN115352878A (zh) * | 2019-06-28 | 2022-11-18 | 因特利格雷特总部有限责任公司 | 物品搬运操纵器 |
WO2021132107A1 (ja) * | 2019-12-25 | 2021-07-01 | 株式会社Preferred Networks | ロボット、制御方法およびプログラム |
JP2022123642A (ja) * | 2021-02-12 | 2022-08-24 | Pacraft株式会社 | 袋搬送装置 |
JP7472053B2 (ja) | 2021-02-12 | 2024-04-22 | Pacraft株式会社 | 袋搬送装置 |
WO2023062941A1 (ja) * | 2021-10-15 | 2023-04-20 | ソニーグループ株式会社 | 把持制御装置、および把持制御方法 |
WO2023188045A1 (ja) * | 2022-03-29 | 2023-10-05 | 日本電気株式会社 | ロボットシステム、処理方法、および記録媒体 |
WO2024080155A1 (ja) * | 2022-10-14 | 2024-04-18 | パナソニックIpマネジメント株式会社 | ロボットシステム、ロボットの制御装置、およびロボットの制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US10800033B2 (en) | 2020-10-13 |
US20170282363A1 (en) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017177294A (ja) | ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム | |
US10839261B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6752615B2 (ja) | 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム | |
EP3869464B1 (en) | Learning apparatus and learning method | |
JP7154815B2 (ja) | 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体 | |
US10335951B2 (en) | Information processing apparatus, information processing method, robot control apparatus, and robot system | |
JP6541397B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6450960B2 (ja) | ロボット、ロボットシステム及び教示方法 | |
US20170249561A1 (en) | Robot learning via human-demonstration of tasks with force and position objectives | |
KR20180114217A (ko) | 로봇 파지용 심층 기계 학습 방법 및 장치 | |
JP2020532440A (ja) | オブジェクトをロバストに把持し、ターゲティングするためのロボットシステムおよび方法 | |
JP7191569B2 (ja) | 把持装置 | |
JP2019188516A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2019181687A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Koyama et al. | Integrated control of a multi-fingered hand and arm using proximity sensors on the fingertips | |
Wan et al. | Variability and predictability in tactile sensing during grasping | |
US20240083023A1 (en) | Robot model learning device, robot model machine learning method, recording medium storing robot model machine learning program, robot control device, robot control method, and recording medium storing robot control program | |
CN116323110A (zh) | 轨道生成装置、轨道生成方法以及轨道生成程序 | |
RU2745380C1 (ru) | Способ и система захвата объектов с помощью роботизированного устройства | |
JP2022060003A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
Ford et al. | Tactile-driven gentle grasping for human-robot collaborative tasks | |
TWI784700B (zh) | 機器人系統及拾取方法 | |
KR20190014953A (ko) | 영상기반 비접촉식 촉각 센싱 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201215 |