JP2017177294A - ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム - Google Patents

ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム Download PDF

Info

Publication number
JP2017177294A
JP2017177294A JP2016070131A JP2016070131A JP2017177294A JP 2017177294 A JP2017177294 A JP 2017177294A JP 2016070131 A JP2016070131 A JP 2016070131A JP 2016070131 A JP2016070131 A JP 2016070131A JP 2017177294 A JP2017177294 A JP 2017177294A
Authority
JP
Japan
Prior art keywords
gripping
robot
unit
change
end effector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016070131A
Other languages
English (en)
Inventor
山田 大輔
Daisuke Yamada
大輔 山田
小林 一彦
Kazuhiko Kobayashi
一彦 小林
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
哲理 園田
Tetsutoshi Sonoda
哲理 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016070131A priority Critical patent/JP2017177294A/ja
Priority to US15/473,197 priority patent/US10800033B2/en
Publication of JP2017177294A publication Critical patent/JP2017177294A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0071Gripping heads and other end effectors with needles engaging into objects to be gripped
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/10Gripping heads and other end effectors having finger members with three or more finger members
    • B25J15/106Gripping heads and other end effectors having finger members with three or more finger members moving in parallel relationship
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37048Split beam, stripe projection on object, lines detected with cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40583Detect relative position or orientation between gripper and currently handled object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

【課題】対象物の位置姿勢の計測が困難な場合であっても、対象物の把持状態を認識し、対象物を適切に把持することのできるロボット制御装置を提供することにある。【解決手段】ロボットが対象物を操作することを制御するロボット制御装置であって、対象物を把持する把持手段が対象物に接触した際の、把持手段の変化を計測する計測手段と、計測手段により計測された把持手段の変化を取得する第1の取得手段と、第1の取得手段により取得された把持手段の変化に基づいて、把持手段が対象物を把持する状態である把持状態を取得する第2の取得手段と、第2の取得手段により取得された把持状態に基づいて、ロボットの行動を制御する制御手段と、を備える。【選択図】図2

Description

本発明は、対象物を操作するロボットを制御するロボット制御装置、ロボット制御方法、ロボットシステム及びコンピュータプログラムに関する。
従来、ロボットを用いた対象物の操作において、ビジョンセンサ(Vision Sensor)を用いてロボットが把持すべき対象物の位置姿勢の計測を行っている。
しかし、ビジョンセンサを用いた対象物の位置姿勢の正確な計測が困難な状況で、対象物を把持する場合もある。このような場合、対象物に接触するロボットハンド等に力覚センサなどを備えさせ、ロボットハンドの対象物への接触位置を計測することで、対象物の位置姿勢の誤差を修正することができる。
ビジョンセンサでは対象物の位置姿勢の正確な計測が困難な状況下での対象物の把持につき、特許文献1は、大量の粒状材料を弾性膜で包んで構成した万能グリッパーを開示する。特許文献1の万能グリッパーは、正圧及び負圧を使用して受動的に目標対象形状に一致する。これにより、ビジョンセンサを利用せずに、対象物へのアプローチ位置がわからない場合でも対象物を把持することができる。
また、非特許文献1は、複数のピンをアレイ状に構成したフィンガを備えるオムニグリッパー(Omnigripper)を開示する。非特許文献1のフィンガは、受動的に対象物の形状にフィットすることで、対象物を把持することができる。
特表2013−523478号公報
P. B. Scott, "The Omnigripper’ : a form of robot universal gripper," Robotica vol. 3,pp. 153−158, Sept. 1985
しかしながら、上記先行技術文献が開示する手法では、ロボットが把持する対象物の形状に対して、受動的に倣っているだけなので、グリッパーによる対象物の把持状態を認識できず、対象物を適切に把持できないという課題がある。例えば、複数種類の対象物を把持して分類する作業においては、把持している対象物の形状が分からないため、複数種類の対象物を分類することもできない。
本発明は、上記課題を解決するためになされたものであり、その目的は、対象物の位置姿勢の計測が困難な場合であっても、対象物の把持状態を認識し、対象物を適切に把持することのできるロボット制御装置を提供することにある。
上記課題を解決するために、本願発明に係るロボット制御装置の一態様は、ロボットが対象物を操作することを制御するロボット制御装置であって、前記対象物を把持する把持手段が前記対象物に接触した際の、前記把持手段の変化を計測する計測手段と、前記計測手段により計測された前記把持手段の前記変化を取得する第1の取得手段と、前記取得手段により取得された前記把持手段の前記変化に基づいて、前記把持手段が前記対象物を把持する状態である把持状態を取得する第2の取得手段と、前記第2の取得手段により取得された前記把持状態に基づいて、前記ロボットの行動を制御する制御手段と、を備える。
本発明によれば、対象物の位置姿勢の計測が困難な場合であっても、対象物の把持状態を認識し、対象物を適切に把持することができる。
実施形態1におけるロボットシステムの装置構成の概要を示す図である。 実施形態1における対象物を認識する方法を説明する図である。 実施形態1における対象物を認識する方法を説明する図である。 実施形態1におけるロボットシステムの機能要素の構成図である。 実施形態1におけるロボットシステムの処理を示すフローチャートである。 実施形態1におけるロボットシステムの座標系の関係を説明する図である。 実施形態2におけるロボットシステムの機能要素の構成図である。 実施形態2におけるロボットシステムの処理を示すフローチャートである。 実施形態3におけるロボットシステムの機能要素の構成図である。 実施形態3におけるロボットシステムの処理を示すフローチャートである。 各実施形態で説明した各部のハードウェア構成の一例を示す図である。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
本実施形態において、ロボットシステムは、受動的に対象物の形状に倣って可動する複数の棒(把持手段)を備えたエンドエフェクタを有するロボットを制御するシステムである。このロボットシステムにおいて、ロボットのエンドエフェクタが備える受動的に対象物の形状に倣って可動する複数の棒の変位を計測することで、エンドエフェクタの対象物に対する把持状態を認識し、把持の可否や対象物の形状を認識する。
対象物に対する把持状態を認識した後、対象物を把持可能と判断する場合は、エンドエフェクタが備える複数の棒でそのまま対象物を把持し、引き続き、例えば、把持した対象物の分類作業を実行することができる。
このような処理を実行することで、ビジョンセンサで認識困難な対象物でも、把持と形状の計測を行うことができる。
本実施形態において、ロボットが操作する「対象物」は、例えばトナー容器のように、ビジョンセンサでは認識困難な、半透明あるいは透明の部品であってよい。また、本実施形態において、これら対象物は、箱にバラ積みされていてよい。また、本実施形態において、「分類」とは、複数の対象物を、同じ種類ごとに分けて指定された場所へ配置することをいう。
(ロボットシステムの構成)
図1は、本実施形態におけるロボットシステムでの対象物の把持、対象物の認識処理を実現するためのロボットシステムの構成の一例を説明する図である。図1は、本実施形態のロボットシステムの機器構成の一例であり、本発明の適用範囲を限定するものではない。
ロボット101は、ロボットアームを備えたロボットであり、アームの先端部には対象物106を把持し操作する(例えば移動する)エンドエフェクタ105が取り付けられている。ロボット101は、情報処理装置104(ロボット制御装置)が決定した行動を実行して対象物106を操作する。
ここで、「行動」とは、対象物106を操作するためのロボット101の動作のことである。図1において、例えば、行動は、ロボット101が対象物106を把持し、対象物106を搬送し、配置場所107に種類ごとに分類して対象物106を配置することである。
撮像装置(ビジョンセンサ)102は、撮像手段であって、例えばカメラや、光を検出するセンサ、フォトダイオードなどで構成することができる。撮像装置102は、対象物106と配置場所107の画像情報を取得する。情報処理装置104は、撮像装置102が取得した画像情報を処理する。
この撮像装置102は、例えば、ロボット101のアームや、エンドエフェクタ105等に取り付けられていてよい。あるいは撮像装置102は、対象物106が置かれている場所や、対象物106が配置される配置場所107を撮影できる外部に固定的に取り付けられていてもよい。
光源103は、例えば可視光を投影するプロジェクタで構成してもよい。あるいは光源103は、レーザーを用いて赤外光を投影するように構成してもよい。光源103からの光(可視光、赤外レーザー光等)により、対象物106と配置場所107とを、均一照明光やパターン光等で照明する。この光源103は、撮像装置102と同様に、ロボット101に取り付けられていてもよいし、対象物106と配置場所107を照明することができる外部に固定的に備え付けられていてもよい。
情報処理装置104は、ロボット101を制御する装置であって、コンピュータなどの計算機およびハードディスクなどの補助記憶装置によって構成される。
情報処理装置104は、インターフェース機器を介してロボット101、撮像装置102、光源103及びエンドエフェクタ105と接続されており、これらの機器と随時通信することができ、これらの機器の動作を制御する。
エンドエフェクタ105は、対象物106を操作し、例えば把持する。
本実施形態において、エンドエフェクタ105が対象物106に接触したときのエンドエフェクタ105の変化が計測される。情報処理装置104は、この計測されたエンドエフェクタ105の変化に基づき、対象物106の状態を認識する。ここで、認識される状態とは、エンドエフェクタ105による対象物106の把持状態や、対象物106の形状、位置姿勢等である。
本実施形態において、エンドエフェクタ105のフィンガは、対象物106にそれぞれ接触する複数の棒(棒状体)が配列されて構成されている。このフィンガは、例えば平行開閉チャックが対象物106を挟み込む部分のように、対象物106に接触し、把持する部分のことを表す。エンドエフェクタ105のフィンガは、複数の棒(棒状体)と、それらの棒を収容する基体とから構成される。基体には、複数の棒がそれぞれ進退する複数の孔が設けられている。
このような構成によって、フィンガが対象物106に接触すると、対象物106の形状に倣うように、フィンガのそれぞれの棒が対象物106に当接する位置まで上下に(棒の長手方向に)可動する。この棒の位置の変化である変位を計測することによって、対象物106の形状を認識することが可能となる。このフィンガの複数の棒の変化は、棒の位置の変化である変位の他、例えば、棒の速度や加速度の変化として取得することができる。
フィンガ(棒)の変位は、例えばカメラなどのビジョンセンサを使うことによって計測することができる。このフィンガの変位の計測を画像から取得するため、本実施形態では、フィンガを構成する棒の上部(対象物106と接触する棒の先端)またはその近傍に、円形の部品が取り付けられている。この上部に取り付けた円形の部品をカメラで撮影し、この円形の部品のサイズを計測することによって、棒の移動量(変位)やどの位置にあるのか知ることができる。
ここで、円形の部品の円の検出は、一般的な画像処理ライブラリを使用することができる。例えば、OpenCV(Open Source Computer Vision Library)を用い、撮像した画像中の指定領域に対してハフ変換(Hough transform)を行う。このハフ変換によって円を検出し、その検出した円のサイズを計測する。
ここで、検出した円のサイズとフィンガの変位について、予め相関関係を記録したテーブルを準備しておき、このテーブルを参照して円のサイズからフィンガの変位を算出(認識)することができる。この相関テーブルは、例えば情報処理装置104内に格納しておくことができるが、情報処理装置104からアクセス可能な外部に配置してもよい。
このようにして、フィンガ(棒)の変位を計測し、フィンガによる対象物106の把持状態を認識することで、対象物106を把持可能か否かの判断を行う。対象物106を把持可能であると推定される場合は、ロボット101はそのまま対象物106の把持を行う。他方、対象物106を把持することができないと推定される場合は、再び計測を行う。すなわち、エンドエフェクタ105の位置や向きを調整した行動を設定し、再びフィンガの棒の変位の計測を行う。
対象物106は、ロボット101による操作、すなわちマニピュレーションの処理がなされる対象物106である。例えば、トナー容器等であり、ロボット101によって把持され、搬送され、分類されることが想定される対象物である。例えば、トナー容器は半透明の部品である場合もあり、また、サイズも種類ごとに異なる。これらはバラ積みされた状態からロボット101によって取り出され、種類ごとに配置場所107に配置される。
配置場所107は、ロボット101により把持された対象物106が種類ごとに分類され配置される場所である。例えば、配置場所107は種類ごとに異なるベルトコンベアとすることができ、その上に分類して配置された対象物106は、ベルトコンベアにより移動し、その後のリサイクル処理等の対象となる。
(把持状態の認識)
ここで、把持状態の認識につき、フィンガの状態をカメラで計測した結果を示す図2及び図3を参照して説明する。
図2(a)は、対象物106に接触したエンドエフェクタ105のフィンガを対象物106側から見た場合の、フィンガを構成する各棒の伸び縮みを表す図である。図2(a)においては、濃淡によってフィンガの棒が「伸びている」、「縮んでいる」を表している。図2(b)は、この濃淡とフィンガの棒の伸び/縮みの関係を示す図であり、濃い部分は、フィンガの棒が伸びていることを表している。また、淡い部分は、対象物106に接触してフィンガの棒が縮んでいることを表している。
図2(a)においては、フィンガを構成する棒の中で内側に配置された棒が縮んでいて、フィンガを構成する棒の中でより外側になるに連れてフィンガの棒が伸びている状態を示している。この場合、このままフィンガを閉じる(図2(a)に示す爪105aと爪105bとを狭めるように挟む)ことによって両端において伸びているフィンガの棒で、対象物106aを挟み込める状態にあると認識される。その結果、対象物106aを把持可能と推定される。
他方、図3においては、フィンガの内側の棒が伸びていて、外側の棒(図3中左側)が縮んでいる。この場合、このままフィンガを閉じても、対象物106bをフィンガで挟みこむことができない状態にあると認識される。
その結果、対象物106bを把持するができないと推定される。
なお、この把持状態の認識は、予め分かっている対象物106の形状から幾何学的に行ってもよいし、機械学習の手法を利用して予め多くのデータサンプルを保持しておき、その結果から認識を実行してもよい。
本実施形態では、把持の方法は、フィンガで対象物106を挟み込むことで行う。このような把持を行うためには、例えば、エンドエフェクタ105を2つのブロックで構成し、各ブロックにそれぞれフィンガ(複数の棒から構成される)を取り付けておく。
把持の際には、各ブロックの根本に回転機構を取り付けておく。そして、この回転機構を駆動させるアクチュエータを動作させることで、左右のブロックに備えられたフィンガ(爪105a、爪105b)で、対象物106を包み込むように把持することができる。
このとき、フィンガの位置は回転によって変化するが、フィンガの位置変化を計測する計測機器を各ブロックに取り付けておくことで、アクチュエータの駆動に関わらずにフィンガの位置を計測できる。あるいは、フィンガの駆動は回転機構でなくとも、平行移動する機構によって挟み込んで把持してもよい。
このように、本実施形態においては、エンドエフェクタ105が棒状の把持手段を構成し、複数の棒(棒状体)が、それぞれ、対象物に接触したときに受動的に可動し、対象物106の形状に倣う。これら複数の棒が対象物106に接触した際のそれぞれの棒の位置などの変化によって、対象物106の形状などを認識することが可能となる。これら複数の棒は、対象物106を把持するためのフィンガとして使うこともでき、2つのブロックに分けて構成された複数の棒で、対象物106を挟みこむことによって把持を行う。このようにエンドエフェクタ105を構成する複数の棒(棒状把持手段)が、認識機能と把持機能との2種類の機能を備える。
また、本実施形態において、エンドエフェクタ105が対象物106に接触したときに、エンドエフェクタ105のフィンガを構成する複数の棒が、受動的に対象物106の形状に倣って可動し、対象物106を把持する。そして、「把持状態」とは、これら複数の棒(把持手段)が対象物106を把持している状態のことをいう。
また、「把持状態を認識する」とは、具体的には、フィンガ(複数の棒)によって、対象物106を計画通りに把持できているか否かといった把持成否の認識を含む。また、把持成否の認識に加えて、対象物106の形状や柔らかさなどの仮想ダイナミクスを認識できているかといった対象物106に関する情報の認識を含む。
(ロボットシステムの機能要素の構成)
図4は本実施形態における対象物106の分類作業を実現するためのロボットシステム200の機能要素の構成と機能要素間の関係を模式的に表現した図である。
情報処理装置104は、ロボット101を制御するロボット制御装置である。情報処理装置104は、把持部変化取得部202(第1の取得手段)と、把持状態認識部203(第2の取得手段)と、部品データベース204と、行動計画部205(計画手段・制御手段)と、操作データベース206と、を備える。情報処理装置104は、例えばコンピュータで構成してよく、把持部変化取得部202と、把持状態認識部203と、行動計画部205と、はコンピュータのCPUが所定のプログラムを実行し、所定のハードウェアを制御することによって実現してよい。
ロボット101は、行動計画部205からの動作命令に従って動作する。
エンドエフェクタ105は、ロボット101のアームの先端に取り付けられており、行動計画部205からの動作命令に従って動作する。
把持部変化計測部201(計測手段)は、エンドエフェクタ105の把持部であるフィンガの変化を計測する手段であり、例えばカメラである。このカメラは、例えば、エンドエフェクタ105に取り付けてもよいし、ロボット101に取り付けてもよいし、また、ロボット101とは別の外部に配置又は取り付けられてもよい。フィンガの変位を計測できるのであれば、カメラはどこに配置されてもよい。
あるいは、把持部変化計測部201は、カメラの他に、エンコーダのようにフィンガの変化を直接的に計測できる手段でもよいし、さらに、フィンガの変化を間接的に計測できる他の手段でもよい。
把持部変化取得部202は、把持部変化計測部201が計測した結果を取得する。例えば、把持部変化計測部201であるカメラが、把持部変化計測(画像の撮像)を実行する場合、このカメラから取得した画像は、例えば、情報処理装置104内部のキャプチャボードやRAM(メモリ)に保存される。その後、把持部変化計測部201が、この画像に対する把持部の変化の計測処理を実行する。
ここで、把持部変化計測部201が計測する把持部(フィンガ)の変化とは、エンドエフェクタ105の説明で述べたように、フィンガ(複数の棒)の位置の変化である変位、棒の速度や加速度の変化などである。これらのうち、少なくとも一つを計測すればよい。
把持状態認識部203は、把持部変化取得部202が取得した結果から、対象物106の把持状態を認識する。把持状態の認識とは、対象物106を把持できているか否かに関する把持成否の認識や、対象物106の形状の認識を含む。この把持状態は、フィンガの棒の変位から認識できることは、既に説明した通りである(図2、図3参照)。
部品データベース204は、対象物106の部品の種類と、部品の形状の情報を保持している。
把持状態認識部203は、対象物106の把持状態を認識する際に、適宜、部品データベース204中の、対象物106のデータを参照する。ここで、参照する対象物106のデータとは、対象物106の例えばCADデータやCGポリゴンなどのモデルデータでよい。あるいは、参照する対象物106のデータは、対象物106を多方向から観察した二次元画像の集合から構成されてもよいし、対象物106の寸法データでもよい。
このような部品データベース204を用いれば、対象物106の把持状態をより正確に認識することができる。しかし、部品データベース204は必ずしも用いなくてもよく、図2や図3で説明したように、フィンガの棒の変位のみから、対象物106の把持状態を認識してもよい。
行動計画部205は、把持状態認識部203が認識した把持状態を入力として、この認識された把持状態に基づき、ロボット101の行動を計画し、行動計画を作成する。行動計画部205は、作成した行動計画を、動作命令としてロボット101およびエンドエフェクタ105へ出力する。
操作データベース206は、行動計画部205がロボット101の行動を計画する際に参照する部品の種類(部品種)の情報と、作業手順の情報とを保持している。行動計画部205は、行動を計画する際に、適宜、操作データベース206内の上記情報を参照する。
ここで、「行動計画」とは、ロボット101が対象物106に接触する行動や、把持動作や、配置動作、など種々の行動を計画すること、および、その作成した結果である計画を意味する。この行動計画は、撮像装置102が得た画像を元にした三次元形状計測の結果に基づき計画してもよいし、エンドエフェクタ105が得た把持状態の情報を元にして計画してもよい。
(ロボットシステムが実行する把持及びに認識処理)
図5は、本実施形態におけるロボットシステム200の処理の流れを示すフローチャートである。図5に示す処理は、主として情報処理装置104が実行する。以下、図5に従って処理の手順を説明する。
S1において、情報処理装置104は、本実施形態におけるロボットシステム200の初期化を行う。具体的にはロボットシステム200に含まれる各装置が例えばユーザーにより起動される。情報処理装置104が起動すると、情報処理装置104にロボットシステム200を実現するためのプログラムがロードされ、情報処理装置104中の不図示のメモリ上に展開される。この結果、情報処理装置104中のCPUが、そのプログラムを実行可能な状態となる。
また、S1において、ロボット101、撮像装置102、エンドエフェクタ105においても、各種の機器パラメータの読み込みや、初期位置への復帰などが実行され、各機器が使用可能な状態となる。
S2において、把持部変化取得部202は、把持部変化計測部201を構成する撮像装置102を用いて、対象物106および配置場所107に関する画像情報を取得する。
S3において、把持状態認識部203は、三次元形状計測を実行する。三次元形状計測は、例えば対象物106のパターンマッチングにより実行することができる。具体的には、把持状態認識部203は、部品データベース204の情報を参照し、撮像装置102で取得した画像情報をもとにして、パターンマッチングを行って対象物106の部品種を判断する。このパターンマッチングの具体的な方法としては、例えば相関ベースマッチングが挙げられる。この相関ベースマッチングによれば、部品データベース204に保持されている複数種類の部品パターンと入力画像との比較により、最も類似するパターンを認識することで、対象物106の部品種の決定を行うことができる。なお、ここでは、パターンマッチングを用いる例を説明したが、対象物106の部品種を判別することができれば他の処理を用いてもよい。
次に、把持状態認識部203は、パターンマッチングによって判断された結果をもとにして、対象物106のモデルフィッティングを実行する。
具体的には、例えば、均一照明を用いて対象物106を撮像した画像中のエッジと、部品データベース204に保持されているCADデータを元にしたエッジモデルとのフィッティング処理を行う。このようなモデルフィッティングを行って、対象物106の位置姿勢を計測することができる。
あるいは、三角測量の原理に基づいて、対象物106表面の距離点群データを求める手法を利用してもよい。具体的には、例えば、光源103にマルチラインのパターン光を出射させて対象物106を照明しながら、撮像を行う。そして、得られた画像から表面に投影されたパターンを検出し、三角測量の原理に基づいて、対象物106表面の距離点群データを求める。
このようにして得られた対象物106の表面の距離点群データと、部品データベース204に保持されている対象物106の点群モデルとのフィッティング処理を行って、対象物106の位置姿勢を計測することができる。ここで、フィッティングの処理は、例えば、Itecrative Closest Pointアルゴリズムを利用して行うことができる。ただし、モデルフィッティングができれば、Iteractive Closest Pointアルゴリズム以外の他の処理を適用してもよい。なお、上で説明した対象物106の0位置および姿勢の計測処理の具体的な処理は一例であり、対象物106の位置および姿勢を計測できれば、パターンマッチングとモデルフィッティング以外のアルゴリズムを利用してもよい。
次に、S4において、把持状態認識部203は、認識成否の判定を行う。具体的には、S3における対象物106の三次元計測による認識が成功した場合は、対象物106の把持動作を行うための行動計画を決定するために、S10へ移行する。他方、対象物106の三次元計測による認識が失敗し場合は、対象物106への接触動作を再度行うための行動計画を決定するために、S5へ移行する。認識成否の判定は、例えば、距離点群データと点群モデルとのモデルフィティングにおける誤差の値が閾値よりも小さいか否かで判断できる。すなわち、誤差の値が閾値よりも小さい場合に、三次元計測による認識が成功したと判断し、誤差の値が閾値よりも大きい場合に、三次元計測が失敗したと判断すればよい。
S5において、行動計画部205は、対象物106への接触動作を行うための行動計画を決定する。ここで、S3において、対象物106の認識が失敗した場合でも、対象物106のおおよその位置が判明している場合は、そのおおよその位置を目標位置として行動計画を決定することができる。具体的には、行動計画部205は、計測された距離画像を用いて、対象物106が存在する可能性のある領域内で最も近い位置や、対象物106の寸法に近い大きさで距離情報を得られた位置などを目標位置とすることができる。また、おおよその位置は、S3における認識処理において計測された位置姿勢の値を用いてもよい。
ここで、前者の、対象物106が存在する可能性のある領域内で最も近い位置とは次のとおり決定する。すなわち、図3の説明で述べたような、フィンガの内側に配置された棒が伸びており、フィンガの外側に配置された棒が縮んでいる場合、外側(図3では左外側)に対象物106bが存在している可能性が高いとする。そのため、対象物106の予め分かっている寸法に基づいて、対象物106の位置を推定して求める。また、後者の、対象物106の寸法に近い大きさで距離情報を得られた位置は、S3で説明したように、計測された対象物106の三次元形状から求めることができる。
あるいは、対象物106の位置が全く分からない場合には、予め決まっている対象物106の存在し得る領域を目標位置とすることができる。この目標位置に対して、エンドエフェクタ105が到達するようにロボット101の行動を計画することで、対象物106にエンドエフェクタ105を接触させることを目指す。
S6において、ロボット101が、S5において決定された行動計画に基づき、対象物106に対して接触動作を行う。この接触動作においては、エンドエフェクタ105が対象物106に接触して把持部(フィンガ)の変化を計測するまでロボット101が目標位置を目指し動作を行う。ここで、エンドエフェクタ105が目標位置に到達しても把持部が対象物106に対して接触したことを検知できない場合は、新たな目標位置を設定し、再び動作を行う。
S7において、把持部変化取得部202は、S6においてロボット101が動作を行い、エンドエフェクタ105が対象物106に接触した結果を取得する。具体的には、まず、把持部である複数の棒を備えるフィンガが対象物106に接触したとき、複数の棒がそれぞれ、対象物106の形状に倣って受動的に可動する。その際のそれぞれの棒の変位を、把持部変化計測部201が計測する。
具体的な計測方法は、既に説明したように、例えばそれぞれの棒の上部に円形状の物品(円形の物品)を取り付ける。そして、複数の棒をカメラで一度に撮像して画像を得、画像中のその円形状の物品のサイズと棒の変位との関係から、棒が対象物105と接触した位置を算出することができる。把持部変化取得部202は、このようにして算出した結果を取得することで、把持部(フィンガ)の変化を取得し、S8に移行する。
S8において、把持状態認識部203は、S7で得られた計測結果から把持状態を認識する。ここで、把持状態とは、上記のとおり、対象物106を確実に把持できているか否かに関する状態や、把持しているエンドエフェクタ105の状態、対象物106に接触している棒の状態から認識できる対象物106の形状、位置姿勢等の状態などを含む。
把持状態認識部203は、把持部変化取得部202が得た把持部変化の情報と、部品データベース204から読み出した対象物106の情報とを用いて把持状態を認識する。
S9において、把持状態認識部203は、対象物106を把持可能か否か判定する。具体的には、把持状態認識部203は、S8においてなされた対象物106に対する把持状態の認識結果に基づき、この判定を実行する。
判定の結果、把持可能であると判定する場合は、S10に移行し、対象物106の把持動作の行動計画を決定する。他方、把持不可能であると判定する場合は、S5へ移行し、再び接触動作を行うための行動計画がなされる。
このとき、例えば図3に示すような計測結果が得られた場合、対象物106bはエンドエフェクタ105の(図3中)左側にあることが推測される。そのため、次の接触動作のためのロボット101の行動計画では、対象物106bが存在する可能性の高い位置に接触できるように、ハンドエフェクタ105を左にずらすようにロボット101の行動が計画される。このように、新たに決定される行動計画では、これまでの把持状態認識結果が利用される。
S10において、行動計画部205は、把持動作のためのロボット101の行動計画を決定する。S4からS10に移行した場合は、対象物106へのアプローチ動作から計画が作成される。
ここで、決定される行動計画につき具体的に説明する。まず、図6のように、作業空間内で基準となる座標系として、ワールド座標系Σwを設定する。ワールド座標系Σwからロボット座標系Σrまでの変位を(RX,RY,RZ)とする。また、ロボット101の姿勢を表す3×3の回転行列をRMとする。上述した変位(RX,RY,RZ)およびRMは、ロボット101が固定されていれば定数としてよい。
一方、ロボット101が固定されていない場合は、例えば、ロボット101に対して9軸センサ(3軸ジャイロセンサ、3軸加速度センサ、3軸地磁気センサ)を取り付けることによって、変位(RX,RY,RZ)およびRMを求めてもよい。あるいは、ロボット101が可動する周囲に予め位置認識用のマーカーを設置しておくことで、変位(RX,RY,RZ)およびRMを求めてもよい。ここで説明した手法以外にも、Σwに対してのロボット101の位置姿勢が分かる方法であれば、他の方法を利用してもよい。
次に、ロボット座標系Σrからロボット101の先端座標系Σfまでの変位を(FX,FY,FZ)とする。そして、ロボット101の先端の姿勢を表す3×3の回転行列をFMとする。変位(FX,FY,FZ)およびFMの求め方は、ロボット101のリンク長と関節角度から順運動学を用いて計算できる。
また、ロボット101の先端座標系Σfからロボット101の先端に取り付けられているエンドエフェクタ105の先端の座標系Σeまでの変位を(EX,EY,EZ)とする。ロボット101の先端に取り付けられているエンドエフェクタ105先端の姿勢を表す3×3の回転行列をEMとする。(EX,EY,EZ)およびEMの求め方は、エンドエフェクタ105を取り付けた際に、ロボット101の先端からエンドエフェクタ105先端までの距離および姿勢を直接計測することで計算できる。
次に、ロボット座標系Σrから撮像装置座標系Σcまでの変位を(CX,CY,CZ)とする。撮像装置102の姿勢を表す3×3の回転行列をCMとする。(CX,CY,CZ)およびCMも同様に、ロボット101の先端から撮像装置102までの距離および姿勢を直接計測することで計算できる。
さらに、撮像装置座標系Σcから対象物座標系Σvまでの変位を(VX,VY,VZ)とする。対象物106の姿勢を表す3×3の回転行列をVMとする。(VX,VY,VZ)およびVMは、S3で述べたように計測を行うことで求めることができる。
ここで、Σwから見た対象物106の変位を(WX,WY,WZ)、姿勢を表す3×3の回転行列をWMとすると、これら(WX,WY,WZ)及びWMの値は以下の式(1)を用いて算出することができる。
Figure 2017177294
同様の処理を繰り返せば、分類場所(配置場所107)の位置姿勢も求めることができる。そして、行動計画部205は、把持状態認識部203の認識結果に基づき、動作の計画を行うことによって行動計画を作成する。本実施形態においては、以上のようにして、ロボット101の行動が計画され、行動計画が作成される。
その後、把持動作を行うため、行動計画部205が作成した行動計画に基づき、エンドエフェクタ105に対して閉動作を行う命令生成され、発行される。
他方、S9からS10へ移行した場合には、S8での認識結果に基づき行動計画部205は、ロボット101の行動計画を決定する。決定された行動計画に従って、行動計画部205はロボット101とエンドエフェクタ105とに命令を発行する。
S11において、S10で決定されたロボット101の行動計画に基づき、ロボット101およびエンドエフェクタ105が動作し、対象物106の把持動作および配置動作等が実行される。配置動作では、認識された対象物106の種類に応じて把持された対象物106が分類され、適切な配置場所107へ配置される。
S12において、情報処理装置104は、撮像装置102が取得した画像あるいはS8における認識結果に基づき、次の対象物106が存在するか否かを判定する。次の対象物106が存在する場合には、S2に戻り処理を続行する。次の対象物106が存在しない場合には、本実施形態における計測を終了し、対象物106の把持・配置動作を終了する。
以上説明したように、本実施形態によれば、例えばビジョンセンサによる対象物106の三次元形状の認識に失敗した場合に、エンドエフェクタ105のフィンガの対象物106への接触に伴う変化を計測する。これにより、対象物106の把持状態を認識する。そして、この認識結果に基づき、そのまま対象物106を把持する。このような動作を実行することによって、ビジョンセンサのみでは位置姿勢を正確に認識できない対象物106であっても、その形状を認識し、把持を行うことができる。そのため、対象物106を把持できる可能性が高まる。また、把持した対象物106を種類ごとに分類することも可能となる。
実施形態2
本実施形態は、対象物106に与えられる外力を制御する例を説明する。具体的には、上述した実施形態1で述べたロボットシステムに対して、フィンガが可動する方向に仮想ダイナミクスを適用することによって、接触動作時に対象物106に与える外力を制御できるよう構成したものである。
より詳細には、本実施形態において、エンドエフェクタ105のフィンガ(把持部)を構成する棒(例えば、棒の上部)にばねなどの弾性部品(弾性部材)を取り付けている。そして、フィンガの変位(棒の変位)と、弾性部品の剛性とに基づき、エンドエフェクタ105が接触している対象物106に与えられている外力を認識する。
実施形態1においては、把持部(フィンガ)の静的動作のみを考慮し、対象物106の形状を認識した。そのため、対象物106がビニール袋や緩衝材等(包装材)に包まれたものであった場合、エンドエフェクタ105が対象物106に接触した時に、包装材を潰しきれるとは限らない。この場合、その中身である対象物106そのものの形状を計測できるとは限らない。
これに対して、本実施形態では、対象物106に与える外力を制御することによって、対象物106の周りにある包装材を潰しながら、中身の形状を計測することができる。このように制御することで、対象物106がビニール袋などの緩衝材に包まれているような場合でも、その中身である対象物106の形状を正確に計測でき、作業を継続できる可能性を拡大できる。
本実施形態における対象物106とは、ビニール袋等の緩衝材に包まれたトナーボトルを例として説明する。例えば半透明または不透明なビニール袋等の緩衝材に包まれたトナーボトルが、箱にバラ積みされている。この状態から、ロボット101が、対象物106(トナーボトル)を、種類ごとに配置場所107に分類して配置する例を説明する。
図7は、本実施形態における対象物106に対する把持動作および認識動作を実現するためのロボットシステム200aを構成する機能要素の構成例と機能要素間の関係を模式的に表現した図である。図7に示した情報処理装置104b(ロボット制御装置)において、図4に示した情報処理装置104と異なる部分である外力認識部207(第3の取得手段)を中心に説明を行う。
外力認識部207は、把持部変化取得部202が取得した把持部(フィンガ)の変化情報から、エンドエフェクタ105が対象物106に与えている外力を認識(取得)する。具体的には、外力は、フィンガの棒の変位xとエンドエフェクタ105の棒(例えば、棒の上部)に取り付けた弾性部品の剛性Kを用いて、式2のように求める。
(式2) F=Kx
ここで、フィンガの棒の変位xは実施形態1にて述べたように求めることができ、エンドエフェクタ105に取り付けた弾性部品の剛性Kは設計値として既知である。外力認識部207が認識した外力を、把持状態認識部203が把持状態の認識処理に利用してもよいし、また、行動計画部205が、この外力を利用して行動計画を決定してもよい。行動計画部205の外力の利用の仕方は、図8のS13の説明にて詳細に説明する。
図8は、本実施形態におけるロボットシステム200aを実現するための、対象物106の把持動作および認識処理の流れを示すフローチャートであり、主として、情報処理装置104中の動作を表すフローチャートである。以下、図5と異なるS13を中心として、図8に従って処理の手順を説明する。S13以外の処理は、図5における説明と同様である。
S13において、外力認識部207は、対象物106に対して加えられる外力の認識を行う。具体的には、S7においてなされた把持部変化計測の結果に基づき、上記式2に示したように外力を認識する。このようにして認識された対象物106に加えられる外力の値を利用し、対象物106の形状を認識することができる。
例えば、把持対象物106が半透明または不透明の包装材等に包まれているとき、ビジョンセンサでは包装材の中身の物体の形状を計測するのは困難である。そこで、本実施形態においては、エンドエフェクタ105により対象物106の周りの包装材を潰して、中身の物体の形状を計測し、把持状態を認識することによって、把持可否の判断を行う。このとき、対象物106に与える外力は、包装材を潰せる力F1以上で、対象物106を壊さない力F2以下である必要がある。
これらの値は事前に計測が行われ、既知であることを前提とすれば、対象物106に与える力Fについて、以下の式が成り立つようにロボット101の制御が行われる必要がある。
(式3) F<F<F
ここで、S7にて決定した目標位置への一連の動作(移動動作、把持動作)をロボット101に1回のみ実行させただけでは、上記式3を満足させることは困難な場合もある。
そこで、実際には、S5、S6、S7、S8、S13、S9に至る処理を、複数回繰り返して、フィードバックループを含む処理動作を実行させることもできる。つまり、外力認識部207が認識した外力は、行動計画部205に送られ、行動計画部205は、それに基づき、行動計画を決定することができる。この際、外力が上記式3を満足していない場合は、式3を満足させるようにフィンガに把持を実行させるように行動計画を決定しつつ、S5からS9に至る処理を続行することができる。
このようにして、行動計画部205が行動計画を決定し(S5)、それに基づき、ロボット101、エンドエフェクタ105が動作する(S6)。この動作を把持部変化計測部201が取得し、把持部変化取得部202が計測結果を取得する(S7)。計測結果に基づき、外力認識部207が外力を認識し(S13)、把持状態認識部j203は、フィンガの対象物106に対する把持状態を認識する。ここで、外力が上記式3を満足していない場合は、S5において行動計画部が行動計画を再び決定する。また、対象物106に与える力Fはフィンガを構成する棒1本1本によって異なるが、すべてのフィンガを構成する棒が式3を満たす必要はない。
本実施形態では、S9において、ロボット101が目標位置へ動作中に、式3を満たし、かつ対象物106に接触しているフィンガの棒が存在し、かつ、式3を満たしている棒の変位が、ロボット101の位置変化と同じか否かを判断する。把持状態認識部203がこの判断を行い、その結果、位置の変化と同じであれば、エンドエフェクタ105は包装材の中身の物体に接している状態であると判断する。その接していると判断できる状態において、エンドエフェクタ105の説明にて述べたように、対象物106に対する把持状態を認識することによって、把持可否の判断を行う(S9)。
以上説明したように、本実施形態によれば、フィンガを構成する棒の可動方向への可動に対して剛性を持たせるために、弾性部品を取り付けている。
これによって、対象物106へ接触したときに与える外力を認識することができ、外力を制御することができる。本実施形態では、このように、対象物106に加えられる外力を制御したうえで、対象物106に対する把持状態を認識できる。ここで、対象物106の形状を認識することができた場合、その認識結果に基づき、ロボット101にそのまま対象物106に対する把持動作を実行させることができる。また、ロボット101に対象物106を配置場所107に配置する動作を実行させることができる。
このように、本実施形態によれば、ビニール袋などの半透明や不透明の緩衝材に包まれた物体のような、ビジョンセンサのみではその位置や姿勢を正確に認識できない対象物106でも、その形状を認識することができる。具体的には、上記緩衝材を潰して中身を触ることによって認識し、対象物106の把持を実行させることができる。また、本実施形態によれば、力覚センサや圧力センサを使うことなく、対象物106に加えられる外力を制御することができる。
実施形態3
本実施形態は、実施形態1で述べたロボットシステム200に対して、ロボット101先端に力覚センサを追加することによって、接触時に対象物106の形状に加えて仮想ダイナミクスも計測できるようにしたものである。
具体的には、ロボット101のアームの先端に位置するエンドエフェクタ105の根本部分に6軸力覚センサ208を取り付けている。本実施形態においては、エンドエフェクタ105が対象物106に接触したときのフィンガの棒の変位と、力覚センサ208が計測した力の情報から、対象物106の剛性、粘性、慣性係数を認識することができる。
実施形態1では、対象物106の形状を認識する例を説明したが、例えば、対象物106がゴムのような柔らかく変形する物体の場合、その柔らかさを計測することは困難である。それに対して本実施形態では、対象物106に対して与えられている力を計測することによって、対象物106の柔らかさまで認識できる。このような構成によって、対象物106がゴムのような柔軟な物体でも、その柔らかさを認識することができ、柔らかさに基づき、対象物106を分類し、所定の配置場所107に配置することができる。また、また把持に必要な力を認識できるので、対象物106に応じた力で把持をすることができる。その結果、対象物106を破損してしまう可能性を減少させ、したがって、ロボット101による把持作業および配置作業をより長く継続できる可能性を拡大できる。
図9は、本実施形態における対象物106に対する把持作業および対象物106の認識処理を実現するためのロボットシステム200bの機能要素の構成と機能要素間の関係を模式的に表現した図である。図9に示した情報処理装置104cにおいて、図4に示した情報処理装置104と異なる部分である力覚センサ208と、力覚情報取得部209と、力・トルク計測部210と、仮想ダイナミクス認識部211と、を中心として以下説明する。
力覚センサ208は、ロボット101のアームの先端に取り付けられているエンドエフェクタ105の根本に取り付けられている。力覚センサ208は、ひずみゲージや圧電素子で構成され、ロボット101で対象物106を把持しているときのロボット101のエンドエフェクタ105にかかる力とトルクを計測する6軸力覚センサ(Force/Torqueセンサ)である。力覚センサ208は、取得した力覚情報を情報処理装置104cに供給する。なお、本実施形態では、力とトルクとの双方を取得する例を説明するが、いずれか一方だけでもよい。
情報処理装置104cの力覚情報取得部209は、力覚センサ208から送られてきた力覚情報を取得する。力覚情報取得部209は、例えばRAM(メモリ)等の記憶手段で構成され、力覚情報を取得し、保持している。力覚情報取得部209が取得した力覚情報は、力・トルク計測部210が力やトルクを算出する際に利用される。
力・トルク計測部210は、力覚情報取得部209が取得した力覚情報を入力として、対象物106を把持あるいは搬送しているときにロボット101にかかる力とトルクを認識する。なお、本実施形態では、力とトルクとの双方を認識しているが、いずれか一方だけでもよい。このようにして認識した結果は、仮想ダイナミクス認識部211における各種パラメータの認識において利用される。
仮想ダイナミクス認識部211は、対象物106の仮想ダイナミクスの柔らかさ、すなわち弾性係数KK、粘性係数D、慣性係数Mを認識する。具体的には、式4を用いてこれらのパタメータを算出する。
(式4) F=KKx+D(dx/dt)+M(dx/dt
ここで、フィンガの棒の変位xは実施形態1にて述べたように求め、Fはロボット101のアームの先端に取り付けた力覚センサ208を用いて求めることができる。また、(dx/dt)、(dx/dt)はロボット101の速度、加速度として、ロボット101の変位を複数回計測し、その差分から求めることもできる。また、これらは、加速度センサなどをロボット101に備えて、これを用いて求めてもよい。
このようにして、F、x、(dx/dt)、(d2x/dt2)を、それぞれ複数種類求めることができる。したがって、求めた複数種類の値を用いて、式4から、連立方程式を立てることができる。この連立方程式を解くことによって、弾性係数KK、粘性係数D、慣性係数Mを認識する(算出する)ことができる。なお、ここでは、弾性係数KK、粘性係数D、慣性係数Mを全て求める手法を述べたが、いずれか一つ以上を求めてもよい。例えば、弾性係数KKだけ求める場合は、式4において、粘性係数D、慣性係数Mを含む項を考慮せずに、フィンガを構成する棒の位置の変化だけ求めればよい。同様に、粘性係数Dだけ求める場合は、式4において、弾性係数KK、慣性係数Mを含む項を考慮せずに、フィンガの棒の速度の変化だけ求めればよい。同様に、慣性係数Mだけ求める場合は、式4において、弾性係数KK、粘性係数Dを含む項を考慮せずに、フィンガの棒の加速度の変化だけ求めればよい。また、2つの係数を求める場合も、同様に該当する係数を含む項を考慮すればよい。
このように、本実施形態においては、ロボット101は、受動的に対象物106の形状に倣って可動し、対象物106を把持することのできる複数の棒を備えたフィンガを有するエンドエフェクタ105を具備している。この結果、その複数の棒の位置、速度、加速度の少なくとも一つを計測することによって、仮想ダイナミクスを認識することができる。このように、本実施形態では、エンドエフェクタ105(把持手段)が対象物106に接触した際の位置、速度、及び加速度の少なくとも一つを計測している。
図10は本実施形態におけるロボットシステム200bを実現するためのロボット101の対象物106に対する把持動作および対象物106の認識処理の流れを示すフローチャートである。このフローチャートは、情報処理装置104cの動作を中心として表されている。
以下、図10のフローチャートが、図5と異なるステップS14、S15を中心として、図10のフローチャートに基づいて、本実施形態における処理の手順を説明する。
S14において、力・トルク計測部210は、力・トルク計測処理を実行する。力・トルク計測部210は、ロボット101が対象物106に接触したときの力覚情報の計測結果に基づき、エンドエフェクタ105にかかる力およびトルクを求める。
ロボット101のエンドエフェクタ105が対象物106に接触したとき、ロボット101のエンドエフェクタ105には接触動作に伴ってさまざまな力がかかる。力覚センサ208は、これらの力の値をひずみゲージや圧電素子を用いて計測することにより、エンドエフェクタ105が対象物106への接触により生じた力覚情報として、力およびトルクを計測する。力覚情報取得部209は、力覚センサ208から力覚情報を取得し、内部に保持する。力・トルク計測部210は、この力覚情報に基づき、力およびトルクを求める。
S15において、仮想ダイナミクス認識部211は、仮想ダイナミクスの認識を実行する。具体的な認識の方法は仮想ダイナミクス認識部211の説明で述べた通りである。なお、把持状態認識部203は、仮想ダイナミクス認識部211の認識結果を踏まえて、把持可否の判断を行う(S9)。
S10において、行動計画部205は、このようにして認識した把持状態に基づき、行動計画を決定する。この際、行動計画部205は、仮想ダイナミクス認識部211が認識した仮想ダイナミクスにも基づいて、行動計画を作成することができる。ロボット101およびエンドエフェクタ105は、この行動計画に基づく命令を行動計画部205から受信し、動作を実行する。
ここで、対象物106が、仮想ダイナミクスの異なる複数種類存在する場合には、この認識結果に基づき分類し、対応する配置場所107に配置してもよい。また、仮想ダイナミクスの認識結果を元に、ロボット把持動作時の把持力の調整を行ってもよい。例えば、対象物106が軟体物である場合、エンドエフェクタ105が把持する際の、爪105aと爪105bとの間隔として、決まった固定間隔で把持を行っても、落下してしまう可能性がある。対象物106がこのような軟体物の場合、対象物106の仮想ダイナミクスに応じて把持力を設定して把持してもよい。認識された仮想ダイナミクスに応じて把持力を制御する方法を採用する場合は、把持方向の力を計測できるように他のセンサ(力覚センサ、圧力センサなど)を利用してもよい。また、エンドエフェクタ105のフィンガの開閉(爪105aと爪105bとの開閉)を行うアクチュエータでコンプライアンス制御(Compliance control)を行ってもよい。
以上説明したように、本実施形態によれば、ロボット101のアームの先端に力覚センサ208を備えさせ、エンドエフェクタ105に加えられる力およびトルクを計測している。このような構成によって、対象物106に接触したときの力を計測し、対象物106の仮想ダイナミクスを認識することができる。したがって、本実施形態によれば、対象物106が、ゴムのような柔らかい物体で有る場合でも、その仮想ダイナミクスを実際にその対象物106に触れることによって認識することができる。そして、かかる認識に基づき、柔軟な対象物106であっても、それに対する把持動作を行い、対象物106の配置動作をロボット101に行わせることができる。さらに、行動計画部205は、仮想ダイナミクスに基づいて、行動計画を作成することができる。
このように、本実施形態によれば、対象物106を把持することのできる複数の棒の位置、速度、加速度の少なくとも一つを計測することによって、把持機能と認識機能を両立させたロボット制御装置を提供することができる。また、同様に把持機能と認識機能を両立させたロボット制御方法、ロボットシステムを提供することができる。
変形例・応用例1
実施形態1、2、3において、エンドエフェクタ105をロボット101のアームの先端に取り付けている。しかし、エンドエフェクタ105をロボット101と分離し、対象物106を固定する治具として使用してもよい。このような治具は、対象物106を固定するとともに、棒の位置等から、対象物106の固定情報や、対象物106の形状等を測定することができる。
例えば、この治具(エンドエフェクタ105)を所定の位置・場所に、その棒が所定方向(例えば「上」)を向くように配置して、その上に対象物106を配置することができる。このように対象物106を配置すれば、対象物106が複雑な形状を有している場合、または、対象物106が柔らかな材質である場合においても、対象物106をより安定に配置することができる。さらに、棒の位置を測定することによって、対象物106の形状や柔らかさを認識してもよい。
また、このように、対象物106の位置姿勢をより安定して固定できるので、ロボット101による対象物106に対する把持動作をより行いやすくすることができる。この場合、ロボット101が、対象物106に対してアプローチ動作を行う時に、エンドエフェクタ105のフィンガの周辺の棒が適宜凹む(縮む)ので、対象物106に対するアプローチ動作の障害となる恐れは少ない。
変形例・応用例2
実施形態1、2、3において、フィンガで対象物106を把持することなく、フィンガの棒を中空構造にすることで、フィンガの棒の先端で対象物106を吸着して搬送してもよい。このような吸着は、例えば、フィンガを構成する各棒から、吸着のための真空エジェクタや真空ポンプ、または、通常のエアポンプ等を用いて、フィンガを構成する各棒から空気を吸引することによって実現することができる。
この際、各フィンガの棒が対象物106に対する接触有無をそれぞれ検知することで、接触している棒に関してのみ吸引を行うように構成してもよい。すなわち、対象物106に接触している棒に接続するエジェクタのみON動作させてもよい。このような構成によって、流量の無駄を削減することができる。
このように、エジェクタのON動作/OFF動作で制御することができるtが、それに替えて、それぞれの棒に弁を設けて、この弁を開閉して制御してもよい。
このような吸引を実現する構成を採用することによって、把持困難な物体でも、吸着によって搬送が可能となる。
変形例・応用例3
実施形態1、2、3において、フィンガ(を構成する棒)の形状、材質は特に限定されない。例えば、平たい物体のリブ部分(例えば複写機のリブ部分)を把持する場合、フィンガの棒をしなるような材質を用いて構成してもよい。このような材質の棒でフィンガを構成すれば、対象物106を把持する際に、フィンガの棒は適宜「しなる」ので、対象物106に加えられる力の大きさの変動を抑制することができる。
また、その際、エンドエフェクタ105のアクチュエータでコンプライアンス制御を行い、把持方向へ与える力の制御や、仮想ダイナミクスの計測を実行させてもよい。この場合、ロボット101のサーボ自身のコンプライアンスと合わせて把持方向のプロパティを計測してもよい。
対象物106がバラ積みされた状態の中から対象物106を把持する際、フィンガの棒の先端(対象物106に接触する側)を、基体と摺動する部分よりも大きくすることができる。例えば、摺動する部分よりも大きな直径を有する球体等で構成することができる。このような構成を採用すれば、フィンガを開閉することなく、対象物106を把持できる場合もある。すなわち、フィンガを構成する棒が「しなる」ので、対象物106に接触した場合に、棒が、対象物106の大きさに合わせてしなり、上で説明した球体の部分を対象物106の背面に位置させることも対象物106によっては可能である。したがって、この場合、この球体によって、対象物106を抱き込むように把持することができる場合がある。
変形例・応用例4
実施形態1、2、3において、フィンガの(棒の)位置、速度、加速度の少なくとも一つの情報から、対象物106を把持した後の異常検知を行ってもよい。例えば、対象物106の把持に成功している場合、把持後はフィンガの棒の変位は変化しないはずである。しかし、滑りなどが生じれば変位が変化するため、上記いずれかのパラメータの値が異常値を示す場合もある。したがって、上記パラメータを認識することによって、ロボット101が実行する動作の異常の検知を行うことができる。
すなわち、把持後もフィンガの棒の状態を計測し続け、変化があれば、落下や滑りが発生したと判断して、異常検知を行ってもよい。
また、ロボット101が対象物106を把持しているときに、対象物106の傾きなどが生じればその状態を認識し、把持位置を変えてより重心に近い位置を把持し直すように構成してもよい。また、そのような把持位置の変更処理等があった場合は、次の処理対象である対象物106を把持する動作において、この把持位置の変更処理をフィードバック(適用)してもよい。例えば、長さが長い対象物106を把持している場合は、作業の途中で対象物106がエンドエフェクタ105のフィンガと滑り、ずれが生じる恐れがあるが、このような場合に有用である。
変形例・応用例5
実施形態1、2、3において、フィンガを構成する棒の配列や長さ、摺動方向の剛性は基本的に全て同様のものである。しかし、フィンガを構成する棒の配列や長さ、摺動方向の剛性は不均一でもよい。例えば、フィンガの外側になるほどフィンガを構成する棒の存在密度を高くしてもよい。また、フィンガの外側になるほど棒の長さを長くしてもよい。また、フィンガの外側になるほど棒の剛性を大きくしてもよい。このような構成によれば、エンドエフェクタ105のフィンガが対象物106に接触した時に、対象物106をフィンガの内側に誘導することができ、より安定した把持状態を実現することができる。
また、稼働(摺動)方向の剛性が不一致でもよく、例えば、外側になればなるほど剛性を強くしてもよい。このような構成によれば、対象物106を把持しようとする際、対象物106を内側に誘導することができる。
変形例・応用例6
実施形態1、2、3において、ビジョンセンサを用いて、画像から、把持部(フィンガ)の変化および把持部(フィンガ)を構成する棒の変化の計測を併用してもよい。この場合、専用のカメラを使わずに、上述した撮像装置102をそのまま利用してもよい。
また、ロボット101にオンハンドカメラが備えられている場合は、撮像装置102の代わりに、または、撮像装置102とともに、そのオンハンドカメラを利用してもよい。また、作業空間に固定されたカメラを用いてフィンガ(およびそれを構成する棒)の計測を行える場合は、ロボット101の座標系との関係からフィンガおよびその棒の変位を計測してもよい。
変形例・応用例7
上述した各実施形態によれば、ビジョンセンサでは形状把握が困難な対象物106でも、把持することができる技術を説明した。しかし、各実施形態で説明した技術を、ビジョンセンサを用いた従来の技術と組み合わせて利用してもよい。例えば、半透明・不透明な部分がない対象物106であれば、ビジョンセンサを利用した従来の手法を用いて、ビジョンセンサが適用できない対象物106の場合に、上記各実施形態で説明した技術を用いるように構成してもよい。
(ハードウェア構成例)
図11は、上記各実施形態の各部を構成することのできるコンピュータ310の構成の例を示す。例えば、図4に示す情報処理装置104を、コンピュータ310で構成することができる。また、図7に示す情報処理装置104bや、図9に示す情報処理装置104cを、コンピュータ310で構成することもできる。
CPU311は、ROM312、RAM313、外部メモリ314等に格納されたプログラムを実行することによって、上記各実施形態の各部を実現する。ROM312、RAM313は上記CPUが実行するプログラムや各種データを保持することができる。
また、外部メモリ314は、ハードディスク、光学式ディスクや半導体記憶装置等で構成してよく、部品データベース204、操作データベース206を構成することができる。また、撮像部315は、撮像装置102や、把持部変化計測部201を構成することができる。
入力部316は、ユーザーインターフェース部を構成することができる。キーボードやタッチパネルで構成することができるが、マウス等のポインティングデバイスや各種スイッチで構成してもよい。
表示部317は、ユーザーに対し任意の表示を行う各種ディスプレイで構成することができる。通信I/F318は、外部と通信を行うインターフェースであり、例えば図4の把持部変化取得部202と、把持部変化計測部201とのインターフェースを司ることができる。また、行動計画部205と、エンドエフェクタ105やロボット101との通信のインターフェースとして機能することができる。また、コンピュータ310の上記説明した各部はバス319によって相互に接続されている。
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。
即ち、上述した実施形態の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給することができる。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPUまたは1つ以上のプロセッサ等)がプログラムを読み出して実行する処理で上述した各処理を実現することもできる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101・・・ロボット、102・・・撮像装置、103・・・光源、104・・・情報処理装置、105・・・エンドエフェクタ、106・・・対象物、107・・・配置場所、201・・・把持部変化計測部、202・・・把持部変化取得部、203・・・把持状態認識部、204・・・部品データベース、205・・・行動計画部、206・・・操作データベース、207・・・外力認識部、208・・・力覚センサ、209・・・力覚情報取得部、210・・・力・トルク計測部、211・・・仮想ダイナミクス認識部

Claims (16)

  1. ロボットが対象物を操作することを制御するロボット制御装置であって、
    前記対象物を把持する把持手段が前記対象物に接触した際の、前記把持手段の変化を計測する計測手段と、
    前記計測手段により計測された前記把持手段の前記変化を取得する第1の取得手段と、
    前記第1の取得手段により取得された前記把持手段の前記変化に基づいて、前記把持手段が前記対象物を把持する状態である把持状態を取得する第2の取得手段と、
    前記第2の取得手段により取得された前記把持状態に基づいて、前記ロボットの行動を制御する制御手段と、
    を備えることを特徴とするロボット制御装置。
  2. 前記制御手段は、前記第2の取得手段により取得された前記把持状態に基づいて、前記ロボットの行動を計画する計画手段を更に備えることを特徴とする請求項1に記載のロボット制御装置。
  3. 前記計測手段が計測する前記把持手段の前記変化は、前記把持手段が前記対象物に接触した際の位置、速度及び加速度の少なくとも一つである、ことを特徴とする請求項1または2に記載のロボット制御装置。
  4. 前記計測手段は、撮像手段により撮像された前記把持手段の画像に基づいて、前記把持手段の前記変化を計測する、ことを特徴とする請求項1乃至3のいずれか1項に記載のロボット制御装置。
  5. 前記計画手段は、前記把持手段が前記対象物に接触する接触動作と、前記把持手段が前記対象物を把持する把持動作と、の双方の行動を計画する、ことを特徴とする請求項1から4のいずれか1項に記載のロボット制御装置。
  6. 前記第2の取得手段により取得された前記把持状態に基づいて、前記把持手段が前記対象物を把持可能であるか否かを判定し、前記把持手段が前記対象物を把持可能でないと判定された場合には、前記計画手段に前記把持動作の行動を計画させる判定手段をさらに備える、ことを特徴とする請求項5に記載のロボット制御装置。
  7. 前記把持手段は、前記対象物に接触した際に、受動的に前記対象物の形状に倣って可動である棒状体が、複数配置されて成るエンドエフェクタであり、
    前記ロボット制御装置は、前記エンドエフェクタをさらに備える、ことを特徴とする請求項1から6のいずれか1項に記載のロボット制御装置。
  8. 前記第2の取得手段は、前記エンドエフェクタの外側に配置される棒状体と、前記エンドエフェクタの内側に配置される棒状体との変化の差に基づいて、前記把持状態を取得する、ことを特徴とする請求項7に記載のロボット制御装置。
  9. 前記把持手段が前記対象物に対して与えている外力を取得する第3の取得手段、
    をさらに具備し、
    前記第2の取得手段は、前記第1の取得手段が取得した前記把持手段の前記変化と、前記第3の取得手段が取得した前記外力とに基づき、前記対象物の把持状態を取得し、
    前記計画手段は、前記第2の取得手段が取得した前記把持状態と、前記第3の取得手段が取得した前記外力とに基づき前記ロボットの行動を計画することを特徴とする請求項4から8のいずれか1項に記載のロボット制御装置。
  10. 前記把持手段は、前記対象物に接触した際に、受動的に前記対象物の形状に倣って可動である棒状体が、複数配置されて成るエンドエフェクタであり、前記エンドエフェクタにかかる力とトルクの少なくとも一つを計測する第2の計測手段と、
    前記対象物の仮想ダイナミクスを取得するために、前記第1の取得手段が取得した前記把持手段の前記変化と前記第2の計測手段が計測した計測結果と、から前記対象物の仮想ダイナミクスを取得する第4の取得手段と、
    をさらに具備し、
    前記第2の取得手段は、前記第1の取得手段が取得した前記把持手段の前記変化と、前記仮想ダイナミクスとに基づき、前記対象物の把持状態を取得し、
    前記計画手段は、前記第2の取得手段が取得した前記把持状態と、前記仮想ダイナミクスとに基づき前記ロボットの行動を計画することを特徴とする請求項4から9のいずれか1項に記載のロボット制御装置。
  11. 前記仮想ダイナミクスは、前記対象物の形状および柔らかさを含むことを特徴とする請求項10記載のロボット制御装置。
  12. ロボットが対象物を操作することを制御するロボット制御方法であって、
    前記対象物を把持する把持手段が前記対象物に接触した際の、前記把持手段の変化を計測するステップと、
    前記計測するステップにより計測された前記把持手段の前記変化を取得するステップと、
    前記取得するステップにより取得された前記把持手段の前記変化に基づいて、前記把持手段が前記対象物を把持する状態である把持状態を取得するステップと、
    前記把持状態を取得するステップにより取得された前記把持状態に基づいて、前記ロボットの行動を計画するステップと、
    を含むことを特徴とするロボット制御方法。
  13. 請求項2から8のいずれか1項に記載のロボット制御装置と、
    前記対象物を操作する前記ロボットと、
    を具備し、前記ロボットは、前記計画手段が計画した行動計画に基づき、前記対象物を操作することを特徴とするロボットシステム。
  14. 請求項9記載のロボット制御装置と、
    前記対象物を操作する前記ロボットと、
    を具備し、
    前記ロボットは、
    前記把持手段に取り付けられた弾性部材、
    を具備し、
    前記第3の取得手段は、前記計測手段により計測された前記把持手段の前記変化と、前記弾性部材の剛性に基づき、前記把持手段が前記対象物に与えている前記外力を取得し、
    前記ロボットは、前記計画手段が計画した行動計画に基づき、前記対象物を操作することを特徴とするロボットシステム。
  15. 請求項10記載のロボット制御装置と、
    前記対象物を操作する前記ロボットと、
    を具備し、
    前記ロボットは、
    前記対象物に接触した際に、受動的に前記対象物の形状に倣って可動である棒状体が、複数配置されて成るエンドエフェクタである前記把持手段と、
    前記エンドエフェクタにかかる力とトルクの少なくとも一つを取得する力覚センサと、
    を具備し、
    前記第2の計測手段は、前記力覚センサが取得する力とトルクの少なくとも一つを計測し、
    前記ロボットは、前記計画手段が計画した行動計画に基づき、前記対象物を操作することを特徴とするロボットシステム。
  16. コンピュータを、請求項1から11のいずれか1項に記載のロボット制御装置の各手段として機能させるためのコンピュータプログラム。
JP2016070131A 2016-03-31 2016-03-31 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム Pending JP2017177294A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016070131A JP2017177294A (ja) 2016-03-31 2016-03-31 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム
US15/473,197 US10800033B2 (en) 2016-03-31 2017-03-29 Robot control apparatus, robot control method, robot system, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016070131A JP2017177294A (ja) 2016-03-31 2016-03-31 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2017177294A true JP2017177294A (ja) 2017-10-05

Family

ID=59960663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016070131A Pending JP2017177294A (ja) 2016-03-31 2016-03-31 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム

Country Status (2)

Country Link
US (1) US10800033B2 (ja)
JP (1) JP2017177294A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019081208A (ja) * 2017-10-30 2019-05-30 株式会社東芝 情報処理装置及びロボットアーム制御システム
JP2020044596A (ja) * 2018-09-18 2020-03-26 株式会社東芝 物品姿勢変更装置および物品姿勢変更方法
JP2020157386A (ja) * 2019-03-25 2020-10-01 アイシン・エィ・ダブリュ株式会社 物品把持装置
CN111941392A (zh) * 2019-05-14 2020-11-17 发那科株式会社 机器人操作装置、机器人及机器人操作方法
WO2021132107A1 (ja) * 2019-12-25 2021-07-01 株式会社Preferred Networks ロボット、制御方法およびプログラム
JP2022123642A (ja) * 2021-02-12 2022-08-24 Pacraft株式会社 袋搬送装置
CN115352878A (zh) * 2019-06-28 2022-11-18 因特利格雷特总部有限责任公司 物品搬运操纵器
WO2023062941A1 (ja) * 2021-10-15 2023-04-20 ソニーグループ株式会社 把持制御装置、および把持制御方法
WO2023188045A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 ロボットシステム、処理方法、および記録媒体
WO2024080155A1 (ja) * 2022-10-14 2024-04-18 パナソニックIpマネジメント株式会社 ロボットシステム、ロボットの制御装置、およびロボットの制御方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10093022B2 (en) * 2015-12-18 2018-10-09 General Electric Company Control system and method for brake bleeding
JP6415291B2 (ja) * 2014-12-09 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2018161700A (ja) * 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、システム、情報処理方法、製造方法
US10836034B2 (en) * 2017-07-10 2020-11-17 Kindred Systems Inc. Systems, devices, articles, and methods for prehension of items
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
JP7025215B2 (ja) * 2018-01-05 2022-02-24 ローム株式会社 測位システム及び測位方法
US11584016B2 (en) * 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
US11312014B2 (en) * 2018-09-10 2022-04-26 Kindred Systems Inc. System and method for robotic gripping utilizing dynamic collision modeling for vacuum suction and finger control
JP7047726B2 (ja) * 2018-11-27 2022-04-05 トヨタ自動車株式会社 把持ロボットおよび把持ロボットの制御プログラム
JP7094210B2 (ja) * 2018-11-29 2022-07-01 株式会社安川電機 特性推定システム、特性推定方法、及びプログラム
KR102203438B1 (ko) * 2018-12-26 2021-01-14 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
JP7204513B2 (ja) * 2019-02-13 2023-01-16 株式会社東芝 制御装置及びプログラム
JP7364696B2 (ja) * 2020-01-20 2023-10-18 ファナック株式会社 ロボットシミュレーション装置
JP2021183372A (ja) * 2020-05-22 2021-12-02 コニカミノルタ株式会社 物品保持システム
US11565406B2 (en) * 2020-11-23 2023-01-31 Mitsubishi Electric Research Laboratories, Inc. Multi-tentacular soft robotic grippers
US11986955B2 (en) * 2021-09-09 2024-05-21 Intrinsic Innovation Llc In-hand pose refinement for pick and place automation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59201778A (ja) * 1983-04-28 1984-11-15 三立工業株式会社 フレキシブル接触手
US4609220A (en) * 1983-09-12 1986-09-02 National Research Development Corporation Artificial hand device
US5688013A (en) * 1992-11-26 1997-11-18 Sehrt; Friedhelm Handling device with movable pins for gripping an object
JP2000254884A (ja) * 1999-03-10 2000-09-19 Keiogijuku ハンド又はマニピュレータによる物体把持制御方法
JP2002166383A (ja) * 2000-11-29 2002-06-11 Mitsubishi Heavy Ind Ltd ロボットアーム機構の触覚システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8752749B2 (en) * 2008-02-14 2014-06-17 Ethicon Endo-Surgery, Inc. Robotically-controlled disposable motor-driven loading unit
US8485576B2 (en) * 2008-06-23 2013-07-16 Douglas Holtz Robotic gripper
DE112011101331T5 (de) 2010-04-15 2013-01-31 Cornell University Greif- und Ablegevorrichtung und -verfahren
WO2013027251A1 (ja) * 2011-08-19 2013-02-28 株式会社安川電機 ロボットシステム、ロボット制御装置、ロボットハンド及びロボットの制御方法
CN104271322B (zh) * 2012-03-08 2016-09-21 品质制造有限公司 触敏机器人抓手
US9579801B2 (en) * 2013-06-11 2017-02-28 Somatis Sensor Solutions LLC Systems and methods for sensing objects
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
US9554512B2 (en) * 2014-09-12 2017-01-31 Washington State University Robotic systems, methods, and end-effectors for harvesting produce
US10189168B2 (en) * 2014-11-18 2019-01-29 Soft Robotics, Inc. Soft robotic actuator enhancements
US9844885B2 (en) * 2015-11-27 2017-12-19 Tamkang University Gripping device having opened and closed gripping modes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59201778A (ja) * 1983-04-28 1984-11-15 三立工業株式会社 フレキシブル接触手
US4609220A (en) * 1983-09-12 1986-09-02 National Research Development Corporation Artificial hand device
US5688013A (en) * 1992-11-26 1997-11-18 Sehrt; Friedhelm Handling device with movable pins for gripping an object
JP2000254884A (ja) * 1999-03-10 2000-09-19 Keiogijuku ハンド又はマニピュレータによる物体把持制御方法
JP2002166383A (ja) * 2000-11-29 2002-06-11 Mitsubishi Heavy Ind Ltd ロボットアーム機構の触覚システム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062406B2 (ja) 2017-10-30 2022-05-16 株式会社東芝 情報処理装置及びロボットアーム制御システム
JP2019081208A (ja) * 2017-10-30 2019-05-30 株式会社東芝 情報処理装置及びロボットアーム制御システム
US11541537B2 (en) 2018-09-18 2023-01-03 Kabushiki Kaisha Toshiba Article posture changing device and article posture changing method
JP2020044596A (ja) * 2018-09-18 2020-03-26 株式会社東芝 物品姿勢変更装置および物品姿勢変更方法
JP2020157386A (ja) * 2019-03-25 2020-10-01 アイシン・エィ・ダブリュ株式会社 物品把持装置
JP7188220B2 (ja) 2019-03-25 2022-12-13 株式会社アイシン 物品把持装置
CN111941392A (zh) * 2019-05-14 2020-11-17 发那科株式会社 机器人操作装置、机器人及机器人操作方法
JP2020185639A (ja) * 2019-05-14 2020-11-19 ファナック株式会社 ロボット操作装置、ロボットおよびロボット操作方法
JP7306871B2 (ja) 2019-05-14 2023-07-11 ファナック株式会社 ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置
US11618166B2 (en) 2019-05-14 2023-04-04 Fanuc Corporation Robot operating device, robot, and robot operating method
CN115352878A (zh) * 2019-06-28 2022-11-18 因特利格雷特总部有限责任公司 物品搬运操纵器
WO2021132107A1 (ja) * 2019-12-25 2021-07-01 株式会社Preferred Networks ロボット、制御方法およびプログラム
JP2022123642A (ja) * 2021-02-12 2022-08-24 Pacraft株式会社 袋搬送装置
JP7472053B2 (ja) 2021-02-12 2024-04-22 Pacraft株式会社 袋搬送装置
WO2023062941A1 (ja) * 2021-10-15 2023-04-20 ソニーグループ株式会社 把持制御装置、および把持制御方法
WO2023188045A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 ロボットシステム、処理方法、および記録媒体
WO2024080155A1 (ja) * 2022-10-14 2024-04-18 パナソニックIpマネジメント株式会社 ロボットシステム、ロボットの制御装置、およびロボットの制御方法

Also Published As

Publication number Publication date
US10800033B2 (en) 2020-10-13
US20170282363A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP2017177294A (ja) ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム
US10839261B2 (en) Information processing apparatus, information processing method, and storage medium
JP6752615B2 (ja) 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム
EP3869464B1 (en) Learning apparatus and learning method
JP7154815B2 (ja) 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
US10335951B2 (en) Information processing apparatus, information processing method, robot control apparatus, and robot system
JP6541397B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
US20170249561A1 (en) Robot learning via human-demonstration of tasks with force and position objectives
KR20180114217A (ko) 로봇 파지용 심층 기계 학습 방법 및 장치
JP2020532440A (ja) オブジェクトをロバストに把持し、ターゲティングするためのロボットシステムおよび方法
JP7191569B2 (ja) 把持装置
JP2019188516A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019181687A (ja) 情報処理装置、情報処理方法及びプログラム
Koyama et al. Integrated control of a multi-fingered hand and arm using proximity sensors on the fingertips
Wan et al. Variability and predictability in tactile sensing during grasping
US20240083023A1 (en) Robot model learning device, robot model machine learning method, recording medium storing robot model machine learning program, robot control device, robot control method, and recording medium storing robot control program
CN116323110A (zh) 轨道生成装置、轨道生成方法以及轨道生成程序
RU2745380C1 (ru) Способ и система захвата объектов с помощью роботизированного устройства
JP2022060003A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
Ford et al. Tactile-driven gentle grasping for human-robot collaborative tasks
TWI784700B (zh) 機器人系統及拾取方法
KR20190014953A (ko) 영상기반 비접촉식 촉각 센싱 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201215